KR102575567B1 - System and method for providing three dimensional volumetric content service - Google Patents

System and method for providing three dimensional volumetric content service Download PDF

Info

Publication number
KR102575567B1
KR102575567B1 KR1020220067976A KR20220067976A KR102575567B1 KR 102575567 B1 KR102575567 B1 KR 102575567B1 KR 1020220067976 A KR1020220067976 A KR 1020220067976A KR 20220067976 A KR20220067976 A KR 20220067976A KR 102575567 B1 KR102575567 B1 KR 102575567B1
Authority
KR
South Korea
Prior art keywords
area
content
image
voxel size
voxel
Prior art date
Application number
KR1020220067976A
Other languages
Korean (ko)
Other versions
KR20220080060A (en
Inventor
이재희
변수진
이정숙
최지희
Original Assignee
주식회사 엘지유플러스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘지유플러스 filed Critical 주식회사 엘지유플러스
Priority to KR1020220067976A priority Critical patent/KR102575567B1/en
Publication of KR20220080060A publication Critical patent/KR20220080060A/en
Application granted granted Critical
Publication of KR102575567B1 publication Critical patent/KR102575567B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명은 본 발명은 3차원 입체 콘텐츠 서비스 제공 시스템에 관한 것으로, 보다 상세하게는 부분적으로 높은 선명도를 갖는 3차원 입체 콘텐츠를 제공할 수 있는 3차원 입체 콘텐츠 서비스 제공 시스템 및 방법에 관한 것으로, 영상 획득 장치로 획득한 콘텐츠 영상을 3개의 영역으로 구분하고 각 영역에 대한 포인트 클라우드를 각각 분리 추출하고, 각 영역에 대한 복셀 크기를 서로 다르게 결정하고, 결정된 복셀 크기에 상응하는 복셀 데이터를 토대로 콘텐츠 영상을 3차원 입체 영상으로 가공하는 기술이다. The present invention relates to a 3D stereoscopic content service providing system, and more particularly, to a 3D stereoscopic content service providing system and method capable of partially providing 3D stereoscopic content with high definition, The content image obtained by the acquisition device is divided into three regions, point clouds for each region are separately extracted, different voxel sizes are determined for each region, and the content image is based on voxel data corresponding to the determined voxel size. It is a technology that processes images into 3D stereoscopic images.

Description

3차원 입체 콘텐츠 서비스 제공 시스템 및 방법{SYSTEM AND METHOD FOR PROVIDING THREE DIMENSIONAL VOLUMETRIC CONTENT SERVICE} 3D stereoscopic content service providing system and method {SYSTEM AND METHOD FOR PROVIDING THREE DIMENSIONAL VOLUMETRIC CONTENT SERVICE}

본 발명은 3차원 입체 콘텐츠 서비스 제공 시스템에 관한 것으로, 보다 상세하게는 부분적으로 높은 선명도를 갖는 3차원 입체 콘텐츠를 제공할 수 있는 3차원 입체 콘텐츠 서비스 제공 시스템 및 방법에 관한 것이다. The present invention relates to a 3D stereoscopic content service providing system, and more particularly, to a 3D stereoscopic content service providing system and method capable of partially providing 3D stereoscopic content having high definition.

일반적으로, 3차원 입체 콘텐츠 제작 기술은, 증강 현실(Augmented Reality; AR) 서비스 및 가상 현실(Virtual Reality; VR) 서비스 등에 활용되고 있다.In general, 3D content production technology is being utilized for Augmented Reality (AR) services and Virtual Reality (VR) services.

여기서, 가상현실은, 자신(객체)과 배경, 환경 모두 현실이 아닌 가상의 이미지를 사용하는데 반해, 증강 현실은, 현실의 이미지나 배경에 3차원 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 기술로서, 혼합 현실(Mixed Reality, MR)이라고도 한다.Here, virtual reality uses virtual images that are not real for all of itself (object), background, and environment, whereas augmented reality is a technology that overlays a 3D virtual image on a real image or background to show as one image, Also known as Mixed Reality (MR).

최근, 기업체에서는, 아이돌 가수나 운동선수 등의 3차원 입체 콘텐츠를 제작하여 스마트폰과 같은 디스플레이 화면에 증강 현실로 제공하는 다양한 서비스가 시행되기도 하였다.In recent years, companies have been implementing various services that produce 3D stereoscopic content, such as idol singers and athletes, and provide it as augmented reality on a display screen such as a smartphone.

3차원 입체 콘텐츠는, 다수의 카메라를 통해 액터(actor)를 촬영하고, 촬영된 2차원 이미지로부터 3차원 위치 정보와 색상 정보를 추출하여 제작하는 방식으로 진행될 수 있다.3D stereoscopic content may be produced by photographing an actor through a plurality of cameras and extracting 3D location information and color information from the photographed 2D image.

이러한 제작 방식은, 복셀(voxel: volumetric pixel) 기반으로 3차원 입체 콘텐츠가 생성되는데, 복셀의 크기가 작을수록 세밀한 입체 정보와 색상 정보를 표현할 수 있어 콘텐츠의 선명도를 높일 수 있다. In this production method, 3D stereoscopic content is generated based on a volumetric pixel (voxel). The smaller the size of the voxel, the more detailed stereoscopic information and color information can be expressed, thereby increasing the clarity of the content.

그러나 기존의 3차원 입체 콘텐츠 제작 방식에 의해 제작된 3차원 입체 콘텐츠는, 전체적으로 선명도가 균일하지 못하고, 2차원 이미지에 비해 일부 영역의 선명도가 저하되어 뭉개져 보이는 현상이 나타나는 문제가 있었다. However, 3D stereoscopic content produced by the existing 3D content production method has a problem in that overall sharpness is not uniform, and the sharpness of some areas is lowered compared to 2D images, resulting in a phenomenon in which they appear crushed.

또한, 현재 제공 중인 3차원 입체 콘텐츠는, 데이터량이 크기 때문에 콘텐츠의 선명도를 높이기 위하여 데이터량을 증가시키는 데에는 한계가 있었다.In addition, since the amount of data of 3D stereoscopic content currently being provided is large, there is a limit to increasing the amount of data in order to increase the clarity of the content.

따라서, 향후, 데이터량을 증가시키지 않으면서도 부분적으로 낮은 선명도가 개선된 3차원 입체 콘텐츠를 제공할 수 있는 3차원 입체 콘텐츠 서비스 제공 시스템의 개발이 요구되고 있다. Therefore, in the future, there is a demand for development of a 3D stereoscopic content service providing system capable of providing 3D stereoscopic content with partially improved sharpness without increasing the amount of data.

본 발명이 해결하고자 하는 기술적 과제는, 콘텐츠 영상 중 선명도를 높이고자 하는 특정 부분의 복셀 크기를 작도록 복셀 데이터를 생성함으로써, 데이터량을 증가시키지 않으면서도 선명도가 개선된 3차원 입체 콘텐츠를 제공할 수 있는 3차원 입체 콘텐츠 서비스 제공 시스템 및 방법을 제공하는 것이다. A technical problem to be solved by the present invention is to provide 3D stereoscopic content with improved clarity without increasing the amount of data by generating voxel data to reduce the voxel size of a specific part of the content image to be enhanced. It is to provide a 3D stereoscopic content service providing system and method.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.

상기 기술적 과제를 달성하기 위한 본 발명에 따른 3차원 입체 콘텐츠 서비스 제공 시스템은, 영상 획득 장치 및 입체 영상 생성 장치를 포함한다. 상기 영상 획득 장치는 소정 객체를 촬영하여 콘텐츠 영상을 획득한다. 상기 입체 영상 생성장치는 상기 획득한 콘텐츠 영상을 3차원 입체 영상으로 가공하며, 상기 콘텐츠 영상이 수신되면 특정 부분을 인식하고, 상기 콘텐츠 영상 중 특정 부분에 상응하는 제1 영역, 상기 특정부분 이외의 부분에 상응하는 제2 영역 및 상기 제1 영역과 상기 제2 영역 사이의 경계에 위치하는 제3 영역에 대한 포인트 클라우드를 각각 분리하여 추출하며, 상기 포인트 클라우드를 토대로 제1 영역과 제2 영역에 대한 복셀 크기를 서로 다르게 결정하고, 상기 결정된 복셀 크기에 상응하는 복셀 데이터를 생성하여 상기 복셀 데이터를 토대로 상기 콘텐츠 영상을 3차원 입체 영상으로 가공한다. A 3D stereoscopic content service providing system according to the present invention for achieving the above technical problem includes an image capturing device and a stereoscopic image generating device. The image capture device obtains a content image by photographing a predetermined object. The 3D image generating device processes the obtained content image into a 3D stereoscopic image, recognizes a specific part when the content image is received, and includes a first region corresponding to the specific part among the content video, and other than the specific part. The point clouds for the second area corresponding to the part and the third area located at the boundary between the first area and the second area are separated and extracted, and the first area and the second area are separated based on the point cloud. Different voxel sizes are determined, voxel data corresponding to the determined voxel size is generated, and the content image is processed into a 3D stereoscopic image based on the voxel data.

상기 기술적 과제를 달성하기 위한 본 발명에 따른 3차원 입체 콘텐츠 서비스 제공 방법은, 영상 획득 장치와 입체 영상 재생 장치에 통신 연결되는 입체 영상 생성 장치를 포함하는 3차원 입체 콘텐츠 서비스 제공 시스템의 3차원 입체 콘텐츠 서비스 제공 방법으로, 상기 영상 획득 장치가, 소정 객체를 촬영하여 콘텐츠 영상을 획득하는 단계, 상기 입체 영상 생성 장치가, 상기 획득한 콘텐츠 영상 중 특정 부분을 인식하는 단계, 상기 입체 영상 생성 장치가, 상기 콘텐츠 영상 중 특정 부분에 상응하는 제1 영역, 상기 특정부분 이외의 부분에 상응하는 제2 영역 및 상기 제1 영역 및 상기 제2 영역 사이의 경계에 위치하는 제3 영역에 대한 포인트 클라우드를 각각 분리하여 추출하는 단계, 상기 입체 영상 생성 장치가, 상기 포인트 클라우드를 토대로 제1 영역과 제2 영역에 대한 복셀 크기를 서로 다르게 결정하는 단계, 상기 입체 영상 생성 장치가, 상기 결정된 복셀 크기에 상응하는 복셀 데이터를 생성하는 단계, 상기 입체 영상 생성 장치가, 상기 복셀 데이터를 토대로 상기 콘텐츠 영상을 3차원 입체 영상으로 가공하여 3차원 입체 영상에 대한 데이터를 인코딩하는 단계, 상기 입체 영상 재생 장치가, 상기 3차원 입체 영상에 대한 데이터를 디코딩하고 렌더링을 수행하는 단계 및 상기 입체 영상 재생 장치가, 상기 렌더링이 수행된 3차원 입체 영상을 재생하는 단계를 포함한다. A method for providing a 3D stereoscopic content service according to the present invention for achieving the above technical problem is a 3D stereoscopic content service providing system including a 3D image generating device that is communicatively connected to an image capturing device and a stereoscopic image reproducing device. A content service providing method comprising the step of acquiring a content image by photographing a predetermined object by the image capture device, recognizing a specific part of the obtained content image by the 3D image generating device, the 3D image generating device comprising: , A point cloud for a first area corresponding to a specific part of the content image, a second area corresponding to a part other than the specific part, and a third area located at the boundary between the first area and the second area. Separating and extracting, by the 3D image generating apparatus, determining different voxel sizes for the first region and the second region based on the point cloud, by the 3D image generating apparatus, corresponding to the determined voxel sizes Generating voxel data for generating a 3D image; encoding data for a 3D stereoscopic image by processing the content image into a 3D stereoscopic image based on the voxel data; the 3D image reproducing device comprising: decoding data of the 3D stereoscopic image and performing rendering; and reproducing the rendered 3D stereoscopic image by the 3D image reproducing apparatus.

상기 기술적 과제를 달성하기 위한 본 발명에 따른 입체 영상 생성 장치는, 영상 획득 장치와 입체 영상 재생 장치에 통신 연결되는 입체 영상 생성 장치이며, 특정 부분 인식부, 포인트 클라우드 추출부, 복셀 크기 결정부, 복셀 데이터 생성부 및 인코딩부를 포함한다. 상기 특정 부분 인식부는 상기 영상 획득 장치로부터 획득한 콘텐츠 영상 중 특정 부분을 인식한다. 상기 포인트 클라우드 추출부는 상기 콘텐츠 영상 중 특정 부분에 상응하는 제1 영역, 상기 특정부분 이외의 부분에 상응하는 제2 영역 및 상기 제1 영역과 상기 제2 영역 사이의 경계에 위치하는 제3 영역에 대한 포인트 클라우드를 각각 분리하여 추출한다. 상기 복셀 크기 결정부는 상기 포인트 클라우드를 토대로 상기 제1 영역과 상기 제2 영역에 대한 복셀 크기를 서로 다르게 결정한다. 상기 복셀 데이터 생성부는 상기 결정된 복셀 크기에 상응하는 복셀 데이터를 생성한다. 상기 인코딩부는 상기 복셀 데이터를 토대로 상기 콘텐츠 영상을 3차원 입체 영상으로 가공하여 3차원 입체 영상에 대한 데이터를 인코딩한다. A 3D image generating device according to the present invention for achieving the above technical problem is a 3D image generating device that is communicatively connected to an image acquisition device and a 3D image reproducing device, and includes a specific part recognizing unit, a point cloud extracting unit, a voxel size determining unit, It includes a voxel data generating unit and an encoding unit. The specific portion recognizer recognizes a specific portion of the content image obtained from the image capture device. The point cloud extractor extracts a first area corresponding to a specific part of the content image, a second area corresponding to a part other than the specific part, and a third area located at the boundary between the first area and the second area. The point clouds for each are separated and extracted. The voxel size determiner determines different voxel sizes for the first area and the second area based on the point cloud. The voxel data generator generates voxel data corresponding to the determined voxel size. The encoding unit encodes data for a 3D stereoscopic image by processing the content image into a 3D stereoscopic image based on the voxel data.

상기 기술적 과제를 달성하기 위한 본 발명에 따른 입체 영상 생성 장치의 3차원 입체 콘텐츠 서비스 제공 방법은, 특정 부분 인식부, 포인트 클라우드 추출부, 복셀 크기 결정부, 복셀 데이터 생성부, 및 인코딩부를 포함하는 입체 영상 생성 장치의 3차원 입체 콘텐츠 서비스 제공 방법으로, 상기 특정 부분 인식부가, 영상 획득 장치로부터 획득한 콘텐츠 영상 중 특정 부분을 인식하는 단계, 상기 포인트 클라우드 추출부가, 상기 콘텐츠 영상 중 특정 부분에 상응하는 제1 영역, 상기 특정부분 이외의 부분에 상응하는 제2 영역 및 상기 제1 영역과 상기 제2 영역 사이의 경계에 위치하는 제3 영역에 대한 포인트 클라우드를 각각 분리하여 추출하는 단계, 상기 복셀 크기 결정부가, 상기 포인트 클라우드를 토대로 제1 영역과 제2 영역에 대한 복셀 크기를 서로 다르게 결정하는 단계, 상기 복셀 데이터 생성부가, 상기 결정된 복셀 크기에 상응하는 복셀 데이터를 생성하는 단계 및 상기 인코딩부가, 상기 복셀 데이터를 토대로 상기 콘텐츠 영상을 3차원 입체 영상으로 가공하여 3차원 입체 영상에 대한 데이터를 인코딩하는 단계를 포함한다. A method for providing a 3D stereoscopic content service of a stereoscopic image generating apparatus according to the present invention for achieving the above technical problem includes a specific part recognizing unit, a point cloud extracting unit, a voxel size determining unit, a voxel data generating unit, and an encoding unit. A method of providing a 3D stereoscopic content service by a stereoscopic image generating device, wherein the specific part recognizing unit recognizes a specific part among content images obtained from an image capturing device, and the point cloud extractor corresponds to the specific part among the content images. separating and extracting a point cloud for a first area corresponding to a first area, a second area corresponding to a part other than the specific part, and a third area located at a boundary between the first area and the second area, respectively; determining, by a size determination unit, different sizes of voxels for the first and second areas based on the point cloud; generating, by the voxel data generation unit, voxel data corresponding to the determined voxel sizes; and , encoding the data for the 3D stereoscopic image by processing the content image into a 3D stereoscopic image based on the voxel data.

상기 기술적 과제를 달성하기 위한 본 발명에 따른 기록매체는, 제12 항 내지 제18 항 및 제31 항 내지 제42 항 중 어느 한 항에 기재된 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있다. The recording medium according to the present invention for achieving the above technical problem can be read by a computer recording a program for executing the method according to any one of claims 12 to 18 and 31 to 42.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.

상기와 같이 구성되는 본 발명의 적어도 하나의 실시예에 관련된 3차원 입체 콘텐츠 서비스 제공 시스템 및 방법은, 콘텐츠 영상 중 선명도를 높이고자 하는 특정 부분의 복셀 크기를 작도록 복셀 데이터를 생성함으로써, 데이터량을 증가시키지 않으면서도 선명도가 개선된 3차원 입체 콘텐츠를 제공할 수 있다. A system and method for providing a 3D stereoscopic content service according to at least one embodiment of the present invention configured as described above generates voxel data to reduce the size of a voxel of a specific part of a content image to be enhanced, thereby increasing the amount of data. It is possible to provide 3D stereoscopic content with improved sharpness without increasing .

즉, 본 발명은, 콘텐츠 용량의 증가를 최소화하면서 콘텐츠 국소 부위의 선명도를 향상시킬 수 있다. That is, the present invention can improve the sharpness of a local area of content while minimizing an increase in content capacity.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The effects obtainable in the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.

도 1은 본 발명에 따른 3차원 입체 콘텐츠 서비스 제공 시스템을 설명하기 위한 블럭 구성도이다.
도 2는 도 1의 영상 획득 장치를 설명하기 위한 도면이다.
도 3은 콘텐츠 영상의 특정 부분 인식 과정을 설명하기 위한 도면이다.
도 4는 콘텐츠 영상의 포인트 클라우드 추출 과정을 설명하기 위한 도면이다.
도 5 및 도 6은 콘텐츠 영상의 복셀 크기 결정 과정을 설명하기 위한 도면이다.
도 7(a) 및 도 7(b)는 복셀 크기에 상응하는 입체 영상을 보여주는 도면이다.
도 8은 도 1의 입체 영상 생성 장치를 설명하기 위한 블럭 구성도이다.
도 9는 본 발명에 따른 3차원 입체 콘텐츠 서비스 제공 시스템의 3차원 입체 콘텐츠 서비스 제공 방법을 설명하기 위한 흐름도이다.
도 10 내지 도 13은 콘텐츠 영상의 특정 부분 인식 방법을 설명하기 위한 흐름도이다.
1 is a block diagram illustrating a 3D stereoscopic content service providing system according to the present invention.
FIG. 2 is a diagram for explaining the image capture device of FIG. 1 .
3 is a diagram for explaining a process of recognizing a specific part of a content image.
4 is a diagram for explaining a process of extracting a point cloud of a content image.
5 and 6 are diagrams for explaining a process of determining a voxel size of a content image.
7(a) and 7(b) are diagrams showing stereoscopic images corresponding to voxel sizes.
FIG. 8 is a block diagram for explaining the 3D image generating apparatus of FIG. 1 .
9 is a flowchart illustrating a 3D stereoscopic content service providing method of the 3D stereoscopic content service providing system according to the present invention.
10 to 13 are flowcharts for explaining a method for recognizing a specific part of a content video.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 예시적인 실시 예를 설명하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다. In order to fully understand the present invention and the advantages in operation of the present invention and the objects achieved by the practice of the present invention, reference should be made to the accompanying drawings describing exemplary embodiments of the present invention and the contents described in the accompanying drawings.

이하 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다. Hereinafter, the present invention will be described in detail by describing preferred embodiments of the present invention with reference to the accompanying drawings. Like reference numerals in each figure indicate like members.

이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.It may operate by selectively combining one or more of these. In addition, although all of the components may be implemented as a single independent piece of hardware, some or all of the components are selectively combined to perform some or all of the combined functions in one or a plurality of hardware. It may be implemented as a computer program having. Codes and code segments constituting the computer program may be easily inferred by a person skilled in the art. Such a computer program may implement an embodiment of the present invention by being stored in a computer readable storage medium, read and executed by a computer. A storage medium of a computer program may include a magnetic recording medium, an optical recording medium, a carrier wave medium, and the like.

실시예의 설명에 있어서, 각 구성 요소의 " 상(위) 또는 하(아래)", “전(앞) 또는 후(뒤)”에 형성되는 것으로 기재되는 경우에 있어, “상(위) 또는 하(아래)” 및“전(앞) 또는 후(뒤)”는 두 개의 구성 요소들이 서로 직접 접촉되거나 하나 이상의 또 다른 구성 요소가 두 개의 구성 요소들 사이에 배치되어 형성되는 것을 모두 포함한다.In the description of the embodiment, in the case of being described as being formed in "upper (above) or lower (below)", "before (front) or after (back)" of each component, "upper (above) or lower (below)" (below)” and “before (front) or after (behind)” include both those formed by direct contact between two components or by placing one or more other components between the two components.

또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, terms such as "include", "comprise" or "have" described above mean that the corresponding component may be inherent unless otherwise stated, excluding other components. It should be construed as being able to further include other components. All terms, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs, unless defined otherwise. Commonly used terms, such as terms defined in a dictionary, should be interpreted as consistent with the meaning in the context of the related art, and unless explicitly defined in the present invention, they are not interpreted in an ideal or excessively formal meaning.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성 요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성 요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.Also, terms such as first, second, A, B, (a), and (b) may be used in describing the components of the present invention. These terms are only used to distinguish the component from other components, and the nature, order, or order of the corresponding component is not limited by the term. When an element is described as being “connected,” “coupled to,” or “connected” to another element, that element is or may be directly connected to the other element, but there is another element between the elements. It will be understood that elements may be “connected”, “coupled” or “connected”.

그리고, 본 발명을 설명함에 있어서 관련된 공지기술에 대하여 이 분야의 기술자에게 자명한 사항으로서 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다.And, in the description of the present invention, if it is determined that the subject matter of the present invention may be unnecessarily obscured as a matter obvious to those skilled in the art with respect to related known technologies, the detailed description thereof will be omitted.

본 발명의 3차원 입체 콘텐츠 서비스 제공 시스템은, AI 인식기술을 활용한 입체(Volumetric) 컨텐츠의 선명도를 향상시킴으로써, 선명도가 개선된 입체 콘텐츠 서비스를 제공하기 위한 시스템이다.The 3D stereoscopic content service providing system of the present invention is a system for providing a stereoscopic content service with improved clarity by improving the clarity of volumetric content using AI recognition technology.

도 1은 본 발명에 따른 3차원 입체 콘텐츠 서비스 제공 시스템을 설명하기 위한 블럭 구성도이다.1 is a block diagram illustrating a 3D stereoscopic content service providing system according to the present invention.

도 1에 도시된 바와 같이, 소정 객체를 촬영하여 콘텐츠 영상을 획득하는 영상 획득 장치(100), 획득한 콘텐츠 영상을 3차원 입체 영상으로 가공하는 입체 영상 생성 장치(200), 그리고 3차원 입체 영상을 재생하는 입체 영상 재생 장치(300)를 포함할 수 있다.As shown in FIG. 1 , an image acquisition device 100 for obtaining a content image by photographing a predetermined object, a stereoscopic image generating device 200 for processing the acquired content image into a 3D stereoscopic image, and a 3D stereoscopic image It may include a 3D image reproducing apparatus 300 that reproduces.

여기서, 영상 획득 장치(100)는, 다수의 카메라들을 포함할 수 있는데, 다수의 카메라들을 통해 객체를 서로 다른 방향에서 동시에 촬영하여 콘텐츠 영상을 획득할 수 있다.Here, the image capture device 100 may include a plurality of cameras, and may obtain a content image by simultaneously photographing an object in different directions through the plurality of cameras.

그리고, 입체 영상 생성 장치(200)는, 콘텐츠 영상이 수신되면 콘텐츠 영상 중 선명도를 높이고자 하는 특정 부분을 인식하고, 콘텐츠 영상 중 특정 부분에 상응하는 제1 영역과 특정부분 이외의 부분에 상응하는 제2 영역에 대한 포인트 클라우드(point cloud)를 각각 분리하여 추출하며, 포인트 클라우드를 토대로 제1 영역과 제2 영역에 대한 복셀(voxel: volumetric pixel) 크기를 서로 다르게 결정하고, 결정된 복셀 크기에 상응하는 복셀 데이터를 생성하여 복셀 데이터를 토대로 콘텐츠 영상을 3차원 입체 영상으로 가공할 수 있다.In addition, when the content image is received, the 3D image generating apparatus 200 recognizes a specific portion of the content image to be enhanced in sharpness, and generates a first region corresponding to the specific portion and a first region corresponding to the specific portion of the content image and a portion other than the specific portion. Each point cloud for the second region is separately extracted, and based on the point cloud, the voxel (volumetric pixel) size of the first region and the second region is determined differently, and corresponds to the determined voxel size. The content image may be processed into a 3D stereoscopic image based on the voxel data.

여기서, 입체 영상 생성 장치(200)는, 특정 부분을 인식할 때, 콘텐츠 영상을 수신하면 수신한 콘텐츠 영상에서 선명도를 높이고자 하는 특정 부분에 대한 정보가 미리 설정되어 있는지를 확인하고, 특정 부분에 대한 정보가 미리 설정되어 있으면 설정된 정보를 토대로 콘텐츠 영상을 분석하여 콘텐츠 영상 중 특정 부분을 인식할 수 있다.Here, when recognizing a specific part, the 3D image generating apparatus 200, upon receiving a content image, checks whether information on a specific part to be sharpened is set in advance in the received content image, and identifies the specific part. If information about the image is set in advance, a specific part of the content image may be recognized by analyzing the content image based on the set information.

이때, 입체 영상 생성 장치(200)는, 선명도를 높이고자 하는 특정 부분에 대한 정보가 미리 설정되어 있는지를 확인할 때, 특정 부분에 대한 정보가 미리 설정되어 있지 않으면 콘텐츠 영상의 전체 부분에 대한 포인트 클라우드를 추출할 수 있다.At this time, the 3D image generating apparatus 200 checks whether information on a specific part to be enhanced is set in advance, and if the information on the specific part is not set in advance, the point cloud for the entire part of the content image can be extracted.

일 예로, 입체 영상 생성 장치(200)는, 콘텐츠 영상에 대한 정보와 선명도를 높이고자 하는 특정 부분에 대한 정보를 포함하는 데이터 테이블이 저장된 저장부를 포함할 수 있다.For example, the 3D image generating apparatus 200 may include a storage unit in which a data table including information about a content image and information about a specific part to be enhanced is stored.

경우에 따라, 입체 영상 생성 장치(200)는, 특정 부분을 인식할 때, 콘텐츠 영상을 수신하면 수신한 콘텐츠 영상에서 선명도를 높이고자 하는 특정 부분을 선택하는 사용자 입력이 있는지를 확인하고, 사용자 입력이 있으면 사용자 입력을 토대로 콘텐츠 영상을 분석하여 콘텐츠 영상 중 특정 부분을 인식할 수도 있다.In some cases, when recognizing a specific part, upon receiving a content image, the 3D image generating apparatus 200 checks whether there is a user input for selecting a specific part to be sharpened from the received content image, and inputs the user input. If there is, a specific part of the content image may be recognized by analyzing the content image based on the user input.

여기서, 입체 영상 생성 장치(200)는, 사용자 입력이 있는지를 확인할 때, 사용자 입력이 없으면 콘텐츠 영상의 전체 부분에 대한 포인트 클라우드를 추출할 수 있다.Here, when checking whether there is a user input, the 3D image generating apparatus 200 may extract a point cloud for an entire portion of the content video if there is no user input.

다른 경우로서, 입체 영상 생성 장치(200)는, 특정 부분을 인식할 때, 콘텐츠 영상을 수신하면 수신한 콘텐츠 영상에서 선명도를 높이고자 하는 특정 부분에 대한 정보가 미리 설정되어 있는지를 확인하고, 특정 부분에 대한 정보가 미리 설정되어 없으면 수신한 콘텐츠 영상에서 선명도를 높이고자 하는 특정 부분을 선택하는 사용자 입력이 있는지를 확인하며, 사용자 입력이 있으면 사용자 입력을 토대로 콘텐츠 영상을 분석하여 콘텐츠 영상 중 특정 부분을 인식할 수도 있다.In another case, when recognizing a specific part, upon receiving a content image, the 3D image generating apparatus 200 checks whether information on a specific part to be sharpened is set in advance in the received content image, and If the information about the part is not set in advance, it is checked whether there is a user input to select a specific part to be sharpened in the received content video. may recognize

여기서, 입체 영상 생성 장치(200)는, 특정 부분에 대한 정보가 미리 설정되어 있지 않고 사용자 입력이 없으면, 콘텐츠 영상의 전체 부분에 대한 포인트 클라우드를 추출할 수 있다.Here, the 3D image generating apparatus 200 may extract a point cloud for an entire portion of the content image if information on a specific portion is not set in advance and there is no user input.

또한, 입체 영상 생성 장치(200)는, 포인트 클라우드를 추출할 때, 제1 영역과 제2 영역 사이의 경계에 위치하는 제3 영역에 대한 포인트 클라우드를 더 분리하여 추출할 수도 있다.Also, when extracting the point cloud, the 3D image generating apparatus 200 may further separate and extract the point cloud for the third area located at the boundary between the first area and the second area.

여기서, 입체 영상 생성 장치(200)는, 제3 영역에 대한 포인트 클라우드를 분리할 때, 제1 영역의 위치를 토대로 제3 영역의 위치를 결정하고, 결정된 위치에 상응하는 제3 영역의 포인트 클라우드를 분리하여 추출할 수 있다.Here, the 3D image generating apparatus 200 determines the position of the third region based on the position of the first region when dividing the point cloud for the third region, and the point cloud of the third region corresponding to the determined position. can be separated and extracted.

그리고, 입체 영상 생성 장치(200)는, 제3 영역의 위치를 결정할 때, 제1 영역의 주변을 따라 둘러싸는 영역을 제3 영역의 위치로 결정할 수 있다.Also, when determining the position of the third region, the 3D image generating apparatus 200 may determine an area surrounding the periphery of the first region as the position of the third region.

이어, 입체 영상 생성 장치(200)는, 복셀 크기를 결정할 때, 포인트 클라우드를 토대로 노이즈를 제거한 다음에, 제1 영역에 대한 복셀 크기와 제2 영역에 대한 복셀 크기를 서로 다르게 결정할 수 있다.Next, when determining the voxel size, the 3D image generating apparatus 200 may determine the voxel size for the first area and the voxel size for the second area differently from each other after removing noise based on the point cloud.

여기서, 입체 영상 생성 장치(200)는, 복셀 크기를 결정할 때, 제1 영역에 대한 복셀 크기를 제2 영역에 대한 복셀 크기보다 더 작게 결정할 수 있다.Here, when determining the voxel size, the 3D image generating apparatus 200 may determine a voxel size for the first region smaller than a voxel size for the second region.

그 이유는, 콘텐츠 영상의 전체 부분에 대한 선명도를 높일 경우, 데이터량이 증가하여 전송 속도가 낮은 문제가 있지만, 콘텐츠 영상의 특정 부분에 대해서만 선명도를 높임으로써, 데이터량의 증가를 최소화하여 전송 속도가 빠르고 원하는 특정 부분의 선명도가 향상되므로 속도 및 화질면에서 사용자의 만족도를 높일 수 있기 때문이다.The reason is that when the sharpness of the whole part of the content video is increased, the data amount increases and the transmission speed is low. This is because user satisfaction can be increased in terms of speed and image quality because the sharpness of a specific desired part is improved quickly.

경우에 따라, 입체 영상 생성 장치(200)는, 복셀 크기를 결정할 때, 제1 영역과 제2 영역 사이에 위치하는 제3 영역에 대한 포인트 클라우드가 분리되어 추출되었는지를 확인하고, 제3 영역에 대한 포인트 클라우드가 추출되면 포인트 클라우드를 토대로 제1, 제2, 제3 영역에 대한 복셀 크기를 서로 다르게 결정할 수도 있다.In some cases, when determining the voxel size, the 3D image generating apparatus 200 checks whether the point cloud for the third area located between the first area and the second area has been separated and extracted, and When the point cloud for the first, second, and third regions is extracted, different voxel sizes may be determined based on the point cloud.

여기서, 입체 영상 생성 장치(200)는, 복셀 크기를 결정할 때, 제3 영역에 대한 복셀 크기를 제2 영역에 대한 복셀 크기보다 더 작고 제1 영역에 대한 복셀 크기보다 더 크게 결정할 수 있다.Here, when determining the voxel size, the 3D image generating apparatus 200 may determine a voxel size of the third region smaller than that of the second region and larger than that of the first region.

그 이유는, 제3 영역의 복셀 크기값이 제1 영역의 복셀 크기와 제2 영역의 복셀 크기 사이의 복셀 크기값을 갖지 않을 경우, 제1 영역과 제2 영역 사이에 복셀 크기 차로 인하여 경계선이 발생하여 콘텐츠 영상의 품질 저하를 가져올 수 있기 때문이다.The reason is that, when the voxel size value of the third area does not have a voxel size value between the voxel size of the first area and the voxel size of the second area, the boundary line is formed due to the voxel size difference between the first area and the second area. This is because it may cause deterioration in the quality of content images.

일 예로, 입체 영상 생성 장치(200)는, 복셀 크기를 결정할 때, 제1 영역에 대한 복셀 크기값과 제2 영역에 대한 복셀 크기값 사이의 중간값을 갖도록 제3 영역에 대한 복셀 크기를 결정할 수 있다.For example, when determining the voxel size, the 3D image generating apparatus 200 determines the voxel size of the third region to have an intermediate value between the voxel size value of the first region and the voxel size value of the second region. can

그리고, 입체 영상 생성 장치(200)는, 콘텐츠 영상을 3차원 입체 영상으로 가공할 때, 결정된 복셀 크기에 상응하는 복셀 데이터를 생성하여 콘텐츠 영상을 3차원 입체 영상으로 가공하며, 가공된 3차원 입체 영상에 대한 데이터를 인코딩하여 전송할 수 있다.Also, when processing the content image into a 3D stereoscopic image, the stereoscopic image generating apparatus 200 generates voxel data corresponding to the determined voxel size and processes the content image into a 3D stereoscopic image. Data for an image may be encoded and transmitted.

한편, 입체 영상 재생 장치(200)는, 3차원 입체 영상을 재생할 때, 가공된 3차원 입체 영상에 대한 데이터가 수신되면 데이터를 디코딩하고 렌더링을 수행하여 3차원 입체 영상을 재생할 수 있다.Meanwhile, when reproducing a 3D stereoscopic image, the 3D image reproducing apparatus 200 may reproduce the 3D stereoscopic image by decoding and rendering the data when data for the processed 3D stereoscopic image is received.

일 예로, 입체 영상 재생 장치(200)는, 사용자 스피커를 포함할 수 있는데, 휴대폰, 스마트폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기(smartwatch), 글래스형 단말기(smart glass), HMD(head mounted display)) 등이 포함되는 이동 단말기에 적용될 수도 있고, 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등과 같은 고정 단말기에 적용될 수도 있다. For example, the 3D image reproducing apparatus 200 may include a user speaker, such as a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), or a portable PMP (PMP). multimedia player), navigation, slate PC, tablet PC, ultrabook, wearable device (eg, watch type terminal (smartwatch), glass type terminal (smart glass)) , Head Mounted Display (HMD), etc., may be applied to mobile terminals, and may be applied to fixed terminals such as digital TVs, desktop computers, digital signage, and the like.

이와 같이, 본 발명은, 콘텐츠 영상 중 선명도를 높이고자 하는 특정 부분의 복셀 크기를 작도록 복셀 데이터를 생성함으로써, 데이터량을 증가시키지 않으면서도 선명도가 개선된 3차원 입체 콘텐츠를 제공할 수 있다.In this way, the present invention can provide 3D stereoscopic content with improved clarity without increasing the amount of data by generating voxel data so that the voxel size of a specific portion of the content image to be enhanced is reduced.

즉, 본 발명은, 콘텐츠 용량의 증가를 최소화하면서 콘텐츠 국소 부위의 선명도를 향상시킬 수 있다.That is, the present invention can improve the sharpness of a local area of content while minimizing an increase in content capacity.

도 2는 도 1의 영상 획득 장치를 설명하기 위한 도면이다.FIG. 2 is a diagram for explaining the image capture device of FIG. 1 .

도 2에 도시된 바와 같이, 본 발명의 영상 획득 장치는, 소정 객체(110)를 촬영하여 콘텐츠 영상을 획득하는 다수의 카메라(120)들을 포함할 수 있다.As shown in FIG. 2 , the image acquisition device of the present invention may include a plurality of cameras 120 that acquire content images by photographing a predetermined object 110 .

즉, 영상 획득 장치는, 다수의 카메라(120)들을 포함할 수 있는데, 다수의 카메라(120)들을 통해 객체(110)를 서로 다른 방향에서 동시에 촬영하여 콘텐츠 영상을 획득할 수 있다.That is, the image capture device may include a plurality of cameras 120 , and the object 110 may be simultaneously photographed in different directions through the plurality of cameras 120 to obtain a content image.

예를 들면, 본 발명은, 크로마키 된 스튜디오에서, 30대 이상의 카메라를 통해 액터를 촬영하고, 촬영된 2차원 이미지로부터 3차원 위치 정보와 색상 정보를 추출하여 3차원 입체 콘텐츠를 제작할 수 있는데, 이에 한정되는 것은 아니다.For example, the present invention can produce 3D stereoscopic content by photographing actors through 30 or more cameras in a chroma keyed studio and extracting 3D location information and color information from the photographed 2D images. It is not limited to this.

도 3은 콘텐츠 영상의 특정 부분 인식 과정을 설명하기 위한 도면이다.3 is a diagram for explaining a process of recognizing a specific part of a content image.

도 3에 도시된 바와 같이, 본 발명의 입체 영상 생성 장치는, 콘텐츠 영상이 수신되면 콘텐츠 영상(130) 중 선명도를 높이고자 하는 특정 부분(140)을 인식할 수 있다.As shown in FIG. 3 , the apparatus for generating a 3D image according to the present invention may recognize a specific portion 140 of the content image 130 to be sharpened when a content image is received.

일 실시 예로서, 입체 영상 생성 장치는, 콘텐츠 영상(130)을 수신하면 수신한 콘텐츠 영상(130)에서 선명도를 높이고자 하는 특정 부분(140)에 대한 정보가 미리 설정되어 있는지를 확인하고, 특정 부분(140)에 대한 정보가 미리 설정되어 있으면 설정된 정보를 토대로 콘텐츠 영상을 분석하여 콘텐츠 영상 중 특정 부분을 인식할 수 있다.As an embodiment, when receiving the content image 130, the 3D image generating apparatus checks whether information on a specific portion 140 to be enhanced is set in advance in the received content image 130, and If information on the portion 140 is set in advance, a specific portion of the content image may be recognized by analyzing the content image based on the set information.

여기서, 입체 영상 생성 장치는, 특정 부분(140)에 대한 정보가 미리 설정되어 있지 않으면 콘텐츠 영상(130)의 전체 부분에 대한 포인트 클라우드를 추출할 수 있다.Here, the 3D image generating device may extract a point cloud for the entire portion of the content image 130 if information on the specific portion 140 is not set in advance.

입체 영상 생성 장치는, 콘텐츠 영상(130)에 대한 정보와 선명도를 높이고자 하는 특정 부분(140)에 대한 정보를 포함하는 데이터 테이블을 저장할 수 있다.The 3D image generating apparatus may store a data table including information on the content image 130 and information on a specific portion 140 to be enhanced.

일 예로, 데이터 테이블은, 객체의 형상, 크기, 움직임 정도에 따라 분류되는 다수의 콘텐츠 영상(130)들에 대한 정보를 포함할 수 있는데, 분류된 각 콘텐츠 영상(130)에 상응하여 하나 또는 다수의 특정 부분(140)에 대한 정보를 포함할 수 있다.For example, the data table may include information about a plurality of content images 130 classified according to the shape, size, and degree of movement of an object, one or more corresponding to each classified content image 130. It may include information about a specific part 140 of.

예를 들면, 다수의 콘텐츠 영상들에 대한 정보는, 객체의 형상에 따라 분류되는 사람, 동물, 무생물에 상응하는 콘텐츠 영상(130)들에 대한 정보, 객체의 크기에 따라 분류되는 대형, 중형, 소형에 상응하는 콘텐츠 영상(130)들에 대한 정보, 그리고 객체의 움직임 정도에 따라 분류되는 고속, 중속, 저속, 움직임이 없는 고정에 상응하는 콘텐츠 영상(130)들에 대한 정보를 포함할 수 있다.For example, information on a plurality of content images includes information on content images 130 corresponding to people, animals, and inanimate objects classified according to the shape of the object, large, medium, It may include information on the content images 130 corresponding to the small size and information on the content images 130 corresponding to the high-speed, medium-speed, low-speed, and motionless fixed images classified according to the motion degree of the object. .

도 3과 같이, 콘텐츠 영상(130)이 댄서일 경우, 댄서의 전체 영역 중 얼굴 영역(142) 및 손 영역(144)을 특정 부분(140)으로 미리 설정될 수 있다.As shown in FIG. 3 , when the content video 130 is a dancer, the face region 142 and the hand region 144 of the entire region of the dancer may be preset as a specific part 140 .

즉, 콘텐츠 영상(130)이 댄서일 경우, 콘텐츠 영상에 대한 정보는, 객체 형상이 사람이고, 객체 크기가 중형 크기이며, 움직임 정도가 중간 속도를 포함할 수 있으며, 이러한 정보들을 토대로 콘텐츠 영상(130)의 전체 영역 중 선명도를 높일 특정 부분이 미리 설정될 수 있다.That is, when the content image 130 is a dancer, the information on the content image may include a human object shape, a medium size object size, and a medium speed movement degree. Based on these information, the content image ( 130), a specific part to increase sharpness may be set in advance.

다른 실시 예로서, 본 발명의 입체 영상 생성 장치는, 특정 부분(140)을 인식할 때, 콘텐츠 영상(130)을 수신하면 수신한 콘텐츠 영상(130)에서 선명도를 높이고자 하는 특정 부분(140)을 선택하는 사용자 입력이 있는지를 확인하고, 사용자 입력이 있으면 사용자 입력을 토대로 콘텐츠 영상(130)을 분석하여 콘텐츠 영상(130) 중 특정 부분(140)을 인식할 수도 있다.As another embodiment, when recognizing the specific part 140, the apparatus for generating a 3D image of the present invention receives the content video 130 to increase the sharpness of the specific part 140 in the received content video 130. It is checked whether there is a user input for selecting , and if there is a user input, a specific portion 140 of the content image 130 may be recognized by analyzing the content image 130 based on the user input.

여기서, 입체 영상 생성 장치는, 사용자 입력이 있는지를 확인할 때, 사용자 입력이 없으면 콘텐츠 영상(130)의 전체 부분에 대한 포인트 클라우드를 추출할 수 있다.Here, when checking whether there is a user input, the 3D image generating apparatus may extract a point cloud for the entire portion of the content image 130 if there is no user input.

또한, 입체 영상 생성 장치는, 사용자 입력이 있는지를 확인할 때, 콘텐츠 영상(130)에서 선명도를 높이고자 하는 특정 부분(140)에 대한 선택 여부를 문의하는 질문창을 생성하고, 생성된 질문창을 미리 설정된 사용자 디바이스로 전송하며, 사용자 디바이스로부터 특정 부분(140)을 선택하는 사용자 입력이 있는지를 확인할 수 있다.In addition, when confirming whether there is a user input, the 3D image generating device creates a question window for inquiring whether a specific part 140 to be sharpened in the content image 130 is selected, and displays the created question window. It is transmitted to a preset user device, and whether there is a user input for selecting a specific part 140 from the user device may be checked.

또 다른 실시 예로서, 본 발명의 입체 영상 생성 장치는, 특정 부분(140)을 인식할 때, 콘텐츠 영상(130)을 수신하면 수신한 콘텐츠 영상(130)을 분석하고, 분석 결과를 토대로 선명도를 높이고자 하는 특정 부분(130)을 자동 결정하여 인식할 수도 있다.As another embodiment, when recognizing a specific portion 140, the apparatus for generating a stereoscopic image of the present invention analyzes the received content image 130 when receiving the content image 130, and determines sharpness based on the analysis result. A specific part 130 to be raised may be automatically determined and recognized.

여기서, 입체 영상 생성 장치는, 수신한 콘텐츠 영상(130)을 분석할 때, 콘텐츠 영상(130)을 다수의 서브 영역으로 나누고, 각 서브 영역에 대한 객체의 복잡도를 분석할 수 있다.Here, when analyzing the received content image 130, the apparatus for generating a 3D image may divide the content image 130 into a plurality of sub-regions and analyze complexity of an object for each sub-region.

일 예로, 입체 영상 생성 장치는, 선명도를 높이고자 하는 특정 부분(140)을 자동 결정할 때, 분석 결과를 토대로 다수의 서브 영역으로 나누어진 콘텐츠 영상(130) 중 복잡도가 기준 값 이상인 서브 영역을 추출하고, 추출한 서브 영역을 선명도를 높이고자 하는 특정 부분(140)으로 자동 결정할 수 있다.For example, when a specific part 140 to be enhanced is automatically determined, the apparatus for generating a stereoscopic image extracts a sub-region whose complexity is greater than or equal to a reference value from among the content image 130 divided into a plurality of sub-regions based on the analysis result. And, the extracted sub-region can be automatically determined as a specific part 140 to increase sharpness.

즉, 입체 영상 생성 장치는, 수신한 콘텐츠 영상(130)을 분석할 때, 콘텐츠 영상(130)에 대한 콘텐츠 타입을 분석할 수 있다.That is, when analyzing the received content video 130, the stereoscopic image generating apparatus may analyze the content type of the content video 130.

그리고, 입체 영상 생성 장치는, 선명도를 높이고자 하는 특정 부분을 자동 결정할 때, 분석 결과를 토대로 콘텐츠 영상에 대한 콘텐츠 타입에 상응하여 선명도를 높이고자 하는 특정 부분을 자동 결정할 수 있다.In addition, when automatically determining a specific portion to be enhanced in sharpness, the stereoscopic image generating apparatus may automatically determine a specific portion to be enhanced in accordance with the content type of the content image based on the analysis result.

예를 들면, 입체 영상 생성 장치는, 콘텐츠 영상(130)의 콘텐츠 타입이 댄스이면 얼굴, 팔, 다리 등이 선명도를 높이고자 하는 특정 부분일 수 있고, 콘텐츠 영상(130)의 콘텐츠 타입이 축구이면 다리, 백넘버 등이 선명도를 높이고자 하는 특정 부분일 수 있으며, 콘텐츠 영상(130)의 콘텐츠 타입이 강의이면 칠판, 손 등이 선명도를 높이고자 하는 특정 부분일 수 있다.For example, if the content type of the content video 130 is dance, the 3D image generating apparatus may be a specific part to increase sharpness such as a face, arm, leg, etc., or if the content type of the content video 130 is soccer. Legs, back numbers, etc. may be specific parts to increase sharpness, and if the content type of the content video 130 is a lecture, blackboard, hands, etc. may be specific parts to increase sharpness.

이처럼, 본 발명은, 콘텐츠 영상(130)에 대한 콘텐츠 타입을 분석하여 그에 상응하는 특정 부분을 자동 결정할 수도 있다.As such, the present invention may analyze the content type of the content video 130 and automatically determine a specific part corresponding thereto.

또 다른 실시 예로서, 본 발명의 입체 영상 생성 장치는, 특정 부분을 인식할 때, 콘텐츠 영상을 수신하면 수신한 콘텐츠 영상에서 선명도를 높이고자 하는 특정 부분에 대한 정보가 미리 설정되어 있는지를 확인하고, 특정 부분에 대한 정보가 미리 설정되어 없으면 수신한 콘텐츠 영상에서 선명도를 높이고자 하는 특정 부분을 선택하는 사용자 입력이 있는지를 확인하며, 사용자 입력이 있으면 사용자 입력을 토대로 콘텐츠 영상을 분석하여 콘텐츠 영상 중 특정 부분을 인식할 수도 있다.As another embodiment, the apparatus for generating a stereoscopic image of the present invention, when recognizing a specific part, upon receiving a content image, checks whether information on a specific part to be enhanced in the received content image is set in advance, , If information on a specific part is not set in advance, it is checked whether there is a user input to select a specific part to be sharpened in the received content video, and if there is a user input, the content video is analyzed based on the user input to You can also recognize a specific part.

여기서, 입체 영상 생성 장치는, 특정 부분에 대한 정보가 미리 설정되어 있지 않고 사용자 입력이 없으면, 콘텐츠 영상의 전체 부분에 대한 포인트 클라우드를 추출할 수 있다.Here, the 3D image generating device may extract a point cloud for an entire portion of the content image if information on a specific portion is not previously set and there is no user input.

그리고, 입체 영상 생성 장치는, 사용자 입력이 있는지를 확인할 때, 사용자 입력이 없으면 콘텐츠 영상(130)에서 선명도를 높이고자 하는 특정 부분(140)에 대한 선택 여부를 문의하는 질문창을 생성하고, 생성된 질문창을 미리 설정된 사용자 디바이스로 전송하며, 사용자 디바이스로부터 특정 부분(140)을 선택하는 사용자 입력이 있는지를 확인할 수 있다.In addition, when checking whether there is a user input, the 3D image generating apparatus creates a question window for inquiring whether a specific part 140 to be sharpened in the content video 130 is selected if there is no user input, and generates The question window is transmitted to a preset user device, and it is possible to check whether there is a user input for selecting a specific part 140 from the user device.

도 4는 콘텐츠 영상의 포인트 클라우드 추출 과정을 설명하기 위한 도면이다.4 is a diagram for explaining a process of extracting a point cloud of a content image.

도 4에 도시된 바와 같이, 본 발명의 입체 영상 생성 장치는, 콘텐츠 영상 중 특정 부분에 상응하는 제1 영역과 특정부분 이외의 부분에 상응하는 제2 영역에 대한 포인트 클라우드(point cloud, 202)를 각각 분리하여 포인트 클라우드(202)에 상응하는 (X, Y, Z, T) 좌표 데이터를 추출할 수 있다.As shown in FIG. 4 , the apparatus for generating a stereoscopic image of the present invention includes a point cloud 202 for a first area corresponding to a specific part of a content image and a second area corresponding to a part other than the specific part. By separating each, (X, Y, Z, T) coordinate data corresponding to the point cloud 202 can be extracted.

경우에 따라, 입체 영상 생성 장치는, 포인트 클라우드를 추출할 때, 제1 영역과 제2 영역 사이의 경계에 위치하는 제3 영역에 대한 포인트 클라우드를 더 분리하여 추출할 수도 있다.In some cases, when extracting the point cloud, the 3D image generating apparatus may further separate and extract the point cloud for the third area located at the boundary between the first area and the second area.

그 이유는, 제1 영역과 제2 영역 사이의 버퍼 영역인 제3 영역을 배치함으로써, 복셀 크기를 결정할 때, 제1 영역과 제2 영역 사이의 복셀 크기 차이를 줄여 제1 영역과 제2 영역 사이에 발생하는 경계선과 같은 노이즈 제거 및 콘텐츠 영상의 품질을 향상시킬 수 있기 때문이다.The reason for this is that, when determining the voxel size, a difference in voxel size between the first and second areas is reduced by arranging a third area, which is a buffer area, between the first and second areas. This is because it is possible to remove noise, such as a boundary line, and to improve the quality of a content image.

여기서, 입체 영상 생성 장치는, 제3 영역에 대한 포인트 클라우드를 분리할 때, 제1 영역의 위치를 토대로 제3 영역의 위치를 결정하고, 결정된 위치에 상응하는 제3 영역의 포인트 클라우드를 분리하여 추출할 수 있다.Here, when separating the point cloud for the third region, the 3D image generating apparatus determines the position of the third region based on the position of the first region, separates the point cloud of the third region corresponding to the determined position, can be extracted.

즉, 입체 영상 생성 장치는, 제3 영역의 위치를 결정할 때, 제1 영역의 주변을 따라 둘러싸는 영역을 제3 영역의 위치로 결정할 수 있다.That is, when determining the position of the third region, the apparatus for generating a 3D image may determine a region surrounding the periphery of the first region as the position of the third region.

경우에 따라, 입체 영상 생성 장치는, 제3 영역의 위치를 결정할 때, 제1 영역의 면적을 토대로 제3 영역의 면적을 결정할 수도 있다.In some cases, the 3D image generating apparatus may determine the area of the third region based on the area of the first region when determining the position of the third region.

일 예로, 입체 영상 생성 장치는, 제3 영역의 면적을 결정할 때, 제1 영역의 면적이 증감하면 제1 영역의 면적 증감 비율에 비례하여 제3 영역의 면적을 증감할 수 있다.For example, when determining the area of the third region, the apparatus for generating a 3D image may increase or decrease the area of the third region in proportion to a rate of increase or decrease in the area of the first region when the area of the first region increases or decreases.

여기서, 입체 영상 생성 장치는, 제3 영역의 면적을 결정할 때, 제1 영역의 면적보다 더 작은 면적을 갖도록 제3 영역의 면적을 결정할 수 있다.Here, when determining the area of the third region, the 3D image generating apparatus may determine the area of the third region to have an area smaller than that of the first region.

예를 들면, 입체 영상 생성 장치는, 제3 영역의 면적을 결정할 때, 제1 영역의 면적 대비 약 10% ~ 약 60%의 면적을 갖도록 제3 영역의 면적을 결정할 수 있지만, 이에 한정되지는 않는다.For example, when determining the area of the third region, the 3D image generating apparatus may determine the area of the third region to have an area of about 10% to about 60% of the area of the first region, but is not limited thereto. don't

도 5 및 도 6은 콘텐츠 영상의 복셀 크기 결정 과정을 설명하기 위한 도면이다.5 and 6 are diagrams for explaining a process of determining a voxel size of a content image.

도 5에 도시된 바와 같이, 본 발명의 입체 영상 생성 장치는, 포인트 클라우드를 토대로 제1 영역(520)과 제2 영역(510)에 대한 복셀(voxel: volumetric pixel) 크기를 서로 다르게 결정하고, 결정된 복셀 크기에 상응하는 복셀 데이터를 생성할 수 있다.As shown in FIG. 5 , the apparatus for generating a 3D image of the present invention determines different volumetric pixel (voxel) sizes for a first region 520 and a second region 510 based on a point cloud, Voxel data corresponding to the determined voxel size may be generated.

여기서, 입체 영상 생성 장치는, 복셀 크기를 결정할 때, 포인트 클라우드를 토대로 노이즈를 제거한 다음에, 제1 영역(520)에 대한 복셀 크기와 제2 영역(510)에 대한 복셀 크기를 서로 다르게 결정할 수 있다.Here, when determining the voxel size, the stereoscopic image generating apparatus may determine the voxel size for the first region 520 and the voxel size for the second region 510 differently after removing noise based on the point cloud. there is.

일 예로, 입체 영상 생성 장치는, 복셀 크기를 결정할 때, 제1 영역(520)에 대한 복셀 크기를 제2 영역(510)에 대한 복셀 크기보다 더 작게 결정할 수 있다.For example, when determining the voxel size, the 3D image generating apparatus may determine the voxel size of the first region 520 to be smaller than the voxel size of the second region 510 .

그 이유는, 콘텐츠 영상의 전체 부분에 대한 선명도를 높일 경우, 데이터량이 증가하여 전송 속도가 낮은 문제가 있지만, 콘텐츠 영상의 특정 부분에 대해서만 선명도를 높임으로써, 데이터량의 증가를 최소화하여 전송 속도가 빠르고 원하는 특정 부분의 선명도가 향상되므로 속도 및 화질 면에서 사용자의 만족도를 높일 수 있기 때문이다.The reason is that when the sharpness of the whole part of the content video is increased, the data amount increases and the transmission speed is low. This is because user satisfaction can be increased in terms of speed and image quality because the sharpness of a specific desired part is improved quickly.

예를 들면, 입체 영상 생성 장치는, 복셀 크기를 결정할 때, 제2 영역에 대한 복셀 크기 대비 약 1% ~ 약 60%인 복셀 크기를 갖도록 제1 영역에 대한 복셀 크기를 작게 결정할 수 있다.For example, when determining the voxel size, the apparatus for generating a 3D image may determine a small voxel size for the first region to have a voxel size that is about 1% to about 60% of the voxel size for the second region.

그 이유는, 콘텐츠 영상의 복셀 크기가 작을수록 세밀한 입체 정보와 색상 정보를 표현할 수 있어 콘텐츠 영상의 선명도가 증가하기 때문이다.The reason for this is that as the size of the voxel of the content image decreases, detailed three-dimensional information and color information can be expressed, and thus the sharpness of the content image increases.

한편, 도 6에 도시된 바와 같이, 입체 영상 생성 장치(200)는, 복셀 크기를 결정할 때, 제1 영역(520)과 제2 영역(510) 사이에 위치하는 제3 영역(530)에 대한 포인트 클라우드가 분리되어 추출되었는지를 확인하고, 제3 영역(530)에 대한 포인트 클라우드가 추출되면 포인트 클라우드를 토대로 제1, 제2, 제3 영역(520, 510, 530)에 대한 복셀 크기를 서로 다르게 결정할 수도 있다.Meanwhile, as shown in FIG. 6 , when determining the voxel size, the 3D image generating apparatus 200 for the third area 530 located between the first area 520 and the second area 510 It is checked whether the point cloud is separated and extracted, and when the point cloud for the third region 530 is extracted, the voxel sizes of the first, second, and third regions 520, 510, and 530 are determined based on the point cloud. You may decide differently.

여기서, 입체 영상 생성 장치는, 복셀 크기를 결정할 때, 제3 영역(530)에 대한 복셀 크기를 제2 영역(510)에 대한 복셀 크기보다 더 작고 제1 영역(520)에 대한 복셀 크기보다 더 크게 결정할 수 있다.Here, when the 3D image generating apparatus determines the voxel size, the voxel size of the third region 530 is smaller than that of the second region 510 and larger than that of the first region 520. can make a big decision.

그 이유는, 제3 영역(530)의 복셀 크기값이 제1 영역(520)의 복셀 크기와 제2 영역(510)의 복셀 크기 사이의 복셀 크기값을 갖지 않을 경우, 제1 영역(520)과 제2 영역(510) 사이에 경계선이 발생하여 콘텐츠 영상의 품질 저하를 가져올 수 있기 때문이다.The reason is that, when the voxel size value of the third area 530 does not have a voxel size value between the voxel size of the first area 520 and the voxel size of the second area 510, the first area 520 This is because a boundary line may occur between the first area and the second area 510, which may result in deterioration in the quality of the content video.

일 예로, 입체 영상 생성 장치는, 복셀 크기를 결정할 때, 제1 영역(520)에 대한 복셀 크기값과 제2 영역(510)에 대한 복셀 크기값 사이의 중간 값을 갖도록 제3 영역(530)에 대한 복셀 크기를 결정할 수 있다.For example, when determining the voxel size, the 3D image generating apparatus sets the third area 530 to have an intermediate value between the voxel size value for the first area 520 and the voxel size value for the second area 510. It is possible to determine the voxel size for .

도 7(a) 및 도 7(b)는 복셀 크기에 상응하는 입체 영상을 보여주는 도면이다.7(a) and 7(b) are diagrams showing stereoscopic images corresponding to voxel sizes.

도 7(a)에 도시된 바와 같이, 콘텐츠 영상의 전체 부분을 동일한 복셀 크기로 결정하여 생성된 복셀 데이터를 토대로 콘텐츠 영상을 가공하여 재생할 경우, 재생되는 콘텐츠 영상의 선명도가 저하되어 입체 영상의 품질 저하를 가져올 수 있다.As shown in FIG. 7(a), when a content image is processed and reproduced based on voxel data generated by determining the entire portion of the content image to have the same voxel size, the quality of the 3D image is lowered due to the sharpness of the reproduced content image. can lead to degradation.

일 예로, 도 7(a)와 같이, 약 3mm 복셀 크기를 갖는 약 65만개의 콘텐츠 영상을 가공하여 재생할 경우, 재생되는 콘텐츠 영상의 선명도가 저하될 수 있다.For example, as shown in FIG. 7(a) , when about 650,000 content images having a voxel size of about 3 mm are processed and reproduced, the sharpness of the reproduced content image may deteriorate.

이에 비해, 도 7(b)와 같이, 약 1.25mm 복셀 크기를 갖는 약 150만개의 콘텐츠 영상을 가공하여 재생할 경우, 재생되는 콘텐츠 영상의 선명도가 향상될 수 있다.In comparison, as shown in FIG. 7( b ), when about 1.5 million content images having a voxel size of about 1.25 mm are processed and reproduced, the clarity of the reproduced content image can be improved.

하지만, 도 7(b)와 같이, 콘텐츠 영상의 전체 부분에 대한 복셀 크기가 작을수록 선명도가 향상될 수 있지만, 데이터량이 증가하여 재생 속도가 매우 느려질 수 있다.However, as shown in FIG. 7(b), sharpness may be improved as the voxel size of the entire portion of the content image is smaller, but the reproduction speed may be very slow due to the increase in the amount of data.

따라서, 본 발명은, 콘텐츠 영상의 전체 부분 중 특정 부분에 대해서만 복셀 크기를 작게 구현함으로써, 데이터량을 최소화하면서도 재생되는 콘텐츠 영상의 선명도를 개선시켜 사용자 만족도를 높일 수 있다.Therefore, according to the present invention, by implementing a small voxel size for only a specific portion among all portions of a content image, user satisfaction can be increased by improving the clarity of a reproduced content image while minimizing the amount of data.

일 예로, 본 발명은, 콘텐츠 영상의 전체 부분 중 특정 부분인 얼굴 영역에 대해 약 1.25mm 복셀 크기로 가공하고, 특정 부분 이외의 다른 영역에 대해 약 3mm 복셀 크기로 가공할 경우, 콘텐츠 영상의 데이터량을 최소화하면서도 콘텐츠 영상의 선명도를 개선시킬 수 있다.For example, according to the present invention, when processing a face region, which is a specific part, from among all parts of a content video to a voxel size of about 1.25 mm, and processing a region other than the specific part to a voxel size of about 3 mm, the data of the content video is processed. It is possible to improve the sharpness of the content image while minimizing the amount.

경우에 따라, 본 발명은, 약 1.25mm 복셀 크기를 갖는 얼굴 영역과 약 3mm 복셀 크기를 갖는 다른 영역 사이에 약 2mm 복셀 크기를 갖는 버퍼 영역을 배치할 수도 있다.In some cases, the present invention may arrange a buffer region having a voxel size of about 2 mm between a face region having a voxel size of about 1.25 mm and another region having a voxel size of about 3 mm.

즉, 버퍼 영역은, 콘텐츠 영상의 얼굴 영역 주변에 위치할 수 있다.That is, the buffer area may be located around the face area of the content image.

여기서, 버퍼 영역의 면적은, 얼굴 영역의 면적을 토대로 결정될 수 있다.Here, the area of the buffer area may be determined based on the area of the face area.

일 예로, 버퍼 영역의 면적은, 얼굴 영역의 면적이 증감하면 얼굴 영역의 면적 증감 비율에 비례하여 증감할 수 있다.For example, when the area of the face area increases or decreases, the area of the buffer area may increase or decrease in proportion to the rate of increase or decrease in the area of the face area.

즉, 버퍼 영역의 면적은, 얼굴 영역의 면적보다 더 작은 면적을 갖도록 결정할 수 있다.That is, the area of the buffer area may be determined to have a smaller area than the area of the face area.

예를 들면, 버퍼 영역의 면적은, 얼굴 영역의 면적 대비 약 10% ~ 약 60% 인 면적을 갖도록 결정할 수 있지만, 이에 한정되지는 않는다.For example, the area of the buffer area may be determined to have an area of about 10% to about 60% of the area of the face area, but is not limited thereto.

이와 같이, 본 발명은, 콘텐츠 영상의 얼굴 영역 주변에 위치하는 버퍼 영역에 대해 약 2mm 복셀 크기로 가공할 경우, 약 1.25mm 복셀 크기를 갖는 얼굴 영역과 약 3mm 복셀 크기를 갖는 다른 영역 사이에 경계선과 같은 노이즈 발생을 제거하여 콘텐츠 영상의 품질을 향상시킬 수 있다.As described above, in the present invention, when processing the buffer area located around the face area of the content image to a voxel size of about 2 mm, the boundary line between the face area having a voxel size of about 1.25 mm and another area having a voxel size of about 3 mm It is possible to improve the quality of the content video by removing the occurrence of noise.

도 8은 도 1의 입체 영상 생성 장치를 설명하기 위한 블럭 구성도이다.FIG. 8 is a block diagram for explaining the 3D image generating apparatus of FIG. 1 .

도 8에 도시된 바와 같이, 입체 영상 생성 장치(200)는, 영상 획득 장치로부터 획득한 콘텐츠 영상 중 선명도를 높이고자 하는 특정 부분을 인식하는 특정 부분 인식부(210), 콘텐츠 영상 중 특정 부분에 상응하는 제1 영역과 특정부분 이외의 부분에 상응하는 제2 영역에 대한 포인트 클라우드를 각각 분리하여 추출하는 포인트 클라우드 추출부(220), 포인트 클라우드를 토대로 제1 영역과 제2 영역에 대한 복셀 크기를 서로 다르게 결정하는 복셀 크기 결정부(230), 결정된 복셀 크기에 상응하는 복셀 데이터를 생성하는 복셀 데이터 생성부(240), 그리고 복셀 데이터를 토대로 콘텐츠 영상을 3차원 입체 영상으로 가공하여 3차원 입체 영상에 대한 데이터를 인코딩하는 인코딩부(250)를 포함할 수 있다.As shown in FIG. 8 , the 3D image generating apparatus 200 includes a specific part recognizing unit 210 for recognizing a specific part to be sharpened among content images obtained from an image capture device, and a specific part of the content image. A point cloud extractor 220 that separates and extracts a point cloud for a corresponding first area and a second area corresponding to a part other than a specific part, respectively, and a voxel size for the first area and the second area based on the point cloud. A voxel size determiner 230 that differently determines v, a voxel data generator 240 that generates voxel data corresponding to the determined voxel size, and processes a content image into a 3D stereoscopic image based on the voxel data to create a 3D stereoscopic image. It may include an encoding unit 250 that encodes data for an image.

특정 부분 인식부(210)는, 콘텐츠 영상을 수신하면 수신한 콘텐츠 영상에서 선명도를 높이고자 하는 특정 부분에 대한 정보가 미리 설정되어 있는지를 확인하고, 특정 부분에 대한 정보가 미리 설정되어 있으면 설정된 정보를 토대로 콘텐츠 영상을 분석하여 콘텐츠 영상 중 특정 부분을 인식할 수 있다.When receiving the content image, the specific portion recognizer 210 checks whether information on a specific portion to be enhanced is set in advance in the received content image, and if information on the specific portion is set in advance, the set information Based on this, it is possible to recognize a specific part of the content image by analyzing the content image.

여기서, 특정 부분 인식부(210)는, 선명도를 높이고자 하는 특정 부분에 대한 정보가 미리 설정되어 있는지를 확인할 때, 특정 부분에 대한 정보가 미리 설정되어 있지 않으면 콘텐츠 영상의 전체 부분에 대한 포인트 클라우드를 추출할 수 있다.Here, the specific part recognizing unit 210 checks whether information on a specific part to be enhanced is set in advance, and if the information on the specific part is not set in advance, the point cloud for the entire part of the content video can be extracted.

경우에 따라, 입체 영상 생성 장치(200)는, 콘텐츠 영상에 대한 정보와 선명도를 높이고자 하는 특정 부분에 대한 정보를 포함하는 데이터 테이블이 저장된 저장부를 더 포함할 수도 있다.In some cases, the 3D image generating apparatus 200 may further include a storage unit in which a data table including information about a content image and information about a specific part to be enhanced is stored.

여기서, 데이터 테이블은, 객체의 형상, 크기, 움직임 정도에 따라 분류되는 다수의 콘텐츠 영상들에 대한 정보를 포함하고, 분류된 각 콘텐츠 영상에 상응하여 하나 또는 다수의 특정 부분에 대한 정보를 포함할 수 있다.Here, the data table may include information about a plurality of content images classified according to the shape, size, and degree of motion of the object, and information on one or more specific parts corresponding to each content image classified. can

일 예로, 다수의 콘텐츠 영상들에 대한 정보는, 객체의 형상에 따라 분류되는 사람, 동물, 무생물에 상응하는 콘텐츠 영상들에 대한 정보, 객체의 크기에 따라 분류되는 대형, 중형, 소형에 상응하는 콘텐츠 영상들에 대한 정보, 그리고 객체의 움직임 정도에 따라 분류되는 고속, 중속, 저속, 움직임이 없는 고정에 상응하는 콘텐츠 영상들에 대한 정보를 포함할 수 있다.For example, information about a plurality of content images includes information about content images corresponding to people, animals, and inanimate objects classified according to the shape of an object, and information corresponding to large, medium, and small objects classified according to the size of the object. It may include information on content images and information on content images corresponding to high-speed, medium-speed, low-speed, and motionless fixation classified according to the motion degree of the object.

또한, 특정 부분 인식부(210)는, 선명도를 높이고자 하는 특정 부분에 대한 정보가 미리 설정되어 있는지를 확인할 때, 특정 부분에 대한 정보가 미리 설정되어 있지 않으면 특정 부분을 선택하는 사용자 입력이 있는지를 확인하고, 사용자 입력이 있으면 사용자 입력을 토대로 콘텐츠 영상을 분석하여 콘텐츠 영상 중 특정 부분을 인식할 수도 있다.In addition, the specific part recognizing unit 210 checks whether information on a specific part to be enhanced is set in advance, and if the information on the specific part is not set in advance, whether there is a user input for selecting the specific part. is checked, and if there is a user input, a specific part of the content image may be recognized by analyzing the content image based on the user input.

여기서, 특정 부분 인식부(210)는, 사용자 입력이 있는지를 확인할 때, 사용자 입력이 없으면 콘텐츠 영상의 전체 부분에 대한 포인트 클라우드를 추출할 수 있다.Here, when checking whether there is a user input, the specific part recognizer 210 may extract a point cloud for the entire part of the content image if there is no user input.

경우에 따라, 특정 부분 인식부(210)는, 사용자 입력이 있는지를 확인할 때, 콘텐츠 영상에서 선명도를 높이고자 하는 특정 부분에 대한 선택여부를 문의하는 질문창을 생성하고, 생성된 질문창을 미리 설정된 사용자 디바이스로 전송하며, 사용자 디바이스로부터 특정 부분을 선택하는 사용자 입력이 있는지를 확인할 수도 있다.In some cases, when checking whether there is a user input, the specific part recognizer 210 creates a question window asking whether or not to select a specific part to be sharpened in the content image, and displays the generated question window in advance. It is transmitted to the set user device, and it may be checked whether there is a user input for selecting a specific part from the user device.

다른 실시 예로서, 특정 부분 인식부(210)는, 특정 부분을 인식할 때, 콘텐츠 영상을 수신하면 수신한 콘텐츠 영상에서 선명도를 높이고자 하는 특정 부분을 선택하는 사용자 입력이 있는지를 확인하고, 사용자 입력이 있으면 사용자 입력을 토대로 콘텐츠 영상을 분석하여 콘텐츠 영상 중 특정 부분을 인식할 수 있다.As another embodiment, the specific part recognizing unit 210, when recognizing a specific part, upon receiving a content image, checks whether there is a user input for selecting a specific part to be sharpened from the received content image, and If there is an input, a specific part of the content image may be recognized by analyzing the content image based on the user input.

여기서, 특정 부분 인식부(210)는, 사용자 입력이 있는지를 확인할 때, 사용자 입력이 없으면 콘텐츠 영상의 전체 부분에 대한 포인트 클라우드를 추출할 수 있다.Here, when checking whether there is a user input, the specific part recognizer 210 may extract a point cloud for the entire part of the content image if there is no user input.

경우에 따라, 특정 부분 인식부(210)는, 사용자 입력이 있는지를 확인할 때, 콘텐츠 영상에서 선명도를 높이고자 하는 특정 부분에 대한 선택여부를 문의하는 질문창을 생성하고, 생성된 질문창을 미리 설정된 사용자 디바이스로 전송하며, 사용자 디바이스로부터 특정 부분을 선택하는 사용자 입력이 있는지를 확인할 수도 있다.In some cases, when checking whether there is a user input, the specific part recognizer 210 creates a question window asking whether or not to select a specific part to be sharpened in the content image, and displays the generated question window in advance. It is transmitted to the set user device, and it may be checked whether there is a user input for selecting a specific part from the user device.

또 다른 실시 예로서, 특정 부분 인식부(210)는, 특정 부분을 인식할 때, 콘텐츠 영상을 수신하면 수신한 콘텐츠 영상을 분석하고, 분석 결과를 토대로 선명도를 높이고자 하는 특정 부분을 자동 결정하여 인식할 수 있다.As another embodiment, the specific part recognizing unit 210, when recognizing a specific part, analyzes the received content video when a content video is received, and automatically determines a specific part to be enhanced based on the analysis result. Recognizable.

여기서, 특정 부분 인식부(210)는, 수신한 콘텐츠 영상을 분석할 때, 콘텐츠 영상을 다수의 서브 영역으로 나누고, 각 서브 영역에 대한 객체의 복잡도를 분석할 수 있다.Here, when analyzing the received content image, the specific portion recognizing unit 210 may divide the content image into a plurality of sub-regions and analyze complexity of an object for each sub-region.

그리고 특정 부분 인식부(210)는, 선명도를 높이고자 하는 특정 부분을 자동 결정할 때, 분석 결과를 토대로 다수의 서브 영역으로 나누어진 콘텐츠 영상 중 복잡도가 기준값 이상인 서브 영역을 추출하고, 추출한 서브 영역을 상기 선명도를 높이고자 하는 특정 부분으로 자동 결정할 수 있다.Further, when the specific part recognizing unit 210 automatically determines a specific part to be enhanced, based on the analysis result, a sub-region having a complexity greater than or equal to a reference value is extracted from a content image divided into a plurality of sub-regions, and the extracted sub-region is selected. It may be automatically determined as a specific part to increase the sharpness.

여기서, 특정 부분 인식부(210)는, 수신한 콘텐츠 영상을 분석할 때, 콘텐츠 영상에 대한 콘텐츠 타입을 분석할 수 있다.Here, the specific part recognizing unit 210 may analyze the content type of the content image when analyzing the received content image.

그리고, 특정 부분 인식부(210)는, 선명도를 높이고자 하는 특정 부분을 자동 결정할 때, 분석 결과를 토대로 콘텐츠 영상에 대한 콘텐츠 타입에 상응하여 선명도를 높이고자 하는 특정 부분을 자동 결정할 수 있다.In addition, the specific part recognizing unit 210 may automatically determine a specific part to be enhanced in accordance with the content type of the content image based on the analysis result when automatically determining a specific part to be enhanced in sharpness.

다음, 포인트 클라우드 추출부(220)는, 제1 영역과 제2 영역 사이의 경계에 위치하는 제3 영역에 대한 포인트 클라우드를 더 분리하여 추출할 수 있다.Next, the point cloud extractor 220 may further separate and extract the point cloud for the third area located at the boundary between the first area and the second area.

여기서, 포인트 클라우드 추출부(220)는, 제3 영역에 대한 포인트 클라우드를 분리할 때, 제1 영역의 위치를 토대로 제3 영역의 위치를 결정하고, 결정된 위치에 상응하는 제3 영역의 포인트 클라우드를 분리하여 추출할 수 있다.Here, the point cloud extractor 220 determines the location of the third area based on the location of the first area when separating the point cloud for the third area, and the point cloud of the third area corresponding to the determined location. can be separated and extracted.

그리고, 포인트 클라우드 추출부(220)는, 제3 영역의 위치를 결정할 때, 제1 영역의 주변을 따라 둘러싸는 영역을 제3 영역의 위치로 결정할 수 있다.Further, when determining the location of the third area, the point cloud extractor 220 may determine an area surrounding the periphery of the first area as the location of the third area.

경우에 따라, 포인트 클라우드 추출부(220)는, 제3 영역의 위치를 결정할 때, 제1 영역의 면적을 토대로 제3 영역의 면적을 결정할 수도 있다.In some cases, the point cloud extractor 220 may determine the area of the third area based on the area of the first area when determining the location of the third area.

일 예로, 포인트 클라우드 추출부(220)는, 제3 영역의 면적을 결정할 때, 제1 영역의 면적이 증감하면 제1 영역의 면적 증감 비율에 비례하여 제3 영역의 면적을 증감할 수 있다.For example, when determining the area of the third area, the point cloud extractor 220 may increase or decrease the area of the third area in proportion to the ratio of increase or decrease in the area of the first area when the area of the first area increases or decreases.

여기서, 포인트 클라우드 추출부(220)는, 제3 영역의 면적을 결정할 때, 제1 영역의 면적보다 더 작은 면적을 갖도록 제3 영역의 면적을 결정할 수 있다.Here, when determining the area of the third area, the point cloud extractor 220 may determine the area of the third area to have an area smaller than that of the first area.

예를 들면, 포인트 클라우드 추출부(220)는, 제3 영역의 면적을 결정할 때, 제1 영역의 면적 대비 약 10% ~ 약 60% 인 면적을 갖도록 제3 영역의 면적을 결정할 수 있다.For example, when determining the area of the third area, the point cloud extractor 220 may determine the area of the third area to have an area that is about 10% to about 60% of the area of the first area.

이어, 복셀 크기 결정부(230)는, 포인트 클라우드를 토대로 노이즈를 제거한 다음에, 제1 영역에 대한 복셀 크기와 제2 영역에 대한 복셀 크기를 서로 다르게 결정할 수 있다.Subsequently, the voxel size determiner 230 may determine a different voxel size for the first region and a different voxel size for the second region after removing noise based on the point cloud.

즉, 복셀 크기 결정부(230)는, 제1 영역에 대한 복셀 크기를 제2 영역에 대한 복셀 크기보다 더 작게 결정할 수 있다.That is, the voxel size determiner 230 may determine a voxel size for the first area smaller than a voxel size for the second area.

일 예로, 복셀 크기 결정부(230)는, 제2 영역에 대한 복셀 크기 대비 약 1% ~ 약 60%인 복셀 크기를 갖도록 제1 영역에 대한 복셀 크기를 작게 결정할 수 있다.For example, the voxel size determiner 230 may determine a small voxel size for the first region to have a voxel size that is about 1% to about 60% of the voxel size for the second region.

그리고, 복셀 크기 결정부(230)는, 제1 영역과 제2 영역 사이에 위치하는 제3 영역에 대한 포인트 클라우드가 분리되어 추출되었는지를 확인하고, 제3 영역에 대한 포인트 클라우드가 추출되면 포인트 클라우드를 토대로 제1, 제2, 제3 영역에 대한 복셀 크기를 서로 다르게 결정할 수 있다.Further, the voxel size determiner 230 checks whether the point cloud for the third area located between the first area and the second area has been separated and extracted, and if the point cloud for the third area is extracted, the point cloud Based on , voxel sizes for the first, second, and third regions may be determined differently.

여기서, 복셀 크기 결정부(230)는, 제3 영역에 대한 복셀 크기를 제2 영역에 대한 복셀 크기보다 더 작고 제1 영역에 대한 복셀 크기보다 더 크게 결정할 수 있다.Here, the voxel size determiner 230 may determine a voxel size of the third region smaller than that of the second region and larger than that of the first region.

일 예로, 복셀 크기 결정부(230)는, 제1 영역에 대한 복셀 크기값과 제2 영역에 대한 복셀 크기값 사이의 중간값을 갖도록 제3 영역에 대한 복셀 크기를 결정할 수 있다.For example, the voxel size determiner 230 may determine the voxel size of the third area to have an intermediate value between the voxel size value of the first area and the voxel size value of the second area.

도 9는 본 발명에 따른 3차원 입체 콘텐츠 서비스 제공 시스템의 3차원 입체 콘텐츠 서비스 제공 방법을 설명하기 위한 흐름도이고, 도 10 내지 도 13은 콘텐츠 영상의 특정 부분 인식 방법을 설명하기 위한 흐름도이다.9 is a flowchart for explaining a 3D stereoscopic content service providing method of a 3D stereoscopic content service providing system according to the present invention, and FIGS. 10 to 13 are flowcharts for explaining a method for recognizing a specific part of a content image.

도 9에 도시된 바와 같이, 본 발명은, 소정 객체를 촬영하여 콘텐츠 영상을 획득할 수 있다(S10).As shown in FIG. 9 , according to the present invention, a content image may be acquired by photographing a predetermined object (S10).

그리고, 본 발명은, 획득한 콘텐츠 영상 중 선명도를 높이고자 하는 특정 부분을 인식할 수 있다(S20).Further, the present invention may recognize a specific part to be enhanced among the obtained content images (S20).

제1 실시 예로서, 본 발명은, 도 10과 같이, 특정 부분을 인식하는 단계(S20)에서, 획득한 콘텐츠 영상에서 선명도를 높이고자 하는 특정 부분에 대한 정보가 미리 설정되어 있는지를 확인하고(S22), 특정 부분에 대한 정보가 미리 설정되어 있으면 설정된 정보를 토대로 상기 콘텐츠 영상을 분석하여 콘텐츠 영상 중 특정 부분을 인식할 수 있다(S26).As a first embodiment, as shown in FIG. 10, in the step of recognizing a specific part (S20), the present invention checks whether information on a specific part to be enhanced in the acquired content image is set in advance ( S22), if information on a specific part is set in advance, the specific part of the content video can be recognized by analyzing the content video based on the set information (S26).

여기서, 본 발명은, 특정 부분에 대한 정보가 미리 설정되어 있지 않으면 콘텐츠 영상의 전체 부분에 대한 포인트 클라우드를 추출할 수 있다(S28).Here, in the present invention, if information on a specific part is not set in advance, a point cloud for the entire part of the content video can be extracted (S28).

경우에 따라, 제2 실시 예로서, 본 발명은, 도 11과 같이, 특정 부분을 인식하는 단계(S20)에서, 획득한 콘텐츠 영상에서 선명도를 높이고자 하는 특정 부분에 대한 정보가 미리 설정되어 있는지를 확인하고(S22), 특정 부분에 대한 정보가 미리 설정되어 있지 않으면 특정 부분을 선택하는 사용자 입력이 있는지를 확인하며(S24), 사용자 입력이 있으면 사용자 입력을 토대로 콘텐츠 영상을 분석하여 콘텐츠 영상 중 특정 부분을 인식할 수 있다(S26).In some cases, as a second embodiment, the present invention, as shown in FIG. 11, in the step of recognizing a specific part (S20), whether information on a specific part to be enhanced in the acquired content image is set in advance. (S22), and if the information on a specific part is not set in advance, it is checked whether there is a user input for selecting a specific part (S24), and if there is a user input, the content video is analyzed based on the user input and the content video is analyzed. A specific part can be recognized (S26).

여기서, 본 발명은, 특정 부분에 대한 정보가 미리 설정되어 있는지를 확인할 때, 특정 부분에 대한 정보가 미리 설정되어 있으면 설정된 정보를 토대로 콘텐츠 영상을 분석하여 콘텐츠 영상 중 특정 부분을 인식할 수 있다(S26).Here, in the present invention, when checking whether information on a specific part is set in advance, if the information on the specific part is set in advance, the specific part of the content image can be recognized by analyzing the content image based on the set information ( S26).

그리고, 본 발명은, 사용자 입력이 없으면 콘텐츠 영상의 전체 부분에 대한 포인트 클라우드를 추출할 수 있다(S28).Further, in the present invention, if there is no user input, the point cloud for the entire portion of the content video can be extracted (S28).

또한, 본 발명은, 사용자 입력이 있는지를 확인할 때, 특정 부분에 대한 정보가 미리 설정되어 있지 않으면 콘텐츠 영상에서 선명도를 높이고자 하는 특정 부분에 대한 선택여부를 문의하는 질문창을 생성하고, 생성된 질문창을 미리 설정된 사용자 디바이스로 전송하며, 사용자 디바이스로부터 특정 부분을 선택하는 사용자 입력이 있는지를 확인할 수도 있다.In addition, the present invention, when checking whether there is a user input, if information on a specific part is not set in advance, a question window is created to inquire whether a specific part to be sharpened in the content video is selected, and the generated A question window may be transmitted to a preset user device, and it may be checked whether there is a user input for selecting a specific part from the user device.

제3 실시 예로서, 본 발명은, 도 12와 같이, 특정 부분을 인식하는 단계(S20)에서, 획득한 콘텐츠 영상에서 선명도를 높이고자 하는 특정 부분을 선택하는 사용자 입력이 있는지를 확인하고(S21), 사용자 입력이 있으면 사용자 입력을 토대로 콘텐츠 영상을 분석하며(S23), 분석된 콘텐츠 영상을 토대로 콘텐츠 영상 중 특정 부분을 인식할 수 있다(S26).As a third embodiment, as shown in FIG. 12, in the step of recognizing a specific part (S20), the present invention checks whether there is a user input for selecting a specific part to be sharpened in the acquired content image (S21 ), and if there is a user input, the content image is analyzed based on the user input (S23), and a specific part of the content image can be recognized based on the analyzed content image (S26).

여기서, 본 발명은, 사용자 입력이 없으면 콘텐츠 영상의 전체 부분에 대한 포인트 클라우드를 추출할 수 있다(S28).Here, in the present invention, if there is no user input, the point cloud for the entire portion of the content video can be extracted (S28).

또한, 본 발명은, 사용자 입력이 있는지를 확인할 때, 콘텐츠 영상에서 선명도를 높이고자 하는 특정 부분에 대한 선택여부를 문의하는 질문창을 생성하고, 생성된 질문창을 미리 설정된 사용자 디바이스로 전송하며, 사용자 디바이스로부터 특정 부분을 선택하는 사용자 입력이 있는지를 확인할 수도 있다.In addition, the present invention, when checking whether there is a user input, creates a question window for inquiring whether to select a specific part to increase the clarity of the content image, transmits the generated question window to a preset user device, It may be checked whether there is a user input for selecting a specific part from the user device.

제4 실시 예로서, 도 13과 같이, 특정 부분을 인식하는 단계(S20)에서, 획득한 콘텐츠 영상을 분석하고(S23), 분석 결과를 토대로 선명도를 높이고자 하는 특정 부분을 자동 결정하며(S25), 자동 결정에 따라 콘텐츠 영상 중 특정 부분을 인식할 수 있다(S26).As a fourth embodiment, as shown in FIG. 13, in the step of recognizing a specific part (S20), the acquired content video is analyzed (S23), and a specific part to be sharpened is automatically determined based on the analysis result (S25). ), a specific part of the content image can be recognized according to the automatic determination (S26).

여기서, 본 발명은, 획득한 콘텐츠 영상을 분석할 때, 콘텐츠 영상을 다수의 서브 영역으로 나누고, 각 서브 영역에 대한 객체의 복잡도를 분석할 수 있다.Here, in the present invention, when analyzing the acquired content image, the content image may be divided into a plurality of sub-regions and complexity of an object for each sub-region may be analyzed.

그리고, 본 발명은, 선명도를 높이고자 하는 특정 부분을 자동 결정할 때, 분석 결과를 토대로 다수의 서브 영역으로 나누어진 콘텐츠 영상 중 복잡도가 기준값 이상인 서브 영역을 추출하고, 추출한 서브 영역을 선명도를 높이고자 하는 특정 부분으로 자동 결정할 수 있다.In addition, the present invention, when automatically determining a specific part to increase the sharpness, based on the analysis result, extracts a sub-region having a complexity greater than or equal to a reference value among a content image divided into a plurality of sub-regions, and enhances the sharpness of the extracted sub-region. It can be automatically determined as a specific part to do.

그 이유는, 콘텐츠 영상 중 복잡도가 높은 부분이 복잡도가 낮은 부분에 비해 선명도가 저하되고 뭉개지는 노이즈 현상이 발생할 수 있기 때문이다.The reason for this is that the sharpness of a high-complexity part of the content image may be lowered and a noise phenomenon may occur, compared to a low-complexity part of the content image.

따라서, 콘텐츠 영상 중 복잡도가 높은 부분을 특정 부분으로 인식하여 복셀 크기를 작게 가공할 경우, 콘텐츠 영상의 품질을 개선할 수 있다.Therefore, when a high-complexity part of the content image is recognized as a specific part and the voxel size is reduced, the quality of the content image can be improved.

경우에 따라, 본 발명은, 획득한 콘텐츠 영상을 분석할 때, 콘텐츠 영상에 대한 콘텐츠 타입을 분석할 수도 있다.In some cases, the present invention may analyze the content type of the content image when analyzing the acquired content image.

그 이유는, 콘텐츠 타입에 적합하게 선명도를 높여야 할 특정 부분들을 효과적으로 인식하여 복셀 크기를 작게 가공할 경우, 콘텐츠 영상의 품질을 개선할 수 있다.The reason for this is that the quality of the content image can be improved by effectively recognizing specific parts to be sharpened appropriately for the type of content and processing them to reduce the size of the voxel.

예를 들면, 콘텐츠 타입이 축구에 관련된 스포츠이면 콘텐츠 영상 중 축구 선수의 다리 및 축구공 등에 특정 부분을 인식하고, 콘텐츠 타입이 강의에 관련된 교육이면 콘텐츠 영상 중 강사의 손 및 칠판 등에 특정 부분을 인식할 수 있다.For example, if the content type is sports related to soccer, specific parts such as a soccer player's legs and a soccer ball are recognized in the content video, and if the content type is education related to lectures, specific parts such as the instructor's hand and blackboard are recognized in the content video. can do.

그리고, 본 발명은, 선명도를 높이고자 하는 특정 부분을 자동 결정할 때, 분석 결과를 토대로 콘텐츠 영상에 대한 콘텐츠 타입에 상응하여 선명도를 높이고자 하는 특정 부분을 자동 결정할 수 있다.Further, in the present invention, when automatically determining a specific part to increase sharpness, based on the analysis result, it is possible to automatically determine a specific part to increase sharpness corresponding to a content type of a content image.

이어, 본 발명은, 콘텐츠 영상 중 특정 부분에 상응하는 제1 영역과 특정부분 이외의 부분에 상응하는 제2 영역에 대한 포인트 클라우드를 각각 분리하여 추출할 수 있다(S30, S40).Next, according to the present invention, a point cloud for a first region corresponding to a specific part of the content image and a second region corresponding to a part other than the specific part may be separated and extracted (S30 and S40).

경우에 따라, 본 발명은, 제1 영역과 제2 영역 사이의 경계에 위치하는 제3 영역에 대한 포인트 클라우드를 더 분리하여 추출할 수도 있다.In some cases, the present invention may further separate and extract the point cloud for the third area located at the boundary between the first area and the second area.

여기서, 본 발명은, 제1 영역의 위치를 토대로 제3 영역의 위치를 결정하고, 결정된 위치에 상응하는 제3 영역의 포인트 클라우드를 분리하여 추출할 수 있다.Here, according to the present invention, the location of the third area may be determined based on the location of the first area, and a point cloud of the third area corresponding to the determined location may be separated and extracted.

일 예로, 본 발명은, 제3 영역의 위치를 결정할 때, 제1 영역의 주변을 따라 둘러싸는 영역을 제3 영역의 위치로 결정할 수 있다.For example, when determining the position of the third region, an area surrounding the first region may be determined as the position of the third region.

다른 예로, 본 발명은, 제3 영역의 위치를 결정할 때, 제1 영역의 면적을 토대로 제3 영역의 면적을 결정할 수 있다.As another example, when the location of the third region is determined, the area of the third region may be determined based on the area of the first region.

여기서, 본 발명은, 제3 영역의 면적을 결정할 때, 제1 영역의 면적이 증감하면 제1 영역의 면적 증감 비율에 비례하여 제3 영역의 면적을 증감할 수 있다.Here, in the present invention, when determining the area of the third region, if the area of the first region increases or decreases, the area of the third region may increase or decrease in proportion to the ratio of the area increase or decrease of the first region.

즉, 본 발명은, 제1 영역의 면적보다 더 작은 면적을 갖도록 제3 영역의 면적을 결정할 수 있다.That is, according to the present invention, the area of the third region may be determined to have an area smaller than that of the first region.

그 이유는, 제3 영역의 면적이 너무 크면 데이터량이 증가하고, 제2 영역의 면적이 너무 작으면 제1 영역과 제2 영역 사이에 경계선 등의 노이즈 발생이 제거되지 않을 수 있기 때문이다.The reason is that if the area of the third area is too large, the amount of data increases, and if the area of the second area is too small, noise such as a boundary between the first and second areas may not be removed.

예를 들면, 본 발명은, 제1 영역의 면적 대비 약 10% ~ 약 60% 인 면적을 갖도록 제3 영역의 면적을 결정할 수 있다.For example, the present invention may determine the area of the third region to have an area that is about 10% to about 60% of the area of the first region.

다음, 본 발명은, 포인트 클라우드를 토대로 제1 영역과 제2 영역에 대한 복셀 크기를 서로 다르게 결정할 수 있다(S50, S60).Next, according to the present invention, voxel sizes for the first area and the second area may be determined differently based on the point cloud (S50 and S60).

여기서, 본 발명은, 포인트 클라우드를 토대로 노이즈를 제거한 다음에, 제1 영역에 대한 복셀 크기와 제2 영역에 대한 복셀 크기를 서로 다르게 결정할 수 있다.Here, in the present invention, after noise is removed based on the point cloud, the voxel size for the first area and the voxel size for the second area may be determined differently from each other.

즉, 본 발명은, 제1 영역에 대한 복셀 크기를 제2 영역에 대한 복셀 크기보다 더 작게 결정할 수 있다.That is, according to the present invention, the voxel size of the first region may be smaller than the voxel size of the second region.

그 이유는, 콘텐츠 영상의 전체 부분에 대한 선명도를 높일 경우, 데이터량이 증가하여 전송 속도가 낮은 문제가 있지만, 콘텐츠 영상의 특정 부분에 대해서만 선명도를 높임으로써, 데이터량의 증가를 최소화하여 전송 속도가 빠르고 원하는 특정 부분의 선명도가 향상되므로 속도 및 화질면에서 사용자의 만족도를 높일 수 있기 때문이다.The reason is that when the sharpness of the whole part of the content video is increased, the data amount increases and the transmission speed is low. This is because user satisfaction can be increased in terms of speed and image quality because the sharpness of a specific desired part is improved quickly.

일 예로, 본 발명은, 제2 영역에 대한 복셀 크기 대비 약 1% ~ 약 60%인 복셀 크기를 갖도록 제1 영역에 대한 복셀 크기를 작게 결정할 수 있다.For example, in the present invention, the voxel size of the first region may be determined to be small so as to have a voxel size that is about 1% to about 60% of the voxel size of the second region.

경우에 따라, 본 발명은, 복셀 크기를 결정할 때, 제1 영역과 제2 영역 사이에 위치하는 제3 영역에 대한 포인트 클라우드가 분리되어 추출되었는지를 확인하고, 제3 영역에 대한 포인트 클라우드가 추출되면 포인트 클라우드를 토대로 제1, 제2, 제3 영역에 대한 복셀 크기를 서로 다르게 결정할 수도 있다.In some cases, when the voxel size is determined, the present invention checks whether the point cloud for the third region located between the first region and the second region has been separated and extracted, and the point cloud for the third region is extracted. In this case, the voxel sizes of the first, second, and third regions may be differently determined based on the point cloud.

여기서, 본 발명은, 제3 영역에 대한 복셀 크기를 제2 영역에 대한 복셀 크기보다 더 작고 제1 영역에 대한 복셀 크기보다 더 크게 결정할 수 있다.Here, according to the present invention, the voxel size of the third region may be smaller than that of the second region and larger than that of the first region.

경우에 따라, 입체 영상 생성 장치(200)는, 복셀 크기를 결정할 때, 제1 영역과 제2 영역 사이에 위치하는 제3 영역에 대한 포인트 클라우드가 분리되어 추출되었는지를 확인하고, 제3 영역에 대한 포인트 클라우드가 추출되면 포인트 클라우드를 토대로 제1, 제2, 제3 영역에 대한 복셀 크기를 서로 다르게 결정할 수도 있다.In some cases, when determining the voxel size, the 3D image generating apparatus 200 checks whether the point cloud for the third area located between the first area and the second area has been separated and extracted, and When the point cloud for the first, second, and third regions is extracted, different voxel sizes may be determined based on the point cloud.

여기서, 입체 영상 생성 장치(200)는, 복셀 크기를 결정할 때, 제3 영역에 대한 복셀 크기를 제2 영역에 대한 복셀 크기보다 더 작고 제1 영역에 대한 복셀 크기보다 더 크게 결정할 수 있다.Here, when determining the voxel size, the 3D image generating apparatus 200 may determine a voxel size of the third region smaller than that of the second region and larger than that of the first region.

그 이유는, 제3 영역의 복셀 크기값이 제1 영역의 복셀 크기와 제2 영역의 복셀 크기 사이의 복셀 크기값을 갖지 않을 경우, 제1 영역과 제2 영역 사이에 복셀 크기 차로 인하여 경계선이 발생하여 콘텐츠 영상의 품질 저하를 가져올 수 있기 때문이다.The reason is that, when the voxel size value of the third area does not have a voxel size value between the voxel size of the first area and the voxel size of the second area, the boundary line is formed due to the voxel size difference between the first area and the second area. This is because it may cause deterioration in the quality of content images.

따라서, 본 발명은, 제1 영역에 대한 복셀 크기값과 제2 영역에 대한 복셀 크기값 사이의 중간값을 갖도록 제3 영역에 대한 복셀 크기를 결정할 수 있다.Therefore, according to the present invention, the voxel size of the third region may be determined to have an intermediate value between the voxel size value of the first region and the voxel size value of the second region.

그리고, 본 발명은, 결정된 복셀 크기에 상응하는 복셀 데이터를 생성할 수 있다.And, according to the present invention, voxel data corresponding to the determined voxel size may be generated.

이어, 본 발명은, 복셀 데이터를 토대로 콘텐츠 영상을 3차원 입체 영상으로 가공하여 3차원 입체 영상에 대한 데이터를 인코딩할 수 있다(S70).Next, according to the present invention, data for the 3D stereoscopic image may be encoded by processing the content image into a 3D stereoscopic image based on the voxel data (S70).

다음, 본 발명은, 3차원 입체 영상에 대한 데이터를 디코딩하고 렌더링을 수행할 수 있다(S80).Next, in the present invention, data for a 3D stereoscopic image may be decoded and rendered (S80).

그리고, 본 발명은, 렌더링이 수행된 3차원 입체 영상을 재생할 수 있다(S90).Also, according to the present invention, the rendered 3D stereoscopic image can be reproduced (S90).

이와 같이, 본 발명은, 콘텐츠 영상 중 선명도를 높이고자 하는 특정 부분의 복셀 크기를 작도록 복셀 데이터를 생성함으로써, 데이터량을 증가시키지 않으면서도 선명도가 개선된 3차원 입체 콘텐츠를 제공할 수 있다.In this way, the present invention can provide 3D stereoscopic content with improved clarity without increasing the amount of data by generating voxel data so that the voxel size of a specific portion of the content image to be enhanced is reduced.

즉, 본 발명은, 콘텐츠 용량의 증가를 최소화하면서 콘텐츠 국소 부위의 선명도를 향상시킬 수 있다.That is, the present invention can improve the sharpness of a local area of content while minimizing an increase in content capacity.

한편, 본 발명의 일 실시예는, 상기 3차원 입체 콘텐츠 서비스 제공 방법들 중 어느 하나의 방법을 실행시키기 위한 컴퓨터 판독 가능한 프로그램 및 상기 프로그램이 기록된 기록매체를 더 제공할 수도 있다.Meanwhile, an embodiment of the present invention may further provide a computer readable program for executing any one of the 3D stereoscopic content service providing methods and a recording medium on which the program is recorded.

여기에 설명되는 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Various embodiments described herein may be implemented in a recording medium readable by a computer or a device similar thereto using, for example, software, hardware, or a combination thereof.

소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다.According to software implementation, embodiments such as procedures or functions may be implemented together with a separate software module to perform at least one function or operation. The software code may be implemented by a software application written in any suitable programming language.

상술한 실시예에 따른 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등의 형태로 구현되는 것도 포함된다.The method according to the above-described embodiment may be produced as a program to be executed on a computer and stored in a computer-readable recording medium. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, and magnetic tape. , floppy disks, and those implemented in the form of optical data storage devices are also included.

컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상술한 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 실시예가 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The computer-readable recording medium is distributed to computer systems connected through a network, so that computer-readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the above-described method can be easily inferred by programmers in the technical field to which the embodiment belongs.

본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다.It is apparent to those skilled in the art that the present invention can be embodied in other specific forms without departing from the spirit and essential characteristics of the present invention.

따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. Accordingly, the above detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

100: 영상 획득 장치
200: 입체 영상 생성 장치
210: 특정 부분 인식부
220: 포인트 클라우드 추출부
230: 복셀 크기 결정부
240: 복셀 데이터 생성부
250: 인코딩부
300: 입체 영상 재생 장치
100: image acquisition device
200: stereoscopic image generating device
210: specific part recognition unit
220: point cloud extraction unit
230: voxel size determining unit
240: voxel data generator
250: encoding unit
300: 3D image playback device

Claims (43)

소정 객체를 촬영하여 콘텐츠 영상을 획득하는 영상 획득 장치; 및
상기 획득한 콘텐츠 영상을 3차원 입체 영상으로 가공하는 입체 영상 생성 장치를 포함하고,
상기 입체 영상 생성 장치는,
상기 콘텐츠 영상이 수신되면 특정 부분을 인식하고, 상기 콘텐츠 영상 중 특정 부분에 상응하는 제1 영역, 상기 특정부분 이외의 부분에 상응하는 제2 영역 및 상기 제1 영역과 상기 제2 영역 사이의 경계에 위치하는 제3 영역에 대한 포인트 클라우드를 각각 분리하여 추출하며, 상기 포인트 클라우드를 토대로 상기 제1 영역과 상기 제2 영역에 대한 복셀 크기를 서로 다르게 결정하고, 상기 제3 영역에 대한 복셀 크기를 상기 제1 영역 복셀 크기 및 상기 제2 영역 복셀 크기 사이의 크기로 결정하며, 상기 결정된 복셀 크기에 상응하는 복셀 데이터를 생성하여 상기 복셀 데이터를 토대로 상기 콘텐츠 영상을 3차원 입체 영상으로 가공하는 것을 특징으로 하는 3차원 입체 콘텐츠 서비스 제공 시스템.
an image acquisition device that obtains a content image by photographing a predetermined object; and
A stereoscopic image generating device for processing the obtained content image into a three-dimensional stereoscopic image;
The three-dimensional image generating device,
When the content video is received, a specific part is recognized, a first region corresponding to the specific part of the content video, a second region corresponding to a part other than the specific part, and a boundary between the first region and the second region. The point clouds for the third area located at are separated and extracted, the voxel sizes for the first area and the second area are determined differently based on the point cloud, and the voxel size for the third area is determined. A size between the voxel size of the first area and the voxel size of the second area is determined, voxel data corresponding to the determined voxel size is generated, and the content image is processed into a 3D stereoscopic image based on the voxel data. 3D stereoscopic content service providing system.
제1 항에 있어서, 상기 영상 획득 장치는,
다수의 카메라를 포함하고,
상기 다수의 카메라를 통해 상기 객체를 서로 다른 방향에서 동시에 촬영하여 상기 콘텐츠 영상을 획득하는 것을 특징으로 하는 3차원 입체 콘텐츠 서비스 제공 시스템.
The method of claim 1, wherein the image acquisition device,
Including multiple cameras;
A system for providing a 3D stereoscopic content service, characterized in that the content images are obtained by simultaneously photographing the object in different directions through the plurality of cameras.
제1 항에 있어서, 상기 입체 영상 생성 장치는,
상기 특정 부분을 인식할 때, 상기 콘텐츠 영상을 수신하면 상기 수신한 콘텐츠 영상에서 상기 특정 부분에 대한 정보가 미리 설정되어 있는지를 확인하고, 상기 특정 부분에 대한 정보가 미리 설정되어 있으면 상기 설정된 정보를 토대로 상기 콘텐츠 영상을 분석하여 상기 콘텐츠 영상 중 특정 부분을 인식하는 것을 특징으로 하는 3차원 입체 콘텐츠 서비스 제공 시스템.
The method of claim 1, wherein the 3D image generating device comprises:
When recognizing the specific part, when the content video is received, it is checked whether information on the specific part is set in advance in the received content video, and if the information on the specific part is set in advance, the set information A system for providing a 3D stereoscopic content service, characterized in that for recognizing a specific part of the content image by analyzing the content image based on the basis.
제3 항에 있어서, 상기 입체 영상 생성 장치는,
상기 특정 부분에 대한 정보가 미리 설정되어 있는지를 확인할 때, 상기 특정 부분에 대한 정보가 미리 설정되어 있지 않으면 상기 콘텐츠 영상의 전체 부분에 대한 포인트 클라우드를 추출하는 것을 특징으로 하는 3차원 입체 콘텐츠 서비스 제공 시스템.
The method of claim 3, wherein the stereoscopic image generating device,
When checking whether the information on the specific part is set in advance, if the information on the specific part is not set in advance, a point cloud for the entire part of the content video is extracted. system.
제1 항에 있어서, 상기 입체 영상 생성 장치는,
상기 복셀 크기를 결정할 때, 상기 포인트 클라우드를 토대로 노이즈를 제거한 다음에, 상기 제1 영역에 대한 복셀 크기와 상기 제2 영역에 대한 복셀 크기를 서로 다르게 결정하는 것을 특징으로 하는 3차원 입체 콘텐츠 서비스 제공 시스템.
The method of claim 1, wherein the 3D image generating device comprises:
When the voxel size is determined, noise is removed based on the point cloud, and then a voxel size for the first area and a voxel size for the second area are determined differently from each other. system.
제1 항에 있어서, 상기 입체 영상 생성 장치는,
상기 복셀 크기를 결정할 때, 상기 제1 영역에 대한 복셀 크기를 상기 제2 영역에 대한 복셀 크기보다 더 작게 결정하는 것을 특징으로 하는 3차원 입체 콘텐츠 서비스 제공 시스템.
The method of claim 1, wherein the 3D image generating device comprises:
The 3D stereoscopic content service providing system of claim 1 , wherein when the voxel size is determined, a voxel size for the first area is smaller than a voxel size for the second area.
제1 항에 있어서, 상기 입체 영상 생성 장치는,
상기 복셀 크기를 결정할 때, 상기 제3 영역에 대한 포인트 클라우드가 분리되어 추출되었는지를 확인하고, 상기 제3 영역에 대한 포인트 클라우드가 추출되면 상기 포인트 클라우드를 토대로 상기 제1, 제2, 제3 영역에 대한 복셀 크기를 서로 다르게 결정하는 것을 특징으로 하는 3차원 입체 콘텐츠 서비스 제공 시스템.
The method of claim 1, wherein the 3D image generating device comprises:
When the voxel size is determined, it is checked whether the point cloud for the third area is separated and extracted, and if the point cloud for the third area is extracted, the first, second, and third areas are extracted based on the point cloud. A system for providing a 3D stereoscopic content service, characterized in that the voxel size for is determined differently.
제7 항에 있어서, 상기 입체 영상 생성 장치는,
상기 복셀 크기를 결정할 때, 상기 제3 영역에 대한 복셀 크기를 상기 제2 영역에 대한 복셀 크기보다 더 작고 상기 제1 영역에 대한 복셀 크기보다 더 크게 결정하는 것을 특징으로 하는 3차원 입체 콘텐츠 서비스 제공 시스템.
The method of claim 7, wherein the stereoscopic image generating device,
When the voxel size is determined, a voxel size for the third area is determined to be smaller than a voxel size for the second area and larger than a voxel size for the first area. system.
제1 항에 있어서, 상기 입체 영상 생성 장치는,
상기 콘텐츠 영상을 3차원 입체 영상으로 가공할 때, 상기 결정된 복셀 크기에 상응하는 복셀 데이터를 생성하여 상기 콘텐츠 영상을 3차원 입체 영상으로 가공하며, 상기 가공된 3차원 입체 영상에 대한 데이터를 인코딩하여 전송하는 것을 특징으로 하는 3차원 입체 콘텐츠 서비스 제공 시스템.
The method of claim 1, wherein the 3D image generating device comprises:
When processing the content image into a 3D stereoscopic image, voxel data corresponding to the determined voxel size is generated to process the content image into a 3D stereoscopic image, and data for the processed 3D stereoscopic image is encoded. A system for providing a three-dimensional stereoscopic content service characterized by transmitting.
제1 항에 있어서,
상기 3차원 입체 영상을 재생하는 입체 영상 재생 장치를 더 포함하는 것을 특징으로 하는 3차원 입체 콘텐츠 서비스 제공 시스템.
According to claim 1,
The 3D stereoscopic content service providing system further comprising a stereoscopic image reproducing device for reproducing the 3D stereoscopic image.
제10 항에 있어서, 상기 입체 영상 재생 장치는,
상기 3차원 입체 영상을 재생할 때, 상기 가공된 3차원 입체 영상에 대한 데이터가 수신되면 상기 데이터를 디코딩하고 렌더링을 수행하여 3차원 입체 영상을 재생하는 3차원 입체 콘텐츠 서비스 제공 시스템.
The method of claim 10, wherein the stereoscopic image reproducing apparatus,
When the 3D stereoscopic image is reproduced, when the processed 3D stereoscopic image data is received, the 3D stereoscopic content service providing system reproduces the 3D stereoscopic image by decoding and rendering the data.
영상 획득 장치와 입체 영상 재생 장치에 통신 연결되는 입체 영상 생성 장치를 포함하는 3차원 입체 콘텐츠 서비스 제공 시스템의 3차원 입체 콘텐츠 서비스 제공 방법에 있어서,
상기 영상 획득 장치가, 소정 객체를 촬영하여 콘텐츠 영상을 획득하는 단계;
상기 입체 영상 생성 장치가, 상기 획득한 콘텐츠 영상 중 특정 부분을 인식하는 단계;
상기 입체 영상 생성 장치가, 상기 콘텐츠 영상 중 특정 부분에 상응하는 제1 영역, 상기 특정부분 이외의 부분에 상응하는 제2 영역 및 상기 제1 영역 및 상기 제2 영역 사이의 경계에 위치하는 제3 영역에 대한 포인트 클라우드를 각각 분리하여 추출하는 단계;
상기 입체 영상 생성 장치가, 상기 포인트 클라우드를 토대로 상기 제1 영역과 상기 제2 영역에 대한 복셀 크기를 서로 다르게 결정하고, 상기 제3 영역에 대한 복셀 크기를 상기 제1 영역 복셀 크기 및 상기 제2 영역 복셀 크기 사이의 크기로 결정하는 단계;
상기 입체 영상 생성 장치가, 상기 결정된 복셀 크기에 상응하는 복셀 데이터를 생성하는 단계;
상기 입체 영상 생성 장치가, 상기 복셀 데이터를 토대로 상기 콘텐츠 영상을 3차원 입체 영상으로 가공하여 3차원 입체 영상에 대한 데이터를 인코딩하는 단계;
상기 입체 영상 재생 장치가, 상기 3차원 입체 영상에 대한 데이터를 디코딩하고 렌더링을 수행하는 단계; 및
상기 입체 영상 재생 장치가, 상기 렌더링이 수행된 3차원 입체 영상을 재생하는 단계를 포함하는 것을 특징으로 하는 3차원 입체 콘텐츠 서비스 제공 방법.
A 3D stereoscopic content service providing method of a 3D stereoscopic content service providing system including a stereoscopic image generating device that is communicatively connected to an image capture device and a stereoscopic image reproducing device, the method comprising:
obtaining, by the image capture device, a content image by photographing a predetermined object;
Recognizing, by the 3D image generating device, a specific part of the obtained content image;
The stereoscopic image generating apparatus includes a first region corresponding to a specific part of the content image, a second region corresponding to a part other than the specific part, and a third region located at a boundary between the first region and the second region. separating and extracting point clouds for each region;
The 3D image generating apparatus determines different voxel sizes for the first area and the second area based on the point cloud, and sets the voxel size for the third area to the first area voxel size and the second area. determining a size between region voxel sizes;
generating, by the 3D image generating apparatus, voxel data corresponding to the determined voxel size;
encoding the data for the 3D stereoscopic image by processing the content image into a 3D stereoscopic image based on the voxel data, by the stereoscopic image generating device;
decoding and rendering data of the 3D stereoscopic image by the 3D image reproducing apparatus; and
The 3D stereoscopic content service providing method comprising the step of reproducing, by the stereoscopic image reproducing apparatus, the 3D stereoscopic image on which the rendering has been performed.
제12 항에 있어서, 상기 특정 부분을 인식하는 단계는,
상기 획득한 콘텐츠 영상에서 상기 특정 부분에 대한 정보가 미리 설정되어 있는지를 확인하고, 상기 특정 부분에 대한 정보가 미리 설정되어 있으면 상기 설정된 정보를 토대로 상기 콘텐츠 영상을 분석하여 상기 콘텐츠 영상 중 특정 부분을 인식하는 것을 특징으로 하는 3차원 입체 콘텐츠 서비스 제공 방법.
The method of claim 12, wherein recognizing the specific part comprises:
It is checked whether information on the specific part is set in advance in the obtained content video, and if the information on the specific part is set in advance, the content video is analyzed based on the set information to obtain a specific part of the content video. A method of providing a 3D stereoscopic content service, characterized in that for recognizing.
제13 항에 있어서, 상기 특정 부분에 대한 정보가 미리 설정되어 있는지를 확인하는 단계는,
상기 특정 부분에 대한 정보가 미리 설정되어 있지 않으면 상기 콘텐츠 영상의 전체 부분에 대한 포인트 클라우드를 추출하는 것을 특징으로 하는 3차원 입체 콘텐츠 서비스 제공 방법.
The method of claim 13, wherein the step of checking whether information on the specific part is set in advance,
A method for providing a 3D stereoscopic content service, characterized in that, if the information on the specific portion is not set in advance, a point cloud for the entire portion of the content video is extracted.
제12 항에 있어서, 상기 복셀 크기를 결정하는 단계는,
상기 포인트 클라우드를 토대로 노이즈를 제거한 다음에, 상기 제1 영역에 대한 복셀 크기와 상기 제2 영역에 대한 복셀 크기를 서로 다르게 결정하는 것을 특징으로 하는 3차원 입체 콘텐츠 서비스 제공 방법.
13. The method of claim 12, wherein determining the voxel size comprises:
and determining a different voxel size for the first area and a voxel size for the second area after noise is removed based on the point cloud.
제12 항에 있어서, 상기 복셀 크기를 결정하는 단계는,
상기 제1 영역에 대한 복셀 크기를 상기 제2 영역에 대한 복셀 크기보다 더 작게 결정하는 것을 특징으로 하는 3차원 입체 콘텐츠 서비스 제공 방법.
13. The method of claim 12, wherein determining the voxel size comprises:
The 3D stereoscopic content service providing method of claim 1 , wherein a voxel size of the first area is smaller than a voxel size of the second area.
제12 항에 있어서, 상기 복셀 크기를 결정하는 단계는,
상기 제3 영역에 대한 포인트 클라우드가 분리되어 추출되었는지를 확인하고, 상기 제3 영역에 대한 포인트 클라우드가 추출되면 상기 포인트 클라우드를 토대로 상기 제1, 제2, 제3 영역에 대한 복셀 크기를 서로 다르게 결정하는 것을 특징으로 하는 3차원 입체 콘텐츠 서비스 제공 방법.
13. The method of claim 12, wherein determining the voxel size comprises:
It is checked whether the point cloud for the third area is separated and extracted, and when the point cloud for the third area is extracted, the voxel sizes for the first, second, and third areas are set differently based on the point cloud. A method of providing a 3D stereoscopic content service, characterized in that determining.
제17 항에 있어서, 상기 복셀 크기를 결정하는 단계는,
상기 제3 영역에 대한 복셀 크기를 상기 제2 영역에 대한 복셀 크기보다 더 작고 상기 제1 영역에 대한 복셀 크기보다 더 크게 결정하는 것을 특징으로 하는 3차원 입체 콘텐츠 서비스 제공 방법.
The method of claim 17, wherein determining the voxel size comprises:
and determining a voxel size of the third area smaller than a voxel size of the second area and larger than a voxel size of the first area.
영상 획득 장치와 입체 영상 재생 장치에 통신 연결되는 입체 영상 생성 장치에 있어서,
상기 영상 획득 장치로부터 획득한 콘텐츠 영상 중 특정 부분을 인식하는 특정 부분 인식부;
상기 콘텐츠 영상 중 특정 부분에 상응하는 제1 영역, 상기 특정부분 이외의 부분에 상응하는 제2 영역 및 상기 제1 영역과 상기 제2 영역 사이의 경계에 위치하는 제3 영역에 대한 포인트 클라우드를 각각 분리하여 추출하는 포인트 클라우드 추출부;
상기 포인트 클라우드를 토대로 상기 제1 영역과 상기 제2 영역에 대한 복셀 크기를 서로 다르게 결정하고, 상기 제3 영역에 대한 복셀 크기를 상기 제1 영역 복셀 크기 및 상기 제2 영역 복셀 크기 사이의 크기로 결정하는 복셀 크기 결정부;
상기 결정된 복셀 크기에 상응하는 복셀 데이터를 생성하는 복셀 데이터 생성부; 및
상기 복셀 데이터를 토대로 상기 콘텐츠 영상을 3차원 입체 영상으로 가공하여 3차원 입체 영상에 대한 데이터를 인코딩하는 인코딩부를 포함하는 것을 특징으로 하는 입체 영상 생성 장치.
A stereoscopic image generating device that is communicatively connected to an image capture device and a stereoscopic image reproducing device,
a specific part recognizing unit recognizing a specific part among the content images obtained from the image capture device;
A point cloud for a first area corresponding to a specific part of the content image, a second area corresponding to a part other than the specific part, and a third area located at the boundary between the first area and the second area, respectively. a point cloud extraction unit that separates and extracts;
Based on the point cloud, different voxel sizes are determined for the first area and the second area, and the voxel size for the third area is set to a size between the voxel size of the first area and the voxel size of the second area. a voxel size determining unit that determines a voxel size;
a voxel data generating unit generating voxel data corresponding to the determined voxel size; and
and an encoding unit processing the content image into a 3D stereoscopic image based on the voxel data and encoding data for the 3D stereoscopic image.
제19 항에 있어서, 상기 특정 부분 인식부는,
상기 콘텐츠 영상을 수신하면 상기 수신한 콘텐츠 영상에서 상기 특정 부분에 대한 정보가 미리 설정되어 있는지를 확인하고, 상기 특정 부분에 대한 정보가 미리 설정되어 있으면 상기 설정된 정보를 토대로 상기 콘텐츠 영상을 분석하여 상기 콘텐츠 영상 중 특정 부분을 인식하는 것을 특징으로 하는 입체 영상 생성 장치.
The method of claim 19, wherein the specific part recognition unit,
When the content video is received, it is checked whether the information on the specific part is set in advance in the received content video, and if the information on the specific part is set in advance, the content video is analyzed based on the set information. An apparatus for generating a stereoscopic image, characterized in that for recognizing a specific part of a content image.
제20 항에 있어서, 상기 특정 부분 인식부는,
상기 특정 부분에 대한 정보가 미리 설정되어 있는지를 확인할 때, 상기 특정 부분에 대한 정보가 미리 설정되어 있지 않으면 상기 콘텐츠 영상의 전체 부분에 대한 포인트 클라우드를 추출하는 것을 특징으로 하는 입체 영상 생성 장치.
The method of claim 20, wherein the specific part recognition unit,
When checking whether the information on the specific part is set in advance, if the information on the specific part is not set in advance, a point cloud for the entire part of the content video is extracted.
제19 항에 있어서,
상기 콘텐츠 영상에 대한 정보와 상기 특정 부분에 대한 정보를 포함하는 데이터 테이블이 저장된 저장부를 더 포함하는 것을 특징으로 하는 입체 영상 생성 장치.
According to claim 19,
and a storage unit storing a data table including information on the content image and information on the specific part.
제19 항에 있어서, 상기 특정 부분 인식부는,
상기 특정 부분을 인식할 때, 상기 콘텐츠 영상을 수신하면 상기 수신한 콘텐츠 영상에서 특정 부분을 선택하는 사용자 입력이 있는지를 확인하고, 상기 사용자 입력이 있으면 상기 사용자 입력을 토대로 상기 콘텐츠 영상을 분석하여 상기 콘텐츠 영상 중 특정 부분을 인식하는 것을 특징으로 하는 입체 영상 생성 장치.
The method of claim 19, wherein the specific part recognition unit,
When recognizing the specific part, if the content video is received, it is checked whether there is a user input for selecting a specific part from the received content video, and if there is a user input, the content video is analyzed based on the user input to An apparatus for generating a stereoscopic image, characterized in that for recognizing a specific part of a content image.
제23 항에 있어서, 상기 특정 부분 인식부는,
상기 사용자 입력이 있는지를 확인할 때, 상기 사용자 입력이 없으면 상기 콘텐츠 영상의 전체 부분에 대한 포인트 클라우드를 추출하는 것을 특징으로 하는 입체 영상 생성 장치.
The method of claim 23, wherein the specific part recognition unit,
When checking whether there is the user input, if there is no user input, a point cloud for an entire part of the content video is extracted.
제24 항에 있어서, 상기 포인트 클라우드 추출부는,
상기 제3 영역에 대한 포인트 클라우드를 분리할 때, 상기 제1 영역의 위치를 토대로 상기 제3 영역의 위치를 결정하고, 상기 결정된 위치에 상응하는 제3 영역의 포인트 클라우드를 분리하여 추출하는 것을 특징으로 하는 입체 영상 생성 장치.
The method of claim 24, wherein the point cloud extractor,
When separating the point cloud for the third area, the location of the third area is determined based on the location of the first area, and the point cloud of the third area corresponding to the determined location is separated and extracted. A three-dimensional image generating device.
제19 항에 있어서, 상기 복셀 크기 결정부는,
상기 포인트 클라우드를 토대로 노이즈를 제거한 다음에, 상기 제1 영역에 대한 복셀 크기와 상기 제2 영역에 대한 복셀 크기를 서로 다르게 결정하는 것을 특징으로 하는 입체 영상 생성 장치.
The method of claim 19, wherein the voxel size determiner comprises:
After noise is removed based on the point cloud, a voxel size for the first region and a voxel size for the second region are differently determined.
제19 항에 있어서, 상기 복셀 크기 결정부는,
상기 제1 영역에 대한 복셀 크기를 상기 제2 영역에 대한 복셀 크기보다 더 작게 결정하는 것을 특징으로 하는 입체 영상 생성 장치.
The method of claim 19, wherein the voxel size determiner comprises:
The stereoscopic image generating apparatus of claim 1 , wherein a voxel size of the first region is smaller than a voxel size of the second region.
제19 항에 있어서, 상기 복셀 크기 결정부는,
상기 제3 영역에 대한 포인트 클라우드가 분리되어 추출되었는지를 확인하고, 상기 제3 영역에 대한 포인트 클라우드가 추출되면 상기 포인트 클라우드를 토대로 상기 제1, 제2, 제3 영역에 대한 복셀 크기를 서로 다르게 결정하는 것을 특징으로 하는 입체 영상 생성 장치.
The method of claim 19, wherein the voxel size determiner comprises:
It is checked whether the point cloud for the third area is separated and extracted, and when the point cloud for the third area is extracted, the voxel sizes for the first, second, and third areas are set differently based on the point cloud. A stereoscopic image generating device, characterized in that for determining.
제28 항에 있어서, 상기 복셀 크기 결정부는,
상기 제3 영역에 대한 복셀 크기를 상기 제2 영역에 대한 복셀 크기보다 더 작고 상기 제1 영역에 대한 복셀 크기보다 더 크게 결정하는 것을 특징으로 하는 입체 영상 생성 장치.
29. The method of claim 28, wherein the voxel size determiner comprises:
and determining a voxel size of the third area smaller than a voxel size of the second area and larger than a voxel size of the first area.
제29 항에 있어서, 상기 복셀 크기 결정부는,
상기 제1 영역에 대한 복셀 크기값과 상기 제2 영역에 대한 복셀 크기 값 사이의 중간 값을 갖도록 상기 제3 영역에 대한 복셀 크기를 결정하는 것을 특징으로 하는 입체 영상 생성 장치.
The method of claim 29, wherein the voxel size determiner comprises:
and determining a voxel size of the third region to have an intermediate value between a voxel size value of the first region and a voxel size value of the second region.
특정 부분 인식부, 포인트 클라우드 추출부, 복셀 크기 결정부, 복셀 데이터 생성부, 그리고 인코딩부를 포함하는 입체 영상 생성 장치의 3차원 입체 콘텐츠 서비스 제공 방법에 있어서,
상기 특정 부분 인식부가, 영상 획득 장치로부터 획득한 콘텐츠 영상 중 특정 부분을 인식하는 단계;
상기 포인트 클라우드 추출부가, 상기 콘텐츠 영상 중 특정 부분에 상응하는 제1 영역, 상기 특정부분 이외의 부분에 상응하는 제2 영역 및 상기 제1 영역과 상기 제2 영역 사이의 경계에 위치하는 제3 영역에 대한 포인트 클라우드를 각각 분리하여 추출하는 단계;
상기 복셀 크기 결정부가, 상기 포인트 클라우드를 토대로 상기 제1 영역과 상기 제2 영역에 대한 복셀 크기를 서로 다르게 결정하고, 상기 제3 영역에 대한 복셀 크기를 상기 제1 영역 복셀 크기 및 상기 제2 영역 복셀 크기 사이의 크기로 결정하는 단계;
상기 복셀 데이터 생성부가, 상기 결정된 복셀 크기에 상응하는 복셀 데이터를 생성하는 단계; 및
상기 인코딩부가, 상기 복셀 데이터를 토대로 상기 콘텐츠 영상을 3차원 입체 영상으로 가공하여 3차원 입체 영상에 대한 데이터를 인코딩하는 단계를 포함하는 것을 특징으로 하는 입체 영상 생성 장치의 3차원 입체 콘텐츠 서비스 제공 방법.
A 3D stereoscopic content service providing method of a stereoscopic image generating apparatus including a specific part recognizing unit, a point cloud extracting unit, a voxel size determining unit, a voxel data generating unit, and an encoding unit, the method comprising:
Recognizing, by the specific portion recognizing unit, a specific portion of content images obtained from an image capture device;
The point cloud extractor includes a first area corresponding to a specific part of the content image, a second area corresponding to a part other than the specific part, and a third area located at the boundary between the first area and the second area. separating and extracting point clouds for each;
The voxel size determiner determines different voxel sizes for the first area and the second area based on the point cloud, and sets the voxel size for the third area to the first area voxel size and the second area. as the size between the voxel sizes deciding;
generating, by the voxel data generation unit, voxel data corresponding to the determined voxel size; and
and processing, by the encoding unit, the content image into a 3D stereoscopic image based on the voxel data and encoding data for the 3D stereoscopic image. .
제31 항에 있어서, 상기 특정 부분을 인식하는 단계는,
상기 획득한 콘텐츠 영상에서 상기 특정 부분에 대한 정보가 미리 설정되어 있는지를 확인하고, 상기 특정 부분에 대한 정보가 미리 설정되어 있으면 상기 설정된 정보를 토대로 상기 콘텐츠 영상을 분석하여 상기 콘텐츠 영상 중 특정 부분을 인식하는 것을 특징으로 하는 입체 영상 생성 장치의 3차원 입체 콘텐츠 서비스 제공 방법.
32. The method of claim 31, wherein recognizing the specific part comprises:
It is checked whether information on the specific part is set in advance in the obtained content video, and if the information on the specific part is set in advance, the content video is analyzed based on the set information to obtain a specific part of the content video. A method of providing a 3D stereoscopic content service by a stereoscopic image generating device, characterized in that for recognizing.
제32 항에 있어서, 상기 특정 부분에 대한 정보가 미리 설정되어 있는지를 확인하는 단계는,
상기 특정 부분에 대한 정보가 미리 설정되어 있지 않으면 상기 콘텐츠 영상의 전체 부분에 대한 포인트 클라우드를 추출하는 것을 특징으로 하는 입체 영상 생성 장치의 3차원 입체 콘텐츠 서비스 제공 방법.
The method of claim 32, wherein the step of checking whether information on the specific part is set in advance,
A method for providing a 3D stereoscopic content service of a stereoscopic image generating apparatus, characterized in that, if the information on the specific portion is not set in advance, a point cloud for the entire portion of the content image is extracted.
제31 항에 있어서, 상기 특정 부분을 인식하는 단계는,
상기 획득한 콘텐츠 영상에서 특정 부분을 선택하는 사용자 입력이 있는지를 확인하고, 상기 사용자 입력이 있으면 상기 사용자 입력을 토대로 상기 콘텐츠 영상을 분석하여 상기 콘텐츠 영상 중 특정 부분을 인식하는 것을 특징으로 하는 입체 영상 생성 장치의 3차원 입체 콘텐츠 서비스 제공 방법.
32. The method of claim 31, wherein recognizing the specific part comprises:
It is confirmed whether there is a user input for selecting a specific part from the obtained content image, and if there is a user input, the content image is analyzed based on the user input to recognize a specific part of the content image. A method for providing 3D stereoscopic content service from a generating device.
제34 항에 있어서, 상기 사용자 입력이 있는지를 확인하는 단계는,
상기 사용자 입력이 없으면 상기 콘텐츠 영상의 전체 부분에 대한 포인트 클라우드를 추출하는 것을 특징으로 하는 입체 영상 생성 장치의 3차원 입체 콘텐츠 서비스 제공 방법.
35. The method of claim 34, wherein checking whether there is a user input comprises:
A method of providing a 3D stereoscopic content service of a stereoscopic image generating device, characterized in that, if there is no user input, a point cloud for an entire portion of the content image is extracted.
제31 항에 있어서, 상기 제3 영역에 대한 포인트 클라우드를 분리하는 단계는,
상기 제1 영역의 위치를 토대로 상기 제3 영역의 위치를 결정하고, 상기 결정된 위치에 상응하는 제3 영역의 포인트 클라우드를 분리하여 추출하는 것을 특징으로 하는 입체 영상 생성 장치의 3차원 입체 콘텐츠 서비스 제공 방법.
32. The method of claim 31, wherein separating the point cloud for the third area comprises:
3D stereoscopic content service provided by a stereoscopic image generating device characterized in that the position of the third region is determined based on the position of the first region, and a point cloud of the third region corresponding to the determined position is separated and extracted. method.
제36 항에 있어서, 상기 제3 영역의 위치를 결정하는 단계는,
상기 제1 영역의 주변을 따라 둘러싸는 영역을 상기 제3 영역의 위치로 결정하는 것을 특징으로 하는 입체 영상 생성 장치의 3차원 입체 콘텐츠 서비스 제공 방법.
37. The method of claim 36, wherein determining the location of the third area comprises:
The method of providing a 3D stereoscopic contents service by a stereoscopic image generating device, characterized in that an area surrounding the periphery of the first area is determined as the position of the third area.
제31 항에 있어서, 상기 복셀 크기를 결정하는 단계는,
상기 포인트 클라우드를 토대로 노이즈를 제거한 다음에, 상기 제1 영역에 대한 복셀 크기와 상기 제2 영역에 대한 복셀 크기를 서로 다르게 결정하는 것을 특징으로 하는 입체 영상 생성 장치의 3차원 입체 콘텐츠 서비스 제공 방법.
32. The method of claim 31, wherein determining the voxel size comprises:
3. The method of claim 1 , wherein, after noise is removed based on the point cloud, a voxel size for the first region and a voxel size for the second region are differently determined.
제31 항에 있어서, 상기 복셀 크기를 결정하는 단계는,
상기 제1 영역에 대한 복셀 크기를 상기 제2 영역에 대한 복셀 크기보다 더 작게 결정하는 것을 특징으로 하는 입체 영상 생성 장치의 3차원 입체 콘텐츠 서비스 제공 방법.
32. The method of claim 31, wherein determining the voxel size comprises:
The method of providing a 3D stereoscopic content service by a stereoscopic image generating apparatus, wherein the size of the voxels of the first area is smaller than the size of the voxels of the second area.
제31 항에 있어서, 상기 복셀 크기를 결정하는 단계는,
상기 제1 영역과 제2 영역 사이에 위치하는 제3 영역에 대한 포인트 클라우드가 분리되어 추출되었는지를 확인하고, 상기 제3 영역에 대한 포인트 클라우드가 추출되면 상기 포인트 클라우드를 토대로 상기 제1, 제2, 제3 영역에 대한 복셀 크기를 서로 다르게 결정하는 것을 특징으로 하는 입체 영상 생성 장치의 3차원 입체 콘텐츠 서비스 제공 방법.
32. The method of claim 31, wherein determining the voxel size comprises:
It is checked whether the point cloud for the third area located between the first area and the second area is separated and extracted, and if the point cloud for the third area is extracted, the first and second areas are extracted based on the point cloud. , A method of providing a 3D stereoscopic content service by a stereoscopic image generating device, characterized in that the voxel size for the third region is determined differently.
제40 항에 있어서, 상기 복셀 크기를 결정하는 단계는,
상기 제3 영역에 대한 복셀 크기를 상기 제2 영역에 대한 복셀 크기보다 더 작고 상기 제1 영역에 대한 복셀 크기보다 더 크게 결정하는 것을 특징으로 하는 입체 영상 생성 장치의 3차원 입체 콘텐츠 서비스 제공 방법.
41. The method of claim 40, wherein determining the voxel size comprises:
and determining a voxel size of the third area smaller than a voxel size of the second area and larger than a voxel size of the first area.
제41 항에 있어서, 상기 복셀 크기를 결정하는 단계는,
상기 제1 영역에 대한 복셀 크기값과 상기 제2 영역에 대한 복셀 크기값 사이의 중간값을 갖도록 상기 제3 영역에 대한 복셀 크기를 결정하는 것을 특징으로 하는 입체 영상 생성 장치의 3차원 입체 콘텐츠 서비스 제공 방법.
42. The method of claim 41, wherein determining the voxel size comprises:
The 3D stereoscopic content service of the stereoscopic image generating device characterized in that the size of the voxels of the third area is determined to have a median value between the size of the voxels of the first area and the size of the voxels of the second area. How to provide.
제12 항 내지 제18 항 및 제31 항 내지 제42 항 중 어느 한 항에 기재된 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체. A computer-readable recording medium recording a program for executing the method according to any one of claims 12 to 18 and 31 to 42.
KR1020220067976A 2020-04-10 2022-06-03 System and method for providing three dimensional volumetric content service KR102575567B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220067976A KR102575567B1 (en) 2020-04-10 2022-06-03 System and method for providing three dimensional volumetric content service

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200043985A KR102407729B1 (en) 2020-04-10 2020-04-10 System and method for providing three dimensional volumetric content service
KR1020220067976A KR102575567B1 (en) 2020-04-10 2022-06-03 System and method for providing three dimensional volumetric content service

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200043985A Division KR102407729B1 (en) 2020-04-10 2020-04-10 System and method for providing three dimensional volumetric content service

Publications (2)

Publication Number Publication Date
KR20220080060A KR20220080060A (en) 2022-06-14
KR102575567B1 true KR102575567B1 (en) 2023-09-07

Family

ID=78268279

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200043985A KR102407729B1 (en) 2020-04-10 2020-04-10 System and method for providing three dimensional volumetric content service
KR1020220067976A KR102575567B1 (en) 2020-04-10 2022-06-03 System and method for providing three dimensional volumetric content service

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020200043985A KR102407729B1 (en) 2020-04-10 2020-04-10 System and method for providing three dimensional volumetric content service

Country Status (1)

Country Link
KR (2) KR102407729B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160001699A (en) 2014-06-26 2016-01-06 한국과학기술원 Method and apparatus for providing service for augmented reality interaction
WO2018173207A1 (en) * 2017-03-23 2018-09-27 株式会社ソニー・インタラクティブエンタテインメント Information processing device
JP2019016066A (en) * 2017-07-04 2019-01-31 Necソリューションイノベータ株式会社 Feature shape extraction device, feature shape extraction method and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011502459A (en) * 2007-10-31 2011-01-20 ジョンソン コントロールズ テクノロジー カンパニー Cooling system for variable speed drives and inductors
KR102238693B1 (en) * 2014-06-20 2021-04-09 삼성전자주식회사 Method and apparatus for extracting feature regions in point cloud
KR101819730B1 (en) * 2016-04-19 2018-01-17 광주과학기술원 Method for 3D object detection and pose estimation
KR102519653B1 (en) * 2018-01-20 2023-04-07 삼성전자주식회사 Apparatus and method for point cloud compression

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160001699A (en) 2014-06-26 2016-01-06 한국과학기술원 Method and apparatus for providing service for augmented reality interaction
WO2018173207A1 (en) * 2017-03-23 2018-09-27 株式会社ソニー・インタラクティブエンタテインメント Information processing device
JP2019016066A (en) * 2017-07-04 2019-01-31 Necソリューションイノベータ株式会社 Feature shape extraction device, feature shape extraction method and program

Also Published As

Publication number Publication date
KR20210126318A (en) 2021-10-20
KR102407729B1 (en) 2022-06-13
KR20220080060A (en) 2022-06-14

Similar Documents

Publication Publication Date Title
US11653065B2 (en) Content based stream splitting of video data
US10062412B2 (en) Hierarchical segmentation and quality measurement for video editing
US10074012B2 (en) Sound and video object tracking
KR102650850B1 (en) Video sound processing device, video sound processing method , and computer readable recording medium storing program
US20180192063A1 (en) Method and System for Virtual Reality (VR) Video Transcode By Extracting Residual From Different Resolutions
CN106664376B (en) Augmented reality device and method
US20160198097A1 (en) System and method for inserting objects into an image or sequence of images
WO2021030002A1 (en) Depth-aware photo editing
US20160092561A1 (en) Video analysis techniques for improved editing, navigation, and summarization
EP2960905A1 (en) Method and device of displaying a neutral facial expression in a paused video
JP2016527791A (en) Image processing method and apparatus
KR20050030849A (en) Method and apparatus for summarizing and indexing the contents of an audio-visual presentation
US20220188357A1 (en) Video generating method and device
EP3681144A1 (en) Video processing method and apparatus based on augmented reality, and electronic device
CN111402399A (en) Face driving and live broadcasting method and device, electronic equipment and storage medium
TW201438463A (en) Techniques for adding interactive features to videos
CN112601120B (en) Subtitle display method and device
CN102724492A (en) Method and system for transmitting and playing video images
KR20160119218A (en) Sound image playing method and device
CN110121105B (en) Clip video generation method and device
KR102575567B1 (en) System and method for providing three dimensional volumetric content service
CN112153472A (en) Method and device for generating special picture effect, storage medium and electronic equipment
CN114387440A (en) Video clipping method and device and storage medium
US10282633B2 (en) Cross-asset media analysis and processing
CN114500879A (en) Video data processing method, device, equipment and storage medium

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right