KR20140003741A - Method for manufacturing 3d contents and apparatus for thereof - Google Patents

Method for manufacturing 3d contents and apparatus for thereof Download PDF

Info

Publication number
KR20140003741A
KR20140003741A KR1020120068625A KR20120068625A KR20140003741A KR 20140003741 A KR20140003741 A KR 20140003741A KR 1020120068625 A KR1020120068625 A KR 1020120068625A KR 20120068625 A KR20120068625 A KR 20120068625A KR 20140003741 A KR20140003741 A KR 20140003741A
Authority
KR
South Korea
Prior art keywords
reference camera
viewpoint
cameras
camera
screen
Prior art date
Application number
KR1020120068625A
Other languages
Korean (ko)
Inventor
백성욱
이정중
노진이
구본우
송승준
정재형
Original Assignee
세종대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세종대학교산학협력단 filed Critical 세종대학교산학협력단
Priority to KR1020120068625A priority Critical patent/KR20140003741A/en
Publication of KR20140003741A publication Critical patent/KR20140003741A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a method and an apparatus for producing three-dimensional content. The method for producing three-dimensional content according to the present invention comprises the following steps of: receiving user selection for content about object and background sources provided by a source DB and providing the selected content on a screen; disposing a virtual reference camera which photographs the content and a virtual-viewpoint object corresponding to the viewpoint of the reference camera on the screen; receiving decisions about locations of the reference camera and viewpoint object; placing multiple auxiliary cameras having the same viewpoint on both sides of the reference camera; and producing three-dimensional content by rendering images photographed by the reference camera and auxiliary cameras. According to the method and apparatus for producing three-dimensional content, a non-expert can easily produce glass-free three-dimensional content, which is lively and whose quality is greater than a certain level, by including the steps of: setting locations of a reference camera and a viewpoint related to an object; automatically placing multiple auxiliary cameras having the same viewpoint on both sides of the reference camera; and rendering images photographed by each camera.

Description

입체 컨텐츠 제작 방법 및 장치{Method for manufacturing 3D contents and Apparatus for thereof}Method and apparatus for producing stereoscopic content

본 발명은 입체 컨텐츠 제작 방법 및 장치에 관한 것으로서, 보다 상세하게는 일정 품질 이상의 생동감 있는 무안경 3D 입체 컨텐츠를 일반 사용자가 손쉽게 제작할 수 있는 입체 컨텐츠 제작 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for producing stereoscopic contents, and more particularly, to a method and apparatus for producing stereoscopic contents, which enables a general user to easily produce 3D stereoscopic content with a certain degree of vivid auto glasses.

일반적으로 입체 영상 기술은 2차원적 평면 이미지를 3차원적 입체 영상과 비슷한 느낌으로 재현하여 3차원 공간에 있는 것처럼 보이게 하는 기술을 의미한다. 이러한 입체 영상은 근본적으로 인간이 두 개의 눈을 가지고 있다는 사실에 근거한 것이다.In general, three-dimensional image technology refers to a technology that reproduces a two-dimensional plane image with a feeling similar to a three-dimensional three-dimensional image to make it appear to be in a three-dimensional space. This stereoscopic image is fundamentally based on the fact that humans have two eyes.

현재 3D 컨텐츠 저작 기술은 입체 영상을 저작하는데 유용하게 사용된다. 3D 컨텐츠 저작 기술 중 양안 방식의 경우 3차원의 가상 공간에 객체(Object)를 생성하여 컨텐츠를 저작한 다음, 두 대의 가상 카메라 및 각 카메라의 시점을 설정하여 좌우 화면을 분리하고 이를 합성하여 디스플레이 기기를 통해 고속 출력하며 사용자는 특수 안경을 통해 입체감을 느낄 수 있다.Currently, 3D content authoring technology is usefully used to author stereoscopic images. In the binocular method of 3D content authoring technology, an object is created in a three-dimensional virtual space to author content, and then two left and right screens are set by combining two virtual cameras and each camera, and the display device is synthesized. High speed output through the user can feel a three-dimensional effect through special glasses.

무안경 3D 입체 컨텐츠 저작 방식은 안경과 같은 별도의 특수 장비 착용이 필요하지 않는다. 이러한 무안경 방식은 최소 8개 이상의 다중 카메라 및 시점, 객체(Object)와의 거리 등을 고려하여 컨텐츠를 저작한 다음 다중 화면의 합성 통해 3D 디스플레이 기기 상에 고속 출력하며, 디스플레이 기기의 전면에는 일정 간격의 미세한 가림막이 배열된 특수 배리어(ex, 패럴랙스 배리어(Parallax Barrier), 렌티큘러 렌즈(Lenticular Lens)를 부착하고 있다. 무안경 나안 입체영상 컨텐츠 제작에 관한 배경 기술은 국내공개특허 제2005-0021826호에 개시되어 있다.Glasses-free 3D content authoring does not require the wearing of special equipment such as glasses. The auto glasses method authors contents by considering at least eight or more multiple cameras, viewpoints, distances to objects, and the like, and then outputs them on a 3D display device by synthesizing multiple screens, and at a predetermined interval on the front of the display device. A special barrier (ex, Parallax Barrier, and Lenticular Lens) in which fine screens are arranged is attached. Is disclosed in.

이러한 입체 컨텐츠 재생 관련 기술은 각 기관 및 업체에서 꾸준히 개발 및 상용화 중이다. 영상 산업분야에서는 특히 양안 방식의 3D 입체 영화의 제작이 활성화되고 있는 반면, 3D 영상의 장점을 극대화할 수 있는 다양한 무안경 3D 입체 컨텐츠의 보급은 부족한 실정이다. Such stereoscopic content reproduction related technologies are being continuously developed and commercialized by each institution and company. While the production of binocular 3D stereoscopic movies is particularly active in the field of video industry, the spread of various glasses-free 3D stereoscopic contents that can maximize the advantages of 3D images is insufficient.

또한, 기존에 양안 방식과 무안경 방식의 3D 입체 컨텐츠 디스플레이 출력 기술은 다양하게 존재하나, 일반 사용자를 위한 3D 입체 컨텐츠 저작 소프트웨어 및 시스템은 매우 부족한 실정이며, 특히 무안경 3D 입체 컨텐츠 저작도구는 전무한 실정이다.In addition, there are a variety of binocular and autostereoscopic 3D stereoscopic content display output technologies, but 3D stereoscopic content authoring software and system for general users are very lacking, and in particular, there are no autonomous 3D stereoscopic content authoring tools. It is true.

기존 입체 컨텐츠 저작도구들의 경우, 저작 경험이 그리 많지 않은 일반 사용자들의 관점에서 보면 저작 방법이 복잡하여 전문적인 학습이 필요한 단점이 있으며, 매 컨텐츠 저작 시마다 장시간의 저작시간이 소요되는 문제점이 있다.In the case of existing stereoscopic content authoring tools, from the viewpoint of general users who do not have much experience in authoring, the authoring method is complicated and requires professional learning, and there is a problem that a long authoring time is required for each content authoring.

즉, 기존에는 단순한 3D 입체 컨텐츠 하나의 저작을 위해서 별도의 이미지 제작 및 편집 저작 도구(ex, 포토샵, 일러스트레이터)와 3D 가상공간에서의 카메라 세부 설정을 위한 3D 객체 저작도구(ex, 3ds Max, Maya)를 이용하여 객체 및 카메라를 제작하고 편집해야 한다. 또한, 각각의 저작도구에서 생성된 결과물은 동영상 편집 도구(ex, Premiere, Vegas)를 통해서 최종적으로 합성 및 편집하는 복잡한 과정을 거쳐야 3D 입체 컨텐츠 제작이 완성된다.That is, in the past, a single image creation and editing authoring tool (ex, Photoshop, Illustrator) and a 3D object authoring tool (ex, 3ds Max, You need to create and edit objects and cameras using Maya. In addition, the output generated from each authoring tool is a complex process of final synthesis and editing through video editing tools (ex, Premiere, Vegas) to complete the production of 3D stereoscopic content.

이에 따라 전문가 이외에 일반 사용자도 일정 품질 이상의 생동감 있는 무안경 3D 입체컨텐츠를 쉽게 제작 및 활용할 수 있도록, 관련 그래픽, 카메라, 모션, 사운드, 동영상 출력 등의 저작 지원 기술이 통합된 3D 입체 컨텐츠 저작 시스템 및 다중 카메라 설정 기술이 필요하다.Accordingly, 3D stereoscopic content authoring system incorporating authoring support technologies such as related graphics, camera, motion, sound, and video output, so that non-professional users can easily create and utilize live glasses-free 3D stereoscopic contents with a certain quality or higher. Multi-camera setup skills are required.

본 발명은, 일반 사용자도 손쉽게 입체 영상의 제작이 가능한 입체 컨텐츠 제작 방법 및 장치를 제공하는데 목적이 있다.It is an object of the present invention to provide a method and apparatus for producing stereoscopic contents, which enables a general user to easily produce stereoscopic images.

본 발명은, 소스 DB에서 제공하는 객체 및 배경 소스에 관한 컨텐츠를 사용자로부터 선택받고 상기 선택된 컨텐츠를 화면 상에 제공하는 단계와, 상기 컨텐츠를 촬영하는 가상의 기준 카메라, 및 상기 기준 카메라의 시점 위치에 대응되는 가상의 시점물을 상기 화면 상에 각각 배치하는 단계와, 상기 기준 카메라의 위치 및 상기 시점물의 위치를 설정받는 단계와, 상기 기준 카메라와 동일한 시점을 갖는 복수의 보조 카메라들을 상기 기준 카메라의 좌우 방향으로 각각 배열하는 단계, 및 상기 기준 카메라 및 상기 보조 카메라들에 의한 촬상 영상들을 렌더링하여 입체 컨텐츠를 제작하는 단계를 포함하는 입체 컨텐츠 제작 방법을 제공한다.The present invention provides a method of selecting a content related to an object and a background source provided by a source DB from a user and providing the selected content on a screen, a virtual reference camera for capturing the content, and a viewpoint position of the reference camera. Arranging virtual viewpoints corresponding to the screens, receiving a position of the reference camera and a position of the viewpoint, and a plurality of auxiliary cameras having the same viewpoint as the reference camera. And arranging the left and right directions in the left and right directions, and rendering the captured images by the reference camera and the auxiliary cameras to produce stereoscopic content.

여기서, 상기 시점물의 위치를 설정받는 단계는, 상기 기준 카메라의 시점이 상기 객체보다 전방 또는 후방에 위치하도록 상기 시점물의 위치를 설정받을 수 있다.Here, in the step of setting the position of the viewpoint, the position of the viewpoint may be set such that the viewpoint of the reference camera is located in front of or behind the object.

또한, 상기 입체 컨텐츠 제작 방법은, 상기 복수의 보조 카메라들을 상기 기준 카메라의 좌우 방향으로 각각 배열하는 단계 이후, 상기 기준 카메라와 상기 보조 카메라를 포함하는 복수의 카메라 간의 간격을 설정받는 단계를 더 포함할 수 있다.The stereoscopic content producing method may further include setting a distance between the reference camera and a plurality of cameras including the auxiliary camera after arranging the plurality of auxiliary cameras in the left and right directions of the reference camera. can do.

그리고, 상기 카메라 간의 간격을 설정받는 단계는, 상기 복수의 카메라에 의해 촬상된 영상들을 상기 화면 상에 분할 화면으로 표시한 다음, 상기 복수의 카메라 간의 간격 값을 픽셀 단위로 설정받으면, 상기 설정된 간격에 대응되어 렌더링된 입체 컨텐츠를 상기 화면 상에 제공할 수 있다.The setting of the interval between the cameras may include displaying the images captured by the plurality of cameras on the screen as a split screen, and then setting the interval value between the plurality of cameras in pixel units. Stereoscopic content rendered in correspondence with the may be provided on the screen.

또한, 상기 입체 컨텐츠 제작 방법은, 상기 화면의 해상도 및 크기를 고려하여 상기 기준 카메라와 상기 보조 카메라를 포함하는 복수의 카메라 간의 간격을 조절하는 단계를 더 포함할 수 있다.The 3D content production method may further include adjusting a distance between the reference camera and a plurality of cameras including the auxiliary camera in consideration of the resolution and size of the screen.

그리고, 본 발명은 소스 DB에서 제공하는 객체 및 배경 소스에 관한 컨텐츠를 사용자로부터 선택받고 상기 선택된 컨텐츠를 화면 상에 제공하는 컨텐츠 제공부와, 상기 컨텐츠를 촬영하는 가상의 기준 카메라, 및 상기 기준 카메라의 시점 위치에 대응되는 가상의 시점물을 상기 화면 상에 각각 배치하는 배치부와, 상기 기준 카메라의 위치 및 상기 시점물의 위치를 설정받는 위치 설정부와, 상기 기준 카메라와 동일한 시점을 갖는 복수의 보조 카메라들을 상기 기준 카메라의 좌우 방향으로 각각 배열하는 카메라 배열부, 및 상기 기준 카메라 및 상기 보조 카메라들에 의한 촬상 영상들을 렌더링하여 입체 컨텐츠를 제작하는 렌더링부를 포함하는 입체 컨텐츠 제작 장치를 제공한다.The present invention provides a content providing unit which selects content related to an object and a background source provided from a source DB from a user and provides the selected content on a screen, a virtual reference camera for photographing the content, and the reference camera. A placement unit for arranging virtual viewpoints corresponding to the viewpoint locations of the cameras, a positioning unit configured to set the position of the reference camera and the position of the viewpoint, and a plurality of views having the same viewpoint as the reference camera; Provided is a three-dimensional content production apparatus including a camera array for arranging auxiliary cameras in the left and right directions of the reference camera, and a rendering unit for rendering three-dimensional content by rendering the captured images by the reference camera and the auxiliary cameras.

여기서, 상기 위치 설정부는, 상기 기준 카메라의 시점이 상기 객체보다 전방 또는 후방에 위치하도록 상기 시점물의 위치를 설정받을 수 있다.Here, the position setting unit may receive the position of the viewpoint so that the viewpoint of the reference camera is located in front of or behind the object.

또한, 입체 컨텐츠 제작 장치는 상기 기준 카메라와 상기 보조 카메라를 포함하는 복수의 카메라 간의 간격을 설정받는 간격 설정부를 더 포함할 수 있다.The apparatus for producing stereoscopic content may further include an interval setting unit configured to set an interval between a plurality of cameras including the reference camera and the auxiliary camera.

여기서, 상기 간격 설정부는, 상기 복수의 카메라에 의해 촬상된 영상들을 상기 화면 상에 분할 화면으로 표시한 다음, 상기 복수의 카메라 간의 간격 값을 픽셀 단위로 설정받으면, 상기 설정된 간격에 대응되어 렌더링된 입체 컨텐츠를 상기 화면 상에 제공할 수 있다.Here, the interval setting unit displays the images captured by the plurality of cameras on the screen as a split screen, and then receives an interval value between the plurality of cameras in pixel units, and is rendered corresponding to the set interval. Stereoscopic content may be provided on the screen.

또한, 상기 입체 컨텐츠 제작 방법은, 상기 화면의 해상도 및 크기를 고려하여 상기 기준 카메라와 상기 보조 카메라를 포함하는 복수의 카메라 간의 간격을 조절하는 간격 조절부를 더 포함할 수 있다.The stereoscopic content production method may further include a gap controller configured to adjust a gap between the reference camera and a plurality of cameras including the auxiliary camera in consideration of the resolution and size of the screen.

본 발명에 따른 입체 컨텐츠 제작 방법 및 장치에 따르면, 객체에 대한 기준 카메라 및 시점의 위치를 설정하는 과정과, 기준 카메라와 동일한 시점을 갖는 복수의 보조 카메라를 기준 카메라의 좌우에 자동 배열하는 과정 및 각 카메라의 촬상 영상들의 렌더링 과정을 포함하여 일반 사용자도 손쉽게 일정 품질 이상의 생동감 있는 무안경 3D 입체 컨텐츠의 제작이 가능하게 하는 이점이 있다.According to the method and apparatus for producing 3D content according to the present invention, a process of setting a position of a reference camera and a viewpoint to an object, a process of automatically arranging a plurality of auxiliary cameras having the same viewpoint as the reference camera to the left and right of the reference camera, and Including the rendering process of the captured images of each camera, even the general user can easily produce live glasses-free 3D stereoscopic content with a certain quality or more.

도 1은 본 발명의 실시예에 따른 입체 컨텐츠 제작 장치의 구성도이다.
도 2는 도 1을 이용한 입체 컨텐츠 제작 방법의 흐름도이다.
도 3은 도 2의 S210 단계를 설명하는 화면 구성도이다.
도 4는 도 2의 S220~S230 단계를 설명하는 화면 구성도이다.
도 5는 도 2의 S240 단계를 설명하는 화면 구성도이다.
도 6은 도 2에 따라 완성된 입체 콘텐츠의 개념도이다.
도 7 및 도 8은 도 2의 S250 단계를 설명하는 화면 구성도이다.
1 is a block diagram of an apparatus for producing stereoscopic content according to an embodiment of the present invention.
2 is a flowchart of a method of producing stereoscopic content using FIG. 1.
3 is a screen configuration diagram illustrating the step S210 of FIG.
4 is a screen configuration diagram illustrating the steps S220 to S230 of FIG. 2.
5 is a screen configuration diagram illustrating the step S240 of FIG.
6 is a conceptual diagram of stereoscopic content completed according to FIG. 2.
7 and 8 are screen configuration diagrams illustrating an operation S250 of FIG. 2.

그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention.

도 1은 본 발명의 실시예에 따른 입체 컨텐츠 제작 장치의 구성도이다. 상기 입체 컨텐츠 제작 장치(100)는 컨텐츠 제공부(110), 배치부(120), 위치 설정부(130), 카메라 배열부(140), 간격 설정부(150), 간격 조절부(160), 렌더링부(170), 소스 DB(180)를 포함한다.1 is a block diagram of an apparatus for producing stereoscopic content according to an embodiment of the present invention. The stereoscopic content producing apparatus 100 includes a content providing unit 110, a placement unit 120, a positioning unit 130, a camera arranging unit 140, an interval setting unit 150, an interval adjusting unit 160, The renderer 170 includes a source DB 180.

상기 컨텐츠 제공부(110)는 소스 DB(180)에서 제공하는 객체 및 배경 소스에 관한 컨텐츠를 사용자로부터 선택받고 상기 선택된 컨텐츠를 화면 상에 제공하는 부분이다.The content providing unit 110 is a part for selecting content related to an object and a background source provided from the source DB 180 from a user and providing the selected content on a screen.

상기 배치부(120)는 상기 컨텐츠를 촬영하는 가상의 기준 카메라, 및 상기 기준 카메라의 시점 위치에 대응되는 가상의 시점물을 상기 화면 상에 각각 배치한다. 본 실시예서 가상의 시점물은 깃발 모형을 사용한다.The placement unit 120 arranges a virtual reference camera for capturing the content and a virtual viewpoint object corresponding to the viewpoint position of the reference camera, respectively, on the screen. In this embodiment, the virtual viewpoint is using a flag model.

상기 위치 설정부(130)는 상기 기준 카메라의 위치 및 상기 시점물의 위치를 사용자로부터 설정받는 부분이다. 여기서, 기준 카메라의 시점이 객체보다 전방 또는 후방에 위치하도록 시점물의 위치를 조절한다.The position setting unit 130 is a portion for receiving the position of the reference camera and the position of the viewpoint from the user. Here, the position of the viewpoint object is adjusted such that the viewpoint of the reference camera is located in front of or behind the object.

상기 카메라 배열부(140)는 상기 기준 카메라와 동일한 시점을 갖는 복수의 보조 카메라들을 상기 기준 카메라의 좌우 방향으로 각각 일직선 상에 배열한다. The camera arranging unit 140 arranges a plurality of auxiliary cameras having the same viewpoint as the reference camera in a straight line in the left and right directions of the reference camera, respectively.

상기 간격 설정부(150)는 기준 카메라와 보조 카메라들을 포함하는 복수의 카메라 간의 간격을 사용자로부터 설정받는다. The interval setting unit 150 receives a distance between a reference camera and a plurality of cameras including auxiliary cameras from a user.

상기 간격 조절부(160)는 상기 화면의 해상도 및 크기를 고려하여 상기 기준 카메라와 상기 보조 카메라들을 포함하는 복수의 카메라 간의 간격을 자동 조절한다.The gap adjusting unit 160 automatically adjusts a gap between the reference camera and a plurality of cameras including the auxiliary cameras in consideration of the resolution and size of the screen.

상기 렌더링부(170)는 상기 기준 카메라 및 상기 보조 카메라들에 의한 촬상 영상들을 렌더링하여 입체 컨텐츠를 제작한다.The renderer 170 renders 3D content by rendering captured images of the reference camera and the auxiliary cameras.

도 2는 도 1을 이용한 입체 컨텐츠 제작 방법의 흐름도이다. 이하에서는 본 발명의 실시예에 따른 입체 컨텐츠 제작 방법에 관하여 상세히 알아본다.2 is a flowchart of a method of producing stereoscopic content using FIG. 1. Hereinafter, a method for producing stereoscopic content according to an embodiment of the present invention will be described in detail.

먼저, 상기 컨텐츠 제공부(110)에서는 소스 DB(180)에서 제공하는 객체(Object) 및 배경 소스에 관한 컨텐츠를 사용자로부터 선택받고 상기 선택된 컨텐츠를 화면 상에 제공한다(S210). 이러한 S210 단계는 입체로 표현할 객체 및 배경 소스 자원들을 생성 및 수정하는 과정에 해당된다.First, the content providing unit 110 receives a content related to an object provided from the source DB 180 and a background source from a user, and provides the selected content on the screen (S210). This step S210 corresponds to a process of creating and modifying objects and background source resources to be expressed in three dimensions.

도 3은 도 2의 S210 단계를 설명하는 화면 구성도이다. 이러한 S210 단계에서 컨텐츠 제공부(110)는 소스 DB(180)에서 제공하는 객체 리스트(L)로부터 입체로 표현할 대상 객체(ex, 사람)와 배경 등의 소스를 사용자로부터 선택받아, 이를 화면 상에 생성한다.3 is a screen configuration diagram illustrating the step S210 of FIG. In step S210, the content providing unit 110 receives a source such as a target object (eg, person) and a background to be expressed in three dimensions from the object list L provided by the source DB 180, from the user, and displays the source on the screen. Create

또한, 컨텐츠 제공부(110)는 객체들의 크기, 위치, 회전 등의 세부 수정 사항을 사용자로부터 입력받아 객체의 수정이 가능하게 하는 객체 수정부(20)를 포함하고 있다. 이러한 S210 단계에서 제공되는 컨텐츠는 화면 중앙부(10)에서 배치 및 편집이 가능하다. 또한, 화면 상단의 메뉴들을 이용하여 모션, 사운드, 프레임, 그림자 등의 효과 제어, 그리고 3D 입체 시각화를 위한 카메라의 설정이 가능하다.In addition, the content providing unit 110 includes an object correction unit 20 that enables modification of an object by receiving detailed modifications such as sizes, positions, and rotations of the objects. The content provided in the step S210 can be arranged and edited in the screen center 10. In addition, the menus at the top of the screen can be used to control effects such as motion, sound, frames, and shadows, and to configure cameras for 3D stereoscopic visualization.

즉, S210 단계 이후, 상기 배치부(120)를 통해서는 상기 컨텐츠를 촬영하는 가상의 기준 카메라, 및 상기 기준 카메라의 시점(Target Point) 위치에 대응되는 가상의 시점물을 상기 화면 상에 각각 배치하여 제공한다(S220). 본 실시예에서는 가상의 카메라 및 가상의 시점을 배치하고 이를 조작할 수 있도록 하여 일반 사용자도 손쉽게 입체 컨텐츠를 저작할 수 있도록 돕는다.That is, after the step S210, the virtual reference camera for capturing the content and the virtual viewpoint corresponding to the position of the target point of the reference camera are respectively disposed on the screen by the placement unit 120. Provided by (S220). In the present embodiment, a virtual camera and a virtual viewpoint may be disposed and manipulated so that a general user may easily author stereoscopic content.

도 4는 도 2의 S220~S230 단계를 설명하는 화면 구성도이다. 가상의 기준 카메라(30) 및 가상의 시점물(40)은 화면 중앙부 내에 각각 카메라 및 깃발 모형으로 표현된다.4 is a screen configuration diagram illustrating the steps S220 to S230 of FIG. 2. The virtual reference camera 30 and the virtual viewpoint 40 are represented by a camera and a flag model in the center of the screen, respectively.

상기 S220 단계 이후, 위치 설정부(130)에서는 상기 기준 카메라(30)의 위치 및 상기 시점물(40)의 위치를 사용자로부터 설정받는다(S230). 예를 들어, 도 4에서 기준 카메라(30)의 위치 또는 시점물(40)의 위치를 마우스 조작을 통해 각각 설정받거나, 설정 메뉴(50) 상의 정보 입력(ex, 좌표 입력)을 통해 설정받을 수 있다. 이러한 S230 단계는 기준 카메라(30)와 시점물(40)의 개별 위치를 미세 조정할 수 있다.After the step S220, the position setting unit 130 receives the position of the reference camera 30 and the position of the viewpoint object 40 from the user (S230). For example, in FIG. 4, the position of the reference camera 30 or the position of the viewpoint 40 may be set through a mouse operation, or may be set through information input (eg, coordinate input) on the setting menu 50. have. In step S230, the individual positions of the reference camera 30 and the viewpoint 40 may be finely adjusted.

도 4에서 노란색 선으로 표현된 기준 카메라(30)의 가이드 라인은 현재 기준 카메라(30)가 촬영하고 있는 화면 즉, 렌더링이 될 컨텐츠의 화면을 의미한다. 기존의 타임라인 기반의 카메라 설정 기능의 경우 렌더링이 될 최종 컨텐츠 화면만을 보면서 작업하지만, 본 실시예의 경우 렌더링 대상 화면 뿐만 아니라 카메라(30)와 카메라의 시점(40)을 좌표 등으로 시각화하여 편집이 자유롭게 한다. 이외에도, 본 실시예서는 카메라의 위치 이동 경로 지점을 리스트 내역으로 표시하고 부분적 선택을 통한 이동 경로의 편집, 그리고 카메라 이동 시간의 설정 및 미리 보기가 가능하다.In FIG. 4, the guide line of the reference camera 30 represented by a yellow line means a screen currently photographed by the reference camera 30, that is, a screen of content to be rendered. The existing timeline-based camera setting function works while only looking at the final content screen to be rendered, but in the present embodiment, editing is performed by visualizing not only the rendering target screen but also the camera 30 and the viewpoint 40 of the camera by coordinates. Free In addition, in this embodiment, the position movement path point of the camera can be displayed as a list of details, the movement path can be edited through partial selection, and the camera movement time can be set and previewed.

상기 S230 단계에서 상기 시점물(40)의 위치 설정 시에는, 상기 기준 카메라(30)의 시점이 상기 객체보다 전방 또는 후방에 위치하도록 상기 시점물(40)의 위치를 설정받을 수 있다. 이는 기준 카메라를 기준으로 카메라의 시점을 객체보다 앞 또는 뒤에 배치함으로써 입체감과 거리감을 조절할 수 있게 한다. 그 예로서, 도 4와 같이 시점물(40)의 위치인 기준 카메라의 시점 부분이 상기 객체 즉, 사람의 위치보다 후방에 있는 경우 그 입체감을 부각시켜 사람이 전방으로 더욱 튀어나와 보이도록 구현할 수 있고, 반대로 카메라의 시점이 객체보다 전방에 있는 경우, 사람이 후방으로 더욱 들어가 보이도록 입체감을 부각시킬 수 있다.When the position of the viewpoint object 40 is set in step S230, the position of the viewpoint object 40 may be set such that the viewpoint of the reference camera 30 is located in front of or behind the object. This makes it possible to adjust the three-dimensional feeling and the sense of distance by placing the camera's viewpoint in front of or behind the object with respect to the reference camera. For example, as shown in FIG. 4, when the viewpoint portion of the reference camera, which is the position of the viewpoint 40, is located behind the object, that is, the position of the person, the three-dimensional appearance may be emphasized to make the person appear more protruding forward. On the contrary, when the camera's point of view is in front of the object, the three-dimensional effect may be emphasized so that a person may go further behind.

이후, 카메라 배열부(140)에서는 상기 기준 카메라(30)와 동일한 시점을 갖는 복수의 보조 카메라(60)들을 상기 기준 카메라(30)의 좌우 방향으로 각각 병렬로 일괄 자동 배열한다(S240). Thereafter, the camera arrangement unit 140 collectively arranges the plurality of auxiliary cameras 60 having the same viewpoint as the reference camera 30 in parallel in the left and right directions of the reference camera 30, respectively (S240).

도 5는 도 2의 S240 단계를 설명하는 화면 구성도이다. 즉, S240 단계에서는 객체를 중앙에서 바라보는 기준 카메라(30)를 중심으로 좌우에 각각 4대씩의 보조 카메라(60)들이 자동 생성된다. 보조 카메라(60)들의 시점은 기준 카메라(30)와 일치한다. 카메라(60)의 자동 배치 시에는 카메라 간의 간격이 일반 사람의 양안 시차 간격인 6cm 이내로 배열될 수 있다.5 is a screen configuration diagram illustrating the step S240 of FIG. That is, in step S240, four auxiliary cameras 60 are automatically generated on the left and right sides of the reference camera 30 facing the object from the center. The viewpoints of the auxiliary cameras 60 coincide with the reference camera 30. In the automatic arrangement of the camera 60, the distance between the cameras may be arranged within 6 cm, which is the binocular parallax spacing of the general person.

다음, 상기 기준 카메라(30)와 상기 보조 카메라(60)들을 포함하는 복수의 카메라 간의 간격을 설정한다(S250). 이러한 카메라 간의 간격에 따르면, 입체 감도를 조절할 수 있다.Next, an interval between a plurality of cameras including the reference camera 30 and the auxiliary cameras 60 is set (S250). According to the distance between such cameras, stereoscopic sensitivity can be adjusted.

이후, 상기 렌더링부(170)를 통해 상기 복수의 카메라에 의한 촬상 영상들을 렌더링하여 입체 컨텐츠를 제작한다(S260). 렌더링 과정에서는 복수의 카메라에 의해 촬상된 영상들의 중첩 및 합성 정도를 검토하여 입체 컨텐츠의 품질을 검수하고 다시 카메라 간 간격 조절 작업을 반복 수행하여, 입체로 표현하고자 하는 대상 객체의 입체감과 배경의 깊이감을 최적화하고 잔상을 제거한다.Thereafter, the rendering unit 170 renders captured images by the plurality of cameras to produce stereoscopic content (S260). In the rendering process, the quality of stereoscopic content is inspected by examining the degree of superposition and composition of images captured by a plurality of cameras, and the interval adjustment between the cameras is repeated, and the depth of the object and the background depth of the target object to be expressed in stereoscopic form. Optimize the senses and remove afterimages.

도 6은 도 2에 따라 완성된 입체 콘텐츠의 개념도이다. 이러한 도 6은 본 발명의 실시예에 따른 무안경 3D 입체 콘텐츠 저작 및 다중 카메라 배치 및 설정을 통해 완성된 입체 콘텐츠의 원리 이해를 돕기 위해 제작된 그림이다. 붉은 색 깃발 모양의 카메라 시점보다 앞에 배치되어 있는 사람 캐릭터가 더욱 앞으로 부각되어 입체감있게 표현된 것을 알 수 있다.6 is a conceptual diagram of stereoscopic content completed according to FIG. 2. 6 is a drawing produced to help understand the principle of stereoscopic content completed through autostereoscopic 3D stereoscopic content authoring and multiple camera arrangement and setting according to an embodiment of the present invention. It can be seen that the human character placed in front of the red flag-shaped camera point of view is more prominent and expressed in three-dimensional sense.

이하에서는 입체 컨텐츠 제작을 위한 카메라 간의 간격 설정 과정에 관하여 설명한다. Hereinafter, a process of setting an interval between cameras for producing stereoscopic content will be described.

상기 간격 설정부(150)에서는 상기 복수(ex, 9개)의 카메라에 의해 촬상된 영상들을 상기 화면 상에 복수의 분할 화면(ex, 9개의 분할 화면)으로 표시하여 각 카메라별 시점의 확인이 가능하게 하며, 사용자로부터 별도의 입력 창을 통해 복수의 카메라 간의 간격 값을 픽셀 단위로 설정(입력)받으면 상기 설정된 간격에 대응되어 렌더링된 입체 컨텐츠를 화면 상에 미리보기(프리뷰) 형태로 제공한다. 이에 따라 카메라의 간격 조절에 따른 렌더링 결과를 바로 확인할 수 있다.The interval setting unit 150 displays images captured by the plurality of cameras (ex, nine) as a plurality of divided screens (ex, nine divided screens) on the screen to confirm the viewpoint of each camera. When the distance value between the plurality of cameras is set (input) in units of pixels through a separate input window from the user, the rendered stereoscopic content corresponding to the set interval is provided in the form of a preview (preview) on the screen. . Accordingly, the rendering result according to the camera spacing can be checked immediately.

이외에도, 본 실시예에서 S250 단계 시에는 카메라 간의 간격 이외에도 카메라(특히 기준 카메라)와 시점 사이의 위치 관계를 별도의 입력창을 통해 픽셀 단위로 일괄적으로 조율할 수 있다. 이는 간격 설정부의 구성에 포함될 수 있다. 여기서, 카메라 시점과 대상 객체 사이의 거리가 커지거나 각 카메라 간의 간격이 커질 경우, 입체 감도는 증가하지만 정도에 따라 눈의 피로도가 증가하고 어지러움을 유발할 수 있다.In addition, in the present embodiment, in step S250, the positional relationship between the camera (particularly, the reference camera) and the viewpoint may be collectively adjusted in units of pixels through a separate input window in addition to the distance between the cameras. This may be included in the configuration of the interval setting unit. Here, when the distance between the camera point of view and the target object is increased or the distance between each camera is increased, stereoscopic sensitivity is increased but eye fatigue and dizziness may increase depending on the degree.

도 7 및 도 8은 도 2의 S250 단계를 설명하는 화면 구성도이다. 먼저, 도 7은 총 9대의 카메라의 시점에서 촬영된 화면들이 축소 분할 배치된 컨텐츠 렌더링 화면이다. 7 and 8 are screen configuration diagrams illustrating an operation S250 of FIG. 2. First, FIG. 7 is a content rendering screen in which screens photographed from the viewpoints of nine cameras are reduced and arranged.

본 실시예에서는, 기존과 같이 장시간이 소요되는 동영상 파일 변환 작업을 거칠 필요 없이 변환 결과를 미리 확인할 수 있는 다(多)시점 화면 분할 프리뷰(Preview) 기능이 가능하다. In the present embodiment, a multi-view split preview function is possible in which a conversion result can be confirmed in advance without having to go through a video file conversion operation that takes a long time as in the conventional art.

이와 관련하여 도 8은 도 7에 따른 분할 화면의 렌더링된 프리뷰 화면으로서, 카메라의 시점은 동일하나 카메라 간의 간격이 상이할 경우 서로 다른 렌더링 결과를 보여주는 두 가지 예이다. 렌더링에 의해 합성된 두 결과를 보면, 좌측의 입체 컨텐츠는 우측 컨텐츠에 비하여 잔상이 심한 것을 확인할 수 있다. In this regard, FIG. 8 is a rendered preview screen of the split screen according to FIG. 7, which shows two rendering results when the cameras have the same viewpoint but different distances between the cameras. Looking at the two results synthesized by the rendering, it can be seen that the afterimage is more severe than the right content in the left three-dimensional content.

즉, 본 실시예의 경우, 다시점 화면 분할 프리뷰를 통해 키보드의 화살표 위, 아래 버튼 등을 이용하여 총 9대의 카메라의 간격을 픽셀 단위로 동시 조정하여 그 결과를 미리 확인할 수 있다. That is, in the present embodiment, through the multi-view split preview, the intervals of the nine cameras can be simultaneously adjusted in units of pixels using the arrow up and down buttons on the keyboard to check the result in advance.

또한, 본 실시예는 상기 화면의 해상도 및 크기를 고려하여 상기 복수의 카메라 간의 간격을 자동 조절할 수 있다. 이는 간격 조절부(160)를 이용한다. 즉, 3D 입체 컨텐츠가 재생될 디스플레이 기기(ex, 모니터)의 크기나 해상도에 따라 카메라 간의 간격을 자동 조절할 수 있으며, 카메라 시점의 위치는 카메라 간격에 비례하여 자동 조절되도록 할 수 있다.In addition, the present embodiment may automatically adjust the distance between the plurality of cameras in consideration of the resolution and size of the screen. This uses the spacing adjuster 160. That is, the distance between cameras may be automatically adjusted according to the size or resolution of the display device (ex, monitor) on which the 3D stereoscopic content is to be reproduced, and the position of the camera viewpoint may be automatically adjusted in proportion to the camera interval.

최종 출력된 3D 컨텐츠 렌더링 동영상은 무안경 3D 입체 컨텐츠 감상이 가능한 디스플레이 기기에서 바로 확인이 가능하며, Full HD 해상도를 지원하기 위하여 컨텐츠의 렌더링 화면은 가로 1920픽셀(Pixel), 세로 9080픽셀(Pixel)의 고해상도의 출력이 가능하다.The final output 3D content rendering video can be checked directly on the display device that can watch 3D stereoscopic content without glasses.In order to support Full HD resolution, the rendering screen of the content is 1920 pixels horizontally and 9080 pixels vertically. High resolution output is possible.

이상과 같은 본 발명에 따르면, 객체에 대한 기준 카메라 및 시점의 위치를 설정하는 과정과, 기준 카메라와 동일한 시점을 갖는 복수의 보조 카메라를 기준 카메라의 좌우에 자동 배열하는 과정 및 각 카메라의 촬상 영상들의 렌더링 과정을 포함하여 일반 사용자도 손쉽게 일정 품질 이상의 생동감 있는 무안경 3D 입체 컨텐츠의 제작이 가능하게 하는 이점이 있다. 더욱이, 본 발명은 카메라 간의 간격 조절과, 객체에 대한 시점의 위치 관계 조절을 이용하여 입체 컨텐츠에 대한 입체감과 깊이감(거리감)을 용이하게 제어할 수 있다. According to the present invention as described above, the process of setting the position of the reference camera and the viewpoint to the object, the process of automatically arranging a plurality of auxiliary cameras having the same viewpoint as the reference camera to the left and right of the reference camera and the captured image of each camera Including the rendering process, the general user can also easily create a vivid glasses-free 3D stereoscopic content of a certain quality or more. In addition, the present invention can easily control the three-dimensional and depth (distance) with respect to the three-dimensional content by adjusting the distance between the camera and the positional relationship of the viewpoint to the object.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

100: 입체 컨텐츠 제작 장치
110: 컨텐츠 제공부 120: 배치부
130: 위치 설정부 140: 카메라 배열부
150: 간격 설정부 160: 간격 조절부
170: 렌더링부 180: 소스 DB
100: stereoscopic content production device
110: content providing unit 120: deployment unit
130: position setting unit 140: camera arrangement unit
150: gap setting unit 160: gap adjusting unit
170: renderer 180: source DB

Claims (10)

소스 DB에서 제공하는 객체 및 배경 소스에 관한 컨텐츠를 사용자로부터 선택받고 상기 선택된 컨텐츠를 화면 상에 제공하는 단계;
상기 컨텐츠를 촬영하는 가상의 기준 카메라, 및 상기 기준 카메라의 시점 위치에 대응되는 가상의 시점물을 상기 화면 상에 각각 배치하는 단계;
상기 기준 카메라의 위치 및 상기 시점물의 위치를 설정받는 단계;
상기 기준 카메라와 동일한 시점을 갖는 복수의 보조 카메라들을 상기 기준 카메라의 좌우 방향으로 각각 배열하는 단계; 및
상기 기준 카메라 및 상기 보조 카메라들에 의한 촬상 영상들을 렌더링하여 입체 컨텐츠를 제작하는 단계를 포함하는 입체 컨텐츠 제작 방법.
Selecting contents related to an object and a background source provided from a source DB from a user and providing the selected contents on a screen;
Disposing a virtual reference camera for capturing the content and a virtual viewpoint corresponding to the viewpoint position of the reference camera, respectively on the screen;
Receiving a position of the reference camera and a position of the viewpoint object;
Arranging a plurality of auxiliary cameras having the same viewpoint as the reference camera in left and right directions of the reference camera; And
And producing stereoscopic content by rendering captured images of the reference camera and the auxiliary cameras.
청구항 1에 있어서,
상기 시점물의 위치를 설정받는 단계는,
상기 기준 카메라의 시점이 상기 객체보다 전방 또는 후방에 위치하도록 상기 시점물의 위치를 설정받는 입체 컨텐츠 제작 방법.
The method according to claim 1,
Receiving the position of the viewpoint is set,
3. The method of claim 3, wherein the viewpoint object is set such that the viewpoint of the reference camera is located in front of or behind the object.
청구항 1에 있어서,
상기 복수의 보조 카메라들을 상기 기준 카메라의 좌우 방향으로 각각 배열하는 단계 이후,
상기 기준 카메라와 상기 보조 카메라를 포함하는 복수의 카메라 간의 간격을 설정받는 단계를 더 포함하는 입체 컨텐츠 제작 방법.
The method according to claim 1,
After arranging the plurality of auxiliary cameras in the left and right directions of the reference camera, respectively,
And setting a gap between the reference camera and a plurality of cameras including the auxiliary camera.
청구항 3에 있어서,
상기 카메라 간의 간격을 설정받는 단계는,
상기 복수의 카메라에 의해 촬상된 영상들을 상기 화면 상에 분할 화면으로 표시한 다음, 상기 복수의 카메라 간의 간격 값을 픽셀 단위로 설정받으면, 상기 설정된 간격에 대응되어 렌더링된 입체 컨텐츠를 상기 화면 상에 제공하는 입체 컨텐츠 제작 방법.
The method according to claim 3,
The step of setting the interval between the cameras,
When the images captured by the plurality of cameras are displayed on the screen as a split screen, and the interval value between the plurality of cameras is set in pixel units, stereoscopic content rendered in correspondence to the set interval is displayed on the screen. Providing stereoscopic content production method.
청구항 1에 있어서,
상기 화면의 해상도 및 크기를 고려하여 상기 기준 카메라와 상기 보조 카메라를 포함하는 복수의 카메라 간의 간격을 조절하는 단계를 더 포함하는 입체 컨텐츠 제작 방법.
The method according to claim 1,
And adjusting a distance between the reference camera and a plurality of cameras including the auxiliary camera in consideration of the resolution and the size of the screen.
소스 DB에서 제공하는 객체 및 배경 소스에 관한 컨텐츠를 사용자로부터 선택받고 상기 선택된 컨텐츠를 화면 상에 제공하는 컨텐츠 제공부;
상기 컨텐츠를 촬영하는 가상의 기준 카메라, 및 상기 기준 카메라의 시점 위치에 대응되는 가상의 시점물을 상기 화면 상에 각각 배치하는 배치부;
상기 기준 카메라의 위치 및 상기 시점물의 위치를 설정받는 위치 설정부;
상기 기준 카메라와 동일한 시점을 갖는 복수의 보조 카메라들을 상기 기준 카메라의 좌우 방향으로 각각 배열하는 카메라 배열부; 및
상기 기준 카메라 및 상기 보조 카메라들에 의한 촬상 영상들을 렌더링하여 입체 컨텐츠를 제작하는 렌더링부를 포함하는 입체 컨텐츠 제작 장치.
A content providing unit which selects content related to an object and a background source provided from a source DB from a user and provides the selected content on a screen;
A disposition unit for disposing a virtual reference camera photographing the contents and a virtual viewpoint object corresponding to a viewpoint position of the reference camera;
A position setting unit configured to receive a position of the reference camera and a position of the viewpoint object;
A camera arrangement unit for arranging a plurality of auxiliary cameras having the same viewpoint as the reference camera in the left and right directions of the reference camera; And
And a rendering unit configured to render stereoscopic images by rendering the captured images of the reference camera and the auxiliary cameras.
청구항 6에 있어서,
상기 위치 설정부는,
상기 기준 카메라의 시점이 상기 객체보다 전방 또는 후방에 위치하도록 상기 시점물의 위치를 설정받는 입체 컨텐츠 제작 장치.
The method of claim 6,
Wherein the position setting unit comprises:
And a stereoscopic content producing device configured to set the position of the viewpoint such that the viewpoint of the reference camera is located in front of or behind the object.
청구항 6에 있어서,
상기 기준 카메라와 상기 보조 카메라를 포함하는 복수의 카메라 간의 간격을 설정받는 간격 설정부를 더 포함하는 입체 컨텐츠 제작 장치.
The method of claim 6,
And a gap setting unit configured to receive a gap between the reference camera and a plurality of cameras including the auxiliary camera.
청구항 8에 있어서,
상기 간격 설정부는,
상기 복수의 카메라에 의해 촬상된 영상들을 상기 화면 상에 분할 화면으로 표시한 다음, 상기 복수의 카메라 간의 간격 값을 픽셀 단위로 설정받으면, 상기 설정된 간격에 대응되어 렌더링된 입체 컨텐츠를 상기 화면 상에 제공하는 입체 컨텐츠 제작 장치.
The method according to claim 8,
The interval setting unit,
When the images captured by the plurality of cameras are displayed on the screen as a split screen, and the interval value between the plurality of cameras is set in pixel units, stereoscopic content rendered in correspondence to the set interval is displayed on the screen. Providing stereoscopic content production device.
청구항 6에 있어서,
상기 화면의 해상도 및 크기를 고려하여 상기 기준 카메라와 상기 보조 카메라를 포함하는 복수의 카메라 간의 간격을 조절하는 간격 조절부를 더 포함하는 입체 컨텐츠 제작 장치.
The method of claim 6,
And a gap controller configured to adjust a gap between the reference camera and a plurality of cameras including the auxiliary camera in consideration of the resolution and the size of the screen.
KR1020120068625A 2012-06-26 2012-06-26 Method for manufacturing 3d contents and apparatus for thereof KR20140003741A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120068625A KR20140003741A (en) 2012-06-26 2012-06-26 Method for manufacturing 3d contents and apparatus for thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120068625A KR20140003741A (en) 2012-06-26 2012-06-26 Method for manufacturing 3d contents and apparatus for thereof

Publications (1)

Publication Number Publication Date
KR20140003741A true KR20140003741A (en) 2014-01-10

Family

ID=50140043

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120068625A KR20140003741A (en) 2012-06-26 2012-06-26 Method for manufacturing 3d contents and apparatus for thereof

Country Status (1)

Country Link
KR (1) KR20140003741A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101451236B1 (en) * 2014-03-03 2014-10-15 주식회사 비즈아크 Method for converting three dimensional image and apparatus thereof
WO2016195167A1 (en) * 2015-06-01 2016-12-08 주식회사 쓰리디팩토리 Content conversion method, content conversion apparatus, and program for multi-layered hologram
KR101690729B1 (en) * 2015-06-18 2016-12-28 동서대학교 산학협력단 Image contents producing method by adjusting section-specific set value of stereo camera
WO2019070317A1 (en) * 2017-10-02 2019-04-11 Leia Inc. Multiview camera array, multiview system, and method having camera sub-arrays with a shared camera
KR20190091997A (en) * 2018-01-30 2019-08-07 한국과학기술연구원 Image acquisition method applicable to three-dimensional autostereoscopic display system, method, apparatus and system for providing three-dimensional stereoscopic image using images obtained through the image acquisition method
WO2023196203A1 (en) * 2022-04-04 2023-10-12 Genome International Corporation Traveling in time and space continuum

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101451236B1 (en) * 2014-03-03 2014-10-15 주식회사 비즈아크 Method for converting three dimensional image and apparatus thereof
WO2016195167A1 (en) * 2015-06-01 2016-12-08 주식회사 쓰리디팩토리 Content conversion method, content conversion apparatus, and program for multi-layered hologram
KR101690729B1 (en) * 2015-06-18 2016-12-28 동서대학교 산학협력단 Image contents producing method by adjusting section-specific set value of stereo camera
WO2019070317A1 (en) * 2017-10-02 2019-04-11 Leia Inc. Multiview camera array, multiview system, and method having camera sub-arrays with a shared camera
TWI688255B (en) * 2017-10-02 2020-03-11 美商雷亞有限公司 Multiview camera array, multiview system, and method having camera sub-arrays with a shared camera
KR20200042020A (en) * 2017-10-02 2020-04-22 레이아 인코포레이티드 Multiview camera array, multiview system, and method with camera sub-arrays with shared cameras
CN111183638A (en) * 2017-10-02 2020-05-19 镭亚股份有限公司 Multi-view camera array, multi-view system and method having sub-arrays of cameras with shared cameras
US11310478B2 (en) * 2017-10-02 2022-04-19 Leia Inc. Multiview camera array, multiview system, and method having camera sub-arrays with a shared camera
KR20190091997A (en) * 2018-01-30 2019-08-07 한국과학기술연구원 Image acquisition method applicable to three-dimensional autostereoscopic display system, method, apparatus and system for providing three-dimensional stereoscopic image using images obtained through the image acquisition method
WO2023196203A1 (en) * 2022-04-04 2023-10-12 Genome International Corporation Traveling in time and space continuum

Similar Documents

Publication Publication Date Title
US11076142B2 (en) Real-time aliasing rendering method for 3D VR video and virtual three-dimensional scene
EP2448276B1 (en) GUI providing method, and display apparatus and 3D image providing system using the same
EP3712856B1 (en) Method and system for generating an image
CA2752691C (en) Systems, apparatus and methods for subtitling for stereoscopic content
US4925294A (en) Method to convert two dimensional motion pictures for three-dimensional systems
Koppal et al. A viewer-centric editor for 3D movies
JP4489610B2 (en) Stereoscopic display device and method
US20110216160A1 (en) System and method for creating pseudo holographic displays on viewer position aware devices
KR20140003741A (en) Method for manufacturing 3d contents and apparatus for thereof
CN102708577B (en) The synthetic method of multi-viewpoint three-dimensional picture
US9933626B2 (en) Stereoscopic image
US11443676B1 (en) Increasing resolution and luminance of a display
US9258546B2 (en) Three-dimensional imaging system and image reproducing method thereof
TW201230770A (en) Apparatus and method for stereoscopic effect adjustment on video display
JP5036088B2 (en) Stereoscopic image processing apparatus, stereoscopic image processing method, and program
CN104581118A (en) 3D (three-dimensional) stop-motion animation video shooting step and making method
KR101192121B1 (en) Method and apparatus for generating anaglyph image using binocular disparity and depth information
Koppal et al. A viewer-centric editor for stereoscopic cinema
KR100556830B1 (en) 3D graphical model rendering apparatus and method for displaying stereoscopic image
KR20130005148A (en) Depth adjusting device and depth adjusting method
US10475233B2 (en) System, method and software for converting images captured by a light field camera into three-dimensional images that appear to extend vertically above or in front of a display medium
CN106657964A (en) Pseudo stereo GIF animation automatic synthesis system and image processing method thereof
Hamacher et al. Study on making omnistereo images for HMD using longer focal length
CN103024591A (en) Method and device for adjusting 3D (three-dimensional) parallax
JP2014232967A (en) Stereoscopic mask generation method, stereoscopic mask generation device, and stereoscopic endoscope system

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid