KR20180008345A - Device and method for producing contents, and computer program thereof - Google Patents

Device and method for producing contents, and computer program thereof Download PDF

Info

Publication number
KR20180008345A
KR20180008345A KR1020170089805A KR20170089805A KR20180008345A KR 20180008345 A KR20180008345 A KR 20180008345A KR 1020170089805 A KR1020170089805 A KR 1020170089805A KR 20170089805 A KR20170089805 A KR 20170089805A KR 20180008345 A KR20180008345 A KR 20180008345A
Authority
KR
South Korea
Prior art keywords
content
target image
image
synthesized
effect
Prior art date
Application number
KR1020170089805A
Other languages
Korean (ko)
Inventor
정성범
Original Assignee
네이버 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버 주식회사 filed Critical 네이버 주식회사
Publication of KR20180008345A publication Critical patent/KR20180008345A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

According to an embodiment of the present invention, provided is a method for producing content which comprises the steps of: selecting a target image by receiving information on the target image; determining synthesis content including at least one of a background image and effect content on the target image; and generating result content by synthesizing the target image with the determined synthesis content. The synthesis content includes at least one among an image, a geometric figure, and physical information on a specific object included in the synthesis content, and the specific object is synthesized with the target image so as to assign a stereoscopic or a dynamic effect to the result content.

Description

컨텐츠 제작 장치, 방법 및 컴퓨터 프로그램 {Device and method for producing contents, and computer program thereof}[0001] The present invention relates to a content creating apparatus, a method and a computer program,

본 발명의 실시예들은 컨텐츠 제작 장치, 방법 및 컴퓨터 프로그램에 관한 것이다.Embodiments of the present invention relate to a content production apparatus, a method, and a computer program.

일반적으로 만화는 인물, 동물, 사물 등의 모습을 간결하고 익살스럽게 그리거나 과장하여 나타낸 그림을 말하며, 짤막한 지문을 넣어 유머나 풍자 또는 일정한 줄거리를 담아 읽을거리를 제공한다.In general, manga is a picture that depicts characters, animals, and objects in a concise and humorous manner, or exaggerated, and provides short stories with humor, satire, or a certain plot by inserting short fingerprints.

최근에는 온라인 만화가 출시되어 많은 유저들이 만화 열람을 통해 즐거움과 정보를 얻고 있다. 온라인 만화 제공 시스템은 회원들을 중심으로 인증처리 시 승인 결과에 따라 열람 가능하게 제한하고 있으며, 승인된 유저들은 만화를 선택하고 자동 넘김이나 수동 넘김을 선택하여 만화를 보다 쉽게 볼 수 있도록 하고 있다.Recently, online comics have been released and many users are getting fun and information through comics reading. The online cartoon providing system restricts the access to the members according to the approval result when processing the authentication. Authorized users can select the cartoon and select the automatic turn or manual turn so that the cartoon can be viewed more easily.

예컨대, 한국공개특허 제10-2011-0123393호(공개일 2011년 11월 15일)에는 온라인 상의 직거래를 통해 모바일 디지털 컨텐츠 형태의 만화를 제공하는 기술이 개시되어 있다.For example, Korean Patent Laid-Open No. 10-2011-0123393 (published on November 15, 2011) discloses a technique for providing comics in the form of mobile digital contents through direct online transactions.

본 발명의 실시예들은 평면적으로 구현된 대상 이미지에 입체적 혹은 동적인 효과를 제공하기 위해서, 대상 이미지에 배경 이미지 및 효과 컨텐츠 중 하나 이상을 포함하는 합성 컨텐츠를 합성하여 결과 컨텐츠를 생성하는 컨텐츠 제작 장치, 방법 및 컴퓨터 프로그램을 제공할 수 있다. In an embodiment of the present invention, in order to provide stereoscopic or dynamic effects to a target image that is implemented in a plane, a content production apparatus for synthesizing synthesized contents including at least one of a background image and an effect content in a target image, , A method, and a computer program.

본 발명의 일 실시예에 따르면, 대상 이미지에 대한 정보를 수신하여 대상 이미지를 선택하는 단계; 상기 대상 이미지에 대한, 배경 이미지 및 효과 컨텐츠 중 하나 이상을 포함하는 합성 컨텐츠를 결정하는 단계; 및 상기 대상 이미지와 상기 결정된 합성 컨텐츠를 합성하여 결과 컨텐츠를 생성하는 단계;를 포함하고, 상기 합성 컨텐츠는, 상기 합성 컨텐츠에 포함된 특정 객체에 대한 이미지, 기하학적 도형 및 물리적 정보 중 하나 이상을 포함하며, 상기 특정 객체는 상기 대상 이미지와 합성되어 상기 결과 컨텐츠에 입체적 혹은 동적 효과를 부여하는, 컨텐츠 제작 방법이 제공된다.According to an embodiment of the present invention, there is provided an image processing method comprising: receiving information on a target image and selecting a target image; Determining composite content for the target image, the composite content including at least one of a background image and effect content; And synthesizing the target image and the determined synthesized content to generate a resultant content, wherein the synthesized content includes at least one of an image, a geometric figure, and physical information for a specific object included in the synthesized content And the specific object is combined with the target image to give stereoscopic or dynamic effects to the resultant content.

본 발명에 있어서, 상기 합성 컨텐츠를 결정하는 단계는, 관리자 단말로부터의 입력에 기초하여, 상기 배경 이미지 및 효과 컨텐츠 중 하나 이상을 결정할 수 있다.In the present invention, the step of determining the synthesized content may determine at least one of the background image and the effect content based on the input from the administrator terminal.

본 발명에 있어서, 상기 결과 컨텐츠를 생성하는 단계는, 상기 대상 이미지가 배치된 가상 공간을 설정하고, 상기 가상 공간 상에 상기 합성 컨텐츠를 합성하여 상기 결과 컨텐츠를 생성할 수 있다.In the present invention, the generating of the resultant content may generate a resultant content by setting a virtual space in which the target image is disposed, and compositing the synthesized content on the virtual space.

본 발명에 있어서, 상기 합성 컨텐츠에 포함된 특정 객체에 대한 기하학적 도형은, 상기 기하학적 도형의 무게, 질량, 크기, 부피, 형태, 위치, 속도, 이동 방향 중 하나 이상에 대한 값을 속성으로 가지며, 상기 결과 컨텐츠를 생성하는 단계는, 상기 특정 객체에 대한 상기 기하학적 도형의 속성에 기초하여 입체적 혹은 동적 효과를 갖는 상기 결과 컨텐츠를 생성할 수 있다.In the present invention, the geometric figure for a specific object included in the synthesized content may have a value for at least one of weight, mass, size, volume, shape, position, speed, and movement direction of the geometric figure, The generating of the resultant content may generate the resultant content having a stereoscopic or dynamic effect based on the attribute of the geometric figure for the specific object.

본 발명에 있어서, 상기 합성 컨텐츠에 포함된 특정 객체에 대한 물리적 정보는, 상기 특정 객체가 위치하는 상대적 또는 절대적 좌표, 상기 특정 객체의 이동방향, 상기 특정 객체의 속도, 상기 특정 객체의 무게, 상기 특정 객체의 중력가속도 중 적어도 하나이고, 상기 결과 컨텐츠를 생성하는 단계는, 상기 특정 객체에 대한 상기 물리적 정보에 기초하여 입체적 혹은 동적 효과를 갖는 상기 결과 컨텐츠를 생성할 수 있다.In the present invention, the physical information on the specific object included in the synthesized content may include at least one of relative or absolute coordinates of the specific object, a moving direction of the specific object, a speed of the specific object, And the gravitational acceleration of the specific object, and the step of generating the resultant content may generate the resultant content having a stereoscopic or dynamic effect based on the physical information on the specific object.

본 발명에 있어서, 상기 합성 컨텐츠를 결정하는 단계는 상기 대상 이미지를 분석한 결과를 기초로 하여, 배경 이미지 및 효과 컨텐츠 중 하나 이상을 결정할 수 있다.In the present invention, the step of determining the composite content may determine at least one of the background image and the effect content based on a result of analyzing the target image.

본 발명에 있어서, 상기 대상 이미지를 분석한 결과는 상기 대상 이미지의 특징, 상기 대상 이미지 내에서 포함하고 있는 객체, 상기 대상 이미지가 나타내는 상황 중 적어도 하나를 포함하고, 상기 대상 이미지의 특징은 상기 대상 이미지의 적어도 일 영역의 명도, 채도, 색상 중 적어도 하나일 수 있다.In the present invention, the result of the analysis of the target image may include at least one of a characteristic of the target image, an object included in the target image, and a situation represented by the target image, And may be at least one of brightness, saturation, and hue of at least one area of the image.

본 발명의 다른 실시예에 따르면, 대상 이미지에 대한 정보를 수신하여 대상 이미지를 선택하는 대상 이미지 선택부; 상기 대상 이미지에 대한, 배경 이미지 및 효과 컨텐츠 중 하나 이상을 포함하는 합성 컨텐츠를 결정하는 합성 컨텐츠 결정부; 및 상기 대상 이미지와 상기 결정된 합성 컨텐츠를 합성하여 결과 컨텐츠를 생성하는 결과 컨텐츠 생성부; 를 포함하고, 상기 합성 컨텐츠는, 상기 합성 컨텐츠에 포함된 특정 객체에 대한 이미지, 기하학적 도형 및 물리적 정보 중 하나 이상을 포함하며, 상기 특정 객체는 상기 대상 이미지와 합성되어 상기 결과 컨텐츠에 입체적 혹은 동적 효과를 부여하는, 컨텐츠 제작 장치가 제공된다.According to another embodiment of the present invention, there is provided an image processing apparatus comprising: a target image selection unit receiving information on a target image and selecting a target image; A composite content determination unit for determining composite content including at least one of a background image and an effect content for the target image; A result content generation unit for synthesizing the target image and the determined synthesized content to generate a resultant content; Wherein the synthesized content includes at least one of an image, a geometric figure, and physical information for a specific object included in the synthesized content, the specific object is synthesized with the target image, and stereoscopic or dynamic A content production apparatus is provided.

본 발명의 방법을 수행하기 위한 컴퓨터 판독가능 기록매체에 저장된 컴퓨터 프로그램이 더 제공된다.A computer program stored on a computer readable recording medium for performing the method of the present invention is further provided.

본 발명에 따른 컨텐츠 제작 장치, 방법 및 컴퓨터 프로그램은 평면적으로 구현된 대상 이미지에 합성 컨텐츠를 합성하여 결과 컨텐츠를 생성하며, 합성 컨텐츠는 대상 이미지와 합성되어 결과 컨텐츠에 입체적 혹은 동적 효과를 부여할 수 있다. The apparatus, method, and computer program product according to the present invention may synthesize synthesized content into a target image that is implemented in a planar manner to generate a resultant content, and synthesized content may be synthesized with a target image to impart stereoscopic or dynamic effects to the resultant content have.

도 1 은 본 발명의 일 실시예에 따른 컨텐츠 제작 시스템의 네트워크 환경을 도시한 블록도이다.
도 2 는 본 발명의 실시예들에 따른 컨텐츠 제작 장치의 내부 구성을 나타내는 블록도이다.
도 3 은 본 발명의 일 실시예에 따른 컨텐츠 제작 방법을 시계열적으로 나타낸 순서도이다.
도 4 내지 도 6 은 본 발명의 실시예들에 따른 컨텐츠 제작 방법의 구체적인 시계열적 흐름을 나타낸 흐름도들이다.
도 7 내지 도 11 은 컨텐츠 제작 장치에 의해 생성된 결과 컨텐츠들의 예시들이다.
도 11 내지 도 14 는 본 발명의 일 실시예에 따른 컨텐츠 제작 방법을 통하여 컨텐츠를 제작하는 과정의 예시들이다.
도 15 는 본 발명의 일 실시예에 따라 결과 컨텐츠가 제공되는 방법을 시계열적으로 나타낸 것이다.
도 16a 및 도 16b는 본 발명의 일 실시예에 따른 컨텐츠 표시 방법을 이용하여 표시된 결과 컨텐츠의 일 예이다.
1 is a block diagram illustrating a network environment of a content production system according to an embodiment of the present invention.
2 is a block diagram illustrating an internal configuration of a content production apparatus according to an embodiment of the present invention.
3 is a time-sequentially flowchart illustrating a content production method according to an embodiment of the present invention.
FIGS. 4 to 6 are flowcharts illustrating a specific time-series flow of the content production method according to the embodiments of the present invention.
Figs. 7 to 11 are examples of the resultant contents generated by the content production apparatus.
11 to 14 are illustrations of a process of producing contents through a content production method according to an embodiment of the present invention.
FIG. 15 is a time-wise illustration of how results content is provided in accordance with one embodiment of the present invention.
16A and 16B are examples of displayed result contents using a content display method according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. The effects and features of the present invention and methods of achieving them will be apparent with reference to the embodiments described in detail below with reference to the drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In the following embodiments, the terms first, second, and the like are used for the purpose of distinguishing one element from another element, not the limitative meaning. Also, the singular expressions include plural expressions unless the context clearly dictates otherwise. Also, the terms include, including, etc. mean that there is a feature, or element, recited in the specification and does not preclude the possibility that one or more other features or components may be added. Also, in the drawings, for convenience of explanation, the components may be exaggerated or reduced in size. For example, the size and thickness of each component shown in the drawings are arbitrarily shown for convenience of explanation, and thus the present invention is not necessarily limited to those shown in the drawings.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or corresponding components throughout the drawings, and a duplicate description thereof will be omitted .

도 1 은 본 발명의 일 실시예에 따른 컨텐츠 제작 시스템의 네트워크 환경을 도시한 블록도이다.1 is a block diagram illustrating a network environment of a content production system according to an embodiment of the present invention.

도 1 을 참조하면, 본 발명의 일 실시예에 따른 컨텐츠 제작 시스템의 네트워크 환경은 컨텐츠 제작 장치(100), 관리자 단말(200) 및 사용자 단말(300)을 포함할 수 있다.Referring to FIG. 1, a network environment of a content production system according to an embodiment of the present invention may include a content production apparatus 100, an administrator terminal 200, and a user terminal 300.

본 발명의 컨텐츠 제작 장치(100)는 관리자 단말(200)로부터의 입력 신호 혹은 자체적인 처리에 의해 대상 이미지에 합성 컨텐츠가 합성된 결과 컨텐츠를 생성할 수 있다. 또한, 본 발명의 컨텐츠 제작 장치(100)는 사용자 단말로부터의 요청에 의해 생성된 결과 컨텐츠를 제공할 수 있다.The content production apparatus 100 of the present invention can generate the resultant content obtained by synthesizing the synthesized content in the target image by the input signal from the administrator terminal 200 or its own processing. In addition, the content production apparatus 100 of the present invention can provide a resultant content generated by a request from a user terminal.

보다 상세히, 본 발명의 컨텐츠 제작 장치(100)는 대상 이미지에 배경 이미지 및/또는 효과 컨텐츠를 포함하는 합성 컨텐츠를 합성하여 입체적 혹은 동적 효과를 가지는 새로운 결과 컨텐츠를 생성하는 기능을 수행한다. 이때, 합성 컨텐츠는 합성 컨텐츠에 포함된 특정 객체에 대한 이미지, 기하학적 도형 및 물리적 정보 중 하나 이상을 포함하며, 특정 객체는 대상 이미지와 합성되어 결과 컨텐츠에 입체적 혹은 동적 효과를 부여할 수 있다. 특히, 특정 객체에 대한 이미지, 기하학적 도형 및 물리적 정보에 기초하여 입체적 혹은 동적 효과를 갖는 결과 컨텐츠가 생성될 수 있다. More specifically, the content production apparatus 100 of the present invention performs a function of generating new result contents having a stereoscopic or dynamic effect by synthesizing synthesized contents including a background image and / or effect contents on a target image. At this time, the synthesized content may include at least one of an image, a geometric figure, and physical information of a specific object included in the synthesized content, and the specific object may be synthesized with the target image to impart stereoscopic or dynamic effects to the resultant content. In particular, resultant content with stereoscopic or dynamic effects can be generated based on images, geometric shapes and physical information for a particular object.

본 발명의 일 실시예에 따른 컨텐츠 제작 장치(100)는 컴퓨터(예를 들면, 데스크톱, 랩톱, 태블릿 등), 미디어 컴퓨팅 플랫폼(예를 들면, 케이블, 위성 셋톱박스, 디지털 비디오 레코더), 핸드헬드 컴퓨팅 디바이스(예를 들면, PDA, 이메일 클라이언트 등), 핸드폰의 임의의 형태, 휴대용 단말, 또는 다른 종류의 컴퓨팅 또는 커뮤니케이션 플랫폼의 임의의 형태를 포함할 수 있으나, 본 발명이 이에 한정되는 것은 아니다. The content production apparatus 100 according to an embodiment of the present invention may be used in various fields such as a computer (e.g., a desktop, a laptop, a tablet, etc.), a media computing platform (e.g., a cable, a satellite set- But is not limited to, a computing device (e.g., a PDA, an email client, etc.), any form of mobile phone, a portable terminal, or any other type of computing or communication platform.

또한, 관리자 단말(200)은 컨텐츠 제작 장치(100)가 제공하는 인터페이스를 사용하여 컨텐츠를 제작하는 제작자에 대응하는 단말일 수 있다. In addition, the administrator terminal 200 may be a terminal corresponding to a manufacturer who produces content using an interface provided by the content production apparatus 100.

또한, 사용자 단말(300)은 컨텐츠 제작 장치(100)로부터 생성된 결과 컨텐츠를 제공받을 수 있는 컨텐츠 이용자에 대응하는 단말일 수 있다. 도 1 에서는 비록 컨텐츠 제작 장치(100)에 의해 생성된 컨텐츠를 사용자 단말(300)에 직접 제공하는 것으로 도시되었지만, 본 발명의 다른 실시예에 따르면 컨텐츠 제작 장치(100)에 의해 생성된 컨텐츠는 별도의 컨텐츠 제공 시스템, 장치 또는 모듈로 전달되고, 별도의 컨텐츠 제공 시스템(모듈 또는 장치)에 의해 사용자 단말(300)에 제공될 수도 있다.Also, the user terminal 300 may be a terminal corresponding to a content user who can receive the resultant content generated from the content production apparatus 100. 1, content generated by the content production apparatus 100 is directly provided to the user terminal 300. However, according to another embodiment of the present invention, content generated by the content production apparatus 100 may be separately provided Or a module, and may be provided to the user terminal 300 by a separate content providing system (module or apparatus).

이하에서는, 컨텐츠 제작 장치(100)의 내부 구성 및 컨텐츠 제작 장치(100)에 의한 컨텐츠 제작 방법을 중심으로 본 발명에 대해 상세히 살펴보기로 한다. Hereinafter, the present invention will be described in detail with reference to an internal configuration of the content production apparatus 100 and a content production method by the content production apparatus 100. [

도 2 는 본 발명의 실시예들에 따른 컨텐츠 제작 장치의 내부 구성을 나타내는 블록도이다. 2 is a block diagram illustrating an internal configuration of a content production apparatus according to an embodiment of the present invention.

도 2 를 참조하면, 본 발명의 실시예들에 따른 컨텐츠 제작 장치(100)는 입력 수신부(110), 제1 출력 제어부(121), 제2 출력 제어부(122), 프로세서(140), 데이터베이스(150) 및 통신부(160)를 포함할 수 있다. 2, a content production apparatus 100 according to an exemplary embodiment of the present invention includes an input receiving unit 110, a first output control unit 121, a second output control unit 122, a processor 140, a database 150 and a communication unit 160.

입력 수신부(110)는 관리자 단말(200) 혹은 사용자 단말(300)로부터의 요청을 입력 받는 수단으로서, 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.The input receiving unit 110 includes a key pad, a dome switch, a touch pad (a contact type capacitance type, a pressure type, An ultrasonic wave propagation method, an integral resistance film method, an infrared ray detection method, a surface ultrasonic wave propagation method, an integral strain measurement method, a piezo effect method, etc.), a jog wheel, a jog switch and the like.

제1 출력 제어부(121)는 관리자 단말(200)과 상호작용하여 본 발명의 컨텐츠 제작 방법에 따라 컨텐츠를 제작하기 위해 사용할 수 있도록 하는 컨텐츠 제작 인터페이스를 관리자 단말(200)에 제공할 수 있다. 보다 상세히, 제1 출력 제어부(121)는 소정의 소프트웨어를 제공할 수 있으며, 소정의 소프트웨어는 다수의 후보들 중 하나 이상의 대상 이미지 및 합성 컨텐츠를 선택할 수 있는 인터페이스를 포함할 수 있다. 또는, 소정의 소프트웨어는 하나 이상의 이미지, 360도 배경 이미지, 및/또는 동영상을 포함하는 컨텐츠를 제작할 수 있는 인터페이스를 제공할 수 있다.The first output control unit 121 may provide a content creation interface to the administrator terminal 200 in order to interact with the administrator terminal 200 and to use the content in accordance with the content creation method of the present invention. In more detail, the first output control unit 121 may provide predetermined software, and the predetermined software may include an interface capable of selecting one or more target images and composite contents of the plurality of candidates. Alternatively, the predefined software may provide an interface by which one or more images, 360-degree background images, and / or content containing moving images may be created.

한편, 제1 출력 제어부(121)는 컨텐츠 제작 장치(100)에 포함된 출력부를 통해 컨텐츠 제작 인터페이스를 직접 출력할 수 있다. 출력부는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 컨텐츠 제작 장치(100)의 구현 형태에 따라 컨텐츠 제작 장치(100)는 출력부를 2개 이상 포함할 수도 있다. 이때, 2개 이상의 출력부는 힌지(hinge)를 이용하여 마주보게 배치될 수 있다.On the other hand, the first output control unit 121 can directly output the content production interface through the output unit included in the content production apparatus 100. The output unit may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a 3D display, And an electrophoretic display. According to the embodiment of the content production apparatus 100, the content production apparatus 100 may include two or more output units. At this time, the two or more output units may be arranged to face each other using a hinge.

또한, 제2 출력 제어부(122)는 사용자 단말(300)로부터의 요청에 기초하여 본 발명의 결과 컨텐츠를 사용자 단말(300)에 제공할 수 있다. 데이터베이스(150) 또는 소정의 온라인 시스템에 등록된 결과 컨텐츠는 사용자 단말(300)로부터의 요청에 따라 제공 및 공개될 수 있다. 비록 도 2 의 실시예에서는 제2 출력 제어부(122)가 컨텐츠 제작 장치(100)에 속한 것으로 도시되었지만, 본 발명의 다른 실시예에 따르면 제2 출력 제어부(122)는 컨텐츠 제작 장치(100)와는 구분되는 컨텐츠 제공 시스템(모듈 또는 장치)에 속할 수 있다. 예를 들어, 컨텐츠 제작 장치(100)는 본 발명의 결과 컨텐츠를 컨텐츠 제공 시스템(모듈 또는 장치)에 등록할 수 있으며, 컨텐츠 제공 시스템의 제2 출력 제어부(122)는 등록된 결과 컨텐츠를 사용자 단말(300)로부터의 요청에 기초하여 제공할 수 있다.The second output control unit 122 may provide the resultant contents of the present invention to the user terminal 300 based on the request from the user terminal 300. [ The resultant content registered in the database 150 or a predetermined online system can be provided and disclosed upon request from the user terminal 300. [ Although the second output control unit 122 is shown as belonging to the content production apparatus 100 in the embodiment of FIG. 2, according to another embodiment of the present invention, the second output control unit 122 may include the content production apparatus 100 (A module or a device). For example, the content production apparatus 100 may register the resultant content of the present invention in a content providing system (module or apparatus), and the second output control unit 122 of the content providing system may transmit the registered resultant content to a user terminal Based on a request from the service provider 300.

프로세서(140)는 컨텐츠 제작 장치(100)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(140)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 프로세서가 처리하는 명령은 후술하는 대상 이미지 선택부(141), 합성 컨텐츠 결정부(142) 및 결과 컨텐츠 생성부(143)를 실행하도록 제어할 수 있다. 비록 도 2 의 실시예에서는 대상 이미지 선택부(141), 합성 컨텐츠 결정부(142) 및 결과 컨텐츠 생성부(143)가 프로세서(140) 내에 구비된 것으로 도시되었지만, 본 발명의 다른 실시예에서 대상 이미지 선택부(141), 합성 컨텐츠 결정부(142) 및 결과 컨텐츠 생성부(143)는 컨텐츠 제작 장치(100)의 저장 매체에 프로그램, unit, 또는 모듈일 수 있으며, 프로세서(140)는 저장 매체에 저장된 프로그램, unit, 또는 모듈의 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.The processor 140 controls the overall operation of the content production apparatus 100. For example, the processor 140 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and I / O operations. The instruction processed by the processor can be controlled to execute a target image selecting unit 141, a synthesized content determining unit 142 and a result content generating unit 143, which will be described later. Although in the embodiment of FIG. 2, the target image selecting unit 141, the synthesized content determining unit 142, and the result content generating unit 143 are shown as being provided in the processor 140, in another embodiment of the present invention, The image selection unit 141, the composite content determination unit 142 and the result content generation unit 143 may be a program, a unit, or a module in the storage medium of the content production apparatus 100, Or to execute a command received according to the code of the program, unit, or module stored in the module.

프로세서(140)(processor)는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.Processor 140 may be, for example, a data processing device embedded in hardware having circuitry physically structured to perform the functions represented by code or instructions contained within the program. As an example of the data processing apparatus built in hardware, a microprocessor, a central processing unit (CPU), a processor core, a multiprocessor, an application-specific integrated circuit (ASIC) circuit, and a field programmable gate array (FPGA), but the scope of the present invention is not limited thereto.

도 2 에 도시되지는 않았지만 컨텐츠 제작 장치(100)는 저장 매체를 포함할 수 있으며, 저장 매체는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 컨텐츠 제작 장치(100)는 인터넷(internet)상에서 저장 매체의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버를 운영할 수도 있다.2, the content production apparatus 100 may include a storage medium such as a flash memory type, a hard disk type, a multimedia card type, (ROM), read-only memory (EEPROM), electrically erasable programmable read-only memory (EEPROM), and the like. Read-only memory (PROM), a programmable read-only memory (PROM), a magnetic memory, a magnetic disk, and an optical disk. In addition, the content production apparatus 100 may operate a web storage or a cloud server that performs a storage function of a storage medium on the Internet.

다음으로, 데이터베이스(150, Database)는 본 발명의 일 실시예에 따른 대상 이미지, 배경 이미지, 효과 컨텐츠 및 결과 컨텐츠를 중 하나 이상을 저장 할 수 있다.Next, the database 150 may store at least one of a target image, a background image, an effect content, and a result content according to an embodiment of the present invention.

먼저, 데이터베이스(150)는 본 발명의 일 실시예에 따른 하나 이상의 대상 이미지를 저장한다. 본 발명의 대상 이미지는 합성 컨텐츠와 합성되어 결과 컨텐츠를 생성하기 위한 원본 이미지일 수 있다. 저장된 대상 이미지는 관리자 단말(200)에 의해 등록되거나 컨텐츠 제작 장치(100)에 의해 제작된 컨텐츠를 포함할 수 있다. 저장된 대상 이미지의 형식에는 제한이 없으며, 순서를 가지는 복수의 이미지, 만화 데이터를 포함할 수 있다. 만화 데이터는 복수의 대상 이미지를 포함할 수 있다. First, the database 150 stores one or more target images in accordance with an embodiment of the present invention. The target image of the present invention may be an original image to be combined with the synthesized content to generate the resulting content. The stored target image may include content registered by the administrator terminal 200 or produced by the content production apparatus 100. There is no limitation on the format of the stored target image, and it may include a plurality of images and cartoon data having an order. The comic data may include a plurality of target images.

또한, 본 발명에서 대상 이미지는, 만화나 웹툰에서 하나의 컷이 될 수 있다. 이 경우 선택된 대상 이미지는 하나 이상의 순서가 있는 다수의 이미지 중의 하나가 될 수 있다.In addition, in the present invention, the target image may be a cut in a cartoon or an webtun. In this case, the selected target image may be one of a plurality of images having one or more sequences.

또한, 데이터베이스 (150)는 본 발명의 일 실시예에 따라 관리자 단말(200)에 의해 등록되거나 컨텐츠 제작 장치(100)에 의해 제작된 하나 이상의 배경 이미지를 저장한다. 배경 이미지는 2차원, 3차원, 360도 영상으로 표현된 이미지를 포함할 수 있다. 예를 들어, 배경 이미지는 산, 바다, 건축물 내부, 특정 건축물 객체를 포함할 수 있으며, 배경 이미지는 객체에 대한 2D 혹은 3D 이미지, 기하학적 도형 또는 물리적 정보를 포함할 수 있다.In addition, the database 150 stores one or more background images that are registered by the administrator terminal 200 or produced by the content production apparatus 100 according to an embodiment of the present invention. The background image may include images expressed in two-dimensional, three-dimensional, and 360-degree images. For example, the background image may include a mountain, a sea, a building interior, a particular building object, and the background image may include a 2D or 3D image, geometric shape, or physical information about the object.

보다 상세히, 본 발명에서 배경 이미지는 대상 이미지와 중첩되어 표시될 수 있다. 이때, 배경 이미지는 대상 이미지의 앞(위) 또는 뒤(아래)에 배치되거나 소정의 투명도를 가지고 대상 이미지와 중첩되어 표시될 수 있다. 배경 이미지는 평면적으로 구현되거나 입체적으로 구현된 이미지를 포함할 수 있다.More specifically, in the present invention, the background image can be superimposed on the target image. At this time, the background image may be displayed in front of (above) or behind (below) the target image, or may be superimposed on the target image with a predetermined transparency. The background image may be implemented in a planar or stereoscopic manner.

배경 이미지는 하나 이상의 객체를 포함할 수 있으며, 객체에 대한 이미지를 포함할 수 있다. 혹은, 배경 이미지는 객체에 대한 점, 선, 면 등의 기하학적 도형을 포함할 수 있으며, 각 도형들은 각각의 무게, 질량, 크기, 부피, 형태, 위치, 속도, 이동 방향 등에 소정의 고정 값, 소정의 수식에 의하여 결정된 값, 또는 랜덤한 임의의 값을 속성으로서 가질 수 있다. 본 발명의 일 실시예에 따르면 특정 객체에 대한 기하학적 도형의 속성에 기초하여 입체적 혹은 동적 효과를 갖는 결과 컨텐츠를 생성할 수 있다.The background image may include one or more objects, and may include images for the objects. Alternatively, the background image may include geometric figures such as points, lines, and faces for an object, and each figure may have a predetermined fixed value such as weight, mass, size, volume, shape, position, A value determined by a predetermined expression, or a random arbitrary value as an attribute. According to an embodiment of the present invention, it is possible to generate a resultant content having a stereoscopic or dynamic effect based on an attribute of a geometric figure for a specific object.

혹은, 배경 이미지는 객체에 대한 물리적 정보를 포함할 수 있으며, 물리적 정보는 특정 객체의 좌표, 이동방향, 속도, 무게, 중력가속도 등에 관한 것일 수 있다. 배경 이미지는 동적인 혹은 입체적인 특성을 갖는 객체를 포함함으로써, 동적 혹은 입체적인 느낌을 제공할 수 있다. 본 발명의 일 실시예에 따르면 특정 객체에 대한 물리적 정보에 기초하여 입체적 혹은 동적 효과를 갖는 결과 컨텐츠를 생성할 수 있다.Alternatively, the background image may include physical information about the object, and the physical information may relate to the coordinates, direction, speed, weight, gravitational acceleration, etc. of the specific object. The background image may include a dynamic or stereoscopic object, thereby providing a dynamic or stereoscopic feel. According to an embodiment of the present invention, it is possible to generate a resultant content having stereoscopic or dynamic effects based on physical information of a specific object.

또한, 배경 이미지는 360도 배경 이미지 또는 동영상을 포함할 수 있다. 360도 배경 이미지는 소정의 기준 위치에서 바라볼 때, 소정의 일 면 상에서 360도 방향에 배치될 수 있는 배경에 대한 정보(배경색, 테마, 배경 이미지 등)를 포함할 수 있다. 또는, 360도 배경 이미지는 소정의 기준 위치에서 바라볼 때, 소정의 일 면 상에서 정의되는 제1 각도, 및 상기 소정의 일 면과 직교하는 소정의 타 면 상에서 정의되는 제2 각도에 의해 결정될 수 있는 방향에 배치될 수 있는 배경에 대한 정보를 포함할 수 있다. 360도 배경 이미지는 가상 현실(virtual reality) 또는 증강 현실(augmented reality) 기기에서 사용될 수 있는 배경 이미지일 수 있다.In addition, the background image may include a 360 degree background image or a moving image. The 360-degree background image may include information (background color, theme, background image, etc.) about the background that can be arranged in a 360-degree direction on a predetermined one side when viewed from a predetermined reference position. Alternatively, the 360-degree background image can be determined by a first angle defined on a given plane when viewed from a predetermined reference position, and a second angle defined on a predetermined other plane orthogonal to the given plane And may include information on a background that can be placed in a certain direction. The 360 degree background image can be a background image that can be used in a virtual reality or augmented reality device.

또한, 데이터베이스(150)는 본 발명의 일 실시예에 따라 관리자 단말(200)에 의해 등록되거나 컨텐츠 제작 장치(100)에 의해 제작된 하나 이상의 효과 컨텐츠를 저장한다. 효과 컨텐츠는 2차원으로 구현된 다양한 컨텐츠, 2차원으로 구현된 컨텐츠에 동적인 움직임을 포함하는 컨텐츠, 3차원으로 구현되거나 360도 영상으로 구현된 효과 컨텐츠를 포함할 수 있다.In addition, the database 150 stores one or more effect contents that are registered by the administrator terminal 200 or produced by the content production apparatus 100 according to an embodiment of the present invention. The effect content may include various contents implemented in two dimensions, contents including dynamic movement in contents implemented in two dimensions, effect contents implemented in three dimensions or 360 degrees images.

본 발명에서 효과 컨텐츠는, 대상 이미지와 함께 또는 중첩되어 표시될 수 있다. 본 발명에서의 효과 컨텐츠는 바람직하게는 입체적으로 구현된 컨텐츠를 포함할 수 있다. 효과 컨텐츠는 점, 선, 면, 도형 등의 객체들을 포함할 수 있다. 효과 컨텐츠는 점, 선, 면, 도형 등의 객체의 배치, 형태, 모양 등을 조절, 변경하여 입체감을 표현할 수 있다. 구체적인 예를 들면, 효과 컨텐츠는 예를 들면, 불꽃, 섬광, 날씨 효과 등이나 움직임을 표현하기 위한 보조선 등을 포함할 수 있다.In the present invention, the effect contents can be displayed together with the target image or superimposed. The effect contents in the present invention may preferably include contents embodied in three dimensions. The effect content may include objects such as points, lines, faces, graphics, and the like. The effect contents can express a three-dimensional effect by adjusting and changing the arrangement, shape, and shape of objects such as points, lines, faces, and graphics. For example, the effect contents may include, for example, sparks, flashes, weather effects, etc., or auxiliary lines for expressing movements.

보다 구체적으로, 효과 컨텐츠는 동적 혹은 입체적인 느낌을 주기 위한 하나 이상의 객체를 포함할 수 있다. 또한, 효과 컨텐츠는 객체에 대한 이미지, 기하학적 도형 또는 물리적 정보를 포함할 수 있다. 먼저, 객체에 대한 이미지는 2D 혹은 3D 이미지일 수 있다.More specifically, the effect content may include one or more objects for imparting a dynamic or stereoscopic feel. In addition, the effect content may include images, geometric figures or physical information about the object. First, the image for the object may be a 2D or 3D image.

또한, 효과 컨텐츠에 포함된 객체에 대한 기하학적 도형은 점, 선, 면, 또는 다양한 기하학적 도형일 수 있으며, 기하학적 도형은 각각이 시각적 효과를 나타낼 수 있다. 본 발명의 컨텐츠 제작 장치(100)는 하나 이상의 점, 선, 면, 또는 다양한 기하학적 도형들 각각에 대해 다양한 고정 값 또는 변수를 부여할 수 있다. 예를 들어, 컨텐츠 제작 장치(100)가 부여한 값에 의해, 하나 이상의 점, 선, 면, 또는 다양한 기하학적 도형들은 각각의 무게, 질량, 크기, 부피, 형태, 위치, 속도, 이동 방향 등에 소정의 고정 값, 소정의 수식에 의하여 결정된 값, 또는 랜덤한 임의의 값을 속성으로 가질 수 있다. 또한, 컨텐츠 제작 장치(100)는 소정의 시간 경과에 따라서 하나 이상의 점, 선, 면, 또는 다양한 기하학적 도형들 각각의 무게, 질량, 크기, 부피, 형태, 위치, 속도, 이동 방향 등을 변화시킬 수 있다. 컨텐츠 제작 장치(100)는 소정의 고정 값, 소정의 수식, 또는 랜덤 값에 기초하여 하나 이상의 점, 선, 면, 또는 다양한 기하학적 도형들 각각의 무게, 질량, 크기, 부피, 형태, 위치, 속도, 이동 방향 등을 변화시킬 수 있다.Also, the geometric shapes for the objects included in the effect content may be points, lines, faces, or various geometric shapes, and each geometric shape may exhibit visual effects. The content production apparatus 100 of the present invention may provide various fixed values or variables for one or more points, lines, faces, or various geometric shapes. For example, one or more points, lines, faces, or various geometrical figures may be determined according to the values given by the content production apparatus 100, such as the weight, mass, size, volume, shape, position, A fixed value, a value determined by a predetermined formula, or a random arbitrary value. Also, the content production apparatus 100 may change the weight, mass, size, volume, shape, position, speed, moving direction, etc. of one or more points, lines, faces, or various geometrical figures . The content production apparatus 100 may calculate a weight, a mass, a size, a volume, a shape, a position, a velocity, a velocity, a radius, and the like of each of one or more points, lines, , The direction of movement, and the like.

또한, 효과 컨텐츠에 포함된 객체에 대한 물리적 정보는 객체와 대응되는 설정값을 포함할 수 있다. 물리적 정보는 예를 들어, 객체가 위치하는 좌표(상대적 또는 절대적), 객체의 이동방향, 객체의 속도, 객체의 무게, 객체의 중력가속도 중 적어도 하나가 포함될 수 있다. In addition, the physical information about the object included in the effect content may include a setting value corresponding to the object. The physical information may include at least one of, for example, the coordinates (relative or absolute) at which the object is located, the direction of movement of the object, the velocity of the object, the weight of the object, and the gravitational acceleration of the object.

한편, 효과 컨텐츠는 대상 이미지에 대한 설명(description)이나 대사, 자막(subtitles, caption, speech bubble) 객체를 포함 할 수 있다. 만화나 웹툰 컨텐츠를 제작할 때, 컨텐츠 제작 장치(100)는 자막, 대사, 말풍선 객체를 독립적으로 제어되는 별도의 효과 컨텐츠로 설정할 수 있다. 컨텐츠 제작 장치(100)는 자막, 대사, 말풍선 객체를 독립적인 컨텐츠로 설정함으로써, 사용자 맞춤의 언어 변경, 폰트 변경 등 컨텐츠 변경을 용이하게 할 수 있다는 장점이 있다.On the other hand, the effect contents may include a description, a subtitle, a caption, and a speech bubble object of the target image. When producing cartoon or webtoon contents, the content production apparatus 100 may set subtitle, dialogue, and speech balloon objects as separate effect contents to be independently controlled. The content production apparatus 100 has an advantage in that contents can be easily changed, such as changing a user-customized language, changing a font, etc., by setting caption, dialogue, and speech balloon objects as independent contents.

또한, 본 발명의 실시예에 따르면, 하나 이상의 효과 컨텐츠가 대상 이미지에 합성될 수 있으며, 효과 컨텐츠의 객체는 대상 이미지에 포함된 객체에 따라 다르게 변형될 수 있다. 예를 들어, 섬광 객체를 포함하는 효과 컨텐츠에 있어서, 사용자에게 더 높은 입체감을 주기 위해서, 대상 이미지에 포함된 객체의 크기, 형태 등에 따라 섬광 객체의 크기, 색상, 형태 등이 다르게 표현할 수 있다.Also, according to an embodiment of the present invention, one or more effect contents may be composited into a target image, and an object of the effect content may be modified differently depending on an object included in the target image. For example, in order to provide a higher stereoscopic effect to the user in the effect content including the scintillation object, the size, color, shape, and the like of the scintillation object may be expressed differently according to the size, shape, and the like of the object included in the target image.

또한, 데이터베이스(150)는 본 발명의 일 실시예에 따라 생성된 하나 이상의 결과 컨텐츠를 저장한다. 결과 컨텐츠는 대상 이미지와, 배경 이미지 및 효과 컨텐츠 중 하나 이상의 합성 컨텐츠를 합성하여 생성된 컨텐츠로서, 결과 컨텐츠에 대해서는 프로세서(140)의 상세 구성과 관련하여 후술하기로 한다.Also, the database 150 stores one or more resultant content generated according to one embodiment of the present invention. The resulting content is a content generated by compositing at least one of the target image, the background image, and the effect content, and the resulting content will be described later with respect to the detailed configuration of the processor 140. [

통신부(160)는 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다.The communication unit 160 may be a device including hardware and software necessary for transmitting / receiving a signal such as a control signal or a data signal through a wired / wireless connection with another network device.

다음으로, 프로세서(140)의 내부 구성을 살펴보면, 프로세서(140)는 대상 이미지 선택부(141), 합성 컨텐츠 결정부(142) 및 결과 컨텐츠 생성부(143)를 포함할 수 있다. 프로세서(140)는 본 발명의 컨텐츠 제작 방법을 수행하기 위해 동작할 수 있다. 이하에서는, 프로세서(140)의 각 구성을 중심으로 컨텐츠 제작 방법에 대해 보다 상세히 살펴보기로 한다.The processor 140 may include a target image selecting unit 141, a synthesized content determining unit 142, and a result content generating unit 143. [ The processor 140 may operate to perform the content creation method of the present invention. Hereinafter, a content production method will be described in detail with reference to each configuration of the processor 140. [

도 3 은 본 발명의 일 실시예에 따른 컨텐츠 제작 방법을 시계열적으로 나타낸 순서도이다.3 is a time-sequentially flowchart illustrating a content production method according to an embodiment of the present invention.

도 3 을 참조하면, 본 발명의 일 실시예에 따른 컨텐츠 제작 방법은 대상 이미지를 선택하는 단계(S20), 배경 이미지 및/또는 효과 컨텐츠를 포함하는 합성 컨텐츠를 결정하는 단계(S30), 결과 컨텐츠를 생성하는 단계(S40)를 포함할 수 있다. 또한, 본 발명의 일 실시예에 따른 컨텐츠 제작 방법은 대상 이미지, 배경 이미지 및 효과 컨텐츠를 포함하는 다수의 컨텐츠 목록을 등록하는 단계(S10)를 선행적으로 더 포함할 수 있다.Referring to FIG. 3, a content production method according to an exemplary embodiment of the present invention includes a step S20 of selecting a target image, a step S30 of determining a composite content including a background image and / or an effect content, (S40). ≪ RTI ID = 0.0 > In addition, the content production method according to an embodiment of the present invention may further include a step S10 of registering a plurality of content lists including a target image, a background image, and effect content.

먼저, 컨텐츠 제작 장치(100)는 대상 이미지 및 합성 컨텐츠를 포함하는 컨텐츠 목록을 등록하는 단계(S10)를 수행할 수 있다. 컨텐츠 목록에는 하나 이상의 대상 이미지, 배경 이미지 및 효과 컨텐츠들이 포함될 수 있다. 컨텐츠 제작 장치(100)는 컨텐츠를 제작하는 과정에서 사용될 수 있는 하나 이상의 컨텐츠들을 컨텐츠 제작 장치 내부의 데이터베이스 또는 외부에 존재하는 저장 장치에 등록할 수 있다. 이때, 컨텐츠 목록은 관리자 단말(200)로부터의 입력에 의해 등록될 수 있으며, 컨텐츠 제작 장치(100)가 제공하는 소정의 소프트웨어는 컨텐츠 목록을 등록할 수 있는 인터페이스를 제1 출력 제어부(121)를 통해 제공할 수 있다. 또한, 소정의 소프트웨어는 등록된 컨텐츠 중 대상 이미지의 순서를 정할 수 있는 인터페이스를 제공할 수 있다. First, the content production apparatus 100 may perform a step S10 of registering a content list including a target image and synthesized content. The content list may include one or more target images, background images, and effect content. The content production apparatus 100 may register one or more contents that can be used in the process of producing contents in a database inside the content production apparatus or in a storage device existing outside. At this time, the content list may be registered by input from the administrator terminal 200, and predetermined software provided by the content production apparatus 100 may include an interface for registering the content list to the first output control unit 121 . In addition, the predetermined software may provide an interface capable of determining the order of the target images among the registered contents.

다음으로, 대상 이미지 선택부(141)는 대상 이미지를 선택하는 단계(S20)를 수행할 수 있다. 본 발명의 일실시예에 따르면, 등록된 컨텐츠 목록에 포함되는 하나 이상의 대상 이미지들 중에서 컨텐츠의 제작 과정에서 사용할 적어도 하나의 대상 이미지를 선택할 수 있다. 대상 이미지 선택부(141)는 대상 이미지를 선택하는 제1 신호를 관리자 단말(200)로부터 수신할 수 있다. 이때, 컨텐츠 제작 장치(100)는 대상 이미지를 선택할 수 있는 소정의 인터페이스를 제1 출력 제어부(121)를 통해 관리자 단말(200)에 제공할 수 있다.Next, the target image selection unit 141 may perform a step S20 of selecting a target image. According to an embodiment of the present invention, at least one target image to be used in the process of producing the content may be selected from one or more target images included in the registered content list. The target image selection unit 141 can receive a first signal from the administrator terminal 200 to select a target image. At this time, the content production apparatus 100 may provide a predetermined interface through which the target image can be selected to the administrator terminal 200 through the first output control unit 121. [

다음으로, 합성 컨텐츠 결정부(142)는 배경 이미지 및/또는 효과 컨텐츠 포함하는 합성 컨텐츠를 결정하는 단계(S30)를 수행할 수 있다. 컨텐츠 제작 장치(100)는 선택된 대상 이미지에 합성될 배경 이미지 및/또는 효과 컨텐츠를 관리자 단말(200)로부터의 입력에 따라 결정할 수 있다. 또한, 컨텐츠 제작 장치(100)는 선택된 이미지에 추가될 배경 이미지 및/또는 효과 컨텐츠를 선택된 대상 이미지를 분석한 결과를 이용하여 결정할 수 있다.Next, the composite content determination unit 142 may perform the step S30 of determining the composite content including the background image and / or the effect content. The content production apparatus 100 may determine a background image and / or an effect content to be synthesized on the selected target image according to an input from the administrator terminal 200. [ In addition, the content production apparatus 100 may determine the background image and / or effect content to be added to the selected image using the result of analyzing the selected target image.

보다 상세히, 합성 컨텐츠 결정부(142)가 결정하는 합성 컨텐츠는 대상 이미지와 합성되어 결과 컨텐츠에 입체적 혹은 동적 효과를 부여할 수 있는 특정 객체를 포함하며, 합성 컨텐츠는 특정 객체에 대한 이미지, 기하학적 도형 및 물리적 정보 중 하나 이상을 포함할 수 있다. 특정 객체에 대한 이미지는 특정 객체를 나타내는 2D 혹은 3D 이미지일 수 있다. 특정 객체에 대한 기하학적 도형은 특정 객체를 나타내는 점, 선, 면 등 다양한 기하학적 도형이며, 각 도형들은 각각의 무게, 질량, 크기, 부피, 형태, 위치, 속도, 이동 방향 등에 소정의 고정 값, 소정의 수식에 의하여 결정된 값, 또는 랜덤한 임의의 값을 가질 수 있다. 또한, 특정 객체에 대한 물리적 정보는 특정 객체의 좌표, 이동방향, 속도, 무게, 중력가속도 등일 수 있다.More specifically, the composite content determined by the composite content determination unit 142 includes a specific object that can be combined with the target image and impart stereoscopic or dynamic effects to the resultant content. The composite content includes an image for a specific object, And physical information. An image for a particular object may be a 2D or 3D image representing a particular object. A geometric figure for a specific object is a variety of geometric figures such as points, lines, and faces that represent a specific object. Each figure may have a predetermined fixed value such as weight, mass, size, volume, shape, position, , Or a random random value. In addition, the physical information for a particular object may be the coordinates, direction, speed, weight, gravitational acceleration, etc. of the particular object.

합성 컨텐츠 결정부(142)는 대상 이미지를 분석하여 이미지의 특징을 확인할 수 있다. 컨텐츠 제작 장치(100)는 확인한 대상 이미지의 특징을 기초로 대상 이미지에 합성할 효과 컨텐츠, 배경 이미지 및/또는 기타 시각적 효과 컨텐츠를 합성 컨텐츠로서 결정할 수 있다. 보다 구체적으로 컨텐츠 제작 장치(100)는 이미지의 적어도 일 영역의 명도, 채도, 색상 등을 기초로 하여 대상 이미지에 합성할 합성 컨텐츠를 결정할 수 있다. 예를 들어, 컨텐츠 제작 장치(100)는 이미지의 가장자리 부분의 색상을 분석하여, 분석한 해당 색상에 대응하는 날씨 객체를 포함하는 배경 이미지 및/또는 효과 컨텐츠를 컨텐츠에 합성할 합성 컨텐츠로 결정할 수 있다. 다른 예시로, 컨텐츠 제작 장치(100)는 이미지에 등장하는 등장 인물의 특징을 분석하여, 분석한 등장 인물의 특징에 대응하는 객체를 포함하는 배경 이미지 및/또는 효과 컨텐츠를 합성할 합성 컨텐츠로 결정할 수 있다.The composite content determination unit 142 may analyze the target image to check the characteristics of the image. The content production apparatus 100 may determine, as synthesized contents, effect contents, background images, and / or other visual effect contents to be synthesized on the target image based on the characteristics of the checked target image. More specifically, the content production apparatus 100 can determine the synthesized content to be synthesized in the target image based on brightness, saturation, color, and the like of at least one area of the image. For example, the content production apparatus 100 may analyze the color of the edge portion of the image and determine the background image including the weather object corresponding to the analyzed color and / or the synthesized content to be synthesized into the content have. In another example, the content production apparatus 100 may analyze the characteristics of a character appearing in the image, and determine the background image and / or the effect content including the object corresponding to the character of the analyzed character as synthesized content to be synthesized .

보다 상세히, 합성 컨텐츠 결정부(142)는 관리자 단말(200)로부터 획득된 입력에 기초하여 또는 대상 이미지를 분석하여 필요한 배경 이미지를 합성 컨텐츠로 결정할 수 있다. 예시로, 합성 컨텐츠 결정부(142)는 대상 이미지의 배경 색상을 분석하여, 배경 색상 객체를 포함하는 배경 이미지를 합성 컨텐츠로서 결정할 수 있다. 다른 예시로, 컨텐츠 제작 장치(100)는 대상 이미지의 배경 색 뿐만 아니라 전체적인 환경을 분석하여, 환경 객체를 포함하는 배경 이미지를 합성 컨텐츠로서 결정할 수 있다. 구체적인 예시로, 합성 컨텐츠 결정부(142)는 대상 이미지 내에 하늘이 있는 경우 하늘 객체를 포함하는 배경 이미지를, 이미지 내에 바다가 있는 경우 바다 객체를 포함하는 배경 이미지를 선택하고, 해당 배경 이미지를 합성 컨텐츠로 결정할 수 있다. 다른 예시로, 합성 컨텐츠 결정부(142)는 대상 이미지의 내용을 분석하여, 대상 이미지가 행성에 대한 것인 경우 우주 객체를 포함하는 배경 이미지를, 대상 이미지가 밤에 일어나는 상황에 대한 것이라면 밤하늘 객체를 포함하는 배경 이미지를 합성 컨텐츠로 결정할 수 있다.In more detail, the composite content determination unit 142 may determine a necessary background image as composite content based on the input obtained from the administrator terminal 200 or by analyzing the target image. For example, the composite content determination unit 142 may analyze the background color of the target image to determine a background image including the background color object as composite content. In another example, the content production apparatus 100 may analyze the overall environment as well as the background color of the target image, and determine the background image including the environment object as the composite content. As a concrete example, the composite content determination unit 142 selects a background image including a sky object when there is a sky in the target image, a background image including a sea object when there is a sea in the image, The content can be determined. In another example, the composite content determination unit 142 analyzes the content of the target image to determine a background image including a space object, if the target image is for a planet, Can be determined as the synthesized content.

또한, 합성 컨텐츠 결정부(142)는 관리자 단말(200)로부터 획득된 입력 또는 대상 이미지를 분석한 결과를 이용하여 효과 컨텐츠를 결정할 수 있다. 이때, 효과 컨텐츠가 결정된 후에 합성 컨텐츠 결정부(142)는 대상 이미지를 분석한 결과를 이용하여 대상 이미지 및 효과 컨텐츠 사이의 상호 작용과 대응되는 컨텐츠, 설정값 등을 생성, 산출할 수 있다. 여기서, 상호 작용은 이미지 및 사용자에 의해 선택된 효과 컨텐츠 사이의 작용 또는 반작용과 대응되는 것을 말한다. 예를 들어, 이동하는 자동차 및 비 내리는 효과 사이에는 이동하는 자동차에 의해 발생하는 물보라 객체가 상호 작용으로 생성될 수 있다. 또한, 오토바이가 포함된 대상 이미지 및 매우 빠른 속도로 이동하는 효과 컨텐츠 사이에는 상기 오토바이에 의해 발생하는 바람 또는 모래바람이 상호 작용으로 생성될 수 있다. 설정값은 소정의 수식에 의해 산출된 대상 이미지 또는 효과 컨텐츠의 무게, 질량, 크기, 부피, 형태, 위치, 속도, 이동 방향 등에 기초하여 결정되거나, 상기 산출된 대상 이미지 또는 효과 컨텐츠의 무게, 질량, 크기, 부피, 형태, 위치, 속도, 이동 방향 등의 변화에 의해 결정될 수 있다. In addition, the composite content determination unit 142 can determine the effect content using the result of analyzing the input image or the target image acquired from the administrator terminal 200. At this time, after the effect contents are determined, the composite contents determiner 142 can generate and calculate contents, setting values, and the like corresponding to the interaction between the target image and the effect contents using the result of analyzing the target image. Here, the interaction refers to an interaction or reaction between the image and the effect content selected by the user. For example, between a moving vehicle and a raining effect, a spray object generated by a moving vehicle can be generated interactively. Also, wind or sand wind generated by the motorcycle can be generated interactively between the target image including the motorcycle and the effect content moving at very high speed. The set value is determined based on the weight, mass, size, volume, shape, position, speed, moving direction, etc. of the target image or effect content calculated by a predetermined formula, , Size, volume, shape, position, speed, direction of movement, and the like.

마지막으로, S40에서 결과 컨텐츠 생성부(143)는 대상 이미지에 합성 컨텐츠를 합성한 결과 컨텐츠를 생성할 수 있다. 보다 상세히, 결과 컨텐츠 생성부(143)는 대상 이미지에 합성 컨텐츠를 결합, 조합, 추가하여 합성함으로써 결과 컨텐츠를 생성할 수 있다.Finally, in step S40, the result content generation unit 143 may generate content as a result of synthesizing the synthesized content with the target image. In more detail, the result content generation unit 143 may combine, combine, and add synthesized content to a target image to generate a resultant content.

보다 구체적으로, 본 발명의 일 실시예에 따르면 결과 컨텐츠 생성부(143)는 소정의 가상 공간을 설정하고, 가상 공간 상에 대상 이미지를 배치한 후, 합성 컨텐츠를 결합, 조합, 추가하여 합성함으로써 결과 컨텐츠를 생성할 수 있다. 이를 위해 결과 컨텐츠 생성부(143)는 가상 공간 상에서 소정의 기준 위치에서부터 대상 이미지까지의 거리, 대상 이미지가 소정의 기준 축과 이루는 각도 등을 결정함으로써 가상 공간에 대상 이미지가 배치될 위치를 결정할 수 있다.More specifically, according to an embodiment of the present invention, the result content generation unit 143 sets a predetermined virtual space, arranges target images on the virtual space, and combines, combines, The resulting content can be generated. To this end, the result content generation unit 143 may determine the position where the target image is placed in the virtual space by determining the distance from the predetermined reference position to the target image in the virtual space, the angle formed by the target image with the predetermined reference axis, have.

또한, 결과 컨텐츠 생성부(143)는 대상 이미지가 배치된 가상 공간 상에 배경 이미지 및/또는 효과 컨텐츠를 합성하여, 입체적 혹은 동적 효과를 갖는 결과 컨텐츠를 생성할 수 있다. 이때 결과 컨텐츠 생성부(143)는 합성 컨텐츠가 배치될 기준 위치를 결정할 수 있다. 결과 컨텐츠 생성부(143)는 가상 공간 상에서 소정의 기준 위치에서부터 합성 컨텐츠까지의 거리, 배경 이미지가 소정의 기준 축과 이루는 각도 등을 결정할 수 있다. 또한, 결과 컨텐츠 생성부(143)는 합성 컨텐츠의 가상 공간 상에서 대상 이미지에서부터의 상대적인 거리, 이미지 면과 이루는 각도 등에 기초하여 합성 컨텐츠가 배치될 위치를 결정할 수 있다. 이때, 가상 공간에 합성 컨텐츠가 배치될 위치는 관리자 단말(200)로부터의 입력에 기초할 수 있다. 선택적으로 결과 컨텐츠 생성부(143)는 효과 컨텐츠를 보정함으로써 입체적인 느낌을 생성할 수 있다. 컨텐츠 생성부(143)는 효과 컨텐츠를 구성하는 객체의 모양 및 형태, 위치 등을 조절함으로써, 입체감을 부여할 수 있다.In addition, the result content generation unit 143 may synthesize the background image and / or the effect content on the virtual space in which the target image is arranged, thereby generating the resultant content having a stereoscopic or dynamic effect. At this time, the result content generation unit 143 may determine the reference position where the synthesized content is to be placed. The result content generation unit 143 can determine the distance from the predetermined reference position to the synthesized content in the virtual space, the angle formed by the background image with the predetermined reference axis, and the like. In addition, the result content generating unit 143 may determine a position where the synthesized content is to be placed based on a relative distance from the target image, an angle with the image plane, and the like in the virtual space of the synthesized content. At this time, the location where the synthesized content is placed in the virtual space may be based on the input from the administrator terminal 200. [ Optionally, the result content creating section 143 can create a stereoscopic feeling by correcting the effect content. The content generation unit 143 can give a stereoscopic effect by adjusting the shape, the shape, and the position of the object constituting the effect content.

선택적 실시예에서, 결과 컨텐츠 생성부(143)는 대상 이미지, 배경 이미지, 효과 컨텐츠 중 적어도 하나를 분석한 결과를 이용하여 이미지의 설정값을 산출할 수 있다. 결과 컨텐츠 생성부(143)는 대상 이미지를 분석하여, 대상 이미지에 포함된 하나 이상의 객체를 추출하고, 추출된 하나 이상의 객체 각각의 무게, 질량, 크기, 부피, 형태 등을 소정의 수식에 의해서 결정하고, 하나 이상의 객체 각각의 무게, 질량, 크기, 부피, 형태 중 적어도 하나를 고려하여 대상 이미지의 설정값을 산출할 수 있다. 컨텐츠 생성부(143)는 대상 이미지의 설정값을 기초로 대상 이미지에 배경 이미지 및/또는 효과 컨텐츠를 합성할 수 있다. 결과 컨텐츠 생성부(143)는 는 대상 이미지의 설정값을 기초로 합성될 합성 컨텐츠의 위치 및 방향을 결정할 수 있다. In an alternative embodiment, the result content generation unit 143 may calculate the set value of the image using the result of analyzing at least one of the target image, the background image, and the effect content. The result content generation unit 143 analyzes the target image, extracts one or more objects included in the target image, and determines the weight, mass, size, volume, and shape of each of the extracted one or more objects by a predetermined formula And the set value of the target image can be calculated in consideration of at least one of the weight, mass, size, volume, and shape of each of the one or more objects. The content generation unit 143 may synthesize the background image and / or the effect content on the target image based on the set value of the target image. The result content generating unit 143 can determine the position and the direction of the synthesized content to be synthesized based on the set value of the target image.

선택적 실시예에서, 결과 컨텐츠 생성부(143)가 대상 이미지와 효과 컨텐츠 사이의 상호작용이 존재한다고 판단하는 경우, 결과 컨텐츠 생성부(143)는 상호작용과 대응되는 상호작용 객체를 포함하는 효과 컨텐츠를 생성된 결과 컨텐츠에 추가적으로 합성할 수 있다. 효과 컨텐츠 및 상호 작용과 대응되는 상호작용 객체를 포함하는 효과 컨텐츠는 생성된 결과 컨텐츠에 자연스럽게 합성될 수 있다. 이때, 효과 컨텐츠의 크기 및/또는 형태는 대상 이미지에 포함된 객체의 크기 및/또는 형태를 고려하여 변경될 수 있다. 상호 작용 객체를 포함하는 상호작용 효과 컨텐츠 역시 효과 컨텐츠 및/또는 대상 이미지에 따라 조절될 수 있다. 결과 컨텐츠 생성부(143)는 대상 이미지, 효과 컨텐츠, 상호작용 효과 컨텐츠가 전체적으로 입체적인 느낌을 가지도록 보정할 수 있다. 결과 컨텐츠 생성부(143)는 효과 컨텐츠, 상호작용 효과 컨텐츠에 음영 등의 부피감을 주거나 동적인 움직임을 부여할 수 있다. In an alternative embodiment, when the result content generation unit 143 determines that there is an interaction between the target image and the effect content, the result content generation unit 143 generates an effect content Can be additionally synthesized to the generated result content. The effect contents including the effect contents and the interaction objects corresponding to the interactions can be naturally synthesized into the generated result contents. At this time, the size and / or shape of the effect content may be changed in consideration of the size and / or shape of the object included in the target image. The interactive effect content including the interactive object may also be adjusted according to the effect content and / or the target image. The result content generating unit 143 may correct the target image, the effect content, and the interactive effect content to have a stereoscopic effect as a whole. The result content generation unit 143 may give a volume feeling or a dynamic motion to the effect content, the interactive effect content, and the like.

이러한 방법을 통하여, 컨텐츠 제작 장치(100)는 대상 이미지에 다양한 합성 컨텐츠를 합성함으로써, 입체적 혹은 동적 효과를 갖는 결과 컨텐츠를 제작할 수 있다. 생성된 결과 컨텐츠는 2D 대상 이미지를 포함하면서도 동적 또는 입체적인 느낌을 가질 수 있다. 결과 컨텐츠는 배경 이미지 및/또는 및 효과 컨텐츠에 포함된 객체의 입체감, 부피감으로 인해 입체적인 느낌이 생길 수도 있다.Through this method, the content production apparatus 100 can synthesize various synthesized contents into a target image, thereby producing result contents having stereoscopic or dynamic effects. The resulting content may contain a 2D object image and may have a dynamic or stereoscopic feel. The resultant content may have a stereoscopic effect due to the stereoscopic effect and the volume of the background image and / or the object included in the effect content.

한편, 본 발명의 일 실시예에 따라 제작된 결과 컨텐츠는 가상 현실(virtual reality) 또는 증강 현실(augmented reality)을 구현하는 기기에서 표시될 수 있는 이미지 컨텐츠일 수 있다. 나아가, 본 발명의 일 실시예에 따라 제작된 결과 컨텐츠는 다양한 디스플레이 장치에서 표시될 수 있는 이미지 컨텐츠일 수 있다. 본 발명의 일 실시예에 따라 제작된 결과 컨텐츠는 디스플레이 장치의 사양을 고려하여, 3차원 또는 2차원으로 표시될 수 있다. 이를 위해, 컨텐츠 제작 장치(100)는 생성한 결과 컨텐츠를 변형하여 수정 컨텐츠를 생성할 수 있다. 예를 들어, 컨텐츠 제작 장치(100)는 가상 현실(virtual reality) 또는 증강 현실(augmented reality)을 구현하는 기기에 표시될 수 있도록 결과 컨텐츠를 수정할 수 있다. 이때, 수정한 컨텐츠는 양안에 도시되는 영상의 위치 및/또는 색상 차이에 의하여 입체감을 느끼게 할 수 있는 3D용 이미지 컨텐츠일 수 있다.Meanwhile, the resultant content produced according to an exemplary embodiment of the present invention may be image content that can be displayed on a device that implements a virtual reality or augmented reality. Furthermore, the resultant content produced according to an exemplary embodiment of the present invention may be image content that can be displayed on various display devices. The resulting content produced according to one embodiment of the present invention may be displayed in three dimensions or two dimensions in consideration of the specification of the display device. To this end, the content production apparatus 100 may generate modified content by modifying the generated content. For example, the content production apparatus 100 may modify the resultant content so that it can be displayed on a device that implements virtual reality or augmented reality. At this time, the modified content may be image content for 3D that allows a three-dimensional feeling to be felt by the position and / or color difference of the image shown in both eyes.

도 4 내지 도 6 은 본 발명의 실시예들에 따른 컨텐츠 제작 방법의 구체적인 시계열적 흐름을 나타낸 흐름도들이다. FIGS. 4 to 6 are flowcharts illustrating a specific time-series flow of the content production method according to the embodiments of the present invention.

도 4 를 참조하면, 본 발명의 실시예들에 따른 컨텐츠 제작 방법은 관리자에 의해 대상 이미지를 선택하는 신호를 수신하는 단계(S110), 배경 이미지를 결정하는 단계(S120), 대상 이미지에 배경 이미지를 합성한 결과 컨텐츠를 생성하는 단계(S130)를 포함할 수 있다.Referring to FIG. 4, a content production method according to embodiments of the present invention includes a step S110 of receiving a signal for selecting a target image by an administrator, a step S120 of determining a background image, (S130) of generating a content as a result of synthesizing the content.

S110에서는 컨텐츠 제작 장치(100)는 관리자로부터 대상 이미지를 선택하는 신호를 수신한다. 컨텐츠 제작 장치(100)를 통해 제공되는 인터페이스에 의해 대상 이미지를 선택할 수 있는 신호가 생성될 수 있다.In S110, the content production apparatus 100 receives a signal for selecting a target image from an administrator. A signal capable of selecting a target image can be generated by an interface provided through the content production apparatus 100. [

S120에서는 컨텐츠 제작 장치(100)는 관리자의 입력에 따라 배경 이미지를 결정할 수 있다. 선택적으로 컨텐츠 제작 장치(100)는 관리자 입력에 따른 배경 이미지를 최적화된 다른 배경 이미지로 변경할 수 있다. 이때, 최적화된 다른 배경 이미지는 관리자에 의해 선택된 배경 이미지와 시각적으로 동일, 유사하게 인식될 수 있으면서 입체감을 좀더 표현하는 이미지일 수 있다. 혹은, 컨텐츠 제작 장치(100)는 선택된 대상 이미지를 분석한 결과를 이용하여 대상 이미지와 대응되는 동적 혹은 입체적으로 구현된 배경 이미지를 결정할 수도 있다.In S120, the content production apparatus 100 can determine the background image according to the input of the manager. Alternatively, the content production apparatus 100 may change the background image according to the manager input to another optimized background image. At this time, the optimized other background image may be visually the same as the background image selected by the administrator, or an image that can be similarly recognized and express a three-dimensional feeling more. Alternatively, the content production apparatus 100 may determine a dynamic or three-dimensionally implemented background image corresponding to the target image by using the result of analyzing the selected target image.

본 발명의 일 실시예에 따르면, 컨텐츠 제작 장치(100)는 소정의 가상 공간을 설정하고, 가상 공간을 전체적으로 배경 이미지로 채울 수 있다. 컨텐츠 제작 장치(100)는 소정의 가상 공간 내에 대상 이미지를 배치시켜 결과 컨텐츠를 생성할 수 있다. 컨텐츠 제작 장치(100)는 가상 공간 또는 배경 이미지 내에서 대상 이미지가 너무 도드라지지 않도록 이미지의 경계를 자연스럽게 처리할 수도 있다. 또한, 컨텐츠 제작 장치(100)는 배경 이미지가 좀더 입체감을 가지도록 별도의 효과 컨텐츠를 더 합성할 수 있다. 별도의 효과 컨텐츠는 배경 이미지에 포함된 객체에 기초하여 결정될 수 있다. 예를 들어, 배경 이미지가 하늘 객체에 대한 하늘 이미지를 포함하는 경우, 별도의 효과 컨텐츠로서 구름 객체를 추가적으로 합성하여 결과 컨텐츠를 생성할 수 있다. 이때, 별도의 효과 컨텐츠는 소정의 주기로 소정의 정도로 움직이는 움직임(애니메이션 효과) 또는 랜덤한 움직임을 가질 수 있다. 물론, 결과 컨텐츠는 관리자에 의해 선택된 효과 컨텐츠를 더 포함할 수도 있다. According to an embodiment of the present invention, the content production apparatus 100 may set a predetermined virtual space and fill the virtual space with the background image as a whole. The content production apparatus 100 can generate a resultant content by arranging a target image in a predetermined virtual space. The content production apparatus 100 may smoothly process the boundary of the image so that the target image is not too crowded within the virtual space or the background image. In addition, the content production apparatus 100 may further synthesize additional effect contents so that the background image has a more three-dimensional effect. The separate effect content can be determined based on the object included in the background image. For example, if the background image includes a sky image for the sky object, then the cloud object may be additionally synthesized as separate effect content to produce the resulting content. At this time, the separate effect contents may have a movement (animation effect) or a random movement to move to a predetermined degree in a predetermined cycle. Of course, the resulting content may further include the effect content selected by the administrator.

이를 통해, 본 발명의 실시예들에 따른 컨텐츠 제작 장치(100)는 이미지를 입체적으로 제공하기 위해서, 이미지를 입체적으로 변환하지 않고, 입체적으로 구현되거나 동적인 움직임을 가지는 배경 이미지와 대상 이미지를 합성하여 입체적인 결과 컨텐츠를 생성할 수 있다. 본 발명의 일 실시예에 따르면 합성되는 배경 이미지가 반드시 입체적이지 않더라도, 대상 이미지와의 합성에 의해 결과 이미지에 전체적으로 입체적인 효과를 부여할 수 있다. 추가적으로, 본 발명의 실시예들에 따른 컨텐츠 제작 장치(100)는 생성된 결과 컨텐츠로부터 가상 현실 또는 증강 현실을 구현하는 기기에 표시될 수 있는 수정 컨텐츠를 생성하는 단계를 더 수행할 수 있다. Accordingly, the content production apparatus 100 according to the embodiments of the present invention synthesizes the background image and the target image, which are three-dimensionally implemented or dynamic motion, without stereoscopically converting the image, in order to stereoscopically provide the image So that stereoscopic result contents can be generated. According to an embodiment of the present invention, even if the background image to be synthesized is not stereoscopic, stereoscopic effects can be imparted to the resulting image by synthesis with the target image. In addition, the content production apparatus 100 according to the embodiments of the present invention may further perform the step of generating modified content that can be displayed on a device that implements a virtual reality or augmented reality from the generated resultant content.

도 5 를 참조하면, 본 발명의 실시예들에 따른 컨텐츠 생성 방법은 관리자로부터 대상 이미지를 선택하는 신호를 수신하는 단계(S210), 대상 이미지에 대한 효과 컨텐츠를 결정하는 단계 (S220), 대상 이미지에 효과 컨텐츠를 합성한 결과 컨텐츠를 생성하는 단계(S230), 생성된 결과 컨텐츠를 입체적으로 변경하는 단계(S240)를 포함할 수 있다. Referring to FIG. 5, a content generation method according to embodiments of the present invention includes a step S210 of receiving a signal for selecting a target image from an administrator, a step S220 of determining an effect content for a target image, A result of synthesizing the effect contents with the effect contents S230, and a step S240 of changing the generated result contents stereoscopically.

S210에서 컨텐츠 제작 장치(100)는 관리자로부터 이미지를 선택하는 신호를 수신할 수 있다. 컨텐츠 제작 장치(100)를 통해 제공되는 인터페이스에 의해 대상 이미지를 선택할 수 있는 신호가 생성될 수 있다. In S210, the content production apparatus 100 may receive a signal for selecting an image from an administrator. A signal capable of selecting a target image can be generated by an interface provided through the content production apparatus 100. [

S220에서 컨텐츠 제작 장치(100)는 관리자의 입력에 따라 효과 컨텐츠를 결정할 수 있다. 컨텐츠 제작 장치(100)는 관리자에 의해 획득된 입력에 따라 효과 컨텐츠를 선택, 결정할 수 있다. 혹은, 컨텐츠 제작 장치(100)는 선택된 대상 이미지를 분석한 결과를 이용하여 대상 이미지와 대응되는 동적 혹은 입체적으로 구현된 효과 컨텐츠를 결정할 수도 있다.In S220, the content production apparatus 100 may determine the effect content according to the input of the manager. The content production apparatus 100 can select and determine the effect content according to the input obtained by the manager. Alternatively, the content production apparatus 100 may determine the dynamic or stereoscopically implemented effect content corresponding to the target image by using the result of analyzing the selected target image.

S230에서 컨텐츠 제작 장치(100)는 대상 이미지에 효과 컨텐츠를 합성한 결과 컨텐츠를 생성할 수 있다. 컨텐츠 제작 장치(100)는 입체감이 있는 효과 컨텐츠를 대상 이미지에 합성함으로써 입체감 있는 결과 컨텐츠를 생성할 수 있다. 컨텐츠 제작 장치(100)는 동적인 움직임을 가지는 효과 컨텐츠를 대상 이미지에 합성함으로써 동적으로 움직이는 효과를 가지는 결과 컨텐츠를 생성할 수 있다. In S230, the content production apparatus 100 may generate content as a result of combining effect contents with the target image. The content production apparatus 100 can generate three-dimensional result contents by synthesizing the three-dimensional effect contents with the target image. The content production apparatus 100 can generate the resultant content having a dynamically moving effect by composing the effect content having the dynamic motion to the target image.

컨텐츠 제작 장치(100)는 효과 컨텐츠를 합성한 이후에 생성된 결과 컨텐츠에 입체적인 느낌을 추가하여 결과 컨텐츠를 입체적으로 변경하는 보정을 수행할 수 있다(S240). 예를 들어, 컨텐츠 제작 장치(100)에 의해 생성된 결과 컨텐츠는 입체적인 느낌을 가지기 위해서 소정의 배경색 또는 배경 이미지로 채워진 가상 공간, 가상 현실 내에 포함될 수 있다. 컨텐츠 제작 장치(100)는 대상 이미지 및 효과 컨텐츠 이외에 움직이는 것으로 인식될 수 있는 선을 추가하거나, 대상 이미지 및 효과 컨텐츠에 포함된 선을 곡선 처리 하거나, 대상 이미지 및 효과 컨텐츠에 포함된 도형 등의 사이즈를 조절함으로써 입체적인 느낌을 부가시킬 수 있다. 또한, 컨텐츠 제작 장치(100)는 각 가상 공간 또는 가상 현실을 제공하는 장치를 통해 구현, 제공 또는 최적화되도록 결과 컨텐츠의 형식 등을 변경할 수도 있다. The content production apparatus 100 may perform a correction to change the resultant content in a three-dimensional manner by adding a three-dimensional feeling to the resultant content generated after synthesizing the effected content (S240). For example, the resultant content generated by the content production apparatus 100 may be included in a virtual space, a virtual reality, which is filled with a predetermined background color or a background image so as to have a three-dimensional feel. The content production apparatus 100 may add a line that can be recognized as moving in addition to the target image and the effect content, curve a line included in the target image and the effect content, A three-dimensional feeling can be added. Also, the content production apparatus 100 may change the format of the resultant content to be implemented, provided, or optimized through the device providing each virtual space or virtual reality.

이를 통해, 본 발명의 실시예들에 따른 컨텐츠 제작 장치(100)는 입력된 대상 이미지 및 선택된 효과 컨텐츠를 동적이고 입체감이 있는 결과 컨텐츠로 제공할 수 있다. Accordingly, the content production apparatus 100 according to the embodiments of the present invention can provide the input target image and the selected effect content as dynamic and three-dimensional result contents.

도 6 은 컨텐츠 생성 장치(100)에 의해 관리자에 의해 선택된 대상 이미지들에 배경 이미지를 추가하는 실시예를 설명하기 위한 흐름도이다. 6 is a flowchart for explaining an embodiment of adding a background image to target images selected by the administrator by the content generation apparatus 100. [

도 6 을 참조하면, 본 발명의 실시예들에 따른 컨텐츠 생성 방법은 관리자에 의해 제1 대상 이미지 및 제2 대상 이미지를 선택하는 신호를 수신하는 단계(S310), 제1 및 제2 대상 이미지들과 대응되는 배경 이미지를 결정하는 단계(S320), 제1 대상 이미지와 대응되는 제1 배경 이미지 및 제2 대상 이미지와 대응되는 제2 배경 이미지가 동일한지 여부를 판단하는 단계(S330), 배경 이미지들이 서로 동일한 경우, 제1 및 제2 대상 이미지들을 모두 하나의 제1 배경 이미지와 합성하여 제1 및 제2 결과 컨텐츠를 생성하는 단계(S340)를 포함할 수 있다. 배경 이미지들이 서로 상이한 경우, 제1 및 제2 대상 이미지 각각을 제1 및 제2 배경 이미지와 합성하여 결과 컨텐츠를 생성하는 단계(S350)를 포함할 수 있다. S320에서 컨텐츠 제작 장치(100)는 관리자 입력을 이용하여 제1 및 제2 이미지와 대응되는 배경 이미지들을 각각 선택할 수 있다. Referring to FIG. 6, a content generation method according to embodiments of the present invention includes receiving (S310) a signal for selecting a first target image and a second target image by an administrator (S310) (S330) of determining whether the first background image corresponding to the first target image and the second background image corresponding to the second target image are the same (S330) (S340) of synthesizing the first and second target images together with one first background image to generate first and second resultant contents, if they are equal to each other. And combining the first and second target images with the first and second background images, respectively, if the background images are different from each other (S350). In step S320, the content production apparatus 100 can select the background images corresponding to the first and second images using the manager input, respectively.

S330에서는 컨텐츠 제작 장치(100)는 제1 대상 이미지와 대응되는 제1 배경 이미지 및 제2 대상 이미지와 대응되는 제2 배경 이미지가 동일한지 여부를 판단할 수 있다. 예를 들면, 컨텐츠 제작 장치(100)는 배경 이미지에게 부여된 인덱스를 비교함으로써, 배경 이미지들 사이의 동일 여부를 판단할 수 있다. 컨텐츠 제작 장치(100)는 배경 이미지에 포함된 객체의 동일 여부를 통해 배경 이미지들 사이의 동일 여부를 판단할 수 있다. 이때, 컨텐츠 제작 장치(100)는 이미지 비교 알고리즘을 이용할 수 있다. 제1 및 제2 배경 이미지가 완전히 동일하지 않다고 하더라도 동일한 객체를 포함하거나 소정의 임계 비율 이상으로 일치하는 경우, 동일하다고 판단할 수 있다. In S330, the content production apparatus 100 may determine whether the first background image corresponding to the first target image and the second background image corresponding to the second target image are the same. For example, the content production apparatus 100 can determine whether the background images are the same by comparing the indexes assigned to the background images. The content production apparatus 100 may determine whether or not the background images are the same through the same objects included in the background image. At this time, the content production apparatus 100 may use an image comparison algorithm. Even if the first and second background images are not completely identical, they can be judged to be the same when the same object is included or coincides with a predetermined threshold ratio or more.

S340에서는 컨텐츠 제작 장치(100)는 배경 이미지들이 서로 동일한 경우, 제1 및 제2 이미지를 배경 이미지와 합성하여 결과 컨텐츠를 생성할 수 있다. 이때, 컨텐츠 제작 장치(100)는 제1 및 제2 대상 이미지 사이의 관계를 고려하여 제1 및 제2 대상 이미지의 배치를 결정할 수 있다. 여기서 관계는 관리자에 의해 설정되는 것으로, 제공되는 순서와 관련될 수도 있으며, 위치와 관련될 수도 있다. 보다 구체적으로 컨텐츠 제작 장치(100)는 제1 및 제2 대상 이미지 사이의 선후 관계를 고려하여, 제1 및 제2 대상 이미지를 배치시키게 된다. 즉, 배경 이미지 상에서, 기준 위치로부터 먼저 제공되어야 하는 대상 이미지가 더 가깝게 인식, 표현되도록 컨텐츠를 생성할 수 있다. 컨텐츠 제작 장치(100)는 제1 및 제2 이미지에 포함된 객체들이 서로 동일한 경우에는 제1 대상 이미지에 포함된 제1 객체 및 제2 대상 이미지에 포함된 제1 객체 사이의 혼동을 방지하기 위해서 제1 이미지 및 제2 이미지를 중첩시켜 표현할 수 있다. In S340, if the background images are identical to each other, the content production apparatus 100 may generate the resultant content by combining the first and second images with the background image. At this time, the content production apparatus 100 may determine the arrangement of the first and second target images in consideration of the relationship between the first and second target images. Where the relationship is set by the administrator, may be related to the order in which it is provided, and may be related to the location. More specifically, the content production apparatus 100 arranges the first and second target images in consideration of the posterior relationship between the first and second target images. That is, on the background image, the content can be generated such that the target image to be provided first from the reference position is recognized and expressed more closely. In order to prevent confusion between the first object included in the first object image and the first object included in the second object image when the objects included in the first and second images are identical to each other, The first image and the second image can be superimposed on each other.

S350에서 컨텐츠 제작 장치(100)는 배경 이미지들이 상이한 경우, 제1 및 제2 대상 이미지를 각각 개별적으로 포함하는 컨텐츠들을 생성할 수 있다. In step S350, the content production apparatus 100 may generate contents that individually include the first and second target images, respectively, when the background images are different.

상기와 같이 복수의 이미지들을 입체적으로 제공하기 위해서, 컨텐츠 제작 장치(100)는 복수의 이미지들로부터 추출된 배경 이미지들에 따라 하나의 배경 이미지 상에서 복수의 대상 이미지들을 제공할 수 있다. In order to stereoscopically provide a plurality of images as described above, the content production apparatus 100 may provide a plurality of target images on one background image in accordance with the background images extracted from the plurality of images.

도 7 내지 도 11 은 컨텐츠 제작 장치에 의해 생성된 결과 컨텐츠들의 예시들이다. Figs. 7 to 11 are examples of the resultant contents generated by the content production apparatus.

도 7 에 도시된 바와 같이, 컨텐츠 제작 장치(100)는 가상 공간(VC) 상에서의 대상 이미지(img1)의 위치를 결정하고, 상기 결정된 위치에 상기 대상 이미지(img1)를 배치시킬 수 있다. 컨텐츠 제작 장치(100)는 기준 위치(base-point)로부터 소정의 수식에 따라 결정된 상기 이미지의 거리만큼 떨어진 위치에 상기 대상 이미지(img1)를 배치시키며, 관리자로부터의 입력 또는 소정의 수식에 따라 결정된 상기 이미지의 각도만큼 상기 대상 이미지(img1)의 방향을 회전시키게 된다. 이때, 이미지의 각도는 사용자의 시선 또는 각 이미지에 포함된 객체의 방향, 또는 위치를 고려하기도 한다. 예를 들어, 대상 이미지(img1)의 객체가 이미지 상에서 아래쪽에 위치하는 경우에는, 기준 위치를 포함하는 면을 기준으로, 음의 각도를 가지도록 배치시킬 수 있다. 객체가 이미지 상에서 위쪽에 위치하는 경우에는 기준 위치를 포함하는 면을 기준으로 양의 각도를 가지도록 배치시킬 수 있다. 7, the content production apparatus 100 may determine the position of the target image img1 in the virtual space VC and arrange the target image img1 in the determined position. The content production apparatus 100 arranges the target image img1 at a position distant from the base-point by a distance of the image determined according to a predetermined formula, And the direction of the target image img1 is rotated by the angle of the image. At this time, the angle of the image also considers the user's gaze or the direction or the position of the object included in each image. For example, when the object of the target image (img1) is located on the lower side of the image, it can be arranged to have a negative angle with respect to the plane including the reference position. When the object is located on the upper side of the image, it can be arranged to have a positive angle with respect to the plane including the reference position.

도 8 에 도시된 바와 같이, 컨텐츠 제작 장치(100)는 관리자에 의해 입력된 대상 이미지(img2)를 분석한 결과 또는 관리자로부터 획득된 입력을 이용하여, 대상 이미지(img2)에 포함된 차량 내부 객체(obj2)를 기준 위치에 배치시킬 수 있다.8, the content production apparatus 100 uses the result obtained by analyzing the target image img2 input by the administrator or the input obtained from the manager, (obj2) at the reference position.

또한, 컨텐츠 제작 장치(100)는 대상 이미지를 분석한 결과 또는 관리자로부터의 입력을 이용하여 대상 이미지의 배경 이미지(정확히는, 차량 내부에서 유리창을 통해 보이는 배경 이미지)로 밤하늘 객체을 포함하는 배경 이미지(bg21)를 선택, 결정할 수 있다. 이때, 배경 이미지(bg21)는 밤하늘 객체에 대한 밤하늘 이미지를 포함하여 결과 컨텐츠에 입체적 효과를 부여할 수 있고, 밤하늘 객체에 포함된 별이 이동함으로써 결과 컨텐츠에 동적 효과(예를 들어, 차량이 이동하는 효과)를 부여할 수 있다. 또한, 배경 이미지(bg21)는 밤하늘 이미지 및 별이 이동하는 속도 및 이동방향의 정보를 포함할 수 있다.In addition, the content production apparatus 100 generates a background image (bg21) including a star object in the background image of the target image (more precisely, a background image viewed through a window in the vehicle) as a result of analyzing the target image or using an input from the manager ) Can be selected and determined. At this time, the background image bg21 may include a night sky image for the night sky object to impart a stereoscopic effect to the resultant content, and may include a dynamic effect (for example, Effect) can be given. In addition, the background image bg21 may include the night sky image and information on the speed and direction of movement of the star.

또한, 대상 이미지에 포함된 차량 내부 객체(obj2)에 대한 이동 효과를 나타내기 위해서, 컨텐츠 제작 장치(100)는 대상 이미지(img2)를 분석한 결과 또는 관리자로부터의 입력을 이용하여 밤 하늘의 배경 이미지(bg21)에, 이동하는 효과를 나타내는 사선 객체를 포함하는 효과 컨텐츠(ef2)를 더 포함시킬 수 있다. 사선 객체는 선들로 이루어진 기하학적 도형 집합을 포함하며, 결과 컨텐츠에 동적인 효과를 부여할 수 있다.Also, in order to express the movement effect on the in-vehicle object obj2 included in the target image, the content production apparatus 100 may use the result of analyzing the target image (img2) The image bg21 may further include effect content ef2 including a slanting object indicating the moving effect. An oblique object contains a set of geometric shapes consisting of lines and can give a dynamic effect to the resulting content.

또한, 컨텐츠 제작 장치(100)는 대상 이미지(img2)를 분석한 결과 또는 관리자로부터의 입력을 이용하여, 도로 객체를 포함하는 배경 이미지(bg22)를 대상 이미지(img2)의 배경 이미지로 결정할 수 있다. 이때, 배경 이미지(b22)는 도로 객체에 대한 도로 이미지 및 물리적 정보를 포함할 수 있다. 도로 객체에 대한 도로 이미지는 결과 컨텐츠에 입체적 효과를 부여할 수 있고, 도로 객체에 대한 물리적 정보에 기초하여 가로수가 이동함으로써 결과 컨텐츠에 동적 효과를 부여할 수 있다.The content production apparatus 100 can also determine the background image bg22 including the road object as the background image of the target image img2 using the result of analyzing the target image img2 or the input from the manager . At this time, the background image b22 may include road images and physical information for the road object. The road image for the road object can give a stereoscopic effect to the resultant content, and dynamic effects can be imparted to the resulting content by moving the avenue based on the physical information about the road object.

또한, 대상 이미지(img2)의 상단은 밤하늘 객체을 포함하는 배경 이미지(bg21)가 배치되고, 대상 이미지(img2)의 하단은 도로 객체를 포함하는 배경 이미지(bg22)가 배치될 수 있다. 컨텐츠 제작 장치(100)는 관리자로부터의 입력 또는 이미지를 분석한 결과를 이용하여 복수의 배경 이미지들을 선택, 결정할 수 있다. 컨텐츠 제작 장치(100)는 복수의 배경 이미지들의 위치 관련 속성(하늘, 바다, 땅 등)을 고려하여, 해당 하나 이상의 배경 이미지의 배치 정보를 산출할 수 있다. 예시로, 배경 이미지는 가상 공간 내에서의 적당한 위치에 대상 이미지의 객체, 즉 도 8 의 실시예에서는 차량 내부 객체(obj2)를 기준으로 배치될 수 있다. The background image bg21 including the night sky object is disposed at the upper end of the target image img2 and the background image bg22 including the road object at the lower end of the target image img2 may be disposed. The content production apparatus 100 can select and determine a plurality of background images using a result of analyzing an input or image from an administrator. The content production apparatus 100 may calculate placement information of the one or more background images in consideration of location-related attributes (sky, sea, land, etc.) of a plurality of background images. By way of example, the background image may be positioned relative to an object of the target image at a suitable location within the virtual space, i.e., the vehicle interior object obj2 in the embodiment of FIG.

도 9 에 도시된 바와 같이, 컨텐츠 제작 장치(100)는 관리자에 의해 입력된 대상 이미지(img3)를 분석하고, 관리자로부터 획득된 입력 또는 대상 이미지(img3)를 분석한 결과를 이용하여 대상 이미지(img3)에 포함된 객체(자동차)(obj3)를 기준 위치에 배치시킬 수 있다. 컨텐츠 제작 장치(100)는 관리자로부터 획득된 입력 또는 대상 이미지(img3)를 분석한 결과를 이용하여 배경 이미지(bg3)를 선택할 수 있으며, 배경 이미지(bg3)는 비 내리는 하늘 객체를 포함할 수 있다. 비 내리는 하늘 객체는 비 이미지 및 비 이미지에 대한 물리적 정보(예를 들어, 비가 내리는 속도 등)을 포함하여 결과 컨텐츠에 동적 또는 입체적 효과를 부여할 수 있다. 또한, 제2 이미지에 포함된 객체(자동차)(obj3)가 이동한다고 판단되는 경우, 컨텐츠 제작 장치(100)는 이동하는 객체로 인해 발생되는 물보라 객체를 포함하는 효과 컨텐츠(ef3)를 추가적으로 더 합성할 수 있으며, 물보라 객체는 물보라 이미지 및 물보라 객체에 대한 물리적 정보를 포함할 수 있다. 9, the content production apparatus 100 analyzes the target image img3 input by the administrator and analyzes the input image or the target image img3 obtained from the manager to analyze the target image (img3) (car) obj3 included in the current position (img3) can be placed at the reference position. The content production apparatus 100 may select the background image bg3 using the result obtained by analyzing the input or the target image img3 obtained from the manager and the background image bg3 may include the sky object that is raining . A non-falling sky object can impart dynamic or stereoscopic effects to the resulting content, including physical information about the non-image and non-image (e.g., the rate at which it is raining, etc.). In addition, when it is determined that the object (car) obj3 included in the second image moves, the content production apparatus 100 additionally synthesizes the effect content ef3 including the spray object generated by the moving object, And the spray object may contain spray information and physical information about the spray object.

도 10에 도시된 바와 같이, 컨텐츠 제작 장치(100)는 대상 이미지(img41) 및 대상 이미지(img42)를 입력 받고, 대상 이미지(img41) 및 대상 이미지(img42)와 각각 대응되는 배경 이미지들(bg41, bg42)을 도 10(c), (d)와 같이 결정할 수 있다. 이때, 배경 이미지는 입체적으로 구현되거나 동적인 느낌을 가지는 거실 배경 객체를 포함할 수 있다. 또한, 배경 이미지는 관리자로부터 획득된 관리자 입력에 따라 선택, 결정될 수 있다. 제1 배경 이미지(bg41) 및 제2 배경 이미지(bg42)는 도시된 바와 같이 동일하므로, 최종적으로 컨텐츠 제작 장치(100)는 하나의 배경 이미지와 대상 이미지(img41) 및 대상 이미지(img42)를 모두 합성하여 결과 컨텐츠를 생성할 수 있다. 이때, 컨텐츠 제작 장치(100)는 각 대상 이미지(img41) 및 대상 이미지(img42)에 포함된 객체를 추출하고, 객체를 분석하여 각 객체의 위치를 결정하기도 한다. 예를 들어, 대상 이미지(img41) 및 대상 이미지(img42)에 포함된 객체 사이의 크기 비율을 고려하여, 대상 이미지(img41)까지의 거리는 기준 위치로부터 다소 가깝게 설정되고, 대상 이미지(img42)까지의 거리는 기준 위치로부터 다소 멀게 설정될 수 있다. 10, the content production apparatus 100 receives the target image img41 and the target image img42 and receives the background images bg41 corresponding to the target image img41 and the target image img42, , bg42) can be determined as shown in Figs. 10 (c) and 10 (d). At this time, the background image may include a living room background object having a stereoscopic or dynamic feeling. Further, the background image can be selected and determined according to the manager input obtained from the manager. Since the first background image bg41 and the second background image bg42 are the same as shown in the figure, the content production apparatus 100 finally obtains a background image, a target image img41 and a target image img42 The resultant content can be synthesized. At this time, the content production apparatus 100 extracts the objects included in the target image (img41) and the target image (img42), and analyzes the object to determine the position of each object. For example, the distance to the target image img41 is set slightly closer to the reference position, and the distance to the target image img42 is set to a distance The distance may be set somewhat farther from the reference position.

도 11 내지 도 14 는 본 발명의 일 실시예에 따른 컨텐츠 제작 방법을 통하여 컨텐츠를 제작하는 과정의 예시들이다. 본 발명의 일 실시예에 따라 컨텐츠를 제작하는 과정은 컨텐츠 제작 장치(100)에 의하여 실행될 수 있다.11 to 14 are illustrations of a process of producing contents through a content production method according to an embodiment of the present invention. The process of producing contents according to an embodiment of the present invention can be executed by the content production apparatus 100. [

도 11 및 도 12 를 참조하면, 컨텐츠 제작 장치(100)는 2D 이미지와, 3D 효과 컨텐츠 및 배경 이미지를 합성하여 결과 컨텐츠를 제작할 수 있다. 11 and 12, the content production apparatus 100 may synthesize a 2D image, a 3D effect content, and a background image to produce a resultant content.

예를 들어, 도 11 에 도시된 바와 같이, 컨텐츠 제작 장치(100)는 사람이 탑승하고 있는 차량이 도시된 2D 이미지(img5)에 하늘 객체를 포함하는 배경 이미지(bg5) 및 불꽃 객체를 포함하는 3D 효과 컨텐츠(ef5)를 합성하여, 사람이 탑승하고 있는 차량이 하늘에서 떨어지면서 앞쪽에 화염이 움직이고 있는 형태의 결과 컨텐츠를 생성할 수 있다. 이로써, 본 발명에 의하면 기존의 2D 이미지는 변경하지 않고도, 배경을 하늘로 설정하고 앞쪽에서 움직이는 3D 불꽃 컨텐츠를 표시하여 입체적이고 동적인 결과 컨텐츠를 제공할 수 있다. For example, as shown in Fig. 11, the content production apparatus 100 includes a background image bg5 including a sky object in a 2D image img5 in which a vehicle on which a person is boarding is displayed, The 3D effect content (ef5) can be synthesized to create a resultant content in which the flame is moving forward as the vehicle on which the person is aboard falls from the sky. Thus, according to the present invention, it is possible to provide stereoscopic and dynamic result contents by setting the background to sky and displaying the moving 3D flame content from the front without changing the existing 2D image.

다른 예시로, 도 12 에 도시된 바와 같이, 컨텐츠 제작 장치(100)는 유리문이 도시된 2D 이미지(img6)에 하늘 객체를 포함하는 배경 이미지(bg6) 및 흩날리는 눈 객체를 포함하는 3D 효과 컨텐츠(ef6)를 합성하여, 하늘을 배경으로 눈이 날리는 날씨에서의 유리문이 나타나는 결과 컨텐츠를 제작할 수 있다.12, the content production apparatus 100 includes a background image bg6 including a sky object in a 2D image img6 in which a glass door is shown, and a 3D effect content (ef6) are synthesized, and the result is a result of a glass door appearing in the sky when the snow is blowing in the sky.

도 13 은 본 발명에 따라 하나 이상의 대상 이미지를 이용하여 결과 컨텐츠를 만들 경우의 일 예를 나타낸다. 본 발명의 일 실시예에 따르면, 만화나 웹툰에서와 같이, 순서가 있는 복수개의 2D 대상 이미지(img71, img72, img73, ...)에 3D 효과 컨텐츠(ef7)를 합성하여 순서대로 보여지는 결과 컨텐츠를 제작할 수 있다. 도 13을 참고하면, 하나 이상의 대상 이미지들(img71, img72, img73, ...)은 도 13 과 같이 3D 환경에서 배치될 수 있고, 대상 이미지들(img71, img72, img73, ...)의 전면에 3D 불꽃 객체를 포함하는 효과 컨텐츠(ef7)를 합성함으로써, 특정 대상 이미지(도 13 의 예에서는 img71)가 사용자의 전면에 위치할 경우 해당 대상 이미지(img71)에 불꽃 객체가 합성된 결과 컨텐츠가 사용자에게 보여질 수 있다.FIG. 13 shows an example of a case where the resultant content is created using one or more target images according to the present invention. According to an embodiment of the present invention, 3D effect contents ef7 are synthesized on a plurality of 2D target images (img71, img72, img73, ...) Content can be produced. 13, one or more target images (img71, img72, img73, ...) may be arranged in a 3D environment as shown in FIG. 13, and the target images (img71, (Img71 in the example of FIG. 13) is positioned on the front side of the user by combining the effect content (ef7) including the 3D flame object on the front side, the resultant result of combining the flame object in the target image (img71) Can be shown to the user.

도 13 을 참조하면, 컨텐츠 제작 장치(100)는 본 발명의 결과 컨텐츠를 제작하기 위한 인터페이스를 제공할 수 있다. 이때, 결과 컨텐츠를 제작하기 위한 인터페이스는 가상의 공간 상에서 하나 이상의 2D 대상 이미지들 및 하나 이상의 동적 또는 입체적 배경 이미지 및/또는 효과 컨텐츠를 합성하여 결과 컨텐츠를 생성할 수 있는 환경일 수 있다. 컨텐츠 제작 장치(100)가 제공하는 인터페이스는 가상의 공간 상에 하나 이상의 2D 대상 이미지들이 표시되는 순서 및 2D 대상 이미지들이 전환되는 경로 등을 직관적으로 확인할 수 있는 보조선을 표시할 수 있다.Referring to FIG. 13, the content production apparatus 100 may provide an interface for producing the resultant contents of the present invention. At this time, the interface for producing the resultant content may be an environment capable of composing one or more 2D target images and one or more dynamic or three-dimensional background images and / or effect contents in a virtual space to generate the resulting content. The interface provided by the content production apparatus 100 may display an auxiliary line for intuitively confirming the order in which one or more 2D target images are displayed on the virtual space and the path for switching the 2D target images.

도 14는 본 발명의 일 실시예에 따른 결과 컨텐츠의 또 다른 예를 나타낸 도면이다. 도 14를 참고하면, 기존의 2D 이미지 컨텐츠(img8)에 배경 이미지(bg8) 및 보조선 객체를 포함하는 효과 컨텐츠(ef8)를 합성한 결과 컨텐츠를 나타내고 있다. 효과 컨텐츠는 보조선 객체에 대한 기하학적 도형, 즉 전면 또는 후면으로 이동하는 사선을 포함함으로써, 기존의 2D 이미지(img8)가 사용자에게 다가오거나 사용자로부터 멀어지는 듯한 느낌을 가지게 될 수 있다. 이러한 방법을 이용하여 기존 2D 이미지 컨텐츠에 대한 수정 없이 손쉽게 동적 효과가 있는 영상을 생성할 수 있다.FIG. 14 is a diagram illustrating another example of result contents according to an embodiment of the present invention. Referring to FIG. 14, the result is a result of synthesizing the background image bg8 with the existing 2D image content img8 and the effect content ef8 including the auxiliary line object. The effect content may include a geometric shape for an auxiliary line object, that is, an oblique line moving to the front or back side, so that the existing 2D image (img8) may have a feeling of approaching the user or moving away from the user. With this method, it is possible to easily generate a dynamic image without modifying existing 2D image contents.

도 15 는 본 발명의 일 실시예에 따라 결과 컨텐츠가 제공되는 방법을 시계열적으로 나타낸 것이다.FIG. 15 is a time-wise illustration of how results content is provided in accordance with one embodiment of the present invention.

도 15 의 컨텐츠 제공 방법은 컨텐츠 제작 장치(100)의 제2 출력 제어부(122)에 의해 수행될 수 있다. 도 15 에 도시된 바와 같이, 제2 출력 제어부(122)는 사용자 단말(300)로부터의 사용자 요청을 수신하여(S410), 사용자 요청에 대응하여 사용자 단말(300)에 결과 컨텐츠를 제공한다(S420). The content providing method of FIG. 15 may be performed by the second output control unit 122 of the content production apparatus 100. FIG. 15, the second output control unit 122 receives a user request from the user terminal 300 (S410), and provides the resultant content to the user terminal 300 in response to the user request (S420 ).

보다 상세히, S420 단계에서, 복수의 대상 이미지들이 순차적으로 또는 시계열적으로 제공되어야 하는 경우에, 제2 출력 제어부(122)는 사용자 단말(300)에 구비된 센서를 통해 감지되는 사용자의 이동 거리 또는 이동 속도에 맞춰 복수의 이미지들을 순차적으로 제공하게 된다. 복수의 대상 이미지들이 순차적으로 또는 시계열적으로 제공되어야 하는 경우에, 제2 출력 제어부(122)는 센서를 통해 감지되는 사용자의 지리적 위치에 맞춰 복수의 대상 이미지들을 제공할 수 있다. 제2 출력 제어부(122)는 사용자의 지리적 위치가 해변인 경우, 복수의 대상 이미지들을 해변을 입체적으로 구현한 배경 이미지와 합성하여 결과 컨텐츠를 제공할 수도 있다. 제2 출력 제어부(122)는 현재 시점이 밤인 경우, 복수의 대상 이미지를, 밤 하늘을 입체적으로 구현한 배경 이미지와 합성하여 결과 컨텐츠로 제공할 수도 있다.More specifically, in step S420, when a plurality of target images are to be provided sequentially or in a time-series manner, the second output control unit 122 controls the movement distance of the user detected through the sensor provided in the user terminal 300, And sequentially provides a plurality of images in accordance with the moving speed. In the case where a plurality of target images must be provided sequentially or in a time series manner, the second output control unit 122 may provide a plurality of target images in accordance with the geographical position of the user, which is sensed through the sensor. If the geographical location of the user is the beach, the second output control unit 122 may combine the plurality of target images with the background image that embodies the beach in a three-dimensional manner to provide the resulting content. If the current time is night, the second output control unit 122 may combine the plurality of target images with the background image that embodies the night sky in a stereoscopic manner, and may provide the synthesized result image as a resultant content.

다른 실시예에서, 제2 출력 제어부(122)는 사용자 단말(300)에 구비된 센서를 통해 센싱된 센싱값을 기초로 센싱값이 기설정된 조건을 만족하는지 여부를 판단하고, 판단 결과 만족되는 경우, 제1 대상 이미지의 후속으로 제공되어야 하는 제2 대상 이미지를 표시하도록 결과 컨텐츠를 전환할 수 있다. 예를 들어, 제1 대상 이미지가 제공된 시점 이후에 사용자의 이동된 거리가 소정의 임계 거리를 초과하거나, 제1 대상 이미지가 제공된 시점 이후에 소정의 시간이 경과한 경우에는, 제2 출력 제어부(122)는 상기 제1 대상 이미지의 후속으로 제공되어야 하는 제2 대상 이미지를 포함하도록 결과 컨텐츠를 전환할 수 있다.In another embodiment, the second output controller 122 determines whether the sensing value satisfies a predetermined condition based on the sensing value sensed by the sensor included in the user terminal 300. If the determination result is satisfied , And switch the resulting content to display a second target image that should be provided subsequent to the first target image. For example, when the moving distance of the user exceeds a predetermined threshold distance after the point of time when the first target image is provided, or when a predetermined time has elapsed since the point of time when the first target image was provided, 122 may switch the resulting content to include a second target image that must be provided subsequent to the first target image.

다른 실시예에서, 제2 출력 제어부(122)는 출력부를 통해 제1 대상 이미지 및 제2 대상 이미지를 포함하는 입체적인 결과 컨텐츠를 제공하는 경우, 사용자 단말(300)의 센서를 통해 센싱된 센싱값을 기초로 상기 제1 대상 이미지 및 상기 제2 대상 이미지의 위치들 또는 방향들을 변경한 입체적인 컨텐츠를 제공할 수 있다. 예를 들어, 센싱값을 통해 사용자의 위치의 변화, 고도의 변화, 자세의 변화, 방향의 변화 등이 감지된 경우, 제2 출력 제어부(122)는 센서를 통해 센싱된 센싱값을 기초로 상기 제1 대상 이미지 및 상기 제2 대상 이미지의 위치들 또는 방향들을 변경한 입체적인 결과 컨텐츠를 제공할 수 있다. 또한, 제2 출력 제어부(122)는 센싱값을 통해 획득된 현재 날씨, 현재 시간, 현재 위치 등을 기초로 합성 컨텐츠를 맑음에서 비 내리는 컨텐츠로, 서울에서 파리 컨텐츠로, 낮에서 밤 컨텐츠로 수정하여 결과 컨텐츠를 제공할 수 있다. In another embodiment, the second output control 122 may provide a sensing value sensed by the sensor of the user terminal 300, when providing the stereoscopic result content including the first and second target images through the output And may provide stereoscopic content that changes positions or directions of the first target image and the second target image based on the first target image and the second target image. For example, when a change in the position of the user, a change in altitude, a change in the posture, a change in the direction, or the like is detected through the sensing value, the second output controller 122 determines, based on the sensing value sensed by the sensor, Dimensional resultant content that has changed the positions or directions of the first target image and the second target image. In addition, the second output control unit 122 may convert the synthesized content from sunny to non-sunny based on the current weather, the current time, and the current position acquired through the sensing value, from Seoul to Paris contents, And provide the resulting content.

도 16a 및 도 16b는 본 발명의 일 실시예에 따른 컨텐츠 표시 방법을 이용하여 표시된 결과 컨텐츠의 일 예이다.16A and 16B are examples of displayed result contents using a content display method according to an embodiment of the present invention.

도 16a 에 도시된 바와 같이, 소정의 제1 조건이 만족됨에 따라 제2 출력 제어부(122)는 제2 대상 이미지(img92)를 중앙에 도시하면서, 제2 대상 이미지(img92)에 제1 배경 이미지(bg91) 및 제1 효과 컨텐츠(ef91)를 합성한 합성 컨텐츠를 표시하도록 제어할 수 있다. 이때 제1 효과 컨텐츠(ef91)는 3D 불꽃 객체를 포함할 수 있고, 제2 출력 제어부(122)는 불꽃 객체의 이미지 및 물리적 정보에 기초하여 제1 효과 컨텐츠(ef91)를 제2 대상 이미지(img92)의 적어도 일부에 중첩하여 표시할 수 있다. 이에 따라, 제2 출력 제어부(122)는 제2 대상 이미지(img92)에 제1 효과 컨텐츠(ef91)가 합성되어 본래의 제2 대상 이미지(img92)와는 다른 입체적 느낌을 가지는 영상을 표시할 수 있다.As shown in FIG. 16A, the second output control unit 122 displays the second target image img92 at the center, while the second target image img92 is displayed with the first background image (bg91) and the first effect content (ef91). At this time, the first effect content ef91 may include a 3D flame object, and the second output control unit 122 may compare the first effect content ef91 with the second target image img 92 based on the image and physical information of the flame object. ) Of the display device. Accordingly, the second output control unit 122 can display the image having a three-dimensional feeling different from that of the original second target image img92 by synthesizing the first effect content ef91 with the second target image img92 .

도 16b 는 제2 조건이 만족됨에 따라 제2 출력 제어부(122)는 제1 대상 이미지(img91)를 중앙에 도시하면서, 제1 대상 이미지(img91)에 제2 배경 이미지(ef92) 및 제2 효과 컨텐츠(ef92)를 합성한 결과 컨텐츠를 표시하도록 제어할 수 있다. 이때, 도 16a 에 도시된 실시예의 상태에서, 사용자 단말(300)이 특정 방향으로 소정 각도 이상 기울여지는 것을 감지할 때 도 16b 와 같이 제1 대상 이미지(img91)가 중앙에 도시될 수 있다.16B shows that the second output control unit 122 displays the first target image img91 at the center and the second background image ef92 and the second effect image 82 in the first target image img91 as the second condition is satisfied, It is possible to control to display the contents as a result of synthesizing the contents (ef92). In this case, when the user terminal 300 detects that the user terminal 300 is tilted by more than a predetermined angle in the state of the embodiment shown in FIG. 16A, the first target image img91 may be shown at the center as shown in FIG. 16B.

도 16b 의 실시예에서, 제2 효과 컨텐츠(ef92)는 보조선 객체를 포함할 수 있고, 제2 출력 제어부(122)는 보조선 객체에 포함된 기하학적 사선을 제1 대상 이미지(img91) 및 배경 이미지(bg92)에 합성하여 표시할 수 있다. 제1 대상 이미지(img91)에 제2 효과 컨텐츠(ef2)가 합성되어 본래의 제1 대상 이미지(img91)와는 다른 동적 느낌을 가지는 결과 컨텐츠를 표시할 수 있다.In the embodiment of FIG. 16B, the second effect content ef92 may include an auxiliary line object, and the second output control section 122 may connect the geometric slash included in the auxiliary line object to the first target image img91 and the background Image (bg92). The second effect content ef2 is synthesized in the first target image img91 and the resultant content having a dynamic feeling different from that of the original first target image img91 can be displayed.

이상 설명된 본 발명에 따른 실시예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. The embodiments of the present invention described above can be embodied in the form of a computer program that can be executed on various components on a computer, and the computer program can be recorded on a computer-readable medium. At this time, the medium may be a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, an optical recording medium such as CD-ROM and DVD, a magneto-optical medium such as a floptical disk, , A RAM, a flash memory, and the like, which are specifically configured to store and execute program instructions.

한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the computer program may be designed and configured specifically for the present invention or may be known and used by those skilled in the computer software field. Examples of computer programs may include machine language code such as those produced by a compiler, as well as high-level language code that may be executed by a computer using an interpreter or the like.

본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific acts described in the present invention are, by way of example, not intended to limit the scope of the invention in any way. For brevity of description, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of such systems may be omitted. Also, the connections or connecting members of the lines between the components shown in the figures are illustrative of functional connections and / or physical or circuit connections, which may be replaced or additionally provided by a variety of functional connections, physical Connection, or circuit connections. Also, unless explicitly mentioned, such as " essential ", " importantly ", etc., it may not be a necessary component for application of the present invention.

본 발명의 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 발명에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.The use of the terms " above " and similar indication words in the specification of the present invention (particularly in the claims) may refer to both singular and plural. In addition, in the present invention, when a range is described, it includes the invention to which the individual values belonging to the above range are applied (unless there is contradiction thereto), and each individual value constituting the above range is described in the detailed description of the invention The same. Finally, the steps may be performed in any suitable order, unless explicitly stated or contrary to the description of the steps constituting the method according to the invention. The present invention is not necessarily limited to the order of description of the above steps. The use of all examples or exemplary language (e.g., etc.) in this invention is for the purpose of describing the invention in detail and is not to be construed as a limitation on the scope of the invention, It is not. It will also be appreciated by those skilled in the art that various modifications, combinations, and alterations may be made depending on design criteria and factors within the scope of the appended claims or equivalents thereof.

Claims (9)

대상 이미지에 대한 정보를 수신하여 대상 이미지를 선택하는 단계;
상기 대상 이미지에 대한, 배경 이미지 및 효과 컨텐츠 중 하나 이상을 포함하는 합성 컨텐츠를 결정하는 단계; 및
상기 대상 이미지와 상기 결정된 합성 컨텐츠를 합성하여 결과 컨텐츠를 생성하는 단계;를 포함하고,
상기 합성 컨텐츠는, 상기 합성 컨텐츠에 포함된 특정 객체에 대한 이미지, 기하학적 도형 및 물리적 정보 중 하나 이상을 포함하며, 상기 특정 객체는 상기 대상 이미지와 합성되어 상기 결과 컨텐츠에 입체적 혹은 동적 효과를 부여하는, 컨텐츠 제작 방법.
Receiving information about a target image and selecting a target image;
Determining composite content for the target image, the composite content including at least one of a background image and effect content; And
And synthesizing the target image and the determined synthesized content to generate a resultant content,
Wherein the synthesized content includes at least one of an image, a geometric figure, and physical information of a specific object included in the synthesized content, and the specific object is synthesized with the target image to impart a stereoscopic effect or a dynamic effect to the resultant content , Content creation method.
제1항에 있어서,
상기 합성 컨텐츠를 결정하는 단계는,
관리자 단말로부터의 입력에 기초하여, 상기 배경 이미지 및 효과 컨텐츠 중 하나 이상을 결정하는, 컨텐츠 제작 방법.
The method according to claim 1,
The method of claim 1,
And determining at least one of the background image and the effect content based on the input from the administrator terminal.
제1항에 있어서,
상기 결과 컨텐츠를 생성하는 단계는, 상기 대상 이미지가 배치된 가상 공간을 설정하고, 상기 가상 공간 상에 상기 합성 컨텐츠를 합성하여 상기 결과 컨텐츠를 생성하는, 컨텐츠 제작 방법.
The method according to claim 1,
Wherein the generating of the resultant content comprises: setting a virtual space in which the target image is arranged; and synthesizing the synthesized content on the virtual space to generate the resultant content.
제1항에 있어서,
상기 합성 컨텐츠에 포함된 특정 객체에 대한 기하학적 도형은, 상기 기하학적 도형의 무게, 질량, 크기, 부피, 형태, 위치, 속도, 이동 방향 중 하나 이상에 대한 값을 속성으로 가지며,
상기 결과 컨텐츠를 생성하는 단계는, 상기 특정 객체에 대한 상기 기하학적 도형의 속성에 기초하여 입체적 혹은 동적 효과를 갖는 상기 결과 컨텐츠를 생성하는, 컨텐츠 제작 방법.
The method according to claim 1,
Wherein the geometric figure for a specific object included in the synthesized content has a value for at least one of a weight, a mass, a size, a volume, a shape, a position, a speed, and a moving direction of the geometric figure,
Wherein the generating of the resultant content generates the resultant content having stereoscopic or dynamic effects based on the attribute of the geometric figure for the specific object.
제1항에 있어서,
상기 합성 컨텐츠에 포함된 특정 객체에 대한 물리적 정보는, 상기 특정 객체가 위치하는 상대적 또는 절대적 좌표, 상기 특정 객체의 이동방향, 상기 특정 객체의 속도, 상기 특정 객체의 무게, 상기 특정 객체의 중력가속도 중 적어도 하나이고,
상기 결과 컨텐츠를 생성하는 단계는, 상기 특정 객체에 대한 상기 물리적 정보에 기초하여 입체적 혹은 동적 효과를 갖는 상기 결과 컨텐츠를 생성하는, 컨텐츠 제작 방법.
The method according to claim 1,
The physical information on the specific object included in the synthesized content may include at least one of relative or absolute coordinates of the specific object, a moving direction of the specific object, a speed of the specific object, a weight of the specific object, , ≪ / RTI >
Wherein the generating of the resultant content generates the resultant content having stereoscopic or dynamic effects based on the physical information on the specific object.
제1항에 있어서,
상기 합성 컨텐츠를 결정하는 단계는
상기 대상 이미지를 분석한 결과를 기초로 하여, 배경 이미지 및 효과 컨텐츠 중 하나 이상을 결정하는, 컨텐츠 제작 방법.
The method according to claim 1,
The step of determining the composite content
And determining at least one of a background image and an effect content based on a result of analyzing the target image.
제6항에 있어서,
상기 대상 이미지를 분석한 결과는 상기 대상 이미지의 특징, 상기 대상 이미지 내에서 포함하고 있는 객체, 상기 대상 이미지가 나타내는 상황 중 적어도 하나를 포함하고,
상기 대상 이미지의 특징은 상기 대상 이미지의 적어도 일 영역의 명도, 채도, 색상 중 적어도 하나인, 컨텐츠 제작 방법.
The method according to claim 6,
Wherein the result of analyzing the target image includes at least one of a characteristic of the target image, an object included in the target image, and a situation represented by the target image,
Wherein the characteristic of the target image is at least one of brightness, saturation, and hue of at least one region of the target image.
대상 이미지에 대한 정보를 수신하여 대상 이미지를 선택하는 대상 이미지 선택부;
상기 대상 이미지에 대한, 배경 이미지 및 효과 컨텐츠 중 하나 이상을 포함하는 합성 컨텐츠를 결정하는 합성 컨텐츠 결정부; 및
상기 대상 이미지와 상기 결정된 합성 컨텐츠를 합성하여 결과 컨텐츠를 생성하는 결과 컨텐츠 생성부; 를 포함하고,
상기 합성 컨텐츠는, 상기 합성 컨텐츠에 포함된 특정 객체에 대한 이미지, 기하학적 도형 및 물리적 정보 중 하나 이상을 포함하며, 상기 특정 객체는 상기 대상 이미지와 합성되어 상기 결과 컨텐츠에 입체적 혹은 동적 효과를 부여하는, 컨텐츠 제작 장치.
A target image selection unit receiving information on a target image and selecting a target image;
A composite content determination unit for determining composite content including at least one of a background image and an effect content for the target image; And
A result content generation unit for synthesizing the target image and the determined synthesized content to generate a resultant content; Lt; / RTI >
Wherein the synthesized content includes at least one of an image, a geometric figure, and physical information of a specific object included in the synthesized content, and the specific object is synthesized with the target image to impart a stereoscopic effect or a dynamic effect to the resultant content , A content production apparatus.
제1항 내지 제7항에 기재된 방법을 수행하기 위한 컴퓨터 판독가능 기록매체에 저장된 컴퓨터 프로그램.A computer program stored in a computer-readable recording medium for performing the method according to any one of claims 1 to 7.
KR1020170089805A 2016-07-15 2017-07-14 Device and method for producing contents, and computer program thereof KR20180008345A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20160090269 2016-07-15
KR1020160090269 2016-07-15

Publications (1)

Publication Number Publication Date
KR20180008345A true KR20180008345A (en) 2018-01-24

Family

ID=61029424

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170089805A KR20180008345A (en) 2016-07-15 2017-07-14 Device and method for producing contents, and computer program thereof

Country Status (1)

Country Link
KR (1) KR20180008345A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200137932A (en) * 2019-05-30 2020-12-09 주식회사 아임클라우드 Reference content recommendation system and method utilizing objects extracted from contents
KR20220126257A (en) * 2021-03-08 2022-09-15 (주)디피어소시에이츠 Method and system for providing realistic virtual exhibition space
KR102470821B1 (en) * 2022-01-27 2022-11-28 주식회사 위딧 Apparatus for generating webtoon background image

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000339485A (en) * 1999-05-25 2000-12-08 Nec Corp Animation generation device
KR20110049257A (en) * 2009-11-04 2011-05-12 세종대학교산학협력단 Interactive interface-based system for generating cartoon animation and method thereof
KR20120076600A (en) * 2010-12-06 2012-07-09 손기택 Method and system for producing moving cartoon

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000339485A (en) * 1999-05-25 2000-12-08 Nec Corp Animation generation device
KR20110049257A (en) * 2009-11-04 2011-05-12 세종대학교산학협력단 Interactive interface-based system for generating cartoon animation and method thereof
KR20120076600A (en) * 2010-12-06 2012-07-09 손기택 Method and system for producing moving cartoon

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200137932A (en) * 2019-05-30 2020-12-09 주식회사 아임클라우드 Reference content recommendation system and method utilizing objects extracted from contents
KR20220126257A (en) * 2021-03-08 2022-09-15 (주)디피어소시에이츠 Method and system for providing realistic virtual exhibition space
KR102470821B1 (en) * 2022-01-27 2022-11-28 주식회사 위딧 Apparatus for generating webtoon background image

Similar Documents

Publication Publication Date Title
US10767997B1 (en) Systems and methods for providing immersive extended reality experiences on moving platforms
WO2021197189A1 (en) Augmented reality-based information display method, system and apparatus, and projection device
CN112379812B (en) Simulation 3D digital human interaction method and device, electronic equipment and storage medium
CN102270275B (en) The method of selecting object and multimedia terminal in virtual environment
US9224237B2 (en) Simulating three-dimensional views using planes of content
US9437038B1 (en) Simulating three-dimensional views using depth relationships among planes of content
JP5567146B2 (en) Method for reusing photorealistic 3D landmarks for non-photorealistic 3D maps
EP2732436B1 (en) Simulating three-dimensional features
KR102423903B1 (en) Augmented reality providing apparatus for recognizing a situation using a neural network, providing method, and a computer program stored in a medium for executing the method
CN105051791A (en) Three-dimensional image output device and background image generation device
US20210407125A1 (en) Object recognition neural network for amodal center prediction
KR20180008345A (en) Device and method for producing contents, and computer program thereof
CN113359986B (en) Augmented reality data display method and device, electronic equipment and storage medium
Liarokapis et al. Mobile augmented reality techniques for geovisualisation
US10295403B2 (en) Display a virtual object within an augmented reality influenced by a real-world environmental parameter
CN110313021B (en) Augmented reality providing method, apparatus, and computer-readable recording medium
WO2023231793A1 (en) Method for virtualizing physical scene, and electronic device, computer-readable storage medium and computer program product
WO2005076122A1 (en) Method of performing a panoramic demonstration of liquid crystal panel image simulation in view of observer's viewing angle
KR102388715B1 (en) Apparatus for feeling to remodeling historic cites
KR20230095197A (en) Method and apparatus for interaction method between cognitive mesh information generated in a three-dimensional space and virtual objects
KR20140078083A (en) Method of manufacturing cartoon contents for augemented reality and apparatus performing the same
KR101939530B1 (en) Method and apparatus for displaying augmented reality object based on geometry recognition
CN116958533A (en) Image content segmentation method, device, apparatus, storage medium and program product
CN113988963A (en) Shopping guide method and device based on augmented reality, storage medium and electronic equipment
CN115239920A (en) Virtual operation display method, device, equipment and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application