KR20180008345A - Device and method for producing contents, and computer program thereof - Google Patents
Device and method for producing contents, and computer program thereof Download PDFInfo
- Publication number
- KR20180008345A KR20180008345A KR1020170089805A KR20170089805A KR20180008345A KR 20180008345 A KR20180008345 A KR 20180008345A KR 1020170089805 A KR1020170089805 A KR 1020170089805A KR 20170089805 A KR20170089805 A KR 20170089805A KR 20180008345 A KR20180008345 A KR 20180008345A
- Authority
- KR
- South Korea
- Prior art keywords
- content
- target image
- image
- synthesized
- effect
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/40—Filling a planar surface by adding surface attributes, e.g. colour or texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Abstract
Description
본 발명의 실시예들은 컨텐츠 제작 장치, 방법 및 컴퓨터 프로그램에 관한 것이다.Embodiments of the present invention relate to a content production apparatus, a method, and a computer program.
일반적으로 만화는 인물, 동물, 사물 등의 모습을 간결하고 익살스럽게 그리거나 과장하여 나타낸 그림을 말하며, 짤막한 지문을 넣어 유머나 풍자 또는 일정한 줄거리를 담아 읽을거리를 제공한다.In general, manga is a picture that depicts characters, animals, and objects in a concise and humorous manner, or exaggerated, and provides short stories with humor, satire, or a certain plot by inserting short fingerprints.
최근에는 온라인 만화가 출시되어 많은 유저들이 만화 열람을 통해 즐거움과 정보를 얻고 있다. 온라인 만화 제공 시스템은 회원들을 중심으로 인증처리 시 승인 결과에 따라 열람 가능하게 제한하고 있으며, 승인된 유저들은 만화를 선택하고 자동 넘김이나 수동 넘김을 선택하여 만화를 보다 쉽게 볼 수 있도록 하고 있다.Recently, online comics have been released and many users are getting fun and information through comics reading. The online cartoon providing system restricts the access to the members according to the approval result when processing the authentication. Authorized users can select the cartoon and select the automatic turn or manual turn so that the cartoon can be viewed more easily.
예컨대, 한국공개특허 제10-2011-0123393호(공개일 2011년 11월 15일)에는 온라인 상의 직거래를 통해 모바일 디지털 컨텐츠 형태의 만화를 제공하는 기술이 개시되어 있다.For example, Korean Patent Laid-Open No. 10-2011-0123393 (published on November 15, 2011) discloses a technique for providing comics in the form of mobile digital contents through direct online transactions.
본 발명의 실시예들은 평면적으로 구현된 대상 이미지에 입체적 혹은 동적인 효과를 제공하기 위해서, 대상 이미지에 배경 이미지 및 효과 컨텐츠 중 하나 이상을 포함하는 합성 컨텐츠를 합성하여 결과 컨텐츠를 생성하는 컨텐츠 제작 장치, 방법 및 컴퓨터 프로그램을 제공할 수 있다. In an embodiment of the present invention, in order to provide stereoscopic or dynamic effects to a target image that is implemented in a plane, a content production apparatus for synthesizing synthesized contents including at least one of a background image and an effect content in a target image, , A method, and a computer program.
본 발명의 일 실시예에 따르면, 대상 이미지에 대한 정보를 수신하여 대상 이미지를 선택하는 단계; 상기 대상 이미지에 대한, 배경 이미지 및 효과 컨텐츠 중 하나 이상을 포함하는 합성 컨텐츠를 결정하는 단계; 및 상기 대상 이미지와 상기 결정된 합성 컨텐츠를 합성하여 결과 컨텐츠를 생성하는 단계;를 포함하고, 상기 합성 컨텐츠는, 상기 합성 컨텐츠에 포함된 특정 객체에 대한 이미지, 기하학적 도형 및 물리적 정보 중 하나 이상을 포함하며, 상기 특정 객체는 상기 대상 이미지와 합성되어 상기 결과 컨텐츠에 입체적 혹은 동적 효과를 부여하는, 컨텐츠 제작 방법이 제공된다.According to an embodiment of the present invention, there is provided an image processing method comprising: receiving information on a target image and selecting a target image; Determining composite content for the target image, the composite content including at least one of a background image and effect content; And synthesizing the target image and the determined synthesized content to generate a resultant content, wherein the synthesized content includes at least one of an image, a geometric figure, and physical information for a specific object included in the synthesized content And the specific object is combined with the target image to give stereoscopic or dynamic effects to the resultant content.
본 발명에 있어서, 상기 합성 컨텐츠를 결정하는 단계는, 관리자 단말로부터의 입력에 기초하여, 상기 배경 이미지 및 효과 컨텐츠 중 하나 이상을 결정할 수 있다.In the present invention, the step of determining the synthesized content may determine at least one of the background image and the effect content based on the input from the administrator terminal.
본 발명에 있어서, 상기 결과 컨텐츠를 생성하는 단계는, 상기 대상 이미지가 배치된 가상 공간을 설정하고, 상기 가상 공간 상에 상기 합성 컨텐츠를 합성하여 상기 결과 컨텐츠를 생성할 수 있다.In the present invention, the generating of the resultant content may generate a resultant content by setting a virtual space in which the target image is disposed, and compositing the synthesized content on the virtual space.
본 발명에 있어서, 상기 합성 컨텐츠에 포함된 특정 객체에 대한 기하학적 도형은, 상기 기하학적 도형의 무게, 질량, 크기, 부피, 형태, 위치, 속도, 이동 방향 중 하나 이상에 대한 값을 속성으로 가지며, 상기 결과 컨텐츠를 생성하는 단계는, 상기 특정 객체에 대한 상기 기하학적 도형의 속성에 기초하여 입체적 혹은 동적 효과를 갖는 상기 결과 컨텐츠를 생성할 수 있다.In the present invention, the geometric figure for a specific object included in the synthesized content may have a value for at least one of weight, mass, size, volume, shape, position, speed, and movement direction of the geometric figure, The generating of the resultant content may generate the resultant content having a stereoscopic or dynamic effect based on the attribute of the geometric figure for the specific object.
본 발명에 있어서, 상기 합성 컨텐츠에 포함된 특정 객체에 대한 물리적 정보는, 상기 특정 객체가 위치하는 상대적 또는 절대적 좌표, 상기 특정 객체의 이동방향, 상기 특정 객체의 속도, 상기 특정 객체의 무게, 상기 특정 객체의 중력가속도 중 적어도 하나이고, 상기 결과 컨텐츠를 생성하는 단계는, 상기 특정 객체에 대한 상기 물리적 정보에 기초하여 입체적 혹은 동적 효과를 갖는 상기 결과 컨텐츠를 생성할 수 있다.In the present invention, the physical information on the specific object included in the synthesized content may include at least one of relative or absolute coordinates of the specific object, a moving direction of the specific object, a speed of the specific object, And the gravitational acceleration of the specific object, and the step of generating the resultant content may generate the resultant content having a stereoscopic or dynamic effect based on the physical information on the specific object.
본 발명에 있어서, 상기 합성 컨텐츠를 결정하는 단계는 상기 대상 이미지를 분석한 결과를 기초로 하여, 배경 이미지 및 효과 컨텐츠 중 하나 이상을 결정할 수 있다.In the present invention, the step of determining the composite content may determine at least one of the background image and the effect content based on a result of analyzing the target image.
본 발명에 있어서, 상기 대상 이미지를 분석한 결과는 상기 대상 이미지의 특징, 상기 대상 이미지 내에서 포함하고 있는 객체, 상기 대상 이미지가 나타내는 상황 중 적어도 하나를 포함하고, 상기 대상 이미지의 특징은 상기 대상 이미지의 적어도 일 영역의 명도, 채도, 색상 중 적어도 하나일 수 있다.In the present invention, the result of the analysis of the target image may include at least one of a characteristic of the target image, an object included in the target image, and a situation represented by the target image, And may be at least one of brightness, saturation, and hue of at least one area of the image.
본 발명의 다른 실시예에 따르면, 대상 이미지에 대한 정보를 수신하여 대상 이미지를 선택하는 대상 이미지 선택부; 상기 대상 이미지에 대한, 배경 이미지 및 효과 컨텐츠 중 하나 이상을 포함하는 합성 컨텐츠를 결정하는 합성 컨텐츠 결정부; 및 상기 대상 이미지와 상기 결정된 합성 컨텐츠를 합성하여 결과 컨텐츠를 생성하는 결과 컨텐츠 생성부; 를 포함하고, 상기 합성 컨텐츠는, 상기 합성 컨텐츠에 포함된 특정 객체에 대한 이미지, 기하학적 도형 및 물리적 정보 중 하나 이상을 포함하며, 상기 특정 객체는 상기 대상 이미지와 합성되어 상기 결과 컨텐츠에 입체적 혹은 동적 효과를 부여하는, 컨텐츠 제작 장치가 제공된다.According to another embodiment of the present invention, there is provided an image processing apparatus comprising: a target image selection unit receiving information on a target image and selecting a target image; A composite content determination unit for determining composite content including at least one of a background image and an effect content for the target image; A result content generation unit for synthesizing the target image and the determined synthesized content to generate a resultant content; Wherein the synthesized content includes at least one of an image, a geometric figure, and physical information for a specific object included in the synthesized content, the specific object is synthesized with the target image, and stereoscopic or dynamic A content production apparatus is provided.
본 발명의 방법을 수행하기 위한 컴퓨터 판독가능 기록매체에 저장된 컴퓨터 프로그램이 더 제공된다.A computer program stored on a computer readable recording medium for performing the method of the present invention is further provided.
본 발명에 따른 컨텐츠 제작 장치, 방법 및 컴퓨터 프로그램은 평면적으로 구현된 대상 이미지에 합성 컨텐츠를 합성하여 결과 컨텐츠를 생성하며, 합성 컨텐츠는 대상 이미지와 합성되어 결과 컨텐츠에 입체적 혹은 동적 효과를 부여할 수 있다. The apparatus, method, and computer program product according to the present invention may synthesize synthesized content into a target image that is implemented in a planar manner to generate a resultant content, and synthesized content may be synthesized with a target image to impart stereoscopic or dynamic effects to the resultant content have.
도 1 은 본 발명의 일 실시예에 따른 컨텐츠 제작 시스템의 네트워크 환경을 도시한 블록도이다.
도 2 는 본 발명의 실시예들에 따른 컨텐츠 제작 장치의 내부 구성을 나타내는 블록도이다.
도 3 은 본 발명의 일 실시예에 따른 컨텐츠 제작 방법을 시계열적으로 나타낸 순서도이다.
도 4 내지 도 6 은 본 발명의 실시예들에 따른 컨텐츠 제작 방법의 구체적인 시계열적 흐름을 나타낸 흐름도들이다.
도 7 내지 도 11 은 컨텐츠 제작 장치에 의해 생성된 결과 컨텐츠들의 예시들이다.
도 11 내지 도 14 는 본 발명의 일 실시예에 따른 컨텐츠 제작 방법을 통하여 컨텐츠를 제작하는 과정의 예시들이다.
도 15 는 본 발명의 일 실시예에 따라 결과 컨텐츠가 제공되는 방법을 시계열적으로 나타낸 것이다.
도 16a 및 도 16b는 본 발명의 일 실시예에 따른 컨텐츠 표시 방법을 이용하여 표시된 결과 컨텐츠의 일 예이다.1 is a block diagram illustrating a network environment of a content production system according to an embodiment of the present invention.
2 is a block diagram illustrating an internal configuration of a content production apparatus according to an embodiment of the present invention.
3 is a time-sequentially flowchart illustrating a content production method according to an embodiment of the present invention.
FIGS. 4 to 6 are flowcharts illustrating a specific time-series flow of the content production method according to the embodiments of the present invention.
Figs. 7 to 11 are examples of the resultant contents generated by the content production apparatus.
11 to 14 are illustrations of a process of producing contents through a content production method according to an embodiment of the present invention.
FIG. 15 is a time-wise illustration of how results content is provided in accordance with one embodiment of the present invention.
16A and 16B are examples of displayed result contents using a content display method according to an embodiment of the present invention.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. The effects and features of the present invention and methods of achieving them will be apparent with reference to the embodiments described in detail below with reference to the drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In the following embodiments, the terms first, second, and the like are used for the purpose of distinguishing one element from another element, not the limitative meaning. Also, the singular expressions include plural expressions unless the context clearly dictates otherwise. Also, the terms include, including, etc. mean that there is a feature, or element, recited in the specification and does not preclude the possibility that one or more other features or components may be added. Also, in the drawings, for convenience of explanation, the components may be exaggerated or reduced in size. For example, the size and thickness of each component shown in the drawings are arbitrarily shown for convenience of explanation, and thus the present invention is not necessarily limited to those shown in the drawings.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or corresponding components throughout the drawings, and a duplicate description thereof will be omitted .
도 1 은 본 발명의 일 실시예에 따른 컨텐츠 제작 시스템의 네트워크 환경을 도시한 블록도이다.1 is a block diagram illustrating a network environment of a content production system according to an embodiment of the present invention.
도 1 을 참조하면, 본 발명의 일 실시예에 따른 컨텐츠 제작 시스템의 네트워크 환경은 컨텐츠 제작 장치(100), 관리자 단말(200) 및 사용자 단말(300)을 포함할 수 있다.Referring to FIG. 1, a network environment of a content production system according to an embodiment of the present invention may include a
본 발명의 컨텐츠 제작 장치(100)는 관리자 단말(200)로부터의 입력 신호 혹은 자체적인 처리에 의해 대상 이미지에 합성 컨텐츠가 합성된 결과 컨텐츠를 생성할 수 있다. 또한, 본 발명의 컨텐츠 제작 장치(100)는 사용자 단말로부터의 요청에 의해 생성된 결과 컨텐츠를 제공할 수 있다.The
보다 상세히, 본 발명의 컨텐츠 제작 장치(100)는 대상 이미지에 배경 이미지 및/또는 효과 컨텐츠를 포함하는 합성 컨텐츠를 합성하여 입체적 혹은 동적 효과를 가지는 새로운 결과 컨텐츠를 생성하는 기능을 수행한다. 이때, 합성 컨텐츠는 합성 컨텐츠에 포함된 특정 객체에 대한 이미지, 기하학적 도형 및 물리적 정보 중 하나 이상을 포함하며, 특정 객체는 대상 이미지와 합성되어 결과 컨텐츠에 입체적 혹은 동적 효과를 부여할 수 있다. 특히, 특정 객체에 대한 이미지, 기하학적 도형 및 물리적 정보에 기초하여 입체적 혹은 동적 효과를 갖는 결과 컨텐츠가 생성될 수 있다. More specifically, the
본 발명의 일 실시예에 따른 컨텐츠 제작 장치(100)는 컴퓨터(예를 들면, 데스크톱, 랩톱, 태블릿 등), 미디어 컴퓨팅 플랫폼(예를 들면, 케이블, 위성 셋톱박스, 디지털 비디오 레코더), 핸드헬드 컴퓨팅 디바이스(예를 들면, PDA, 이메일 클라이언트 등), 핸드폰의 임의의 형태, 휴대용 단말, 또는 다른 종류의 컴퓨팅 또는 커뮤니케이션 플랫폼의 임의의 형태를 포함할 수 있으나, 본 발명이 이에 한정되는 것은 아니다. The
또한, 관리자 단말(200)은 컨텐츠 제작 장치(100)가 제공하는 인터페이스를 사용하여 컨텐츠를 제작하는 제작자에 대응하는 단말일 수 있다. In addition, the
또한, 사용자 단말(300)은 컨텐츠 제작 장치(100)로부터 생성된 결과 컨텐츠를 제공받을 수 있는 컨텐츠 이용자에 대응하는 단말일 수 있다. 도 1 에서는 비록 컨텐츠 제작 장치(100)에 의해 생성된 컨텐츠를 사용자 단말(300)에 직접 제공하는 것으로 도시되었지만, 본 발명의 다른 실시예에 따르면 컨텐츠 제작 장치(100)에 의해 생성된 컨텐츠는 별도의 컨텐츠 제공 시스템, 장치 또는 모듈로 전달되고, 별도의 컨텐츠 제공 시스템(모듈 또는 장치)에 의해 사용자 단말(300)에 제공될 수도 있다.Also, the
이하에서는, 컨텐츠 제작 장치(100)의 내부 구성 및 컨텐츠 제작 장치(100)에 의한 컨텐츠 제작 방법을 중심으로 본 발명에 대해 상세히 살펴보기로 한다. Hereinafter, the present invention will be described in detail with reference to an internal configuration of the
도 2 는 본 발명의 실시예들에 따른 컨텐츠 제작 장치의 내부 구성을 나타내는 블록도이다. 2 is a block diagram illustrating an internal configuration of a content production apparatus according to an embodiment of the present invention.
도 2 를 참조하면, 본 발명의 실시예들에 따른 컨텐츠 제작 장치(100)는 입력 수신부(110), 제1 출력 제어부(121), 제2 출력 제어부(122), 프로세서(140), 데이터베이스(150) 및 통신부(160)를 포함할 수 있다. 2, a
입력 수신부(110)는 관리자 단말(200) 혹은 사용자 단말(300)로부터의 요청을 입력 받는 수단으로서, 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.The input receiving unit 110 includes a key pad, a dome switch, a touch pad (a contact type capacitance type, a pressure type, An ultrasonic wave propagation method, an integral resistance film method, an infrared ray detection method, a surface ultrasonic wave propagation method, an integral strain measurement method, a piezo effect method, etc.), a jog wheel, a jog switch and the like.
제1 출력 제어부(121)는 관리자 단말(200)과 상호작용하여 본 발명의 컨텐츠 제작 방법에 따라 컨텐츠를 제작하기 위해 사용할 수 있도록 하는 컨텐츠 제작 인터페이스를 관리자 단말(200)에 제공할 수 있다. 보다 상세히, 제1 출력 제어부(121)는 소정의 소프트웨어를 제공할 수 있으며, 소정의 소프트웨어는 다수의 후보들 중 하나 이상의 대상 이미지 및 합성 컨텐츠를 선택할 수 있는 인터페이스를 포함할 수 있다. 또는, 소정의 소프트웨어는 하나 이상의 이미지, 360도 배경 이미지, 및/또는 동영상을 포함하는 컨텐츠를 제작할 수 있는 인터페이스를 제공할 수 있다.The first
한편, 제1 출력 제어부(121)는 컨텐츠 제작 장치(100)에 포함된 출력부를 통해 컨텐츠 제작 인터페이스를 직접 출력할 수 있다. 출력부는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 컨텐츠 제작 장치(100)의 구현 형태에 따라 컨텐츠 제작 장치(100)는 출력부를 2개 이상 포함할 수도 있다. 이때, 2개 이상의 출력부는 힌지(hinge)를 이용하여 마주보게 배치될 수 있다.On the other hand, the first
또한, 제2 출력 제어부(122)는 사용자 단말(300)로부터의 요청에 기초하여 본 발명의 결과 컨텐츠를 사용자 단말(300)에 제공할 수 있다. 데이터베이스(150) 또는 소정의 온라인 시스템에 등록된 결과 컨텐츠는 사용자 단말(300)로부터의 요청에 따라 제공 및 공개될 수 있다. 비록 도 2 의 실시예에서는 제2 출력 제어부(122)가 컨텐츠 제작 장치(100)에 속한 것으로 도시되었지만, 본 발명의 다른 실시예에 따르면 제2 출력 제어부(122)는 컨텐츠 제작 장치(100)와는 구분되는 컨텐츠 제공 시스템(모듈 또는 장치)에 속할 수 있다. 예를 들어, 컨텐츠 제작 장치(100)는 본 발명의 결과 컨텐츠를 컨텐츠 제공 시스템(모듈 또는 장치)에 등록할 수 있으며, 컨텐츠 제공 시스템의 제2 출력 제어부(122)는 등록된 결과 컨텐츠를 사용자 단말(300)로부터의 요청에 기초하여 제공할 수 있다.The second
프로세서(140)는 컨텐츠 제작 장치(100)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(140)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 프로세서가 처리하는 명령은 후술하는 대상 이미지 선택부(141), 합성 컨텐츠 결정부(142) 및 결과 컨텐츠 생성부(143)를 실행하도록 제어할 수 있다. 비록 도 2 의 실시예에서는 대상 이미지 선택부(141), 합성 컨텐츠 결정부(142) 및 결과 컨텐츠 생성부(143)가 프로세서(140) 내에 구비된 것으로 도시되었지만, 본 발명의 다른 실시예에서 대상 이미지 선택부(141), 합성 컨텐츠 결정부(142) 및 결과 컨텐츠 생성부(143)는 컨텐츠 제작 장치(100)의 저장 매체에 프로그램, unit, 또는 모듈일 수 있으며, 프로세서(140)는 저장 매체에 저장된 프로그램, unit, 또는 모듈의 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.The
프로세서(140)(processor)는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
도 2 에 도시되지는 않았지만 컨텐츠 제작 장치(100)는 저장 매체를 포함할 수 있으며, 저장 매체는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 컨텐츠 제작 장치(100)는 인터넷(internet)상에서 저장 매체의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버를 운영할 수도 있다.2, the
다음으로, 데이터베이스(150, Database)는 본 발명의 일 실시예에 따른 대상 이미지, 배경 이미지, 효과 컨텐츠 및 결과 컨텐츠를 중 하나 이상을 저장 할 수 있다.Next, the database 150 may store at least one of a target image, a background image, an effect content, and a result content according to an embodiment of the present invention.
먼저, 데이터베이스(150)는 본 발명의 일 실시예에 따른 하나 이상의 대상 이미지를 저장한다. 본 발명의 대상 이미지는 합성 컨텐츠와 합성되어 결과 컨텐츠를 생성하기 위한 원본 이미지일 수 있다. 저장된 대상 이미지는 관리자 단말(200)에 의해 등록되거나 컨텐츠 제작 장치(100)에 의해 제작된 컨텐츠를 포함할 수 있다. 저장된 대상 이미지의 형식에는 제한이 없으며, 순서를 가지는 복수의 이미지, 만화 데이터를 포함할 수 있다. 만화 데이터는 복수의 대상 이미지를 포함할 수 있다. First, the database 150 stores one or more target images in accordance with an embodiment of the present invention. The target image of the present invention may be an original image to be combined with the synthesized content to generate the resulting content. The stored target image may include content registered by the
또한, 본 발명에서 대상 이미지는, 만화나 웹툰에서 하나의 컷이 될 수 있다. 이 경우 선택된 대상 이미지는 하나 이상의 순서가 있는 다수의 이미지 중의 하나가 될 수 있다.In addition, in the present invention, the target image may be a cut in a cartoon or an webtun. In this case, the selected target image may be one of a plurality of images having one or more sequences.
또한, 데이터베이스 (150)는 본 발명의 일 실시예에 따라 관리자 단말(200)에 의해 등록되거나 컨텐츠 제작 장치(100)에 의해 제작된 하나 이상의 배경 이미지를 저장한다. 배경 이미지는 2차원, 3차원, 360도 영상으로 표현된 이미지를 포함할 수 있다. 예를 들어, 배경 이미지는 산, 바다, 건축물 내부, 특정 건축물 객체를 포함할 수 있으며, 배경 이미지는 객체에 대한 2D 혹은 3D 이미지, 기하학적 도형 또는 물리적 정보를 포함할 수 있다.In addition, the database 150 stores one or more background images that are registered by the
보다 상세히, 본 발명에서 배경 이미지는 대상 이미지와 중첩되어 표시될 수 있다. 이때, 배경 이미지는 대상 이미지의 앞(위) 또는 뒤(아래)에 배치되거나 소정의 투명도를 가지고 대상 이미지와 중첩되어 표시될 수 있다. 배경 이미지는 평면적으로 구현되거나 입체적으로 구현된 이미지를 포함할 수 있다.More specifically, in the present invention, the background image can be superimposed on the target image. At this time, the background image may be displayed in front of (above) or behind (below) the target image, or may be superimposed on the target image with a predetermined transparency. The background image may be implemented in a planar or stereoscopic manner.
배경 이미지는 하나 이상의 객체를 포함할 수 있으며, 객체에 대한 이미지를 포함할 수 있다. 혹은, 배경 이미지는 객체에 대한 점, 선, 면 등의 기하학적 도형을 포함할 수 있으며, 각 도형들은 각각의 무게, 질량, 크기, 부피, 형태, 위치, 속도, 이동 방향 등에 소정의 고정 값, 소정의 수식에 의하여 결정된 값, 또는 랜덤한 임의의 값을 속성으로서 가질 수 있다. 본 발명의 일 실시예에 따르면 특정 객체에 대한 기하학적 도형의 속성에 기초하여 입체적 혹은 동적 효과를 갖는 결과 컨텐츠를 생성할 수 있다.The background image may include one or more objects, and may include images for the objects. Alternatively, the background image may include geometric figures such as points, lines, and faces for an object, and each figure may have a predetermined fixed value such as weight, mass, size, volume, shape, position, A value determined by a predetermined expression, or a random arbitrary value as an attribute. According to an embodiment of the present invention, it is possible to generate a resultant content having a stereoscopic or dynamic effect based on an attribute of a geometric figure for a specific object.
혹은, 배경 이미지는 객체에 대한 물리적 정보를 포함할 수 있으며, 물리적 정보는 특정 객체의 좌표, 이동방향, 속도, 무게, 중력가속도 등에 관한 것일 수 있다. 배경 이미지는 동적인 혹은 입체적인 특성을 갖는 객체를 포함함으로써, 동적 혹은 입체적인 느낌을 제공할 수 있다. 본 발명의 일 실시예에 따르면 특정 객체에 대한 물리적 정보에 기초하여 입체적 혹은 동적 효과를 갖는 결과 컨텐츠를 생성할 수 있다.Alternatively, the background image may include physical information about the object, and the physical information may relate to the coordinates, direction, speed, weight, gravitational acceleration, etc. of the specific object. The background image may include a dynamic or stereoscopic object, thereby providing a dynamic or stereoscopic feel. According to an embodiment of the present invention, it is possible to generate a resultant content having stereoscopic or dynamic effects based on physical information of a specific object.
또한, 배경 이미지는 360도 배경 이미지 또는 동영상을 포함할 수 있다. 360도 배경 이미지는 소정의 기준 위치에서 바라볼 때, 소정의 일 면 상에서 360도 방향에 배치될 수 있는 배경에 대한 정보(배경색, 테마, 배경 이미지 등)를 포함할 수 있다. 또는, 360도 배경 이미지는 소정의 기준 위치에서 바라볼 때, 소정의 일 면 상에서 정의되는 제1 각도, 및 상기 소정의 일 면과 직교하는 소정의 타 면 상에서 정의되는 제2 각도에 의해 결정될 수 있는 방향에 배치될 수 있는 배경에 대한 정보를 포함할 수 있다. 360도 배경 이미지는 가상 현실(virtual reality) 또는 증강 현실(augmented reality) 기기에서 사용될 수 있는 배경 이미지일 수 있다.In addition, the background image may include a 360 degree background image or a moving image. The 360-degree background image may include information (background color, theme, background image, etc.) about the background that can be arranged in a 360-degree direction on a predetermined one side when viewed from a predetermined reference position. Alternatively, the 360-degree background image can be determined by a first angle defined on a given plane when viewed from a predetermined reference position, and a second angle defined on a predetermined other plane orthogonal to the given plane And may include information on a background that can be placed in a certain direction. The 360 degree background image can be a background image that can be used in a virtual reality or augmented reality device.
또한, 데이터베이스(150)는 본 발명의 일 실시예에 따라 관리자 단말(200)에 의해 등록되거나 컨텐츠 제작 장치(100)에 의해 제작된 하나 이상의 효과 컨텐츠를 저장한다. 효과 컨텐츠는 2차원으로 구현된 다양한 컨텐츠, 2차원으로 구현된 컨텐츠에 동적인 움직임을 포함하는 컨텐츠, 3차원으로 구현되거나 360도 영상으로 구현된 효과 컨텐츠를 포함할 수 있다.In addition, the database 150 stores one or more effect contents that are registered by the
본 발명에서 효과 컨텐츠는, 대상 이미지와 함께 또는 중첩되어 표시될 수 있다. 본 발명에서의 효과 컨텐츠는 바람직하게는 입체적으로 구현된 컨텐츠를 포함할 수 있다. 효과 컨텐츠는 점, 선, 면, 도형 등의 객체들을 포함할 수 있다. 효과 컨텐츠는 점, 선, 면, 도형 등의 객체의 배치, 형태, 모양 등을 조절, 변경하여 입체감을 표현할 수 있다. 구체적인 예를 들면, 효과 컨텐츠는 예를 들면, 불꽃, 섬광, 날씨 효과 등이나 움직임을 표현하기 위한 보조선 등을 포함할 수 있다.In the present invention, the effect contents can be displayed together with the target image or superimposed. The effect contents in the present invention may preferably include contents embodied in three dimensions. The effect content may include objects such as points, lines, faces, graphics, and the like. The effect contents can express a three-dimensional effect by adjusting and changing the arrangement, shape, and shape of objects such as points, lines, faces, and graphics. For example, the effect contents may include, for example, sparks, flashes, weather effects, etc., or auxiliary lines for expressing movements.
보다 구체적으로, 효과 컨텐츠는 동적 혹은 입체적인 느낌을 주기 위한 하나 이상의 객체를 포함할 수 있다. 또한, 효과 컨텐츠는 객체에 대한 이미지, 기하학적 도형 또는 물리적 정보를 포함할 수 있다. 먼저, 객체에 대한 이미지는 2D 혹은 3D 이미지일 수 있다.More specifically, the effect content may include one or more objects for imparting a dynamic or stereoscopic feel. In addition, the effect content may include images, geometric figures or physical information about the object. First, the image for the object may be a 2D or 3D image.
또한, 효과 컨텐츠에 포함된 객체에 대한 기하학적 도형은 점, 선, 면, 또는 다양한 기하학적 도형일 수 있으며, 기하학적 도형은 각각이 시각적 효과를 나타낼 수 있다. 본 발명의 컨텐츠 제작 장치(100)는 하나 이상의 점, 선, 면, 또는 다양한 기하학적 도형들 각각에 대해 다양한 고정 값 또는 변수를 부여할 수 있다. 예를 들어, 컨텐츠 제작 장치(100)가 부여한 값에 의해, 하나 이상의 점, 선, 면, 또는 다양한 기하학적 도형들은 각각의 무게, 질량, 크기, 부피, 형태, 위치, 속도, 이동 방향 등에 소정의 고정 값, 소정의 수식에 의하여 결정된 값, 또는 랜덤한 임의의 값을 속성으로 가질 수 있다. 또한, 컨텐츠 제작 장치(100)는 소정의 시간 경과에 따라서 하나 이상의 점, 선, 면, 또는 다양한 기하학적 도형들 각각의 무게, 질량, 크기, 부피, 형태, 위치, 속도, 이동 방향 등을 변화시킬 수 있다. 컨텐츠 제작 장치(100)는 소정의 고정 값, 소정의 수식, 또는 랜덤 값에 기초하여 하나 이상의 점, 선, 면, 또는 다양한 기하학적 도형들 각각의 무게, 질량, 크기, 부피, 형태, 위치, 속도, 이동 방향 등을 변화시킬 수 있다.Also, the geometric shapes for the objects included in the effect content may be points, lines, faces, or various geometric shapes, and each geometric shape may exhibit visual effects. The
또한, 효과 컨텐츠에 포함된 객체에 대한 물리적 정보는 객체와 대응되는 설정값을 포함할 수 있다. 물리적 정보는 예를 들어, 객체가 위치하는 좌표(상대적 또는 절대적), 객체의 이동방향, 객체의 속도, 객체의 무게, 객체의 중력가속도 중 적어도 하나가 포함될 수 있다. In addition, the physical information about the object included in the effect content may include a setting value corresponding to the object. The physical information may include at least one of, for example, the coordinates (relative or absolute) at which the object is located, the direction of movement of the object, the velocity of the object, the weight of the object, and the gravitational acceleration of the object.
한편, 효과 컨텐츠는 대상 이미지에 대한 설명(description)이나 대사, 자막(subtitles, caption, speech bubble) 객체를 포함 할 수 있다. 만화나 웹툰 컨텐츠를 제작할 때, 컨텐츠 제작 장치(100)는 자막, 대사, 말풍선 객체를 독립적으로 제어되는 별도의 효과 컨텐츠로 설정할 수 있다. 컨텐츠 제작 장치(100)는 자막, 대사, 말풍선 객체를 독립적인 컨텐츠로 설정함으로써, 사용자 맞춤의 언어 변경, 폰트 변경 등 컨텐츠 변경을 용이하게 할 수 있다는 장점이 있다.On the other hand, the effect contents may include a description, a subtitle, a caption, and a speech bubble object of the target image. When producing cartoon or webtoon contents, the
또한, 본 발명의 실시예에 따르면, 하나 이상의 효과 컨텐츠가 대상 이미지에 합성될 수 있으며, 효과 컨텐츠의 객체는 대상 이미지에 포함된 객체에 따라 다르게 변형될 수 있다. 예를 들어, 섬광 객체를 포함하는 효과 컨텐츠에 있어서, 사용자에게 더 높은 입체감을 주기 위해서, 대상 이미지에 포함된 객체의 크기, 형태 등에 따라 섬광 객체의 크기, 색상, 형태 등이 다르게 표현할 수 있다.Also, according to an embodiment of the present invention, one or more effect contents may be composited into a target image, and an object of the effect content may be modified differently depending on an object included in the target image. For example, in order to provide a higher stereoscopic effect to the user in the effect content including the scintillation object, the size, color, shape, and the like of the scintillation object may be expressed differently according to the size, shape, and the like of the object included in the target image.
또한, 데이터베이스(150)는 본 발명의 일 실시예에 따라 생성된 하나 이상의 결과 컨텐츠를 저장한다. 결과 컨텐츠는 대상 이미지와, 배경 이미지 및 효과 컨텐츠 중 하나 이상의 합성 컨텐츠를 합성하여 생성된 컨텐츠로서, 결과 컨텐츠에 대해서는 프로세서(140)의 상세 구성과 관련하여 후술하기로 한다.Also, the database 150 stores one or more resultant content generated according to one embodiment of the present invention. The resulting content is a content generated by compositing at least one of the target image, the background image, and the effect content, and the resulting content will be described later with respect to the detailed configuration of the
통신부(160)는 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다.The
다음으로, 프로세서(140)의 내부 구성을 살펴보면, 프로세서(140)는 대상 이미지 선택부(141), 합성 컨텐츠 결정부(142) 및 결과 컨텐츠 생성부(143)를 포함할 수 있다. 프로세서(140)는 본 발명의 컨텐츠 제작 방법을 수행하기 위해 동작할 수 있다. 이하에서는, 프로세서(140)의 각 구성을 중심으로 컨텐츠 제작 방법에 대해 보다 상세히 살펴보기로 한다.The
도 3 은 본 발명의 일 실시예에 따른 컨텐츠 제작 방법을 시계열적으로 나타낸 순서도이다.3 is a time-sequentially flowchart illustrating a content production method according to an embodiment of the present invention.
도 3 을 참조하면, 본 발명의 일 실시예에 따른 컨텐츠 제작 방법은 대상 이미지를 선택하는 단계(S20), 배경 이미지 및/또는 효과 컨텐츠를 포함하는 합성 컨텐츠를 결정하는 단계(S30), 결과 컨텐츠를 생성하는 단계(S40)를 포함할 수 있다. 또한, 본 발명의 일 실시예에 따른 컨텐츠 제작 방법은 대상 이미지, 배경 이미지 및 효과 컨텐츠를 포함하는 다수의 컨텐츠 목록을 등록하는 단계(S10)를 선행적으로 더 포함할 수 있다.Referring to FIG. 3, a content production method according to an exemplary embodiment of the present invention includes a step S20 of selecting a target image, a step S30 of determining a composite content including a background image and / or an effect content, (S40). ≪ RTI ID = 0.0 > In addition, the content production method according to an embodiment of the present invention may further include a step S10 of registering a plurality of content lists including a target image, a background image, and effect content.
먼저, 컨텐츠 제작 장치(100)는 대상 이미지 및 합성 컨텐츠를 포함하는 컨텐츠 목록을 등록하는 단계(S10)를 수행할 수 있다. 컨텐츠 목록에는 하나 이상의 대상 이미지, 배경 이미지 및 효과 컨텐츠들이 포함될 수 있다. 컨텐츠 제작 장치(100)는 컨텐츠를 제작하는 과정에서 사용될 수 있는 하나 이상의 컨텐츠들을 컨텐츠 제작 장치 내부의 데이터베이스 또는 외부에 존재하는 저장 장치에 등록할 수 있다. 이때, 컨텐츠 목록은 관리자 단말(200)로부터의 입력에 의해 등록될 수 있으며, 컨텐츠 제작 장치(100)가 제공하는 소정의 소프트웨어는 컨텐츠 목록을 등록할 수 있는 인터페이스를 제1 출력 제어부(121)를 통해 제공할 수 있다. 또한, 소정의 소프트웨어는 등록된 컨텐츠 중 대상 이미지의 순서를 정할 수 있는 인터페이스를 제공할 수 있다. First, the
다음으로, 대상 이미지 선택부(141)는 대상 이미지를 선택하는 단계(S20)를 수행할 수 있다. 본 발명의 일실시예에 따르면, 등록된 컨텐츠 목록에 포함되는 하나 이상의 대상 이미지들 중에서 컨텐츠의 제작 과정에서 사용할 적어도 하나의 대상 이미지를 선택할 수 있다. 대상 이미지 선택부(141)는 대상 이미지를 선택하는 제1 신호를 관리자 단말(200)로부터 수신할 수 있다. 이때, 컨텐츠 제작 장치(100)는 대상 이미지를 선택할 수 있는 소정의 인터페이스를 제1 출력 제어부(121)를 통해 관리자 단말(200)에 제공할 수 있다.Next, the target
다음으로, 합성 컨텐츠 결정부(142)는 배경 이미지 및/또는 효과 컨텐츠 포함하는 합성 컨텐츠를 결정하는 단계(S30)를 수행할 수 있다. 컨텐츠 제작 장치(100)는 선택된 대상 이미지에 합성될 배경 이미지 및/또는 효과 컨텐츠를 관리자 단말(200)로부터의 입력에 따라 결정할 수 있다. 또한, 컨텐츠 제작 장치(100)는 선택된 이미지에 추가될 배경 이미지 및/또는 효과 컨텐츠를 선택된 대상 이미지를 분석한 결과를 이용하여 결정할 수 있다.Next, the composite
보다 상세히, 합성 컨텐츠 결정부(142)가 결정하는 합성 컨텐츠는 대상 이미지와 합성되어 결과 컨텐츠에 입체적 혹은 동적 효과를 부여할 수 있는 특정 객체를 포함하며, 합성 컨텐츠는 특정 객체에 대한 이미지, 기하학적 도형 및 물리적 정보 중 하나 이상을 포함할 수 있다. 특정 객체에 대한 이미지는 특정 객체를 나타내는 2D 혹은 3D 이미지일 수 있다. 특정 객체에 대한 기하학적 도형은 특정 객체를 나타내는 점, 선, 면 등 다양한 기하학적 도형이며, 각 도형들은 각각의 무게, 질량, 크기, 부피, 형태, 위치, 속도, 이동 방향 등에 소정의 고정 값, 소정의 수식에 의하여 결정된 값, 또는 랜덤한 임의의 값을 가질 수 있다. 또한, 특정 객체에 대한 물리적 정보는 특정 객체의 좌표, 이동방향, 속도, 무게, 중력가속도 등일 수 있다.More specifically, the composite content determined by the composite
합성 컨텐츠 결정부(142)는 대상 이미지를 분석하여 이미지의 특징을 확인할 수 있다. 컨텐츠 제작 장치(100)는 확인한 대상 이미지의 특징을 기초로 대상 이미지에 합성할 효과 컨텐츠, 배경 이미지 및/또는 기타 시각적 효과 컨텐츠를 합성 컨텐츠로서 결정할 수 있다. 보다 구체적으로 컨텐츠 제작 장치(100)는 이미지의 적어도 일 영역의 명도, 채도, 색상 등을 기초로 하여 대상 이미지에 합성할 합성 컨텐츠를 결정할 수 있다. 예를 들어, 컨텐츠 제작 장치(100)는 이미지의 가장자리 부분의 색상을 분석하여, 분석한 해당 색상에 대응하는 날씨 객체를 포함하는 배경 이미지 및/또는 효과 컨텐츠를 컨텐츠에 합성할 합성 컨텐츠로 결정할 수 있다. 다른 예시로, 컨텐츠 제작 장치(100)는 이미지에 등장하는 등장 인물의 특징을 분석하여, 분석한 등장 인물의 특징에 대응하는 객체를 포함하는 배경 이미지 및/또는 효과 컨텐츠를 합성할 합성 컨텐츠로 결정할 수 있다.The composite
보다 상세히, 합성 컨텐츠 결정부(142)는 관리자 단말(200)로부터 획득된 입력에 기초하여 또는 대상 이미지를 분석하여 필요한 배경 이미지를 합성 컨텐츠로 결정할 수 있다. 예시로, 합성 컨텐츠 결정부(142)는 대상 이미지의 배경 색상을 분석하여, 배경 색상 객체를 포함하는 배경 이미지를 합성 컨텐츠로서 결정할 수 있다. 다른 예시로, 컨텐츠 제작 장치(100)는 대상 이미지의 배경 색 뿐만 아니라 전체적인 환경을 분석하여, 환경 객체를 포함하는 배경 이미지를 합성 컨텐츠로서 결정할 수 있다. 구체적인 예시로, 합성 컨텐츠 결정부(142)는 대상 이미지 내에 하늘이 있는 경우 하늘 객체를 포함하는 배경 이미지를, 이미지 내에 바다가 있는 경우 바다 객체를 포함하는 배경 이미지를 선택하고, 해당 배경 이미지를 합성 컨텐츠로 결정할 수 있다. 다른 예시로, 합성 컨텐츠 결정부(142)는 대상 이미지의 내용을 분석하여, 대상 이미지가 행성에 대한 것인 경우 우주 객체를 포함하는 배경 이미지를, 대상 이미지가 밤에 일어나는 상황에 대한 것이라면 밤하늘 객체를 포함하는 배경 이미지를 합성 컨텐츠로 결정할 수 있다.In more detail, the composite
또한, 합성 컨텐츠 결정부(142)는 관리자 단말(200)로부터 획득된 입력 또는 대상 이미지를 분석한 결과를 이용하여 효과 컨텐츠를 결정할 수 있다. 이때, 효과 컨텐츠가 결정된 후에 합성 컨텐츠 결정부(142)는 대상 이미지를 분석한 결과를 이용하여 대상 이미지 및 효과 컨텐츠 사이의 상호 작용과 대응되는 컨텐츠, 설정값 등을 생성, 산출할 수 있다. 여기서, 상호 작용은 이미지 및 사용자에 의해 선택된 효과 컨텐츠 사이의 작용 또는 반작용과 대응되는 것을 말한다. 예를 들어, 이동하는 자동차 및 비 내리는 효과 사이에는 이동하는 자동차에 의해 발생하는 물보라 객체가 상호 작용으로 생성될 수 있다. 또한, 오토바이가 포함된 대상 이미지 및 매우 빠른 속도로 이동하는 효과 컨텐츠 사이에는 상기 오토바이에 의해 발생하는 바람 또는 모래바람이 상호 작용으로 생성될 수 있다. 설정값은 소정의 수식에 의해 산출된 대상 이미지 또는 효과 컨텐츠의 무게, 질량, 크기, 부피, 형태, 위치, 속도, 이동 방향 등에 기초하여 결정되거나, 상기 산출된 대상 이미지 또는 효과 컨텐츠의 무게, 질량, 크기, 부피, 형태, 위치, 속도, 이동 방향 등의 변화에 의해 결정될 수 있다. In addition, the composite
마지막으로, S40에서 결과 컨텐츠 생성부(143)는 대상 이미지에 합성 컨텐츠를 합성한 결과 컨텐츠를 생성할 수 있다. 보다 상세히, 결과 컨텐츠 생성부(143)는 대상 이미지에 합성 컨텐츠를 결합, 조합, 추가하여 합성함으로써 결과 컨텐츠를 생성할 수 있다.Finally, in step S40, the result
보다 구체적으로, 본 발명의 일 실시예에 따르면 결과 컨텐츠 생성부(143)는 소정의 가상 공간을 설정하고, 가상 공간 상에 대상 이미지를 배치한 후, 합성 컨텐츠를 결합, 조합, 추가하여 합성함으로써 결과 컨텐츠를 생성할 수 있다. 이를 위해 결과 컨텐츠 생성부(143)는 가상 공간 상에서 소정의 기준 위치에서부터 대상 이미지까지의 거리, 대상 이미지가 소정의 기준 축과 이루는 각도 등을 결정함으로써 가상 공간에 대상 이미지가 배치될 위치를 결정할 수 있다.More specifically, according to an embodiment of the present invention, the result
또한, 결과 컨텐츠 생성부(143)는 대상 이미지가 배치된 가상 공간 상에 배경 이미지 및/또는 효과 컨텐츠를 합성하여, 입체적 혹은 동적 효과를 갖는 결과 컨텐츠를 생성할 수 있다. 이때 결과 컨텐츠 생성부(143)는 합성 컨텐츠가 배치될 기준 위치를 결정할 수 있다. 결과 컨텐츠 생성부(143)는 가상 공간 상에서 소정의 기준 위치에서부터 합성 컨텐츠까지의 거리, 배경 이미지가 소정의 기준 축과 이루는 각도 등을 결정할 수 있다. 또한, 결과 컨텐츠 생성부(143)는 합성 컨텐츠의 가상 공간 상에서 대상 이미지에서부터의 상대적인 거리, 이미지 면과 이루는 각도 등에 기초하여 합성 컨텐츠가 배치될 위치를 결정할 수 있다. 이때, 가상 공간에 합성 컨텐츠가 배치될 위치는 관리자 단말(200)로부터의 입력에 기초할 수 있다. 선택적으로 결과 컨텐츠 생성부(143)는 효과 컨텐츠를 보정함으로써 입체적인 느낌을 생성할 수 있다. 컨텐츠 생성부(143)는 효과 컨텐츠를 구성하는 객체의 모양 및 형태, 위치 등을 조절함으로써, 입체감을 부여할 수 있다.In addition, the result
선택적 실시예에서, 결과 컨텐츠 생성부(143)는 대상 이미지, 배경 이미지, 효과 컨텐츠 중 적어도 하나를 분석한 결과를 이용하여 이미지의 설정값을 산출할 수 있다. 결과 컨텐츠 생성부(143)는 대상 이미지를 분석하여, 대상 이미지에 포함된 하나 이상의 객체를 추출하고, 추출된 하나 이상의 객체 각각의 무게, 질량, 크기, 부피, 형태 등을 소정의 수식에 의해서 결정하고, 하나 이상의 객체 각각의 무게, 질량, 크기, 부피, 형태 중 적어도 하나를 고려하여 대상 이미지의 설정값을 산출할 수 있다. 컨텐츠 생성부(143)는 대상 이미지의 설정값을 기초로 대상 이미지에 배경 이미지 및/또는 효과 컨텐츠를 합성할 수 있다. 결과 컨텐츠 생성부(143)는 는 대상 이미지의 설정값을 기초로 합성될 합성 컨텐츠의 위치 및 방향을 결정할 수 있다. In an alternative embodiment, the result
선택적 실시예에서, 결과 컨텐츠 생성부(143)가 대상 이미지와 효과 컨텐츠 사이의 상호작용이 존재한다고 판단하는 경우, 결과 컨텐츠 생성부(143)는 상호작용과 대응되는 상호작용 객체를 포함하는 효과 컨텐츠를 생성된 결과 컨텐츠에 추가적으로 합성할 수 있다. 효과 컨텐츠 및 상호 작용과 대응되는 상호작용 객체를 포함하는 효과 컨텐츠는 생성된 결과 컨텐츠에 자연스럽게 합성될 수 있다. 이때, 효과 컨텐츠의 크기 및/또는 형태는 대상 이미지에 포함된 객체의 크기 및/또는 형태를 고려하여 변경될 수 있다. 상호 작용 객체를 포함하는 상호작용 효과 컨텐츠 역시 효과 컨텐츠 및/또는 대상 이미지에 따라 조절될 수 있다. 결과 컨텐츠 생성부(143)는 대상 이미지, 효과 컨텐츠, 상호작용 효과 컨텐츠가 전체적으로 입체적인 느낌을 가지도록 보정할 수 있다. 결과 컨텐츠 생성부(143)는 효과 컨텐츠, 상호작용 효과 컨텐츠에 음영 등의 부피감을 주거나 동적인 움직임을 부여할 수 있다. In an alternative embodiment, when the result
이러한 방법을 통하여, 컨텐츠 제작 장치(100)는 대상 이미지에 다양한 합성 컨텐츠를 합성함으로써, 입체적 혹은 동적 효과를 갖는 결과 컨텐츠를 제작할 수 있다. 생성된 결과 컨텐츠는 2D 대상 이미지를 포함하면서도 동적 또는 입체적인 느낌을 가질 수 있다. 결과 컨텐츠는 배경 이미지 및/또는 및 효과 컨텐츠에 포함된 객체의 입체감, 부피감으로 인해 입체적인 느낌이 생길 수도 있다.Through this method, the
한편, 본 발명의 일 실시예에 따라 제작된 결과 컨텐츠는 가상 현실(virtual reality) 또는 증강 현실(augmented reality)을 구현하는 기기에서 표시될 수 있는 이미지 컨텐츠일 수 있다. 나아가, 본 발명의 일 실시예에 따라 제작된 결과 컨텐츠는 다양한 디스플레이 장치에서 표시될 수 있는 이미지 컨텐츠일 수 있다. 본 발명의 일 실시예에 따라 제작된 결과 컨텐츠는 디스플레이 장치의 사양을 고려하여, 3차원 또는 2차원으로 표시될 수 있다. 이를 위해, 컨텐츠 제작 장치(100)는 생성한 결과 컨텐츠를 변형하여 수정 컨텐츠를 생성할 수 있다. 예를 들어, 컨텐츠 제작 장치(100)는 가상 현실(virtual reality) 또는 증강 현실(augmented reality)을 구현하는 기기에 표시될 수 있도록 결과 컨텐츠를 수정할 수 있다. 이때, 수정한 컨텐츠는 양안에 도시되는 영상의 위치 및/또는 색상 차이에 의하여 입체감을 느끼게 할 수 있는 3D용 이미지 컨텐츠일 수 있다.Meanwhile, the resultant content produced according to an exemplary embodiment of the present invention may be image content that can be displayed on a device that implements a virtual reality or augmented reality. Furthermore, the resultant content produced according to an exemplary embodiment of the present invention may be image content that can be displayed on various display devices. The resulting content produced according to one embodiment of the present invention may be displayed in three dimensions or two dimensions in consideration of the specification of the display device. To this end, the
도 4 내지 도 6 은 본 발명의 실시예들에 따른 컨텐츠 제작 방법의 구체적인 시계열적 흐름을 나타낸 흐름도들이다. FIGS. 4 to 6 are flowcharts illustrating a specific time-series flow of the content production method according to the embodiments of the present invention.
도 4 를 참조하면, 본 발명의 실시예들에 따른 컨텐츠 제작 방법은 관리자에 의해 대상 이미지를 선택하는 신호를 수신하는 단계(S110), 배경 이미지를 결정하는 단계(S120), 대상 이미지에 배경 이미지를 합성한 결과 컨텐츠를 생성하는 단계(S130)를 포함할 수 있다.Referring to FIG. 4, a content production method according to embodiments of the present invention includes a step S110 of receiving a signal for selecting a target image by an administrator, a step S120 of determining a background image, (S130) of generating a content as a result of synthesizing the content.
S110에서는 컨텐츠 제작 장치(100)는 관리자로부터 대상 이미지를 선택하는 신호를 수신한다. 컨텐츠 제작 장치(100)를 통해 제공되는 인터페이스에 의해 대상 이미지를 선택할 수 있는 신호가 생성될 수 있다.In S110, the
S120에서는 컨텐츠 제작 장치(100)는 관리자의 입력에 따라 배경 이미지를 결정할 수 있다. 선택적으로 컨텐츠 제작 장치(100)는 관리자 입력에 따른 배경 이미지를 최적화된 다른 배경 이미지로 변경할 수 있다. 이때, 최적화된 다른 배경 이미지는 관리자에 의해 선택된 배경 이미지와 시각적으로 동일, 유사하게 인식될 수 있으면서 입체감을 좀더 표현하는 이미지일 수 있다. 혹은, 컨텐츠 제작 장치(100)는 선택된 대상 이미지를 분석한 결과를 이용하여 대상 이미지와 대응되는 동적 혹은 입체적으로 구현된 배경 이미지를 결정할 수도 있다.In S120, the
본 발명의 일 실시예에 따르면, 컨텐츠 제작 장치(100)는 소정의 가상 공간을 설정하고, 가상 공간을 전체적으로 배경 이미지로 채울 수 있다. 컨텐츠 제작 장치(100)는 소정의 가상 공간 내에 대상 이미지를 배치시켜 결과 컨텐츠를 생성할 수 있다. 컨텐츠 제작 장치(100)는 가상 공간 또는 배경 이미지 내에서 대상 이미지가 너무 도드라지지 않도록 이미지의 경계를 자연스럽게 처리할 수도 있다. 또한, 컨텐츠 제작 장치(100)는 배경 이미지가 좀더 입체감을 가지도록 별도의 효과 컨텐츠를 더 합성할 수 있다. 별도의 효과 컨텐츠는 배경 이미지에 포함된 객체에 기초하여 결정될 수 있다. 예를 들어, 배경 이미지가 하늘 객체에 대한 하늘 이미지를 포함하는 경우, 별도의 효과 컨텐츠로서 구름 객체를 추가적으로 합성하여 결과 컨텐츠를 생성할 수 있다. 이때, 별도의 효과 컨텐츠는 소정의 주기로 소정의 정도로 움직이는 움직임(애니메이션 효과) 또는 랜덤한 움직임을 가질 수 있다. 물론, 결과 컨텐츠는 관리자에 의해 선택된 효과 컨텐츠를 더 포함할 수도 있다. According to an embodiment of the present invention, the
이를 통해, 본 발명의 실시예들에 따른 컨텐츠 제작 장치(100)는 이미지를 입체적으로 제공하기 위해서, 이미지를 입체적으로 변환하지 않고, 입체적으로 구현되거나 동적인 움직임을 가지는 배경 이미지와 대상 이미지를 합성하여 입체적인 결과 컨텐츠를 생성할 수 있다. 본 발명의 일 실시예에 따르면 합성되는 배경 이미지가 반드시 입체적이지 않더라도, 대상 이미지와의 합성에 의해 결과 이미지에 전체적으로 입체적인 효과를 부여할 수 있다. 추가적으로, 본 발명의 실시예들에 따른 컨텐츠 제작 장치(100)는 생성된 결과 컨텐츠로부터 가상 현실 또는 증강 현실을 구현하는 기기에 표시될 수 있는 수정 컨텐츠를 생성하는 단계를 더 수행할 수 있다. Accordingly, the
도 5 를 참조하면, 본 발명의 실시예들에 따른 컨텐츠 생성 방법은 관리자로부터 대상 이미지를 선택하는 신호를 수신하는 단계(S210), 대상 이미지에 대한 효과 컨텐츠를 결정하는 단계 (S220), 대상 이미지에 효과 컨텐츠를 합성한 결과 컨텐츠를 생성하는 단계(S230), 생성된 결과 컨텐츠를 입체적으로 변경하는 단계(S240)를 포함할 수 있다. Referring to FIG. 5, a content generation method according to embodiments of the present invention includes a step S210 of receiving a signal for selecting a target image from an administrator, a step S220 of determining an effect content for a target image, A result of synthesizing the effect contents with the effect contents S230, and a step S240 of changing the generated result contents stereoscopically.
S210에서 컨텐츠 제작 장치(100)는 관리자로부터 이미지를 선택하는 신호를 수신할 수 있다. 컨텐츠 제작 장치(100)를 통해 제공되는 인터페이스에 의해 대상 이미지를 선택할 수 있는 신호가 생성될 수 있다. In S210, the
S220에서 컨텐츠 제작 장치(100)는 관리자의 입력에 따라 효과 컨텐츠를 결정할 수 있다. 컨텐츠 제작 장치(100)는 관리자에 의해 획득된 입력에 따라 효과 컨텐츠를 선택, 결정할 수 있다. 혹은, 컨텐츠 제작 장치(100)는 선택된 대상 이미지를 분석한 결과를 이용하여 대상 이미지와 대응되는 동적 혹은 입체적으로 구현된 효과 컨텐츠를 결정할 수도 있다.In S220, the
S230에서 컨텐츠 제작 장치(100)는 대상 이미지에 효과 컨텐츠를 합성한 결과 컨텐츠를 생성할 수 있다. 컨텐츠 제작 장치(100)는 입체감이 있는 효과 컨텐츠를 대상 이미지에 합성함으로써 입체감 있는 결과 컨텐츠를 생성할 수 있다. 컨텐츠 제작 장치(100)는 동적인 움직임을 가지는 효과 컨텐츠를 대상 이미지에 합성함으로써 동적으로 움직이는 효과를 가지는 결과 컨텐츠를 생성할 수 있다. In S230, the
컨텐츠 제작 장치(100)는 효과 컨텐츠를 합성한 이후에 생성된 결과 컨텐츠에 입체적인 느낌을 추가하여 결과 컨텐츠를 입체적으로 변경하는 보정을 수행할 수 있다(S240). 예를 들어, 컨텐츠 제작 장치(100)에 의해 생성된 결과 컨텐츠는 입체적인 느낌을 가지기 위해서 소정의 배경색 또는 배경 이미지로 채워진 가상 공간, 가상 현실 내에 포함될 수 있다. 컨텐츠 제작 장치(100)는 대상 이미지 및 효과 컨텐츠 이외에 움직이는 것으로 인식될 수 있는 선을 추가하거나, 대상 이미지 및 효과 컨텐츠에 포함된 선을 곡선 처리 하거나, 대상 이미지 및 효과 컨텐츠에 포함된 도형 등의 사이즈를 조절함으로써 입체적인 느낌을 부가시킬 수 있다. 또한, 컨텐츠 제작 장치(100)는 각 가상 공간 또는 가상 현실을 제공하는 장치를 통해 구현, 제공 또는 최적화되도록 결과 컨텐츠의 형식 등을 변경할 수도 있다. The
이를 통해, 본 발명의 실시예들에 따른 컨텐츠 제작 장치(100)는 입력된 대상 이미지 및 선택된 효과 컨텐츠를 동적이고 입체감이 있는 결과 컨텐츠로 제공할 수 있다. Accordingly, the
도 6 은 컨텐츠 생성 장치(100)에 의해 관리자에 의해 선택된 대상 이미지들에 배경 이미지를 추가하는 실시예를 설명하기 위한 흐름도이다. 6 is a flowchart for explaining an embodiment of adding a background image to target images selected by the administrator by the
도 6 을 참조하면, 본 발명의 실시예들에 따른 컨텐츠 생성 방법은 관리자에 의해 제1 대상 이미지 및 제2 대상 이미지를 선택하는 신호를 수신하는 단계(S310), 제1 및 제2 대상 이미지들과 대응되는 배경 이미지를 결정하는 단계(S320), 제1 대상 이미지와 대응되는 제1 배경 이미지 및 제2 대상 이미지와 대응되는 제2 배경 이미지가 동일한지 여부를 판단하는 단계(S330), 배경 이미지들이 서로 동일한 경우, 제1 및 제2 대상 이미지들을 모두 하나의 제1 배경 이미지와 합성하여 제1 및 제2 결과 컨텐츠를 생성하는 단계(S340)를 포함할 수 있다. 배경 이미지들이 서로 상이한 경우, 제1 및 제2 대상 이미지 각각을 제1 및 제2 배경 이미지와 합성하여 결과 컨텐츠를 생성하는 단계(S350)를 포함할 수 있다. S320에서 컨텐츠 제작 장치(100)는 관리자 입력을 이용하여 제1 및 제2 이미지와 대응되는 배경 이미지들을 각각 선택할 수 있다. Referring to FIG. 6, a content generation method according to embodiments of the present invention includes receiving (S310) a signal for selecting a first target image and a second target image by an administrator (S310) (S330) of determining whether the first background image corresponding to the first target image and the second background image corresponding to the second target image are the same (S330) (S340) of synthesizing the first and second target images together with one first background image to generate first and second resultant contents, if they are equal to each other. And combining the first and second target images with the first and second background images, respectively, if the background images are different from each other (S350). In step S320, the
S330에서는 컨텐츠 제작 장치(100)는 제1 대상 이미지와 대응되는 제1 배경 이미지 및 제2 대상 이미지와 대응되는 제2 배경 이미지가 동일한지 여부를 판단할 수 있다. 예를 들면, 컨텐츠 제작 장치(100)는 배경 이미지에게 부여된 인덱스를 비교함으로써, 배경 이미지들 사이의 동일 여부를 판단할 수 있다. 컨텐츠 제작 장치(100)는 배경 이미지에 포함된 객체의 동일 여부를 통해 배경 이미지들 사이의 동일 여부를 판단할 수 있다. 이때, 컨텐츠 제작 장치(100)는 이미지 비교 알고리즘을 이용할 수 있다. 제1 및 제2 배경 이미지가 완전히 동일하지 않다고 하더라도 동일한 객체를 포함하거나 소정의 임계 비율 이상으로 일치하는 경우, 동일하다고 판단할 수 있다. In S330, the
S340에서는 컨텐츠 제작 장치(100)는 배경 이미지들이 서로 동일한 경우, 제1 및 제2 이미지를 배경 이미지와 합성하여 결과 컨텐츠를 생성할 수 있다. 이때, 컨텐츠 제작 장치(100)는 제1 및 제2 대상 이미지 사이의 관계를 고려하여 제1 및 제2 대상 이미지의 배치를 결정할 수 있다. 여기서 관계는 관리자에 의해 설정되는 것으로, 제공되는 순서와 관련될 수도 있으며, 위치와 관련될 수도 있다. 보다 구체적으로 컨텐츠 제작 장치(100)는 제1 및 제2 대상 이미지 사이의 선후 관계를 고려하여, 제1 및 제2 대상 이미지를 배치시키게 된다. 즉, 배경 이미지 상에서, 기준 위치로부터 먼저 제공되어야 하는 대상 이미지가 더 가깝게 인식, 표현되도록 컨텐츠를 생성할 수 있다. 컨텐츠 제작 장치(100)는 제1 및 제2 이미지에 포함된 객체들이 서로 동일한 경우에는 제1 대상 이미지에 포함된 제1 객체 및 제2 대상 이미지에 포함된 제1 객체 사이의 혼동을 방지하기 위해서 제1 이미지 및 제2 이미지를 중첩시켜 표현할 수 있다. In S340, if the background images are identical to each other, the
S350에서 컨텐츠 제작 장치(100)는 배경 이미지들이 상이한 경우, 제1 및 제2 대상 이미지를 각각 개별적으로 포함하는 컨텐츠들을 생성할 수 있다. In step S350, the
상기와 같이 복수의 이미지들을 입체적으로 제공하기 위해서, 컨텐츠 제작 장치(100)는 복수의 이미지들로부터 추출된 배경 이미지들에 따라 하나의 배경 이미지 상에서 복수의 대상 이미지들을 제공할 수 있다. In order to stereoscopically provide a plurality of images as described above, the
도 7 내지 도 11 은 컨텐츠 제작 장치에 의해 생성된 결과 컨텐츠들의 예시들이다. Figs. 7 to 11 are examples of the resultant contents generated by the content production apparatus.
도 7 에 도시된 바와 같이, 컨텐츠 제작 장치(100)는 가상 공간(VC) 상에서의 대상 이미지(img1)의 위치를 결정하고, 상기 결정된 위치에 상기 대상 이미지(img1)를 배치시킬 수 있다. 컨텐츠 제작 장치(100)는 기준 위치(base-point)로부터 소정의 수식에 따라 결정된 상기 이미지의 거리만큼 떨어진 위치에 상기 대상 이미지(img1)를 배치시키며, 관리자로부터의 입력 또는 소정의 수식에 따라 결정된 상기 이미지의 각도만큼 상기 대상 이미지(img1)의 방향을 회전시키게 된다. 이때, 이미지의 각도는 사용자의 시선 또는 각 이미지에 포함된 객체의 방향, 또는 위치를 고려하기도 한다. 예를 들어, 대상 이미지(img1)의 객체가 이미지 상에서 아래쪽에 위치하는 경우에는, 기준 위치를 포함하는 면을 기준으로, 음의 각도를 가지도록 배치시킬 수 있다. 객체가 이미지 상에서 위쪽에 위치하는 경우에는 기준 위치를 포함하는 면을 기준으로 양의 각도를 가지도록 배치시킬 수 있다. 7, the
도 8 에 도시된 바와 같이, 컨텐츠 제작 장치(100)는 관리자에 의해 입력된 대상 이미지(img2)를 분석한 결과 또는 관리자로부터 획득된 입력을 이용하여, 대상 이미지(img2)에 포함된 차량 내부 객체(obj2)를 기준 위치에 배치시킬 수 있다.8, the
또한, 컨텐츠 제작 장치(100)는 대상 이미지를 분석한 결과 또는 관리자로부터의 입력을 이용하여 대상 이미지의 배경 이미지(정확히는, 차량 내부에서 유리창을 통해 보이는 배경 이미지)로 밤하늘 객체을 포함하는 배경 이미지(bg21)를 선택, 결정할 수 있다. 이때, 배경 이미지(bg21)는 밤하늘 객체에 대한 밤하늘 이미지를 포함하여 결과 컨텐츠에 입체적 효과를 부여할 수 있고, 밤하늘 객체에 포함된 별이 이동함으로써 결과 컨텐츠에 동적 효과(예를 들어, 차량이 이동하는 효과)를 부여할 수 있다. 또한, 배경 이미지(bg21)는 밤하늘 이미지 및 별이 이동하는 속도 및 이동방향의 정보를 포함할 수 있다.In addition, the
또한, 대상 이미지에 포함된 차량 내부 객체(obj2)에 대한 이동 효과를 나타내기 위해서, 컨텐츠 제작 장치(100)는 대상 이미지(img2)를 분석한 결과 또는 관리자로부터의 입력을 이용하여 밤 하늘의 배경 이미지(bg21)에, 이동하는 효과를 나타내는 사선 객체를 포함하는 효과 컨텐츠(ef2)를 더 포함시킬 수 있다. 사선 객체는 선들로 이루어진 기하학적 도형 집합을 포함하며, 결과 컨텐츠에 동적인 효과를 부여할 수 있다.Also, in order to express the movement effect on the in-vehicle object obj2 included in the target image, the
또한, 컨텐츠 제작 장치(100)는 대상 이미지(img2)를 분석한 결과 또는 관리자로부터의 입력을 이용하여, 도로 객체를 포함하는 배경 이미지(bg22)를 대상 이미지(img2)의 배경 이미지로 결정할 수 있다. 이때, 배경 이미지(b22)는 도로 객체에 대한 도로 이미지 및 물리적 정보를 포함할 수 있다. 도로 객체에 대한 도로 이미지는 결과 컨텐츠에 입체적 효과를 부여할 수 있고, 도로 객체에 대한 물리적 정보에 기초하여 가로수가 이동함으로써 결과 컨텐츠에 동적 효과를 부여할 수 있다.The
또한, 대상 이미지(img2)의 상단은 밤하늘 객체을 포함하는 배경 이미지(bg21)가 배치되고, 대상 이미지(img2)의 하단은 도로 객체를 포함하는 배경 이미지(bg22)가 배치될 수 있다. 컨텐츠 제작 장치(100)는 관리자로부터의 입력 또는 이미지를 분석한 결과를 이용하여 복수의 배경 이미지들을 선택, 결정할 수 있다. 컨텐츠 제작 장치(100)는 복수의 배경 이미지들의 위치 관련 속성(하늘, 바다, 땅 등)을 고려하여, 해당 하나 이상의 배경 이미지의 배치 정보를 산출할 수 있다. 예시로, 배경 이미지는 가상 공간 내에서의 적당한 위치에 대상 이미지의 객체, 즉 도 8 의 실시예에서는 차량 내부 객체(obj2)를 기준으로 배치될 수 있다. The background image bg21 including the night sky object is disposed at the upper end of the target image img2 and the background image bg22 including the road object at the lower end of the target image img2 may be disposed. The
도 9 에 도시된 바와 같이, 컨텐츠 제작 장치(100)는 관리자에 의해 입력된 대상 이미지(img3)를 분석하고, 관리자로부터 획득된 입력 또는 대상 이미지(img3)를 분석한 결과를 이용하여 대상 이미지(img3)에 포함된 객체(자동차)(obj3)를 기준 위치에 배치시킬 수 있다. 컨텐츠 제작 장치(100)는 관리자로부터 획득된 입력 또는 대상 이미지(img3)를 분석한 결과를 이용하여 배경 이미지(bg3)를 선택할 수 있으며, 배경 이미지(bg3)는 비 내리는 하늘 객체를 포함할 수 있다. 비 내리는 하늘 객체는 비 이미지 및 비 이미지에 대한 물리적 정보(예를 들어, 비가 내리는 속도 등)을 포함하여 결과 컨텐츠에 동적 또는 입체적 효과를 부여할 수 있다. 또한, 제2 이미지에 포함된 객체(자동차)(obj3)가 이동한다고 판단되는 경우, 컨텐츠 제작 장치(100)는 이동하는 객체로 인해 발생되는 물보라 객체를 포함하는 효과 컨텐츠(ef3)를 추가적으로 더 합성할 수 있으며, 물보라 객체는 물보라 이미지 및 물보라 객체에 대한 물리적 정보를 포함할 수 있다. 9, the
도 10에 도시된 바와 같이, 컨텐츠 제작 장치(100)는 대상 이미지(img41) 및 대상 이미지(img42)를 입력 받고, 대상 이미지(img41) 및 대상 이미지(img42)와 각각 대응되는 배경 이미지들(bg41, bg42)을 도 10(c), (d)와 같이 결정할 수 있다. 이때, 배경 이미지는 입체적으로 구현되거나 동적인 느낌을 가지는 거실 배경 객체를 포함할 수 있다. 또한, 배경 이미지는 관리자로부터 획득된 관리자 입력에 따라 선택, 결정될 수 있다. 제1 배경 이미지(bg41) 및 제2 배경 이미지(bg42)는 도시된 바와 같이 동일하므로, 최종적으로 컨텐츠 제작 장치(100)는 하나의 배경 이미지와 대상 이미지(img41) 및 대상 이미지(img42)를 모두 합성하여 결과 컨텐츠를 생성할 수 있다. 이때, 컨텐츠 제작 장치(100)는 각 대상 이미지(img41) 및 대상 이미지(img42)에 포함된 객체를 추출하고, 객체를 분석하여 각 객체의 위치를 결정하기도 한다. 예를 들어, 대상 이미지(img41) 및 대상 이미지(img42)에 포함된 객체 사이의 크기 비율을 고려하여, 대상 이미지(img41)까지의 거리는 기준 위치로부터 다소 가깝게 설정되고, 대상 이미지(img42)까지의 거리는 기준 위치로부터 다소 멀게 설정될 수 있다. 10, the
도 11 내지 도 14 는 본 발명의 일 실시예에 따른 컨텐츠 제작 방법을 통하여 컨텐츠를 제작하는 과정의 예시들이다. 본 발명의 일 실시예에 따라 컨텐츠를 제작하는 과정은 컨텐츠 제작 장치(100)에 의하여 실행될 수 있다.11 to 14 are illustrations of a process of producing contents through a content production method according to an embodiment of the present invention. The process of producing contents according to an embodiment of the present invention can be executed by the
도 11 및 도 12 를 참조하면, 컨텐츠 제작 장치(100)는 2D 이미지와, 3D 효과 컨텐츠 및 배경 이미지를 합성하여 결과 컨텐츠를 제작할 수 있다. 11 and 12, the
예를 들어, 도 11 에 도시된 바와 같이, 컨텐츠 제작 장치(100)는 사람이 탑승하고 있는 차량이 도시된 2D 이미지(img5)에 하늘 객체를 포함하는 배경 이미지(bg5) 및 불꽃 객체를 포함하는 3D 효과 컨텐츠(ef5)를 합성하여, 사람이 탑승하고 있는 차량이 하늘에서 떨어지면서 앞쪽에 화염이 움직이고 있는 형태의 결과 컨텐츠를 생성할 수 있다. 이로써, 본 발명에 의하면 기존의 2D 이미지는 변경하지 않고도, 배경을 하늘로 설정하고 앞쪽에서 움직이는 3D 불꽃 컨텐츠를 표시하여 입체적이고 동적인 결과 컨텐츠를 제공할 수 있다. For example, as shown in Fig. 11, the
다른 예시로, 도 12 에 도시된 바와 같이, 컨텐츠 제작 장치(100)는 유리문이 도시된 2D 이미지(img6)에 하늘 객체를 포함하는 배경 이미지(bg6) 및 흩날리는 눈 객체를 포함하는 3D 효과 컨텐츠(ef6)를 합성하여, 하늘을 배경으로 눈이 날리는 날씨에서의 유리문이 나타나는 결과 컨텐츠를 제작할 수 있다.12, the
도 13 은 본 발명에 따라 하나 이상의 대상 이미지를 이용하여 결과 컨텐츠를 만들 경우의 일 예를 나타낸다. 본 발명의 일 실시예에 따르면, 만화나 웹툰에서와 같이, 순서가 있는 복수개의 2D 대상 이미지(img71, img72, img73, ...)에 3D 효과 컨텐츠(ef7)를 합성하여 순서대로 보여지는 결과 컨텐츠를 제작할 수 있다. 도 13을 참고하면, 하나 이상의 대상 이미지들(img71, img72, img73, ...)은 도 13 과 같이 3D 환경에서 배치될 수 있고, 대상 이미지들(img71, img72, img73, ...)의 전면에 3D 불꽃 객체를 포함하는 효과 컨텐츠(ef7)를 합성함으로써, 특정 대상 이미지(도 13 의 예에서는 img71)가 사용자의 전면에 위치할 경우 해당 대상 이미지(img71)에 불꽃 객체가 합성된 결과 컨텐츠가 사용자에게 보여질 수 있다.FIG. 13 shows an example of a case where the resultant content is created using one or more target images according to the present invention. According to an embodiment of the present invention, 3D effect contents ef7 are synthesized on a plurality of 2D target images (img71, img72, img73, ...) Content can be produced. 13, one or more target images (img71, img72, img73, ...) may be arranged in a 3D environment as shown in FIG. 13, and the target images (img71, (Img71 in the example of FIG. 13) is positioned on the front side of the user by combining the effect content (ef7) including the 3D flame object on the front side, the resultant result of combining the flame object in the target image (img71) Can be shown to the user.
도 13 을 참조하면, 컨텐츠 제작 장치(100)는 본 발명의 결과 컨텐츠를 제작하기 위한 인터페이스를 제공할 수 있다. 이때, 결과 컨텐츠를 제작하기 위한 인터페이스는 가상의 공간 상에서 하나 이상의 2D 대상 이미지들 및 하나 이상의 동적 또는 입체적 배경 이미지 및/또는 효과 컨텐츠를 합성하여 결과 컨텐츠를 생성할 수 있는 환경일 수 있다. 컨텐츠 제작 장치(100)가 제공하는 인터페이스는 가상의 공간 상에 하나 이상의 2D 대상 이미지들이 표시되는 순서 및 2D 대상 이미지들이 전환되는 경로 등을 직관적으로 확인할 수 있는 보조선을 표시할 수 있다.Referring to FIG. 13, the
도 14는 본 발명의 일 실시예에 따른 결과 컨텐츠의 또 다른 예를 나타낸 도면이다. 도 14를 참고하면, 기존의 2D 이미지 컨텐츠(img8)에 배경 이미지(bg8) 및 보조선 객체를 포함하는 효과 컨텐츠(ef8)를 합성한 결과 컨텐츠를 나타내고 있다. 효과 컨텐츠는 보조선 객체에 대한 기하학적 도형, 즉 전면 또는 후면으로 이동하는 사선을 포함함으로써, 기존의 2D 이미지(img8)가 사용자에게 다가오거나 사용자로부터 멀어지는 듯한 느낌을 가지게 될 수 있다. 이러한 방법을 이용하여 기존 2D 이미지 컨텐츠에 대한 수정 없이 손쉽게 동적 효과가 있는 영상을 생성할 수 있다.FIG. 14 is a diagram illustrating another example of result contents according to an embodiment of the present invention. Referring to FIG. 14, the result is a result of synthesizing the background image bg8 with the existing 2D image content img8 and the effect content ef8 including the auxiliary line object. The effect content may include a geometric shape for an auxiliary line object, that is, an oblique line moving to the front or back side, so that the existing 2D image (img8) may have a feeling of approaching the user or moving away from the user. With this method, it is possible to easily generate a dynamic image without modifying existing 2D image contents.
도 15 는 본 발명의 일 실시예에 따라 결과 컨텐츠가 제공되는 방법을 시계열적으로 나타낸 것이다.FIG. 15 is a time-wise illustration of how results content is provided in accordance with one embodiment of the present invention.
도 15 의 컨텐츠 제공 방법은 컨텐츠 제작 장치(100)의 제2 출력 제어부(122)에 의해 수행될 수 있다. 도 15 에 도시된 바와 같이, 제2 출력 제어부(122)는 사용자 단말(300)로부터의 사용자 요청을 수신하여(S410), 사용자 요청에 대응하여 사용자 단말(300)에 결과 컨텐츠를 제공한다(S420). The content providing method of FIG. 15 may be performed by the second
보다 상세히, S420 단계에서, 복수의 대상 이미지들이 순차적으로 또는 시계열적으로 제공되어야 하는 경우에, 제2 출력 제어부(122)는 사용자 단말(300)에 구비된 센서를 통해 감지되는 사용자의 이동 거리 또는 이동 속도에 맞춰 복수의 이미지들을 순차적으로 제공하게 된다. 복수의 대상 이미지들이 순차적으로 또는 시계열적으로 제공되어야 하는 경우에, 제2 출력 제어부(122)는 센서를 통해 감지되는 사용자의 지리적 위치에 맞춰 복수의 대상 이미지들을 제공할 수 있다. 제2 출력 제어부(122)는 사용자의 지리적 위치가 해변인 경우, 복수의 대상 이미지들을 해변을 입체적으로 구현한 배경 이미지와 합성하여 결과 컨텐츠를 제공할 수도 있다. 제2 출력 제어부(122)는 현재 시점이 밤인 경우, 복수의 대상 이미지를, 밤 하늘을 입체적으로 구현한 배경 이미지와 합성하여 결과 컨텐츠로 제공할 수도 있다.More specifically, in step S420, when a plurality of target images are to be provided sequentially or in a time-series manner, the second
다른 실시예에서, 제2 출력 제어부(122)는 사용자 단말(300)에 구비된 센서를 통해 센싱된 센싱값을 기초로 센싱값이 기설정된 조건을 만족하는지 여부를 판단하고, 판단 결과 만족되는 경우, 제1 대상 이미지의 후속으로 제공되어야 하는 제2 대상 이미지를 표시하도록 결과 컨텐츠를 전환할 수 있다. 예를 들어, 제1 대상 이미지가 제공된 시점 이후에 사용자의 이동된 거리가 소정의 임계 거리를 초과하거나, 제1 대상 이미지가 제공된 시점 이후에 소정의 시간이 경과한 경우에는, 제2 출력 제어부(122)는 상기 제1 대상 이미지의 후속으로 제공되어야 하는 제2 대상 이미지를 포함하도록 결과 컨텐츠를 전환할 수 있다.In another embodiment, the
다른 실시예에서, 제2 출력 제어부(122)는 출력부를 통해 제1 대상 이미지 및 제2 대상 이미지를 포함하는 입체적인 결과 컨텐츠를 제공하는 경우, 사용자 단말(300)의 센서를 통해 센싱된 센싱값을 기초로 상기 제1 대상 이미지 및 상기 제2 대상 이미지의 위치들 또는 방향들을 변경한 입체적인 컨텐츠를 제공할 수 있다. 예를 들어, 센싱값을 통해 사용자의 위치의 변화, 고도의 변화, 자세의 변화, 방향의 변화 등이 감지된 경우, 제2 출력 제어부(122)는 센서를 통해 센싱된 센싱값을 기초로 상기 제1 대상 이미지 및 상기 제2 대상 이미지의 위치들 또는 방향들을 변경한 입체적인 결과 컨텐츠를 제공할 수 있다. 또한, 제2 출력 제어부(122)는 센싱값을 통해 획득된 현재 날씨, 현재 시간, 현재 위치 등을 기초로 합성 컨텐츠를 맑음에서 비 내리는 컨텐츠로, 서울에서 파리 컨텐츠로, 낮에서 밤 컨텐츠로 수정하여 결과 컨텐츠를 제공할 수 있다. In another embodiment, the
도 16a 및 도 16b는 본 발명의 일 실시예에 따른 컨텐츠 표시 방법을 이용하여 표시된 결과 컨텐츠의 일 예이다.16A and 16B are examples of displayed result contents using a content display method according to an embodiment of the present invention.
도 16a 에 도시된 바와 같이, 소정의 제1 조건이 만족됨에 따라 제2 출력 제어부(122)는 제2 대상 이미지(img92)를 중앙에 도시하면서, 제2 대상 이미지(img92)에 제1 배경 이미지(bg91) 및 제1 효과 컨텐츠(ef91)를 합성한 합성 컨텐츠를 표시하도록 제어할 수 있다. 이때 제1 효과 컨텐츠(ef91)는 3D 불꽃 객체를 포함할 수 있고, 제2 출력 제어부(122)는 불꽃 객체의 이미지 및 물리적 정보에 기초하여 제1 효과 컨텐츠(ef91)를 제2 대상 이미지(img92)의 적어도 일부에 중첩하여 표시할 수 있다. 이에 따라, 제2 출력 제어부(122)는 제2 대상 이미지(img92)에 제1 효과 컨텐츠(ef91)가 합성되어 본래의 제2 대상 이미지(img92)와는 다른 입체적 느낌을 가지는 영상을 표시할 수 있다.As shown in FIG. 16A, the second
도 16b 는 제2 조건이 만족됨에 따라 제2 출력 제어부(122)는 제1 대상 이미지(img91)를 중앙에 도시하면서, 제1 대상 이미지(img91)에 제2 배경 이미지(ef92) 및 제2 효과 컨텐츠(ef92)를 합성한 결과 컨텐츠를 표시하도록 제어할 수 있다. 이때, 도 16a 에 도시된 실시예의 상태에서, 사용자 단말(300)이 특정 방향으로 소정 각도 이상 기울여지는 것을 감지할 때 도 16b 와 같이 제1 대상 이미지(img91)가 중앙에 도시될 수 있다.16B shows that the second
도 16b 의 실시예에서, 제2 효과 컨텐츠(ef92)는 보조선 객체를 포함할 수 있고, 제2 출력 제어부(122)는 보조선 객체에 포함된 기하학적 사선을 제1 대상 이미지(img91) 및 배경 이미지(bg92)에 합성하여 표시할 수 있다. 제1 대상 이미지(img91)에 제2 효과 컨텐츠(ef2)가 합성되어 본래의 제1 대상 이미지(img91)와는 다른 동적 느낌을 가지는 결과 컨텐츠를 표시할 수 있다.In the embodiment of FIG. 16B, the second effect content ef92 may include an auxiliary line object, and the second
이상 설명된 본 발명에 따른 실시예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. The embodiments of the present invention described above can be embodied in the form of a computer program that can be executed on various components on a computer, and the computer program can be recorded on a computer-readable medium. At this time, the medium may be a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, an optical recording medium such as CD-ROM and DVD, a magneto-optical medium such as a floptical disk, , A RAM, a flash memory, and the like, which are specifically configured to store and execute program instructions.
한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the computer program may be designed and configured specifically for the present invention or may be known and used by those skilled in the computer software field. Examples of computer programs may include machine language code such as those produced by a compiler, as well as high-level language code that may be executed by a computer using an interpreter or the like.
본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific acts described in the present invention are, by way of example, not intended to limit the scope of the invention in any way. For brevity of description, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of such systems may be omitted. Also, the connections or connecting members of the lines between the components shown in the figures are illustrative of functional connections and / or physical or circuit connections, which may be replaced or additionally provided by a variety of functional connections, physical Connection, or circuit connections. Also, unless explicitly mentioned, such as " essential ", " importantly ", etc., it may not be a necessary component for application of the present invention.
본 발명의 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 발명에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.The use of the terms " above " and similar indication words in the specification of the present invention (particularly in the claims) may refer to both singular and plural. In addition, in the present invention, when a range is described, it includes the invention to which the individual values belonging to the above range are applied (unless there is contradiction thereto), and each individual value constituting the above range is described in the detailed description of the invention The same. Finally, the steps may be performed in any suitable order, unless explicitly stated or contrary to the description of the steps constituting the method according to the invention. The present invention is not necessarily limited to the order of description of the above steps. The use of all examples or exemplary language (e.g., etc.) in this invention is for the purpose of describing the invention in detail and is not to be construed as a limitation on the scope of the invention, It is not. It will also be appreciated by those skilled in the art that various modifications, combinations, and alterations may be made depending on design criteria and factors within the scope of the appended claims or equivalents thereof.
Claims (9)
상기 대상 이미지에 대한, 배경 이미지 및 효과 컨텐츠 중 하나 이상을 포함하는 합성 컨텐츠를 결정하는 단계; 및
상기 대상 이미지와 상기 결정된 합성 컨텐츠를 합성하여 결과 컨텐츠를 생성하는 단계;를 포함하고,
상기 합성 컨텐츠는, 상기 합성 컨텐츠에 포함된 특정 객체에 대한 이미지, 기하학적 도형 및 물리적 정보 중 하나 이상을 포함하며, 상기 특정 객체는 상기 대상 이미지와 합성되어 상기 결과 컨텐츠에 입체적 혹은 동적 효과를 부여하는, 컨텐츠 제작 방법.Receiving information about a target image and selecting a target image;
Determining composite content for the target image, the composite content including at least one of a background image and effect content; And
And synthesizing the target image and the determined synthesized content to generate a resultant content,
Wherein the synthesized content includes at least one of an image, a geometric figure, and physical information of a specific object included in the synthesized content, and the specific object is synthesized with the target image to impart a stereoscopic effect or a dynamic effect to the resultant content , Content creation method.
상기 합성 컨텐츠를 결정하는 단계는,
관리자 단말로부터의 입력에 기초하여, 상기 배경 이미지 및 효과 컨텐츠 중 하나 이상을 결정하는, 컨텐츠 제작 방법.The method according to claim 1,
The method of claim 1,
And determining at least one of the background image and the effect content based on the input from the administrator terminal.
상기 결과 컨텐츠를 생성하는 단계는, 상기 대상 이미지가 배치된 가상 공간을 설정하고, 상기 가상 공간 상에 상기 합성 컨텐츠를 합성하여 상기 결과 컨텐츠를 생성하는, 컨텐츠 제작 방법.The method according to claim 1,
Wherein the generating of the resultant content comprises: setting a virtual space in which the target image is arranged; and synthesizing the synthesized content on the virtual space to generate the resultant content.
상기 합성 컨텐츠에 포함된 특정 객체에 대한 기하학적 도형은, 상기 기하학적 도형의 무게, 질량, 크기, 부피, 형태, 위치, 속도, 이동 방향 중 하나 이상에 대한 값을 속성으로 가지며,
상기 결과 컨텐츠를 생성하는 단계는, 상기 특정 객체에 대한 상기 기하학적 도형의 속성에 기초하여 입체적 혹은 동적 효과를 갖는 상기 결과 컨텐츠를 생성하는, 컨텐츠 제작 방법.The method according to claim 1,
Wherein the geometric figure for a specific object included in the synthesized content has a value for at least one of a weight, a mass, a size, a volume, a shape, a position, a speed, and a moving direction of the geometric figure,
Wherein the generating of the resultant content generates the resultant content having stereoscopic or dynamic effects based on the attribute of the geometric figure for the specific object.
상기 합성 컨텐츠에 포함된 특정 객체에 대한 물리적 정보는, 상기 특정 객체가 위치하는 상대적 또는 절대적 좌표, 상기 특정 객체의 이동방향, 상기 특정 객체의 속도, 상기 특정 객체의 무게, 상기 특정 객체의 중력가속도 중 적어도 하나이고,
상기 결과 컨텐츠를 생성하는 단계는, 상기 특정 객체에 대한 상기 물리적 정보에 기초하여 입체적 혹은 동적 효과를 갖는 상기 결과 컨텐츠를 생성하는, 컨텐츠 제작 방법.The method according to claim 1,
The physical information on the specific object included in the synthesized content may include at least one of relative or absolute coordinates of the specific object, a moving direction of the specific object, a speed of the specific object, a weight of the specific object, , ≪ / RTI >
Wherein the generating of the resultant content generates the resultant content having stereoscopic or dynamic effects based on the physical information on the specific object.
상기 합성 컨텐츠를 결정하는 단계는
상기 대상 이미지를 분석한 결과를 기초로 하여, 배경 이미지 및 효과 컨텐츠 중 하나 이상을 결정하는, 컨텐츠 제작 방법.The method according to claim 1,
The step of determining the composite content
And determining at least one of a background image and an effect content based on a result of analyzing the target image.
상기 대상 이미지를 분석한 결과는 상기 대상 이미지의 특징, 상기 대상 이미지 내에서 포함하고 있는 객체, 상기 대상 이미지가 나타내는 상황 중 적어도 하나를 포함하고,
상기 대상 이미지의 특징은 상기 대상 이미지의 적어도 일 영역의 명도, 채도, 색상 중 적어도 하나인, 컨텐츠 제작 방법.The method according to claim 6,
Wherein the result of analyzing the target image includes at least one of a characteristic of the target image, an object included in the target image, and a situation represented by the target image,
Wherein the characteristic of the target image is at least one of brightness, saturation, and hue of at least one region of the target image.
상기 대상 이미지에 대한, 배경 이미지 및 효과 컨텐츠 중 하나 이상을 포함하는 합성 컨텐츠를 결정하는 합성 컨텐츠 결정부; 및
상기 대상 이미지와 상기 결정된 합성 컨텐츠를 합성하여 결과 컨텐츠를 생성하는 결과 컨텐츠 생성부; 를 포함하고,
상기 합성 컨텐츠는, 상기 합성 컨텐츠에 포함된 특정 객체에 대한 이미지, 기하학적 도형 및 물리적 정보 중 하나 이상을 포함하며, 상기 특정 객체는 상기 대상 이미지와 합성되어 상기 결과 컨텐츠에 입체적 혹은 동적 효과를 부여하는, 컨텐츠 제작 장치.A target image selection unit receiving information on a target image and selecting a target image;
A composite content determination unit for determining composite content including at least one of a background image and an effect content for the target image; And
A result content generation unit for synthesizing the target image and the determined synthesized content to generate a resultant content; Lt; / RTI >
Wherein the synthesized content includes at least one of an image, a geometric figure, and physical information of a specific object included in the synthesized content, and the specific object is synthesized with the target image to impart a stereoscopic effect or a dynamic effect to the resultant content , A content production apparatus.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20160090269 | 2016-07-15 | ||
KR1020160090269 | 2016-07-15 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20180008345A true KR20180008345A (en) | 2018-01-24 |
Family
ID=61029424
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170089805A KR20180008345A (en) | 2016-07-15 | 2017-07-14 | Device and method for producing contents, and computer program thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20180008345A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200137932A (en) * | 2019-05-30 | 2020-12-09 | 주식회사 아임클라우드 | Reference content recommendation system and method utilizing objects extracted from contents |
KR20220126257A (en) * | 2021-03-08 | 2022-09-15 | (주)디피어소시에이츠 | Method and system for providing realistic virtual exhibition space |
KR102470821B1 (en) * | 2022-01-27 | 2022-11-28 | 주식회사 위딧 | Apparatus for generating webtoon background image |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000339485A (en) * | 1999-05-25 | 2000-12-08 | Nec Corp | Animation generation device |
KR20110049257A (en) * | 2009-11-04 | 2011-05-12 | 세종대학교산학협력단 | Interactive interface-based system for generating cartoon animation and method thereof |
KR20120076600A (en) * | 2010-12-06 | 2012-07-09 | 손기택 | Method and system for producing moving cartoon |
-
2017
- 2017-07-14 KR KR1020170089805A patent/KR20180008345A/en not_active Application Discontinuation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000339485A (en) * | 1999-05-25 | 2000-12-08 | Nec Corp | Animation generation device |
KR20110049257A (en) * | 2009-11-04 | 2011-05-12 | 세종대학교산학협력단 | Interactive interface-based system for generating cartoon animation and method thereof |
KR20120076600A (en) * | 2010-12-06 | 2012-07-09 | 손기택 | Method and system for producing moving cartoon |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200137932A (en) * | 2019-05-30 | 2020-12-09 | 주식회사 아임클라우드 | Reference content recommendation system and method utilizing objects extracted from contents |
KR20220126257A (en) * | 2021-03-08 | 2022-09-15 | (주)디피어소시에이츠 | Method and system for providing realistic virtual exhibition space |
KR102470821B1 (en) * | 2022-01-27 | 2022-11-28 | 주식회사 위딧 | Apparatus for generating webtoon background image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10767997B1 (en) | Systems and methods for providing immersive extended reality experiences on moving platforms | |
WO2021197189A1 (en) | Augmented reality-based information display method, system and apparatus, and projection device | |
CN112379812B (en) | Simulation 3D digital human interaction method and device, electronic equipment and storage medium | |
CN102270275B (en) | The method of selecting object and multimedia terminal in virtual environment | |
US9224237B2 (en) | Simulating three-dimensional views using planes of content | |
US9437038B1 (en) | Simulating three-dimensional views using depth relationships among planes of content | |
JP5567146B2 (en) | Method for reusing photorealistic 3D landmarks for non-photorealistic 3D maps | |
EP2732436B1 (en) | Simulating three-dimensional features | |
KR102423903B1 (en) | Augmented reality providing apparatus for recognizing a situation using a neural network, providing method, and a computer program stored in a medium for executing the method | |
CN105051791A (en) | Three-dimensional image output device and background image generation device | |
US20210407125A1 (en) | Object recognition neural network for amodal center prediction | |
KR20180008345A (en) | Device and method for producing contents, and computer program thereof | |
CN113359986B (en) | Augmented reality data display method and device, electronic equipment and storage medium | |
Liarokapis et al. | Mobile augmented reality techniques for geovisualisation | |
US10295403B2 (en) | Display a virtual object within an augmented reality influenced by a real-world environmental parameter | |
CN110313021B (en) | Augmented reality providing method, apparatus, and computer-readable recording medium | |
WO2023231793A1 (en) | Method for virtualizing physical scene, and electronic device, computer-readable storage medium and computer program product | |
WO2005076122A1 (en) | Method of performing a panoramic demonstration of liquid crystal panel image simulation in view of observer's viewing angle | |
KR102388715B1 (en) | Apparatus for feeling to remodeling historic cites | |
KR20230095197A (en) | Method and apparatus for interaction method between cognitive mesh information generated in a three-dimensional space and virtual objects | |
KR20140078083A (en) | Method of manufacturing cartoon contents for augemented reality and apparatus performing the same | |
KR101939530B1 (en) | Method and apparatus for displaying augmented reality object based on geometry recognition | |
CN116958533A (en) | Image content segmentation method, device, apparatus, storage medium and program product | |
CN113988963A (en) | Shopping guide method and device based on augmented reality, storage medium and electronic equipment | |
CN115239920A (en) | Virtual operation display method, device, equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |