KR101868101B1 - 컨텐츠 생성 장치, 방법 및 컴퓨터 프로그램 - Google Patents

컨텐츠 생성 장치, 방법 및 컴퓨터 프로그램 Download PDF

Info

Publication number
KR101868101B1
KR101868101B1 KR1020170020713A KR20170020713A KR101868101B1 KR 101868101 B1 KR101868101 B1 KR 101868101B1 KR 1020170020713 A KR1020170020713 A KR 1020170020713A KR 20170020713 A KR20170020713 A KR 20170020713A KR 101868101 B1 KR101868101 B1 KR 101868101B1
Authority
KR
South Korea
Prior art keywords
content
composite
input
additional
generating
Prior art date
Application number
KR1020170020713A
Other languages
English (en)
Inventor
서현철
Original Assignee
주식회사 오비투유
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 오비투유 filed Critical 주식회사 오비투유
Priority to KR1020170020713A priority Critical patent/KR101868101B1/ko
Application granted granted Critical
Publication of KR101868101B1 publication Critical patent/KR101868101B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 명세서에 따르면, 입력부 및 출력부와 전기적으로 연결된 컨텐츠 생성 장치에 있어서, 주 컨텐츠 및 부가 컨텐츠를 수신하고, 편집 메뉴를 이용하여 수신한 상기 주 컨텐츠 및 상기 부가 컨텐츠를 결합시켜 복합 컨텐츠를 생성하는 제작부; 상기 입력부를 통해 수신된 사용자 입력에 따라 상기 복합 컨텐츠의 재생을 제어하는 입력 제어부;를 포함하는, 컨텐츠 생성 장치를 개시한다.

Description

컨텐츠 생성 장치, 방법 및 컴퓨터 프로그램{APPARATUS, METHOD AND COMPUTER PROGRAM FOR GENERATING CONTENTS}
본 발명은 컨텐츠 생성 장치, 방법 및 컴퓨터 프로그램에 관한 것으로, 보다 구체적으로 혼합 현실 기반의 대화형 컨텐츠를 생성할 수 있는 컨텐츠 생성 장치, 방법 및 컴퓨터 프로그램에 관한 것이다.
일반적으로 2D 기반의 동영상에 대한 저작/편집을 제공하거나 고가의 기계장치를 이용한 3D 객체 생성과 사용자 객체 추출/편집 기능을 제공하고 있다. 또한, 이들이 제공하는 저작 장치를 이용하기 위해서는 고도의 전문성이 요구되고 고가의 소프트웨어/하드웨어 장치를 구매하는 등의 어려움이 있기 때문에 일반 사용자들이 이들 장치를 이용하여 손쉽게 사용자 영상을 제작하는 것은 거의 불가능하다.
국내 공개특허공보 제2015-0115694호
본 발명의 실시예들에 따르면, 입체적으로 촬영된 주 컨텐츠에 부가 컨텐츠를 결합시켜 복합 컨텐츠를 생성할 수 있는 컨텐츠 생성 장치, 방법 및 컴퓨터 프로그램이 제공될 수 있다.
본 발명의 실시예들에 따른 컨텐츠 생성 장치는 입력부 및 출력부와 전기적으로 연결되고, 주 컨텐츠 및 부가 컨텐츠를 수신하고, 편집 메뉴를 이용하여 수신한 상기 주 컨텐츠 및 상기 부가 컨텐츠를 결합시켜 복합 컨텐츠를 생성하는 제작부; 상기 입력부를 통해 수신된 사용자 입력에 따라 상기 복합 컨텐츠의 재생을 제어하는 입력 제어부;를 포함할 수 있다.
상기 제작부는 상기 주 컨텐츠에 포함된 하나 이상의 객체의 위치들을 고려하여, 상기 주 컨텐츠와 대응되는 좌표계를 생성하는 좌표 생성부; 상기 부가 컨텐츠의 위치와 대응되는 지점을 좌표계 내에서 검색하고, 상기 지점을 기반으로 상기 부가 컨텐츠의 배치를 결정하는 부가 처리부;를 포함할 수 있다.
상기 제작부는 상기 주 컨텐츠에 기 존재한 광원을 결정하고, 상기 광원 및 상기 부가 컨텐츠를 고려하여 상기 부가 컨텐츠에 조명 효과를 부여하는 효과 처리부;를 더 포함할 수 있다.
상기 입력 제어부는 상기 복합 컨텐츠를 구성하는 복수의 씬들을 분리하고, 각 씬에 대한 처리 방법을 입력 받고, 상기 각 씬에 대한 처리 방법에 따라 복수의 씬들을 배치시킬 수 있다.
상기 입력 제어부는 수신된 사용자 입력에 기반해서, 상기 복합 컨텐츠의 제1 씬으로부터 제2 씬으로 이동하여 재생하도록 제어할 수 있다.
상기 입력 제어부는 수신된 사용자 입력에 기반해서, 상기 복합 컨텐츠의 제1 객체의 상태, 위치 중 적어도 하나를 변경시킬 수 있다.
본 발명의 실시예들에 따른 컨텐츠 생성 장치는 상기 사용자 입력에 따른 복합 컨텐츠의 재생과 대응되는 맵 데이터를 생성하는 맵 생성부; 상기 맵 데이터에 포함된 사용자 입력을 순차적으로 발생시켜 상기 복합 컨텐츠의 재생을 유도하는 테스트 실행부;를 더 포함할 수 있다.
본 발명의 실시예들에 따른 컨텐츠 생성 방법은 입력부 및 출력부와 전기적으로 연결된 컨텐츠 생성 장치의 컨텐츠 생성 방법이며, 상기 컨텐츠 생성 장치가 주 컨텐츠 및 부가 컨텐츠를 수신하고, 편집 메뉴를 이용하여 수신한 상기 주 컨텐츠 및 상기 부가 컨텐츠를 결합시켜 복합 컨텐츠를 생성하는 단계; 및 상기 입력부를 통해 수신된 사용자 입력에 따라 상기 복합 컨텐츠의 재생을 제어하는 단계;를 포함할 수 있다.
상기 컨텐츠를 생성하는 단계는 상기 주 컨텐츠에 포함된 하나 이상의 객체의 위치들을 고려하여, 상기 주 컨텐츠와 대응되는 좌표계를 생성하는 단계; 및 상기 부가 컨텐츠의 위치와 대응되는 지점을 좌표계 내에서 검색하고, 상기 지점을 기반으로 상기 부가 컨텐츠의 배치를 결정하는 단계;를 더 포함할 수 있다.
상기 컨텐츠를 생성하는 단계는 상기 주 컨텐츠에 기 존재한 광원을 결정하고, 상기 광원 및 상기 부가 컨텐츠를 고려하여 상기 부가 컨텐츠에 조명 효과를 부여하는 단계;를 더 포함할 수 있다.
상기 복합 컨텐츠의 재생을 제어하는 단계는 상기 복합 컨텐츠를 구성하는 복수의 씬들을 분리하고, 각 씬에 대한 처리 방법을 입력 받고, 상기 각 씬에 대한 처리 방법에 따라 복수의 씬들을 배치시키는 단계;를 더 포함할 수 있다.
상기 복합 컨텐츠의 재생을 제어하는 단계는 수신된 사용자 입력에 기반해서, 상기 복합 컨텐츠의 제1 씬으로부터 제2 씬으로 이동시키는 단계;를 더 포함할 수 있다.
상기 복합 컨텐츠의 재생을 제어하는 단계는 수신된 사용자 입력에 기반해서, 상기 복합 컨텐츠의 제1 객체의 상태, 위치 중 적어도 하나를 변경시키는 단계;를 더 포함할 수 있다.
본 발명의 실시예들에 따른 컨텐츠 생성 방법은 상기 사용자 입력에 따른 복합 컨텐츠의 재생과 대응되는 맵 데이터를 생성하는 단계; 상기 맵 데이터에 포함된 사용자 입력을 순차적으로 발생시켜 상기 복합 컨텐츠의 재생을 유도하는 단계;를 더 포함할 수 있다.
본 발명의 실시예에 따른 컴퓨터 프로그램은 컴퓨터를 이용하여 본 발명의 실시예에 따른 컨텐츠 생성 방법 중 어느 하나의 방법을 실행시키기 위하여 매체에 저장될 수 있다.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공된다.
전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해 질 것이다.
본 발명의 실시예들에 따른 컨텐츠 생성 장치, 방법 및 컴퓨터 프로그램은 입체적으로 촬영된 주 컨텐츠에 부가 컨텐츠를 결합시켜 복합 컨텐츠를 생성할 수 있다.
도 1은 본 발명의 실시예들에 따른 컨텐츠 생성 장치의 블록도이다.
도 2는 제작부의 구조를 나타내는 블록도이다.
도 3은 본 발명의 또 다른 실시예들을 설명하기 위한 컨텐츠 생성 장치 및 컨텐츠 검증 장치를 포함하는 도면이다.
도 4 내지 도 10은 본 발명의 실시예들에 따른 컨텐츠 생성 방법의 흐름도들이다.
도 11은 컨텐츠 생성 장치를 포함하는 사용자 단말의 구조를 나타내는 블록도이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다.
이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는한, 복수의 표현을 포함한다.
이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서 상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징을 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다.
어떤 실시예가 달리 구현 가능한 경우에 특정한 공정 순서는 설명되는 순서와 다르게 수행될 수도 있다. 예를 들어, 연속하여 설명되는 두 공정이 실질적으로 동시에 수행될 수도 있고, 설명되는 순서와 반대의 순서로 진행될 수 있다.
이하의 실시예에서, "회로"는, 예를 들어, 프로그램가능한 회로에 의해 실행되는 인스트럭션을 저장하는 하드와이어드 회로, 프로그램가능한 회로, 상태 머신 회로, 및/또는 펌웨어를 단독으로 또는 임의의 조합으로 포함할 수 있다. 애플리케이션은 호스트 프로세서 또는 다른 프로그램가능한 회로와 같은 프로그램가능한 회로 상에서 실행될 수 있는 코드 또는 인스트럭션으로서 구현될 수 있다. 본원의 임의의 실시예에서 사용되는 바와 같은, 모듈은,회로로서 구현될 수 있다. 회로는 집적 회로 칩과 같은 집적 회로로서 구현될 수 있다.
이하의 실시예에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
본 발명의 실시예들에 따른 컨텐츠 생성 장치는 주 컨텐츠의 적절한 위치에 부가 컨텐츠를 결합한 복합 컨텐츠를 생성할 수 있다. 이때, 본 발명의 실시예들에 따른 컨텐츠 생성 장치는 부가 컨텐츠를 단순히 추가할 뿐 아니라 부가 컨텐츠 및 부가 컨텐츠의 주변에 시각적인 효과를 추가할 수 있다. 본 발명의 실시예들에 따른 컨텐츠 생성 장치는 부가 컨텐츠를 단순히 추가하는 것에 그치지 않고 부가 컨텐츠의 컬러값 또는 부가 컨텐츠 주변의 컬러값들을 조절할 수 있다. 본 발명의 실시예들에 따른 컨텐츠 생성 장치는 간단한 조작으로 부가 컨텐츠의 위치, 배향 등을 조절할 수 있다.
도 1은 본 발명의 실시예에 따른 컨텐츠 생성 장치(110)을 나타내는 도면이다.
도 1을 참조하면, 본 발명의 실시예에 따른 컨텐츠 생성 장치(110)은 제작부(111), 입력 제어부(112), 리소스 관리부(113), 인터페이스부(120)를 포함할 수 있다.
제작부(111)는 수신된 주 컨텐츠 및 부가 컨텐츠를 결합시켜 복합 컨텐츠를 생성하는 기능을 수행한다. 제작부(111)는 노출된 컨텐츠 편집 메뉴를 이용하여 주 컨텐츠, 부가 컨텐츠, 복합 컨텐츠를 편집할 수 있다. 여기서, 주 컨텐츠는 실제 촬상 장치를 이용하여 촬영된 컨텐츠일 수 있다. 부 컨텐츠는 촬상 장치에 의해 생성된 것이 아닌 컴퓨터 그래픽으로 구현된 컨텐츠를 말한다. 컨텐츠 편집 메뉴는 부가 컨텐츠가 노출된 위치에 대한 입력의 응답으로 부가 컨텐츠의 위치 및 배향 등을 조절하거나 부가 컨텐츠의 에지(edge)에 대한 입력의 응답으로 부가 컨텐츠의 크기를 조절할 수 있는 메뉴를 포함할 수 있다. 컨텐츠 편집 메뉴는 정해진 일정 영역 내에 임계 시간 이상의 사용자 입력이 수신되면 편집 메뉴를 제공하도록 제어될 수 있다. 편집 메뉴는 부가 컨텐츠의 일부 영역에 겹쳐서 생성되기도 하고, 전체 화면으로 제공되기도 한다. 편집 메뉴가 부가 컨텐츠의 일부 영역에 겹쳐서 제공되는 경우에는 편집 메뉴의 투명도를 높여 부가 컨텐츠가 보일 수 있도록 제어할 수 있다. 사용자로부터의 입력에 따라 편집 메뉴의 크기 및 위치가 변경될 수도 있다.
제작부(111)는 수신된 주 컨텐츠 및 부가 컨텐츠를 결합시켜 복합 컨텐츠에서 불필요한 장면을 제거할 수 있다. 제작부(111)는 복합 컨텐츠에 포함된 씬 또는 프레임들 중에서, 사용자에 의해 선택된, 불필요한 장면과 대응되는 부분을 삭제할 수 있다. 또한, 제작부(111)는 복합 컨텐츠의 서로 떨어져 있는 씬 또는 프레임들을 연결할 수 있다. 제작부(111)는 소정의 장면이 삭제됨에 따라 삭제된 장면의 인접된, 즉 앞(전) 및 뒤(후)에 위치한 프레임 또는 씬을 연결할 수 있다. 제작부(111)는 특정 장면의 삭제 없이도 서로 다른 시점에서 재생되는 씬들 또는 프레임들을 간단한 드래그 입력으로 연결하여 재생되도록 제어할 수 있다.
복합 컨텐츠에 포함된 제1 씬(프레임)을 선택하고, 제1 지점으로 이동하는 입력이 수신되면, 제작부(111)는 제1 씬의 재생 위치를 제1 지점과 대응되는 위치에 포함시킬 수 있다.
입력 제어부(112)는 사용자 입력에 따라 복합 컨텐츠의 재생이 제어될 수 있도록 복합 컨텐츠를 변형하는 기능을 수행한다. 입력 제어부(112)는 복합 컨텐츠를 구성하는 복수의 씬들을 분리하고, 각 씬에 대한 처리 방법을 입력 받고, 각 씬에 대한 처리 방법에 따라 복수의 씬들을 배치시킬 수 있다. 입력 제어부(112)는 입력된 하나 이상의 컨텐츠의 순서를 조정, 변경할 수 있는 기능을 수행할 수 있다. 입력 제어부(112)는 입력된 순서와 무관하게 컨텐츠 별로 입력된 재생 순서에 따라 컨텐츠들을 배열시키고, 배열된 순서대로 재생되는 컨텐츠를 생성할 수 있다. 입력 제어부(112)는 컨텐츠 별로 입력된 순서 관련 인덱스에 따라 컨텐츠들을 배열 시키고, 배열된 순서대로 재생되는 컨텐츠를 생성할 수 있다.
입력 제어부(112)는 복합 컨텐츠에 포함된 객체의 동작, 상태 등을 사용자로부터의 입력에 따라 조절할 수 있다. 복합 컨텐츠 내에서 정해진 영역에 정해진 방향, 정해진 세기를 가지는 입력이 수신되면, 입력 제어부(112)는 상기 입력의 응답으로 복합 컨텐츠의 재생을 제어할 수 있다. 기 설정된 후속 컨텐츠가 아닌 해당 입력과 대응된 대응 컨텐츠가 재생되도록 제어될 수 있다. 복합 컨텐츠는 사용자로부터 입력된 다양한 시나리오와 대응되는 조건문을 포함할 수 있다. 시나리오와 대응되는 조건문은 복합 컨텐츠의 재생 중에 입력된 소정의 사용자 입력과 사용자 입력에 따른 동작과 관련된 함수(input, goto)를 포함할 수 있다. 복합 컨텐츠는 재생 동작과 관련된 명령문들을 더 포함할 수 있다.
입력 제어부(112)는 사용자 입력에 기반하여 재생되는 씬을 제1 씬에서 제2 씬으로 이동하도록 제어할 수 있다. 입력 제어부(112)는 사용자 입력에 기반하여 복합 컨텐츠에 포함된 제1 객체의 상태, 위치 중 적어도 하나를 변경시킬 수 있다.
리소스 관리부(113)는 컨텐츠들의 결합 및 효과의 생성을 위해서 추가 리소스를 이용할 수 있다. 또한, 리소스 관리부(113)는 컨텐츠에 입체적인 효과를 부여하기 위해 활용되는 360도 동영상, 2차원 그래픽, 3차원 그래픽 등을 저장 관리할 수 있다. 사용자에 의해 촬영된 컨텐츠가 2차원이라고 하더라도 리소스 관리부(113)에 의해 수신된 3차원 모델링 컨텐츠를 이용하여 입체적인 효과를 가지는 3차원으로 구현될 수 있다. 리소스 관리부(113)는 복합 컨텐츠에 애초에 존재하지 않았던 다양한 효과(밝아짐, 이동, 부서짐, 회전 등)와 대응되는 컨텐츠를 관리할 수 있다. 리소스 관리부(113)는 복합 컨텐츠에 추가하고자 하는 다양한 이모티콘, 스티커 컨텐츠를 외부의 장치로부터 수신하여 제공하는 기능을 제공할 수 있다. 리소스 관리부(113)는 외부의 장치로부터 수신한 컨텐츠를 각 컨텐츠를 식별하는 인덱스와 연결하여 저장 관리 할 수 있다.
본 발명의 실시예들에 따른 컨텐츠 생성 장치(110)는 인터페이스부(120)를 더 포함할 수 있다.
인터페이스부(120)는 컨텐츠 생성 장치(110)와 전기적으로 또는 네트워크를 통해 연결된 입력 장치, 출력 장치 등과의 인터렉션(interaction)을 위한 기능을 수행한다. 인터페이스부(120)는 입력 장치를 통해 입력된 입력을 수신하고, 수신된 입력을 이벤트로 변환하여 입력 제어부(112)로 전달할 수 있다. 인터페이스부(120)는 제작부(111)에 의해 생성된 컨텐츠를 수신하고, 상기 컨텐츠를 출력 장치에서 판독가능한 출력 신호로 변환할 수 있다.
도 2는 제작부(111)의 구체적인 동작을 설명하기 위한 도면이다.
도 2를 참조하면, 제작부(111)는 좌표 생성부(111a), 부가 처리부(111b), 효과 처리부(111c)를 포함할 수 있다.
좌표 생성부(111a)는 주 컨텐츠에 포함된 객체들의 위치들을 고려하여 주 컨텐츠와 대응되는 좌표계를 생성할 수 있다. 좌표 생성부(111a)는 주 컨텐츠에 부가된 부 컨텐츠가 자연스럽게 표현될 수 있도록 좌표계를 생성할 수 있다. 생성된 좌표계를 이용하게 되면 부 컨텐츠의 위치, 크기 등을 편집하지 않더라도 부 컨텐츠가 좌표계와 연동하여 자연스럽게 표현될 수 있도록 할 수 있다. 객체들의 위치는 경계선(edge)을 기초로 파악될 수 있다. 좌표 생성부(111a)는 주 컨텐츠에 포함된 객체들로부터 입체 정보를 획득할 수 있다. 여기서, 입체 정보는 주 컨텐츠를 분석하여 획득되는 것으로, 주 컨텐츠에 포함된 객체들로부터 획득되게 된다. 여기서, 객체는 부가 컨텐츠와는 구별되는 것으로 주 컨텐츠에 최초부터 포함되었던 것일 수 있다. 입체 정보는 객체들 사이의 깊이감 또는 거리감에 따라 생성될 수 있다. 좌표 생성부(111a)는 획득된 입체 정보를 이용하여 상기 주 컨텐츠에 포함된 복수의 지점들을 결정할 수 있다. 좌표 생성부(111a)는 획득된 입체 정보를 이용하여 주 컨텐츠에 포함된 제1 지점 및 제2 지점을 결정할 수 있다. 좌표 생성부(111a)는 제1 지점 및 제2 지점 사이의 거리를 산출할 수 있다. 여기서, 거리는 평면적으로 산출된 거리가 될 수 있으나, 제1 지점 및 제2 지점 사이의 깊이감을 고려하여 산출된 거리가 될 수 있다.
좌표 생성부(111a)는 주 컨텐츠에 포함된 지점들 및 지점들 사이의 거리를 고려하여 좌표계를 생성할 수 있다. 보다 구체적으로 좌표 생성부(111a)는 제1 지점, 제2 지점, 및 제1 지점과 제2 지점 사이의 거리를 기초로 좌표계를 생성할 수 있다. 좌표 생성부(111a)는 제1 지점, 제2 지점 중 하나를 기준점으로 설정하고 기준점 외의 다른 지점을 최 외각 좌표로 설정할 수 있다. 좌표 생성부(111a)는 제1 지점 및 제2 지점 사이를 좌표계로 생성할 수 있다. 좌표 생성부(111a)는 제1 지점 및 제2 지점 사이를 균등하게 쪼개진 좌표계를 생성할 수 있다. 좌표 생성부(111a)는 제1 지점 및 제2 지점 사이의 깊이감을 고려하여 비균등하게 쪼개진 좌표계를 생성할 수 있다. 좌표 생성부(111a)에 의해 생성된 좌표계는 3차원적으로 배치된 좌표 성분들을 포함할 수 있다. 좌표성분들의 배치가 균일할 수도 있으나, 영상의 입체 정보를 고려하여 균일하지 않을 수 있다.
좌표 생성부(111a)는 입력된 영상의 깊이감을 고려하여 좌표계를 보정할 수 있다. 좌표 생성부(111a)는 좌표계에 포함된 좌표 성분을 보정할 수 있다. 좌표 생성부(111a)에 의해 복수의 좌표 성분들은 조절될 수 있다. 특히, 기 설정된 기준 범위를 벗어나는 경우에는 좌표 성분들의 간격이 조절될 수 있다. 좌표 성분들의 간격은 기 설정된 기준 범위 안에 포함되도록 조절될 수 있다.
부가 처리부(111b)는 복합 컨텐츠의 조명 효과를 처리할 수 있다. 구체적으로 부가 처리부(111b)는 복합 컨텐츠를 분석하여 부가 컨텐츠 및 부가 컨텐츠의 주변 영역의 컬러 값을 조절할 수 있다. 복합 컨텐츠에 포함된 광원을 추론하는 과정을 거쳐, 추론된 광원을 통한 조명 효과를 생성할 수 있다. 광원에 의한 조명 효과는 광원에 의한 조명 효과가 미치는 영역들의 컬러 값들을 단계적으로 조정함으로써, 설정될 수 있다. 이때, 해당 영역의 컬러 값들은 객체의 형태 및 재질 등을 고려하여 그 변화량을 조정될 수 있다. 해당 영역의 컬러 값들은 객체의 재질이 광택이 나는 것인 경우, 해당 영역이 더 빛나도록 컬러 값들을 조절할 수 있다. 부가 처리부(111b)는 객체가 휘어지는 정도, 곡률에 따라 컬러 값들의 변화량을 조절할 수 있다. 변화량은 인접 픽셀의 컬러 값과 대비하여 변화되는 컬러값들의 차이를 말한다.
Figure 112017015833439-pat00001
부가 처리부(111b)는 사용자로부터 입력된 입력을 고려하여 복합 컨텐츠의 광원 및 조명 효과를 조절할 수 있다. 부가 처리부(111b)는 광원의 위치, 세기, 방향 등을 조절할 수 있다. 부가 처리부(111b)는 조명 효과가 미치는 영역의 위치, 모양, 크기, 조명 효과로 인한 컬러 값들을 조절할 수 있다. 부가 처리부(111b)는 사용자에 의해 변경된 조명 효과가 적절하지 않다고 판단되는 경우, 조명 효과를 초기화하는 기능을 제공할 수 있다. 부가 처리부(111b)는 사용자에 의한 소정의 영역에 대한 입력의 방향, 길이 등을 고려하여 조명 효과로 인한 컬러 값들을 조절할 수 있다.
효과 처리부(111c)는 복합 컨텐츠에 대해서 조명 효과 이외의 다양한 효과를 적용할 수 있다.
도 3은 본 발명의 다른 실시예에 따른 컨텐츠 생성 장치의 기능을 설명하기 위한 도면이다.
본 발명의 다른 실시예에 따른 컨텐츠 생성 장치(110)는 맵 생성부(210), 테스트 실행부(220), 평가 산출부(230)를 포함하는 컨텐츠 검증 장치(200)와 전기적으로 연결될 수 있다. 컨텐츠 검증 장치(200)는 복합 컨텐츠가 사용자에 의해 입력된 시나리오에 따라 실행되는지 여부를 판단하기 위한 다양한 테스트들을 실행시킬 수 있다.
맵 생성부(210)는 사용자에 의해 입력된 시나리오를 기초로 맵을 생성할 수 있다. 맵 생성부(210)는 복합 컨텐츠를 구성하는 씬 별 재생 순서, 씬 별 입력에 따른 동작을 개별적인 맵으로 생성할 수 있다. 예를 들어 맵 생성부(210)는 제1 씬에서 선택 입력이 수신되면, 제2 씬으로 이동하도록 제어된 맵을 생성할 수 있다. 맵 생성부(210)는 제1 객체를 선택하는 입력이 수신되면, 제1 객체를 이동시키거나 제1 객체의 상태를 변화시키도록 제어된 맵을 생성할 수 있다.
테스트 실행부(220)는 생성된 맵에 따라 복합 컨텐츠의 재생을 테스트할 수 있다. 테스트 실행부(220)에 의해 입력과 대응되는 이벤트가 생성되고, 이벤트에 따라 복합 컨텐츠의 후속 조치(컨텐츠의 재생, 컨텐츠에 포함된 객체의 변형 등)가 이루어지는지 여부를 테스트할 수 있다. 즉, 테스트 실행부(220)는 맵에 포함된 이벤트를 일부러 생성하고, 실제적인 입력 없이 시스템적으로, 내부적으로 생성된 이벤트에 따라 복합 컨텐츠의 재생 결과를 상기 이벤트의 결과와 일치하는지 산출해 볼 수 있다.
평가 산출부(230)는 맵에 포함된 이벤트를 순차적으로 생성하고 그에 따른 결과(재생 씬, 재생 프레임 등)를 평가해 볼 수 있다. 맵에 포함된 이벤트 및 그에 따른 결과가 완전히 일치하지 않는다면, 복합 컨텐츠가 맵에 따라서 작성되지 않았다고 판단할 수 있다.
도 4 내지 도 7은 본 발명의 실시예들에 따른 컨텐츠 생성 방법의 흐름도들이다.
도 4에 도시된 바와 같이, 컨텐츠 생성 방법은 주 컨텐츠 및 부가 컨텐츠를 수신하는 단계(S100), 좌표계를 생성하는 단계(S200), 주 컨텐츠에 부가 컨텐츠를 결합시켜 복합 컨텐츠를 생성하는 단계(S300), 조명 효과를 추가하는 단계(S400), 복합 컨텐츠에 조명 효과를 반영하는 단계(S500)를 포함할 수 있다.
S100에서는 컨텐츠 생성 장치(110)는 주 컨텐츠 및 부가 컨텐츠를 수신할 수 있다. 컨텐츠 생성 장치(110)는 주 컨텐츠가 입체적으로 촬영된 동영상인 경우, 주 컨텐츠를 분석하여 입체 정보를 획득할 수 있다.
S200에서는 컨텐츠 생성 장치(110)는 주 컨텐츠의 입체 정보를 기초로 주 컨텐츠와 대응되는 좌표계를 생성할 수 있다. 컨텐츠 생성 장치(110)는 주 컨텐츠에 포함된 복수의 지점들을 선택하고, 선택된 제1 지점 및 제2 지점 사이의 거리를 기초로 좌표계를 생성할 수 있다. 컨텐츠 생성 장치(110)는 선택된 제1 지점을 기준점, 다른 하나의 지점인 제2 지점을 최원점으로 설정할 수 있다. 컨텐츠 생성 장치(110)는 기준점과 최원점 사이를 x축, y축, z축 평면으로 좌표 성분을 균등하게 배치시킬 수 있다.
S210에서는 컨텐츠 생성 장치(110)는 좌표계를 이용하여 주 컨텐츠에 부가 컨텐츠를 배치시킬 수 있다. 컨텐츠 생성 장치(110)는 입력된 부가 컨텐츠에 대한 속성 정보(위치, 크기, 방향 등)에 따라 주 컨텐츠에 부가 컨텐츠를 배치시킬 수 있다.
S300에서는 컨텐츠 생성 장치(110)는 주 컨텐츠 및 부가 컨텐츠에 대해서 조명 효과를 추가할 수 있다. 컨텐츠 생성 장치(110)는 주 컨텐츠에 포함된 하나 이상의 광원을 결정할 수 있다. 컨텐츠 생성 장치(110)는 픽셀들의 조도값을 산출하고 기 설정된 임계 조도값을 초과하는 하나 이상의 픽셀들을 추출하고, 추출된 픽셀들을 기초로 광원을 결정할 수 있다. 컨텐츠 생성 장치(110)는 소정의 시점의 프레임을 분석하여 광원을 결정할 수 있다. 컨텐츠 생성 장치(110)는 제1 픽셀의 조도값을 제1 픽셀을 포함하는 인접 영역의 평균 조도값을 비교할 수 있다. 컨텐츠 생성 장치(110)는 제1 픽셀의 인접 영역의 평균 조도값을 초과하는 제1 픽셀을 검색할 수 있다. 추가적으로 컨텐츠 생성 장치(110)는 광원 및 추가 컨텐츠를 기초로 조명 효과를 반영해야 하는 객체 영역들을 결정할 수 있다. 컨텐츠 생성 장치(110)는 광원의 위치, 세기, 방향, 부가 컨텐츠의 위치, 재질 등을 고려하여 객체 영역들을 결정할 수 있다. 컨텐츠 생성 장치(110)는 사용자로부터의 입력을 고려하여 광원에 의해 영향을 받는 객체 영역들을 변경할 수 있다. 컨텐츠 생성 장치(110)는 광원 및 부가 컨텐츠를 기초로 조명 효과를 반영해야 하는 객체 영역들을 결정하고 사용자로부터의 입력에 따라 객체 영역들을 변경할 수 있다. 사용자에 의해 객체 영역을 선택하고 드래그 또는 확장하는 입력이 수신되면, 객체 영역의 크기가 조절되며 객체 영역의 픽셀값(컬러값, 조도값 등)들도 함께 사용자로부터의 입력에 따라 낮아지거나 높아질 수 있다.
컨텐츠 생성 장치(110)는 광원에 의한 조명 효과를 표현하기 위해서, 객체 영역의 컬러값을 조절할 수 있다. 컨텐츠 생성 장치(110)는 광원과의 거리가 가장 가까운 지점을 최광점으로 지정하고, 최광점을 중심으로 객체 영역의 컬러값을 단계적으로 조절할 수 있다. 이때 객체 영역의 픽셀의 조도가 단계적으로 낮아질 수 있다.
컨텐츠 생성 장치(110)는 객체 영역 및 부가 컨텐츠의 형태, 재질 등을 고려하여 객체 영역의 컬러값들을 조절할 수 있다. 또한, 컨텐츠 생성 장치(110)는 객체 영역 및 부가 컨텐츠의 형태, 재질 등을 고려하여 객체 영역에 컬러값들 또는 컬러값들의 인접 컬러값들과의 변화량을 조절할 수 있다. 예를 들어, 부가 컨텐츠의 재질이 광택이 나는 소재인 경우, 컨텐츠 생성 장치(110)는 객체 영역에서 컬러값들이 하강하는 2차원의 직선과 같이 부드럽게 낮아지도록 조절할 수 있다. 컬러값들의 변화값이 작고 인접 픽셀의 컬러값들이 미세하게 조정되도록 할 수 있다.
컨텐츠 생성 장치(110)는 부가 컨텐츠의 형태가 곡선인 경우, 부가 컨텐츠가 휘어지는 정도, 곡률을 고려하여 객체 영역의 컬러값들을 설정할 수 있다. 컨텐츠 생성 장치(110)는 부가 컨텐츠의 형태가 곡선인 경우, 부가 컨텐츠가 휘어지는 정도, 곡률을 고려하여 객체 영역의 컬러값들을 설정할 수 있다. 컨텐츠 생성 장치(110)는 부가 컨텐츠의 형태가 곡선인 경우, 부가 컨텐츠가 휘어지는 정도, 곡률을 고려하여 객체 영역의 컬러값들 또는 컬러값들의 변화량을 설정할 수 있다. 휘어지는 정도가 완만한 경우에는 컨텐츠 생성 장치(110)는 객체 영역의 컬러값들이 완만한 정도로 낮아질 수 있다. 휘어지는 정도가 급격한 경우에는 컨텐츠 생성 장치(110)는 객체 영역의 컬러값들이 일반적인 변화량인 5 보다 더 큰 변화량으로 낮아질 수 있다. 컨텐츠 생성 장치(110)는 부가 컨텐츠가 모서리를 가지는 형태인 경우, 모서리를 기준으로 컬러값들을 조절한다. 컨텐츠 생성 장치(110)는 모서리를 기준으로 광원과 반대 방향의 면을 객체 영역으로 설정할 수도 있다.
컨텐츠 생성 장치(110)는 객체 영역 중에서, 부가 컨텐츠의 형태 및 객체의 경계, 즉, 부가 컨텐츠의 주변에 존재하는 다른 부가 컨텐츠와의 교선(line of intersection)을 기초로 객체 영역의 컬러값을 조절할 수 있다. 컨텐츠 생성 장치(110)는 객체 영역 중에서 부가 컨텐츠 및 다른 부가 컨텐츠와의 교선의 근처를 가장 어두운 지점으로 결정하고 가장 어두운 지점을 중심으로 컬러값을 단계적으로 조절할 수 있다. 교선을 중심으로 광원과 마주보는 면의 조도는 단계적으로 밝아지고, 광원과 반대되는 방향의 면의 조도는 단계적으로 어두워질 수 있다.
도 5에 도시된 바와 같이, 컨텐츠 생성 장치(110)는 조명 효과에 대한 편집 입력이 있는지 여부를 판단할 수 있다(S500). 컨텐츠 생성 장치(110)는 상기 입력을 반영하여 조명 효과의 영역이 조절할 수 있다(S510).
컨텐츠 생성 장치(110)는 주 컨텐츠 및 부가 컨텐츠에 부가된 조명 효과에 대한 편집 입력이 있는지를 판단하여, 편집 입력이 있는 경우, 상기 입력을 반영하여 복합 컨텐츠를 변경할 수 있다. 컨텐츠 생성 장치(110)는 입력을 반영하여 조명 효과의 영역의 크기를 조절하기도 하지만, 조명 효과가 반영되어야 하는 영역 내의 컬러 값을 조절할 수 있다.
도 6에 도시된 바와 같이, 컨텐츠 생성 장치(110)는 재생 위치를 변경하는 입력이 수신되었는지 여부를 판단할 수 있다(S600). 컨텐츠 생성 장치(110)는 상기 입력의 응답으로 재생되는 위치를 변경할 수 있다(S610). 즉, 컨텐츠 생성 장치(110)는 재생되는 위치를 제1 지점에서 제2 지점으로 변경할 수 있다.
도 7에 도시된 바와 같이, 컨텐츠 생성 장치(110)는 부가 컨텐츠의 상태(위치, 크기, 형태 등)를 변경하는 입력이 수신되었는지 여부를 판단할 수 있다(S700). 컨텐츠 생성 장치(110)는 상기 입력의 응답으로 부가 컨텐츠의 상태를 제1 상태에서 제2 상태로 변경할 수 있다. 이때, 변경되는 부가 컨텐츠의 상태는 부가 컨텐츠의 위치, 크기, 형태 등일 수 있다. 특히, 입력된 사용자 입력에 따라 부가 컨텐츠 자체가 변경될 수도 있다.
도 8에 도시된 바와 같이, 컨텐츠 생성 장치(110)는 입력된 시나리오에 부합되는 맵 데이터를 생성할 수 있다(S800). 컨텐츠 생성 장치(110)는 테스트를 위해서, 맵 데이터에 포함된 이벤트를 테스트 적으로 생성할 수 있다(S810). 컨텐츠 생성 장치(110)는 테스트적으로 생성된 테스트 이벤트에 따라서도 복합 컨텐츠의 재생을 변경할 수 있다(S820). 변경된 재생 결과가 맵 데이터에 포함된 재생 결과 일 수 있다.
도 9에 도시된 바와 같이, 본 발명의 실시예들에 따른 컨텐츠 생성 방법은 주 컨텐츠로부터 입체 정보를 획득하는 단계(S201), 기준점들을 선택하는 단계(S202), 거리를 산출하는 단계(S203), 좌표계를 생성하는 단계(S204), 좌표 성분을 조절하는 단계(S205)를 포함할 수 있다.
S201에서는 주 컨텐츠이 입체적으로 촬영된 동영상인 경우, 컨텐츠 생성 장치(110)는 주 컨텐츠을 분석하여 입체 정보를 획득할 수 있다.
S202에서는 컨텐츠 생성 장치(110)는 주 컨텐츠에 포함된 복수의 지점들을 결정할 수 있다. 컨텐츠 생성 장치(110)는 주 컨텐츠에 포함된 제1 지점 및 제2 지점을 선택할 수 있다. 제1 지점은 관찰자로부터 가장 멀리 떨어져 있는 지점(최원점)으로 선택될 수 있다. 이런 경우, 제2 지점은 제1 지점과의 거리, 길이, 깊이감 중 적어도 하나가 가장 큰 지점일 수 있다. 또는 제1 지점은 관찰자로부터 가장 가까운 지점(최 근접 점)으로 선택될 수 있다.
S203에서는 컨텐츠 생성 장치(110)는 제1 지점 및 제2 지점 사이의 거리를 산출할 수 있다. 여기서, 거리는 평면적으로 산출된 거리가 될 수 있으나, 제1 지점 및 제2 지점 사이의 깊이감, 입체감을 고려하여 산출된 거리가 될 수 있다. 컨텐츠 생성 장치(110)는 주 컨텐츠에 포함된 입체 정보를 활용하여 제1 지점과 제2 지점 사이의 거리를 산출 할 수 있다.
S204에서는 컨텐츠 생성 장치(110)는 지점들 및 지점들 사이의 거리를 기초로 좌표계를 생성할 수 있다. 컨텐츠 생성 장치(110)는 결정된 제1 지점, 제2 지점 및 제1 지점과 제2 지점 사이의 거리를 기초로 좌표계를 생성할 수 있다. 컨텐츠 생성 장치(110)는 제1 지점 및 제2 지점 중 적어도 하나를 기준점, 즉 (0,0,0) 좌표 성분으로 설정하고, 다른 하나의 지점을 최원점(x_max, y_max, z_max)으로 설정한 좌표계를 생성할 수 있다. S205에서는 컨텐츠 생성 장치(110)는 주 컨텐츠 및 제1 기준점, 제2 기준점을 기초로 좌표 성분을 조절할 수 있다. 컨텐츠 생성 장치(110)는 기준점과 최원점 사이를 x축 평면, y축 평면, z축 평면으로 좌표 성분을 균등하게 배치시킬 수 있다. 좌표 성분들은 균일하게 분포되기도 하지만, 주 컨텐츠의 입체 정보를 고려하여 균일하지 않을 수 있다. 추가적으로 컨텐츠 생성 장치(100)는 좌표계에 포함된 좌표 성분들을 보정할 수 있다. 좌표 성분들의 간격이 기 설정된 기준 범위 안에 포함되도록 변경, 조절될 수 있다.
도 10은 조명 효과를 추가하는 단계를 구체적으로 설명하는 도면이다.
도 10에 도시된 바와 같이, 조명 효과를 추가하는 단계(S300)은 복합 컨텐츠를 생성하는 단계(S301), 광원을 추론하는 단계(S302), 객체 영역을 결정하는 단계(S303), 광원의 위치, 세기 및 부가 컨텐츠의 속성 정보를 기초로 상기 객체 영역의 컬러 값을 조절하는 단계(S304)를 포함할 수 있다.
S301에서 컨텐츠 생성 장치(110)는 주 컨텐츠에 부가 컨텐츠를 배치시킨 복합 컨텐츠를 생성할 수 있다.
S302에서 컨텐츠 생성 장치(110)는 복합 컨텐츠를 분석하여 복합 컨텐츠에 포함된 하나 이상의 광원을 결정할 수 있다. 컨텐츠 생성 장치(110)는 복합 컨텐츠에 포함된 픽셀들의 조도값에 기초하여 광원을 결정할 수 있다. 컨텐츠 생성 장치(110)는 픽셀들의 조도값을 산출하고, 기 설정된 임계 조도값을 초과하는 하나 이상의 픽셀들을 추출하고, 추출된 픽셀들을 기초로 광원을 추론할 수 있다. 컨텐츠 생성 장치(110)는 소정의 시점의 프레임(frame, 정지 영상)을 분석하여 광원을 추론, 결정할 수 있다. 컨텐츠 생성 장치(110)는 제1 픽셀의 조도값을 제1 픽셀을 포함하는 인접 영역의 평균 조도값을 비교할 수 있다. 컨텐츠 생성 장치(110)는 제1 픽셀의 인접 영역의 평균 조도값을 초과하는 제1 픽셀을 검색할 수 있다.
S303에서 컨텐츠 생성 장치(110)는 광원 및 부가 컨텐츠를 기초로 조명 효과를 반영해야 하는 객체 영역들을 결정할 수 있다. 컨텐츠 생성 장치(110)는 광원의 위치, 세기, 방향, 객체의 위치, 재질 등을 고려하여 객체 영역들을 결정할 수 있다. 컨텐츠 생성 장치(110)는 사용자로부터의 입력을 고려하여 광원에 의해 영향을 받는 객체 영역들을 변경할 수 있다. 컨텐츠 생성 장치(110)는 광원 및 객체를 기초로 조명 효과를 반영해야 하는 객체 영역들을 결정하고, 사용자로부터의 입력에 따라 객체 영역들을 변경할 수 있다. 사용자에 의해 객체 영역을 선택하고 드래그 또는 확장하는 입력이 수신되면, 객체 영역들은 조절되며, 객체 영역의 픽셀값(컬러값, 조도값 등)들도 함께 사용자로부터의 입력에 따라 낮아지거나 높아질 수 있다.
S304에서 컨텐츠 생성 장치(110)는 광원의 위치, 세기, 부가 컨텐츠의 속성 정보를 기초로 상기 객체 영역의 컬러값을 조절할 수 있다.
도 11은 컨텐츠 생성 장치(110)를 포함하는 사용자 단말의 구조의 블록도이다.
사용자 단말(10)은 프로세서(11), 입력부(12), 출력부(13), 통신부(14), 컨텐츠 생성 장치(110)를 포함할 수 있다.
프로세서(11)는 통상적으로 컨텐츠 생성 장치(110)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(11)는 저장 매체(미도시)에 탑재된 제어 소프트웨어뿐만 아니라 컨텐츠 생성 장치(110)를 실행하도록 제어할 수 있다.
프로세서(11)(processor)는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
입력부(12)는, 사용자가 사용자 단말(10)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 입력부(12)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.
출력부(13)는 사용자 단말(10)에서 처리되는 정보를 출력한다. 한편, 출력부(13)와 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 출력부(13)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 출력부(13)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 사용자 단말(10)의 구현 형태에 따라 사용자 단말(10)는 출력부(13)를 2개 이상 포함할 수도 있다. 이때, 2개 이상의 출력부(13)는 힌지(hinge)를 이용하여 마주보게 배치될 수 있다.
통신부(14)는 사용자 단말(10)와 적어도 하나의 다른 단말 또는 사용자 단말(10)와 서버(미도시) 간의 통신을 가능하게 하는 하나 이상의 구성요소를 포함할 수 있다. 통신부(14)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
컨텐츠 생성 장치(110)는 주 컨텐츠의 적절한 위치에 부가 컨텐츠를 결합한 복합 컨텐츠를 생성할 수 있다. 컨텐츠 생성 장치(110)는 부가 컨텐츠를 단순히 추가할 뿐 아니라 부가 컨텐츠 및 부가 컨텐츠의 주변에 시각적인 효과를 추가할 수 있다. 컨텐츠 생성 장치(110)는 부가 컨텐츠를 단순히 추가하는 것에 그치지 않고 부가 컨텐츠의 컬러값 또는 부가 컨텐츠 주변의 컬러값들을 조절할 수 있다. 컨텐츠 생성 장치(110)는 간단한 조작으로 부가 컨텐츠의 위치, 배향 등을 조절할 수 있다.
이상 설명된 본 발명에 따른 실시예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다.
한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.
본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, "필수적인", "중요하게" 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.
본 발명의 명세서(특히 특허청구범위에서)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 발명에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.
110: 컨텐츠 생성 장치
111: 제작부
112: 입력 제어부
113: 리소스 관리부
120: 컨텐츠 생성부

Claims (15)

  1. 입력부 및 출력부와 전기적으로 연결된 컨텐츠 생성 장치에 있어서,
    주 컨텐츠 및 부가 컨텐츠를 수신하고, 편집 메뉴를 이용하여 수신한 상기 주 컨텐츠 및 상기 부가 컨텐츠를 결합시켜 복합 컨텐츠를 생성하는 제작부;
    상기 입력부를 통해 수신된 사용자 입력에 따라 상기 복합 컨텐츠의 재생을 제어하는 입력 제어부;를 포함하고,
    상기 제작부는
    상기 주 컨텐츠에 포함된 하나 이상의 객체의 위치들을 고려하여, 상기 주 컨텐츠와 대응되는 좌표계를 생성하는 좌표 생성부;
    상기 부가 컨텐츠의 위치와 대응되는 지점을 좌표계 내에서 검색하고, 상기 지점을 기반으로 상기 부가 컨텐츠의 배치를 결정하는 부가 처리부;를 포함하고,
    상기 좌표 생성부는
    상기 주 컨텐츠에 포함된 지점들 사이의 깊이감을 고려하여 균등 또는 비균등하게 쪼개진 좌표계를 생성하는 점을 특징으로 하는, 컨텐츠 생성 장치.
  2. 삭제
  3. 제1항에 있어서,
    상기 제작부는
    상기 주 컨텐츠에 기 존재한 광원을 결정하고, 상기 광원 및 상기 부가 컨텐츠를 고려하여 상기 부가 컨텐츠에 조명 효과를 부여하는 효과 처리부;를 더 포함하는, 컨텐츠 생성 장치.
  4. 제1항에 있어서,
    상기 입력 제어부는
    상기 복합 컨텐츠를 구성하는 복수의 씬들을 분리하고,
    각 씬에 대한 처리 방법을 입력 받고, 상기 각 씬에 대한 처리 방법에 따라 복수의 씬들을 배치시키는, 컨텐츠 생성 장치.
  5. 제4항에 있어서,
    상기 입력 제어부는
    수신된 사용자 입력에 기반해서, 상기 복합 컨텐츠의 제1 씬으로부터 제2 씬으로 이동하여 재생하도록 제어하는, 컨텐츠 생성 장치.
  6. 제5항에 있어서,
    상기 입력 제어부는
    수신된 사용자 입력에 기반해서, 상기 복합 컨텐츠의 제1 객체의 상태, 위치 중 적어도 하나를 변경시키는, 컨텐츠 생성 장치.
  7. 제1항에 있어서,
    상기 사용자 입력에 따른 복합 컨텐츠의 재생과 대응되는 맵 데이터를 생성하는 맵 생성부;
    상기 맵 데이터에 포함된 사용자 입력을 순차적으로 발생시켜 상기 복합 컨텐츠의 재생을 유도하는 테스트 실행부;를 더 포함하는, 컨텐츠 생성 장치.
  8. 입력부 및 출력부와 전기적으로 연결된 컨텐츠 생성 장치의 컨텐츠 생성 방법에 있어서,
    상기 컨텐츠 생성 장치가 주 컨텐츠 및 부가 컨텐츠를 수신하고, 편집 메뉴를 이용하여 수신한 상기 주 컨텐츠 및 상기 부가 컨텐츠를 결합시켜 복합 컨텐츠를 생성하는 단계; 및
    상기 입력부를 통해 수신된 사용자 입력에 따라 상기 복합 컨텐츠의 재생을 제어하는 단계;를 포함하고,
    상기 컨텐츠를 생성하는 단계는
    상기 주 컨텐츠에 포함된 하나 이상의 객체의 위치들을 고려하여, 상기 주 컨텐츠와 대응되는 좌표계를 생성하는 단계; 및
    상기 부가 컨텐츠의 위치와 대응되는 지점을 좌표계 내에서 검색하고, 상기 지점을 기반으로 상기 부가 컨텐츠의 배치를 결정하는 단계;를 더 포함하고,
    상기 좌표계를 생성하는 단계는
    상기 주 컨텐츠에 포함된 지점들 사이의 깊이감을 고려하여 균등 또는 비균등하게 쪼개진 좌표계를 생성하는 점을 특징으로 하는, 컨텐츠 생성 방법.
  9. 삭제
  10. 제8항에 있어서,
    상기 컨텐츠를 생성하는 단계는
    상기 주 컨텐츠에 기 존재한 광원을 결정하고, 상기 광원 및 상기 부가 컨텐츠를 고려하여 상기 부가 컨텐츠에 조명 효과를 부여하는 단계;를 더 포함하는, 컨텐츠 생성 방법.
  11. 제8항에 있어서,
    상기 복합 컨텐츠의 재생을 제어하는 단계는
    상기 복합 컨텐츠를 구성하는 복수의 씬들을 분리하고,
    각 씬에 대한 처리 방법을 입력 받고, 상기 각 씬에 대한 처리 방법에 따라 복수의 씬들을 배치시키는 단계;를 더 포함하는, 컨텐츠 생성 방법.
  12. 제8항에 있어서,
    상기 복합 컨텐츠의 재생을 제어하는 단계는
    수신된 사용자 입력에 기반해서, 상기 복합 컨텐츠의 제1 씬으로부터 제2 씬으로 이동시키는 단계;를 더 포함하는, 컨텐츠 생성 방법.
  13. 제8항에 있어서,
    상기 복합 컨텐츠의 재생을 제어하는 단계는
    수신된 사용자 입력에 기반해서, 상기 복합 컨텐츠의 제1 객체의 상태, 위치 중 적어도 하나를 변경시키는 단계;를 더 포함하는, 컨텐츠 생성 방법.
  14. 제8항에 있어서,
    상기 사용자 입력에 따른 복합 컨텐츠의 재생과 대응되는 맵 데이터를 생성하는 단계;
    상기 맵 데이터에 포함된 사용자 입력을 순차적으로 발생시켜 상기 복합 컨텐츠의 재생을 유도하는 단계;를 더 포함하는, 컨텐츠 생성 방법.
  15. 컴퓨터를 이용하여 제8항, 제10항 내지 제14항 중 어느 한 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 저장 매체에 저장된 컴퓨터 프로그램.
KR1020170020713A 2017-02-15 2017-02-15 컨텐츠 생성 장치, 방법 및 컴퓨터 프로그램 KR101868101B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170020713A KR101868101B1 (ko) 2017-02-15 2017-02-15 컨텐츠 생성 장치, 방법 및 컴퓨터 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170020713A KR101868101B1 (ko) 2017-02-15 2017-02-15 컨텐츠 생성 장치, 방법 및 컴퓨터 프로그램

Publications (1)

Publication Number Publication Date
KR101868101B1 true KR101868101B1 (ko) 2018-06-18

Family

ID=62765445

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170020713A KR101868101B1 (ko) 2017-02-15 2017-02-15 컨텐츠 생성 장치, 방법 및 컴퓨터 프로그램

Country Status (1)

Country Link
KR (1) KR101868101B1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006279320A (ja) * 2005-03-28 2006-10-12 Canon Inc 番組蓄積再生装置、番組蓄積再生方法、その記録媒体及びプログラム
KR20120042357A (ko) * 2010-10-25 2012-05-03 엘에스전선 주식회사 셋톱박스 및 증강현실 기법을 이용한 컨텐츠 생성 방법
JP2013003848A (ja) * 2011-06-16 2013-01-07 Nippon Telegr & Teleph Corp <Ntt> 仮想物体表示装置
KR20130066566A (ko) * 2010-04-30 2013-06-20 소니 주식회사 컨텐츠 재생 장치, 제어정보 제공 서버, 및 컨텐츠 재생 시스템
KR20130112578A (ko) * 2012-04-04 2013-10-14 삼성전자주식회사 사용자 기반의 증강 현실 정보를 제공하기 위한 장치 및 방법
KR20150115694A (ko) 2015-09-18 2015-10-14 삼성전자주식회사 컨텐츠 생성 기능을 갖는 컨텐츠 재생 장치 및 그의 컨텐츠 생성 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006279320A (ja) * 2005-03-28 2006-10-12 Canon Inc 番組蓄積再生装置、番組蓄積再生方法、その記録媒体及びプログラム
KR20130066566A (ko) * 2010-04-30 2013-06-20 소니 주식회사 컨텐츠 재생 장치, 제어정보 제공 서버, 및 컨텐츠 재생 시스템
KR20120042357A (ko) * 2010-10-25 2012-05-03 엘에스전선 주식회사 셋톱박스 및 증강현실 기법을 이용한 컨텐츠 생성 방법
JP2013003848A (ja) * 2011-06-16 2013-01-07 Nippon Telegr & Teleph Corp <Ntt> 仮想物体表示装置
KR20130112578A (ko) * 2012-04-04 2013-10-14 삼성전자주식회사 사용자 기반의 증강 현실 정보를 제공하기 위한 장치 및 방법
KR20150115694A (ko) 2015-09-18 2015-10-14 삼성전자주식회사 컨텐츠 생성 기능을 갖는 컨텐츠 재생 장치 및 그의 컨텐츠 생성 방법

Similar Documents

Publication Publication Date Title
US11756223B2 (en) Depth-aware photo editing
KR102559202B1 (ko) 3d 렌더링 방법 및 장치
US20210217216A1 (en) Presenting Multiple Image Segmentations
KR101842106B1 (ko) 알려지지 않은 오브젝트들에 대한 증강 현실 콘텐츠의 생성
US9367942B2 (en) Method, system and software program for shooting and editing a film comprising at least one image of a 3D computer-generated animation
Zollmann et al. Image-based ghostings for single layer occlusions in augmented reality
EP3035292B1 (en) 3d rendering method and apparatus
US20160198097A1 (en) System and method for inserting objects into an image or sequence of images
JP5795384B2 (ja) 映像処理装置、照明処理装置及びその方法
US10523916B2 (en) Modifying images with simulated light sources
CN101414383B (zh) 图像处理设备和图像处理方法
KR101181199B1 (ko) 배경 지형 장면의 입체 이미지 생성 방법, 시스템 및 이를 위한 기록매체
KR101553273B1 (ko) 증강현실 서비스를 제공하는 방법 및 장치
CN108876886A (zh) 图像处理方法、装置和计算机设备
TWI810818B (zh) 提供三維模型的電腦實施方法與系統及其相關之儲存媒體
KR102250254B1 (ko) 영상 처리 방법 및 장치
US20190155465A1 (en) Augmented media
US11412194B2 (en) Method and system for employing depth perception to alter projected images on various surfaces
US9615009B1 (en) Dynamically adjusting a light source within a real world scene via a light map visualization manipulation
KR101868101B1 (ko) 컨텐츠 생성 장치, 방법 및 컴퓨터 프로그램
US20230342890A1 (en) High Resolution Inpainting with a Machine-learned Augmentation Model and Texture Transfer
TW202338621A (zh) 控制方法、電腦可讀取媒體及控制器
KR20230129495A (ko) 라이트-인-플라이트(light-in-flight)를 시뮬레이션하기위한 시스템 및 방법
Kolivand et al. Livephantom: Retrieving virtual world light data to real environments
CN117173314B (zh) 一种图像处理方法、装置、设备、介质及程序产品

Legal Events

Date Code Title Description
GRNT Written decision to grant