KR102618205B1 - Method and system for creating content having themes - Google Patents

Method and system for creating content having themes Download PDF

Info

Publication number
KR102618205B1
KR102618205B1 KR1020210172420A KR20210172420A KR102618205B1 KR 102618205 B1 KR102618205 B1 KR 102618205B1 KR 1020210172420 A KR1020210172420 A KR 1020210172420A KR 20210172420 A KR20210172420 A KR 20210172420A KR 102618205 B1 KR102618205 B1 KR 102618205B1
Authority
KR
South Korea
Prior art keywords
video
images
theme
image
content
Prior art date
Application number
KR1020210172420A
Other languages
Korean (ko)
Other versions
KR20210149678A (en
Inventor
서명원
김보현
백유림
최승연
동이레
이지원
Original Assignee
네이버 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버 주식회사 filed Critical 네이버 주식회사
Priority to KR1020210172420A priority Critical patent/KR102618205B1/en
Publication of KR20210149678A publication Critical patent/KR20210149678A/en
Application granted granted Critical
Publication of KR102618205B1 publication Critical patent/KR102618205B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Television Signal Processing For Recording (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 영상을 이용하여 콘텐츠를 생성하는 방법에 관한 것으로서, 전자기기를 이용하여, 편집의 대상이 되는 복수의 영상을 선택받고, 상기 복수의 영상 각각에 대하여 특정 테마에 연계된 그래픽 처리를 수행하며, 그래픽 처리가 수행된 상기 복수의 영상을 이용하여, 상기 특정 테마를 갖는 영상 콘텐츠를 생성하는 테마를 갖는 영상 콘텐츠 생성 방법 및 시스템에 관한 것이다.The present invention relates to a method of generating content using images. Using an electronic device, a plurality of images to be edited are selected, and graphics processing linked to a specific theme is performed on each of the plurality of images. It relates to a method and system for generating video content with a theme that generates video content with the specific theme using the plurality of images on which graphic processing has been performed.

Description

테마를 갖는 콘텐츠 생성 방법 및 시스템{METHOD AND SYSTEM FOR CREATING CONTENT HAVING THEMES}Method and system for creating content with a theme {METHOD AND SYSTEM FOR CREATING CONTENT HAVING THEMES}

본 발명은 영상을 이용하여 콘텐츠를 생성하는 방법에 관한 것이다.The present invention relates to a method of generating content using video.

기술이 발전함에 따라, 디지털 디바이스의 활용도가 높아지고 있다. 특히 전자기기(예를 들어, 스마트폰, 태블릿 PC 등)는, 전화나 문자 메시지와 같은 통신 기능은 물론, 인터넷을 활용한 웹 서핑, 음악 감상, 영상 콘텐츠의 시청과 같이 다양한 기능을 구비하고 있다.As technology develops, the utilization of digital devices is increasing. In particular, electronic devices (e.g., smartphones, tablet PCs, etc.) have various functions such as communication functions such as phone calls and text messages, as well as web surfing, listening to music, and watching video content using the Internet. .

이러한 전자기기의 대중화에 힘입어, 멀티 미디어로 이루어진 콘텐츠에 대한 소비가 급증하고 있으며, 이와 함께, 동영상 공유 서비스(예를 들어, 유튜브(YouTube™), 소셜 네트워크 서비스(Social Network Service, 이하, “SNS”라고 명명함)의 이용자 또한 급증하고 있다.Thanks to the popularization of electronic devices, the consumption of multi-media content is rapidly increasing, and along with this, video sharing services (e.g. YouTube™, Social Network Service, hereinafter, “ The number of users of “SNS”) is also rapidly increasing.

한편, 최근에는, 콘텐츠 소비자들이 곧 콘텐츠의 생산자가 되고 있으며, 이에 따라, 소비자들이 직접 영상을 촬영하고, 촬영된 영상을 편집하여 하나의 콘텐츠로 제작하는 1인 미디어 시대가 도래하였다.Meanwhile, in recent years, content consumers are becoming content producers, and thus, the era of one-person media has arrived in which consumers directly film video, edit the filmed video, and produce a single content.

이러한, 콘텐츠를 편집하는 방법으로서, 대한민국 공개특허 10-2008-0034311호는 디지털 영상 처리 장치에서 영상 편집 방법을 개시하고 있으며, 복수개의 영상 전체에 동일한 속성의 편집 내용을 적용하는 기술을 포함하고 있다. 그러나 이 기술은 영상의 회전, 컬러 변환과 같은 영상 편집 기능을 복수개의 영상 각각에 대하여 일괄적으로 적용할 수 있는 기술을 개시하고 있을 뿐, 복수의 영상을 하나의 콘텐츠로 재생산하는 기술을 개시하고 있지 않다.As a method of editing content, Korean Patent Publication No. 10-2008-0034311 discloses an image editing method in a digital image processing device and includes a technology for applying editing content of the same attribute to all of a plurality of images. . However, this technology only discloses a technology that can uniformly apply video editing functions such as image rotation and color conversion to each of a plurality of images, and also discloses a technology that reproduces multiple images as one content. There is not.

또한, 콘텐츠를 편집하는 또 다른 방법으로서, 대한민국 등록특허 10-0726258호는, 전자기기에 저장된 정적인 이미지(사진파일) 및 음성파일을 결합하여 하나의 영상물 파일을 생성하는 기술이 공개되어 있다. 다만, 이러한 방법은 전자기기에 저장된 유사한 테마를 갖는 사진을 이용하여 하나의 영상물을 만드는 기술로, 동영상을 포함하여 새로운 콘텐츠를 재생산하는 기술 및 제작된 영상물의 테마(또는 컨셉)를 사용자의 기호에 따라 변경하는 것에 제한이 있다.Additionally, as another method of editing content, Republic of Korea Patent No. 10-0726258 discloses a technology for creating a single video file by combining static images (photo files) and audio files stored in electronic devices. However, this method is a technology for creating a single video using photos with a similar theme stored in an electronic device. It is a technology for reproducing new content, including video, and the theme (or concept) of the produced video according to the user's preference. There are limits to changes.

이에, 콘텐츠에 포함시키고자 하는 영상의 유형에 관계없이, 사용자가 보다 쉽게 완성도 있는 영상 콘텐츠를 제작할 수 있는 환경이 필요하다.Accordingly, there is a need for an environment in which users can more easily create high-quality video content, regardless of the type of video they wish to include in the content.

본 발명은, 공통의 테마를 갖는 영상 콘텐츠를 생성하는 방법 및 시스템을 제공하는 것이다.The present invention provides a method and system for generating video content with a common theme.

나아가, 본 발명은 사용자가 콘텐츠의 테마를 선택하는 것 만으로도, 통일성 및 완성도 높은 동영상 콘텐츠를 생성할 수 있는 콘텐츠 생성 방법 및 시스템을 제공하는 것이다.Furthermore, the present invention provides a content creation method and system that allows users to create video content with high unity and completeness just by selecting a theme for the content.

또한, 본 발명은, 영상의 유형에 관계없이, 선택된 영상들을 조합하여, 하나의 새로운 영상 콘텐츠를 생성할 수 있는 콘텐츠 생성 방법 및 시스템을 제공하는 것이다.Additionally, the present invention provides a content creation method and system that can generate a new video content by combining selected videos, regardless of the type of video.

또한, 본 발명은 동영상 콘텐츠의 주제, 제작 의도 등 사용자의 생각을 반영할 수 있는 동영상 콘텐츠를 제작 환경을 제공함으로써, 보다 완성도 높은 콘텐츠 생성 방법 및 시스템을 제공하는 것이다.In addition, the present invention provides a more complete content creation method and system by providing an environment for creating video content that can reflect the user's thoughts, such as the subject of the video content and production intention.

또한, 본 발명은, 사용자가 동영상 콘텐츠의 대표 이미지(또는 썸네일 이미지(thumbnail image))를 별도로 생성하기 위한 작업을 수행하지 않더라도, 사용자의 기호에 맞는 대표 이미지를 생성할 수 있는 콘텐츠 생성 방법 및 시스템을 제공하는 것이다.In addition, the present invention provides a content creation method and system that can generate a representative image that suits the user's preference even if the user does not separately create a representative image (or thumbnail image) of video content. is to provide.

본 발명은, 테마를 갖는 콘텐츠를 생성하는 방법에 관한 것으로서, 이러한 콘텐츠를 생성하는 방법은, 편집의 대상이 되는 복수의 영상을 선택받는 단계, 상기 복수의 영상 각각에 대하여 특정 테마에 연계된 그래픽 처리를 수행하는 단계 및 상기 그래픽 처리가 수행된 상기 복수의 영상을 이용하여, 상기 특정 테마를 갖는 영상 콘텐츠를 생성하는 단계를 수행한다.The present invention relates to a method of generating content with a theme. The method of generating such content includes selecting a plurality of images to be edited, and graphics linked to a specific theme for each of the plurality of images. A step of performing processing and a step of generating video content having the specific theme using the plurality of images on which the graphic processing has been performed are performed.

이때, 생성된 영상 콘텐츠는, 상기 복수의 영상 중 어느 하나의 영상에 대해 제1 편집 속성에 따른 그래픽 처리를 수행하여 생성된 제1 파트 및 상기 어느 하나의 영상을 제외한 나머지 영상에 대해 상기 제1 편집 속성과 다른 제2 편집 속성에 따른 그래픽 처리를 수행하여 생성된 된 제2 파트를 포함할 수 있다.At this time, the generated video content includes a first part generated by performing graphic processing according to the first editing attribute on any one of the plurality of images, and the first part for the remaining images excluding the one image. It may include a second part created by performing graphic processing according to a second editing property that is different from the editing property.

또한, 본 발명에 따른 테마를 갖는 영상을 생성하는 방법은, 전자기기를 이용하여, 편집의 대상이 되는 복수의 영상을 선택받는 단계, 상기 전자기기를 이용하여, 텍스트 데이터를 입력받는 단계, 상기 복수의 영상 각각에 대하여 특정 테마에 연계된 그래픽 처리를 수행하는 단계 및 그래픽 처리가 수행된 상기 복수의 영상을 이용하여, 상기 특정 테마를 갖는 영상 콘텐츠를 생성하도록 구성될 수 있다.In addition, the method of generating an image with a theme according to the present invention includes the steps of selecting a plurality of images to be edited using an electronic device, receiving text data using the electronic device, The method may be configured to perform graphic processing associated with a specific theme on each of a plurality of images and generate video content having the specific theme using the plurality of images on which the graphic processing has been performed.

이때, 그래픽 처리를 수행하는 단계에서는, 상기 복수의 영상들 중 가장 첫번째 배열된 제1 영상에 대해, 상기 입력된 텍스트 데이터를 포함하는 그래픽 객체를 오버랩하는 제1 그래픽 처리 및 상기 복수의 영상 중 상기 제1 영상을 제외한 나머지 영상에 대하여 상기 특정 테마에 매칭된 적어도 하나의 그래픽 객체를 오버랩하는 제2 그래픽 처리를 수행할 수 있다. At this time, in the step of performing graphic processing, first graphic processing overlaps a graphic object including the input text data with respect to the first image arranged first among the plurality of images, and A second graphic processing that overlaps at least one graphic object matching the specific theme may be performed on the remaining images excluding the first image.

또한, 본 발명에 따른 테마를 갖는 콘텐츠를 생성하는 방법에 따르면, 상기 제1 그래픽 처리가 수행된 어느 하나의 영상을 이용하여, 상기 영상 콘텐츠의 썸네일 이미지를 생성할 수 있다.Additionally, according to the method for generating content with a theme according to the present invention, a thumbnail image of the video content can be generated using any video on which the first graphic processing has been performed.

한편, 위에서 본 발명에 따른 테마를 갖는 콘텐츠를 생성하는 방법에 따른 시스템은, 전자기기를 이용하여, 편집의 대상이 되는 복수의 영상을 선택받는 입력부, 상기 복수의 영상 각각에 대하여 특정 테마에 연계된 그래픽 처리를 이미지 처리부 및 그래픽 처리가 수행된 상기 복수의 영상을 이용하여, 상기 특정 테마를 갖는 영상 콘텐츠를 생성하는 제어부를 포함할 수 있다.Meanwhile, the system according to the method for generating content with a theme according to the present invention described above includes an input unit that selects a plurality of images to be edited using an electronic device, and each of the plurality of images is linked to a specific theme. It may include an image processing unit that performs graphic processing and a control unit that generates video content with the specific theme using the plurality of images on which graphic processing has been performed.

위에서 살펴본 것과 같이, 본 발명에 따른 테마를 갖는 콘텐츠 생성 방법 및 시스템은, 사용자로부터 선택된 복수의 영상에 대해 특정 테마에 매칭된 그래픽 처리를 수행하고, 이를 조합하여, 하나의 영상 콘텐츠를 생성함으로써, 통일성 및 완성도 있는 영상 콘텐츠를 제공할 수 있다. 이때, 본 발명에 따른 콘텐츠 생성 방법 및 시스템에서는, 다양한 테마를 사용자에게 제공하고, 이중 어느 하나를 선택 받음으로써, 위에서 살펴본 특정 테마가 결정될 수 있다. 다양한 테마 각각에는, 기 결정된 그래픽 처리 방법이 존재하며, 본 발명에 따른 콘텐츠 생성 방법 및 시스템은, 특정 테마가 결정되는 경우, 이에 매칭된 그래픽 처리를 수행할 수 있다. 따라서, 사용자는 콘텐츠의 테마를 선택하는 것 만으로도, 선택된 복수의 영상들에 대해, 특정 테마에 매칭된 그래픽 처리의 수행 결과를 제공받을 수 있다. 결과적으로, 본 발명에 따른 테마를 갖는 콘텐츠 생성 방법 및 시스템은 통일성 및 완성도 높은 동영상 콘텐츠를 제작할 수 있다.As seen above, the method and system for creating content with a theme according to the present invention performs graphic processing matched to a specific theme on a plurality of images selected by the user and combines them to generate one image content, We can provide video content with unity and completeness. At this time, in the content creation method and system according to the present invention, the specific theme discussed above can be determined by providing various themes to the user and selecting one of them. For each of the various themes, there is a predetermined graphics processing method, and the content creation method and system according to the present invention can perform graphics processing matched to a specific theme when a specific theme is determined. Accordingly, just by selecting a content theme, the user can receive the results of graphics processing that matches the specific theme for the plurality of selected images. As a result, the method and system for creating content with a theme according to the present invention can produce video content with high unity and completeness.

한편, 본 발명에 따른 테마를 갖는 콘텐츠 생성 방법 및 시스템은, 사용자로부터 선택된 영상의 유형이, 정적인 영상(static image)인 경우, 이를 동영상으로 변환하고, 변환된 동영상을 이용하여 새로운 영상 콘텐츠를 생성할 수 있다. 결과적으로, 본 발명은 영상의 유형에 관계없이 복수의 영상을 조합하여 하나의 새로운 영상 콘텐츠를 생성할 수 있다. 따라서, 사용자는, 영상의 유형에 구애받지 않고, 보다 다양한 콘텐츠를 이용하여, 새로운 영상 콘텐츠를 제작할 수 있다.Meanwhile, the method and system for creating content with a theme according to the present invention converts the type of video selected by the user into a video and creates new video content using the converted video. can be created. As a result, the present invention can create one new video content by combining multiple videos regardless of the type of video. Accordingly, users can create new video content using a wider variety of content, regardless of the type of video.

또한, 본 발명에 따른, 테마를 갖는 콘텐츠 생성 방법 및 시스템은, 사용자로부터 입력된 텍스트 데이터를 포함하는 그래픽 객체를, 영상에 합성함으로써, 사용자의 의견이 반영된 영상 콘텐츠를 제공할 수 있다. 나아가, 본 발명에 따른, 테마를 갖는 콘텐츠 생성 방법 및 시스템은, 위에서 살펴본 그래픽 객체가 합성된 영상을 이용하여, 영상 콘텐츠의 썸네일 이미지를 생성할 수 있다. 따라서, 사용자는, 영상 콘텐츠의 썸네일 이미지를 별도로 제작하기 위한 작업 과정을 줄일 수 있다. 또한, 이러한 썸네일 이미지는, 사용자로부터 입력된 텍스트 데이터가 포함되며, 이를 통해, 사용자는, 영상 콘텐츠의 생성과 함께, 자신의 생각을 반영한 썸네일 이미지를 제공받을 수 있다.In addition, the method and system for creating content with a theme according to the present invention can provide video content that reflects the user's opinion by combining a graphic object including text data input from the user into the video. Furthermore, the method and system for generating content with a theme according to the present invention can generate a thumbnail image of video content using an image in which the graphic objects described above are synthesized. Accordingly, the user can reduce the work process for separately creating a thumbnail image of video content. Additionally, these thumbnail images include text data input by the user, through which the user can be provided with a thumbnail image that reflects his or her thoughts along with the creation of video content.

도 1은 본 발명에 따른 테마를 갖는 콘텐츠 생성 방법 및 시스템을 설명하기 위한 개념도이다.
도 2는 본 발명에 따른 테마를 갖는 콘텐츠 생성 방법 및 시스템에서 테마를 적용하는 예를 설명하기 위한 개념도이다.
도 3은 본 발명에서 테마를 갖는 콘텐츠를 생성하는 방법을 설명하기 위한 흐름도이다.
도 4a 및 도 4b는 도 3에서 살펴본 테마를 갖는 콘텐츠를 생성하는 방법을 설명하기 위한 개념도들이다.
도 5a 및 도 5b는 본 발명에 따른 테마를 갖는 콘텐츠 생성 방법 및 시스템에서 제1 파트의 영상 콘텐츠를 생성하는 방법을 설명하기 위한 개념도들이다.
도 6a 및 도 6b는 본 발명에 따른 테마를 갖는 콘텐츠 생성 방법 및 시스템에서 제2 파트의 영상 콘텐츠를 생성하는 방법을 설명하기 위한 개념도들이다.
도 7a는 본 발명에 따른 테마를 갖는 콘텐츠 생성 방법 및 시스템에서 추가적인 그래픽 처리를 수행하는 방법을 설명하기 위한 개념도이다.
도 7b는 본 발명에 따른 테마를 갖는 콘텐츠 생성 방법 및 시스템에서, 사운드 처리를 수행하는 방법을 설명하기 위한 개념도이다.
1 is a conceptual diagram illustrating a method and system for generating content with a theme according to the present invention.
Figure 2 is a conceptual diagram illustrating an example of applying a theme in a method and system for creating content with a theme according to the present invention.
Figure 3 is a flowchart for explaining a method of creating content with a theme in the present invention.
FIGS. 4A and 4B are conceptual diagrams for explaining a method of generating content having the theme shown in FIG. 3.
5A and 5B are conceptual diagrams for explaining a method of generating video content of the first part in a method and system for generating content with a theme according to the present invention.
FIGS. 6A and 6B are conceptual diagrams for explaining a method of generating video content of the second part in a method and system for generating content with a theme according to the present invention.
FIG. 7A is a conceptual diagram illustrating a method for generating content with a theme and a method for performing additional graphic processing in the system according to the present invention.
FIG. 7B is a conceptual diagram illustrating a method of performing sound processing in a method and system for creating content with a theme according to the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings. However, identical or similar components will be assigned the same reference numbers regardless of drawing symbols, and duplicate descriptions thereof will be omitted. The suffixes “module” and “part” for components used in the following description are given or used interchangeably only for the ease of preparing the specification, and do not have distinct meanings or roles in themselves. Additionally, in describing the embodiments disclosed in this specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed descriptions will be omitted. In addition, the attached drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings, and all changes included in the spirit and technical scope of the present invention are not limited. , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms containing ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

본 발명은, 영상 콘텐츠를 생성하는 방법에 관한 것으로서, 특히, 공통의 테마를 갖는 영상 콘텐츠를 생성함으로써, 사용자에게 통일성 및 완성도 높은 동영상 콘텐츠를 제공하는 것이다.The present invention relates to a method for generating video content, and in particular, provides video content with uniformity and high completeness to users by generating video content with a common theme.

본 발명에 따른, 테마를 갖는 콘텐츠 생성 방법은, 애플리케이션(application) 또는 소프트웨어(software)의 형태로 구현되는 시스템에 의하여 일련의 과정이 수행될 수 있다(이하에서는, 애플리케이션과 소프트웨어의 용어를 구분하지 않고, 통일하여 애플리케이션이라고 명명한다). 즉, 본 발명에 따른, 테마를 갖는 콘텐츠 생성 시스템은, 테마를 갖는 콘텐츠 생성 애플리케이션이라고도 명명될 수 있다. According to the present invention, the method of creating content with a theme can be a series of processes performed by a system implemented in the form of an application or software (in the following, the terms application and software are not distinguished). (unified and named application). That is, the content creation system with a theme according to the present invention may also be called a content creation application with a theme.

이하에서는, 첨부된 도면과 함께, 본발명에 따른 테마를 갖는 콘텐츠 생성 시스템에 대하여, 보다 구체적으로 살펴본다. 도 1은 본 발명에 따른 테마를 갖는 콘텐츠 생성 방법 및 시스템을 설명하기 위한 개념도이고, 도 2는 본 발명에 따른 테마를 갖는 콘텐츠 생성 방법 및 시스템에서 테마를 적용하는 예를 설명하기 위한 개념도이다.Below, we will look at the content creation system with a theme according to the present invention in more detail along with the attached drawings. FIG. 1 is a conceptual diagram for explaining a method and system for creating content with a theme according to the present invention, and FIG. 2 is a conceptual diagram for explaining an example of applying a theme in a method and system for generating content with a theme according to the present invention.

보다 구체적으로, 본 발명에 따른 테마를 갖는 콘텐츠 생성 시스템은, 도 1에 도시된 것과 같이, 애플리케이션의 형태로 전자기기(100c)에 설치되어, 테마를 갖는 콘텐츠를 생성하는 과정을 수행할 수 있다. 이러한, 애플리케이션은, 전자기기 상에서의 사용자의 요청에 의하여 전자기기 상에 설치될 수 있으며, 또는 전자기기 출고 당시, 전자기기에 설치되어 존재할 수 있다. 이와 같은, 테마를 갖는 콘텐츠 생성 시스템을 구현하는 애플리케이션은, 데이터 통신을 통하여, 외부 데이터(data) 저장소(또는 외부 서버(server))로부터 다운로드(download)되어, 전자기기 상에 설치될 수 있다. 그리고, 전자기기 상에서, 본 발명에 따른 테마를 갖는 콘텐츠 시스템이 구현된 애플리케이션이 실행되는 경우, 테마를 갖는 콘텐츠가 생성되기 위한 일련의 과정이 진행될 수 있다.More specifically, the system for creating content with a theme according to the present invention can be installed in the electronic device 100c in the form of an application, as shown in FIG. 1, and perform the process of creating content with a theme. . These applications may be installed on the electronic device at the request of the user on the electronic device, or may be installed and present on the electronic device at the time the electronic device is shipped. An application implementing such a content creation system with a theme may be downloaded from an external data storage (or external server) through data communication and installed on an electronic device. And, when an application implementing a content system with a theme according to the present invention is executed on an electronic device, a series of processes for generating content with a theme may proceed.

본 발명에서 언급되는 전자기기는, 본 발명에 따른 테마를 갖는 콘텐츠 시스템이 동작가능한 전자기기이면 되며, 그 종류에 특별한 제한을 두지 않는다. 예를 들어, 전자기기는, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(notebook computer), 휴대용 컴퓨터(laptop computer), 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 데스크톱 컴퓨터(desktop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다. The electronic device referred to in the present invention may be any electronic device capable of operating a content system having a theme according to the present invention, and there is no particular limitation on its type. For example, electronic devices include mobile phones, smart phones, laptop computers, laptop computers, slate PCs, tablet PCs, and ultrabooks. , desktop computers, digital broadcasting terminals, PDAs (personal digital assistants), PMPs (portable multimedia players), navigation, wearable devices (e.g., watch-type terminals (smartwatch), glass-type terminals (smart) glass), HMD (head mounted display), etc. may be included.

한편, 이와 같이, 애플리케이션의 형태로 구현될 수 있는 본 발명에 따른 테마를 갖는 콘텐츠 생성 시스템(100a)은, 입력부(110), 출력부(120), 저장부(130), 통신부(140) 및 제어부(150) 중 적어도 하나를 포함할 수 있다. 위의 구성요소들은, 소프트웨어적인 구성요소로서, 전자기기(100c)의 하드웨어적인 구성요소와 연동하여 기능을 수행할 수 있다.Meanwhile, the content creation system 100a with a theme according to the present invention, which can be implemented in the form of an application, includes an input unit 110, an output unit 120, a storage unit 130, a communication unit 140, and It may include at least one of the control units 150. The above components are software components and can perform functions in conjunction with hardware components of the electronic device 100c.

예를 들어, 입력부(110)는 전자기기(100c)에 구비된 입력부 구성(예를 들어, 터치 스크린, 가상 키(key), 물리적인 키(또는 하드웨어적인 버튼), 입력 센서, 마이크 등)을 통하여, 사용자 입력을 수신할 수 있다. 보다 구체적으로, 입력부(110)는 전자기기(100c)에 구비된 입력부 구성을 이용하여, 편집의 대상이 되는 영상을 선택받도록 이루어진다. 여기에서, “선택받는다” 함은, 전자기기(100c)에 구비된 입력부 구성을 통하여 사용자의 선택이 이루어지면, 이러한 사용자의 선택에 대응되는 선택 신호(또는 입력 신호, 또는 사용자 입력)을 수신하는 것을 의미할 수 있다.For example, the input unit 110 includes an input unit configuration (e.g., touch screen, virtual key, physical key (or hardware button), input sensor, microphone, etc.) provided in the electronic device 100c. Through this, user input can be received. More specifically, the input unit 110 is configured to select an image to be edited using the input unit configuration provided in the electronic device 100c. Here, “being selected” means that when a user's selection is made through the configuration of the input unit provided in the electronic device 100c, a selection signal (or input signal, or user input) corresponding to the user's selection is received. It can mean something.

다른 예로서, 출력부(120)는 전자기기(100c)에 구비된 출력부 구성(예를 들어, 디스플레이부, 터치 스크린, 스피커 등)을 통하여, 정보를 출력할 수 있다. As another example, the output unit 120 may output information through an output unit (eg, display unit, touch screen, speaker, etc.) provided in the electronic device 100c.

또한, 저장부(130)는 전자기기(100c)에 구비된 메모리 및 외부 저장소 중 적어도 하나를 이용하여, 콘텐츠 생성과 관련된 정보를 저장하거나, 시스템과 관련된 정보, 또는 명령들을 저장할 수 있다. Additionally, the storage unit 130 may store information related to content creation, system-related information, or commands using at least one of a memory provided in the electronic device 100c and an external storage.

본 발명에서 저장부(130)에 “저장된다”고 함은, 물리적으로는, 전자기기(100c)의 메모리 또는 외부 저장소에 정보가 저장됨을 의미할 수 있다. In the present invention, “being stored” in the storage unit 130 may mean that information is physically stored in the memory of the electronic device 100c or in external storage.

한편, 본 발명에 대응되는 애플리케이션이 전자기기(100c)에서 삭제되는 경우, 저장부(130)에 저장된 정보 또한, 전자기기(100c)에서 삭제될 수 있다. 또한, 외부 저장소(100b)는, 클라우드(cloud) 방식의 저장소일 수 있다.Meanwhile, when the application corresponding to the present invention is deleted from the electronic device 100c, information stored in the storage unit 130 may also be deleted from the electronic device 100c. Additionally, the external storage 100b may be a cloud-type storage.

나아가, 통신부(140)는, 전자기기(100c)에 구비된 통신 모듈(예를 들어, 이동통신 모듈, 근거리 통신 모듈, 무선 인터넷 모듈, 위치정보 모듈, 방송 수신 모듈 등)의 구성을 이용하여, 본 발명과 관련된 정보(또는 데이터)를 적어도 하나의 외부기기(또는 외부 서버)와 송수신 하는 역할을 수행할 수 있다.Furthermore, the communication unit 140 uses the configuration of the communication module (e.g., mobile communication module, short-range communication module, wireless Internet module, location information module, broadcast reception module, etc.) provided in the electronic device 100c, It can perform the role of transmitting and receiving information (or data) related to the present invention with at least one external device (or external server).

한편, 제어부(150)는 전자기기(100c)에 구비된 CPU(Central Processing Unit)를 이용하여, 본 발명을 수행하기 위한 전반적인 제어를 수행할 수 있다. 위에서 살펴본 구성요소들은 제어부(150)의 제어 하에 동작할 수 있으며, 제어부(150)는 전자기기(100c)의 물리적인 구성요소들에 대한 제어를 수행할 수 있음은 물론이다.Meanwhile, the control unit 150 can perform overall control for carrying out the present invention using a CPU (Central Processing Unit) provided in the electronic device 100c. The components examined above can operate under the control of the control unit 150, and of course, the control unit 150 can control the physical components of the electronic device 100c.

한편, 제어부(150)는, 사운드 처리부(151) 및 이미지 처리부(152) 중 적어도 하나를 포함할 수 있다. 사운드 처리부(151)는 본 발명에 따른 콘텐츠 생성시, 음악 데이터를 영상 데이터에 합성하는 역할을 수행할 수 있다. 또한, 이미지 처리부(152)는 영상 데이터에 대한 그래픽 처리를 수행할 수 있다. 특히, 이미지 처리부(152)는 편집의 대상이 되는 영상에 대하여, 특정 테마에 연계된 그래픽 처리를 수행하도록 이루어질 수 있다. 이때, 제어부(150)는 이미지 처리부(152)를 통해 그래픽 처리된 영상을 이용하여, 상기 특정 테마를 갖는 영상 콘텐츠를 생성할 수 있다.Meanwhile, the control unit 150 may include at least one of a sound processing unit 151 and an image processing unit 152. The sound processing unit 151 may perform the role of synthesizing music data into video data when creating content according to the present invention. Additionally, the image processing unit 152 may perform graphics processing on image data. In particular, the image processing unit 152 may be configured to perform graphic processing linked to a specific theme on the image that is the subject of editing. At this time, the control unit 150 may use an image graphically processed through the image processing unit 152 to generate video content having the specific theme.

본 발명에서, 그래픽 처리를 수행한다고 함은, 편집 대상 영상에 대한 시각적인 변형을 수행하는 것을 의미할 수 있다.In the present invention, performing graphics processing may mean performing visual transformation on the video to be edited.

여기에서, 시각적인 변형을 위한 그래픽 처리의 예는 매우 다양하며, 예를 들어, i) 편집 대상 영상에 대해 텍스트, 정적인 이미지, 또는 동적인 영상과 같은 그래픽 객체를 삽입(또는 합성)하는 그래픽 처리, ii) 편집 대상 영상에 대한 색 보정(calibration)을 수행하는 그래픽 처리, iii) 편집 대상 영상에 대한 화질 보정(quality control)을 수행하는 그래픽 처리, iv) 편집 대상 영상의 밝기, 대비, 선명도, 색 변환값 중 적어도 하나를 조절하는 그래픽 처리, v) 편집 대상 영상에 대해 확대, 축소, 이동, 회전 등의 변형을 수행하는 그래픽 처리, vi) 편집 대상 영상에 이미지 효과(image effect)를 적용하는 그래픽 처리 등이 존재할 수 있다. Here, examples of graphics processing for visual transformation are very diverse, for example: i) graphics that insert (or composite) graphic objects such as text, static images, or dynamic images into the image to be edited; Processing, ii) Graphics processing that performs color calibration on the image to be edited, iii) Graphics processing that performs quality control on the image to be edited, iv) Brightness, contrast, and sharpness of the image to be edited , graphics processing to adjust at least one of the color conversion values, v) graphics processing to perform transformations such as enlargement, reduction, movement, and rotation on the image to be edited, vi) applying an image effect to the image to be edited. There may be graphics processing, etc.

여기에서, 이미지 효과는, 앞서 설명한, ii), iii), iv)에 따른 그래픽 처리를 포함하는 개념으로도 이해되어 질 수 있다. 한편, 이미지 효과는, 편집 대상 영상에 대해 이미지 필터를 적용하는 그래픽 처리를 포함할 수 있다. 영상에 대해 이미지 필터를 적용되는 경우, 영상의 질감, 색상, 색온도, 선명도 및 왜곡 정도 중 적어도 하나가 변경될 수 있다.Here, the image effect can also be understood as a concept including graphic processing according to ii), iii), and iv) described above. Meanwhile, image effects may include graphic processing that applies an image filter to the image to be edited. When an image filter is applied to an image, at least one of the image's texture, color, color temperature, clarity, and degree of distortion may be changed.

한편, 이미지 필터는 그 적용되는 이미지 효과에 따라, 서로 다르게 명명될 수 있으며, 예를 들어, 노이즈(Noise) 필터, 렌더(Render) 필터, 선명효과(Sharpen) 필터, 스케치 효과(Sketch) 필터, 왜곡(Distort) 필터, 흐림효과(Blur) 필터, 텍스처(Texture) 필터 등이 존재할 수 있다.Meanwhile, image filters may be named differently depending on the applied image effect, for example, noise filter, render filter, sharpen filter, sketch filter, Distort filters, blur filters, texture filters, etc. may exist.

본 발명에 따른 시스템에서는, 위에서 열거한 그래픽 처리 중 적어도 하나를 수행하며, 이외에 열거된 예 외에도, 편집 대상 영상에 대해 시각적인 변형을 수행할 수 있는 다양한 그래픽 처리를 수행할 수 있다.In the system according to the present invention, at least one of the graphic processing listed above is performed, and in addition to the examples listed above, various graphic processing capable of performing visual transformation on the image to be edited can be performed.

예를 들어, 그래픽 처리가 적용되는 경우, 도 2의 (a)에 도시된 것과 같이, 편집 대상 영상(211, 212, 213)은, 도 2의 (b)에 도시된 것과 같이, 시각적 외관이 변형되어질 수 있다.For example, when graphic processing is applied, as shown in (a) of FIG. 2, the images 211, 212, and 213 to be edited have a visual appearance as shown in (b) of FIG. 2. It can be transformed.

한편, 본 발명에 따른 테마를 갖는 콘텐츠 생성 시스템은, 적어도 하나의 영상에 대하여, 그래픽 처리를 수행하고, 그래픽 처리가 수행된 영상을 이용하여 하나의 영상 콘텐츠를 생성하도록 이루어진다. 이때, 본 발명은, 그래픽 처리를 수행함에 있어, 테마(Thema)에 근거하여, 적어도 하나의 영상에 대하여 그래픽 처리를 수행하도록 이루어진다. 예를 들어, 하나의 영상 콘텐츠를 생성하기 위하여, 복수의 영상이 선택된 경우, 본 발명에서는, 테마에 근거하여 일련의 그래픽 처리를 수행한다. 이때, 복수의 영상은, 동일한 하나의 테마에 근거하여 그래픽 처리가 수행되며, 그 결과, 동일한 테마에 근거하여 그래픽 처리가 수행된 복수의 영상은, 하나의 영상 콘텐츠 내에서 통일성을 가질 수 있다. Meanwhile, the themed content creation system according to the present invention performs graphics processing on at least one image and generates one image content using the image on which the graphics processing has been performed. At this time, the present invention is made to perform graphic processing on at least one image based on a theme when performing graphic processing. For example, when a plurality of images are selected to create one image content, in the present invention, a series of graphic processing is performed based on the theme. At this time, graphic processing is performed on a plurality of images based on the same theme, and as a result, a plurality of images on which graphic processing is performed based on the same theme may have unity within one image content.

여기에서, 테마란, 본 발명을 통해 생성된 영상 콘텐츠가 갖는 일종의 “주제, 컨셉 또는 분위기”에 대한 것으로서, 어떤 테마가 적용될지 여부는, 사용자의 선택에 근거할 수 있다. 본 발명에 따른 시스템에서는, 복수의 테마를 제공할 수 있으며, 제어부(150)는 이러한 복수의 테마 중 어느 하나의 테마(이하, “특정 테마”)에 근거하여, 영상에 대해 그래픽 처리를 수행한 후, 영상 콘텐츠로 생성하는 작업을 수행할 수 있다. 앞서 설명한 것과 같이, 복수의 테마 중 어느 테마가 결정될지 여부는, 사용자의 선택에 근거할 수 있다.Here, the theme refers to a kind of “subject, concept, or atmosphere” of the video content created through the present invention, and whether or not a theme is applied may be based on the user's selection. In the system according to the present invention, a plurality of themes can be provided, and the control unit 150 performs graphic processing on the image based on one theme (hereinafter, “specific theme”) among the plurality of themes. Afterwards, you can perform the task of creating video content. As described above, which theme among the plurality of themes is determined may be based on the user's selection.

본 발명에 따른 영상 콘텐츠 제공 시스템은, 복수의 테마 각각에 대하여 서로 다른 그래픽 처리를 수행할 수 있다. 본 발명에 따른 영상 콘텐츠 제공 시스템에 의하면, 복수의 테마 각각 마다 어떠한 그래픽 처리를 수행할지에 대한 데이터가 존재할 수 있다. 이러한 데이터는, “그래픽 처리와 관련된 데이터”, “테마에 연계된 데이터”, 또는 “테마에 연계된 그래픽 처리와 관련된 데이터” 등, 다양하게 명명될 수 있으며, 저장부(130)에 저장되어 존재할 수 있다.The video content providing system according to the present invention can perform different graphic processing for each of a plurality of themes. According to the video content providing system according to the present invention, there may be data on what kind of graphic processing to perform for each of a plurality of themes. This data may be named variously, such as “data related to graphics processing,” “data related to a theme,” or “data related to graphics processing linked to a theme,” and may be stored in the storage unit 130. You can.

한편, 이와 같이, 어느 하나의 테마에 연계된 데이터에 근거하여, 그래픽 처리가 수행되는 것을, 본 발명에서는, “특정 테마에 연계된 그래픽 처리가 수행된다”라고 표현할 수 있다. 한편, 각각의 테마에 연계된 데이터는, 명령어로도 이해되어질 수 있다. Meanwhile, in the present invention, graphics processing performed based on data linked to a certain theme can be expressed as “graphics processing linked to a specific theme is performed.” Meanwhile, data linked to each theme can also be understood as a command.

위에서 살펴본 것과 같이, 본 발명에서는, 각각의 테마마다 연계된 그래픽 처리 방법이 존재하며, 각각의 테마에 연계된 데이터에 근거하여, 그래픽 처리를 수행할 수 있다. 즉, 본 발명에서는, 각각의 테마에 연계된 데이터에 의하여, 그래픽 처리가 수행되는 경우, 동일한 영상인 경우라도, 어느 테마가 적용되었는지에 따라, 서로 다른 시각적 외관을 가질 수 있다. As seen above, in the present invention, there is a graphics processing method associated with each theme, and graphics processing can be performed based on data associated with each theme. That is, in the present invention, when graphic processing is performed using data linked to each theme, even the same image may have different visual appearances depending on which theme is applied.

예를 들어, 특정 영상에 대해 제1 테마에 연계된 데이터에 의해 그래픽 처리가 수행되는 경우, 제어부(150)는, 상기 특정 영상에 “별(star) 모양”의 그래픽 객체를 합성하는 그래픽 처리를 수행할 수 있다. 이와 다르게, 상기 특정 영상에 대해 제1 테마와 다른 제2 테마에 연계된 데이터에 의해 그래픽 처리가 수행되는 경우, 제어부(150)는, 상기 특정 영상에 “달(moon) 모양”의 그래픽 객체를 합성하는 그래픽 처리를 수행할 수 있다.For example, when graphic processing is performed on a specific image using data linked to the first theme, the control unit 150 performs graphic processing to synthesize a “star-shaped” graphic object with the specific image. It can be done. Differently, when graphic processing is performed on the specific image using data linked to a second theme different from the first theme, the control unit 150 creates a “moon-shaped” graphic object in the specific image. Composite graphics processing can be performed.

또 다른 예를 들어, 본 발명에서는, “즐거운 분위기”의 테마, “우울한 분위기”의 테마, “공포 분위기”의 테마와 같이, 분위기에 따라 각각의 테마가 구분되어 질 수 있다.As another example, in the present invention, each theme can be divided according to mood, such as a “happy mood” theme, a “depressed mood” theme, and a “fear mood” theme.

일 예로서, “즐거운 분위기”의 테마에 따른 그래픽 처리가 선택되는 경우, 제어부(150)는 “즐거운 분위기”에 해당하는 테마에 연계된 그래픽 처리를 수행할 수 있다. 예를 들어, 제어부(150)는, “즐거운 분위기”에 해당하는 테마에 연계된 데이터가, “영상의 명도(brightness)를 제1 기준값 이상으로 보정”하도록 하는 데이터인 경우, 이러한 데이터에 기반하여, 편집 대상 영상들의 명도를 제1 기준값 이상으로 보정하는 그래픽 처리를 수행할 수 있다.As an example, when graphics processing according to the theme of “fun atmosphere” is selected, the control unit 150 may perform graphics processing linked to the theme corresponding to “fun atmosphere”. For example, if the data linked to the theme corresponding to “fun atmosphere” is data that “corrects the brightness of the image to more than the first reference value,” the control unit 150 may use the data based on this data. , graphics processing can be performed to correct the brightness of the images to be edited to more than the first reference value.

다르 일 예로서, “우울한 분위기”의 테마에 따른 그래픽 처리가 선택되는 경우, 제어부(150)는, “우울한 분위기”에 해당하는 테마에 연계된 그래픽 처리를 수행할 수 있다. 예를 들어, “우울한 분위기”에 해당하는 테마에 연계된 데이터가, “영상의 명도(brightness)를 제2 기준값 미만으로 보정”하도록 하는 데이터인 경우, 이러한 데이터에 기반하여, 편집 대상 영상들의 명도를 제2 기준값 미만으로 보정하는 그래픽 처리를 수행할 수 있다. 이와 같이, 본 발명에 따르면, 테마에 따라 공통의 분위기(주제, 또는 컨셉)를 갖도록 영상들을 보정하는 등의 그래픽 처리를 수행함으로써, 하나의 통일성 있는 영상 콘텐츠를 생성할 수 있다.As another example, when graphics processing according to the theme of “depressed atmosphere” is selected, the control unit 150 may perform graphics processing linked to the theme corresponding to “depressed atmosphere.” For example, if the data linked to the theme corresponding to “depressed atmosphere” is data that “corrects the brightness of the image to below the second standard value,” the brightness of the images to be edited is adjusted based on this data. Graphics processing may be performed to correct to less than the second reference value. In this way, according to the present invention, one unified video content can be created by performing graphic processing such as correcting the images to have a common atmosphere (subject or concept) according to the theme.

이와 같이, 본 발명에 따른 테마를 갖는 콘텐츠 생성 방법 및 시스템은, 사용자로부터 선택된 복수의 영상에 대해 특정 테마에 매칭된 그래픽 처리를 수행하고, 이를 조합하여, 하나의 영상 콘텐츠를 생성함으로써, 통일성 및 완성도 있는 영상 콘텐츠를 제공할 수 있다. 이때, 본 발명에 따른 콘텐츠 생성 방법 및 시스템에서는, 다양한 테마를 사용자에게 제공하고, 이중 어느 하나를 선택 받음으로써, 위에서 살펴본 특정 테마가 결정될 수 있다. 다양한 테마 각각에는, 기 결정된 그래픽 처리 방법이 존재하며, 본 발명에 따른 콘텐츠 생성 방법 및 시스템은, 특정 테마가 결정되는 경우, 이에 매칭된 그래픽 처리를 수행할 수 있다. 따라서, 사용자는 콘텐츠의 테마를 선택하는 것 만으로도, 선택된 복수의 영상들에 대해, 특정 테마에 매칭된 그래픽 처리의 수행 결과를 제공받을 수 있다. 결과적으로, 본 발명에 따른 테마를 갖는 콘텐츠 생성 방법 및 시스템은 통일성 및 완성도 높은 동영상 콘텐츠를 제작할 수 있다.As such, the method and system for generating content with a theme according to the present invention performs graphic processing matching a specific theme on a plurality of images selected by the user, combines them, and generates one image content, thereby providing uniformity and We can provide complete video content. At this time, in the content creation method and system according to the present invention, the specific theme discussed above can be determined by providing various themes to the user and selecting one of them. For each of the various themes, there is a predetermined graphics processing method, and the content creation method and system according to the present invention can perform graphics processing matched to a specific theme when a specific theme is determined. Accordingly, just by selecting a content theme, the user can receive the results of graphics processing that matches the specific theme for the plurality of selected images. As a result, the method and system for creating content with a theme according to the present invention can produce video content with high unity and completeness.

한편, 본 발명에 따른 테마를 갖는 콘텐츠 생성 시스템은, 하나의 콘텐츠로서 생성할 편집 대상에 해당하는 영상이 복수인 경우, 복수의 영상 중 어느 하나의 영상(도 2의(a), 211 참조)에 대한 그래픽 처리와, 상기 어느 하나를 제외한 나머지 영상(도 2의(a), 212, 213 참조)에 대한 그래픽 처리를 서로 다르게 수행할 수 있다. 보다 구체적으로, 제어부(150)는, 복수의 영상(도 2의(a), 211, 212, 213 참조)에 대하여 특정 테마에 연계된 그래픽 처리를 수행하되, 복수의 영상들 중 어느 하나의 영상(도 2의(a), 211 참조)과, 나머지 영상(도 2의(a), 212, 213 참조)에 대해 서로 다른 편집 속성에 따른 그래픽 처리(도 2의 (b), 221, 222, 223 참조)를 수행할 수 있다. On the other hand, in the content creation system with a theme according to the present invention, when there are multiple images corresponding to the editing target to be created as one content, one image among the plurality of images (see 211 in FIG. 2(a)) Graphics processing for and graphics processing for the remaining images (see Figure 2(a), 212, and 213) excluding any one of the above may be performed differently. More specifically, the control unit 150 performs graphic processing linked to a specific theme on a plurality of images (see FIG. 2(a), 211, 212, and 213), and selects any one of the plurality of images. (see FIG. 2(a), 211) and graphics processing according to different editing properties for the remaining images (see FIG. 2(a), 212, 213) (see FIG. 2(b), 221, 222, 223) can be performed.

즉, 제어부(150)는, 복수의 영상들 중 어느 하나의 영상(도 2의(a), 211 참조)에 대해 제1 편집 속성에 따른 그래픽 처리를 수행하고, 나머지 영상(도 2의(a), 212, 213 참조)에 대해 상기 제1 편집 속성과 다른 제2 편집 속성에 따른 그래픽 처리를 수행할 수 있다. 앞서 살펴본 테마에 연계된 데이터는, 제1 편집 속성을 정의하는 제1편집 속성 데이터 및 제2 편집 속성을 정의하는 제2 편집 속성 데이터를 포함할 수 있다. 제어부(150)는 이러한 제1 및 제2 편집 속성 데이터에 기반하여, 제1 및 제2 편집 속성에 따른 그래픽 처리를 수행할 수 있다.That is, the control unit 150 performs graphics processing according to the first editing attribute on one image (see 211 of FIG. 2(a)) among the plurality of images and edits the remaining images (see FIG. 2(a), 211). ), 212, and 213), graphics processing may be performed according to a second editing property that is different from the first editing property. Data linked to the theme discussed above may include first edit attribute data defining the first edit attribute and second edit attribute data defining the second edit attribute. The control unit 150 may perform graphics processing according to the first and second editing properties based on the first and second editing property data.

한편, 복수의 영상들 중 어느 영상에 대하여, 제1 편집 속성 데이터에 따른 그래픽 처리를 수행하고, 나머지 영상에 대하여 제2 편집 속성 데이터에 따른 그래픽 처리를 수행할지 여부는, 제어부(150)의 제어 하에 결정될 수 있다. Meanwhile, whether to perform graphic processing according to the first editing attribute data on one of the plurality of images and whether to perform graphic processing according to the second editing attribute data on the remaining images is controlled by the control unit 150. can be decided under

나아가, 본 발명에서, 편집 속성이란, i) 하나의 콘텐츠를 생성하기 위해 편집 대상이 되는 영상이 복수인 경우, 복수의 영상에 대하여 어떠한 그래픽 처리를 수행할지 여부, ii) 복수의 영상에서 어떤 기준으로 서로 다른 그래픽 처리를 수행할지 여부, iii) 앞서 살펴본 다양한 그래픽 처리의 종류 중 어떤 그래픽 처리를 수행할지 여부, iv) 편집 대상 영상에 어떤 그래픽 객체를 삽입할지 여부, v) 영상과 합성되는 텍스트 데이터를 입력받을지 여부, vi) 영상에 대해 이미지 효과가 적용되는 경우, 그 적용되는 이미지 효과의 구체적인 보정 정도 및 vii) 편집의 대상이 되는 복수의 영상 간의 배열 순서에 따라 수행되는 그래픽 처리의 종류 중 적어도 하나를 정의하는 것을 의미할 수 있다.Furthermore, in the present invention, editing properties include i) when there are multiple images subject to editing to create one content, what kind of graphic processing is to be performed on the multiple images, and ii) what standards are used on the multiple images. Whether to perform different graphic processing, iii) Which graphic processing to perform among the various types of graphic processing discussed earlier, iv) Which graphic object to insert into the video to be edited, v) Text data to be synthesized with the video Whether to receive input, vi) if an image effect is applied to an image, the specific correction degree of the applied image effect, and vii) the type of graphic processing performed according to the arrangement order between the plurality of images that are the subject of editing, at least It can mean defining one thing.

이러한, 편집 속성의 정의는, 각각의 편집 속성에 대응되는 편집 속성 데이터에 근거할 수 있으며, 이러한 편집 속성 데이터는, 저장부(130) 또는 외부 서버(100b)에 저장될 수 있다. 제어부(150)는 이러한 편집 속성 데이터에 근거하여, 편집의 대상이 되는 영상에 대하여, 기 정의된 편집 속성에 따른 그래픽 처리를 수행할 수 있다. The definition of these editing properties may be based on editing property data corresponding to each editing property, and this editing property data may be stored in the storage unit 130 or the external server 100b. Based on this editing attribute data, the control unit 150 can perform graphic processing according to predefined editing attributes on the image that is the subject of editing.

한편, 편집 속성에 따른 데이터는, i) 하나의 콘텐츠를 생성하기 위해 편집 대상이 되는 영상이 복수인 경우, 복수의 영상에 대하여 어떠한 그래픽 처리를 수행할지 여부에 대한 정보, ii) 복수의 영상에서 어떤 기준으로 서로 다른 그래픽 처리를 수행할지 여부에 대한 정보, iii) 앞서 살펴본 다양한 그래픽 처리의 종류 중 어떤 그래픽 처리를 수행할지 여부에 대한 정보, iv) 편집 대상 영상에 어떤 그래픽 객체를 삽입할지 여부에 대한 정보, v) 영상과 합성되는 텍스트 데이터를 입력받을지 여부에 대한 정보, vi) 영상에 대해 이미지 효과가 적용되는 경우, 그 적용되는 이미지 효과의 구체적인 보정 값 및 vii) 편집의 대상이 되는 복수의 영상 간의 배열 순서에 따라 수행되는 그래픽 처리의 종류에 대한 정보 중 적어도 하나를 포함할 수 있다.Meanwhile, data according to editing properties includes i) when there are multiple images subject to editing to create one content, information about what kind of graphic processing to perform on the multiple images, ii) information on the multiple images Information on whether to perform different graphic processing based on what criteria; iii) Information on which graphic processing to perform among the various types of graphic processing discussed above; iv) Whether or not to insert a graphic object into the video to be edited; information, v) information about whether to receive text data to be combined with the video, vi) if an image effect is applied to the video, the specific correction value of the applied image effect, and vii) a plurality of data that are the subject of editing. It may include at least one piece of information about the type of graphics processing performed according to the arrangement order between images.

이와 같이, 본 발명에서는, 하나의 콘텐츠로서 생성할 편집 대상에 해당하는 영상이 복수인 경우, 서로 다른 편집 속성에 근거하여, 복수의 영상 중 적어도 하나에 대해 서로 다른 그래픽 처리를 수행할 수 있다. 이때, 제어부(150)는 편집의 대상이 되는 복수의 영상들 간의 배열순서 및 기 설정된 기준에 근거하여, 어느 영상에 대해 제1 또는 제2 편집 속성에 따른 그래픽 처리를 수행할지 결정할 수 있다. As such, in the present invention, when there are a plurality of images corresponding to the editing target to be created as one content, different graphic processing can be performed on at least one of the plurality of images based on different editing properties. At this time, the control unit 150 may determine which image to perform graphic processing according to the first or second editing attribute based on the arrangement order among the plurality of images that are the subject of editing and a preset standard.

이하에서는, 첨부된 도면들과 함께, 복수의 영상들 간의 배열순서 및 기 설정된 기준에 근거하여, 어느 영상에 대해 제1 또는 제2 편집 속성에 따른 그래픽 처리를 수행하는 과정에 대하여 보다 구체적으로 살펴본다. 도 3은 본 발명에서 테마를 갖는 콘텐츠를 생성하는 방법을 설명하기 위한 흐름도이고, 도 4a 및 도 4b는 도 3에서 살펴본 테마를 갖는 콘텐츠를 생성하는 방법을 설명하기 위한 개념도들이다. 또한, 도 5a 및 도 5b는 본 발명에 따른 테마를 갖는 콘텐츠 생성 방법 및 시스템에서 제1 파트의 영상 콘텐츠를 생성하는 방법을 설명하기 위한 개념도들이고, 도 6a 및 도 6b는 본 발명에 따른 테마를 갖는 콘텐츠 생성 방법 및 시스템에서 제2 파트의 영상 콘텐츠를 생성하는 방법을 설명하기 위한 개념도들이다.Below, along with the attached drawings, we will look in more detail at the process of performing graphic processing according to the first or second editing properties on an image based on the arrangement order between a plurality of images and a preset standard. see. FIG. 3 is a flowchart for explaining a method of generating content with a theme in the present invention, and FIGS. 4A and 4B are conceptual diagrams for explaining the method for generating content with a theme as seen in FIG. 3 . In addition, FIGS. 5A and 5B are conceptual diagrams for explaining a method of generating video content of the first part in a content generation method and system with a theme according to the present invention, and FIGS. 6A and 6B are diagrams showing a theme according to the present invention. These are conceptual diagrams to explain the content creation method and the method of generating the second part of the video content in the system.

이하에서, 도면과 함께 설명되는, 본 발명에 따른 테마를 갖는 영상 콘텐츠 생성 방법은, 영상 콘텐츠 생성 시스템을 구현하는 애플리케이션(또는 소프트웨어)이 전자기기(100c)상에서 실행되어 있음을 전제로 이해되어질 수 있다. 따라서, 전자기기(100c) 상에, 본 발명의 수행을 위하여 출력되는 화면들은, 애플리케이션을 통해 제공되는 화면으로서, 본 발명에서는 이러한 화면을 “실행화면”이라고 명명할 수 있다.Hereinafter, the method of generating video content with a theme according to the present invention, which is explained with the drawings, can be understood on the premise that an application (or software) implementing the video content creation system is running on the electronic device 100c. there is. Accordingly, the screens output on the electronic device 100c to perform the present invention are screens provided through an application, and in the present invention, these screens may be called “execution screens.”

먼저, 본 발명에 따른 영상 콘텐츠 생산 방법은, 편집의 대상이 되는 영상을 선택받는 과정이 진행된다(S310, 도 3 참조). 이때, S310 과정에서는, 하나 이상의 영상이 선택될 수 있으며, 이하에서는, 복수의 영상이 선택되었음을 전제로 설명하도록 한다. First, the video content production method according to the present invention involves selecting a video to be edited (S310, see FIG. 3). At this time, in process S310, one or more images may be selected, and the following will be explained on the premise that a plurality of images are selected.

예를 들어, 도 4a의 (a)에 도시된 것과 같이, 실행화면(400) 상에는, 선택 가능한 영상들에 대응되는 항목이 표시될 수 있다. 이러한 선택 가능한 영상들은, 전자기기(100c) 또는 적어도 하나의 외부 저장소(또는 클라우드 저장소)에 저장된 영상들일 수 있다. 한편, 선택 가능한 영상들은, 사용자에 의해 직접 촬영된 영상, 제3 자에 의해 촬영, 또는 제작된 영상, 적어도 하나의 외부 저장소로부터 다운로드된 영상 등 그 종류에 제한을 두지 않는다.For example, as shown in (a) of FIG. 4A, items corresponding to selectable images may be displayed on the execution screen 400. These selectable images may be images stored in the electronic device 100c or at least one external storage (or cloud storage). Meanwhile, the types of images that can be selected are not limited, such as images directly captured by the user, images shot or produced by a third party, or images downloaded from at least one external storage.

한편, 본 발명에서 선택 가능한 영상은, 정적인 영상(static image) 또는 동적인 영상(또는 동영상, video)일 수 있다. 따라서, 상기 선택된 복수의 영상은 정적인 영상(static image) 및 동적인 영상(또는, 동영상, video) 중 적어도 하나로 이루어질 수 있다.Meanwhile, the image that can be selected in the present invention may be a static image or a dynamic image (or video). Accordingly, the selected plurality of images may consist of at least one of a static image and a dynamic image (or video).

나아가, 본 발명에서는 S310 과정에서와 같이, 영상 콘텐츠의 생성을 위하여 선택된 영상을 “편집의 대상이되는 영상” 또는 “편집 대상 영상” 등으로 명명하기로 한다. Furthermore, in the present invention, as in step S310, the video selected for creation of video content is named “video subject to editing” or “video subject to editing.”

제어부(150)는, 실행화면(400)에 출력되는 선택 가능한 영상들에 각각 대응되는 항목들 중 적어도 하나의 항목에 대한 선택 신호를 수신할 수 있다. 이러한 선택 신호에 대응되는 선택 입력은, 실행화면이 출력되는 전자기기(100c)를 통해 이루어질 수 있다.The control unit 150 may receive a selection signal for at least one item among items corresponding to selectable images output on the execution screen 400. A selection input corresponding to this selection signal may be made through the electronic device 100c on which an execution screen is output.

한편, 선택 신호가 수신된 것에 근거하여, 제어부(150)는, 수신된 선택 신호에 대응되는 항목(411, 412, 413)에 해당하는 영상을, 영상 콘텐츠 생성을 위한 편집 대상 영상으로 결정할 수 있다.Meanwhile, based on the selection signal being received, the control unit 150 may determine the image corresponding to the items 411, 412, and 413 corresponding to the received selection signal as the image to be edited for generating video content. .

S310 단계에서와 같이, 편집 대상 영상에 대한 선택이 완료되면, 선택된 영상에 대하여, 특정 테마에 연계된 그래픽 처리를 수행하는 과정이 진행된다(S320, 도 3 참조), 이때, 편집 대상 영상이 복수인 경우, 제어부(150)는 복수의 영상 각각에 대하여 특정 테마에 연계된 그래픽 처리를 수행할 수 있다.As in step S310, when the selection of the image to be edited is completed, a process of performing graphic processing linked to a specific theme is performed on the selected image (S320, see FIG. 3). At this time, there are multiple images to be edited. In this case, the control unit 150 may perform graphic processing linked to a specific theme for each of the plurality of images.

한편, 제어부(150)는, 편집의 대상이 되는 영상 중, 정적인 영상이 포함된 경우, 상기 정적인 영상을 이용하여, 기 설정된 재생시간을 갖는 동적인 영상을 생성할 수 있다. 그리고, 제어부(150)는 상기 생성된 동적인 영상에 대해 상기 특정 테마에 연계된 그래픽 처리를 수행할 수 있다. 이때, 제어부(150)는, 상기 정적인 영상의 적어도 일부를 복사(copy) 또는 복제하여, 복수의 프레임을 생성함으로써, 상기 기 설정된 재생시간을 갖는 동적인 영상을 생성할 수 있다. 그리고, 상기 기 설정된 재생시간을 갖는 동적인 영상에 대하여 상기 특정 테마에 연계된 그래픽 처리를 수행할 수 있다.Meanwhile, when a static image is included among the images to be edited, the control unit 150 may use the static image to generate a dynamic image with a preset playback time. Additionally, the control unit 150 may perform graphic processing linked to the specific theme on the generated dynamic image. At this time, the control unit 150 may generate a dynamic image having the preset playback time by copying or duplicating at least a portion of the static image to generate a plurality of frames. Additionally, graphics processing linked to the specific theme can be performed on the dynamic image with the preset playback time.

이와 같이, 본 발명에 따른 테마를 갖는 콘텐츠 생성 방법 및 시스템은, 사용자로부터 선택된 영상의 유형이, 정적인 영상(static image)인 경우, 이를 동영상으로 변환하고, 변환된 동영상을 이용하여 새로운 영상 콘텐츠를 생성할 수 있다. 결과적으로, 본 발명은 영상의 유형에 관계없이 복수의 영상을 조합하여 하나의 새로운 영상 콘텐츠를 생성할 수 있다. 따라서, 사용자는, 영상의 유형에 구애받지 않고, 보다 다양한 콘텐츠를 이용하여, 새로운 영상 콘텐츠를 제작할 수 있다.In this way, the method and system for creating content with a theme according to the present invention converts the type of video selected by the user into a video and uses the converted video to create new video content. can be created. As a result, the present invention can create one new video content by combining multiple videos regardless of the type of video. Accordingly, users can create new video content using a wider variety of content, regardless of the type of video.

한편, 본 발명에서, 제어부(150)는, 선택된 영상 각각이 최종적으로 생성되는 영상 콘텐츠 내에서 기 설정된 재생시간을 초과하지 않도록, 선택된 영상 중 상기 기 설정된 재생시간을 초과하는 영상에 대해서는, 재생시간을 조정하기 위한 편집을 수행할 수 있다. Meanwhile, in the present invention, the control unit 150 determines the playback time for images exceeding the preset playback time among the selected images so that each selected image does not exceed the preset playback time in the ultimately generated video content. You can perform editing to adjust .

보다 구체적으로, 제어부(150)는, 편집의 대상이 되는 복수의 영상 중 기 설정된 재생시간을 초과하는, “재생시간 초과 영상”(이는, 개념 정의를 위하여, 본 명세서에서 명명을 위한 용어이며, 다른 용어로 대체 가능함)이 존재하는 경우, 상기 재생시간 초과 영상의 재생시간이 상기 기 설정된 재생시간을 갖도록, 상기 재생시간 시간 초과 영상에 포함된 프레임 중 적어도 하나를 삭제하는 영상 편집을 수행할 수 있다.More specifically, the control unit 150 selects a “video exceeding the playing time” (this is a term for naming in this specification for the purpose of defining the concept) that exceeds the preset playing time among the plurality of videos subject to editing. If it exists, video editing may be performed by deleting at least one of the frames included in the video beyond the playback time so that the playback time of the video beyond the playback time has the preset playback time. there is.

한편, 본 발명에서는, 재생시간을 조절하기 위한 영상 편집이 수행된 후에도, 사용자의 선택에 근거하여, 재생시간이 기 편집된 영상에 대해서도, 재생시간을 재조절하기 위한 편집을 다시 수행하는 것이 가능하다. 이는 사용자가, 편집의 대상이 되는 복수의 영상 중 상기 기 설정된 재생시간보다 길거나, 또는 짧은 영상으로 편집을 하고자 하는 니즈를 반영하기 위함이다. 제어부(150)는 재생시간을 조절하기 위한 영상 편집이 수행된 후에도, 기능 아이콘을 두어, 편집의 대상이 되는 복수의 영상 각각에 대한 재생시간을 조절하도록 하는 사용자 요청을 수신할 수 있다.Meanwhile, in the present invention, even after video editing to adjust the playback time is performed, editing to readjust the playback time can be performed again on the video whose playback time has already been edited based on the user's selection. do. This is to reflect the user's need to edit a video that is longer or shorter than the preset playback time among a plurality of videos that are subject to editing. Even after video editing to adjust the playback time is performed, the control unit 150 may place a function icon to receive a user request to adjust the playback time for each of the plurality of videos subject to editing.

한편, 제어부(150)는, 선택의 대상이 되는 복수의 영상에 대하여 특정 테마에 따른 그래픽 처리를 수행함에 있어, 상기 복수의 영상들의 재생시간을 조절하기 위한 영상 편집이 먼저 수행된 후, 특정 테마에 따른 그래픽 처리를 수행할 수 있다. 즉, 제어부(150)는, 편집의 대상이 되는 복수의 영상 중 기 설정된 재생시간을 초과하는 재생시간 초과 영상이 존재하는 경우, 상기 재생시간 초과 영상에 포함된 적어도 하나의 프레임을 삭제함으로써, 상기 재생시간 초과 영상의 재생시간을 상기 기 설정된 재생시간 이하로 조절할 수 있다. 그리고, 상기 적어도 하나의 프레임이 삭제된 상기 재생시간 초과 영상에 대하여 상기 특정 테마에 연계된 그래픽 처리를 수행할 수 있다.Meanwhile, when performing graphic processing according to a specific theme for a plurality of images that are the subject of selection, the control unit 150 first performs image editing to adjust the playback time of the plurality of images, and then performs graphic processing according to a specific theme. Graphics processing can be performed according to . That is, if there is an image whose playback time exceeds a preset playback time among the plurality of images subject to editing, the control unit 150 deletes at least one frame included in the video that exceeds the playback time, The playback time of a video that has exceeded the playback time can be adjusted to be below the preset playback time. Additionally, graphics processing linked to the specific theme may be performed on the video whose playback time has exceeded the at least one frame deleted.

한편, 본 발명에서 특정 테마는, 앞서 살펴본, 본 발명에서 제공 가능한 복수의 테마 중, 어느 하나로서, 복수의 테마 중 사용자에 의해 선택된 테마일 수 있다. 이와 같이, 복수의 테마 중 어느 테마가 선택될지 여부는, 도 4a의 (b)에 도시된 것과 같이, 사용자의 선택에 근거하여 결정될 수 있다. Meanwhile, in the present invention, the specific theme may be one of the plurality of themes that can be provided in the present invention, as discussed above, and may be a theme selected by the user among the plurality of themes. In this way, which theme to select among the plurality of themes may be determined based on the user's selection, as shown in (b) of FIG. 4A.

한편, 본 발명에서 특정 테마가 선택되는 시점은, 다양할 수 있다. 예를 들어, 특정 테마의 선택은, 도 4a의 (a) 및 (b)에 도시된 것과 같이, 편집 대상 영상이 선택되고 난 후, 이루어질 수 있다. 이 경우, 제어부(150)는, 도 4a의 (a)에 도시된 것과 같이, 편집 대상 영상을 선택받기 위한 실행화면을 출력하고, 상기 실행화면을 통해 편집 대상 영상의 선택이 완료된 후, 도 4a의 (b)에 도시된 것과 같이, 테마를 선택받기 위한 실행화면을 출력할 수 있다.Meanwhile, in the present invention, the point in time at which a specific theme is selected may vary. For example, selection of a specific theme can be made after the video to be edited is selected, as shown in (a) and (b) of FIG. 4A. In this case, the control unit 150 outputs an execution screen for selecting an image to be edited, as shown in (a) of FIG. 4A, and after selection of the image to be edited through the execution screen is completed, the image to be edited is displayed in FIG. 4A. As shown in (b), an execution screen for selecting a theme can be output.

다른 예로서, 특정 테마의 선택은, 편집 대상 영상이 선택되기 전에, 먼저 이루어질 수 있다. 이 경우, 제어부(150)는, 도 4a의 (b)에 도시된 것과 같이, 테마를 선택받기 위한 실행화면을 출력하고, 상기 실행화면을 통해 특정 테마를 선택받은 후, 도 4a의 (a)에 도시된 것과 같이, 편집 대상 영상을 선택받기 위한 실행화면을 출력할 수 있다. As another example, selection of a specific theme may be made before the video to be edited is selected. In this case, the control unit 150 outputs an execution screen for selecting a theme, as shown in (b) of FIG. 4A, and after selecting a specific theme through the execution screen, displays (a) of FIG. 4A. As shown, an execution screen for selecting a video to be edited can be output.

이와 같이, 편집의 대상이 되는 복수의 영상에 대하여 적용할 테마의 선택이 완료되면, 제어부(150)는, 복수의 영상 각각에 대해 선택된 테마(또는 특정 테마)에 연계된 그래픽 처리를 수행할 수 있다.In this way, when the selection of the theme to be applied to the plurality of images subject to editing is completed, the control unit 150 can perform graphic processing linked to the selected theme (or specific theme) for each of the plurality of images. there is.

여기에서, “그래픽 처리”를 수행한다고 함은, 앞서 살펴본 것과 같이, 편집 대상 영상에 대한 시각적인 변형을 수행하는 것으로서, 그 구체적인 설명은, 앞선 설명으로 대체한다.Here, performing “graphics processing” means performing visual transformation on the video to be edited, as discussed above, and the specific description will be replaced with the previous description.

한편, 본 발명에서는, 복수의 테마 중 어느 테마가 선택되었는지에 따라, 적용되는 그래픽 처리가 상이할 수 있다. 즉, 제어부(150)는, 복수의 테마 중 어느 테마가 선택되었는지에 따라, 복수의 영상에 대해 서로 다른 그래픽처리를 수행할 수 있다.Meanwhile, in the present invention, the applied graphic processing may be different depending on which of the plurality of themes is selected. That is, the control unit 150 can perform different graphic processing on a plurality of images depending on which of the plurality of themes is selected.

예를 들어, 도 4a의 (b)에서와 같이, 복수의 테마 중 제1 테마(예를 들어, “액티브(active)” 테마, 421 참조)가 선택된 경우, 도 4a의 (c)에 도시와 같이, 상기 제1 테마(421)에 연계된 그래픽 처리가 수행될 수 있다. 이 경우, 제어부(150)는, 상기 제1 테마(421)에 연계된 그래픽 처리와 관련된 데이터(또는 상기 제1 테마에 연계된 데이터)에 근거하여, 상기 복수의 영상들에 대하여 그래픽 처리를 수행함으로써, 상기 복수의 영상이 상기 제1 테마(421)에 따른 분위기(또는 주제, 컨셉)를 갖도록 상기 복수의 영상에 대한 시각적 외관을 변형할 수 있다.For example, as shown in (b) of FIG. 4A, when the first theme (e.g., “active” theme, see 421) of the plurality of themes is selected, as shown in (c) of FIG. 4A Likewise, graphics processing linked to the first theme 421 may be performed. In this case, the control unit 150 performs graphic processing on the plurality of images based on data related to graphic processing linked to the first theme 421 (or data linked to the first theme). By doing so, the visual appearance of the plurality of images can be modified so that the plurality of images have an atmosphere (or theme, or concept) according to the first theme 421.

또 다른 예로서, 도 4b의 (b)에서와 같이, 복수의 테마 중 제2 테마(예를 들어, “센티멘탈(sentimental)” 테마, 422 참조)가 선택된 경우, 도 4b의 (c)에 도시와 같이, 상기 제2 테마(422)에 연계된 그래픽 처리가 수행될 수 있다. 이 경우, 제어부(150)는, 상기 제2 테마(422)에 연계된 그래픽 처리와 관련된 데이터(또는 상기 제2 테마에 연계된 데이터)에 근거하여, 상기 복수의 영상들에 대하여 그래픽 처리를 수행함으로써, 상기 복수의 영상이 상기 제2 테마(421)에 따른 분위기(또는 주제, 컨셉)을 갖도록 상기 복수의 영상에 대한 시각적 외관을 변형할 수 있다.As another example, as shown in (b) of FIG. 4B, when the second theme (e.g., “sentimental” theme, see 422) of the plurality of themes is selected, shown in (c) of FIG. 4B As such, graphic processing linked to the second theme 422 may be performed. In this case, the control unit 150 performs graphic processing on the plurality of images based on data related to graphic processing linked to the second theme 422 (or data linked to the second theme). By doing so, the visual appearance of the plurality of images can be modified so that the plurality of images have an atmosphere (or theme, or concept) according to the second theme 421.

이와 같이, 도 4a의 (c) 및 도 4b의 (c)를 비교하여 보면, 도 4a의 (a) 및 도 4b의 (a)와 같이, 편집 대상으로서 선택된 영상이 동일하더라도, 선택된 테마(예를 들어, 제1 테마(421) 또는 제 2테마(422))가 무엇인지에 따라, 적용되는 그래픽 처리의 수행이 달라질 수 있다. 결과적으로 선택된 테마에 따라, 편집 대상으로서 선택된 영상이 동일하더라도 서로 다른 시각적 외관을 가질 수 있다.In this way, comparing (c) in Figure 4A and (c) in Figure 4B, even if the image selected as the editing target is the same as (a) in Figure 4A and (a) in Figure 4B, the selected theme (e.g. For example, depending on what the first theme 421 or the second theme 422 is, the performance of applied graphic processing may vary. As a result, depending on the selected theme, even if the video selected as the editing target is the same, it may have different visual appearances.

한편, 본 발명에서는, 선택된 특정 테마에 대해, 편집의 대상이 되는 복수의 영상에 대해 그래픽 처리를 수행함에 있어, 복수의 영상 중 어느 하나의 영상(예를 들어, 도 4a의(a), 411 항목에 대응되는 영상)에 대한 그래픽 처리와, 상기 어느 하나를 제외한 나머지 영상(예를 들어, 도 4의(a), 412, 413 항목에 대응되는 영상)에 대한 그래픽 처리를 서로 다르게 수행할 수 있다.Meanwhile, in the present invention, when performing graphic processing on a plurality of images that are the subject of editing for a selected specific theme, one image among the plurality of images (e.g., (a) of FIG. 4A, 411 Graphics processing for the image corresponding to the item) and graphics processing for the remaining images except for one of the above (e.g., image corresponding to the items 412 and 413 in FIG. 4(a)) can be performed differently. there is.

보다 구체적으로, 제어부(150)는, 제1 파트 및 제2 파트를 포함하는 영상 콘텐츠를 생성하는데, 이 중 제1 파트는, 상기 어느 하나의 영상에 대응되고, 제2 파트는 상기 나머지 영상에 대응될 수 있다.More specifically, the control unit 150 generates video content including a first part and a second part, of which the first part corresponds to one of the images, and the second part corresponds to the remaining image. can be responded to.

여기에서, 복수의 영상 중, 어느 영상을 이용하여 제1 파트 또는 제2 파트의 영상 콘텐츠를 생성할지 여부는, 사용자의 선택 또는 제어부(150)의 제어 하에 결정될 수 있다. Here, whether to use one of the plurality of images to generate the video content of the first part or the second part may be determined under the user's selection or under the control of the controller 150.

일 예로서, 제어부(150)는, 앞서 살펴본 S310 단계에서와 같이, 복수의 영상을 선택받는 과정에서 특정되는 복수의 영상들 간의 배열 순서에 근거하여, 복수의 영상 중 어느 영상을 이용하여 제1 파트 또는 제2 파트의 영상 콘텐츠를 생성할지 결정할 수 있다. 예를 들어, 도 4a의 (a)에 도시된 것과 같이, 복수의 영상을 선택하는 과정에서, 제어부(150)는, 영상들이 선택된 순서에 대한 정보를 수집할 수 있다. 그리고, 이렇게 수집된 순서에 대한 정보를 이용하여, 복수의 영상 중 어느 영상을 이용하여 제1 파트 또는 제2 파트의 영상 콘텐츠를 생성할지 결정할 수 있다. 일 실시 예로서, 제어부(150)는, 복수의 영상들 중 가장 첫 번째(또는 제1 번째) 배열된 영상을 이용하여, 상기 제1 파트에 해당하는 영상 콘텐츠를 생성할 수 있다. 그리고, 제어부(150)는, 복수의 영상들 중 가장 첫 번째(또는 제1 번째) 배열된 영상을 제외한 나머지 영상을 이용하여, 상기 제2 파트에 해당하는 영상 콘텐츠를 생성할 수 있다.As an example, the control unit 150 uses one of the plurality of images to create the first image based on the arrangement order between the plurality of images specified in the process of selecting the plurality of images, as in step S310 discussed above. You can decide whether to create video content of one part or the second part. For example, as shown in (a) of FIG. 4A, in the process of selecting a plurality of images, the control unit 150 may collect information about the order in which the images were selected. And, using the information about the collected order, it is possible to determine which of the plurality of images to use to generate the first part or the second part of the video content. As an example, the control unit 150 may generate image content corresponding to the first part using the first (or first) arranged image among the plurality of images. Additionally, the control unit 150 may generate video content corresponding to the second part using the remaining images excluding the first (or first) arranged image among the plurality of images.

한편, 제어부(150)는, 실행화면(400, 도 4a 참조)에서 사용자 선택에 근거하여, 복수의 영상 간의 배열 순서를 결정할 수 있으며, 이러한 배열 순서에 근거하여, 복수의 영상 중 어느 영상을 이용하여, 제1 파트 또는 제2 파트의 영상 콘텐츠를 생성할지 결정할 수 있다. 예를 들어, 실행화면(400, 도 4a 참조)에는 선택 가능한 영상들에 각각 대응되는 항목들이 표시된다. 그리고, 제어부(150)는 이러한 항목들에 대한 사용자 선택에 근거하여, 편집의 대상이 되는 영상을 결정할 수 있다.Meanwhile, the control unit 150 can determine the arrangement order between a plurality of images based on user selection on the execution screen 400 (see FIG. 4A), and based on this arrangement order, which image among the plurality of images is used. Thus, it is possible to decide whether to generate the first part or the second part of the video content. For example, the execution screen 400 (see FIG. 4A) displays items corresponding to selectable images. And, the control unit 150 can determine the image to be edited based on the user's selection of these items.

이때, 제어부(150)는, 실행화면(400)에 포함된 항목들 중 사용자에 의해 선택된 항목들(411, 412, 413, 도 4a 참조)의 적어도 일 영역에, 각 항목이 선택된 순서에 대응되는 순서 정보를 표시할 수 있다. 이러한 항목들이 선택된 순서에 대응하여, 각 항목에 대응되는 영상들 간의 배열 순서가 결정될 수 있다.At this time, the control unit 150 displays an item corresponding to the order in which each item was selected in at least one area of the items (411, 412, 413, see FIG. 4A) selected by the user among the items included in the execution screen 400. Order information can be displayed. Corresponding to the order in which these items are selected, the arrangement order between images corresponding to each item may be determined.

이때, 제어부(150)는 가장 처음에 선택된 항목(411, 도 4a 참조)이, 사용자의 선택에 근거하여 선택 취소된 경우, 두번째 선택된 항목(412, 도 4a 참조)을 가장 처음에 선택된 항목으로 설정할 수 있다. 따라서 이경우, 두번째 선택된 항목(412, 도 4a 참조)에 대응되는 영상이, 복수의 영상에서 가장 첫번째 배열될 수 있다.At this time, if the first selected item (411, see Figure 4a) is deselected based on the user's selection, the control unit 150 sets the second selected item (412, see Figure 4a) as the first selected item. You can. Therefore, in this case, the image corresponding to the second selected item 412 (see FIG. 4A) may be arranged first among the plurality of images.

이때, 제어부(150)는, 가장 처음에 선택된 항목(411, 도 4a 참조)이, 사용자의 선택에 근거하여, 취소된 후, 다시 재선택된 경우, 재선택되기 전에 마지막으로 선택된 항목(413, 도 4a 참조)의 다음 순서로서, 재선택된 항목의 순서를 설정할 수 있다. 이경우, 상기 재선택된 항목에 대응되는 영상이, 복수의 영상에서 가장 마지막에 배열될 수 있다.At this time, if the first selected item (411, see FIG. 4A) is canceled based on the user's selection and then reselected, the control unit 150 selects the last selected item (413, see FIG. 4A) before being reselected. As the next order of (see 4a), the order of the reselected items can be set. In this case, the image corresponding to the reselected item may be arranged last among the plurality of images.

이하에서는, 제1 파트의 영상 콘텐츠를 생성하기 위한 영상을 편의상 “복수의 영상 중 어느 하나의 영상” 또는 “어느 하나의 영상”이라고 지칭하면서, 본 발명에 따른 실시 예를 설명하도록 한다.Hereinafter, an image for generating the video content of the first part will be referred to as “one image among a plurality of images” or “one image” for convenience, and an embodiment according to the present invention will be described.

제어부(150)는, 상기 복수의 영상 중 어느 하나의 영상(예를 들어, 도 4a의(a), 411 항목에 대응되는 영상)에 대해 제1 편집 속성에 따른 그래픽 처리를 수행하여 상기 제1 파트에 해당하는 영상(또는 영상 콘텐츠, 441, 도 4a의 (c) 참조)을 생성할 수 있다. 그리고, 제어부(150)는 상기 복수의 영상 중 나머지 영상(예를 들어, 도 4의(a), 412, 413 항목에 대응되는 영상)에 대해 상기 제1 편집 속성과 다른 제2 편집 속성에 따른 그래픽 처리를 수행하여, 제2 파트에 해당하는 영상(또는 영상 콘텐츠, 442, 443, 도 4a의 (c) 참조) (또는 영상 콘텐츠)을 생성할 수 있다.The control unit 150 performs graphics processing according to the first editing attribute on one of the plurality of images (e.g., the image corresponding to item 411 in (a) of FIG. 4A) to edit the first image. An image (or video content, 441, see (c) of FIG. 4A) corresponding to the part can be created. And, the control unit 150 edits the remaining images (e.g., images corresponding to items 412 and 413 in FIG. 4(a)) among the plurality of images according to a second editing property different from the first editing property. Graphics processing may be performed to generate an image (or image content, 442, 443, see (c) of FIG. 4A) (or image content) corresponding to the second part.

제1 편집 속성에 따른 그래픽 처리를 통해, 제1 파트의 영상 콘텐츠를 생성하는 예에 대하여 살펴보면, 먼저, 제1 편집 속성은, 상기 어느 하나의 영상과 합성되는 텍스트 데이터를 입력받는 것에 관한 것일 수 있다.Looking at an example of generating video content of the first part through graphics processing according to the first editing property, first, the first editing property may be related to receiving text data synthesized with one of the images. there is.

보다 구체적으로, 제1 편집 속성은, 상기 어느 하나의 영상에 제목(title), 주제, 컨셉 또는 사용자 생각(또는 의견), 코멘트를 포함하는 그래픽 객체를 삽입하는 것과 관련된 편집 속성일 수 있다.More specifically, the first editing property may be an editing property related to inserting a graphic object including a title, topic, concept, user thought (or opinion), or comment into one of the images.

이러한, 제1 편집 속성에 의하면, 제어부(150)는, 제1 파트를 생성하기 위하여, 전자기기(100c)를 통해, 텍스트 데이터를 입력받는 제1 단계 및 상기 입력된 텍스트 데이터를 포함하는 그래픽 객체를 상기 어느 하나의 영상에 오버랩하는 제2 단계를 포함하는 그래픽 처리를 수행할 수 있다.According to this first editing attribute, the control unit 150 performs the first step of receiving text data through the electronic device 100c to create a first part and a graphic object including the input text data. Graphics processing including a second step of overlapping with one of the images may be performed.

보다 구체적으로, 제어부(150)는, 제1 편집 속성에 따른 그래픽 처리를 수행하기 위하여, 도 5a의 (a)에 도시된 것과 같이, 복수의 영상 중 어느 하나의 영상(500)과 합성할 텍스트 데이터를 입력받기 위한 과정을 수행할 수 있다.More specifically, in order to perform graphic processing according to the first editing attribute, the control unit 150 selects text to be synthesized with any one image 500 of the plurality of images, as shown in (a) of FIG. 5A. The process for receiving data can be performed.

텍스트 입력을 위한 과정으로서, 제어부(150)는, 도 5a의 (a)에 도시된 것과 같이, 사용자로부터 텍스트 입력을 유도하는 가이드 정보(510)를 표시할 수 있다. 그리고, 이러한 가이드 정보(510)가 선택되는 경우, 제어부(150)는 도 5a의 (b)에 도시된 것과 같이, 텍스트를 입력받기 위한 가상의 키보드(520)를 전자기기(100c) 상에 출력할 수 있다. 여기에서, 가이드 정보(510)는 도시와 같이, “나의 이야기를 들려주세요”와 같이, 사용자로부터 정보의 입력을 이끌어내기 위한 유도 정보일 수 있다.As a process for text input, the control unit 150 may display guide information 510 that induces the user to input text, as shown in (a) of FIG. 5A. And, when this guide information 510 is selected, the control unit 150 outputs a virtual keyboard 520 for inputting text on the electronic device 100c, as shown in (b) of FIG. 5A. can do. Here, the guide information 510 may be guidance information to elicit information input from the user, such as a city or “tell me my story.”

이때, 도 5a의 (a) 및 (b)의 과정은, 텍스트 데이터를 입력받기 위한 일 예로서, 다양한 변형이 가능하다. 예를 들어, 가이드 정보(510)는 도시된 것과 다른 방식으로, 표시되는 것이 가능하며, 제어부(150)는 가이드 정보(510)외에, 텍스트를 입력받기 위한 기능 아이콘(미도시됨)을 추가적으로 표시하는 것이 가능하다. 또한, 전자기기(100c)에서는, 가상의 키보드(520)가 아닌, 하드웨어적 키보드(미도시됨)를 통해, 텍스트 데이터를 입력받거나, 음성 인식을 통하여 텍스트 데이터를 입력받을 수 있다. 이 경우, 사용자 음성은 STT(Speech to Text) 변환을 통하여, 텍스트로 변환될 수 있다.At this time, the process in (a) and (b) of Figure 5A is an example for receiving text data, and various modifications are possible. For example, the guide information 510 can be displayed in a different way than shown, and the control unit 150 additionally displays a function icon (not shown) for inputting text in addition to the guide information 510. It is possible. Additionally, in the electronic device 100c, text data can be input through a hardware keyboard (not shown) rather than the virtual keyboard 520, or text data can be input through voice recognition. In this case, the user's voice can be converted to text through STT (Speech to Text) conversion.

한편, 사용자로부터 텍스트 데이터가 입력되면, 제어부(150)는 도 5a의 (c) 및 (d)에 도시된 것과 같이, 입력된 텍스트 데이터(예를 들어, “나의 여행 스토리”)를 포함하는 그래픽 객체(530)를, 편집의 대상이 되는 복수의 영상 중 어느 하나의 영상에 오버랩할 수 있다. 이때, 제어부(150)는 도 5a의 (c)에 도시된 것과 같이, 상기 텍스트 데이터를 포함하는 상기 그래픽 객체(530)의 시각적 외관을 변경하기 위한 편집 기능을 추가적으로 제공할 수 있다. 도시와 같이, 전자기기(100c)의 일 영역(540)에는, 입력된 텍스트 데이터에 대응되는 텍스트의 폰트, 색상, 크기, 정렬을 조절하기 위한 편집 영역 및 상기 텍스트 데이터가 포함된 그래픽 객체의 출력 테마를 결정하기 위한 선택 영역을 포함할 수 있다.Meanwhile, when text data is input from the user, the control unit 150 displays graphics including the input text data (e.g., “My travel story”), as shown in (c) and (d) of FIG. 5A. The object 530 may overlap with any one of a plurality of images that are the subject of editing. At this time, the control unit 150 may additionally provide an editing function to change the visual appearance of the graphic object 530 including the text data, as shown in (c) of FIG. 5A. As shown, one area 540 of the electronic device 100c includes an editing area for adjusting the font, color, size, and alignment of text corresponding to input text data, and an output of a graphic object containing the text data. Can include a selection area to determine the theme.

여기에서, 그래픽 객체의 출력 테마는, 복수일 수 있으며, 제어부(150)는 입력된 테마에 대하여 선택된 테마(예를 들어, “사각사각 액티브한 매력이 있는” 테마)에 대응되는 그래픽 처리를 수행할 수 있다. 그리고, 이러한 그래픽 처리가 수행된 그래픽 객체(530)를 편집의 대상이 되는 복수의 영상 중 어느 하나에 오버랩할 수 있다. 한편, 본 발명에서, 그래픽 객체가 영상에 오버랩된다고 함은, 그래픽 객체(530)를 편집의 대상이 되는 어느 하나의 영상에 합성하는 그래픽 처리가 수행되었음을 의미할 수 있다. Here, the output theme of the graphic object may be plural, and the control unit 150 performs graphic processing corresponding to the theme selected for the input theme (for example, a theme “with crunchy and active charm”). can do. Additionally, the graphic object 530 on which such graphic processing has been performed may be overlapped with one of a plurality of images that are the subject of editing. Meanwhile, in the present invention, saying that a graphic object overlaps an image may mean that graphic processing has been performed to combine the graphic object 530 with an image that is the subject of editing.

한편, 제어부(150)는, 상기 그래픽 객체(530)를 편집의 대상이 되는 어느 하나의 영상의 재생구간 중 적어도 일부에 대해서만 합성을 수행할 수 있다. Meanwhile, the control unit 150 may perform compositing of the graphic object 530 only for at least a portion of the playback section of any image that is the subject of editing.

이 경우, 일 예로서, 제어부(150)는 기 설정된 재생시간 동안에는, 상기 그래픽 객체(530)를 상기 어느 하나의 영상에 오버랩할 수 있다. 예를 들어, 기 설정된 재생시간이, 3초이고, 어느 하나의 영상이 10초의 재생시간을 갖는 영상인 경우, 제어부(150)는, 상기 10초의 재생시간을 갖는 어느 하나의 영상의 재생 구간 중 3초에 해당하는 재생구간에 대해서만, 상기 그래픽 객체(530)를 합성할 수 있다.In this case, as an example, the control unit 150 may overlap the graphic object 530 with one of the images during a preset playback time. For example, if the preset playback time is 3 seconds and one video has a playback time of 10 seconds, the control unit 150 selects a playback section of one of the videos with a playback time of 10 seconds. The graphic object 530 can be synthesized only for the playback section corresponding to 3 seconds.

이때, 상기 그래픽 객체(530)가 합성되는 재생구간은, 상기 어느 하나의 영상의 시작 부분일 수 있다. 즉, 제어부(150)는 상기 어느 하나의 영상의 재생구간 중 0초 ~ 3초 구간에, 상기 그래픽 객체(530)를 합성할 수 있다. At this time, the playback section in which the graphic object 530 is synthesized may be the beginning of one of the images. That is, the control unit 150 can synthesize the graphic object 530 in the 0 to 3 second section of the playback section of one of the images.

또 다른 일 예로서, 제어부(150)는 상기 어느 하나의 영상이 갖는 재생시간 중 기 설정된 비율에 따른 재생시간 동안에만 상기 어느 하나의 영상과 함께 상기 그래픽 객체(530)가 출력되도록 할 수 있다. 예를 들어, 상기 기 설정된 비율이 “재생시간의 1/2 ”인 경우, 제어부(150)는, 10초의 재생시간을 갖는 영상에 대하여, 5초에 해당하는 재생구간에 대해서만, 상기 그래픽 객체(530)를 합성할 수 있다. 이때에도, 상기 그래픽 객체(530)가 합성되는 재생구간은, 상기 어느 하나의 영상의 시작 부분일 수 있다. 즉, 제어부(150)는 상기 어느 하나의 영상의 재생구간 중 0초 ~ 5초 구간에, 상기 그래픽 객체(530)를 합성할 수 있다.As another example, the control unit 150 may cause the graphic object 530 to be output together with one image only during the playback time according to a preset ratio among the playback times of the one image. For example, when the preset ratio is “1/2 of the playback time,” the control unit 150 displays the graphic object ( 530) can be synthesized. Even in this case, the playback section in which the graphic object 530 is synthesized may be the beginning of one of the images. That is, the control unit 150 can synthesize the graphic object 530 in the 0 to 5 second section of the playback section of one of the images.

상기 예들은, 그래픽 객체(530)로 하여금 영상이 계속하여 가려지는 것을 방지하기 위함이다.The above examples are intended to prevent the image from being continuously obscured by the graphic object 530.

또한 위에서 살펴본 예들과 다르게, 제어부(150)는, 상기 어느 하나의 영상의 전 재생구간 동안, 상기 그래픽 객체(530)가 함께 출력되도록, 상기 어느 하나의 영상의 전 구간에 대해 그래픽 객체(530)를 합성하는 것 또한 가능하다.Also, unlike the examples discussed above, the control unit 150 displays the graphic object 530 for the entire section of the image so that the graphic object 530 is output together during the entire playback section of the image. It is also possible to synthesize .

한편, 상기 제1 편집 속성에 따른 그래픽 처리는, 텍스트 데이터를 포함하는 그래픽 처리를 포함하는 것 외에, i) 상기 어느 하나의 영상에 대한 색 보정(calibration)을 수행하는 그래픽 처리, ii) 상기 어느 하나의 영상에 대한 화질 보정(quality control)을 수행하는 그래픽 처리, iii) 상기 어느 하나의 영상에 대한 영상의 밝기, 대비, 선명도, 색 변환값 중 적어도 하나를 조절하는 그래픽 처리, iv) 상기 어느 하나의 영상에 대한 확대, 축소, 이동, 회전 등의 변형을 수행하는 그래픽 처리, v) 상기 어느 하나의 영상에 대한 이미지 효과(image effect)를 적용하는 그래픽 처리 등이 존재할 수 있다. 여기에서, 이미지 효과에 대한 설명은 앞선 도1 및 도2에와 함께 살펴본 설명으로 갈음한다.Meanwhile, the graphics processing according to the first editing attribute includes, in addition to graphics processing including text data, i) graphics processing that performs color calibration on any of the images, ii) any of the above. Graphics processing that performs image quality control for one image, iii) Graphics processing that adjusts at least one of the brightness, contrast, sharpness, and color conversion value of the image for one of the images, iv) Any of the above There may be graphic processing that performs transformations such as enlarging, reducing, moving, and rotating one image, v) graphics processing that applies an image effect to one of the images, etc. Here, the description of the image effect is replaced with the description discussed with FIGS. 1 and 2 above.

한편, 앞서 살펴본 방법에 따라, 텍스트 데이터를 포함한 그래픽 객체(530)의 합성이 수행된, 제1 파트의 영상 콘텐츠가 생성되면, 제어부(150)는 상기 제1 파트에 포함된 복수의 프레임 중 어느 하나의 프레임을 이용하여, 최종적으로 생성되는 영상 콘텐츠의 썸네일(thumbnail) 이미지(도 5b의 561 참조)를 설정할 수 있다. 여기에서, 상기 어느 하나의 프레임은, 상기 입력된 텍스트 데이터를 포함하는 그래픽 객체가 오버랩된 프레임일 수 있다.Meanwhile, when the video content of the first part, in which the graphic object 530 including text data is synthesized according to the method described above, is generated, the control unit 150 determines which of the plurality of frames included in the first part. Using one frame, a thumbnail image (see 561 in FIG. 5B) of the finally generated video content can be set. Here, the one frame may be a frame in which a graphic object including the input text data overlaps.

제어부(150)는, 제1 파트에 포함된 복수의 프레임 중 어느 하나의 프레임을, 썸네일 이미지(도 5b의 561 참조)로 생성하고, 생성된 어느 하나의 썸네일 이미지를, 영상 콘텐츠의 대표 이미지로서 설정할 수 있다. 여기에서, 썸네일 이미지의 생성에 이용되는 어느 하나의 프레임, 제1 파트에 포함된 복수의 프레임 중 가장 첫 프레임일 수 있다. 또한, 이와 다르게, 상기 썸네일 이미지의 생성에 이용되는 어느 하나의 프레임은, 상기 제1 파트에 포함된 복수의 프레임 중 사용자에 의해 선택된 프레임일 수 있다. 이 경우, 제어부(150)는 썸네일 이미지의 생성에 이용할 프레임을 사용자로부터 선택받기 위한 실행화면을 전자기기(100c) 상에 출력할 수 있다.The control unit 150 generates one of the plurality of frames included in the first part as a thumbnail image (see 561 in FIG. 5B), and uses one of the generated thumbnail images as a representative image of the video content. You can set it. Here, any one frame used to generate the thumbnail image may be the first frame among a plurality of frames included in the first part. Additionally, differently from this, one frame used to generate the thumbnail image may be a frame selected by the user among a plurality of frames included in the first part. In this case, the control unit 150 may output an execution screen on the electronic device 100c to allow the user to select a frame to be used for generating a thumbnail image.

한편, 상기 제1 파트에 해당하는 영상 콘텐츠를 생성하는 과정 중 앞서 도 5a와 함께 살펴본, 텍스트 데이터 입력 과정에서, 사용자로부터 텍스트가 입력되지 않은 경우, 제1 파트에 해당하는 영상 콘텐츠에는, 텍스트 데이터를 포함하는 그래픽 객체가 포함되지 않을 수 있다. 즉, 사용자로부터 텍스트 입력이 되지 않은 경우, 제어부(150), 앞서 살펴본 어느 하나의 영상에 대하여, 텍스트 데이터를 포함하는 그래픽 객체를 합성하는 과정을 생략할 수 있다. 한편, 이 경우에도, 제어부(150)는, 텍스트 데이터를 포함하는 그래픽 객체가 합성되지 않은 제1 파트의 프레임을 이용하여, 영상 콘텐츠의 썸네일 이미지를 생성할 수 있음은 물론이다.Meanwhile, during the process of generating the video content corresponding to the first part, in the text data input process previously seen with FIG. 5A, if no text is input from the user, the video content corresponding to the first part contains text data. Graphic objects containing may not be included. That is, if no text is input from the user, the process of the control unit 150 synthesizing a graphic object including text data for any of the images seen above can be omitted. Meanwhile, in this case as well, the control unit 150 can, of course, generate a thumbnail image of video content using a frame of the first part in which a graphic object including text data is not synthesized.

이와 같이, 본 발명에 따른, 테마를 갖는 콘텐츠 생성 방법 및 시스템은, 사용자로부터 입력된 텍스트 데이터를 포함하는 그래픽 객체를, 영상에 합성함으로써, 사용자의 의견이 반영된 영상 콘텐츠를 제공할 수 있다. 나아가, 본 발명에 따른, 테마를 갖는 콘텐츠 생성 방법 및 시스템은, 위에서 살펴본 그래픽 객체가 합성된 영상을 이용하여, 영상 콘텐츠의 썸네일 이미지를 생성할 수 있다. 따라서, 사용자는, 영상 콘텐츠의 썸네일 이미지를 별도로 제작하기 위한 작업 과정을 줄일 수 있다. 또한, 이러한 썸네일 이미지는, 사용자로부터 입력된 텍스트 데이터가 포함되며, 이를 통해, 사용자는, 영상 콘텐츠의 생성과 함께, 자신의 생각(또는 의견)을 반영한 썸네일 이미지를 제공받을 수 있다.As such, the method and system for creating content with a theme according to the present invention can provide video content that reflects the user's opinion by combining graphic objects including text data input from the user into the video. Furthermore, the method and system for generating content with a theme according to the present invention can generate a thumbnail image of video content using an image in which the graphic objects described above are synthesized. Accordingly, the user can reduce the work process for separately creating a thumbnail image of video content. Additionally, these thumbnail images include text data input by the user, through which the user can be provided with a thumbnail image that reflects his or her thoughts (or opinions) along with the creation of video content.

다음으로, 제2 파트에 해당하는 영상 콘텐츠를 생성하는 방법에 대해 살펴보면, 제어부(150)는 편집의 대상이 되는 복수의 영상에 대해 그래픽 처리를 수행함에 있어, 복수의 영상 중 어느 하나의 영상(예를 들어, 도 4a의(a), 411 항목에 대응되는 영상)에 대한 그래픽 처리와, 상기 어느 하나를 제외한 나머지 영상(예를 들어, 도 4a의(a), 412, 413 항목에 대응되는 영상)에 대한 그래픽 처리를 서로 다르게 수행할 수 있다.Next, looking at the method of generating video content corresponding to the second part, the control unit 150 performs graphic processing on a plurality of images that are subject to editing, and selects one image ( For example, graphic processing for the image corresponding to item 411 in (a) of FIG. 4A and the remaining images except for one of the above (e.g., image corresponding to item 412, 413 in (a) of FIG. 4A) Graphics processing for images) can be performed differently.

제어부(150)는, 복수의 영상들 중 어느 하나의 영상(도 2의(a), 211 참조)에 대해 제1 편집 속성에 따른 그래픽 처리를 수행하고, 나머지 영상(도 2의(a), 212, 213 참조)에 대해 상기 제1 편집 속성과 다른 제2 편집 속성에 따른 그래픽 처리를 수행할 수 있다. 앞서 살펴본 테마에 연계된 데이터는, 제1 편집 속성을 정의하는 제1편집 속성 데이터 및 제2 편집 속성을 정의하는 제2 편집 속성 데이터를 포함할 수 있다. 제어부(150)는 이러한 제1 및 제2 편집 속성 데이터에 기반하여, 제1 및 제2 편집 속성에 따른 그래픽 처리를 수행할 수 있다.The control unit 150 performs graphic processing according to the first editing attribute on one image (see 211 of FIG. 2(a)) among the plurality of images and the remaining images (see FIG. 2(a), 211). (see 212 and 213), graphics processing may be performed according to a second editing property that is different from the first editing property. Data linked to the theme discussed above may include first edit attribute data defining the first edit attribute and second edit attribute data defining the second edit attribute. The control unit 150 may perform graphics processing according to the first and second editing properties based on the first and second editing property data.

이때, 상기 제2 파트를 생성하기 위한 상기 제2 편집 속성에 따른 그래픽 처리의 수행은, 기 선택된 특정 테마에 매칭된 적어도 하나의 그래픽 객체를 상기 나머지 영상에 오버랩하는 그래픽 처리를 포함하는 것일 수 있다.At this time, performing graphic processing according to the second editing attribute to generate the second part may include graphic processing of overlapping at least one graphic object matching a pre-selected specific theme with the remaining image. .

도 6a의 (a)에 도시된 것과 같이, 제어부(150)는 편집 대상의 복수의 영상(610, 621, 622, 623, 624) 중 어느 하나의 영상(610, 예를 들어, 복수의 영상 중 가장 첫번째 배열된 영상)을 제외한 나머지 영상(621, 622, 623, 624)에 대하여, 도 6a의 (b)에 도시된 것과 같이, 제2 편집 속성에 따른 그래픽 처리를 수행할 수 있다.As shown in (a) of FIG. 6A, the control unit 150 controls one image 610 among a plurality of images 610, 621, 622, 623, and 624 to be edited, for example, among a plurality of images. As shown in (b) of FIG. 6A, graphic processing according to the second editing attribute may be performed on the remaining images (621, 622, 623, and 624) excluding the first arranged image).

여기에서, 상기 제2 편집 속성에 따른 그래픽 처리는, 기 선택된 특정테마에 연계된 그래픽 처리로서, 예를 들어, i) 상기 나머지 영상에 대한 색 보정(calibration)을 수행하는 그래픽 처리, ii) 상기 나머지 영상에 대한 화질 보정(quality control)을 수행하는 그래픽 처리, iii) 상기 나머지 영상에 대한 영상의 밝기, 대비, 선명도, 색 변환값 중 적어도 하나를 조절하는 그래픽 처리, iv) 상기 나머지 영상에 대한 확대, 축소, 이동, 회전 등의 변형을 수행하는 그래픽 처리, v) 상기 나머지 영상에 대한 이미지 효과(image effect)를 적용하는 그래픽 처리 등이 존재할 수 있다. 여기에서, 이미지 효과에 대한 설명은 앞선 도1 및 도2와 함께 살펴본 설명으로 갈음한다.Here, the graphics processing according to the second editing attribute is graphics processing linked to a pre-selected specific theme, for example, i) graphics processing that performs color calibration on the remaining image, ii) the above. Graphics processing to perform quality control for the remaining images, iii) Graphics processing to adjust at least one of brightness, contrast, sharpness, and color conversion values of the images for the remaining images, iv) Graphics processing for the remaining images There may be graphic processing that performs transformations such as enlargement, reduction, movement, and rotation, and v) graphic processing that applies image effects to the remaining images. Here, the description of the image effect is replaced with the description discussed with FIGS. 1 and 2 above.

한편, 본 발명에서, 제어부(150)는 나머지 영상에 대하여 제2 편집 속성에 따른 그래픽 처리로서, 적어도 하나의 그래픽 객체를 영상과 합성하는 경우, 나머지 영상들 간의 배열 순서에 따라, 합성되는 그래픽 객체가 서로 다르도록 그래픽 처리를 수행할 수 있다.Meanwhile, in the present invention, the control unit 150 performs graphic processing according to the second editing attribute for the remaining images, and when combining at least one graphic object with the image, the synthesized graphic object is processed according to the arrangement order between the remaining images. Graphics processing can be performed so that the

예를 들어, 제어부(150)는 상기 나머지 영상에 포함된 영상 중 홀수번째 배열된 영상(621, 623)에 대해서는 제1 타입에 해당하는 적어도 하나의 제1 그래픽 객체(631)를 오버랩하고, 짝수번째 배열된 영상(622, 624)에 대해서는 상기 제1 그래픽 객체(631)와 서로 다른 시각적 외관을 갖는 제2 그래픽 객체(632)를 오버랩할 수 있다.For example, the control unit 150 overlaps at least one first graphic object 631 corresponding to the first type with the odd-numbered images 621 and 623 among the remaining images, and overlaps the even-numbered images 621 and 623 with the even-numbered images. For the first arranged images 622 and 624, a second graphic object 632 having a different visual appearance from the first graphic object 631 may overlap.

즉, 제어부(150)는, 도 6a의 (c)에 도시된 것과 같이, 나머지 영상 중 서로 이웃하는 영상들(예를 들어, i) 651과 이웃하는 영상은 652, ii) 652 와 이웃하는 영상은 651 및 653이 될 수 있음) 간에, 서로 다른 그래픽 객체를 오버랩할 수 있다.That is, as shown in (c) of FIG. 6A, the control unit 150 selects neighboring images among the remaining images (for example, i) the image neighboring 651 is 652, and ii) the image neighboring 652. can be 651 and 653), different graphic objects can overlap.

이를 통해, 본 발명에서는 서로 이웃하는 영상들간 서로 상이한 그래픽 객체가 합성된 영상 콘텐츠를 생성할 수 있으며, 따라서, 사용자는, 단조로운 영상 콘텐츠가 아닌, 생동감 있는 영상 콘텐츠를 제공받을 수 있다.Through this, the present invention can generate video content in which different graphic objects are synthesized between neighboring images, and thus users can be provided with lively video content rather than monotonous video content.

한편, 나머지 영상에 대하여 그래픽 객체의 합성이 이루어진 후, 나머지 영상들 간의 배열순서 변경 요청이 있는 경우, 제어부(150)는 이러한 요청에 근거하여, 나머지 영상들 간의 배열순서를 변경할 수 있다. 예를 들어, 도 6b의 (a)에 도시된 것과 같이, 그래픽 객체의 합성이 이루어진 나머지 영상들(651, 652, 653, 654) 중 두번째, 세번째 영상(652, 653) 간의 배열순서 변경 요청이 있는 경우, 제어부(150)는, 도 6b의 (b)에 도시된 것과 같이, 상기 변경 요청의 대상이 되는 영상의 배열 순서를 변경할 수 있다. 그 결과, 배열 순서 변경 요청 전, 두번째 배열되었던 영상(652)은, 도 6b의 (b)에 도시된 것과 같이, 세번째 영상으로서(652') 배열될 수 있다. 마찬가지로, 배열 순서 변경 요청 전, 세번째 배열되었던 영상(653)은, 도 6b의 (b)에 도시된 것과 같이, 두번째 영상(653')으로서 배열될 수 있다. Meanwhile, after the graphic object is synthesized for the remaining images, if there is a request to change the arrangement order of the remaining images, the control unit 150 may change the arrangement order of the remaining images based on this request. For example, as shown in (a) of FIG. 6B, a request to change the arrangement order between the second and third images (652, 653) among the remaining images (651, 652, 653, and 654) in which graphic objects have been synthesized is made. If so, the control unit 150 can change the arrangement order of the image that is the subject of the change request, as shown in (b) of FIG. 6B. As a result, the image 652 that was arranged second before the request to change the arrangement order can be arranged as the third image 652', as shown in (b) of FIG. 6B. Likewise, the image 653 that was arranged third before the request to change the arrangement order may be arranged as the second image 653', as shown in (b) of FIG. 6B.

이때, 제어부(150)는, 나머지 영상들에 대한 그래픽 객체를 오버랩하는 그래픽 처리의 수행이 완료된 후, 배열 순서에 대한 변경 요청이 있는 경우, 상기 나머지 영상에 포함된 영상들 간의 배열순서가 변경되더라도, 상기 나머지 영상에 대해 기 그래픽 처리된 그래픽 객체들의 오버랩 상태는 변경시키지 않을 수 있다.At this time, if there is a request to change the arrangement order after the graphic processing of overlapping graphic objects for the remaining images is completed, the control unit 150 operates even if the arrangement order between the images included in the remaining images is changed. , the overlap state of graphic objects that have already been graphically processed with respect to the remaining image may not be changed.

즉, 제어부(150)는, 나머지 영상 중 홀수번째 배열된 영상(621, 623)에 대해 제1 타입에 해당하는 적어도 하나의 제1 그래픽 객체(631)의 오버랩이 완료된 후, 상기 배열 순서에 대한 변경 요청에 근거하여, 상기 홀수번째 배열된 영상 중 적어도 하나가 짝수번째 영상으로 배열된 경우, 영상들 간의 배열순서만 변경할 뿐, 기 처리된 그래픽 처리를 재수행하지 않을 수 있다.That is, after the overlap of at least one first graphic object 631 corresponding to the first type is completed with respect to the odd-numbered images 621 and 623 among the remaining images, the control unit 150 determines the arrangement order. Based on the change request, if at least one of the odd-numbered images is arranged as an even-numbered image, only the arrangement order between the images may be changed and the previously processed graphics processing may not be re-performed.

또한, 이와 반대로, 제어부(150)는, 나머지 영상 중 홀수번째 배열된 영상(621, 623)에 대해 제1 타입에 해당하는 적어도 하나의 제1 그래픽 객체(631)의 오버랩이 완료된 후, 상기 배열 순서에 대한 변경 요청에 근거하여, 상기 홀수번째 배열된 영상 중 적어도 하나가 짝수번째 영상으로 배열된 경우, 영상들 간의 배열순서를 변경함과 함께, 변경된 배열 순서에 맞추어, 제2 편집 속성에 따른 그래픽 처리를 재수행하는 것 또한 가능하다.In addition, on the contrary, after the overlap of at least one first graphic object 631 corresponding to the first type is completed with respect to the odd-numbered arranged images 621 and 623 among the remaining images, the control unit 150 Based on a request to change the order, if at least one of the odd-numbered arranged images is arranged as an even-numbered image, the arrangement order between the images is changed, and according to the changed arrangement order, according to the second editing attribute. It is also possible to re-perform graphics processing.

이상에 살펴본 것과 같이, 본 발명에 따른 테마를 갖는 콘텐츠 생성 방법 및 시스템은, 편집의 대상이 되는 복수의 영상에 대한 그래픽 처리의 일 방법으로서, 사용자에 의해 선택된 특정 테마와 연계된 적어도 하나의 그래픽 객체를 삽입하는 것을 포함하는 것에 대하여 살펴보았다.As discussed above, the method and system for creating content with a theme according to the present invention is a method of graphic processing for a plurality of images that are the subject of editing, and includes at least one graphic associated with a specific theme selected by the user. We looked at things that involve inserting objects.

또한, 앞서 본 발명에서는, 편집의 대상으로서 선택된 영상 각각이 최종적으로 생성되는 영상 콘텐츠 내에서 기 설정된 재생시간을 초과하지 않도록, 선택된 영상 중 상기 기 설정된 재생시간을 초과하는 영상에 대해서는, 재생시간을 조정하기 위한 편집을 수행하는 것에 대하여 살펴보았다.In addition, in the present invention, in order to ensure that each video selected as the subject of editing does not exceed the preset playback time in the ultimately generated video content, the playback time is adjusted for the video that exceeds the preset playback time among the selected videos. We looked at performing editing for adjustment.

이때, 본 발명에서는, 편집의 대상이 되는 복수의 영상 각각에 대하여, 그래픽 객체를 삽입할 때, 각각의 영상에서 상기 그래픽 객체가 삽입되는 구간은, 상기 기 설정된 재생시간과 대응될 수 있다. 예를 들어, 본 발명에서는, 기 설정된 재생시간은 “3초”로 설정될 수 있고, 이에 따라, 각각의 영상에 대하여 그래픽 객체를 “3”초 동안 합성하도록 설정될 수 있다. 이 경우, 제어부(150)는, 상기 기 설정된 재생시간을 갖도록 재생시간이 편집된 영상들에 대해, 상기 기 설정된 재생시간에 대응되는 재생 구간 동안 상기 그래픽 객체를 합성하는 그래픽 처리를 수행할 수 있다.At this time, in the present invention, when inserting a graphic object into each of a plurality of images subject to editing, the section in which the graphic object is inserted in each image may correspond to the preset playback time. For example, in the present invention, the preset playback time can be set to “3 seconds,” and accordingly, graphic objects can be set to composite for “3” seconds for each image. In this case, the control unit 150 may perform graphics processing to synthesize the graphic object during a playback section corresponding to the preset playback time on images whose playback times have been edited to have the preset playback time. .

한편, 편집의 대상이 되는 복수의 영상 중, 상기 기 설정된 재생시간보다 짧은 영상이 존재하는 경우, 제어부(150)는 상기 기 설정된 재생시간보다 짧은 영상의 재생시간 동안에만, 상기 그래픽 객체가 합성되도록 하는 그래픽 처리를 수행할 수 있다. 한편, 제어부(150)는 재생시간을 조절하기 위한 영상 편집이 수행된 후에도, 기능 아이콘을 두어, 편집의 대상이 되는 복수의 영상 각각에 대한 재생시간을 조절하도록 하는 사용자 요청을 수신할 수 있다. 예를 들어, 복수의 영상 중 적어도 하나의 영상에 대해 재생시간을 조절하는 사용자 요청이 수신된 경우, 제어부(150)는 사용자 요청이 수신된 영상의 재생시간을 조절하는 것과 함께, 그래픽 객체의 합성구간을 상기 조절된 재생시간에 따른 재생구간과 동일하게 함께 변경함으로써, 상기 그래픽 객체의 합성 구간이, 상기 사용자 요청이 수신된 영상의 재생구간과 일치하도록 동기화할 수 있다.Meanwhile, among the plurality of images subject to editing, if there is an image shorter than the preset playback time, the control unit 150 allows the graphic object to be synthesized only during the playback time of the image shorter than the preset playback time. Graphics processing can be performed. Meanwhile, even after video editing to adjust the playback time is performed, the control unit 150 may place a function icon to receive a user request to adjust the playback time for each of the plurality of images subject to editing. For example, when a user request to adjust the playback time for at least one image among a plurality of images is received, the control unit 150 adjusts the playback time of the image for which the user request was received and synthesizes a graphic object. By changing the section to be the same as the playback section according to the adjusted playback time, the composite section of the graphic object can be synchronized to match the playback section of the image for which the user request has been received.

한편, 이상의 실시 예에서는, 복수의 영상이 선택됨을 전제로 영상 콘텐츠가 생성되는 것에 대하여 살펴보았으나, 본 발명에서는, 하나의 영상이 선택되는 경우에도, 영상 콘텐츠가 생성될 수 있음은 물론이다. 이 경우, 제어부(150)는, 선택된 영상에 대하여, 선택된 특정테마에 대한 그래픽 처리를 수행하되, 상기 선택된 영상을, 제1 파트의 영상으로서 생성할 수 있다. 이 경우, 제어부(150)는 상기 선택된 영상에 대하여, 앞서 살펴본 제1 편집 속성에 따른 그래픽 처리를 수행할 수 있다.Meanwhile, in the above embodiment, we have looked at the creation of video content on the premise that a plurality of images are selected. However, in the present invention, of course, video content can be created even when one image is selected. In this case, the control unit 150 may perform graphic processing for the selected specific theme on the selected image and generate the selected image as an image of the first part. In this case, the control unit 150 may perform graphics processing on the selected image according to the first editing attribute discussed above.

이상에서 살펴본 것과 같이, 본 발명에서는 다양한 테마를 사용자에게 제공하고, 이중 어느 하나를 선택받음으로써, 위에서 살펴본 특정 테마가 결정될 수 있다. 나아가, 다양한 테마 각각에는, 기 결정된 그래픽 처리 방법이 존재하며, 본 발명에 따른 콘텐츠 생성 방법 및 시스템은, 특정 테마가 결정되는 경우, 이에 매칭된 그래픽 처리를 수행할 수 있다. 따라서, 사용자는 콘텐츠의 테마를 선택하는 것 만으로도, 선택된 복수의 영상들에 대해, 특정 테마에 매칭된 그래픽 처리의 수행 결과를 제공받을 수 있다. 결과적으로, 본 발명에 따른 테마를 갖는 콘텐츠 생성 방법 및 시스템은 통일성 및 완성도 높은 동영상 콘텐츠를 제작할 수 있다.As discussed above, in the present invention, various themes are provided to the user, and by selecting one of them, the specific theme discussed above can be determined. Furthermore, for each of the various themes, there is a predetermined graphics processing method, and the content creation method and system according to the present invention can perform graphics processing matched to a specific theme when a specific theme is determined. Accordingly, just by selecting a content theme, the user can receive the results of graphics processing that matches the specific theme for the plurality of selected images. As a result, the method and system for creating content with a theme according to the present invention can produce video content with high unity and completeness.

이상에서는, 사용자에 의해 선택된 테마에 근거하여, 제어부(150)에 의해 편집의 대상이 되는 영상에 대한 그래픽 처리가 수행되는 것에 대하여 살펴보았다. 본 발명에서는, 제어부(150)에 의해 처리된 그래픽 처리결과에 더하여, 사용자로부터 수신되는 요청에 근거하여, 추가적인 그래픽 처리를 수행할 수 있다. 이에 대하여, 첨부된 도면과 함께 살펴본다. 도 7a는 본 발명에 따른 테마를 갖는 콘텐츠 생성 방법 및 시스템에서 추가적인 그래픽 처리를 수행하는 방법을 설명하기 위한 개념도이다.In the above, we have looked at how graphic processing is performed on an image subject to editing by the control unit 150 based on the theme selected by the user. In the present invention, in addition to the graphics processing results processed by the control unit 150, additional graphics processing can be performed based on a request received from the user. Let's take a look at this with the attached drawings. FIG. 7A is a conceptual diagram illustrating a method for generating content with a theme and a method for performing additional graphic processing in the system according to the present invention.

도 7a에 도시된 것과 같이, 제어부(150)는 편집의 대상이 되는 영상에 대하여, 추가적인 그래픽 처리를 수행하기 위한 실행화면을 제공할 수 있다. 이러한 실행화면은, 영상 콘텐츠를 생성하는 과정 중 언제라도 출력 가능하며, 사용자의 요청이 수신된 시점에 출력될 수 있다.As shown in FIG. 7A, the control unit 150 can provide an execution screen for performing additional graphic processing on the image that is the subject of editing. This execution screen can be output at any time during the process of creating video content, and can be output at the point when the user's request is received.

상기 실행화면은, i) 영상 콘텐츠에 대해 색 보정(calibration)을 수행하는 그래픽 처리, ii) 영상 콘텐츠에 대해 화질 보정(quality control)을 수행하는 그래픽 처리, iii) 영상 콘텐츠에 대해 영상의 밝기, 대비, 선명도, 색 변환값 중 적어도 하나를 조절하는 그래픽 처리, iv) 영상 콘텐츠에 대해 확대, 축소, 이동, 회전 등의 변형을 수행하는 그래픽 처리, v) 영상 콘텐츠에 대해 이미지 효과(image effect)를 적용하는 그래픽 처리 등이 존재할 수 있다. 여기에서, 이미지 효과에 대한 설명은 앞선 도1 및 도2와 함께 살펴본 설명으로 갈음한다.The execution screen includes: i) graphics processing that performs color calibration on the video content, ii) graphics processing that performs quality control on the video content, iii) brightness of the video on the video content, Graphics processing that adjusts at least one of contrast, sharpness, and color conversion values, iv) Graphics processing that performs transformations such as enlargement, reduction, movement, and rotation on video content, v) Image effects on video content There may be graphics processing that applies . Here, the description of the image effect is replaced with the description discussed with FIGS. 1 and 2 above.

이때, 실행화면은, 영상 콘텐츠의 전체 재생시간을 포함하는 프로그레스 바(progress bar, 또는 타임 라인(time line, 720)을 포함할 수 있다. 또한, 이와 다르게, 상기 실행화면은, 상기 실행화면에 표시된 프레임이 속한 영상의 재생시간을 포함하는 프로그레스 바(progress bar, 또는 타임 라인(time line, 720)를 포함할 수 있다.At this time, the execution screen may include a progress bar or timeline 720 including the entire playback time of the video content. Additionally, differently from this, the execution screen may include the execution screen It may include a progress bar or timeline (720) including the playback time of the video to which the frame displayed in .

이때 사용자는, 프로그레스 바(progress bar, 또는 타임 라인(time line, 720)을 통해, 실행화면 상에 출력되는 프레임(710)을 변경해가면서, 편집의 대상이 되는 영상을 선택할 수 있다. 예를 들어, 제어부(150), 어느 하나의 프레임(예를 들어, 복수의영상 중 어느 하나의 영상에 포함된 일 프레임, 710)에 대해, 그래픽 처리 요청이 수신된 경우, 상기 프레임(710)에 대하여 상기 수신된 요청에 대응되는 그래픽 처리를 수행할 수 있다. 이때, 제어부(150)는, 상기 프레임(710) 뿐만 아니라, 상기 프레임(710)이 속한 영상에 포함된 프레임 모두에 대하여, 상기 수신된 요청에 대응되는 그래픽 처리를 공통적으로 수행할 수 있다. 이는, 동일한 영상에 대해 통일감을 부여하기 위함이다. 한편, 상기 프레임(710)이 속한 영상에 포함된 프레임 모두에 대하여, 상기 수신된 요청에 대응되는 그래픽 처리를 공통적으로 수행할지 여부는, 사용자의 요청에 근거하여 결정될 수 있다.At this time, the user can select the video to be edited by changing the frame 710 displayed on the execution screen through the progress bar or timeline 720. For example, For example, when a graphics processing request is received for one frame (e.g., one frame included in one of a plurality of images, 710), the control unit 150 processes the frame 710. Graphics processing corresponding to the received request may be performed. At this time, the control unit 150 may process the received request not only for the frame 710 but also for all frames included in the video to which the frame 710 belongs. Graphics processing corresponding to the request can be commonly performed. This is to provide a sense of unity to the same image. Meanwhile, for all frames included in the image to which the frame 710 belongs, the received request Whether to commonly perform corresponding graphics processing may be determined based on the user's request.

이와 같이, 본 발명에 따른 테마를 갖는 영상 콘텐츠 생성 방법 및 시스템은, 편집의 대상이 되는 영상에 대하여 기 선택된 테마에 연계된 그래픽 처리를 수행하는 것 뿐만 아니라, 사용자의 요청에 기반하여, 편집의 대상이 되는 영상에 대한 추가적인 그래픽 처리를 수행함으로써, 사용자의 기호에 맞는 영상 콘텐츠를 생성하는 것이 가능하다.As such, the method and system for generating video content with a theme according to the present invention not only performs graphic processing linked to a pre-selected theme on the video subject to editing, but also performs editing based on the user's request. By performing additional graphic processing on the target video, it is possible to create video content that suits the user's taste.

한편, 이상의 실시 예에서는, 편집의 대상이되는 영상들에 대하여 그래픽 처리를 수행하는 방법에 대하여 살펴보았다. 본 발명에 따른 테마를 갖는 영상 콘텐츠 생성 방법은 시스템은, 편집의 대상이되는 영상들에 대한 그래픽 처리 뿐만 아니라, 사운드 처리를 수행함으로써, 완성도 있는 영상 콘텐츠를 생성할 수 있다. 이에 대하여, 첨부된 도면과 함께 살펴본다. 도 7b는 본 발명에 따른 테마를 갖는 콘텐츠 생성 방법 및 시스템에서, 사운드 처리를 수행하는 방법을 설명하기 위한 개념도이다.Meanwhile, in the above embodiment, a method of performing graphic processing on images subject to editing was examined. In the method of generating video content with a theme according to the present invention, the system can generate complete video content by performing sound processing as well as graphic processing on videos that are subject to editing. Let's take a look at this with the attached drawings. FIG. 7B is a conceptual diagram illustrating a method of performing sound processing in a method and system for creating content with a theme according to the present invention.

본 발명에서는, 각각의 테마에 매칭된 음악 데이터를 가질 수 있다. 즉, 저장부(130) 또는 외부 저장소에는, 복수의 테마 각각에 매칭된 음악 데이터가 저장되어 존재할 수 있다. 제어부(150)는, 영상 콘텐츠 생성시, 선택된 테마에 매칭된 영상 콘텐츠의 음악으로서, 편집의 대상이 되는 영상과 음악 데이터를 합성할 수 있다.In the present invention, it is possible to have music data matched to each theme. That is, music data matching each of a plurality of themes may be stored in the storage unit 130 or external storage. When creating video content, the control unit 150 can synthesize video and music data that are the subject of editing as music of the video content matched to the selected theme.

예를 들어, 도 4a의 (b) 및 도 7b의 (a)에서와 같이, 복수의 테마 중 제1 테마(예를 들어, “액티브(active)” 테마, 421 참조)에는 제1 음악 데이터(예를 들어, “여행을 떠나요”라는 제목을 갖는 음악데이터)가 매칭되어 존재할 수 있다. 그리고, 도 4b의 (b)에서와 같이, 복수의 테마 중 제2 테마(예를 들어, “센티멘탈(sentimental)” 테마, 422 참조)에는, 제2 음악 데이터(예를 들어, “별이 진다네”라는 제목을 갖는 음악 데이터)가 매칭되어 존재할 수 있다.For example, as shown in (b) of FIG. 4A and (a) of FIG. 7B, the first theme among the plurality of themes (e.g., “active” theme, see 421) includes first music data ( For example, music data with the title “Let’s go on a trip” may be matched and exist. And, as in (b) of FIG. 4B, the second theme among the plurality of themes (e.g., “sentimental” theme, see 422) includes second music data (e.g., “The star is falling”) Music data with the title “Yes” may exist in matching form.

제어부(150)는, 편집의 대상이되는 영상에 대해 그래픽 처리가 수행된 영상과, 기 선택된 테마에 매칭된 음악 데이터를, 합성하여, 하나의 영상 콘텐츠에 합성할 수 있다. 이때, 음악 데이터와 합성되는 영상의 재생시간이, 음악 데이터의 재생시간보다 짧은 경우, 제어부(150)는, 상기 영상의 재생시간에 맞추어, 음악 데이터의 재생시간을 조절할 수 있다. 이 경우, 제어부(150)는 음악 데이터의 재생시간이 상기 영상의 재생시간과 동일하도록, 음악 데이터의 적어도 일부분을 삭제하는 편집을 수행할 수 있다. 이 경우, 음악 데이터에서 어느 부분이 삭제되고, 어느 부분이 유지될지는, 사용자의 선택에 근거하여 결정될 수 있다.The control unit 150 may synthesize an image on which graphic processing has been performed on the image subject to editing and music data matched to a pre-selected theme into one image content. At this time, if the playback time of the video synthesized with the music data is shorter than the playback time of the music data, the control unit 150 may adjust the playback time of the music data according to the playback time of the video. In this case, the control unit 150 may perform editing to delete at least part of the music data so that the playback time of the music data is the same as the playback time of the video. In this case, which part of the music data will be deleted and which part will be maintained can be determined based on the user's selection.

한편, 본 발명에서는, 상기 그래픽 처리가 수행된 영상에, 기 선택된 테마에 기 매칭된 음악 데이터가 아닌, 사용자에 의해 선택된 음악 데이터를 합성하는 것 또한 가능하다. 예를 들어, 도 7b의 (a) 및 (b)에 도시된 것과 같이, 제어부(150)는 사용자로부터 음악 데이터가 선택되는 경우, 도 7b의 (c)에 도시된 것과 같이, 상기 그래픽 처리가 수행된 영상에 상기 사용자에 의해 선택된 음악 데이터를 합성할 수 있다. 일 예로서, 제어부(150)는, 도 7b의 (a)에 도시된 것과 같이, 실행화면 중 음악 데이터의 제목이 포함되는 일 영역(730)에 대한 사용자의 선택이 수신되는 경우, 도 7b의 (b)에 도시된 것과 같이, 음악 데이터를 선택받기 위한 실행화면(740)을 출력할 수 있다. 이러한 실행화면(740) 상에는 서로 다른 음악 데이터에 각각 대응되는 항목을 포함하는 리스트가 출력될 수 있다. 그리고, 제어부(150)는, 이러한 실행화면(740)을 통해 어느 하나의 항목(741)이 선택되면, 선택된 항목에 대응되는 음악 데이터를, 상기 그래픽 처리가 수행된 영상과 합성할 음악 데이터로서 설정할 수 있다. 그리고, 제어부(150)는, 도 7b의 (c)에 도시된 것과 같이, 상기 그래픽 처리가 수행된 영상에 상기 사용자에 의해 선택된 음악 데이터를 합성하는 과정을 수행할 수 있다.Meanwhile, in the present invention, it is also possible to synthesize music data selected by the user, rather than music data already matched to a pre-selected theme, with the image on which the graphic processing has been performed. For example, as shown in (a) and (b) of FIG. 7B, when music data is selected by the user, the control unit 150 performs the graphic processing, as shown in (c) of FIG. 7B. Music data selected by the user can be synthesized into the produced video. As an example, as shown in (a) of FIG. 7B, when the user's selection for an area 730 containing the title of music data in the execution screen is received, the control unit 150 selects the area 730 of FIG. 7B. As shown in (b), an execution screen 740 for selecting music data can be output. On this execution screen 740, a list containing items corresponding to different music data may be displayed. And, when an item 741 is selected through this execution screen 740, the control unit 150 sets the music data corresponding to the selected item as music data to be synthesized with the image on which the graphic processing has been performed. You can. And, as shown in (c) of FIG. 7B, the control unit 150 may perform a process of synthesizing music data selected by the user with the image on which the graphic processing has been performed.

이상에서 살펴본 것과 같이, 본 발명에 따른 테마를 갖는 영상 콘텐츠 생성 방법 및 시스템은, 기 선택된 테마에 연계된 음악 데이터를 합성하는 것 뿐만 아니라, 사용자의 요청에 기반하여, 사용자가 선택한 음악 데이터를 영상과 합성함으로써, 사용자의 기호에 맞는 영상 콘텐츠를 생성하는 것이 가능하다.As seen above, the method and system for generating video content with a theme according to the present invention not only synthesizes music data linked to a pre-selected theme, but also converts the music data selected by the user into a video based on the user's request. By compositing, it is possible to create video content that suits the user's taste.

이상에서 살펴본 것과 같이, 본 발명에 따른 테마를 갖는 콘텐츠 생성 방법 및 시스템은, 사용자로부터 선택된 복수의 영상에 대해 특정 테마에 매칭된 그래픽 처리를 수행하고, 이를 조합하여, 하나의 영상 콘텐츠를 생성함으로써, 통일성 및 완성도 있는 영상 콘텐츠를 제공할 수 있다. 이때, 본 발명에 따른 콘텐츠 생성 방법 및 시스템에서는, 다양한 테마를 사용자에게 제공하고, 이중 어느 하나를 선택 받음으로써, 위에서 살펴본 특정 테마가 결정될 수 있다. 다양한 테마 각각에는, 기 결정된 그래픽 처리 방법이 존재하며, 본 발명에 따른 콘텐츠 생성 방법 및 시스템은, 특정 테마가 결정되는 경우, 이에 매칭된 그래픽 처리를 수행할 수 있다. 따라서, 사용자는 콘텐츠의 테마를 선택하는 것 만으로도, 선택된 복수의 영상들에 대해, 특정 테마에 매칭된 그래픽 처리의 수행 결과를 제공받을 수 있다. 결과적으로, 본 발명에 따른 테마를 갖는 콘텐츠 생성 방법 및 시스템은 통일성 및 완성도 높은 동영상 콘텐츠를 제작할 수 있다.As discussed above, the method and system for creating content with a theme according to the present invention performs graphic processing matched to a specific theme on a plurality of images selected by the user, combines them, and generates one video content. , can provide video content with unity and completeness. At this time, in the content creation method and system according to the present invention, the specific theme discussed above can be determined by providing various themes to the user and selecting one of them. For each of the various themes, there is a predetermined graphics processing method, and the content creation method and system according to the present invention can perform graphics processing matched to a specific theme when a specific theme is determined. Accordingly, just by selecting a content theme, the user can receive the results of graphics processing that matches the specific theme for the plurality of selected images. As a result, the method and system for creating content with a theme according to the present invention can produce video content with high unity and completeness.

한편, 본 발명에 따른 테마를 갖는 콘텐츠 생성 방법 및 시스템은, 사용자로부터 선택된 영상의 유형이, 정적인 영상(static image)인 경우, 이를 동영상으로 변환하고, 변환된 동영상을 이용하여 새로운 영상 콘텐츠를 생성할 수 있다. 결과적으로, 본 발명은 영상의 유형에 관계없이 복수의 영상을 조합하여 하나의 새로운 영상 콘텐츠를 생성할 수 있다. 따라서, 사용자는, 영상의 유형에 구애받지 않고, 보다 다양한 콘텐츠를 이용하여, 새로운 영상 콘텐츠를 제작할 수 있다.Meanwhile, the method and system for creating content with a theme according to the present invention converts the type of video selected by the user into a video and creates new video content using the converted video. can be created. As a result, the present invention can create one new video content by combining multiple videos regardless of the type of video. Accordingly, users can create new video content using a wider variety of content, regardless of the type of video.

또한, 본 발명에 따른, 테마를 갖는 콘텐츠 생성 방법 및 시스템은, 사용자로부터 입력된 텍스트 데이터를 포함하는 그래픽 객체를, 영상에 합성함으로써, 사용자의 의견이 반영된 영상 콘텐츠를 제공할 수 있다. 나아가, 본 발명에 따른, 테마를 갖는 콘텐츠 생성 방법 및 시스템은, 위에서 살펴본 그래픽 객체가 합성된 영상을 이용하여, 영상 콘텐츠의 썸네일 이미지를 생성할 수 있다. 따라서, 사용자는, 영상 콘텐츠의 썸네일 이미지를 별도로 제작하기 위한 작업 과정을 줄일 수 있다. 또한, 이러한 썸네일 이미지는, 사용자로부터 입력된 텍스트 데이터가 포함되며, 이를 통해, 사용자는, 영상 콘텐츠를 생성의 생성과 함께, 자신의 생각을 반영한 썸네일 이미지를 제공받을 수 있다.In addition, the method and system for creating content with a theme according to the present invention can provide video content that reflects the user's opinion by combining a graphic object including text data input from the user into the video. Furthermore, the method and system for generating content with a theme according to the present invention can generate a thumbnail image of video content using an image in which the graphic objects described above are synthesized. Accordingly, the user can reduce the work process for separately creating a thumbnail image of video content. Additionally, these thumbnail images include text data input by the user, through which the user can be provided with a thumbnail image that reflects his or her thoughts along with the creation of video content.

Claims (11)

전자기기 상에서 테마를 갖는 콘텐츠를 생성하는 방법에 관한 것으로서,
상기 전자기기를 이용하여, 복수의 영상을 선택받는 단계;
상기 복수의 영상 중 적어도 하나의 영상을 편집하는 단계;
상기 복수의 영상 각각에 대하여 특정 테마에 연계된 그래픽 처리를 수행하는 단계; 및
상기 복수의 영상을 이용하여, 상기 특정 테마를 갖는 영상 콘텐츠를 생성하는 단계를 포함하고,
상기 영상을 편집하는 단계에서는,
상기 복수의 영상 중 정적인 영상(static image)이 포함된 경우, 상기 정적인 영상을 이용하여, 기 설정된 재생시간을 갖는 영상을 생성하고,
상기 복수의 영상에 적어도 하나의 동적인 영상(video)이 포함된 경우,
상기 영상 콘텐츠는,
상기 기 설정된 재생시간을 갖는 영상 및 상기 동적인 영상 각각에 대하여 상기 특정 테마에 연계된 그래픽 처리가 수행된 동영상인 것을 특징으로 하는 테마를 갖는 콘텐츠 생성 방법.
Pertaining to a method of creating content with a theme on an electronic device,
Selecting a plurality of images using the electronic device;
Editing at least one video among the plurality of videos;
performing graphic processing linked to a specific theme for each of the plurality of images; and
A step of generating video content having the specific theme using the plurality of videos,
In the step of editing the video,
If a static image is included among the plurality of images, an image with a preset playback time is generated using the static image,
When the plurality of images includes at least one dynamic video,
The video content is,
A method of creating content with a theme, wherein the video having the preset playback time and the dynamic video are each a video in which graphic processing linked to the specific theme is performed.
제1항에 있어서,
상기 영상을 편집하는 단계에서는,
상기 복수의 영상 중 상기 정적인 영상(static image)이 존재하는 경우, 상기 정적인 영상을 복사(copy)하여 복수의 프레임을 생성하고, 상기 복수의 프레임으로 상기 기 설정된 재생시간을 갖는 영상을 생성하는 것을 특징으로 하는 테마를 갖는 콘텐츠 생성 방법.
According to paragraph 1,
In the step of editing the video,
If the static image exists among the plurality of images, a plurality of frames are generated by copying the static image, and an image having the preset playback time is generated from the plurality of frames. A method of creating content with a theme characterized by:
제2항에 있어서,
상기 영상을 편집하는 단계에서는,
상기 복수의 영상 중 기 설정된 재생시간을 초과하는 동적인 영상이 존재하는 경우, 상기 동적인 영상에 포함된 프레임 중 적어도 하나를 삭제하는 것을 특징으로 하는 테마를 갖는 콘텐츠 생성 방법.
According to paragraph 2,
In the step of editing the video,
If there is a dynamic image that exceeds a preset playback time among the plurality of images, at least one of the frames included in the dynamic image is deleted.
삭제delete 제3항에 있어서,
사용자 요청에 근거하여, 상기 기 설정된 재생시간을 갖도록 편집된 영상의 재생시간이 재조절되는 단계;를 더 포함하는 것을 특징으로 하는 테마를 갖는 콘텐츠 생성 방법.
According to paragraph 3,
A method for creating content with a theme, further comprising: readjusting the playback time of the edited video to have the preset playback time based on a user request.
제1항에 있어서,
상기 전자기기에, 서로 다른 그래픽 처리에 연계된 복수의 테마를 제공하는 단계; 및
상기 복수의 테마 중 상기 복수의 영상에 적용할 상기 특정 테마를 선택받는 단계를 더 포함하는 것을 특징으로 하는 테마를 갖는 콘텐츠 생성 방법.
According to paragraph 1,
providing a plurality of themes linked to different graphic processing to the electronic device; and
A method of creating content with a theme, further comprising selecting the specific theme to be applied to the plurality of images from among the plurality of themes.
제6항에 있어서,
상기 생성된 영상 콘텐츠는, 상기 복수의 테마 중 어느 테마가 선택되었는지에 따라 서로 다른 시각적 외관을 갖는 것을 특징으로 하는 테마를 갖는 콘텐츠 생성 방법.
According to clause 6,
The generated video content has a different visual appearance depending on which of the plurality of themes is selected.
제7항에 있어서,
상기 복수의 테마 각각에는, 서로 다른 음악 데이터가 매칭되어 있고,
상기 생성된 영상 콘텐츠는, 상기 복수의 테마 중 어느 테마가 선택되었는지에 따라 서로 다른 음악 데이터에 따른 사운드 처리가 수행된 것을 특징으로 하는 테마를 갖는 콘텐츠 생성 방법.
In clause 7,
Each of the plurality of themes is matched with different music data,
The generated video content is subjected to sound processing according to different music data depending on which of the plurality of themes is selected.
전자기기 상에서 테마를 갖는 콘텐츠를 생성하는 시스템에 관한 것으로서,
상기 전자기기를 이용하여, 편집의 대상이 되는 복수의 영상을 선택받는 입력부;
상기 복수의 영상 중 적어도 하나의 영상을 편집하고, 복수의 영상을 이용하여, 특정 테마를 갖는 영상 콘텐츠를 생성하는 제어부를 포함하고,
상기 제어부는,
상기 복수의 영상 중 정적인 영상(static image)이 포함된 경우, 상기 정적인 영상을 이용하여, 기 설정된 재생시간을 갖는 영상을 생성하고,
상기 복수의 영상에 적어도 하나의 동적인 영상(video)이 포함된 경우,
상기 영상 콘텐츠는,
상기 기 설정된 재생시간을 갖는 영상 및 상기 동적인 영상 각각에 대하여 상기 특정 테마에 연계된 그래픽 처리가 수행된 동영상인 것을 특징으로 하는 테마를 갖는 콘텐츠 생성 시스템.
Pertaining to a system for generating content with a theme on electronic devices,
an input unit that selects a plurality of images to be edited using the electronic device;
A control unit that edits at least one video among the plurality of videos and generates video content with a specific theme using the plurality of videos,
The control unit,
If a static image is included among the plurality of images, an image with a preset playback time is generated using the static image,
When the plurality of images includes at least one dynamic video,
The video content is,
A content creation system with a theme, characterized in that the video is a video in which graphic processing linked to the specific theme has been performed on each of the video having the preset playback time and the dynamic video.
전자기기에서 하나 이상의 프로세스에 의하여 실행되며, 컴퓨터로 판독될 수 있는 기록매체에 저장 가능한 프로그램으로서,
상기 전자기기를 이용하여, 편집의 대상이 되는 복수의 영상을 선택받는 단계;
상기 복수의 영상 중 적어도 하나의 영상을 편집하는 단계;
상기 복수의 영상 각각에 대하여 특정 테마에 연계된 그래픽 처리를 수행하는 단계; 및
상기 복수의 영상을 이용하여, 상기 특정 테마를 갖는 영상 콘텐츠를 생성하는 단계를 수행하고,
상기 영상을 편집하는 단계에서는,
상기 복수의 영상 중 정적인 영상(static image)이 포함된 경우, 상기 정적인 영상을 이용하여, 기 설정된 재생시간을 갖는 영상을 생성하고,
상기 복수의 영상에 적어도 하나의 동적인 영상(video)이 포함된 경우,
상기 영상 콘텐츠는,
상기 기 설정된 재생시간을 갖는 영상 및 상기 동적인 영상 각각에 대하여 상기 특정 테마에 연계된 그래픽 처리가 수행된 동영상인 것을 특징으로 하는 명령어들을 포함하는 것을 특징으로 하는 컴퓨터로 판독될 수 있는 기록매체에 저장 가능한 프로그램.
A program that is executed by one or more processes in an electronic device and can be stored in a computer-readable recording medium,
selecting a plurality of images to be edited using the electronic device;
Editing at least one video among the plurality of videos;
performing graphic processing linked to a specific theme for each of the plurality of images; and
Performing the step of generating video content with the specific theme using the plurality of videos,
In the step of editing the video,
If a static image is included among the plurality of images, an image with a preset playback time is generated using the static image,
When the plurality of images includes at least one dynamic video,
The video content is,
A computer-readable recording medium comprising instructions that are characterized in that each of the video having the preset playback time and the dynamic video is a video in which graphic processing linked to the specific theme has been performed. Programs that can be saved.
삭제delete
KR1020210172420A 2020-03-13 2021-12-03 Method and system for creating content having themes KR102618205B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210172420A KR102618205B1 (en) 2020-03-13 2021-12-03 Method and system for creating content having themes

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200031148A KR102337498B1 (en) 2020-03-13 2020-03-13 Method and system for creating content having themes
KR1020210172420A KR102618205B1 (en) 2020-03-13 2021-12-03 Method and system for creating content having themes

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200031148A Division KR102337498B1 (en) 2020-03-13 2020-03-13 Method and system for creating content having themes

Publications (2)

Publication Number Publication Date
KR20210149678A KR20210149678A (en) 2021-12-09
KR102618205B1 true KR102618205B1 (en) 2023-12-27

Family

ID=77925437

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200031148A KR102337498B1 (en) 2020-03-13 2020-03-13 Method and system for creating content having themes
KR1020210172420A KR102618205B1 (en) 2020-03-13 2021-12-03 Method and system for creating content having themes

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020200031148A KR102337498B1 (en) 2020-03-13 2020-03-13 Method and system for creating content having themes

Country Status (1)

Country Link
KR (2) KR102337498B1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100392085B1 (en) * 2000-11-09 2003-07-22 전자부품연구원 Method for 3-Dimensional Messaging Using 3D Display System and The System
KR20170032760A (en) * 2015-09-15 2017-03-23 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR20180098072A (en) * 2017-02-24 2018-09-03 네모유엑스 주식회사 Advertising contents production method for digital signage and advertising contents providing system

Also Published As

Publication number Publication date
KR20210115408A (en) 2021-09-27
KR20210149678A (en) 2021-12-09
KR102337498B1 (en) 2021-12-08

Similar Documents

Publication Publication Date Title
US11474666B2 (en) Content presentation and interaction across multiple displays
WO2019205882A1 (en) Video production method and apparatus, computer device and storage medium
US20170325007A1 (en) Methods and systems for providing audiovisual media items
US8819553B2 (en) Generating a playlist using metadata tags
US10546010B2 (en) Method and system for storytelling on a computing device
US8930817B2 (en) Theme-based slideshows
US20140096002A1 (en) Video clip editing system
US20150341707A1 (en) Methods and Systems for Managing Media Items
JP2011527469A (en) Providing multiple levels of context for content consumed on computers and media players
CN111970571B (en) Video production method, device, equipment and storage medium
JP2011527786A (en) Providing multiple levels of context for content consumed on computers and media players
US20160012853A1 (en) Clip creation and collaboration
US11457176B2 (en) System and method for providing and interacting with coordinated presentations
CN105025378A (en) Subtitle inserting system and method
WO2020150693A1 (en) Systems and methods for generating personalized videos with customized text messages
KR20210154957A (en) Method and system for adding tag to video content
KR102618205B1 (en) Method and system for creating content having themes
KR20180023864A (en) Apparatus and method for creating image contents
US20150331869A1 (en) Method and system allowing users to easily contribute to a social composition
CN102982831A (en) Editing system for producing personalized audio and video
US8566733B2 (en) Apparatus and method for content management of a portable device
JP7277635B2 (en) Method and system for generating video content based on image-to-speech synthesis
KR20230167494A (en) Promotional Video Content Production Method and 3D Video Content Production System
CN113608652A (en) Video collaboration tool
WO2019036033A1 (en) System and method for providing and interacting with coordinated presentations

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant