KR102275194B1 - 스토리영상 제작 방법 및 시스템 - Google Patents

스토리영상 제작 방법 및 시스템 Download PDF

Info

Publication number
KR102275194B1
KR102275194B1 KR1020197030226A KR20197030226A KR102275194B1 KR 102275194 B1 KR102275194 B1 KR 102275194B1 KR 1020197030226 A KR1020197030226 A KR 1020197030226A KR 20197030226 A KR20197030226 A KR 20197030226A KR 102275194 B1 KR102275194 B1 KR 102275194B1
Authority
KR
South Korea
Prior art keywords
story
images
image
theme
frames
Prior art date
Application number
KR1020197030226A
Other languages
English (en)
Other versions
KR20190122860A (ko
Inventor
진정환
김성욱
최상호
박병선
이원효
정성엽
함노아
김지민
신형배
Original Assignee
스노우 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 스노우 주식회사 filed Critical 스노우 주식회사
Publication of KR20190122860A publication Critical patent/KR20190122860A/ko
Application granted granted Critical
Publication of KR102275194B1 publication Critical patent/KR102275194B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • G06F16/4387Presentation of query results by the use of playlists
    • G06F16/4393Multimedia presentations, e.g. slide shows, multimedia albums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/231Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Computer Security & Cryptography (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

스토리영상 제작 방법 및 시스템을 제공한다. 일실시예들에 따른 스토리영상 제작 방법에 따르면, 수집된 영상들에 알맞은 스토리의 테마(Thema)를 결정하고, 이러한 테마와 연계되는 템플릿의 프레임별로 알맞은 영상을 선택하여 배치함으로써, 특정한 스토리영상을 제작할 수 있다.

Description

스토리영상 제작 방법 및 시스템
아래의 설명은 스토리영상 제작 방법 및 시스템, 그리고 컴퓨터와 결합되어 스토리영상 제작 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램과 그 기록매체에 관한 것이다.
사용자의 영상들을 수집하고, 수집된 영상들을 편집하여 애니메이션이나 동영상 등을 생성 및 제공하는 종래기술이 존재한다. 예를 들어, 이러한 종래기술에서는 사용자가 단말에 저장된 영상들이나 또는 웹 상에 백업된 영상들 중 일부를 선택하면, 선택된 영상들을 결합하고, 음성이나 영상 효과 등을 추가로 결합하여 애니메이션이나 동영상 등을 생성하여 제공한다. 예를 들어, 한국공개특허 제10-2010-0001270호는 슬라이드 동영상 생성 장치 및 방법에 관한 것으로, 촬영되는 일정 개수의 영상을 촬영된 순서대로 결합하여 하나의 동영상 파일로 생성하는 기술을 개시하고 있다.
그러나, 이러한 종래기술들은 단순히 저장된 영상들 중 사용자에 의해 선택된 영상들이나 또는 일정한 조건하에서 촬영된 영상들을 일정한 순서(일례로, 사용자가 영상을 선택한 순서나, 영상들이 촬영된 순서, 영상들이 저장된 순서, 또는 영상들의 파일명이나 촬영 시각에 따라 정렬된 순서 등)에 따라 결합하여 애니메이션이나 동영상을 생성할 뿐, 특정한 스토리에 따른 영상들을 선별하여 스토리영상을 생성하거나 현재 존재하는 영상들에 알맞은 스토리를 제공하지는 못한다.
수집된 영상들에 알맞은 스토리의 테마(Thema)를 결정하고, 이러한 테마와 연계되는 템플릿의 프레임별로 알맞은 영상을 선택하여 배치함으로써, 특정한 스토리영상을 제작할 수 있는 스토리영상 제작 방법 및 시스템을 제공한다.
수집된 영상들에 알맞은 스토리를 생성하거나 또는 기 정의된 스토리들 중에서 수집된 영상에 알맞은 스토리를 선택하고, 생성 또는 선택된 스토리에 대응하는 템플릿의 프레임별로 알맞은 영상을 선택하여 배치함으로써, 생성 또는 선택되는 스토리에 알맞은 스토리영상을 제작할 수 있는 스토리영상 제작 방법 및 시스템을 제공한다.
스토리영상 제작 방법에 있어서, 복수의 영상들을 수집하는 단계; 상기 수집된 복수의 영상들 각각으로부터 캡션정보 및 메타정보를 추출하는 단계; 상기 추출된 캡션정보 및 메타정보에 기반하여 상기 수집된 복수의 영상들을 분류하고, 상기 분류된 영상들에 기반하여 제작하고자 하는 스토리의 테마를 결정하는 단계; 상기 결정된 스토리의 테마와 연계되는 적어도 하나의 템플릿 중 하나를 선택하는 단계 - 상기 적어도 하나의 템플릿 각각은 영상들을 배치하기 위한 복수의 프레임들을 포함하고, 상기 복수의 프레임들 각각에는 배치될 영상을 위한 적어도 하나의 키워드 또는 적어도 하나의 문장이 대응됨 -; 상기 복수의 프레임들 각각에 대응된 적어도 하나의 키워드 또는 적어도 하나의 문장과 상기 추출된 캡션정보 및 메타정보를 비교하여 상기 선택된 템플릿이 포함하는 복수의 프레임들 각각을 위한 영상을 상기 수집된 복수의 영상들 중에서 선택하는 단계; 및 상기 복수의 프레임들 각각에 상기 선택된 영상을 배치하여 스토리영상을 생성하는 단계를 포함하는 것을 특징으로 하는 스토리영상 제작 방법을 제공한다.
스토리영상 제작 방법에 있어서, 복수의 영상들을 수집하는 단계; 상기 수집된 복수의 영상들 각각으로부터 캡션정보 및 메타정보를 추출하는 단계; 상기 추출된 캡션정보 및 메타정보에 기반하여 스토리를 생성하거나 또는 기 정의된 스토리들 중 하나를 선택하는 단계; 상기 생성 또는 선택된 스토리에 대응하는 템플릿을 생성하는 단계 - 상기 생성된 템플릿은 영상들을 배치하기 위한 복수의 프레임들을 포함하고, 상기 복수의 프레임들 각각에는 상기 생성 또는 선택된 스토리와 연관된 적어도 하나의 키워드 또는 문장이 대응됨 -; 상기 복수의 프레임들에 대응된 적어도 하나의 키워드 또는 문장과 상기 추출된 캡션정보 및 메타정보를 비교하여 상기 생성된 템플릿이 포함하는 복수의 프레임들 각각을 위한 영상을 상기 수집된 복수의 영상들 중에서 선택하는 단계; 및 상기 복수의 프레임들 각각에 상기 선택된 영상을 배치하여 스토리영상을 생성하는 단계를 포함하는 것을 특징으로 하는 스토리영상 제작 방법을 제공한다.
상기 스토리영상 제작 방법을 컴퓨터에 실행시키기 위한 컴퓨터 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터 판독 가능한 기록매체를 제공한다.
컴퓨터와 결합하여 상기 스토리영상 제작 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 제공한다.
스토리영상 제작 시스템에 있어서, 컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 복수의 영상들을 수집하고, 상기 수집된 복수의 영상들 각각으로부터 캡션정보 및 메타정보를 추출하고, 상기 추출된 캡션정보 및 메타정보에 기반하여 상기 수집된 복수의 영상들을 분류하고, 상기 분류된 영상들에 기반하여 제작하고자 하는 스토리의 테마를 결정하고, 상기 결정된 스토리의 테마와 연계되는 적어도 하나의 템플릿 중 하나를 선택하고 - 상기 적어도 하나의 템플릿 각각은 영상들을 배치하기 위한 복수의 프레임들을 포함하고, 상기 복수의 프레임들 각각에는 배치될 영상을 위한 적어도 하나의 키워드 또는 적어도 하나의 문장이 대응됨 -, 상기 복수의 프레임들 각각에 대응된 적어도 하나의 키워드 또는 적어도 하나의 문장과 상기 추출된 캡션정보 및 메타정보를 비교하여 상기 선택된 템플릿이 포함하는 복수의 프레임들 각각을 위한 영상을 상기 수집된 복수의 영상들 중에서 선택하고, 상기 복수의 프레임들 각각에 상기 선택된 영상을 배치하여 스토리영상을 생성하는 것을 특징으로 하는 스토리영상 제작 시스템을 제공한다.
스토리영상 제작 시스템에 있어서, 컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 복수의 영상들을 수집하고, 상기 수집된 복수의 영상들 각각으로부터 캡션정보 및 메타정보를 추출하고, 상기 추출된 캡션정보 및 메타정보에 기반하여 스토리를 생성하거나 또는 기 정의된 스토리들 중 하나를 선택하고, 상기 생성 또는 선택된 스토리에 대응하는 템플릿을 생성하고 - 상기 생성된 템플릿은 영상들을 배치하기 위한 복수의 프레임들을 포함하고, 상기 복수의 프레임들 각각에는 상기 생성 또는 선택된 스토리와 연관된 적어도 하나의 키워드 또는 문장이 대응됨 -, 상기 복수의 프레임들에 대응된 적어도 하나의 키워드 또는 문장과 상기 추출된 캡션정보 및 메타정보를 비교하여 상기 생성된 템플릿이 포함하는 복수의 프레임들 각각을 위한 영상을 상기 수집된 복수의 영상들 중에서 선택하고, 상기 복수의 프레임들 각각에 상기 선택된 영상을 배치하여 스토리영상을 생성하는 것을 특징으로 하는 스토리영상 제작 시스템을 제공한다.
수집된 영상들에 알맞은 스토리의 테마(thema)를 결정하고, 이러한 테마와 연계되는 템플릿의 프레임별로 알맞은 영상을 선택하여 배치함으로써, 특정한 스토리영상을 제작할 수 있다.
수집된 영상들에 알맞은 스토리를 생성하거나 또는 기 정의된 스토리들 중에서 수집된 영상에 알맞은 스토리를 선택하고, 생성 또는 선택된 스토리에 대응하는 템플릿의 프레임별로 알맞은 영상을 선택하여 배치함으로써, 생성 또는 선택되는 스토리에 알맞은 스토리영상을 제작할 수 있다.
도 1은 본 발명의 일실시예에 따른 네트워크 환경의 예를 도시한 도면이다.
도 2는 본 발명의 일실시예에 있어서, 전자 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다.
도 3은 본 발명의 일실시예에 있어서, 스토리영상의 제작 환경의 예를 도시한 도면이다.
도 4는 본 발명의 일실시예에 따른 서버의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 블록도이다.
도 5는 본 발명의 일실시예에 따른 서버가 수행할 수 있는 스토리영상 제작 방법의 예를 도시한 흐름도이다.
도 6은 본 발명의 일실시예에 있어서, 스토리의 테마를 결정하는 과정의 예를 도시한 도면이다.
도 7은 본 발명의 일실시예에 있어서, 템플릿이 포함하는 프레임들 각각에 배치될 영상을 선정하는 예를 도시한 도면이다.
도 8은 본 발명의 일실시예에 따른 서버의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 블록도이다.
도 9는 본 발명의 일실시예에 따른 서버가 수행할 수 있는 스토리영상 제작 방법의 예를 도시한 흐름도이다.
도 10은 본 발명의 일실시예에 있어서, 스토리를 생성하는 예를 도시한 도면이다.
발명의 실시를 위한 최선의 형태
이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.
본 발명의 실시예들에 따른 스토리영상 제작 시스템은 이후 설명될 전자 기기나 서버를 통해 구현될 수 있으며, 본 발명의 실시예들에 따른 스토리영상 제작 방법은 상술한 전자 기기나 서버를 통해 수행될 수 있다. 이때, 전자 기기 또는 서버에는 본 발명의 일실시예에 따른 컴퓨터 프로그램이 설치 및 구동될 수 있고, 전자 기기 또는 서버는 구동된 컴퓨터 프로그램의 제어에 따라 본 발명의 일실시예에 따른 스토리영상 제작 방법을 수행할 수 있다. 상술한 컴퓨터 프로그램은 컴퓨터로 구현되는 전자 기기 또는 서버와 결합되어 스토리영상 제작 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장될 수 있다.
본 발명의 실시예들에서 "영상"은 사진, 동영상, 애니메이션 등의 시각적 컨텐츠들을 포괄하는 의미로 사용될 수 있다.
도 1은 본 발명의 일실시예에 따른 네트워크 환경의 예를 도시한 도면이다. 도 1의 네트워크 환경은 복수의 전자 기기들(110, 120, 130, 140), 복수의 서버들(150, 160) 및 네트워크(170)를 포함하는 예를 나타내고 있다. 이러한 도 1은 발명의 설명을 위한 일례로 전자 기기의 수나 서버의 수가 도 1과 같이 한정되는 것은 아니다.
복수의 전자 기기들(110, 120, 130, 140)은 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 복수의 전자 기기들(110, 120, 130, 140)의 예를 들면, 스마트폰(smart phone), 휴대폰, 네비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC 등이 있다. 일례로 도 1에서는 전자 기기 1(110)의 예로 스마트폰의 형상을 나타내고 있으나, 본 발명의 실시예들에서 전자 기기 1(110)은 실질적으로 무선 또는 유선 통신 방식을 이용하여 네트워크(170)를 통해 다른 전자 기기들(120, 130, 140) 및/또는 서버(150, 160)와 통신할 수 있는 다양한 물리적인 장치들 중 하나를 의미할 수 있다.
통신 방식은 제한되지 않으며, 네트워크(170)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(170)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(170)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.
서버(150, 160) 각각은 복수의 전자 기기들(110, 120, 130, 140)과 네트워크(170)를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다. 예를 들어, 서버(150)는 네트워크(170)를 통해 접속한 복수의 전자 기기들(110, 120, 130, 140)로 제1 서비스를 제공하는 시스템일 수 있으며, 서버(160) 역시 네트워크(170)를 통해 접속한 복수의 전자 기기들(110, 120, 130, 140)로 제2 서비스를 제공하는 시스템일 수 있다. 보다 구체적인 예로, 서버(150)는 복수의 전자 기기들(110, 120, 130, 140)에 설치되어 구동되는 컴퓨터 프로그램으로서의 어플리케이션을 통해, 해당 어플리케이션이 목적하는 서비스(일례로, 스토리영상 제작 서비스, 메시징 서비스, 메일 서비스 컨텐츠 전송 서비스 등)를 제1 서비스로서 제공할 수 있다. 다른 예로, 서버(160)는 상술한 어플리케이션의 설치 및 구동을 위한 파일을 복수의 전자 기기들(110, 120, 130, 140)로 배포하는 서비스를 제2 서비스로서 제공할 수 있다.
도 2는 본 발명의 일실시예에 있어서, 전자 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다. 도 2에서는 전자 기기에 대한 예로서 전자 기기 1(110), 그리고 서버(150)의 내부 구성을 설명한다. 또한, 다른 전자 기기들(120, 130, 140)이나 서버(160) 역시 상술한 전자 기기 1(110) 또는 서버(150)와 동일한 또는 유사한 내부 구성을 가질 수 있다.
전자 기기 1(110)과 서버(150)는 메모리(211, 221), 프로세서(212, 222), 통신 모듈(213, 223) 그리고 입출력 인터페이스(214, 224)를 포함할 수 있다. 메모리(211, 221)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM과 디스크 드라이브와 같은 비소멸성 대용량 기록장치는 메모리(211, 221)와는 구분되는 별도의 영구 저장 장치로서 전자 기기 1(110)나 서버(150)에 포함될 수도 있다. 또한, 메모리(211, 221)에는 운영체제와 적어도 하나의 프로그램 코드(일례로 전자 기기 1(110)에 설치되어 구동되는 브라우저나 특정 서비스의 제공을 위해 전자 기기 1(110)에 설치된 어플리케이션 등을 위한 코드)가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(211, 221)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 모듈(213, 223)을 통해 메모리(211, 221)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템(일례로, 상술한 서버(160))이 네트워크(170)를 통해 제공하는 파일들에 의해 설치되는 컴퓨터 프로그램(일례로 상술한 어플리케이션)에 기반하여 메모리(211, 221)에 로딩될 수 있다.
프로세서(212, 222)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(211, 221) 또는 통신 모듈(213, 223)에 의해 프로세서(212, 222)로 제공될 수 있다. 예를 들어 프로세서(212, 222)는 메모리(211, 221)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
통신 모듈(213, 223)은 네트워크(170)를 통해 전자 기기 1(110)과 서버(150)가 서로 통신하기 위한 기능을 제공할 수 있으며, 전자 기기 1(110) 및/또는 서버(150)가 다른 전자 기기(일례로 전자 기기 2(120)) 또는 다른 서버(일례로 서버(160))와 통신하기 위한 기능을 제공할 수 있다. 일례로, 전자 기기 1(110)의 프로세서(212)가 메모리(211)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신 모듈(213)의 제어에 따라 네트워크(170)를 통해 서버(150)로 전달될 수 있다. 역으로, 서버(150)의 프로세서(222)의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 통신 모듈(223)과 네트워크(170)를 거쳐 전자 기기 1(110)의 통신 모듈(213)을 통해 전자 기기 1(110)로 수신될 수 있다. 예를 들어 통신 모듈(213)을 통해 수신된 서버(150)의 제어 신호나 명령, 컨텐츠, 파일 등은 프로세서(212)나 메모리(211)로 전달될 수 있고, 컨텐츠나 파일 등은 전자 기기 1(110)가 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다.
입출력 인터페이스(214)는 입출력 장치(215)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(214)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(215)는 전자 기기 1(110)과 하나의 장치로 구성될 수도 있다. 또한, 서버(150)의 입출력 인터페이스(224)는 서버(150)와 연결되거나 서버(150)가 포함할 수 있는 입력 또는 출력을 위한 장치(미도시)와의 인터페이스를 위한 수단일 수 있다. 보다 구체적인 예로, 전자 기기 1(110)의 프로세서(212)가 메모리(211)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어서 서버(150)나 전자 기기 2(120)가 제공하는 데이터를 이용하여 구성되는 서비스 화면이나 컨텐츠가 입출력 인터페이스(214)를 통해 디스플레이에 표시될 수 있다.
또한, 다른 실시예들에서 전자 기기 1(110) 및 서버(150)는 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 전자 기기 1(110)은 상술한 입출력 장치(215) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다. 보다 구체적인 예로, 전자 기기 1(110)이 스마트폰인 경우, 일반적으로 스마트폰이 포함하고 있는 가속도 센서나 자이로 센서, 카메라 모듈, 각종 물리적인 버튼, 터치패널을 이용한 버튼, 입출력 포트, 진동을 위한 진동기 등의 다양한 구성요소들이 전자 기기 1(110)에 더 포함되도록 구현될 수 있다.
도 3은 본 발명의 일실시예에 있어서, 스토리영상의 제작 환경의 예를 도시한 도면이다. 도 3에서는 스토리영상 제작 서버(310)가 N 개의 클라이언트들(320)로 스토리영상 제작 서비스를 제공하는 실시예를 나타내고 있다. 예를 들어, 스토리영상 제작 서버(310)는 N 개의 클라이언트들(320) 중 특정 클라이언트(일례로, 클라이언트 1)의 요청에 따라 해당 클라이언트를 위한 스토리영상을 생성하여 해당 클라이언트로 제공할 수 있다. 실시예에 따라 스토리영상 제작 서버(310)는 클라이언트로부터의 별도의 요청 없이 임의로 스토리영상을 생성하여 해당 클라이언트에게 추천할 수도 있다. 여기서 스토리영상 제작 서버(310)는 앞서 설명한 서버(150)에 대응할 수 있고, 특정 클라이언트는 앞서 설명한 복수의 전자 기기들(110, 120, 130, 140) 중 하나에 대응할 수 있다.
생성되는 스토리영상은 특정 클라이언트와 연관된 영상들 중 적어도 일부를 이용하여 생성될 수 있다. 예를 들어, 특정 클라이언트가 설치된 사용자의 단말이 포함하는 로컬 저장소에 저장된 영상들 중 적어도 일부 및/또는 해당 클라이언트의 사용자의 소셜 네트워크 서비스의 계정과 연관하여 웹 상에 저장된 영상들 중 적어도 일부를 이용하여 해당 클라이언트를 위한 스토리영상이 생성될 수 있다. 이를 위해, 스토리영상 제작 서버(310)는 필요한 복수의 영상들을 수집할 수 있다. 예를 들어, 로컬 저장소에 저장된 영상들은 클라이언트를 통해 자동으로 스토리영상 제작 서버(310)의 데이터베이스에 백업될 수 있다. 이 경우, 스토리영상 제작 서버(310)는 데이터베이스에 저장된 영상들을 이용하여 해당 클라이언트를 위한 스토리영상을 생성할 수 있다.
도 3의 실시예에서는 서버-클라이언트 환경에서 스토리영상을 제작하는 예를 설명하였으나, 다른 실시예에서는 사용자의 단말에 저장된 클라이언트가 직접 스토리영상을 제작하기 위한 기능을 포함하도록 구현될 수도 있다. 예를 들어, 클라이언트는 단말이 포함하는 로컬 저장소에 저장된 영상들 중 적어도 일부나 또는 사용자의 소셜 네트워크 서비스의 계정과 연관하여 웹 상에 저장된 영상들 중 적어도 일부를 이용하여 스토리영상을 제작하기 위한 기능을 포함할 수 있다.
도 4는 본 발명의 일실시예에 따른 서버의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 블록도이고, 도 5는 본 발명의 일실시예에 따른 서버가 수행할 수 있는 스토리영상 제작 방법의 예를 도시한 흐름도이다.
본 발명의 실시예들에 따른 스토리영상 제작 시스템은 앞서 설명한 서버(150)와 같은 컴퓨터 장치의 형태로 구현될 수 있다. 또한, 도 4에 도시된 바와 같이 서버(150)의 프로세서(222)는 스토리영상 제작 시스템을 구현하기 위한 구성요소들로서 영상 수집부(410), 정보 추출부(420), 테마 결정부(430), 템플릿 선택부(440), 영상 선택부(450) 및 스토리영상 생성부(460)를 포함할 수 있다. 이러한 프로세서(222) 및 프로세서(222)의 구성요소들은 도 5의 스토리영상 제작 방법이 포함하는 단계들(510 내지 560)을 수행할 수 있다. 이때, 프로세서(222) 및 프로세서(222)의 구성요소들은 메모리(221)가 포함하는 운영체제의 코드나 적어도 하나의 프로그램의 코드에 따른 제어 명령(instruction)을 실행하도록 구현될 수 있다. 여기서, 프로세서(222)의 구성요소들은 서버(150)에 저장된 코드가 제공하는 제어 명령에 따라 프로세서(222)에 의해 수행되는 프로세서(222)의 서로 다른 기능들(different functions)의 표현들일 수 있다. 예를 들어, 프로세서(222)가 상술한 제어 명령에 따라 영상을 수집하도록 서버(150)를 제어하는 프로세서(222)의 기능적 표현으로 영상 수집부(410)가 사용될 수 있다.
단계(510)에서 영상 수집부(410)는 복수의 영상들을 수집할 수 있다. 복수의 영상들은 사용자의 단말이 포함하는 로컬 저장소에 저장된 영상들 및 사용자의 소셜 네트워크 서비스(Social Network Service, SNS)의 계정과 연관하여 웹 상에 저장된 영상들 중 어느 하나를 포함할 수 있다. 일례로, 사용자의 단말은 클라이언트를 위한 컴퓨터 프로그램이 설치된 전자 기기 1(110)에 대응될 수 있으며, 서버(150)가 네트워크(170)를 통해 전자 기기 1(110)의 로컬 저장소에 저장된 영상들을 수집할 수 있다. 다른 예로, 서버(150)는 사용자의 SNS의 계정에 기반하여 해당 SNS로부터 네트워크(170)를 통해 영상들을 수집할 수도 있다. 보다 구체적인 예로, 사용자가 SNS에 업로드한 영상들은 사용자의 계정과 연관하여 웹 상에 게시될 수 있으며, 서버(150)는 해당 SNS를 통해 게시된 영상들 중 사용자의 계정과 연관하여 게시된 영상들을 수집할 수 있다.
단계(520)에서 정보 추출부(420)는 수집된 복수의 영상들 각각으로부터 캡션정보 및 메타정보를 추출할 수 있다.
여기서, 캡션정보는 입력된 이미지로부터 이미지와 연관된 텍스트를 생성하는 머신 러닝 기반의 이미지 분석 기술을 통해 얻어지는 텍스트 정보를 포함할 수 있다. 입력된 이미지로부터 이미지와 연관된 텍스트 정보를 획득하는 기술들은 이미 잘 알려진 기술들을 통해 당업자가 쉽게 이해할 수 있을 것이다. 예를 들어, 텐서플로(TensorFlow)는 구글(Google)사에서 개발한 기계 학습(machine learning) 엔진. 검색, 음성 인식, 번역 등의 구글 앱에 사용되는 기계 학습용 엔진으로 이러한 텐서플로를 이용하여 이미지에서 텍스트 정보를 캡션정보로서 추출하는 기술이 존재한다. 정보 추출부(420)는 이러한 잘 알려진 기술들을 이용하여 수집된 영상에서 캡션정보를 추출할 수 있다.
또한, 메타정보는 수집된 영상이 포함하는 해당 영상의 생성 시각 및 생성 위치에 대한 정보를 포함할 수 있다. 예를 들어, 스마트폰이 포함하는 카메라를 이용하여 사진을 촬영함에 따라 생성되는 영상 파일에는 해당 사진이 촬영된 시각과 해당 사진이 촬영되는 시점의 스마트폰의 지리적 위치(일례로, GPS 좌표)가 포함될 수 있다. 즉, 정보 추출부(420)는 이러한 수집된 영상이 포함하는 생성 시각에 대한 정보와 생성 위치에 대한 정보를 메타정보로서 수집된 영상으로부터 추출할 수 있다.
추출된 캡션정보와 메타정보는 해당 영상과 연관하여 관리될 수 있다. 예를 들어, 수집된 영상의 식별자와 해당 영상의 캡션정보 및 메타정보가 서로 연계되어 데이터베이스에 저장될 수 있다.
단계(530)에서 테마 결정부(430)는 추출된 캡션정보 및 메타정보에 기반하여 수집된 복수의 영상들을 분류하고, 분류된 영상들에 기반하여 제작하고자 하는 스토리의 테마를 결정할 수 있다. 예를 들어, 테마 결정부(430)는 단계(530)에서 캡션정보가 포함하는 텍스트 정보, 영상의 생성 시각 및 영상의 생성 위치 중 적어도 둘 이상을 이용하여 수집된 복수의 영상들을 복수의 카테고리로 분류하고, 카테고리별 영상의 수에 기반하여 선택된 카테고리의 테마를 스토리의 테마로 결정할 수 있다.
예를 들어, 테마 결정부(430)는 생성 위치를 통해 확인되는 위치가 쇼핑몰 A 주변이고, 생성 시각이 일정 시간 간격 이내인 영상들을 "쇼핑" 카테고리로 분류할 수 있다. 다른 예로, 테마 결정부(430)는 생성 위치가 스포츠 경기장 B 주변이고, 생성 시각이 일정 시간 간격 이내인 영상들을 "경기 관람" 카테고리로 분류할 수 있다.
또한, 필요에 따라 사용자에 대한 등록된 프로필이나 평소 사용자에 대해 수집된 개인정보들이 이러한 영상들의 분류에 더 활용될 수도 있다. 예를 들어, 테마 결정부(430)는 사용자의 프로필에 저장된 주소정보를 활용하여, 생성 위치가 주소정보를 통해 특정되는 위치 주변이고, 생성 시각이 일정 시간 간격 이내인 영상들을 "일상" 카테고리로 분류할 수 있다. 또 다른 예로, 생성 위치가 주소정보를 통해 특정되는 위치에서 기설정된 거리 이상 벗어난 지역이고, 생성 시각이 일정 시간 간격 이내(일례로, 2일 이상의 시간 간격)인 영상들을 "여행" 카테고리로 분류할 수 있다.
이러한 사용자의 개인정보들을 활용하는 경우, 보다 다양한 카테고리의 분류가 가능해질 수 있다. 예를 들어, 사용자 A의 집의 위치와 학교의 위치, 그리고 사용자의 등교 시간과 하교 시간 등을 특정할 수 있다면, "등교길" 카테고리나 "하교길" 카테고리로 영상을 분류하는 것 역시 가능할 것이다.
또한, 영상의 캡션정보를 이용하여 스키와 관련된 텍스트 정보가 추출되고, 생성 위치가 스키장 주변인 영상들을 "스키 타기" 카테고리로 분류할 수 있으며, 기차와 관련된 텍스트 정보가 추출되고, 생성 위치가 기차역 주변인 영상들을 "기차 여행" 카테고리로 분류할 수도 있다.
또한, 카테고리는 미리 설정된 카테고리들 중에서 유사도가 가장 높은 하나의 카테고리가 선택될 수도 있으며, 다른 실시예로, 캡션정보나 메타정보를 통해 추출되는 키워드(앞서 설명한 "쇼핑몰 A", "스포츠 경기장 B", "스키", "기차" 등)를 통해 미리 설정되지 않은 새로운 카테고리가 생성될 수도 있다.
이처럼, 캡션정보와 메타정보를 이용하여 매우 다양한 카테고리의 분류가 가능함을 당업자가 쉽게 이해할 수 있을 것이다.
또한, 앞서 설명한 바와 같이, 테마 결정부(430)는 분류된 영상들에 기반하여 스토리의 테마를 결정할 수 있다. 예를 들어, 카테고리별 영상의 수가 가장 많은 카테고리의 테마가 스토리의 테마로 결정될 수 있다. 다른 예로, 카테고리별 영상의 수가 임계치 이상인 카테고리들의 테마들 중 하나가 스토리의 테마로 결정될 수도 있다. 보다 구체적인 예로, 카테고리별 영상의 수가 임계치 이상인 카테고리들의 테마들의 리스트를 사용자에게 제공하고, 사용자가 리스트를 통해 선택하는 테마가 스토리의 테마로 결정될 수 있다. 이를 위해, 서버(150)는 테마들의 리스트를 네트워크(170)를 통해 전자 기기 1(110)로 전송할 수 있다. 이 경우, 전자 기기 1(110)은 테마들의 리스트를 수신하여 화면에 표시할 수 있으며, 리스트에서 테마를 선택할 수 있는 기능을 사용자에게 제공할 수 있다. 이러한 테마들의 리스트의 표시나 테마의 선택 기능은 전자 기기 1(110)에 설치된 컴퓨터 프로그램의 제어에 따라 이루어질 수 있다. 또한, 사용자에 의해 선택된 테마에 대한 정보가 네트워크(170)를 통해 서버(150)로 전달될 수 있다.
단계(540)에서 템플릿 선택부(440)는 결정된 스토리의 테마와 연계되는 적어도 하나의 템플릿 중 하나를 선택할 수 있다. 이때, 적어도 하나의 템플릿 각각은 영상들을 배치하기 위한 복수의 프레임들을 포함할 수 있고, 복수의 프레임들 각각에는 배치될 영상을 위한 적어도 하나의 키워드 및/또는 적어도 하나의 문장이 대응될 수 있다.
예를 들어, 미리 설정된 카테고리들은 해당 카테고리의 테마와 연관된 적어도 하나의 템플릿이 미리 생성 및 설정되어 있을 수 있다. 이때, 템플릿 선택부(440)는 결정된 스토리의 테마와 연관하여 미리 생성 및 설정된 템플릿 중 하나를 선택할 수 있다. 또는 결정된 스토리의 테마와 연관하여 사용자가 직접 템플릿을 생성 및 설정할 수도 있다. 이 경우, 전자 기기 1(110)에 설치된 컴퓨터 프로그램은 이러한 템플릿의 생성 및 설정을 위한 기능을 제공할 수 있다. 예를 들어, 컴퓨터 프로그램은 생성될 템플릿이 포함하게 될 프레임의 수와 각 프레임에 대응하는 키워드 및/또는 문장을 입력받을 수 있다. 보다 구체적인 예로, "여행" 테마와 연관된 템플릿을 생성하기 위해, 프레임의 수를 5로 지정하고, 이러한 5의 지정을 통해 생성되는 5 개의 프레임들 각각에 대해 키워드 및/또는 문장을 입력받기 위한 기능이 사용자에게 제공될 수 있다. 여기서 프레임에 대응되는 키워드 및/또는 문장은 해당 프레임에 배치하기 위한 영상의 선택을 위해 이용될 수 있다.
단계(550)에서 영상 선택부(450)는 복수의 프레임들 각각에 대응된 적어도 하나의 키워드 또는 적어도 하나의 문장과 추출된 캡션정보 및 메타정보를 비교하여 선택된 템플릿이 포함하는 복수의 프레임들 각각을 위한 영상을 수집된 복수의 영상들 중에서 선택할 수 있다. 예를 들어, 영상 선택부(450)는 복수의 프레임들 중 제1 프레임에 대응된 키워드 및/또는 문장을, 선택된 카테고리로 분류된 영상들의 텍스트 정보 및/또는 메타정보를 통해 추출되는 키워드와 비교하여, 제1 프레임에 배치하기 위한 영상을 선택된 카테고리로 분류된 영상들 중에서 선택할 수 있다.
보다 구체적인 예로, 제1 프레임에 대응된 문장이 "스키 타기"이고, 제1 영상의 캡션정보로서 포함된 텍스트 정보가 "남자가 스키를 탄다"이며, 제1 영상의 생성 위치를 통해 식별되는 위치가 "스키장 A"인 경우, 제1 프레임을 위한 영상으로서 제1 영상이 선택될 수 있다.
단계(560)에서 스토리영상 생성부(460)는 복수의 프레임들 각각에 선택된 영상을 배치하여 스토리영상을 생성할 수 있다. 예를 들어, 5 개의 프레임들 각각에 대해 5 개의 영상들이 선택된 경우, 선택된 5 개의 영상들이 각각 해당하는 프레임들에 배치될 수 있고, 이러한 영상들을 통해 스토리영상이 생성될 수 있다. 이때, 5 개의 영상들은 템플릿이 갖는 스토리의 순서에 따라 개별 프레임별로 선정된 것이기 때문에, 단순히 저장 순서나 촬영 순서에 따라 결합된 영상들보다 더욱 완성도 있는 스토리영상을 제공할 수 있게 된다.
이미 설명한 바와 같이, 다른 실시예에 따른 스토리영상 제작 시스템은 앞서 설명한 전자 기기 1(110)과 같은 컴퓨터 장치의 형태로 구현될 수도 있다. 이 경우, 앞서 설명한 구성요소들인 영상 수집부(410), 정보 추출부(420), 테마 결정부(430), 템플릿 선택부(440), 영상 선택부(450) 및 스토리영상 생성부(460)는 전자 기기 1(110)의 프로세서(212)에 포함될 수 있으며, 이러한 전자 기기 1(110)의 프로세서(212)와 그 구성요소들을 통해 도 5의 스토리영상 제작 방법이 수행될 수 있다. 예를 들어, 영상 수집부(410)는 단계(510)에서 전자 기기 1(110)의 로컬 저장소에 저장된 영상들을 수집하거나 또는 전자 기기 1(110)의 사용자의 SNS 계정을 이용하여 SNS로부터 영상을 수집할 수도 있다.
도 6은 본 발명의 일실시예에 있어서, 스토리의 테마를 결정하는 과정의 예를 도시한 도면이다. 도 6은 n 개의 영상들(610)이 m 개의 미리 설정된 카테고리들(620)로 분류된 예를 나타내고 있다. 이미 설명한 바와 같이, n 개의 영상들(610)로부터 추출된 캡션정보와 메타정보에 기반하여 새로운 카테고리가 추가될 수도 있으나, 설명의 편의를 위해 n 개의 영상들(610)이 m 개의 미리 설정된 카테고리들(620)로 분류된 예를 설명한다.
이때, 도 6의 실시예는 분류된 영상의 수가 15로 가장 많은 카테고리 1(621)의 테마가 스토리의 테마로 결정되는 예를 나타내고 있다. 이미 설명한 바와 같이, 스토리영상 제작 시스템은 영상의 수가 임계값 이상의 카테고리의 테마들의 리스트를 사용자에게 제공하고, 사용자로부터 리스트에서 선택되는 테마를 스토리의 테마로 수신할 수도 있다.
스토리의 테마가 결정된 후에는 결정된 테마와 연계되는 템플릿이 선택될 수 있으며, 템플릿이 포함하는 프레임들에 배치될 영상들이 선택될 수 있다. 이때, 해당 프레임들에 배치될 영상들은 수집된 전체 영상들에서 선택될 수도 있지만, 연산량을 줄이기 위해 선택된 카테고리인 '카테고리 1'로 분류된 영상들 중에서 선택될 수도 있다.
도 7은 본 발명의 일실시예에 있어서, 템플릿이 포함하는 프레임들 각각에 배치될 영상을 선정하는 예를 도시한 도면이다. 도 7은 분류된 영상의 수가 15인 카테고리 1(621)의 테마가 스토리 A(710)의 테마(테마 B)로 결정된 예를 나타내고 있다. 이때, 테마 B와 연계되는 템플릿 C(720)가 선택될 수 있다.
이러한 템플릿 C(720)는 테마 B에 대해 미리 생성 및 설정된 템플릿들 중 하나일 수 있으며, 실시예에 따라 사용자에 의해 테마 B와 연관하여 직접 생성되는 템플릿일 수도 있다.
도 7의 실시예에서는 선택된 템플릿 C(720)가 프레임 a(721), 프레임 b(722) 및 프레임 c(723)를 포함하는 예를 설명하고 있다. 하나의 템플릿이 포함할 수 있는 프레임의 수는 특별히 제한될 필요가 없으며 필요에 따라 적정한 숫자로 설정될 수 있음을 당업자가 쉽게 이해할 수 있을 것이다.
스토리영상 제작 시스템은 이러한 프레임 a(721), 프레임 b(722) 및 프레임 c(723) 각각에 배치될 영상을 카테고리 1(621)로 분류된 15 개의 영상들 중에서 선택할 수 있다. 실시예에 따라 프레임들에 배치될 영상은 수집된 전체 영상들 중에서 선택될 수도 있으나, 스토리와의 연관성을 보다 높이고 연산량을 줄이기 위해 도 7의 실시예에서와 같이 선택된 카테고리(카테고리 1(621))에서 선택될 수 있다.
프레임들 각각에 대해 배치될 영상들이 선택된 후, 스토리영상 제작 시스템은 이러한 프레임들에 영상들을 배치함으로써, 스토리영상을 생성할 수 있다. 이때, 배치되는 영상들은 스토리에 따른 프레임별로 선택된 영상이기 때문에 단순히 촬영 순서나 저장 순서 등에 따라 배열되는 영상들에 비해 보다 완성도 있는 스토리영상을 제작할 수 있게 한다.
이를 위해, 템플릿이 포함하는 프레임들은 스토리의 진행에 따른 키워드 및/또는 문장을 포함할 수 있다. 스토리의 진행에 따른 키워드 및/또는 문장은 이미 제작된(특히 사람의 편집을 통해 제작된) 스토리영상들의 테마와 영상들로부터 추출되는 캡션정보 및 메타정보를 이용하여 선정될 수 있다. 예를 들어, 기 제작된 스토리영상의 테마가 "여행"이고, 스토리영상의 영상들로부터 추출되는 캡션정보들이 영상의 순서대로 "사람이 쇼핑을 한다" → "사람이 비행기 좌석에 앉아 있다" → "사람이 음식을 먹는다" → "사람이 해변가에 서 있다" → "사람이 침대 위에 앉아 있다"인 경우, 5 개의 프레임에 상술한 5 개의 캡션정보들이 문장으로 대응되는 템플릿(스토리 플롯(plot))이 생성될 수 있다.
개별 프레임에 대응하는 키워드나 문장에 배치될 영상을 선택하는 것은, 영상의 캡션정보 및/또는 메타정보를 통해 추출되는 키워드나 문장을 통해 이루어질 수 있다. 이러한 영상의 선택 예들은 앞서 자세히 설명한 바 있다.
이상에서는, 수집된 영상들의 테마를 통해 연계된 템플릿을 선택 및 활용하여 스토리영상을 생성하는 실시예들을 설명하였다. 이하에서는 수집된 영상들을 이용하여 먼저 스토리를 생성 또는 선택하고, 생성 또는 선택된 스토리에 대응하는 템플릿을 생성 및 활용하여 스토리영상을 생성하는 실시예들을 설명한다. 다시 말해, 이전 실시예들에서 선정된 테마에 맞는 영상을 선택하여 스토리영상을 생성하였다면, 이후 실시예들에서는 영상들에 따라 스토리를 생성 또는 선택한 후, 생성 또는 선택된 스토리에 맞는 영상을 선택하여 스토리영상을 생성할 수 있다.
도 8은 본 발명의 일실시예에 따른 서버의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 블록도이고, 도 9는 본 발명의 일실시예에 따른 서버가 수행할 수 있는 스토리영상 제작 방법의 예를 도시한 흐름도이다.
본 실시예에 따른 스토리영상 제작 시스템은 앞서 설명한 서버(150)와 같은 컴퓨터 장치의 형태로 구현될 수 있다. 또한, 도 8에 도시된 바와 같이 서버(150)의 프로세서(222)는 스토리영상 제작 시스템을 구현하기 위한 구성요소들로서 영상 수집부(810), 정보 추출부(820), 스토리부(830), 템플릿 생성부(840), 영상 선택부(850) 및 스토리영상 생성부(860)를 포함할 수 있다. 이러한 프로세서(222) 및 프로세서(222)의 구성요소들은 도 9의 스토리영상 제작 방법이 포함하는 단계들(910 내지 960)을 수행할 수 있다. 이때, 프로세서(222) 및 프로세서(222)의 구성요소들은 메모리(221)가 포함하는 운영체제의 코드나 적어도 하나의 프로그램의 코드에 따른 제어 명령(instruction)을 실행하도록 구현될 수 있다. 여기서, 프로세서(222)의 구성요소들은 서버(150)에 저장된 코드가 제공하는 제어 명령에 따라 프로세서(222)에 의해 수행되는 프로세서(222)의 서로 다른 기능들(different functions)의 표현들일 수 있다. 예를 들어, 프로세서(222)가 상술한 제어 명령에 따라 영상을 수집하도록 서버(150)를 제어하는 프로세서(222)의 기능적 표현으로 영상 수집부(810)가 사용될 수 있다.
단계(910)에서 영상 수집부(810)는 복수의 영상들을 수집할 수 있다. 이미 설명한 바와 같이, 복수의 영상들은 사용자의 단말이 포함하는 로컬 저장소에 저장된 영상들 및 사용자의 소셜 네트워크 서비스(Social Network Service, SNS)의 계정과 연관하여 웹 상에 저장된 영상들 중 어느 하나를 포함할 수 있다. 일례로, 사용자의 단말은 클라이언트를 위한 컴퓨터 프로그램이 설치된 전자 기기 1(110)에 대응될 수 있으며, 서버(150)가 네트워크(170)를 통해 전자 기기 1(110)의 로컬 저장소에 저장된 영상들을 수집할 수 있다. 다른 예로, 서버(150)는 사용자의 SNS의 계정에 기반하여 해당 SNS로부터 네트워크(170)를 통해 영상들을 수집할 수도 있다. 보다 구체적인 예로, 사용자가 SNS에 업로드한 영상들은 사용자의 계정과 연관하여 웹 상에 게시될 수 있으며, 서버(150)는 해당 SNS를 통해 게시된 영상들 중 사용자의 계정과 연관하여 게시된 영상들을 수집할 수 있다.
단계(920)에서 정보 추출부(820)는 수집된 복수의 영상들 각각으로부터 캡션정보 및 메타정보를 추출할 수 있다.
여기서, 캡션정보는 입력된 이미지로부터 이미지와 연관된 텍스트를 생성하는 머신 러닝 기반의 이미지 분석 기술을 통해 얻어지는 텍스트 정보를 포함할 수 있다. 입력된 이미지로부터 이미지와 연관된 텍스트 정보를 획득하는 기술들은 이미 잘 알려진 기술들을 통해 당업자가 쉽게 이해할 수 있을 것이다. 예를 들어, 텐서플로(TensorFlow)는 구글(Google)사에서 개발한 기계 학습(machine learning) 엔진. 검색, 음성 인식, 번역 등의 구글 앱에 사용되는 기계 학습용 엔진으로 이러한 텐서플로를 이용하여 이미지에서 텍스트 정보를 캡션정보로서 추출하는 기술이 존재한다. 정보 추출부(820)는 이러한 잘 알려진 기술들을 이용하여 수집된 영상에서 캡션정보를 추출할 수 있다.
또한, 메타정보는 수집된 영상이 포함하는 해당 영상의 생성 시각 및 생성 위치에 대한 정보를 포함할 수 있다. 예를 들어, 스마트폰이 포함하는 카메라를 이용하여 사진을 촬영함에 따라 생성되는 영상 파일에는 해당 사진이 촬영된 시각과 해당 사진이 촬영되는 시점의 스마트폰의 지리적 위치(일례로, GPS 좌표)가 포함될 수 있다. 즉, 정보 추출부(820)는 이러한 수집된 영상이 포함하는 생성 시각에 대한 정보와 생성 위치에 대한 정보를 메타정보로서 수집된 영상으로부터 추출할 수 있다.
추출된 캡션정보와 메타정보는 해당 영상과 연관하여 관리될 수 있다. 예를 들어, 수집된 영상의 식별자와 해당 영상의 캡션정보 및 메타정보가 서로 연계되어 데이터베이스에 저장될 수 있다.
단계(930)에서 스토리부(830)는 추출된 캡션정보 및 메타정보에 기반하여 스토리를 생성하거나 또는 기 정의된 스토리들 중 하나를 선택할 수 있다. 예를 들어, 스토리부(830)는 캡션정보가 포함하는 텍스트 정보, 메타정보가 포함하는 생성 시각 및 생성 위치 중 적어도 둘 이상을 이용하여 수집된 복수의 영상들을 복수의 카테고리로 분류할 수 있으며, 카테고리별 영상의 수에 기반하여 선택된 카테고리의 테마 및 텍스트 정보가 포함하는 적어도 하나의 키워드를 이용하여 새로운 스토리를 정의할 수 있다. 다른 예로, 스토리부(830)는 카테고리별 영상의 수에 기반하여 선택된 카테고리의 테마 및 텍스트 정보가 포함하는 적어도 하나의 키워드를 기 정의된 스토리들과 비교하여 기 정의된 스토리들 중에서 하나의 스토리를 선택할 수 있다. 다시 말해, 수집된 영상들에 알맞은 스토리를 새로 만들거나 또는 미리 생성되어 있는 스토리들 중에서 수집된 영상들에 알맞은 스토리를 선택할 수 있다.
예를 들어, 수집된 영상들에서 생성 시각이 일정 시간 간격 내에 존재하는 영상들로부터 추출한 캡션정보가 생성 시각의 순서대로 "사람이 쇼핑을 한다" → "사람이 비행기 좌석에 앉아 있다" → "사람이 음식을 먹는다" → "사람이 해변가에 서 있다" → "사람이 침대 위에 앉아 있다"인 경우, 이러한 캡션정보들이 새로운 스토리로서 정의될 수 있다. 또는 기 정의된 스토리들 중에서 이러한 캡션정보들과 유사한 순서의 정보를 갖는 스토리가 선택될 수 있다.
또는 영상들의 생성 시각의 순서에 따른 생성 위치들로부터 "대한민국/서울" → "대한민국/인천공항" → "일본/나리타공항"과 같은 키워드들이 추출되는 경우, 이러한 생성 시각의 순서에 따른 키워드들이 새로운 스토리로서 정의될 수 있다.
단계(940)에서 템플릿 생성부(840)는 생성 또는 선택된 스토리에 대응하는 템플릿을 생성할 수 있다. 이때, 생성된 템플릿은 영상들을 배치하기 위한 복수의 프레임들을 포함하고, 복수의 프레임들 각각에는 생성 또는 선택된 스토리와 연관된 적어도 하나의 키워드 또는 문장이 대응될 수 있다. 상술한 키워드들의 예에서 템플릿 생성부(840)는 "대한민국/서울/지하철"에 대응되는 프레임 1과 "대한민국/인천공항"에 대응되는 프레임 2, 그리고 "일본/나리타공항"에 대응되는 프레임 3을 포함하는 템플릿을 생성할 수 있다.
단계(550)에서 영상 선택부(850)는 복수의 프레임들 각각에 대응된 적어도 하나의 키워드 또는 적어도 하나의 문장과 추출된 캡션정보 및 메타정보를 비교하여 선택된 템플릿이 포함하는 복수의 프레임들 각각을 위한 영상을 수집된 복수의 영상들 중에서 선택할 수 있다. 예를 들어, 영상 선택부(850)는 복수의 프레임들 중 제1 프레임에 대응된 키워드 및/또는 문장을, 선택된 카테고리로 분류된 영상들의 텍스트 정보 및/또는 메타정보를 통해 추출되는 키워드와 비교하여, 제1 프레임에 배치하기 위한 영상을 선택된 카테고리로 분류된 영상들 중에서 선택할 수 있다.
보다 구체적인 예로, 프레임 1에 대응된 키워드가 "대한민국/인천공항"인 경우, 선택된 카테고리로 분류된 영상들(또는 수집된 영상들)에서 해당 키워드와 관련된 영상이 선택될 수 있다. 이러한 영상의 선택은 키워드 "대한민국/인천공항"과 영상들의 캡션정보 및 메타정보를 통해 추출되는 키워드들간의 비교를 통해 이루어질 수 있다.
단계(560)에서 스토리영상 생성부(460)는 복수의 프레임들 각각에 선택된 영상을 배치하여 스토리영상을 생성할 수 있다. 예를 들어, 5 개의 프레임들 각각에 대해 5 개의 영상들이 선택된 경우, 선택된 5 개의 영상들이 각각 해당하는 프레임들에 배치될 수 있고, 이러한 영상들을 통해 스토리영상이 생성될 수 있다. 이때, 5 개의 영상들은 템플릿이 갖는 스토리의 순서에 따라 개별 프레임별로 선정된 것이기 때문에, 단순히 저장 순서나 촬영 순서에 따라 결합된 영상들보다 더욱 완성도 있는 스토리영상을 제공할 수 있게 된다. 또한, 본 실시예에서는 스토리 자체가 수집된 영상들에 기반하여 생성(또는 기 정의된 스토리들 중에서 유사한 스토리가 선택)된 것이기 때문에 더욱 완성도 있는 스토리영상을 제작할 수 있게 된다.
스토리영상 제작 방법이 전자 기기에 설치된 컴퓨터 프로그램의 기능을 통해 수행될 수도 있음은 이미 설명한 바 있다.
도 10은 본 발명의 일실시예에 있어서, 스토리를 생성하는 예를 도시한 도면이다. 도 10은 생성 시각 순으로 정렬된 K 개의 영상들(1010) 각각에서 생성 위치들과 캡션정보들을 포함하는 정보들(1020)을 추출하고, 이 중 생성 위치들에 기반하여 캡션정보들을 지역별로 분류한 정보들(1030)을 나타내고 있다. 본 실시예에서 스토리영상 제작 시스템은 이러한 생성 시각 순으로 정렬되고 지역별로 분류된 캡션정보들에 기반하여, 지역별로 적어도 하나의 키워드 및/또는 적어도 하나의 문장을 추출하여 지역별 스토리를 생성할 수 있다. 도 10에서는 단순히 시간과 지역에 따라 스토리를 생성하는 예를 설명하고 있으나, 다양한 분류로 키워드나 문장의 시퀀스들을 추출하여 스토리를 생성할 수 있음을 당업자가 쉽게 이해할 수 있을 것이다. 또한, 추출된 키워드나 문장의 시퀀스를 이용하여 기 정의된 스토리들에서 유사한 스토리를 선택 및 활용할 수도 있다.
이상에서와 같이, 본 발명의 실시예들에 따르면, 수집된 영상들에 알맞은 스토리의 테마(thema)를 결정하고, 이러한 테마와 연계되는 템플릿의 프레임별로 알맞은 영상을 선택하여 배치함으로써, 특정한 스토리영상을 제작할 수 있다. 또한, 수집된 영상들에 알맞은 스토리를 생성하거나 또는 기 정의된 스토리들 중에서 수집된 영상에 알맞은 스토리를 선택하고, 생성 또는 선택된 스토리에 대응하는 템플릿의 프레임별로 알맞은 영상을 선택하여 배치함으로써, 생성 또는 선택되는 스토리에 알맞은 스토리영상을 제작할 수 있다.
이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 소프트웨어 구성요소 또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 이러한 기록매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있으며, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
발명의 실시를 위한 형태
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (18)

  1. 스토리영상 제작 방법에 있어서,
    복수의 영상들을 수집하는 단계;
    상기 수집된 복수의 영상들 각각으로부터 캡션정보 및 메타정보를 추출하는 단계;
    상기 추출된 캡션정보 및 메타정보에 기반하여 상기 수집된 복수의 영상들을 분류하고, 상기 분류된 영상들에 기반하여 제작하고자 하는 스토리의 테마를 결정하는 단계;
    상기 결정된 스토리의 테마와 연계되는 적어도 하나의 템플릿 중 하나를 선택하는 단계 - 상기 적어도 하나의 템플릿 각각은 영상들을 배치하기 위한 복수의 프레임들을 포함하고, 상기 복수의 프레임들 각각에는 배치될 영상을 위한 적어도 하나의 키워드 또는 적어도 하나의 문장이 대응됨 -;
    상기 복수의 프레임들 각각에 대응된 적어도 하나의 키워드 또는 적어도 하나의 문장과 상기 추출된 캡션정보 및 메타정보를 비교하여 상기 선택된 템플릿이 포함하는 복수의 프레임들 각각을 위한 영상을 상기 수집된 복수의 영상들 중에서 선택하는 단계; 및
    상기 복수의 프레임들 각각에 상기 선택된 영상을 배치하여 스토리영상을 생성하는 단계
    를 포함하고,
    상기 스토리의 테마를 결정하는 단계는,
    상기 메타정보가 포함하는 영상의 생성 시각 및 생성 위치를 이용하여 상기 생성 위치가 기설정된 제1 거리 이내의 위치이거나 또는 상기 생성 위치가 특정 위치에서 기설정된 제2 거리 이상 벗어난 위치이면서 동시에 상기 생성 시각이 일정 시간 간격 이내에 포함되는 영상들을 하나의 카테고리로 분류함으로써 상기 복수의 영상들을 복수의 카테고리로 분류하고, 카테고리별 영상의 수에 기반하여 상기 복수의 카테고리 중에서 하나의 카테고리를 선택하고, 상기 선택된 카테고리의 테마를 상기 스토리의 테마로 결정하는 것을 특징으로 하는 스토리영상 제작 방법.
  2. 제1항에 있어서,
    상기 수집된 복수의 영상들은, 사용자의 단말이 포함하는 로컬 저장소에 저장된 영상들 및 상기 사용자의 소셜 네트워크 서비스의 계정과 연관하여 웹 상에 저장된 영상들 중 어느 하나를 포함하는 것을 특징으로 하는 스토리영상 제작 방법.
  3. 제1항에 있어서,
    상기 캡션정보는, 입력된 이미지로부터 상기 이미지와 연관된 텍스트를 생성하는 머신 러닝 기반의 이미지 분석 기술을 통해 얻어지는 텍스트 정보를 포함하는 것을 특징으로 하는 스토리영상 제작 방법.
  4. 제3항에 있어서,
    상기 스토리의 테마를 결정하는 단계는,
    상기 텍스트 정보를 더 이용하여 상기 수집된 복수의 영상들을 복수의 카테고리로 분류하고, 카테고리별 영상의 수에 기반하여 선택된 카테고리의 테마를 상기 스토리의 테마로 결정하는 것을 특징으로 하는 스토리영상 제작 방법.
  5. 제1항에 있어서,
    상기 선택하는 단계는,
    상기 복수의 프레임들 중 제1 프레임에 대응된 키워드 또는 문장을, 상기 선택된 카테고리로 분류된 영상들의 텍스트 정보 및 메타정보를 통해 추출되는 키워드 중 적어도 하나와 비교하여, 상기 제1 프레임에 배치하기 위한 영상을 상기 선택된 카테고리로 분류된 영상들 중에서 선택하는 것을 특징으로 하는 스토리영상 제작 방법.
  6. 스토리영상 제작 방법에 있어서,
    복수의 영상들을 수집하는 단계;
    상기 수집된 복수의 영상들 각각으로부터 캡션정보 및 메타정보를 추출하는 단계;
    상기 추출된 캡션정보 및 메타정보에 기반하여 스토리를 생성하거나 또는 기 정의된 스토리들 중 하나를 선택하는 단계;
    상기 생성 또는 선택된 스토리에 대응하는 템플릿을 생성하는 단계 - 상기 생성된 템플릿은 영상들을 배치하기 위한 복수의 프레임들을 포함하고, 상기 복수의 프레임들 각각에는 상기 생성 또는 선택된 스토리와 연관된 적어도 하나의 키워드 또는 문장이 대응됨 -;
    상기 복수의 프레임들에 대응된 적어도 하나의 키워드 또는 문장과 상기 추출된 캡션정보 및 메타정보를 비교하여 상기 생성된 템플릿이 포함하는 복수의 프레임들 각각을 위한 영상을 상기 수집된 복수의 영상들 중에서 선택하는 단계; 및
    상기 복수의 프레임들 각각에 상기 선택된 영상을 배치하여 스토리영상을 생성하는 단계
    를 포함하고,
    상기 스토리를 생성하거나 또는 기 정의된 스토리들 중 하나를 선택하는 단계는,
    상기 메타정보가 포함하는 영상의 생성 시각 및 생성 위치를 이용하여 상기 생성 위치가 기설정된 제1 거리 이내의 위치이거나 또는 상기 생성 위치가 특정 위치에서 기설정된 제2 거리 이상 벗어난 위치이면서 동시에 상기 생성 시각이 일정 시간 간격 이내에 포함되는 영상들을 하나의 카테고리로 분류함으로써 상기 복수의 영상들을 복수의 카테고리로 분류하고, 카테고리별 영상의 수에 기반하여 상기 복수의 카테고리 중에서 하나의 카테고리를 선택하고, 상기 선택된 카테고리의 테마를 상기 스토리의 테마로 결정하는 단계를 포함하는 것을 특징으로 하는 스토리영상 제작 방법.
  7. 제6항에 있어서,
    상기 캡션정보는, 입력된 이미지로부터 상기 이미지와 연관된 텍스트를 생성하는 머신 러닝 기반의 이미지 분석 기술을 통해 얻어지는 텍스트 정보를 포함하는 것을 특징으로 하는 스토리영상 제작 방법.
  8. 제7항에 있어서,
    상기 선택된 카테고리의 테마를 상기 스토리의 테마로 결정하는 단계는,
    상기 텍스트 정보를 더 이용하여 상기 수집된 복수의 영상들을 복수의 카테고리로 분류하고,
    상기 스토리를 생성하거나 또는 기 정의된 스토리들 중 하나를 선택하는 단계는,
    상기 테마 및 상기 텍스트 정보가 포함하는 적어도 하나의 키워드를 이용하여 새로운 스토리를 정의하거나 또는 기 정의된 스토리들을 상기 테마 및 상기 적어도 하나의 키워드와 비교하여 상기 기 정의된 스토리들 중에서 하나의 스토리를 선택하는 것을 특징으로 하는 스토리영상 제작 방법.
  9. 제6항에 있어서,
    상기 선택하는 단계는,
    상기 복수의 프레임들 중 제1 프레임에 대응된 키워드 또는 문장을, 상기 선택된 카테고리로 분류된 영상들의 텍스트 정보 및 메타정보를 통해 추출되는 키워드 중 적어도 하나와 비교하여, 상기 제1 프레임에 배치하기 위한 영상을 상기 선택된 카테고리로 분류된 영상들 중에서 선택하는 것을 특징으로 하는 스토리영상 제작 방법.
  10. 제6항에 있어서,
    상기 기 정의된 스토리들은 기 생성된 스토리영상에 포함된 영상에서 추출되는 캡션정보에 기반하여 생성되는 것을 특징으로 하는 스토리영상 제작 방법.
  11. 제1항 내지 제10항 중 어느 한 항의 방법을 컴퓨터에 실행시키기 위한 컴퓨터 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터 판독 가능한 기록매체.
  12. 스토리영상 제작 시스템에 있어서,
    컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서
    를 포함하고,
    상기 적어도 하나의 프로세서는,
    복수의 영상들을 수집하고,
    상기 수집된 복수의 영상들 각각으로부터 캡션정보 및 메타정보를 추출하고,
    상기 추출된 캡션정보 및 메타정보에 기반하여 상기 수집된 복수의 영상들을 분류하고, 상기 분류된 영상들에 기반하여 제작하고자 하는 스토리의 테마를 결정하고,
    상기 결정된 스토리의 테마와 연계되는 적어도 하나의 템플릿 중 하나를 선택하고 - 상기 적어도 하나의 템플릿 각각은 영상들을 배치하기 위한 복수의 프레임들을 포함하고, 상기 복수의 프레임들 각각에는 배치될 영상을 위한 적어도 하나의 키워드 또는 적어도 하나의 문장이 대응됨 -,
    상기 복수의 프레임들 각각에 대응된 적어도 하나의 키워드 또는 적어도 하나의 문장과 상기 추출된 캡션정보 및 메타정보를 비교하여 상기 선택된 템플릿이 포함하는 복수의 프레임들 각각을 위한 영상을 상기 수집된 복수의 영상들 중에서 선택하고,
    상기 복수의 프레임들 각각에 상기 선택된 영상을 배치하여 스토리영상을 생성하고,
    상기 스토리의 테마를 결정하기 위해, 상기 적어도 하나의 프로세서는,
    상기 메타정보가 포함하는 영상의 생성 시각 및 생성 위치를 이용하여 상기 생성 위치가 기설정된 제1 거리 이내의 위치이거나 또는 상기 생성 위치가 특정 위치에서 기설정된 제2 거리 이상 벗어난 위치이면서 동시에 상기 생성 시각이 일정 시간 간격 이내에 포함되는 영상들을 하나의 카테고리로 분류함으로써 상기 복수의 영상들을 복수의 카테고리로 분류하고, 카테고리별 영상의 수에 기반하여 상기 복수의 카테고리 중에서 하나의 카테고리를 선택하고, 상기 선택된 카테고리의 테마를 상기 스토리의 테마로 결정하는 것
    을 특징으로 하는 스토리영상 제작 시스템.
  13. 제12항에 있어서,
    상기 캡션정보는, 입력된 이미지로부터 상기 이미지와 연관된 텍스트를 생성하는 머신 러닝 기반의 이미지 분석 기술을 통해 얻어지는 텍스트 정보를 포함하는 것을 특징으로 하는 스토리영상 제작 시스템.
  14. 제13항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 텍스트 정보를 더 이용하여 상기 수집된 복수의 영상들을 복수의 카테고리로 분류하고, 카테고리별 영상의 수에 기반하여 선택된 카테고리의 테마를 상기 스토리의 테마로 결정하는 것을 특징으로 하는 스토리영상 제작 시스템.
  15. 제12항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 복수의 프레임들 중 제1 프레임에 대응된 키워드 또는 문장을, 상기 선택된 카테고리로 분류된 영상들의 텍스트 정보 및 메타정보를 통해 추출되는 키워드 중 적어도 하나와 비교하여, 상기 제1 프레임에 배치하기 위한 영상을 상기 선택된 카테고리로 분류된 영상들 중에서 선택하는 것을 특징으로 하는 스토리영상 제작 시스템.
  16. 스토리영상 제작 시스템에 있어서,
    컴퓨터에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서
    를 포함하고,
    상기 적어도 하나의 프로세서는,
    복수의 영상들을 수집하고,
    상기 수집된 복수의 영상들 각각으로부터 캡션정보 및 메타정보를 추출하고,
    상기 추출된 캡션정보 및 메타정보에 기반하여 스토리를 생성하거나 또는 기 정의된 스토리들 중 하나를 선택하고,
    상기 생성 또는 선택된 스토리에 대응하는 템플릿을 생성하고 - 상기 생성된 템플릿은 영상들을 배치하기 위한 복수의 프레임들을 포함하고, 상기 복수의 프레임들 각각에는 상기 생성 또는 선택된 스토리와 연관된 적어도 하나의 키워드 또는 문장이 대응됨 -,
    상기 복수의 프레임들에 대응된 적어도 하나의 키워드 또는 문장과 상기 추출된 캡션정보 및 메타정보를 비교하여 상기 생성된 템플릿이 포함하는 복수의 프레임들 각각을 위한 영상을 상기 수집된 복수의 영상들 중에서 선택하고,
    상기 복수의 프레임들 각각에 상기 선택된 영상을 배치하여 스토리영상을 생성하고,
    상기 적어도 하나의 프로세서는, 상기 스토리를 생성하거나 또는 기 정의된 스토리들 중 하나를 선택하기 위해,
    상기 메타정보가 포함하는 영상의 생성 시각 및 생성 위치를 이용하여 상기 생성 위치가 기설정된 제1 거리 이내의 위치이거나 또는 상기 생성 위치가 특정 위치에서 기설정된 제2 거리 이상 벗어난 위치이면서 동시에 상기 생성 시각이 일정 시간 간격 이내에 포함되는 영상들을 하나의 카테고리로 분류함으로써 상기 복수의 영상들을 복수의 카테고리로 분류하고, 카테고리별 영상의 수에 기반하여 상기 복수의 카테고리 중에서 하나의 카테고리를 선택하고, 상기 선택된 카테고리의 테마를 상기 스토리의 테마로 결정하는 것
    을 특징으로 하는 스토리영상 제작 시스템.
  17. 제16항에 있어서,
    상기 캡션정보는, 입력된 이미지로부터 상기 이미지와 연관된 텍스트를 생성하는 머신 러닝 기반의 이미지 분석 기술을 통해 얻어지는 텍스트 정보를 포함하는 것을 특징으로 하는 스토리영상 제작 시스템.
  18. 제17항에 있어서,
    상기 선택된 카테고리의 테마를 상기 스토리의 테마로 결정하기 위해,
    상기 텍스트 정보를 더 이용하여 상기 수집된 복수의 영상들을 복수의 카테고리로 분류하고,
    상기 적어도 하나의 프로세서는, 상기 스토리를 생성하거나 또는 기 정의된 스토리들 중 하나를 선택하기 위해,
    상기 테마 및 상기 텍스트 정보가 포함하는 적어도 하나의 키워드를 이용하여 새로운 스토리를 정의하거나 또는 기 정의된 스토리들을 상기 테마 및 상기 적어도 하나의 키워드와 비교하여 상기 기 정의된 스토리들 중에서 하나의 스토리를 선택하는 것을 특징으로 하는 스토리영상 제작 시스템.
KR1020197030226A 2017-03-23 2017-03-23 스토리영상 제작 방법 및 시스템 KR102275194B1 (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2017/003117 WO2018174314A1 (ko) 2017-03-23 2017-03-23 스토리영상 제작 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20190122860A KR20190122860A (ko) 2019-10-30
KR102275194B1 true KR102275194B1 (ko) 2021-07-09

Family

ID=63585712

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197030226A KR102275194B1 (ko) 2017-03-23 2017-03-23 스토리영상 제작 방법 및 시스템

Country Status (5)

Country Link
US (2) US11704355B2 (ko)
JP (1) JP6902108B2 (ko)
KR (1) KR102275194B1 (ko)
CN (1) CN110521213B (ko)
WO (1) WO2018174314A1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102657519B1 (ko) * 2019-02-08 2024-04-15 삼성전자주식회사 음성을 기반으로 그래픽 데이터를 제공하는 전자 장치 및 그의 동작 방법
KR102704666B1 (ko) * 2019-12-31 2024-09-10 한국전력공사 이미지 캡셔닝 장치 및 방법
KR102152430B1 (ko) * 2020-05-20 2020-09-04 (주)다우씨엔디테크 디지털 비디오 파일의 보안 강화 디스플레이 시스템 및 방법
KR102658528B1 (ko) * 2020-11-24 2024-04-18 주식회사 액티브플러스 인공지능 기반의 이야기 구성방법 및 이를 위한 이야기 구성시스템
US12067657B2 (en) * 2022-02-28 2024-08-20 Story File, Inc. Digital image annotation and retrieval systems and methods
WO2024063238A1 (en) * 2022-09-21 2024-03-28 Samsung Electronics Co., Ltd. Method and electronic device for creating continuity in a story
KR102521904B1 (ko) * 2022-11-28 2023-04-17 (주)비디오몬스터 오토 라벨링 활용과 디자인 요소 삽입을 통한 영상 자동 편집 시스템 및 그 방법
KR102521903B1 (ko) * 2022-11-28 2023-04-17 (주)비디오몬스터 오토 라벨링을 활용한 영상 자동 편집 시스템 및 그 방법
KR102521905B1 (ko) * 2022-11-28 2023-04-17 (주)비디오몬스터 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 시스템 및 그 방법
KR102523438B1 (ko) * 2022-11-29 2023-04-19 (주)비디오몬스터 오토 라벨링 활용과 가상 템플릿 자동 선정을 통한 영상 자동 편집 시스템 및 그 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134302A (ja) 2009-11-25 2011-07-07 Kddi Corp 2次コンテンツ提供システムおよび方法
JP2014081957A (ja) 2007-06-05 2014-05-08 Intellectual Ventures Fund 83 Llc 意味分類装置を利用した自動的なストーリー生成

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004187029A (ja) * 2002-12-04 2004-07-02 Toshiba Corp 要約映像追いかけ再生装置
JP3973572B2 (ja) * 2003-02-07 2007-09-12 日本電信電話株式会社 データ分析装置及びデータ分析プログラム
US7646895B2 (en) * 2005-04-05 2010-01-12 3Vr Security, Inc. Grouping items in video stream images into events
US8166010B2 (en) * 2005-07-26 2012-04-24 Taptu Limited Processing and sending search results over a wireless network to a mobile device
WO2007073347A1 (en) * 2005-12-19 2007-06-28 Agency For Science, Technology And Research Annotation of video footage and personalised video generation
US7996772B2 (en) * 2006-07-06 2011-08-09 Samsung Electronics Co., Ltd. Apparatus, method, and medium for providing guideline for arranging images with story
JP4320673B2 (ja) * 2006-12-08 2009-08-26 ソニー株式会社 情報処理装置および方法、並びにプログラム
US20080155422A1 (en) * 2006-12-20 2008-06-26 Joseph Anthony Manico Automated production of multiple output products
US20080215984A1 (en) * 2006-12-20 2008-09-04 Joseph Anthony Manico Storyshare automation
CN101584001B (zh) * 2006-12-20 2012-06-13 伊斯曼柯达公司 多输出产品的自动产生
WO2008136466A1 (ja) * 2007-05-01 2008-11-13 Dep Co., Ltd. 動画編集装置
US20080306995A1 (en) * 2007-06-05 2008-12-11 Newell Catherine D Automatic story creation using semantic classifiers for images and associated meta data
KR101382501B1 (ko) * 2007-12-04 2014-04-10 삼성전자주식회사 동영상 촬영 편집 장치 및 방법
KR101047201B1 (ko) * 2008-01-09 2011-07-06 에스케이 텔레콤주식회사 사용자 선호에 기반한 영상 정보 서비스 방법 및 시스템
KR20100001270A (ko) 2008-06-26 2010-01-06 삼성디지털이미징 주식회사 슬라이드 동영상 생성 장치 및 방법
US20100191715A1 (en) * 2009-01-29 2010-07-29 Shefali Kumar Computer Implemented System for Providing Musical Message Content
KR101633824B1 (ko) * 2009-11-13 2016-06-28 삼성전자주식회사 배경 화면 설정 방법 및 이를 이용한 휴대 단말기
US8655111B2 (en) * 2010-05-13 2014-02-18 Shutterfly, Inc. System and method for creating and sharing photo stories
US20120082401A1 (en) * 2010-05-13 2012-04-05 Kelly Berger System and method for automatic discovering and creating photo stories
US8971639B2 (en) * 2012-09-27 2015-03-03 Hewlett-Packard Development Company, L.P. Semantic theme based shape collage representation for an image collection
US9460123B1 (en) * 2012-12-12 2016-10-04 Amazon Technologies, Inc. Systems and methods for generating an arrangement of images based on image analysis
CN103902889A (zh) * 2012-12-26 2014-07-02 腾讯科技(深圳)有限公司 一种恶意消息云检测方法和服务器
KR20140141408A (ko) * 2013-05-29 2014-12-10 한양대학교 산학협력단 영상 및 자막 정보를 이용한 스토리 북 제작 방법
KR20150011651A (ko) * 2013-07-23 2015-02-02 주식회사 케이티 스토리텔링 컨텐츠를 제작하는 장치 및 방법
US9836984B2 (en) * 2013-09-16 2017-12-05 Disney Enterprises, Inc. Storytelling environment: story and playgroup creation
JP6093289B2 (ja) * 2013-12-10 2017-03-08 株式会社フレイ・スリー 映像処理装置、映像処理方法およびプログラム
EP2955686A1 (en) * 2014-06-05 2015-12-16 Mobli Technologies 2010 Ltd. Automatic article enrichment by social media trends
US10031928B2 (en) * 2014-07-02 2018-07-24 BicDroid Inc. Display, visualization, and management of images based on content analytics
CN105224581B (zh) * 2014-07-03 2019-06-21 北京三星通信技术研究有限公司 在播放音乐时呈现图片的方法和装置
KR102290419B1 (ko) * 2015-01-13 2021-08-18 삼성전자주식회사 디지털 컨텐츠의 시각적 내용 분석을 통해 포토 스토리를 생성하는 방법 및 장치
WO2016157150A1 (en) * 2015-04-02 2016-10-06 Littlesea S.R.L. Method and system for automatic generation of video from non-visual information
CN104735468B (zh) * 2015-04-03 2018-08-31 北京威扬科技有限公司 一种基于语义分析将图像合成新视频的方法及系统
US20160364103A1 (en) * 2015-06-11 2016-12-15 Yaron Galant Method and apparatus for using gestures during video playback
KR20170009037A (ko) * 2015-07-15 2017-01-25 삼성전자주식회사 영상 컨텐츠 제공 장치 및 영상 컨텐츠 제공 방법
US10073861B2 (en) * 2015-09-03 2018-09-11 Disney Enterprises, Inc. Story albums
US9781392B2 (en) * 2015-09-16 2017-10-03 Intel Corporation Facilitating personal assistance for curation of multimedia and generation of stories at computing devices
US10372981B1 (en) * 2015-09-23 2019-08-06 Evernote Corporation Fast identification of text intensive pages from photographs
JP5903187B1 (ja) * 2015-09-25 2016-04-13 株式会社グロリアス 映像コンテンツ自動生成システム
US9875429B2 (en) * 2015-10-06 2018-01-23 Adobe Systems Incorporated Font attributes for font recognition and similarity
US9875258B1 (en) * 2015-12-17 2018-01-23 A9.Com, Inc. Generating search strings and refinements from an image
JP6629678B2 (ja) * 2016-06-16 2020-01-15 株式会社日立製作所 機械学習装置
CN106445106A (zh) * 2016-08-29 2017-02-22 宇龙计算机通信科技(深圳)有限公司 太空虚拟场景体验方法及系统
CN106528702A (zh) * 2016-10-26 2017-03-22 朱育盼 日记生成方法和装置
CN106528751A (zh) * 2016-10-28 2017-03-22 北京光年无限科技有限公司 一种用于智能机器人的图像数据采集处理方法及机器人
KR102458807B1 (ko) * 2016-11-04 2022-10-25 딥마인드 테크놀로지스 리미티드 신경망을 이용한 장면 이해 및 생성
US10083162B2 (en) * 2016-11-28 2018-09-25 Microsoft Technology Licensing, Llc Constructing a narrative based on a collection of images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014081957A (ja) 2007-06-05 2014-05-08 Intellectual Ventures Fund 83 Llc 意味分類装置を利用した自動的なストーリー生成
JP2011134302A (ja) 2009-11-25 2011-07-07 Kddi Corp 2次コンテンツ提供システムおよび方法

Also Published As

Publication number Publication date
US20200019812A1 (en) 2020-01-16
US20230297608A1 (en) 2023-09-21
CN110521213B (zh) 2022-02-18
WO2018174314A1 (ko) 2018-09-27
US11704355B2 (en) 2023-07-18
US11954142B2 (en) 2024-04-09
JP2020512759A (ja) 2020-04-23
CN110521213A (zh) 2019-11-29
KR20190122860A (ko) 2019-10-30
JP6902108B2 (ja) 2021-07-14

Similar Documents

Publication Publication Date Title
KR102275194B1 (ko) 스토리영상 제작 방법 및 시스템
US11483268B2 (en) Content navigation with automated curation
US10769438B2 (en) Augmented reality
CN107251006B (zh) 具有共享兴趣的消息的图库
US9436875B2 (en) Method and apparatus for semantic extraction and video remix creation
CN109688451B (zh) 摄像机效应的提供方法及系统
KR101787248B1 (ko) 메신저 서비스를 이용한 키워드 검색 방법 및 시스템
KR101989089B1 (ko) 클라우드 소싱 기반의 ar 컨텐츠 템플릿을 수집하여 ar 컨텐츠를 자동으로 생성하는 방법 및 시스템
US10032303B2 (en) Scrolling 3D presentation of images
EP2960852A1 (en) Information processing device, information processing method, and program
CN113366489A (zh) 检测增强现实目标
KR102550305B1 (ko) 머신 러닝 기반의 영상 자동 편집 방법 및 시스템
KR20200014416A (ko) 위치 데이터가 포함된 컨텐츠를 이용한 추천 방법 및 그 시스템
CN115867905A (zh) 旅行情况下基于增强现实的语音翻译
KR20190035351A (ko) 대표 이미지 생성
KR102026475B1 (ko) 시각적 입력의 처리
US20170034586A1 (en) System for content matching and triggering for reality-virtuality continuum-based environment and methods thereof
US11651280B2 (en) Recording medium, information processing system, and information processing method
US20190394154A1 (en) Methods, systems, devices, and non-transitory computer readable record media for filtering images using keywords
KR20210052912A (ko) 앱 사용 패턴과 대화 분석을 통한 앱 기능 바로가기 추천 방법 및 장치
KR102151598B1 (ko) 키워드 속성을 기준으로 관련 있는 키워드를 제공하는 방법 및 시스템
KR102244130B1 (ko) 영화 검색에서 사용자 경험 개선을 위한 방법 및 시스템
KR101796506B1 (ko) 기종 정보를 활용한 이미지 검색 결과 제공 방법 및 시스템
KR20210096394A (ko) 컨텐츠에 관한 부가 정보를 제공하는 방법, 장치, 및 컴퓨터 프로그램
WO2016113732A1 (en) System for content matching and triggering for reality-virtuality continuum-based environment and methods thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)