KR102521905B1 - System and method for providing automatic video editing and map service synchronized with the edited video - Google Patents

System and method for providing automatic video editing and map service synchronized with the edited video Download PDF

Info

Publication number
KR102521905B1
KR102521905B1 KR1020220161623A KR20220161623A KR102521905B1 KR 102521905 B1 KR102521905 B1 KR 102521905B1 KR 1020220161623 A KR1020220161623 A KR 1020220161623A KR 20220161623 A KR20220161623 A KR 20220161623A KR 102521905 B1 KR102521905 B1 KR 102521905B1
Authority
KR
South Korea
Prior art keywords
image
video file
file
video
map service
Prior art date
Application number
KR1020220161623A
Other languages
Korean (ko)
Inventor
전동혁
이우섭
Original Assignee
(주)비디오몬스터
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)비디오몬스터 filed Critical (주)비디오몬스터
Priority to KR1020220161623A priority Critical patent/KR102521905B1/en
Application granted granted Critical
Publication of KR102521905B1 publication Critical patent/KR102521905B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4524Management of client data or end-user data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream

Abstract

The present invention relates to a system and a method for automatically editing an image and providing a map service synchronized with an edited image, which perform image auto-labeling. The system of the present invention, comprises: an image group generating unit; a transition image insertion unit for recognizing a boundary point between image groups; a video file generation unit for generating a video file; and a map service providing unit for providing a map service in accordance with photographing location data.

Description

영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 시스템 및 그 방법{SYSTEM AND METHOD FOR PROVIDING AUTOMATIC VIDEO EDITING AND MAP SERVICE SYNCHRONIZED WITH THE EDITED VIDEO} Automatic video editing and synchronizing map service provision system with edited video and its method

본 발명의 실시예는 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 시스템 및 그 방법에 관한 것이다.An embodiment of the present invention relates to a system and method for automatically editing an image and providing a map service synchronized with the edited image.

일반적으로 일상 생활에서 스마트 폰 등으로 촬영한 영상들을 일반 사용자가가 하나의 동영상으로 편집을 하기는 번거로우며, 약간의 전문적인 편집 도구 사용법을 알아야 함에 따른 어려움을 느낀다. In general, it is cumbersome for ordinary users to edit videos taken with a smartphone or the like in everyday life into a single video, and it is difficult to know how to use some professional editing tools.

따라서, 자동화된 영상 편집 도구가 있어 여러 곳이나 시간에 따라 촬영한 영상을 합쳐 하나의 동영상 결과물을 자동으로 편집해서 제작하는 도구가 개발되어 사용되고 있다. Therefore, there is an automated image editing tool, and a tool for automatically editing and producing a single video result by combining images taken in various places or according to time has been developed and used.

그러나, 종래의 영상 자동 편집 도구는 대부분 단순히 영상의 시간 흐름에 따라 영상물을 배열하고, 배열된 영상물을 합쳐 놓은 결과물을 제공하고 있어, 영상 결과물이 단순하고 어색한 전개를 갖도록 편집될 수 밖에 없는 문제가 있으며, 이러한 이유로 인해 사용자로 하여금 크게 흥미나 만족도를 갖지 못한다는 단점 있다.However, most of the conventional automatic video editing tools simply arrange the video objects according to the time flow of the video and provide the result of combining the arranged video objects, so the video result can only be edited to have a simple and awkward development. For this reason, there is a disadvantage in that users do not have much interest or satisfaction.

공개특허공보 제10-2014-0033667호(공개일자: 2014년03월19일)Publication No. 10-2014-0033667 (published date: March 19, 2014) 공개특허공보 제10-2018-0090970호(공개일자: 2018년08월14일)Patent Publication No. 10-2018-0090970 (published date: August 14, 2018)

본 발명의 실시예는, 이미지 오토 라벨링을 수행하여 시간, 장소, 객체를 기반으로 영상에 대한 라벨링을 수행하고, 머신러닝 기술을 활용한 영상의 맥락 추정을 통해 라벨링된 영상의 자동 배열, 그룹화 및 경계설정을 수행하고, 경계 지점에서의 트랜지션을 자동 삽입함으로써 하나의 에피소드나 스토리텔링을 갖춘 라이프로그(Life Log) 또는 브이로그(Vlog)의 동영상파일을 제공하며, 제공되는 동영상파일의 메타정보를 이용하여 지도서비스를 기반으로 한 촬영위치정보 및 그와 관련된 커머스 정보를 제공하는 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 시스템 및 그 방법을 제공한다.An embodiment of the present invention performs image auto-labeling to label images based on time, place, and object, and automatically arrange, group, and group labeled images through context estimation of images using machine learning technology. By performing boundary setting and automatically inserting transitions at the boundary point, a Life Log or Vlog video file with one episode or storytelling is provided, and meta information of the provided video file is provided. Provided is a system and method for automatically editing images that provide photographing location information based on map services and commerce information related thereto and providing map services synchronized with the edited images by using the map service.

본 발명의 일 실시예에 따른 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 시스템은, 다수의 영상파일로부터 추출된 메타데이터 및 인식된 객체데이터에 따라 다수의 클립영상으로 분할하고, 상기 메타데이터 및 상기 객체데이터를 기반으로 한 다수의 클립영상 간 맥락을 추론하고, 맥락추론결과에 따라 상기 클립영상을 배열 및 그룹화하여 다수의 클립영상을 포함한 적어도 하나의 영상그룹을 생성하는 영상그룹 생성부; 상기 영상그룹 간을 경계점으로 인식하고, 인식된 경계점에 미리 준비된 트랜지션 영상을 삽입하는 트랜지션 영상 삽입부; 상기 트랜지션 영상이 삽입된 영상그룹과 상기 경계점 간을 서로 결합하여 동영상파일을 생성하는 동영상파일 생성부; 및 사용자통신단말을 통한 상기 동영상파일의 재생 시 지도 서비스 시스템과 연동하여 상기 동영상파일에 포함된 메타데이터 중 촬영위치데이터에 따른 지도서비스를 제공하는 지도서비스 제공부를 포함한다.A system for automatically editing an image and providing a map service synchronized with the edited image according to an embodiment of the present invention divides into a plurality of clip images according to metadata and recognized object data extracted from a plurality of image files, and the metadata and an image group generating unit configured to infer a context between a plurality of clip images based on the object data, and arrange and group the clip images according to the result of the context inference to generate at least one image group including a plurality of clip images. a transition image inserting unit for recognizing the image groups as a boundary point and inserting a previously prepared transition image at the recognized boundary point; a video file generation unit generating a video file by combining the video group into which the transition video is inserted and the boundary point; and a map service providing unit for providing a map service according to shooting location data among metadata included in the video file in conjunction with a map service system when the video file is reproduced through the user communication terminal.

또한, 사용자통신단말로부터 다수의 영상파일을 입력 받아 자동편집서버로 업로드 하는 영상파일 등록부; 및 상기 동영상파일을 사용자통신단말로 전송하여 배포하는 동영상파일 배포부를 더 포함할 수 있다.In addition, a video file registration unit for receiving a plurality of video files from the user communication terminal and uploading them to the automatic editing server; and a video file distribution unit for transmitting and distributing the video file to a user communication terminal.

또한, 상기 영상파일 등록부는, 동영상파일 및 사진파일 중 적어도 하나의 영상파일을 선택 받는 영상파일 선택부; 및 상기 영상파일 선택부를 통해 선택된 영상파일을 업로드 하는 영상파일 업로드부를 포함할 수 있다.In addition, the video file registering unit may include: a video file selection unit for receiving a selection of at least one video file from among a video file and a photo file; and an image file upload unit for uploading the image file selected through the image file selection unit.

또한, 상기 영상파일 등록부를 통해 업로드 된 영상파일의 사이즈를 미리 설정된 사이즈로 각각 변환하고, 영상파일의 방향이 미리 설정된 방향으로 정렬되도록 회전시켜 영상파일에 포함된 이미지데이터를 정규화하여 상기 영상그룹 생성부를 실행하기 위해 전달하는 이미지 전처리부를 더 포함할 수 있다.In addition, the image group is generated by converting the size of each image file uploaded through the image file registration unit to a preset size, and normalizing image data included in the image file by rotating the image file so that the orientation of the image file is aligned in the preset direction. It may further include an image pre-processing unit that transfers to execute the unit.

또한, 상기 영상파일은 동영상파일 및 사진파일 중 적어도 하나를 포함하고, 상기 영상그룹 생성부는, 영상파일에서 촬영일시데이터와 촬영위치데이터를 각각 추출하는 메타데이터 추출부; 영상파일에서 객체데이터를 인식하는 객체 인식부; 영상파일이 동영상파일인 경우 상기 객체데이터에 따라 해당 영상파일을 분할하여 다수의 클립영상을 생성하는 영상파일 분할부; 클립영상 및 사진파일 별로 인물객체에 대한 성별, 연령, 행동 및 감정 중 적어도 하나를 분석하여 객체메타데이터를 생성하는 객체 분석부; 상기 촬영일시데이터, 상기 촬영위치데이터 및 상기 객체메타데이터를 기반으로 클립영상 및 사진파일 각각 간의 맥락을 추론하고, 맥락추론결과에 따라 클립영상 및 사진파일을 자동 배열하여 영상배열을 형성하는 영상배열 형성부; 및 상기 맥락추론결과를 기반으로 상기 영상배열에서 맥락종료지점을 각각 경계점으로 자동 설정하고, 설정된 상기 경계점을 기준으로 상기 영상배열에 대한 그룹화를 수행하여 상기 영상그룹을 생성하는 영상그룹 생성부를 포함할 수 있다.In addition, the image file includes at least one of a video file and a photo file, and the image group generator includes: a metadata extractor extracting shooting date and time data and shooting location data from the image file, respectively; an object recognizing unit recognizing object data in an image file; If the video file is a video file, an image file division unit for generating a plurality of clip images by dividing the corresponding video file according to the object data; an object analyzer for generating object metadata by analyzing at least one of gender, age, behavior, and emotion of a person object for each clip image and photo file; An image arrangement in which a context between each clip image and photo file is inferred based on the shooting date data, the shooting location data, and the object metadata, and the clip image and photo files are automatically arranged according to the result of the context inference to form an image arrangement. forming part; and an image group generator configured to automatically set context end points in the image array as boundary points based on a result of the context inference, and group the image arrays based on the set boundary points to generate the image groups. can

또한, 상기 영상배열 형성부는, 상기 영상배열에 포함된 클립영상을 재생 가능하게 표시하고, 상기 영상배열에 포함된 클립영상 및 사진파일 각각의 배열 순서를 드래그 앤 드랍 방식으로 변경하기 위한 제1 사용자 인터페이스를 제공하고, 상기 영상그룹 생성부는, 상기 맥락종료지점의 위치를 드래그 앤 드랍 방식으로 변경하기 위한 제2 사용자 인터페이스를 제공할 수 있다.In addition, the image array forming unit displays the clip images included in the image array in a reproducible manner, and changes the arrangement order of each of the clip images and photo files included in the image array by a drag-and-drop method. An interface may be provided, and the image group creation unit may provide a second user interface for changing the position of the context end point using a drag and drop method.

또한, 상기 지도서비스 제공부는, 상기 동영상파일의 클립영상 별 상기 촬영위치데이터를 각각 추출하는 촬영위치정보 추출부; 지도 서비스 시스템을 이용하여 상기 촬영위치데이터에 따른 이동경로정보를 생성하는 이동경로정보 생성부; 미리 구축된 데이터베이스에서 상기 이동경로정보에 해당되는 커머스 콘텐츠를 추출하는 커머스 콘텐츠 추출부; 상기 촬영위치데이터에 따른 상기 이동경로정보 및 상기 커머스 콘텐츠를 지도서비스정보로 저장하는 지도서비스정보 저장부; 및 상기 동영상파일의 재생 시 상기 동영상파일을 지도 서비스 시스템에 동기화시켜 지도 상에서 상기 지도서비스정보를 표시하는 지도서비스정보 표시부를 포함할 수 있다.In addition, the map service providing unit may include: a capturing location information extracting unit extracting the capturing location data for each clip image of the video file; a movement route information generating unit generating movement route information according to the photographing location data using a map service system; a commerce content extractor for extracting commerce content corresponding to the moving route information from a pre-built database; a map service information storage unit which stores the moving route information according to the photographing location data and the commerce contents as map service information; and a map service information display unit for displaying the map service information on a map by synchronizing the video file with a map service system when the video file is reproduced.

또한, 상기 지도서비스정보 표시부는, 상기 동영상파일의 현재재생시점에 따라 상기 이동경로정보를 표시하고, 상기 이동경로정보 중 사용자에 의해 선택된 위치에 해당하는 상기 커머스 콘텐츠를 표시할 수 있다.In addition, the map service information display unit may display the movement route information according to the current playback time of the video file, and display the commerce content corresponding to a location selected by the user among the movement route information.

본 발명의 다른 실시예에 따른 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 방법은, 영상그룹 생성부가, 다수의 영상파일로부터 추출된 메타데이터 및 인식된 객체데이터에 따라 다수의 클립영상으로 분할하고, 상기 메타데이터 및 상기 객체데이터를 기반으로 한 다수의 클립영상 간 맥락을 추론하고, 맥락추론결과에 따라 상기 클립영상을 배열 및 그룹화하여 다수의 클립영상을 포함한 적어도 하나의 영상그룹을 생성하는 영상그룹 생성 단계; 트랜지션 영상 삽입부가, 상기 영상그룹 간을 경계점으로 인식하고, 인식된 경계점에 미리 준비된 트랜지션 영상을 삽입하는 트랜지션 영상 삽입 단계; 동영상파일 생성부가, 상기 트랜지션 영상이 삽입된 영상그룹과 상기 경계점 간을 서로 결합하여 동영상파일을 생성하는 동영상파일 생성 단계; 및 지도서비스 제공부가, 사용자통신단말을 통한 상기 동영상파일의 재생 시 지도 서비스 시스템과 연동하여 상기 동영상파일에 포함된 메타데이터 중 촬영위치데이터에 따른 지도서비스를 제공하는 지도서비스 제공 단계를 포함한다.According to another embodiment of the present invention, in a method for automatically editing an image and providing a map service synchronized with the edited image, an image group generator divides a plurality of clip images into a plurality of clip images according to metadata extracted from a plurality of image files and recognized object data. and inferring a context between a plurality of clip images based on the metadata and object data, arranging and grouping the clip images according to the result of the context inference, and generating at least one image group including a plurality of clip images. image group creation step; a transition image inserting step of recognizing, by a transition image inserting unit, the boundary between the image groups as a boundary point, and inserting a previously prepared transition image at the recognized boundary point; a video file generation step of generating a video file by combining, by a video file generator, between the video group into which the transition video is inserted and the boundary point; and a map service providing step in which a map service providing unit provides a map service according to shooting location data among metadata included in the video file in conjunction with a map service system when the video file is reproduced through a user communication terminal.

또한, 영상파일 등록부가, 사용자통신단말로부터 다수의 영상파일을 입력 받아 자동편집서버로 업로드 하는 영상파일 등록 단계; 및 동영상파일 배포부가, 상기 동영상파일을 사용자통신단말로 전송하여 배포하는 동영상파일 배포 단계를 더 포함할 수 있다.In addition, the image file registration step of receiving a plurality of image files from the user communication terminal and uploading them to the automatic editing server by the image file registration unit; and a video file distribution step of transmitting and distributing the video file to the user communication terminal by the video file distribution unit.

또한, 상기 영상파일 등록 단계는, 동영상파일 및 사진파일 중 적어도 하나의 영상파일을 선택 받는 영상파일 선택 단계; 및 상기 영상파일 선택 단계를 통해 선택된 영상파일을 업로드 하는 영상파일 업로드 단계를 포함할 수 있다.In addition, the video file registration step may include a video file selection step of receiving a selection of at least one video file from a video file and a photo file; and an image file upload step of uploading the image file selected through the image file selection step.

또한, 상기 영상파일 등록 단계를 통해 업로드 된 영상파일의 사이즈를 미리 설정된 사이즈로 각각 변환하고, 영상파일의 방향이 미리 설정된 방향으로 정렬되도록 회전시켜 영상파일에 포함된 이미지데이터를 정규화하여 상기 영상그룹 생성 단계를 실행하기 위해 전달하는 이미지 전처리 단계를 더 포함할 수 있다.In addition, the size of each video file uploaded through the video file registration step is converted to a preset size, and the image data included in the video file is normalized by rotating the image file so that the orientation of the video file is aligned in the preset direction, thereby normalizing the image group. It may further include an image pre-processing step passing to execute the generating step.

또한, 상기 영상파일은 동영상파일 및 사진파일 중 적어도 하나를 포함하고, 상기 영상그룹 생성 단계는, 영상파일에서 촬영일시데이터와 촬영위치데이터를 각각 추출하는 메타데이터 추출 단계; 영상파일에서 객체데이터를 인식하는 객체 인식 단계; 영상파일이 동영상파일인 경우 상기 객체데이터에 따라 해당 영상파일을 분할하여 다수의 클립영상을 생성하는 영상파일 분할 단계; 클립영상 및 사진파일 별로 인물객체에 대한 성별, 연령, 행동 및 감정 중 적어도 하나를 분석하여 객체메타데이터를 생성하는 객체 분석 단계; 상기 촬영일시데이터, 상기 촬영위치데이터 및 상기 객체메타데이터를 기반으로 클립영상 및 사진파일 각각 간의 맥락을 추론하고, 맥락추론결과에 따라 클립영상 및 사진파일을 자동 배열하여 영상배열을 형성하는 영상배열 형성 단계; 및 상기 맥락추론결과를 기반으로 상기 영상배열에서 맥락종료지점을 각각 경계점으로 자동 설정하고, 설정된 상기 경계점을 기준으로 상기 영상배열에 대한 그룹화를 수행하여 상기 영상그룹을 생성하는 영상그룹 생성 단계를 포함할 수 있다.In addition, the video file includes at least one of a video file and a picture file, and the generating of the video group may include: a metadata extraction step of extracting shooting date and time data and shooting location data from the video file, respectively; object recognition step of recognizing object data in the image file; If the video file is a video file, dividing the corresponding video file according to the object data to generate a plurality of clip images; An object analysis step of generating object metadata by analyzing at least one of gender, age, behavior, and emotion of the person object for each clip image and photo file; An image arrangement in which a context between each clip image and photo file is inferred based on the shooting date data, the shooting location data, and the object metadata, and the clip image and photo files are automatically arranged according to the result of the context inference to form an image arrangement. formation step; and an image group generation step of automatically setting context end points in the image array as boundary points based on a result of the context inference, and generating the image groups by grouping the image arrays based on the set boundary points. can do.

또한, 상기 영상배열 형성 단계는, 상기 영상배열에 포함된 클립영상을 재생 가능하게 표시하고, 상기 영상배열에 포함된 클립영상 및 사진파일 각각의 배열 순서를 드래그 앤 드랍 방식으로 변경하기 위한 제1 사용자 인터페이스를 제공하고, 상기 영상그룹 생성 단계는, 상기 맥락종료지점의 위치를 드래그 앤 드랍 방식으로 변경하기 위한 제2 사용자 인터페이스를 제공할 수 있다.In addition, the forming of the image array may include displaying the clip images included in the image array in a reproducible manner and changing the arrangement order of each of the clip images and photo files included in the image array by a drag-and-drop method. A user interface may be provided, and in the generating of the image group, a second user interface may be provided to change the location of the context end point using a drag and drop method.

또한, 상기 지도서비스 제공 단계는, 상기 동영상파일의 클립영상 별 상기 촬영위치데이터를 각각 추출하는 촬영위치정보 추출 단계; 지도 서비스 시스템을 이용하여 상기 촬영위치데이터에 따른 이동경로정보를 생성하는 이동경로정보 생성 단계; 미리 구축된 데이터베이스에서 상기 이동경로정보에 해당되는 커머스 콘텐츠를 추출하는 커머스 콘텐츠 추출 단계; 상기 촬영위치데이터에 따른 상기 이동경로정보 및 상기 커머스 콘텐츠를 지도서비스정보로 저장하는 지도서비스정보 저장 단계; 및 상기 동영상파일의 재생 시 상기 동영상파일을 지도 서비스 시스템에 동기화시켜 지도 상에서 상기 지도서비스정보를 제공하는 지도서비스정보 표시 단계를 포함할 수 있다.In addition, the providing of the map service may include: a capturing location information extraction step of extracting the capturing location data for each clip image of the video file; a movement route information generating step of generating movement route information according to the photographing location data using a map service system; A commerce content extraction step of extracting commerce content corresponding to the movement route information from a pre-built database; a map service information storage step of storing the moving route information and the commerce contents according to the photographing location data as map service information; and a map service information display step of providing the map service information on a map by synchronizing the video file with a map service system when the video file is reproduced.

또한, 상기 지도서비스정보 표시 단계는, 상기 동영상파일의 현재재생시점에 따라 상기 이동경로정보를 표시하고, 상기 이동경로정보 중 사용자에 의해 선택된 위치에 해당하는 상기 커머스 콘텐츠를 표시할 수 있다.In the displaying of the map service information, the movement route information may be displayed according to the current playback time of the video file, and the commerce content corresponding to a location selected by the user among the movement route information may be displayed.

본 발명에 따르면, 이미지 오토 라벨링을 수행하여 시간, 장소, 객체를 기반으로 영상에 대한 라벨링을 수행하고, 머신러닝 기술을 활용한 영상의 맥락 추정을 통해 라벨링된 영상의 자동 배열, 그룹화 및 경계설정을 수행하고, 경계 지점에서의 트랜지션을 자동 삽입함으로써 하나의 에피소드나 스토리텔링을 갖춘 라이프로그(Life Log) 또는 브이로그(Vlog)의 동영상파일을 제공하며, 제공되는 동영상파일의 메타정보를 이용하여 지도서비스를 기반으로 한 촬영위치정보 및 그와 관련된 커머스 정보를 제공하는 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 시스템 및 그 방법을 제공할 수 있다.According to the present invention, image auto-labeling is performed to perform labeling of images based on time, place, and object, and automatic arrangement, grouping, and boundary setting of labeled images through context estimation of images using machine learning technology. and provides a video file of Life Log or Vlog with one episode or storytelling by automatically inserting a transition at the boundary point, and using the meta information of the provided video file It is possible to provide a map service providing system and method that automatically edits an image providing photographing location information and related commerce information based on a map service and synchronizes with the edited image.

도 1은 본 발명의 일 실시예에 따른 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 시스템의 구성 형태를 설명하기 위해 나타낸 개요도이다.
도 2는 본 발명의 일 실시예에 따른 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 시스템의 구성을 나타낸 블록도이다.
도 3은 본 발명의 일 실시예에 따른 영상파일 등록부의 구성을 나타낸 블록도이다.
도 4는 본 발명의 일 실시예에 따른 영상그룹 생성부의 구성을 나타낸 블록도이다.
도 5는 본 발명의 실시예에 따른 영상 자동 편집 과정을 설명하기 위해 나타낸 도면이다.
도 6은 본 발명의 일 실시예에 따른 지도서비스 제공부의 구성을 나타낸 블록도이다.
도 7은 본 발명의 실시예에 따른 지도서비스 제공 방식을 설명하기 위해 나타낸 도면이다.
도 8은 본 발명의 다른 실시예에 따른 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 방법의 구성을 나타낸 순서도이다.
도 9는 본 발명의 다른 실시예에 따른 영상파일 등록 단계의 구성을 나타낸 순서도이다.
도 10은 본 발명의 다른 실시예에 따른 영상그룹 생성 단계의 구성을 나타낸 순서도이다.
도 11은 본 발명의 다른 실시예에 따른 지도서비스 제공 단계의 구성을 나타낸 순서도이다.
1 is a schematic diagram illustrating a configuration of a system for automatically editing an image and providing a map service synchronized with the edited image according to an embodiment of the present invention.
2 is a block diagram showing the configuration of a system for automatically editing an image and providing a map service synchronized with the edited image according to an embodiment of the present invention.
3 is a block diagram showing the configuration of a video file registration unit according to an embodiment of the present invention.
4 is a block diagram showing the configuration of a video group generator according to an embodiment of the present invention.
5 is a diagram for explaining an automatic image editing process according to an embodiment of the present invention.
6 is a block diagram showing the configuration of a map service provider according to an embodiment of the present invention.
7 is a diagram for explaining a map service providing method according to an embodiment of the present invention.
8 is a flowchart illustrating a configuration of a method for automatically editing an image and providing a map service synchronized with the edited image according to another embodiment of the present invention.
9 is a flowchart showing the configuration of a video file registration step according to another embodiment of the present invention.
10 is a flowchart illustrating the configuration of a video group generating step according to another embodiment of the present invention.
11 is a flowchart showing the configuration of a map service providing step according to another embodiment of the present invention.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.The terms used in this specification will be briefly described, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention have been selected from general terms that are currently widely used as much as possible while considering the functions in the present invention, but these may vary depending on the intention of a person skilled in the art or precedent, the emergence of new technologies, and the like. In addition, in a specific case, there is also a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, not simply the name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나 이상의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When it is said that a certain part "includes" a certain component throughout the specification, it means that it may further include other components without excluding other components unless otherwise stated. In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software. .

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily carry out the present invention. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

도 1은 본 발명의 일 실시예에 따른 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 시스템의 구성 형태를 설명하기 위해 나타낸 개요도이다.1 is a schematic diagram illustrating a configuration of a system for automatically editing an image and providing a map service synchronized with the edited image according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 시스템(1000)은 사용자통신단말(10)과 자동편집서버(20)를 이용하여 구현될 수 있다. Referring to FIG. 1 , a system 1000 for automatically editing an image and synchronizing a map service with the edited image according to an embodiment of the present invention may be implemented using a user communication terminal 10 and an automatic editing server 20. there is.

본 발명의 일 실시예에 따른 사용자통신단말(10)은 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공을 위한 일부 기능이 탑재된 소프트웨어를 통해 영상 자동 편집 서비스를 제공 받을 수 있다. The user communication terminal 10 according to an embodiment of the present invention may be provided with an automatic video editing service through software equipped with some functions for automatically editing an image and providing a map service synchronized with the edited video.

좀 더 구체적으로, 사용자통신단말(10)은, 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 서비스를 제공 받기 위한 전용 프로그램(예를 들어, 어플리케이션 관리 프로그램)이 설치 또는 탑재되거나, 사용자통신단말(10)의 웹 브라우저를 통해 웹 사이트에 접속하는 방식을 통해 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 서비스를 제공받을 수 있도록 구현될 수 있다. 본 발명의 실시예에 따른 전용 프로그램(예를 들어, 어플리케이션 관리 프로그램)은 온라인 지도서비스 시스템과 연동되거나, 별도의 지도 open API를 통해 제작된 지도서비스 프로그램을 활용하여 편집된 영상에 대한 다양한 지도서비스정보를 제공할 수 있다.More specifically, the user communication terminal 10 has a dedicated program (for example, an application management program) installed or mounted, or a user communication terminal for automatically editing an image and providing a map service synchronized with the edited image. Through the method of accessing the website through the web browser in (10), it can be implemented to receive automatic video editing and map service provision services synchronized with the edited video. A dedicated program (for example, application management program) according to an embodiment of the present invention is interlocked with an online map service system or uses a map service program produced through a separate map open API to provide various map services for edited images. can provide information.

이러한 사용자통신단말(10)은, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 스마트 패드(smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 여기서, 웹 브라우저는 웹(WWW: world wide web) 서비스를 이용할 수 있게 하는 프로그램으로 HTML(hypertext mark-up language)로 서술된 하이퍼텍스트를 받아서 보여주는 프로그램을 의미하며, 예를 들어 넷스케이프(Netscape), 익스플로러(Explorer), 크롬(chrome) 등을 포함한다. 또한, 애플리케이션은 단말 상의 응용 프로그램(application)을 의미하며, 즉 모바일 단말(스마트폰)에서 실행되는 어플리케이션을 포함할 수 있다.These user communication terminals 10 are PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile) Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (Wireless Broadband Internet) terminal, smartphone, smart pad, tablet PC ( It may include all kinds of handheld-based wireless communication devices such as a Tablet PC. Here, the web browser is a program that enables the use of web (WWW: world wide web) services, and means a program that receives and displays hypertext described in HTML (hypertext mark-up language). For example, Netscape, Includes Explorer, Chrome, etc. In addition, an application means an application on a terminal, that is, it may include an application executed on a mobile terminal (smart phone).

상기 자동편집서버(20)는, 다수의 사용자통신단말(10)과 연결되어, 사용자통신단말(10)로부터 선택된 다수의 영상파일(동영상, 사진)를 수신하고, 수신된 영상파일의 메타데이터에 포함된 일시 및 위치정보와 영상데이터로부터의 인식객체를 기반으로 영상에 대한 라벨링을 자동 수행하고, 머신러닝 기술을 활용한 영상의 맥락 추정을 통해 라벨링된 영상의 자동 배열, 그룹화 및 경계설정을 수행하고, 경계 지점에서의 트랜지션을 자동 삽입함으로써 하나의 에피소드나 스토리텔링을 갖춘 동영상파일을 제공할 수 있다.The automatic editing server 20 is connected to a plurality of user communication terminals 10, receives a plurality of video files (videos, photos) selected from the user communication terminals 10, and stores metadata of the received video files. Automatically label images based on included time and location information and recognition objects from image data, and perform automatic arrangement, grouping, and boundary setting of labeled images through context estimation of images using machine learning technology And, by automatically inserting transitions at boundary points, a video file with one episode or storytelling can be provided.

상기 자동편집서버(20)는, 하드웨어적으로 통상적인 웹 서버와 동일한 구성을 가지며, 소프트웨어적으로는 C, C++, Java, Visual Basic, Visual C 등과 같은 다양한 형태의 언어를 통해 구현되어 여러 가지 기능을 하는 프로그램 모듈을 포함할 수 있다. 또한, 일반적인 서버용 하드웨어에 도스(dos), 윈도우(window), 리눅스(linux), 유닉스(unix), 매킨토시(macintosh), 안드로이드(Android), 아이오에서(iOS) 등의 운영 체제에 따라 다양하게 제공되고 있는 웹 서버 프로그램을 이용하여 구현될 수 있다.The automatic editing server 20 has the same configuration as a normal web server in terms of hardware, and in terms of software, various functions are implemented through various types of languages such as C, C++, Java, Visual Basic, Visual C, etc. It may include a program module that does. In addition, it is provided in various ways depending on the operating system such as DOS, Windows, Linux, Unix, Macintosh, Android, and iOS in general server hardware. It can be implemented using a web server program that is being developed.

한편, 사용자통신단말(10)과 자동편집서버(20) 간을 연결하는 인터넷 네트워크의 통신망의 일 예로는, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G 등)에 따라 구축된 이동 통신망을 포함할 수 있으나, 특별히 한정하는 것은 아니다. 또한, 유선 통신망의 일 예로는, LAN(Local Area Network), WAN(Wide Area Network)등의 폐쇄형 네트워크일 수 있으며, 인터넷과 같은 개방형 네트워크인 것이 바람직하다. 인터넷은 TCP/IP 프로토콜 및 그 상위계층에 존재하는 여러 서비스, 즉 HTTP(HyperText Transfer Protocol), Telnet, FTP(File Transfer Protocol), DNS(Domain Name System), SMTP(Simple Mail Transfer Protocol), SNMP(Simple Network Management Protocol), NFS(Network File Service), NIS(Network Information Service)를 제공하는 전세계적인 개방형 컴퓨터 네트워크 구조를 의미한다.On the other hand, as an example of the communication network of the Internet network connecting the user communication terminal 10 and the automatic editing server 20, technical standards or communication methods for mobile communication (eg, GSM (Global System for Mobile communication) ), Code Division Multi Access (CDMA), Code Division Multi Access 2000 (CDMA2000), Enhanced Voice-Data Optimized or Enhanced Voice-Data Only (EV-DO), Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA) , High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), 5G, etc.), but is not particularly limited. In addition, an example of the wired communication network may be a closed network such as a local area network (LAN) and a wide area network (WAN), preferably an open network such as the Internet. The Internet is based on the TCP/IP protocol and several services that exist on its upper layer, such as HTTP (HyperText Transfer Protocol), Telnet, FTP (File Transfer Protocol), DNS (Domain Name System), SMTP (Simple Mail Transfer Protocol), SNMP ( Simple Network Management Protocol), Network File Service (NFS), and Network Information Service (NIS).

도 2는 본 발명의 일 실시예에 따른 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 시스템의 구성을 나타낸 블록도이고, 도 3은 본 발명의 일 실시예에 따른 영상파일 등록부의 구성을 나타낸 블록도이고, 도 4는 본 발명의 일 실시예에 따른 영상그룹 생성부의 구성을 나타낸 블록도이고, 도 5는 본 발명의 실시예에 따른 영상 자동 편집 과정을 설명하기 위해 나타낸 도면이고, 도 6은 본 발명의 일 실시예에 따른 지도서비스 제공부의 구성을 나타낸 블록도이며, 도 7은 본 발명의 실시예에 따른 지도서비스 제공 방식을 설명하기 위해 나타낸 도면이다.2 is a block diagram showing the configuration of a system for automatically editing an image and providing a map service synchronized with the edited image according to an embodiment of the present invention, and FIG. 3 shows the configuration of a video file registration unit according to an embodiment of the present invention. FIG. 4 is a block diagram showing the configuration of a video group generator according to an embodiment of the present invention, FIG. 5 is a diagram for explaining an automatic video editing process according to an embodiment of the present invention, and FIG. 6 is a block diagram showing the configuration of a map service providing unit according to an embodiment of the present invention, and FIG. 7 is a diagram for explaining a map service providing method according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 시스템(1000)은 영상파일 등록부(100), 이미지 전처리부(200), 영상그룹 생성부(300), 트랜지션 영상 삽입부(400), 동영상파일 생성부(500), 동영상파일 배포부(600) 및 지도서비스 제공부(700) 중 적어도 하나를 포함할 수 있다.Referring to FIG. 2 , a system for automatically editing an image and providing a map service synchronized with the edited image according to an embodiment of the present invention 1000 includes an image file registration unit 100, an image pre-processing unit 200, and an image group generation unit ( 300), a transition image inserting unit 400, a video file generating unit 500, a video file distributing unit 600, and a map service providing unit 700.

상기 영상파일 등록부(100)는, 사용자통신단말(10)로부터 다수의 영상파일을 입력 받아 자동편집서버(20)로 업로드 할 수 있다.The video file registration unit 100 may receive a plurality of video files from the user communication terminal 10 and upload them to the automatic editing server 20 .

이를 위해 영상파일 등록부(100)는 도 3에 도시된 바와 같이, 영상파일 선택부(110)와 영상파일 업로드부(120) 중 적어도 하나를 포함할 수 있다.To this end, the image file registration unit 100 may include at least one of an image file selection unit 110 and an image file upload unit 120 as shown in FIG. 3 .

상기 영상파일 선택부(110)는, 사용자통신단말(10)의 앨범 또는 사진첩에 접근하여, 해당 앨범 또는 사진첩에 저장된 동영상파일 및 사진파일 중 적어도 하나의 영상파일을 선택 받도록 하거나, 사용자통신단말(10)의 카메라를 통해 촬영된 동영상이나 사진 중 어느 하나를 선택할 수 있도록 한다. The video file selector 110 accesses the album or photo album of the user communication terminal 10 and allows selection of at least one video file from among video files and photo files stored in the album or photo album, or the user communication terminal ( 10) allows users to select either a video or a photo taken by the camera.

상기 영상파일 업로드부(120)는, 영상파일 선택부(110)를 통해 선택된 동영상, 사진 등의 영상파일을 유선 또는 무선 인터넷 통신망을 통해 자동편집서버(20)로 업로드 할 수 있다. The video file upload unit 120 may upload video files such as videos and photos selected through the video file selection unit 110 to the automatic editing server 20 through a wired or wireless internet communication network.

상기 이미지 전처리부(200)는, 영상파일 등록부(100)를 통해 업로드 된 영상파일(동영상, 사진)의 사이즈를 미리 설정된 사이즈로 통일되도록 각각 변환하고, 영상파일의 방향이 미리 설정된 방향으로 정렬되도록 회전시켜 영상파일에 포함된 이미지데이터를 정규화할 수 있으며, 전처리가 완료된 영상파일을 영상그룹 생성부(300)로 전달할 수 있다. 이때, 영상파일은 그 촬영방향 즉 세로로 촬영되었는지 또는 가로로 촬영되었는지에 따라 해당 영상의 사이즈와 형태가 상이할 수 있으므로, 이를 통일시키도록 영상을 회전 변환시킬 수 있다.The image pre-processing unit 200 converts the sizes of video files (videos and photos) uploaded through the video file registering unit 100 to be unified to a preset size, and arranges the directions of the video files in a preset direction. Image data included in the image file may be normalized by rotation, and the image file for which preprocessing is completed may be transmitted to the image group generator 300 . At this time, since the size and shape of the corresponding image may be different depending on the image file's shooting direction, that is, vertical or horizontal, the images may be rotated and converted to unify them.

상기 영상그룹 생성부(300)는, 다수의 영상파일(동영상, 사진)로부터 추출된 메타데이터(시간, 장소) 및 인식된 객체데이터(인물, 동물, 사물, 건물 등)에 따라 다수의 클립영상으로 분할하고, 인식된 메타데이터 및 객체데이터를 기반으로 다수의 클립영상 간 맥락을 추론하고, 맥락추론결과에 따라 클립영상을 배열 및 그룹화하여 다수의 클립영상을 포함한 적어도 하나의 영상그룹을 생성할 수 있다.The image group generator 300 generates a plurality of clip images according to metadata (time, place) extracted from a plurality of image files (video, photo) and recognized object data (person, animal, object, building, etc.) , inferring the context between a plurality of clip images based on the recognized metadata and object data, and arranging and grouping the clip images according to the result of the context inference to generate at least one image group including a plurality of clip images. can

이를 위해 영상그룹 생성부(300)는 도 4에 도시된 바와 같이, 메타데이터 추출부(310), 객체데이터 인식부(320), 영상파일 분할부(330), 객체 분석부(340), 영상배열 형성부(350) 및 영상그룹 생성부(360) 중 적어도 하나를 포함할 수 있다.To this end, as shown in FIG. 4, the image group creation unit 300 includes a metadata extraction unit 310, an object data recognition unit 320, an image file division unit 330, an object analysis unit 340, At least one of an array forming unit 350 and an image group generating unit 360 may be included.

상기 메타데이터 추출부(310)는, 전처리가 완료된 동영상, 사진 등의 영상파일에서 메타데이터를 추출할 수 있으며, 추출된 메타데이터에서 촬영일시데이터와 촬영위치데이터를 각각 추출할 수 있다. 여기서, 촬영일시데이터는 영상파일이 촬영된 년, 월, 일, 시에 대한 정보를 포함하고, 촬영위치데이터는 영상파일을 촬영한 사용자통신단말(10)의 GPS위치정보를 포함할 수 있다. 이러한 촬영일시데이터와 촬영위치데이터는 후술하는 영상파일의 맥락추론을 위한 정보 중 하나로서 활용되며, 맥락추론을 위한 영상파일의 새로운 메타데이터로서 새롭게 저장 또는 정의될 수 있다.The metadata extractor 310 may extract metadata from image files such as videos and photos for which preprocessing has been completed, and may extract recording date and time data and recording location data from the extracted metadata, respectively. Here, the recording date data may include information on the year, month, day, and time when the video file was captured, and the recording location data may include GPS location information of the user communication terminal 10 that captured the video file. Such photographing date and time data and photographing location data are utilized as one of information for context inference of an image file to be described later, and may be newly stored or defined as new metadata of an image file for context inference.

상기 객체데이터 인식부(320)는, 전처리가 완료된 영상파일(동영상, 사진)에서 객체데이터를 인식할 수 있다. 이러한 객체데이터 인식부(320)는 객체 인식을 위해 미리 정의된 머신러닝 알고리즘을 활용하여 영상파일의 영상데이터 내 존재하는 특정 객체를 인식할 수 있다. 여기서, 객체는 사람(인물), 동물(개, 고양이 등), 사물(자동차, 건축물, 교량, 신호등 등) 등 다양한 대상을 포함할 수 있으며, 본 실시예에서는 미리 설정된 객체 또는 객체군에 대한 인식 프로세스를 제공할 수 있다. The object data recognizing unit 320 may recognize object data in image files (movies, photos) for which preprocessing has been completed. The object data recognizing unit 320 may recognize a specific object existing in image data of an image file by utilizing a predefined machine learning algorithm for object recognition. Here, the object may include various objects such as people (persons), animals (dogs, cats, etc.), objects (cars, buildings, bridges, traffic lights, etc.), and in this embodiment, recognition of a preset object or group of objects. process can be provided.

상기 영상파일 분할부(330)는, 업로드 된 영상파일이 동영상파일인 경우 해당 동영상파일에서 인식된 객체데이터에 따라 해당 동영상파일을 해당 객체를 기준으로 분할하여 다수의 클립영상을 생성할 수 있다.When the uploaded video file is a video file, the video file divider 330 divides the video file based on the object according to the object data recognized in the video file to generate a plurality of clip images.

예를 들어, 도 5의 (a) 및 (b)에 도시된 바와 같이 업로드 된 영상파일이 Video01, Video02, Image01, Video03, Image02, Video04가 있다고 가정했을 때, Video01에는 객체 1, 2가 인식되고, Video02에는 객체 1, 2가 인식되고, Video03에는 객체 2, 3이 인식되고, Video04에는 객체 2, 3이 인식되었다면, 각 인식객체가 나타나는 재생구간에 따라 Video를 다수의 클립영상으로 분할할 수 있다. 다만, 하나의 Video에서 서로 다른 객체가 서로 다른 재생구간에서 인식되는 경우 객체가 나타나는 구간 단위로 Video를 분할할 수 있다. 즉, Video01에는 객체 1, 2가 인식되었지만, 객체 1이 먼저 인식되고 객체 2가 인식된 후 다시 객체 1이 인식되는 경우 객체 1, 객체 2, 객체 3의 인식순서에 따라 Clip01, Clip02, Clip03으로 분할할 수 있다. For example, assuming that the uploaded video files have Video01, Video02, Image01, Video03, Image02, and Video04 as shown in (a) and (b) of FIG. 5, objects 1 and 2 are recognized in Video01 and , If objects 1 and 2 are recognized in Video02, objects 2 and 3 are recognized in Video03, and objects 2 and 3 are recognized in Video04, the video can be divided into multiple clips according to the playback section in which each recognized object appears. there is. However, if different objects are recognized in different playback sections in one video, the video can be divided into sections where the objects appear. That is, if objects 1 and 2 are recognized in Video01, but object 1 is recognized first, then object 2 is recognized, and then object 1 is recognized again, Clip01, Clip02, and Clip03 according to the recognition order of object 1, object 2, and object 3. can be divided

상기 객체 분석부(340)는, 클립영상 및 사진파일 별로 인물객체에 대한 성별, 연령, 행동 및 감정 중 적어도 하나에 대한 객체특징을 분석하여 객체메타데이터를 생성할 수 있다. 여기서, 객체메타데이터는 후술하는 맥락추론을 위한 기초정보로서 활용되며, 클립영상 및 사진들에 대한 전후 맥락을 추론하기에 앞서 각 파일들에 나타나는 인물객체의 특징적 요소 즉, 성별, 연령, 행동, 감정 등의 특징을 미리 정의된 머신러닝 알고리즘을 활용하여 분석할 수 있다. 객체 분석부(340)의 분석결과 즉, 객체메타데이터는 인식된 객체 별로 객체성별메타정보, 객체연령메타정보, 객체행동메타정보, 객체감정메타정보 중 적어도 하나를 정보를 포함하며, 후술하는 맥락추론을 위해 기초정보 중 하나로서 활용될 수 있다.The object analyzer 340 may generate object metadata by analyzing object characteristics of at least one of gender, age, behavior, and emotion of the person object for each clip image and photo file. Here, object metadata is used as basic information for context inference, which will be described later, and prior to inferring the context of clip images and photos, the characteristic elements of person objects appearing in each file, that is, gender, age, behavior, Characteristics such as emotions can be analyzed using predefined machine learning algorithms. The analysis result of the object analyzer 340, that is, the object metadata, includes at least one of object gender meta information, object age meta information, object behavior meta information, and object emotion meta information for each recognized object, which will be described later. It can be used as one of the basic information for reasoning.

상기 영상배열 형성부(350)는, 영상파일(클립영상 및 사진파일)의 촬영일시데이터 및 촬영위치데이터와, 객체메타데이터를 기반으로 클립영상 및 사진파일 각각 간의 맥락을 추론하고, 맥락추론결과에 따라 클립영상 및 사진파일을 자동 배열 또는 정렬하여 영상배열을 형성할 수 있다.The image array forming unit 350 infers the context between each clip image and photo file based on the shooting date and time data and shooting location data of the image file (clip image and photo file) and object metadata, and the context inference result Depending on the above, an image arrangement can be formed by automatically arranging or arranging clip images and photo files.

예를 들어, 도 5의 (b)와 같이 분할된 Clip01, Clip02, Clip03, Clip04, Clip05, Image01, Clip06, Clip07, Clip08, Image02, Clip09, Clip10은 각 클립영상과 사진파일의 촬영시간, 촬영위치, 인물객체의 다양한 특성(성별, 연령, 행동, 감정)을 고려하여 미리 학습된 머신러닝 알고리즘을 통한 맥락추론을 실시하여 특정한 스토리나 전개를 갖는 파일들의 순서를 정의 또는 결정할 수 있으며, 이러한 맥락추론결과에 따라 도 5의 (c)에 도시된 바와 같이, Clip02, Clip04, Clip03, Image01, Clip01, Clip05, Clip06, Clip09, Image02, Clip08, Clip10, Clip07의 순서를 갖는 영상배열을 형성할 수 있다. For example, Clip01, Clip02, Clip03, Clip04, Clip05, Image01, Clip06, Clip07, Clip08, Image02, Clip09, and Clip10 divided as shown in (b) of FIG. , It is possible to define or determine the order of files having a specific story or development by conducting context inference through pre-learned machine learning algorithms in consideration of various characteristics (gender, age, behavior, emotion) of a person object, and such context inference According to the result, as shown in (c) of FIG. 5, an image array having the order of Clip02, Clip04, Clip03, Image01, Clip01, Clip05, Clip06, Clip09, Image02, Clip08, Clip10, Clip07 can be formed.

한편, 영상배열 형성부(350)는, 영상배열에 포함된 클립영상을 재생 가능하게 표시하고, 영상배열에 포함된 클립영상 및 사진파일 각각의 배열 순서를 드래그 앤 드랍 방식으로 변경하기 위한 제1 사용자 인터페이스를 제공할 수 있다.On the other hand, the image array forming unit 350 displays the clip images included in the image array in a reproducible manner and changes the arrangement order of each of the clip images and photo files included in the image array by a drag-and-drop method. A user interface can be provided.

예를 들어, 도 5의 (c)와 같이 도시된 영상배열이 Clip02, Clip04, Clip03, Image01, Clip01, Clip05, Clip06, Clip09, Image02, Clip08, Clip10, Clip07의 순서로 형성된 경우, Clip02 클립영상을 선택한 후 드래그하여 Clip01과 Clip05 사이에 드랍하고, Image02를 선택한 후 Clip04 앞으로 드랍하면, 해당 영상배열이 Image02, Clip04, Clip03, Image01, Clip01, Clip02, Clip05, Clip06, Clip09, Clip08, Clip10, Clip07의 순서로 재배치될 수 있다.For example, when the image array shown in (c) of FIG. 5 is formed in the order of Clip02, Clip04, Clip03, Image01, Clip01, Clip05, Clip06, Clip09, Image02, Clip08, Clip10, Clip07, Clip02 clip image After selecting and dragging to drop between Clip01 and Clip05, select Image02 and drop in front of Clip04, the image array will be in the order of Image02, Clip04, Clip03, Image01, Clip01, Clip02, Clip05, Clip06, Clip09, Clip08, Clip10, Clip07 can be relocated to

상기 영상그룹 생성부(360)는, 영상배열 형성부(350)를 통한 맥락추론결과를 기반으로 영상배열에서 맥락종료지점을 각각 경계점으로 자동 설정하고, 설정된 경계점을 기준으로 영상배열에 대한 그룹화를 수행하여 영상그룹을 생성할 수 있다.The image group creation unit 360 automatically sets each context end point in the image array as a boundary point based on the result of context inference through the image array forming unit 350, and groups the image arrays based on the set boundary point. You can create an image group by performing

예를 들어, 도 5의 (d)에 도시된 바와 같이 맥락추론결과에 따라 특정한 스토리의 흐름이 종료되는 지점으로 A1와 A2가 설정되면, 설정된 A1와 A2을 기준으로 Clip02, Clip04, Clip03, Image01으로 구성되는 제1 영상그룹, Clip01, Clip05, Clip06, Clip09로 구성되는 제2 영상그룹, Image02, Clip08, Clip10, Clip07로 구성되는 제3 영상그룹이 각각 정의될 수 있다. For example, as shown in (d) of FIG. 5 , when A1 and A2 are set as points at which the flow of a specific story ends according to the result of context inference, Clip02, Clip04, Clip03, Image01 based on the set A1 and A2. A first image group composed of , a second image group composed of Clip01, Clip05, Clip06, and Clip09, and a third image group composed of Image02, Clip08, Clip10, and Clip07 may be respectively defined.

한편, 영상그룹 생성부(360)는, 맥락종료지점 즉 경계점의 위치를 드래그 앤 드랍 방식으로 변경하기 위한 제2 사용자 인터페이스를 제공할 수 있다.Meanwhile, the image group creation unit 360 may provide a second user interface for changing the location of a context end point, that is, a border point, using a drag and drop method.

예를 들어, 도 5의 (d)에 도시된 경계점 A1과 A2가 최초 설정되어 있는 상태에서, A1을 선택한 후 드래그하여 Clip01과 Clip05 사이에 드랍하면 제1 영상그룹은 Clip02, Clip04, Clip03, Image01, Clip01으로 재구성되고, 제2 영상그룹은 Clip05, Clip06, Clip09로 재구성될 수 있다.For example, in the state where the boundary points A1 and A2 shown in (d) of FIG. 5 are initially set, if A1 is selected and then dragged and dropped between Clip01 and Clip05, the first image group is Clip02, Clip04, Clip03, Image01 , Clip01, and the second image group can be reconstructed into Clip05, Clip06, and Clip09.

상기 트랜지션 영상 삽입부(400)는, 각각의 영상그룹 사이를 경계점으로 인식하고, 인식된 경계점에 미리 준비된 트랜지션 영상을 삽입할 수 있다. 즉, 경계점 A1과 A2에 미리 준비된 트랜지션 영상을 삽입하여 제1 영상그룹에 대한 재생이 종료된 후 제2 영상그룹에 대한 재생이 이루어지기 전에 트랜지션 영상이 재생되어 제1 영상그룹과 제2 영상그룹 간의 화면 전환이 자연스럽게 이루어질 수 있도록 편집될 수 있다. The transition image insertion unit 400 may recognize a boundary point between each image group and insert a previously prepared transition image into the recognized boundary point. That is, after playback of the first image group is finished by inserting transition images prepared in advance at the boundary points A1 and A2, the transition image is reproduced before playback of the second image group is performed, and the first image group and the second image group are reproduced. It can be edited so that the transition between screens can be made naturally.

이때, 최종 생성될 동영상파일에 대한 테마, 컨셉, 카테고리 등을 사용자가 설정하면, 설정정보에 따라 미리 준비된 트랜지션 영상 중 적어도 하나가 자동 선택되어 경계점에 삽입됨으로써 클립영상 간 또는 클립영상과 사진 사이의 전환 시 매끄럽고 효과적인 장면전환이 자동적으로 연출되도록 할 수 있다. 물론, 본 실시예에 따른 트랜지션 영상은 사용자가 직접 제작 또는 편집한 영상으로 설정되어 자동 삽입될 수 있으며, 맥락추론결과에 따라 전후 맥락에 따른 이미지나 분위기에 맞는 컨셉의 트랜지션 영상이 자동 선택 또는 추천되어 적용될 수도 있다.At this time, if the user sets the theme, concept, category, etc. for the video file to be finally created, at least one of the transition videos prepared in advance according to the setting information is automatically selected and inserted at the boundary, thereby creating a clear image between clip images or between clip images and photos. Smooth and effective scene transitions can be produced automatically during transition. Of course, the transition video according to the present embodiment can be set as a video produced or edited by the user and automatically inserted, and a transition video with a concept suitable for the image or atmosphere according to the context is automatically selected or recommended according to the result of context inference. may be applied.

상기 동영상파일 생성부(500)는, 도 5의 (e)에 도시된 바와 같이 트랜지션 영상이 삽입된 영상그룹과 경계점을 서로 결합하여 하나의 동영상파일을 생성할 수 있다. 이때, 사용자가 업로드 한 타이틀, 엔딩 등에 대한 텍스트 정보가 있는 경우 해당 동영상파일의 시작과 종료지점에 해당 텍스트 정보가 삽입된 영상클립이 추가 삽입되어 동영상파일에 적용될 수도 있다. As shown in (e) of FIG. 5, the video file generation unit 500 may generate a single video file by combining an image group into which a transition image is inserted and a boundary point. At this time, if there is text information about a title, an ending, etc. uploaded by a user, a video clip in which the text information is inserted may be additionally inserted at the start and end points of the corresponding video file and applied to the video file.

상기 동영상파일 배포부(600)는, 동영상파일을 렌더링 및 압축한 후 유선 또는 무선 인터넷 통신망을 통해 사용자통신단말(10)로 전송하여 배포 또는 전송함으로써, 최초 업로드 한 다수의 동영상 및 사진을 이용하여 특정한 스토리 또는 시퀀스를 가지며 매끄럽고 효과적인 장면전환이 연출되도록 편지된 하나의 동영상파일을 제공할 수 있다.The video file distributing unit 600 renders and compresses the video file, and then distributes or transmits the video file to the user communication terminal 10 through a wired or wireless Internet communication network, thereby using a plurality of videos and photos uploaded for the first time. It is possible to provide a single video file that has a specific story or sequence and is written so that smooth and effective scene transitions can be produced.

상기 지도서비스 제공부(700)는, 사용자통신단말(10)을 통한 동영상파일의 재생 시 지도 서비스 시스템과 연동하여 동영상파일에 포함된 메타데이터 중 촬영위치데이터에 따른 지도서비스를 제공할 수 있다.When a video file is played through the user communication terminal 10, the map service providing unit 700 may provide a map service according to shooting location data among metadata included in the video file in conjunction with the map service system.

이를 위해, 지도서비스 제공부(700)는 도 6에 도시된 바와 같이, 촬영위치정보 추출부(710), 이동경로정보 생성부(720), 커머스 콘텐츠 추출부(730), 지도서비스정보 저장부(740) 및 지도서비스정보 표시부(750) 중 적어도 하나를 포함할 수 있다.To this end, as shown in FIG. 6, the map service provider 700 includes a photographing location information extractor 710, a movement route information generator 720, a commerce content extractor 730, and a map service information storage unit. 740 and at least one of a map service information display unit 750.

상기 촬영위치정보 추출부(710)는, 동영상파일의 클립영상 및 사진파일에 각각에 대한 메타데이터 중 촬영위치데이터를 각각 추출할 수 있다.The photographing location information extraction unit 710 may extract photographing location data among metadata for each of a clip image and a photo file of a video file.

상기 이동경로정보 생성부(720)는, 지도 서비스 시스템을 이용하여 촬영위치정보 추출부(710)를 통해 추출된 촬영위치데이터에 따른 이동경로정보를 생성할 수 있다. The movement route information generating unit 720 may generate movement route information according to the photographing location data extracted through the photographing location information extractor 710 using a map service system.

예를 들어, 동영상파일이 클립영상 a~d, 사진파일 e, 클립영상 f, g로 구성되어 있고, 클립영상 a~d의 각 촬영위치데이터와, 사진파일 e의 촬영위치데이터와, 클립영상 f, g의 각 촬영위치데이터를 지도 서비스 시스템에 검색 값으로 입력하고, 검색 결과를 바탕으로 이동경로정보를 생성할 수 있다. 이때, 생성된 이동경로정보는 촬영위치변화에 따른 이동경로를 알 수 있는 정보로, 시계열적인 특징이 반영될 수 있다. 이동경로정보에 시계열적 특징이 반영되기 위해서는 클립영상 a~d, 사진파일 e, 클립영상 f, g의 각 메타데이터 중 촬영일시데이터를 추가적으로 추출하고, 이를 반영하여 촬영위치데이터를 시계열적으로 정렬하거나, 클립영상 a~d, 사진파일 e, 클립영상 f, g 자체가 맥락에 따라 정렬되어 있는 바, 시계열적인 특성이 반영되어 있는 것으로 간주하여 클립영상 a~d, 사진파일 e, 클립영상 f, g의 순서대로 촬영위치데이터에 따른 이동경로정보를 생성할 수 있다. For example, a video file is composed of clip images a to d, photo files e, clip images f, and g, and the shooting location data of clip images a to d, the shooting location data of photo file e, and the clip image. Each photographing location data of f and g may be input as a search value to the map service system, and movement route information may be generated based on the search result. At this time, the generated moving path information is information for knowing the moving path according to the change in the photographing position, and time-sequential characteristics may be reflected. In order to reflect the time-sequential characteristics in the moving route information, the shooting date and time data is additionally extracted from the metadata of clip images a to d, photo files e, and clip images f and g, and the shooting location data is sorted in time series by reflecting this. Or, since clip images a to d, photo files e, clip images f, and g themselves are arranged according to context, clip images a to d, photo files e, and clip images f are considered to reflect time-series characteristics. , it is possible to generate movement path information according to the photographing location data in the order of g.

지도 서비스 시스템을 기반으로 생성된 이동경로정보에는 촬영위치데이터가 각각 포함되어 있으며, 각 촬영위치데이터는 클립영상 및 사진파일의 메타데이터로서 각각의 영상파일과 매칭되어 있어, 이동경로정보와 동영상파일이 동기화될 수 있다.The movement route information generated based on the map service system includes each of the shooting location data, and each shooting location data is the metadata of the clip image and photo file and is matched with each video file, so that the movement route information and the video file can be synchronized.

상기 커머스 콘텐츠 추출부(730)는, 미리 구축된 데이터베이스에서 각 이동경로정보에 해당되는 커머스 콘텐츠를 추출할 수 있다. 본 실시예에 따른 데이터베이스는 위치정보를 기반으로 미리 등록된 여행정보, 맛집정보, 광고정보 등이 저장되어 있다. 이에 따라 커머스 콘텐츠 추출부(730)는 이동경로정보에 포함된 촬영위치데이터에 해당하는 여행정보, 맛집정보, 광고정보를 해당 데이터베이스로부터 선별하고, 커머스 콘텐츠로서 추출할 수 있다.The commerce content extractor 730 may extract commerce content corresponding to each moving route information from a pre-built database. The database according to the present embodiment stores pre-registered travel information, restaurant information, advertisement information, and the like based on location information. Accordingly, the commerce content extractor 730 may select travel information, restaurant information, and advertisement information corresponding to the photographing location data included in the movement route information from the corresponding database and extract them as commerce content.

상기 지도서비스정보 저장부(740)는, 동영상파일의 촬영위치데이터에 따라 생성된 이동경로정보 및 촬영위치데이터에 따라 추출된 커머스 콘텐츠를 해당 지도서비스정보로 저장할 수 있으며, 동영상파일의 재생 시 해당 지도서비스정보를 지도서비스정보 표시부(750)로 제공할 수 있다.The map service information storage unit 740 may store moving route information generated according to the shooting location data of the video file and commerce contents extracted according to the shooting location data as corresponding map service information. Map service information may be provided to the map service information display unit 750 .

상기 지도서비스정보 표시부(750)는, 동영상파일의 재생 시 동영상파일을 지도 서비스 시스템에 동기화시켜 지도 상에서 지도서비스정보를 제공할 수 있다.The map service information display unit 750 may provide map service information on the map by synchronizing the video file with the map service system when the video file is played.

예를 들어, 도 7에 도시된 바와 같이 동영상 플레이어(K1)를 통해 자동 편집된 특정 동영상파일을 재생하는 경우, 재생되는 해당 동영상파일에 대하여 미리 저장된 지도서비스정보를 사용자통신단말(10)을 통해 지원되는 지도 서비스 시스템과 연동하여 지도인터페이스(K2)을 통해 출력할 수 있다. 상술한 바와 같이, 동영상파일의 메타데이터 중 하나인 촬영위치데이터는 지도서비스정보의 이동경로정보와 매칭되어 있으므로, 동영상파일과 지도서비스정보는 서로 동기화되며, 이에 따라 동영상 플레이어(K1)와 지도인터페이스(K2)는 서로 동기화된 상태로 연동할 수 있다.For example, as shown in FIG. 7, when a specific automatically edited video file is played through the video player K1, pre-stored map service information for the video file being played is transmitted through the user communication terminal 10. It can be output through the map interface K2 in conjunction with a supported map service system. As described above, since the shooting location data, which is one of the metadata of the video file, is matched with the movement route information of the map service information, the video file and the map service information are synchronized with each other, and accordingly, the video player K1 and the map interface (K2) can work in synchronization with each other.

예를 들어, 동영상 플레이어(K1)의 영상그룹이 P1, P2, P3로 구성되고, 각 영상그룹 별로 촬영위치데이터가 각각 상이한 경우, 해당 영상그룹 P1, P2, P3에 의한 이동경로정보가 각기 다른 색상으로 이어진 라인으로 생성되어 지도인터페이스(K2)를 통해 표시될 수 있으며, 각 색상에 따라 영상그룹 P1, P2, P3 각각에 대한 촬영위치를 구별할 수 있다. 또한, '영상그룹 P1'이 재생되는 구간 동안에는 지도인터페이스(K2)에는 '이동경로 P1'이 점멸되거나 텍스트가 확대된 형태로 강조됨으로써 동영상 플레이어(K1)에서 현재 재생화면의 실제위치를 실시간 표시할 수 있다. 또한, '영상그룹 P2'가 재생되는 구간 동안에는 지도인터페이스(K2)에는 '이동경로 P2'이 점멸되거나 텍스트가 확대된 형태로 강조됨으로써 동영상 플레이어(K1)에서 현재 재생화면의 실제위치를 실시간 표시할 수 있다. 또한, '영상그룹 P3'이 재생되는 구간 동안에는 지도인터페이스(K2)에는 '이동경로 P3'이 점멸되거나 텍스트가 확대된 형태로 강조됨으로써 동영상 플레이어(K1)에서 현재 재생화면의 실제위치를 실시간 표시할 수 있다. For example, if the video group of the video player K1 is composed of P1, P2, and P3, and the shooting location data is different for each video group, the movement path information by the corresponding video group P1, P2, and P3 is different. It can be created as a line connected by color and displayed through the map interface K2, and the shooting location for each of the image groups P1, P2, and P3 can be distinguished according to each color. In addition, during the section where 'video group P1' is played, 'movement path P1' flashes on the map interface (K2) or the text is highlighted in an enlarged form, so that the actual location of the current playback screen in the video player (K1) can be displayed in real time. can In addition, during the section where 'video group P2' is played, 'movement path P2' flashes on the map interface (K2) or the text is highlighted in an enlarged form, so that the video player (K1) can display the actual location of the current playback screen in real time. can In addition, during the section where 'video group P3' is played, 'movement path P3' flashes on the map interface (K2) or the text is highlighted in an enlarged form, so that the actual location of the current playback screen in the video player (K1) can be displayed in real time. can

이와는 반대로, 지도인터페이스(K2)에 표시되는 이동경로정보 즉, 이동경로라인 P1, P2, P3 중 어느 하나를 선택(또는 터치)하면, 선택된 이동경로에 해당하는 재생구간이 인식되어 동영상 플레이어(K1)를 통해 해당 영상 부분이 재생될 수 있다.On the contrary, if any one of the movement route information displayed on the map interface K2, that is, the movement route line P1, P2, P3 is selected (or touched), the playback section corresponding to the selected movement route is recognized and the video player (K1 ), the corresponding video portion may be reproduced.

한편, 영상그룹이 촬영자가 이동하면서 촬영된 경우, 동영상 플레이어(K1)를 통해 해당 영상이 재생됨에 따라, 지도인터페이스(K2)에는 촬영위치 변화에 따라 이동경로 상에서 특정 아이콘(S: 촬영자를 상징함)이 실시간 이동될 수 있다.On the other hand, when a video group is filmed while the photographer moves, as the video is played through the video player K1, a specific icon (S: symbolizes the photographer) is displayed on the map interface K2 on the moving route according to the change in the shooting location. ) can be moved in real time.

본 실시예에 따른 이동경로정보는 지도인터페이스(K2)를 통해 해당 이동경로 상에 커머스 콘텐츠 아이콘을 표시할 수 있으며, 해당 커머스 콘텐츠 아이콘을 선택하면, 선택된 해당 커머스 콘텐츠에 대한 정보를 표시할 수 있다. 예를 들어, '이동경로 P2' 상에 '커머스 콘텐츠 아이콘 C2'가 표시될 수 있으며, 해당 아이콘을 선택하면, '** 횟집'이라는 맛집 카테고리로 등록된 커머스 정보가 표시될 수 있다. 상술한 바와 같이 커머스 콘텐츠는 동영상파일의 촬영위치와 관련하여 추출된 여행정보, 맛집정보, 광고정보 등이 포함되어 사용자에게 동영상파일의 촬영위치와 관련된 다양한 상업적 정보를 제공함으로써, 커머스 콘텐츠를 제공하는 사업자의 비즈니스 수입 모델 창출이 가능하다.For the movement route information according to the present embodiment, a commerce content icon may be displayed on the corresponding movement route through the map interface K2, and when the corresponding commerce content icon is selected, information on the selected commerce content may be displayed. . For example, 'commerce content icon C2' may be displayed on 'movement path P2', and when the corresponding icon is selected, commerce information registered as a restaurant category called '** raw fish restaurant' may be displayed. As described above, commerce content includes travel information, restaurant information, advertisement information, etc. extracted in relation to the filming location of the video file to provide users with various commercial information related to the filming location of the video file, thereby providing commerce content. It is possible to create a business income model for operators.

도 8은 본 발명의 다른 실시예에 따른 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 방법의 구성을 나타낸 순서도이고, 도 9는 본 발명의 다른 실시예에 따른 영상파일 등록 단계의 구성을 나타낸 순서도이고, 도 10은 본 발명의 다른 실시예에 따른 영상그룹 생성 단계의 구성을 나타낸 순서도이며, 도 11은 본 발명의 다른 실시예에 따른 지도서비스 제공 단계의 구성을 나타낸 순서도이다.8 is a flow chart showing the configuration of a method for automatically editing an image and providing a map service synchronized with the edited image according to another embodiment of the present invention, and FIG. 9 shows the configuration of a video file registration step according to another embodiment of the present invention. 10 is a flowchart showing the configuration of a video group generating step according to another embodiment of the present invention, and FIG. 11 is a flowchart showing the configuration of a map service providing step according to another embodiment of the present invention.

도 8을 참조하면, 본 발명의 다 실시예에 따른 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 방법(S1000)은 영상파일 등록 단계(S100), 이미지 전처리 단계(S200), 영상그룹 생성 단계(S300), 트랜지션 영상 삽입 단계(S400), 동영상파일 생성 단계(S500), 동영상파일 배포 단계(S600) 및 지도서비스 제공 단계(S700) 중 적어도 하나를 포함할 수 있다.Referring to FIG. 8 , a method of automatically editing an image and providing a map service synchronized with the edited image (S1000) according to various embodiments of the present invention includes a step of registering an image file (S100), a step of image preprocessing (S200), and a step of creating a video group. (S300), a transition image insertion step (S400), a video file creation step (S500), a video file distribution step (S600), and a map service providing step (S700).

상기 영상파일 등록 단계(S100)에서는, 사용자통신단말(10)로부터 다수의 영상파일을 입력 받아 자동편집서버(20)로 업로드 할 수 있다.In the video file registration step (S100), a plurality of video files may be received from the user communication terminal 10 and uploaded to the automatic editing server 20.

이를 위해 영상파일 등록 단계(S100)는 도 9에 도시된 바와 같이, 영상파일 선택 단계(S110)와 영상파일 업로드 단계(S120) 중 적어도 하나를 포함할 수 있다.To this end, the image file registration step (S100) may include at least one of an image file selection step (S110) and an image file upload step (S120), as shown in FIG.

상기 영상파일 선택 단계(S110)는, 사용자통신단말(10)의 앨범 또는 사진첩에 접근하여, 해당 앨범 또는 사진첩에 저장된 동영상파일 및 사진파일 중 적어도 하나의 영상파일을 선택 받도록 하거나, 사용자통신단말(10)의 카메라를 통해 촬영된 동영상이나 사진 중 어느 하나를 선택할 수 있도록 한다. In the video file selection step (S110), by accessing the album or photo album of the user communication terminal 10, selecting at least one video file from among video files and photo files stored in the corresponding album or photo album, or by the user communication terminal ( 10) allows users to select either a video or a photo taken by the camera.

상기 영상파일 업로드 단계(S120)는, 영상파일 선택 단계(S110)를 통해 선택된 동영상, 사진 등의 영상파일을 유선 또는 무선 인터넷 통신망을 통해 자동편집서버(20)로 업로드 할 수 있다. In the video file uploading step (S120), video files such as videos and photos selected in the video file selection step (S110) can be uploaded to the automatic editing server 20 through a wired or wireless Internet communication network.

상기 이미지 전처리 단계(S200)는, 영상파일 등록 단계(S100)를 통해 업로드 된 영상파일(동영상, 사진)의 사이즈를 미리 설정된 사이즈로 통일되도록 각각 변환하고, 영상파일의 방향이 미리 설정된 방향으로 정렬되도록 회전시켜 영상파일에 포함된 이미지데이터를 정규화할 수 있으며, 전처리가 완료된 영상파일을 영상그룹 생성 단계(S300)를 실행하기 위해 제공할 수 있다. 이때, 영상파일은 그 촬영방향 즉 세로로 촬영되었는지 또는 가로로 촬영되었는지에 따라 해당 영상의 사이즈와 형태가 상이할 수 있으므로, 이를 통일시키도록 영상을 회전 변환시킬 수 있다.In the image preprocessing step (S200), the size of the image files (videos and photos) uploaded through the image file registration step (S100) is converted to a uniform size, respectively, and the directions of the image files are aligned in the preset direction. Image data included in the image file may be normalized by rotating as much as possible, and the image file for which preprocessing is completed may be provided to execute the image group generation step (S300). At this time, since the size and shape of the corresponding image may be different depending on the image file's shooting direction, that is, vertical or horizontal, the images may be rotated and converted to unify them.

상기 영상그룹 생성 단계(S300)는, 다수의 영상파일(동영상, 사진)로부터 추출된 메타데이터(시간, 장소) 및 인식된 객체데이터(인물, 동물, 사물, 건물 등)에 따라 다수의 클립영상으로 분할하고, 인식된 메타데이터 및 객체데이터를 기반으로 다수의 클립영상 간 맥락을 추론하고, 맥락추론결과에 따라 클립영상을 배열 및 그룹화하여 다수의 클립영상을 포함한 적어도 하나의 영상그룹을 생성할 수 있다.In the image group creation step (S300), a plurality of clip images are generated according to metadata (time, place) extracted from a plurality of image files (video, photo) and recognized object data (person, animal, object, building, etc.) , inferring the context between a plurality of clip images based on the recognized metadata and object data, and arranging and grouping the clip images according to the result of the context inference to generate at least one image group including a plurality of clip images. can

이를 위해 영상그룹 생성 단계(S300)는 도 10에 도시된 바와 같이, 메타데이터 추출 단계(S310), 객체데이터 인식 단계(S320), 영상파일 분할 단계(S330), 객체 분석 단계(S340), 영상배열 형성 단계(S350) 및 영상그룹 생성 단계(S360) 중 적어도 하나를 포함할 수 있다.To this end, the image group creation step (S300), as shown in FIG. At least one of an array forming step (S350) and an image group generating step (S360) may be included.

상기 메타데이터 추출 단계(S310)는, 전처리가 완료된 동영상, 사진 등의 영상파일에서 메타데이터를 추출할 수 있으며, 추출된 메타데이터에서 촬영일시데이터와 촬영위치데이터를 각각 추출할 수 있다. 여기서, 촬영일시데이터는 영상파일이 촬영된 년, 월, 일, 시에 대한 정보를 포함하고, 촬영위치데이터는 영상파일을 촬영한 사용자통신단말(10)의 GPS위치정보를 포함할 수 있다. 이러한 촬영일시데이터와 촬영위치데이터는 후술하는 영상파일의 맥락추론을 위한 정보 중 하나로서 활용되며, 맥락추론을 위한 영상파일의 새로운 메타데이터로서 새롭게 저장 또는 정의될 수 있다.In the metadata extraction step (S310), metadata may be extracted from image files such as videos and photos for which preprocessing has been completed, and recording date and time data and recording location data may be extracted from the extracted metadata, respectively. Here, the recording date data may include information on the year, month, day, and time when the video file was captured, and the recording location data may include GPS location information of the user communication terminal 10 that captured the video file. Such photographing date and time data and photographing location data are utilized as one of information for context inference of an image file to be described later, and may be newly stored or defined as new metadata of an image file for context inference.

상기 객체데이터 인식 단계(S320)는, 전처리가 완료된 영상파일(동영상, 사진)에서 객체데이터를 인식할 수 있다. 이러한 객체데이터 인식 단계(S320)는 객체 인식을 위해 미리 정의된 머신러닝 알고리즘을 활용하여 영상파일의 영상데이터 내 존재하는 특정 객체를 인식할 수 있다. 여기서, 객체는 사람(인물), 동물(개, 고양이 등), 사물(자동차, 건축물, 교량, 신호등 등) 등 다양한 대상을 포함할 수 있으며, 본 실시예에서는 미리 설정된 객체 또는 객체군에 대한 인식 프로세스를 제공할 수 있다. In the object data recognizing step (S320), object data may be recognized in the preprocessed image file (video, photo). In this object data recognizing step (S320), a specific object present in the image data of the image file may be recognized by utilizing a predefined machine learning algorithm for object recognition. Here, the object may include various objects such as people (persons), animals (dogs, cats, etc.), objects (cars, buildings, bridges, traffic lights, etc.), and in this embodiment, recognition of a preset object or group of objects. process can be provided.

상기 영상파일 분할 단계(S330)는, 업로드 된 영상파일이 동영상파일인 경우 해당 동영상파일에서 인식된 객체데이터에 따라 해당 동영상파일을 해당 객체를 기준으로 분할하여 다수의 클립영상을 생성할 수 있다.In the video file division step (S330), if the uploaded video file is a video file, a plurality of clip images may be generated by dividing the video file based on the object according to the object data recognized in the video file.

예를 들어, 도 5의 (a) 및 (b)에 도시된 바와 같이 업로드 된 영상파일이 Video01, Video02, Image01, Video03, Image02, Video04가 있다고 가정했을 때, Video01에는 객체 1, 2가 인식되고, Video02에는 객체 1, 2가 인식되고, Video03에는 객체 2, 3이 인식되고, Video04에는 객체 2, 3이 인식되었다면, 각 인식객체가 나타나는 재생구간에 따라 Video를 다수의 클립영상으로 분할할 수 있다. 다만, 하나의 Video에서 서로 다른 객체가 서로 다른 재생구간에서 인식되는 경우 객체가 나타나는 구간 단위로 Video를 분할할 수 있다. 즉, Video01에는 객체 1, 2가 인식되었지만, 객체 1이 먼저 인식되고 객체 2가 인식된 후 다시 객체 1이 인식되는 경우 객체 1, 객체 2, 객체 3의 인식순서에 따라 Clip01, Clip02, Clip03으로 분할할 수 있다. For example, assuming that the uploaded video files have Video01, Video02, Image01, Video03, Image02, and Video04 as shown in (a) and (b) of FIG. 5, objects 1 and 2 are recognized in Video01 and , If objects 1 and 2 are recognized in Video02, objects 2 and 3 are recognized in Video03, and objects 2 and 3 are recognized in Video04, the video can be divided into multiple clips according to the playback section in which each recognized object appears. there is. However, if different objects are recognized in different playback sections in one video, the video can be divided into sections where the objects appear. That is, if objects 1 and 2 are recognized in Video01, but object 1 is recognized first, then object 2 is recognized, and then object 1 is recognized again, Clip01, Clip02, and Clip03 according to the recognition order of object 1, object 2, and object 3. can be divided

상기 객체 분석 단계(S340)는, 클립영상 및 사진파일 별로 인물객체에 대한 성별, 연령, 행동 및 감정 중 적어도 하나에 대한 객체특징을 분석하여 객체메타데이터를 생성할 수 있다. 여기서, 객체메타데이터는 후술하는 맥락추론을 위한 기초정보로서 활용되며, 클립영상 및 사진들에 대한 전후 맥락을 추론하기에 앞서 각 파일들에 나타나는 인물객체의 특징적 요소 즉, 성별, 연령, 행동, 감정 등의 특징을 미리 정의된 머신러닝 알고리즘을 활용하여 분석할 수 있다. 객체 분석 단계(S340)의 분석결과 즉, 객체메타데이터는 인식된 객체 별로 객체성별메타정보, 객체연령메타정보, 객체행동메타정보, 객체감정메타정보 중 적어도 하나를 정보를 포함하며, 후술하는 맥락추론을 위해 기초정보 중 하나로서 활용될 수 있다.In the object analysis step (S340), object metadata may be generated by analyzing object characteristics for at least one of gender, age, behavior, and emotion of the person object for each clip image and photo file. Here, object metadata is used as basic information for context inference, which will be described later, and prior to inferring the context of clip images and photos, the characteristic elements of person objects appearing in each file, that is, gender, age, behavior, Characteristics such as emotions can be analyzed using predefined machine learning algorithms. The analysis result of the object analysis step (S340), that is, the object metadata includes at least one of object gender meta information, object age meta information, object behavior meta information, and object emotion meta information for each recognized object, and the context described later. It can be used as one of the basic information for reasoning.

상기 영상배열 형성 단계(S350)는, 영상파일(클립영상 및 사진파일)의 촬영일시데이터 및 촬영위치데이터와, 객체메타데이터를 기반으로 클립영상 및 사진파일 각각 간의 맥락을 추론하고, 맥락추론결과에 따라 클립영상 및 사진파일을 자동 배열 또는 정렬하여 영상배열을 형성할 수 있다.In the image array forming step (S350), the context between each clip image and photo file is inferred based on the shooting date and time data and shooting location data of the image file (clip image and photo file) and object metadata, and the context inference result Depending on the above, an image arrangement can be formed by automatically arranging or arranging clip images and photo files.

예를 들어, 도 5의 (b)와 같이 분할된 Clip01, Clip02, Clip03, Clip04, Clip05, Image01, Clip06, Clip07, Clip08, Image02, Clip09, Clip10은 각 클립영상과 사진파일의 촬영시간, 촬영위치, 인물객체의 다양한 특성(성별, 연령, 행동, 감정)을 고려하여 미리 학습된 머신러닝 알고리즘을 통한 맥락추론을 실시하여 특정한 스토리나 전개를 갖는 파일들의 순서를 정의 또는 결정할 수 있으며, 이러한 맥락추론결과에 따라 도 5의 (c)에 도시된 바와 같이, Clip02, Clip04, Clip03, Image01, Clip01, Clip05, Clip06, Clip09, Image02, Clip08, Clip10, Clip07의 순서를 갖는 영상배열을 형성할 수 있다. For example, Clip01, Clip02, Clip03, Clip04, Clip05, Image01, Clip06, Clip07, Clip08, Image02, Clip09, and Clip10 divided as shown in (b) of FIG. , It is possible to define or determine the order of files having a specific story or development by conducting context inference through pre-learned machine learning algorithms in consideration of various characteristics (gender, age, behavior, emotion) of a person object, and such context inference According to the result, as shown in (c) of FIG. 5, an image array having the order of Clip02, Clip04, Clip03, Image01, Clip01, Clip05, Clip06, Clip09, Image02, Clip08, Clip10, Clip07 can be formed.

한편, 영상배열 형성 단계(S350)는, 영상배열에 포함된 클립영상을 재생 가능하게 표시하고, 영상배열에 포함된 클립영상 및 사진파일 각각의 배열 순서를 드래그 앤 드랍 방식으로 변경하기 위한 제1 사용자 인터페이스를 제공할 수 있다.On the other hand, in the image array forming step (S350), a first step for displaying clip images included in the image array in a reproducible manner and changing the arrangement order of each of the clip images and photo files included in the image array using a drag-and-drop method. A user interface can be provided.

예를 들어, 도 5의 (c)와 같이 도시된 영상배열이 Clip02, Clip04, Clip03, Image01, Clip01, Clip05, Clip06, Clip09, Image02, Clip08, Clip10, Clip07의 순서로 형성된 경우, Clip02 클립영상을 선택한 후 드래그하여 Clip01과 Clip05 사이에 드랍하고, Image02를 선택한 후 Clip04 앞으로 드랍하면, 해당 영상배열이 Image02, Clip04, Clip03, Image01, Clip01, Clip02, Clip05, Clip06, Clip09, Clip08, Clip10, Clip07의 순서로 재배치될 수 있다.For example, when the image array shown in (c) of FIG. 5 is formed in the order of Clip02, Clip04, Clip03, Image01, Clip01, Clip05, Clip06, Clip09, Image02, Clip08, Clip10, Clip07, Clip02 clip image After selecting and dragging to drop between Clip01 and Clip05, select Image02 and drop in front of Clip04, the image array will be in the order of Image02, Clip04, Clip03, Image01, Clip01, Clip02, Clip05, Clip06, Clip09, Clip08, Clip10, Clip07 can be relocated to

상기 영상그룹 생성 단계(S360)는, 영상배열 형성 단계(S350)를 통한 맥락추론결과를 기반으로 영상배열에서 맥락종료지점을 각각 경계점으로 자동 설정하고, 설정된 경계점을 기준으로 영상배열에 대한 그룹화를 수행하여 영상그룹을 생성할 수 있다.In the video group generating step (S360), based on the result of context inference through the image array forming step (S350), context end points in the video array are automatically set as boundary points, respectively, and the video arrays are grouped based on the set boundary points. You can create an image group by performing

예를 들어, 도 5의 (d)에 도시된 바와 같이 맥락추론결과에 따라 특정한 스토리의 흐름이 종료되는 지점으로 A1와 A2가 설정되면, 설정된 A1와 A2을 기준으로 Clip02, Clip04, Clip03, Image01으로 구성되는 제1 영상그룹, Clip01, Clip05, Clip06, Clip09로 구성되는 제2 영상그룹, Image02, Clip08, Clip10, Clip07로 구성되는 제3 영상그룹이 각각 정의될 수 있다. For example, as shown in (d) of FIG. 5 , when A1 and A2 are set as points at which the flow of a specific story ends according to the result of context inference, Clip02, Clip04, Clip03, Image01 based on the set A1 and A2. A first image group composed of , a second image group composed of Clip01, Clip05, Clip06, and Clip09, and a third image group composed of Image02, Clip08, Clip10, and Clip07 may be respectively defined.

한편, 영상그룹 생성 단계(S360)는, 맥락종료지점 즉 경계점의 위치를 드래그 앤 드랍 방식으로 변경하기 위한 제2 사용자 인터페이스를 제공할 수 있다.Meanwhile, in the image group creation step (S360), a second user interface for changing the position of the context end point, that is, the boundary point, may be provided using a drag-and-drop method.

예를 들어, 도 5의 (d)에 도시된 경계점 A1과 A2가 최초 설정되어 있는 상태에서, A1을 선택한 후 드래그하여 Clip01과 Clip05 사이에 드랍하면 제1 영상그룹은 Clip02, Clip04, Clip03, Image01, Clip01으로 재구성되고, 제2 영상그룹은 Clip05, Clip06, Clip09로 재구성될 수 있다.For example, in the state where the boundary points A1 and A2 shown in (d) of FIG. 5 are initially set, if A1 is selected and then dragged and dropped between Clip01 and Clip05, the first image group is Clip02, Clip04, Clip03, Image01 , Clip01, and the second image group can be reconstructed into Clip05, Clip06, and Clip09.

상기 트랜지션 영상 삽입 단계(S400)는, 각각의 영상그룹 사이를 경계점으로 인식하고, 인식된 경계점에 미리 준비된 트랜지션 영상을 삽입할 수 있다. 즉, 경계점 A1과 A2에 미리 준비된 트랜지션 영상을 삽입하여 제1 영상그룹에 대한 재생이 종료된 후 제2 영상그룹에 대한 재생이 이루어지기 전에 트랜지션 영상이 재생되어 제1 영상그룹과 제2 영상그룹 간의 화면 전환이 자연스럽게 이루어질 수 있도록 편집될 수 있다. In the transition image inserting step (S400), each image group may be recognized as a boundary point, and a previously prepared transition image may be inserted at the recognized boundary point. That is, after playback of the first image group is finished by inserting transition images prepared in advance at the boundary points A1 and A2, the transition image is reproduced before playback of the second image group is performed, and the first image group and the second image group are reproduced. It can be edited so that the transition between screens can be made naturally.

이때, 최종 생성될 동영상파일에 대한 테마, 컨셉, 카테고리 등을 사용자가 설정하면, 설정정보에 따라 미리 준비된 트랜지션 영상 중 적어도 하나가 자동 선택되어 경계점에 삽입됨으로써 클립영상 간 또는 클립영상과 사진 사이의 전환 시 매끄럽고 효과적인 장면전환이 자동적으로 연출되도록 할 수 있다. 물론, 본 실시예에 따른 트랜지션 영상은 사용자가 직접 제작 또는 편집한 영상으로 설정되어 자동 삽입될 수 있으며, 맥락추론결과에 따라 전후 맥락에 따른 이미지나 분위기에 맞는 컨셉의 트랜지션 영상이 자동 선택 또는 추천되어 적용될 수도 있다.At this time, if the user sets the theme, concept, category, etc. for the video file to be finally created, at least one of the transition videos prepared in advance according to the setting information is automatically selected and inserted at the boundary, thereby creating a clear image between clip images or between clip images and photos. Smooth and effective scene transitions can be produced automatically during transition. Of course, the transition video according to the present embodiment can be set as a video produced or edited by the user and automatically inserted, and a transition video with a concept suitable for the image or atmosphere according to the context is automatically selected or recommended according to the result of context inference. may be applied.

상기 동영상파일 생성 단계(S500)는, 도 5의 (e)에 도시된 바와 같이 트랜지션 영상이 삽입된 영상그룹과 경계점을 서로 결합하여 하나의 동영상파일을 생성할 수 있다. 이때, 사용자가 업로드 한 타이틀, 엔딩 등에 대한 텍스트 정보가 있는 경우 해당 동영상파일의 시작과 종료지점에 해당 텍스트 정보가 삽입된 영상클립이 추가 삽입되어 동영상파일에 적용될 수도 있다. In the video file generation step (S500), as shown in (e) of FIG. 5, one video file may be created by combining an image group into which a transition image is inserted and a boundary point. At this time, if there is text information about a title, an ending, etc. uploaded by a user, a video clip in which the text information is inserted may be additionally inserted at the start and end points of the corresponding video file and applied to the video file.

상기 동영상파일 배포 단계(S600)는, 동영상파일을 렌더링 및 압축한 후 유선 또는 무선 인터넷 통신망을 통해 사용자통신단말(10)로 전송하여 배포 또는 전송함으로써, 최초 업로드 한 다수의 동영상 및 사진을 이용하여 특정한 스토리 또는 시퀀스를 가지며 매끄럽고 효과적인 장면전환이 연출되도록 편지된 하나의 동영상파일을 제공할 수 있다.In the video file distribution step (S600), the video file is rendered and compressed, and then transmitted to the user communication terminal 10 through a wired or wireless Internet communication network for distribution or transmission, using a plurality of videos and photos uploaded for the first time. It is possible to provide a single video file that has a specific story or sequence and is written so that smooth and effective scene transitions can be produced.

상기 지도서비스 제공 단계(S700)는, 사용자통신단말(10)을 통한 동영상파일의 재생 시 지도 서비스 시스템과 연동하여 동영상파일에 포함된 메타데이터 중 촬영위치데이터에 따른 지도서비스를 제공할 수 있다.In the map service providing step (S700), when a video file is reproduced through the user communication terminal 10, a map service according to shooting location data among metadata included in the video file may be provided in conjunction with the map service system.

이를 위해, 지도서비스 제공 단계(S700)는 도 11에 도시된 바와 같이, 촬영위치정보 추출 단계(S710), 이동경로정보 생성 단계(S720), 커머스 콘텐츠 추출 단계(S730), 지도서비스정보 저장 단계(S740) 및 지도서비스정보 표시 단계(S750) 중 적어도 하나를 포함할 수 있다.To this end, as shown in FIG. 11, the map service providing step (S700) includes a photographing location information extraction step (S710), a movement route information generation step (S720), a commerce content extraction step (S730), and a map service information storage step. At least one of (S740) and displaying map service information (S750) may be included.

상기 촬영위치정보 추출 단계(S710)는, 동영상파일의 클립영상 및 사진파일에 각각에 대한 메타데이터 중 촬영위치데이터를 각각 추출할 수 있다.In the step of extracting the shooting location information (S710), shooting location data may be extracted from among metadata for each of the clip image and photo file of the video file.

상기 이동경로정보 생성 단계(S720)는, 지도 서비스 시스템을 이용하여 촬영위치정보 추출 단계(S710)를 통해 추출된 촬영위치데이터에 따른 이동경로정보를 생성할 수 있다. In the moving route information generating step (S720), moving route information according to the photographing location data extracted through the photographing location information extraction step (S710) may be generated using a map service system.

예를 들어, 동영상파일이 클립영상 a~d, 사진파일 e, 클립영상 f, g로 구성되어 있고, 클립영상 a~d의 각 촬영위치데이터와, 사진파일 e의 촬영위치데이터와, 클립영상 f, g의 각 촬영위치데이터를 지도 서비스 시스템에 검색 값으로 입력하고, 검색 결과를 바탕으로 이동경로정보를 생성할 수 있다. 이때, 생성된 이동경로정보는 촬영위치변화에 따른 이동경로를 알 수 있는 정보로, 시계열적인 특징이 반영될 수 있다. 이동경로정보에 시계열적 특징이 반영되기 위해서는 클립영상 a~d, 사진파일 e, 클립영상 f, g의 각 메타데이터 중 촬영일시데이터를 추가적으로 추출하고, 이를 반영하여 촬영위치데이터를 시계열적으로 정렬하거나, 클립영상 a~d, 사진파일 e, 클립영상 f, g 자체가 맥락에 따라 정렬되어 있는 바, 시계열적인 특성이 반영되어 있는 것으로 간주하여 클립영상 a~d, 사진파일 e, 클립영상 f, g의 순서대로 촬영위치데이터에 따른 이동경로정보를 생성할 수 있다. For example, a video file is composed of clip images a to d, photo files e, clip images f, and g, and the shooting location data of clip images a to d, the shooting location data of photo file e, and the clip image. Each photographing location data of f and g may be input as a search value to the map service system, and movement route information may be generated based on the search result. At this time, the generated moving path information is information for knowing the moving path according to the change in the photographing position, and time-sequential characteristics may be reflected. In order to reflect the time-sequential characteristics in the moving route information, the shooting date and time data is additionally extracted from the metadata of clip images a to d, photo files e, and clip images f and g, and the shooting location data is sorted in time series by reflecting this. Or, since clip images a to d, photo files e, clip images f, and g themselves are arranged according to context, clip images a to d, photo files e, and clip images f are considered to reflect time-series characteristics. , it is possible to generate movement path information according to the photographing location data in the order of g.

지도 서비스 시스템을 기반으로 생성된 이동경로정보에는 촬영위치데이터가 각각 포함되어 있으며, 각 촬영위치데이터는 클립영상 및 사진파일의 메타데이터로서 각각의 영상파일과 매칭되어 있어, 이동경로정보와 동영상파일이 동기화될 수 있다.The movement route information generated based on the map service system includes each of the shooting location data, and each shooting location data is the metadata of the clip image and photo file and is matched with each video file, so that the movement route information and the video file can be synchronized.

상기 커머스 콘텐츠 추출 단계(S730)는, 미리 구축된 데이터베이스에서 각 이동경로정보에 해당되는 커머스 콘텐츠를 추출할 수 있다. 본 실시예에 따른 데이터베이스는 위치정보를 기반으로 미리 등록된 여행정보, 맛집정보, 광고정보 등이 저장되어 있다. 이에 따라 커머스 콘텐츠 추출 단계(S730)는 이동경로정보에 포함된 촬영위치데이터에 해당하는 여행정보, 맛집정보, 광고정보를 해당 데이터베이스로부터 선별하고, 커머스 콘텐츠로서 추출할 수 있다.In the commerce content extraction step (S730), commerce content corresponding to each moving route information may be extracted from a pre-built database. The database according to the present embodiment stores pre-registered travel information, restaurant information, advertisement information, and the like based on location information. Accordingly, in the commerce content extraction step (S730), travel information, restaurant information, and advertisement information corresponding to the photographing location data included in the movement route information may be selected from the corresponding database and extracted as commerce content.

상기 지도서비스정보 저장 단계(S740)는, 동영상파일의 촬영위치데이터에 따라 생성된 이동경로정보 및 촬영위치데이터에 따라 추출된 커머스 콘텐츠를 해당 지도서비스정보로 저장할 수 있으며, 동영상파일의 재생 시 해당 지도서비스정보를 지도서비스정보 표시 단계(S750)로 제공할 수 있다.In the map service information storage step (S740), the moving route information generated according to the shooting location data of the video file and the commerce content extracted according to the shooting location data may be stored as corresponding map service information. Map service information may be provided in the map service information display step (S750).

상기 지도서비스정보 표시 단계(S750)는, 동영상파일의 재생 시 동영상파일을 지도 서비스 시스템에 동기화시켜 지도 상에서 지도서비스정보를 제공할 수 있다.In the displaying of map service information (S750), map service information may be provided on the map by synchronizing the video file with the map service system when the video file is reproduced.

예를 들어, 도 7에 도시된 바와 같이 동영상 플레이어(K1)를 통해 자동 편집된 특정 동영상파일을 재생하는 경우, 재생되는 해당 동영상파일에 대하여 미리 저장된 지도서비스정보를 사용자통신단말(10)을 통해 지원되는 지도 서비스 시스템과 연동하여 지도인터페이스(K2)을 통해 출력할 수 있다. 상술한 바와 같이, 동영상파일의 메타데이터 중 하나인 촬영위치데이터는 지도서비스정보의 이동경로정보와 매칭되어 있으므로, 동영상파일과 지도서비스정보는 서로 동기화되며, 이에 따라 동영상 플레이어(K1)와 지도인터페이스(K2)는 서로 동기화된 상태로 연동할 수 있다.For example, as shown in FIG. 7, when a specific automatically edited video file is played through the video player K1, pre-stored map service information for the video file being played is transmitted through the user communication terminal 10. It can be output through the map interface K2 in conjunction with a supported map service system. As described above, since the shooting location data, which is one of the metadata of the video file, is matched with the movement route information of the map service information, the video file and the map service information are synchronized with each other, and accordingly, the video player K1 and the map interface (K2) can work in synchronization with each other.

예를 들어, 동영상 플레이어(K1)의 영상그룹이 P1, P2, P3로 구성되고, 각 영상그룹 별로 촬영위치데이터가 각각 상이한 경우, 해당 영상그룹 P1, P2, P3에 의한 이동경로정보가 각기 다른 색상으로 이어진 라인으로 생성되어 지도인터페이스(K2)를 통해 표시될 수 있으며, 각 색상에 따라 영상그룹 P1, P2, P3 각각에 대한 촬영위치를 구별할 수 있다. 또한, '영상그룹 P1'이 재생되는 구간 동안에는 지도인터페이스(K2)에는 '이동경로 P1'이 점멸되거나 텍스트가 확대된 형태로 강조됨으로써 동영상 플레이어(K1)에서 현재 재생화면의 실제위치를 실시간 표시할 수 있다. 또한, '영상그룹 P2'가 재생되는 구간 동안에는 지도인터페이스(K2)에는 '이동경로 P2'이 점멸되거나 텍스트가 확대된 형태로 강조됨으로써 동영상 플레이어(K1)에서 현재 재생화면의 실제위치를 실시간 표시할 수 있다. 또한, '영상그룹 P3'이 재생되는 구간 동안에는 지도인터페이스(K2)에는 '이동경로 P3'이 점멸되거나 텍스트가 확대된 형태로 강조됨으로써 동영상 플레이어(K1)에서 현재 재생화면의 실제위치를 실시간 표시할 수 있다. For example, if the video group of the video player K1 is composed of P1, P2, and P3, and the shooting location data is different for each video group, the movement path information by the corresponding video group P1, P2, and P3 is different. It can be created as a line connected by color and displayed through the map interface K2, and the shooting location for each of the image groups P1, P2, and P3 can be distinguished according to each color. In addition, during the section where 'video group P1' is played, 'movement path P1' flashes on the map interface (K2) or the text is highlighted in an enlarged form, so that the actual location of the current playback screen in the video player (K1) can be displayed in real time. can In addition, during the section where 'video group P2' is played, 'movement path P2' flashes on the map interface (K2) or the text is highlighted in an enlarged form, so that the video player (K1) can display the actual location of the current playback screen in real time. can In addition, during the section where 'video group P3' is played, 'movement path P3' flashes on the map interface (K2) or the text is highlighted in an enlarged form, so that the actual location of the current playback screen in the video player (K1) can be displayed in real time. can

이와는 반대로, 지도인터페이스(K2)에 표시되는 이동경로정보 즉, 이동경로라인 P1, P2, P3 중 어느 하나를 선택(또는 터치)하면, 선택된 이동경로에 해당하는 재생구간이 인식되어 동영상 플레이어(K1)를 통해 해당 영상 부분이 재생될 수 있다.On the contrary, if any one of the movement route information displayed on the map interface K2, that is, the movement route line P1, P2, P3 is selected (or touched), the playback section corresponding to the selected movement route is recognized and the video player (K1 ), the corresponding video portion may be reproduced.

한편, 영상그룹이 촬영자가 이동하면서 촬영된 경우, 동영상 플레이어(K1)를 통해 해당 영상이 재생됨에 따라, 지도인터페이스(K2)에는 촬영위치 변화에 따라 이동경로 상에서 특정 아이콘(S: 촬영자를 상징함)이 실시간 이동될 수 있다.On the other hand, when a video group is filmed while the photographer moves, as the video is played through the video player K1, a specific icon (S: symbolizes the photographer) is displayed on the map interface K2 on the moving route according to the change in the shooting location. ) can be moved in real time.

본 실시예에 따른 이동경로정보는 지도인터페이스(K2)를 통해 해당 이동경로 상에 커머스 콘텐츠 아이콘을 표시할 수 있으며, 해당 커머스 콘텐츠 아이콘을 선택하면, 선택된 해당 커머스 콘텐츠에 대한 정보를 표시할 수 있다. 예를 들어, '이동경로 P2' 상에 '커머스 콘텐츠 아이콘 C2'가 표시될 수 있으며, 해당 아이콘을 선택하면, '** 횟집'이라는 맛집 카테고리로 등록된 커머스 정보가 표시될 수 있다. 상술한 바와 같이 커머스 콘텐츠는 동영상파일의 촬영위치와 관련하여 추출된 여행정보, 맛집정보, 광고정보 등이 포함되어 사용자에게 동영상파일의 촬영위치와 관련된 다양한 상업적 정보를 제공함으로써, 커머스 콘텐츠를 제공하는 사업자의 비즈니스 수입 모델 창출이 가능하다.For the movement route information according to the present embodiment, a commerce content icon may be displayed on the corresponding movement route through the map interface K2, and when the corresponding commerce content icon is selected, information on the selected commerce content may be displayed. . For example, 'commerce content icon C2' may be displayed on 'movement path P2', and when the corresponding icon is selected, commerce information registered as a restaurant category called '** raw fish restaurant' may be displayed. As described above, commerce content includes travel information, restaurant information, advertisement information, etc. extracted in relation to the filming location of the video file to provide users with various commercial information related to the filming location of the video file, thereby providing commerce content. It is possible to create a business income model for operators.

이상에서 설명한 것은 본 발명에 의한 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 시스템 및 그 방법을 실시하기 위한 하나의 실시예에 불과한 것으로서, 본 발명은 상기 실시예에 한정되지 않고, 이하의 특허청구범위에서 청구하는 바와 같이 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변경 실시가 가능한 범위까지 본 발명의 기술적 정신이 있다고 할 것이다.What has been described above is only one embodiment for implementing a system and method for automatically editing an image and synchronizing a map service with the edited image according to the present invention, and the present invention is not limited to the above embodiment, and the following patents As claimed in the claims, anyone skilled in the art without departing from the gist of the present invention will say that the technical spirit of the present invention exists to the extent that various changes can be made.

1000: 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 시스템
100: 영상파일 등록부
110: 영상파일 선택부
120: 영상파일 업로드부
200: 이미지 전처리부
300: 영상그룹 생성부
310: 메타데이터 추출부
320: 객체 인식부
330: 영상파일 분할부
340: 객체 분석부
350: 영상배열 형성부
360: 영상그룹 생성부
400: 트랜지션 영상 삽입부
500: 동영상파일 생성부
600: 동영상파일 배포부
700: 지도서비스 제공부
710: 촬영위치정보 추출부
720: 이동경로정보 생성부
730: 커머스 콘텐츠 추출부
740: 지도서비스정보 저장부
750: 지도서비스정보 표시부
S1000: 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 방법
S100: 영상파일 등록 단계
S110: 영상파일 선택 단계
S120: 영상파일 업로드 단계
S200: 이미지 전처리 단계
S300: 영상그룹 생성 단계
S310: 메타데이터 추출 단계
S320: 객체 인식 단계
S330: 영상파일 분할 단계
S340: 객체 분석 단계
S350: 영상배열 형성 단계
S360: 영상그룹 생성 단계
S400: 트랜지션 영상 삽입 단계
S500: 동영상파일 생성 단계
S600: 동영상파일 배포 단계
S700: 지도서비스 제공 단계
S710: 촬영위치정보 추출 단계
S720: 이동경로정보 생성 단계
S730: 커머스 콘텐츠 추출 단계
S740: 지도서비스정보 저장 단계
S750: 지도서비스정보 표시 단계
1000: Automatic video editing and map service provision system synchronized with edited video
100: image file register
110: video file selection unit
120: image file upload unit
200: image pre-processing unit
300: image group creation unit
310: metadata extraction unit
320: object recognition unit
330: video file division unit
340: object analysis unit
350: image array forming unit
360: image group creation unit
400: transition video insertion unit
500: video file generation unit
600: video file distribution unit
700: map service provider
710: shooting location information extraction unit
720: movement route information generation unit
730: commerce content extraction unit
740: map service information storage unit
750: map service information display unit
S1000: Method for automatically editing video and providing map service synchronized with edited video
S100: image file registration step
S110: Video file selection step
S120: Image file upload step
S200: image pre-processing step
S300: Image group creation step
S310: metadata extraction step
S320: object recognition step
S330: Image file division step
S340: object analysis step
S350: image array formation step
S360: Image group creation step
S400: Transition image insertion step
S500: video file creation step
S600: Video file distribution step
S700: Map service provision step
S710: photographing location information extraction step
S720: Movement route information generation step
S730: commerce content extraction step
S740: Map service information storage step
S750: Map service information display step

Claims (14)

영상그룹 생성부가, 다수의 영상파일로부터 추출된 메타데이터 및 인식된 객체데이터에 따라 다수의 클립영상으로 분할하고, 상기 메타데이터 및 상기 객체데이터를 기반으로 한 다수의 클립영상 간 맥락을 추론하고, 맥락추론결과에 따라 상기 클립영상을 배열 및 그룹화하여 다수의 클립영상을 포함한 적어도 하나의 영상그룹을 생성하는 영상그룹 생성 단계;
트랜지션 영상 삽입부가, 상기 영상그룹 간을 경계점으로 인식하고, 인식된 경계점에 미리 준비된 트랜지션 영상을 삽입하는 트랜지션 영상 삽입 단계;
동영상파일 생성부가, 상기 트랜지션 영상이 삽입된 영상그룹과 상기 경계점 간을 서로 결합하여 동영상파일을 생성하는 동영상파일 생성 단계; 및
지도서비스 제공부가, 사용자통신단말을 통한 상기 동영상파일의 재생 시 지도 서비스 시스템과 연동하여 상기 동영상파일에 포함된 메타데이터 중 촬영위치데이터에 따른 지도서비스를 제공하는 지도서비스 제공 단계를 포함하고,
상기 영상파일은 동영상파일 및 사진파일 중 적어도 하나를 포함하고,
상기 영상그룹 생성 단계는,
영상파일에서 촬영일시데이터와 촬영위치데이터를 각각 추출하는 메타데이터 추출 단계;
영상파일에서 객체데이터를 인식하는 객체 인식 단계;
영상파일이 동영상파일인 경우 상기 객체데이터에 따라 해당 영상파일을 분할하여 다수의 클립영상을 생성하는 영상파일 분할 단계;
클립영상 및 사진파일 별로 인물객체에 대한 성별, 연령, 행동 및 감정 중 적어도 하나를 분석하여 객체메타데이터를 생성하는 객체 분석 단계;
상기 촬영일시데이터, 상기 촬영위치데이터 및 상기 객체메타데이터를 기반으로 클립영상 및 사진파일 각각 간의 맥락을 추론하고, 맥락추론결과에 따라 클립영상 및 사진파일을 자동 배열하여 영상배열을 형성하는 영상배열 형성 단계; 및
상기 맥락추론결과를 기반으로 상기 영상배열에서 맥락종료지점을 각각 경계점으로 자동 설정하고, 설정된 상기 경계점을 기준으로 상기 영상배열에 대한 그룹화를 수행하여 상기 영상그룹을 형성하는 영상그룹 형성 단계를 포함하는 것을 특징으로 하는 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 방법.
The image group generator divides the image into a plurality of clip images according to the metadata extracted from the plurality of image files and the recognized object data, and infers the context between the plurality of clip images based on the metadata and the object data; an image group generating step of generating at least one image group including a plurality of clip images by arranging and grouping the clip images according to a result of context inference;
a transition image inserting step of recognizing, by a transition image inserting unit, the boundary between the image groups as a boundary point, and inserting a previously prepared transition image at the recognized boundary point;
a video file generation step of generating a video file by combining, by a video file generator, between the video group into which the transition video is inserted and the boundary point; and
A map service providing step in which a map service providing unit provides a map service according to shooting location data among metadata included in the video file in conjunction with a map service system when the video file is played back through a user communication terminal,
The image file includes at least one of a video file and a photo file,
The image group creation step,
A metadata extraction step of extracting shooting date and time data and shooting location data from the image file, respectively;
object recognition step of recognizing object data in the image file;
If the video file is a video file, dividing the corresponding video file according to the object data to generate a plurality of clip images;
An object analysis step of generating object metadata by analyzing at least one of gender, age, behavior, and emotion of the person object for each clip image and photo file;
An image arrangement in which a context between each clip image and photo file is inferred based on the shooting date data, the shooting location data, and the object metadata, and the clip image and photo files are automatically arranged according to the result of the context inference to form an image arrangement. formation step; and
An image group forming step of automatically setting a context end point in the image array as a boundary point based on a result of the context inference, and grouping the image array based on the set boundary point to form the image group. A method of automatically editing an image and providing a map service synchronized with the edited image, characterized in that.
제1 항에 있어서,
영상파일 등록부가, 사용자통신단말로부터 다수의 영상파일을 입력 받아 자동편집서버로 업로드 하는 영상파일 등록 단계; 및
동영상파일 배포부가, 상기 동영상파일을 사용자통신단말로 전송하여 배포하는 동영상파일 배포 단계를 더 포함하는 것을 특징으로 하는 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 방법.
According to claim 1,
A video file registration step in which the video file registration unit receives a plurality of video files from the user communication terminal and uploads them to an automatic editing server; and
A video file distribution step of transmitting and distributing the video file to a user communication terminal by a video file distribution unit.
제2 항에 있어서,
상기 영상파일 등록 단계는,
동영상파일 및 사진파일 중 적어도 하나의 영상파일을 선택 받는 영상파일 선택 단계; 및
상기 영상파일 선택 단계를 통해 선택된 영상파일을 업로드 하는 영상파일 업로드 단계를 포함하는 것을 특징으로 하는 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 방법.
According to claim 2,
The video file registration step,
A video file selection step of receiving a selection of at least one video file from among a video file and a photo file; and
An image file uploading step of uploading the image file selected through the image file selection step.
제2 항에 있어서,
상기 영상파일 등록 단계를 통해 업로드 된 영상파일의 사이즈를 미리 설정된 사이즈로 각각 변환하고, 영상파일의 방향이 미리 설정된 방향으로 정렬되도록 회전시켜 영상파일에 포함된 이미지데이터를 정규화하여 상기 영상그룹 생성 단계를 실행하기 위해 전달하는 이미지 전처리 단계를 더 포함하는 것을 특징으로 하는 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 방법.
According to claim 2,
Creating the image group by converting the size of each image file uploaded through the image file registration step to a preset size, and normalizing image data included in the image file by rotating the image file so that the orientation of the image file is aligned in the preset direction. Automatic image editing and map service provision method synchronized with the edited image, characterized in that it further comprises an image pre-processing step to deliver to execute.
삭제delete 제1 항에 있어서,
상기 지도서비스 제공 단계는,
상기 동영상파일의 클립영상 별 상기 촬영위치데이터를 각각 추출하는 촬영위치정보 추출 단계;
지도 서비스 시스템을 이용하여 상기 촬영위치데이터에 따른 이동경로정보를 생성하는 이동경로정보 생성 단계;
미리 구축된 데이터베이스에서 상기 이동경로정보에 해당되는 커머스 콘텐츠를 추출하는 커머스 콘텐츠 추출 단계;
상기 촬영위치데이터에 따른 상기 이동경로정보 및 상기 커머스 콘텐츠를 지도서비스정보로 저장하는 지도서비스정보 저장 단계; 및
상기 동영상파일의 재생 시 상기 동영상파일을 지도 서비스 시스템에 동기화시켜 지도 상에서 상기 지도서비스정보를 제공하는 지도서비스정보 표시 단계를 포함하는 것을 특징으로 하는 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 방법.
According to claim 1,
The step of providing the map service,
a photographing location information extraction step of extracting the photographing position data for each clip image of the video file;
a movement route information generating step of generating movement route information according to the photographing location data using a map service system;
A commerce content extraction step of extracting commerce content corresponding to the movement route information from a pre-built database;
a map service information storage step of storing the moving route information and the commerce contents according to the photographing location data as map service information; and
and a map service information display step of providing the map service information on a map by synchronizing the video file with a map service system when the video file is reproduced. .
제6 항에 있어서,
상기 지도서비스정보 표시 단계는,
상기 동영상파일의 현재재생시점에 따라 상기 이동경로정보를 표시하고,
상기 이동경로정보 중 사용자에 의해 선택된 위치에 해당하는 상기 커머스 콘텐츠를 표시하는 것을 특징으로 하는 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 방법.
According to claim 6,
In the step of displaying map service information,
Displaying the movement path information according to the current playback point of the video file;
The method of automatically editing a video and providing a map service synchronized with the edited video, characterized in that for displaying the commerce content corresponding to a location selected by a user from among the moving route information.
다수의 영상파일로부터 추출된 메타데이터 및 인식된 객체데이터에 따라 다수의 클립영상으로 분할하고, 상기 메타데이터 및 상기 객체데이터를 기반으로 한 다수의 클립영상 간 맥락을 추론하고, 맥락추론결과에 따라 상기 클립영상을 배열 및 그룹화하여 다수의 클립영상을 포함한 적어도 하나의 영상그룹을 생성하는 영상그룹 생성부;
상기 영상그룹 간을 경계점으로 인식하고, 인식된 경계점에 미리 준비된 트랜지션 영상을 삽입하는 트랜지션 영상 삽입부;
상기 트랜지션 영상이 삽입된 영상그룹과 상기 경계점 간을 서로 결합하여 동영상파일을 생성하는 동영상파일 생성부; 및
사용자통신단말을 통한 상기 동영상파일의 재생 시 지도 서비스 시스템과 연동하여 상기 동영상파일에 포함된 메타데이터 중 촬영위치데이터에 따른 지도서비스를 제공하는 지도서비스 제공부를 포함하고,
상기 영상파일은 동영상파일 및 사진파일 중 적어도 하나를 포함하고,
상기 영상그룹 생성부는,
영상파일에서 촬영일시데이터와 촬영위치데이터를 각각 추출하는 메타데이터 추출부;
영상파일에서 객체데이터를 인식하는 객체 인식부;
영상파일이 동영상파일인 경우 상기 객체데이터에 따라 해당 영상파일을 분할하여 다수의 클립영상을 생성하는 영상파일 분할부;
클립영상 및 사진파일 별로 인물객체에 대한 성별, 연령, 행동 및 감정 중 적어도 하나를 분석하여 객체메타데이터를 생성하는 객체 분석부;
상기 촬영일시데이터, 상기 촬영위치데이터 및 상기 객체메타데이터를 기반으로 클립영상 및 사진파일 각각 간의 맥락을 추론하고, 맥락추론결과에 따라 클립영상 및 사진파일을 자동 배열하여 영상배열을 형성하는 영상배열 형성부; 및
상기 맥락추론결과를 기반으로 상기 영상배열에서 맥락종료지점을 각각 경계점으로 자동 설정하고, 설정된 상기 경계점을 기준으로 상기 영상배열에 대한 그룹화를 수행하여 상기 영상그룹을 형성하는 영상그룹 형성부를 포함하는 것을 특징으로 하는 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 시스템.
Segmentation into a plurality of clip images according to the metadata extracted from a plurality of image files and recognized object data, inferring the context between the plurality of clip images based on the metadata and the object data, and according to the result of the context inference an image group generating unit for generating at least one image group including a plurality of clip images by arranging and grouping the clip images;
a transition image inserting unit for recognizing the image groups as a boundary point and inserting a previously prepared transition image at the recognized boundary point;
a video file generation unit generating a video file by combining the video group into which the transition video is inserted and the boundary point; and
A map service providing unit providing a map service according to shooting location data among metadata included in the video file in conjunction with a map service system when the video file is played through a user communication terminal;
The image file includes at least one of a video file and a photo file,
The image group creation unit,
a metadata extraction unit for extracting shooting date and time data and shooting location data from an image file;
an object recognizing unit recognizing object data in an image file;
If the video file is a video file, an image file division unit for generating a plurality of clip images by dividing the corresponding video file according to the object data;
an object analyzer for generating object metadata by analyzing at least one of gender, age, behavior, and emotion of a person object for each clip image and photo file;
An image arrangement in which a context between each clip image and photo file is inferred based on the shooting date data, the shooting location data, and the object metadata, and the clip image and photo files are automatically arranged according to the result of the context inference to form an image arrangement. forming part; and
and an image group forming unit for forming the image groups by automatically setting context end points in the image array as boundary points based on a result of the context inference, and grouping the image arrays based on the set boundary points. Automatic video editing and map service provision system synchronized with the edited video.
제8 항에 있어서,
사용자통신단말로부터 다수의 영상파일을 입력 받아 자동편집서버로 업로드 하는 영상파일 등록부; 및
상기 동영상파일을 사용자통신단말로 전송하여 배포하는 동영상파일 배포부를 더 포함하는 것을 특징으로 하는 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 시스템.
According to claim 8,
a video file registration unit that receives a plurality of video files from a user communication terminal and uploads them to an automatic editing server; and
The video file distribution unit for transmitting and distributing the video file to a user communication terminal further comprising automatic video editing and map service providing system synchronized with the edited video.
제9 항에 있어서,
상기 영상파일 등록부는,
동영상파일 및 사진파일 중 적어도 하나의 영상파일을 선택 받는 영상파일 선택부; 및
상기 영상파일 선택부를 통해 선택된 영상파일을 업로드 하는 영상파일 업로드부를 포함하는 것을 특징으로 하는 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 시스템.
According to claim 9,
The video file registration unit,
a video file selector receiving at least one video file selected from a video file and a photo file; and
An image file uploading unit for uploading the image file selected through the video file selection unit.
제9 항에 있어서,
상기 영상파일 등록부를 통해 업로드 된 영상파일의 사이즈를 미리 설정된 사이즈로 각각 변환하고, 영상파일의 방향이 미리 설정된 방향으로 정렬되도록 회전시켜 영상파일에 포함된 이미지데이터를 정규화하여 상기 영상그룹 생성부를 실행하기 위해 전달하는 이미지 전처리부를 더 포함하는 것을 특징으로 하는 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 시스템.
According to claim 9,
The size of each video file uploaded through the video file registration unit is converted to a preset size, and the image data included in the video file is normalized by rotating the image file so that the direction of the video file is aligned in the preset direction, and the image group creation unit executes the image. Automatic image editing and map service providing system synchronized with the edited image, characterized in that it further comprises an image pre-processing unit transmitted to do.
삭제delete 제8 항에 있어서,
상기 지도서비스 제공부는,
상기 동영상파일의 클립영상 별 상기 촬영위치데이터를 각각 추출하는 촬영위치정보 추출부;
지도 서비스 시스템을 이용하여 상기 촬영위치데이터에 따른 이동경로정보를 생성하는 이동경로정보 생성부;
미리 구축된 데이터베이스에서 상기 이동경로정보에 해당되는 커머스 콘텐츠를 추출하는 커머스 콘텐츠 추출부;
상기 촬영위치데이터에 따른 상기 이동경로정보 및 상기 커머스 콘텐츠를 지도서비스정보로 저장하는 지도서비스정보 저장부; 및
상기 동영상파일의 재생 시 상기 동영상파일을 지도 서비스 시스템에 동기화시켜 지도 상에서 상기 지도서비스정보를 표시하는 지도서비스정보 표시부를 포함하는 것을 특징으로 하는 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 시스템.
According to claim 8,
The map service provider,
a shooting location information extraction unit extracting the shooting location data for each clip image of the video file;
a movement route information generating unit generating movement route information according to the photographing location data using a map service system;
a commerce content extractor for extracting commerce content corresponding to the moving route information from a pre-built database;
a map service information storage unit which stores the moving route information according to the photographing location data and the commerce contents as map service information; and
and a map service information display unit for displaying the map service information on a map by synchronizing the video file with a map service system when the video file is reproduced.
제13 항에 있어서,
상기 지도서비스정보 표시부는,
상기 동영상파일의 현재재생시점에 따라 상기 이동경로정보를 표시하고,
상기 이동경로정보 중 사용자에 의해 선택된 위치에 해당하는 상기 커머스 콘텐츠를 표시하는 것을 특징으로 하는 영상 자동 편집 및 편집 영상과 동기화된 지도 서비스 제공 시스템.
According to claim 13,
The map service information display unit,
Displaying the movement path information according to the current playback point of the video file;
Automatic image editing and map service providing system synchronized with the edited image, characterized in that for displaying the commerce content corresponding to the location selected by the user among the moving route information.
KR1020220161623A 2022-11-28 2022-11-28 System and method for providing automatic video editing and map service synchronized with the edited video KR102521905B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220161623A KR102521905B1 (en) 2022-11-28 2022-11-28 System and method for providing automatic video editing and map service synchronized with the edited video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220161623A KR102521905B1 (en) 2022-11-28 2022-11-28 System and method for providing automatic video editing and map service synchronized with the edited video

Publications (1)

Publication Number Publication Date
KR102521905B1 true KR102521905B1 (en) 2023-04-17

Family

ID=86128248

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220161623A KR102521905B1 (en) 2022-11-28 2022-11-28 System and method for providing automatic video editing and map service synchronized with the edited video

Country Status (1)

Country Link
KR (1) KR102521905B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010046881A (en) * 1999-11-16 2001-06-15 박권상 Video screen editor
KR20090078658A (en) * 2008-01-15 2009-07-20 주식회사 케이티 Apparatus and method for managing the information of travel
KR20140033667A (en) 2012-09-10 2014-03-19 에스케이플래닛 주식회사 Apparatus and method for video edit based on object
KR20180090970A (en) 2018-08-01 2018-08-14 에스케이텔레콤 주식회사 Method for displaying of image according to location, apparatus and system for the same
KR20190063352A (en) * 2017-11-29 2019-06-07 한국전자통신연구원 Apparatus and method for clip connection of image contents by similarity analysis between clips
KR20190122860A (en) * 2017-03-23 2019-10-30 스노우 주식회사 Story video production method and system
KR102308889B1 (en) * 2020-11-02 2021-10-01 영남대학교 산학협력단 Method for video highlight detection and computing device for executing the method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010046881A (en) * 1999-11-16 2001-06-15 박권상 Video screen editor
KR20090078658A (en) * 2008-01-15 2009-07-20 주식회사 케이티 Apparatus and method for managing the information of travel
KR20140033667A (en) 2012-09-10 2014-03-19 에스케이플래닛 주식회사 Apparatus and method for video edit based on object
KR20190122860A (en) * 2017-03-23 2019-10-30 스노우 주식회사 Story video production method and system
KR20190063352A (en) * 2017-11-29 2019-06-07 한국전자통신연구원 Apparatus and method for clip connection of image contents by similarity analysis between clips
KR20180090970A (en) 2018-08-01 2018-08-14 에스케이텔레콤 주식회사 Method for displaying of image according to location, apparatus and system for the same
KR102308889B1 (en) * 2020-11-02 2021-10-01 영남대학교 산학협력단 Method for video highlight detection and computing device for executing the method

Similar Documents

Publication Publication Date Title
US8717367B2 (en) Automatically generating audiovisual works
US8487939B2 (en) Embedding animation in electronic mail, text messages and websites
US20130329060A1 (en) Overlay image providing system, server and method
CN110019880A (en) Video clipping method and device
CN101390032A (en) System and methods for storing, editing, and sharing digital video
EP3183730B1 (en) Unscripted digital media message generation
JP7457804B2 (en) VIDEO GENERATION METHOD AND APPARATUS, ELECTRONIC DEVICE, AND COMPUTER READABLE MEDIUM - Patent application
CN111343467B (en) Live broadcast data processing method and device, electronic equipment and storage medium
CN110188216B (en) Photo live broadcasting system with character recognition and method thereof
KR102521904B1 (en) System and method for automatic video editing using utilization of auto labeling and insertion of design elements
WO2017157135A1 (en) Media information processing method, media information processing device and storage medium
KR102521903B1 (en) System and method for automatic video editing using auto labeling
KR102523438B1 (en) System and method for automatic video editing using utilization of auto labeling and insertion of design elements
JPWO2008136466A1 (en) Movie editing device
KR101954717B1 (en) Apparatus for Processing Image by High Speed Analysis and Driving Method Thereof
CN115115740A (en) Thinking guide graph recognition method, device, equipment, medium and program product
KR102521905B1 (en) System and method for providing automatic video editing and map service synchronized with the edited video
US20190122354A1 (en) Context-based imagery selection
KR20210124906A (en) System And Method For Obtaining Image Information, And Method For Displaying Image Acquisition Information
CN115114236A (en) Management system and management method for photos and/or videos
US20070101267A1 (en) Template-based multimedia capturing
US11893965B2 (en) Embedding animation in electronic mail, text messages and websites
CN110633377A (en) Picture cleaning method and device
CN106021322A (en) Multifunctional image input method
KR20170077000A (en) Auto Content Creation Methods and System based on Content Recognition Technology

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant