KR20210057428A - Method, user device and recording medium for computer program - Google Patents

Method, user device and recording medium for computer program Download PDF

Info

Publication number
KR20210057428A
KR20210057428A KR1020190144177A KR20190144177A KR20210057428A KR 20210057428 A KR20210057428 A KR 20210057428A KR 1020190144177 A KR1020190144177 A KR 1020190144177A KR 20190144177 A KR20190144177 A KR 20190144177A KR 20210057428 A KR20210057428 A KR 20210057428A
Authority
KR
South Korea
Prior art keywords
image
analysis
section
user device
highlight
Prior art date
Application number
KR1020190144177A
Other languages
Korean (ko)
Other versions
KR102372721B1 (en
Inventor
장혁재
Original Assignee
라인플러스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 라인플러스 주식회사 filed Critical 라인플러스 주식회사
Priority to KR1020190144177A priority Critical patent/KR102372721B1/en
Publication of KR20210057428A publication Critical patent/KR20210057428A/en
Priority to KR1020220028019A priority patent/KR102586422B1/en
Application granted granted Critical
Publication of KR102372721B1 publication Critical patent/KR102372721B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44222Analytics of user selections, e.g. selection of programs or purchase activity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8549Creating video summaries, e.g. movie trailer

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

Provided are an image analysis method, a user device performing the image analysis method, and a computer program executing the user device and the image analysis method. The image analysis method of the present invention comprises the steps of: determining whether to analyze one or more images stored in a memory; selecting an analysis target image from the one or more images; analyzing the analysis target image; and outputting the analysis result.

Description

영상 분석 방법, 사용자 디바이스 및 컴퓨터 프로그램{METHOD, USER DEVICE AND RECORDING MEDIUM FOR COMPUTER PROGRAM}Video analysis method, user device and computer program {METHOD, USER DEVICE AND RECORDING MEDIUM FOR COMPUTER PROGRAM}

본 발명은 영상을 분석하고 분석된 결과를 출력하는 영상 분석 방법, 사용자 디바이스 및 컴퓨터 프로그램에 관한 것이다. 구체적으로, 본 발명은 영상을 분석하여 하이라이트(highlight) 구간을 식별하고, 적어도 하나의 하이라이트 구간에 관한 정보를 출력하거나, 적어도 하나의 하이라이트 구간으로 구성된 하이라이트 영상을 출력함으로써, 영상적으로 유의미한 출력용 영상을 사용자에게 제공할 수 있는 방법, 사용자 디바이스 및 그러한 방법을 실행할 수 있는 컴퓨터 판독 가능한 기록 매체에 저장된 프로그램에 관한 것이다.The present invention relates to an image analysis method, a user device, and a computer program for analyzing an image and outputting the analyzed result. Specifically, the present invention analyzes an image to identify a highlight section, outputs information on at least one highlight section, or outputs a highlight image composed of at least one highlight section, thereby making an image meaningful for output. It relates to a method capable of providing a user with a user device, a user device, and a program stored in a computer-readable recording medium capable of executing the method.

최근 인스턴트 메신저 어플리케이션, SNS(Social Network Service) 등을 통한 커뮤니케이션의 경향은 단순한 대화의 수준을 넘어 동영상 위주의 커뮤니케이션으로 변화하고 있다. 사용자는 개인적으로 촬영하거나 외부로부터 획득한 동영상을 커뮤니케이션에 바로 이용하기보다는 해당 동영상을 출력용으로 편집한 후 이용할 수 있다. 예컨대, 사용자는 획득한 동영상에서 출력하기에 적절하지 않은 부분(영상 앞의 촬영 준비 부분, 영상 뒤의 촬영 마무리 부분, 심하게 흔들리거나 잘못 촬영된 부분 등)을 제거함으로써 유의미한 출력용 영상을 생성할 수 있다. 이런 이유로 동영상 위주의 커뮤니케이션을 지원하는 대부분의 서비스는 동영상을 편집할 수 있는 기본적인 편집 기능을 제공하고 있다.In recent years, the trend of communication through instant messenger applications and SNS (Social Network Service) is changing to video-oriented communication beyond the level of simple conversation. Users can use the video after editing the video for output, rather than using the video taken personally or obtained from the outside directly for communication. For example, a user can create a meaningful output image by removing portions of the acquired video that are not suitable for output (preparing to shoot in front of the image, finishing shooting behind the image, severely shaken or incorrectly photographed, etc.). . For this reason, most services that support video-oriented communication provide basic editing functions for editing videos.

동영상을 편집하는 사용자는 동영상을 반복적으로 재생하면서 불필요한 구간을 제외하고 필요한 부분을 선택함으로써 적절한 길이의 출력용 영상을 생성한다. 그러나, 동영상을 이용한 커뮤니케이션이 점점 증가하면서, 사용자가 모든 동영상을 직접 편집하는데 한계가 존재하므로, 메모리에 저장된 동영상을 자동으로 분석하고 분석된 결과를 사용자에게 제공하는 방안이 요구된다. 또한, 동영상의 편집은 상당한 양의 디바이스의 자원을 필요로 하므로, 메모리에 저장된 동영상을 자동으로 분석하는 타이밍의 선택에 있어서도 주의가 필요하다.A user who edits a video generates an output video of an appropriate length by selecting a necessary part excluding an unnecessary section while repeatedly playing the video. However, as communication using moving pictures increases, there is a limit to the user's direct editing of all moving pictures. Therefore, there is a need for a method of automatically analyzing the moving pictures stored in the memory and providing the analyzed results to the user. In addition, since editing of a moving picture requires a considerable amount of device resources, care must be taken in selecting a timing for automatically analyzing the moving picture stored in the memory.

본 발명은 영상을 분석하고 분석된 결과를 출력하는 영상 분석 방법을 제공하는 것을 목적으로 한다.An object of the present invention is to provide an image analysis method for analyzing an image and outputting the analyzed result.

또한, 본 발명은 영상을 구성하는 프레임을 분석하고, 영상을 구성하는 하이라이트 구간을 식별한 후, 식별된 하이라이트 구간의 특성에 기초하여 트림(trim) 구간에 관한 정보를 출력하거나 하이라이트 영상에 관한 정보를 출력하는 영상 분석 방법을 제공하는 것을 목적으로 한다.In addition, the present invention analyzes a frame constituting an image, identifies a highlight section constituting the image, and then outputs information about a trim section based on the characteristics of the identified highlight section, or information about the highlight image. It is an object of the present invention to provide an image analysis method that outputs.

또한, 본 발명은, 본 발명에 따른 영상 분석 방법을 수행하는 영상 분석 장치로서의 사용자 디바이스를 제공하는 것을 목적을 한다.Another object of the present invention is to provide a user device as an image analysis apparatus for performing the image analysis method according to the present invention.

본 발명은, 본 발명에 따른 영상 분석 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램을 제공하는 것을 목적으로 한다.An object of the present invention is to provide a computer program stored in a computer-readable recording medium for executing an image analysis method according to the present invention.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자(이하, "통상의 기술자"라 함)에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems that are not mentioned are those of ordinary skill in the technical field to which the present disclosure pertains from the following description (hereinafter, "common technician It will be clearly understandable to "").

본 발명의 일 양상에 따른, 메모리 및 적어도 하나의 프로세서를 포함하는 사용자 디바이스에 의해 수행되는 영상 분석 방법은, 상기 메모리에 저장된 하나 이상의 영상의 분석을 수행할지 여부를 결정하는 단계, 상기 하나 이상의 영상 중 분석 대상 영상을 선택하는 단계, 상기 분석 대상 영상을 분석하는 단계, 및 상기 분석 대상 영상 중 적어도 하나에 대한 분석 결과를 출력하는 단계를 포함할 수 있다.According to an aspect of the present invention, an image analysis method performed by a user device including a memory and at least one processor includes determining whether to analyze one or more images stored in the memory, the one or more images Selecting an analysis target image, analyzing the analysis target image, and outputting an analysis result of at least one of the analysis target images.

본 발명에 따른 영상 분석 방법에 있어서, 상기 영상의 분석을 수행할지 여부를 결정하는 단계는, 상기 사용자 디바이스가 유휴 상태인지의 여부에 기초하여 수행될 수 있다.In the image analysis method according to the present invention, the step of determining whether to perform the image analysis may be performed based on whether the user device is in an idle state.

본 발명에 따른 영상 분석 방법에 있어서, 상기 영상의 분석을 수행할지 여부를 결정하는 단계는, 상기 사용자 디바이스의 사용 패턴에 기초하여 수행될 수 있다.In the image analysis method according to the present invention, the step of determining whether to perform the image analysis may be performed based on a usage pattern of the user device.

본 발명에 따른 영상 분석 방법에 있어서, 상기 영상의 분석을 수행할지 여부를 결정하는 단계는, 상기 사용자 디바이스가 유휴 상태이고, 상기 사용자 디바이스의 사용 패턴에 기초하여 상기 사용자 디바이스가 소정 시간 동안 사용되지 않을 것으로 판단된 경우, 상기 영상의 분석을 수행하는 것으로 결정할 수 있다.In the image analysis method according to the present invention, the step of determining whether to perform the image analysis comprises: the user device is in an idle state, and the user device is not used for a predetermined time based on a usage pattern of the user device. If it is determined not to be, it may be determined to analyze the image.

본 발명에 따른 영상 분석 방법에 있어서, 상기 분석 대상 영상을 선택하는 단계는, 상기 메모리에 저장된 하나 이상의 영상 중 생성일이 가장 늦은 영상을 상기 분석 대상 영상으로 선택할 수 있다.In the image analysis method according to the present invention, in the selecting of the analysis target image, an image having the latest generation date among one or more images stored in the memory may be selected as the analysis target image.

본 발명에 따른 영상 분석 방법에 있어서, 상기 분석 대상 영상을 분석하는 단계는, 상기 분석 대상 영상을 구성하는 복수의 프레임의 각각을 분석하는 단계, 상기 프레임의 분석 결과에 기초하여 식별된 하나 이상의 영상 구간을 하이라이트 구간과 비하이라이트(non-highlight) 구간으로 분류하는 단계, 및 상기 하이라이트 구간으로 분류된 영상 구간의 각각을 분석하는 단계를 포함할 수 있다.In the image analysis method according to the present invention, the analyzing the analysis target image comprises: analyzing each of a plurality of frames constituting the analysis target image, and at least one image identified based on the analysis result of the frame. It may include classifying a section into a highlight section and a non-highlight section, and analyzing each of the image sections classified as the highlight section.

본 발명에 따른 영상 분석 방법에 있어서, 상기 프레임을 분석하는 단계는, 상기 복수의 프레임의 각각을 구성하는 픽셀들의 밝기값 및 색상값, 프레임내 에지의 양 중 적어도 하나가 소정의 기준에 부합하는지 여부를 판단함으로써 출력되지 않을 프레임을 식별할 수 있다.In the image analysis method according to the present invention, the analyzing of the frame includes whether at least one of a brightness value and a color value of pixels constituting each of the plurality of frames, and an amount of an edge in the frame meets a predetermined criterion. By determining whether or not, it is possible to identify a frame that is not to be output.

본 발명에 따른 영상 분석 방법에 있어서, 상기 영상 구간을 분류하는 단계는, 영상 구간의 길이가 소정의 길이 이상인 경우, 해당 영상 구간을 하이라이트 구간으로 분류하고, 영상 구간의 길이가 소정의 길이 미만인 경우, 해당 영상 구간을 비하이라이트 구간으로 분류할 수 있다.In the image analysis method according to the present invention, the step of classifying the video section includes: when the length of the video section is greater than or equal to a predetermined length, the video section is classified as a highlight section, and when the length of the video section is less than a predetermined length , The video section can be classified as a non-highlight section.

본 발명에 따른 영상 분석 방법에 있어서, 상기 영상 구간을 분석하는 단계는, 영상 구간을 구성하는 복수의 프레임의 각각에 대한 분석 결과, 프레임간 차이값, 해당 영상 구간의 길이 중 적어도 하나를 해당 영상 구간의 특성으로서 산출할 수 있다.In the video analysis method according to the present invention, the analyzing of the video section includes at least one of a result of analysis of each of a plurality of frames constituting the video section, a difference value between frames, and a length of the video section. It can be calculated as a characteristic of a section.

본 발명에 따른 영상 분석 방법에 있어서, 상기 분석 결과를 출력하는 단계는, 상기 영상 구간의 특성에 기초하여, 적어도 하나의 하이라이트 구간에 관한 정보를 출력할 수 있다.In the image analysis method according to the present invention, the outputting of the analysis result may output information on at least one highlight section based on a characteristic of the image section.

본 발명에 따른 영상 분석 방법에 있어서, 상기 분석 결과를 출력하는 단계는, 상기 사용자 디바이스의 사용자로부터 상기 분석 대상 영상 중 적어도 하나에 대해 편집 화면 요청이 수신되면 해당 영상에 대한 분석 결과를 출력할 수 있다.In the image analysis method according to the present invention, the outputting of the analysis result may include outputting an analysis result for the corresponding image when an edit screen request for at least one of the analysis target images is received from a user of the user device. have.

본 발명에 따른 영상 분석 방법에 있어서, 상기 분석 결과를 출력하는 단계는, 상기 사용자 디바이스의 사용자로부터 상기 메모리에 저장된 하나 이상의 영상 중 하나에 대한 선택을 수신하는 단계, 상기 선택된 영상에 대해 편집 화면 요청이 수신되면, 상기 선택된 영상이 상기 분석 대상 영상에 해당하여 상기 선택된 영상에 대한 분석 결과가 상기 메모리에 저장되어 있는지를 판단하는 단계, 및 상기 선택된 영상에 대한 분석 결과가 저장된 것으로 판단하는 경우, 상기 분석 결과를 출력하는 단계를 포함할 수 있다.In the image analysis method according to the present invention, the outputting of the analysis result comprises: receiving a selection of one or more images stored in the memory from a user of the user device, and requesting an edit screen for the selected image Is received, determining whether the selected image corresponds to the analysis target image and the analysis result for the selected image is stored in the memory, and when it is determined that the analysis result for the selected image is stored, the It may include the step of outputting the analysis result.

본 발명에 따른 영상 분석 방법에 있어서, 상기 선택된 영상에 대한 분석 결과가 저장된 것으로 판단하는 경우, 상기 분석 결과와 함께 상기 선택된 영상에 대한 편집 UI 요소를 표시할 수 있다.In the image analysis method according to the present invention, when it is determined that the analysis result for the selected image is stored, an edit UI element for the selected image may be displayed together with the analysis result.

본 발명의 다른 양상에 따른, 영상 분석 방법을 수행하는 사용자 디바이스는, 하나 이상의 영상을 저장하는 메모리, 및 적어도 하나의 프로세서를 포함하고, 상기 프로세서는, 상기 메모리에 저장된 하나 이상의 영상의 분석을 수행할지 여부를 결정하는 단계, 상기 하나 이상의 영상 중 분석 대상 영상을 선택하는 단계, 상기 분석 대상 영상을 분석하는 단계, 및 상기 분석 결과를 출력하는 단계를 수행할 수 있다.According to another aspect of the present invention, a user device performing an image analysis method includes a memory for storing one or more images, and at least one processor, and the processor performs analysis of one or more images stored in the memory. Determining whether to do so, selecting an analysis target image from among the one or more images, analyzing the analysis target image, and outputting the analysis result may be performed.

본 발명에 따른 사용자 디바이스에 있어서, 상기 프로세서는, 상기 사용자 디바이스가 유휴 상태이고, 상기 사용자 디바이스의 사용 패턴에 기초하여 상기 사용자 디바이스가 소정 시간 동안 사용되지 않을 것으로 판단된 경우, 상기 영상의 분석을 수행하는 것으로 결정할 수 있다.In the user device according to the present invention, the processor analyzes the image when it is determined that the user device is in an idle state and the user device is not used for a predetermined time based on a usage pattern of the user device. You can decide to do it.

본 발명에 따른 사용자 디바이스에 있어서, 상기 프로세서는, 상기 분석 대상 영상을 분석하는 단계에서, 상기 분석 대상 영상을 구성하는 복수의 프레임의 각각을 분석하는 단계, 상기 프레임의 분석 결과에 기초하여 식별된 하나 이상의 영상 구간을 하이라이트 구간과 비하이라이트 구간으로 분류하는 단계, 및 상기 하이라이트 구간으로 분류된 영상 구간의 각각을 분석하는 단계를 수행할 수 있다.In the user device according to the present invention, the processor, in the step of analyzing the analysis target image, analyzing each of a plurality of frames constituting the analysis target image, identified based on an analysis result of the frame Classifying at least one image section into a highlight section and a non-highlight section, and analyzing each of the image sections classified as the highlight section may be performed.

본 발명에 따른 사용자 디바이스에 있어서, 상기 프로세서는, 상기 영상 구간을 분석하는 단계에서, 상기 영상 구간을 구성하는 복수의 프레임의 각각에 대한 분석 결과, 프레임간 차이값, 해당 영상 구간의 길이 중 적어도 하나를 해당 영상 구간의 특성으로서 산출하는 단계를 수행하고, 상기 분석 결과를 출력하는 단계에서, 상기 영상 구간의 특성에 기초하여, 적어도 하나의 하이라이트 구간에 관한 정보를 출력할 수 있다.In the user device according to the present invention, in the step of analyzing the video section, the processor comprises at least one of an analysis result of each of a plurality of frames constituting the video section, a difference value between frames, and a length of the video section. In the step of calculating one as a characteristic of a corresponding video section and outputting the analysis result, information on at least one highlight section may be output based on the characteristic of the video section.

본 발명에 따른 사용자 디바이스에 있어서, 상기 프로세서는, 상기 분석 결과를 출력하는 단계에서, 상기 사용자 디바이스의 사용자로부터 상기 분석 대상 영상 중 적어도 하나에 대해 편집 화면 요청이 수신되면 해당 영상에 대한 분석 결과를 출력할 수 있다.In the user device according to the present invention, in the step of outputting the analysis result, when a request for an edit screen for at least one of the analysis target images is received from a user of the user device, the processor receives the analysis result for the corresponding image. Can be printed.

본 발명에 따른 사용자 디바이스에 있어서, 상기 프로세서는, 상기 분석 결과를 출력하는 단계에서, 상기 사용자 디바이스의 사용자로부터 상기 메모리에 저장된 하나 이상의 영상 중 하나에 대한 선택을 수신하는 단계, 상기 선택된 영상에 대해 편집 화면 요청이 수신되면, 상기 선택된 영상이 상기 분석 대상 영상에 해당하여 상기 선택된 영상에 대한 분석 결과가 상기 메모리에 저장되어 있는지를 판단하는 단계, 및 상기 선택된 영상에 대한 분석 결과가 저장된 것으로 판단하는 경우, 상기 분석 결과를 출력하는 단계를 수행할 수 있다.In the user device according to the present invention, the processor, in the step of outputting the analysis result, receiving a selection of one or more images stored in the memory from a user of the user device, with respect to the selected image When an edit screen request is received, determining whether the selected image corresponds to the analysis target image and an analysis result for the selected image is stored in the memory, and determining that the analysis result for the selected image is stored In this case, the step of outputting the analysis result may be performed.

본 발명의 또 다른 양상에 따른 컴퓨터 판독 가능 기록 매체에 저장된 프로그램은, 본 발명에 따른 영상 분석 방법을 실행하는 컴퓨터 프로그램일 수 있다.A program stored in a computer-readable recording medium according to another aspect of the present invention may be a computer program that executes the image analysis method according to the present invention.

본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다.Features briefly summarized above with respect to the present disclosure are only exemplary aspects of the detailed description of the present disclosure described below, and do not limit the scope of the present disclosure.

본 발명에 따르면, 영상을 분석하고 분석된 결과를 출력하는 영상 분석 방법이 제공될 수 있다.According to the present invention, an image analysis method for analyzing an image and outputting the analyzed result may be provided.

또한, 본 발명에 따르면, 영상을 구성하는 프레임을 분석하고, 영상을 구성하는 하이라이트 구간을 식별한 후, 식별된 하이라이트 구간의 특성에 기초하여 트림 구간에 관한 정보를 출력하거나 하이라이트 영상에 관한 정보를 출력하는 영상 분석 방법이 제공될 수 있다.In addition, according to the present invention, after analyzing a frame constituting an image, identifying a highlight section constituting the image, outputting information about a trim section or outputting information about a highlight image based on the characteristics of the identified highlight section. An output image analysis method may be provided.

또한, 본 발명에 따르면, 본 발명에 따른 영상 분석 방법을 수행하는 영상 분석 장치로서의 사용자 디바이스가 제공될 수 있다.In addition, according to the present invention, a user device as an image analysis apparatus for performing the image analysis method according to the present invention may be provided.

또한, 본 발명에 따른 영상 분석 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램이 제공될 수 있다.In addition, a computer program stored in a computer-readable recording medium for executing the image analysis method according to the present invention may be provided.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 영상 분석 방법이 사용될 수 있는 시스템을 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 영상 분석 방법을 수행하는 사용자 디바이스(200)를 예시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 영상 분석 방법을 설명하기 위한 도면이다.
도 4는 본 발명에 따른 영상 분석의 일 실시예를 설명하기 위한 도면이다.
도 5는 분석 대상 영상을 구성하는 복수의 프레임을 도시한 도면이다.
도 6은 프레임 분석 후 분석 대상 영상으로부터 획득된 복수의 영상 구간을 도시한 도면이다.
도 7은 영상으로부터 트림 구간을 선택하는 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 영상 분석 방법이 수행되어 생성된 하이라이트 영상을 제공하는 일 실시예를 설명하기 위한 도면이다.
1 is a diagram showing a system in which an image analysis method according to an embodiment of the present invention can be used.
2 is a block diagram illustrating a user device 200 that performs an image analysis method according to an embodiment of the present invention.
3 is a diagram for explaining an image analysis method according to an embodiment of the present invention.
4 is a diagram for explaining an embodiment of image analysis according to the present invention.
5 is a diagram illustrating a plurality of frames constituting an image to be analyzed.
6 is a diagram illustrating a plurality of image sections acquired from an image to be analyzed after frame analysis.
7 is a diagram for explaining a method of selecting a trim section from an image.
8 is a diagram for explaining an embodiment of providing a highlight image generated by performing the image analysis method of the present invention.

이하에서는 첨부한 도면을 참고로 하여 본 개시의 실시예에 대하여 통상의 기술자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement them. However, the present disclosure may be implemented in various different forms and is not limited to the embodiments described herein.

본 개시의 실시예를 설명함에 있어서 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그에 대한 상세한 설명은 생략한다. 그리고, 도면에서 본 개시에 대한 설명과 관계없는 부분은 생략하였으며, 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. In describing an embodiment of the present disclosure, when it is determined that a detailed description of a known configuration or function may obscure the subject matter of the present disclosure, a detailed description thereof will be omitted. In addition, parts not related to the description of the present disclosure in the drawings are omitted, and similar reference numerals are attached to similar parts.

본 개시에 있어서, 어떤 구성요소가 다른 구성요소와 "연결", "결합" 또는 "접속"되어 있다고 할 때, 이는 직접적인 연결 관계뿐만 아니라, 그 중간에 또 다른 구성요소가 존재하는 간접적인 연결관계도 포함할 수 있다. 또한 어떤 구성요소가 다른 구성요소를 "포함한다" 또는 "가진다"고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 배제하는 것이 아니라 또 다른 구성요소를 더 포함할 수 있는 것을 의미한다. In the present disclosure, when a component is said to be "connected", "coupled" or "connected" with another component, it is not only a direct connection relationship, but also an indirect connection relationship in which another component exists in the middle. It can also include. In addition, when a certain component "includes" or "have" another component, it means that other components may be further included rather than excluding other components unless otherwise stated. .

본 개시에 있어서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 특별히 언급되지 않는 한 구성요소들간의 순서 또는 중요도 등을 한정하지 않는다. 따라서, 본 개시의 범위 내에서 일 실시예에서의 제1 구성요소는 다른 실시예에서 제2 구성요소라고 칭할 수도 있고, 마찬가지로 일 실시예에서의 제2 구성요소를 다른 실시예에서 제1 구성요소라고 칭할 수도 있다. In the present disclosure, terms such as first and second are used only for the purpose of distinguishing one component from other components, and do not limit the order or importance of the components unless otherwise noted. Accordingly, within the scope of the present disclosure, a first component in one embodiment may be referred to as a second component in another embodiment, and similarly, a second component in one embodiment is referred to as a first component in another embodiment. It can also be called.

본 개시에 있어서, 서로 구별되는 구성요소들은 각각의 특징을 명확하게 설명하기 위함이며, 구성요소들이 반드시 분리되는 것을 의미하지는 않는다. 즉, 복수의 구성요소가 통합되어 하나의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있고, 하나의 구성요소가 분산되어 복수의 하드웨어 또는 소프트웨어 단위로 이루어질 수도 있다. 따라서, 별도로 언급하지 않더라도 이와 같이 통합된 또는 분산된 실시예도 본 개시의 범위에 포함된다. In the present disclosure, components that are distinguished from each other are intended to clearly describe each feature, and do not necessarily mean that the components are separated. That is, a plurality of components may be integrated into one hardware or software unit, or one component may be distributed to form a plurality of hardware or software units. Therefore, even if not stated otherwise, such integrated or distributed embodiments are also included in the scope of the present disclosure.

본 개시에 있어서, 다양한 실시예에서 설명하는 구성요소들이 반드시 필수적인 구성요소들은 의미하는 것은 아니며, 일부는 선택적인 구성요소일 수 있다. 따라서, 일 실시예에서 설명하는 구성요소들의 부분집합으로 구성되는 실시예도 본 개시의 범위에 포함된다. 또한, 다양한 실시예에서 설명하는 구성요소들에 추가적으로 다른 구성요소를 포함하는 실시예도 본 개시의 범위에 포함된다. In the present disclosure, components described in various embodiments do not necessarily mean essential components, and some may be optional components. Accordingly, an embodiment consisting of a subset of components described in an embodiment is also included in the scope of the present disclosure. In addition, embodiments including other elements in addition to the elements described in the various embodiments are included in the scope of the present disclosure.

또한, 본 명세서에서 네트워크는 유무선 네트워크를 모두 포함하는 개념일 수 있다. 이때, 네트워크는 디바이스와 시스템 및 디바이스 상호 간의 데이터 교환이 수행될 수 있는 통신망을 의미할 수 있으며, 특정 네트워크로 한정되는 것은 아니다. In addition, in the present specification, the network may be a concept including all wired and wireless networks. In this case, the network may mean a communication network in which data exchange between a device, a system, and a device can be performed, and is not limited to a specific network.

또한, 본 명세서에서 디바이스는 스마트폰, 태블릿 PC, 웨어러블 디바이스 및 HMD(Head Mounted Display)와 같이 모바일 디바이스뿐만 아니라, PC나 디스플레이 기능을 구비한 가전처럼 고정된 디바이스일 수 있다. 또한, 일 예로, 디바이스는 서버로 동작 가능한 컴퓨팅 디바이스, 차량 또는 IoT (Internet of Things) 디바이스일 수 있다. 즉, 본 명세서에서 디바이스는 본 발명에 따른 영상 분석 방법을 수행할 수 있는 기기들을 지칭할 수 있으며, 특정 타입으로 한정되지 않는다.In addition, in the present specification, the device may be a mobile device such as a smart phone, a tablet PC, a wearable device, and a head mounted display (HMD), as well as a fixed device such as a PC or a home appliance having a display function. In addition, as an example, the device may be a computing device capable of operating as a server, a vehicle, or an Internet of Things (IoT) device. That is, in the present specification, a device may refer to devices capable of performing the image analysis method according to the present invention, and is not limited to a specific type.

또한, 본 명세서에서 "영상"은 정지영상 뿐만 아니라 동영상, 스트리밍 영상 등 사용자가 디바이스에 구비된 디스플레이를 통해 시각적으로 인식할 수 있는 모든 종류의 정보를 포함할 수 있다.In addition, in the present specification, "image" may include all kinds of information that can be visually recognized by a user through a display provided in the device, such as a moving image and a streaming image, as well as a still image.

시스템 및 장치 구성System and device configuration

도 1은 본 발명의 일 실시예에 따른 영상 분석 방법이 사용될 수 있는 시스템을 나타낸 도면이다.1 is a diagram showing a system in which an image analysis method according to an embodiment of the present invention can be used.

본 발명에 따른 시스템은 네트워크(104)를 통해 연결된 하나 이상의 사용자 디바이스들(101, 102, 103)과 서버(110)를 포함할 수 있다. The system according to the present invention may include a server 110 and one or more user devices 101, 102, 103 connected via a network 104.

각각의 사용자 디바이스들(101, 102, 103)은 클라이언트 또는 사용자 단말로 지칭될 수 있으며, 네트워크(104)를 통해 서버(110)에 접속하여 원하는 영상 또는 컨텐츠를 다운로드 받아 출력할 수 있다. 또한, 각각의 사용자 디바이스들(101, 102, 103)은 구비된 촬영 수단(예컨대, 스마트폰에 구비된 카메라 모듈 등)을 이용하여 영상을 획득하고 저장할 수 있다. 사용자 디바이스는 네트워크(104)를 통해 다운로드되거나 촬영 수단을 통해 획득된 영상에 대해 본 발명의 일 실시예에 따른 영상 분석 방법을 수행할 수 있다.Each of the user devices 101, 102, and 103 may be referred to as a client or a user terminal, and may access the server 110 through the network 104 to download and output a desired image or content. In addition, each of the user devices 101, 102, and 103 may acquire and store an image using a photographing means (eg, a camera module provided in a smartphone). The user device may perform an image analysis method according to an embodiment of the present invention on an image downloaded through the network 104 or acquired through a photographing means.

서버(110)는 서버(110)내 저장 공간 또는 별도의 데이터베이스에 방대한 양의 영상 및 컨텐츠를 저장할 수 있다. 또한, 서버(110)는 사용자를 식별할 수 있고, 사용자에 관한 정보, 영상 및 컨텐츠에 관한 정보 등 다양한 정보를 축적 및 저장할 수 있다. The server 110 may store a vast amount of images and contents in a storage space in the server 110 or in a separate database. In addition, the server 110 may identify a user, and may accumulate and store various information such as information about the user, information about images and contents.

또한, 서버(110)는 인스턴트 메신저 어플리케이션, SNS(social network service) 등과 같은 서비스를 제공할 수 있다. 상기 서비스를 이용하는 사용자는 사용자 디바이스를 통해 소정의 접속 정보(아이디와 패스워드)를 입력하여 상기 서비스를 제공하는 서버(110)에 접속할 수 있다. 서버(110)는 사용자 디바이스로부터 입력 받은 접속 정보를 통해 접속한 사용자를 식별할 수 있다. In addition, the server 110 may provide a service such as an instant messenger application and a social network service (SNS). A user using the service may access the server 110 providing the service by inputting predetermined access information (ID and password) through a user device. The server 110 may identify a user who has accessed through the access information received from the user device.

사용자는 상기 서비스를 이용하여, 사용자 디바이스에 저장된 영상을 네트워크(104)에 연결된 다른 사용자 디바이스에 전송하거나 서버(110)내 저장 공간에 업로드할 수 있다. 이때 전송되거나 업로드되는 영상은 본 발명의 일 실시예에 따른 영상 분석 방법이 수행된 영상일 수 있다. Using the service, the user may transmit an image stored in the user device to another user device connected to the network 104 or upload it to a storage space in the server 110. In this case, the transmitted or uploaded image may be an image on which the image analysis method according to an embodiment of the present invention has been performed.

도 2는 본 발명의 일 실시예에 따른 영상 분석 방법을 수행하는 사용자 디바이스(200)를 예시한 블록도이다. 2 is a block diagram illustrating a user device 200 that performs an image analysis method according to an embodiment of the present invention.

도 2를 참조하면, 사용자 디바이스(200)는 프로세서(210), 메모리(220), 송수신부(230), 입력부(240), 촬영부(250) 및 출력부(260)를 포함할 수 있다. 사용자 디바이스(200)는 디바이스의 동작 및 기능과 관련된 다른 구성을 더 포함할 수 있으며, 상술한 실시예로 한정되지 않는다.Referring to FIG. 2, the user device 200 may include a processor 210, a memory 220, a transmission/reception unit 230, an input unit 240, a photographing unit 250, and an output unit 260. The user device 200 may further include other components related to the operation and function of the device, and is not limited to the above-described embodiment.

프로세서(210)는 사용자 디바이스(200) 내 다른 구성 요소들의 동작을 제어할 수 있다. 예컨대, 프로세서(210)는 입력부(240), 촬영부(250) 및 송수신부(230)를 통해 획득되는 정보를 처리할 수 있다. 또한, 프로세서(210)는 메모리(220)에 저장된 정보를 독출하여 처리할 수 있다. 프로세서(210)는 상기 처리된 정보를 출력부(260)를 통해 출력하거나 메모리(220)에 저장하거나, 송수신부(230)를 통해 외부에 전송할 수 있다. The processor 210 may control operations of other components in the user device 200. For example, the processor 210 may process information acquired through the input unit 240, the photographing unit 250, and the transmission/reception unit 230. Also, the processor 210 may read and process information stored in the memory 220. The processor 210 may output the processed information through the output unit 260, store it in the memory 220, or transmit the processed information to the outside through the transmission/reception unit 230.

예컨대, 프로세서(210)는 촬영부(250)를 통해 촬영된 영상 또는 메모리(220)에 저장된 영상에 대해 본 발명에 따른 영상 분석 방법을 수행할 수 있다. 본 발명에 따른 영상 분석 방법을 수행한 후, 프로세서(210)는 영상 분석이 완료된 영상에 관한 정보를 메모리(220)에 저장하거나, 출력부(260)를 통해 출력하거나 송수신부(230)를 통해 외부에 전송할 수 있다.For example, the processor 210 may perform an image analysis method according to the present invention on an image captured by the photographing unit 250 or an image stored in the memory 220. After performing the image analysis method according to the present invention, the processor 210 stores information on the image for which the image analysis has been completed in the memory 220, outputs through the output unit 260, or through the transmission/reception unit 230. Can be transmitted outside.

메모리(220)는 서버(110) 또는 다른 사용자 디바이스로부터 수신한 정보, 사용자 디바이스의 입력부(240)를 통해 획득한 정보, 사용자 디바이스의 촬영부(250)로부터 획득한 정보 등 사용자 디바이스의 외부로부터 획득한 정보를 저장할 수 있다. 또한, 메모리(220)는 사용자 디바이스(200)의 내부에서 생성된 정보를 저장할 수 있다. 예컨대, 본 발명에 따른 영상 분석 방법이 수행된 후 생성되는 영상 또는 영상에 관한 정보가 메모리(220)에 저장될 수 있다. 일 예로, 메모리(220)는 데이터베이스를 포함할 수 있다. The memory 220 is obtained from the outside of the user device, such as information received from the server 110 or other user device, information obtained through the input unit 240 of the user device, and information obtained from the photographing unit 250 of the user device. One can store information. Also, the memory 220 may store information generated inside the user device 200. For example, an image or information about an image generated after the image analysis method according to the present invention is performed may be stored in the memory 220. For example, the memory 220 may include a database.

송수신부(230)는 네트워크를 통해 서버(110) 또는 다른 사용자 디바이스와 데이터를 교환할 수 있다. 송수신부(230)는 외부와의 통신을 수행할 수 있는 모든 종류의 유무선 통신 모듈을 포함할 수 있다. The transmission/reception unit 230 may exchange data with the server 110 or other user devices through a network. The transmission/reception unit 230 may include all types of wired/wireless communication modules capable of performing communication with the outside.

입력부(240)는 사용자 디바이스(200)에 구비된 다양한 센서를 통해 입력 정보를 획득할 수 있다. 사용자 디바이스(200)는 예컨대, 압력 감지 센서, 정전식 터치 센서, 가속도 센서, 자이로(gyro) 센서, GPS(Globap Positioning System), 음향 센서(마이크로폰), 감광 센서(조도 센서) 등의 다양한 센서와 기계식 버튼 등을 구비할 수 있다. 사용자 디바이스(200)는 상기 센서에 의해 감지된 정보 또는 기계식 버튼의 입력을 입력 정보로서 획득할 수 있다. 상기 입력 정보는 사용자가 사용자 디바이스(200)를 직접 조작하여 획득되는 사용자 입력 정보를 포함할 수 있다. 또한 상기 입력 정보는 사용자 디바이스(200)의 상태 또는 외부적인 상황에 의해 자동적으로 감지되는 디바이스 상태 정보를 포함할 수 있다. The input unit 240 may obtain input information through various sensors included in the user device 200. The user device 200 includes various sensors such as, for example, a pressure sensor, a capacitive touch sensor, an acceleration sensor, a gyro sensor, a GPS (Globap Positioning System), an acoustic sensor (microphone), and a photosensitive sensor (illumination sensor). A mechanical button or the like may be provided. The user device 200 may obtain information sensed by the sensor or an input of a mechanical button as input information. The input information may include user input information obtained by directly manipulating the user device 200 by the user. In addition, the input information may include device state information automatically detected by a state of the user device 200 or an external situation.

촬영부(250)는 정지 영상 또는 동영상을 획득할 수 있는 모든 종류의 촬영 수단을 포함할 수 있다. 예컨대, 촬영부(250)는 스마트폰에 구비된 카메라 모듈일 수 있다.The photographing unit 250 may include any kind of photographing means capable of obtaining a still image or a moving picture. For example, the photographing unit 250 may be a camera module provided in a smartphone.

출력부(260)는 사용자 디바이스(200)가 획득하거나 수신한 정보, 사용자 디바이스(200)에 의해 처리된 정보 등을 외부로 출력할 수 있다. 출력부(260)는 예컨대 시각 정보를 출력하는 디스플레이, 음향 정보를 출력하는 스피커, 촉각 정보를 출력하는 바이브레이터 등을 포함할 수 있다. The output unit 260 may externally output information acquired or received by the user device 200, information processed by the user device 200, and the like. The output unit 260 may include, for example, a display outputting visual information, a speaker outputting sound information, a vibrator outputting tactile information, and the like.

영상 분석 방법Video analysis method

도 3은 본 발명의 일 실시예에 따른 영상 분석 방법을 설명하기 위한 도면이다.3 is a diagram for explaining an image analysis method according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 영상 분석 방법은 영상 분석 수행 여부 결정 단계(S310), 분석 대상 영상 선택 단계(S320), 영상 분석 수행 단계(S330) 및 영상 분석 결과 출력 단계(S340)를 포함할 수 있다.An image analysis method according to an embodiment of the present invention includes determining whether to perform image analysis (S310), selecting an image to be analyzed (S320), performing image analysis (S330), and outputting an image analysis result (S340). I can.

사용자 디바이스의 프로세서(210)는 본 발명의 일 실시예에 따른 영상 분석을 수행할지 여부를 결정할 수 있다(S310). 영상 분석을 수행할지 여부는 사용자 디바이스의 상태, 사용자 디바이스의 사용 패턴 및/또는 소정의 조건에 기초하여 결정될 수 있다.The processor 210 of the user device may determine whether to perform image analysis according to an embodiment of the present invention (S310). Whether to perform image analysis may be determined based on a state of the user device, a usage pattern of the user device, and/or a predetermined condition.

전술한 바와 같이, 본 발명의 일 실시예에 따른 영상 분석 방법이 수행되기 위해서는 상당한 양의 리소스(메모리, 컴퓨팅 시간, 배터리 전력 등)가 필요하다. 리소스를 적절히 배분하여 사용하기 위해, 예컨대, 사용자 디바이스가 유휴 상태(idle state)인 경우에만, 영상 분석을 수행할 수 있다.As described above, a significant amount of resources (memory, computing time, battery power, etc.) are required to perform the image analysis method according to an embodiment of the present invention. In order to properly allocate and use resources, for example, image analysis may be performed only when the user device is in an idle state.

사용자 디바이스가 유휴 상태인지 여부는 다양한 방법에 의해 판단될 수 있다. 예컨대, 사용자 디바이스에 구비된 각종 센서에 의해 감지된 정보에 기초하여 사용자 디바이스가 유휴 상태인지 여부를 판단할 수 있다. 예컨대, 디스플레이가 오프(off) 상태이면 유휴 상태인 것으로 판단할 수 있다. 또는, 가속도 센서 및/또는 자이로 센서의 감지 정보 등에 기초하여 상기 사용자 디바이스가 정지 상태인지 이동 중인지의 여부가 판단될 수 있고, 상기 사용자 디바이스가 정지 상태이면 유휴 상태인 것으로 판단할 수 있다. 또는, 사용자 디바이스의 압력 센서, 정전식 터치 센서의 감지 정보, 사용자 디바이스에 구비된 버튼 입력 정보 등에 기초하여 사용자 디바이스가 사용 중인지의 여부가 판단될 수 있다. 예컨대, 사용자 입력 정보가 없는 경우, 상기 사용자 디바이스는 유휴 상태인 것으로 판단될 수 있다. 예컨대, 사용자 디바이스가 화면 잠금 상태일 때, 유휴 상태인 것으로 판단할 수 있다. 또는 감광 센서의 감지 정보에 기초하여 사용자 디바이스의 유휴 상태가 판단될 수 있다. 예컨대, 감광 센서가 감지한 빛의 세기가 임계치 이하일 경우, 상기 사용자 디바이스는 유휴 상태인 것으로 판단될 수 있다.Whether the user device is in an idle state may be determined by various methods. For example, it may be determined whether the user device is in an idle state based on information detected by various sensors included in the user device. For example, if the display is in an off state, it may be determined that the display is in an idle state. Alternatively, whether the user device is in a stationary state or in motion may be determined based on detection information of an acceleration sensor and/or a gyro sensor, and if the user device is in a stationary state, it may be determined that it is in an idle state. Alternatively, it may be determined whether the user device is in use based on the pressure sensor of the user device, detection information of the capacitive touch sensor, and button input information provided in the user device. For example, if there is no user input information, it may be determined that the user device is in an idle state. For example, when the user device is in a screen lock state, it may be determined that the user device is in an idle state. Alternatively, the idle state of the user device may be determined based on the detection information of the photosensitive sensor. For example, when the intensity of light detected by the photosensitive sensor is less than or equal to a threshold, it may be determined that the user device is in an idle state.

또한, 본 발명의 일 실시예에 따른 영상 분석을 수행할지 여부는 사용자 디바이스의 사용 패턴에 기초하여 결정될 수 있다. 본 발명의 영상 분석 방법이 수행되기 위해서는 소정 시간 이상의 분석 시간이 필요하다. 따라서, 사용자 디바이스의 사용 패턴을 분석하여 소정 시간 이상의 분석 시간이 확보될 수 있는 경우에만 영상 분석을 수행할 수 있다.Also, whether to perform image analysis according to an embodiment of the present invention may be determined based on a usage pattern of a user device. In order to perform the image analysis method of the present invention, an analysis time of more than a predetermined time is required. Accordingly, image analysis may be performed only when an analysis time of more than a predetermined time can be secured by analyzing the usage pattern of the user device.

사용자 디바이스의 사용 패턴은 지속적으로 모니터링되고 기록될 수 있다. 프로세서는 사용자 디바이스에 구비된 각종 센서가 감지한 정보, 버튼의 입력, 사용자 디바이스의 사용 시간, 사용 용도(기능) 등을 지속적으로 모니터링함으로써, 사용자 디바이스의 사용 패턴에 관한 모니터링 정보를 축적할 수 있다. 프로세서는 축적된 모니터링 정보를 기초로 확률 변수에 따른 예측을 수행함으로써, 영상 분석에 필요한 최소 시간이 확보될 수 있는지 여부를 판단할 수 있다.User device usage patterns can be continuously monitored and recorded. The processor can accumulate monitoring information on the usage pattern of the user device by continuously monitoring information detected by various sensors provided in the user device, button input, usage time of the user device, and usage (function) of the user device. . The processor may determine whether a minimum time required for image analysis can be secured by performing prediction according to a random variable based on the accumulated monitoring information.

예를 들어, 자정 이후부터 아침 7시까지의 취침 시간을 제외하고매시간 수차례 사용자 디바이스가 조작되는 사용 패턴을 가정하면, 상기 사용자 디바이스의 사용 패턴에 관한 모니터링 정보에 기초하여, 자정 이후부터 아침 7시까지는 해당 사용자 디바이스가 이동하지도 않고 사용되지도 않을 확률이 높게 예측될 수 있다. 또한, 그 외의 시간대에는 사용되지 않을 확률이 매우 낮게 예측될 수 있다. 사용자 디바이스가 사용되지 않을 확률은 1분 단위로 예측될 수도 있고, 수분, 1시간 또는 수시간 단위 등, 소정의 시간 단위로 예측될 수 있다. For example, assuming a usage pattern in which a user device is manipulated several times every hour excluding bedtime from midnight to 7 a.m., based on monitoring information on the usage pattern of the user device, from midnight to 7 a.m. Losing can be predicted with a high probability that the corresponding user device will neither move nor be used. In addition, the probability of not being used in other times can be predicted very low. The probability that the user device will not be used may be predicted in units of 1 minute, or may be predicted in units of a predetermined time, such as in units of minutes, 1 hour, or several hours.

변형예로서, 사용자 디바이스의 사용 패턴을 모니터링한 결과, 사용자 디바이스가 사용될 확률이 높은 시간대라고 하더라도, 해당 시간대에 사용자 디바이스를 사용하는 용도를 고려했을 때, 영상 분석에 필요한 리소스가 확보될 수 있다고 판단되면, 해당 시간대는 영상 분석이 수행될 수 있는 시간대로 예측될 수 있다. As a modified example, as a result of monitoring the usage pattern of the user device, it is determined that the resource required for image analysis can be secured considering the purpose of using the user device during the time zone, even if the user device is used in a high probability. If so, the corresponding time zone may be predicted as a time zone in which image analysis can be performed.

예를 들어, 사용자 디바이스의 사용 시간 및 사용 용도를 모니터링한 결과, 저녁 10시부터 저녁 11시까지는 리소스를 많이 요구하지 않는 단순 기능만을 사용하는 사용 패턴을 가정하면, 해당 시간대는 영상 분석에 필요한 리소스가 충분한 것으로 판단하여, 영상 분석이 수행될 수 있는 것으로 예측할 수 있다.For example, as a result of monitoring the usage time and usage of the user device, assuming a usage pattern that uses only simple functions that do not require a lot of resources from 10 pm to 11 pm, the time zone is a resource required for video analysis. It is determined that is sufficient, and it can be predicted that image analysis can be performed.

프로세서는 사용자 디바이스의 사용 패턴을 모니터링한 정보에 기초한 예측을 수행하여 본 발명에 따른 영상 분석을 수행할지 여부를 결정할 수 있다.The processor may determine whether to perform the image analysis according to the present invention by performing prediction based on information on monitoring the usage pattern of the user device.

본 발명의 일 실시예에 따른 영상 분석을 수행할지 여부는 사용자 디바이스의 상태 및/또는 사용자 디바이스의 사용 패턴에 따른 예측이 소정의 조건에 부합하는지 여부를 판단하여 결정될 수 있다.Whether to perform image analysis according to an embodiment of the present invention may be determined by determining whether a prediction according to a state of a user device and/or a usage pattern of a user device meets a predetermined condition.

상기 소정의 조건은 기 설정될 수도 있고, 본 발명에 따른 영상 분석을 수행하는 사용자 디바이스의 리소스에 기초하여 적응적으로 설정될 수도 있다. 또는 사용자가 임의로 설정할 수도 있다. 사용자 디바이스가 본 발명에 따른 영상 분석을 수행하는 것으로 결정하기 위한 상기 소정의 조건은 예컨대, 사용자 디바이스가 유휴 상태이고, 소정 시간(예컨대, 2시간) 동안 사용되지 않는 조건일 수 있다.The predetermined condition may be set in advance or may be adaptively set based on a resource of a user device performing image analysis according to the present invention. Or, it can be set arbitrarily by the user. The predetermined condition for determining that the user device performs the image analysis according to the present invention may be, for example, a condition in which the user device is in an idle state and is not used for a predetermined time (eg, 2 hours).

프로세서는 사용자 디바이스가 유휴 상태임을 감지한 경우, 사용자 디바이스의 사용 패턴에 기초하여 사용자 디바이스가 소정 시간동안 사용되지 않을 확률을 예측할 수 있다. 프로세서는, 상기 확률이 소정의 임계치 이상인 경우, 상기 소정의 조건을 만족하는 것으로 판단하고 본 발명에 따른 영상 분석을 수행하는 것으로 결정할 수 있다.When detecting that the user device is in an idle state, the processor may predict a probability that the user device will not be used for a predetermined period of time based on a usage pattern of the user device. When the probability is greater than or equal to a predetermined threshold, the processor may determine that the predetermined condition is satisfied and determine that the image analysis according to the present invention is performed.

변형예로서, 프로세서는, 사용자 디바이스의 사용 패턴에 기초하여 소정 시간동안 본 발명에 따른 영상 분석에 필요한 리소스가 확보될 수 있다고 판단되는 경우, 본 발명에 따른 영상 분석을 수행하는 것으로 결정할 수 있다.As a modified example, when it is determined that resources necessary for image analysis according to the present invention can be secured for a predetermined time based on the usage pattern of the user device, the processor may determine to perform image analysis according to the present invention.

또 다른 변형예로서, 프로세서는, 사용자 디바이스가 소정 시간 동안 사용되지 않을 확률, 소정 시간 동안 리소스가 확보될 수 있는지 여부 등을 함께 고려하여 영상 분석 수행 여부를 결정할 수도 있다. As another modification, the processor may determine whether to perform image analysis by considering a probability that the user device will not be used for a predetermined period of time, whether resources can be secured for a predetermined period of time, and the like.

이 외에도, 사용자 디바이스의 잔여 배터리 전력, 잔여 메모리 용량, 배터리가 충전 중인지의 여부, 네트워크(예컨대, WiFi) 연결 여부 등이 부가적으로 고려될 수 있다.In addition, the remaining battery power of the user device, the remaining memory capacity, whether the battery is being charged, whether or not a network (eg, WiFi) is connected may be additionally considered.

예컨대, 프로세서는, 잔여 배터리 전력이 소정의 임계치 이상인 경우, 잔여 메모리 용량이 소정의 임계치 이상인 경우, 배터리가 충전 중인 경우, 네트워크에 연결되어 있는 경우 중 적어도 하나 이상에 해당될 때, 본 발명에 따른 영상 분석을 수행하는 것으로 결정할 수 있다.For example, when the remaining battery power is at least a predetermined threshold, the remaining memory capacity is at least a predetermined threshold, the battery is being charged, and when it corresponds to at least one of a case connected to the network, according to the present invention. It can be decided to perform image analysis.

또 다른 변형예로서, 사용자 디바이스의 상태 및 사용 패턴과 관계없이, 사용자의 조작에 의해 영상 분석 수행 여부가 결정될 수 있다. 예컨대, 사용자가 메모리에 저장된 영상 또는 촬영부를 통해 획득한 영상을 선택하고, 영상 분석의 수행을 수동으로 지시함으로써, 사용자 디바이스의 상태 및 사용 패턴과 관계없이 본 발명에 따른 영상 분석이 수행되는 것으로 결정될 수도 있다.As another modification, whether or not to perform image analysis may be determined by the user's manipulation, regardless of the state and usage pattern of the user device. For example, it may be determined that the image analysis according to the present invention is performed regardless of the state and usage pattern of the user device by manually instructing the user to perform the image analysis by selecting the image stored in the memory or the image acquired through the photographing unit. May be.

단계 S310에서, 본 발명에 따른 영상 분석을 수행하는 것으로 결정된 경우, 프로세서(210)는 분석 대상 영상을 선택할 수 있다(S320). 분석 대상 영상은 촬영부에 의해 획득된 영상일 수 있다. 또는, 분석 대상 영상은 메모리에 저장된 하나 이상의 영상으로부터 사용자의 조작에 의해 선택될 수 있다. 또는, 분석 대상 영상은 소정의 선택 기준에 따라 프로세서에 의해 선택될 수 있다. 예컨대, 프로세서는 메모리에 저장된 하나 이상의 영상 중 최근에 촬영되거나 저장된 영상을 분석 대상 영상으로서 선택할 수 있다. 이때 선택된 영상은 본 발명에 따른 영상 분석이 수행되지 않은 영상일 수 있다. 만약 최근에 촬영되거나 저장된 영상이 본 발명에 따라 이미 분석된 영상인 경우, 그 다음으로 최근에 촬영되거나 저장된 영상이 분석 대상 영상으로서 선택될 수 있다. 즉, 이미 분석된 영상을 제외한 영상 중 가장 최근에 촬영되거나 저장된 영상이 분석 대상 영상으로서 선택될 수 있다.If it is determined in step S310 to perform image analysis according to the present invention, the processor 210 may select an image to be analyzed (S320). The analysis target image may be an image acquired by a photographing unit. Alternatively, the analysis target image may be selected from one or more images stored in the memory by a user's manipulation. Alternatively, the image to be analyzed may be selected by the processor according to a predetermined selection criterion. For example, the processor may select an image to be analyzed recently or stored among one or more images stored in the memory. In this case, the selected image may be an image for which image analysis according to the present invention has not been performed. If the recently photographed or stored image is an image that has already been analyzed according to the present invention, the next recently photographed or stored image may be selected as the analysis target image. That is, the most recently photographed or stored image among images other than the image that has already been analyzed may be selected as the image to be analyzed.

영상의 촬영 시점, 저장 시점 및/또는 분석 여부는 해당 영상의 메타데이터로서 해당 영상과 함께 사용자 디바이스의 메모리에 저장될 수 있다. 프로세서는 분석 대상 영상을 선택하기 위해 상기 메타데이터를 이용하여 각 영상의 촬영 시점, 저장 시점 및/또는 분석 여부를 확인할 수 있다.When the image is captured, when it is stored, and/or whether the image is analyzed as metadata of the image, it may be stored together with the image in a memory of the user device. In order to select an image to be analyzed, the processor may check the capturing time, storage time, and/or analysis of each image using the metadata.

단계 S320에서 분석 대상 영상이 선택되면, 프로세서(210)는 선택된 분석 대상 영상에 대해 본 발명에 따른 영상 분석을 수행할 수 있다(S330).When the analysis target image is selected in step S320, the processor 210 may perform image analysis according to the present invention on the selected analysis target image (S330).

도 4는 본 발명에 따른 영상 분석의 일 실시예를 설명하기 위한 도면이다.4 is a diagram for explaining an embodiment of image analysis according to the present invention.

도 4에 도시된 영상 분석 방법은 도 3의 단계 S330의 영상 분석의 일 실시예일 수 있다.The image analysis method shown in FIG. 4 may be an embodiment of the image analysis in step S330 of FIG. 3.

분석 대상 영상은 하나 이상의 정지 영상을 포함하는 동영상일 수 있다. 동영상은 소정의 프레임 레이트(frame rate)에 따라 1초에 30장 또는 60장 등의 복수의 정지 영상을 표시함으로써, 정지 영상 내의 객체의 움직임을 표현한다. 동영상을 구성하는 정지 영상은 비월 주사 방식(interlaced scanning)에서는 필드(field)로 호칭되고, 순차 주사 방식(progressive scanning)에서는 프레임(frame)으로 호칭될 수 있다. 그러나, 본 명세서에서는 동영상을 구성하는 정지 영상을 "프레임"으로 통칭한다.The analysis target image may be a moving image including one or more still images. The moving picture represents the motion of an object in the still image by displaying a plurality of still images, such as 30 or 60 images per second according to a predetermined frame rate. Still images constituting a moving picture may be referred to as a field in interlaced scanning, and may be referred to as a frame in progressive scanning. However, in this specification, a still image constituting a moving picture is collectively referred to as a "frame."

동영상은 1초에 수십장의 정지 영상으로 구성되므로, 데이터의 양이 방대해 질 수 있다. 따라서, 동영상은 다양한 비디오 코덱 기술을 이용하여 효율적으로 압축되어 저장 및 전송될 수 있다. 비디오 인코더는 동영상을 부호화하여 비트스트림을 출력할 수 있다. 비트스트림은 동영상을 구성하는 복수의 프레임의 각각을 복원할 수 있는 압축 정보를 포함할 수 있다. 비디오 디코더는 비트스트림을 수신하고 이를 복호화함으로써, 동영상을 구성하는 각각의 프레임을 복원한 후, 출력부를 통해 디스플레이할 수 있다.Since a video consists of dozens of still images per second, the amount of data can be vast. Accordingly, moving pictures can be efficiently compressed, stored, and transmitted using various video codec technologies. The video encoder may encode a video and output a bitstream. The bitstream may include compression information capable of reconstructing each of a plurality of frames constituting a video. The video decoder may reconstruct each frame constituting the moving picture by receiving the bitstream and decoding the bitstream, and then display it through the output unit.

프로세서가 선택한 분석 대상 영상이 비트스트림과 같은 동영상의 부호화 데이터일 경우, 프로세서는 부호화 데이터를 복호화하여 분석 대상 영상을 구성하는 각각의 프레임을 복원한 후 본 발명에 따른 영상 분석을 수행할 수 있다.When the analysis target image selected by the processor is encoded data of a moving picture such as a bitstream, the processor may decode the encoded data to restore each frame constituting the analysis target image, and then perform image analysis according to the present invention.

도 5는 분석 대상 영상을 구성하는 복수의 프레임을 도시한 도면이다.5 is a diagram illustrating a plurality of frames constituting an image to be analyzed.

도 5에 도시된 바와 같이, 분석 대상 영상은 연속적으로 디스플레이되는 복수의 프레임을 포함할 수 있다. 각각의 프레임 하단의 숫자는 프레임을 식별하기 위한 식별자이다.As shown in FIG. 5, the image to be analyzed may include a plurality of frames that are continuously displayed. The number at the bottom of each frame is an identifier for identifying the frame.

다시 도 4를 참조하면, 본 발명에 따른 영상 분석을 수행하기 위해, 프로세서는 분석 대상 영상을 구성하는 프레임의 각각을 분석할 수 있다(S410). Referring back to FIG. 4, in order to perform image analysis according to the present invention, the processor may analyze each frame constituting the analysis target image (S410).

단계 S410의 프레임의 분석은 출력하기에 적절하지 않은 프레임을 식별 및/또는 제거하기 위한 단계이다. The analysis of the frame in step S410 is a step for identifying and/or removing frames that are not suitable for output.

예컨대, 너무 밝거나 너무 어두운 프레임은 S410의 프레임 분석 단계에서 식별 및/또는 제거될 수 있다. 이를 위해 프레임을 구성하는 픽셀들의 밝기값이 이용될 수 있다. 예컨대, 프레임을 구성하는 픽셀들의 밝기값을 이용하여 프레임의 대표 밝기값을 결정하고, 대표 밝기값과 소정의 임계치를 비교함으로써 해당 프레임이 너무 밝거나 너무 어두운지 여부를 판단할 수 있다. 대표 밝기값은 프레임을 구성하는 픽셀들의 밝기값의 평균값, 중간값, 분산, 표준편차 등의 통계값을 하나 이상 이용하여 계산될 수 있다.For example, a frame that is too bright or too dark may be identified and/or removed in the frame analysis step of S410. For this, brightness values of pixels constituting the frame may be used. For example, it is possible to determine whether the frame is too bright or too dark by determining a representative brightness value of a frame by using the brightness values of pixels constituting the frame and comparing the representative brightness value with a predetermined threshold. The representative brightness value may be calculated using one or more statistical values such as an average value, a median value, a variance, and a standard deviation of the brightness values of pixels constituting a frame.

또는, 예컨대, 하나의 색상만을 포함하는 프레임은 S410의 프레임 분석 단계에서 식별 및/또는 제거될 수 있다. 이를 위해 프레임을 구성하는 픽셀들의 색상값이 이용될 수 있다. 예컨대, 프레임을 구성하는 전체 픽셀들 또는 소정 개수 이상의 픽셀들의 색상값이 소정의 색상값의 범위에 포함되는 경우, 해당 프레임은 하나의 색상만을 포함하는 것으로 판단될 수 있다.Alternatively, for example, a frame including only one color may be identified and/or removed in the frame analysis step of S410. For this, color values of pixels constituting the frame may be used. For example, when a color value of all pixels constituting a frame or a predetermined number of pixels or more is included in a range of a predetermined color value, it may be determined that the frame includes only one color.

또는, 프레임에 포함된 객체의 윤곽이 불분명할 정도로 흔들림이 심한 프레임은 식별 및/또는 제거될 수 있다. 이를 위해 다양한 에지(edge) 추출 알고리즘이나 에지 히스토그램이 이용될 수 있다. 에지 추출 알고리즘이나 에지 히스토그램을 이용하여 추출된 에지의 양이 소정의 임계치 이하인 경우, 해당 프레임은 흔들림이 심한 프레임으로 판단될 수 있다.Alternatively, a frame in which shaking is severe enough to obscure the outline of the object included in the frame may be identified and/or removed. For this, various edge extraction algorithms or edge histograms may be used. When the amount of edges extracted using an edge extraction algorithm or an edge histogram is less than or equal to a predetermined threshold, the corresponding frame may be determined as a frame with severe shaking.

전술한 프레임 분석 방법은 하나 또는 둘 이상이 조합되어 적용될 수 있으며, 그 밖에 디스플레이하기에 적절하지 않은 프레임을 식별하는 다양한 기준 및 방법이 적용될 수 있다.The above-described frame analysis method may be applied by combining one or two or more, and other various criteria and methods for identifying frames that are not suitable for display may be applied.

상기에서 소정의 임계치, 소정 개수, 소정의 색상값의 범위 등 프레임 분석의 기준이 되는 값들은 미리 설정될 수도 있고 사용자에 의해 설정될 수도 있다. 또는 프레임의 특성에 기초하여 적응적으로 설정될 수도 있다. 예컨대, 밝기값이 낮은 프레임에 대해서는 에지의 양과 비교되는 소정의 임계치가 높게 설정될 수 있다. In the above, values as a reference for frame analysis, such as a predetermined threshold, a predetermined number, and a predetermined color value range, may be set in advance or may be set by a user. Alternatively, it may be adaptively set based on the characteristics of the frame. For example, for a frame having a low brightness value, a predetermined threshold compared to the amount of the edge may be set to be high.

단계 S410에서 영상적으로 적절하지 않은 프레임이 식별되면, 식별된 프레임을 분석 대상 영상으로부터 제외시킴으로써 복수의 영상 구간이 획득될 수 있다.When a frame that is not appropriate for an image is identified in step S410, a plurality of image sections may be obtained by excluding the identified frame from an image to be analyzed.

도 6은 프레임 분석 후 분석 대상 영상으로부터 획득된 복수의 영상 구간을 도시한 도면이다.6 is a diagram illustrating a plurality of image sections acquired from an image to be analyzed after frame analysis.

예컨대, 도 5에서 프레임 1, 프레임 4, 프레임 8 및 프레임 9가 적절하지 않은 출력 프레임으로 식별되면, 이들 프레임을 분석 대상 영상으로부터 제외시킴으로써 도 6에 도시된 바와 같이, 복수의 영상 구간(영상 구간1 내지 영상 구간3)이 획득될 수 있다.For example, if Frame 1, Frame 4, Frame 8, and Frame 9 are identified as inappropriate output frames in FIG. 5, these frames are excluded from the image to be analyzed, as shown in FIG. Sections 1 to 3) may be obtained.

복수의 영상 구간이 획득되면, 프로세서는 각각의 영상 구간에 대한 분류를 수행할 수 있다(S420).When a plurality of image segments are acquired, the processor may classify each image segment (S420).

단계 S420은 획득된 영상 구간의 각각을 하이라이트 구간과 비하이라이트 구간으로 분류하는 단계이다. 여기서 하이라이트 구간은 영상의 편집을 위해 필요할 것으로 예상되는 영상 구간을 의미하며, 비하이라이트 구간은 영상의 편집을 위해 필요가 없거나 영상적으로 의미가 없는 영상 구간을 의미할 수 있다.In step S420, each of the acquired image sections is classified into a highlight section and a non-highlight section. Here, the highlight section means an image section expected to be necessary for editing the image, and the non-highlight section may mean an image section that is not necessary for editing the image or has no visual significance.

단계 S420의 영상 구간의 분류를 위해 각각의 영상 구간의 길이가 이용될 수 있다. 예컨대, 소정의 기준 길이 이하의 영상 구간은 영상적으로 의미가 없는 구간으로 판단되고 비하이라이트 구간으로 분류될 수 있다. 소정의 기준 길이는 미리 설정되거나 사용자에 의해 설정되거나 분석 대상 영상의 특성에 기초하여 적응적으로 설정될 수 있다. 예컨대, 분석 대상 영상의 전체 길이가 소정 길이 이상인 것으로 판단되면, 상기 소정의 기준 길이는 상대적으로 큰 값으로 설정될 수 있다. For the classification of the video section in step S420, the length of each video section may be used. For example, an image section less than a predetermined reference length may be determined as an imagely meaningless section and classified as a non-highlight section. The predetermined reference length may be preset, set by a user, or adaptively set based on characteristics of an image to be analyzed. For example, if it is determined that the total length of the analysis target image is greater than or equal to a predetermined length, the predetermined reference length may be set to a relatively large value.

상기 소정의 기준 길이는 소정 시간으로 표현될 수도 있고, 프레임의 소정 개수로 표현될 수도 있다. 예컨대, 0.5초 이하의 영상 구간이나, 소정 개수 이하의 프레임으로 구성된 영상 구간은 비하이라이트 구간으로 분류될 수 있다.The predetermined reference length may be expressed by a predetermined time or by a predetermined number of frames. For example, an image section of 0.5 seconds or less or an image section composed of a predetermined number of frames or less may be classified as a non-highlight section.

도 6에 도시된 실시예에서, 상기 소정 개수가 2라고 가정할 때, 2개의 프레임으로 구성된 영상 구간1은 비하이라이트 구간으로 분류되고, 각각 3개 및 4개로 구성된 영상 구간2 및 영상 구간3은 하이라이트 구간으로 분류될 수 있다.In the embodiment shown in FIG. 6, assuming that the predetermined number is 2, an image section 1 consisting of two frames is classified as a non-highlight section, and an image section 2 and an image section 3 consisting of 3 and 4 respectively It can be classified as a highlight section.

하이라이트 구간으로 분류된 영상 구간에 대해서는 키 프레임(Key frame)의 추출이 수행될 수 있다. 키 프레임은 영상 구간 내에서 영상적으로 최적의 프레임을 의미할 수 있다. 키 프레임은 프레임 분석을 통해 추출될 수 있다. 예컨대, 키 프레임은 화면내 선명도(sharpness), 프레임 내 색상의 다양성 등을 기준으로 추출될 수 있다. 예컨대, 선명도와 색상의 다양성이 모두 높은 프레임을 키 프레임으로 추출할 수 있다. 또는 단계 S410의 프레임 분석 단계에서 분석된 다양한 지표의 분석 결과들이 함께 이용될 수도 있다. For an image section classified as a highlight section, a key frame may be extracted. The key frame may mean a frame that is optimally imaged within an image section. Key frames can be extracted through frame analysis. For example, the key frame may be extracted based on the sharpness of the screen and the diversity of colors within the frame. For example, a frame having both high clarity and color diversity may be extracted as a key frame. Alternatively, analysis results of various indicators analyzed in the frame analysis step of step S410 may be used together.

키 프레임은 해당 영상 구간을 대표하는 프레임으로서 정지 영상으로 추출되어 저장될 수 있다. 키 프레임은 해당 영상 구간에 대한 썸네일(thumbnail) 이미지로 이용될 수도 있다.The key frame is a frame representing a corresponding video section and may be extracted and stored as a still image. The key frame may be used as a thumbnail image for a corresponding video section.

프로세서는 단계 S420에서 분류된 하이라이트 구간의 각각에 대해 단계 S430의 영상 구간 분석을 수행할 수 있다.The processor may perform image section analysis of step S430 for each of the highlight sections classified in step S420.

단계 S430의 영상 구간 분석은 해당 영상 구간의 특성을 산출하기 위한 단계이다. 이렇게 산출된 영상 구간의 특성은 후술하는 영상 분석 결과 출력(S340) 단계에서 이용될 수 있다. The video section analysis in step S430 is a step for calculating the characteristics of the video section. The characteristics of the image section thus calculated may be used in the step of outputting an image analysis result (S340), which will be described later.

단계 S430의 영상 구간 분석을 통해, 해당 하이라이트 구간에 어떤 색상이 분포하는지, 화면내 구성이 복잡한지 단순한지, 움직임이 많은지 적은지 등의 구간 특성이 산출될 수 있다. 하이라이트 구간의 특성을 산출하기 위해, 하이라이트 구간에 포함된 프레임의 각각에 대한 분석 결과가 이용될 수 있다. Through the analysis of the image section in step S430, section characteristics such as which colors are distributed in the corresponding highlight section, whether the screen composition is complex or simple, and whether there is a lot of movement or less may be calculated. In order to calculate the characteristics of the highlight section, an analysis result of each frame included in the highlight section may be used.

예를 들어, 하이라이트 구간에 어떤 색상이 분포하는지, 색상이 다양한지 등은 하이라이트 구간에 포함된 프레임의 각각에 대한 컬러 히스토그램(color histogram)을 이용하여 산출될 수 있다. 또한, 화면내 구성이 복잡한지 단순한지, 많은 객체가 포함되어 있는지 등의 여부는 에지 히스토그램(edge histogram)을 이용하여 산출될 수 있다. For example, what colors are distributed in the highlight section, whether colors are varied, etc. may be calculated using a color histogram for each frame included in the highlight section. Also, whether the screen composition is complex or simple, or whether many objects are included can be calculated using an edge histogram.

또한, 움직임이 많은지 적은지의 여부는 하이라이트 구간에 포함된 프레임들 사이의 차이값(frame-by-frame difference)을 이용하여 산출될 수 있다. 하이라이트 구간은 많은 수의 프레임을 포함할 수 있으므로, 프레임들 사이의 차이값은 복수개 존재할 수 있으며, 이 경우, 복수의 차이값의 평균값, 중간값, 분산, 표준 편차 등의 통계값을 하나 이상 이용하여 하이라이트 구간에 대한 특성을 산출할 수 있다.Also, whether there is a lot of motion or not may be calculated using a frame-by-frame difference between frames included in the highlight section. Since a highlight section can include a large number of frames, there can be multiple differences between frames, and in this case, one or more statistical values such as average, median, variance, and standard deviation of the multiple difference values are used. Thus, the characteristics of the highlight section can be calculated.

영상 구간의 특성은 상기 예시한 내용으로 한정되지 않으며, 해당 영상 구간에 관한 모든 정보(예컨대, 길이, 해상도, 밝기, 색상 등)가 구간 특성으로서 이용될 수 있다.The characteristics of the video section are not limited to the above-described contents, and all information (eg, length, resolution, brightness, color, etc.) about the video section may be used as the section property.

다시 도 3을 참조하면, 단계 S330의 영상 분석이 수행된 후, 프로세서는 단계 S340에서 영상 분석된 결과를 출력할 수 있다. 전술한 바와 같이, 단계 S430에서 산출된 영상 구간의 특성이 단계 S340에서 이용될 수 있다. Referring back to FIG. 3, after the image analysis in step S330 is performed, the processor may output the image analysis result in step S340. As described above, the characteristics of the image section calculated in step S430 may be used in step S340.

단계 S340의 영상 분석 결과의 출력은 적어도 하나의 하이라이트 구간에 관한 정보의 출력일 수 있다. 이때, 단계 S340의 출력은 디스플레이를 통한 적어도 하나의 하이라이트 구간의 출력일 수 있다. 또는, 단계 S340의 출력은 적어도 하나의 하이라이트 구간에 관한 정보를 메모리(220)에 저장하는 것일 수 있다. 이때, 적어도 하나의 하이라이트 구간에 관한 정보는 해당 영상의 식별자(ID, identifier)와 함께 해당 영상의 메타데이터로서 사용자 디바이스의 메모리에 저장될 수 있다. 단계 S340의 출력의 대상인 상기 적어도 하나의 하이라이트 구간은 트림(trim) 구간 또는 하이라이트 영상일 수 있다.The output of the image analysis result in step S340 may be the output of information on at least one highlight section. In this case, the output of step S340 may be an output of at least one highlight section through the display. Alternatively, the output of step S340 may be to store information on at least one highlight section in the memory 220. In this case, the information on the at least one highlight section may be stored in a memory of the user device as metadata of the corresponding image together with an identifier (ID) of the corresponding image. The at least one highlight section to be output in step S340 may be a trim section or a highlight image.

트림 구간에 관한 정보의 출력 또는 하이라이트 영상 정보의 출력은 사용자에 의해 지정된 영상에 대해 편집 화면 요청이 입력되는 경우에 수행될 수 있다. 예를 들어, 사용자에 의해 SNS 상에 업로드될 영상이 선택되고 해당 영상의 편집 화면 요청 UI가 선택된 경우 선택된 영상의 트림 구간에 관한 정보 또는 하이라이트 영상 정보를 출력할 수 있다. The output of the information on the trim section or the output of the highlight image information may be performed when an edit screen request is input for an image designated by a user. For example, when an image to be uploaded on an SNS is selected by the user and an edit screen request UI of the corresponding image is selected, information about a trim section or highlight image information of the selected image may be output.

트림 구간에 관한 정보가 영상 분석의 결과로서 출력되는 경우, 하나 이상의 하이라이트 구간으로부터 선택된 하나의 영상 구간을 트림 구간으로서 출력할 수 있다. 선택된 트림 구간은 사용자가 식별할 수 있도록 디스플레이에 표시됨으로써 출력될 수 있다. 또는 선택된 트림 구간에 관한 정보가 메모리에 저장될 수 있다. When information about the trim section is output as a result of image analysis, one video section selected from one or more highlight sections may be output as a trim section. The selected trim section may be output by being displayed on the display so that the user can identify it. Alternatively, information on the selected trim section may be stored in the memory.

트림 구간에 관한 정보는 예를 들어, 트림 구간을 특정할 수 있는 정보로서, 트림 구간의 시작과 끝을 지시하는 정보일 수도 있고, 트림 구간의 시작과 지속 기간(duration)을 지시하는 정보일 수도 있다. 이때, 정보는 프레임 수 또는 시간으로 표현될 수 있다. 또는, 트림 구간에 해당하는 영상이 메모리에 별도로 저장될 수도 있다.The information on the trim section is, for example, information that can specify the trim section, and may be information indicating the start and end of the trim section, or information indicating the start and duration of the trim section. have. In this case, the information may be expressed as the number of frames or time. Alternatively, an image corresponding to the trim section may be separately stored in the memory.

본 발명에 따른 영상 분석이 수행된 후, 사용자는 디스플레이를 통해 해당 영상의 트림 구간을 즉시 제공받을 수 있다. 또한 영상의 분석이 완료되어 해당 영상의 트림 구간에 관한 정보가 메모리에 저장되면, 사용자의 요청이 있을 경우, 추가적인 분석없이 해당 영상의 트림 구간이 즉시 사용자에게 제공될 수 있다. After the image analysis according to the present invention is performed, the user can immediately receive the trim section of the corresponding image through the display. In addition, when the analysis of the image is completed and information on the trim section of the corresponding video is stored in the memory, if there is a request from the user, the trim section of the video may be immediately provided to the user without further analysis.

복수의 하이라이트 구간으로부터 트림 구간을 선택하는 기준은 미리 설정될 수도 있고, 사용자에 의해 설정될 수도 있다. 예컨대, 복수의 하이라이트 구간 중 길이가 가장 긴 구간이 트림 구간으로 선택될 수 있다. 이를 위해 각각의 하이라이트 구간의 특성으로서, 길이가 이용될 수 있다. 프로세서는 복수의 하이라이트 구간 각각의 길이를 비교한 후 가장 길이가 긴 구간을 트림 구간으로 선택할 수 있다. 예컨대, 도 6에 도시된 예에서, 트림 구간은 영상 구간3으로 선택될 수 있다.A criterion for selecting a trim section from a plurality of highlight sections may be set in advance or may be set by a user. For example, a section having the longest length among a plurality of highlight sections may be selected as the trim section. To this end, a length may be used as a characteristic of each highlight section. After comparing the lengths of each of the plurality of highlight sections, the processor may select the longest section as the trim section. For example, in the example shown in FIG. 6, the trim section may be selected as the image section 3.

예를 들어, 복수의 하이라이트 구간 중 소정의 길이에 가장 근접한 길이를 가진 구간이 트림 구간으로 선택될 수 있다. 상기 소정의 길이는 미리 설정되거나 사용자에 의해 설정될 수 있다. 예컨대, 동영상을 송수신하거나 업로드하는 어플리케이션의 제한에 의해 상기 소정의 길이가 설정될 수 있다.For example, a section having a length closest to a predetermined length among a plurality of highlight sections may be selected as the trim section. The predetermined length may be set in advance or may be set by a user. For example, the predetermined length may be set by restrictions of an application for transmitting/receiving or uploading a video.

또는 예를 들어, 복수의 하이라이트 구간 중 화면내 움직임이 가장 많은 구간 또는 가장 적은 구간이 트림 구간으로 선택될 수 있다. 이를 위해 각각의 하이라이트 구간의 특성으로서, 예컨대, 프레임들 사이의 차이값(frame-by-frame difference)을 이용하여 산출된 특성이 이용될 수 있다.Alternatively, for example, a section with the most or the least amount of motion in the screen among the plurality of highlight sections may be selected as the trim section. To this end, as a characteristic of each highlight section, a characteristic calculated using, for example, a frame-by-frame difference between frames may be used.

또는 예를 들어, 복수의 하이라이트 구간 중 색 다양성이 가장 높은 구간 또는 가장 낮은 구간이 트림 구간으로 선택될 수 있다. 이를 위해 각각의 하이라이트 구간의 특성으로서, 예컨대, 컬러 히스토그램(color histogram)을 이용하여 산출된 특성이 이용될 수 있다.Alternatively, for example, a section having the highest or lowest color diversity among the plurality of highlight sections may be selected as the trim section. To this end, as a characteristic of each highlight section, a characteristic calculated using, for example, a color histogram may be used.

또는 예를 들어, 복수의 하이라이트 구간 중 가장 선명한 구간이 트림 구간으로 선택될 수 있다. 이를 위해 각각의 하이라이트 구간의 특성으로서, 예컨대, 에지 히스토그램(edge histogram)을 이용하여 산출된 특성이 이용될 수 있다.Alternatively, for example, the clearest section among the plurality of highlight sections may be selected as the trim section. To this end, as a characteristic of each highlight section, for example, a characteristic calculated using an edge histogram may be used.

상기 트림 구간을 선택하는 다양한 기준은 단독으로, 또는 다른 기준과 조합되어 적용될 수 있다. 둘 이상의 기준이 조합되어 적용되는 경우, 각각의 기준에 서로 다른 가중치를 부여함으로써, 기준 간의 우선 순위를 달리할 수 있다.Various criteria for selecting the trim section may be applied alone or in combination with other criteria. When two or more criteria are combined and applied, different weights are assigned to each criterion, so that the priorities between the criteria can be different.

하나의 영상 구간이 트림 구간으로서 제공될 수도 있고, 둘 이상의 영상 구간이 제공될 수도 있다. 둘 이상의 영상 구간이 트림 구간으로서 제공되는 경우, 사용자의 입력에 기초하여 그 중 일부가 트림 구간으로서 최종 선택될 수 있다. 또 다른 예에 따르면 제공되는 트림 구간과 무관하게 사용자에 의해 해당 영상의 일부분 또는 복수개의 부분이 선택될 수 있고, 선택된 일부분 또는 복수개의 부분이 트림 구간으로서 최종 선택될 수 있다.One video section may be provided as a trim section, or two or more video sections may be provided. When two or more video sections are provided as trim sections, some of them may be finally selected as trim sections based on a user's input. According to another example, a part or a plurality of parts of a corresponding image may be selected by a user regardless of the provided trim section, and the selected part or a plurality of parts may be finally selected as the trim section.

하이라이트 영상에 관한 정보가 영상 분석의 결과로서 출력되는 경우, 소정의 기준에 따라 하나 이상의 하이라이트 구간의 일부 또는 전부를 연결함으로써 하이라이트 영상을 생성할 수 있다. 생성된 하이라이트 영상은 사용자가 식별할 수 있도록 디스플레이에 표시됨으로써 출력될 수 있다. 또는 생성된 하이라이트 영상에 관한 정보가 메모리에 저장될 수 있다. 하이라이트 영상에 관한 정보는 예를 들어, 하이라이트 영상을 구성하는 하이라이트 구간의 각각을 특정할 수 있는 정보로서, 하이라이트 구간 각각의 시작과 끝을 지시하는 정보일 수도 있고, 하이라이트 구간 각각의 시작과 지속 기간(duration)을 지시하는 정보일 수도 있다. 이때, 정보는 프레임 수 또는 시간으로 표현될 수 있다. 또는, 생성된 하이라이트 영상이 메모리에 별도로 저장될 수도 있다.When information about the highlight image is output as a result of image analysis, a highlight image may be generated by connecting some or all of one or more highlight sections according to a predetermined criterion. The generated highlight image may be output by being displayed on a display so that the user can identify it. Alternatively, information on the generated highlight image may be stored in a memory. The information on the highlight image is, for example, information capable of specifying each of the highlight sections constituting the highlight image, and may be information indicating the start and end of each highlight section, or the start and duration of each highlight section. It may also be information indicating (duration). In this case, the information may be expressed as the number of frames or time. Alternatively, the generated highlight image may be separately stored in the memory.

하이라이트 영상을 구성하기 위해 소정의 기준에 따라 복수의 하이라이트 구간 중 일부가 선택될 수 있다. 이때 소정의 기준은 예컨대, 길이가 가장 긴 하이라이트 구간, 소정의 길이에 가장 근접한 길이를 갖는 구간, 화면내 움직임이 가장 작은 구간 또는 가장 큰 구간, 색 다양성이 가장 작은 구간 또는 가장 큰 구간, 가장 선명한 구간 또는 소정 기준 이상의 선명도를 갖는 구간 등이 적용될 수 있다. 상기 각각의 기준에 부합하는 하이라이트 구간을 선택하기 위해, 상기 트림 구간의 선택에서 전술한 방법이 유사하게 적용될 수 있다.In order to configure the highlight image, some of the plurality of highlight sections may be selected according to a predetermined criterion. At this time, the predetermined criterion is, for example, a highlight section with the longest length, a section with a length closest to a predetermined length, a section with the smallest or the largest motion within the screen, a section with the smallest color diversity or the section with the greatest sharpness. A section or a section having a sharpness greater than or equal to a predetermined standard may be applied. In order to select a highlight section meeting each of the criteria, the above-described method may be similarly applied in the selection of the trim section.

상기 하이라이트 영상을 구성하는 하이라이트 구간을 선택하는 다양한 기준은 단독으로 또는 다른 기준과 조합되어 적용될 수 있다. 둘 이상의 기준이 조합되어 적용되는 경우, 각각의 기준에 서로 다른 가중치를 부여함으로써, 기준 간의 우선 순위를 달리할 수 있다.Various criteria for selecting a highlight section constituting the highlight image may be applied alone or in combination with other criteria. When two or more criteria are combined and applied, different weights are assigned to each criterion, so that the priorities between the criteria can be different.

하이라이트 영상의 전체 길이 또는 하이라이트 영상을 구성하는 하이라이트 구간의 개수에 제한이 있는 경우, 이를 함께 반영하여 상기 소정의 기준에 부합하는 하이라이트 구간 중 일부 하이라이트 구간만이 우선 순위에 따라 선택될 수 있다. When there is a limitation on the total length of the highlight image or the number of highlight sections constituting the highlight image, only some of the highlight sections meeting the predetermined criterion may be selected according to priority by reflecting the same.

도 7은 영상으로부터 트림 구간을 선택하는 방법을 설명하기 위한 도면이다.7 is a diagram for explaining a method of selecting a trim section from an image.

도 7의 (a)에 도시된 바와 같이, 선택된 영상에 대해 영상 편집의 트림 기능을 선택한 후, 사용자 입력에 의해 트림 구간의 시작 시점과 종료 시점을 선택함으로써, 트림 구간이 수동으로 선택될 수 있다. 마지막으로 선택된 트림 구간을 확정하는 사용자 입력에 의해 트림 영상이 생성될 수 있다. 이때, 사용자 입력은 마우스 입력 또는 터치 입력을 포함할 수 있다. 또는 사용자 입력은 시작 시점과 종료 시점 또는 시작 시점과 지속 기간을 직접 입력하는 방식일 수 있다.As shown in (a) of FIG. 7, after selecting the trim function of video editing for the selected image, the trim section can be manually selected by selecting the start time and the end time of the trim section according to a user input. . Finally, a trim image may be generated by a user input for determining the selected trim section. In this case, the user input may include a mouse input or a touch input. Alternatively, the user input may be a method of directly inputting a start time and end time or a start time and duration.

또는 도 7의 (b)에 도시된 바와 같이, 사용자는 사용자 디바이스에서 구동되는 어플리케이션의 셋업 메뉴를 조작하여, 본 발명에 따른 영상 분석 방법이 실행되도록 설정할 수 있다(셋팅에서 스마트 비디오 트리머를 ON으로 설정). 본 발명에 따른 영상 분석 방법이 실행되도록 설정되면, 전술한 소정의 조건에서 본 발명에 따른 영상 분석 방법이 수행되고, 트림 구간에 관한 정보가 생성되어, 해당 영상의 분석 결과로서 메모리에 저장될 수 있다. Alternatively, as shown in (b) of FIG. 7, the user can set the image analysis method according to the present invention to be executed by manipulating the setup menu of the application running on the user device (in the setting, the smart video trimmer is turned ON. Set). When the image analysis method according to the present invention is set to be executed, the image analysis method according to the present invention is performed under the above-described predetermined conditions, information on the trim section is generated, and stored in a memory as a result of analysis of the corresponding image. have.

이 후, 분석이 완료된 영상이 사용자에 의해 선택되는 경우, 편집 UI 요소, 구체적으로 트림 버튼(예컨대, 도 7(b)의 디스플레이 화면의 좌측 하단에 표시된 마법봉 버튼)이 사용자에게 제공될 수 있다. 사용자가 트림 버튼을 선택하면, 메모리에 저장된 트림 구간에 관한 정보에 기초하여, 자동으로 분석된 트림 구간이 즉시 사용자에게 제공될 수 있다. 이 때, 자동으로 분석된 트림 구간에 해당하는 부분은 프레임 명도를 달리하거나 다른 색상의 필터를 이용하여 트림 구간에 해당하지 않는 부분과 구별되게 표시할 수 있다. 마지막으로 제공된 트림 구간을 확정하는 사용자 입력에 의해 트림 영상이 생성될 수 있다.Thereafter, when the analyzed image is selected by the user, an editing UI element, specifically, a trim button (eg, a magic wand button displayed at the lower left of the display screen of FIG. 7B) may be provided to the user. When the user selects the trim button, the automatically analyzed trim section may be immediately provided to the user based on information on the trim section stored in the memory. In this case, a portion corresponding to the automatically analyzed trim section may be displayed to be distinguished from a portion that does not correspond to the trim section by using a different frame brightness or a filter of a different color. Finally, a trim image may be generated by a user input for determining the provided trim section.

도 8은 본 발명의 영상 분석 방법이 수행되어 생성된 하이라이트 영상을 제공하는 일 실시예를 설명하기 위한 도면이다.8 is a diagram for explaining an embodiment of providing a highlight image generated by performing the image analysis method of the present invention.

전술한 바와 같이, 본 발명의 영상 분석 방법이 수행되면, 하이라이트 영상에 관한 정보가 영상 분석의 결과로서 출력될 수 있다. 하이라이트 영상에 관한 정보는 하이라이트 영상을 구성하는 하이라이트 구간의 시작 시점 및 종료 시점을 식별할 수 있는 정보를 포함할 수 있다. 따라서, 하이라이트 영상에 관한 정보를 이용하면 해당 분석 대상 영상에 있어서, 하이라이트 구간과 비하이라이트 구간을 용이하게 식별할 수 있다.As described above, when the image analysis method of the present invention is performed, information on the highlight image may be output as a result of the image analysis. The information on the highlight image may include information for identifying a start time point and an end time point of a highlight section constituting the highlight image. Therefore, by using the information on the highlight image, it is possible to easily identify the highlight section and the non-highlight section in the analysis target image.

본 발명에 따른 영상 분석이 완료된 영상을 사용자가 선택할 경우, 해당 영상의 하이라이트 구간으로만 구성된 하이라이트 영상이 사용자에게 제공될 수도 있고, 변형예로서, 도 8에 도시된 바와 같이, 해당 영상을 구성하는 하이라이트 구간은 정상 속도로 재생하고, 비하이라이트 구간은 정상 속도 이상의 속도(예컨대, 2배속)로 재생하는 방법으로 선택된 영상이 사용자에게 제공될 수도 있다.When a user selects an image for which image analysis has been completed according to the present invention, a highlight image composed of only the highlight section of the image may be provided to the user. As a modified example, as shown in FIG. 8, The selected image may be provided to the user by reproducing the highlight section at a normal speed, and reproducing the non-highlight section at a speed greater than or equal to the normal speed (eg, double speed).

또는, 본 발명에 따른 영상 분석의 수행 결과로서, 동영상을 구성하는 키 프레임을 정지 영상으로서 메모리에 저장하거나 사용자에게 제공할 수 있다. 예컨대, 움직임이 많은 객체(강아지, 고양이 등)를 촬영하는 경우, 흔들림이 적은 정지 영상을 획득하기가 용이하지 않다. 이런 경우, 해당 피사체를 촬영한 동영상을 재생하면서 그 중 선명도가 높은 프레임을 정지 영상으로 캡쳐함으로써 피사체에 대한 양호한 정지 영상을 확보할 수 있다.Alternatively, as a result of performing image analysis according to the present invention, a key frame constituting a moving picture may be stored in a memory as a still image or provided to a user. For example, when photographing a moving object (dog, cat, etc.), it is not easy to obtain a still image with little shaking. In this case, a good still image of the subject can be secured by capturing a frame with high sharpness among them as a still image while reproducing a video in which the subject is captured.

본 발명의 영상 분석 방법에 따르면, 동영상을 구성하는 모든 프레임을 분석하게 되므로, 이 중 가장 선명도가 높은 프레임을 선택함으로써 자동으로 키 프레임을 획득할 수 있다. 구체적으로, 트림 구간 제안 요청과 유사하게 사용자에 의해 키프레임 제안 요청이 있는 경우, 본 발명의 영상 분석 방법에 따라 동영상에 포함된 프레임 중 적어도 하나를 키프레임으로 판단할 수 있다. 이 때, 키프레임을 키프레임이 아닌 프레임과 구별하여 표시함으로써 사용자에게 키프레임을 제안할 수 있다. 이에 따라, 사용자가 직접 동영상으로부터 키 프레임을 찾는 시간과 수고를 덜 수 있다.According to the image analysis method of the present invention, since all frames constituting a video are analyzed, a key frame can be automatically obtained by selecting a frame with the highest sharpness among them. Specifically, similar to the request for a trim section proposal, when there is a request for a key frame proposal by the user, at least one of the frames included in the video may be determined as a key frame according to the image analysis method of the present invention. In this case, the key frame can be suggested to the user by displaying the key frame by distinguishing it from the frame other than the key frame. Accordingly, it is possible to save time and labor for a user to directly search for a key frame from a video.

본 발명에 따른 영상 분석 방법은, 예컨대 인스턴트 메신저 어플리케이션을 통해 동영상을 전송할 때, SNS를 통해 동영상 프로파일을 설정할 때, 원격 저장소에 동영상을 저장할 때, 인스턴트 컨텐트 쉐어링(instant content sharing; 예컨대, LINE Timeline post, LINE Timeline Story 등)에서 동영상을 선택할 때 적용될 수 있다. 이때 업로드 동영상의 길이에 제한이 있는 경우, 길이 제한에 부합하는 구간이 선택되어 제공될 수 있다. 동영상의 길이 제한은, 예컨대, 동영상 프로파일의 경우 6초, Story의 경우 15초와 같이, 어플리케이션 또는 서비스 별로 상이하게 설정될 수 있다.The video analysis method according to the present invention includes, for example, when transmitting a video through an instant messenger application, when setting a video profile through SNS, when storing a video in a remote storage, and instant content sharing (e.g., LINE Timeline post) , LINE Timeline Story, etc.). In this case, when there is a limit on the length of the uploaded video, a section meeting the length limit may be selected and provided. The video length limit may be set differently for each application or service, such as 6 seconds for a video profile and 15 seconds for a story.

본 발명에 따른 영상 분석 방법의 분석 결과로서 제공되는 하이라이트 영상은 둘 이상의 분석 대상 영상에 기초하여 생성될 수도 있다. 예컨대, 동일 여행지에서 촬영된 둘 이상의 분석 대상 영상을 분석하여 하이라이트 구간을 식별하고, 식별된 하이라이트 구간을 연결함으로써 하이라이트 영상을 생성할 수 있다.The highlight image provided as an analysis result of the image analysis method according to the present invention may be generated based on two or more images to be analyzed. For example, a highlight section may be identified by analyzing two or more analysis target images captured in the same travel destination, and a highlight image may be generated by connecting the identified highlight sections.

본 발명에 따르면, 영상으로부터 트림 영상 또는 하이라이트 영상이 자동으로 분석 및 생성되어 사용자에게 제공될 수 있다. 사용자는 자동으로 생성된 트림 영상 또는 하이라이트 영상을 이용할 수 있으므로, 영상 편집에 소요되는 시간과 노력을 절약할 수 있다.According to the present invention, a trim image or a highlight image may be automatically analyzed and generated from an image and provided to a user. Since the user can use the automatically generated trim video or highlight video, it is possible to save time and effort required for video editing.

또한, 본 발명에 따른 영상 분석은 사용자 디바이스의 상태, 사용 패턴 등을 고려하여 수행되므로, 많은 리소스를 필요로 하는 영상 분석 작업을 최적의 타이밍에 수행할 수 있고, 그럼으로써 사용자 디바이스의 자원을 효율적으로 사용할 수 있다.In addition, since the image analysis according to the present invention is performed in consideration of the state of the user device and the usage pattern, it is possible to perform an image analysis task that requires a lot of resources at an optimal timing, thereby efficiently saving the resources of the user device. Can be used as.

본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.Although the exemplary methods of the present disclosure are expressed as a series of operations for clarity of description, this is not intended to limit the order in which steps are performed, and each step may be performed simultaneously or in a different order if necessary. In order to implement the method according to the present disclosure, the exemplary steps may include additional steps, other steps may be included excluding some steps, or may include additional other steps excluding some steps.

본 개시의 다양한 실시예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다. Various embodiments of the present disclosure are not intended to list all possible combinations, but to describe representative aspects of the present disclosure, and matters described in the various embodiments may be applied independently or may be applied in combination of two or more.

또한, 본 발명의 일실시예에 따른 방법은 다양한 컴퓨터 장치에 의해 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.In addition, the method according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed by various computer devices and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known to and usable by a person skilled in the computer software field. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the present invention, and vice versa.

또한, 본 개시의 다양한 실시예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다. In addition, various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof. For implementation by hardware, one or more ASICs (Application Specific Integrated Circuits), DSPs (Digital Signal Processors), DSPDs (Digital Signal Processing Devices), PLDs (Programmable Logic Devices), FPGAs (Field Programmable Gate Arrays), general purpose It may be implemented by a processor (general processor), a controller, a microcontroller, a microprocessor, or the like.

본 개시의 범위는 다양한 실시예의 방법에 따른 동작이 장치 또는 컴퓨터 장치 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다. The scope of the present disclosure is software or machine-executable instructions (e.g., operating systems, applications, firmware, programs, etc.) that cause an operation according to the method of various embodiments to be executed on a device or a computer device, and such software. Or it includes a non-transitory computer-readable medium (non-transitory computer-readable medium) that is stored in the instruction and the like that can be executed on a device or a computer.

Claims (20)

메모리 및 적어도 하나의 프로세서를 포함하는 사용자 디바이스에 의해 수행되는 영상 분석 방법으로서,
상기 메모리에 저장된 하나 이상의 영상의 분석을 수행할지 여부를 결정하는 단계;
상기 하나 이상의 영상 중 분석 대상 영상을 선택하는 단계;
상기 분석 대상 영상을 분석하는 단계; 및
상기 분석 대상 영상 중 적어도 하나에 대한 분석 결과를 출력하는 단계를 포함하는, 영상 분석 방법.
An image analysis method performed by a user device including a memory and at least one processor,
Determining whether to perform analysis of one or more images stored in the memory;
Selecting an image to be analyzed from among the one or more images;
Analyzing the image to be analyzed; And
And outputting an analysis result for at least one of the images to be analyzed.
제1항에 있어서,
상기 영상의 분석을 수행할지 여부를 결정하는 단계는,
상기 사용자 디바이스가 유휴 상태인지의 여부에 기초하여 수행되는, 영상 분석 방법.
The method of claim 1,
Determining whether to perform the analysis of the image,
An image analysis method performed based on whether the user device is in an idle state.
제1항에 있어서,
상기 영상의 분석을 수행할지 여부를 결정하는 단계는,
상기 사용자 디바이스의 사용 패턴에 기초하여 수행되는, 영상 분석 방법.
The method of claim 1,
Determining whether to perform the analysis of the image,
An image analysis method performed based on a usage pattern of the user device.
제1항에 있어서,
상기 영상의 분석을 수행할지 여부를 결정하는 단계는,
상기 사용자 디바이스가 유휴 상태이고, 상기 사용자 디바이스의 사용 패턴에 기초하여 상기 사용자 디바이스가 소정 시간 동안 사용되지 않을 것으로 판단된 경우, 상기 영상의 분석을 수행하는 것으로 결정하는 단계를 포함하는, 영상 분석 방법.
The method of claim 1,
Determining whether to perform the analysis of the image,
When the user device is in an idle state and it is determined that the user device will not be used for a predetermined time based on a usage pattern of the user device, determining to analyze the image .
제1항에 있어서,
상기 분석 대상 영상을 선택하는 단계는,
상기 메모리에 저장된 하나 이상의 영상 중 생성일이 가장 늦은 영상을 상기 분석 대상 영상으로 선택하는 단계를 포함하는, 영상 분석 방법.
The method of claim 1,
Selecting the analysis target image,
And selecting an image having the latest generation date among one or more images stored in the memory as the analysis target image.
제1항에 있어서,
상기 분석 대상 영상을 분석하는 단계는,
상기 분석 대상 영상을 구성하는 복수의 프레임의 각각을 분석하는 단계;
상기 프레임의 분석 결과에 기초하여 식별된 하나 이상의 영상 구간을 하이라이트(highlight) 구간과 비하이라이트(non-highlight) 구간으로 분류하는 단계; 및
상기 하이라이트 구간으로 분류된 영상 구간의 각각을 분석하는 단계를 포함하는, 영상 분석 방법.
The method of claim 1,
Analyzing the analysis target image,
Analyzing each of a plurality of frames constituting the analysis target image;
Classifying at least one image section identified based on the analysis result of the frame into a highlight section and a non-highlight section; And
And analyzing each of the image sections classified as the highlight section.
제6항에 있어서,
상기 프레임을 분석하는 단계는,
상기 복수의 프레임의 각각을 구성하는 픽셀들의 밝기값 및 색상값, 프레임내 에지의 양 중 적어도 하나가 소정의 기준에 부합하는지 여부를 판단함으로써 출력되지 않을 프레임을 식별하는 단계를 포함하는, 영상 분석 방법.
The method of claim 6,
Analyzing the frame,
The image analysis comprising the step of identifying a frame not to be output by determining whether at least one of a brightness value and a color value of pixels constituting each of the plurality of frames, and an amount of an edge in the frame meet a predetermined criterion Way.
제6항에 있어서,
상기 영상 구간을 분류하는 단계는,
영상 구간의 길이가 소정의 길이 이상인 경우, 해당 영상 구간을 하이라이트 구간으로 분류하는 단계; 및,
영상 구간의 길이가 소정의 길이 미만인 경우, 해당 영상 구간을 비하이라이트 구간으로 분류하는 단계를 포함하는, 영상 분석 방법.
The method of claim 6,
The step of classifying the video section,
If the length of the video section is greater than or equal to a predetermined length, classifying the video section as a highlight section; And,
If the length of the video section is less than a predetermined length, the video analysis method comprising the step of classifying the video section as a non-highlight section.
제6항에 있어서,
상기 영상 구간을 분석하는 단계는,
영상 구간을 구성하는 복수의 프레임의 각각에 대한 분석 결과, 프레임간 차이값, 해당 영상 구간의 길이 중 적어도 하나를 해당 영상 구간의 특성으로서 산출하는 단계를 포함하는, 영상 분석 방법.
The method of claim 6,
Analyzing the image section,
An image analysis method comprising the step of calculating at least one of a result of analyzing each of a plurality of frames constituting an image section, a difference value between frames, and a length of a corresponding video section as a characteristic of the video section.
제9항에 있어서,
상기 분석 결과를 출력하는 단계는,
상기 영상 구간의 특성에 기초하여, 적어도 하나의 하이라이트 구간에 관한 정보를 출력하는 단계를 포함하는, 영상 분석 방법.
The method of claim 9,
The step of outputting the analysis result,
And outputting information on at least one highlight section based on the characteristics of the video section.
제1항에 있어서,
상기 분석 결과를 출력하는 단계는,
상기 사용자 디바이스의 사용자로부터 상기 분석 대상 영상 중 적어도 하나에 대해 편집 화면 요청이 수신되면 해당 영상에 대한 분석 결과를 출력하는 단계를 포함하는, 영상 분석 방법.
The method of claim 1,
The step of outputting the analysis result,
And outputting an analysis result for the corresponding image when an edit screen request for at least one of the analysis target images is received from a user of the user device.
제1항에 있어서,
상기 분석 결과를 출력하는 단계는,
상기 사용자 디바이스의 사용자로부터 상기 메모리에 저장된 하나 이상의 영상 중 하나에 대한 선택을 수신하는 단계;
상기 선택된 영상에 대해 편집 화면 요청이 수신되면, 상기 선택된 영상이 상기 분석 대상 영상에 해당하여 상기 선택된 영상에 대한 분석 결과가 상기 메모리에 저장되어 있는지를 판단하는 단계; 및
상기 선택된 영상에 대한 분석 결과가 저장된 것으로 판단하는 경우, 상기 분석 결과를 출력하는 단계
를 포함하는, 영상 분석 방법.
The method of claim 1,
The step of outputting the analysis result,
Receiving a selection of one or more images stored in the memory from a user of the user device;
When an edit screen request is received for the selected image, determining whether the selected image corresponds to the analysis target image and an analysis result of the selected image is stored in the memory; And
When it is determined that the analysis result for the selected image is stored, outputting the analysis result
Containing, image analysis method.
제12항에 있어서,
상기 선택된 영상에 대한 분석 결과가 저장된 것으로 판단하는 경우, 상기 분석 결과와 함께 상기 선택된 영상에 대한 편집 UI 요소를 표시하는, 영상 분석 방법.
The method of claim 12,
When it is determined that the analysis result for the selected image is stored, displaying an editing UI element for the selected image together with the analysis result.
제1항 내지 제13항 중 어느 한 항에 따른 영상 분석 방법을 컴퓨터에서 실행하기 위해 컴퓨터로 판독가능한 기록 매체에 저장된 컴퓨터 프로그램.A computer program stored in a computer-readable recording medium for executing the image analysis method according to any one of claims 1 to 13 on a computer. 영상 분석 방법을 수행하는 사용자 디바이스로서,
하나 이상의 영상을 저장하는 메모리; 및
적어도 하나의 프로세서를 포함하고,
상기 프로세서는,
상기 메모리에 저장된 하나 이상의 영상의 분석을 수행할지 여부를 결정하는 단계;
상기 하나 이상의 영상 중 분석 대상 영상을 선택하는 단계;
상기 분석 대상 영상을 분석하는 단계; 및
상기 분석 결과를 출력하는 단계를 수행하는, 사용자 디바이스.
A user device that performs an image analysis method, comprising:
A memory for storing one or more images; And
Including at least one processor,
The processor,
Determining whether to perform analysis of one or more images stored in the memory;
Selecting an image to be analyzed from among the one or more images;
Analyzing the image to be analyzed; And
A user device performing the step of outputting the analysis result.
제15항에 있어서,
상기 프로세서는,
상기 사용자 디바이스가 유휴 상태이고, 상기 사용자 디바이스의 사용 패턴에 기초하여 상기 사용자 디바이스가 소정 시간 동안 사용되지 않을 것으로 판단된 경우, 상기 영상의 분석을 수행하는 것으로 결정하는, 사용자 디바이스.
The method of claim 15,
The processor,
When the user device is in an idle state and it is determined that the user device will not be used for a predetermined period of time based on a usage pattern of the user device, determining to analyze the image.
제15항에 있어서,
상기 프로세서는, 상기 분석 대상 영상을 분석하는 단계에서,
상기 분석 대상 영상을 구성하는 복수의 프레임의 각각을 분석하는 단계;
상기 프레임의 분석 결과에 기초하여 식별된 하나 이상의 영상 구간을 하이라이트(highlight) 구간과 비하이라이트(non-highlight) 구간으로 분류하는 단계; 및
상기 하이라이트 구간으로 분류된 영상 구간의 각각을 분석하는 단계를 수행하는, 사용자 디바이스.
The method of claim 15,
The processor, in the step of analyzing the analysis target image,
Analyzing each of a plurality of frames constituting the analysis target image;
Classifying at least one image section identified based on the analysis result of the frame into a highlight section and a non-highlight section; And
The user device of performing the step of analyzing each of the image sections classified as the highlight section.
제17항에 있어서,
상기 프로세서는, 상기 영상 구간을 분석하는 단계에서,
상기 영상 구간을 구성하는 복수의 프레임의 각각에 대한 분석 결과, 프레임간 차이값, 해당 영상 구간의 길이 중 적어도 하나를 해당 영상 구간의 특성으로서 산출하는 단계를 수행하고,
상기 분석 결과를 출력하는 단계에서,
상기 영상 구간의 특성에 기초하여, 적어도 하나의 하이라이트 구간에 관한 정보를 출력하는 단계를 수행하는, 사용자 디바이스.
The method of claim 17,
The processor, in the step of analyzing the image section,
Performing a step of calculating at least one of a result of analyzing each of the plurality of frames constituting the video section, a difference value between frames, and a length of the video section as a characteristic of the video section,
In the step of outputting the analysis result,
A user device for performing the step of outputting information on at least one highlight section based on the characteristics of the video section.
제15항에 있어서,
상기 프로세서는, 상기 분석 결과를 출력하는 단계에서,
상기 사용자 디바이스의 사용자로부터 상기 분석 대상 영상 중 적어도 하나에 대해 편집 화면 요청이 수신되면 해당 영상에 대한 분석 결과를 출력하는 단계를 수행하는, 사용자 디바이스.
The method of claim 15,
The processor, in the step of outputting the analysis result,
When an edit screen request for at least one of the analysis target images is received from a user of the user device, outputting an analysis result for the corresponding image is performed.
제15항에 있어서,
상기 프로세서는, 상기 분석 결과를 출력하는 단계에서,
상기 사용자 디바이스의 사용자로부터 상기 메모리에 저장된 하나 이상의 영상 중 하나에 대한 선택을 수신하는 단계;
상기 선택된 영상에 대해 편집 화면 요청이 수신되면, 상기 선택된 영상이 상기 분석 대상 영상에 해당하여 상기 선택된 영상에 대한 분석 결과가 상기 메모리에 저장되어 있는지를 판단하는 단계; 및
상기 선택된 영상에 대한 분석 결과가 저장된 것으로 판단하는 경우, 상기 분석 결과를 출력하는 단계를 수행하는, 사용자 디바이스.
The method of claim 15,
The processor, in the step of outputting the analysis result,
Receiving a selection of one or more images stored in the memory from a user of the user device;
When an edit screen request is received for the selected image, determining whether the selected image corresponds to the analysis target image and an analysis result of the selected image is stored in the memory; And
If it is determined that the analysis result for the selected image is stored, performing the step of outputting the analysis result.
KR1020190144177A 2019-11-12 2019-11-12 Method, user device and recording medium for computer program KR102372721B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190144177A KR102372721B1 (en) 2019-11-12 2019-11-12 Method, user device and recording medium for computer program
KR1020220028019A KR102586422B1 (en) 2019-11-12 2022-03-04 Method for outputting image, user device and recording medium for computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190144177A KR102372721B1 (en) 2019-11-12 2019-11-12 Method, user device and recording medium for computer program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220028019A Division KR102586422B1 (en) 2019-11-12 2022-03-04 Method for outputting image, user device and recording medium for computer program

Publications (2)

Publication Number Publication Date
KR20210057428A true KR20210057428A (en) 2021-05-21
KR102372721B1 KR102372721B1 (en) 2022-03-08

Family

ID=76157615

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020190144177A KR102372721B1 (en) 2019-11-12 2019-11-12 Method, user device and recording medium for computer program
KR1020220028019A KR102586422B1 (en) 2019-11-12 2022-03-04 Method for outputting image, user device and recording medium for computer program

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220028019A KR102586422B1 (en) 2019-11-12 2022-03-04 Method for outputting image, user device and recording medium for computer program

Country Status (1)

Country Link
KR (2) KR102372721B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080059597A (en) * 2005-10-27 2008-06-30 미쓰비시덴키 가부시키가이샤 Video summarization device
KR20130033746A (en) * 2011-09-27 2013-04-04 삼성전자주식회사 Display apparatus and control method thereof
KR20150074867A (en) * 2013-12-24 2015-07-02 주식회사 케이티 System for analyzing multi-channel image based on extraction of image transition and method thereof
KR20170066415A (en) * 2014-10-10 2017-06-14 삼성전자주식회사 Video editing using contextual data and content discovery using clusters

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080059597A (en) * 2005-10-27 2008-06-30 미쓰비시덴키 가부시키가이샤 Video summarization device
KR20130033746A (en) * 2011-09-27 2013-04-04 삼성전자주식회사 Display apparatus and control method thereof
KR20150074867A (en) * 2013-12-24 2015-07-02 주식회사 케이티 System for analyzing multi-channel image based on extraction of image transition and method thereof
KR20170066415A (en) * 2014-10-10 2017-06-14 삼성전자주식회사 Video editing using contextual data and content discovery using clusters

Also Published As

Publication number Publication date
KR102586422B1 (en) 2023-10-06
KR102372721B1 (en) 2022-03-08
KR20220034754A (en) 2022-03-18

Similar Documents

Publication Publication Date Title
US10372991B1 (en) Systems and methods that leverage deep learning to selectively store audiovisual content
US8599316B2 (en) Method for determining key video frames
JP5877895B2 (en) Video summary including a given person
JP5857122B2 (en) Video summary including features of interest
US8605221B2 (en) Determining key video snippets using selection criteria to form a video summary
US9451178B2 (en) Automatic insertion of video into a photo story
US11594254B2 (en) Event/object-of-interest centric timelapse video generation on camera device with the assistance of neural network input
CN102906816A (en) Video summary method
WO2015179460A1 (en) Automatically curating video to fit display time
CN105830429B (en) For handling the method and system for the video frame damaged by camera motion
US9503644B2 (en) Using image properties for processing and editing of multiple resolution images
CN102906818A (en) Storing video summary as metadata
US8619150B2 (en) Ranking key video frames using camera fixation
KR20150115617A (en) Method and apparatus for prompting based on smart glasses
US20220070453A1 (en) Smart timelapse video to conserve bandwidth by reducing bit rate of video on a camera device with the assistance of neural network input
KR20210104979A (en) apparatus and method for multi-channel image back-up based on event, and network surveillance camera system including the same
KR20180054794A (en) Camera preview
CN105814905A (en) Method and system for synchronizing usage information between device and server
JP6809114B2 (en) Information processing equipment, image processing system, program
CN110191324B (en) Image processing method, image processing apparatus, server, and storage medium
CN110267011B (en) Image processing method, image processing apparatus, server, and storage medium
KR102372721B1 (en) Method, user device and recording medium for computer program
CN114143429A (en) Image shooting method, image shooting device, electronic equipment and computer readable storage medium
KR20240081641A (en) Method and system for generating growth diary using character recognition

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant