KR102202099B1 - Video management method for minimizing storage space and user device for performing the same - Google Patents

Video management method for minimizing storage space and user device for performing the same Download PDF

Info

Publication number
KR102202099B1
KR102202099B1 KR1020200080316A KR20200080316A KR102202099B1 KR 102202099 B1 KR102202099 B1 KR 102202099B1 KR 1020200080316 A KR1020200080316 A KR 1020200080316A KR 20200080316 A KR20200080316 A KR 20200080316A KR 102202099 B1 KR102202099 B1 KR 102202099B1
Authority
KR
South Korea
Prior art keywords
image
video
audio
file
time
Prior art date
Application number
KR1020200080316A
Other languages
Korean (ko)
Inventor
민덕기
이병찬
Original Assignee
건국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 건국대학교 산학협력단 filed Critical 건국대학교 산학협력단
Priority to KR1020200080316A priority Critical patent/KR102202099B1/en
Application granted granted Critical
Publication of KR102202099B1 publication Critical patent/KR102202099B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/915Television signal processing therefor for field- or frame-skip recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

The present invention relates to a method for playing an image using an application installed on a user device, wherein the method includes the steps of: searching at least one audio file and video file stored in the user device; checking an actual recording time for any one audio file; and matching a confirmed actual recording time with production time of the video file, and outputting the matched video file while playing the audio file. According to the present invention, while saving the total capacity occupied by the video file, resources required for reproducing the video file can be saved.

Description

저장 공간을 최소화하는 영상 관리 방법 및 이를 수행하는 사용자 디바이스{VIDEO MANAGEMENT METHOD FOR MINIMIZING STORAGE SPACE AND USER DEVICE FOR PERFORMING THE SAME}A video management method that minimizes storage space and a user device that performs it {VIDEO MANAGEMENT METHOD FOR MINIMIZING STORAGE SPACE AND USER DEVICE FOR PERFORMING THE SAME}

본 발명은 저장 공간을 최소화하는 영상 관리 방법 및 이를 수행하는 디바이스에 관한 것이다. 보다 구체적으로는, 저장 공간을 최소화하며 영상을 생성 및 저장하고, 시청할 수 있는 방법과 이를 수행하는 디바이스에 관한 것이다.The present invention relates to an image management method for minimizing a storage space and a device for performing the same. More specifically, it relates to a method for generating and storing an image, and viewing an image while minimizing a storage space, and a device for performing the same.

최근 대학교 강의나 학술 세미나, 기업의 발표회 현장에서, 강의나 연설을 진행하는 모습을 참석자가 스마트 폰(Smartphone), 태블릿 PC를 이용하여 동영상으로 녹화하거나 사진을 찍는 경우를 종종 볼 수 있다. 강의, 학술 세미나, 발표회 현장을 녹음함으로써, 참석자들은 중요한 내용을 기록할 수 있으며, 녹음된 자료를 추후 제작 보고에 활용할 수 있다. In recent university lectures, academic seminars, and corporate presentations, attendees often record videos or take pictures of lectures or speeches being conducted using a smartphone or tablet PC. By recording the site of lectures, academic seminars, and presentations, participants can record important content and use the recorded material for future production reports.

강의나 연설이 길어질수록 동영상의 녹화 시간도 길어지게 되는데, 그에 따라 사용자 디바이스에 저장되는 파일의 용량이 필요 이상으로 커지는 문제점이 있다. The longer the lecture or speech is, the longer the video recording time becomes. Accordingly, there is a problem that the capacity of the file stored in the user device becomes larger than necessary.

대표적인 예로, 스마트 폰을 기준으로 Full HD 해상도(1,980*1,080) 60fps 동영상을 1시간 동안 녹화할 때, 비트 전송률에 따라 많은 저장 공간을 필요로 할 수 있다. 예를 들어, 비트 전송률이 약 32,000kbps인 경우, 이론상으로 약 14GB의 저장 공간을 필요로 한다. 통상적인 스마트 폰의 저장 공간을 고려하였을 때, 다수의 동영상 파일이 존재한다면 동영상만으로 절반 이상의 스마트 폰의 저장 공간을 차지하게 된다.As a representative example, when recording a full HD resolution (1,980*1,080) 60fps video for 1 hour based on a smartphone, a lot of storage space may be required depending on the bit rate. For example, if the bit rate is about 32,000 kbps, theoretically, about 14 GB of storage space is required. Considering the storage space of a typical smart phone, if there are multiple video files, more than half of the storage space of the smart phone is occupied by the video alone.

또한, 4GB 이상의 단일 파일을 인식할 수 없는 FAT32 포맷의 저장 장치에서는 저장할 수 없기 때문에, 재생 기기에 따라 만들어진 동영상을 확인하지 못할 수도 있다. In addition, since a single file of 4 GB or more cannot be stored in a FAT32 format storage device that cannot recognize a single file, it may not be possible to check the video created depending on the playback device.

발명의 배경이 되는 기술은 본 발명에 대한 이해를 보다 용이하게 하기 위해 작성되었다. 발명의 배경이 되는 기술에 기재된 사항들이 선행기술로 존재한다고 인정하는 것으로 이해되어서는 안 된다.The technology that is the background of the present invention has been prepared to facilitate understanding of the present invention. It should not be understood as an admission that the matters described in the technology behind the invention exist as prior art.

이에, 동영상 파일이 차지하는 전체 용량을 절약하면서, 동영상 파일 재생에 필요한 자원을 절약하기 위한 동영상 관리 방법이 요구되고 있는 실정이다. Accordingly, there is a demand for a video management method for saving the total capacity occupied by the video file and saving resources required for playing the video file.

본 발명의 발명자들은, 다양한 종류의 코덱을 이용하여 동영상의 데이터 용량을 압축시킴으로써, 파일을 송출하기 직전에 파일의 크기를 대폭 줄이는 것이 아니라, 동영상의 촬영에서부터 저장, 재생까지의 일련의 과정에서 취급하는 동영상 파일의 용량을 최소화할 수 있는, 새로운 영상 관리 방법을 개발하고자 하였다. The inventors of the present invention use various types of codecs to compress the data capacity of a video, so that the size of the file is not drastically reduced immediately before the file is transmitted, but is handled in a series of processes from shooting to storing and playing the video. We tried to develop a new video management method that can minimize the size of the video file to be played.

그 결과, 본 발명의 발명자들은 연속적인 장면을 촬영하거나 재생할 필요가 없는 상황에서, 특정 순간의 정지 화상만을 촬영하거나 검색하여 획득하고, 정지 화상과 오디오 파일을 결합하여 동영상을 생성 및 재생할 수 있는, 새로운 영상 관리 방법을 수행하는 어플리케이션을 개발하기에 이르렀다. As a result, the inventors of the present invention can capture or retrieve and acquire only a still image at a specific moment in a situation where it is not necessary to shoot or reproduce a continuous scene, and create and reproduce a moving picture by combining a still image and an audio file. We have come to develop an application that performs a new video management method.

본 발명의 일 실시 예에서 해결하고자 하는 과제는, 오디오 파일이 녹음된 시간과, 비디오 파일이 촬영된 시간을 매칭시켜, 오디오 파일을 재생하는 동안, 그에 적합한 비디오 파일을 출력시킬 수 있는 영상 재생 방법 및 이를 수행하는 사용자 디바이스를 제공하는 것이다.A problem to be solved in an embodiment of the present invention is a video playback method capable of outputting a video file suitable for the audio file while playing the audio file by matching the time when the audio file is recorded and the time when the video file is recorded. And a user device that performs this.

본 발명의 다른 실시 예에서 해결하고자 하는 과제는, 오디오를 녹음하면서 이와 동시에 비디오를 획득하고, 오디오의 녹음이 종료되면, 오디오와 비디오를 결합하되, 파일의 크기는 최소화할 수 있는 영상 생성 방법 및 이를 수행하는 사용자 디바이스를 제공하는 것이다.The problem to be solved in another embodiment of the present invention is an image generation method capable of acquiring a video while recording audio and at the same time, and combining the audio and video when the audio recording ends, but minimizing the size of the file, and It is to provide a user device that does this.

본 발명의 또 다른 실시 예에서 해결하고자 하는 과제는, 비디오 및 오디오를 촬영하면서, 필요에 따라 선택된 이미지 프레임만을 저장함으로써, 최종적으로 저장된 영상의 크기를 최소화할 수 있는 영상 저장 방법 및 이를 수행하는 사용자 디바이스를 제공하는 것이다.The problem to be solved in another embodiment of the present invention is an image storage method capable of minimizing the size of a finally stored image by storing only selected image frames as needed while recording video and audio, and a user performing the same To provide a device.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시 예에 따른 영상 재생 방법을 제공한다. 상기 방법은, 사용자 디바이스에 설치된 어플리케이션을 이용하여 영상을 재생하는 방법으로서, 상기 사용자 디바이스에 저장된 적어도 하나의 오디오 파일 및 비디오 파일을 검색하는 단계, 어느 하나의 오디오 파일에 대한 실제 녹음 시간을 확인하는 단계 및 확인된 실제 녹음 시간과 상기 비디오 파일의 생성 시각을 매칭하고, 상기 오디오 파일을 재생하는 동안, 매칭된 비디오 파일을 출력하는 단계를 포함하도록 구성된다.In order to solve the above-described problems, an image reproducing method according to an embodiment of the present invention is provided. The method is a method of playing an image using an application installed on a user device, the step of searching for at least one audio file and a video file stored in the user device, and checking an actual recording time for any one audio file. And matching the determined actual recording time with the generation time of the video file, and outputting the matched video file while playing the audio file.

본 발명의 특징에 따르면, 상기 확인하는 단계는, 상기 오디오 파일이 생성된 시각에서 상기 오디오 파일의 총 재생 시간을 감산하여, 상기 오디오 파일의 녹음이 시작된 시각을 계산하는 단계를 더 포함할 수 있다.According to a feature of the present invention, the step of confirming may further include calculating a time when recording of the audio file is started by subtracting the total playback time of the audio file from the time when the audio file is created. .

본 발명의 다른 특징에 따르면, 상기 실제 녹음 시간은, 상기 오디오 파일의 녹음이 시작된 시각부터 종료된 시각까지가 년, 월, 일, 시, 분, 초로 표현될 수 있다.According to another feature of the present invention, the actual recording time may be expressed as year, month, day, hour, minute, and second from a start time to an end time of recording the audio file.

본 발명의 또 다른 특징에 따르면, 상기 출력하는 단계는, 상기 오디오 파일의 실제 녹음 시간 중 일 시점에서, 생성 시각이 매칭되는 비디오 파일이 적어도 둘 이상인 경우, 해당 비디오 파일들의 유사도를 판단하는 단계를 더 포함할 수 있다.According to another feature of the present invention, the outputting may include determining a similarity of the corresponding video files when there are at least two video files with matching creation times at one point in the actual recording time of the audio file. It may contain more.

본 발명의 또 다른 특징에 따르면, 상기 출력하는 단계는, 상기 판단 결과, 해당 비디오 파일들이 유사한 경우, 상기 오디오 파일을 재생하는 동안, 상기 일 시점에서 상기 비디오 파일들 중 어느 하나의 비디오 파일을 출력하고, 상기 일 시점의 재생 진행률 아이콘에 나머지 비디오 파일들을 동시에 출력하는 단계일 수 있다.According to another feature of the present invention, in the outputting, if the video files are similar as a result of the determination, while playing the audio file, outputting one of the video files at the point in time And, it may be a step of simultaneously outputting the remaining video files to the playback progress icon at the point in time.

본 발명의 또 다른 특징에 따르면, 상기 출력하는 단계는, 상기 판단 결과, 해당 비디오 파일들이 유사하지 않은 경우, 상기 오디오 파일을 재생하는 동안, 상기 일 시점에서 상기 비디오 파일들을 상기 사용자 디바이스의 화면 크기에 따라 분할하여 출력하는 단계일 수 있다.According to another feature of the present invention, the outputting may include, if the video files are not similar as a result of the determination, while playing the audio file, the video files at the point in time are the screen size of the user device. It may be a step of dividing and outputting according to.

본 발명의 또 다른 특징에 따르면, 상기 비디오 파일의 생성 시간은, 상기 비디오 파일의 이름 또는 저장 위치 중 어느 하나의 정보를 이용하여 확인할 수 있다.According to another feature of the present invention, the generation time of the video file can be checked using information of any one of a name or a storage location of the video file.

전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시 예에 따른 영상 생성 방법을 제공한다. 상기 방법은, 사용자 디바이스에 설치된 어플리케이션을 이용하여 영상을 생성하는 방법으로서, 오디오의 녹음을 시작하는 단계, 상기 오디오가 녹음되는 동안 촬영 신호에 따라 적어도 하나의 비디오 파일을 획득하는 단계, 상기 비디오 파일이 획득된 시점을 오디오 타임 라인에 저장하는 단계 및 상기 오디오의 녹음을 종료하고, 상기 오디오와 상기 비디오 파일을 매칭시킨 영상을 생성하는 단계를 포함하도록 구성된다.In order to solve the above-described problems, an image generation method according to an embodiment of the present invention is provided. The method is a method of generating an image using an application installed in a user device, comprising: starting audio recording, acquiring at least one video file according to a photographing signal while the audio is being recorded, the video file And storing the acquired time point in an audio timeline, terminating the recording of the audio, and generating an image obtained by matching the audio and the video file.

본 발명의 특징에 따르면, 상기 생성하는 단계는, n번째 촬영 신호(n은 2이상의 자연수)를 획득하기 전까지의 오디오 타임 라인에, n-1번째 촬영 신호에 따라 획득된 비디오 파일을 매칭시키는 단계를 더 포함할 수 있다.According to a feature of the present invention, the generating step includes matching the video file obtained according to the n-1th photographing signal with the audio timeline before the nth photographing signal (n is a natural number of 2 or more) is acquired. It may further include.

본 발명의 다른 특징에 따르면, 상기 생성하는 단계는, 첫번째 촬영 신호가 획득되기 전까지의 오디오 타임 라인에, 상기 첫번째 촬영 신호에 따라 획득된 비디오 파일에 화면 전환 효과를 적용하여 매칭시키는 단계를 더 포함할 수 있다.According to another feature of the present invention, the generating step further comprises applying a screen transition effect to the video file obtained according to the first photographing signal and matching the audio timeline before the first photographing signal is obtained. can do.

본 발명의 또 다른 특징에 따르면, 상기 생성하는 단계 이후에, 상기 사용자 디바이스에서 상기 영상의 생성 시간에 대응되는 추가 비디오 파일이 존재하는지 확인하는 단계와 확인된 비디오 파일을 최종 생성된 영상의 오디오 파일에 추가로 매칭시키는 단계를 더 포함할 수 있다.According to another feature of the present invention, after the generating step, the step of checking whether an additional video file corresponding to the video generation time exists in the user device and the confirmed video file is an audio file of the final generated video. It may further include the step of further matching.

본 발명의 또 다른 특징에 따르면, 상기 추가로 매칭시키는 단계는, 상기 최종 생성된 영상에서 오디오가 소정 시간 동안 획득되지 않은 타임 라인을 검출하는 단계를 더 포함하고, 검출된 오디오 타임 라인과 상기 추가 비디오 파일의 촬영 시간이 대응되는 경우, 해당 오디오 타임 라인에 상기 추가 비디오 파일을 매칭시키는 단계를 더 포함할 수 있다.According to another feature of the present invention, the further matching may further include detecting a timeline in which audio has not been acquired for a predetermined time in the final generated image, and the detected audio timeline and the addition When the recording time of the video file corresponds, the step of matching the additional video file to a corresponding audio timeline may be further included.

전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시 예에 따른 영상 저장 방법을 제공한다. 상기 방법은, 사용자 디바이스에 설치된 어플리케이션을 이용하여 촬영된 영상을 저장하는 방법으로서, 영상 촬영 시작 신호에 따라 비디오 및 오디오를 포함하는 영상을 촬영하는 단계, 상기 영상의 이미지 프레임에서 프레임 간 변화를 검출하는 단계, 상기 프레임 간 변화가 검출된 시점을 기준으로 이전까지의 오디오 타임 라인에 하나의 이미지 프레임을 삽입하는 단계 및 영상 촬영 종료 신호에 따라 상기 영상의 오디오 타임 라인에 적어도 하나의 이미지 프레임이 매칭된 영상을 저장하는 단계를 포함하도록 구성된다.In order to solve the above-described problems, an image storage method according to an embodiment of the present invention is provided. The method is a method of storing an image captured using an application installed on a user device, the step of capturing an image including video and audio according to an image capturing start signal, and detecting a change between frames in the image frame of the image The step of inserting one image frame into an audio timeline up to the previous time based on the time when the change between frames is detected, and at least one image frame is matched with the audio timeline of the image according to an image capturing end signal. And storing the generated image.

본 발명의 특징에 따르면, 상기 하나의 이미지 프레임은, 상기 영상의 이전까지의 오디오 타임 라인에서 촬영한 복수의 이미지 프레임 중 어느 하나의 이미지 프레임일 수 있다.According to a feature of the present invention, the one image frame may be any one of a plurality of image frames captured on an audio timeline prior to the image.

본 발명의 다른 특징에 따르면, 상기 검출하는 단계는, 촬영 영역에서 적어도 하나의 고정 객체 또는 이동 객체를 선택받는 단계와 상기 고정 객체의 속성 또는 상기 이동 객체의 움직임 영역을 설정하는 단계를 더 포함할 수 있다.According to another feature of the present invention, the detecting step further includes selecting at least one fixed object or moving object from the photographing area, and setting a property of the fixed object or a moving area of the moving object. I can.

본 발명의 또 다른 특징에 따르면, 상기 고정 객체의 속성은, 고정된 테두리 좌표 및 상기 테두리 좌표 안의 이미지 프레임을 포함하고, 상기 검출하는 단계는, 상기 테두리 좌표 안의 이미지 프레임 간 변화를 검출하는 단계일 수 있다.According to another feature of the present invention, the property of the fixed object includes a fixed frame coordinate and an image frame in the frame coordinate, and the detecting step is a step of detecting a change between image frames in the frame coordinate. I can.

본 발명의 또 다른 특징에 따르면, 상기 촬영하는 단계 이후에, 이미지 촬영 신호에 따라 적어도 하나의 이미지 프레임을 획득하는 단계와 상기 영상의 이전까지의 타임 라인에, 상기 획득한 이미지 프레임을 삽입하는 단계를 더 포함할 수 있다.According to another feature of the present invention, after the photographing step, the steps of acquiring at least one image frame according to an image capturing signal and inserting the acquired image frame into a timeline prior to the image It may further include.

전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시 예에 따른 사용자 디바이스를 제공한다. 상기 사용자 디바이스는, 통신부, 저장부, 출력부, 입력부 및 상기 통신부, 상기 저장부, 상기 출력부, 상기 입력부와 동작 가능하게 연결되고, 상기 저장부에 저장된 어플리케이션을 구동하여 영상을 재생하는 프로세서를 포함하는 사용자 디바이스로서, 상기 프로세서는, 상기 저장부에 저장된 적어도 하나의 오디오 파일 및 비디오 파일을 검색하고, 어느 하나의 오디오 파일에 대한 실제 녹음 시간을 확인하여, 확인된 실제 녹음 시간과 상기 비디오 파일의 생성 시간을 매칭하고, 상기 오디오 파일을 재생하는 동안, 매칭된 비디오 파일을 출력하도록 구성된다.In order to solve the above-described problems, a user device according to an embodiment of the present invention is provided. The user device includes a communication unit, a storage unit, an output unit, an input unit, and a processor operably connected to the communication unit, the storage unit, the output unit, and the input unit, and to play an image by driving an application stored in the storage unit. A user device including, wherein the processor searches at least one audio file and a video file stored in the storage unit, and checks an actual recording time for any one audio file, and the confirmed actual recording time and the video file And, while playing the audio file, output the matched video file.

전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시 예에 따른 사용자 디바이스를 제공한다. 상기 사용자 디바이스는, 통신부, 저장부, 출력부, 입력부 및 상기 통신부, 상기 저장부, 상기 출력부, 상기 입력부와 동작 가능하게 연결되고, 상기 저장부에 저장된 어플리케이션을 구동하여 영상을 생성하는 프로세서를 포함하는 사용자 디바이스로서, 상기 프로세서는, 오디오의 녹음을 시작하고, 상기 오디오가 녹음되는 동안 촬영 신호에 따라 적어도 하나의 비디오 파일을 획득하며, 상기 비디오 파일이 획득된 시점을 오디오 타임 라인에 저장하고, 상기 오디오의 녹음을 종료하여, 상기 오디오와 상기 비디오 파일을 매칭시킨 영상을 생성하도록 구성된다.In order to solve the above-described problems, a user device according to an embodiment of the present invention is provided. The user device includes a communication unit, a storage unit, an output unit, an input unit, and a processor that is operably connected to the communication unit, the storage unit, the output unit, and the input unit, and generates an image by driving an application stored in the storage unit. A user device comprising, wherein the processor starts recording audio, acquires at least one video file according to a photographing signal while the audio is being recorded, and stores a time point at which the video file is acquired in an audio timeline, And terminating the recording of the audio, and generating an image obtained by matching the audio and the video file.

전술한 바와 같은 과제를 해결하기 위하여 본 발명의 일 실시 예에 따른 사용자 디바이스를 제공한다. 상기 사용자 디바이스는, 통신부, 저장부, 출력부, 입력부 및 상기 통신부, 상기 저장부, 상기 출력부, 상기 입력부와 동작 가능하게 연결되고, 상기 저장부에 저장된 어플리케이션을 구동하여 영상을 생성하는 프로세서를 포함하는 사용자 디바이스로서, 상기 프로세서는, 영상 촬영 시작 신호에 따라 비디오 및 오디오를 포함하는 영상을 촬영하고, 상기 영상의 이미지 프레임에서 프레임 간 변화를 검출하며, 상기 프레임 간 변화가 검출된 시점을 기준으로 이전까지의 오디오 타임 라인에 하나의 이미지 프레임을 삽입하고, 영상 촬영 종료 신호에 따라 상기 영상의 오디오 타임 라인에 적어도 하나의 이미지 프레임이 매칭된 영상을 저장하도록 구성된다.In order to solve the above-described problems, a user device according to an embodiment of the present invention is provided. The user device includes a communication unit, a storage unit, an output unit, an input unit, and a processor that is operably connected to the communication unit, the storage unit, the output unit, and the input unit, and generates an image by driving an application stored in the storage unit. A user device including, wherein the processor captures an image including video and audio according to an image capture start signal, detects a change between frames in an image frame of the image, and refers to a time point at which the change between frames is detected. And inserting one image frame into the previous audio timeline, and storing an image in which at least one image frame is matched to the audio timeline of the image according to an image capturing end signal.

기타 실시 예의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Details of other embodiments are included in the detailed description and drawings.

본 발명은 비디오와 오디오를 포함하여 촬영된 영상에서, 필요한 부분의 이미지 프레임만을 저장하여, 저장된 영상이 초당 수십 프레임을 가지고 있지 않아도 되므로, 전체 영상의 크기를 큰 폭으로 줄일 수 있다. 또한, 전체 영상의 크기가 줄어듦에 따라, 디바이스의 저장 공간을 확보하고, 파일 재생에 필요한 시간과 리소스를 절약할 수 있다.According to the present invention, only image frames of a necessary portion of a captured image including video and audio are stored, so that the stored image does not have to have several tens of frames per second, so the size of the entire image can be greatly reduced. In addition, as the size of the entire image is reduced, it is possible to secure a storage space of the device and save time and resources required for file playback.

나아가, 영상을 압축시키기 위한 고성능의 코덱 없이도, 사용자 디바이스에 설치 가능한 어플리케이션을 이용하여 영상을 원활하게 재생할 수 있으며, 촬영된 고해상도의 영상을 작은 용량의 영상 파일로 저장할 수 있다. Furthermore, without a high-performance codec for compressing an image, an image can be smoothly played back using an application that can be installed on a user device, and a captured high-resolution image can be stored as a small-size image file.

뿐만 아니라, 오디오의 실제 녹음 시간을 분석하고, 비디오가 촬영된 시간을 확인하여, 오디오와 비디오를 매칭시킨 영상을 재생할 수 있으며, 특히 촬영된 정확한 시간 정보가 포함되어 있지 않은 비디오 파일의 경우, 일반적인 저장 정보 외에도, 비디오 파일의 이름, 저장 위치 등의 부가적인 정보를 이용하여, 오디오와 비디오의 시간을 정확하게 동기화시킬 수 있다. In addition, it is possible to analyze the actual recording time of the audio, check the time when the video was recorded, and play the video matched with the audio and video. In particular, in the case of a video file that does not contain accurate time information In addition to the storage information, additional information such as the name of the video file and the storage location can be used to accurately synchronize the audio and video times.

또한 본 발명은, 비디오 및 오디오를 포함하는 영상을 촬영하는 동안, 저장될 이미지 파일을 임의로 선택하여 삽입/저장할 수 있어, 재생 시간이 긴 영상을 작은 용량으로 저장할 수 있다. 특히, 촬영 영역 안에서 고정 객체와 이동 객체를 구분하고, 이에 더하여 PPT 화면과 같이 소정 시간 간격으로 이미지가 변화하는 객체를 구분하여, 실제 촬영되고 있는 환경의 변화를 능동적으로 감지하고, 영상에 적절한 이미지 파일을 획득할 수 있다. In addition, the present invention can arbitrarily select and insert/store an image file to be stored while capturing an image including video and audio, so that an image having a long playback time can be stored in a small capacity. In particular, by separating fixed objects and moving objects within the shooting area, and by distinguishing objects whose images change at predetermined time intervals, such as a PPT screen, actively detects changes in the actual environment being photographed, and images appropriate for the image. You can get the file.

아울러, 영상에 적절한 이미지 파일을 획득함으로써, 정지된 이미지를 출력하더라도 영상 이해도를 떨어트리지 않고, 유지시킬 수 있다. In addition, by acquiring an image file suitable for an image, even if a still image is output, the understanding of the image can be maintained without degrading.

본 발명에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 발명 내에 포함되어 있다.The effects according to the present invention are not limited by the contents exemplified above, and more various effects are included in the present invention.

도 1은 본 발명의 일 실시 예에 따른 영상 관리 방법의 개요를 설명하기 위한 개략도이다.
도 2는 본 발명의 일 실시 예에 따른 영상 관리 방법을 제공하는 어플리케이션이 설치된 사용자 디바이스의 구성을 나타낸 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 영상 재생 방법의 개략적인 순서도이다.
도 4는 본 발명의 일 실시 예에 따른 영상 재생 방법에서 오디오 파일의 실제 녹음 시간을 확인하는 방식을 예시적으로 설명하기 위한 개략도이다.
도 5a 및 도 5b는 본 발명의 일 실시 예에 따른 영상 재생 방법을 통해 사용자 디바이스에서 영상을 출력하는 방식을 예시적으로 설명하기 위한 개략도이다.
도 6은 본 발명의 다른 실시 예에 따른 영상 생성 방법의 개략적인 순서도이다.
도 7은 본 발명의 다른 실시 예에 따른 영상 생성 방법에서 오디오와 비디오를 매칭시키는 방식을 예시적으로 설명하기 위한 개략도이다.
도 8은 본 발명의 또 다른 실시 예에 따른 영상 저장 방법의 개략적인 순서도이다.
도 9a 내지 도 9c는 본 발명의 또 다른 실시 예에 따른 영상 저장 방법에서 하나의 이미지 프레임을 획득하거나 저장하는 방식을 예시적으로 설명하기 위한 개략도이다.
1 is a schematic diagram illustrating an outline of an image management method according to an embodiment of the present invention.
2 is a block diagram illustrating a configuration of a user device in which an application providing an image management method according to an embodiment of the present invention is installed.
3 is a schematic flowchart of an image reproducing method according to an embodiment of the present invention.
4 is a schematic diagram illustrating a method of checking an actual recording time of an audio file in an image reproducing method according to an embodiment of the present invention.
5A and 5B are schematic diagrams illustrating a method of outputting an image from a user device through an image reproducing method according to an exemplary embodiment of the present invention.
6 is a schematic flowchart of an image generating method according to another embodiment of the present invention.
7 is a schematic diagram illustrating a method of matching audio and video in an image generating method according to another embodiment of the present invention.
8 is a schematic flowchart of an image storage method according to another embodiment of the present invention.
9A to 9C are schematic diagrams illustrating a method of acquiring or storing one image frame in an image storage method according to another exemplary embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조부호가 사용될 수 있다.Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in a variety of different forms, only the present embodiments make the disclosure of the present invention complete, and common knowledge in the technical field to which the present invention pertains. It is provided to completely inform the scope of the invention to those who have it, and the invention is only defined by the scope of the claims. In connection with the description of the drawings, similar reference numerals may be used for similar elements.

본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, expressions such as "have," "may have," "include," or "may contain" are the presence of corresponding features (eg, elements such as numbers, functions, actions, or parts). And does not exclude the presence of additional features.

본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는(3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, expressions such as "A or B," "at least one of A or/and B," or "one or more of A or/and B" may include all possible combinations of items listed together. . For example, "A or B," "at least one of A and B," or "at least one of A or B" includes (1) at least one A, (2) at least one B, Or (3) it may refer to all cases including both at least one A and at least one B.

본 문서에서 사용된 "제1," "제2," "첫째," 또는 "둘째," 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제1 사용자 기기와 제2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 바꾸어 명명될 수 있다.Expressions such as "first," "second," "first," or "second," used in this document can modify various elements, regardless of their order and/or importance, and refer to one element. It is used to distinguish it from other components and does not limit the components. For example, a first user device and a second user device may represent different user devices regardless of order or importance. For example, without departing from the scope of rights described in this document, a first component may be named a second component, and similarly, a second component may be renamed to a first component.

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.Some component (eg, a first component) is "(functionally or communicatively) coupled with/to)" to another component (eg, a second component) or " When referred to as "connected to", it should be understood that the certain component may be directly connected to the other component or may be connected through another component (eg, a third component). On the other hand, when a component (eg, a first component) is referred to as being “directly connected” or “directly connected” to another component (eg, a second component), the component and the It may be understood that no other component (eg, a third component) exists between the different components.

본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~ 를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된)프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.The expression "configured to" as used in this document is, for example, "suitable for," "having the capacity to" depending on the situation. ," "designed to," "adapted to," "made to," or "capable of" can be used interchangeably. The term "configured to (or set)" may not necessarily mean only "specifically designed to" in hardware. Instead, in some situations, the expression "a device configured to" may mean that the device "can" along with other devices or parts. For example, the phrase “processor configured (or configured) to perform A, B, and C” means a dedicated processor (eg, an embedded processor) for performing the operation, or by executing one or more software programs stored in a memory device. , May mean a generic-purpose processor (eg, a CPU or an application processor) capable of performing corresponding operations.

본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.Terms used in this document are only used to describe a specific embodiment, and may not be intended to limit the scope of other embodiments. Singular expressions may include plural expressions unless the context clearly indicates otherwise. Terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by one of ordinary skill in the art described in this document. Among the terms used in this document, terms defined in a general dictionary may be interpreted as having the same or similar meanings as those in the context of the related technology, and unless explicitly defined in this document, an ideal or excessively formal meaning Is not interpreted as. In some cases, even terms defined in this document cannot be interpreted to exclude embodiments of this document.

본 발명의 여러 실시 예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시 예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.Each of the features of the various embodiments of the present invention may be partially or entirely combined or combined with each other, and as a person skilled in the art can fully understand, technically various interlocking and driving are possible, and each of the embodiments may be independently implemented with respect to each other. It may be possible to do it together in a related relationship.

본 명세서의 해석의 명확함을 위해, 이하에서는 본 명세서에서 사용되는 용어들을 정의하기로 한다.For clarity of interpretation of the present specification, terms used in the present specification will be defined below.

도 1은 본 발명의 일 실시 예에 따른 영상 관리 방법의 개요를 설명하기 위한 개략도이다.1 is a schematic diagram illustrating an outline of an image management method according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시 예에 따른 영상 관리 방법에서는 비디오 및 오디오를 포함하는 영상이 재생되는 동안, 수천, 수만 개의 이미지 프레임들이 나열되지 않고, 몇몇의 이미지 프레임들만이 나열될 수 있다. 예를 들어, 제1 영역의 오디오가 재생되는 동안, 하나의 이미지 프레임인 “사진 1”이 재생될 수 있으며, 제2 영역의 오디오가 재생되는 동안, 하나의 이미지 프레임인 “사진 2”가 재생될 수 있으며, 이후 재생에는 “사진 3”이 재생될 수 있다.Referring to FIG. 1, in an image management method according to an embodiment of the present invention, while an image including video and audio is being played, thousands or tens of thousands of image frames are not listed, and only a few image frames may be listed. have. For example, while the audio of the first area is being played, one image frame “Photo 1” may be played, while the audio of the second area is playing, one image frame “Photo 2” is played. Can be, and “Photo 3” can be played back for later playback.

이와 같이, 본 발명의 일 실시 예에 따른영상 관리 방법은, 영상에서 핵심적인 이미지 프레임(강의, 연설에서 기록이 필요한 순간)만을 남겨두고, 나머지 이미지 프레임은 사용하지 않아, 사용자 디바이스에서 영상 전체를 재생하거나 저장하는데 필요한 용량을 대폭 감축시킬 수 있다.As described above, in the image management method according to an embodiment of the present invention, only the core image frames (the moment when recording is required in lectures and speeches) are left in the image, and the remaining image frames are not used, so that the entire image is displayed in the user device. It can drastically reduce the capacity required for playback or storage.

한편, 본 발명에서 정의하는 “영상 관리 방법”은 영상을 재생하거나, 촬영하고, 저장하는, 영상과 관련된 모든 동작 방법을 포함할 수 있다. Meanwhile, the “image management method” defined in the present invention may include all operation methods related to an image, for reproducing, photographing, and storing an image.

도 2는 본 발명의 일 실시 예에 따른 영상 관리 방법을 제공하는 어플리케이션이 설치된 사용자 디바이스의 구성을 나타낸 블록도이다.2 is a block diagram illustrating a configuration of a user device in which an application providing an image management method according to an embodiment of the present invention is installed.

도 2를 참조하면, 사용자 디바이스(100)는 영상 촬영, 저장 및 재생하기 위한 어플리케이션이 설치되어 실행되는 디바이스로, 통신부(110), 저장부(120), 입력부(130), 출력부(140) 및 프로세서(150)를 포함할 수 있다.Referring to FIG. 2, the user device 100 is a device in which an application for capturing, storing, and reproducing an image is installed and executed. A communication unit 110, a storage unit 120, an input unit 130, and an output unit 140 And a processor 150.

통신부(110)는 유/무선 통신 네트워크를 이용하여 외부 디바이스(미도시)로부터 영상을 재생하거나 생성하기 위해 필요한 비디오 파일 또는 오디오 파일을 수신할 수 있다. 여기서, 비디오 파일은 단일 이미지 파일, 다수 이미지로 구성된 영상 파일을 포함할 수 있으며, 각각은 영상을 재생하기 위해 필요한 정보들을 포함할 수 있다. 구체적으로, 비디오 파일은 촬영 일자로 이루어진 이름, 해상도, 촬영 위치, 파일 크기, 촬영 일자, 사용자 디바이스(100) 내 저장 위치 등에 대한 정보를 포함할 수 있으며, 오디오 파일은 녹음이 종료된 시각, 전체 녹음 시간, 녹음 위치, 사용자 디바이스(100) 내 저장 위치 등에 대한 정보를 포함할 수 있다. The communication unit 110 may receive a video file or an audio file required to reproduce or generate an image from an external device (not shown) using a wired/wireless communication network. Here, the video file may include a single image file and an image file composed of a plurality of images, and each may include information necessary to reproduce an image. Specifically, the video file may include information on a name consisting of a shooting date, a resolution, a shooting location, a file size, a shooting date, and a storage location in the user device 100, and the audio file is Information about a recording time, a recording location, and a storage location in the user device 100 may be included.

저장부(120)는 통신부(110)를 통해 수신한 비디오 파일 또는 오디오 파일을 저장할 수 있다. 실시 예에 따라, 저장부(120)는 각각의 정보를 시간에 따라 분류할 수 있다. 예를 들어, 저장부(120)는 비디오 파일이 촬영된 시간에 따라 분류하여 저장할 수 있으며, 오디오 파일이 녹음된 시간에 따라 분류하여 저장할 수 있다. The storage unit 120 may store a video file or an audio file received through the communication unit 110. According to an embodiment, the storage unit 120 may classify each piece of information according to time. For example, the storage unit 120 may classify and store a video file according to a time when a video file is captured, and may classify and store an audio file according to a time when an audio file is recorded.

이와 같이, 각각의 파일을 촬영 또는 녹음된 시간에 따라 분류함으로써, 추후 어느 하나의 오디오 파일을 재생하는 동안, 끊김 없이 해당 시점에 적합한 비디오 파일을 출력할 수 있다. In this way, by classifying each file according to the time taken or recorded, it is possible to output a video file suitable for a corresponding time without interruption while playing any one audio file later.

다양한 실시 예에서 저장부(120)는 각종 데이터, 명령 및 정보를 저장할 수 있는 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다. 예를 들어, 저장부(120)는 플래시 메모리 타입, 하드디스크 타입, 멀티미디어 카드 마이크로 타입, 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, SRAM, 롬, EEPROM, PROM, 네트워크 저장 스토리지, 클라우드 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.In various embodiments, the storage unit 120 may include a volatile or nonvolatile recording medium capable of storing various types of data, commands, and information. For example, the storage unit 120 is a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD memory, etc.), RAM, SRAM, ROM, EEPROM, PROM, network storage. It may include at least one type of storage medium among storage and cloud.

저장부(120)에는 사용자 디바이스(100)의 동작을 위한 명령어들이 기록되어 있을 수 있다. 일 실시 예에 있어서, 저장부(120)에는 영상을 관리하기 위한 어플리케이션(미도시)이 기록되어 있을 수 있다. 어플리케이션은 프로세서(150)에 의해 실행될 때 출력부(140)에 사용자 인터페이스를 제공하고, 사용자 입력에 따라 영상을 촬영하거나, 재생할 수 있도록 하는 명령어 또는 프로그램 코드를 저장하는 기록 매체를 포함할 수 있다.Commands for the operation of the user device 100 may be recorded in the storage unit 120. In an embodiment, an application (not shown) for managing an image may be recorded in the storage unit 120. The application may include a recording medium that provides a user interface to the output unit 140 when executed by the processor 150 and stores a command or program code that enables an image to be captured or reproduced according to a user input.

입력부(130)는 사용자로부터 다양한 입력을 수신할 수 있다. 예를 들어, 입력부(130)는 터치 또는 버튼을 통한 사용자의 녹음 시작/종료 신호 입력에 따라, 오디오 입력을 수신할 수 있으며, 촬영 신호 입력에 따라, 비디오 입력을 수신할 수 있다. 뿐만 아니라, 입력부(130)는 오디오를 수신하는 동시에 촬영 신호에 따라 이미지를 수신할 수 있으며, 오디오 데이터 없이 영상을 수신할 수도 있다. The input unit 130 may receive various inputs from a user. For example, the input unit 130 may receive an audio input according to a user's input of a recording start/end signal through a touch or a button, and may receive a video input according to a photographing signal input. In addition, the input unit 130 may receive audio and simultaneously receive an image according to a photographing signal, and may receive an image without audio data.

출력부(140)는 오디오 및 비디오를 포함하는 영상을 재생하거나, 영상을 촬영하기 위한 정보를 청각적 및 시각적으로 표현하기 위한 출력 장치로, 음향 출력 장치 및 LCD(Liquid Crystal Display), LED(Light Emitting Diode) 등 다양한 형태의 디스플레이 장치를 포함할 수 있다. 실시 예에 따라, 시각적 출력 장치를 통하여 영상을 재생하거나 촬영하기 위한 다양한 사용자 인터페이스가 제공될 수 있다. The output unit 140 is an output device for reproducing an image including audio and video or for audibly and visually expressing information for photographing an image, and is an audio output device, an LCD (Liquid Crystal Display), and an LED (Light Emitting Diode), etc. may include various types of display devices. Depending on the embodiment, various user interfaces for reproducing or photographing an image may be provided through a visual output device.

아울러, 시각적 출력 장치는 사용자의 터치 입력을 수신할 수 있는데, 이러한 경우, 입력부(130)와 출력부(140)는 하나의 물리적 구성 요소로 이루어질 수 있다. 아울러, 시각적 출력 장치는 영상을 표시하는 영역에서 발생하는 다양한 입력을 인식할 수 있는 다양한 센싱 수단들을 포함할 수 있다.In addition, the visual output device may receive a user's touch input. In this case, the input unit 130 and the output unit 140 may be formed of one physical component. In addition, the visual output device may include various sensing means capable of recognizing various inputs generated in an area displaying an image.

프로세서(150)는 통신부(110), 저장부(120), 입력부(130) 및 출력부(140)와 동작 가능하게 연결되어, 사용자 디바이스(100)의 전반적인 동작을 제어할 수 있으며, 저장부(120)에 저장된 어플리케이션을 구동하여 영상을 재생하거나, 생성 및 저장하기 위한 다양한 명령들을 수행할 수 있다. The processor 150 is operably connected to the communication unit 110, the storage unit 120, the input unit 130, and the output unit 140 to control the overall operation of the user device 100, and the storage unit ( An application stored in 120) may be driven to play back an image, or various commands for generating and storing an image may be executed.

실시 예에 따라, 프로세서(150)는 저장부(120)에 저장된 적어도 하나의 오디오 파일 및 비디오 파일을 동시에 재생시킬 수 있다. 구체적으로, 프로세서(150)는 저장부(120)에 저장된 적어도 하나의 오디오 파일 및 비디오 파일을 검색하고, 검색된 리스트를 출력부(140)에 전달할 수 있다.According to an embodiment, the processor 150 may simultaneously play at least one audio file and a video file stored in the storage unit 120. Specifically, the processor 150 may search for at least one audio file and a video file stored in the storage unit 120 and transmit the searched list to the output unit 140.

사용자의 선택에 따라 어느 하나의 오디오 파일이 선택되면, 프로세서(150)는 오디오 파일에 대한 실제 녹음 시간을 확인하고, 확인된 실제 녹음 시간과 비디오 파일의 생성 시간을 매칭할 수 있다. 즉, 프로세서(150)는 녹음이 진행되는 시간 동안 촬영되었던 비디오 파일들을 추출하여, 오디오 파일의 각 시간에 비디오 파일들을 매칭시킬 수 있으며, 오디오 파일을 재생하는 동안, 매칭된 비디오 파일을 출력할 수 있다. When any one audio file is selected according to the user's selection, the processor 150 may check the actual recording time for the audio file and match the confirmed actual recording time with the generation time of the video file. That is, the processor 150 may extract video files that have been photographed during the recording time, match the video files at each time of the audio file, and output the matched video file while playing the audio file. have.

한편, 실제 녹음 시간의 분, 초 단위의 일 시점과 매칭되는 비디오 파일이 복수 개일 수도 있다. 프로세서(150)는 이러한 경우 비디오 파일들을 비교, 분석하여 재생 방식을 조정할 수 있으며, 이에 대한 구체적인 설명은 후술하도록 한다.Meanwhile, there may be a plurality of video files that match a point in time in minutes and seconds of the actual recording time. In this case, the processor 150 may compare and analyze video files to adjust a playback method, and a detailed description thereof will be described later.

이와 같이, 프로세서(150)는 어느 하나의 오디오 파일이 재생되는 동안, 저장부(120)에 저장된 적어도 하나의 비디오 파일을 시간에 맞게 출력시킬 수 있으며, 오디오와 비디오가 동시에 재생됨으로써, 사용자 디바이스(100)가 하나의 영상을 생성하여, 재생하는 영상 혼합 뷰어의 역할을 수행할 수 있다. In this way, the processor 150 may output at least one video file stored in the storage unit 120 according to time while any one audio file is being played, and the audio and video are simultaneously played, so that the user device ( 100) may play a role of an image mixing viewer that generates and reproduces one image.

다른 실시 예에 따라, 프로세서(150)는 오디오 녹음과 동시에, 입력부(130), 출력부(140)를 통해 비디오 파일을 획득하여 저장할 수 있으며, 이 과정에서 최종 저장되는 영상의 크기를 크게 줄일 수 있다. 구체적으로, 프로세서(150)는 오디오가 녹음되는 동안 촬영 신호에 따라 적어도 하나의 비디오 파일을 획득할 수 있는데, 이 때, 비디오 파일이 획득된 시점을 오디오 타임 라인에 저장할 수 있다. According to another embodiment, the processor 150 may acquire and store a video file through the input unit 130 and the output unit 140 at the same time as the audio recording, and in this process, the size of the finally stored image can be greatly reduced. have. Specifically, the processor 150 may acquire at least one video file according to a photographing signal while audio is being recorded. In this case, the time when the video file is acquired may be stored in the audio timeline.

즉, 프로세서(150)는 오디오가 녹음되는 동안 오디오의 타임 라인에 촬영 신호에 따라 획득한 하나의 비디오 파일을 매칭시킬 수 있으며, 프로세서(150)는 앞서 도 1에서 설명한 바와 같은 비디오-오디오 매칭 구조를 가지는 영상을 생성할 수 있다. That is, the processor 150 may match one video file acquired according to the photographing signal to the timeline of the audio while the audio is being recorded, and the processor 150 has a video-audio matching structure as described in FIG. 1 above. You can create an image with.

이와 같이, 프로세서(150)는 입력부(130), 출력부(140)를 제어하여 오디오와 비디오를 동시에 획득하고, 하나의 영상을 생성할 수 있으며, 이 과정에서 단순히 오디오와 비디오를 합치는 것이 아니라, 최종 생성된 영상의 크기를 고려하여 오디오 파일 및 비디오 파일을 편집할 수 있다. In this way, the processor 150 controls the input unit 130 and the output unit 140 to simultaneously acquire audio and video and generate a single image. In this process, the audio and video are not simply combined. , The audio file and the video file may be edited in consideration of the size of the finally generated image.

또 다른 실시 예에 따라, 프로세서(150)는 실제 공간을 촬영하는 동안, 실제 공간의 변화를 검출하여, 상황에 맞게 비디오 및 오디오 데이터를 편집 저장할 수 있다. 구체적으로, 프로세서(150)는 영상 촬영 시작 신호에 따라 비디오 및 오디오를 포함하는 영상을 촬영하고, 영상의 이미지 프레임에서 프레임 간 변화를 검출할 수 있다. 여기서, 이미지 프레임 간 변화는 공지된 다양한 이미지 유사도 분석 방법을 이용하여 수행될 수 있다. 예를 들어, 프로세서(150)는 cosine-similarity 유사도 측정 방법을 이용하여 프레임 간 유사도, 변화 정도를 계산할 수 있다. According to another embodiment, while capturing an actual space, the processor 150 may detect a change in the actual space and edit and store video and audio data according to a situation. Specifically, the processor 150 may capture an image including video and audio according to an image capturing start signal, and detect a change between frames in an image frame of the image. Here, the change between image frames may be performed using various known image similarity analysis methods. For example, the processor 150 may calculate a degree of similarity and a degree of change between frames using a method of measuring a cosine-similarity similarity.

프레임 간 변화가 검출되기 이전까지, 프로세서(150)는 오디오 타임 라인에 하나의 이미지 프레임을 삽입할 수 있으며, 프레임 간 변화가 검출될 경우, 프레임 간 변화가 검출된 이후의 오디오 타임 라인에 변화 이후의 이미지 프레임을 삽입할 수 있다.Until the inter-frame change is detected, the processor 150 may insert one image frame into the audio timeline, and when inter-frame change is detected, the change in the audio timeline after the inter-frame change is detected. You can insert an image frame.

이러한 과정을 반복한 후, 프로세서(150)는 영상 촬영 종료 신호에 따라, 영상의 오디오 타임 라인에 적어도 하나의 이미지 프레임이 매칭된 영상을 저장할 수 있다. 즉, 프로세서(150)는 일반적인 저장 방식과 비교하였을 때, 고해상도의 영상이나 재생 시간이 긴 영상을 저장하는 과정에서 전체 영상의 크기를 큰 폭으로 감축시킬 수 있다. After repeating this process, the processor 150 may store an image in which at least one image frame is matched to the audio timeline of the image according to the image capturing end signal. That is, compared to a general storage method, the processor 150 may significantly reduce the size of the entire image in the process of storing a high-resolution image or an image having a long playback time.

한편, 프로세서(230)는 CPU(Central Processing Unit)나 AP(Application Processor)와 같은 연산 장치에 해당할 수 있다. 또한, 프로세서(230)는 다양한 연산 장치가 통합된 SoC(System on Chip)와 같은 통합 칩(Integrated Chip (IC))의 형태로 구현될 수 있다.Meanwhile, the processor 230 may correspond to a computing device such as a central processing unit (CPU) or an application processor (AP). In addition, the processor 230 may be implemented in the form of an integrated chip (IC) such as a System on Chip (SoC) in which various computing devices are integrated.

지금까지 본 발명의 일 실시 예에 따른 영상 관리 방법을 제공하는 어플리케이션이 설치된 사용자 디바이스(100)의 구성을 설명하였으며, 이하 도 3 내지 도 5b를 이용하여, 본 발명의 일 실시 예에 따른영상 재생 방법에 대하여 설명하도록 한다.So far, the configuration of the user device 100 in which an application providing an image management method according to an embodiment of the present invention is installed has been described. Hereinafter, image reproduction according to an embodiment of the present invention is described using FIGS. 3 to 5B. Let's explain how.

도 3은 본 발명의 일 실시 예에 따른 영상 재생 방법의 개략적인 순서도이고, 도 4는 본 발명의 일 실시 예에 따른 영상 재생 방법에서 오디오 파일의 실제 녹음 시간을 확인하는 방식을 예시적으로 설명하기 위한 개략도이다.3 is a schematic flowchart of an image reproducing method according to an embodiment of the present invention, and FIG. 4 is an exemplary description of a method of checking an actual recording time of an audio file in an image reproducing method according to an embodiment of the present invention. It is a schematic diagram for doing.

도 3을 참조하면, 사용자 디바이스(100)는 디바이스에 저장된 적어도 하나의 오디오 파일 및 비디오 파일을 검색한다(S110). 실시 예에 따라, 사용자 디바이스(100)의 화면에는 디바이스를 통해 녹음되거나, 외부 디바이스에서 수신한 오디오 파일 목록이 출력될 수 있다. Referring to FIG. 3, the user device 100 searches for at least one audio file and a video file stored in the device (S110). According to an embodiment, a list of audio files recorded through the device or received from an external device may be output on the screen of the user device 100.

사용자는 영상으로 재생할 어느 하나의 오디오 파일을 선택할 수 있으며, S110 단계 이후, 사용자 디바이스(100)는 어느 하나의 오디오 파일에 대한 실제 녹음 시간을 확인한다(S120). The user may select any one audio file to be played back as an image, and after step S110, the user device 100 checks the actual recording time for any one audio file (S120).

도 4를 참조하면, 일반적인 오디오 파일의 경우, 오디오 파일의 녹음이 시작된 시간에 대한 정보는 포함하고 있지 않으며, 오디오 파일이 녹음된 대략적인 위치, 일자, 총 재생 시간 그리고 녹음이 종료된 시각(오디오 파일이 생성된 시각)에 대한 정보만을 포함하고 있다. 그에 반해, 비디오 파일의 경우, 생성된 시간에 대한 정보를 포함하고 있어, 오디오 파일과 비디오 파일이 기본적으로 가지고 있는 정보만으로는 서로 다른 속성의 데이터를 합쳐 하나의 영상으로 재생할 수 없다. Referring to FIG. 4, in the case of a general audio file, information on the start time of recording the audio file is not included, and the approximate location, date, total playback time, and recording end time (audio It contains only information about the time the file was created). On the other hand, in the case of a video file, since it contains information about the generated time, data of different attributes cannot be combined and played back as a single video with only the information that the audio file and the video file have.

이에, 사용자 디바이스(100)는 오디오 파일이 생성된 시각에서 오디오 파일의 총 재생 시간을 감산하여, 오디오 파일의 녹음이 시작된 시각을 계산할 수 있다. 예를 들어, 도 4에서 오디오 파일이 생성된 시각이 오후 12시 58분이고, 총 재생 시간이 54분 이므로, 사용자 디바이스(100)는 오디오 파일의 녹음이 시작된 시각은 12시 4분임을 계산할 수 있다. 즉, 사용자 디바이스(100)는 오디오 파일에 비디오 파일의 생성 시각을 매칭하기 위해 오디오 파일의 녹음이 시작된 시각부터 종료된 시각까지를 년, 월, 일, 시, 분, 초로 표현할 수 있다. Accordingly, the user device 100 may calculate a time at which recording of the audio file starts by subtracting the total playback time of the audio file from the time at which the audio file is generated. For example, in FIG. 4, since the time when the audio file is generated is 12:58 pm and the total playing time is 54 minutes, the user device 100 may calculate that the recording start time of the audio file is 12:4. . That is, the user device 100 may express the audio file recording start time to the end time as year, month, day, hour, minute, and second in order to match the generation time of the video file with the audio file.

S120 단계 이후, 사용자 디바이스(100)는 확인된 실제 녹음 시간과 비디오 파일의 생성 시각을 매칭하고, 오디오 파일을 재생하는 동안, 매칭된 비디오 파일을 출력한다(S130). 예를 들어, 사용자 디바이스(100)는 녹음이 진행된 시간 동안 ①~③번 비디오 파일이 생성되어 저장된 것을 확인할 수 있으며, 이 후, 해당 오디오 파일을 재생하는 동안 매칭된 ①~③번 비디오 파일을 출력할 수 있다. After step S120, the user device 100 matches the confirmed actual recording time and the generation time of the video file, and outputs the matched video file while playing the audio file (S130). For example, the user device 100 can check that video files ①~③ are created and stored during the recording time, and then output the matched video files ①~③ while playing the audio file. can do.

아울러, 사용자 디바이스(100)는 비디오 파일의 이름, 생성 위치 및 저장 위치 중 어느 하나의 정보를 이용하여 비디오 파일의 생성 시간을 확인할 수 있다. 예를 들어, 사용자 디바이스(100)는 “20200601_173407.jpg”라는 이름을 통해, 해당 비디오 파일이 2020년 6월 1일 오후 5시 34분 7초에 생성된 것임을 확인할 수 있다. 이와 유사하게, 사용자 디바이스(100)는 비디오 파일의 저장 위치, 구체적으로는 비디오 파일의 저장 위치명에 따라, 해당 비디오 파일의 생성 시간을 확인할 수 있다. In addition, the user device 100 may check the generation time of the video file using information on any one of the name, the generation location, and the storage location of the video file. For example, the user device 100 may confirm that the corresponding video file was created at 5:34:7 PM on June 1, 2020 through the name “20200601_173407.jpg”. Similarly, the user device 100 may check the generation time of the corresponding video file according to the storage location of the video file, specifically, the storage location name of the video file.

한편, 사용자 디바이스(100)에 저장된 비디오 파일에서 생성 시각이 분 단위로만 확인될 경우, 초 단위까지 구분된 오디오 파일과 매칭하는데 있어, 어려움이 존재할 수 있다. 예를 들어, 복수의 비디오 파일이 실제로는 각각 12시 5분 10초, 20초, 30초, 40초에 촬영되었으나, 사용자 디바이스(100)에는 복수의 비디오 파일이 모두 12시 5분에 생성된 것으로 저장된 경우, 12시 5분 00초~59초에 해당하는 오디오 파일과 복수의 비디오 파일을 매칭시키 위해서는 비디오 파일을 분석하기 위한 과정이 추가로 필요하다.On the other hand, when the generation time in the video file stored in the user device 100 is confirmed only in minutes, there may be difficulties in matching with the audio files divided up to the second. For example, a plurality of video files were actually recorded at 12:5:10, 20 seconds, 30 seconds, and 40 seconds, respectively, but a plurality of video files were all generated at 12:05 on the user device 100. If it is stored as a video file, an additional process for analyzing the video file is required in order to match the audio file corresponding to 12:05:00 to 59 seconds with a plurality of video files.

구체적으로, 사용자 디바이스(100)는 오디오 파일의 실제 녹음 시간 중 어느 일 시점에서 생성 시각이 매칭되는 비디오 파일이 적어도 둘 이상인 경우, 해당 비디오 파일들의 유사도를 판단할 수 있다. 여기서, 사용자 디바이스(100)는 비디오 파일 간의 유사도를 판단하기 위해 공지된 다양한 이미지 유사도 분석 방법을 이용할 수 있다.Specifically, when there are at least two video files matching the creation time at any one of the actual recording times of the audio file, the user device 100 may determine the similarity of the corresponding video files. Here, the user device 100 may use various known image similarity analysis methods to determine the similarity between video files.

도 5a 및 도 5b는 본 발명의 일 실시 예에 따른 영상 재생 방법을 통해 사용자 디바이스에서 영상을 출력하는 방식을 예시적으로 설명하기 위한 개략도이다.5A and 5B are schematic diagrams illustrating a method of outputting an image from a user device through an image reproducing method according to an exemplary embodiment of the present invention.

도 5a를 참조하면, 사용자 디바이스(100)의 판단 결과, 해당 비디오 파일들이 둘 이상 유사한 경우, 오디오 파일을 재생하는 동안, 해당 시점에서 비디오 파일들 중 어느 하나의 비디오 파일(①)을 출력하고, 일 지점의 재생 진행률 아이콘(A)에 본래의 크기보다 작은 크기로 나머지 비디오 파일(②)들을 동시에 출력할 수 있다. 여기서, 어느 하나의 비디오 파일은 사용자 디바이스(100)가 무작위로 선택한 비디오 파일일 수 있다. Referring to FIG. 5A, as a result of determination of the user device 100, when two or more corresponding video files are similar, while playing an audio file, outputs any one video file (①) among video files at a corresponding time point, The remaining video files ② may be simultaneously output in a size smaller than the original size on the playback progress icon A at one point. Here, any one video file may be a video file randomly selected by the user device 100.

이와 반대로, 사용자 디바이스(100)의 판단 결과, 해당 비디오 파일들이 유사하지 않은 경우, 도 5b와 같이, 비디오 파일들(①, ②)을 사용자 디바이스(100)의 화면 크기에 따라 분할하여 출력할 수 있다. 만약, 비디오 파일들의 개수가 기 설정된 분할 영역(예. 4분할)의 수보다 많을 경우, 비디오 파일들의 생성 시각 단위 보다 작은 단위 내에서 비디오 파일들이 저장된 순서에 따라, 분할하여 순차적으로 출력할 수 있다. 예를 들어, 오전 7시 22분에 생성된 비디오 파일이 12개인 경우, 사용자 디바이스(100)는 저장 순서에 따라, 오디오 파일이 재생되는 동안 1~4번/5번~8번/9번~12번 비디오 파일을 20초 단위로 나누어 출력할 수 있다. On the contrary, as a result of the determination of the user device 100, if the corresponding video files are not similar, the video files (①, ②) can be divided and output according to the screen size of the user device 100, as shown in FIG. 5B. have. If the number of video files is greater than the number of divided areas (eg, 4 divisions) set in advance, video files may be divided and sequentially output in a unit smaller than the generation time unit of video files according to the order in which video files are stored. . For example, if there are 12 video files created at 7:22 am, the user device 100 may perform 1 to 4 times / 5 times to 8 times / 9 times while the audio file is being played according to the storage order. Video file 12 can be divided by 20 seconds and output.

이와 같이, 본 발명의 일 실시 예에 따른영상 재생 방법을 이용하면, 사용자 디바이스(100)는 별도로 녹화 및 촬영된 오디오와 비디오의 시간을 동기화하여 손쉽게 하나의 영상으로 재생할 수 있다. 특히, 분 단위 까지만 파악되는 비디오 파일의 경우, 그 개수와 이미지 분석 방법에 따라서 다양한 방식으로 재생시킬 수 있으므로, 다양한 촬영 프로그램에 의해 촬영된 비디오 파일들을 본 발명의 일 실시 예에 따른영상 재생 방법에 적용시킬 수 있다. As described above, using the image reproducing method according to an exemplary embodiment of the present invention, the user device 100 can easily reproduce a single image by synchronizing the time of separately recorded and photographed audio and video. Particularly, in the case of a video file that is recognized only by the minute, it can be played in various ways depending on the number and image analysis method, so video files captured by various shooting programs can be used in the image playback method according to an embodiment of the present invention. Can be applied.

지금까지 본 발명의 일 실시 예에 따른사용자 디바이스가 이미 소지하고 있는 오디오 파일과 비디오 파일을 이용하여 영상을 재생하는 방법에 대하여 설명하였으며, 이하에서는, 새롭게 오디오 파일 및 비디오 파일을 획득하고 이를 혼합한 영상을 생성하는 방법에 대하여 설명하도록 한다.So far, a method of reproducing an image using an audio file and a video file already possessed by a user device according to an embodiment of the present invention has been described. Hereinafter, a new audio file and a video file are obtained and mixed. A method of generating an image will be described.

도 6은 본 발명의 다른 실시 예에 따른 영상 생성 방법의 개략적인 순서도이고, 도 7은 본 발명의 다른 실시 예에 따른 영상 생성 방법에서 오디오와 비디오를 매칭시키는 방식을 예시적으로 설명하기 위한 개략도이다. 6 is a schematic flowchart of a method for generating an image according to another exemplary embodiment of the present invention, and FIG. 7 is a schematic diagram illustrating a method of matching audio and video in an image generating method according to another exemplary embodiment of the present invention. to be.

도 6을 참조하면, 사용자 디바이스(100)는 오디오의 녹음을 시작하고(S210), 오디오가 녹음되는 동안 촬영 신호에 따라 적어도 하나의 비디오 파일을 획득한다(S220). 즉, 사용자 디바이스(100)는 녹음과 촬영을 동시에 수행할 수 있으며, 녹음 중인 오디오와 실시간으로 획득하는 비디오 파일 모두 년, 월, 일, 시, 분, 초에 해당하는 시간 정보를 포함시켜 저장할 수 있다.Referring to FIG. 6, the user device 100 starts recording audio (S210) and acquires at least one video file according to a photographing signal while audio is being recorded (S220). That is, the user device 100 can record and shoot at the same time, and store both the audio being recorded and the video file acquired in real time by including time information corresponding to year, month, day, hour, minute, and second. have.

S220 단계 이후, 사용자 디바이스(100)는 비디오 파일이 획득된 시점을 오디오 타임 라인에 저장한다(S230). 구체적으로, 사용자 디바이스(100)는 오디오 타임 라인에 비디오 파일이 획득된 시점에 대한 타임 스탬프를 삽입할 수 있으며, 이 과정은 사용자의 촬영 신호에 따라 반복 수행될 수 있다. After step S220, the user device 100 stores the time point at which the video file is acquired in the audio timeline (S230). Specifically, the user device 100 may insert a time stamp for the time point at which the video file is acquired in the audio timeline, and this process may be repeatedly performed according to the user's photographing signal.

S230 단계 이후, 사용자 디바이스(100)는 오디오의 녹음을 종료하고, 오디오와 비디오 파일을 매칭시킨 영상을 생성한다(S240). 이때, “매칭한다”라는 것은 오디오 파일이 재생되는 동안, 사용자 디바이스(100)의 화면에 비디오 파일이 함께 출력될 수 있도록 시간을 맞춘다는 것을 의미한다.After step S230, the user device 100 ends the recording of audio and generates an image obtained by matching the audio and video files (S240). In this case, "matching" means that the time is set so that the video file can be output on the screen of the user device 100 together while the audio file is being played.

도 8을 참조하면, 사용자 디바이스(100)는 n번째 촬영 신호(n은 2이상의 자연수)를 획득하기 전까지의 오디오 타임 라인에, n-1번째 촬영 신호에 따라 획득된 비디오 파일을 매칭시킬 수 있다. 즉, 사용자 디바이스(100)는 4번째 촬영 신호를 획득하게 되면, 3번째 촬영 신호를 획득한 직후~4번째 촬영 신호를 획득하기 직전까지의 오디오 타임 라인에 3번째 촬영 신호에 따라 획득한 비디오 파일을 매칭시킬 수 있다. Referring to FIG. 8, the user device 100 may match a video file obtained according to the n-1th photographing signal with an audio timeline before an n-th photographing signal (n is a natural number of 2 or more) is obtained. . That is, when the user device 100 acquires the 4th shooting signal, the video file acquired according to the 3rd shooting signal on the audio timeline immediately after acquiring the 3rd shooting signal to just before the 4th shooting signal is acquired. Can be matched.

실시 예에 따라, 2번째 촬영 신호에 따라 획득한 비디오 파일이 영상일 경우, 오디오 속성은 제외한 연속된 이미지를 해당 오디오 파일에 매칭시킬 수 있다. According to an embodiment, when the video file acquired according to the second photographing signal is an image, a continuous image excluding audio properties may be matched with the corresponding audio file.

아울러, 사용자 디바이스(100)는 첫번째 촬영 신호가 획득되기 전까지의 오디오 타임 라인에는 첫번째 촬영 신호에 따라 획득된 비디오 파일에 화면 전환 효과를 적용하여 매칭시킴으로써, 최종 생성된 영상이 단순히 끊어진 이미지의 연속이 아니라 연결된 이미지로 인식될 수 있도록 자연스러운 영상을 생성할 수 있다. 예를 들어, 화면 전환 효과는 블러링(blurring) 효과, 모자이크 효과 등 다양한 효과를 포함할 수 있다.In addition, the user device 100 applies a screen transition effect to the video file obtained according to the first photographing signal and matches the audio timeline before the first photographing signal is obtained, so that the final generated image is simply cut off. In addition, a natural image can be created so that it can be recognized as a connected image. For example, the screen transition effect may include various effects such as a blurring effect and a mosaic effect.

또한, 사용자 디바이스(100)는 녹음이 종료되어, 영상이 생성된 후, 영상에 포함시키지 못한 비디오 파일을 추가로 삽입할 수 있다. 구체적으로, 사용자 디바이스(100)는 사용자 디바이스(100)에 저장된 추가 비디오 파일이 존재하는지 확인할 수 있으며, 보다 구체적으로는 저장된 추가 비디오 파일이 영상의 생성 시간에 대응되는 파일인지 확인할 수 있다.Also, after the recording is finished and an image is generated, the user device 100 may additionally insert a video file that cannot be included in the image. Specifically, the user device 100 may check whether an additional video file stored in the user device 100 exists, and more specifically, may check whether the stored additional video file is a file corresponding to an image generation time.

추가 비디오 파일이 존재할 경우, 사용자 디바이스(100)는 최종 생성된 오디오 파일에 추가로 이를 매칭시킬 수 있다. 이때, 사용자 디바이스(100)는 비디오 파일의 생성 시각을 통해 영상을 매칭시킬 수도 있지만, 오디오 타임 라인을 이용하여 비디오 파일이 매칭될 적절한 시점을 검출할 수도 있다. If there is an additional video file, the user device 100 may additionally match it to the finally generated audio file. In this case, the user device 100 may match the image based on the generation time of the video file, but may detect an appropriate time point to which the video file is matched using the audio timeline.

이를 위해, 사용자 디바이스(100)는 최종 생성된 영상에서 오디오가 소정 시간 동안 획득되지 않은 타임 라인을 검출하고, 검출된 오디오 타임 라인과 추가 비디오 파일의 촬영 시간이 대응되는 경우, 해당 오디오 타임 라인에 추가 비디오 파일을 매칭시킬 수 있다. To this end, the user device 100 detects a timeline in which audio has not been acquired for a predetermined time from the last generated image, and when the detected audio timeline corresponds to the recording time of the additional video file, the corresponding audio timeline Additional video files can be matched.

예를 들어, 연설 현장에서 발표자가 연설을 진행하는 중간에 별도의 비디오 파일을 재생하거나 보여줄 경우, 비디오 파일을 보여주는 소정의 시간 동안 오디오가 획득되지 않을 수 있다. 만약, 사용자 디바이스(100)가 영상 생성 후, 발표자가 보여준 별도의 비디오 파일을 삽입하고자 할 시에, 오디오 타임 라인을 이용한다면, 발표자의 비디오 파일 소개 발언 이후 그에 맞는 타이밍에 비디오 파일이 삽입될 수 있다. For example, when a speaker plays or shows a separate video file in the middle of a speech at a speech site, audio may not be obtained for a predetermined time of displaying the video file. If the user device 100 uses the audio timeline to insert a separate video file shown by the presenter after creating an image, the video file may be inserted at the appropriate timing after the presenter introduces the video file. have.

이와 같이, 사용자 디바이스(100)는 오디오 녹음과 비디오 촬영을 따로 또 같이 수행하면서, 하나의 영상을 생성할 수 있다. 즉, 본 발명의 다른 일 실시 예에 따른영상 생성 방법은 초당 수십 프레임을 획득하는 영상 촬영 모드를 통해서 오디오와 비디오를 포함하는 영상을 촬영하지 않고, 오디오 녹음을 하는 동안 사용자에게 필요한 몇 개의 비디오만을 획득한 후, 이를 결합한 하나의 영상을 생성할 수 있어, 최종 생성된 영상의 크기를 크게 감소시킬 수 있다. In this way, the user device 100 may generate one image while separately and simultaneously performing audio recording and video recording. That is, the image generation method according to another embodiment of the present invention does not capture an image including audio and video through an image capture mode that acquires several tens of frames per second, but only a few videos required by a user during audio recording. After acquiring, it is possible to generate a single image by combining them, so that the size of the finally generated image can be greatly reduced.

한편, 초당 수십 프레임을 획득하는 영상 촬영 모드를 이용하더라도 최종 촬영된 영상의 파일 크기를 감소시키기 위한 방법이 필요할 수 있으며, 이하 도 8 및 도 9c를 참조하여 이에 대해 설명하도록 한다.On the other hand, even if an image capturing mode that acquires several tens of frames per second is used, a method for reducing the file size of the final captured image may be required, and this will be described with reference to FIGS. 8 and 9C.

도 8은 본 발명의 또 다른 실시 예에 따른 영상 저장 방법의 개략적인 순서도이고, 도 9a 내지 도 9c는 본 발명의 또 다른 실시 예에 따른 영상 저장 방법에서 하나의 이미지 프레임을 획득하거나 저장하는 방식을 예시적으로 설명하기 위한 개략도이다. 8 is a schematic flowchart of an image storage method according to another embodiment of the present invention, and FIGS. 9A to 9C are a method of acquiring or storing one image frame in an image storage method according to another embodiment of the present invention. It is a schematic diagram for explaining by way of example.

도 8을 참조하면, 사용자 디바이스(100)는 영상 촬영 시작 신호에 따라 비디오 및 오디오를 포함하는 영상을 촬영한다(S310). 일반적으로, 영상 촬영의 경우, 실시간으로 다양한 사물, 인물들이 움직이는 공간을 찍는 것으로 이해될 수 있지만, 본 발명에서는 이러한 객체들의 움직임이 적은 공간을 찍는 상황을 가정한다. Referring to FIG. 8, the user device 100 captures an image including video and audio according to an image capture start signal (S310). In general, in the case of image shooting, it can be understood that a space in which various objects and people move in real time is photographed, but in the present invention, a situation in which a space in which the movement of such objects is small is photographed is assumed.

아울러, 사용자 디바이스(100)는 영상을 촬영하는 동안, 촬영 설정에 따라 초당 수십 프레임의 이미지를 획득할 수 있지만, 모든 프레임의 이미지를 영상 저장에 활용하지 않으며, 그에 따라 획득된 이미지는 영상 최종 저장 전까지 임시로 저장될 수 있다. In addition, while capturing an image, the user device 100 may acquire an image of several tens of frames per second according to the shooting setting, but the image of all frames is not used for image storage, and the image obtained accordingly is the final image storage. It can be temporarily stored until.

S310 단계 이후, 사용자 디바이스(100)는 영상의 이미지 프레임에서 프레임 간 변화를 검출한다(S320). 여기서, 사용자 디바이스(100)는 프레임 간 변화를 검출하기 위해 공지된 다양한 이미지 유사도 분석 방법을 이용할 수 있다.After step S310, the user device 100 detects a change between frames in the image frame of the image (S320). Here, the user device 100 may use various known image similarity analysis methods to detect changes between frames.

예를 들어, 사용자 디바이스(100)는 풍경, 강연과 같이 이동 객체가 적은 공간을 찍을 때, 1)사용자의 조작에 의한 촬영 각도의 변화에 따라, 2)객체의 움직임에 따라, 영상의 이미지 프레임에서 프레임 간 변화를 검출할 수 있다.For example, when the user device 100 photographs a space with a small number of moving objects, such as a landscape or a lecture, 1) according to a change in the shooting angle due to the user's manipulation, 2) according to the movement of the object, and an image frame of an image The change between frames can be detected.

한편, 본 발명에서 객체들의 움직임이 적은 공간을 찍는 상황으로 가정하였으나, 촬영 영역 안에서 고정 객체 또는 이동 객체가 존재할 수 있다. 그에 따라, 사용자 디바이스(100)는 사용자로부터 적어도 하나의 고정 객체 또는 이동 객체를 선택 받고, 고정 객체 또는 이동 객체 별로 프레임 간 변화가 발생한 것으로 판단하기 위한 기준 값을 설정할 수 있다.Meanwhile, in the present invention, it is assumed that a space in which objects are less moving is assumed, but a fixed object or a moving object may exist in the photographing area. Accordingly, the user device 100 may receive at least one fixed object or a moving object selected from the user and set a reference value for determining that inter-frame change has occurred for each fixed object or moving object.

도 9a를 참조하면, 사용자는 사용자 디바이스(100) 안에서 강연자와 같은 이동 객체(B)와 프레젠테이션 화면과 같은 고정 객체(C)를 선택할 수 있다. 이때, 이동 객체(B)의 경우, 점선으로 도시된 바와 같이 이동 객체(B)가 움직이더라도 프레임 간 변화로 인식하지 않을 만큼의 이동 허용 범위를 설정할 수 있다.Referring to FIG. 9A, a user may select a moving object B such as a lecturer and a fixed object C such as a presentation screen in the user device 100. In this case, in the case of the moving object B, even if the moving object B moves, as shown by the dotted line, a movement allowable range that is not recognized as a change between frames may be set.

한편, 사용자 디바이스(100)는 고정 객체(C)를 선택 받게 되면, 고정 객체(C)의 속성을 확인할 수 있다. 구체적으로, 고정 객체(C)의 경우, 그 속성 값으로 사용자 디바이스(100)의 출력 화면 내에서 고정된 테두리 좌표(C-1)를 가지고 있으므로, 사용자 디바이스(100)는 고정된 테두리 좌표(C-1)와 테두리 좌표(C-1) 안의 이미지 프레임(C-2)을 확인하고, 이미지 프레임(C-2) 간 변화를 검출할 수 있다. 예를 들어, 강연이 진행되는 동안, 강연자가 프레젠테이션 화면을 전환할 경우, 사용자 디바이스(100)는 이를 프레임 간 변화로 인식할 수 있다. Meanwhile, when the user device 100 receives the selection of the fixed object C, the user device 100 may check the properties of the fixed object C. Specifically, in the case of the fixed object C, since the fixed object C has a fixed frame coordinate C-1 in the output screen of the user device 100 as its property value, the user device 100 has a fixed frame coordinate C -1) and the image frame (C-2) in the frame coordinate (C-1) can be checked, and a change between the image frames (C-2) can be detected. For example, if the lecturer switches the presentation screen while the lecture is in progress, the user device 100 may recognize this as a change between frames.

S320 단계 이후, 사용자 디바이스(100)는 프레임 간 변화가 검출된 시점을 기준으로 이전까지의 오디오 타임 라인에 하나의 이미지 프레임을 삽입한다(S330). 여기서, 하나의 이미지 프레임은 영상의 이전까지의 오디오 타임 라인 영역에서 촬영한 복수의 이미지 프레임 중 어느 하나의 이미지 프레임일 수 있다. After step S320, the user device 100 inserts one image frame into the previous audio timeline based on the time when the inter-frame change is detected (S330). Here, one image frame may be any one of a plurality of image frames photographed in the audio timeline region before the image.

즉, 현재 사용자 디바이스(100)가 물리적 변화가 적은 촬영 공간을 촬영하고 있으므로, 영상 촬영 모드로 획득되는 수십, 수백 장의 이미지 프레임이 모두 유사한 이미지 프레임인 바, 모든 이미지 프레임이 이전까지의 영상을 대표하는 이미지가 될 수 있다.That is, since the current user device 100 is capturing a shooting space with little physical change, tens and hundreds of image frames acquired in the image capturing mode are all similar image frames, and all image frames represent previous images. It can be an image

실시 예에 따라, 사용자 디바이스(100)는 촬영 영역에서 프레임 변화를 자동으로 검출하는 동안, 사용자에 의해 이미지를 추가로 획득할 수도 있다.According to an embodiment, the user device 100 may additionally acquire an image by the user while automatically detecting a frame change in the photographing area.

도 9b를 참조하면, 영상 촬영 시작 아이콘(131)을 통해 촬영이 시작되면, 도 9c에 도시된 바와 같이 사용자 디바이스(100)의 화면에 이미지 촬영 아이콘(133) 및 영상 촬영 중지 아이콘(135)이 추가로 나타날 수 있다. 사용자 디바이스(100)는 사용자가 제공한 이미지 촬영 신호에 따라 적어도 하나의 이미지 프레임을 획득할 수 있으며, 영상의 이전까지의 타임 라인에 획득한 이미지 프레임을 삽입할 수 있다. Referring to FIG. 9B, when shooting is started through the image capturing start icon 131, an image capturing icon 133 and an image capturing stop icon 135 are displayed on the screen of the user device 100 as shown in FIG. 9C. May appear additionally. The user device 100 may acquire at least one image frame according to an image capturing signal provided by the user, and may insert the acquired image frame into a timeline prior to the image.

사용자 디바이스(100)는 영상 촬영 종료 신호를 수신하기 전까지, 이미지 프레임에서 프레임 간 변화를 검출할 수 있으며, 검출된 시점을 기준으로 오디오 타임 라인에 이미지 프레임을 삽입할 수 있다. The user device 100 may detect a change between frames in an image frame before receiving an image capturing end signal, and may insert the image frame into the audio timeline based on the detected time point.

S330 단계 이후, 사용자 디바이스(100)는 영상 촬영 종료 신호에 따라, 영상의 오디오 타임 라인에 적어도 하나의 이미지 프레임이 매칭된 영상을 저장한다(S340). 즉, 최종 저장된 영상의 경우, 저장된 영상이 초당 수천, 수만 프레임을 가지고 있지 않고, 재생 시간 동안 필요한 이미지 프레임만을 가지고 있으므로, 전체 영상의 크기를 큰 폭으로 줄어들 수 있다. After step S330, the user device 100 stores an image in which at least one image frame is matched to the audio timeline of the image according to the image capturing end signal (S340). That is, in the case of the final stored image, since the stored image does not have thousands or tens of thousands of frames per second, and has only necessary image frames during the playback time, the size of the entire image can be greatly reduced.

지금까지 본 발명의 다양한 실시 예에 따른 영상 관리 방법에 대하여 설명하였다. 본 발명에 따르면, 영상을 압축시키기 위한 고성능의 코덱 없이도, 사용자 디바이스에 설치 가능한 어플리케이션을 이용하여 영상을 원활하게 재생할 수 있으며, 촬영된 고해상도의 영상을 작은 용량의 영상 파일로 저장할 수 있다. So far, an image management method according to various embodiments of the present invention has been described. According to the present invention, without a high-performance codec for compressing an image, an image can be smoothly played back using an application that can be installed on a user device, and a captured high-resolution image can be stored as a small-capacity image file.

뿐만 아니라, 오디오의 실제 녹음 시간을 분석하고, 비디오가 촬영된 시간을 확인하여, 오디오와 비디오를 매칭시킨 영상을 재생할 수 있으며, 특히 촬영된 정확한 시간 정보가 포함되어 있지 않은 비디오 파일의 경우, 일반적인 저장 정보 외에도, 비디오 파일의 이름, 저장 위치 등의 부가적인 정보를 이용하여, 오디오와 비디오의 시간을 정확하게 동기화시킬 수 있다. In addition, it is possible to analyze the actual recording time of the audio, check the time when the video was recorded, and play the video matched with the audio and video. In particular, in the case of a video file that does not contain accurate time information In addition to the storage information, additional information such as the name of the video file and the storage location can be used to accurately synchronize the audio and video times.

이상 첨부된 도면을 참조하여 본 발명의 일 실시 예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시 예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although the embodiments of the present invention have been described in more detail with reference to the accompanying drawings, the present invention is not necessarily limited to these embodiments, and various modifications may be made without departing from the spirit of the present invention. . Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain the technical idea, and the scope of the technical idea of the present invention is not limited by these embodiments. Therefore, it should be understood that the embodiments described above are illustrative and non-limiting in all respects. The scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.

100: 사용자 디바이스
110: 통신부
120: 저장부
130: 입력부
140: 출력부
150: 프로세서
100: user device
110: communication department
120: storage unit
130: input unit
140: output
150: processor

Claims (20)

사용자 디바이스에 설치된 어플리케이션을 이용하여 영상을 재생하는 방법으로서,
상기 사용자 디바이스에 저장된 적어도 하나의 오디오 파일 및 비디오 파일을 검색하는 단계;
어느 하나의 오디오 파일에 대한 실제 녹음 시간을 확인하는 단계; 및
확인된 실제 녹음 시간과 상기 비디오 파일의 생성 시각을 매칭하고, 상기 오디오 파일을 재생하는 동안, 매칭된 비디오 파일을 출력하는 단계; 를 포함하되,
상기 출력하는 단계는,
상기 오디오 파일의 실제 녹음 시간 중 일 시점에서, 생성 시각이 매칭되는 비디오 파일이 적어도 둘 이상인 경우, 해당 비디오 파일들의 유사도를 판단하는 단계, 를 더 포함하고,
판단 결과에 따라 상기 둘 이상의 비디오 파일을 서로 다른 방식으로 동시에 출력하는 영상 재생 방법.
As a method of playing an image using an application installed on a user device,
Searching at least one audio file and video file stored in the user device;
Checking an actual recording time for any one audio file; And
Matching the confirmed actual recording time with the generation time of the video file, and outputting the matched video file while playing the audio file; Including,
The outputting step,
When there are at least two video files matching the creation time at one point in the actual recording time of the audio file, determining the similarity of the corresponding video files, further comprising,
A video reproducing method for simultaneously outputting the two or more video files in different ways according to a determination result.
제1항에 있어서,
상기 확인하는 단계는,
상기 오디오 파일이 생성된 시각에서 상기 오디오 파일의 총 재생 시간을 감산하여, 상기 오디오 파일의 녹음이 시작된 시각을 계산하는 단계, 를 더 포함하는 영상 재생 방법.
The method of claim 1,
The step of confirming,
Subtracting the total playback time of the audio file from the time when the audio file was created, and calculating a time when the recording of the audio file started.
제2항에 있어서,
상기 실제 녹음 시간은,
상기 오디오 파일의 녹음이 시작된 시각부터 종료된 시각까지가 년, 월, 일, 시, 분, 초로 표현되는, 영상 재생 방법.
The method of claim 2,
The actual recording time is,
The video playback method, wherein the recording of the audio file is expressed as year, month, day, hour, minute, and second from a start time to an end time.
삭제delete 제1항에 있어서,
상기 출력하는 단계는,
상기 판단 결과, 해당 비디오 파일들이 유사한 경우,
상기 오디오 파일을 재생하는 동안, 상기 일 시점에서 상기 비디오 파일들 중 어느 하나의 비디오 파일을 출력하고, 상기 일 시점의 재생 진행률 아이콘에 나머지 비디오 파일들을 동시에 출력하는 단계인, 영상 재생 방법.
The method of claim 1,
The outputting step,
As a result of the determination, if the video files are similar,
While playing the audio file, outputting one of the video files at the one point in time, and simultaneously outputting the remaining video files to the playback progress icon at the one point in time.
제1항에 있어서,
상기 출력하는 단계는,
상기 판단 결과, 해당 비디오 파일들이 유사하지 않은 경우,
상기 오디오 파일을 재생하는 동안, 상기 일 시점에서 상기 비디오 파일들을 상기 사용자 디바이스의 화면 크기에 따라 분할하여 출력하는 단계인, 영상 재생 방법.
The method of claim 1,
The outputting step,
As a result of the determination, if the video files are not similar,
While playing the audio file, dividing and outputting the video files according to the screen size of the user device at the point in time.
제1항에 있어서,
상기 비디오 파일의 생성 시간은,
상기 비디오 파일의 이름 또는 저장 위치 중 어느 하나의 정보를 이용하여 확인되는, 영상 재생 방법.
The method of claim 1,
The creation time of the video file is,
The video playback method, which is identified using information on any one of a name or a storage location of the video file.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 사용자 디바이스에 설치된 어플리케이션을 이용하여 촬영된 영상을 저장하는 방법으로서,
영상 촬영 시작 신호에 따라 비디오 및 오디오를 포함하는 영상을 촬영하는 단계;
상기 영상의 이미지 프레임에서 프레임 간 변화를 검출하는 단계;
상기 프레임 간 변화가 검출된 시점을 기준으로 이전까지의 오디오 타임 라인에 하나의 이미지 프레임을 삽입하는 단계; 및
영상 촬영 종료 신호에 따라 상기 영상의 오디오 타임 라인에 적어도 하나의 이미지 프레임이 매칭된 영상을 저장하는 단계; 를 포함하되,
상기 검출하는 단계는,
촬영 영역에서 적어도 하나의 고정 객체 또는 이동 객체를 선택받는 단계, 와
상기 고정 객체의 속성 또는 상기 이동 객체의 움직임 영역을 설정하는 단계, 를 더 포함하는 영상 저장 방법.
As a method of storing a captured image using an application installed on a user device,
Capturing an image including video and audio according to an image capturing start signal;
Detecting a change between frames in the image frame of the image;
Inserting one image frame into an audio timeline up to a previous point based on a time point at which the inter-frame change is detected; And
Storing an image in which at least one image frame is matched to an audio timeline of the image according to an image capturing end signal; Including,
The detecting step,
Receiving at least one fixed object or a moving object selected from the photographing area, and
Setting the property of the fixed object or the moving area of the moving object, further comprising.
제13항에 있어서,
상기 하나의 이미지 프레임은,
상기 영상의 이전까지의 오디오 타임 라인에서 촬영한 복수의 이미지 프레임 중 어느 하나의 이미지 프레임인, 영상 저장 방법.
The method of claim 13,
The one image frame,
The image storage method, wherein the image is any one of a plurality of image frames photographed on an audio timeline prior to the image.
삭제delete 제13항에 있어서,
상기 고정 객체의 속성은,
고정된 테두리 좌표 및 상기 테두리 좌표 안의 이미지 프레임을 포함하고,
상기 검출하는 단계는,
상기 테두리 좌표 안의 이미지 프레임 간 변화를 검출하는 단계인, 영상 저장 방법.
The method of claim 13,
The properties of the fixed object,
Including a fixed frame coordinates and an image frame in the frame coordinates,
The detecting step,
The step of detecting a change between image frames in the frame coordinates.
제13항에 있어서,
상기 촬영하는 단계 이후에,
이미지 촬영 신호에 따라 적어도 하나의 이미지 프레임을 획득하는 단계, 와
상기 영상의 이전까지의 타임 라인에, 상기 획득한 이미지 프레임을 삽입하는 단계, 를 더 포함하는 영상 저장 방법.
The method of claim 13,
After the step of photographing,
Obtaining at least one image frame according to the image capturing signal, and
Inserting the acquired image frame into a timeline prior to the image.
통신부;
저장부;
출력부;
입력부; 및
상기 통신부, 상기 저장부, 상기 출력부, 상기 입력부와 동작 가능하게 연결되고, 상기 저장부에 저장된 어플리케이션을 구동하여 영상을 재생하는 프로세서를 포함하는 사용자 디바이스로서,
상기 프로세서는,
상기 저장부에 저장된 적어도 하나의 오디오 파일 및 비디오 파일을 검색하고, 어느 하나의 오디오 파일에 대한 실제 녹음 시간을 확인하여, 확인된 실제 녹음 시간과 상기 비디오 파일의 생성 시간을 매칭하고, 상기 오디오 파일을 재생하는 동안, 매칭된 비디오 파일을 출력하며,
상기 오디오 파일의 실제 녹음 시간 중 일 시점에서, 생성 시각이 매칭되는 비디오 파일이 적어도 둘 이상인 경우, 해당 비디오 파일들의 유사도를 판단하고, 판단 결과에 따라 상기 둘 이상의 비디오 파일을 서로 다른 방식으로 동시에 출력하는, 사용자 디바이스.
Communication department;
Storage;
Output section;
Input unit; And
A user device comprising a processor that is operably connected to the communication unit, the storage unit, the output unit, and the input unit, and plays an image by driving an application stored in the storage unit,
The processor,
Search at least one audio file and video file stored in the storage unit, check the actual recording time of any one audio file, match the confirmed actual recording time with the creation time of the video file, and the audio file During playback, the matched video file is output,
When there are at least two video files with matching creation times at one point in the actual recording time of the audio file, the similarity of the corresponding video files is determined, and the two or more video files are simultaneously output in different ways according to the determination result To the user device.
삭제delete 통신부;
저장부;
출력부;
입력부; 및
상기 통신부, 상기 저장부, 상기 출력부, 상기 입력부와 동작 가능하게 연결되고, 상기 저장부에 저장된 어플리케이션을 구동하여 영상을 생성하는 프로세서를 포함하는 사용자 디바이스로서,
상기 프로세서는,
영상 촬영 시작 신호에 따라 비디오 및 오디오를 포함하는 영상을 촬영하고, 상기 영상의 이미지 프레임에서 프레임 간 변화를 검출하며, 상기 프레임 간 변화가 검출된 시점을 기준으로 이전까지의 오디오 타임 라인에 하나의 이미지 프레임을 삽입하고, 영상 촬영 종료 신호에 따라 상기 영상의 오디오 타임 라인에 적어도 하나의 이미지 프레임이 매칭된 영상을 저장하며,
촬영 영역에서 적어도 하나의 고정 객체 또는 이동 객체를 선택받고, 상기 고정 객체의 속성 또는 상기 이동 객체의 움직임 영역을 설정하는, 사용자 디바이스.
Communication department;
Storage;
Output section;
Input unit; And
A user device comprising a processor that is operably connected to the communication unit, the storage unit, the output unit, and the input unit, and generates an image by driving an application stored in the storage unit,
The processor,
An image including video and audio is photographed according to an image capturing start signal, and an inter-frame change is detected in the image frame of the image. Inserting an image frame and storing an image in which at least one image frame is matched to an audio timeline of the image according to an image capturing end signal,
A user device for selecting at least one fixed object or a moving object from a photographing area and setting a property of the fixed object or a moving area of the moving object.
KR1020200080316A 2020-06-30 2020-06-30 Video management method for minimizing storage space and user device for performing the same KR102202099B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200080316A KR102202099B1 (en) 2020-06-30 2020-06-30 Video management method for minimizing storage space and user device for performing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200080316A KR102202099B1 (en) 2020-06-30 2020-06-30 Video management method for minimizing storage space and user device for performing the same

Publications (1)

Publication Number Publication Date
KR102202099B1 true KR102202099B1 (en) 2021-01-11

Family

ID=74129021

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200080316A KR102202099B1 (en) 2020-06-30 2020-06-30 Video management method for minimizing storage space and user device for performing the same

Country Status (1)

Country Link
KR (1) KR102202099B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0898133A (en) * 1994-09-28 1996-04-12 Toshiba Corp Video sound recording device and recording and reproducing device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0898133A (en) * 1994-09-28 1996-04-12 Toshiba Corp Video sound recording device and recording and reproducing device

Similar Documents

Publication Publication Date Title
US11157689B2 (en) Operations on dynamic data associated with cells in spreadsheets
US8385588B2 (en) Recording audio metadata for stored images
US10192583B2 (en) Video editing using contextual data and content discovery using clusters
US8151179B1 (en) Method and system for providing linked video and slides from a presentation
US20070136656A1 (en) Review of signature based content
US20060161838A1 (en) Review of signature based content
JP2008282397A (en) Method for creating annotated transcript of presentation, information processing system, and computer program
US11189320B2 (en) System and methods for concatenating video sequences using face detection
US20080276176A1 (en) Guestbook
US9449646B2 (en) Methods and systems for media file management
US10990828B2 (en) Key frame extraction, recording, and navigation in collaborative video presentations
US7929766B2 (en) Identifiers for digital media
US11581018B2 (en) Systems and methods for mixing different videos
GB2520041A (en) Automated multimedia content editing
CN113992973B (en) Video abstract generation method, device, electronic equipment and storage medium
US9201947B2 (en) Methods and systems for media file management
KR102202099B1 (en) Video management method for minimizing storage space and user device for performing the same
KR20150112113A (en) Method for managing online lecture contents based on event processing
KR102299506B1 (en) Real-time production management system used in the production site of video content and computer-readable recording media with programs for real time production management
JP4959534B2 (en) Image annotation assigning / displaying method and apparatus, program, and computer-readable recording medium
US10714146B2 (en) Recording device, recording method, reproducing device, reproducing method, and recording/reproducing device
WO2018005569A1 (en) Videos associated with cells in spreadsheets
CN115619901A (en) Material editing method and device, electronic equipment and storage medium
Shapiro et al. From Still to Motion: Editing DSLR Video with Final Cut Pro X

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant