KR20200017466A - Apparatus and associated method for providing video items - Google Patents

Apparatus and associated method for providing video items Download PDF

Info

Publication number
KR20200017466A
KR20200017466A KR1020207000782A KR20207000782A KR20200017466A KR 20200017466 A KR20200017466 A KR 20200017466A KR 1020207000782 A KR1020207000782 A KR 1020207000782A KR 20207000782 A KR20207000782 A KR 20207000782A KR 20200017466 A KR20200017466 A KR 20200017466A
Authority
KR
South Korea
Prior art keywords
video
item
user
metadata
search
Prior art date
Application number
KR1020207000782A
Other languages
Korean (ko)
Inventor
얀 누보넨
세포 소르무넨
올리 란툴라
Original Assignee
비카스터 오이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 비카스터 오이 filed Critical 비카스터 오이
Publication of KR20200017466A publication Critical patent/KR20200017466A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4828End-user interface for program selection for searching program descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • H04N21/8405Generation or processing of descriptive data, e.g. content descriptors represented by keywords
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

장치(100)로서, 선택적으로, 디지털 비디오 자료를 검색하기 위한 하나 이상의 네트워크 액세스 가능한 서버를 포함하고, 상기 장치는, 다수의 비디오 항목을 수신하고; 상기 비디오 항목을 데이터베이스에 저장하며; 임의의 또는 각각의 비디오 항목에 대한 메타데이터, 바람직하게는 다수의 태그를 제공하고 - 상기 메타데이터는 상기 비디오 항목이 획득된 적어도 하나의 사용자 디바이스(104)에 의해 제공된 보충 데이터를 이용하여 획득됨 -; 검색 쿼리(search query)를 수신하고 - 검색 쿼리에 포함된 적어도 하나의 검색 기준은 상기 메타데이터와 관련되고 -; 데이터베이스에 저장된 상기 적어도 하나의 비디오 항목 중에서 검색 쿼리와 일치하는 비디오 항목 검색 결과를 결정하고; 및 비디오 항목 검색 결과를 포함하는 출력을 사용자에게 제공하도록 구성된, 적어도 하나의 프로세서(102)를 포함하고, 상기 비디오 항목은 지속 기간과 관련되고 상기 제공된 메타데이터는 비디오 항목의 하나 이상의 서브 항목과 관련된 상기 보충 데이터의 분석을 통해 결정되는 적어도 하나의 품질 지시자를 포함하고, 상기 서브 항목은 상기 서브 항목의 서브 지속 기간과 관련되고, 상기 적어도 하나의 품질 지시자는 대응하는 서브 항목에 할당된다. 대응하는 방법이 제시된다. Apparatus 100, optionally comprising one or more network accessible servers for retrieving digital video material, the apparatus comprising: receiving a plurality of video items; Store the video item in a database; Providing metadata, preferably multiple tags, for any or each video item, wherein the metadata is obtained using supplemental data provided by at least one user device 104 from which the video item was obtained. -; Receive a search query, wherein at least one search criterion included in the search query is associated with the metadata; Determine a video item search result that matches a search query among the at least one video item stored in a database; And at least one processor 102, configured to provide an output to the user, the output including a video item search result, wherein the video item is associated with a duration and the provided metadata is associated with one or more subitems of the video item. And at least one quality indicator determined through analysis of the supplemental data, wherein the sub item is associated with a sub duration of the sub item and the at least one quality indicator is assigned to a corresponding sub item. Corresponding methods are presented.

Description

비디오 항목의 제공을 위한 장치 및 관련된 방법Apparatus and associated method for providing video items

본 발명은 비디오 자료의 제공 및 소비에 관한 것이다. 보다 구체적으로, 독점적으로는 아니지만, 본 발명은 비디오 클립과 같은 디지털 비디오 항목을 검색하기 위한 장치 및 방법을 제공하며, 여기서 메타데이터는 비디오 항목이 캡쳐된 디바이스로부터 또는 디바이스를 통해 획득된 데이터의 이용을 통해 제공된다. 검색 기준은 이러한 메타데이터와 관련될 수 있다. The present invention relates to the provision and consumption of video material. More specifically, but not exclusively, the present invention provides an apparatus and method for retrieving a digital video item, such as a video clip, wherein metadata is the use of data obtained from or through the device from which the video item was captured. Is provided through. Search criteria may be associated with such metadata.

지난 몇 년 간, 카메라 기술 및 모바일 디바이스의 발전으로 스마트폰 및 태블릿과 같은 모바일 디바이스에서 녹화되는 비디오 영상(footage)의 양이 크게 증가되었다. 이러한 영상은 사용자가 선호하는 검색 기준을 사용하여 흥미로운 비디오 영상을 검색할 수 있는 소셜 미디어 사이트에 업로드된다. 검색 기준은 전형적으로 다른 비디오 클립과 같은 비디오 영상과 연관된 매치되는 메타데이터를 검색하는데 사용된다. 관련된 메타데이터는 비디오 자료의 레코더 또는 자료의 업로더에 의해 수행되는 태깅(tagging)을 통해 비디오 클립과 연관될 수 있다.In the past few years, advances in camera technology and mobile devices have greatly increased the amount of video footage recorded on mobile devices such as smartphones and tablets. These images are uploaded to social media sites where users can search for interesting video images using their preferred search criteria. Search criteria are typically used to search for matching metadata associated with a video image, such as another video clip. Related metadata may be associated with the video clip via tagging performed by a recorder or uploader of the video material.

검색은 전형적으로 검색어를 지정하여 수행되므로, 특정 이벤트를 찍은 비디오 자료를 검색하는 것은 다소 어렵다. 사용된 검색어는 특정 이벤트와 관련이 있을 수 있지만, 그 이벤트를 찍은 비디오 자료에는 그러한 단어를 사용하여 태그가 지정되지 않을 수 있으므로 찾을 수 없다. 비디오 자료가 태그 작성자(tagger)에 의해 잘못 태그되었을 수도 있다.Searching is typically done by specifying a search term, so searching for video footage of a particular event is rather difficult. The search term used may be related to a particular event, but cannot be found because the video material that captured the event may not be tagged using such words. The video material may have been incorrectly tagged by the tag author.

이용 가능한 방대한 양의 비디오 자료는 또한 검색을 수행하는 자가 이를 검토하는 것이 실질적으로 불가능할 정도로 많은 양의 검색 결과를 초래할 수 있다. The vast amount of video material available may also result in a large amount of search results that would be practically impossible for the searcher to review them.

따라서, 검색 결과를 구성하는 방법은 메타데이터 기반 태깅에 따른 관련성을 포함할 수 있는데, 이는 메타데이터 부족 및 오류 (메타) 데이터를 포함하여 상기 언급된 이유로 인해 문제가 된다. 시청자 수 또는 시청자가 제공한 평가에 기반하여 인기도를 통해 구성할 수도 있지만, 이는 또 다시 주관적이며 정보가 부족한 경우가 많다.Thus, the method of constructing search results may include relevance according to metadata based tagging, which is problematic for the reasons mentioned above including lack of metadata and error (meta) data. You can also build on popularity based on the number of viewers or ratings provided by viewers, but this is again subjective and often lacks information.

전통적인 비디오 검색 방법은 또한 비디오 품질에 관한 정보를 제공할 수도 있다. 그러나, 특정 비디오 내에서도 비디오 품질이 크게 달라질 수 있으므로 문제가 되며 오해의 소지가 있을 수 있다. 품질 자체가 다소 주관적인 측정이며, 만약 업로더나 다운로더와 같은 비디오 항목의 사용자가 스스로 품질을 평가할 수 있는 경우에 사용된 척도는 사람들마다 다른 것을 의미할 수 있으며, 발행된 품질 등급은 서로 쉽게 비교할 수 없으므로, 품질 자체에 대한 평가가 어려운 경우가 종종 있다.Traditional video retrieval methods may also provide information about video quality. However, even within a particular video, video quality can vary greatly, which can be problematic and misleading. Quality itself is a rather subjective measure, and if the user of a video item such as an uploader or downloader can evaluate the quality on their own, the measures used can mean different things to different people, and the published quality ratings can be easily compared with each other. As a result, evaluation of the quality itself is often difficult.

예를 들어, 다른 각도 또는 방향으로 찍은 비디오의 편집(compilation)을 형성하기 위해 특정 이벤트에서 찍은 비디오를 조합할 수 있다. 그러나, 그러한 편집을 쉽게 구성하기 위한 도구, 예를 들어 필요에 따라 최소한 또는 최소한으로 감소된 필요한 사용자 입력은, 현재 사용할 수 없다. 사용 가능한 도구에는 약간의 수동 작업과 노력, 비디오 수정(editing)에 대한 특별한 전문 지식, 편집에서 선택하기 위한 다른 비디오 클립으로 넘어가는 것 등이 필요하다.For example, video taken at a particular event can be combined to form a compilation of video taken at different angles or directions. However, tools for easily composing such edits, for example the necessary user input reduced to a minimum or minimum as necessary, are currently unavailable. The tools available require some manual effort and effort, special expertise in video editing, and a jump to other video clips to choose from in editing.

본 발명의 목적은 공지된 종래 기술과 관련된 문제점 중 적어도 일부를 완화시키는 것이다.It is an object of the present invention to alleviate at least some of the problems associated with known prior art.

본 발명의 장치는 첨부된 청구항 제1항에 기재된 것을 특징으로 한다. 본 발명의 방법은 첨부된 청구항 제19항에 기재된 것을 특징으로 한다. The device of the invention is characterized by what is stated in the attached claim 1. The process of the invention is characterized by what is stated in the appended claims 19.

컴퓨터 프로그램은 또한 청구항 제21항에 따라 제공된다. 컴퓨터 프로그램은 독립형 소프트웨어 프로그램 또는 모바일 어플리케이션 또는 모바일 어플리케이션의 일부일 수 있다. 컴퓨터 프로그램은 일부 실시예에서 비디오 수정 프로그램과 같은 하나 이상의 다른 소프트웨어 프로그램을 위한 플러그-인(plug-in)일 수 있다.A computer program is also provided according to claim 21. The computer program may be a standalone software program or part of a mobile application or mobile application. The computer program may in some embodiments be a plug-in for one or more other software programs, such as video modification programs.

본 발명은 바람직하게 자동 생성된 메타데이터를 통해 비디오 항목을 검색하기 위한 직관적이고 사용하기 쉬운 동적 장치를 제공하는 것과 같이 공지된 종래 기술에 비해 훨씬 더 많은 장점을 제공한다. 메타데이터가 비디오 항목의 업로더 또는 레코더에 의해 지정되지 않기 때문에 의도적이거나 우발적인 오류가 업로더 또는 레코더에 의해 생성되지 않을 수 있으므로 피할 수 있다.The present invention preferably provides even more advantages over known prior art, such as providing an intuitive and easy-to-use dynamic device for retrieving video items via automatically generated metadata. Since metadata is not specified by the uploader or recorder of the video item, an intentional or accidental error may not be generated by the uploader or recorder, so it is avoided.

본 발명의 일 실시예를 이용하여, 업로드된 특정 시간 또는 장소에서 녹화된 임의의 비디오 항목은, (비디오 항목과 연관된 보충적인 데이터로 지시된 것과 같은 캡쳐의) 시간과 장소를 검색 기준으로 사용함으로써 클라우드 컴퓨팅 환경을 이용하여 선택적으로 구현된 서버 장치와 같은 연관된 시스템으로부터 검색 및 다운로드될 수 있다.Using one embodiment of the present invention, any video item recorded at a particular time or place uploaded may be used as a search criterion by using time and place (of capture as indicated by the supplementary data associated with the video item). It may be retrieved and downloaded from an associated system, such as a server device, optionally implemented using a cloud computing environment.

장치는 장치의 사용자에게 검색 결과를 디스플레이하는 많은 다른 방법을 제공할 수 있다. 유리한 실시예에서, 비디오 품질이 또한 적어도 하나의 품질 지시 파라미터를 통해 지시될 수 있도록 장치의 사용자에게 검색 결과가 제공되며, 이러한 품질 파라미터 또는 '지시자'는 스마트폰, 태블릿 또는 다른 단말 디바이스와 같은 비디오 자료가 획득되는 디바이스의 센서 또는 통신 디바이스에 적어도 기능적으로 연결되거나 통신 디바이스에 구비된 카메라 디바이스를 통하여 획득된 데이터를 통해 메타데이터로서 유리하게 결정된다. 이러한 메타데이터는 바람직하게는 장치에 의해 자동적으로 생성될 수 있다. 본 발명을 이용하여, 비디오 품질을 지시하는 검색 결과를 제공하는 추가적인 이점과 함께, 이벤트로부터의 비디오 자료가 편리하게 검색되고 발견될 수 있으며, 이 경우에 장치의 사용자는 열악한 비디오 항목을 보지 않기로 선택할 수 있다. 비디오 항목과 연관된 태그와 같은 품질 또는 다른 메타데이터는 이미지(예를 들어, 비디오를 캡쳐하기 위해 사용된 이미지 센서 자체), 소리, 위치, 및/또는 가속/관선 센서와 같은 센서로부터 획득된 데이터에 기초하여 생성될 수 있다.The device may provide many other ways of displaying the search results to the user of the device. In an advantageous embodiment, the search results are provided to the user of the device such that the video quality can also be indicated via at least one quality indication parameter, which quality parameter or 'indicator' is a video such as a smartphone, tablet or other terminal device. The data is advantageously determined as metadata via data obtained at least functionally connected to a sensor or communication device of the device from which it is obtained or via a camera device provided in the communication device. Such metadata may preferably be automatically generated by the device. Using the present invention, with the added benefit of providing search results indicative of video quality, video material from events can be conveniently searched and found, in which case the user of the device chooses not to view poor video items. Can be. Quality or other metadata, such as tags associated with video items, may be applied to data obtained from sensors such as images (e.g., the image sensor itself used to capture video), sound, position, and / or acceleration / parallel sensors. Can be generated based on this.

비디오 항목은 현재 전형적으로 디지털, 비디오 파일 또는 클립, 또는 관련 동영상 또는 '촬영' 기간을 지시하는 해당 동영상 항목의 시간적 '길이' 또는 '정도'로 간주될 수 있는 지속 시간과 관련되는 적어도 하나 이상의 비디오 프레임을 하나 이상 포함할 수 있다. 비디오 항목은 특정 프레임 레이트, 또는 샘플링 레이트, 필수적인 것은 아니지만 전형적으로 적어도 약 10 또는 15Hz 내지, 예를 들어 약 25, 50, 100HZ 이상의 범위 내에 있는 샘플링 레이트를 갖는 실질적으로 연속적인 기록의 결과인 것으로 인식될 수 있다. 항목 내 레이트는 정적이거나 동적일 수 있다. 비디오 품질은 유리하게 평가될 수 있고, 바람직하게는 비디오의 세그먼트에 대해 개별적으로 또는 각 비디오 프레임에 대해 개별적으로 지시될 수 있으며, 이는 비디오의 일부만의 품질이 좋거나 좋지 않은 경우 사용자에게 지시할 수 있다는 추가적인 이점을 제공한다. 비디오 품질은 비디오 항목의 2개 이상의 서브 항목의 분석을 통해 평가될 수 있으며, 여기서 서브 항목은 서브 지속 기간과 관련된다. 평가 및 예컨대 관련된 태깅은 녹화 디바이스 또는 예컨대 수신(서버) 장치에 또는 제3자 시스템에 의해 위치될 수 있다. 품질은 평가될 수 있으며, 예를 들어 미리 결정된 스케일로 평가될 수 있어서, 사용자는 품질, 예를 들어 비디오의 세그먼트의 품질의 정도를 알 수 있다. 대안적으로 또는 추가로, 비디오 항목의 평균 품질은 선택적으로 사용자에게 통신될 수 있다. 스케일 또는 품질은 일반적으로 예를 들어, 프레임 레이트, 해상도, 안정성, 초점, 시야 등에 기초하여 평가되고, 보다 광범위하게 채택된 표준 또는 독점 솔루션 및/또는 사용자가 선택할 수 있는 설정에 기초하여 평가된다. The video item is currently at least one video that is typically associated with a digital, video file or clip, or a duration that can be considered as the temporal 'length' or 'degree' of the video or related video item indicating the duration of the shooting. It can contain one or more frames. Recognizing that a video item is the result of a substantially continuous recording having a particular frame rate, or sampling rate, but not necessarily, but typically ranging from at least about 10 or 15 Hz to, for example, about 25, 50, 100 HZ or more. Can be. Rate within an item can be static or dynamic. The video quality can be advantageously assessed, and can preferably be indicated individually for each segment of the video or for each video frame, which can indicate to the user if only part of the video is of good or poor quality. That provides additional benefits. Video quality can be assessed through analysis of two or more subitems of a video item, where the subitem is related to the sub duration. The assessment and associated tagging, for example, can be located at the recording device or at the receiving (server) device or by a third party system. The quality can be evaluated, for example on a predetermined scale, so that the user can know the degree of quality, for example the quality of a segment of the video. Alternatively or in addition, the average quality of the video item may optionally be communicated to the user. Scale or quality is generally assessed based on, for example, frame rate, resolution, stability, focus, field of view, and the like, and based on more widely adopted standard or proprietary solutions and / or user selectable settings.

품질 지시자가 비디오 항목의 하나 이상의 서브 항목에 할당되는 바람직한 실시예에서, 품질이 낮은 하나 이상의 서브 항목을 지시하고 그 이후에 이러한 하나 이상의 서브 항목의 품질을 향상시킬 수 있음으로써 비디오 항목의 품질을 편리하게 향상시키거나 개선시키는 것이 가능하다. 예를 들어, 안정성과 관련된 품질 지시자를 통해, 특정 서브 항목이 안정성을 위해 수정되어야 하고 적절한 수정이 특정 서브 항목에 적용될 수 있다고 결정될 수 있다.In a preferred embodiment in which a quality indicator is assigned to one or more subitems of a video item, the quality of the video item is convenient by indicating one or more subitems of low quality and then improving the quality of such one or more subitems. It is possible to improve or improve. For example, through quality indicators related to stability, it may be determined that a particular subitem should be modified for stability and that appropriate modifications can be applied to that particular subitem.

본 발명을 이용하여, 획득된 비디오 데이터는 인증 목적을 위해 획득된 센서 데이터와 비교될 수 있다. 데이터 간에 불일치가 있는 경우에 두 데이터 중 어느 것이라도 부정확한 것으로 결정될 수 있다. 예를 들어, 모바일 디바이스의 모션 데이터의 분석은 획득된 비디오 데이터로부터 결정될 수 있고, 이는 수신된 센서 데이터와 비교될 수 있으며, 또한 이들 데이터가 일치하여 수신된 컨텐츠를 인증하는 것으로 결정될 수 있다.Using the present invention, the obtained video data can be compared with sensor data obtained for authentication purposes. If there is a mismatch between the data, either of the two data can be determined to be inaccurate. For example, the analysis of the motion data of the mobile device can be determined from the acquired video data, which can be compared with the received sensor data, and these data can also be determined to match the received content.

데이터가 복수의 센서로부터 수신될 수 있는 실시예에서, 수신된 데이터 중 일부는 다른 센서로부터의 센서 데이터에 의해 특정되거나 정밀해질 수 있다. 위치 데이터는 예를 들어 복수의 센서로부터 획득된 데이터를 이용하여 보다 정확하게 이루어질 수 있다.In embodiments in which data may be received from a plurality of sensors, some of the received data may be specified or refined by sensor data from other sensors. The position data can be made more precise, for example using data obtained from a plurality of sensors.

일부 실시예에서, 외부 데이터를 이용하는 것이 가능할 수 있다. 비디오 항목을 검색하기 위해 외부 데이터 소스, 예를 들어, RSS 피드가 또한 자동적으로 이용될 수 있다. 외부 소스는 예를 들어 응급 센터에서 처리하는 이벤트와 관련된 정보를 제공하는 RSS 피드를 제공할 수 있다. 이어서, 그러한 피드 또는 그러한 피드에서 선택된 특정 순간에 대응하는 비디오 항목 검색 결과를 제안할 수 있도록 장치가 구성될 수 있다.In some embodiments, it may be possible to use external data. External data sources, such as RSS feeds, can also be used automatically to retrieve video items. An external source may provide an RSS feed that provides information related to, for example, an event processed by the emergency center. The device may then be configured to suggest video item search results corresponding to that feed or to a particular moment selected from that feed.

본 발명의 실시예는 획득된 센서 데이터/보충 데이터를 통해 획득된 비디오 컨텐츠를 분석 및/또는 해석하는데 사용될 수 있다.Embodiments of the present invention may be used to analyze and / or interpret video content obtained through acquired sensor data / supplementary data.

본 발명의 실시예를 이용함으로써 얻어지는 이점은 또한 컨텐츠를 보충하거나 완성하는 것이 가능할 수 있다는 것이다. 예를 들어, 2개의 비디오 항목이 2개의 상이한 모바일 사용자 디바이스에 의해 동일한 위치에서 동시에 캡쳐된 것으로 결정될 수 있다. 이어서, 다른 모바일 사용자 디바이스를 통해 획득된 비디오 컨텐츠를 보충하기 위해 센서 데이터 및/또는 보충 데이터 및/또는 하나의 모바일 사용자 디바이스로부터 분석된 데이터, 예를 들어, 오디오 데이터를 이용하는 것이 가능할 수 있다.An advantage obtained by using embodiments of the present invention is that it may also be possible to supplement or complete the content. For example, two video items may be determined to be captured simultaneously at the same location by two different mobile user devices. It may then be possible to use sensor data and / or supplemental data and / or data analyzed from one mobile user device, for example audio data, to supplement video content obtained via another mobile user device.

일부 실시예에서, 자동적으로 생성된 메타데이터와 관련될 수 있는 다른 검색 기준이 제공될 수도 있다. 일 실시예에서, 예를 들어, 이미지 분석을 통해 획득된 메타데이터가 이용될 수 있다. 예시적인 사용 시나리오에서, 장치의 사용자는 특정 플레이어가 보이는 스포츠 이벤트와 같은 특정 이벤트에서 촬영된 비디오 자료를 찾고자 할 수 있다. 이는 예를 들어 플레이어의 (성)이름 또는 번호와 같이 사용자의 검색 쿼리에서 지정될 수 있고, 검색 결과에서 장치는 문제의 플레이어가 보이는 이벤트의 비디오 항목을 제공할 수 있으며, 여기서 플레이어 번호는 본질적으로, 예컨대 패턴 인식과 관련된 비디오 영상의 이미지 분석을 통해 검출되고 이는 비디오 메타데이터에 추가된다. In some embodiments, other search criteria may be provided that may be associated with automatically generated metadata. In one embodiment, for example, metadata obtained through image analysis may be used. In an example usage scenario, a user of the device may wish to find video material shot at a particular event, such as a sporting event with a particular player visible. This can be specified in the user's search query, for example, the player's last name or number, and in the search results the device can provide a video item of the event in which the player in question is visible, where the player number is essentially For example, it is detected through image analysis of a video image related to pattern recognition and added to the video metadata.

전술한 예시와 관련하여, 일 실시예에서, 장치는 또한 원한다면 예를 들어 이벤트의 비디오 편집을 생성할 수 있는데, 이러한 비디오 편집은, 예를 들어, 특정 플레이어 또는 팀이 독점적으로 또는 긍정적이거나 부정적인 강조를 특징으로 하는 이벤트의 비디오 편집일 수 있으며, 예를 들어, 플레이어 또는 팀이 보이는 비디오 항목이 컴파일될 수 있다. 또한 다른 자료, 예를 들어 오디오 자료가 비디오 자료와 통합될 수 있다.In connection with the example described above, in one embodiment, the device may also create, for example, a video edit of the event, if desired, such video edit being emphasized exclusively or positively or negatively by a particular player or team, for example. It may be a video editing of an event characterized by, for example, a video item in which the player or team is visible may be compiled. Other materials may also be integrated with the video material, for example audio material.

비디오 편집은 다양한 유형의 자동적으로 생성된 메타데이터를 이용하여 생성될 수 있다. 예를 들어, 이벤트와 관련하여 비디오가 촬영된 방향 또는 각도, 또는 비디오 영상에 보이는 특정 객체가 고려될 수 있다. 일 실시예에서, 비디오 품질은 비디오 항목의 서브 항목에 대해 개별적으로 평가될 수 있다. 이후에 잠재적 이점은, 예를 들어, 사용자-결정된 기준에 따라 고품질 또는 충분한 비디오 서브 항목만을 갖는 비디오 편집이 생성될 수 있다는 것이다. Video editing can be created using various types of automatically generated metadata. For example, in relation to the event, the direction or angle at which the video is captured, or a specific object visible in the video image may be considered. In one embodiment, video quality may be evaluated separately for subitems of video items. A potential advantage thereafter is that video edits can be created having only high quality or sufficient video subitems, for example, according to user-determined criteria.

상술한 이점은 비디오 검색을 수행하는 데 요구되는 시간을 실질적으로 크게 감소시킬 수 있다. 사용자에 의해 주어진 기준을 포함하는 검색 쿼리와 같은 사용자 입력에 응답하여, 비디오 편집이 심지어 동적으로, 경우에 따라서는 실질적으로 실시간 방식으로 자동적으로 생성될 수 있기 때문에 인력 및 계산 리소스가 절약될 수 있다. The above-described advantages can substantially reduce the time required to perform a video search. In response to user input, such as a search query that includes a criterion given by the user, manpower and computational resources can be saved because video editing can be generated automatically, even dynamically, in some cases substantially in real time. .

일부 실시예에서, 장치는 개인 사용자에 의해 이용될 수 있는 반면에, 일부 다른 실시예에서 리포터 또는 뉴스 방송국과 같은 전문 사용자는 배포, 출판, 또는 다른 목적을 위해 이벤트의 비디오 자료를 획득할 수 있다. 장치를 통해 관련성이 높고 고품질의 영상을 빠르고 쉽게 얻을 수 있다. 또한, 뉴스 제작 과정에서 리포터가 비디오 영상을 획득하기 위해 특정 위치로 이동할 필요가 없기 때문에 필요한 시간과 필요한 비용이 감소될 수 있다. 예를 들어, 비디오 영상을 촬영하는 최상의 각도 또는 방향이 장치를 통해 또한 발견될 수 있다.In some embodiments, the device may be used by an individual user, while in some other embodiments a professional user, such as a reporter or news station, may obtain video material of an event for distribution, publication, or other purposes. . The device makes it fast and easy to obtain relevant, high-quality images. In addition, since the reporter does not need to move to a specific location to acquire a video image during the news production process, the required time and required cost can be reduced. For example, the best angle or direction of taking a video image can also be found through the device.

또한, 이벤트로 인해 실수로 얻은 비디오 자료, 아마도 예기치 않은 자료를 검색할 수도 있다. 이러한 기능은 예를 들어 법 집행 기관에서 가능한 범죄 사건을 조사하거나 범죄를 저지른 것으로 의심되는 개인을 검색하기 위해 이용될 수 있다. 그러나, 예를 들어, 소방대 또는 기타 비상 유닛은 직무 수행 시 이용 가능한 데이터를 활용할 수 있다.You can also search for video material, perhaps unexpected, that you accidentally get from the event. This function can be used, for example, to investigate possible criminal cases in law enforcement or to search for individuals suspected of committing a crime. However, for example, fire brigade or other emergency units may utilize available data in performing their duties.

본 발명의 실시예는 뉴스 제공자 또는 임의의 다른 개인이나 기업 당국이 비디오 컨텐츠를 구매하거나 일반적으로 획득하기 위한 신규한 방법을 제공할 수 있다. 이러한 장치의 실시예를 통해, 사용자는 비디오 컨텐츠의 접근 권한 또는 배타적 권리를 획득할 수 있고, 컨텐츠 업로더에게 지불을 수행하는 방법이 수행될 수 있다. 컨텐츠에 대한 독점권을 구매하거나 달리 발행되는 경우, 해당 컨텐츠는 데이터베이스에서 제거될 수 있다.Embodiments of the present invention may provide a novel method for news providers or any other individual or business authorities to purchase or generally obtain video content. Through an embodiment of such an apparatus, a user may obtain access rights or exclusive rights for video content, and a method of performing a payment to a content uploader may be performed. If an exclusive right to the content is purchased or otherwise issued, the content may be removed from the database.

액세스 하기 위한 권리나 배타적인 권리의 가격은 다른 실시예에서, 예를 들어, 경매, 또는 비디오 컨텐츠 및/또는 품질 분석에 기초한 장치에 의해 자동적으로 결정될 수 있는 가격을 통해 결정될 수 있다. 대안적으로 또는 추가적으로, 다른 파라미터들도 가격에 영향을 미칠 수 있는데, 예를 들어, 가능한 검색어 통계에 기초하여 추정될 수 있는 문제가 되는 비디오 항목의 일반적인 인기도 또는 수요와 같은 것도 가격에 영향을 미칠 수 있다. The price of the right to access or the exclusive right may be determined in another embodiment via a price that may be automatically determined by the device, for example, based on auction, or video content and / or quality analysis. Alternatively or additionally, other parameters may also affect the price, such as the general popularity or demand of the video item in question, which can be estimated based on possible query statistics, for example. Can be.

장치에 대한 다른 사용자 권한이 다른 사용자 프로필 카테고리와 함께 제공될 수도 있다. 예를 들어, 사용자는 무료로 사용자 프로필을 획득할 수 있으며, 그리고 예를 들어, 미리 결정된 위치에서만, 획득된 비디오 컨텐츠를 검색하기 위해 더 제한된 가능성이 제공될 수 있다. 이용 가능한 검색 위치 또는 다른 검색 기준이 확장되는 사용자 프로필에 대해 요금, 예를 들어, 월별 요금이 청구될 수 있다.Other user rights for the device may be provided along with other user profile categories. For example, a user may obtain a user profile for free, and more limited possibilities may be provided for retrieving acquired video content, for example only at predetermined locations. You may be charged a fee, for example a monthly fee, for a user profile in which available search locations or other search criteria are expanded.

본 발명의 실시예를 통해, 특정 이벤트, 위치, 또는 인스턴스가 차단될 수 있어서, 사용자 그룹 또는 임의의 사용자는 이벤트 또는 위치에서 또는 특정 인스턴스에서 획득된 비디오 자료에 액세스하지 못할 수 있다. 차단은 일시적이거나 영구적일 수 있으며, 수동으로 (예를 들어, 장치의 운영자에 의해) 또는 외부 소스를 통해 얻은 정보 또는 트리거에 기초하여 자동적으로 결정될 수 있다. 예를 들어, 사고 현장은 (자동적으로 또는 수동적으로) 비상 대응 센터를 통해 보고될 수 있으며, 그 결과 비상 현장 및 선택적으로 인접한 지역은, 예를 들어 윤리적인 고려 사항으로 인해 장치에 의해 자동적으로 차단될 수 있으며, 및/또는 대안적으로, 구체적으로 모니터링할 위치로 설정될 수 있다. Through embodiments of the present invention, certain events, locations, or instances may be blocked such that a user group or any user may not have access to video material obtained at the event or location or at a particular instance. Shutdown may be temporary or permanent, and may be determined automatically based on triggers or information obtained manually (eg by the operator of the device) or through an external source. For example, an accident site can be reported (either automatically or manually) through an emergency response center, so that the emergency site and optionally adjacent areas are automatically blocked by the device, for example due to ethical considerations. And / or alternatively, it may be specifically set to a location to monitor.

다른 양태에서, 본 발명은 선택적으로 녹화 단말기의 설정에 따라, 또는 예를 들어 이와 연관된 사용자 계정에 따라 비디오 항목을 서버에 자동적으로 업로드하기 위한 수단을 제공할 수 있다. 원하는 경우, 특정 디바이스를 사용하여 촬영한 모든 비디오를 불필요한 지연 없이 자동적으로 서버에 업로드할 수 있다. 이러한 방식으로, 비디오 항목을 선택적으로 실시간으로 간단히 검색할 수 있으며, 비디오 자료 업로드를 수동으로 트리거해야 한다는 것을 기억할 필요가 없다. 일 실시예에서, 모바일 디바이스를 위한 어플리케이션이 제공될 수 있고, 어플리케이션이 실행되는 동안 또는 디바이스가 특정 모드 또는 상태, 예를 들어 활성 상태에 있는 동안 디바이스에 의해 캡쳐된 모든 비디오 자료가 서버에 자동적으로 업로드될 수 있다.In another aspect, the present invention may optionally provide a means for automatically uploading a video item to a server according to the settings of the recording terminal or, for example, according to a user account associated therewith. If you want, you can automatically upload all the videos you take using a particular device to the server without unnecessary delay. In this way, video items can be selectively retrieved simply in real time, without having to remember to manually trigger video material upload. In one embodiment, an application for a mobile device may be provided, wherein all video material captured by the device while the application is running or while the device is in a particular mode or state, for example an active state, is automatically provided to the server. Can be uploaded.

예를 들어, 메타데이터의 자동 초기 태깅은 예를 들어, 이미지 분석 방법을 통해 수행된 자동 초기 태깅은 외부 데이터 리소스를 사용하여 수정, 조정 또는 달리 변경될 수도 있다. 예를 들어, 마라톤의 경우, 영상이 실제로 "28"의 번호를 가진 경쟁자인 경우에, 장치는 경쟁자 번호 "26"을 참조하는 태그를 비디오 영상에 잘못 할당할 수도 있다. 마라톤에 대한 타이밍 결과 기록이 제공될 수 있으며, 일부 경우에 비디오 영상을 캡쳐할 때 경쟁자 "26"이 해당 위치에 있지 않음을 확인하는 것이 가능할 수 있다. 이 경우, 장치는 메타데이터/태깅 할당이 원래 잘못되었다고 결정할 수 있고, 이미지 분석을 통해 연관된 태그가 경쟁자 "28"을 참조하도록 수정될 수 있다.For example, automatic initial tagging of metadata may be modified, adjusted or otherwise changed using external data resources, for example, automatic initial tagging performed through an image analysis method. For example, in the case of a marathon, if the picture is actually a competitor with the number " 28 ", the device may incorrectly assign a tag referring to the competitor number " 26 " to the video picture. A recording of timing results for the marathon may be provided, and in some cases it may be possible to confirm that the competitor “26” is not at that location when capturing the video image. In this case, the device may determine that the metadata / tagging assignment was originally wrong, and through the image analysis, the associated tag may be modified to refer to the competitor “28”.

다양한 유리한 특징을 포함하는 사용자 인터페이스를 갖는 어플리케이션이 장치의 사용자의 디바이스에 제공될 수 있다. 예를 들어, 컨텐츠 제공 사용자에 대해, 비디오 컨텐츠가 쉽게 캡쳐될 수 있는 사용자 인터페이스(UI)가 제공될 수 있다. 사용자 인터페이스는 비디오 녹화를 개시 또는 종료하도록 조작될 수 있는 다기능 녹화 버튼을 포함할 수 있고, 또한 추가로 실시간으로 녹화되고 있거나 주어진 순간에 녹화될 수 있는 비디오와 관련된 정보를 컨텐츠 제공 사용자와 통신한다.An application having a user interface that includes various advantageous features may be provided to a device of a user of the apparatus. For example, for a content providing user, a user interface (UI) may be provided in which video content can be easily captured. The user interface may include a multifunction recording button that may be manipulated to initiate or end video recording, and further communicates information to the content providing user regarding video that is being recorded in real time or that may be recorded at a given moment.

다기능 녹화 버튼 또는 유사한 UI 특징은 또한 컨텐츠 제공 사용자에 의해 영리하게 또는 자동적으로, 예를 들어, 녹화 디바이스의 스크린 상의 원하는 위치에 배치될 수 있다. 이는 녹화 버튼이 항상 컨텐츠 제공 사용자를 위한 최적의 위치에 위치될 수 있다는 것을 보장하고, 여기서 최적의 위치는, 예를 들어 컨텐츠 제공 사용자의 손가락의 길이 또는 손에 의존할 수 있다. The multi-function record button or similar UI feature may also be placed cleverly or automatically by the content presenting user, for example at a desired location on the screen of the recording device. This ensures that the record button can always be located at the optimal location for the content presenting user, where the optimal location may depend, for example, on the length or hand of the content presenting user's finger.

일 실시예에서, 다기능 녹화 버튼은 또한 컨텐츠 제공 사용자에 의해 크기 조정(확대, 축소, 및/또는 달리 확장)될 수 있다. 다기능 녹화 버튼은 (사용자) 선호도에 따른 크기로 설정될 수 있거나, 또는 예를 들어 컨텐츠 제공 사용자가 녹화 디바이스의 원하는 가시성을 갖는 것을 보장하기 위해 크기가 조정될 수 있으며, 이 경우 버튼의 크기는 예를 들어 화면 또는 윈도우 크기의 선택된 한계를 초과하지 않아야만 한다. In one embodiment, the multifunction record button may also be scaled (zoom in, zoomed out, and / or otherwise expanded) by the content presenting user. The multi-function record button can be set to a size according to the (user) preference or can be resized, for example, to ensure that the content providing user has the desired visibility of the recording device, in which case the size of the button For example, it must not exceed the selected limit of screen or window size.

일 실시예에서, 사용자 인터페이스를 사용하여, 검색 사용자는 시간 및 위치(예를 들어, 위치-특정 목표 이벤트의 표시 또는 주소, 좌표, 도시 또는 지역 이름의 보다 정확한 표시)를 가진 검색 쿼리를 제공한 후, 주어진 위치의 근처에서 제공된 시간에 비디오가 캡쳐한 지도를 볼 수 있다. 비디오가 촬영된 관점 또는 방향 및/또는 품질, 또는 비디오의 관점은 또한 검색 사용자에게 통신될 수 있다. 사용자 인터페이스는 검색 사용자에 의해 조정될 수 있는 타임라인을 포함할 수 있으며, 타임라인의 조작은 검색 사용자가 전술한 맵을 통해 맵 영역에서 이용 가능한 비디오와 관련하여 제공된 정보의 시간에 따른 변화를 볼 수 있도록 하는 결과를 야기할 수 있다. 일 실시예에서, 사용자 인터페이스는 타임라인에서 주어진 시간에 맵에 지시된 하나 이상의 비디오를 추가로 보여줄 수 있다. 비디오가 재생되고 타임라인이 진행되도록 허용될 수 있는 동안, 맵 보기 변화는 그에따라 변한다. 검색 사용자는 또한 검색 쿼리를 통해 표시된 시간 부근에서 원하는 시간에 대응하는 비디오 프레임 및/또는 맵 구성을 보기 위해 타임라인을 조작할 수 있다. 일부 실시예에서, 시간 및 위치는 또한 검색 쿼리가 제공된 후 검색 사용자에 의해 선택되거나 변경될 수 있다.In one embodiment, using a user interface, a search user provides a search query with time and location (e.g., a representation of a location-specific target event or a more accurate representation of an address, coordinates, city or region name). Then, you can see the map captured by the video at the given time near the given location. The point of view or direction in which the video was taken and / or the quality, or the point of view of the video, may also be communicated to the search user. The user interface may include a timeline that can be adjusted by the search user, the manipulation of the timeline being such that the search user can see the change over time of the information provided in relation to the video available in the map area via the map described above. Can cause results. In one embodiment, the user interface may further show one or more videos directed to the map at a given time in the timeline. While the video can be played and the timeline can be allowed to progress, the map view changes accordingly. The search user may also manipulate the timeline to view the video frame and / or map configuration corresponding to the desired time near the time indicated through the search query. In some embodiments, the time and location may also be selected or changed by the search user after the search query is provided.

청구범위 및 발명의 설명은 본 발명을 동시에 또는 상이한 시간에 이용할 수 있는 검색 또는 컨텐츠 제공의 사용자의 수에 제한을 두지 않는다. 주어진 시간에, 여러명의 사용자가 존재하거나, 또는 하나의 사용자, 또는 한 명의 사용자도 없을 수 있다. 기술적 관점에서, 개시된 장치는 선택적으로 동적으로, 예를 들어, 클라우드, 그들의 사용자에게 서비스를 제공하기 위해 요구되는 처리, 저장, 및 통신 용량의 관점에서 필요한 하드웨어로부터 배치될 수 있다. The claims and description of the invention do not limit the number of users of search or content provisioning that can use the invention simultaneously or at different times. At a given time, there may be several users, or there may not be one user or one user. From a technical point of view, the disclosed apparatus may optionally be deployed dynamically, eg, from the hardware required in view of the processing capacity, storage, and communication capacity required to provide services to their users.

본원에서 "시간"이라는 용어는 특정 날짜 상의 (예를 들어, 분당 또는 초당) 정확한 시간 또는 다른 시간으로부터의 미리 결정된 시간 제한 내의 시간과 같은 시간 간격을 지칭할 수 있다. "위치"라는 용어는 좌표와 같은 특정 위치, 또는 예를 들어, 도시나 특정 위치로부터 미리 결정된 거리 내에 존재하는 것으로 특정될 수 있는 영역과 같은 영역을 지칭할 수 있다. The term “time” herein may refer to a time interval such as a time within a predetermined time limit from an exact time (eg, per minute or per second) on another date or from another time. The term “location” may refer to a specific location, such as coordinates, or an area, such as an area, which may be specified to exist within a predetermined distance, for example, from a city or a specific location.

"복수"라는 용어는 본원에서 2개 이상을 지칭한다. "개수"라는 용어는 하나 이상을 지칭한다.The term "plurality" refers to two or more herein. The term "number" refers to one or more.

본 명세서에 제시된 예시적인 실시예는 첨부된 청구 범위의 적용 가능성을 제한하는 것으로 해석되지 않아야 한다. 본원에서 "포함하다"라는 동사는 인용되지 않은 특징의 존재를 배제하지 않는 공개적인 제한으로서 사용된다. 청구범위에 인용된 특징들은 달리 명시적으로 언급되지 않는 한 상호 간에 자유롭게 조합 가능하다.The illustrative embodiments presented herein are not to be construed as limiting the applicability of the appended claims. The verb “comprises” is used herein as a public limitation that does not exclude the presence of features not cited. The features recited in the claims are freely combinable with one another unless expressly stated otherwise.

본 발명의 특징으로 간주되는 신규한 특징들은 특히 첨부된 청구범위에 기재되어 있다. 그러나, 본 발명 자체의 추가적인 목적 및 장점과 함께, 그 구성 및 동작 방법에 관해서는 첨부 도면과 관련하여 읽는 경우에 이하의 특정 예시적인 실시예의 설명으로부터 가장 잘 이해될 것이다.The novel features regarded as features of the invention are described in particular in the appended claims. However, with respect to the additional object and advantages of the present invention itself, its configuration and operation method will be best understood from the following description of specific exemplary embodiments when read in conjunction with the accompanying drawings.

장치의 다양한 실시예들에 관한 앞서 제시된 고려 사항들은 통상의 기술자에 의해 이해되는 바와 같이, 방법의 실시예들에 유연하게 적용될 수 있으며, 그 반대도 마찬가지이다.The considerations set forth above with respect to various embodiments of the apparatus may be flexibly applied to embodiments of the method, as understood by those skilled in the art, and vice versa.

이하에서, 본 발명은 첨부 도면에 따른 예시적인 실시예를 참조하여 보다 상세하게 기술될 것이다.
도 1은 본 발명의 일 실시예에 따른 예시적인 구성을 도시하고,
도 2는 본 발명의 일 실시예에 따른 제1 사용자 인터페이스의 예시적인 어플리케이션 뷰를 도시하며,
도 3은 본 발명의 일 실시예에 따른 제2 사용자 인터페이스의 예시적인 어플리케이션 뷰를 도시하고,
도 4는 본 발명의 실시예에 따른 방법에서 실행될 수 있는 단계를 도시한다.
In the following, the invention will be described in more detail with reference to exemplary embodiments according to the accompanying drawings.
1 illustrates an exemplary configuration in accordance with one embodiment of the present invention,
2 illustrates an example application view of a first user interface in accordance with an embodiment of the present invention;
3 illustrates an example application view of a second user interface in accordance with an embodiment of the present invention;
4 illustrates steps that can be executed in a method according to an embodiment of the invention.

도 1은, 예를 들어 본 발명의 일 실시예에 따른 비디오의 배포를 위한 네트워크 서비스를 구현하기 위한, 하나 이상의 서버 컴퓨터 및/또는 다른 네트워크 측 요소를 선택적으로 포함하는 예시적인 장치(100)를 포함한다. 1 illustrates an example apparatus 100 that optionally includes one or more server computers and / or other network-side elements, for example, for implementing network services for the distribution of video in accordance with one embodiment of the present invention. Include.

보다 구체적으로, 장치(100)는, 컨텐츠 제공 사용자 디바이스인 제1 사용자 디바이스(104)로부터 비디오 항목을 수신하는 프로세서(102)를 포함하고, 사용자 디바이스(104)는 모바일 폰 또는 태블릿과 같은 모바일 디바이스일 수 있다. 다른 실시예에서, 비디오 파일, 또는 '클립'과 같은 준비된 캡쳐된 완전 항목들은 캡쳐 단계 후에 수신될 수 있는 반면, 일부 실시예에서, 비디오 항목은, 예를 들어, 캡쳐하는 동안 실질적으로 실시간 방식으로, 스트림으로서 디바이스(104)로부터 수신될 수 있다. 프로세서(102)는 실제로 적어도 하나의 원격 서버에 상주할 수 있고, 비디오 항목의 수신은, 예를 들어, 서버 또는 프로세서(102)와 사용자 디바이스(104) 사이의 적어도 부분적으로 무선 통신을 이용하여 실현될 수 있다. 예를 들어, 적어도 하나의 데이터베이스(122), 서버, 또는 일반적으로는 장치(100)에 데이터를 저장하기 위해, 메모리를 포함할 수 있고, 통신 목적을 위해, 무선 또는 유선 트랜시버, 예를 들어, LAN(local area network) 네트워크에서 동작 가능한 트랜시버와 같은 통신 인터페이스를 포함할 수 있다. 실제로, 장치(100)는 인터페이스를 통해 인터넷과 같은 통신 네트워크에 연결될 수 있으며, 여기서 디바이스(104)는 또한 관련된 무선, 선택적으로는 셀룰러 또는 Wi-Fi 유형 네트워크의 무선 링크를 통해 액세스할 수 있다. More specifically, the apparatus 100 includes a processor 102 that receives a video item from a first user device 104 that is a content providing user device, and the user device 104 includes a mobile device such as a mobile phone or tablet. Can be. In other embodiments, ready captured complete items, such as video files, or 'clips' may be received after the capture step, while in some embodiments, the video items are, for example, in a substantially real time manner during capture. May be received from device 104 as a stream. The processor 102 may actually reside on at least one remote server, and the receipt of a video item is realized using, for example, wireless communication at least partially between the server or processor 102 and the user device 104. Can be. For example, it may include a memory for storing data in at least one database 122, server, or device 100 in general, and for communication purposes, wireless or wired transceivers, for example, It may include a communication interface, such as a transceiver operable in a local area network (LAN) network. Indeed, the device 100 may be connected to a communication network, such as the Internet, via an interface, where the device 104 may also be accessible via a wireless link of an associated wireless, optionally cellular or Wi-Fi type network.

프로세서, 메모리 및 인터페이스(예를 들어, 무선 트랜시버) 이외에, 제1 사용자 디바이스(104)는 또한 복수의 센서, 적어도 카메라(106)(적외선 주파수와 같이 가시적 및/또는 비가시적을 캡쳐하는 이미지 센서; 후자는, 예컨대 온도 추정 및/또는 열-기반 물체/대상 위치 결정 목적을 위한 열적 이미지를 제공할 수 있음) 및 추가로 다른 센서, 예컨대 자력계(108), 가속도계(110), 마이크로폰(112), GPS 센서(114), 및/또는 자이로스코프(116), 또는 여전히 추가 관성 센서를 포함한다. 추가로 적용 가능한 센서는, 예를 들어, 온도, 습도, 및 압력 센서를 포함한다. 제1 사용자 디바이스(104)의 센서들로부터의 센서 데이터(비디오 항목을 캡쳐할 때 획득되고 비디오 항목에서 캡쳐 순간과 연관되거나 또는 일반적인 비디오 항목과 연관된, 가능하다면 특정 데이터 항목에 따른 센서 데이터)는 프로세서(102)에 의해 수신될 수 있다. 추가적으로, 다른 데이터는 비디오 항목과 관련된 시간적 데이터(캡쳐 시간, 지속 기간 등)과 같은 제1 사용자 디바이스(104)를 통해 프로세서(102)에 의해 수신될 수 있다.In addition to a processor, memory and interface (eg, wireless transceiver), the first user device 104 may also include a plurality of sensors, at least a camera 106 (image sensor that captures visible and / or invisible, such as infrared frequency; The latter may provide thermal images, for example for temperature estimation and / or heat-based object / target positioning purposes) and further other sensors such as magnetometer 108, accelerometer 110, microphone 112, GPS sensor 114, and / or gyroscope 116, or still additional inertial sensors. Further applicable sensors include, for example, temperature, humidity, and pressure sensors. Sensor data from the sensors of the first user device 104 (sensor data obtained when capturing a video item and associated with a capture moment in the video item or associated with a general video item, possibly according to a particular data item) is processed by the processor. May be received by 102. In addition, other data may be received by the processor 102 via the first user device 104, such as temporal data (capture time, duration, etc.) associated with the video item.

일부 실시예에서, 장치는 추가로 또는 대안적으로 하나 이상의 보조 컨텐츠 제공 장치 또는 보조 사용자 디바이스(105)를 포함할 수 있다.In some embodiments, the apparatus may additionally or alternatively include one or more auxiliary content providing apparatus or auxiliary user device 105.

제1 사용자 디바이스(104)의 외부에 있는 하나 이상의 디바이스(105)는, 데이터를 획득하고 유선 또는 무선 통신을 통해 제1 사용자 디바이스(104)에 데이터를 전송하는 하나 이상의 센서를 포함할 수 있는데, 데이터는, 예를 들어 스트림 또는 스트림 또는 미리-캡쳐된 완전한 항목(예를 들어, 파일)으로서 전송할 수 있다. 이어서, 제1 사용자 디바이스(104)는 (그와 같이 또는 적응된 형태로) 데이터 및 가능하다면 다른 데이터를, 예를 들어, 제1 사용자 디바이스(104)에 포함된 센서로부터 프로세서(102)로 전송할 수 있다.One or more devices 105 external to the first user device 104 may include one or more sensors that acquire data and transmit data to the first user device 104 via wired or wireless communication, The data may be transmitted, for example, as a stream or as a stream or as a pre-captured complete item (eg a file). The first user device 104 then transmits (as such or in adapted form) data and possibly other data, for example, from a sensor included in the first user device 104 to the processor 102. Can be.

일부 실시예에서, 하나 이상의 보조 디바이스(105)는 추가로 또는 대안적으로 그의 하나 이상의 센서로부터 프로세서(102)로 데이터를 바로 전송할 수 있다.In some embodiments, one or more secondary devices 105 may additionally or alternatively directly transmit data from one or more sensors thereof to processor 102.

예시로서, 드론, 다른 무인, 선택적으로는 공중, 차량 또는 일반적으로 일부 다른 유형의 센서/카메라 운반(사용자) 디바이스는 비디오 데이터 및 선택적으로 센서 데이터와 같은 추가 데이터를 공급하는데 사용될 수 있다. 항목은 제1 사용자 디바이스(104)로 전송될 수 있다. 따라서, 연결된 비디오 캡쳐 디바이스(105)로부터 원래 잠재적으로 획득된 이러한 데이터는 제1 사용자 디바이스(104)를 통해 프로세서(102)에 의해 수신될 수 있다.As an example, drones, other unmanned, optionally aerial, vehicle or generally some other type of sensor / camera carrying (user) devices may be used to supply additional data such as video data and optionally sensor data. The item may be sent to the first user device 104. Thus, such data originally potentially obtained from the connected video capture device 105 may be received by the processor 102 via the first user device 104.

일 실시예에서, 장치(100)는 제1 사용자 디바이스(104)와 연결된 제1 사용자 어플리케이션(118)을 포함한다. 제1 사용자 어플리케이션(118)은 제1 사용자 인터페이스(120)를 제공할 수 있으며, 이는 제1 사용자 디바이스(104)에 의해 비디오 컨텐츠의 녹화를 가능하게 하고, 획득되는 비디오 컨텐츠 및/또는 센서 데이터에 관한 정보를 제공할 수 있다. In one embodiment, the apparatus 100 includes a first user application 118 connected with the first user device 104. The first user application 118 can provide a first user interface 120, which enables the recording of video content by the first user device 104, and the video content and / or sensor data obtained. Information can be provided.

제1 사용자 디바이스(104)는 일부 실시예에서, 비디오 데이터 및 보충 데이터를 획득하고 그러한 데이터를 예컨대 메모리 카드를 통해 프로세서(102)에 제공하도록 구성된 카메라, 예를 들어 단일 렌즈 반사 또는 미러리스 교환 가능한-렌즈 카메라일 수 있다. 메모리 카드는 전술한 데이터를 프로세서(102)에 보내도록 구성될 수 있으며, 예를 들어 무선 수단을 통해 보낼 수 있다. 이 실시예에서, 장치(100) 및 관련 발명은, 제1 사용자 디바이스(104)를 통해 이용될 수 있으며, 이는 예를 들어, 본질적으로 장치(100)에 포함되는 어플리케이션을 포함한다. 메모리 카드는 카메라와 같은 복수의 제1 사용자 디바이스(104)가 장치(100)와 함께 이용될 수 있게 할 수 있다.The first user device 104 may, in some embodiments, be configured to acquire video data and supplemental data and provide such data to the processor 102 via, for example, a memory card, for example a single lens reflective or mirrorless exchangeable. It may be a lens camera. The memory card may be configured to send the data described above to the processor 102, for example via wireless means. In this embodiment, the apparatus 100 and related invention may be utilized via the first user device 104, which includes, for example, an application that is essentially included in the apparatus 100. The memory card may enable a plurality of first user devices 104, such as a camera, to be used with the apparatus 100.

제1 사용자 디바이스(104)로부터 수신된 비디오 항목은 프로세서(102)가 액세스할 수 있는 데이터베이스(122)에 저장될 수 있고, 이 둘은 서버 장치에 포함될 수 있다.Video items received from the first user device 104 may be stored in a database 122 that the processor 102 may access, both of which may be included in the server apparatus.

프로세서(102)는 제1 사용자 디바이스(104)를 통해 수신된 데이터를 사용하여 적어도 하나의 수신된 비디오 항목의 자동 태깅(예컨대, 검색될 수 있는 키워드 또는 다른 기술어 할당)을 수행하도록 구성될 수 있다. 본원에서, 데이터는 제1 사용자 디바이스(104)의 센서를 통해 획득된 데이터 및 추가적으로 비디오 항목과 관련하여 제1 사용자 디바이스(104)로부터 수신될 수 있는 다른 데이터, 예컨대 비디오 항목이 캡쳐된 시간에 관한 데이터를 지칭할 수 있다. 유리한 실시예에서, 적어도 시간은 비디오 컨텐츠와 관련된 메타데이터 파일, 필드, 부분 또는 다른 데이터 요소에 추가되는데, 즉, 비디오 항목은 적어도 일시적인 정보로 태깅된다.The processor 102 may be configured to perform automatic tagging (eg, searchable keyword or other descriptor assignment) of at least one received video item using data received via the first user device 104. have. Herein, the data may refer to data obtained via a sensor of the first user device 104 and additionally other data that may be received from the first user device 104 in connection with the video item, such as the time when the video item was captured. May refer to data. In an advantageous embodiment, at least time is added to the metadata file, field, portion or other data element associated with the video content, ie the video item is tagged with at least temporary information.

프로세서(102)는 센서 데이터 분석 모듈(124)을 포함하거나 이에 액세스할 수 있으며, 이는 수신된 비디오 항목 또는 다른 데이터 컨텐츠를 분석하는데 사용될 수 있고, 추가적으로 자동 태깅에 이용될 수도 있다. 대안적으로 또는 추가적으로, 일부 태깅이 사용자 디바이스(104)에서 발생할 수 있다. 센서 데이터 분석 모듈은 수신된 비디오 항목과 연관된 상이한 유형의 센서 데이터 또는 메타데이터를 분석하기 위한 수단을 포함할 수 있다.Processor 102 may include or access sensor data analysis module 124, which may be used to analyze received video items or other data content, and may further be used for automatic tagging. Alternatively or additionally, some tagging may occur at the user device 104. The sensor data analysis module may include means for analyzing different types of sensor data or metadata associated with the received video item.

예를 들어, GPS 센서(114)로부터의 정보는 비디오 항목이 캡쳐된 위치를 결정하는데 사용될 수 있다. 유리한 실시예에서, 시간 정보에 추가하여, 수신된 비디오 자료는 GPS 센서(112)를 통해 수신된 데이터, 즉, 비디오 컨텐츠가 캡쳐된 위치에 관한 정보로 자동 태깅될 수 있다. GPS와 같은 센서 기반 데이터가 그대로 태그에 포함될 수 있고, 및/또는 더 높은 레벨의 위치 데이터가, (시간적/시간 데이터와 상이한 이벤트와 그의 위치에 관란 스케쥴 데이터가 조합되는 경우) 예를 들어, 주소, 랜드마크, 지역, 빌딩, 도시, 국가, 및/또는 이벤트 데이터와 같은 것으로부터 도출될 수 있다.For example, information from the GPS sensor 114 can be used to determine where the video item was captured. In an advantageous embodiment, in addition to the time information, the received video material may be automatically tagged with data received via the GPS sensor 112, ie information about where the video content was captured. Sensor-based data, such as GPS, may be included in the tag as it is, and / or higher level location data may be, for example, addressed when events differ from temporal / time data and schedule data associated with their location. , Landmarks, regions, buildings, cities, countries, and / or event data.

카메라(106), 자력계(108), 및/또는 가속계(110), 및/또는 자이로스코프(116)와 같은 센서로부터의 센서 데이터는 센서 데이터 분석 모듈(124)에 의해 분석될 수 있어서, 예를 들어, 시야 또는 시야각, 또는 캡쳐된 비디오 컨텐츠를 '시청하는 방향'에 관련된 메타데이터 및 메타데이터 기반 태그를 생성할 수 있다.Sensor data from sensors such as camera 106, magnetometer 108, and / or accelerometer 110, and / or gyroscope 116 may be analyzed by sensor data analysis module 124, for example. For example, metadata and metadata-based tags related to the field of view or viewing angle, or the 'viewing direction' of the captured video content can be generated.

일부 실시예에서, 센서 데이터는 비디오 자료의 품질을 지시하는 메타데이터를 결정하는데 사용될 수 있다. 장치(102)는 센서 데이터 분석 모듈(124)을 통해, 예를 들어, 비디오 자료를 캡쳐하는 도중에 제1 사용자 디바이스(104)가 흔들리고 있다면, 이를 결정할 수 있다. 이러한 정보는 태깅에 이용될 수 있다. 일부 실시예에서, 전술한 정보는 또한 예를 들어 안정화 알고리즘에 의해 비디오 품질을 자동적으로 향상시키기 위해 사용될 수 있다. 추가적으로 또는 대안적으로, 일부 실시예에서, 이미지 분석에 기초하여 캡쳐된 비디오 데이터로부터 직접 흔들림이 검출될 수 있다.In some embodiments, sensor data may be used to determine metadata that indicates the quality of the video material. The apparatus 102 may determine via the sensor data analysis module 124 if, for example, the first user device 104 is shaking while capturing video material. This information can be used for tagging. In some embodiments, the above information may also be used to automatically improve video quality, for example by a stabilization algorithm. Additionally or alternatively, in some embodiments, shake can be detected directly from the captured video data based on image analysis.

비디오 해상도, 밝기 및/또는 어큐턴스(acutance) (선명도)와 같은 다른 품질 연관된 데이터 또는 유사한 파라미터는 또한 비디오 항목 및/또는 이와 연관된 센서 데이터의 분석을 통해 장치(100)에 의해 결정될 수 있다. 파라미터는, 예를 들어, 비디오 항목의 품질을 지시하기 위해 채용될 수 있는 스케일 또는 다른 기준의 특성값을 결정하기 위해 추가로 분석될 수 있다. 비디오 항목은 또한 검색 및/또는 편집 목적으로 각각의 품질 정보로 태그될 수 있다.Other quality associated data or similar parameters such as video resolution, brightness and / or acuity (clarity) may also be determined by the device 100 through analysis of the video item and / or sensor data associated therewith. The parameter may be further analyzed to determine, for example, a characteristic value of a scale or other criterion that may be employed to indicate the quality of the video item. Video items may also be tagged with respective quality information for search and / or editing purposes.

바람직하게는, 하나 이상의 품질 파라미터는 항목 전체에 관한 일반적인 파라미터에 부가하여 또는 그 대신에 비디오 서브 항목에 대해 평가될 수 있다. 예를 들어, 비디오 항목은 시간 지속 기간과 관련될 수 있고, 시간적 지속 기간과 관련될 수 있는 둘 이상의 서브 항목으로 분할될 수 있다. 이들 서브 지속 시간은 서로 같거나 다른 길이(지속 기간)일 수 있다. 예를 들어, 서브 항목은 비디오 세그먼트 또는 비디오 프레임일 수 있다. 일부 실시에에서, 디바이스(104) 또는 프로세서(104)는 예를 들어, 기본 비디오 또는 관련된 센서 데이터의 인식된 비디오(이미지) 컨텐츠, 품질, 및/또는 다른 파라미터에 기초하여 서브 항목으로 분할하도록 구성될 수 있다. 일부 다른 실시예에서, 서브 항목은 사용자 입력에 응답하여 자동적으로 생성될 수 있으며, 예를 들어, UI를 통해 사용자에 의해 지시된 각각의 녹화 일시 정지는 새로운 서브 항목으로의 전환으로 변환될 수 있다. 서브 항목은 전체 항목에 대해 이산 또는 중첩된 지속 기간을 갖는 것으로 결정될 수 있다. 일 실시예에서, 비디오 서브 항목 각각은 적어도 하나의 품질 파라미터가 할당된다.Preferably, one or more quality parameters may be evaluated for the video sub-item in addition to or instead of the general parameters for the entire item. For example, a video item may be associated with a time duration and may be divided into two or more subitems that may be associated with a temporal duration. These sub durations may be the same or different lengths (durations) from one another. For example, the sub item may be a video segment or a video frame. In some embodiments, device 104 or processor 104 is configured to divide into sub-items based on, for example, recognized video (image) content, quality, and / or other parameters of the base video or related sensor data. Can be. In some other embodiments, the subitems may be automatically generated in response to user input, for example, each recording pause indicated by the user via the UI may be converted into a transition to a new subitem. . The subitems may be determined to have discrete or overlapping durations for the entire item. In one embodiment, each video subitem is assigned at least one quality parameter.

전술한 관점에서, 센서 데이터 분석 모듈(124)은 이미지 분석을 위한 수단을 포함할 수 있으며, 이는 컴퓨터 비전 및 패턴 인식의 다양한 방법을 이용할 수 있다. 이미지 분석은, 예를 들어, 검출, 분류, 및/또는 식별에 이용될 수 있으며, 예를 들어 비디오 컨텐츠에 나타나는 물체를 비롯하여 얼굴 인식과 같은 보다 복잡한 이미지 분석 또한 가능하다. 이에 따라, 태그와 같은 관련 메타데이터가 비디오 항목과 연관될 수 있다. 이미지 분석은 또한 마이크로 폰(112)으로부터의 청각 데이터와 같은 다른 센서 데이터가, 복잡한 이벤트를 분석하면서, 또한 비디오 자료와 가능한 다른 센서 데이터를 통해 검출되거나 결정될 수 있는 의미적 컨텐츠 상의 정보를 제공하기 위해 이용되는 방법을 추가로 포함할 수 있다.In view of the foregoing, sensor data analysis module 124 may include means for image analysis, which may utilize various methods of computer vision and pattern recognition. Image analysis can be used, for example, for detection, classification, and / or identification, and more complex image analysis is also possible, such as face recognition, for example, objects appearing in video content. Accordingly, relevant metadata such as tags can be associated with the video item. Image analysis also provides information on semantic content that other sensor data, such as auditory data from microphone 112, can be detected or determined through video data and possibly other sensor data while analyzing complex events. The method used may further comprise.

일 실시예에서, 장치(100)는 비디오 편집 모듈(126)을 포함할 수 있으며, 비디오 편집 모듈(126)은 컴파일된 비디오를 생성하기 위해 하나 이상의 비디오 항목의 둘 이상의 비디오 항목 또는 서브 항목을 결합할 수 있다. 비디오 항목은 하나 이상의 사용자가 소유한 하나 이상의 상이한 제1 사용자 디바이스(104)로부터 수신될 수 있다. 비디오 편집 모듈(126)은, 예를 들어, 원하는 (사용자-선택한) 종류의 비디오 항목들 또는 서브 항목들, 예를 들어, 이벤트의 컴파일된 비디오를 생성하는데 이용될 수 있으며, 예를 들어, 특정 제한에 일치하거나 이를 초과하는 품질 기준을 가지는 비디오 항목 또는 서브 항목은 다른 항목/서브 항목보다 더 사용되거나 또는 적어도 선호될 수 있다. 이벤트 또는 관심 대상이 다양한 각도에서 보거나 보여질 수 있는 컴파일된 비디오도 또한 생성될 수 있다. 편집을 요청하는 사용자는 바람직하게는 이용 가능한 비디오 데이터에 기초하여 설정될 편집의 특성을 정의할 수 있고, 이러한 특성은 가능하게는 품질 특성, 시간적 특성(예를 들어, 편집에 일시적으로 겹치는 부분을 가질 수 있거나 또는 시간적으로 더 선형이거나 엄격하게 시간 순으로 표시되어야 하는 것), 시야각/촬영 방향/촬영 위치 관련 선호도, 목표 물체 또는 사람 선호도, 슬로우 모션이나 선호도와 관련된 다른 효과(예를 들어 과도 효과)의 사용 등을 가능한 포함한다. In one embodiment, the device 100 may include a video editing module 126, which combines two or more video items or subitems of one or more video items to produce a compiled video. can do. The video item may be received from one or more different first user devices 104 owned by one or more users. Video editing module 126 may be used to generate, for example, a compiled video of a video item or sub-items of a desired (user-selected) kind, for example, an event, for example, Video items or sub-items with quality criteria that meet or exceed the limit may be used or at least preferred over other items / sub-items. Compiled video may also be generated in which an event or object of interest can be viewed or viewed from various angles. The user requesting the edit can preferably define the properties of the edit to be set based on the available video data, which may possibly be of a quality characteristic, a temporal characteristic (e. G. May have or should be displayed more linearly or strictly in chronological order in time, preferences related to viewing angle / shooting direction / shooting position, target object or person preference, other effects related to slow motion or preferences (e.g. transient effects) ) Use as much as possible.

비디오 편집 모듈(126)은, 이미지 분석을 통해 정의될 수 있는 엔티티를 특징으로 하는 다양한 비디오 항목 또는 서브 항목을 갖는 이벤트로부터 비디오를 컴파일할 수 있게 한다. 예를 들어, 특정 스포츠 이벤트로부터의 편집 비디오는 특정 플레이어를 특징으로 하거나 콘서트와 같은 특정 문화 이벤트의 편집 비디오가 특정 아티스트를 특징으로 할 수 있다.The video editing module 126 enables the compilation of video from events with various video items or subitems featuring entities that can be defined through image analysis. For example, an editorial video from a particular sporting event may feature a particular player, or an editorial video of a particular cultural event, such as a concert, may feature a particular artist.

비디오 편집 모듈(126)에서, 센서 비디오 분석 모듈(124)의 사용을 통해 편집 비디오의 생성이 추가로 가능해질 수 있다. 세그먼트들 또는 프레임들과 같은 비디오 서브 항목들은 개별적으로 분석될 수 있고, 시간 정보가 또한 장치(100)에서 이용되기 때문에 비디오 서브 항목들이 시간 순으로 나타나는 경우에 관심 이벤트 또는 엔티티를 특징으로 하는 고품질의 편집 비디오가 생성될 수 있다.In video editing module 126, the creation of edited video may be further enabled through the use of sensor video analysis module 124. Video subitems, such as segments or frames, can be analyzed separately, and high quality features of an event or entity of interest when the video subitems appear in chronological order because temporal information is also used in the device 100. An editing video can be generated.

비디오 편집 모듈(126)은 제1 사용자 디바이스(104)에 포함된 복수의 비디오(이미지) 센서로부터의 편집 비디오 데이터에 통합될 수 있다. 대안적으로, 디바이스(104)의 다른 데이터 소스 또는 추가 디바이스로부터의 데이터는 편집 비디오와 통합될 수 있다. 예를 들어, 콘서트, 다른 문화적 이벤트, 또는 스포츠 이벤트와 같은 이벤트로부터의 비디오 편집이 생성되면, 마이크로폰(112)으로부터의 사운드와 같은 센서 데이터가 비디오에 사운드 트랙으로서 추가될 수 있다. 마이크로폰(112) 또는 다른 센서 데이터는 비디오 컨텐츠 또는 다른 제1 사용자 디바이스(104)를 캡쳐하는데 사용된 동일한 제1 사용자 디바이스(104)로부터 유래될 수 있다. 또한, 외부 사운드 트랙과 같은 외부 데이터가 추가될 수 있다.The video editing module 126 may be integrated into edited video data from a plurality of video (image) sensors included in the first user device 104. Alternatively, data from another data source or additional device of device 104 may be integrated with edited video. For example, if a video edit is generated from an event such as a concert, other cultural event, or sporting event, sensor data such as sound from microphone 112 may be added as a sound track to the video. The microphone 112 or other sensor data may be derived from the same first user device 104 used to capture video content or other first user device 104. In addition, external data such as an external sound track can be added.

다른 경우에, 장치(100)는 비디오 편집 모듈(126) 및 이미지 분석을 통해 비디오의 의미적 컨텐츠 또는 컨텍스트를 결정하고, 편집 비디오를 자동적으로 생성할 수 있으며, 선택적으로 검출된 컨텍스트와 관련된 외부 데이터를 포함할 수도 있다. 예를 들어, 장치(100)는 비디오 또는 비디오에서 발생하는 이벤트 또는 상황을 식별할 수 있는데, 예를 들어, 비디오 컨텐츠가 결혼식 동안에 캡쳐되고 결혼식 유형 음악으로 태그된 적절한 사운드 트랙을 추가할 수 있다.In other cases, the device 100 may determine the semantic content or context of the video through video editing module 126 and image analysis, automatically generate an edited video, and optionally external data associated with the detected context. It may also include. For example, device 100 may identify an event or situation that occurs in the video or video, for example, adding video tracks where video content is captured during the wedding and tagged with wedding type music.

유리한 실시예에서, 프로세서(102)는 가능하면 제2 사용자 어플리케이션(130) 및 제2 사용자 인터페이스(132)를 이용하는 제2 사용자 디바이스(128)를 통해 비디오 또는 편집에 대한 검색 쿼리를 수신할 수 있다. 검색 쿼리는 프로세서(102)가 검색을 수행하고 검색 쿼리와 일치하는 데이터베이스(122)에 저장된 비디오 항목을 식별하게 할 수 있다. 프로세서(102)는 출력을 제공함으로써 검색 결과를 제2 사용자 디바이스(128)의 사용자와 통신하고 비디오 항목 검색 결과에 대한 상기 사용자의 액세스를 용이하게 할 수 있다. In an advantageous embodiment, the processor 102 may receive a search query for video or editing via the second user device 128 using the second user application 130 and the second user interface 132 if possible. . The search query may cause the processor 102 to perform a search and identify video items stored in the database 122 that match the search query. The processor 102 may provide output to communicate the search results with the user of the second user device 128 and to facilitate the user's access to the video item search results.

본 발명의 일 실시예에서, 검색 쿼리는 적어도 시간 및/또는 위치를 포함한다. 임의의 개수의 다른 검색 기준이 추가될 수도 있다. 바람직하게는, 검색 기준 중 적어도 하나는 장치(100)에 의해 수신되거나 생성된 메타데이터 또는 연관된 태그와 관련된다. 검색 쿼리는 예를 들어 콘서트 또는 스포츠 이벤트와 같은 이벤트의 이름을 또한 지시할 수 있다.In one embodiment of the invention, the search query includes at least time and / or location. Any number of other search criteria may be added. Preferably, at least one of the search criteria is associated with metadata or associated tags received or generated by the device 100. The search query may also indicate the name of the event, for example a concert or sporting event.

제2 사용자 인터페이스(132)를 통해, 장치(100)에 의해 제공되는 출력은 비디오 항목 검색 결과의 품질과 같은 특성을 지시할 수 있다. 품질은 비디오 항목 및/또는 다른 센서 데이터 중 적어도 하나의 분석을 통해 획득된 품질 파라미터와 관련될 수 있다. Through the second user interface 132, the output provided by the device 100 may indicate characteristics such as the quality of the video item search results. The quality may be related to a quality parameter obtained through analysis of at least one of the video item and / or other sensor data.

도 2는 제1 사용자 인터페이스(120)를 도시한 예시적인 어플리케이션 뷰(200)의 2개의 뷰, 2a 및 2b를 도시하며, 이는 제1 사용자 어플리케이션(118)을 통해 제공될 수 있으며, 제1 사용자 인터페이스(120)는 제1 사용자 디바이스(104)와 함께 사용되도록 의도된다. 제1 사용자 인터페이스(120)는 본질적으로 예를 들어 형태 또는 형상의 다기능 녹화 특징을 포함할 수 있으며, 예를 들어, 버튼(202)은 외부 림(outer rim)(204)과 같은 외부 부분을 포함할 수 있다. 도 2의 실시예에서, 다기능 녹화 버튼(202)은 제1 사용자 디바이스(140)의 스크린 상에 도시되고 이에 따라 디스플레이된 터치-감지 아이콘으로서 구현되며, 그 결과 다기능 녹화 버튼(202)을 누르면 제1 사용자 디바이스(104)를 가지는 비디오 컨텐츠의 녹화가 개시되거나 종료될 수 있다. 일부 실시예에서, 비디오 녹화의 개시 또는 종료는 음성 명령과 같은 마이크로폰-캡쳐된 사운드 데이터의 분석에 기초한 청각 방법과 같은 다른 방법을 통해 수행될 수 있다.2 shows two views, 2a and 2b, of an example application view 200 showing a first user interface 120, which may be provided through the first user application 118, which is a first user. The interface 120 is intended to be used with the first user device 104. The first user interface 120 may essentially include a multi-function recording feature, for example in form or shape, for example, the button 202 includes an outer portion such as an outer rim 204. can do. In the embodiment of FIG. 2, the multifunction record button 202 is implemented as a touch-sensitive icon shown on the screen of the first user device 140 and displayed accordingly, such that when the multifunction record button 202 is pressed, Recording of video content with one user device 104 may be initiated or terminated. In some embodiments, initiation or termination of video recording may be performed through other methods, such as an auditory method based on analysis of microphone-captured sound data, such as voice commands.

일 실시예에서, 외부 림(204)은 제1 사용자 디바이스(104)에 의해 녹화되고 있거나 특정 순간에 녹화될 수 있는 비디오 컨텐츠에 관한 정보를 제1 사용자 디바이스(104)의 컨텐츠 제공 사용자에게 시각적으로 지시할 수 있다. 정보는, 예를 들어, 품질에 관련될 수 있다. 예를 들어, 비디오 품질 및/또는 일부 다른 비디오 관련 특성 또는 정보를 지시할 수 있는 색상 또는 패턴이 외부 림(204) 상에 제공될 수 있다.In one embodiment, the outer rim 204 visually provides the content providing user of the first user device 104 with information about the video content being recorded by the first user device 104 or that may be recorded at a particular moment. Can be directed. The information may be related to quality, for example. For example, a color or pattern may be provided on the outer rim 204 that may indicate video quality and / or some other video related characteristic or information.

일 실시예에서, 제1 사용자 어플리케이션(118)은 제1 사용자 디바이스(104)를 통해 개시된 햅틱 피드백(haptic feedback)을 통해 비디오 컨텐츠와 관련된 정보를 제1 사용자 디바이스(104)의 사용자와 통신할 수 있다. 예를 들어, 비디오가 제1 사용자 디바이스(104)에 의해 녹화되고 있고 제1 사용자 디바이스(104)가 녹화 중에 기울어진 경우, 햅틱 피드백은, 예를 들어 진동 요소를 통해 제1 디바이스(104)의 사용자에게 기울어짐을 알려줄 수 있다. 이는 유리할 수 있는데, 예를 들어 모바일 폰과 같은 휴대용 디바이스에 의해 비디오 컨텐츠가 녹화되고 있고 디바이스의 사용자는 지속적으로 디바이스 또는 녹화되는 비디오 컨텐츠를 보고 있지 않는 상황에서, 그들은 여전히 고품질의 비디오 자료를 획득하면서 주의를 다른 곳에 집중시키거나 다른 곳에 시선을 기울이고 싶을 수 있다. In one embodiment, the first user application 118 may communicate information associated with the video content with the user of the first user device 104 via haptic feedback initiated through the first user device 104. have. For example, if video is being recorded by the first user device 104 and the first user device 104 is tilted during recording, the haptic feedback can be generated by the first device 104 via, for example, a vibrating element. You can tell the user to tilt. This may be advantageous, for example, in situations where video content is being recorded by a portable device such as a mobile phone and the user of the device is not constantly watching the device or the recorded video content, they still obtain high quality video material. You may want to focus your attention elsewhere or focus your attention elsewhere.

도 3에서, 제2 사용자 인터페이스(132)의 어플리케이션 뷰(300)의 예시적인 묘사가 도시되어 있다. 도 3은 구체적으로 검색 쿼리에 응답하여 장치(100)에 의해 제공될 수 있는 출력을 포함할 수 있는 어플리케이션 뷰의 가능한 개략적인 외관을 도시한다. 어플리케이션 뷰(300)는, 예를 들어 맵 또는 다른 위치-지시 뷰(302)를 포함할 수 있다. 뷰(302)는 검색 쿼리를 통해 지정된 지리적 위치를 나타내는 영역을 도시하거나, 검색 쿼리에 지정된 명시적 (예를 들어, 위치 이름, 주소, 좌표 등)인 위치 또는 암시적 (예를 들어, 이벤트)인 위치를 포함하는 영역을 도시할 수 있다. 도시될 영역은 커버리지와 같은 하나 이상의 파라미터와 관련하여 미리 결정될 수 있다. 예를 들어, 맵 뷰(302)는 초기에 1 제곱킬로미터로 구성된 영역을 도시하도록 지정될 수 있다. 바람직한 실시예에서, 검색 사용자는 주변 영역을 조종하기 위해 UI를 통해 맵 뷰(302)를 조작, 및/또는 예를 들어, 확대와 축소를 할 수 있다. In FIG. 3, an exemplary depiction of the application view 300 of the second user interface 132 is shown. 3 specifically illustrates a possible schematic appearance of an application view that may include output that may be provided by the device 100 in response to a search query. Application view 300 may include, for example, a map or other location-directed view 302. The view 302 may show an area representing a geographic location specified through a search query, or an explicit (eg location name, address, coordinate, etc.) location or implicit (eg event) specified in a search query. The region including the phosphorus position can be shown. The area to be shown may be predetermined in relation to one or more parameters such as coverage. For example, map view 302 may initially be designated to show an area comprised of one square kilometer. In a preferred embodiment, the search user may manipulate the map view 302 and / or zoom in and out, for example, via the UI to navigate the surrounding area.

맵 뷰(302)는 적어도 하나의 제1 사용자 디바이스(104)가 특정 시간에 캡쳐된 비디오 컨텐츠를 가지는 위치에 대응하는 지리적 지점을 시각적으로 지시할 수 있다. 이는 예를 들어 맵 뷰(302) 상에 지점, 원, 또는 다른 포인터(304)를 배치함으로써 이루어진다.The map view 302 may visually indicate a geographic point corresponding to a location where at least one first user device 104 has video content captured at a particular time. This is done, for example, by placing points, circles, or other pointers 304 on the map view 302.

맵 뷰(302)는 또한 비디오 자료의 품질을 시각적으로 지시할 수 있다. 일 실시예에서, 해당 비디오 서브 항목에 관한 품질 파라미터는, 예를 들어, 사용자에게 지시될 수 있는데, 예를 들어, 맵 뷰(302) 상에 디스플레이될 수 있는 컬러 또는 패턴을 통해 지시될 수 있다. 또한, 백분율 또는 숫자와 같은 다른 지표가 사용될 수 있다. The map view 302 can also visually indicate the quality of the video material. In one embodiment, the quality parameter for the corresponding video subitem may be directed to the user, for example, via a color or pattern that may be displayed on the map view 302, for example. . In addition, other indicators may be used, such as percentages or numbers.

특정 시간에서의 비디오 항목의 시야(306), 촬영 방향, 및/또는 유사한 특성은 또한 시각적으로 바람직하게 동적으로 (즉, 예컨대 도시된 비디오(308)에 따라 변경됨) 맵 뷰(302) 상에 지시될 수 있으며, 이는 또한 상기 논의된 품질 파라미터의 지시이다. 이러한 구현은 실제로 도 3에 도시되어 있다.The field of view 306, the shooting direction, and / or similar characteristics of the video item at a particular time are also visually and preferably indicated dynamically on the map view 302, eg, changed according to, for example, the video 308 shown. It may also be an indication of the quality parameters discussed above. This implementation is actually shown in FIG. 3.

어플리케이션 뷰(300)는 일 실시예에서 또한 하나 이상의 비디오 항목의 미리보기(308)를 도시할 수 있다. 맵 뷰(302)에 지시된 하나 이상의 비디오 항목에 대한 미리보기가 도시될 수 있다. 미리보기가 현재 제공되는 비디오 항목은 일부 기준에 따라 장치(100)에 의해 선택될 수 있거나, 또는 검색 사용자에 의해 선택, 예를 들어 원(304) 또는 비디오 항목과 연관된 다른 시각적 지시자를 클릭함으로써 선택될 수 있다.Application view 300 may also show a preview 308 of one or more video items in one embodiment. A preview of one or more video items indicated in the map view 302 may be shown. The video item for which the preview is currently provided may be selected by the device 100 according to some criteria, or selected by the search user, for example by clicking on a circle 304 or other visual indicator associated with the video item. Can be.

어플리케이션 뷰(300)는 타임라인(310)을 추가로 포함할 수 있으며, 이를 통해 검색 사용자는 맵 뷰(302)에 도시된 비디오 항목을 조종할 수 있다. 예를 들어, 검색 사용자는 타임라인을 조작하여 특정 시간으로 직접 또는 점진적으로 진행할 수 있고, 맵 뷰(302) 및 미리보기(들)(308)은 그에 따라 변경될 수 있다. 타임라인은 또한 실시간으로 진행되는 것이 허용되며, 미리보기(들)(308)은 선택된 비디오 항목(들)을 그에 따라 재생할 수 있지만, 맵 뷰(302)는 또한 그에 따라 변경될 수 있다.The application view 300 may further include a timeline 310, through which the search user may manipulate the video items shown in the map view 302. For example, the search user may manipulate the timeline to proceed directly or incrementally to a specific time, and the map view 302 and preview (s) 308 may change accordingly. The timeline is also allowed to proceed in real time, while preview (s) 308 can play the selected video item (s) accordingly, while map view 302 can also be changed accordingly.

타임라인(310)을 조작하는 다른 방법들은, 그에 따라 변경되는 미리보기(들)(308) 및 맵 뷰(302)와 함께 실시간보다 빠른 시간 척도에서 타임라인 상에서 진행되거나 또는 예컨대 "빠른 포워딩"을 가능하게 한다. 타임라인은 또한 반대 방향으로 조종될 수 있으며, 즉, 타임라인 상에서 시간적으로 후방으로 이동할 수 있다.Other methods of manipulating the timeline 310 may be run on the timeline at a faster time scale than real time, or with the preview (s) 308 and map view 302 changed accordingly, or for example, "fast forwarding". Make it possible. The timeline can also be steered in the opposite direction, ie move back in time on the timeline.

본 발명의 일 실시예에서, 비디오 항목은 라이브스트림으로서 검색 사용자에게 제공될 수 있다. 따라서, 타임라인(310)은 본질적으로 현재 시간을 도시할 수 있고, 검색 사용자는 실질적으로 실시간으로 캡쳐되고 있는 비디오 항목을 어플리케이션 뷰(300)에서 관찰할 수 있다.In one embodiment of the invention, the video item may be provided to the search user as a livestream. Thus, timeline 310 may essentially show the current time, and the search user may observe in the application view 300 the video item being captured substantially in real time.

비디오 항목이 라이브스트림으로 제공되는 경우에 데이터베이스에 저장될 수도 있다. 따라서, 라이브스트림으로써 제공된 비디오는 이전에 개시된 바와 같이 나중에 검색되고 보여질 수 있다.Video items may be stored in a database if they are provided live. Thus, a video provided as a livestream can later be retrieved and viewed as previously disclosed.

이용 가능한 방대한 양의 비디오 자료로 인해, 검색 기준은, 예를 들어 사용자-정의된 설정에 기초하여 실제로 고려하기에는 너무 큰 다수의 비디오 항목 검색 결과를 산출할 수 있다. 본 발명의 일 실시예에서, 예를 들어, 면적 밀도 필터를 통해 검색 결과를 필터링하는 것이 가능할 수 있다. 예를 들어, 출력이 특정 영역 또는 본질적으로 위치 내에서 캡쳐된 특정 수의 비디오 항목 만을 제공할 수 있다고 명시될 수 있다. 예를 들어, 5 제곱미터 당 하나의 비디오 항목만 출력에 도시되도록 지정할 수 있으며, 여기에 도시된 비디오 항목은 최고 품질 및/또는 다른 기준을 나타내는 검색 기준을 충족하는 것으로, 사용자가 유리하게 사용자가 조정할 수 있다. 특정 시야 또는 촬영 방향을 가진 비디오 항목만 출력에 도시하는 것과 같은 검색 결과를 필터링하기 위해 다른 사양을 지정할 수도 있다. 일반적으로, 필터링은, 상이한 실시예에서, 제2 사용자 어플리케이션(130) 및 제2 사용자 인터페이스(132)를 구성하는 경우에 수행될 수 있고, 또는 검색 사용자에 의해, 예를 들어 제2 사용자 인터페이스(132)를 통해 수행될 수 있다.Due to the vast amount of video material available, the search criteria can yield a large number of video item search results that are too large to actually be considered, for example based on user-defined settings. In one embodiment of the invention, it may be possible to filter the search results, for example, via an area density filter. For example, it can be specified that the output can provide only a certain number of video items captured within a particular area or location in essence. For example, you can specify that only one video item per 5 square meters is shown in the output, and the video item shown here meets the search criteria representing the highest quality and / or other criteria, which the user can advantageously adjust. Can be. You can also specify other specifications to filter the search results, such as showing only video items with a specific field of view or shooting direction in the output. In general, filtering may be performed in different embodiments when configuring the second user application 130 and the second user interface 132, or by a search user, for example, a second user interface ( 132).

도 4는 본 발명의 일 실시예에 따른 방법에서 수행될 수 있는 단계를 도시한다. 402에서, 하나 이상의 비디오 항목이 다수의 제1 사용자 디바이스로부터 수신되고, 이에 의해 비디오 항목은 404에서 데이터베이스(122)에 저장된다. 보충 데이터는 406에서 수신되고, 이 데이터는 상기 적어도 하나의 비디오 항목이 녹화된 디바이스를 통해 제공된다. 바람직한 실시예에서, 데이터는 제1 사용자 디바이스(들)(104)에 포함된 하나 이상의 센서에 의해 제공될 수 있다. 데이터는 또한 제1 사용자 디바이스(들)(104)을 통해 제공되는 시간적 데이터(시간, 타임코드, 틀락, 동기화 등)를 포함할 수 있다.4 shows the steps that can be performed in a method according to an embodiment of the invention. At 402, one or more video items are received from multiple first user devices, whereby the video items are stored in database 122 at 404. Supplemental data is received at 406, which data is provided through a device in which the at least one video item was recorded. In a preferred embodiment, the data may be provided by one or more sensors included in the first user device (s) 104. The data may also include temporal data (time, timecode, lock, synchronization, etc.) provided through the first user device (s) 104.

유리한 실시예에서, 초기 지속 기간에 관련된 하나 이상의 비디오 항목은 이전에 고려된 바와 같이 408에서 대응하는 서브 지속 기간과 관련된 복수의 이산적인 또는 중첩 서브 항목으로 분할된다. In an advantageous embodiment, one or more video items related to the initial duration are divided into a plurality of discrete or overlapping subitems associated with the corresponding sub duration at 408 as previously considered.

410에서, 메타데이터는 바람직하게는 비디오 항목 또는 심지어 지정 서브 항목(예를 들어, 서브 항목-지정된 전용 품질 지시자)와 관련하여 제공되며, 메타데이터는 수신된 보충 데이터를 이용하여 획득된다. 메타데이터는 센서 데이터 분석 모듈(124)에 의해 생성될 수 있다.At 410, metadata is preferably provided in connection with a video item or even a designated subitem (eg, a subitem-specified dedicated quality indicator), the metadata being obtained using the received supplemental data. The metadata may be generated by the sensor data analysis module 124.

일부 실시예에서, 메타데이터는 관련 검색 가능하고 바람직하게는 또한 검사 가능한 태그로서 하나 이상의 비디오 항목 및/또는 관련 서브 항목에 할당(연관)될 수 있다. 예를 들어, 품질-기반 검색을 가능하게 하기 위해 하나 이상의 품질 지시 파라미터가 각각의 비디오 서브 항목에 할당될 수 있다.In some embodiments, metadata may be assigned (associated) to one or more video items and / or related subitems as related searchable and preferably also checkable tags. For example, one or more quality indication parameters may be assigned to each video sub-item to enable quality-based retrieval.

검색 쿼리가 412에서 수신될 수 있고, 검색 쿼리와 일치하는 비디오 항목 검색 결과가 414에서 결정될 수 있으며, 그 후 단계 416에서 비디오 항목 검색 결과를 지시하는 출력이 제공될 수 있다. 일부 실시예에서, 출력은 적어도 하나의 비디오 항목을 포함할 수 있는 결과 그룹의 비디오 항목의 적어도 목록을 포함할 수 있다. 일부 실시예에서, 출력은 실제 비디오 항목(들)을 포함할 수 있다.A search query may be received at 412, and a video item search result that matches the search query may be determined at 414, and then output may be provided at 416 indicating the video item search result. In some embodiments, the output may include at least a list of video items of the result group that may include at least one video item. In some embodiments, the output may include the actual video item (s).

일부 실시예에서, 시간 공간 기준(시간, 위치, 이벤트 등)과 같은 사용자-정의 기준을 충족하는 복수의 원본 이산 비디오 항목에 전형적으로 기초하는 비디오 편집은 완전히 자동적으로 또는 사용자-보조 방식으로 확립될 수 있다. 편집은 출력된 비디오 항목으로서 제공될 수 있다. 편집은 단일 비디오 스트림 또는 바암직하게는 기준을 가장 잘 충족시키는 구성 요소(소스) 비디오 항목들로 구성된 비디오 파일을 포함할 수 있다.In some embodiments, video editing typically based on a plurality of original discrete video items that meet user-defined criteria such as time-space criteria (time, location, event, etc.) may be established in a fully automatic or user-assisted manner. Can be. The edit may be provided as an output video item. Compilation can include a single video stream or a video file, preferably consisting of component (source) video items that best meet the criteria.

본 발명은 전술한 실시예들을 참조하여 상술되었고, 본 발명의 여러 장점들이 설명되었다. 본 발명은 이들 실시예로 제한될 뿐만 아니라, 본 발명의 사상 및 특허 청구 범위의 사상 및 범위 내에서 가능한 모든 실시예를 포함한다는 것이 명백하다.The present invention has been described above with reference to the above-described embodiments, and various advantages of the present invention have been described. It is apparent that the present invention is not only limited to these embodiments but also includes all possible embodiments within the spirit and scope of the invention and claims.

종속항에 인용된 특징들은 달리 명시적으로 언급되지 않는 한 상호 간에 자유롭게 조합 가능하다. The features recited in the dependent claims are freely combinable with one another unless explicitly stated otherwise.

Claims (21)

디지털 비디오 자료를 검색하기 위한 장치(100)로서,
하나 이상의 네트워크 액세스 가능한 서버를 선택적으로 포함하고,
상기 장치는,
다수의 비디오 항목을 수신하고,
상기 비디오 항목을 데이터베이스에 저장하며,
임의의 또는 각각의 비디오 항목에 대한 메타데이터, 바람직하게는 다수의 태그를 제공하고 - 상기 메타데이터는 상기 비디오 항목이 각각 획득된 적어도 하나의 사용자 디바이스(104)에 의해 제공된 보충 데이터를 이용하는 것을 통해 획득되고, 상기 사용자 디바이스는, 예를 들어, 드론과 같은 연결된 비디오 캡쳐 디바이스(105)로부터 자동적인 비디오 캡쳐를 하거나, 및/또는 비디오 데이터를 수신하고 포워딩할 수 있는 사용자 단말기를 포함함 -,
검색 쿼리(search query)를 수신하고 - 상기 검색 쿼리에 포함된 적어도 하나의 검색 기준은 상기 메타데이터와 관련됨 -,
상기 데이터베이스에 저장된 상기 적어도 하나의 비디오 항목 중에서 상기 검색 쿼리와 일치하는 비디오 항목 검색 결과를 결정하고, 그리고
상기 비디오 항목 검색 결과를 포함하는 출력을 사용자에게 제공하도록 구성된, 적어도 하나의 프로세서(102)를 포함하고,
상기 비디오 항목은 지속 기간과 관련되며, 상기 제공된 메타데이터는 비디오 항목의 하나 이상의 서브 항목과 관련된 상기 보충 데이터의 분석을 통해 결정되는 적어도 하나의 품질 지시자(quality indicator)를 포함하고,
상기 서브 항목은 상기 서브 항목의 서브 지속 기간과 관련되고, 상기 적어도 하나의 품질 지시자는 대응하는 서브 항목에 할당되는, 디지털 비디오 자료를 검색하기 위한 장치(100).
An apparatus 100 for retrieving digital video material,
Optionally includes one or more network accessible servers,
The device,
Receive a number of video items,
Storing the video item in a database,
Providing metadata, preferably a plurality of tags, for any or each video item, wherein the metadata is via using supplemental data provided by at least one user device 104 from which the video item was obtained, respectively. And wherein the user device comprises a user terminal capable of automatically capturing video from a connected video capture device 105, such as a drone, and / or receiving and forwarding video data, for example.
Receive a search query, wherein at least one search criterion included in the search query is related to the metadata;
Determine a video item search result that matches the search query among the at least one video item stored in the database, and
At least one processor (102) configured to provide an output to a user that includes the video item search results,
The video item is associated with a duration, the provided metadata includes at least one quality indicator determined through analysis of the supplemental data associated with one or more sub-items of the video item,
And the sub item is associated with a sub duration of the sub item and the at least one quality indicator is assigned to a corresponding sub item.
제1항에 있어서,
상기 비디오 항목은 복수의 서브 지속 기간으로 분할되어 복수의 서브 항목을 제공하며, 상기 적어도 하나의 품질 지시자는 결정되고 상기 서브 항목 각각에 할당되는, 디지털 비디오 자료를 검색하기 위한 장치(100).
The method of claim 1,
And the video item is divided into a plurality of sub durations to provide a plurality of sub items, wherein the at least one quality indicator is determined and assigned to each of the sub items.
제1항 또는 제2항에 있어서,
상기 출력은 상기 적어도 하나의 품질 지시자를 지시하는, 디지털 비디오 자료를 검색하기 위한 장치(100).
The method according to claim 1 or 2,
And the output indicates the at least one quality indicator.
제1항 내지 제3항 중 어느 한 항에 있어서,
상기 메타데이터의 적어도 일부는 하나 이상의 센서에 의해 제공된 데이터를 이용하는 것을 통해 획득되고,
상기 센서 중 적어도 하나는, 카메라, 열 화상 카메라, 이미지 센서, 자력계, 가속도계, 마이크로폰, 위치 센서, 위상 위치 결정 기반 위치 센서, GPS 센서, 압력 센서, 온도 센서, 습도 센서, 및 자이로스코프로 이루어진 그룹으로부터 선택되는, 디지털 비디오 자료를 검색하기 위한 장치(100).
The method according to any one of claims 1 to 3,
At least a portion of the metadata is obtained through using data provided by one or more sensors,
At least one of the sensors comprises a camera, a thermal imaging camera, an image sensor, magnetometer, accelerometer, microphone, position sensor, phase positioning based position sensor, GPS sensor, pressure sensor, temperature sensor, humidity sensor, and gyroscope And 100 for retrieving digital video material.
제1항 내지 제4항 중 어느 한 항에 있어서,
상기 메타데이터는 상기 사용자 디바이스를 통해 획득되는 시간 및/또는 위치의 지시를 포함하는, 디지털 비디오 자료를 검색하기 위한 장치(100).
The method according to any one of claims 1 to 4,
And the metadata includes an indication of a time and / or a location obtained via the user device.
제1항 내지 제5항 중 어느 한 항에 있어서,
상기 검색 쿼리는 검색 기준으로서 적어도 시간 및 위치를 포함하는, 디지털 비디오 자료를 검색하기 위한 장치(100).
The method according to any one of claims 1 to 5,
And the search query includes at least time and location as search criteria.
제1항 내지 제6항 중 어느 한 항에 있어서,
상기 출력은 선택된, 선택적으로 사용자-선택된 위치 범위 내에서, 선택된, 선택적으로는 사용자-선택된 다수의 비디오 항목 검색 결과를 포함하고,
상기 위치 범위 내의 모든 비디오 항목 검색 결과는 선택된 기준에 따라 배치되는, 디지털 비디오 자료를 검색하기 위한 장치(100).
The method according to any one of claims 1 to 6,
The output includes a plurality of selected, optionally user-selected plurality of video item search results within a selected, optionally user-selected location range,
And all video item search results within the location range are arranged according to the selected criteria.
제7항에 있어서,
상기 기준은 비디오 품질과 관련되는, 디지털 비디오 자료를 검색하기 위한 장치(100).
The method of claim 7, wherein
And the criterion is related to video quality.
제1항 내지 제8항 중 어느 한 항에 있어서,
상기 장치는, 비디오 항목에 대해, 항목과 연관된 이벤트, 선택적으로는 문화적, 스포츠, 또는 파티 이벤트를 지시하는 메타데이터, 예컨대 태그를 결정하도록 구성되는, 디지털 비디오 자료를 검색하기 위한 장치(100).
The method according to any one of claims 1 to 8,
The apparatus (100) for retrieving digital video material for the video item is configured to determine metadata, such as tags, indicating an event associated with the item, optionally a cultural, sporting or party event.
제9항에 있어서,
상기 이벤트를 지시하는 메타데이터는, 상기 항목의 비디오 이미지 데이터, 상기 항목과 연관된 시간 데이터, 상기 항목과 연관된 위치 데이터, 마이크로폰 기반 사운드 데이터, 및/또는 다른 센서 데이터에 기초하여 결정되는, 디지털 비디오 자료를 검색하기 위한 장치(100).
The method of claim 9,
The metadata indicative of the event is determined based on video image data of the item, time data associated with the item, location data associated with the item, microphone based sound data, and / or other sensor data. Device 100 for searching.
제9항 또는 제10항에 있어서,
상기 이벤트를 지시하는 메타데이터는, 적어도 하나의 이벤트의 위치 및 시간을 특징으로 하는 이벤트 정보에 기초하여 결정되는, 디지털 비디오 자료를 검색하기 위한 장치(100).
The method according to claim 9 or 10,
And metadata indicative of the event is determined based on event information characterized by the location and time of at least one event.
제1항 내지 제11항 중 어느 한 항에 있어서,
상기 장치는, 상기 검색 쿼리에 지시된 위치를 포함하는 맵(302), 및 상기 검색 쿼리에 지시된 시간을 포함하는 타임라인(310)을 제공하도록 구성되고,
상기 맵은, 상기 타임라인 상에 지시된 시간에 대응하는 시간에서, 대응하는 개수의 비디오 항목이 캡쳐된 다수의 포인트(304)를 지시하는, 디지털 비디오 자료를 검색하기 위한 장치(100).
The method according to any one of claims 1 to 11,
The apparatus is configured to provide a map 302 that includes a location indicated in the search query, and a timeline 310 that includes a time indicated in the search query,
And the map indicates a number of points (304) at which a corresponding number of video items were captured at a time corresponding to the time indicated on the timeline.
제12항에 있어서,
출력(306)은 비디오 항목의 비디오 자료가 캡쳐된 화각, 촬영 방향 및/또는 방향에 관한 정보를 제공하는, 디지털 비디오 자료를 검색하기 위한 장치(100).
The method of claim 12,
The output 306 is an apparatus 100 for retrieving digital video material that provides information regarding the angle of view, the shooting direction and / or the direction in which the video material of the video item was captured.
제1항 내지 제13항 중 어느 한 항에 있어서,
상기 장치는, 상기 비디오 항목을 선택하고 및/또는 편집에 대한 비디오 항목의 기여를 결정하는 데에 있어서 상기 검색 쿼리를 고려하여 2개 이상의 비디오 항목으로부터 선택적으로 구성된 편집을 제공하도록 구성되는, 디지털 비디오 자료를 검색하기 위한 장치(100).
The method according to any one of claims 1 to 13,
The apparatus is configured to provide an edit composed selectively from two or more video items in view of the search query in selecting the video item and / or determining the contribution of the video item to the edit. Apparatus 100 for retrieving data.
제1항 내지 제14항 중 어느 한 항에 있어서,
상기 장치는, 사용자 인터페이스(200)가 제공되는 상기 적어도 하나의 사용자 디바이스를 포함하고,
상기 사용자 인터페이스는, 바람직하게는 온-스크린 심볼로서 다기능 녹화-버튼(202, 204)을 포함하고, 상기 녹화 버튼은 특정 시간에 녹화되는 비디오 자료의 품질을 지시하는, 디지털 비디오 자료를 검색하기 위한 장치(100).
The method according to any one of claims 1 to 14,
The apparatus includes the at least one user device provided with a user interface 200,
The user interface preferably includes multifunction record-buttons 202 and 204 as on-screen symbols, the record button indicating the quality of the video material recorded at a particular time. Device 100.
제15항에 있어서,
상기 사용자 인터페이스는 상기 사용자 디바이스의 사용자에 의해 상기 녹화-버튼의 재배치를 가능하게 하도록 구성되는, 디지털 비디오 자료를 검색하기 위한 장치(100).
The method of claim 15,
And the user interface is configured to enable relocation of the record-button by a user of the user device.
제1항 내지 제16항 중 어느 한 항에 있어서,
상기 장치는, 캡쳐된 비디오 컨텐츠에서 발생하는 변화를 햅틱 피드백(haptic feedback)을 통해 상기 사용자 디바이스의 사용자에게 지시하는, 디지털 비디오 자료를 검색하기 위한 장치(100).
The method according to any one of claims 1 to 16,
The apparatus (100) for retrieving digital video material instructing a user of the user device via haptic feedback of a change occurring in captured video content.
제17항에 있어서,
상기 변화는 캡쳐 디바이스의 카메라에 관한 화각 또는 촬영 방향, 및 상기 캡쳐 디바이스의 카메라로 캡쳐된 비디오 컨텐츠와 관련되는, 디지털 비디오 자료를 검색하기 위한 장치(100).
The method of claim 17,
And the change is related to an angle of view or shooting direction relative to the camera of the capture device, and video content captured by the camera of the capture device.
비디오 자료를 검색하는 방법으로서,
- 다수의 비디오 항목을 수신하는 단계(402),
- 상기 비디오 항목을 메모리에 저장하는 단계(404), 및
- 임의의 또는 각각의 비디오 항목에 대한 메타데이터를 제공하는 단계(410) - 상기 메타데이터는 상기 비디오 항목이 획득된 적어도 하나의 사용자 디바이스에 의해 제공된 보충 데이터를 이용하는 것을 통해 획득됨(406)-,
상기 비디오 항목은 지속 시간과 관련되고 상기 제공된 메타데이터는 비디오 항목의 하나 이상의 서브 항목과 관련된 상기 보충 데이터의 분석을 통해 결정되는 적어도 하나의 품질 지시자를 포함하고(408),
상기 서브 항목은 상기 서브 항목의 서브 지속 기간과 관련되고, 상기 적어도 하나의 품질 지시자는 대응하는 서브 항목에 할당되는,
비디오 자료를 검색하는 방법.
As a way to search for video material,
Receiving 402 a plurality of video items,
Storing the video item in a memory (404), and
Providing 410 metadata for any or each video item, wherein the metadata is obtained through using supplemental data provided by at least one user device from which the video item was obtained 406. ,
The video item is associated with a duration and the provided metadata includes at least one quality indicator determined through analysis of the supplemental data associated with one or more subitems of the video item (408),
The sub item is associated with a sub duration of the sub item and the at least one quality indicator is assigned to a corresponding sub item;
How to retrieve video material.
제19항에 있어서,
검색 쿼리를 수신하는 단계(412) - 상기 검색 쿼리에 포함된 적어도 하나의 검색 기준은 상기 메타데이터와 관련됨 -,
상기 검색 쿼리와 일치하는 비디오 항목 검색 결과를 결정하는 단계(414), 및
상기 비디오 항목 검색 결과를 포함하는 출력을 사용자에게 제공하는 단계(416)를 더 포함하는,
비디오 자료를 검색하는 방법.
The method of claim 19,
Receiving (412) a search query, wherein at least one search criterion included in the search query is associated with the metadata;
Determining a video item search result that matches the search query (414), and
Providing 416 the user with an output comprising the video item search result,
How to retrieve video material.
프로그램이 컴퓨터에서 실행되는 경우, 제19항 또는 제20항에 따른 방법을 실행하도록 구성된 프로그램 코드 수단이 포함된 컴퓨터 프로그램.21. A computer program comprising program code means adapted to execute a method according to claim 19 or 20 when the program is run on a computer.
KR1020207000782A 2017-06-12 2018-06-12 Apparatus and associated method for providing video items KR20200017466A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FI20175539A FI129291B (en) 2017-06-12 2017-06-12 Arrangement and related method for provision of video items
FI20175539 2017-06-12
PCT/FI2018/050442 WO2018229332A1 (en) 2017-06-12 2018-06-12 Arrangement and related method for provision of video items

Publications (1)

Publication Number Publication Date
KR20200017466A true KR20200017466A (en) 2020-02-18

Family

ID=64660044

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207000782A KR20200017466A (en) 2017-06-12 2018-06-12 Apparatus and associated method for providing video items

Country Status (4)

Country Link
EP (1) EP3639164A4 (en)
KR (1) KR20200017466A (en)
FI (1) FI129291B (en)
WO (1) WO2018229332A1 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130097172A1 (en) * 2011-04-04 2013-04-18 Zachary McIntosh Method and apparatus for indexing and retrieving multimedia with objective metadata
US9584834B1 (en) * 2012-06-25 2017-02-28 Google Inc. Video broadcasting with geolocation
WO2014189485A1 (en) * 2013-05-20 2014-11-27 Intel Corporation Elastic cloud video editing and multimedia search
US9685194B2 (en) * 2014-07-23 2017-06-20 Gopro, Inc. Voice-based video tagging
US9734870B2 (en) * 2015-01-05 2017-08-15 Gopro, Inc. Media identifier generation for camera-captured media
KR102246557B1 (en) * 2015-04-07 2021-04-30 엘지전자 주식회사 Mobile terminal and method for controlling the same
US20170161961A1 (en) * 2015-12-07 2017-06-08 Paul Salsberg Parking space control method and system with unmanned paired aerial vehicle (uav)

Also Published As

Publication number Publication date
FI20175539A1 (en) 2018-12-13
EP3639164A1 (en) 2020-04-22
EP3639164A4 (en) 2021-01-20
WO2018229332A1 (en) 2018-12-20
FI129291B (en) 2021-11-15

Similar Documents

Publication Publication Date Title
US20180357316A1 (en) Arrangement and related method for provision of video items
US20180294011A1 (en) Elastic cloud video editing and multimedia search
CN105320695B (en) Picture processing method and device
US9538116B2 (en) Relational display of images
US20200195701A1 (en) Method and system for aggregating content streams based on sensor data
US20180132006A1 (en) Highlight-based movie navigation, editing and sharing
WO2017015112A1 (en) Media production system with location-based feature
WO2015114289A1 (en) Orbital touch control user interface
WO2021031733A1 (en) Method for generating video special effect, and terminal
US20150147045A1 (en) Computer ecosystem with automatically curated video montage
JP6046874B1 (en) Information processing apparatus, information processing method, and program
US9152707B2 (en) System and method for creating and providing media objects in a navigable environment
CN111680238A (en) Information sharing method and device and storage medium
JP6617547B2 (en) Image management system, image management method, and program
KR20200017466A (en) Apparatus and associated method for providing video items
CN112437270B (en) Monitoring video playing method and device and readable storage medium
CN106354808A (en) Image storage method and device
US20140153836A1 (en) Electronic device and image processing method
CN107079144B (en) Method, device and system for realizing media object display
JP2015201082A (en) Information processing device and grouping method
KR20180053221A (en) Display device and method for control thereof
JP5536003B2 (en) Movie editing apparatus, movie editing method, and program
US20220053248A1 (en) Collaborative event-based multimedia system and method
JP6640130B2 (en) Flexible cloud editing and multimedia search
EP1569448A1 (en) Image description system and method thereof