KR20200017466A - Apparatus and associated method for providing video items - Google Patents
Apparatus and associated method for providing video items Download PDFInfo
- Publication number
- KR20200017466A KR20200017466A KR1020207000782A KR20207000782A KR20200017466A KR 20200017466 A KR20200017466 A KR 20200017466A KR 1020207000782 A KR1020207000782 A KR 1020207000782A KR 20207000782 A KR20207000782 A KR 20207000782A KR 20200017466 A KR20200017466 A KR 20200017466A
- Authority
- KR
- South Korea
- Prior art keywords
- video
- item
- user
- metadata
- search
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000004458 analytical method Methods 0.000 claims abstract description 10
- 230000000153 supplemental effect Effects 0.000 claims abstract description 10
- 230000008859 change Effects 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 4
- 238000001931 thermography Methods 0.000 claims 1
- 238000010191 image analysis Methods 0.000 description 10
- 230000008901 benefit Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 8
- 230000002123 temporal effect Effects 0.000 description 7
- 238000007405 data analysis Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 4
- 238000009826 distribution Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- HRANPRDGABOKNQ-ORGXEYTDSA-N (1r,3r,3as,3br,7ar,8as,8bs,8cs,10as)-1-acetyl-5-chloro-3-hydroxy-8b,10a-dimethyl-7-oxo-1,2,3,3a,3b,7,7a,8,8a,8b,8c,9,10,10a-tetradecahydrocyclopenta[a]cyclopropa[g]phenanthren-1-yl acetate Chemical compound C1=C(Cl)C2=CC(=O)[C@@H]3C[C@@H]3[C@]2(C)[C@@H]2[C@@H]1[C@@H]1[C@H](O)C[C@@](C(C)=O)(OC(=O)C)[C@@]1(C)CC2 HRANPRDGABOKNQ-ORGXEYTDSA-N 0.000 description 1
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical group [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 229910052698 phosphorus Inorganic materials 0.000 description 1
- 239000011574 phosphorus Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8456—Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/102—Programmed access in sequence to addressed parts of tracks of operating record carriers
- G11B27/105—Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/11—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
- H04N21/2353—Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/435—Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
- H04N21/4828—End-user interface for program selection for searching program descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
- H04N21/8405—Generation or processing of descriptive data, e.g. content descriptors represented by keywords
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Library & Information Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Television Signal Processing For Recording (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
장치(100)로서, 선택적으로, 디지털 비디오 자료를 검색하기 위한 하나 이상의 네트워크 액세스 가능한 서버를 포함하고, 상기 장치는, 다수의 비디오 항목을 수신하고; 상기 비디오 항목을 데이터베이스에 저장하며; 임의의 또는 각각의 비디오 항목에 대한 메타데이터, 바람직하게는 다수의 태그를 제공하고 - 상기 메타데이터는 상기 비디오 항목이 획득된 적어도 하나의 사용자 디바이스(104)에 의해 제공된 보충 데이터를 이용하여 획득됨 -; 검색 쿼리(search query)를 수신하고 - 검색 쿼리에 포함된 적어도 하나의 검색 기준은 상기 메타데이터와 관련되고 -; 데이터베이스에 저장된 상기 적어도 하나의 비디오 항목 중에서 검색 쿼리와 일치하는 비디오 항목 검색 결과를 결정하고; 및 비디오 항목 검색 결과를 포함하는 출력을 사용자에게 제공하도록 구성된, 적어도 하나의 프로세서(102)를 포함하고, 상기 비디오 항목은 지속 기간과 관련되고 상기 제공된 메타데이터는 비디오 항목의 하나 이상의 서브 항목과 관련된 상기 보충 데이터의 분석을 통해 결정되는 적어도 하나의 품질 지시자를 포함하고, 상기 서브 항목은 상기 서브 항목의 서브 지속 기간과 관련되고, 상기 적어도 하나의 품질 지시자는 대응하는 서브 항목에 할당된다. 대응하는 방법이 제시된다. Apparatus 100, optionally comprising one or more network accessible servers for retrieving digital video material, the apparatus comprising: receiving a plurality of video items; Store the video item in a database; Providing metadata, preferably multiple tags, for any or each video item, wherein the metadata is obtained using supplemental data provided by at least one user device 104 from which the video item was obtained. -; Receive a search query, wherein at least one search criterion included in the search query is associated with the metadata; Determine a video item search result that matches a search query among the at least one video item stored in a database; And at least one processor 102, configured to provide an output to the user, the output including a video item search result, wherein the video item is associated with a duration and the provided metadata is associated with one or more subitems of the video item. And at least one quality indicator determined through analysis of the supplemental data, wherein the sub item is associated with a sub duration of the sub item and the at least one quality indicator is assigned to a corresponding sub item. Corresponding methods are presented.
Description
본 발명은 비디오 자료의 제공 및 소비에 관한 것이다. 보다 구체적으로, 독점적으로는 아니지만, 본 발명은 비디오 클립과 같은 디지털 비디오 항목을 검색하기 위한 장치 및 방법을 제공하며, 여기서 메타데이터는 비디오 항목이 캡쳐된 디바이스로부터 또는 디바이스를 통해 획득된 데이터의 이용을 통해 제공된다. 검색 기준은 이러한 메타데이터와 관련될 수 있다. The present invention relates to the provision and consumption of video material. More specifically, but not exclusively, the present invention provides an apparatus and method for retrieving a digital video item, such as a video clip, wherein metadata is the use of data obtained from or through the device from which the video item was captured. Is provided through. Search criteria may be associated with such metadata.
지난 몇 년 간, 카메라 기술 및 모바일 디바이스의 발전으로 스마트폰 및 태블릿과 같은 모바일 디바이스에서 녹화되는 비디오 영상(footage)의 양이 크게 증가되었다. 이러한 영상은 사용자가 선호하는 검색 기준을 사용하여 흥미로운 비디오 영상을 검색할 수 있는 소셜 미디어 사이트에 업로드된다. 검색 기준은 전형적으로 다른 비디오 클립과 같은 비디오 영상과 연관된 매치되는 메타데이터를 검색하는데 사용된다. 관련된 메타데이터는 비디오 자료의 레코더 또는 자료의 업로더에 의해 수행되는 태깅(tagging)을 통해 비디오 클립과 연관될 수 있다.In the past few years, advances in camera technology and mobile devices have greatly increased the amount of video footage recorded on mobile devices such as smartphones and tablets. These images are uploaded to social media sites where users can search for interesting video images using their preferred search criteria. Search criteria are typically used to search for matching metadata associated with a video image, such as another video clip. Related metadata may be associated with the video clip via tagging performed by a recorder or uploader of the video material.
검색은 전형적으로 검색어를 지정하여 수행되므로, 특정 이벤트를 찍은 비디오 자료를 검색하는 것은 다소 어렵다. 사용된 검색어는 특정 이벤트와 관련이 있을 수 있지만, 그 이벤트를 찍은 비디오 자료에는 그러한 단어를 사용하여 태그가 지정되지 않을 수 있으므로 찾을 수 없다. 비디오 자료가 태그 작성자(tagger)에 의해 잘못 태그되었을 수도 있다.Searching is typically done by specifying a search term, so searching for video footage of a particular event is rather difficult. The search term used may be related to a particular event, but cannot be found because the video material that captured the event may not be tagged using such words. The video material may have been incorrectly tagged by the tag author.
이용 가능한 방대한 양의 비디오 자료는 또한 검색을 수행하는 자가 이를 검토하는 것이 실질적으로 불가능할 정도로 많은 양의 검색 결과를 초래할 수 있다. The vast amount of video material available may also result in a large amount of search results that would be practically impossible for the searcher to review them.
따라서, 검색 결과를 구성하는 방법은 메타데이터 기반 태깅에 따른 관련성을 포함할 수 있는데, 이는 메타데이터 부족 및 오류 (메타) 데이터를 포함하여 상기 언급된 이유로 인해 문제가 된다. 시청자 수 또는 시청자가 제공한 평가에 기반하여 인기도를 통해 구성할 수도 있지만, 이는 또 다시 주관적이며 정보가 부족한 경우가 많다.Thus, the method of constructing search results may include relevance according to metadata based tagging, which is problematic for the reasons mentioned above including lack of metadata and error (meta) data. You can also build on popularity based on the number of viewers or ratings provided by viewers, but this is again subjective and often lacks information.
전통적인 비디오 검색 방법은 또한 비디오 품질에 관한 정보를 제공할 수도 있다. 그러나, 특정 비디오 내에서도 비디오 품질이 크게 달라질 수 있으므로 문제가 되며 오해의 소지가 있을 수 있다. 품질 자체가 다소 주관적인 측정이며, 만약 업로더나 다운로더와 같은 비디오 항목의 사용자가 스스로 품질을 평가할 수 있는 경우에 사용된 척도는 사람들마다 다른 것을 의미할 수 있으며, 발행된 품질 등급은 서로 쉽게 비교할 수 없으므로, 품질 자체에 대한 평가가 어려운 경우가 종종 있다.Traditional video retrieval methods may also provide information about video quality. However, even within a particular video, video quality can vary greatly, which can be problematic and misleading. Quality itself is a rather subjective measure, and if the user of a video item such as an uploader or downloader can evaluate the quality on their own, the measures used can mean different things to different people, and the published quality ratings can be easily compared with each other. As a result, evaluation of the quality itself is often difficult.
예를 들어, 다른 각도 또는 방향으로 찍은 비디오의 편집(compilation)을 형성하기 위해 특정 이벤트에서 찍은 비디오를 조합할 수 있다. 그러나, 그러한 편집을 쉽게 구성하기 위한 도구, 예를 들어 필요에 따라 최소한 또는 최소한으로 감소된 필요한 사용자 입력은, 현재 사용할 수 없다. 사용 가능한 도구에는 약간의 수동 작업과 노력, 비디오 수정(editing)에 대한 특별한 전문 지식, 편집에서 선택하기 위한 다른 비디오 클립으로 넘어가는 것 등이 필요하다.For example, video taken at a particular event can be combined to form a compilation of video taken at different angles or directions. However, tools for easily composing such edits, for example the necessary user input reduced to a minimum or minimum as necessary, are currently unavailable. The tools available require some manual effort and effort, special expertise in video editing, and a jump to other video clips to choose from in editing.
본 발명의 목적은 공지된 종래 기술과 관련된 문제점 중 적어도 일부를 완화시키는 것이다.It is an object of the present invention to alleviate at least some of the problems associated with known prior art.
본 발명의 장치는 첨부된 청구항 제1항에 기재된 것을 특징으로 한다. 본 발명의 방법은 첨부된 청구항 제19항에 기재된 것을 특징으로 한다. The device of the invention is characterized by what is stated in the attached
컴퓨터 프로그램은 또한 청구항 제21항에 따라 제공된다. 컴퓨터 프로그램은 독립형 소프트웨어 프로그램 또는 모바일 어플리케이션 또는 모바일 어플리케이션의 일부일 수 있다. 컴퓨터 프로그램은 일부 실시예에서 비디오 수정 프로그램과 같은 하나 이상의 다른 소프트웨어 프로그램을 위한 플러그-인(plug-in)일 수 있다.A computer program is also provided according to claim 21. The computer program may be a standalone software program or part of a mobile application or mobile application. The computer program may in some embodiments be a plug-in for one or more other software programs, such as video modification programs.
본 발명은 바람직하게 자동 생성된 메타데이터를 통해 비디오 항목을 검색하기 위한 직관적이고 사용하기 쉬운 동적 장치를 제공하는 것과 같이 공지된 종래 기술에 비해 훨씬 더 많은 장점을 제공한다. 메타데이터가 비디오 항목의 업로더 또는 레코더에 의해 지정되지 않기 때문에 의도적이거나 우발적인 오류가 업로더 또는 레코더에 의해 생성되지 않을 수 있으므로 피할 수 있다.The present invention preferably provides even more advantages over known prior art, such as providing an intuitive and easy-to-use dynamic device for retrieving video items via automatically generated metadata. Since metadata is not specified by the uploader or recorder of the video item, an intentional or accidental error may not be generated by the uploader or recorder, so it is avoided.
본 발명의 일 실시예를 이용하여, 업로드된 특정 시간 또는 장소에서 녹화된 임의의 비디오 항목은, (비디오 항목과 연관된 보충적인 데이터로 지시된 것과 같은 캡쳐의) 시간과 장소를 검색 기준으로 사용함으로써 클라우드 컴퓨팅 환경을 이용하여 선택적으로 구현된 서버 장치와 같은 연관된 시스템으로부터 검색 및 다운로드될 수 있다.Using one embodiment of the present invention, any video item recorded at a particular time or place uploaded may be used as a search criterion by using time and place (of capture as indicated by the supplementary data associated with the video item). It may be retrieved and downloaded from an associated system, such as a server device, optionally implemented using a cloud computing environment.
장치는 장치의 사용자에게 검색 결과를 디스플레이하는 많은 다른 방법을 제공할 수 있다. 유리한 실시예에서, 비디오 품질이 또한 적어도 하나의 품질 지시 파라미터를 통해 지시될 수 있도록 장치의 사용자에게 검색 결과가 제공되며, 이러한 품질 파라미터 또는 '지시자'는 스마트폰, 태블릿 또는 다른 단말 디바이스와 같은 비디오 자료가 획득되는 디바이스의 센서 또는 통신 디바이스에 적어도 기능적으로 연결되거나 통신 디바이스에 구비된 카메라 디바이스를 통하여 획득된 데이터를 통해 메타데이터로서 유리하게 결정된다. 이러한 메타데이터는 바람직하게는 장치에 의해 자동적으로 생성될 수 있다. 본 발명을 이용하여, 비디오 품질을 지시하는 검색 결과를 제공하는 추가적인 이점과 함께, 이벤트로부터의 비디오 자료가 편리하게 검색되고 발견될 수 있으며, 이 경우에 장치의 사용자는 열악한 비디오 항목을 보지 않기로 선택할 수 있다. 비디오 항목과 연관된 태그와 같은 품질 또는 다른 메타데이터는 이미지(예를 들어, 비디오를 캡쳐하기 위해 사용된 이미지 센서 자체), 소리, 위치, 및/또는 가속/관선 센서와 같은 센서로부터 획득된 데이터에 기초하여 생성될 수 있다.The device may provide many other ways of displaying the search results to the user of the device. In an advantageous embodiment, the search results are provided to the user of the device such that the video quality can also be indicated via at least one quality indication parameter, which quality parameter or 'indicator' is a video such as a smartphone, tablet or other terminal device. The data is advantageously determined as metadata via data obtained at least functionally connected to a sensor or communication device of the device from which it is obtained or via a camera device provided in the communication device. Such metadata may preferably be automatically generated by the device. Using the present invention, with the added benefit of providing search results indicative of video quality, video material from events can be conveniently searched and found, in which case the user of the device chooses not to view poor video items. Can be. Quality or other metadata, such as tags associated with video items, may be applied to data obtained from sensors such as images (e.g., the image sensor itself used to capture video), sound, position, and / or acceleration / parallel sensors. Can be generated based on this.
비디오 항목은 현재 전형적으로 디지털, 비디오 파일 또는 클립, 또는 관련 동영상 또는 '촬영' 기간을 지시하는 해당 동영상 항목의 시간적 '길이' 또는 '정도'로 간주될 수 있는 지속 시간과 관련되는 적어도 하나 이상의 비디오 프레임을 하나 이상 포함할 수 있다. 비디오 항목은 특정 프레임 레이트, 또는 샘플링 레이트, 필수적인 것은 아니지만 전형적으로 적어도 약 10 또는 15Hz 내지, 예를 들어 약 25, 50, 100HZ 이상의 범위 내에 있는 샘플링 레이트를 갖는 실질적으로 연속적인 기록의 결과인 것으로 인식될 수 있다. 항목 내 레이트는 정적이거나 동적일 수 있다. 비디오 품질은 유리하게 평가될 수 있고, 바람직하게는 비디오의 세그먼트에 대해 개별적으로 또는 각 비디오 프레임에 대해 개별적으로 지시될 수 있으며, 이는 비디오의 일부만의 품질이 좋거나 좋지 않은 경우 사용자에게 지시할 수 있다는 추가적인 이점을 제공한다. 비디오 품질은 비디오 항목의 2개 이상의 서브 항목의 분석을 통해 평가될 수 있으며, 여기서 서브 항목은 서브 지속 기간과 관련된다. 평가 및 예컨대 관련된 태깅은 녹화 디바이스 또는 예컨대 수신(서버) 장치에 또는 제3자 시스템에 의해 위치될 수 있다. 품질은 평가될 수 있으며, 예를 들어 미리 결정된 스케일로 평가될 수 있어서, 사용자는 품질, 예를 들어 비디오의 세그먼트의 품질의 정도를 알 수 있다. 대안적으로 또는 추가로, 비디오 항목의 평균 품질은 선택적으로 사용자에게 통신될 수 있다. 스케일 또는 품질은 일반적으로 예를 들어, 프레임 레이트, 해상도, 안정성, 초점, 시야 등에 기초하여 평가되고, 보다 광범위하게 채택된 표준 또는 독점 솔루션 및/또는 사용자가 선택할 수 있는 설정에 기초하여 평가된다. The video item is currently at least one video that is typically associated with a digital, video file or clip, or a duration that can be considered as the temporal 'length' or 'degree' of the video or related video item indicating the duration of the shooting. It can contain one or more frames. Recognizing that a video item is the result of a substantially continuous recording having a particular frame rate, or sampling rate, but not necessarily, but typically ranging from at least about 10 or 15 Hz to, for example, about 25, 50, 100 HZ or more. Can be. Rate within an item can be static or dynamic. The video quality can be advantageously assessed, and can preferably be indicated individually for each segment of the video or for each video frame, which can indicate to the user if only part of the video is of good or poor quality. That provides additional benefits. Video quality can be assessed through analysis of two or more subitems of a video item, where the subitem is related to the sub duration. The assessment and associated tagging, for example, can be located at the recording device or at the receiving (server) device or by a third party system. The quality can be evaluated, for example on a predetermined scale, so that the user can know the degree of quality, for example the quality of a segment of the video. Alternatively or in addition, the average quality of the video item may optionally be communicated to the user. Scale or quality is generally assessed based on, for example, frame rate, resolution, stability, focus, field of view, and the like, and based on more widely adopted standard or proprietary solutions and / or user selectable settings.
품질 지시자가 비디오 항목의 하나 이상의 서브 항목에 할당되는 바람직한 실시예에서, 품질이 낮은 하나 이상의 서브 항목을 지시하고 그 이후에 이러한 하나 이상의 서브 항목의 품질을 향상시킬 수 있음으로써 비디오 항목의 품질을 편리하게 향상시키거나 개선시키는 것이 가능하다. 예를 들어, 안정성과 관련된 품질 지시자를 통해, 특정 서브 항목이 안정성을 위해 수정되어야 하고 적절한 수정이 특정 서브 항목에 적용될 수 있다고 결정될 수 있다.In a preferred embodiment in which a quality indicator is assigned to one or more subitems of a video item, the quality of the video item is convenient by indicating one or more subitems of low quality and then improving the quality of such one or more subitems. It is possible to improve or improve. For example, through quality indicators related to stability, it may be determined that a particular subitem should be modified for stability and that appropriate modifications can be applied to that particular subitem.
본 발명을 이용하여, 획득된 비디오 데이터는 인증 목적을 위해 획득된 센서 데이터와 비교될 수 있다. 데이터 간에 불일치가 있는 경우에 두 데이터 중 어느 것이라도 부정확한 것으로 결정될 수 있다. 예를 들어, 모바일 디바이스의 모션 데이터의 분석은 획득된 비디오 데이터로부터 결정될 수 있고, 이는 수신된 센서 데이터와 비교될 수 있으며, 또한 이들 데이터가 일치하여 수신된 컨텐츠를 인증하는 것으로 결정될 수 있다.Using the present invention, the obtained video data can be compared with sensor data obtained for authentication purposes. If there is a mismatch between the data, either of the two data can be determined to be inaccurate. For example, the analysis of the motion data of the mobile device can be determined from the acquired video data, which can be compared with the received sensor data, and these data can also be determined to match the received content.
데이터가 복수의 센서로부터 수신될 수 있는 실시예에서, 수신된 데이터 중 일부는 다른 센서로부터의 센서 데이터에 의해 특정되거나 정밀해질 수 있다. 위치 데이터는 예를 들어 복수의 센서로부터 획득된 데이터를 이용하여 보다 정확하게 이루어질 수 있다.In embodiments in which data may be received from a plurality of sensors, some of the received data may be specified or refined by sensor data from other sensors. The position data can be made more precise, for example using data obtained from a plurality of sensors.
일부 실시예에서, 외부 데이터를 이용하는 것이 가능할 수 있다. 비디오 항목을 검색하기 위해 외부 데이터 소스, 예를 들어, RSS 피드가 또한 자동적으로 이용될 수 있다. 외부 소스는 예를 들어 응급 센터에서 처리하는 이벤트와 관련된 정보를 제공하는 RSS 피드를 제공할 수 있다. 이어서, 그러한 피드 또는 그러한 피드에서 선택된 특정 순간에 대응하는 비디오 항목 검색 결과를 제안할 수 있도록 장치가 구성될 수 있다.In some embodiments, it may be possible to use external data. External data sources, such as RSS feeds, can also be used automatically to retrieve video items. An external source may provide an RSS feed that provides information related to, for example, an event processed by the emergency center. The device may then be configured to suggest video item search results corresponding to that feed or to a particular moment selected from that feed.
본 발명의 실시예는 획득된 센서 데이터/보충 데이터를 통해 획득된 비디오 컨텐츠를 분석 및/또는 해석하는데 사용될 수 있다.Embodiments of the present invention may be used to analyze and / or interpret video content obtained through acquired sensor data / supplementary data.
본 발명의 실시예를 이용함으로써 얻어지는 이점은 또한 컨텐츠를 보충하거나 완성하는 것이 가능할 수 있다는 것이다. 예를 들어, 2개의 비디오 항목이 2개의 상이한 모바일 사용자 디바이스에 의해 동일한 위치에서 동시에 캡쳐된 것으로 결정될 수 있다. 이어서, 다른 모바일 사용자 디바이스를 통해 획득된 비디오 컨텐츠를 보충하기 위해 센서 데이터 및/또는 보충 데이터 및/또는 하나의 모바일 사용자 디바이스로부터 분석된 데이터, 예를 들어, 오디오 데이터를 이용하는 것이 가능할 수 있다.An advantage obtained by using embodiments of the present invention is that it may also be possible to supplement or complete the content. For example, two video items may be determined to be captured simultaneously at the same location by two different mobile user devices. It may then be possible to use sensor data and / or supplemental data and / or data analyzed from one mobile user device, for example audio data, to supplement video content obtained via another mobile user device.
일부 실시예에서, 자동적으로 생성된 메타데이터와 관련될 수 있는 다른 검색 기준이 제공될 수도 있다. 일 실시예에서, 예를 들어, 이미지 분석을 통해 획득된 메타데이터가 이용될 수 있다. 예시적인 사용 시나리오에서, 장치의 사용자는 특정 플레이어가 보이는 스포츠 이벤트와 같은 특정 이벤트에서 촬영된 비디오 자료를 찾고자 할 수 있다. 이는 예를 들어 플레이어의 (성)이름 또는 번호와 같이 사용자의 검색 쿼리에서 지정될 수 있고, 검색 결과에서 장치는 문제의 플레이어가 보이는 이벤트의 비디오 항목을 제공할 수 있으며, 여기서 플레이어 번호는 본질적으로, 예컨대 패턴 인식과 관련된 비디오 영상의 이미지 분석을 통해 검출되고 이는 비디오 메타데이터에 추가된다. In some embodiments, other search criteria may be provided that may be associated with automatically generated metadata. In one embodiment, for example, metadata obtained through image analysis may be used. In an example usage scenario, a user of the device may wish to find video material shot at a particular event, such as a sporting event with a particular player visible. This can be specified in the user's search query, for example, the player's last name or number, and in the search results the device can provide a video item of the event in which the player in question is visible, where the player number is essentially For example, it is detected through image analysis of a video image related to pattern recognition and added to the video metadata.
전술한 예시와 관련하여, 일 실시예에서, 장치는 또한 원한다면 예를 들어 이벤트의 비디오 편집을 생성할 수 있는데, 이러한 비디오 편집은, 예를 들어, 특정 플레이어 또는 팀이 독점적으로 또는 긍정적이거나 부정적인 강조를 특징으로 하는 이벤트의 비디오 편집일 수 있으며, 예를 들어, 플레이어 또는 팀이 보이는 비디오 항목이 컴파일될 수 있다. 또한 다른 자료, 예를 들어 오디오 자료가 비디오 자료와 통합될 수 있다.In connection with the example described above, in one embodiment, the device may also create, for example, a video edit of the event, if desired, such video edit being emphasized exclusively or positively or negatively by a particular player or team, for example. It may be a video editing of an event characterized by, for example, a video item in which the player or team is visible may be compiled. Other materials may also be integrated with the video material, for example audio material.
비디오 편집은 다양한 유형의 자동적으로 생성된 메타데이터를 이용하여 생성될 수 있다. 예를 들어, 이벤트와 관련하여 비디오가 촬영된 방향 또는 각도, 또는 비디오 영상에 보이는 특정 객체가 고려될 수 있다. 일 실시예에서, 비디오 품질은 비디오 항목의 서브 항목에 대해 개별적으로 평가될 수 있다. 이후에 잠재적 이점은, 예를 들어, 사용자-결정된 기준에 따라 고품질 또는 충분한 비디오 서브 항목만을 갖는 비디오 편집이 생성될 수 있다는 것이다. Video editing can be created using various types of automatically generated metadata. For example, in relation to the event, the direction or angle at which the video is captured, or a specific object visible in the video image may be considered. In one embodiment, video quality may be evaluated separately for subitems of video items. A potential advantage thereafter is that video edits can be created having only high quality or sufficient video subitems, for example, according to user-determined criteria.
상술한 이점은 비디오 검색을 수행하는 데 요구되는 시간을 실질적으로 크게 감소시킬 수 있다. 사용자에 의해 주어진 기준을 포함하는 검색 쿼리와 같은 사용자 입력에 응답하여, 비디오 편집이 심지어 동적으로, 경우에 따라서는 실질적으로 실시간 방식으로 자동적으로 생성될 수 있기 때문에 인력 및 계산 리소스가 절약될 수 있다. The above-described advantages can substantially reduce the time required to perform a video search. In response to user input, such as a search query that includes a criterion given by the user, manpower and computational resources can be saved because video editing can be generated automatically, even dynamically, in some cases substantially in real time. .
일부 실시예에서, 장치는 개인 사용자에 의해 이용될 수 있는 반면에, 일부 다른 실시예에서 리포터 또는 뉴스 방송국과 같은 전문 사용자는 배포, 출판, 또는 다른 목적을 위해 이벤트의 비디오 자료를 획득할 수 있다. 장치를 통해 관련성이 높고 고품질의 영상을 빠르고 쉽게 얻을 수 있다. 또한, 뉴스 제작 과정에서 리포터가 비디오 영상을 획득하기 위해 특정 위치로 이동할 필요가 없기 때문에 필요한 시간과 필요한 비용이 감소될 수 있다. 예를 들어, 비디오 영상을 촬영하는 최상의 각도 또는 방향이 장치를 통해 또한 발견될 수 있다.In some embodiments, the device may be used by an individual user, while in some other embodiments a professional user, such as a reporter or news station, may obtain video material of an event for distribution, publication, or other purposes. . The device makes it fast and easy to obtain relevant, high-quality images. In addition, since the reporter does not need to move to a specific location to acquire a video image during the news production process, the required time and required cost can be reduced. For example, the best angle or direction of taking a video image can also be found through the device.
또한, 이벤트로 인해 실수로 얻은 비디오 자료, 아마도 예기치 않은 자료를 검색할 수도 있다. 이러한 기능은 예를 들어 법 집행 기관에서 가능한 범죄 사건을 조사하거나 범죄를 저지른 것으로 의심되는 개인을 검색하기 위해 이용될 수 있다. 그러나, 예를 들어, 소방대 또는 기타 비상 유닛은 직무 수행 시 이용 가능한 데이터를 활용할 수 있다.You can also search for video material, perhaps unexpected, that you accidentally get from the event. This function can be used, for example, to investigate possible criminal cases in law enforcement or to search for individuals suspected of committing a crime. However, for example, fire brigade or other emergency units may utilize available data in performing their duties.
본 발명의 실시예는 뉴스 제공자 또는 임의의 다른 개인이나 기업 당국이 비디오 컨텐츠를 구매하거나 일반적으로 획득하기 위한 신규한 방법을 제공할 수 있다. 이러한 장치의 실시예를 통해, 사용자는 비디오 컨텐츠의 접근 권한 또는 배타적 권리를 획득할 수 있고, 컨텐츠 업로더에게 지불을 수행하는 방법이 수행될 수 있다. 컨텐츠에 대한 독점권을 구매하거나 달리 발행되는 경우, 해당 컨텐츠는 데이터베이스에서 제거될 수 있다.Embodiments of the present invention may provide a novel method for news providers or any other individual or business authorities to purchase or generally obtain video content. Through an embodiment of such an apparatus, a user may obtain access rights or exclusive rights for video content, and a method of performing a payment to a content uploader may be performed. If an exclusive right to the content is purchased or otherwise issued, the content may be removed from the database.
액세스 하기 위한 권리나 배타적인 권리의 가격은 다른 실시예에서, 예를 들어, 경매, 또는 비디오 컨텐츠 및/또는 품질 분석에 기초한 장치에 의해 자동적으로 결정될 수 있는 가격을 통해 결정될 수 있다. 대안적으로 또는 추가적으로, 다른 파라미터들도 가격에 영향을 미칠 수 있는데, 예를 들어, 가능한 검색어 통계에 기초하여 추정될 수 있는 문제가 되는 비디오 항목의 일반적인 인기도 또는 수요와 같은 것도 가격에 영향을 미칠 수 있다. The price of the right to access or the exclusive right may be determined in another embodiment via a price that may be automatically determined by the device, for example, based on auction, or video content and / or quality analysis. Alternatively or additionally, other parameters may also affect the price, such as the general popularity or demand of the video item in question, which can be estimated based on possible query statistics, for example. Can be.
장치에 대한 다른 사용자 권한이 다른 사용자 프로필 카테고리와 함께 제공될 수도 있다. 예를 들어, 사용자는 무료로 사용자 프로필을 획득할 수 있으며, 그리고 예를 들어, 미리 결정된 위치에서만, 획득된 비디오 컨텐츠를 검색하기 위해 더 제한된 가능성이 제공될 수 있다. 이용 가능한 검색 위치 또는 다른 검색 기준이 확장되는 사용자 프로필에 대해 요금, 예를 들어, 월별 요금이 청구될 수 있다.Other user rights for the device may be provided along with other user profile categories. For example, a user may obtain a user profile for free, and more limited possibilities may be provided for retrieving acquired video content, for example only at predetermined locations. You may be charged a fee, for example a monthly fee, for a user profile in which available search locations or other search criteria are expanded.
본 발명의 실시예를 통해, 특정 이벤트, 위치, 또는 인스턴스가 차단될 수 있어서, 사용자 그룹 또는 임의의 사용자는 이벤트 또는 위치에서 또는 특정 인스턴스에서 획득된 비디오 자료에 액세스하지 못할 수 있다. 차단은 일시적이거나 영구적일 수 있으며, 수동으로 (예를 들어, 장치의 운영자에 의해) 또는 외부 소스를 통해 얻은 정보 또는 트리거에 기초하여 자동적으로 결정될 수 있다. 예를 들어, 사고 현장은 (자동적으로 또는 수동적으로) 비상 대응 센터를 통해 보고될 수 있으며, 그 결과 비상 현장 및 선택적으로 인접한 지역은, 예를 들어 윤리적인 고려 사항으로 인해 장치에 의해 자동적으로 차단될 수 있으며, 및/또는 대안적으로, 구체적으로 모니터링할 위치로 설정될 수 있다. Through embodiments of the present invention, certain events, locations, or instances may be blocked such that a user group or any user may not have access to video material obtained at the event or location or at a particular instance. Shutdown may be temporary or permanent, and may be determined automatically based on triggers or information obtained manually (eg by the operator of the device) or through an external source. For example, an accident site can be reported (either automatically or manually) through an emergency response center, so that the emergency site and optionally adjacent areas are automatically blocked by the device, for example due to ethical considerations. And / or alternatively, it may be specifically set to a location to monitor.
다른 양태에서, 본 발명은 선택적으로 녹화 단말기의 설정에 따라, 또는 예를 들어 이와 연관된 사용자 계정에 따라 비디오 항목을 서버에 자동적으로 업로드하기 위한 수단을 제공할 수 있다. 원하는 경우, 특정 디바이스를 사용하여 촬영한 모든 비디오를 불필요한 지연 없이 자동적으로 서버에 업로드할 수 있다. 이러한 방식으로, 비디오 항목을 선택적으로 실시간으로 간단히 검색할 수 있으며, 비디오 자료 업로드를 수동으로 트리거해야 한다는 것을 기억할 필요가 없다. 일 실시예에서, 모바일 디바이스를 위한 어플리케이션이 제공될 수 있고, 어플리케이션이 실행되는 동안 또는 디바이스가 특정 모드 또는 상태, 예를 들어 활성 상태에 있는 동안 디바이스에 의해 캡쳐된 모든 비디오 자료가 서버에 자동적으로 업로드될 수 있다.In another aspect, the present invention may optionally provide a means for automatically uploading a video item to a server according to the settings of the recording terminal or, for example, according to a user account associated therewith. If you want, you can automatically upload all the videos you take using a particular device to the server without unnecessary delay. In this way, video items can be selectively retrieved simply in real time, without having to remember to manually trigger video material upload. In one embodiment, an application for a mobile device may be provided, wherein all video material captured by the device while the application is running or while the device is in a particular mode or state, for example an active state, is automatically provided to the server. Can be uploaded.
예를 들어, 메타데이터의 자동 초기 태깅은 예를 들어, 이미지 분석 방법을 통해 수행된 자동 초기 태깅은 외부 데이터 리소스를 사용하여 수정, 조정 또는 달리 변경될 수도 있다. 예를 들어, 마라톤의 경우, 영상이 실제로 "28"의 번호를 가진 경쟁자인 경우에, 장치는 경쟁자 번호 "26"을 참조하는 태그를 비디오 영상에 잘못 할당할 수도 있다. 마라톤에 대한 타이밍 결과 기록이 제공될 수 있으며, 일부 경우에 비디오 영상을 캡쳐할 때 경쟁자 "26"이 해당 위치에 있지 않음을 확인하는 것이 가능할 수 있다. 이 경우, 장치는 메타데이터/태깅 할당이 원래 잘못되었다고 결정할 수 있고, 이미지 분석을 통해 연관된 태그가 경쟁자 "28"을 참조하도록 수정될 수 있다.For example, automatic initial tagging of metadata may be modified, adjusted or otherwise changed using external data resources, for example, automatic initial tagging performed through an image analysis method. For example, in the case of a marathon, if the picture is actually a competitor with the number " 28 ", the device may incorrectly assign a tag referring to the competitor number " 26 " to the video picture. A recording of timing results for the marathon may be provided, and in some cases it may be possible to confirm that the competitor “26” is not at that location when capturing the video image. In this case, the device may determine that the metadata / tagging assignment was originally wrong, and through the image analysis, the associated tag may be modified to refer to the competitor “28”.
다양한 유리한 특징을 포함하는 사용자 인터페이스를 갖는 어플리케이션이 장치의 사용자의 디바이스에 제공될 수 있다. 예를 들어, 컨텐츠 제공 사용자에 대해, 비디오 컨텐츠가 쉽게 캡쳐될 수 있는 사용자 인터페이스(UI)가 제공될 수 있다. 사용자 인터페이스는 비디오 녹화를 개시 또는 종료하도록 조작될 수 있는 다기능 녹화 버튼을 포함할 수 있고, 또한 추가로 실시간으로 녹화되고 있거나 주어진 순간에 녹화될 수 있는 비디오와 관련된 정보를 컨텐츠 제공 사용자와 통신한다.An application having a user interface that includes various advantageous features may be provided to a device of a user of the apparatus. For example, for a content providing user, a user interface (UI) may be provided in which video content can be easily captured. The user interface may include a multifunction recording button that may be manipulated to initiate or end video recording, and further communicates information to the content providing user regarding video that is being recorded in real time or that may be recorded at a given moment.
다기능 녹화 버튼 또는 유사한 UI 특징은 또한 컨텐츠 제공 사용자에 의해 영리하게 또는 자동적으로, 예를 들어, 녹화 디바이스의 스크린 상의 원하는 위치에 배치될 수 있다. 이는 녹화 버튼이 항상 컨텐츠 제공 사용자를 위한 최적의 위치에 위치될 수 있다는 것을 보장하고, 여기서 최적의 위치는, 예를 들어 컨텐츠 제공 사용자의 손가락의 길이 또는 손에 의존할 수 있다. The multi-function record button or similar UI feature may also be placed cleverly or automatically by the content presenting user, for example at a desired location on the screen of the recording device. This ensures that the record button can always be located at the optimal location for the content presenting user, where the optimal location may depend, for example, on the length or hand of the content presenting user's finger.
일 실시예에서, 다기능 녹화 버튼은 또한 컨텐츠 제공 사용자에 의해 크기 조정(확대, 축소, 및/또는 달리 확장)될 수 있다. 다기능 녹화 버튼은 (사용자) 선호도에 따른 크기로 설정될 수 있거나, 또는 예를 들어 컨텐츠 제공 사용자가 녹화 디바이스의 원하는 가시성을 갖는 것을 보장하기 위해 크기가 조정될 수 있으며, 이 경우 버튼의 크기는 예를 들어 화면 또는 윈도우 크기의 선택된 한계를 초과하지 않아야만 한다. In one embodiment, the multifunction record button may also be scaled (zoom in, zoomed out, and / or otherwise expanded) by the content presenting user. The multi-function record button can be set to a size according to the (user) preference or can be resized, for example, to ensure that the content providing user has the desired visibility of the recording device, in which case the size of the button For example, it must not exceed the selected limit of screen or window size.
일 실시예에서, 사용자 인터페이스를 사용하여, 검색 사용자는 시간 및 위치(예를 들어, 위치-특정 목표 이벤트의 표시 또는 주소, 좌표, 도시 또는 지역 이름의 보다 정확한 표시)를 가진 검색 쿼리를 제공한 후, 주어진 위치의 근처에서 제공된 시간에 비디오가 캡쳐한 지도를 볼 수 있다. 비디오가 촬영된 관점 또는 방향 및/또는 품질, 또는 비디오의 관점은 또한 검색 사용자에게 통신될 수 있다. 사용자 인터페이스는 검색 사용자에 의해 조정될 수 있는 타임라인을 포함할 수 있으며, 타임라인의 조작은 검색 사용자가 전술한 맵을 통해 맵 영역에서 이용 가능한 비디오와 관련하여 제공된 정보의 시간에 따른 변화를 볼 수 있도록 하는 결과를 야기할 수 있다. 일 실시예에서, 사용자 인터페이스는 타임라인에서 주어진 시간에 맵에 지시된 하나 이상의 비디오를 추가로 보여줄 수 있다. 비디오가 재생되고 타임라인이 진행되도록 허용될 수 있는 동안, 맵 보기 변화는 그에따라 변한다. 검색 사용자는 또한 검색 쿼리를 통해 표시된 시간 부근에서 원하는 시간에 대응하는 비디오 프레임 및/또는 맵 구성을 보기 위해 타임라인을 조작할 수 있다. 일부 실시예에서, 시간 및 위치는 또한 검색 쿼리가 제공된 후 검색 사용자에 의해 선택되거나 변경될 수 있다.In one embodiment, using a user interface, a search user provides a search query with time and location (e.g., a representation of a location-specific target event or a more accurate representation of an address, coordinates, city or region name). Then, you can see the map captured by the video at the given time near the given location. The point of view or direction in which the video was taken and / or the quality, or the point of view of the video, may also be communicated to the search user. The user interface may include a timeline that can be adjusted by the search user, the manipulation of the timeline being such that the search user can see the change over time of the information provided in relation to the video available in the map area via the map described above. Can cause results. In one embodiment, the user interface may further show one or more videos directed to the map at a given time in the timeline. While the video can be played and the timeline can be allowed to progress, the map view changes accordingly. The search user may also manipulate the timeline to view the video frame and / or map configuration corresponding to the desired time near the time indicated through the search query. In some embodiments, the time and location may also be selected or changed by the search user after the search query is provided.
청구범위 및 발명의 설명은 본 발명을 동시에 또는 상이한 시간에 이용할 수 있는 검색 또는 컨텐츠 제공의 사용자의 수에 제한을 두지 않는다. 주어진 시간에, 여러명의 사용자가 존재하거나, 또는 하나의 사용자, 또는 한 명의 사용자도 없을 수 있다. 기술적 관점에서, 개시된 장치는 선택적으로 동적으로, 예를 들어, 클라우드, 그들의 사용자에게 서비스를 제공하기 위해 요구되는 처리, 저장, 및 통신 용량의 관점에서 필요한 하드웨어로부터 배치될 수 있다. The claims and description of the invention do not limit the number of users of search or content provisioning that can use the invention simultaneously or at different times. At a given time, there may be several users, or there may not be one user or one user. From a technical point of view, the disclosed apparatus may optionally be deployed dynamically, eg, from the hardware required in view of the processing capacity, storage, and communication capacity required to provide services to their users.
본원에서 "시간"이라는 용어는 특정 날짜 상의 (예를 들어, 분당 또는 초당) 정확한 시간 또는 다른 시간으로부터의 미리 결정된 시간 제한 내의 시간과 같은 시간 간격을 지칭할 수 있다. "위치"라는 용어는 좌표와 같은 특정 위치, 또는 예를 들어, 도시나 특정 위치로부터 미리 결정된 거리 내에 존재하는 것으로 특정될 수 있는 영역과 같은 영역을 지칭할 수 있다. The term “time” herein may refer to a time interval such as a time within a predetermined time limit from an exact time (eg, per minute or per second) on another date or from another time. The term “location” may refer to a specific location, such as coordinates, or an area, such as an area, which may be specified to exist within a predetermined distance, for example, from a city or a specific location.
"복수"라는 용어는 본원에서 2개 이상을 지칭한다. "개수"라는 용어는 하나 이상을 지칭한다.The term "plurality" refers to two or more herein. The term "number" refers to one or more.
본 명세서에 제시된 예시적인 실시예는 첨부된 청구 범위의 적용 가능성을 제한하는 것으로 해석되지 않아야 한다. 본원에서 "포함하다"라는 동사는 인용되지 않은 특징의 존재를 배제하지 않는 공개적인 제한으로서 사용된다. 청구범위에 인용된 특징들은 달리 명시적으로 언급되지 않는 한 상호 간에 자유롭게 조합 가능하다.The illustrative embodiments presented herein are not to be construed as limiting the applicability of the appended claims. The verb “comprises” is used herein as a public limitation that does not exclude the presence of features not cited. The features recited in the claims are freely combinable with one another unless expressly stated otherwise.
본 발명의 특징으로 간주되는 신규한 특징들은 특히 첨부된 청구범위에 기재되어 있다. 그러나, 본 발명 자체의 추가적인 목적 및 장점과 함께, 그 구성 및 동작 방법에 관해서는 첨부 도면과 관련하여 읽는 경우에 이하의 특정 예시적인 실시예의 설명으로부터 가장 잘 이해될 것이다.The novel features regarded as features of the invention are described in particular in the appended claims. However, with respect to the additional object and advantages of the present invention itself, its configuration and operation method will be best understood from the following description of specific exemplary embodiments when read in conjunction with the accompanying drawings.
장치의 다양한 실시예들에 관한 앞서 제시된 고려 사항들은 통상의 기술자에 의해 이해되는 바와 같이, 방법의 실시예들에 유연하게 적용될 수 있으며, 그 반대도 마찬가지이다.The considerations set forth above with respect to various embodiments of the apparatus may be flexibly applied to embodiments of the method, as understood by those skilled in the art, and vice versa.
이하에서, 본 발명은 첨부 도면에 따른 예시적인 실시예를 참조하여 보다 상세하게 기술될 것이다.
도 1은 본 발명의 일 실시예에 따른 예시적인 구성을 도시하고,
도 2는 본 발명의 일 실시예에 따른 제1 사용자 인터페이스의 예시적인 어플리케이션 뷰를 도시하며,
도 3은 본 발명의 일 실시예에 따른 제2 사용자 인터페이스의 예시적인 어플리케이션 뷰를 도시하고,
도 4는 본 발명의 실시예에 따른 방법에서 실행될 수 있는 단계를 도시한다.In the following, the invention will be described in more detail with reference to exemplary embodiments according to the accompanying drawings.
1 illustrates an exemplary configuration in accordance with one embodiment of the present invention,
2 illustrates an example application view of a first user interface in accordance with an embodiment of the present invention;
3 illustrates an example application view of a second user interface in accordance with an embodiment of the present invention;
4 illustrates steps that can be executed in a method according to an embodiment of the invention.
도 1은, 예를 들어 본 발명의 일 실시예에 따른 비디오의 배포를 위한 네트워크 서비스를 구현하기 위한, 하나 이상의 서버 컴퓨터 및/또는 다른 네트워크 측 요소를 선택적으로 포함하는 예시적인 장치(100)를 포함한다. 1 illustrates an
보다 구체적으로, 장치(100)는, 컨텐츠 제공 사용자 디바이스인 제1 사용자 디바이스(104)로부터 비디오 항목을 수신하는 프로세서(102)를 포함하고, 사용자 디바이스(104)는 모바일 폰 또는 태블릿과 같은 모바일 디바이스일 수 있다. 다른 실시예에서, 비디오 파일, 또는 '클립'과 같은 준비된 캡쳐된 완전 항목들은 캡쳐 단계 후에 수신될 수 있는 반면, 일부 실시예에서, 비디오 항목은, 예를 들어, 캡쳐하는 동안 실질적으로 실시간 방식으로, 스트림으로서 디바이스(104)로부터 수신될 수 있다. 프로세서(102)는 실제로 적어도 하나의 원격 서버에 상주할 수 있고, 비디오 항목의 수신은, 예를 들어, 서버 또는 프로세서(102)와 사용자 디바이스(104) 사이의 적어도 부분적으로 무선 통신을 이용하여 실현될 수 있다. 예를 들어, 적어도 하나의 데이터베이스(122), 서버, 또는 일반적으로는 장치(100)에 데이터를 저장하기 위해, 메모리를 포함할 수 있고, 통신 목적을 위해, 무선 또는 유선 트랜시버, 예를 들어, LAN(local area network) 네트워크에서 동작 가능한 트랜시버와 같은 통신 인터페이스를 포함할 수 있다. 실제로, 장치(100)는 인터페이스를 통해 인터넷과 같은 통신 네트워크에 연결될 수 있으며, 여기서 디바이스(104)는 또한 관련된 무선, 선택적으로는 셀룰러 또는 Wi-Fi 유형 네트워크의 무선 링크를 통해 액세스할 수 있다. More specifically, the
프로세서, 메모리 및 인터페이스(예를 들어, 무선 트랜시버) 이외에, 제1 사용자 디바이스(104)는 또한 복수의 센서, 적어도 카메라(106)(적외선 주파수와 같이 가시적 및/또는 비가시적을 캡쳐하는 이미지 센서; 후자는, 예컨대 온도 추정 및/또는 열-기반 물체/대상 위치 결정 목적을 위한 열적 이미지를 제공할 수 있음) 및 추가로 다른 센서, 예컨대 자력계(108), 가속도계(110), 마이크로폰(112), GPS 센서(114), 및/또는 자이로스코프(116), 또는 여전히 추가 관성 센서를 포함한다. 추가로 적용 가능한 센서는, 예를 들어, 온도, 습도, 및 압력 센서를 포함한다. 제1 사용자 디바이스(104)의 센서들로부터의 센서 데이터(비디오 항목을 캡쳐할 때 획득되고 비디오 항목에서 캡쳐 순간과 연관되거나 또는 일반적인 비디오 항목과 연관된, 가능하다면 특정 데이터 항목에 따른 센서 데이터)는 프로세서(102)에 의해 수신될 수 있다. 추가적으로, 다른 데이터는 비디오 항목과 관련된 시간적 데이터(캡쳐 시간, 지속 기간 등)과 같은 제1 사용자 디바이스(104)를 통해 프로세서(102)에 의해 수신될 수 있다.In addition to a processor, memory and interface (eg, wireless transceiver), the
일부 실시예에서, 장치는 추가로 또는 대안적으로 하나 이상의 보조 컨텐츠 제공 장치 또는 보조 사용자 디바이스(105)를 포함할 수 있다.In some embodiments, the apparatus may additionally or alternatively include one or more auxiliary content providing apparatus or
제1 사용자 디바이스(104)의 외부에 있는 하나 이상의 디바이스(105)는, 데이터를 획득하고 유선 또는 무선 통신을 통해 제1 사용자 디바이스(104)에 데이터를 전송하는 하나 이상의 센서를 포함할 수 있는데, 데이터는, 예를 들어 스트림 또는 스트림 또는 미리-캡쳐된 완전한 항목(예를 들어, 파일)으로서 전송할 수 있다. 이어서, 제1 사용자 디바이스(104)는 (그와 같이 또는 적응된 형태로) 데이터 및 가능하다면 다른 데이터를, 예를 들어, 제1 사용자 디바이스(104)에 포함된 센서로부터 프로세서(102)로 전송할 수 있다.One or
일부 실시예에서, 하나 이상의 보조 디바이스(105)는 추가로 또는 대안적으로 그의 하나 이상의 센서로부터 프로세서(102)로 데이터를 바로 전송할 수 있다.In some embodiments, one or more
예시로서, 드론, 다른 무인, 선택적으로는 공중, 차량 또는 일반적으로 일부 다른 유형의 센서/카메라 운반(사용자) 디바이스는 비디오 데이터 및 선택적으로 센서 데이터와 같은 추가 데이터를 공급하는데 사용될 수 있다. 항목은 제1 사용자 디바이스(104)로 전송될 수 있다. 따라서, 연결된 비디오 캡쳐 디바이스(105)로부터 원래 잠재적으로 획득된 이러한 데이터는 제1 사용자 디바이스(104)를 통해 프로세서(102)에 의해 수신될 수 있다.As an example, drones, other unmanned, optionally aerial, vehicle or generally some other type of sensor / camera carrying (user) devices may be used to supply additional data such as video data and optionally sensor data. The item may be sent to the
일 실시예에서, 장치(100)는 제1 사용자 디바이스(104)와 연결된 제1 사용자 어플리케이션(118)을 포함한다. 제1 사용자 어플리케이션(118)은 제1 사용자 인터페이스(120)를 제공할 수 있으며, 이는 제1 사용자 디바이스(104)에 의해 비디오 컨텐츠의 녹화를 가능하게 하고, 획득되는 비디오 컨텐츠 및/또는 센서 데이터에 관한 정보를 제공할 수 있다. In one embodiment, the
제1 사용자 디바이스(104)는 일부 실시예에서, 비디오 데이터 및 보충 데이터를 획득하고 그러한 데이터를 예컨대 메모리 카드를 통해 프로세서(102)에 제공하도록 구성된 카메라, 예를 들어 단일 렌즈 반사 또는 미러리스 교환 가능한-렌즈 카메라일 수 있다. 메모리 카드는 전술한 데이터를 프로세서(102)에 보내도록 구성될 수 있으며, 예를 들어 무선 수단을 통해 보낼 수 있다. 이 실시예에서, 장치(100) 및 관련 발명은, 제1 사용자 디바이스(104)를 통해 이용될 수 있으며, 이는 예를 들어, 본질적으로 장치(100)에 포함되는 어플리케이션을 포함한다. 메모리 카드는 카메라와 같은 복수의 제1 사용자 디바이스(104)가 장치(100)와 함께 이용될 수 있게 할 수 있다.The
제1 사용자 디바이스(104)로부터 수신된 비디오 항목은 프로세서(102)가 액세스할 수 있는 데이터베이스(122)에 저장될 수 있고, 이 둘은 서버 장치에 포함될 수 있다.Video items received from the
프로세서(102)는 제1 사용자 디바이스(104)를 통해 수신된 데이터를 사용하여 적어도 하나의 수신된 비디오 항목의 자동 태깅(예컨대, 검색될 수 있는 키워드 또는 다른 기술어 할당)을 수행하도록 구성될 수 있다. 본원에서, 데이터는 제1 사용자 디바이스(104)의 센서를 통해 획득된 데이터 및 추가적으로 비디오 항목과 관련하여 제1 사용자 디바이스(104)로부터 수신될 수 있는 다른 데이터, 예컨대 비디오 항목이 캡쳐된 시간에 관한 데이터를 지칭할 수 있다. 유리한 실시예에서, 적어도 시간은 비디오 컨텐츠와 관련된 메타데이터 파일, 필드, 부분 또는 다른 데이터 요소에 추가되는데, 즉, 비디오 항목은 적어도 일시적인 정보로 태깅된다.The
프로세서(102)는 센서 데이터 분석 모듈(124)을 포함하거나 이에 액세스할 수 있으며, 이는 수신된 비디오 항목 또는 다른 데이터 컨텐츠를 분석하는데 사용될 수 있고, 추가적으로 자동 태깅에 이용될 수도 있다. 대안적으로 또는 추가적으로, 일부 태깅이 사용자 디바이스(104)에서 발생할 수 있다. 센서 데이터 분석 모듈은 수신된 비디오 항목과 연관된 상이한 유형의 센서 데이터 또는 메타데이터를 분석하기 위한 수단을 포함할 수 있다.
예를 들어, GPS 센서(114)로부터의 정보는 비디오 항목이 캡쳐된 위치를 결정하는데 사용될 수 있다. 유리한 실시예에서, 시간 정보에 추가하여, 수신된 비디오 자료는 GPS 센서(112)를 통해 수신된 데이터, 즉, 비디오 컨텐츠가 캡쳐된 위치에 관한 정보로 자동 태깅될 수 있다. GPS와 같은 센서 기반 데이터가 그대로 태그에 포함될 수 있고, 및/또는 더 높은 레벨의 위치 데이터가, (시간적/시간 데이터와 상이한 이벤트와 그의 위치에 관란 스케쥴 데이터가 조합되는 경우) 예를 들어, 주소, 랜드마크, 지역, 빌딩, 도시, 국가, 및/또는 이벤트 데이터와 같은 것으로부터 도출될 수 있다.For example, information from the
카메라(106), 자력계(108), 및/또는 가속계(110), 및/또는 자이로스코프(116)와 같은 센서로부터의 센서 데이터는 센서 데이터 분석 모듈(124)에 의해 분석될 수 있어서, 예를 들어, 시야 또는 시야각, 또는 캡쳐된 비디오 컨텐츠를 '시청하는 방향'에 관련된 메타데이터 및 메타데이터 기반 태그를 생성할 수 있다.Sensor data from sensors such as
일부 실시예에서, 센서 데이터는 비디오 자료의 품질을 지시하는 메타데이터를 결정하는데 사용될 수 있다. 장치(102)는 센서 데이터 분석 모듈(124)을 통해, 예를 들어, 비디오 자료를 캡쳐하는 도중에 제1 사용자 디바이스(104)가 흔들리고 있다면, 이를 결정할 수 있다. 이러한 정보는 태깅에 이용될 수 있다. 일부 실시예에서, 전술한 정보는 또한 예를 들어 안정화 알고리즘에 의해 비디오 품질을 자동적으로 향상시키기 위해 사용될 수 있다. 추가적으로 또는 대안적으로, 일부 실시예에서, 이미지 분석에 기초하여 캡쳐된 비디오 데이터로부터 직접 흔들림이 검출될 수 있다.In some embodiments, sensor data may be used to determine metadata that indicates the quality of the video material. The
비디오 해상도, 밝기 및/또는 어큐턴스(acutance) (선명도)와 같은 다른 품질 연관된 데이터 또는 유사한 파라미터는 또한 비디오 항목 및/또는 이와 연관된 센서 데이터의 분석을 통해 장치(100)에 의해 결정될 수 있다. 파라미터는, 예를 들어, 비디오 항목의 품질을 지시하기 위해 채용될 수 있는 스케일 또는 다른 기준의 특성값을 결정하기 위해 추가로 분석될 수 있다. 비디오 항목은 또한 검색 및/또는 편집 목적으로 각각의 품질 정보로 태그될 수 있다.Other quality associated data or similar parameters such as video resolution, brightness and / or acuity (clarity) may also be determined by the
바람직하게는, 하나 이상의 품질 파라미터는 항목 전체에 관한 일반적인 파라미터에 부가하여 또는 그 대신에 비디오 서브 항목에 대해 평가될 수 있다. 예를 들어, 비디오 항목은 시간 지속 기간과 관련될 수 있고, 시간적 지속 기간과 관련될 수 있는 둘 이상의 서브 항목으로 분할될 수 있다. 이들 서브 지속 시간은 서로 같거나 다른 길이(지속 기간)일 수 있다. 예를 들어, 서브 항목은 비디오 세그먼트 또는 비디오 프레임일 수 있다. 일부 실시에에서, 디바이스(104) 또는 프로세서(104)는 예를 들어, 기본 비디오 또는 관련된 센서 데이터의 인식된 비디오(이미지) 컨텐츠, 품질, 및/또는 다른 파라미터에 기초하여 서브 항목으로 분할하도록 구성될 수 있다. 일부 다른 실시예에서, 서브 항목은 사용자 입력에 응답하여 자동적으로 생성될 수 있으며, 예를 들어, UI를 통해 사용자에 의해 지시된 각각의 녹화 일시 정지는 새로운 서브 항목으로의 전환으로 변환될 수 있다. 서브 항목은 전체 항목에 대해 이산 또는 중첩된 지속 기간을 갖는 것으로 결정될 수 있다. 일 실시예에서, 비디오 서브 항목 각각은 적어도 하나의 품질 파라미터가 할당된다.Preferably, one or more quality parameters may be evaluated for the video sub-item in addition to or instead of the general parameters for the entire item. For example, a video item may be associated with a time duration and may be divided into two or more subitems that may be associated with a temporal duration. These sub durations may be the same or different lengths (durations) from one another. For example, the sub item may be a video segment or a video frame. In some embodiments,
전술한 관점에서, 센서 데이터 분석 모듈(124)은 이미지 분석을 위한 수단을 포함할 수 있으며, 이는 컴퓨터 비전 및 패턴 인식의 다양한 방법을 이용할 수 있다. 이미지 분석은, 예를 들어, 검출, 분류, 및/또는 식별에 이용될 수 있으며, 예를 들어 비디오 컨텐츠에 나타나는 물체를 비롯하여 얼굴 인식과 같은 보다 복잡한 이미지 분석 또한 가능하다. 이에 따라, 태그와 같은 관련 메타데이터가 비디오 항목과 연관될 수 있다. 이미지 분석은 또한 마이크로 폰(112)으로부터의 청각 데이터와 같은 다른 센서 데이터가, 복잡한 이벤트를 분석하면서, 또한 비디오 자료와 가능한 다른 센서 데이터를 통해 검출되거나 결정될 수 있는 의미적 컨텐츠 상의 정보를 제공하기 위해 이용되는 방법을 추가로 포함할 수 있다.In view of the foregoing, sensor
일 실시예에서, 장치(100)는 비디오 편집 모듈(126)을 포함할 수 있으며, 비디오 편집 모듈(126)은 컴파일된 비디오를 생성하기 위해 하나 이상의 비디오 항목의 둘 이상의 비디오 항목 또는 서브 항목을 결합할 수 있다. 비디오 항목은 하나 이상의 사용자가 소유한 하나 이상의 상이한 제1 사용자 디바이스(104)로부터 수신될 수 있다. 비디오 편집 모듈(126)은, 예를 들어, 원하는 (사용자-선택한) 종류의 비디오 항목들 또는 서브 항목들, 예를 들어, 이벤트의 컴파일된 비디오를 생성하는데 이용될 수 있으며, 예를 들어, 특정 제한에 일치하거나 이를 초과하는 품질 기준을 가지는 비디오 항목 또는 서브 항목은 다른 항목/서브 항목보다 더 사용되거나 또는 적어도 선호될 수 있다. 이벤트 또는 관심 대상이 다양한 각도에서 보거나 보여질 수 있는 컴파일된 비디오도 또한 생성될 수 있다. 편집을 요청하는 사용자는 바람직하게는 이용 가능한 비디오 데이터에 기초하여 설정될 편집의 특성을 정의할 수 있고, 이러한 특성은 가능하게는 품질 특성, 시간적 특성(예를 들어, 편집에 일시적으로 겹치는 부분을 가질 수 있거나 또는 시간적으로 더 선형이거나 엄격하게 시간 순으로 표시되어야 하는 것), 시야각/촬영 방향/촬영 위치 관련 선호도, 목표 물체 또는 사람 선호도, 슬로우 모션이나 선호도와 관련된 다른 효과(예를 들어 과도 효과)의 사용 등을 가능한 포함한다. In one embodiment, the
비디오 편집 모듈(126)은, 이미지 분석을 통해 정의될 수 있는 엔티티를 특징으로 하는 다양한 비디오 항목 또는 서브 항목을 갖는 이벤트로부터 비디오를 컴파일할 수 있게 한다. 예를 들어, 특정 스포츠 이벤트로부터의 편집 비디오는 특정 플레이어를 특징으로 하거나 콘서트와 같은 특정 문화 이벤트의 편집 비디오가 특정 아티스트를 특징으로 할 수 있다.The
비디오 편집 모듈(126)에서, 센서 비디오 분석 모듈(124)의 사용을 통해 편집 비디오의 생성이 추가로 가능해질 수 있다. 세그먼트들 또는 프레임들과 같은 비디오 서브 항목들은 개별적으로 분석될 수 있고, 시간 정보가 또한 장치(100)에서 이용되기 때문에 비디오 서브 항목들이 시간 순으로 나타나는 경우에 관심 이벤트 또는 엔티티를 특징으로 하는 고품질의 편집 비디오가 생성될 수 있다.In
비디오 편집 모듈(126)은 제1 사용자 디바이스(104)에 포함된 복수의 비디오(이미지) 센서로부터의 편집 비디오 데이터에 통합될 수 있다. 대안적으로, 디바이스(104)의 다른 데이터 소스 또는 추가 디바이스로부터의 데이터는 편집 비디오와 통합될 수 있다. 예를 들어, 콘서트, 다른 문화적 이벤트, 또는 스포츠 이벤트와 같은 이벤트로부터의 비디오 편집이 생성되면, 마이크로폰(112)으로부터의 사운드와 같은 센서 데이터가 비디오에 사운드 트랙으로서 추가될 수 있다. 마이크로폰(112) 또는 다른 센서 데이터는 비디오 컨텐츠 또는 다른 제1 사용자 디바이스(104)를 캡쳐하는데 사용된 동일한 제1 사용자 디바이스(104)로부터 유래될 수 있다. 또한, 외부 사운드 트랙과 같은 외부 데이터가 추가될 수 있다.The
다른 경우에, 장치(100)는 비디오 편집 모듈(126) 및 이미지 분석을 통해 비디오의 의미적 컨텐츠 또는 컨텍스트를 결정하고, 편집 비디오를 자동적으로 생성할 수 있으며, 선택적으로 검출된 컨텍스트와 관련된 외부 데이터를 포함할 수도 있다. 예를 들어, 장치(100)는 비디오 또는 비디오에서 발생하는 이벤트 또는 상황을 식별할 수 있는데, 예를 들어, 비디오 컨텐츠가 결혼식 동안에 캡쳐되고 결혼식 유형 음악으로 태그된 적절한 사운드 트랙을 추가할 수 있다.In other cases, the
유리한 실시예에서, 프로세서(102)는 가능하면 제2 사용자 어플리케이션(130) 및 제2 사용자 인터페이스(132)를 이용하는 제2 사용자 디바이스(128)를 통해 비디오 또는 편집에 대한 검색 쿼리를 수신할 수 있다. 검색 쿼리는 프로세서(102)가 검색을 수행하고 검색 쿼리와 일치하는 데이터베이스(122)에 저장된 비디오 항목을 식별하게 할 수 있다. 프로세서(102)는 출력을 제공함으로써 검색 결과를 제2 사용자 디바이스(128)의 사용자와 통신하고 비디오 항목 검색 결과에 대한 상기 사용자의 액세스를 용이하게 할 수 있다. In an advantageous embodiment, the
본 발명의 일 실시예에서, 검색 쿼리는 적어도 시간 및/또는 위치를 포함한다. 임의의 개수의 다른 검색 기준이 추가될 수도 있다. 바람직하게는, 검색 기준 중 적어도 하나는 장치(100)에 의해 수신되거나 생성된 메타데이터 또는 연관된 태그와 관련된다. 검색 쿼리는 예를 들어 콘서트 또는 스포츠 이벤트와 같은 이벤트의 이름을 또한 지시할 수 있다.In one embodiment of the invention, the search query includes at least time and / or location. Any number of other search criteria may be added. Preferably, at least one of the search criteria is associated with metadata or associated tags received or generated by the
제2 사용자 인터페이스(132)를 통해, 장치(100)에 의해 제공되는 출력은 비디오 항목 검색 결과의 품질과 같은 특성을 지시할 수 있다. 품질은 비디오 항목 및/또는 다른 센서 데이터 중 적어도 하나의 분석을 통해 획득된 품질 파라미터와 관련될 수 있다. Through the
도 2는 제1 사용자 인터페이스(120)를 도시한 예시적인 어플리케이션 뷰(200)의 2개의 뷰, 2a 및 2b를 도시하며, 이는 제1 사용자 어플리케이션(118)을 통해 제공될 수 있으며, 제1 사용자 인터페이스(120)는 제1 사용자 디바이스(104)와 함께 사용되도록 의도된다. 제1 사용자 인터페이스(120)는 본질적으로 예를 들어 형태 또는 형상의 다기능 녹화 특징을 포함할 수 있으며, 예를 들어, 버튼(202)은 외부 림(outer rim)(204)과 같은 외부 부분을 포함할 수 있다. 도 2의 실시예에서, 다기능 녹화 버튼(202)은 제1 사용자 디바이스(140)의 스크린 상에 도시되고 이에 따라 디스플레이된 터치-감지 아이콘으로서 구현되며, 그 결과 다기능 녹화 버튼(202)을 누르면 제1 사용자 디바이스(104)를 가지는 비디오 컨텐츠의 녹화가 개시되거나 종료될 수 있다. 일부 실시예에서, 비디오 녹화의 개시 또는 종료는 음성 명령과 같은 마이크로폰-캡쳐된 사운드 데이터의 분석에 기초한 청각 방법과 같은 다른 방법을 통해 수행될 수 있다.2 shows two views, 2a and 2b, of an
일 실시예에서, 외부 림(204)은 제1 사용자 디바이스(104)에 의해 녹화되고 있거나 특정 순간에 녹화될 수 있는 비디오 컨텐츠에 관한 정보를 제1 사용자 디바이스(104)의 컨텐츠 제공 사용자에게 시각적으로 지시할 수 있다. 정보는, 예를 들어, 품질에 관련될 수 있다. 예를 들어, 비디오 품질 및/또는 일부 다른 비디오 관련 특성 또는 정보를 지시할 수 있는 색상 또는 패턴이 외부 림(204) 상에 제공될 수 있다.In one embodiment, the
일 실시예에서, 제1 사용자 어플리케이션(118)은 제1 사용자 디바이스(104)를 통해 개시된 햅틱 피드백(haptic feedback)을 통해 비디오 컨텐츠와 관련된 정보를 제1 사용자 디바이스(104)의 사용자와 통신할 수 있다. 예를 들어, 비디오가 제1 사용자 디바이스(104)에 의해 녹화되고 있고 제1 사용자 디바이스(104)가 녹화 중에 기울어진 경우, 햅틱 피드백은, 예를 들어 진동 요소를 통해 제1 디바이스(104)의 사용자에게 기울어짐을 알려줄 수 있다. 이는 유리할 수 있는데, 예를 들어 모바일 폰과 같은 휴대용 디바이스에 의해 비디오 컨텐츠가 녹화되고 있고 디바이스의 사용자는 지속적으로 디바이스 또는 녹화되는 비디오 컨텐츠를 보고 있지 않는 상황에서, 그들은 여전히 고품질의 비디오 자료를 획득하면서 주의를 다른 곳에 집중시키거나 다른 곳에 시선을 기울이고 싶을 수 있다. In one embodiment, the
도 3에서, 제2 사용자 인터페이스(132)의 어플리케이션 뷰(300)의 예시적인 묘사가 도시되어 있다. 도 3은 구체적으로 검색 쿼리에 응답하여 장치(100)에 의해 제공될 수 있는 출력을 포함할 수 있는 어플리케이션 뷰의 가능한 개략적인 외관을 도시한다. 어플리케이션 뷰(300)는, 예를 들어 맵 또는 다른 위치-지시 뷰(302)를 포함할 수 있다. 뷰(302)는 검색 쿼리를 통해 지정된 지리적 위치를 나타내는 영역을 도시하거나, 검색 쿼리에 지정된 명시적 (예를 들어, 위치 이름, 주소, 좌표 등)인 위치 또는 암시적 (예를 들어, 이벤트)인 위치를 포함하는 영역을 도시할 수 있다. 도시될 영역은 커버리지와 같은 하나 이상의 파라미터와 관련하여 미리 결정될 수 있다. 예를 들어, 맵 뷰(302)는 초기에 1 제곱킬로미터로 구성된 영역을 도시하도록 지정될 수 있다. 바람직한 실시예에서, 검색 사용자는 주변 영역을 조종하기 위해 UI를 통해 맵 뷰(302)를 조작, 및/또는 예를 들어, 확대와 축소를 할 수 있다. In FIG. 3, an exemplary depiction of the
맵 뷰(302)는 적어도 하나의 제1 사용자 디바이스(104)가 특정 시간에 캡쳐된 비디오 컨텐츠를 가지는 위치에 대응하는 지리적 지점을 시각적으로 지시할 수 있다. 이는 예를 들어 맵 뷰(302) 상에 지점, 원, 또는 다른 포인터(304)를 배치함으로써 이루어진다.The
맵 뷰(302)는 또한 비디오 자료의 품질을 시각적으로 지시할 수 있다. 일 실시예에서, 해당 비디오 서브 항목에 관한 품질 파라미터는, 예를 들어, 사용자에게 지시될 수 있는데, 예를 들어, 맵 뷰(302) 상에 디스플레이될 수 있는 컬러 또는 패턴을 통해 지시될 수 있다. 또한, 백분율 또는 숫자와 같은 다른 지표가 사용될 수 있다. The
특정 시간에서의 비디오 항목의 시야(306), 촬영 방향, 및/또는 유사한 특성은 또한 시각적으로 바람직하게 동적으로 (즉, 예컨대 도시된 비디오(308)에 따라 변경됨) 맵 뷰(302) 상에 지시될 수 있으며, 이는 또한 상기 논의된 품질 파라미터의 지시이다. 이러한 구현은 실제로 도 3에 도시되어 있다.The field of
어플리케이션 뷰(300)는 일 실시예에서 또한 하나 이상의 비디오 항목의 미리보기(308)를 도시할 수 있다. 맵 뷰(302)에 지시된 하나 이상의 비디오 항목에 대한 미리보기가 도시될 수 있다. 미리보기가 현재 제공되는 비디오 항목은 일부 기준에 따라 장치(100)에 의해 선택될 수 있거나, 또는 검색 사용자에 의해 선택, 예를 들어 원(304) 또는 비디오 항목과 연관된 다른 시각적 지시자를 클릭함으로써 선택될 수 있다.
어플리케이션 뷰(300)는 타임라인(310)을 추가로 포함할 수 있으며, 이를 통해 검색 사용자는 맵 뷰(302)에 도시된 비디오 항목을 조종할 수 있다. 예를 들어, 검색 사용자는 타임라인을 조작하여 특정 시간으로 직접 또는 점진적으로 진행할 수 있고, 맵 뷰(302) 및 미리보기(들)(308)은 그에 따라 변경될 수 있다. 타임라인은 또한 실시간으로 진행되는 것이 허용되며, 미리보기(들)(308)은 선택된 비디오 항목(들)을 그에 따라 재생할 수 있지만, 맵 뷰(302)는 또한 그에 따라 변경될 수 있다.The
타임라인(310)을 조작하는 다른 방법들은, 그에 따라 변경되는 미리보기(들)(308) 및 맵 뷰(302)와 함께 실시간보다 빠른 시간 척도에서 타임라인 상에서 진행되거나 또는 예컨대 "빠른 포워딩"을 가능하게 한다. 타임라인은 또한 반대 방향으로 조종될 수 있으며, 즉, 타임라인 상에서 시간적으로 후방으로 이동할 수 있다.Other methods of manipulating the
본 발명의 일 실시예에서, 비디오 항목은 라이브스트림으로서 검색 사용자에게 제공될 수 있다. 따라서, 타임라인(310)은 본질적으로 현재 시간을 도시할 수 있고, 검색 사용자는 실질적으로 실시간으로 캡쳐되고 있는 비디오 항목을 어플리케이션 뷰(300)에서 관찰할 수 있다.In one embodiment of the invention, the video item may be provided to the search user as a livestream. Thus,
비디오 항목이 라이브스트림으로 제공되는 경우에 데이터베이스에 저장될 수도 있다. 따라서, 라이브스트림으로써 제공된 비디오는 이전에 개시된 바와 같이 나중에 검색되고 보여질 수 있다.Video items may be stored in a database if they are provided live. Thus, a video provided as a livestream can later be retrieved and viewed as previously disclosed.
이용 가능한 방대한 양의 비디오 자료로 인해, 검색 기준은, 예를 들어 사용자-정의된 설정에 기초하여 실제로 고려하기에는 너무 큰 다수의 비디오 항목 검색 결과를 산출할 수 있다. 본 발명의 일 실시예에서, 예를 들어, 면적 밀도 필터를 통해 검색 결과를 필터링하는 것이 가능할 수 있다. 예를 들어, 출력이 특정 영역 또는 본질적으로 위치 내에서 캡쳐된 특정 수의 비디오 항목 만을 제공할 수 있다고 명시될 수 있다. 예를 들어, 5 제곱미터 당 하나의 비디오 항목만 출력에 도시되도록 지정할 수 있으며, 여기에 도시된 비디오 항목은 최고 품질 및/또는 다른 기준을 나타내는 검색 기준을 충족하는 것으로, 사용자가 유리하게 사용자가 조정할 수 있다. 특정 시야 또는 촬영 방향을 가진 비디오 항목만 출력에 도시하는 것과 같은 검색 결과를 필터링하기 위해 다른 사양을 지정할 수도 있다. 일반적으로, 필터링은, 상이한 실시예에서, 제2 사용자 어플리케이션(130) 및 제2 사용자 인터페이스(132)를 구성하는 경우에 수행될 수 있고, 또는 검색 사용자에 의해, 예를 들어 제2 사용자 인터페이스(132)를 통해 수행될 수 있다.Due to the vast amount of video material available, the search criteria can yield a large number of video item search results that are too large to actually be considered, for example based on user-defined settings. In one embodiment of the invention, it may be possible to filter the search results, for example, via an area density filter. For example, it can be specified that the output can provide only a certain number of video items captured within a particular area or location in essence. For example, you can specify that only one video item per 5 square meters is shown in the output, and the video item shown here meets the search criteria representing the highest quality and / or other criteria, which the user can advantageously adjust. Can be. You can also specify other specifications to filter the search results, such as showing only video items with a specific field of view or shooting direction in the output. In general, filtering may be performed in different embodiments when configuring the
도 4는 본 발명의 일 실시예에 따른 방법에서 수행될 수 있는 단계를 도시한다. 402에서, 하나 이상의 비디오 항목이 다수의 제1 사용자 디바이스로부터 수신되고, 이에 의해 비디오 항목은 404에서 데이터베이스(122)에 저장된다. 보충 데이터는 406에서 수신되고, 이 데이터는 상기 적어도 하나의 비디오 항목이 녹화된 디바이스를 통해 제공된다. 바람직한 실시예에서, 데이터는 제1 사용자 디바이스(들)(104)에 포함된 하나 이상의 센서에 의해 제공될 수 있다. 데이터는 또한 제1 사용자 디바이스(들)(104)을 통해 제공되는 시간적 데이터(시간, 타임코드, 틀락, 동기화 등)를 포함할 수 있다.4 shows the steps that can be performed in a method according to an embodiment of the invention. At 402, one or more video items are received from multiple first user devices, whereby the video items are stored in
유리한 실시예에서, 초기 지속 기간에 관련된 하나 이상의 비디오 항목은 이전에 고려된 바와 같이 408에서 대응하는 서브 지속 기간과 관련된 복수의 이산적인 또는 중첩 서브 항목으로 분할된다. In an advantageous embodiment, one or more video items related to the initial duration are divided into a plurality of discrete or overlapping subitems associated with the corresponding sub duration at 408 as previously considered.
410에서, 메타데이터는 바람직하게는 비디오 항목 또는 심지어 지정 서브 항목(예를 들어, 서브 항목-지정된 전용 품질 지시자)와 관련하여 제공되며, 메타데이터는 수신된 보충 데이터를 이용하여 획득된다. 메타데이터는 센서 데이터 분석 모듈(124)에 의해 생성될 수 있다.At 410, metadata is preferably provided in connection with a video item or even a designated subitem (eg, a subitem-specified dedicated quality indicator), the metadata being obtained using the received supplemental data. The metadata may be generated by the sensor
일부 실시예에서, 메타데이터는 관련 검색 가능하고 바람직하게는 또한 검사 가능한 태그로서 하나 이상의 비디오 항목 및/또는 관련 서브 항목에 할당(연관)될 수 있다. 예를 들어, 품질-기반 검색을 가능하게 하기 위해 하나 이상의 품질 지시 파라미터가 각각의 비디오 서브 항목에 할당될 수 있다.In some embodiments, metadata may be assigned (associated) to one or more video items and / or related subitems as related searchable and preferably also checkable tags. For example, one or more quality indication parameters may be assigned to each video sub-item to enable quality-based retrieval.
검색 쿼리가 412에서 수신될 수 있고, 검색 쿼리와 일치하는 비디오 항목 검색 결과가 414에서 결정될 수 있으며, 그 후 단계 416에서 비디오 항목 검색 결과를 지시하는 출력이 제공될 수 있다. 일부 실시예에서, 출력은 적어도 하나의 비디오 항목을 포함할 수 있는 결과 그룹의 비디오 항목의 적어도 목록을 포함할 수 있다. 일부 실시예에서, 출력은 실제 비디오 항목(들)을 포함할 수 있다.A search query may be received at 412, and a video item search result that matches the search query may be determined at 414, and then output may be provided at 416 indicating the video item search result. In some embodiments, the output may include at least a list of video items of the result group that may include at least one video item. In some embodiments, the output may include the actual video item (s).
일부 실시예에서, 시간 공간 기준(시간, 위치, 이벤트 등)과 같은 사용자-정의 기준을 충족하는 복수의 원본 이산 비디오 항목에 전형적으로 기초하는 비디오 편집은 완전히 자동적으로 또는 사용자-보조 방식으로 확립될 수 있다. 편집은 출력된 비디오 항목으로서 제공될 수 있다. 편집은 단일 비디오 스트림 또는 바암직하게는 기준을 가장 잘 충족시키는 구성 요소(소스) 비디오 항목들로 구성된 비디오 파일을 포함할 수 있다.In some embodiments, video editing typically based on a plurality of original discrete video items that meet user-defined criteria such as time-space criteria (time, location, event, etc.) may be established in a fully automatic or user-assisted manner. Can be. The edit may be provided as an output video item. Compilation can include a single video stream or a video file, preferably consisting of component (source) video items that best meet the criteria.
본 발명은 전술한 실시예들을 참조하여 상술되었고, 본 발명의 여러 장점들이 설명되었다. 본 발명은 이들 실시예로 제한될 뿐만 아니라, 본 발명의 사상 및 특허 청구 범위의 사상 및 범위 내에서 가능한 모든 실시예를 포함한다는 것이 명백하다.The present invention has been described above with reference to the above-described embodiments, and various advantages of the present invention have been described. It is apparent that the present invention is not only limited to these embodiments but also includes all possible embodiments within the spirit and scope of the invention and claims.
종속항에 인용된 특징들은 달리 명시적으로 언급되지 않는 한 상호 간에 자유롭게 조합 가능하다. The features recited in the dependent claims are freely combinable with one another unless explicitly stated otherwise.
Claims (21)
하나 이상의 네트워크 액세스 가능한 서버를 선택적으로 포함하고,
상기 장치는,
다수의 비디오 항목을 수신하고,
상기 비디오 항목을 데이터베이스에 저장하며,
임의의 또는 각각의 비디오 항목에 대한 메타데이터, 바람직하게는 다수의 태그를 제공하고 - 상기 메타데이터는 상기 비디오 항목이 각각 획득된 적어도 하나의 사용자 디바이스(104)에 의해 제공된 보충 데이터를 이용하는 것을 통해 획득되고, 상기 사용자 디바이스는, 예를 들어, 드론과 같은 연결된 비디오 캡쳐 디바이스(105)로부터 자동적인 비디오 캡쳐를 하거나, 및/또는 비디오 데이터를 수신하고 포워딩할 수 있는 사용자 단말기를 포함함 -,
검색 쿼리(search query)를 수신하고 - 상기 검색 쿼리에 포함된 적어도 하나의 검색 기준은 상기 메타데이터와 관련됨 -,
상기 데이터베이스에 저장된 상기 적어도 하나의 비디오 항목 중에서 상기 검색 쿼리와 일치하는 비디오 항목 검색 결과를 결정하고, 그리고
상기 비디오 항목 검색 결과를 포함하는 출력을 사용자에게 제공하도록 구성된, 적어도 하나의 프로세서(102)를 포함하고,
상기 비디오 항목은 지속 기간과 관련되며, 상기 제공된 메타데이터는 비디오 항목의 하나 이상의 서브 항목과 관련된 상기 보충 데이터의 분석을 통해 결정되는 적어도 하나의 품질 지시자(quality indicator)를 포함하고,
상기 서브 항목은 상기 서브 항목의 서브 지속 기간과 관련되고, 상기 적어도 하나의 품질 지시자는 대응하는 서브 항목에 할당되는, 디지털 비디오 자료를 검색하기 위한 장치(100).An apparatus 100 for retrieving digital video material,
Optionally includes one or more network accessible servers,
The device,
Receive a number of video items,
Storing the video item in a database,
Providing metadata, preferably a plurality of tags, for any or each video item, wherein the metadata is via using supplemental data provided by at least one user device 104 from which the video item was obtained, respectively. And wherein the user device comprises a user terminal capable of automatically capturing video from a connected video capture device 105, such as a drone, and / or receiving and forwarding video data, for example.
Receive a search query, wherein at least one search criterion included in the search query is related to the metadata;
Determine a video item search result that matches the search query among the at least one video item stored in the database, and
At least one processor (102) configured to provide an output to a user that includes the video item search results,
The video item is associated with a duration, the provided metadata includes at least one quality indicator determined through analysis of the supplemental data associated with one or more sub-items of the video item,
And the sub item is associated with a sub duration of the sub item and the at least one quality indicator is assigned to a corresponding sub item.
상기 비디오 항목은 복수의 서브 지속 기간으로 분할되어 복수의 서브 항목을 제공하며, 상기 적어도 하나의 품질 지시자는 결정되고 상기 서브 항목 각각에 할당되는, 디지털 비디오 자료를 검색하기 위한 장치(100).The method of claim 1,
And the video item is divided into a plurality of sub durations to provide a plurality of sub items, wherein the at least one quality indicator is determined and assigned to each of the sub items.
상기 출력은 상기 적어도 하나의 품질 지시자를 지시하는, 디지털 비디오 자료를 검색하기 위한 장치(100).The method according to claim 1 or 2,
And the output indicates the at least one quality indicator.
상기 메타데이터의 적어도 일부는 하나 이상의 센서에 의해 제공된 데이터를 이용하는 것을 통해 획득되고,
상기 센서 중 적어도 하나는, 카메라, 열 화상 카메라, 이미지 센서, 자력계, 가속도계, 마이크로폰, 위치 센서, 위상 위치 결정 기반 위치 센서, GPS 센서, 압력 센서, 온도 센서, 습도 센서, 및 자이로스코프로 이루어진 그룹으로부터 선택되는, 디지털 비디오 자료를 검색하기 위한 장치(100).The method according to any one of claims 1 to 3,
At least a portion of the metadata is obtained through using data provided by one or more sensors,
At least one of the sensors comprises a camera, a thermal imaging camera, an image sensor, magnetometer, accelerometer, microphone, position sensor, phase positioning based position sensor, GPS sensor, pressure sensor, temperature sensor, humidity sensor, and gyroscope And 100 for retrieving digital video material.
상기 메타데이터는 상기 사용자 디바이스를 통해 획득되는 시간 및/또는 위치의 지시를 포함하는, 디지털 비디오 자료를 검색하기 위한 장치(100).The method according to any one of claims 1 to 4,
And the metadata includes an indication of a time and / or a location obtained via the user device.
상기 검색 쿼리는 검색 기준으로서 적어도 시간 및 위치를 포함하는, 디지털 비디오 자료를 검색하기 위한 장치(100).The method according to any one of claims 1 to 5,
And the search query includes at least time and location as search criteria.
상기 출력은 선택된, 선택적으로 사용자-선택된 위치 범위 내에서, 선택된, 선택적으로는 사용자-선택된 다수의 비디오 항목 검색 결과를 포함하고,
상기 위치 범위 내의 모든 비디오 항목 검색 결과는 선택된 기준에 따라 배치되는, 디지털 비디오 자료를 검색하기 위한 장치(100).The method according to any one of claims 1 to 6,
The output includes a plurality of selected, optionally user-selected plurality of video item search results within a selected, optionally user-selected location range,
And all video item search results within the location range are arranged according to the selected criteria.
상기 기준은 비디오 품질과 관련되는, 디지털 비디오 자료를 검색하기 위한 장치(100).The method of claim 7, wherein
And the criterion is related to video quality.
상기 장치는, 비디오 항목에 대해, 항목과 연관된 이벤트, 선택적으로는 문화적, 스포츠, 또는 파티 이벤트를 지시하는 메타데이터, 예컨대 태그를 결정하도록 구성되는, 디지털 비디오 자료를 검색하기 위한 장치(100).The method according to any one of claims 1 to 8,
The apparatus (100) for retrieving digital video material for the video item is configured to determine metadata, such as tags, indicating an event associated with the item, optionally a cultural, sporting or party event.
상기 이벤트를 지시하는 메타데이터는, 상기 항목의 비디오 이미지 데이터, 상기 항목과 연관된 시간 데이터, 상기 항목과 연관된 위치 데이터, 마이크로폰 기반 사운드 데이터, 및/또는 다른 센서 데이터에 기초하여 결정되는, 디지털 비디오 자료를 검색하기 위한 장치(100).The method of claim 9,
The metadata indicative of the event is determined based on video image data of the item, time data associated with the item, location data associated with the item, microphone based sound data, and / or other sensor data. Device 100 for searching.
상기 이벤트를 지시하는 메타데이터는, 적어도 하나의 이벤트의 위치 및 시간을 특징으로 하는 이벤트 정보에 기초하여 결정되는, 디지털 비디오 자료를 검색하기 위한 장치(100).The method according to claim 9 or 10,
And metadata indicative of the event is determined based on event information characterized by the location and time of at least one event.
상기 장치는, 상기 검색 쿼리에 지시된 위치를 포함하는 맵(302), 및 상기 검색 쿼리에 지시된 시간을 포함하는 타임라인(310)을 제공하도록 구성되고,
상기 맵은, 상기 타임라인 상에 지시된 시간에 대응하는 시간에서, 대응하는 개수의 비디오 항목이 캡쳐된 다수의 포인트(304)를 지시하는, 디지털 비디오 자료를 검색하기 위한 장치(100).The method according to any one of claims 1 to 11,
The apparatus is configured to provide a map 302 that includes a location indicated in the search query, and a timeline 310 that includes a time indicated in the search query,
And the map indicates a number of points (304) at which a corresponding number of video items were captured at a time corresponding to the time indicated on the timeline.
출력(306)은 비디오 항목의 비디오 자료가 캡쳐된 화각, 촬영 방향 및/또는 방향에 관한 정보를 제공하는, 디지털 비디오 자료를 검색하기 위한 장치(100).The method of claim 12,
The output 306 is an apparatus 100 for retrieving digital video material that provides information regarding the angle of view, the shooting direction and / or the direction in which the video material of the video item was captured.
상기 장치는, 상기 비디오 항목을 선택하고 및/또는 편집에 대한 비디오 항목의 기여를 결정하는 데에 있어서 상기 검색 쿼리를 고려하여 2개 이상의 비디오 항목으로부터 선택적으로 구성된 편집을 제공하도록 구성되는, 디지털 비디오 자료를 검색하기 위한 장치(100).The method according to any one of claims 1 to 13,
The apparatus is configured to provide an edit composed selectively from two or more video items in view of the search query in selecting the video item and / or determining the contribution of the video item to the edit. Apparatus 100 for retrieving data.
상기 장치는, 사용자 인터페이스(200)가 제공되는 상기 적어도 하나의 사용자 디바이스를 포함하고,
상기 사용자 인터페이스는, 바람직하게는 온-스크린 심볼로서 다기능 녹화-버튼(202, 204)을 포함하고, 상기 녹화 버튼은 특정 시간에 녹화되는 비디오 자료의 품질을 지시하는, 디지털 비디오 자료를 검색하기 위한 장치(100).The method according to any one of claims 1 to 14,
The apparatus includes the at least one user device provided with a user interface 200,
The user interface preferably includes multifunction record-buttons 202 and 204 as on-screen symbols, the record button indicating the quality of the video material recorded at a particular time. Device 100.
상기 사용자 인터페이스는 상기 사용자 디바이스의 사용자에 의해 상기 녹화-버튼의 재배치를 가능하게 하도록 구성되는, 디지털 비디오 자료를 검색하기 위한 장치(100).The method of claim 15,
And the user interface is configured to enable relocation of the record-button by a user of the user device.
상기 장치는, 캡쳐된 비디오 컨텐츠에서 발생하는 변화를 햅틱 피드백(haptic feedback)을 통해 상기 사용자 디바이스의 사용자에게 지시하는, 디지털 비디오 자료를 검색하기 위한 장치(100).The method according to any one of claims 1 to 16,
The apparatus (100) for retrieving digital video material instructing a user of the user device via haptic feedback of a change occurring in captured video content.
상기 변화는 캡쳐 디바이스의 카메라에 관한 화각 또는 촬영 방향, 및 상기 캡쳐 디바이스의 카메라로 캡쳐된 비디오 컨텐츠와 관련되는, 디지털 비디오 자료를 검색하기 위한 장치(100).The method of claim 17,
And the change is related to an angle of view or shooting direction relative to the camera of the capture device, and video content captured by the camera of the capture device.
- 다수의 비디오 항목을 수신하는 단계(402),
- 상기 비디오 항목을 메모리에 저장하는 단계(404), 및
- 임의의 또는 각각의 비디오 항목에 대한 메타데이터를 제공하는 단계(410) - 상기 메타데이터는 상기 비디오 항목이 획득된 적어도 하나의 사용자 디바이스에 의해 제공된 보충 데이터를 이용하는 것을 통해 획득됨(406)-,
상기 비디오 항목은 지속 시간과 관련되고 상기 제공된 메타데이터는 비디오 항목의 하나 이상의 서브 항목과 관련된 상기 보충 데이터의 분석을 통해 결정되는 적어도 하나의 품질 지시자를 포함하고(408),
상기 서브 항목은 상기 서브 항목의 서브 지속 기간과 관련되고, 상기 적어도 하나의 품질 지시자는 대응하는 서브 항목에 할당되는,
비디오 자료를 검색하는 방법.As a way to search for video material,
Receiving 402 a plurality of video items,
Storing the video item in a memory (404), and
Providing 410 metadata for any or each video item, wherein the metadata is obtained through using supplemental data provided by at least one user device from which the video item was obtained 406. ,
The video item is associated with a duration and the provided metadata includes at least one quality indicator determined through analysis of the supplemental data associated with one or more subitems of the video item (408),
The sub item is associated with a sub duration of the sub item and the at least one quality indicator is assigned to a corresponding sub item;
How to retrieve video material.
검색 쿼리를 수신하는 단계(412) - 상기 검색 쿼리에 포함된 적어도 하나의 검색 기준은 상기 메타데이터와 관련됨 -,
상기 검색 쿼리와 일치하는 비디오 항목 검색 결과를 결정하는 단계(414), 및
상기 비디오 항목 검색 결과를 포함하는 출력을 사용자에게 제공하는 단계(416)를 더 포함하는,
비디오 자료를 검색하는 방법.The method of claim 19,
Receiving (412) a search query, wherein at least one search criterion included in the search query is associated with the metadata;
Determining a video item search result that matches the search query (414), and
Providing 416 the user with an output comprising the video item search result,
How to retrieve video material.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FI20175539A FI129291B (en) | 2017-06-12 | 2017-06-12 | Arrangement and related method for provision of video items |
FI20175539 | 2017-06-12 | ||
PCT/FI2018/050442 WO2018229332A1 (en) | 2017-06-12 | 2018-06-12 | Arrangement and related method for provision of video items |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200017466A true KR20200017466A (en) | 2020-02-18 |
Family
ID=64660044
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020207000782A KR20200017466A (en) | 2017-06-12 | 2018-06-12 | Apparatus and associated method for providing video items |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP3639164A4 (en) |
KR (1) | KR20200017466A (en) |
FI (1) | FI129291B (en) |
WO (1) | WO2018229332A1 (en) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130097172A1 (en) * | 2011-04-04 | 2013-04-18 | Zachary McIntosh | Method and apparatus for indexing and retrieving multimedia with objective metadata |
US9584834B1 (en) * | 2012-06-25 | 2017-02-28 | Google Inc. | Video broadcasting with geolocation |
WO2014189485A1 (en) * | 2013-05-20 | 2014-11-27 | Intel Corporation | Elastic cloud video editing and multimedia search |
US9685194B2 (en) * | 2014-07-23 | 2017-06-20 | Gopro, Inc. | Voice-based video tagging |
US9734870B2 (en) * | 2015-01-05 | 2017-08-15 | Gopro, Inc. | Media identifier generation for camera-captured media |
KR102246557B1 (en) * | 2015-04-07 | 2021-04-30 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
US20170161961A1 (en) * | 2015-12-07 | 2017-06-08 | Paul Salsberg | Parking space control method and system with unmanned paired aerial vehicle (uav) |
-
2017
- 2017-06-12 FI FI20175539A patent/FI129291B/en not_active IP Right Cessation
-
2018
- 2018-06-12 KR KR1020207000782A patent/KR20200017466A/en unknown
- 2018-06-12 WO PCT/FI2018/050442 patent/WO2018229332A1/en unknown
- 2018-06-12 EP EP18818244.8A patent/EP3639164A4/en not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
FI20175539A1 (en) | 2018-12-13 |
EP3639164A1 (en) | 2020-04-22 |
EP3639164A4 (en) | 2021-01-20 |
WO2018229332A1 (en) | 2018-12-20 |
FI129291B (en) | 2021-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20180357316A1 (en) | Arrangement and related method for provision of video items | |
US20180294011A1 (en) | Elastic cloud video editing and multimedia search | |
CN105320695B (en) | Picture processing method and device | |
US9538116B2 (en) | Relational display of images | |
US20200195701A1 (en) | Method and system for aggregating content streams based on sensor data | |
US20180132006A1 (en) | Highlight-based movie navigation, editing and sharing | |
WO2017015112A1 (en) | Media production system with location-based feature | |
WO2015114289A1 (en) | Orbital touch control user interface | |
WO2021031733A1 (en) | Method for generating video special effect, and terminal | |
US20150147045A1 (en) | Computer ecosystem with automatically curated video montage | |
JP6046874B1 (en) | Information processing apparatus, information processing method, and program | |
US9152707B2 (en) | System and method for creating and providing media objects in a navigable environment | |
CN111680238A (en) | Information sharing method and device and storage medium | |
JP6617547B2 (en) | Image management system, image management method, and program | |
KR20200017466A (en) | Apparatus and associated method for providing video items | |
CN112437270B (en) | Monitoring video playing method and device and readable storage medium | |
CN106354808A (en) | Image storage method and device | |
US20140153836A1 (en) | Electronic device and image processing method | |
CN107079144B (en) | Method, device and system for realizing media object display | |
JP2015201082A (en) | Information processing device and grouping method | |
KR20180053221A (en) | Display device and method for control thereof | |
JP5536003B2 (en) | Movie editing apparatus, movie editing method, and program | |
US20220053248A1 (en) | Collaborative event-based multimedia system and method | |
JP6640130B2 (en) | Flexible cloud editing and multimedia search | |
EP1569448A1 (en) | Image description system and method thereof |