CN108293091A - 视频内容选择 - Google Patents
视频内容选择 Download PDFInfo
- Publication number
- CN108293091A CN108293091A CN201580084748.7A CN201580084748A CN108293091A CN 108293091 A CN108293091 A CN 108293091A CN 201580084748 A CN201580084748 A CN 201580084748A CN 108293091 A CN108293091 A CN 108293091A
- Authority
- CN
- China
- Prior art keywords
- video content
- camera
- label
- capture
- relevant
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 27
- 238000004590 computer program Methods 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 7
- 150000001875 compounds Chemical class 0.000 claims 1
- 239000004744 fabric Substances 0.000 claims 1
- 230000015654 memory Effects 0.000 description 29
- 238000004891 communication Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 241001465754 Metazoa Species 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000010025 steaming Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 241001062009 Indigofera Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/34—Indicating arrangements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/02—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using radio waves
- G01S3/14—Systems for determining direction or deviation from predetermined direction
- G01S3/46—Systems for determining direction or deviation from predetermined direction using antennas spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/102—Programmed access in sequence to addressed parts of tracks of operating record carriers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/162—User input
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/167—Position within a video image, e.g. region of interest [ROI]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2624—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/91—Television signal processing therefor
- H04N5/917—Television signal processing therefor for bandwidth reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/115—Selection of the code volume for a coding unit prior to coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/21805—Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/268—Signal distribution or switching
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/80—Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Television Signal Processing For Recording (AREA)
- Camera Data Copying Or Recording (AREA)
- Studio Devices (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
公开了一种方法和装置,其用于:检测用户对定位标签的选择;获取与所选标签相关的方向信息和时间戳信息;将与所选标签相关的方向信息与被布置为捕获来自记录区域的视频内容的相机阵列的方向信息相比较;识别由被布置为捕获来自记录区域的视频内容的相机阵列中的一个或多个相机捕获的视频内容,其中,如果一个或多个相机已经在与所选标签相关的时间戳信息相关的时间段内捕获来自与所选标签的位置相关的记录区域的一部分的视频内容,则由一个或多个相机捕获的视频内容被识别;以及选择所识别的从一个或多个相机获得的视频内容以用于显示。
Description
技术领域
本说明书涉及所记录的视频内容的选择。
背景技术
在音频/视频记录和编辑领域,通常必需处理就数据大小而言相对大的文件。当从记录设备阵列获得音频/视频内容导致更大量的数据时会出现特殊问题。这在与以可靠、有效和用户友好的方式管理大量的数据有关的方面提出了新的挑战。
发明内容
在第一方面,本说明书描述一种方法,其包括:检测用户对定位标签的选择;获取与所选标签相关的方向信息和时间戳信息;将与所选标签相关的方向信息与被布置为捕获来自记录区域的视频内容的相机阵列的方向信息相比较;识别由被布置为捕获来自记录区域的视频内容的相机阵列中的一个或多个相机捕获的视频内容,其中,如果一个或多个相机已经在与所选标签相关的时间戳信息相关的时间段内捕获来自与所选标签的位置相关的记录区域的一部分的视频内容,则由一个或多个相机捕获的视频内容被识别;以及选择所识别的从一个或多个相机获得的视频内容以用于显示。
所捕获的视频内容的所选部分可包括:从被布置为覆盖标签被确定所在的区域的相机获得的视频内容。
所捕获的视频内容的所选部分可包括:从与被布置为覆盖标签被确定所在的区域的相机相邻的相机获得的视频内容。
该方法还可包括:增加被分配给所捕获的视频内容的所选部分的比特率。
该方法还可包括:减少被分配给所捕获的视频内容的其余部分的比特率。
方向信息和时间戳信息可被存储在与所捕获的视频内容分开的文件中。
识别一个或多个相机包括:识别一对或多对立体相机。
该方法还可包括:获取来自以下中的一个的所选视频内容:记录设备、播放设备或远程服务器。
该方法还可包括:使包括从一个或多个所识别的相机获得的视频内容的所捕获的视频内容的一部分被显示。
检测用户对定位标签的选择可包括:检测用户对多个定位标签的选择。
该方法还可包括:使包括从与多个定位标签相对应的相机获得的视频内容的所捕获的视频内容的部分以分屏格式被显示。
由每个相机捕获的视频内容被记录为复合数据文件的一部分或被记录在单独的文件中。
方向信息可包括方位角。
方向信息可包括高程角。
在第二方面,本说明书描述一种计算机程序,其包括指令,所述指令在由计算装置执行时使计算装置执行第一方面所述的方法。
在第三方面,本说明书描述一种装置,其包括至少一个处理器;至少一个存储器,其上存储有计算机可读指令,所述计算机可读指令在由至少一个处理器执行时使所述装置至少:检测用户对定位标签的选择;获取与所选标签相关的方向信息和时间戳信息;将与所选标签相关的方向信息与被布置为捕获来自记录区域的视频内容的相机阵列的方向信息相比较;识别由被布置为捕获来自记录区域的视频内容的相机阵列中的一个或多个相机捕获的视频内容,其中,如果一个或多个相机已经在与所选标签相关的时间戳信息相关的时间段内捕获来自与所选标签的位置相关的记录区域的一部分的视频内容,则由一个或多个相机捕获的视频内容被识别;以及选择所识别的从一个或多个相机获得的视频内容以用于显示。
在第四方面,本说明书描述一种计算机可读介质,其上存储有计算机可读代码,所述计算机可读代码在由至少一个处理器执行时使得执行:检测用户对定位标签的选择;获取与所选标签相关的方向信息和时间戳信息;将与所选标签相关的方向信息与被布置为捕获来自记录区域的视频内容的相机阵列的方向信息相比较;识别由被布置为捕获来自记录区域的视频内容的相机阵列中的一个或多个相机捕获的视频内容,其中,如果一个或多个相机已经在与所选标签相关的时间戳信息相关的时间段内捕获来自与所选标签的位置相关的记录区域的一部分的视频内容,则由一个或多个相机捕获的视频内容被识别;以及选择所识别的从一个或多个相机获得的视频内容以用于显示。
在第五方面,本说明书描述一种装置,其包括:用于检测用户对定位标签的选择的装置;用于获取与所选标签相关的方向信息和时间戳信息的装置;用于将与所选标签相关的方向信息与被布置为捕获来自记录区域的视频内容的相机阵列的方向信息相比较的装置;用于识别由被布置为捕获来自记录区域的视频内容的相机阵列中的一个或多个相机捕获的视频内容的装置,其中,如果一个或多个相机已经在与所选标签相关的时间戳信息相关的时间段内捕获来自与所选标签的位置相关的记录区域的一部分的视频内容,则由一个或多个相机捕获的视频内容被识别;以及用于选择所识别的从一个或多个相机获得的视频内容以用于显示的装置。
附图说明
为了更全面地理解在本文中描述的方法、装置和计算机可读指令,现在结合附图参考下面的描述,其中:
图1示出一种记录环境;
图2是示出记录装置和编辑/播放装置的示意图;
图3是控制器的示意图;
图4是相机的示意图;
图5是移动标签的示意图;
图6是示出在记录装置处采取的步骤的流程图;
图7是示出在播放装置处采取的步骤的流程图;
图8示出一种存储介质;
图9示出根据可替代的实施例的相机阵列;
图10示出根据可替代的实施例的相机阵列。
具体实施方式
本发明的实施例提供一种用于跨记录设备阵列捕获视频和/或音频以及捕获有关位于记录设备的视场内的定位标签的方向数据的系统。方向数据可以在至少一个后续视频处理/编辑阶段中使用,从而可以以有效的方式处理由记录设备阵列捕获的多个流。此外,当视频随后被观看者观看时,某些视图可以基于从定位标签的无线传输测量的相对位置,作为该视频的一部分被突出显示。
本发明的实施例涉及记录无线检测对象的相对位置并将这些位置与视频和/或音频数据中捕获的区域相关联。方向无线信息的记录可被添加到视频和/或音频记录文件中。可替代地,可以记录包含方向无线信息的单独文件并标记时间戳,以使其与同时记录的视频和/或音频文件相匹配。
图1示出了示例性记录环境1。记录装置10包括球形摄像机11阵列和底架。虽然被称为记录装置,但是该装置被布置为捕获实况视频流以及记录将要存储在存储介质上的视频内容。在实施例中,当存储视频内容时,可以将其存储在记录装置本身处、视频编辑计算机处或远程服务器处。摄像机11被布置为根据高程角和方位角两者(即在可被称为视频球面的整个球面上)提供“360”度视频覆盖。需要记住在可替代的实施例中,阵列可以包括覆盖半球形区域或者实际上仅覆盖球形区域的一部分的相机。
每个相机11被布置为捕获围绕相机阵列10的三维空间的一部分。图1示出的记录装置10具有六个相机11a-f。相机11f未在图1中示出,但在图2中示意性地示出。
在图1中示出了定位标签20(例如,蓝牙低功耗标签)。在该示例中,定位标签20是用户的手表的一部分。在其它非限制性示例中,定位标签20可以附着到动物的项圈上以帮助捕获用于野生动物纪录片的视频,或者定位标签20可被集成到移动电话或钥匙扣中。
记录装置10和定位标签20可被配置为使用任何适合类型的无线发送/接收技术来操作。适合类型的技术包括但不限于蓝牙基础速率/增强数据速率(BR/EDR)和蓝牙低功耗(BLE)。蓝牙低功耗(BLE)是由Bluetooth SIG作为蓝牙核心规范版本4.0的组成部分而发布的相对新的无线通信技术。其它类型的适合技术例如包括基于IEEE 802.11和IEEE802.15.4的技术。由于BLE的相对低的功耗并且因为大多数移动电话和其它便携式电子设备将能够使用BLE技术进行通信,所以BLE的使用可能特别有用。
由定位标签20发送的信号/定位分组可以根据例如在http://www.in-location-alliance.com中所描述的高精度室内定位(HAIP)方案。
虽然在本文中使用BLE消息和HAIP系统来描述实施例,但是也可以使用可替代的低功耗无线技术,诸如IEEE 802.15.4。
记录装置10可被视为球坐标系的原点。定位标签20因此可由图1中示出的x-y平面中的方位角θ和相对于z轴的高程角来限定。如将在下面更详细解释的,定位标签20周期性地发送无线消息,这些消息由记录装置10接收。记录装置10然后确定所接收的分组的到达方位角和到达高程角。记录装置10还可以确定所接收的分组的接收信号强度指示(RSSI)值。该信息然后可以以适合的格式进行存储。
图2是记录装置10和编辑和/或播放装置15的示意图。记录装置10包括控制器13。控制器13控制记录装置10。控制器13被配置为从自标签20接收的分组确定到达角信息。
在图2中所示的示例性实现中,控制器13被安装在视频/音频记录系统的中心。在该实施例中,具有六个相机和一个控制器13,每个相机具有一个镜头。相机记录的输出通过控制器13以原始或经处理的格式保存到一个或多个文件中,这些文件通过控制器13进行存储。每个单独的相机的输出可通过控制器13存储在相应的文件中,这些文件通过控制器13进行存储。可替代地,相机的输出可通过控制器13组合成单个复合文件,该单个复合文件通过控制器13进行存储。此外,方向数据以原始或经处理的格式保存到一个或多个文件中。视频和方向数据可以存储在记录装置10本地,或者单独地存储在例如远程服务器170中,以由播放装置15远程访问。可替代地,所记录的媒体和方向数据可被上传到播放装置15本身。
记录装置10可以包括通信模块14。通信模块14包括RF天线和RF收发机,以允许记录装置10与具有视频编辑能力的远程服务器170或计算机15之间的无线通信。记录装置10可被配置为经由诸如Wi-Fi的无线网络进行通信。可替代地,记录装置10可以具有到具有视频编辑能力的计算机的有线链路(未示出)。
记录装置10可以配备有用户输入/输出12。用户输入/输出12可以包括可被集成为触摸屏的屏幕和键盘。用户输入/输出12用于允许用户控制一个或多个相机11的操作和记录装置10的播放功能。用户输入/输出12允许用户控制从所选择的一个或多个相机的播放。如在下面参考图7所描述的,用户可以从在装置10的屏幕上显示的用户接口选择一个或多个标签20。然后可以在装置10处执行与标签位置相关的视频内容部分的选择。
屏幕可用于查看来自一个或多个相机的实况镜头。用户可以选择一个或多个标签20,并查看来自与所选标签相关的相机的实况镜头。所选择的视频内容可以存储在装置10处,播放装置15处或远程服务器170处。
编辑和/或播放装置15可以是包括处理器150和存储设备151的计算机。存储设备151包括易失性存储器152和非易失性存储器153。非易失性存储器153中可以存储有操作系统154和视频编辑软件155。非易失性存储器153还可以存储方向数据文件156,其中存储从控制器13接收的方向数据。还可以存储包含从控制器13接收的视频流数据的视频文件157。可替代地,视频文件可被存储在远程服务器170处。视频流数据可被存储为单独的文件,由此,每个视频文件包含每个相应的相机的输出。可替代地,方向数据可被包含在视频文件内。编辑和/或播放装置15还包括RF收发机158和RF天线159,以使能与记录装置10和服务器170的无线通信。播放装置15可以是具有诸如屏幕、键盘和扬声器等的输入和输出组件160的计算机。用户可以观看来自记录装置的视频内容,该视频内容是从记录装置10接收的直播流。可替代地,可以将视频内容存储在播放装置15或远程服务器170处以用于播放。
图3是控制器13的示例示意性框图。控制器13包括处理器300和存储设备310。存储设备310包括非易失性存储器320,其上存储有计算机可读代码320A。该非易失性存储器配备有蓝牙模块320B。计算机可读代码320A允许存储和执行本发明的实施例中的控制器13的特定功能。蓝牙模块320B包含所需的代码,以使得可以根据蓝牙标准来处理所接收的蓝牙消息。存储设备310还包括易失性存储器330。
处理器300被布置为处理方位到达角和高程到达角信息。处理器300可以将方向数据应用于从一个或多个相机获得的视频馈入。可替代地,处理器300可以将方向数据和从一个或多个相机获得的视频馈入输出到远程服务器。
控制器13包括方位天线阵列340,其连接到RF开关341、收发机342和方位到达角(AoA)估计模块343。控制器13还包括高程天线阵列350,其连接到RF开关351、收发机352和高程到达角(AoA)估计模块353。
到达角的估计基于在接收机中的信号副本(由多个物理上分离的天线发送)的测量时间差。该时间差是由可变传播信道长度造成的,实际估计通常基于对信号的二次效应,诸如所产生的信号副本的相位差。已经表明到达角定位提供了数十厘米的定位精度,或约“2”度的方向估计。
处理器300与天线340、350之间的链路可以是双向的,以使得收发机342、352和天线340、350也可用于RF通信。
控制器13还包括时钟360和时间戳标记能力。控制器13可被配置为测量并记录所接收的分组的RSSI数据。
控制器13可以存储参考值以允许统一地监控方位角和高程角。存储设备310可以存储定义方位角和高程角均为零度的方位的信息。根据这些参考点,可以定义由特定相机覆盖的区域。例如,相机11a可被定义为覆盖“0”度到“60”度的方位角范围和“0”度到“60”度的高程角范围。相机11和控制器13可构成集成记录装置10,其中,方位信息被存储在相机11和/或控制器13的存储器中。在可替代的实施例中,相机11和/或控制器13可配备有确定方向的指南针和/确定方位的陀螺仪。
图4是相机11中的一个的示意性框图。相机11包括相机模块400。相机模块400包括本领域已知的摄像机组件,例如包括镜头、CCD阵列和图像处理器。每个相机11都可以由控制器13控制。在一些实施例中,相机11接收来自通信模块14的指令,而通信模块14又以无线的方式接收来自视频编辑计算机的指令。可替代地,每个相机11可以配备有RF天线和收发机,以使得每个控制器直接从视频编辑计算机接收指令并由视频编辑计算机控制。相机11还包括处理器402和存储设备403。该存储设备包括非易失性存储器404和易失性存储器405。非易失性存储器配备有计算机可读指令404A。相机还可以配备有时钟405,以使得可以将时间线应用于所记录的视频内容。每个相机的时钟可以由控制器13进行同步,以确保应用一致的计时。相机11还可以包括麦克风406以捕获音频内容。相机可以包括单独的视频处理器和音频处理器。可替代地,视频和音频处理能力可被组合在单个多媒体处理器中,或者如图4中所示,相机模块400和麦克风406的处理功能可以由处理器402执行。
图5是定位标签20的示意性框图。定位标签20包括用于传输诸如BLE通告消息的无线消息的收发机200以及天线201。定位标签20还包括处理器210和存储设备222。存储设备包括非易失性存储器220和易失性存储器221。该非易失性存储器配备有蓝牙模块220A和编程指令220B。编程指令220B允许存储和执行本发明的实施例中的定位标签20的特定功能。蓝牙模块220A包含所需的代码,以使得可以根据蓝牙标准来传输消息。
在一些实施例中,定位标签20可以构成诸如移动电话、智能手表、电子眼镜等的移动通信设备的组件。在这种情况下,移动通信设备可以包括允许用户输入要被包括在无线消息中的附加信息的输入230。例如,用户可以包括他们的名字。作为另一个示例,当定位标签20作为智能手表或移动电话的一部分被包括时,用户可以记录其心跳,然后将心跳作为诸如BLE通告消息的无线消息中的数据字段进行发送。
图6是示出记录装置10在记录视频时的操作的流程图。
在操作6.1,控制器13可以选择性地收集来自记录装置10附近的定位设备20的信息。定位设备可以发送包含传感器数据的无线消息,从而向记录装置10通告附近定位设备20的存在。无线消息可以包含关于定位设备20的传感器信息。传感器信息例如可以包括设备的用户的身份,无论设备是否附着到用户(例如,作为智能手表、电子眼镜等)。经由与定位设备20的连接的传感器数据的收集也可以在记录期间或记录之后发生。
在控制器13中还可以有多个无线收发机或用于多个连接的能力,从而例如可以在拍摄视频的同时记录参赛者的心率信息。可以将附加数据保存到与方向数据的相同文件中,或者保存到单独的文件中。单独的文件的优势是更快地搜索。搜索例如可以基于仅搜索与特定标识相关的记录。
在操作6.2,记录开始。开始记录的指令可以在与记录装置10进行无线通信的计算机上输入。可替代地,记录装置10可以包括输入能力,诸如记录按钮、触摸屏等。视频可以由每个相机11针对图1中示出的整个球面进行记录。视频可以以诸如“.wmv”、“.mov”或“.mpeg”的视频文件格式或任何其它适合的格式存储。音频数据可以记录在与视频数据的相同数据文件内,或者记录在单独的文件中。音频文件格式的示例是“.wav”和“.mp3”,但是可以使用任何其它适合的文件格式。
在操作6.3,记录装置10接收来自诸如在图1中示出的定位标签20的定位标签的无线消息。无线消息可以包含标识发送分组的定位标签的标识符。无线消息还可以包含其它字段,诸如文本。例如,消息可以包含由定位标签20获得的心跳信息。
在操作6.4,方位到达角和/或高程到达角被确定。通过使用多个天线元件来执行从所接收的信号估计信号源的方向。方位到达角和高程到达角的估计基于在控制器13中的信号副本(由图3中示出的多个物理上分离的天线元件340、350接收)的测量时间差。该时间差是由可变传播信道长度造成的,实际估计通常基于对信号的二次效应,诸如所产生的信号副本的相位差。
定位标签20发送无线消息,而在分组的接收期间控制器13执行天线切换。在分组的接收期间,控制器13扫描无线消息并执行振幅和相位采样。控制器13然后可以利用振幅和相位样本以及它自己的天线阵列信息来估计来自定位标签20的分组的AoA。
操作6.5是可选步骤。所接收的分组的RSSI值被确定并记录。在操作6.6,对所接收的分组标记时间戳。在操作6.7,在操作6.4、6.5和6.6获得的数据被存储。数据可被存储为视频文件的一部分。可替代地,数据可以存储在单独的文件中。单独存储数据是有利的,因为它不依赖于支持将数据添加到视频文件元数据的视频格式。
表1示出方向数据文件的内容的示例
时间 | 高程角 | 方位角 | 标识 | RSSI | 数据 |
00:00:134 | 176° | 281° | 00:01:02:03:04:05 | -73dBm | 01:22:34:56 |
00:01:023 | 183° | 32° | 00:01:02:03:04:05 | -76dBm | 01:22:34:56 |
00:01:345 | 70° | 355° | 11:01:02:03:04:05 | -50dBm | 01:22:34:57 |
00:02:576 | 165° | 101° | 00:01:02:03:04:05 | -73dBm | 01:22:34:56 |
00:03:258 | 163° | 23° | 00:01:02:03:04:05 | -67dBm | 01:22:34:56 |
00:03:753 | 65° | 174° | 11:01:02:03:04:05 | -54dBm | 01:22:34:57 |
00:03:915 | 3° | 110° | 22:01:02:03:04:05 | -88dBm | 01:22:34:58 |
00:04:097 | 154° | 303° | 00:01:02:03:04:05 | -79dBm | 01:22:34:56 |
00:04:349 | 61° | 224° | 11:01:02:03:04:05 | -56dBm | 01:22:34:57 |
00:04:436 | 7° | 197° | 22:01:02:03:04:05 | -82dBm | 01:22:34:58 |
示例性方向数据包括所检测的方向信号的发射机(即,定位标签20)的标识符、所测量的方位角和高程角以及RSSI值。每个角和对应的RSSI值与时间戳相关联。被应用于所接收的方向数据分组的时间戳与视频记录相对应,使得所观测的标签可以与视频流相匹配。
表1中示出的文件内容示出了这样的实施例:其中从位于围绕记录装置10的球形空间(即,方位角和高程角两者都从“0”度到“360”度)内的任何位置的标签20接收的无线消息被记录在单个文件中。这可以是单个控制器13与每个相机11结合使用的情况。在其它实施例中,每个相机11可以连接到相应的控制器13,而包含与在由相机记录的扇形区域中的标签检测事件相关的数据的文件可被保存在每个控制器处。可替代地,包含与标签检测相关的数据的单个文件可以由中央处理器(诸如视频编辑计算机)基于与围绕记录装置10的球形空间的每个扇形区域相关的标签数据的文件来编译。
记录来自控制器的方向信息以及相机信息,使得可以将发射机放入组合的相机记录(“360”度记录)。控制器可以收集来自全部或部分所接收的分组的数据。
视频/音频数据的各部分与方向数据之间的链接可以基于将定向无线电球面与视频/音频记录球面之间的关系设置为相匹配。每个相机记录视频球面的某个部分——相机覆盖的球面部分可能重叠。在各种实施例中,相机被布置为使得覆盖范围内没有间隙。相机覆盖的球面部分与无线电/定向球面的某个部分相匹配。当在某方位角和高低角检测到所期望的无线发射机时,可以打开对应的一个或多个相机,或者可以根据无线电/定向检测来调整它们的焦距。
图7示出了当用户希望播放和编辑视频内容时所执行的操作。视频内容可能正在记录装置10的屏幕上进行实况直播,在这种情况下,在记录装置10处执行图7中示出的以下步骤。可替代地,视频内容可能正在播放装置15的屏幕上进行实况直播,在这种情况下,在播放装置15处执行图7中示出的以下步骤。
在可替代的实施例中,内容可被存储在播放装置15、记录装置10本地或远程服务器170,以用于记录视频内容之后的播放。所选择的视频内容可以在播放装置15上或记录设备10处播放。
在该示例中,记录装置10已经跨球形记录区域捕获视频内容。包含来自图1中示出的相机阵列的视频内容的视频流的最终数据大小可能非常大。在播放和编辑阶段,用户可以选择观看基于特定标签的方向的视频。通过将从各个相机捕获的视频内容与感兴趣的标签相关的方向数据相匹配,可以减少需要处理的视频数据量。
在操作7.1,在视频内容的播放期间,用户选择他或她想要跟踪的一个或多个定位标签20。这可以采用多种方式来完成。例如,可以向用户呈现显示标签列表的用户接口。所选择用于显示的标签可以从包含标签标识符的方向数据文件156获得,这些标签向用户显示,然后用户选择至少一个标签来跟踪。
在操作7.2,播放装置15或记录装置10在方向数据文件156中搜索与所选定位标签20相关的方向数据和时间戳数据。与所选定位标签20相关的方向数据和时间戳数据被获取。
在操作7.3,播放装置15将所选标签20的方向数据与关于每个相机11的方向信息相比较。在操作7.4,已经记录来自与所选标签的位置相对应的球形记录区域的一部分的视频内容的一个或多个相机被识别。
在操作7.5,包含来自所识别的一个或多个相机的视频内容的一部分视频内容被选择,并且来自一个或多个相机11的视频内容被获取。可以分析时间戳数据并将其与特定相机的视频内容的时间线相比较,以使得仅在定位标签处于由特定相机记录的区域内的时间段的视频内容被获取。
然后可以向用户显示在步骤7.5选择的内容的部分。在一些实施例中,用户可以选择多于一个的定位标签进行显示。如果确定用户所选择的由单独的相机覆盖的定位标签,则可以以分屏格式同时显示标签。在一个示例中,冰球运动员正穿着可穿戴定位标签。用户选择观看两个冰球运动员。如果确定这两个运动员并未由同一相机覆盖,则可以以分屏格式显示这两个运动员。
除了从覆盖所选标签所在的区域的相机获取视频内容数据之外,也可以从与覆盖所选标签所在的区域的相机相邻的相机获得视频内容数据。这在标签高速移动并且可以从视频球面的一个部分快速移动到相邻部分的情况下是有用的。
在由用户所选择的定位标签在视频球面的各扇形区域之间移动的情况下,视频内容数据只能从在一段时间内覆盖标签所在的区域的相机获取。因此,不需要访问来自未覆盖标签所在的区域的相机的视频内容数据。
本发明的实施例允许使用视频/音频和无线电方向记录来使得能够仅查看或下载所记录的材料的一部分。无线电方向信息可以基于对附着到对象(例如,人、动物或设备)的发射机的检测。因此,视频/音频记录焦点区域可以基于选择从定位标签20接收的所期望的无线发射机标识和其它数据而进行选择。当用户决定他或她想要跟随的无线电信号对象时,例如可以通过增加正覆盖此标签的相机的比特率来高质量地流传输该对象(及其周围环境)。其它标签或方向可以以更低的质量来流传输以节省带宽,因此提高了流传输能力。此外,来自未显示所选标签的相机的视频流可能不会被下载或流传输,从而进一步节省了带宽。
特定对象在特定时间的视频记录可以使用与该对象相关的标识符和方向信息来有效地搜索和查看。搜索速度可以通过使用单独、轻量级的文件存储方向信息的记录来提高。可替代地,可以将方向信息存储为视频文件的一部分。
图9示出了根据可替代的实施例的记录装置90。记录装置90包括圆形记录设备阵列。通常,记录装置90的操作与记录装置10的操作类似。然而,圆形阵列被布置在单个平面中,以使得每个相机91被布置为捕获围绕相机阵列90的三维空间的一部分。能够产生“360”度视频记录的相机阵列的一个示例是GoPro 360相机阵列。这样的布置在将要记录的区域位于圆形相机阵列的记录区域内的情况下是有利的。需要记住,单个平面阵列可以覆盖部分圆,例如,半圆。
表2示出了可在检测定位标签时进行编译的示例性文件。
表2
时间 | 方位角 | 标识 | RSSI | 数据 |
00:00:134 | 281° | 00:01:02:03:04:05 | -73dBm | 01:22:34:56 |
00:01:023 | 32° | 00:01:02:03:04:05 | -76dBm | 01:22:34:56 |
00:01:345 | 355° | 11:01:02:03:04:05 | -50dBm | 01:22:34:57 |
00:02:576 | 101° | 00:01:02:03:04:05 | -73dBm | 01:22:34:56 |
00:03:258 | 23° | 00:01:02:03:04:05 | -67dBm | 01:22:34:56 |
00:03:753 | 174° | 11:01:02:03:04:05 | -54dBm | 01:22:34:57 |
00:03:915 | 110° | 22:01:02:03:04:05 | -88dBm | 01:22:34:58 |
00:04:097 | 303° | 00:01:02:03:04:05 | -79dBm | 01:22:34:56 |
00:04:349 | 224° | 11:01:02:03:04:05 | -56dBm | 01:22:34:57 |
00:04:436 | 197° | 22:01:02:03:04:05 | -82dBm | 01:22:34:58 |
由于所有的相机91都位于同一平面,因此不需要收集高程角信息。因此,此文件具有更小的数据大小。包括在记录装置90内的控制器92仅需执行到达角计算以确定方位角。因此,控制器所需的处理少于还要确定高程角的情况。
图10示出了根据又一个可替代的实施例的记录装置1000。记录装置1000包括相机对1001阵列。每个相机对1001包括第一相机1001a和第二相机1002b。第一相机1001a被配置为捕获左眼图像,而第二相机1002b被配置为捕获右眼图像。记录装置1000包括控制器,以组合左眼图像与右眼图像以形成立体图像。将理解,形成立体视频所涉及的处理相对密集,因为必须从每个相机对1001的两个相机捕获图像。立体视频的后续编辑在处理方面也是相对密集的。相机对阵列可以是球形或圆形的。对于球形阵列,可以记录高程和方位数据两者。对于圆形阵列,仅记录方位数据。
在该实施例中,方向数据的存储以与上文所描述的大致相同的方式来执行。
控制器1002可以存储参考值以允许统一监控方位角(以及在球形阵列的情况下,高程角)。控制模块可以存储定义方位角和高程角均为零度的方位的信息。根据这些参考点,可以定义由特定相机对覆盖的区域。例如,第一相机对可被定义为覆盖“0”度到“60”度的方位角范围和“0”度到“60”度的高程角范围。相机对和控制器1002可构成集成记录装置,其中,方位信息被存储在相机和/或控制器1002的存储器中。在可替代的实施例中,相机和/或控制器1002可配备有确定方向的指南针和/或确定方位的陀螺仪。
各种实施例的优点,尤其是在相机阵列被布置为记录立体视频内容的情况下,包括管理具有高分辨率的馈入的能力。例如,上述阵列中的相机可具有高达约“6K”的分辨率。当编辑来自不同相机的馈入时,可能必需在几个高带宽馈入之间进行切换。这在具有涉及成对相机的立体相机阵列的实施例中尤其如此。在播放装置15处在大量馈入之间进行切换对于带宽的要求非常高。此外,如果馈入存储在远程服务器处并且由播放装置15通过无线连接远程访问,则就带宽管理和成本而言,在大量馈入之间进行切换可能变得很困难。这些实施例提供了可以使需要获取的馈入的数量保持最小的优点。
计算机可读指令、软件和操作系统可被预编程到装置11、13、14、15、20、92、1002中。可替代地,计算机可读指令、软件和操作系统可经由电磁载波信号到达装置11、13、14、15、20、92、1002,或者可从诸如计算机程序产品、存储设备的物理实体800(参见图8)或诸如CD-ROM或DVD的记录介质复制。计算机可读指令、软件和操作系统可以提供使得设备/装置11、13、14、15、20、92、1002能够执行上述功能的逻辑和例程。
术语“存储器”在本说明书中使用时,旨在主要涉及包括非易失性存储器和易失性存储器两者的存储器,除非上下文另行说明,但是该术语也可以仅涵盖一个或多个易失性存储器、仅涵盖一个或多个非易失性存储器或者涵盖一个或多个易失性存储器和一个或多个非易失性存储器。易失性存储器的示例包括RAM、DRAM、SDRAM等。非易失性存储器的示例包括ROM、PROM、EEPROM、闪存存储器、光学存储设备、磁存储设备等。
本公开的实施例可以采用软件、硬件、应用逻辑或软件、硬件和应用逻辑的组合来实现。软件、应用逻辑和/或硬件可驻留在存储器或任何计算机介质上。在示例性实施例中,应用逻辑、软件或指令集被保存在各种常规计算机可读介质中的任何一个上。在本文档的上下文中,“计算机可读介质”可以是能包含、存储、传送、传播或传输由诸如计算机的指令执行系统、装置或设备使用或与诸如计算机的指令执行系统、装置或设备结合使用的指令的任何介质或装置。
计算机可读介质可以包括计算机可读存储介质,其可以是能包含或存储如在上文中定义的由诸如计算机的指令执行系统、装置或设备使用或与诸如计算机的指令执行系统、装置或设备结合使用的指令的任何有形介质或装置。
根据本公开的前述方面的各个实施例,根据任一上述方面的计算机程序可以在包括承载在其中具体化的可与处理器一起使用以实现上述功能的计算机程序代码的有形计算机可读介质的计算机程序产品中实现。
提到“计算机可读存储介质”、“计算机程序产品”、“有形具体化的计算机程序”等或者“处理器”或“处理电路”等,应当被理解为不仅包括具有诸如单个/多个处理器架构和串行/并行架构的不同架构的计算机,而且还包括诸如现场可编程门阵列FPGA、专用集成电路ASIC、信号处理设备和其它设备的专用电路。提到计算机程序、指令、代码等,应当被理解为包括用于可编程处理器的软件,或者可包括用于处理器的指令的诸如硬件设备的可编程内容的固件,或者用于固定功能器件、门阵列或可编程逻辑器件等的配置设置。
作为示例而非限制,这种“计算机可读存储介质”可以表示非暂时性计算机可读存储介质,其可以包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储设备、磁盘存储设备、或其它磁存储设备、闪存存储器、或者可用于以指令或数据结构的形式存储所需的程序代码并且可由计算机访问的任何其它介质。然而应当理解,“计算机可读存储介质”和数据存储介质不包括连接、载波、信号或其它瞬态介质,而是针对非瞬态的有形存储介质。在本文中使用的磁盘和光盘包括压缩光盘(CD)、激光光盘、光学光盘、数字化多功能光盘(DVD)、软盘和蓝光光盘,其中,磁盘通常磁性重现数据,而光盘通过激光光学重现数据。上述的组合也应当被包括在“计算机可读介质”的范围内。
指令可以由一个或多个处理器执行,诸如一个或多个数字信号处理器(DSP)、通用微处理器、专用集成电路(ASIC)、现场可编程逻辑阵列(FPGA)或其它等同的集成或分立逻辑电路。因此,在本文中使用的术语“处理器”可以指任一上述结构或适合于实现本文中描述的技术的任何其它结构。此外,在某些方面,在本文中描述的功能可以在专用硬件和/或软件模块内提供。此外,这些技术可以完全在一个或多个电路或逻辑元件中实现。
如果需要,在本文中讨论的不同步骤可以采用不同的顺序执行和/或彼此同时执行。此外,如果需要,上述步骤中的一个或多个可以是可选的或者可进行组合。
尽管在独立权利要求中阐述了本公开的各个方面,但是本公开的其它方面包括来自所描述的实施例和/或从属权利要求的特征与独立权利要求的特征的其它组合,而不仅仅是在权利要求中明确列出的组合。
Claims (31)
1.一种方法,包括:
检测用户对定位标签的选择;
获取与所选标签相关的方向信息和时间戳信息;
将与所选标签相关的方向信息与被布置为捕获来自记录区域的视频内容的相机阵列的方向信息相比较;
识别由被布置为捕获来自记录区域的视频内容的相机阵列中的一个或多个相机捕获的视频内容,其中,如果所述一个或多个相机已经在与所选标签相关的所述时间戳信息相关的时间段内捕获来自与所选标签的位置相关的所述记录区域的一部分的所述视频内容,则由所述一个或多个相机捕获的所述视频内容被识别;以及
选择所识别的从所述一个或多个相机获得的视频内容以用于显示。
2.根据权利要求1所述的方法,其中,所捕获的视频内容的所选部分包括:从被布置为覆盖所述标签被确定所在的区域的相机获得的视频内容。
3.根据权利要求1或2所述的方法,其中,所捕获的视频内容的所选部分包括:从与被布置为覆盖所述标签被确定所在的区域的所述相机相邻的相机获得的视频内容。
4.根据任一前述权利要求所述的方法,还包括:增加被分配给所捕获的视频内容的所选部分的比特率。
5.根据权利要求4所述的方法,还包括:减少被分配给所捕获的视频内容的其余部分的比特率。
6.根据任一前述权利要求所述的方法,其中,所述方向信息和所述时间戳信息被存储在与所捕获的视频内容分开的文件中。
7.根据任一前述权利要求所述的方法,其中,识别一个或多个相机包括:识别一对或多对立体相机。
8.根据任一前述权利要求所述的方法,还包括:获取来自以下中的一个的所选视频内容:记录设备、播放设备或远程服务器。
9.根据任一前述权利要求所述的方法,还包括:使包括从所述一个或多个所识别的相机获得的视频内容的所捕获的视频内容的一部分被显示。
10.根据任一前述权利要求所述的方法,其中,检测用户对定位标签的选择包括:检测用户对多个定位标签的选择。
11.根据权利要求10所述的方法,还包括:使包括从与所述多个定位标签相对应的相机获得的视频内容的所捕获的视频内容的部分以分屏格式被显示。
12.根据任一前述权利要求所述的方法,其中,由每个相机捕获的视频内容被作为复合数据文件的一部分捕获或被捕获到单独的文件中。
13.根据任一前述权利要求所述的方法,其中,所述方向信息包括方位角。
14.根据任一前述权利要求所述的方法,其中,所述方向信息包括高程角。
15.一种计算机程序,包括指令,所述指令在由计算装置执行时使所述计算装置执行任一前述权利要求所述的方法。
16.一种装置,包括:
至少一个处理器;
至少一个存储器,其上存储有计算机可读指令,所述计算机可读指令在由所述至少一个处理器执行时使所述装置至少:
检测用户对定位标签的选择;
获取与所选标签相关的方向信息和时间戳信息;
将与所选标签相关的方向信息与被布置为捕获来自记录区域的视频内容的相机阵列的方向信息相比较;
识别由被布置为捕获来自记录区域的视频内容的相机阵列中的一个或多个相机捕获的视频内容,其中,如果所述一个或多个相机已经在与所选标签相关的所述时间戳信息相关的时间段内捕获来自与所选标签的位置相关的所述记录区域的一部分的所述视频内容,则由所述一个或多个相机捕获的所述视频内容被识别;以及
选择所识别的从所述一个或多个相机获得的视频内容以用于显示。
17.根据权利要求16所述的装置,其中,所记录的视频内容的所选部分包括:从被布置为覆盖所述标签被确定所在的区域的相机获得的视频内容。
18.根据权利要求16或17所述的装置,其中,所捕获的视频内容的所选部分包括:从与被布置为覆盖所述标签被确定所在的区域的所述相机相邻的相机获得的视频内容。
19.根据权利要求16至18中任一项所述的装置,所述计算机可读指令在由所述至少一个处理器执行时使所述装置至少:增加被分配给所记录的视频内容的所选部分的比特率。
20.根据权利要求19所述的装置,所述计算机可读指令在由所述至少一个处理器执行时使所述装置至少:减少被分配给所捕获的视频内容的其余部分的比特率。
21.根据权利要求16至20中任一项所述的装置,其中,所述方向信息和所述时间戳信息被存储在与所捕获的视频内容分开的文件中。
22.根据权利要求16至21中任一项所述的装置,其中,识别一个或多个相机包括:识别一对或多对立体相机。
23.根据权利要求16至22中任一项所述的装置,所述计算机可读指令在由所述至少一个处理器执行时使所述装置至少获取来自以下中的一个的所选视频内容:记录设备、播放设备或远程服务器。
24.根据权利要求16至23中任一项所述的装置,所述计算机可读指令在由所述至少一个处理器执行时使所述装置至少:使包括从所述一个或多个所识别的相机获得的视频内容的所捕获的视频内容的一部分被显示。
25.根据权利要求16至24中任一项所述的装置,其中,检测用户对定位标签的选择包括:检测用户对多个定位标签的选择。
26.根据权利要求25所述的装置,所述计算机可读指令在由所述至少一个处理器执行时使所述装置至少:使包括从与所述多个定位标签相对应的相机获得的视频内容的所捕获的视频内容的部分以分屏格式被显示。
27.根据权利要求16至26中任一项所述的装置,其中,由每个相机捕获的视频内容被记录为复合数据文件的一部分或被记录在单独的文件中。
28.根据权利要求16至27中任一项所述的装置,其中,所述方向信息包括方位角。
29.根据权利要求16至28中任一项所述的装置,其中,所述方向信息包括高程角。
30.一种计算机可读介质,其上存储有计算机可读代码,所述计算机可读代码在由至少一个处理器执行时使得执行:
检测用户对定位标签的选择;
获取与所选标签相关的方向信息和时间戳信息;
将与所选标签相关的方向信息与被布置为捕获来自记录区域的视频内容的相机阵列的方向信息相比较;
识别由被布置为捕获来自记录区域的视频内容的相机阵列中的一个或多个相机捕获的视频内容,其中,如果所述一个或多个相机已经在与所选标签相关的所述时间戳信息相关的时间段内捕获来自与所选标签的位置相关的所述记录区域的一部分的所述视频内容,则由所述一个或多个相机捕获的所述视频内容被识别;以及
选择所识别的从所述一个或多个相机获得的视频内容以用于显示。
31.一种装置,包括:
用于检测用户对定位标签的选择的装置;
用于获取与所选标签相关的方向信息和时间戳信息的装置;
用于将与所选标签相关的方向信息与被布置为捕获来自记录区域的视频内容的相机阵列的方向信息相比较的装置;
用于识别由被布置为捕获来自记录区域的视频内容的相机阵列中的一个或多个相机捕获的视频内容的装置,其中,如果所述一个或多个相机已经在与所选标签相关的所述时间戳信息相关的时间段内捕获来自与所选标签的位置相关的所述记录区域的一部分的所述视频内容,则由所述一个或多个相机捕获的所述视频内容被识别;以及
用于选择所识别的从所述一个或多个相机获得的视频内容以用于显示的装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/FI2015/050633 WO2017051063A1 (en) | 2015-09-23 | 2015-09-23 | Video content selection |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108293091A true CN108293091A (zh) | 2018-07-17 |
CN108293091B CN108293091B (zh) | 2020-07-07 |
Family
ID=58385959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580084748.7A Active CN108293091B (zh) | 2015-09-23 | 2015-09-23 | 视频内容选择 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10468066B2 (zh) |
EP (1) | EP3354007B1 (zh) |
JP (1) | JP6557410B2 (zh) |
CN (1) | CN108293091B (zh) |
WO (1) | WO2017051063A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI699545B (zh) * | 2019-06-14 | 2020-07-21 | 群光電子股份有限公司 | 電子裝置、追蹤系統及追蹤方法 |
CN113709542A (zh) * | 2020-10-09 | 2021-11-26 | 天翼智慧家庭科技有限公司 | 一种交互式全景视频播放的方法和系统 |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106454321A (zh) * | 2016-10-26 | 2017-02-22 | 深圳市道通智能航空技术有限公司 | 全景视频的处理方法、装置及系统 |
US11288937B2 (en) | 2017-06-30 | 2022-03-29 | Johnson Controls Tyco IP Holdings LLP | Security camera system with multi-directional mount and method of operation |
US11361640B2 (en) | 2017-06-30 | 2022-06-14 | Johnson Controls Tyco IP Holdings LLP | Security camera system with multi-directional mount and method of operation |
US10257058B1 (en) | 2018-04-27 | 2019-04-09 | Banjo, Inc. | Ingesting streaming signals |
US11025693B2 (en) | 2017-08-28 | 2021-06-01 | Banjo, Inc. | Event detection from signal data removing private information |
US10581945B2 (en) | 2017-08-28 | 2020-03-03 | Banjo, Inc. | Detecting an event from signal data |
US10313413B2 (en) | 2017-08-28 | 2019-06-04 | Banjo, Inc. | Detecting events from ingested communication signals |
US10324948B1 (en) | 2018-04-27 | 2019-06-18 | Banjo, Inc. | Normalizing ingested signals |
US20190251138A1 (en) | 2018-02-09 | 2019-08-15 | Banjo, Inc. | Detecting events from features derived from multiple ingested signals |
US20190104282A1 (en) * | 2017-09-29 | 2019-04-04 | Sensormatic Electronics, LLC | Security Camera System with Multi-Directional Mount and Method of Operation |
US10313865B1 (en) | 2018-04-27 | 2019-06-04 | Banjo, Inc. | Validating and supplementing emergency call information |
US10261846B1 (en) | 2018-02-09 | 2019-04-16 | Banjo, Inc. | Storing and verifying the integrity of event related data |
US10324935B1 (en) | 2018-02-09 | 2019-06-18 | Banjo, Inc. | Presenting event intelligence and trends tailored per geographic area granularity |
US10970184B2 (en) | 2018-02-09 | 2021-04-06 | Banjo, Inc. | Event detection removing private information |
US10585724B2 (en) | 2018-04-13 | 2020-03-10 | Banjo, Inc. | Notifying entities of relevant events |
JPWO2019187493A1 (ja) * | 2018-03-26 | 2021-04-22 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US10327116B1 (en) * | 2018-04-27 | 2019-06-18 | Banjo, Inc. | Deriving signal location from signal content |
US10904720B2 (en) | 2018-04-27 | 2021-01-26 | safeXai, Inc. | Deriving signal location information and removing private information from it |
US10353934B1 (en) | 2018-04-27 | 2019-07-16 | Banjo, Inc. | Detecting an event from signals in a listening area |
US10728443B1 (en) | 2019-03-27 | 2020-07-28 | On Time Staffing Inc. | Automatic camera angle switching to create combined audiovisual file |
US10963841B2 (en) | 2019-03-27 | 2021-03-30 | On Time Staffing Inc. | Employment candidate empathy scoring system |
US10582343B1 (en) | 2019-07-29 | 2020-03-03 | Banjo, Inc. | Validating and supplementing emergency call information |
US11127232B2 (en) | 2019-11-26 | 2021-09-21 | On Time Staffing Inc. | Multi-camera, multi-sensor panel data extraction system and method |
US11023735B1 (en) | 2020-04-02 | 2021-06-01 | On Time Staffing, Inc. | Automatic versioning of video presentations |
CN113556162B (zh) | 2020-08-18 | 2022-06-21 | 中兴通讯股份有限公司 | 波束赋形方法、网络设备、终端及存储介质 |
US11144882B1 (en) | 2020-09-18 | 2021-10-12 | On Time Staffing Inc. | Systems and methods for evaluating actions over a computer network and establishing live network connections |
US11727040B2 (en) | 2021-08-06 | 2023-08-15 | On Time Staffing, Inc. | Monitoring third-party forum contributions to improve searching through time-to-live data assignments |
US11423071B1 (en) | 2021-08-31 | 2022-08-23 | On Time Staffing, Inc. | Candidate data ranking method using previously selected candidate data |
US11907652B2 (en) | 2022-06-02 | 2024-02-20 | On Time Staffing, Inc. | User interface and systems for document creation |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2150057A2 (en) * | 2008-07-29 | 2010-02-03 | Gerald Curry | Camera-based tracking and position determination for sporting events |
CN102668534A (zh) * | 2009-10-19 | 2012-09-12 | 图形科技公司 | 视频和遥测数据的数据搜索、解析和同步 |
WO2014075090A1 (en) * | 2012-11-12 | 2014-05-15 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
US20140245367A1 (en) * | 2012-08-10 | 2014-08-28 | Panasonic Corporation | Method for providing a video, transmitting device, and receiving device |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6034716A (en) | 1997-12-18 | 2000-03-07 | Whiting; Joshua B. | Panoramic digital camera system |
US6337683B1 (en) | 1998-05-13 | 2002-01-08 | Imove Inc. | Panoramic movies which simulate movement through multidimensional space |
EP1297634A1 (en) | 2000-06-09 | 2003-04-02 | iMove Inc. | Streaming panoramic video |
US7839926B1 (en) | 2000-11-17 | 2010-11-23 | Metzger Raymond R | Bandwidth management and control |
JP4736381B2 (ja) | 2003-11-27 | 2011-07-27 | ソニー株式会社 | 撮像装置及び方法、監視システム、プログラム並びに記録媒体 |
JP2007043225A (ja) | 2005-07-29 | 2007-02-15 | Univ Of Electro-Communications | 撮像画像処理装置及び撮像画像処理方法 |
WO2007036842A2 (en) | 2005-09-30 | 2007-04-05 | Koninklijke Philips Electronics N.V. | Method and apparatus for capturing metadata for a content item |
WO2008070687A2 (en) | 2006-12-04 | 2008-06-12 | Lynx System Developers, Inc. | Autonomous systems and methods for still and moving picture production |
US8665333B1 (en) * | 2007-01-30 | 2014-03-04 | Videomining Corporation | Method and system for optimizing the observation and annotation of complex human behavior from video sources |
JP2008227877A (ja) * | 2007-03-13 | 2008-09-25 | Hitachi Ltd | 映像情報処理装置 |
JP4933354B2 (ja) * | 2007-06-08 | 2012-05-16 | キヤノン株式会社 | 情報処理装置、及び情報処理方法 |
US20130176403A1 (en) * | 2011-08-16 | 2013-07-11 | Kenneth Varga | Heads up display (HUD) sensor system |
US9031971B2 (en) | 2010-07-23 | 2015-05-12 | Qualcomm Incorporated | Flexible data download models for augmented reality |
US20130002879A1 (en) * | 2011-07-01 | 2013-01-03 | Sensormatics Electronics, Llc | Systems and methods for tracking a commodity |
JP6282793B2 (ja) | 2011-11-08 | 2018-02-21 | サターン ライセンシング エルエルシーSaturn Licensing LLC | 送信装置、表示制御装置、コンテンツ送信方法、記録媒体、及びプログラム |
WO2013076720A1 (en) * | 2011-11-27 | 2013-05-30 | Spoton-Video Ltd. | A system and methods for personalizing an image |
US20130300832A1 (en) * | 2012-05-14 | 2013-11-14 | Sstatzz Oy | System and method for automatic video filming and broadcasting of sports events |
US10721530B2 (en) | 2013-07-29 | 2020-07-21 | Koninklijke Kpn N.V. | Providing tile video streams to a client |
CN104580872A (zh) * | 2013-10-20 | 2015-04-29 | 郁杰夫 | 一种自动定位追踪摄影系统和自动定位追踪摄影方法 |
WO2017051064A1 (en) | 2015-09-23 | 2017-03-30 | Nokia Technologies Oy | Video recording method and apparatus |
-
2015
- 2015-09-23 JP JP2018515483A patent/JP6557410B2/ja active Active
- 2015-09-23 CN CN201580084748.7A patent/CN108293091B/zh active Active
- 2015-09-23 WO PCT/FI2015/050633 patent/WO2017051063A1/en active Application Filing
- 2015-09-23 US US15/761,224 patent/US10468066B2/en active Active
- 2015-09-23 EP EP15904687.9A patent/EP3354007B1/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2150057A2 (en) * | 2008-07-29 | 2010-02-03 | Gerald Curry | Camera-based tracking and position determination for sporting events |
CN102668534A (zh) * | 2009-10-19 | 2012-09-12 | 图形科技公司 | 视频和遥测数据的数据搜索、解析和同步 |
US20140245367A1 (en) * | 2012-08-10 | 2014-08-28 | Panasonic Corporation | Method for providing a video, transmitting device, and receiving device |
WO2014075090A1 (en) * | 2012-11-12 | 2014-05-15 | Oblong Industries, Inc. | Operating environment with gestural control and multiple client devices, displays, and users |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI699545B (zh) * | 2019-06-14 | 2020-07-21 | 群光電子股份有限公司 | 電子裝置、追蹤系統及追蹤方法 |
CN113709542A (zh) * | 2020-10-09 | 2021-11-26 | 天翼智慧家庭科技有限公司 | 一种交互式全景视频播放的方法和系统 |
CN113709542B (zh) * | 2020-10-09 | 2023-09-19 | 天翼数字生活科技有限公司 | 一种交互式全景视频播放的方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
JP6557410B2 (ja) | 2019-08-07 |
EP3354007B1 (en) | 2023-03-01 |
US10468066B2 (en) | 2019-11-05 |
EP3354007A1 (en) | 2018-08-01 |
US20180268868A1 (en) | 2018-09-20 |
CN108293091B (zh) | 2020-07-07 |
JP2018534826A (ja) | 2018-11-22 |
WO2017051063A1 (en) | 2017-03-30 |
EP3354007A4 (en) | 2019-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108293091A (zh) | 视频内容选择 | |
CN108450022A (zh) | 视频记录方法和装置 | |
US10595008B2 (en) | Video imaging an area of interest using networked cameras | |
US10186299B2 (en) | Method and electronic device for generating multiple point of view video | |
US9224425B2 (en) | Time stamped imagery assembly for course performance video replay | |
Hao et al. | Visible light positioning using a single LED luminaire | |
EP2804142B1 (en) | Recording and processing safety relevant observations for facilities | |
US20080303901A1 (en) | Tracking an object | |
CN105222773A (zh) | 导航方法及装置 | |
US20160323483A1 (en) | Automatically generating notes and annotating multimedia content specific to a video production | |
CN109357679B (zh) | 一种基于显著性特征识别的室内定位方法 | |
WO2012161035A1 (en) | Adjacent person specifying apparatus | |
JP2018137575A (ja) | 制御装置及び方法 | |
Liu et al. | Seva: Sensor-enhanced video annotation | |
CN106291519A (zh) | 测距方法及装置 | |
US8694020B2 (en) | Wireless sensor based camera location and orientation | |
CN103957502A (zh) | 位置服务程序选择方法、装置及终端 | |
KR20170083124A (ko) | 블루투스 저 에너지를 이용한 위치 계산 | |
Boddhu et al. | Increasing situational awareness using smartphones | |
CN106226797A (zh) | 运动场地信息推送方法及装置 | |
JP5852530B2 (ja) | 移動体追跡表示装置、移動体追跡表示方法およびプログラム | |
CN106482729A (zh) | 无人机跟踪运动目标的方法及装置 | |
Yoon et al. | PASU: A personal area situation understanding system using wireless camera sensor networks | |
CN106231653A (zh) | 搜索网络的方法及装置 | |
Rafiee | Improving indoor security surveillance by fusing data from BIM, UWB and Video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |