CN115210770A - 用于广播视频的端到端相机校准 - Google Patents

用于广播视频的端到端相机校准 Download PDF

Info

Publication number
CN115210770A
CN115210770A CN202180018658.3A CN202180018658A CN115210770A CN 115210770 A CN115210770 A CN 115210770A CN 202180018658 A CN202180018658 A CN 202180018658A CN 115210770 A CN115210770 A CN 115210770A
Authority
CN
China
Prior art keywords
target
homography matrix
template
homography
broadcast video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180018658.3A
Other languages
English (en)
Inventor
沙龙
S·甘古利
帕特里克·卢西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Statos
Original Assignee
Statos
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Statos filed Critical Statos
Publication of CN115210770A publication Critical patent/CN115210770A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
    • G06V30/274Syntactic or semantic context, e.g. balancing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30228Playing field
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Security & Cryptography (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

本文公开了校准广播视频源的系统和方法。计算系统检索包括多个视频帧的多个广播视频源。通过生成基于广播视频源的多个训练数据集以及通过神经网络学习以为多个帧中的每一帧生成单应矩阵,计算系统生成训练的神经网络。计算系统接收目标运动事件的目标广播视频源。计算系统将目标广播视频源划分成多个目标帧。计算系统经由神经网络为多个目标帧中的每个目标帧生成目标单应矩阵。计算系统通过由相应的目标单应矩阵扭曲每个目标帧来校准目标广播视频源。

Description

用于广播视频的端到端相机校准
相关申请的交叉引用
本申请要求于2020年4月10日提交的美国临时申请序列No.63/008,184的优先权,该申请的全部内容通过引用并入本文。
技术领域
本公开总体上涉及用于基于例如跟踪数据的广播视频动作和参与者的端到端相机校准的系统和方法。
背景技术
被部署在生产中的越来越多的基于视觉的跟踪系统需要快速、稳健的相机校准。例如,在体育运动领域,当前的大部分工作集中于易于提取线条和交叉点以及跨场地的外观相对一致的体育运动上。
发明内容
在一些实施例中,本文公开了一种校准广播视频源的方法。计算系统检索多个运动事件的多个广播视频源。每个广播视频源包括多个视频帧。通过将广播视频源划分为多个帧来生成基于广播视频源的多个训练数据集以及通过神经网络来学习以为多个帧中的每一帧生成单应矩阵,计算系统生成训练的神经网络。计算系统接收目标运动事件的目标广播视频源。计算系统将目标广播视频源划分成多个目标帧。计算系统经由神经网络为多个目标帧中的每个目标帧生成目标单应矩阵。计算系统通过由相应的目标单应矩阵扭曲每个目标帧来校准目标广播视频源。
在一些实施例中,本文公开了一种系统。该系统包括处理器和存储器。存储器具有存储在其上的编程指令,当编程指令由处理器执行时,执行一个或更多个操作。一个或更多个操作包括检索多个运动事件的多个广播视频源。每个广播视频源包括多个视频帧。一个或更多个操作还包括通过由将广播视频源划分为多个帧来生成基于广播视频源的多个训练数据集以及通过神经网络学习为多个帧中的每一帧生成单应矩阵,生成训练的神经网络。一个或更多个操作还包括接收目标运动事件的目标广播视频源。一个或更多个操作还包括将目标广播视频源划分成多个目标帧。一个或更多个操作还包括通过神经网络为多个目标帧中的每个目标帧生成目标单应矩阵。一个或更多个操作还包括通过由相应的目标单应矩阵扭曲每个目标帧来校准目标广播视频源。
在一些实施例中,本文公开了一种非暂时性计算机可读介质。非暂时性计算机可读介质包括一个或更多个指令序列,一个或更多个指令序列在由一个或更多个处理器执行时,使得计算系统执行一个或更多个操作。计算系统检索多个运动事件的多个广播视频源。每个广播视频源包括多个视频帧。通过将广播视频源划分为多个帧来生成基于广播视频源的多个训练数据集以及通过神经网络学习为多个帧中的每一帧生成单应矩阵,计算系统生成训练的神经网络。计算系统接收目标运动事件的目标广播视频源。计算系统将目标广播视频源划分成多个目标帧。计算系统经由神经网络为多个目标帧中的每个目标帧生成目标单应矩阵。计算系统通过由相应的目标单应矩阵扭曲每个目标帧来校准目标广播视频源。
附图说明
为了能够详细理解本公开的上述特征,可以通过参考实施例对以上简要概括的本公开进行更具体的描述,其中一些实施例在附图中被示出。然而,要注意,附图仅示出了本公开的典型实施例,因此不应被视为对本公开范围的限制,因为本公开可以允许其他同等有效的实施例。
图1是示出根据示例实施例的计算环境的框图。
图2A-图2B是示出根据示例实施例的相机校准器的神经网络架构的框图。
图3是示出根据示例实施例的比赛场地的一个或更多个图像的框图。
图4是示出根据示例实施例的生成完全训练的校准模型的方法的流程图。
图5是示出根据示例实施例的校准广播相机的方法的流程图。
图6A是示出根据示例实施例的计算设备的框图。
图6B是示出根据示例实施例的计算设备的框图。
为了便于理解,在可能的情况下,已使用相同的参考数字来表示附图中共同的相同元件。在一个实施例中公开的元件可以有益地被用于其他实施例而无需具体叙述是可预期的。
具体实施方式
相机校准是计算机视觉应用的一项重要任务,例如跟踪系统、即时定位与地图构建(simultaneous localization and mapping,SLAM)以及增强现实(AR)。最近,许多职业体育运动联盟已经部署了一些基于视觉的跟踪系统版本。此外,在视频广播期间使用的以用于提高观众参与度的AR应用(例如
Figure BDA0003828004770000031
中的Virtual 3、
Figure BDA0003828004770000032
中的First DownLine)已变得不足为奇。所有这些应用都需要高质量的相机校准系统。目前,这些应用的大多数依赖于多个预先校准的固定相机或直接来自相机的云台变焦(pan-tilt-zoom,PTZ)参数的实时馈送。然而,由于体育运动领域中最广泛可用的数据源是广播视频,所以从具有未知的和变化的相机参数的单个移动相机进行校准的能力将大大扩展选手跟踪数据和粉丝参与度解决方案的范围。单个移动相机的校准仍然是一项具有挑战性的任务,因为该方法应该是准确的、快速的且可推广到各种视图和外观。本文描述的一种或更多种技术允许计算系统在给定帧和运动的情况下确定单个移动相机的相机单应性。
相机校准的当前方法主要遵循基于场配准、模板匹配(即,相机姿态初始化)和单应性细化的框架。这些方法的大多数集中于语义信息(例如,关键球场标记)易于提取、跨体育场(例如,绿草和白线)的场外观一致、以及相机的移动相对缓慢且平稳的运动上。然而,这些假设不适用于更具动态性的体育运动,例如篮球,其中选手遮挡场标记,场外观因场地而异,并且相机快速移动。
此外,大多数现有工作成果由多个独立模型组成,这些独立模型分别被训练或调整。因此,他们不能为此类优化任务实现全局最优。这个问题还限制了这些方法在更具挑战性的场景中的性能,因为误差通过系统进行模块到模块的传播。
本文所述的一种或更多种技术涉及用于相机校准的全新的端到端神经网络。通过端到端神经网络的使用,本系统能够处理涉及移动模糊、遮挡和大变换的更具挑战性的场景—现有系统根本不能解释或解决的场景。在一些实施例中,本系统实施基于区域的语义而不是用于相机校准的线,从而为动态环境和具有高度可变外观特征的那些环境提供更稳健的方法。在一些实施例中,本系统结合了用于大变换学习的空间变换网络,这有助于减少用于校准目的所需模板的数量。在一些实施例中,本系统实施用于相机校准的端到端架构,这允许更有效地联合训练和推理单应性。
图1是示出根据示例实施例的计算环境100的框图。计算环境100可以包括:经由网络105通信的相机系统102、组织计算系统104以及一个或更多个客户端设备108。
网络105可以是包括经由互联网(例如,蜂窝或Wi-Fi网络)的单独连接的任何合适的类型。在一些实施例中,网络105可以使用直接连接(例如,射频识别(RFID)、近场通信(NFC)、蓝牙TM、低能耗蓝牙TM(BLE)、Wi-FiTM、ZigBeeTM、环境反向散射通信(ABC)协议、USB、WAN或LAN)来连接终端、服务和移动设备。因为传输的信息可能是个人的或机密的,出于安全考虑可能要求对这些类型的连接中的一种或更多种进行加密或以其他方式保护。然而,在一些实施例中,正在传输的信息可能不太个人化,因此,为了方便而不是安全,可以选择网络连接。
网络105可以包括用于交换数据或信息的任何类型的计算机网络布置。例如,网络105可以是互联网、专用数据网络、使用公共网络的虚拟专用网络和/或使计算环境100中的部件能够在环境100的部件之间发送和接收信息的其他合适的连接。
相机系统102可以位于场地106中。例如,场地106可以被配置为举办包括一个或更多个主体112的运动事件。相机系统102可以被配置为捕获比赛场地上的所有主体(即,选手)的移动,以及一个或更多个其他相关对象(例如,球、裁判等)的移动。在一些实施例中,相机系统102可以是使用诸如多个固定相机的基于光学的系统。例如,可以使用由六个固定的校准相机组成的系统,该系统将选手和球的三维位置投影到球场的二维俯视图上。在另一示例中,静止相机和非静止相机的混合可用于捕获比赛场地上的所有主体以及一个或更多个相关对象的移动。如本领域技术人员所认识到的,利用这种相机系统(例如,相机系统102)可能生成球场的许多不同相机视图(例如,高边线视图、罚球线视图、队员靠拢(huddle)视图、争球(face-off)视图、球门区(end zone)视图等)。通常,相机系统102可用于给定比赛的广播源(broadcast feed)。广播源的每一帧可以存储在比赛文件110中。
相机系统102可以被配置为经由网络105与组织计算系统104通信。组织计算系统104可以被配置为管理和分析由相机系统102捕获的广播源。组织计算系统104可以至少包括网络客户端应用服务器114、预处理引擎116、数据存储118和相机校准器120。预处理引擎116和相机校准器120均可以包括一个或更多个软件模块。一个或更多个软件模块可以是存储在介质(例如,组织计算系统104的存储器)上的代码或指令的集合,这些代码或指令的集合表示实施一个或更多个算法步骤的一系列机器指令(例如,程序代码)。这样的机器指令可以是组织计算系统104的处理器解释以实施指令的实际计算机代码,或者,可以是被解释以获得实际计算机代码的指令的更高级别的编码。一个或更多个软件模块还可以包括一个或更多个硬件部件。示例算法的一个或更多个方面可以由硬件部件(例如,电路)本身执行,而不是作为指令的结果。
数据存储118可以被配置为存储一个或更多个比赛文件124。每个比赛文件124可以包括给定比赛的广播数据。例如,广播数据可以是由相机系统102捕获的多个视频帧。
相机校准器120可以被配置为校准相机系统102的相机。例如,相机校准器120可以被配置为将在可跟踪帧中检测到的选手投影到真实世界坐标以供进一步分析。因为相机系统102中的相机不断地移动以便集中于球或关键比赛,所以这样的相机不能被预先校准。相机校准器120可以被配置为生成单应矩阵,该单应矩阵可以将来自广播视频的任何帧的目标地平面场地与俯视场模型配准。例如,相机校准器120可以实施单个神经网络以找出可以将来自广播视频的任何帧I的目标地平面场地与俯视场模型M配准的单应矩阵H。在一些实施例中,用于计算具有点对应的单应性的标准目标函数可以是:
Figure BDA0003828004770000051
其中xi表示在广播图像I中像素i的位置(x,y),x'i是模型“图像”M上对应的像素位置,χ表示两个图像I和M之间的点对应集。
客户端设备108可以经由网络105与组织计算系统104通信。客户端设备108可以由用户操作。例如,客户端设备108可以是移动设备、平板电脑、台式计算机或具有本文所述能力的任何计算系统。用户可以包括但不限于个人,例如订阅者、客户、潜在客户或与组织计算系统104相关联的实体的消费者,例如已经获得、将要获得或可能获得来自与组织计算系统104相关联的实体的产品、服务或咨询的个人。
客户端设备108可以至少包括应用132。应用132可以表示独立应用或允许访问网站的网络浏览器。客户端设备108可以访问应用132以访问组织计算系统104的一个或更多个功能。客户端设备108可以通过网络105进行通信以请求诸如来自组织计算系统104的网络客户端应用服务器114的网页。例如,客户端设备108可以被配置为执行应用132以访问由网络客户端应用服务器114管理的内容。显示给客户端设备108的内容可以从网络客户端应用服务器114传输到客户端设备108,并且随后由应用132处理以通过客户端设备108的图形用户界面(GUI)显示。
图2A-图2B是示出根据示例实施例的相机校准器120的神经网络架构200的框图。如所讨论的,相机校准器120可以利用单个神经网络,单个神经网络将视频帧作为输入,并输出该帧的单应矩阵。例如,相机校准器120可以利用单个神经网络进行给定跨各种运动(例如,篮球、足球、橄榄球、曲棍球等)的未知相机内部参数的单个移动相机校准。神经网络架构200可以包括三个模块:语义分割模块202、相机姿态初始化模块204和单应性细化模块206。三个模块202-206中的每一个都被集成到单个神经网络架构中,例如神经网络架构200所示。因为所有三个模块202-206均已被连接,所以神经网络架构200能够进行端到端训练。
语义分割模块202可以被配置为识别比赛场地(例如,篮球场、足球场等)的特征。例如,语义分割模块202可以被配置为从输入图像I(参考数字220)中提取关键特征并去除不相关信息。这样的输出可导致可用于确定点对应的场地不可知外观
Figure BDA0003828004770000061
(参考数字222)。因此,来自上述的目标函数H可以被重写为:
Figure BDA0003828004770000062
其中θH表示八个单应性参数的向量,W(;θ)表示具有变换参数θ的扭曲函数,L()表示测量两个图像(在这种情况下是预测的语义图
Figure BDA0003828004770000071
和扭曲的开销(overhead)模型M)之间的差异的任何损失函数。
语义分割模块202可以通过将比赛场地划分为一个或更多个区域来对比赛场地进行基于区域的分割。通过将比赛场地划分为一个或更多个区域,语义分割模块202可以将开销场模型M变换为多通道图像。考虑到多通道图像,语义分割模块202可以将I中的每个像素分类到一个或更多个区域中的一个区域中。为了生成每个图像的基于区域的语义标签,语义分割模块202可以利用相关联的地面实况单应性扭曲开销模型,从而为训练提供地面实况语义标签。
图3是示出根据示例实施例的篮球比赛场地的一个或更多个图像302-306的框图。如图所示,图像302可以对应于篮球比赛场地的俯视的视场模型。语义分割模块202可以将篮球比赛场地划分成四个区域,从而产生4通道图像。例如,区域308可以对应于第一通道,区域310可以对应于第二通道,区域312可以对应于第三通道,以及区域314可以对应于第四通道。在操作中,语义分割模块202可以利用图像302将输入图像(例如,在I中)中的每个像素分类到区域308-314中的一个。
图像304可以阐明应用于传入图像的语义标签。语义分割模块202可以通过使用地面实况单应性扭曲场模型M(例如,图像302)来生成图像304。然后这些图像(例如,图像302和图像304)可以被用于训练语义分割模块202。
图像306可以从俯视透视图阐明示出相机视图中的场模型的比例(fraction)的图像304的多边形区域。
返回参考图2A和图2B,对于分割任务,语义分割模块202可以实施Unet样式的自动编码器214(以下简称为“Unet 214”)。Unet 214可以将图像I220作为输入,并输出θH所需的语义图
Figure BDA0003828004770000072
222。在一些实施例中,可以使用交叉熵损失来训练Unet 214。例如:
Figure BDA0003828004770000073
其中C可以表示类别集,
Figure BDA0003828004770000074
可以表示地面实况标签,
Figure BDA0003828004770000075
可以表示像素i属于类别c的似然度。
相机姿态初始化模块204可以被配置为使用语义图从模板集中选择适当的模板。相机姿态初始化模块204可以使用孪生网络来确定每个输入语义图像的最佳模板。孪生网络可以是卷积编码器,该卷积编码器计算语义图像的隐藏表示,该语义图像可以是Unet214的输出或任何语义模板图像。在一些实施例中,两个图像之间的相似度可以是它们的隐藏表示之间的范数L2。在一些实施例中,可以将每个图像编码为128长度的向量用于相似度计算。
对于PTZ相机,投影矩阵P可以表示为:
P=KR[I|-C]=KQS[I|-C]
其中Q和S是由旋转矩阵R分解而成的,K是相机系统102中相机的固有参数,I是3×3单位矩阵,C是相机平移。矩阵S可以描述从世界坐标到PTZ相机底部的旋转,以及Q表示由于平移(pan)和倾斜(tilt)导致的相机旋转。例如,S可以被限定为围绕世界x轴旋转约90°,使得相机沿世界平面中的y轴观看。换句话说,相机是水平的,它的投影与地面平行。
在一些实施例中,对于每个图像,相机校准器120可以假设中心原理点、方形像素以及无镜头畸变。在一些实施例中,可以识别六个参数。例如,这六个参数可以是焦距、三维相机位置、平移和倾斜角。
在一些实施例中,预处理引擎116可以初始化固有相机矩阵K、相机位置C和旋转矩阵R。通过该初始化,预处理引擎116可以识别最优焦距、三维相机位置和旋转角度。例如,预处理引擎116可以使用列文伯格-马夸尔特(Levenberg-Marquardt)算法来找出最优焦距、三维相机位置和旋转角度。一旦预处理引擎116确定K、C、R和S,预处理引擎116就可以生成Q。在一些实施例中,预处理引擎116可以生成给定Q的平移和倾斜角。例如,预处理引擎116可以通过将罗德里格斯公式应用于Q来生成平移和倾斜角。因此,根据以上所述,相机姿态初始化模块204可以生成6维相机配置λ(平移、倾斜、缩放和三维相机位置)。
在预处理引擎116估计每个训练图像的相机配置λ之后,预处理引擎116可以生成可能的相机姿态Λ的字典。
在一些实施例中,预处理引擎116可以通过从可能的相机姿态的范围内均匀地采样来生成可能的相机姿态Λ的字典。例如,预处理引擎116可以从训练数据确定平移、倾斜、焦距和相机位置的范围,并从6维网格中对姿态进行均匀采样。即使训练集很小,这种方法能够覆盖所有相机姿态。此外,使用较小的网格可以简化单应性细化,因为所需的变换的最大尺度在网格大小的尺度上。
在一些实施例中,预处理引擎116可以使用聚类直接从训练数据中学习可能的相机姿态Λ。例如,当训练集具有足够的多样性时,这样的过程可能是有益的。例如,预处理引擎116可以将Λ视为多变量正态分布,并应用高斯混合模型(GMM)来构建相机姿态集。在一些实施例中,对于每个分量,混合权重π可以被固定为相等。在一些实施例中,对于每个分布,协方差矩阵Σ可以是固定的。在这样的实施例中,Σ的特征尺度可以设置由单应性细化模块206处理的变换的尺度。与传统的GMM相比,由预处理引擎116实施的GMM学习算法可以在给定混合权重π和协方差矩阵Σ的情况下找出分量K的数量和每个分布的平均值μk,而不是设置分量K的数量。每个分量的相同的Σ和π可以确保从训练数据的流形中对GMM分量均匀地采样。
在一些实施例中,GMM学习算法可以是:
Figure BDA0003828004770000091
因为预处理引擎116可以确定Σ,所以相机姿态初始化模块可以在最大化步骤期间仅更新μ。预处理引擎116可以逐渐增加K直到满足停止准则。停止准则可能旨在生成足够的分量,使得每个训练示例都接近混合中一个分量的平均值。预处理引擎116可以利用所有分量[μ1,...,μk]生成相机姿态字典Λ。
考虑到相机姿态字典Λ,相机姿态初始化模块204可以计算每个姿态的单应性并使用Λ来扭曲开销场模型M。因此,图像模板集
Figure BDA0003828004770000101
及其对应的单应矩阵
Figure BDA0003828004770000102
可以被确定并被相机姿态初始化模块204使用。
考虑到语义分割图像
Figure BDA0003828004770000103
和模板图像集
Figure BDA0003828004770000104
相机姿态初始化模块204可以使用孪生网络来计算每个输入和模板对
Figure BDA0003828004770000105
之间的距离。在一些实施例中,每对的目标/标签可以是相似的或不同的。例如,对于网格采样的相机姿态字典,如果模板Tk的姿态参数是网格中的最近邻,则模板Tk可能与图像相似。对于基于GMM的相机姿态字典,如果模板
Figure BDA0003828004770000106
的对应分布给出输入图像的姿态参数λ的最高似然度,则可以将模板Tk标记为与图像相似。这个过程可以为训练集中的每个图像生成模板相似度标签。
一旦(在FC1之后)输入语义图像
Figure BDA0003828004770000107
和模板图像
Figure BDA0003828004770000108
被编码,相机姿态初始化模块204可以使用潜在表示来计算输入图像和每个模板之间的L2距离。选择模块210可以找出目标相机姿态索引
Figure BDA0003828004770000109
并且可以根据以下公式检索其模板图像
Figure BDA00038280047700001010
和单应性
Figure BDA00038280047700001011
作为输出:
Figure BDA00038280047700001012
其中f()可以表示孪生网络的编码函数。
在一些实施例中,相机姿态初始化模块204可以使用对比损失来训练孪生网络。例如,
Figure BDA00038280047700001013
其中a可以表示图像对
Figure BDA00038280047700001014
的二进制相似性标签,m可以表示对比损失的边界。
单应性分割模块206可以被配置为通过识别所选模板和输入图像之间的相对变换来细化单应性。例如,单应性分割模块206可以实施空间变换网络(spatial transformernetwork,STN),STN允许大型非仿射变换的处理和较小的相机姿态字典的使用。例如,在给定输入图像和所选模板时,这两个图像可以被堆栈并作为输入被提供给STN。STN可用于回归几何变换参数。在一些实施例中,可以在卷积编码器中使用残差块来保护用于变形预测的显著特征。在一些实施例中,ReLU可用于所有隐藏层,而STN的输出层可使用线性激活。
为了计算输入语义图像
Figure BDA0003828004770000111
和所选模板图像
Figure BDA0003828004770000112
之间的相对变换,单应性分割模块206可以将图像堆栈成n通道图像(例如,8通道图像),形成STN定位层的输入。在一些实施例中,定位层的输出可以是将语义图像
Figure BDA0003828004770000113
映射到模板Tk的相对单应性
Figure BDA0003828004770000114
的参数(例如,8个参数)。
在一些实施例中,单应性分割模块206可以初始化定位层中的最后一层(例如,FC3),使得内核中的所有元素都为零并且偏向于扁平单位矩阵的前n个值(例如,8个值)。因此,在训练开始时,可以假设输入与模板相同,为STN优化提供初始化。因此,最终的单应性可能是
Figure BDA0003828004770000115
一旦H被计算,单应性细化模块206的变换器212可以将开销模型M扭曲到相机视角,反之亦然,这允许相机校准器120计算损失函数。例如,单应性细化模块206可以使用骰子系数损失:
Figure BDA0003828004770000116
其中U、V可以表示语义图像,C可以表示通道数,°可以表示逐元素乘法,||·||可以表示图像中像素强度的总和。此处,例如,每个通道的强度可以是像素属于通道c的似然度。与基于线的分割相反,使用基于区域的分割的主要优点之一是它对遮挡具有鲁棒性,并且可以更好地使用(即更有效地使用)网络容量,因为图像像素的更大比例可能属于有意义的类别。
然而,基于交并比(intersection-of-union,IoU)的损失的限制是,随着图像中视场的比例减小,IoU损失可能变得对分割误差敏感。例如,如果比赛场地占据了图像的一小部分,那么小的变换可以显著降低IoU。因此,单应性细化模块206在两个视角中的扭曲的比赛场地上都使用了骰子损失—高占用视角可以实现粗略的配准,而低占用视角可以对微调提供有力的约束。因此,损失函数可以被定义为:
Figure BDA0003828004770000117
其中Y可以表示地面实况语义图像,M'可以表示掩蔽开销场模型,以便仅针对图像中示出的区域计算损失。来自两个视角的损失可以通过δ加权,其中较低占用比例视角的权重总是较高。
因为每个模块202-206可以使用其他模块的输出作为输入,所以这三个模块202-206可以连接成单个神经网络(即,神经网络架构200)。因此,网络的总损失可以变为:
Figure BDA0003828004770000121
其中α,β∈[0,1)。
相机校准器120可以逐个模块递增地训练整个神经网络架构200,使得孪生网络和STN可以合理的输入开始训练。例如,训练可以从对Unet进行20次epoch的预热开始;孪生网络训练可以从α=0.1和β=0.9开启。例如,在又过10次epoch后,STN可以从α=0.05和β=0.05开启。神经网络架构可能会继续进行联合训练,直到收敛。
图4是示出根据示例实施例的生成完全训练的校准模型的方法400的流程图。方法400可以开始于步骤402。
在步骤402,组织计算系统104可以检索一个或更多个数据集以用于训练。每个数据集可以包括在比赛过程期间由相机系统102捕获的多个图像。
在一些实施例中,数据集可以从十三场篮球比赛中创建。本领域技术人员认识到,多于十三场的比赛或少于十三场的比赛可用于训练目的。例如,十场比赛可用于训练,剩余三场比赛可用于测试。本领域技术人员认识到,多于十场的比赛或少于十场的比赛可用于训练,多于三场的比赛或少于三场的比赛可用于测试。上述用于训练目的的比赛数量仅是示例性的,并不意味着限制上述讨论。不同的比赛可以有不同的相机位置,每场比赛都在一个独特的场地中进行。因此,每场比赛的比赛场地外观可能因比赛而异。对于每场比赛,可以为具有高相机姿态多样性的每个注释选择30-60帧。专业注释者可能已经点击了每个图像中的四到六个点对应来计算地面实况单应性。这些注释可能已经产生了526个用于训练的图像和114个用于测试的图像。在一些实施例中,可以通过水平翻转图像来进一步丰富训练数据,这样可以总共生成1052个训练示例。
在一些实施例中,数据集可以从二十场足球比赛中创建。例如,二十场足球比赛在白天和晚上在九个不同的体育场举行,图像可能由不同的视角和照明条件组成。因此,该数据集可能包括从10场比赛中收集的209个训练图像和从其他10场比赛中收集的186个测试图像。
在步骤404,组织计算系统104可以根据一个或更多个数据集生成多个相机姿态模板。例如,基于检索的用于训练的一个或更多个数据集,相机校准器120可以生成用于训练的相机姿态模板。在一些实施例中,只要一个或更多个数据集足够大且多样化,相机校准器120就可以使用上面讨论的基于GMM的方法生成相机姿态模板。在一些实施例中,当获得完整且相对干净的开销比赛场地图像时,可以认为一个或更多个数据集足够大且多样化。在这样的实施例中,相机校准器120可以设置平移、倾斜、焦距和相机位置(x,y,z)的标准偏差。在一些实施例中,相机校准器120还可以设置用于停止准则和扭曲损失
Figure BDA0003828004770000131
的阈值。
继续参考上面的第一示例,使用篮球数据集,相机校准器120可以使用基于GMM的方法以生成来自1052个训练图像的相机姿态模板。在这样的示例中,相机校准器120可以将平移、倾斜、焦距和相机位置(x,y,z)的标准偏差分别设置为5°、5°、1000像素和15英尺。非对角元素可以被设置为零,因为相机校准器120假定那些相机配置是彼此独立的。停止准则的阈值可以被设置为0.6,且聚类算法可以生成210个分量。对于扭曲损失
Figure BDA0003828004770000132
可以被设置为0.8,因为相机视角可能具有比俯视视角更低的场占用率。
在一些实施例中,如果例如一个或更多个数据集具有不足的示例数量,则相机校准器120可以使用高网格分辨率生成相机姿态模板。在这样的实施例中,相机校准器120可以设置平移、倾斜和焦距的分辨率。
继续参考上面的第二个示例,使用足球数据集,相机校准器120可以使用高网格分辨率方法来生成相机姿态模板。在这样的示例中,相机校准器120可以将平移、倾斜和焦距的分辨率分别设置为5°、2.5°和500像素。在一些实施例中,相机位置可以固定在例如相对于场左上角的560、1150和186码处。因为足球数据集具有不足的示例数量来使用基于GMM的相机姿态估计,所以相机校准器120可以使用具有估计的平移、倾斜和焦距范围(分别为[-35°,35°]、[5°,15°]、[1500,4500]像素)的该数据集的均匀采样,从而生成450个用于相机姿态初始化的模板。
正如本领域技术人员所认识到的,尽管在当前示例中讨论了篮球和足球,但是这种方法可以扩展到任何运动的视频广播。
在步骤406,组织计算系统104可以基于一个或更多个训练数据集学习如何校准单个移动相机。例如,相机校准器120的神经网络可以学习如何基于一个或更多个训练数据集来校准单个移动相机。在一些实施例中,可以同时训练神经网络架构200的每个模块。例如,因为神经网络架构200的每个模块202-206使用其他模块的输出作为输入,所以这三个模块202-206可以连接成单个神经网络。因此,网络的总损失可以变为:
Figure BDA0003828004770000141
其中α,β∈[0,1)。
相机校准器120可以逐个模块递增地训练整个神经网络架构200,使得孪生网络和STN可以合理的输入开始训练。例如,训练可以从对Unet进行20次epoch的预热开始;孪生网络训练可以从α=0.1和β=0.9开启。例如,在又过10次epoch后,STN可以从α=0.05和β=0.05开启。神经网络架构可能会继续进行联合训练,直到收敛。
在一些实施例中,模块202-206中的一个或更多个模块可以用合成数据“预热”。例如,由于以上参考的足球数据集中的少量训练示例,相机校准器120可以使用合成数据来预热相机姿态初始化模块204和单应性细化模块206。除了语义分割模块202中的Unet之外,神经网络架构200的其余部分使用语义图像作为输入,使得相机校准器120可以合成任意数量的语义图像来预训练网络的部分。使用特定示例,可以通过对平移、倾斜和焦距参数进行均匀采样来生成2000个语义图像。对于每个合成图像,它们的地面实况单应性是已知的,并且可以通过对网格进行下采样轻松找出模板分配。因此,相机姿态初始化模块204和STN可以被单独预训练。一旦相机姿态初始化模块204和单应性细化模块206被预热,相机校准器120就可以利用真实数据来训练神经网络。
在步骤408,组织计算系统104可以输出完全训练的预测模型。例如,在训练和测试过程结束时,相机校准器120可以具有完全训练的神经网络架构200。
图5是示出根据示例实施例的校准广播相机的方法500的流程图。方法500可以开始于步骤502。
在步骤502,组织计算系统104可以接收(或检索)事件的广播源。在一些实施例中,广播源可以是从相机系统102实时(或接近实时)接收的实况源。在一些实施例中,广播源可以是已经结束的比赛的广播源。通常,广播源可以包括多个视频数据帧。每一帧可以捕获不同的相机视角。
在步骤504,组织计算系统104可以将每一帧输入到神经网络架构200中。例如,相机校准器120可以识别接收的广播源中的第一帧并将该帧提供给神经网络架构200。
在步骤506,组织计算系统104可以生成每一帧的单应矩阵H。例如,语义分割模块202可以识别每一帧中的球场特征Y。来自语义分割模块202的输出可以是由Unet生成的语义图
Figure BDA0003828004770000151
语义图
Figure BDA0003828004770000152
可以作为输入被提供给相机姿态初始化模块204。相机姿态初始化模块204可以使用语义图
Figure BDA0003828004770000153
从模板集中选择适当的模板
Figure BDA0003828004770000154
相机姿态初始化模块204还可以识别目标相机姿态索引
Figure BDA0003828004770000155
并使用选择模块210检索其模板图像
Figure BDA0003828004770000156
和单应性
Figure BDA0003828004770000157
相机校准器120可以将
Figure BDA0003828004770000158
Figure BDA0003828004770000159
串联在一起作为输入传递给单应性细化模块206。然后单应性细化模块206可以通过将串联项
Figure BDA00038280047700001510
Figure BDA00038280047700001511
传递给STN来预测模板和语义图之间的相对单应性
Figure BDA00038280047700001512
然后单应性细化模块206可以使用矩阵乘法(即
Figure BDA00038280047700001513
),生成基于相对单应性
Figure BDA00038280047700001514
Figure BDA00038280047700001515
的单应矩阵H。
在步骤508,组织计算系统104可以通过每一帧相应的单应矩阵H来扭曲每一帧。
图6A示出了根据示例实施例的系统总线计算系统架构600。系统600可以表示组织计算系统104的至少一部分。系统600的一个或更多个部件可以使用总线605彼此电通信。系统600可以包括处理单元(CPU或处理器)610和将各种系统部件耦接到处理器610的系统总线605,各种系统部件包括系统存储器615,例如只读存储器(ROM)620和随机存取存储器(RAM)625。系统600可以包括直接连接处理器610、紧邻处理器610或集成为处理器610的一部分的高速存储器的高速缓存。系统600可以将数据从存储器615和/或存储设备630复制到高速缓存612以供处理器610快速访问。以此方式,高速缓存612可提供避免处理器610在等待数据时延迟的性能提升。这些模块和其他模块可以控制或被配置为控制处理器610以执行各种动作。也可以使用其他系统存储器615。存储器615可以包括具有不同性能特征的多种不同类型的存储器。处理器610可以包括被配置为控制处理器610的任何通用处理器或硬件模块或软件模块(例如存储在存储设备630中的服务1632、服务2634和服务3636)以及软件指令被整合到实际处理器设计中的专用处理器。处理器610本质上可以是完全独立的计算系统,包含多个核或处理器、总线、存储器控制器、高速缓存等。多核处理器可以是对称的或不对称的。
为了能够使用户与计算设备600交互,输入设备645可以表示任何数量的输入机构,例如用于语音的麦克风、用于手势或图形输入的触敏屏幕、键盘、鼠标、移动输入、语音等等。输出设备635也可以是本领域技术人员已知的多种输出机构中的一种或更多种。在一些情况下,多模式系统可以使得用户能够提供多种类型的输入以与计算设备600进行通信。通信接口640通常可以支配和管理用户输入和系统输出。对在任何特定硬件装置上的操作没有限制,因此在开发过程中,此处的基本特征可以很容易地被替换为改进的硬件或固件装置。
存储设备630可以是非易失性存储器并且可以是硬盘或是可以存储由计算机访问的数据的其他类型的计算机可读介质,例如盒式磁带、闪存卡、固态存储设备、数字多功能磁盘、暗盒、随机存取存储器(RAM)625、只读存储器(ROM)620及其混合。
存储设备630可以包括用于控制处理器610的服务632、634和636。其他硬件或软件模块是可预期的。存储设备630可以连接到系统总线605。一方面,执行特定功能的硬件模块可以包括存储在计算机可读介质中的软件部件,该软件部件与诸如处理器610、总线605、显示器635等必要的硬件部件连接,以执行该功能。
图6B示出了具有可以表示组织计算系统104的至少一部分的芯片组架构的计算机系统650。计算机系统650可以是可用于实施所公开技术的计算机硬件、软件和固件的示例。系统650可以包括表示能够执行被配置为执行识别的计算的软件、固件和硬件的任意数量的物理和/或逻辑上的不同的资源的处理器655。处理器655可以与芯片组660通信,芯片组660可以控制对处理器655的输入和来自处理器655的输出。在该示例中,芯片组660将信息输出到输出665(例如,显示器),并且芯片组660可以读取信息并将信息写入到存储设备670,存储设备670可以包括例如磁介质和固态介质。芯片组660还可以从RAM 675读取数据并向RAM 675写入数据。可以提供用于与各种用户接口部件685连接的桥680,以用于与芯片组660连接。这样的用户接口部件685可以包括键盘、麦克风、触摸检测和处理电路、诸如鼠标的定点设备等等。通常,对系统650的输入可以来自机器生成的和/或人工生成的各种源中的任何一种。
芯片组660还可以与可能具有不同物理接口的一个或更多个通信接口690连接。这样的通信接口可以包括用于有线和无线局域网、宽带无线网络以及个人局域网的接口。本文公开的用于生成、显示和使用GUI的方法的一些应用可以包括通过物理接口接收有序数据集,或者可以由机器本身通过处理器655分析存储在存储器670或675中的数据来生成用于生成、显示和使用本文公开的GUI的方法的一些应用。此外,机器可以通过用户接口部件685接收来自用户的输入并通过使用处理器655解释这些输入来执行适当的功能,例如浏览功能。
可以理解,示例系统600和650可以具有多于一个处理器610或者是联网在一起以提供更大处理能力的计算设备组或集群的一部分。
虽然前述内容是针对本文描述的实施例,但是在不背离其基本范围的情况下,可以设计其他和进一步的实施例。例如,本公开的各方面可以硬件或软件或硬件和软件的组合来实施。本文描述的实施例可以被实施为与计算机系统一起使用的程序产品。程序产品的程序限定了实施例的功能(包括本文描述的方法)并且可以被包含在各种计算机可读存储介质上。说明性的计算机可读存储介质包括但不限于:(i)永久存储信息的不可写存储介质(例如,计算机内的只读存储器(ROM)设备,诸如可由CD-ROM驱动器读取的CD-ROM磁盘、闪存、ROM芯片或任何类型的固态非易失性存储器);以及(ii)存储可变信息的可写存储介质(例如,软盘驱动器中的软盘或硬盘驱动器或任何类型的固态随机存取存储器)。当承载指导所公开实施例的功能的计算机可读指令时,这样的计算机可读存储介质是本公开的实施例。
本领域技术人员将理解,前述示例是示例性的而非限制性的。在阅读说明书和研究附图后,所有置换、增强、等效和改进对于本领域技术人员而言是显而易见的,都被包括在本公开的真实本质和范围内。因此,以下所附权利要求旨在包括落入这些教导的真实本质和范围内的所有这样的修改、置换和等效。

Claims (20)

1.一种校准广播视频源的方法,包括:
由计算系统,检索多个运动事件的多个广播视频源,每个广播视频源包括多个视频帧;
由所述计算系统,通过以下操作来生成训练的神经网络:
通过将所述广播视频源划分成多个帧来生成基于所述广播视频源的多个训练数据集;以及
通过所述神经网络来学习以为所述多个帧中的每一帧生成单应矩阵;
由所述计算系统,接收目标运动事件的目标广播视频源;
由所述计算系统,将所述目标广播视频源划分成多个目标帧;
通过所述神经网络,为所述多个目标帧中的每个目标帧生成目标单应矩阵;以及
由所述计算系统,通过由相应的目标单应矩阵扭曲每个目标帧来校准所述目标广播视频源。
2.根据权利要求1所述的方法,其中,所述神经网络包括:
语义分割模块;
相机姿态初始化模块;以及
单应性细化模块。
3.根据权利要求2所述的方法,其中,通过所述神经网络来学习以生成单应矩阵,包括:
通过所述语义分割模块来学习,以为所述多个帧中的每一帧生成场地不可知外观。
4.根据权利要求3所述的方法,还包括:
通过所述相机姿态初始化模块学习,以计算从所述语义分割模块接收的每个输入与模板图像集之间的距离;以及
通过所述相机姿态初始化模块学习,以识别与所述语义分割模块和所述模板图像集相关联的模板单应矩阵。
5.根据权利要求4所述的方法,还包括:
通过所述单应性细化模块学习,以基于串联输入生成相对单应矩阵,所述串联输入包括每一帧的所述场地不可知外观和模板图像;以及
通过所述单应性细化模块学习,以基于所述相对单应矩阵和所述模板单应矩阵生成所述单应矩阵。
6.根据权利要求5所述的方法,其中,同时训练所述语义分割模块、所述相机姿态初始化模块和所述单应性细化模块中的每一个。
7.根据权利要求1所述的方法,其中,通过所述神经网络,为所述多个目标帧中的每个目标帧生成所述目标单应矩阵,包括:
在每个目标帧中生成比赛场地的比赛场地不可知视图;
识别与所述比赛场地的比赛场地不可知视图最匹配的模板;
检索与所述模板相关联的模板单应矩阵;
基于所识别的模板和所述比赛场地不可知视图预测相对单应矩阵;以及
基于所述模板单应矩阵和所述相对单应矩阵生成所述目标单应矩阵。
8.一种用于校准广播视频源的系统,包括:
处理器;以及
存储器,所述存储器上存储有编程指令,所述编程指令在由所述处理器执行时,执行一个或更多个操作,所述一个或更多个操作包括:
检索多个运动事件的多个广播视频源,每个广播视频源包括多个视频帧;
通过以下操作来生成训练的神经网络:
通过将所述广播视频源划分成多个帧来生成基于所述广播视频源的多个训练数据集;以及
通过所述神经网络来学习以为所述多个帧中的每一帧生成单应矩阵;
接收目标运动事件的目标广播视频源;
将所述目标广播视频源划分成多个目标帧;
通过所述神经网络,为所述多个目标帧中的每个目标帧生成目标单应矩阵;以及
通过由相应的目标单应矩阵扭曲每个目标帧来校准所述目标广播视频源。
9.根据权利要求8所述的系统,其中,所述神经网络包括:
语义分割模块;
相机姿态初始化模块;以及
单应性细化模块。
10.根据权利要求9所述的系统,其中,通过所述神经网络来学习以生成单应矩阵,包括:
通过所述语义分割模块来学习,以为所述多个帧中的每一帧生成场地不可知外观。
11.根据权利要求10所述的系统,还包括:
通过所述相机姿态初始化模块学习,以计算从所述语义分割模块接收的每个输入与模板图像集之间的距离;以及
通过所述相机姿态初始化模块学习,以识别与所述语义分割模块和所述模板图像集相关联的模板单应矩阵。
12.根据权利要求11所述的系统,还包括:
通过所述单应性细化模块学习,以基于串联输入生成相对单应矩阵,所述串联输入包括每一帧的所述场地不可知外观和模板图像;以及
通过所述单应性细化模块学习,以基于所述相对单应矩阵和所述模板单应矩阵生成所述单应矩阵。
13.根据权利要求12所述的系统,其中,同时训练所述语义分割模块、所述相机姿态初始化模块和所述单应性细化模块中的每一个。
14.根据权利要求8所述的系统,其中,通过所述神经网络,为所述多个目标帧中的每个目标帧生成所述目标单应矩阵,包括:
在每个目标帧中生成比赛场地的比赛场地不可知视图;
识别与所述比赛场地的比赛场地不可知视图最匹配的模板;
检索与所述模板相关联的模板单应矩阵;
基于所识别的模板和所述比赛场地不可知视图预测相对单应矩阵;以及
基于所述模板单应矩阵和所述相对单应矩阵生成所述目标单应矩阵。
15.一种非暂时性计算机可读介质,包括一个或更多个指令序列,所述一个或更多个指令序列在由一个或更多个处理器执行时使得:
由计算系统,检索多个运动事件的多个广播视频源,每个广播视频源包括多个视频帧;
由所述计算系统,通过以下操作来生成训练的神经网络:
通过将所述广播视频源划分成多个帧来生成基于所述广播视频源的多个训练数据集;以及
通过所述神经网络来学习以为所述多个帧中的每一帧生成单应矩阵;
由所述计算系统,接收目标运动事件的目标广播视频源;
由所述计算系统,将所述目标广播视频源划分成多个目标帧;
通过所述神经网络,为所述多个目标帧中的每个目标帧生成目标单应矩阵;以及
由所述计算系统,通过由相应的目标单应矩阵扭曲每个目标帧来校准所述目标广播视频源。
16.根据权利要求15所述的非暂时性计算机可读介质,其中,所述神经网络包括:
语义分割模块;
相机姿态初始化模块;以及
单应性细化模块。
17.根据权利要求16所述的非暂时性计算机可读介质,其中,通过所述神经网络来学习以生成单应矩阵,包括:
通过所述语义分割模块来学习,以为所述多个帧中的每一帧生成场地不可知外观。
18.根据权利要求17所述的非暂时性计算机可读介质,还包括:
通过所述相机姿态初始化模块学习,以计算从所述语义分割模块接收的每个输入与模板图像集之间的距离;以及
通过所述相机姿态初始化模块学习,以识别与所述语义分割模块和所述模板图像集相关联的模板单应矩阵。
19.根据权利要求18所述的非暂时性计算机可读介质,还包括:
通过所述单应性细化模块学习,以基于串联输入生成相对单应矩阵,所述串联输入包括每一帧的所述场地不可知外观和模板图像;以及
通过所述单应性细化模块学习,以基于所述相对单应矩阵和所述模板单应矩阵生成所述单应矩阵。
20.根据权利要求15所述的非暂时性计算机可读介质,其中,通过所述神经网络,为所述多个目标帧中的每个目标帧生成所述目标单应矩阵,包括:
在每个目标帧中生成比赛场地的比赛场地不可知视图;
识别与所述比赛场地的比赛场地不可知视图最匹配的模板;
检索与所述模板相关联的模板单应矩阵;
基于所识别的模板和所述比赛场地不可知视图预测相对单应矩阵;以及
基于所述模板单应矩阵和所述相对单应矩阵生成所述目标单应矩阵。
CN202180018658.3A 2020-04-10 2021-04-09 用于广播视频的端到端相机校准 Pending CN115210770A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202063008184P 2020-04-10 2020-04-10
US63/008,184 2020-04-10
PCT/US2021/026517 WO2021207569A1 (en) 2020-04-10 2021-04-09 End-to-end camera calibration for broadcast video

Publications (1)

Publication Number Publication Date
CN115210770A true CN115210770A (zh) 2022-10-18

Family

ID=78006312

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180018658.3A Pending CN115210770A (zh) 2020-04-10 2021-04-09 用于广播视频的端到端相机校准

Country Status (4)

Country Link
US (2) US11861806B2 (zh)
EP (1) EP4133406A4 (zh)
CN (1) CN115210770A (zh)
WO (1) WO2021207569A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11587266B2 (en) 2021-07-21 2023-02-21 Tempus Ex Machina, Inc. Adding augmented reality to a sub-view of a high resolution central video feed
CN114170325A (zh) * 2021-12-14 2022-03-11 北京地平线信息技术有限公司 确定单应性矩阵的方法、装置、介质、设备和程序产品
US11900635B2 (en) * 2022-05-15 2024-02-13 Oran Gilad Organic camera-pose mapping

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0907870D0 (en) * 2009-05-07 2009-06-24 Univ Catholique Louvain Systems and methods for the autonomous production of videos from multi-sensored data
US8928729B2 (en) 2011-09-09 2015-01-06 Disney Enterprises, Inc. Systems and methods for converting video
US10521671B2 (en) * 2014-02-28 2019-12-31 Second Spectrum, Inc. Methods and systems of spatiotemporal pattern recognition for video content development
US10115024B2 (en) * 2015-02-26 2018-10-30 Mobileye Vision Technologies Ltd. Road vertical contour detection using a stabilized coordinate frame
WO2017132766A1 (en) * 2016-02-03 2017-08-10 Sportlogiq Inc. Systems and methods for automated camera calibration
US10489656B2 (en) 2017-09-21 2019-11-26 NEX Team Inc. Methods and systems for ball game analytics with a mobile device
CN113544698A (zh) * 2019-02-28 2021-10-22 斯塔特斯公司 广播视频中运动员再识别的系统及方法
EP3742399A1 (en) * 2019-05-21 2020-11-25 Sportlogiq Inc. Systems and methods for image registration and camera calibration using learned error functions

Also Published As

Publication number Publication date
US20210319587A1 (en) 2021-10-14
WO2021207569A1 (en) 2021-10-14
US11861806B2 (en) 2024-01-02
EP4133406A1 (en) 2023-02-15
EP4133406A4 (en) 2024-04-10
US20240095874A1 (en) 2024-03-21

Similar Documents

Publication Publication Date Title
US11935247B2 (en) System and method for calibrating moving cameras capturing broadcast video
Kao et al. Hierarchical aesthetic quality assessment using deep convolutional neural networks
Zhu et al. Targeting accurate object extraction from an image: A comprehensive study of natural image matting
CN115210770A (zh) 用于广播视频的端到端相机校准
Wan et al. Face image reflection removal
Trelinski et al. CNN-based and DTW features for human activity recognition on depth maps
Guo et al. Salient object detection from low contrast images based on local contrast enhancing and non-local feature learning
US20240185378A1 (en) End-to-end camera calibration for broadcast video
WO2022174038A1 (en) Interactive formation analysis in sports utilizing semi-supervised methods
Zhang et al. Lightweight mobile network for real-time violence recognition
US20230148112A1 (en) Sports Neural Network Codec
JP2013120504A (ja) オブジェクト抽出装置、オブジェクト抽出方法、及びプログラム
Yue et al. PaIaNet: position-aware and identification-aware network for low-light salient object detection
Tang et al. Two-stream temporal enhanced Fisher vector encoding for skeleton-based action recognition
Liu Image Tampering Recognition Algorithm Based on Improved YOLOv5s
Mazari et al. Deep multiple aggregation networks for action recognition
Zhang et al. Hierarchical Salient Object Detection Network with Dense Connections
Hu Three-dimensional face processing and its applications in biometrics

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination