CN112258573B - 抛出位置获取方法、装置、计算机设备及存储介质 - Google Patents

抛出位置获取方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN112258573B
CN112258573B CN202011110807.2A CN202011110807A CN112258573B CN 112258573 B CN112258573 B CN 112258573B CN 202011110807 A CN202011110807 A CN 202011110807A CN 112258573 B CN112258573 B CN 112258573B
Authority
CN
China
Prior art keywords
parabolic
image
image frames
acquiring
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011110807.2A
Other languages
English (en)
Other versions
CN112258573A (zh
Inventor
夏茂才
涂思嘉
刘水生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202011110807.2A priority Critical patent/CN112258573B/zh
Publication of CN112258573A publication Critical patent/CN112258573A/zh
Priority to PCT/CN2021/120197 priority patent/WO2022078182A1/zh
Priority to US17/945,573 priority patent/US20230005176A1/en
Application granted granted Critical
Publication of CN112258573B publication Critical patent/CN112258573B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30212Military
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本申请是关于一种抛出位置获取方法、装置、计算机设备及存储介质,涉及图像处理技术领域。所述方法包括:获取目标视频的各个图像帧;获取该各个图像帧对应的抛物位置;基于该各个图像帧对应的抛物位置,获取该目标物体的轨迹起点位置;基于该各个图像帧中的至少一组图像帧对应的抛物位置,获取该目标物体抛出时的第一高度值;基于该第一高度值,以及该目标物体的轨迹起点位置,获取该目标物体的抛出位置。上述方案,将采集的视频传输至云服务器,云服务器通过至少一组图像帧得出抛物高度值,并根据该高度值,对通过计算机视觉技术得到的抛物轨迹的起点进行更新校正,在提高抛出位置的获取效率的同时,提升抛出位置获取的准确度。

Description

抛出位置获取方法、装置、计算机设备及存储介质
技术领域
本申请涉及图像处理领域,特别涉及一种抛出位置获取方法、装置、计算机设备及存储介质。
背景技术
高空抛物容易对财产以及人员安全造成危害,并且很难确定高空抛物行为发生的地点。
随着监控设备的不断发展,可以通过监控设备对楼宇进行拍摄。监控设备通过对楼宇外立面进行拍摄,获取一段时间内楼宇的视频,再通过人工对该时间段内的楼宇视频进行筛查,找到物体抛出时该楼宇视频的视频片段,再通过人工审核的方式对该视频片段进行判断,确定物体的抛出位置。
在相关技术中,通过对楼宇的摄像头录像进行人工筛查的方法进行对高空抛物事件发生地点的判断,对抛出地点判断的准确性与效率都比较低。
发明内容
本申请实施例提供了一种抛物位置获取方法、装置、计算机设备及存储介质,可以在提高抛出位置的获取效率的同时,提升抛出位置获取的准确度,该技术方案如下:
一方面,提供了一种抛物位置获取方法,所述方法包括:
获取目标视频的各个图像帧;所述目标视频是目标物体抛出的视频;
获取所述各个图像帧对应的抛物位置;所述抛物位置是所述目标物体对应的图像在所述各个图像帧中的位置;
基于所述各个图像帧对应的抛物位置,获取所述目标物体的轨迹起点位置;所述轨迹起点位置是基于所述各个图像帧对应的抛物位置得到的抛物轨迹的起点位置;
基于所述各个图像帧中的至少一组图像帧对应的抛物位置,获取所述目标物体抛出时的第一高度值;所述至少一组图像帧分别包含至少两个图像帧;
基于所述第一高度值,以及所述目标物体的轨迹起点位置,获取所述目标物体的抛出位置。
另一方面,提供了一种抛物位置获取装置,所述装置包括:
图像帧获取模块,用于获取目标视频的各个图像帧;所述目标视频是目标物体抛出的视频;
抛物位置获取模块,用于获取所述各个图像帧对应的抛物位置;所述抛物位置是所述目标物体对应的图像在所述各个图像帧中的位置;
轨迹起点获取模块,用于基于所述各个图像帧对应的抛物位置,获取所述目标物体的轨迹起点位置;所述轨迹起点位置是基于所述各个图像帧对应的抛物位置得到的抛物轨迹的起点位置;
第一高度获取模块,用于基于所述各个图像帧中的至少一组图像帧对应的抛物位置,获取所述目标物体抛出时的第一高度值;所述至少一组图像帧分别包含至少两个图像帧;
抛出位置获取模块,用于基于所述第一高度值,以及所述目标物体的轨迹起点位置,获取所述目标物体的抛出位置。
在一种可能的实现方式中,所述抛物位置获取模块,包括:
候选图像获取单元,用于获取所述各个图像帧中的候选物体图像;所述候选物体图像为所述各个图像帧的前景图像中的物体图像;
抛物位置获取单元,用于基于所述各个图像帧中的候选位置,获取所述各个图像帧中的抛物位置;所述候选位置是所述各个图像帧中的候选物体图像在对应的图像帧中的位置。
在一种可能的实现方式中,所述抛物位置获取单元,包括:
前景图像获取子单元,用于基于所述目标视频中的各个图像帧,获取所述各个图像帧中的前景图像;
阈值判断单元,用于将所述各个图像帧中的前景图像中,图像面积大于阈值的物体图像,获取为所述各个图像帧中的候选物体图像。
在一种可能的实现方式中,所述抛物位置获取单元,用于,
将所述各个图像帧包含的连续N个图像帧中距离小于阈值的候选位置,按照时间顺序进行连接,获得至少一条候选轨迹;N≥2,且N为整数;
根据所述至少一条候选轨迹,获取所述目标物体在所述N个图像帧中的抛物轨迹;
将所述目标物体在所述N个图像帧中的抛物轨迹中的候选位置,获取为所述N个图像帧中的抛物位置。
在一种可能的实现方式中,所述抛物位置获取单元,还用于,
基于所述各个图像的第i个图像帧中的抛物位置,以及所述各个图像的第i+1个图像帧中的候选物体图像的候选位置,获取所述第i+1个图像帧中的抛物位置;i≥1,且i为整数。
在一种可能的实现方式中,所述抛物位置获取单元,还用于,
获取所述第i+1个图像帧中的候选物体图像在所述第i+1个图像帧中的候选位置;
将所述候选位置中与所述第i个图像帧中抛物位置最近的候选位置,获取为所述第i+1个图像帧中的抛物位置。
在一种可能的实现方式中,所述抛物位置获取单元,还用于,
将所述各个图像帧中面积最大的候选物体图像的候选位置,获取为所述各个图像帧中的抛物位置。
在一种可能的实现方式中,所述第一高度获取模块,用于,
获取所述至少一组图像帧内的所述至少两个图像帧对应的抛物位置,以及所述至少一组图像帧内的所述至少两个图像帧之间的时间间隔;
基于所述至少一组图像帧内的所述至少两个图像帧对应的抛物位置,以及所述至少一组图像帧内的所述至少两个图像帧之间的时间间隔,获取所述目标物体的第一高度值。
在一种可能的实现方式中,所述抛出位置获取模块,包括:
第二高度获取单元,用于获取所述轨迹起点位置的第二高度值;所述第二高度值是所述轨迹起点位置的高度值;
第三高度获取单元,用于基于所述第一高度值,以及所述第二高度值,获取所述目标物体抛出的第三高度值;
抛出位置获取单元,用于基于所述第三高度值,以及所述轨迹起点位置的水平位置,获取所述目标物体的抛出位置。
在一种可能的实现方式中,所述第三位置获取单元,用于,
基于权重参数,对所述第一高度值以及所述第二高度值进行求和,获得所述目标物体抛出时的第三高度值。
在一种可能的实现方式中,所述装置还包括:
抛物轨迹获取模块,用于将所述各个图像帧对应的抛物位置按时间顺序进行连接,获取所述目标物体的抛物轨迹;
预警信息生成模块,用于当所述目标物体的抛物轨迹满足预定条件时,生成预警信息。
在一种可能的实现方式中,所述预定条件包括:
所述目标物体的抛物轨迹为竖直向下的直线;
或者,
所述目标物体的抛物轨迹为向下的抛物线。
又一方面,提供了一种计算机设备,所述计算机设备包含处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现上述的抛出位置获取方法。
又一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现上述抛出位置获取方法。
再一方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述抛出位置获取方法。
本申请提供的技术方案可以包括以下有益效果:
通过获取抛物视频对应的各个图像帧,根据该各个图像帧进行图像处理,获取各个图像帧中对应目标物体对应的抛物位置,并根据该各个图像帧中的抛物位置,获取抛物轨迹的起点位置,并根据该各个图像帧中至少一组图像帧,计算出物体抛出时的高度值,根据该高度值对抛物轨迹的起点进行更新校正。上述方案,通过各个图像帧中的至少一组图像帧获取目标物体抛出对应的高度值,并根据该高度值对根据图像处理得到的抛物轨迹起点进行更新,得到抛出位置,减小了外界环境因素对获取到的抛出位置的干扰,在通过计算机视觉技术提高抛出位置识别效率的同时,提升了抛出位置获取的准确度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1是根据本一示例性实施例示出的一种抛物位置获取系统的结构示意图。
图2是根据一示例性实施例示出的一种抛物位置获取方法的流程示意图。
图3是根据一示例性实施例提供的一种抛出位置获取方法的方法流程图。
图4示出了图3所示实施例涉及的一种抛物高度计算方法。
图5示出了图3所示实施例涉及的一种抛出位置获取方法的示意图。
图6示出了图3所示实施例涉及的一种抛物检测应用示意图。
图7是根据一示例性实施例示出的一种抛出位置获取方法的框架示意图。
图8是根据一示例性实施例示出的一种抛物位置获取装置的结构方框图。
图9是根据一示例性实施例示出的计算机设备的结构框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
在对本申请所示的各个实施例进行说明之前,首先对本申请涉及到的几个概念进行介绍:
1)人工智能(Artificial Intelligence,AI)
人工智能是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
2)计算机视觉技术(Computer Vision,CV)
计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
3)云技术(Cloud technology)
基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、应用技术等的总称,可以组成资源池,按需所用,灵活便利。云计算技术将变成重要支撑。技术网络系统的后台服务需要大量的计算、存储资源,如视频网站、图片类网站和更多的门户网站。伴随着互联网行业的高度发展和应用,将来每个物品都有可能存在自己的识别标志,都需要传输到后台系统进行逻辑处理,不同程度级别的数据将会分开处理,各类行业数据皆需要强大的系统后盾支撑,只能通过云计算来实现。
图1是根据一示例性实施例示出的一种抛出位置获取系统的结构示意图。该系统包括:视频获取设备120以及视频处理设备140。
其中,视频处理设备140可以是服务器,该服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(ContentDelivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。终端可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。终端以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。
其中,视频获取设备120可以是具有视频采集功能的设备,例如该视频获取设备120可以是摄像头设备,或者该视频获取设备120可以是具有图像采集功能的终端设备,比如,该终端设备可以是手机、平板电脑、膝上型便携计算机等等。
视频获取设备120以及视频处理设备140之间通过通信网络相连。可选的,通信网络是有线网络或无线网络。
在本申请实施例中,视频获取设备120可以将获取的视频数据发送给视频处理设备140,由视频处理设备140根据视频数据进行图像处理。
可选的,上述视频数据可以是视频文件数据,或者,上述视频数据可以是视频流数据。
可选的,上述的无线网络或有线网络使用标准通信技术和/或协议。网络通常为因特网、但也可以是任何网络,包括但不限于局域网(Local Area Network,LAN)、城域网(Metropolitan Area Network,MAN)、广域网(Wide Area Network,WAN)、移动、有线或者无线网络、专用网络或者虚拟专用网络的任何组合)。在一些实施例中,使用包括超文本标记语言(Hyper Text Mark-up Language,HTML)、可扩展标记语言(Extensible MarkupLanguage,XML)等的技术和/或格式来代表通过网络交换的数据。此外还可以使用诸如安全套接字层(Secure Socket Layer,SSL)、传输层安全(Transport Layer Security,TLS)、虚拟专用网络(Virtual Private Network,VPN)、网际协议安全(Internet ProtocolSecurity,IPsec)等常规加密技术来加密所有或者一些链路。在另一些实施例中,还可以使用定制和/或专用数据通信技术取代或者补充上述数据通信技术。
请参考图2,其是根据一示例性实施例示出的一种抛物位置获取方法的流程示意图。该方法可以由计算机设备执行,该计算机设备可以是视频处理设备,其中,该视频处理设备可以是上述图1所示的实施例中的视频处理设备140。如图2所示,该抛物位置获取方法的流程可以包括如下步骤:
步骤201,获取目标视频的各个图像帧;该目标视频是目标物体抛出的视频。
在一种可能的实现方式中,该目标视频中的各个图像帧为目标物体抛出过程对应的图像帧;或者,该各个图像帧中的部分图像帧为目标物体抛出过程对应的图像帧。
该视频处理设备可以先对该目标视频进行处理,获取目标视频中目标物体抛出过程对应的图像帧;或者,该视频处理设备可以直接将该目标视频对应的所有图像帧作为目标视频的各个图像帧进行后续图像处理。
步骤202,获取该各个图像帧对应的抛物位置;该抛物位置是该目标物体对应的图像在该各个图像帧中的位置。
其中,该抛物位置是根据该各个图像帧得到的,目标物体在该图像帧中所处的位置。
步骤203,基于该各个图像帧对应的抛物位置,获取该目标物体的轨迹起点位置;该轨迹起点位置是基于该各个图像帧对应的抛物位置得到的抛物轨迹的起点位置。
步骤204,基于该各个图像帧中的至少一组图像帧对应的抛物位置,获取该目标物体抛出时的第一高度值;该至少一组图像帧分别包含至少两个图像帧。
步骤205,基于该第一高度值,以及该目标物体的轨迹起点位置,获取该目标物体的抛出位置。
综上所述,在本申请实施例所示的方案中,通过获取抛物视频对应的各个图像帧,根据该各个图像帧进行图像处理,获取各个图像帧中对应目标物体对应的抛物位置,并根据该各个图像帧中的抛物位置,获取抛物轨迹的起点位置,并根据该各个图像帧中至少一组图像帧,计算出物体抛出时的高度值,根据该高度值对抛物轨迹的起点进行更新校正。上述方案,通过各个图像帧中的至少一组图像帧获取目标物体抛出对应的高度值,并根据该高度值对根据图像处理得到的抛物轨迹起点进行更新,得到抛出位置,减小了外界环境因素对获取到的抛出位置的干扰,提升了抛出位置获取的准确度。
请参考图3,其是根据一示例性实施例提供的一种抛出位置获取方法的方法流程图。该方法可以由计算机设备执行,该计算机设备可以是视频处理设备,其中,该视频处理设备可以是上述图1所示的实施例中的视频处理设备120。如图3所示,该抛物位置获取方法可以包括如下步骤:
步骤301,获取目标视频的各个图像帧;该目标视频是目标物体抛出的视频。
其中,各个图像帧是目标视频中连续的各个图像帧。
步骤302,获取该各个图像帧中的候选物体图像。
其中,该候选物体图像为该各个图像帧的前景图像中的物体图像。该各个图像帧中存在前景图像部分与背景图像部分,前景图像为离图像获取设备较近的物体的图像,而对于高空抛物场景,该背景图像通常为高层建筑物,抛出的目标物体通常存在于前景图像部分。
在一种可能的实现方式中,可以通过背景建模技术,获取该目标视频的各个图像帧对应的背景图像和前景图像。例如,可以通过VIBE(Visual Background Extractor,视觉背景提取)算法获取该目标视频的各个图像帧对应的背景图像和前景图像。
其中,VIBE算法是一种基于背景更新的前景检测算法,其原理是通过提取像素点(x,y)周围的像素值及以前的像素值建立像素点的样本集,然后再将另一帧(x,y)处的像素值与样本集中的像素值进行比较,如果另一帧(x,y)处的像素值与样本集中的像素值的距离大于某阈值的话,则认为该像素点为前景像素点,否则为背景像素点。
例如,通过VIBE算法对该目标视频的各个图像帧进行识别时,获取某一像素点在之前若干帧的像素值,以及在该图像帧中该像素点周围的像素点的像素值,由于背景图像通常不会发生变化,且背景图像的像素点与周围的像素点一般不会有较大的差异,因此当该取另一图像帧对应的该像素点与该像素点的样本集中的像素值的距离小于某阈值(即像素点之间差异小于阈值),则将该图像帧中的该像素点识别为背景像素点,该背景像素点可以被标记为二值函数中的0。
而由于前景图像通常是基于背景图像在不断运动的物体的图像,且由于前景图像会遮挡(替换)背景图像中的某些像素点,前景图像与周围存在的背景图像对应的像素点之间的差异较大,因此当该图像帧中的该像素点与对应的样本集中的像素值的距离大于某阈值时,则将该图像帧中的该像素点识别为前景图像对应的像素点,该前景像素点可以高亮表示,例如标记为二值函数中的1。
对各个图像帧中的各个像素点通过上述方案进行识别后,可以将各个图像帧分为前景图像和背景图像。
在一种可能的实现方式中,获取该各个图像帧中的前景图像,对该前景图像进行图像放大,得到该各个图像帧中的候选物体图像。
由于对图像获取设备获取的高层建筑物的监控视频而言,在前景图像中的抛物对应的图像可能较小,不利于识别以及后续图像处理,因此对该各个图像帧中的前景图像,可以图像增强方法将前景图像中较小的抛物增大为较大的易于检测的抛物物体。例如,可以使用图像膨胀算法将前景图像中的较小的抛物进行放大,得到比抛物物体的原图更大的图像区域。
其中,图像膨胀算法,是用B来对图像A进行膨胀处理,其中B是一个卷积模板或卷积核,其形状可以为正方形或圆形,通过模板B与图像A进行卷积计算,扫描图像中的每一个像素点,用模板元素与二值图像元素做“与”运算,如果都为0,那么目标像素点为0,否则为1。从而计算B覆盖区域的像素点最大值,并用该值替换参考点的像素值实现膨胀。
即通过图像膨胀算法,利用卷积核B对前景图像进行卷积计算后,会使得该前景部分的领域扩张,即通过卷积核B将前景图像A的边界区域扩大,获得比原图更大的高亮区域1。
在一种可能的实现方式中,该候选物体图像是通过连通域算法得到的。
通过上述背景建模技术以及图像膨胀算法处理后得到的前景图像,是一张由二值函数(0,1)构成的像素图。此时,可以通过连通域算法筛选出该前景图像对应的像素图中对应的各个候选物体图像。
其中,连通域算法是一种图像分割方法。例如,一幅图像二值化处理后往往包括多个区域,例如该各个图像帧中,可能包含一个或多个由像素点1标记出的高亮区域(前景图像),该前景图像即为需要筛选出的物体的目标图像。
对于一个图像帧而言,进行从左到右,从上到下的扫描,对某一像素点而言,如果当前像素值为0,就移动到下一个扫描的位置。而如果当前像素值为1,检查它左边和上边的两个邻接像素(该两个邻接像素在该像素点之前被扫描)。通过检查与该像素点相邻的邻接像素是否为高亮区域,判断该像素值为1的高亮区域是否为新的高亮区域(前景图像)。
因此,通过连通域算法,可以获得该各个图像帧对应的前景图像中的候选物体图像。
步骤303,基于该各个图像帧中的候选位置,获取该各个图像帧中的抛物位置。
其中,该候选位置是该各个图像帧中的候选物体图像在对应的图像帧中的位置。
在一种可能的实现方式中,基于该目标视频中的各个图像帧,获取该各个图像帧中的前景图像;将该各个图像帧中的前景图像中,图像面积大于阈值的物体图像,获取为该各个图像帧中的候选物体图像。
由于在高空抛物中,更加需要关注的是较大的物体,因此通过筛选前景图像中物体图像的图像面积,可以更加关注较大物体的抛物过程,并且,在图像处理的过程中,可能存在将各个图像帧中的某些噪音点误识别为候选物体图像,而该噪音点通常比较小,因此通过图像面积进行筛选,可以提高后续图像识别的效率。
在一种可能的实现方式中,将该各个图像帧包含的连续N个图像帧中距离小于阈值的候选位置,按照时间顺序进行连接,获得至少一条候选轨迹;N≥2,且N为整数;根据该至少一条候选轨迹,获取该目标物体在该N个图像帧中的抛物轨迹;将该目标物体在该N个图像帧中的抛物轨迹中的候选位置,获取为该N个图像帧中的抛物位置。
由于在通过图像获取设备获取目标视频的过程中,可能存在异物入侵该视频画面,并且该异物入侵画面通常是连续的,在该目标视频中形成了一个连续的轨迹,例如鸟儿飞过,或是图像获取设备拍摄到的云朵等。在对该目标视频中的各个图像帧进行识别的过程中,该异物可能对后续识别结果造成较大影响,并且该异物的体积较大,通过图像面积筛选可能无法取出该异物对目标视频的各个图像帧造成的影响。
此时,可以通过选取该目标视频中的各个图像帧中的连续N个图像帧,并将该连续N个图像帧进行处理,得到该N个图像帧的前景图像中的各个候选物体图像。该各个候选物体图像中包含需要检测的目标物体,以及可能存在的异物。考虑到连续两帧的情况下,无论是异物或是处于抛物状态的目标物体,运动距离不会太大,因此,将该连续N个图像帧中相邻帧中的最近的候选物体,按时间顺序进行连接,得到候选轨迹。
其中,当该候选轨迹只有一条时,且该候选轨迹为抛物线形状的轨迹时,可以认为,该候选轨迹为该目标物体的抛物轨迹,该候选轨迹对应的各个图像帧的候选物体图像的位置,为该各个图像帧的抛物位置。
当该候选轨迹大于一条时,此时可以通过对候选轨迹的轨迹形状进行识别,将抛物线形状的轨迹或是直线下落轨迹获取为该目标物体的抛物轨迹。
在一种可能的实现方式中,基于该各个图像的第i个图像帧中的抛物位置,以及该各个图像的第i+1个图像帧中的候选物体图像的候选位置,获取该第i+1个图像帧中的抛物位置;i≥1,且i为整数。
其中,图像处理设备可以通过前一图像帧中的抛物位置,确定后一图像帧中的抛物位置。
在一种可能的实现方式中,获取该第i+1个图像帧中的候选物体图像在该第i+1个图像帧中的候选位置;将该候选位置中与该第i个图像帧中抛物位置最近的候选位置,获取为该第i+1个图像帧中的抛物位置。
由于,该处于抛物状态的目标物体,在连续两帧的情况下,运动距离不会太大,因此可以将后一图像帧中候选位置中,与前一帧的目标物体的抛物位置距离最短的作为该后一图像帧中目标物体的抛物位置;或者,可以将该后一图像帧中的候选位置中,与前一帧的目标物体的抛物位置距离最短的,且位于前一帧抛物位置下方的作为该后一图像帧中目标物体的抛物位置。
在一种可能的实现方式中,获取该各个图像帧中的候选物体图像在该各个图像帧中的面积;将该各个图像帧中面积最大的候选物体图像的候选位置,获取为该各个图像帧中的抛物位置。
步骤304,基于该各个图像帧对应的抛物位置,获取该目标物体的轨迹起点位置。
其中,该轨迹起点位置是基于该各个图像帧对应的抛物位置得到的抛物轨迹的起点位置。
在一种可能的实现方式中,基于该各个图像帧对应的抛物位置,获取该各个图像帧对应的目标物体的抛物轨迹;基于该目标物体的抛物轨迹,获取该目标物体的轨迹起点位置。
其中,该轨迹起点位置,是基于各个图像帧获取的抛物轨迹对应的起点位置,也就是说,该轨迹起点位置,是基于该各个图像帧检测出的目标物体的抛物轨迹,所对应的起始位置。由于通过图像处理设备对图像帧进行处理的过程可能受到图像帧中存在的干扰或噪音产生误差,因此,该轨迹起点位置可能与目标物体的真实抛出位置有一定误差。
步骤305,获取该至少一组图像帧内的该至少两个图像帧对应的抛物位置,以及该至少一组图像帧内的该至少两个图像帧之间的时间间隔。
在一种可能的实现方式中,该至少一组图像帧是连续的至少两个图像帧。
其中,该目标视频是由若干个图像帧构成的,其中两个相邻的图像帧的时间间隔可以是确定的值。例如,以24帧视频格式为例,当该视频获取设备获取的目标视频是24帧视频格式的视频时,即该目标视频1秒内存在24帧视频,此时两个相邻图像帧中的时间间隔是1/24秒。
在一种可能的实现方式中,该至少一组图像帧是在该目标视频的该各个图像帧中随机抽取的至少两个图像帧。
在一种可能的实现方式中,该至少一组图像帧中的至少两个图像帧之间的时间间隔大于阈值。
即该至少一组图像帧中的至少两个图像帧,是时间间隔较大的两个图像帧,该两个图像帧中对应的抛物位置也相隔较远。
步骤306,基于该至少一组图像帧内的该至少两个图像帧对应的抛物位置,以及该至少一组图像帧内的该至少两个图像帧之间的时间间隔,获取该目标物体的第一高度值。
当高层建筑物发生高空抛物时,可以初步认为,抛物下落有三种情况,抛物向上抛出、抛物水平抛出和抛物向下抛出:
抛物向上抛出时,抛出的距离不会太远,范围大概仍然在最初抛出的楼层附近,到达最高点时下落的垂直初速度为0,因此可以近似认为抛物以垂直初速度为0的形态抛出。
抛物向下抛出时,以较大的力量向下抛出的情况较少见,大多数情况下向下抛出的初速度较小,可以近似为0。
抛出水平抛出时,这种情况比较多见,水平方向会有一个初速度,垂直方向上初速度为0。
因此,总体而言,由于高空抛物情况下,初始初速度较小,可以将该高空抛物行为近似的作为平抛运动进行分析,而由于在此只需要分析该平抛运动中物体在竖直方向上的运动过程,因此可以将该高空抛物模型转换为自由落体运动模块进行分析。
在一种可能的实现方式中,当获取一组图像帧中的两个图像帧对应的抛物位置,以及该两个图像帧之间的时间间隔时,获取该目标物体的第一高度值。
其中,可以通过该两个图像帧对应的抛物位置在背景图像上所处的位置,确定该两个图像帧对应的抛物位置之间的高度差,例如,当背景图像为高楼时,可以通过该两个图像帧对应的抛物位置之间的楼层差,确定该两个图像帧对应的抛物位置之间的高度差;或者,可以通过预设的该目标视频中图像与该高楼的比例尺,确定该两个图像帧对应的抛物位置之间的高度差。
图4示出了本申请实施例涉及的一种抛物高度计算方法。如图4所示,其中第一抛物位置对应的下落高度为h1,第二抛物位置对应的下落高度为h2,则该第一抛物位置与该第二抛物位置之间的高度差为h1-h2,而由于该两个图像帧是目标视频对应的各个图像帧中的两个图像帧,因此该两个图像帧之间的时间间隔是已知的,例如t1为第一抛物位置对应的下落时间,t1为第二抛物位置对应的下落时间,则该两个图像帧之间的时间间隔为t2-t1,由牛顿运动定律可知:
Figure BDA0002728520090000141
其中h2-h1和t2-t1已知,可得到t2+t1由此可得到t2和t1,从而得到h2和h1,即可以得出第一抛物位置的下落高度以及第二抛物位置的下落高度,又由于该第一抛物位置是抛物起点到该第一抛物位置的高度值,该第二抛物位置的下落高度是抛物起点到该第二抛物位置的高度值,因此在第一抛物位置的高度值以及第二抛物位置的高度值都已知的情况下,可以计算出第一高度值。
在一种可能的实现方式中,获取该至少一组图像帧内的该至少两个图像帧对应的抛物位置,以及该至少一组图像帧内的该至少两个图像帧之间的时间间隔,根据该各组图像帧内的该至少两个图像帧对应的抛物位置,以及该各组图像帧内的该至少两个图像帧之间的时间间隔,获取各组图像帧对应的预选高度值;将该各组图像帧对应的预选高度值进行取平均值处理,获得第一高度值。
步骤307,获取该轨迹起点位置的第二高度值;该第二高度值是该轨迹起点位置的高度值。
在一种可能的实现方式中,根据该轨迹起点位置与该各个图像帧对应的背景图像的对应关系,获取该轨迹起点位置的第二高度值。
其中,该各个图像帧对应的背景图像是固定的图像,因此可以根据该背景图像中各个像素点,获取该各个像素点对应的高度值。
步骤308,基于该第一高度值,以及该第二高度值,获取该目标物体抛出的第三高度值。
在一种可能的实现方式中,基于权重参数,对该第一高度值以及该第二高度值进行求和,获得该目标物体抛出时的第三高度值。
另一种可能的实现方式中,将该轨迹起点位置的第一高度值以及该第二高度值进行取平均值处理,获得该目标物体抛出时的第三高度值。
步骤309,基于该第三高度值,以及该轨迹起点位置的水平位置,获取该目标物体的抛出位置。
在一种可能的实现方式中,将该各个图像帧对应的抛物位置按时间顺序进行连接,获取该目标物体的抛物轨迹;当该目标物体的抛物轨迹满足预定条件时,生成预警信息。
在一种可能的实现方式中,该预定条件包括:该目标物体的抛物轨迹为竖直向下的直线;或者,该目标物体的抛物轨迹为向下的抛物线。
当图像处理设备检测到目标物体的抛物轨迹为竖直向下的直线,或者该目标物体的抛物轨迹为向下的抛物线时,代表该目标物体可能是比较重的物体,此时可以生成预警信息提醒发生了较为危险的高空抛物事件。
请参考图5,其示出了本申请实施例涉及的一种抛出位置获取方法的示意图。如图5所示,对某一高层建筑物,可以通过该高层建筑物对应的抛物视频,通过对抛物视频(目标视频)中的各个图像帧进行建模前景(即通过背景建模技术,获取背景图像和前景图像),再根据该建模后的前景进行图像滤波(即通过连通域算法以及筛选过程去除噪音和干扰),最后实现物体跟踪(获取物体的抛物轨迹)。
并且,如图5所示,可以根据该抛物轨迹中的第一抛物位置和第二抛物位置,通过自由落体公式,获取抛物起点的第一高度值h,并基于该第一高度值h对轨迹起点进行溯源校正。
请参考图6,其示出了本申请实施例涉及的一种抛物检测应用示意图。如图6所示,其是一种高空抛物实时监测平台,该高空抛物实时监测平台是基于云技术建立的一个高空抛物实时监测系统600。其中,各个节点的图像采集设备601通过对大楼602的外立面进行实时监控,并将该实时监控数据传输至部署于云服务器的高空抛物实时监测平台600,该高空抛物实时监测平台通过图5所示方法对该监控数据对应的图像视频603进行处理,对高空抛物进行监测并分析,当检测到高空抛物时,通过高空抛物实时监测系统600中的预警模块604,向工作人员发出告警,以便工作人员对高空抛物事件进行处理。
该系统可以使用普通摄像头,根据大楼外立面实时监控数据,通过AI算法实时分析,实现对大楼高空抛物异常事件监测,基于分析画面中坠落物体的下落速度及距离,提供反向溯源至抛物发生的楼层区间,定位事件发生地与时间点,帮助管理人员高效事后取证,提供完整的高空抛物事件链,广泛的监测范围更能有效预测区域内容易发生抛物事件的地点,达到快速预警、防范的作用。
并且该系统是一种基于视觉算法和物理回溯进行高空抛物智能检测的系统,基于计算机视觉技术,对视频动态帧进行建模分析,分离出背景和前景视频帧(背景图像和前景图像),初步定位抛物的位置,并通过追踪算法来追踪到抛物下落的过程,结合建模算法实时定位物体位置;同时,基于物理模型和数学公式,可根据下落的时间差计算出物体下落的速度,由此可反向溯源到抛物下落的距离,进一步校正下落区域,达到抛物监测和溯源的目的。即首先通过背景建模技术,获取视频数据的背景帧数据和前景帧数据,来初步定位抛物的位置;通过图像增强方法将画面中较小的抛物增大为较大的易于检测的抛物物体,同时使用最大连通域算法将画面中的最大的抛物挑选出来,过滤掉其它较小的图像噪声;通过图像追踪算法来追踪抛物下落的过程,结合建模算法实时定位抛物的位置;基于建模分析以及抛体运动的原理,根据下落的时间差计算出物体下落的速度,由此可反向溯源到抛物下落的距离,进一步校正下落区域。
即便目前已有法律规定对高空抛物事件的严惩办法,但因城市发展速度快,其中部分市民的法律意识淡薄、素质参差不齐,加之房屋治理水平滞后,抛物事件仍屡禁不止,但随着高空抛物智能检测系统的安装及投入应用,能从源头上堵住现有漏洞,提前预防致人伤死的惨剧发生,降低意外发生的机率减少意外发生的可能性。我国城市发展至今,基本已完成了基础设施建设,伴随着人民经济水平的提升,以及互联网、大数据等技术的日渐蓬勃,更加适居、便利、安全的城市成为人们的共同需求,高空抛物智能检测系统作为智慧城市建设的一环,其重要性旨在维护人民人身安全以及维护城市公共安全,推动智慧城市的发展和建设。
并且通过高空抛物智能检测系统可以提升小区管理的效率、降低意外发生的风险,并在未来融入人员管理、车辆管控等多个系统模块,实现更精细的数据共享,不仅提前布防高空抛物事件,也满足智慧城市的升级需求,进一步提高基层治理水平,提升人民生活的安全水平与质量。
综上所述,本申请实施例所示的方案中,通过获取抛物视频对应的各个图像帧,根据该各个图像帧进行图像处理,获取各个图像帧中对应目标物体对应的抛物位置,并根据该各个图像帧中的抛物位置,获取抛物轨迹的起点位置,并根据该各个图像帧中至少一组图像帧,计算出物体抛出时的高度值,根据该高度值对抛物轨迹的起点进行更新校正。上述方案,通过各个图像帧中的至少一组图像帧获取目标物体抛出对应的高度值,并根据该高度值对根据图像处理得到的抛物轨迹起点进行更新,得到抛出位置,减小了外界环境因素对获取到的抛出位置的干扰,提升了抛出位置获取的准确度。
请参考图7,其是根据本申请一示例性实施例示出的一种抛出位置获取方法的框架示意图。如图7所示:
视频获取设备701对建筑物外立面进行实施监控,获取到目标物体高空抛物时对应的目标视频702,将该目标视频702保存并传输至视频处理设备700进行高空抛物检测。
视频处理设备700获取到该目标视频702,对该目标视频702进行处理,获取该目标视频702对应的各个视频帧,再通过背景建模技术,获取视频数据的背景帧数据和前景图像帧703,来初步定位抛物的位置,例如可以采用VIBE算法,通过像素级背景建模和前景检测算法,随机选择需要替换的像素的样本,对领域像素进行更新,提取出前景图像帧703进行后续的处理。
对于提取出的前景图像帧703,可以通过图像增强方法,将前景中较大的抛物增大为较大的易于检测的抛物物体,例如,可以使用图像膨胀算法对该前景图像帧进行领域扩张处理,获取比原图较大的高亮区域,得到抛物放大后的前景图像帧704。
通过该目标视频的各个图像帧对应的该抛物放大后的前景图像帧704,可以获取该抛物的抛物轨迹。
例如,可以使用最大连通域算法将画面中最大的抛物区域筛选出来,即可以将该最大连通域对应的最大的图像,由于该在抛物过程中,需要注意的往往是最大的物体,因此可以将该最大的图像对应的位置作为该图像帧对应的抛物位置;将该各个图像帧对应的最大的图像对应的抛物位置,按时间顺序进行连接,可以得到该抛物的抛物轨迹705。
或者,当某一图像帧中出现异物时,可能会出现将异物识别为最大的图像,并将该异物所在的位置获取为该图像帧对应的抛物位置,导致连接形成的轨迹不符合抛物轨迹,因此,可以选取两个相邻帧,通过上一帧图像识别出的抛物位置,与该图像帧是识别的较大的几个候选物体进行对比,由于相邻帧的时间间隔较短,抛物在相邻两帧图像中所处距离不会太大,因此可以选取与上一帧图像识别出的抛物位置最近的作为该图像帧的抛物位置,将该各个图像帧对应的抛物位置进行连接,得到该目标物体的抛物轨迹705。
或者,当一连串的图像帧中出现异物时,例如存在鸟从图像拍摄的高楼中飞过时,通过最大连通域算法可能将鸟识别为最大的图像,并将该鸟在各个图像帧中对应的位置获取为该图像帧对应的抛物位置,并将鸟飞过的轨迹识别为抛物轨迹。此时,可以取连续的多个图像帧,先筛选出多个图像帧中大于阈值的图像作为候选物体,将该多个图像帧中候选物体的位置与相邻图像帧中较近的候选物体的位置进行连接,得到至少一条候选轨迹,当候选轨迹为多条时,说明该图像视频中存在多个物体同时进行运动,此时,可以通过对候选轨迹进行筛选,获取候选轨迹符合抛物特征的轨迹作为目标物体的抛物轨迹705,并且将该抛物轨迹对应的各个候选物体的位置,作为各个图像帧中的抛物位置;当识别出该抛物轨迹705是抛物轨迹为竖直向下的直线或者为向下的抛物线时,还可以生成预警信息(图中未示出)。
当该抛物放大后的前景图像帧通过以上任一所述方法得到该各个前景图像帧对应的抛物位置时,可以将该前景图像帧进行分组,通过至少一组前景图像帧(至少两个图像帧),获取该目标物体的高度值(第一高度值),比如可以使用图3对应实施例所述方法,此处不再赘述。
根据目标物体的高度值706,对该抛物轨迹705的轨迹起点进行更新修正,得到目标物体的抛出位置707。由于通过图像获取设备获取的目标视频,容易受到光线、异物等外界环境的影响,因此通过轨迹确定目标物体的抛出位置可能存在误差,因此可以取该各个前景图像帧中的至少一组前景图像帧,通过前景图像帧拍摄的时间差以及距离差,推算出该抛出位置的高度值,并根据该高度值修正抛物轨迹起点位置的高度值,得到该目标物体的抛出位置,提高了该识别出的抛物位置的准确性。图7所示实施例提出的方法有效地使用了背景建模、图像增强和最大连通域处理等方法,对视频数据进行初步的清洗和筛查,同时利用追踪方法对抛物进行实时的追踪定位,最后结合物理模型通过计算抛物下落的物理量反向溯源到抛物下落的位置,进一步对抛物抛出的位置进行校准,大大提升准确率,满足快速识别、快速警示和责任可溯等需求。
图8是根据一示例性实施例示出的一种抛物位置获取装置的结构方框图。该抛物位置获取装置可以实现图2或图3所示实施例提供的方法中的全部或者部分步骤。该抛物位置获取装置可以包括:
图像帧获取模块801,用于获取目标视频的各个图像帧;所述目标视频是目标物体抛出的视频;
抛物位置获取模块802,用于获取所述各个图像帧对应的抛物位置;所述抛物位置是所述目标物体对应的图像在所述各个图像帧中的位置;
轨迹起点获取模块803,用于基于所述各个图像帧对应的抛物位置,获取所述目标物体的轨迹起点位置;所述轨迹起点位置是基于所述各个图像帧对应的抛物位置得到的抛物轨迹的起点位置;
第一高度获取模块804,用于基于所述各个图像帧中的至少一组图像帧对应的抛物位置,获取所述目标物体抛出时的第一高度值;所述至少一组图像帧分别包含至少两个图像帧;
抛出位置获取模块805,用于基于所述第一高度值,以及所述目标物体的轨迹起点位置,获取所述目标物体的抛出位置。
在一种可能的实现方式中,所述抛物位置获取模块802,包括:
候选图像获取单元,用于获取所述各个图像帧中的候选物体图像;所述候选物体图像为所述各个图像帧的前景图像中的物体图像;
抛物位置获取单元,用于基于所述各个图像帧中的候选位置,获取所述各个图像帧中的抛物位置;所述候选位置是所述各个图像帧中的候选物体图像在对应的图像帧中的位置。
在一种可能的实现方式中,所述抛物位置获取单元,包括:
前景图像获取子单元,用于基于所述目标视频中的各个图像帧,获取所述各个图像帧中的前景图像;
阈值判断单元,用于将所述各个图像帧中的前景图像中,图像面积大于阈值的物体图像,获取为所述各个图像帧中的候选物体图像。
在一种可能的实现方式中,所述抛物位置获取单元,用于,
将所述各个图像帧包含的连续N个图像帧中距离小于阈值的候选位置,按照时间顺序进行连接,获得至少一条候选轨迹;N≥2,且N为整数;
根据所述至少一条候选轨迹,获取所述目标物体在所述N个图像帧中的抛物轨迹;
将所述目标物体在所述N个图像帧中的抛物轨迹中的候选位置,获取为所述N个图像帧中的抛物位置。
在一种可能的实现方式中,所述抛物位置获取单元,还用于,
基于所述各个图像的第i个图像帧中的抛物位置,以及所述各个图像的第i+1个图像帧中的候选物体图像的候选位置,获取所述第i+1个图像帧中的抛物位置;i≥1,且i为整数。
在一种可能的实现方式中,所述抛物位置获取单元,还用于,
获取所述第i+1个图像帧中的候选物体图像在所述第i+1个图像帧中的候选位置;
将所述候选位置中与所述第i个图像帧中抛物位置最近的候选位置,获取为所述第i+1个图像帧中的抛物位置。
在一种可能的实现方式中,所述抛物位置获取单元,还用于,
将所述各个图像帧中面积最大的候选物体图像的候选位置,获取为所述各个图像帧中的抛物位置。
在一种可能的实现方式中,所述第一高度获取模块804,用于,
获取所述至少一组图像帧内的所述至少两个图像帧对应的抛物位置,以及所述至少一组图像帧内的所述至少两个图像帧之间的时间间隔;
基于所述至少一组图像帧内的所述至少两个图像帧对应的抛物位置,以及所述至少一组图像帧内的所述至少两个图像帧之间的时间间隔,获取所述目标物体的第一高度值。
在一种可能的实现方式中,所述抛出位置获取模块805,包括:
第二高度获取单元,用于获取所述轨迹起点位置的第二高度值;所述第二高度值是所述轨迹起点位置的高度值;
第三高度获取单元,用于基于所述第一高度值,以及所述第二高度值,获取所述目标物体抛出的第三高度值;
抛出位置获取单元,用于基于所述第三高度值,以及所述轨迹起点位置的水平位置,获取所述目标物体的抛出位置。
在一种可能的实现方式中,所述第三位置获取单元,用于,
基于权重参数,对所述第一高度值以及所述第二高度值进行求和,获得所述目标物体抛出时的第三高度值。
在一种可能的实现方式中,所述装置还包括:
抛物轨迹获取模块,用于将所述各个图像帧对应的抛物位置按时间顺序进行连接,获取所述目标物体的抛物轨迹;
预警信息生成模块,用于当所述目标物体的抛物轨迹满足预定条件时,生成预警信息。
在一种可能的实现方式中,所述预定条件包括:
所述目标物体的抛物轨迹为竖直向下的直线;
或者,
所述目标物体的抛物轨迹为向下的抛物线。
综上所述,本申请实施例所示的方案中,通过获取抛物视频对应的各个图像帧,根据该各个图像帧进行图像处理,获取各个图像帧中对应目标物体对应的抛物位置,并根据该各个图像帧中的抛物位置,获取抛物轨迹的起点位置,并根据该各个图像帧中至少一组图像帧,计算出物体抛出时的高度值,根据该高度值对抛物轨迹的起点进行更新校正。上述方案,通过各个图像帧中的至少一组图像帧获取目标物体抛出对应的高度值,并根据该高度值对根据图像处理得到的抛物轨迹起点进行更新,得到抛出位置,减小了外界环境因素对获取到的抛出位置的干扰,提升了抛出位置获取的准确度。
图9是根据一示例性实施例示出的计算机设备900的结构框图。该计算机设备900可以是图1所示系统中的视频获取设备或者视频处理设备。
通常,计算机设备900包括有:处理器901和存储器902。
处理器901可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器901可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器901也可以包括主处理器和协处理器。在一些实施例中,处理器901可以在集成有GPU(Graphics Processing Unit,图像处理器),处理器901还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器902可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器902还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器902中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器901所执行以实现本申请上述方法实施例中的全部或者部分步骤。
在一些实施例中,计算机设备实现为视频获取设备时,该计算机设备900还可选包括有:外围设备接口903和至少一个外围设备。处理器901、存储器902和外围设备接口903之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口903相连。可选的,外围设备包括:射频电路904、显示屏905、摄像头组件906、音频电路907、定位组件908和电源909中的至少一种。
外围设备接口903可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器901和存储器902。
射频电路904用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。可选地,射频电路904包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路904可以通过至少一种无线通信协议来与其它计算机设备进行通信。在一些实施例中,射频电路904还可以包括NFC(NearField Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏905用于显示UI(User Interface,用户界面)。当显示屏905是触摸显示屏时,显示屏905还具有采集在显示屏905的表面或表面上方的触摸信号的能力。
摄像头组件906用于采集图像或视频。在一些实施例中,摄像头组件906还可以包括闪光灯。
音频电路907可以包括麦克风和扬声器。在一些实施例中,音频电路907还可以包括耳机插孔。
定位组件908用于定位计算机设备900的当前地理位置,以实现导航或LBS(Location Based Service,基于位置的服务)。
电源909用于为计算机设备900中的各个组件进行供电。
在一些实施例中,计算机设备900还包括有一个或多个传感器910。该一个或多个传感器910包括但不限于:加速度传感器911、陀螺仪传感器912、压力传感器913、指纹传感器914、光学传感器915以及接近传感器916。
本领域技术人员可以理解,图9中示出的结构并不构成对计算机设备900的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括计算机程序(指令)的存储器,上述程序(指令)可由计算机设备的处理器执行以完成本申请各个实施例所示的方法。例如,所述非临时性计算机可读存储介质可以是只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、只读光盘(Compact Disc Read-Only Memory,CD-ROM)、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述各个实施例所示的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。

Claims (13)

1.一种抛出位置获取方法,其特征在于,所述方法包括:
获取目标视频的各个图像帧;所述目标视频是目标物体抛出的视频;
获取所述各个图像帧对应的抛物位置;所述抛物位置是所述目标物体对应的图像在所述各个图像帧中的位置;
基于所述各个图像帧对应的抛物位置,获取所述目标物体的轨迹起点位置;所述轨迹起点位置是基于所述各个图像帧对应的抛物位置得到的抛物轨迹的起点位置;
基于所述各个图像帧中的至少一组图像帧对应的抛物位置,获取所述目标物体抛出时的第一高度值;所述至少一组图像帧分别包含至少两个图像帧;
获取所述轨迹起点位置的第二高度值;所述第二高度值是所述轨迹起点位置的高度值;
基于权重参数对所述第一高度值以及所述第二高度值进行加权求和,获得所述目标物体抛出时的第三高度值;
基于所述第三高度值,以及所述轨迹起点位置的水平位置,获取所述目标物体的抛出位置。
2.根据权利要求1所述的方法,其特征在于,所述获取所述各个图像帧对应的抛物位置,包括:
获取所述各个图像帧中的候选物体图像;所述候选物体图像为所述各个图像帧的前景图像中的物体图像;
基于所述各个图像帧中的候选位置,获取所述各个图像帧中的抛物位置;所述候选位置是所述各个图像帧中的候选物体图像在对应的图像帧中的位置。
3.根据权利要求2所述的方法,其特征在于,所述获取所述各个图像帧中的候选物体图像,包括:
基于所述目标视频中的各个图像帧,获取所述各个图像帧中的前景图像;
将所述各个图像帧中的前景图像中,图像面积大于阈值的物体图像,获取为所述各个图像帧中的候选物体图像。
4.根据权利要求2或3所述的方法,其特征在于,所述基于所述各个图像帧中的候选位置,获取所述各个图像帧中的抛物位置,包括:
将所述各个图像帧包含的连续N个图像帧中距离小于阈值的候选位置,按照时间顺序进行连接,获得至少一条候选轨迹;N≥2,且N为整数;
根据所述至少一条候选轨迹,获取所述目标物体在所述N个图像帧中的抛物轨迹;
将所述目标物体在所述N个图像帧中的抛物轨迹中的候选位置,获取为所述N个图像帧中的抛物位置。
5.根据权利要求2或3所述的方法,其特征在于,所述基于所述各个图像帧中的候选位置,获取所述各个图像帧中的抛物位置,包括:
基于所述各个图像的第i个图像帧中的抛物位置,以及所述各个图像的第i+1个图像帧中的候选物体图像的候选位置,获取所述第i+1个图像帧中的抛物位置;i≥1,且i为整数。
6.根据权利要求5所述的方法,其特征在于,所述基于所述各个图像的第i个图像帧中的抛物位置,以及所述各个图像的第i+1个图像帧中的候选物体图像的候选位置,获取所述第i+1个图像帧中的抛物位置,包括:
获取所述第i+1个图像帧中的候选物体图像在所述第i+1个图像帧中的候选位置;
将所述第i+1个图像帧中与所述第i个图像帧中抛物位置最近的候选位置,获取为所述第i+1个图像帧中的抛物位置。
7.根据权利要求3所述的方法,其特征在于,所述基于所述各个图像帧中的候选位置,获取所述各个图像帧中的抛物位置,包括:
将所述各个图像帧中面积最大的候选物体图像的候选位置,获取为所述各个图像帧中的抛物位置。
8.根据权利要求1所述的方法,其特征在于,所述基于所述各个图像帧中的至少一组图像帧对应的抛物位置,获取所述目标物体抛出时的第一高度值,包括:
获取所述至少一组图像帧内的所述至少两个图像帧对应的抛物位置,以及所述至少一组图像帧内的所述至少两个图像帧之间的时间间隔;
基于所述至少一组图像帧内的所述至少两个图像帧对应的抛物位置,以及所述至少一组图像帧内的所述至少两个图像帧之间的时间间隔,获取所述目标物体抛出时的第一高度值。
9.根据权利要求1所述的方法,其特征在于,所述方法还包括:
将所述各个图像帧对应的抛物位置按时间顺序进行连接,获取所述目标物体的抛物轨迹;
当所述目标物体的抛物轨迹满足预定条件时,生成预警信息。
10.根据权利要求9所述的方法,其特征在于,所述预定条件包括:
所述目标物体的抛物轨迹为竖直向下的直线;
或者,
所述目标物体的抛物轨迹为向下的抛物线。
11.一种抛出位置获取装置,其特征在于,所述装置包括:
图像帧获取模块,用于获取目标视频的各个图像帧;所述目标视频是目标物体抛出的视频;
抛物位置获取模块,用于获取所述各个图像帧对应的抛物位置;所述抛物位置是所述目标物体对应的图像在所述各个图像帧中的位置;
轨迹起点获取模块,用于基于所述各个图像帧对应的抛物位置,获取所述目标物体的轨迹起点位置;所述轨迹起点位置是基于所述各个图像帧对应的抛物位置得到的抛物轨迹的起点位置;
第一高度获取模块,用于基于所述各个图像帧中的至少一组图像帧对应的抛物位置,获取所述目标物体抛出时的第一高度值;所述至少一组图像帧分别包含至少两个图像帧;
抛出位置获取模块,用于获取所述轨迹起点位置的第二高度值;所述第二高度值是所述轨迹起点位置的高度值;
所述抛出位置获取模块,还用于基于权重参数对所述第一高度值以及所述第二高度值进行加权求和,获得所述目标物体抛出时的第三高度值;
所述抛出位置获取模块,还用于基于所述第三高度值,以及所述轨迹起点位置的水平位置,获取所述目标物体的抛出位置。
12.一种计算机设备,其特征在于,所述计算机设备包含处理器和存储器,所述存储器中存储有至少一段程序,所述至少一段程序由所述处理器加载并执行以实现如权利要求1至10任一所述的抛出位置获取方法。
13.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一段程序,所述至少一段程序由处理器加载并执行以实现如权利要求1至10任一所述的抛出位置获取方法。
CN202011110807.2A 2020-10-16 2020-10-16 抛出位置获取方法、装置、计算机设备及存储介质 Active CN112258573B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202011110807.2A CN112258573B (zh) 2020-10-16 2020-10-16 抛出位置获取方法、装置、计算机设备及存储介质
PCT/CN2021/120197 WO2022078182A1 (zh) 2020-10-16 2021-09-24 抛出位置获取方法、装置、计算机设备及存储介质
US17/945,573 US20230005176A1 (en) 2020-10-16 2022-09-15 Throwing position acquisition method and apparatus, computer device and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011110807.2A CN112258573B (zh) 2020-10-16 2020-10-16 抛出位置获取方法、装置、计算机设备及存储介质

Publications (2)

Publication Number Publication Date
CN112258573A CN112258573A (zh) 2021-01-22
CN112258573B true CN112258573B (zh) 2022-11-15

Family

ID=74244677

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011110807.2A Active CN112258573B (zh) 2020-10-16 2020-10-16 抛出位置获取方法、装置、计算机设备及存储介质

Country Status (3)

Country Link
US (1) US20230005176A1 (zh)
CN (1) CN112258573B (zh)
WO (1) WO2022078182A1 (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112258573B (zh) * 2020-10-16 2022-11-15 腾讯科技(深圳)有限公司 抛出位置获取方法、装置、计算机设备及存储介质
CN112926444A (zh) * 2021-02-24 2021-06-08 北京爱笔科技有限公司 抛物行为检测方法及装置
CN113011272B (zh) * 2021-02-24 2024-05-31 北京爱笔科技有限公司 一种轨迹图像生成方法、装置、设备及存储介质
CN112926445A (zh) * 2021-02-24 2021-06-08 北京爱笔科技有限公司 抛物行为识别方法、模型训练方法及相关装置
CN113379801B (zh) * 2021-06-15 2024-04-30 江苏科技大学 一种基于机器视觉的高空抛物监测定位方法
CN113487821A (zh) * 2021-07-30 2021-10-08 重庆予胜远升网络科技有限公司 基于机器视觉的电力设备异物入侵识别系统及方法
CN113822913B (zh) * 2021-11-25 2022-02-11 江西科技学院 一种基于计算机视觉的高空抛物检测方法和系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105163067A (zh) * 2015-08-12 2015-12-16 武汉大学 一种基于数字图像处理技术的高空抛物取证系统
JP2016099941A (ja) * 2014-11-26 2016-05-30 日本放送協会 オブジェクト位置推定システム、及びそのプログラム
CN109309811A (zh) * 2018-08-31 2019-02-05 中建三局智能技术有限公司 一种基于计算机视觉的高空抛物检测系统与方法
CN111768431A (zh) * 2020-06-28 2020-10-13 熵康(深圳)科技有限公司 一种高空抛物动目标检测方法、检测设备和检测系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109163667A (zh) * 2018-08-06 2019-01-08 合肥移顺信息技术有限公司 一种高空抛物高度检测系统及其校正系统
CN111079663B (zh) * 2019-12-19 2022-01-11 深圳云天励飞技术股份有限公司 高空抛物的监测方法、装置、电子设备及存储介质
CN111553274A (zh) * 2020-04-28 2020-08-18 青岛聚好联科技有限公司 一种基于轨迹分析的高空抛物检测方法及装置
CN111669551B (zh) * 2020-06-16 2021-07-20 深圳市金安通电子有限公司 楼宇高空抛物点盲视量化取证方法和系统
CN112258573B (zh) * 2020-10-16 2022-11-15 腾讯科技(深圳)有限公司 抛出位置获取方法、装置、计算机设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016099941A (ja) * 2014-11-26 2016-05-30 日本放送協会 オブジェクト位置推定システム、及びそのプログラム
CN105163067A (zh) * 2015-08-12 2015-12-16 武汉大学 一种基于数字图像处理技术的高空抛物取证系统
CN109309811A (zh) * 2018-08-31 2019-02-05 中建三局智能技术有限公司 一种基于计算机视觉的高空抛物检测系统与方法
CN111768431A (zh) * 2020-06-28 2020-10-13 熵康(深圳)科技有限公司 一种高空抛物动目标检测方法、检测设备和检测系统

Also Published As

Publication number Publication date
WO2022078182A1 (zh) 2022-04-21
US20230005176A1 (en) 2023-01-05
CN112258573A (zh) 2021-01-22

Similar Documents

Publication Publication Date Title
CN112258573B (zh) 抛出位置获取方法、装置、计算机设备及存储介质
KR101897923B1 (ko) 신경망 학습 모델 기반 추적 객체 추출 서비스 제공 시스템, 이의 방법, 그리고 이 방법을 저장한 컴퓨터 판독 가능 저장 매체
CN110745704B (zh) 一种塔吊预警方法及装置
EP3343443A1 (en) Object detection for video camera self-calibration
CN109766779B (zh) 徘徊人员识别方法及相关产品
CN109389589A (zh) 用于统计人数的方法和装置
CN102750709B (zh) 利用视频检测打架行为的方法和装置
CN109448326B (zh) 一种基于快速图像识别的地质灾害智能群防监测系统
EA018349B1 (ru) Способ видеоанализа
CN112183472A (zh) 一种基于改进RetinaNet的试验现场人员是否穿着工作服检测方法
CN110110666A (zh) 目标检测方法和装置
CN112685812A (zh) 一种动态监管方法、装置、设备及存储介质
CN113393448A (zh) 一种形变检测方法、装置、设备及计算机可读存储介质
CN115861400A (zh) 目标对象检测方法、训练方法、装置以及电子设备
CN111310595B (zh) 用于生成信息的方法和装置
CN106803937B (zh) 一种具有文本日志的双摄像头视频监控方法、系统和监控装置
CN114821978B (zh) 一种误报警的消除方法、装置以及介质
CN114387544A (zh) 一种高空抛物检测方法、系统、电子设备及存储介质
JPWO2018110377A1 (ja) 映像監視装置
JP2024514175A (ja) 鳥の検出および種決定
JP6606779B1 (ja) 情報提供装置、情報提供方法、およびプログラム
JP6443144B2 (ja) 情報出力装置、情報出力プログラム及び情報出力方法、並びに情報出力システム
CN109448287A (zh) 一种安全监控方法、装置、可读存储介质及终端设备
CN117392634B (zh) 车道线的获取方法、装置、存储介质及电子装置
CN111062337B (zh) 人流方向检测方法及装置、存储介质和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40037745

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant