CN114882382B - 一种基于图像识别的建筑物碰撞保护方法 - Google Patents

一种基于图像识别的建筑物碰撞保护方法 Download PDF

Info

Publication number
CN114882382B
CN114882382B CN202210354010.XA CN202210354010A CN114882382B CN 114882382 B CN114882382 B CN 114882382B CN 202210354010 A CN202210354010 A CN 202210354010A CN 114882382 B CN114882382 B CN 114882382B
Authority
CN
China
Prior art keywords
unmanned aerial
aerial vehicle
height
calculating
impact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210354010.XA
Other languages
English (en)
Other versions
CN114882382A (zh
Inventor
谭旭
王琼
张震
庞世燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Institute of Information Technology
Original Assignee
Shenzhen Institute of Information Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute of Information Technology filed Critical Shenzhen Institute of Information Technology
Priority to CN202210354010.XA priority Critical patent/CN114882382B/zh
Publication of CN114882382A publication Critical patent/CN114882382A/zh
Application granted granted Critical
Publication of CN114882382B publication Critical patent/CN114882382B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本申请提供一种基于图像识别的建筑物碰撞保护方法,包括:根据无人机采集的图像识别建筑物间隙确定受到的风力,具体包括:无人机对受到的风力进行计算;不同墙面设计预测无人机撞墙概率,通过对特殊墙面识别预测撞墙概率;根据无人机下方行人密度预测掉落风险程度;分析无人机容易撞击的位置,对识别成功与失败的位置进行数据搜集,根据识别的数据进行聚类分析,计算容易撞击位置的撞击概率;分析掉落伤人程度,所述分析掉落伤人程度,具体包括:对伤人程度进行量化分析;根据撞击位置与伤人程度设计保护罩,包括:计算保护罩所需厚度。本发明能够对建筑物进行保护罩保护,避免无人机或飞鸟等撞击导致的伤人事件。

Description

一种基于图像识别的建筑物碰撞保护方法
【技术领域】
本发明涉及信息技术领域,尤其涉及一种基于图像识别的建筑物碰撞保护方法。
【背景技术】
建筑物结构本身有其自身的设计特点,但是随着科技的发展,当前无人机等飞行设备不断增加,当靠近公园、广场等地方,经常会有大量的飞行爱好者,研究无人机飞行。无人机飞行拥有其自身的特点,例如有些无人机有避障功能,有些没有,有些建筑物位置有风有些没有,有些建筑物是玻璃透明墙壁、有条纹墙面或全白墙面,无人机无法识别,甚至有时飞鸟也会因为镜面效果以为是天空而直接撞上等等。建筑物由于其本身的设计特点,也可能会导致靠近的无人机被撞落,或者因为建筑物本身布局,导致墙壁之间形成风口,引起无人机失控。掉落的同时可能砸伤路人。因此如何识别哪些建筑物容易引起无人机撞毁,以及如何在建筑物下方,容易砸伤路人的地点,增设无人机掉落保护罩,是一个值得解决的问题。在无人机对墙面识别时遇到特殊的墙面导致无人机出现失控,因此需要无人机对不同的墙面进行距离识别,找出其中容易识别失败导致碰撞的位置,需要通过实际的计算,并根据实际数据在建筑物下方搭建保护罩保护行人安全以及避免无人机受到损坏。
【发明内容】
本发明提供了一种基于图像识别的建筑物碰撞保护方法,主要包括:
根据无人机采集的图像识别建筑物间隙确定受到的风力;不同墙面设计预测无人机撞墙概率;根据无人机下方行人密度预测掉落风险程度;分析无人机容易撞击的位置;分析掉落伤人程度;根据撞击位置与伤人程度设计保护罩;
进一步可选地,所述根据无人机采集的图像识别建筑物间隙确定受到的风力包括:
通过获取无人机上的监控图像对空中的各个建筑物之间的间隙宽度使用神经网络进行图像识别,检测宽度,将得到的宽度结合当前无人机受到的风向与风力计算无人机单位面积受到风的阻力大小;在无人机悬停中,当受到风力,无人机相对于地面的位置会有变化,通过悬停时相对位置以及受到风力后每秒相对地面的位置变化距离,结合每秒变化的距离与无人机重力计算风力大小,风力大小随无人机每秒变化距离的增大而增大;包括:无人机对受到的风力进行计算;
所述无人机对受到的风力进行计算,还包括:
根据无人机相对地面的位置每秒的变化计算受到的风力大小,预设无人机的重力为G,预设风力为f,在无人机机身加装定位器,当无人机悬停时受到横向风力,位置随风力发生变化,预设无人机每秒的变化距离为D(i),即第i秒移动的距离,计算无人机每一秒移动的距离。获取移动距离D(i)与无人机重力G,水平初速度v(0)=0,得到每一秒的风力递推计算公式:f(i)=a(i)*G/g,其中加速度a的递推计算公式为:a(i)=2*(x(i)-v(i-1)),速度v的递推计算公式为:v(i)=v(i-1)+a(i),无人机每一秒的移动距离越大,受到的风力越大,获取当前无人机对建筑物间隙宽度识别的距离与无人机与间隙的距离,将计算得出的风力,间隙宽度以及与间隙的距离记录到数据库中,在之后遇到同样间隙宽度与距离进行预先规避。
进一步可选地,所述不同墙面设计预测无人机撞墙概率包括:
根据无人机采集的图像识别建筑物间隙确定受到的风力,无人机根据风力大小进行靠墙规避,根据无人机对特殊墙面识别的成功概率,预测无人机出现撞墙的概率,通过装有反光玻璃,透明玻璃以及双色条纹的墙面进行识别;通过无人机镜头对不同墙面的识别,搜集识别成功次数与识别失败的次数,将两个结果出现的次数计算无人机撞墙概率;包括:通过对特殊墙面识别预测撞墙概率;
所述通过对特殊墙面识别预测撞墙概率,还包括:
无人机搭载有拍摄设备,无人机获取拍摄设备采集的图像,运用无人机搭载的拍摄设备采集的图像对各种特殊墙面进行距离识别,其中特殊墙面分别为装有反光玻璃的墙面,装有透光玻璃的墙面以及双色条纹墙面。将实际测量的距离与识别的距离进行对比,判断识别的距离是否超过实际测量距离,若超过了实际测量距离,则判断此次对特殊墙面的识别失败,并将识别失败次数累加一次。通过无人机对建筑的特殊墙面进行多次识别,计算每一次识别的距离与实际测量的距离的差值,将其中通过神经网络识别出无人机与特殊墙面的距离与实际测量距离小的记录为识别成功,并记录识别成功次数。同理将识别出的距离大于特殊墙面距离的记录为识别失败。将识别的成功次数与识别的失败次数进行整合,求出识别成功率。将识别成功率低与70%的位置进行记录,预设成功次数为X,失败次数为Y,预设成功率为Z的计算式为:Z=X/(X+Y)。将无人机经常出现的广场,公园附近的建筑操控无人机靠近建筑物特殊墙面进行多次距离测量,并搜集识别数据,计算出无人机对每一种特殊墙面距离的识别成功率,将成功率作为撞墙概率。
进一步可选地,所述根据无人机下方行人密度预测掉落风险程度包括:
不同墙面设计预测无人机撞墙概率,获取无人机对墙面预测撞墙概率,通过无人机正下方监控画面运用神经网络识别人数,无人机处在高处时对正下方区域内识别获取到的人数进行计算;根据悬停高度调整正下方区域范围;高度越高,正下方区域要计入行人密度在监控图像上的范围越小;悬停高度越高,掉落造成的风险越高;根据无人机撞墙概率,行人密度与悬停高度计算掉落造成的风险大小;包括:计算风险程度;
所述计算风险程度,还包括:
考虑的风险因素主要有行人密度,下落高度,无人机质量。根据无人机下镜头识别无人机下方行人数量并计算行人密度。获取当前无人机在平地上的占地面积,将无人机方圆半径进行扩大3倍,计算半径扩大三倍后的圆面积作为无人机掉落范围。通过下镜头对地面行人的数量计算掉落范围内的行人密度,将掉落范围面积与范围内的人数相除,得到行人密度平方米每人,将其作为其中一个影响因素,此影响因素越大,风险越小。再计算当前下落高度,通过在无人机上加装无线电高度表进行飞行高度的测量,运用无线电高度表测量与地面的高度,此高度越大,风险越高,再获取无人机的质量,将得到的三个值进行加权求和,计算最终的风险程度。根据无人机高度的变化,无人机下镜头对地面的监控画面中算入行人密度的范围相对于监控画面会减小。当飞行达到的高度越高,下镜头对地面的监控画面中行人所占的像素点越小,对行人所在掉落范围内的数量无法进行识别,根据识别记录将行人密度设置为最近时间段内的所有识别数量的平均值作为当前影响因素。
进一步可选地,所述分析无人机容易撞击的位置包括:
根据无人机下方行人密度预测掉落风险程度,进行深入分析,将同一个墙面,无人机与墙面距离的不变,对同一个墙面的各个位置进行距离识别,将识别成功的位置与识别失败的位置进行数据搜集,根据搜集的数据通过meanshift聚类分析预测无人机对同一墙面各个撞击失败点最密集的位置,并计算此位置的撞击概率;包括:对识别成功与失败的位置进行数据搜集;根据识别的数据进行聚类分析;计算容易撞击位置的撞击概率;
所述对识别成功与失败的位置进行数据搜集,还包括:
通过无人机对同一个墙面保持距离不变,不断变化墙面识别位置搜集识别数据。将墙面当做平面直角坐标系的第一象限。墙面左下角当做坐标原点,记录每一次识别结果对应的横纵坐标值,并记录是否识别成功,识别成功的判断方法为识别的距离是否大于实际的距离,识别距离大于实际距离,则判断为识别失败,小于实际距离则识别成功。通过生成随机数随机生成坐标点对墙面进行对应分析,根据墙面的长和宽计算墙面的面积,预设长为x0,宽为y0,S为墙面的总面积,预设随机数生成的数量为Z,预设无人机侧面投影面积为s1,根据无人机的侧面投影面积计算无人机撞墙的占地面积与墙面面积的比例决定随机数的生成数量,预设比值为W,公式为W=S/s1。墙面面积与无人机侧面投影面积的比值越大,则随机数生成的数量越多。预设无人机撞击墙面的接触面积为s2,根据无人机侧面投影面积大小决定单位投影面积生成的随机点数量,获取无人机与墙面的接触面积,将侧面投影面积除以接触面面积再向上取整得到的整数再乘以2作为一个侧面投影面积内生成的随机点数量,在将此数量乘以比值W,得出对应生成的随机数数量Z。即Z=W*[s1/s2],其中中括号表示向上取整。当Z为小数时再进行向上取整操作。随机生成Z个x范围在0到x0,y范围在0到y0的随机坐标点,将每一个随机坐标点使用无人机与墙面相同距离下进行距离识别,并将识别成功与识别失败的点全部记录到表格中用于预测碰撞位置。
所述根据识别的数据进行聚类分析,还包括:
所述对识别成功与失败的位置进行数据搜集,获取无人机识别的各个随机点是否识别成功的数据以及坐标点。将获取的数据使用meanshift聚类分析找出概率最大的点。具体流程为:筛选出识别失败的所有坐标点,预设变量d,获取无人机侧面投影的水平长度,将此长度赋值到变量d中当做圆的直径,将d/2位置的点作为圆心,预设半径r=d/2,在识别失败的坐标点中任选其中一个点作为圆心位置,循环计算其余所有的识别失败坐标点是否在半径为r的圆内,并将在圆内的识别失败的坐标点进行计算向量和。找到新的向量点再次计算向量和。以此类推不断重复迭代,直到计算的向量和为0。当随机选出其中一个点后,以该点为圆心,r为半径画出对应的圆,遍历每一个随机点,判断每一个随机点的位置是否在圆内,若在圆内,则记录该点坐标,若不在圆内,则不做记录。将所有的随机坐标点都遍历完成后,将每一个圆内的坐标点都与圆心坐标相减,得出圆心到每一个随机坐标点的向量,再将每一个圆内坐标点对应的向量求和,得到最终的向量和,再将此向量和与圆心坐标相加,得到新的坐标点,将新的坐标点作为新的圆心,半径r不变,在新的坐标点基础上再次进行循环,以此类推。当向量和为0时结束迭代,将向量和为0的坐标点进行记录为无人机容易撞击的位置。一个位置找到后继续随机新的坐标点开始新的计算,直到每一次找出的位置已记录,计算得出的每一个最终坐标点就为无人机撞击可能性最大的中心点。
所述计算容易撞击位置的撞击概率,还包括:
所述根据识别的数据进行聚类分析中,获取其中识别失败坐标点最密集的位置,即无人机容易撞击的位置,设此位置为p点。获取无人机识别的各个随机点是否识别成功的数据以及坐标点。筛选出以p点为圆心,r为半径的圆内坐标点,分别对圆内识别成功的坐标点与识别失败的坐标点数量进行获取,将识别失败的坐标点数量除以识别失败坐标点与识别成功坐标点之和,得出此位置的撞击概率。
进一步可选地,所述分析掉落伤人程度包括:
分析无人机容易撞击的位置,获取无人机撞击可能性最大的位置所在坐标点,判断无人机可能撞击的位置距离地面的高度,根据高度的不同以及无人机质量的不同作为伤人程度大小的两个主要影响因素,撞击的概率作为次要因素;无人机掉落高度越高,伤人程度越大,无人机质量越大,伤人程度越大;根据无人机的掉落位置来进行伤人程度分析;通过计算伤人程度来判断各个掉落位置无人机掉落的严重程度;包括:对伤人程度进行量化分析;
所述对伤人程度进行量化分析,还包括:
获取各个不同墙面的各个位置无人机识别失败点最密集的位置,将各个识别失败点最密集的位置距离地面的高度数据记录到第一表格中。无人机质量单位定为克。计算容易撞击位置的撞击概率,将各个墙面容易撞击的撞击概率记录到第二表格中。将碰撞位置高度,无人机质量以及对应位置的碰撞概率进行加权求和,计算伤人程度。将碰撞高度,无人机质量以及碰撞概率进行预设权值。将高度,质量以及碰撞概率分别设为x1,x2,x3,权值k1,k2,k3的和为1。再带入公式y=k1*x1+k2*x2+k3*x3。计算得出的y值为量化后的伤人程度值。
进一步可选地,所述根据撞击位置与伤人程度设计保护罩包括:
分析掉落伤人程度,获取撞击位置距离地面的高度,作为设计保护罩的第一个厚度影响因素,分析掉落伤人程度,获取各个墙面掉落对人造成的伤害程度作为设计保护罩的第二个厚度影响因素;保护罩的位置根据建筑物的建筑风格进行设计;根据无人机撞击位置与地面的距离与地面距离保护罩的距离计算出保护罩距离撞击位置的垂直距离;垂直距离越大保护罩为防止砸破所需的厚度越厚;包括:计算保护罩所需厚度;
所述计算保护罩所需厚度,还包括:
不同墙面的建筑风格有所不同,不同墙面需设计的保护罩都以保护行人安全以及无人机的完整都目的,将保护罩建造到没有玻璃的位置,建造在建筑物第一层的商铺上方与第二层下方的交界位置,并且根据掉落高度设计保护罩厚度,最大限度保护行人不受伤以及无人机不受损坏。获取建筑物第一层与第二层交界处距离地面的高度,预设此高度为h1,预设无人机掉落高度为h2,预设重力加速度为g,预设无人机掉落到保护罩位置时所需时间为t1,t1=(2*(h2-h1)/g)^0.5。预设无人机落到保护罩的瞬时速度为v1,v1=(2*g*(h2-h1))^0.5。预设无人机质量为M,则无人机落到保护罩从速度为v1变化到速度为0时所用时间预设为t2,冲击力为F,则Ft2=-Mv1。其中冲量为Ft2。冲量决定保护罩最小厚度,综合掉落高度与伤人程度决定保护罩在最小厚度的基础上再增加的厚度大小。将伤人程度与高度分别作为两个影响因素进行加权求和计算最终的值,同样设y1为最终权重值,w1为伤人程度的权重,w2为掉落高度的权重,两个权重各占一半,即w1=w2=0.5,预设H为掉落高度,C为伤人程度,则y1=0.5*H+0.5*C。根据最终计算的y1来决定增加的厚度找出距离最高伤人程度最大的位置与距离最小,伤人程度最小的位置掉落到保护罩上,保护罩能承受最低厚度大小,即无人机掉落到保护罩上刚好保护罩不出现破损的厚度,再加上对应冲量下的保护罩厚度之和作为要设计的保护罩厚度。
本发明实施例提供的技术方案可以包括以下有益效果:
本发明通过研究建筑物之间的风向排布,建筑物的玻璃、建筑物容易被无人机撞到的区域,楼下的行人密度,推测出建筑物应该如何设置保护罩,避免无人机撞击掉落伤人事件的发生,具有重要的意义。根据无人机容易掉落的位置下方设计好保护罩后能将无人机的z掉落伤人的风险降低,在实际过程中无人机在飞行中对墙面的识别成功率决定了无人机对墙面的碰撞概率,通过计算的碰撞概率以及碰撞位置距离地面的高度设计保护罩的厚度,从而预防无人机掉落伤人也避免了无人机掉落出现的损坏。
【附图说明】
图1为本发明的一种基于图像识别的建筑物碰撞保护方法的流程图。
图2为本发明的一种基于图像识别的建筑物碰撞保护方法的序列图。
图3为本发明的一种基于图像识别的建筑物碰撞保护方法的活动图。
【具体实施方式】
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
图1为本发明的一种基于图像识别的建筑物碰撞保护方法流程图。图2为本发明的一种基于图像识别的建筑物碰撞保护方法的序列图。图3为本发明的一种基于图像识别的建筑物碰撞保护方法的活动图。如图1所示,本实施例一种基于图像识别的建筑物碰撞保护方法具体可以包括:
步骤101,根据无人机采集的图像识别建筑物间隙确定受到的风力。
通过获取无人机上的监控图像对空中的各个建筑物之间的间隙宽度使用神经网络进行图像识别,检测宽度,将得到的宽度结合当前无人机受到的风向与风力计算无人机单位面积受到风的阻力大小。在无人机悬停中,当受到风力,无人机相对于地面的位置会有变化,通过悬停时相对位置以及受到风力后每秒相对地面的位置变化距离,结合每秒变化的距离与无人机重力计算风力大小,风力大小随无人机每秒变化距离的增大而增大。
无人机对受到的风力进行计算。
根据无人机相对地面的位置每秒的变化计算受到的风力大小,预设无人机的重力为G,预设风力为f,在无人机机身加装定位器,当无人机悬停时受到横向风力,位置随风力发生变化,预设无人机每秒的变化距离为D(i),即第i秒移动的距离,计算无人机每一秒移动的距离。获取移动距离D(i)与无人机重力G,水平初速度v(0)=0,得到每一秒的风力递推计算公式:f(i)=a(i)*G/g,其中加速度a的递推计算公式为:a(i)=2*(x(i)-v(i-1)),速度v的递推计算公式为:v(i)=v(i-1)+a(i),无人机每一秒的移动距离越大,受到的风力越大,获取当前无人机对建筑物间隙宽度识别的距离与无人机与间隙的距离,将计算得出的风力,间隙宽度以及与间隙的距离记录到数据库中,在之后遇到同样间隙宽度与距离进行预先规避。
步骤102,不同墙面设计预测无人机撞墙概率。
根据无人机采集的图像识别建筑物间隙确定受到的风力,无人机根据风力大小进行靠墙规避,根据无人机对特殊墙面识别的成功概率,预测无人机出现撞墙的概率,通过装有反光玻璃,透明玻璃以及双色条纹的墙面进行识别。通过无人机镜头对不同墙面的识别,搜集识别成功次数与识别失败的次数,将两个结果出现的次数计算无人机撞墙概率。
通过对特殊墙面识别预测撞墙概率。
无人机搭载有拍摄设备,无人机获取拍摄设备采集的图像,运用无人机搭载的拍摄设备采集的图像对各种特殊墙面进行距离识别,其中特殊墙面分别为装有反光玻璃的墙面,装有透光玻璃的墙面以及双色条纹墙面。将实际测量的距离与识别的距离进行对比,判断识别的距离是否超过实际测量距离,若超过了实际测量距离,则判断此次对特殊墙面的识别失败,并将识别失败次数累加一次。通过无人机对建筑的特殊墙面进行多次识别,计算每一次识别的距离与实际测量的距离的差值,将其中通过神经网络识别出无人机与特殊墙面的距离与实际测量距离小的记录为识别成功,并记录识别成功次数。同理将识别出的距离大于特殊墙面距离的记录为识别失败。将识别的成功次数与识别的失败次数进行整合,求出识别成功率。将识别成功率低与70%的位置进行记录,预设成功次数为X,失败次数为Y,预设成功率为Z的计算式为:Z=X/(X+Y)。将无人机经常出现的广场,公园附近的建筑操控无人机靠近建筑物特殊墙面进行多次距离测量,并搜集识别数据,计算出无人机对每一种特殊墙面距离的识别成功率,将成功率作为撞墙概率。
步骤103,根据无人机下方行人密度预测掉落风险程度。
不同墙面设计预测无人机撞墙概率,获取无人机对墙面预测撞墙概率,通过无人机正下方监控画面运用神经网络识别人数,无人机处在高处时对正下方区域内识别获取到的人数进行计算。根据悬停高度调整正下方区域范围。高度越高,正下方区域要计入行人密度在监控图像上的范围越小。悬停高度越高,掉落造成的风险越高。根据无人机撞墙概率,行人密度与悬停高度计算掉落造成的风险大小。
计算风险程度。
考虑的风险因素主要有行人密度,下落高度,无人机质量。根据无人机下镜头识别无人机下方行人数量并计算行人密度。获取当前无人机在平地上的占地面积,将无人机方圆半径进行扩大3倍,计算半径扩大三倍后的圆面积作为无人机掉落范围。通过下镜头对地面行人的数量计算掉落范围内的行人密度,将掉落范围面积与范围内的人数相除,得到行人密度平方米每人,将其作为其中一个影响因素,此影响因素越大,风险越小。再计算当前下落高度,通过在无人机上加装无线电高度表进行飞行高度的测量,运用无线电高度表测量与地面的高度,此高度越大,风险越高,再获取无人机的质量,将得到的三个值进行加权求和,计算最终的风险程度。根据无人机高度的变化,无人机下镜头对地面的监控画面中算入行人密度的范围相对于监控画面会减小。当飞行达到的高度越高,下镜头对地面的监控画面中行人所占的像素点越小,对行人所在掉落范围内的数量无法进行识别,根据识别记录将行人密度设置为最近时间段内的所有识别数量的平均值作为当前影响因素。
步骤104,分析无人机容易撞击的位置。
根据无人机下方行人密度预测掉落风险程度,进行深入分析,将同一个墙面,无人机与墙面距离的不变,对同一个墙面的各个位置进行距离识别,将识别成功的位置与识别失败的位置进行数据搜集,根据搜集的数据通过meanshift聚类分析预测无人机对同一墙面各个撞击失败点最密集的位置,并计算此位置的撞击概率。
对识别成功与失败的位置进行数据搜集。
通过无人机对同一个墙面保持距离不变,不断变化墙面识别位置搜集识别数据。将墙面当做平面直角坐标系的第一象限。墙面左下角当做坐标原点,记录每一次识别结果对应的横纵坐标值,并记录是否识别成功,识别成功的判断方法为识别的距离是否大于实际的距离,识别距离大于实际距离,则判断为识别失败,小于实际距离则识别成功。通过生成随机数随机生成坐标点对墙面进行对应分析,根据墙面的长和宽计算墙面的面积,预设长为x0,宽为y0,S为墙面的总面积,预设随机数生成的数量为Z,预设无人机侧面投影面积为s1,根据无人机的侧面投影面积计算无人机撞墙的占地面积与墙面面积的比例决定随机数的生成数量,预设比值为W,公式为W=S/s1。墙面面积与无人机侧面投影面积的比值越大,则随机数生成的数量越多。预设无人机撞击墙面的接触面积为s2,根据无人机侧面投影面积大小决定单位投影面积生成的随机点数量,获取无人机与墙面的接触面积,将侧面投影面积除以接触面面积再向上取整得到的整数再乘以2作为一个侧面投影面积内生成的随机点数量,在将此数量乘以比值W,得出对应生成的随机数数量Z。即Z=W*[s1/s2],其中中括号表示向上取整。当Z为小数时再进行向上取整操作。随机生成Z个x范围在0到x0,y范围在0到y0的随机坐标点,将每一个随机坐标点使用无人机与墙面相同距离下进行距离识别,并将识别成功与识别失败的点全部记录到表格中用于预测碰撞位置。
根据识别的数据进行聚类分析。
所述对识别成功与失败的位置进行数据搜集,获取无人机识别的各个随机点是否识别成功的数据以及坐标点。将获取的数据使用meanshift聚类分析找出概率最大的点。具体流程为:筛选出识别失败的所有坐标点,预设变量d,获取无人机侧面投影的水平长度,将此长度赋值到变量d中当做圆的直径,将d/2位置的点作为圆心,预设半径r=d/2,在识别失败的坐标点中任选其中一个点作为圆心位置,循环计算其余所有的识别失败坐标点是否在半径为r的圆内,并将在圆内的识别失败的坐标点进行计算向量和。找到新的向量点再次计算向量和。以此类推不断重复迭代,直到计算的向量和为0。当随机选出其中一个点后,以该点为圆心,r为半径画出对应的圆,遍历每一个随机点,判断每一个随机点的位置是否在圆内,若在圆内,则记录该点坐标,若不在圆内,则不做记录。将所有的随机坐标点都遍历完成后,将每一个圆内的坐标点都与圆心坐标相减,得出圆心到每一个随机坐标点的向量,再将每一个圆内坐标点对应的向量求和,得到最终的向量和,再将此向量和与圆心坐标相加,得到新的坐标点,将新的坐标点作为新的圆心,半径r不变,在新的坐标点基础上再次进行循环,以此类推。当向量和为0时结束迭代,将向量和为0的坐标点进行记录为无人机容易撞击的位置。一个位置找到后继续随机新的坐标点开始新的计算,直到每一次找出的位置已记录,计算得出的每一个最终坐标点就为无人机撞击可能性最大的中心点。
计算容易撞击位置的撞击概率。
所述根据识别的数据进行聚类分析中,获取其中识别失败坐标点最密集的位置,即无人机容易撞击的位置,设此位置为p点。获取无人机识别的各个随机点是否识别成功的数据以及坐标点。筛选出以p点为圆心,r为半径的圆内坐标点,分别对圆内识别成功的坐标点与识别失败的坐标点数量进行获取,将识别失败的坐标点数量除以识别失败坐标点与识别成功坐标点之和,得出此位置的撞击概率。
步骤105,分析掉落伤人程度。
分析无人机容易撞击的位置,获取无人机撞击可能性最大的位置所在坐标点,判断无人机可能撞击的位置距离地面的高度,根据高度的不同以及无人机质量的不同作为伤人程度大小的两个主要影响因素,撞击的概率作为次要因素。无人机掉落高度越高,伤人程度越大,无人机质量越大,伤人程度越大。根据无人机的掉落位置来进行伤人程度分析。通过计算伤人程度来判断各个掉落位置无人机掉落的严重程度。
对伤人程度进行量化分析。
获取各个不同墙面的各个位置无人机识别失败点最密集的位置,将各个识别失败点最密集的位置距离地面的高度数据记录到第一表格中。无人机质量单位定为克。计算容易撞击位置的撞击概率,将各个墙面容易撞击的撞击概率记录到第二表格中。将碰撞位置高度,无人机质量以及对应位置的碰撞概率进行加权求和,计算伤人程度。将碰撞高度,无人机质量以及碰撞概率进行预设权值。将高度,质量以及碰撞概率分别设为x1,x2,x3,权值k1,k2,k3的和为1。再带入公式y=k1*x1+k2*x2+k3*x3。计算得出的y值为量化后的伤人程度值。
步骤106,根据撞击位置与伤人程度设计保护罩。
分析掉落伤人程度,获取撞击位置距离地面的高度,作为设计保护罩的第一个厚度影响因素,分析掉落伤人程度,获取各个墙面掉落对人造成的伤害程度作为设计保护罩的第二个厚度影响因素。保护罩的位置根据建筑物的建筑风格进行设计。根据无人机撞击位置与地面的距离与地面距离保护罩的距离计算出保护罩距离撞击位置的垂直距离。垂直距离越大保护罩为防止砸破所需的厚度越厚。
计算保护罩所需厚度。
不同墙面的建筑风格有所不同,不同墙面需设计的保护罩都以保护行人安全以及无人机的完整都目的,将保护罩建造到没有玻璃的位置,建造在建筑物第一层的商铺上方与第二层下方的交界位置,并且根据掉落高度设计保护罩厚度,最大限度保护行人不受伤以及无人机不受损坏。获取建筑物第一层与第二层交界处距离地面的高度,预设此高度为h1,预设无人机掉落高度为h2,预设重力加速度为g,预设无人机掉落到保护罩位置时所需时间为t1,t1=(2*(h2-h1)/g)^0.5。预设无人机落到保护罩的瞬时速度为v1,v1=(2*g*(h2-h1))^0.5。预设无人机质量为M,则无人机落到保护罩从速度为v1变化到速度为0时所用时间预设为t2,冲击力为F,则Ft2=-Mv1。其中冲量为Ft2。冲量决定保护罩最小厚度,综合掉落高度与伤人程度决定保护罩在最小厚度的基础上再增加的厚度大小。将伤人程度与高度分别作为两个影响因素进行加权求和计算最终的值,同样设y1为最终权重值,w1为伤人程度的权重,w2为掉落高度的权重,两个权重各占一半,即w1=w2=0.5,预设H为掉落高度,C为伤人程度,则y1=0.5*H+0.5*C。根据最终计算的y1来决定增加的厚度找出距离最高伤人程度最大的位置与距离最小,伤人程度最小的位置掉落到保护罩上,保护罩能承受最低厚度大小,即无人机掉落到保护罩上刚好保护罩不出现破损的厚度,再加上对应冲量下的保护罩厚度之和作为要设计的保护罩厚度。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其它相关的技术领域,均同理包括在本发明的专利保护范围内。
用于实现本发明进行信息控制的程序,可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、python、C++,还包括常规的过程式程序设计语言—诸如C语言或类似的程序设计语言。
程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。
而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。

Claims (5)

1.一种基于图像识别的建筑物碰撞保护方法,其特征在于,所述方法包括:
步骤101,根据无人机采集的图像识别建筑物间隙确定所述无人机受到的风力;
具体包括:结合无人机悬停时受到风力后每秒相对地面的位置变化距离与无人机重力计算风力大小;
步骤102,根据不同墙面设计预测无人机撞墙概率;
具体包括:根据无人机采集的图像识别建筑物间隙确定受到的风力,无人机根据风力大小进行靠墙规避,通过神经网络识别出无人机与特殊墙面的距离比实际测量距离小的记录为识别成功,并记录识别成功次数,同理将识别出的无人机与特殊墙面的距离大于实际测量距离的记录为识别失败,并记录识别失败次数;通过无人机对建筑的特殊墙面进行多次识别,将识别成功次数与识别失败次数进行整合,求出识别成功率;计算出无人机对每一种特殊墙面距离的识别成功率;根据无人机对特殊墙面识别的识别成功率,预测无人机出现撞墙的概率,其中,特殊墙面分别为装有反光玻璃的墙面,装有透光玻璃的墙面以及双色条纹墙面;
步骤103,根据无人机下方行人密度预测掉落风险程度;
具体包括:根据无人机撞墙概率、行人密度及悬停高度计算掉落造成的风险大小,计算风险程度;
步骤104,分析无人机容易撞击的位置;
具体包括:对识别成功与失败的位置进行数据搜集,根据识别的数据进行聚类分析,计算容易撞击位置的撞击概率;
所述对识别成功与失败的位置进行数据搜集,包括:将同一个墙面,无人机与墙面距离的不变,对同一个墙面的各个位置进行距离识别,将识别成功的位置与识别失败的位置进行数据搜集;
所述根据识别的数据进行聚类分析,包括:对识别成功与失败的位置进行数据搜集,获取无人机识别的各个随机点是否识别成功的数据以及坐标点,根据搜集的数据通过meanshift聚类分析预测无人机对同一墙面识别失败坐标点最密集的位置;具体流程为:筛选出识别失败的所有坐标点,预设变量d,获取无人机侧面投影的水平长度,将此长度赋值到变量d中当做圆的直径,将d/2位置的点作为圆心,预设半径r=d/2,在识别失败的坐标点中任选其中一个点作为圆心位置,循环计算其余所有的识别失败坐标点是否在半径为r的圆内,并将在圆内的识别失败的坐标点进行计算向量和,找到新的向量点再次计算向量和,以此类推不断重复迭代,直到计算的向量和为0,当随机选出其中一个点后,以该点为圆心,r为半径画出对应的圆,遍历每一个随机点,判断每一个随机点的位置是否在圆内,若在圆内,则记录该点坐标,若不在圆内,则不做记录,将所有的随机坐标点都遍历完成后,将每一个圆内的坐标点都与圆心坐标相减,得出圆心到每一个随机坐标点的向量,再将每一个圆内坐标点对应的向量求和,得到最终的向量和,再将此向量和与圆心坐标相加,得到新的坐标点,将新的坐标点作为新的圆心,半径r不变,在新的坐标点基础上再次进行循环,以此类推,当向量和为0时结束迭代,将向量和为0的坐标点进行记录为无人机容易撞击的位置,一个位置找到后继续随机新的坐标点开始新的计算,直到每一次找出的位置已记录,计算得出的每一个最终坐标点就为无人机撞击可能性最大的中心点;
所述计算容易撞击位置的撞击概率,包括:所述根据识别的数据进行聚类分析中,获取其中识别失败坐标点最密集的位置,即无人机容易撞击的位置,设此位置为p点,获取无人机识别的各个随机点是否识别成功的数据以及坐标点,筛选出以p点为圆心,r为半径的圆内坐标点,分别对圆内识别成功的坐标点与识别失败的坐标点数量进行获取,将识别失败的坐标点数量除以识别失败坐标点与识别成功坐标点之和,得出此位置的撞击概率;
步骤105,分析掉落伤人程度;
具体包括:对伤人程度进行量化分析,根据无人机掉落高度以及无人机质量作为伤人程度大小的两个主要影响因素,撞击的概率作为次要因素,无人机掉落高度越高,伤人程度越大,无人机质量越大,伤人程度越大,根据无人机的掉落位置来进行伤人程度分析;
步骤106,根据撞击位置与伤人程度设计保护罩;
具体包括:计算保护罩所需厚度。
2.根据权利要求1所述的方法,其特征在于,所述根据不同墙面设计预测无人机撞墙概率,还包括:预设成功次数为X,失败次数为Y,识别成功率Z的计算式为:Z=X/(X+Y);计算出无人机对每一种特殊墙面距离的识别成功率,将识别成功率作为撞墙概率。
3.根据权利要求1所述的方法,其特征在于,所述根据无人机下方行人密度预测掉落风险程度,包括:
不同墙面设计预测无人机撞墙概率,获取无人机对墙面预测撞墙概率,通过无人机正下方监控画面运用神经网络识别人数,无人机处在高处时对正下方区域内识别获取到的人数进行计算;根据悬停高度调整正下方区域范围;高度越高,正下方区域要计入行人密度在监控图像上的范围越小;悬停高度越高,掉落造成的风险越高;根据无人机撞墙概率,行人密度与悬停高度计算掉落造成的风险大小,计算风险程度;
所述计算风险程度,还包括:
考虑的风险因素主要有行人密度,下落高度,无人机质量;根据无人机下镜头识别无人机下方行人数量并计算行人密度;获取当前无人机在平地上的占地面积,将无人机方圆半径进行扩大3倍,计算半径扩大三倍后的圆面积作为无人机掉落范围;通过下镜头对地面行人的数量计算掉落范围内的行人密度,将掉落范围面积与范围内的人数相除,得到行人密度平方米每人,将其作为其中一个影响因素,此影响因素越大,风险越小;再计算当前下落高度,通过在无人机上加装无线电高度表进行飞行高度的测量,运用无线电高度表测量与地面的高度,此高度越大,风险越高,再获取无人机的质量,将得到的行人密度、下落高度及无人机质量进行加权求和,计算最终的风险程度。
4.根据权利要求1所述的方法,其特征在于,所述分析掉落伤人程度,包括:
所述对伤人程度进行量化分析,包括:
获取各个不同墙面的各个位置无人机识别失败点最密集的位置,将各个识别失败点最密集的位置距离地面的高度数据记录到第一表格中;无人机质量单位定为克;计算容易撞击位置的撞击概率,将各个墙面容易撞击的撞击概率记录到第二表格中;将碰撞位置高度、无人机质量以及对应位置的碰撞概率进行加权求和,计算伤人程度;将碰撞高度,无人机质量、对应位置的碰撞概率分别预设权值为k1、k2、k3;将碰撞位置高度、无人机质量以及对应位置的碰撞概率分别设为x1、x2、x3,权值k1、k2、k3的和为1;再代入公式y=k1*x1+k2*x2+k3*x3;计算得出的y值为量化后的伤人程度值。
5.根据权利要求1所述的方法,其特征在于,所述根据撞击位置与伤人程度设计保护罩,包括:
分析掉落伤人程度,获取撞击位置距离地面的高度,作为设计保护罩的第一个厚度影响因素,分析掉落伤人程度,获取各个墙面掉落对人造成的伤害程度作为设计保护罩的第二个厚度影响因素;保护罩的位置根据建筑物的建筑风格进行设计;根据无人机撞击位置与地面的距离与地面距离保护罩的距离计算出保护罩距离撞击位置的垂直距离;垂直距离越大保护罩为防止砸破所需的厚度越厚;包括:计算保护罩所需厚度;
所述计算保护罩所需厚度,还包括:
不同墙面的建筑风格有所不同,不同墙面需设计的保护罩都以保护行人安全以及无人机的完整为 目的,将保护罩建造到没有玻璃的位置,建造在建筑物第一层的商铺上方与第二层下方的交界位置,并且根据掉落高度设计保护罩厚度,最大限度保护行人不受伤以及无人机不受损坏;获取建筑物第一层与第二层交界处距离地面的高度,预设此高度为h1,预设无人机掉落高度为h2,预设重力加速度为g,预设无人机掉落到保护罩位置时所需时间为t1,t1=(2*(h2-h1)/g)^0.5;预设无人机落到保护罩的瞬时速度为v1,v1=(2*g*(h2-h1))^0.5;预设无人机质量为M,则无人机落到保护罩从速度为v1变化到速度为0时所用时间预设为t2,冲击力为F,则F*t2=-M*v1;其中冲量为F*t2;冲量决定保护罩最小厚度,综合掉落高度与伤人程度决定保护罩在最小厚度的基础上再增加的厚度大小;将伤人程度与高度分别作为两个影响因素进行加权求和计算最终的值,同样设y1为最终权重值,w1为伤人程度的权重,w2为掉落高度的权重,两个权重各占一半,即w1=w2=0.5,预设H为掉落高度,C为伤人程度,则y1=0.5*H+0.5*C;根据最终计算的y1来决定增加的厚度,找出无人机掉落到保护罩上刚好保护罩不出现破损的厚度,再加上对应冲量下的保护罩厚度之和作为要设计的保护罩厚度。
CN202210354010.XA 2022-04-06 2022-04-06 一种基于图像识别的建筑物碰撞保护方法 Active CN114882382B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210354010.XA CN114882382B (zh) 2022-04-06 2022-04-06 一种基于图像识别的建筑物碰撞保护方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210354010.XA CN114882382B (zh) 2022-04-06 2022-04-06 一种基于图像识别的建筑物碰撞保护方法

Publications (2)

Publication Number Publication Date
CN114882382A CN114882382A (zh) 2022-08-09
CN114882382B true CN114882382B (zh) 2023-03-24

Family

ID=82669658

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210354010.XA Active CN114882382B (zh) 2022-04-06 2022-04-06 一种基于图像识别的建筑物碰撞保护方法

Country Status (1)

Country Link
CN (1) CN114882382B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106184093A (zh) * 2016-07-13 2016-12-07 百度在线网络技术(北京)有限公司 一种高空坠物防护方法和装置
CN114167522A (zh) * 2021-12-17 2022-03-11 深圳市云端高科信息科技有限公司 一种用于智慧城市高层建筑的风场监测与校正系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3746999A1 (en) * 2018-01-29 2020-12-09 Interdigital Patent Holdings, Inc. Methods of a mobile edge computing (mec) deployment for unmanned aerial system traffic management (utm) system applications
CN113361862B (zh) * 2021-05-13 2023-04-18 北航(四川)西部国际创新港科技有限公司 一种针对城市环境的无人机风险评估方法及系统
CN114118695A (zh) * 2021-10-26 2022-03-01 南京航空航天大学 空地协同的无人机运行的风险评估方法、装置及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106184093A (zh) * 2016-07-13 2016-12-07 百度在线网络技术(北京)有限公司 一种高空坠物防护方法和装置
CN114167522A (zh) * 2021-12-17 2022-03-11 深圳市云端高科信息科技有限公司 一种用于智慧城市高层建筑的风场监测与校正系统

Also Published As

Publication number Publication date
CN114882382A (zh) 2022-08-09

Similar Documents

Publication Publication Date Title
KR102198724B1 (ko) 포인트 클라우드 데이터를 처리하기 위한 방법 및 장치
US8855361B2 (en) Scene activity analysis using statistical and semantic features learnt from object trajectory data
US11694294B2 (en) Cargo protection method, device and system, and non-transitory computer-readable storage medium
CN106462978A (zh) 物体检测设备、物体检测方法和物体检测系统
WO2018222889A1 (en) Collision prediction system
CN111008568B (zh) 逃票检测方法及其相关装置
CN106778655B (zh) 一种基于人体骨架的入口尾随进入检测方法
CN113313005A (zh) 基于目标识别与重建的输电导线在线监测方法及系统
CN113359834A (zh) 一种无人机运行监控方法、系统及监控平台
CN113674523A (zh) 交通事故分析方法、装置及设备
CN114882382B (zh) 一种基于图像识别的建筑物碰撞保护方法
CN109544996A (zh) 一种无人机管控方法、装置、系统及可读存储介质
CN112166446A (zh) 可通行性的识别方法、系统、设备及计算机可读存储介质
CN114971217A (zh) 一种无人机对地风险评估方法及系统
CN114155614A (zh) 一种作业现场反违章行为识别方法及系统
CN114078319A (zh) 一种检测交通事故隐患地点的方法及装置
CN115239093A (zh) 一种基于机场环境目标检测的综合风险评估方案
WO2011036661A1 (en) System and method for long-range surveillance of a scene and alerting of predetermined unusual activity
CN117523420B (zh) 一种基于雷达产品数据的闪电落区识别方法及系统
CN112464546B (zh) 基于动态数据分析的公共空间行人流运动风险判别方法
CN114781898A (zh) 一种机场鸟击防控作业管理方法、系统、电子设备及介质
KR102544492B1 (ko) 수영장 안전관리 장치 및 방법
EP4264436A1 (en) Generating unknown-unsafe scenarios, improving automated vehicles, computer system
CN114387689A (zh) 一种控制停车场道闸的方法及相关装置
KR20220123886A (ko) 이동 객체의 이동 경로에 따른 위험도를 표시하는 확률맵을 생성하기 위한 확률맵 생성 장치 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant