CN107871405A - 利用视觉信息进行空中碰撞威胁的检测与评估 - Google Patents
利用视觉信息进行空中碰撞威胁的检测与评估 Download PDFInfo
- Publication number
- CN107871405A CN107871405A CN201710073371.6A CN201710073371A CN107871405A CN 107871405 A CN107871405 A CN 107871405A CN 201710073371 A CN201710073371 A CN 201710073371A CN 107871405 A CN107871405 A CN 107871405A
- Authority
- CN
- China
- Prior art keywords
- invader
- aircraft
- image
- angle
- change
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title description 8
- 230000000007 visual effect Effects 0.000 title description 6
- 230000008859 change Effects 0.000 claims abstract description 89
- 230000004044 response Effects 0.000 claims abstract description 14
- 230000003287 optical effect Effects 0.000 claims description 36
- 238000000034 method Methods 0.000 claims description 17
- 230000009545 invasion Effects 0.000 claims description 4
- 230000001052 transient effect Effects 0.000 claims description 4
- 210000000162 simple eye Anatomy 0.000 claims 1
- 238000004891 communication Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 5
- 230000003068 static effect Effects 0.000 description 5
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000001737 promoting effect Effects 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 108010022579 ATP dependent 26S protease Proteins 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000007474 system interaction Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/04—Anti-collision systems
- G08G5/045—Navigation or guidance aids, e.g. determination of anti-collision manoeuvers
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/04—Anti-collision systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Alarm Systems (AREA)
- Closed-Circuit Television Systems (AREA)
- Geometry (AREA)
- Burglar Alarm Systems (AREA)
Abstract
一种防碰撞系统,包括处理器,所述处理器被配置为分别确定在第一和第二图像中入侵者的第一和第二位置,通过比较所述第一和第二位置来确定所述入侵者的角位置变化,基于所述角位置变化和所述第一和第二图像之间的时间来确定从飞行器到所述入侵者的视线角的变化率,基于从所述第一图像到所述第二图像所述入侵者的角大小的差异以及所述第一和第二图像之间的时间来确定所述入侵者的角大小的变化率,以及响应于所述视线角的变化率与所述入侵者的角大小的变化率之比小于阈值,向所述飞行器的操作者提供警报。
Description
背景技术
本文公开的发明构思通常涉及入侵者的检测和评估领域。更具体地,本文公开的发明构思的实施例涉及在不使用雷达的情况下判断入侵者是否对飞行器造成碰撞或接近未命中(near-miss)威胁。
防碰撞系统通常使用雷达系统,并被飞行器用于警告飞行器操作者存在可能造成碰撞威胁的入侵者,例如另一飞行器。如果检测到可能威胁,则防碰撞系统可以指示飞行器操作者采取将减小碰撞可能性的操作。当近碰撞(near collision)中涉及的两个或多个飞行器的每个都具有防碰撞系统,或者每个飞行器都具有对每个相应飞行器的视觉视线的飞行员时,每个飞行员可以基于由防碰撞系统提供的指示或基于他们对另一个飞行器的感知进行操作以降低碰撞的风险。如果入侵者是无人驾驶飞行器(例如无人机),或者如果飞行器和入侵者两者都是无人机,则飞行器与入侵者碰撞的风险增加。例如无人机可以比传统飞行器小得多,并且更难被其他飞行器的雷达系统检测到。一些无人机太小,或者不能产生足够的升力,而无法配备雷达系统或传统的防碰撞系统,例如那些需要雷达系统的。此外,如果入侵者是远程操作的无人机,则飞行器无论是远程控制的还是由飞行器上的人驾驶的,都可能无法与入侵者通信。如果无人机变得不合作或发生故障,并且无法再由其驾驶员控制,则无人机可能进一步对飞行器造成风险。
发明内容
在一个方面,本文公开的发明构思针对飞行器防碰撞系统。该系统包括至少一个处理器,所述处理器具有存储处理器可执行代码的非暂态处理器可读介质。所述处理器可执行代码使得至少一个处理器从光学传感器接收第一图像数据和第二图像数据,所述第一图像数据与由所述光学传感器捕获的第一图像相关联,所述第二图像数据与由所述光学传感器捕获的第二图像相关联,确定入侵者在所述第一图像数据中的第一位置和第一角大小,确定所述入侵者在所述第二图像数据中的第二位置和第二角大小,基于所述第一和第二位置的比较以及第一和第二角大小的比较来确定所述入侵者的角位置变化,基于所述角位置变化以及在第一和第二图像之间经过的时间来确定从飞行器到所述入侵者的视线角的变化率,基于所述入侵者从第一图像到第二图像的角大小的差异以及第一和第二图像之间经过的时间,确定入侵者的角大小的变化率,以及响应于所述视线角的变化率与所述入侵者的角大小的变化率之比小于阈值,向所述飞行器的操作者提供警报。
在另一方面,本文公开的发明构思针对一种方法。所述方法包括从光学传感器接收第一图像数据和第二图像数据,所述第一图像数据与由光学传感器捕获的第一图像相关联,所述第二图像数据与由光学传感器捕获的第二图像相关联,确定在所述第一图像数据中入侵者的第一位置,确定在所述第二图像数据中所述入侵者的第二位置,基于所述第一位置与所述第二位置的比较来确定所述入侵者的角位置变化,基于所述角位置变化和捕获所述第一图像数据和所述第二图像数据之间经过的时间来确定从所述飞行器到所述入侵者的视线角的变化率,基于所述入侵者从第一图像数据到第二图像数据的角大小的差异以及第一和第二图像之间经过的时间来确定所述入侵者的角大小的变化率,以及响应于所述视线角的变化率与所述入侵者的角大小的变化率之比小于阈值,向所述飞行器的操作者提供警报。
在另一方面,本文公开的发明构思针对飞行器防碰撞系统。所述系统包括光学传感器和至少一个处理器,所述处理器具有存储处理器可执行代码的非暂态处理器可读介质。所述处理器可执行代码使得至少一个处理器从光学传感器接收第一图像数据和第二图像数据。所述第一图像数据与由所述光学传感器捕获的第一图像相关联。所述第二图像数据与由所述光学传感器捕获的第二图像相关联。所述处理器可执行代码进一步使得至少一个处理器基于所述第一图像数据与所述第二图像数据的比较来确定所述入侵者的视线角的变化率和所述入侵者相对于飞行器的角大小的变化率,以及响应于所述视线角的变化率与所述入侵者的角大小的变化率之比小于阈值,向所述飞行器的操作者提供警报,所述阈值包括所确定的所述入侵者的尺寸之比。
附图说明
当参考下面的详细描述时,本文公开的发明构思的实现方式可以被更好地理解。这种描述参考所包括的附图,其不一定按比例绘制,并且其中一些特征可能被增加而为了清楚某些特征可以省略或者可以示意性地表示。附图中相同的附图标记可以表示和指代相同或相似的元件、特征或功能。在附图中:
图1是根据本文公开的发明构思的、使用防碰撞系统来检测入侵者的飞行器的示意图;
图2是图1中的防碰撞系统的示例性实施例的框图;
图3是图1中的防碰撞系统的控制器的示例性实施例的框图;
图4是根据本文公开的发明构思的、检测到的飞行器和入侵者的近碰撞的示例性实施例的示意图;以及
图5是根据本文公开的发明构思的、检测与入侵者碰撞的方法的示例性实施例的图。
具体实施方式
在详细解释本文公开的发明构思的至少一个实施例之前,应当理解,本发明构思在其应用中不限于下面的描述中阐述的或在附图中示出的部件或步骤或方法的结构和布置的细节。在下文对本发明构思的实施例的详细描述中,阐述了许多具体细节以便提供对本发明构思的更透彻的理解。然而,对于受益于本公开的本领域普通技术人员显而易见的是,可以在没有这些具体细节的情况下实践本文公开的发明构思。在其他情况下,可能不详细描述公知的特征以避免不必要地使本公开复杂化。本文公开的发明构思能够容纳其他实施例或者以各种方式实践或实施的实施例。此外,应当理解,本文中使用的措辞和术语是为了描述的目的,并且不应被认为是限制性的。
如本文所使用的,附图标记之后的字母意为引用与之前描述的具有相同附图标记(例如1,1a,1b)的元件或特征可能相似的但不一定完全相同的特征或元件的实施例。这样的简化符号仅用于方便的目的,并且不应被解释为以任何方式限制本文公开的发明构思,除非明确地表明相反。
此外,除非明确地表明相反,否则“或”是指包括性的或不是排他性的或。例如条件A或B由以下任何一个满足:A为真(或存在)且B为假(或不存在),A为假(或不存在)且B为真(或存在),以及A和B两者都为真(或存在)。
另外,使用“一”或“一个”来描述本发明构思的实施例的元件和部件。这仅仅是为了方便和给出本发明构思的一般意义而做出的,并且“一”和“一个”旨在包括一个或至少一个,并且包括单数也包括复数,除非明显意味着其它情况。
最后,如本文所使用的,对“一个实施例”或“一些实施例”的任何引用意味着结合该实施例描述的特定元件、特征、结构或特性被包括在本文公开的发明构思的至少一个实施例中。在说明书中各个地方出现的短语“在一些实施例中”不一定都指代相同的实施例,并且所公开的发明构思的实施例可以包括本文中明确描述或固有存在的一个或多个特征,或两个或更多个这种特征的任意组合或子组合,以及可能无需明确描述或固有存在于本公开中的任何其它特征。
广泛地说,本文公开的发明构思的实施例涉及利用视觉信息进行空中碰撞威胁的检测和评估。本文公开的发明概念可以用于各种类型的应用、感测系统和显示系统的多个控制系统中。虽然本公开描述了可用于航空飞行器防碰撞系统实现的系统和方法,但这种防碰撞系统可以全部或部分地使用基于地面或基于卫星的部件来实现,或者适用于任何类型的环境(例如在另一个飞行器、航天器、地面交通工具、水上交通工具,或诸如地面显示系统、空中交通控制系统、雷达系统、虚拟显示系统的非交通工具应用中)。虽然本文所公开的发明构思的某些示例和实施例描述了关于有飞行员驾驶的或无人驾驶的飞行器,但是应当理解,除飞行员之外的关于其他交通工具或/和对象的用户可以使用并受益于本文公开的发明构思。
现在参照图1,示出了根据本文公开的发明构思的、使用防碰撞系统104来检测入侵者106的飞行器102的示意图。如关于图2-3将更详细地描述的,防碰撞系统104被配置为检测入侵者106,获取入侵者106的至少两个图像(例如通过光学相机),比较图像以确定入侵者106的角位置变化,基于角位置变化和获取两个图像之间经过的时间来确定从飞行器102到入侵者106的视线角的变化率,基于所述入侵者从第一图像到第二图像的角大小110的差异以及获取两个图像之间经过的时间来确定入侵者106的角大小的变化率(如,接近速度),以及响应于所述视线角的变化率与入侵者106的角大小的变化率之比小于阈值,向飞行器102的飞行员提供对可能危险碰撞或近碰撞的警报,以便操作者可以操纵飞行器102以降低碰撞风险或自动控制飞行器102以操纵飞行器102从而减小与入侵者106碰撞的风险。飞行器102和入侵者106可以是有人驾驶或无人驾驶的飞行器。在一些实施例中,飞行器102可以是无人机(例如ScanEagle无人驾驶飞行器),以及入侵者106可以是另一飞行器,例如另一无人机或有人驾驶飞行器(例如商业客机,塞斯纳172)。
现在参考图2,示出了根据本文公开的发明构思的、图1的防碰撞系统104的示例性实施例的框图。防碰撞系统104包括控制器202、光学传感器204、碰撞警报系统206、防碰撞系统208、通信系统210和飞行器监测系统212。
控制器202被配置为控制飞行器的操作并且向防碰撞系统104的其他部件和其他系统(例如包括基于卫星系统或基于地面系统的远程系统)发送数据和从其接收数据或者促进与其的电子数据通信。例如在一个实施例中,防碰撞系统104可以从远离飞行器102的系统接收信息(例如传感器数据、图像数据、天气数据、非气象灾害数据)以促进对入侵者106的识别和检测。控制器202可以进一步与飞行器控制系统208、飞行器监测系统或其他飞行器系统交互。控制器202被配置为从多个其他系统(诸如光学传感器204和通信系统210)接收输入。控制器202的结构在图3中更详细地示出。在一些实施例中,控制器202被配置为执行关于与本文所述的防碰撞系统104相关联的任何各种部件和系统所描述的任何动作。
光学传感器204包括用于捕获或获取入侵者106的图像的一个或多个传感器。光学传感器204可以是摄像机、静态图片相机、短波红外相机、长波红外相机和夜视摄像机中的至少一种。光学传感器204可以包括仅单个相机、两个相机、或三个或更多个相机。在一个实施例中,光学传感器204是单眼相机、电光传感器和高分辨率照相机中的至少一种。光学传感器204可以检测不可见的近红外辐射,例如由许多跑道和着陆灯发射的辐射。光学传感器140还可以包括低光级图像增强图像感测能力。在一个示例性实施例中,光学传感器140安装在飞行器(例如飞行器102)上以检测前瞻性外部场景地形,例如地点或区域的自然或人造特征,以示出它们与飞行器102和入侵者106的相对位置和海拔。因此,光学传感器140被配置为在相对于飞行器102的任何方向上捕获表示包括入侵者106的实际场景的图像数据。在一个实施例中,光学传感器104包括至少六个相机。
碰撞警报系统206被配置为向飞行器的操作者或观测者提供警报。例如碰撞警报系统206可以被配置为向飞行器102的飞行员、飞行器102的机组人员和空中交通指挥员提供视觉的、音频的或触觉的警报。碰撞警报系统206被配置为响应于入侵者106的投影位置在距飞行器102的投影位置的阈值距离内而提供警报。阈值距离可以根据入侵者106的翼展或最大线性尺寸108之比表示。例如在一些实施例中,阈值距离是入侵者106的十个翼展。在一些实施例中,碰撞警报系统206可与飞行器飞行显示器、电子飞行包、以及由飞行器102的飞行员、飞行器102的飞行机组人员和空中交通指挥员携带的个人装置相集成或协同工作。在一些实施例中,警报包括飞行器102和入侵者106碰撞的预计时间和对飞行器102的飞行员所建议的操纵以避免或减小与入侵者106碰撞的可能性。例如在一个实施例中,警报可以指示飞行器102的飞行员增加或降低高度或使飞行器102驶向某方向。
飞行器控制系统208被配置为自动控制飞行器102以避免与入侵者106碰撞。飞行器控制系统208可以是自动驾驶特征,其当飞行器102在自动驾驶飞行时控制飞行器102或者可以是当飞行器102手动地飞行时可以由飞行员控制飞行器102的特征。例如飞行器控制系统208被配置为控制飞行器102的部件进行操纵,以避免或减少与入侵者106碰撞的可能性,诸如使飞行器102增加或降低高度或使飞行器102驶向某方向。
通信系统210促进控制器202与外部系统(例如卫星系统,其他飞行器,地面站,或其它空中、空间或地面系统)之间的通信。例如通信系统210可以向外部的地面天气供应系统和地面空中交通控制系统发送数据和从其接收数据。通信系统210被配置为使用任何类型的通信协议或网络(例如经由移动网络、经由一个或多个双向或单向通信信道)与外部系统通信,并且可以包括用于促进通信的任何类型的有线或无线接口。应当理解,控制器202被配置为翻译和处理从飞行器102内部或外部的任何类型的系统接收的任何类型的数据。
飞行器监测系统212包括GPS、全球导航卫星系统(GNSS)、高度航向和参考系统(AHRS)以及惯性参考系统(IRS)中的至少一个。飞行器监测系统212被配置为获取表示飞行器102的至少一个飞行特性的飞行数据。飞行特性可以包括例如对地速度、垂直速度、俯仰角、高度、路线和航向。飞行器监测系统212被配置为将飞行数据通信到控制器202用于处理和分析。
现在参考图3,示出了根据本文公开的发明构思的、图1的防碰撞系统104的控制器202的示例性实施例的框图。控制器202包括处理器220、存储器222和通信接口224。
处理器220可以被实现为专用处理器、专用集成电路(ASIC)、一个或多个现场可编程门阵列(FPGA)、一组处理组件或其他合适的电子处理组件。存储器222是用于存储用于完成和促进本公开中描述的各种用户或客户端进程、层和模块的数据和计算机代码的一个或多个设备(例如RAM、ROM、闪存、硬盘存储)。存储器222可以是或可以包括易失性存储器或非易失性存储器,并且可以包括数据库组件、目标代码组件、脚本组件或用于支持本文公开的发明构思的各种活动和信息结构的任何其他类型的信息结构。存储器222可通信地连接到处理器220,并且包括用于执行本文描述的一个或多个进程的计算机代码或指令模块。控制器202进一步包括通信接口224,其被配置为促进控制器202与防碰撞系统104的其他部件和系统之间的通信。
存储器222包括使处理器220执行本文所描述的系统和方法的各种模块。存储器222包括传感器控制模块230、入侵者识别模块232、飞行轨迹模块234、显示/警报模块236和飞行器控制模块238。存储器222的各种模块的结构和功能将在下文参照图1和图3更详细地描述。
传感器控制模块230被配置为使处理器220控制防碰撞系统104的光学传感器204以捕获与第一图像数据相关联的入侵者106的第一图像。第一图像数据与至少一个图像特性相关联,诸如入侵者106的第一最大线性尺寸108、入侵者106的质心402的第一角坐标以及入侵者106的第一角大小110。传感器控制模块230进一步被配置为使处理器220控制光学传感器204以捕获与第二图像数据相关联的入侵者106的第二图像。第二图像数据与至少一个图像特性相关联,诸如入侵者106的第二最大线性尺寸108、入侵者106的质心402的第二角坐标和入侵者106的第二角大小110。光学传感器204进一步被配置为将第一图像数据和第二图像数据通信到控制器202,在其中数据由处理器220处理。
入侵者识别模块232被配置为使处理器220确定第一图像数据中的入侵者106的第一位置和第二图像数据中的入侵者106的第二位置,其可以由每个图像中入侵者106的像素数目和每个图像中入侵者106的像素位置指示。在一些实施例中,第一位置包括在第一时间入侵者106的第一地点和第一方向,并且第二位置包括在第一时间之后的第二时间入侵者106的第二地点和第二方向。因此,入侵者106的第一位置和第二位置以及拍摄第一图像和第二图像之间经过的时间都指示了入侵者106的移动速度和飞行路线。例如,处理器220可以被配置为确定入侵者106的质心402的第一角坐标和第一图像数据中入侵者106的第一角大小110,确定入侵者106的质心402的第二角坐标以及第二图像数据中入侵者106的第二角大小110,并且基于第一和第二角坐标与第一和第二角大小的比较来确定入侵者106的角位置变化。处理器220进一步被配置为基于角位置变化以及第一和第二图像之间经过的时间来确定从飞行器102到入侵者106的视线角的变化率,基于从第一图像到第二图像入侵者的角大小110的差异以及第一和第二图像之间经过的时间来确定入侵者106的角大小(即,接近速度)的变化率,以及响应于视线角的变化率与入侵者106的角大小的变化率之比小于阈值而提供警报。在一些实施例中,处理器220可以对第一和第二图像数据应用时域滤波,以确定入侵者106的接近速度和视线角的变化率。应当理解,在一些实施例中,多于两个图像被用于确定从飞行器102到入侵者106的视线角的变化率和入侵者106的接近速度。
在一些实施例中,入侵者识别模块232使处理器220确定入侵者106的角大小110。例如,处理器220可以基于入侵者106的最大线性尺寸108与飞行器102和入侵者106之间的范围112来计算角大小110。例如,角大小110可以直接由第一图像数据确定。在一些实施例中,入侵者106的角大小110被确定为等于入侵者106的最大线性尺寸108与飞行器102和入侵者106之间的范围112之比。应当理解,处理器220可以使用任何数量的图像来实行本文公开的发明构思,并且在许多情况下,处理器将分析两个以上的图像来确定入侵者106是否对飞行器102造成碰撞或接近未命中威胁。
在一些实施例中,第一位置和第二位置的比较指示入侵者106随时间从第一位置到第二位置的位置变化。在一些实施例中,第一位置和第二位置的比较指示入侵者106的飞行路径的特性,诸如入侵者106的路线或入侵者106的角大小110,或者入侵者106的视线角(即,接近速度)的变化率。例如,入侵者106的路线可以基于入侵者106的第一地点和第一方向,以及基于入侵者106的第二地点和第二方向。在一些实施例中,第一位置和第二位置的比较指示入侵者106的移动速率。在一些实施例中,第一位置和第二位置的比较包括比较第一和第二图像数据的特性。例如,所述特性可以是入侵者占据的图像的多个像素、入侵者占据的像素的分布和入侵者占据的图像的一部分中的至少一个。可以通过分析捕获的图像中的每个像素的强度来识别入侵者106以及入侵者106占据的像素。例如,处理器220可以被配置为将每个像素的强度与图像中的其他像素(例如附近像素,图像区域中的其他像素,以及图像的每个像素的平均像素强度)进行比较。应当理解,处理器220可以采用图像识别算法来识别图像数据的哪些像素对应入侵者106。
飞行轨迹模块234被配置为使处理器220基于第一位置和第二位置的比较来确定入侵者106的大小和入侵者106的投影位置。在一些实施例中,入侵者106的大小不是入侵者106的实际大小,而是基于相对于飞行器102的投影速度的相对大小。处理器220被配置为基于入侵者106的最大线性尺寸来确定入侵者的大小。处理器220被配置为基于入侵者106的图像的质心402的变化率来确定入侵者106的移动速率。例如,可以基于当与第一图像中的入侵者106的像素大小相比时,在第二图像中入侵者106的像素大小显现为多大来确定入侵者106的质心402的变化率。例如,处理器220可以被配置为确定在第一图像数据中入侵者106的质心402的第一角坐标和入侵者106的第一角大小110,确定在第二图像数据中入侵者106的质心402的第二角坐标和入侵者106的第二角大小110,并且基于第一和第二角坐标与第一和第二角大小的比较来确定入侵者106的角位置变化。飞行轨迹模块234进一步被配置为基于角位置变化与第一和第二图像之间经过的时间来确定从飞行器102到入侵者106的视线角的变化率,基于入侵者从第一图像到第二图像的角大小110的差异以及第一和第二图像之间经过的时间来确定入侵者106的角大小(即,接近速度)的变化率,以及响应于视线角的变化率与入侵者106的角大小的变化率之比小于阈值而提供警报。
飞行轨迹模块234进一步使处理器220通过分析第一和第二图像(例如比较第一和第二图像之间的差异)来确定入侵者106是否在与飞行器102的碰撞路线上。例如,在一个实施例中,如果飞行器102和入侵者106处于碰撞路线上,则由飞行器102的光学传感器204捕获的图像中,从入侵者106的第一图像到第二图像入侵者的图像的中心将是静止的(或接近静止的),并且第二图像中入侵者106的大小将大于第一图像中入侵者106的大小,表明入侵者106正在靠近飞行器102。在一些实施例中,入侵者106的大小基于在由光学传感器204捕获的图像中入侵者106占据的像素的数量。
飞行轨迹模块234被配置为使处理器220确定第一图像中的入侵者106的像素的数量,确定第二图像中的入侵者106的像素的数量,将来自两个图像的像素的数量进行比较,以确定从第一图像到第二图像入侵者106的像素数量的变化,基于任一图像中的入侵者的像素数量确定入侵者106的尺寸,以及基于从第一图像到第二图像的像素数量的变化确定入侵者106的角速度。例如,处理器220被配置为使用相机标定算法将图像数据的像素测量转换为角度测量。处理器220进一步被配置为基于入侵者106的尺寸和入侵者106的角速度来确定入侵者106将在飞行器102内经过的入侵者106的尺寸的数量。
在一些实施例中,飞行轨迹模块234使处理器220确定飞行器102和入侵者106的碰撞时间。碰撞时间可基于入侵者106的图像的质心402的变化率或入侵者106的角大小的变化率。例如,飞行轨迹模块234使处理器220将来自第一图像的入侵者106的角大小与第二图像中的入侵者106的角大小进行比较。处理器220响应于入侵者106的角大小的比较超过阈值大小的变化,确定飞行器102和入侵者106处于碰撞路线上。例如,处理器220可以响应于入侵者106在第二图像中比在第一图像中多占据10%的像素,其中在第一图像之后一秒拍摄第二图像,可以确定碰撞时间是六秒。在一些实施例中,处理器220使用子像素平滑算法、快速采样和时域滤波来确定入侵者106相对于飞行器102的特性。在一些实施例中,飞行轨迹模块234使处理器220根据像素确定入侵者106的大小和移动。例如,处理器220被配置为基于入侵者106的第一位置和第二位置之间的差异,以及当与第一图像中入侵者106占据的像素的数量比较时,入侵者106在第二图像中占据的像素的数量的差异,来确定入侵者106在相对于飞行器102的方向上每秒移动的像素的数量。
在另一个示例中,当飞行器102和入侵者106处于具有每秒100米接近速度的正面碰撞路线时,避免碰撞所需的最短时间大约是十二秒,此时飞行器102和入侵者106之间的距离是1200米。飞行器102可以配备有六个相机,每个具有60度乘60度的视场,覆盖飞行器102周围的360度方位,并且具有在飞行器102机翼平面上方和下方的+/-30度视角,其中相机的线性分辨率为5,000像素(例如25百万像素的相机)。如果入侵者106具有11米的翼展,则入侵者106的翼展的角大小在-1100米处大致为10mrad,或者在由摄像系统捕获的图像中大约50个像素。在上述示例中,处理器220被配置为基于入侵者的接近速度大约为每秒5个像素,确定飞行器102和入侵者106将在大约10秒内发生碰撞。在一些实施例中,处理器220被配置为在实际碰撞时间的10%精度内确定碰撞时间。
显示/警报模块236被配置为使处理器220控制碰撞警报系统206以向飞行器102的操作者、飞行器102的机组人员以及空中交通指挥员提供警报。显示/警报模块236被配置为响应于入侵者106的投影位置在距飞行器102的投影位置的阈值距离内而提供警报。例如,如果阈值距离以入侵者106的翼展或最大线性尺寸108的比表达,则显示/警报模块236响应于阈值距离小于入侵者106的十个翼展而提供警报。在一些实施例中,显示/警报模块236被配置为组合、分离和修改从光学传感器204接收的图像,并将经编辑的图像提供给飞行器102上或飞行器102外部的显示系统。例如,显示/警报模块236可以使得入侵者106的图像显示在位于飞行器102的驾驶舱中的显示屏上以及位于地面站(例如空中交通管制中心)的显示屏上。
飞行器控制系统208被配置为自动控制飞行器102以避免与入侵者106相碰撞。飞行器控制系统208可以是自动驾驶特征,其当飞行器102在自动驾驶飞行时控制飞行器102,或者是当飞行器102手动地飞行时可以由飞行员控制飞行器102的特征。例如,飞行器控制系统208被配置为控制飞行器102的部件进行操纵,以避免或减小与入侵者106碰撞的可能性,诸如使飞行器102增加或降低高度或或使飞行器102驶向某方向。
飞行器控制模块238被配置为使处理器220控制防碰撞系统的飞行器控制系统208以自动控制飞行器102,从而避免与入侵者106碰撞。在一些实施例中,飞行器控制模块238被配置为基于飞行器102和入侵者106的特性或飞行器102相对于入侵者106的特性来控制飞行器102。例如,在一个实施例中,飞行器控制模块238被配置为基于飞行器102和入侵者106处于碰撞路线上、入侵者106的移动速率以及入侵者106相对于飞行器102的路线来控制飞行器102。
图4是根据本文公开的发明构思的、检测到的飞行器102和入侵者106近碰撞的示例性实施例的示意图。基于由处理器220从光学传感器204接收的入侵者106的图像数据,处理器220被配置为确定入侵者106的质心402,指示入侵者106的相对速度404的入侵者106的特征(例如角速率),以及指示入侵者106相对于飞行器102的质心408的接近速度406的入侵者106的特性(例如角速率)。例如,处理器220可以基于相对速度404的垂直分量与入侵者106和飞行器102之间的距离的比来确定入侵者106的相对速度404。处理器220可以被配置为通过将入侵者106的接近速度除以入侵者106的角大小来确定入侵者106的接近速度406与入侵者106和飞行器102之间的距离的比。处理器220进一步被配置为基于入侵者的质心402、飞行器的质心408、入侵者106的相对速度404以及入侵者的接近速度406来确定飞行器102和入侵者106的最接近点410。在一些实施例中,入侵者106的相对速度404是垂直于飞行器102的视线的相对速度分量。在一些实施例中,最接近点410是入侵者106将进入飞行器102的最小距离412内的点。在一些实施例中,处理器220基于入侵者的投影位置进入飞行器102的最小距离412内来确定将发生近碰撞或实际碰撞。例如,最小距离可以是默认距离或基于飞行器102的特性、入侵者106的特性(例如翼展、翼展的倍数、入侵者106的速度)以及天气特性(例如风速、能见度度量、降水率、风切变量)的距离。例如,在一个实施例中,处理器220基于入侵者106将在最接近点410处进入入侵者106的10个翼展范围内的投影来确定将发生近碰撞。在另一示例中,处理器220基于入侵者106将进入飞行器102的最小距离412内的投影,基于入侵者106的横向角速度与像素每秒接近速度的比小于10(例如,当光学传感器204是每秒捕获10个图像的10Hz相机,入侵者106在第二图像中占据10个额外的像素时),确定将发生近碰撞。在另一示例中,处理器220被配置为仅基于从第一图像到第二图像的像素计数的变化,从第一图像到第二图像像素位置的变化以及拍摄第一图像和第二图像之间的时间,来确定入侵者106将经过飞行器102的多少个入侵者106的翼展范围内。
在一些实施例中,处理器220被配置为利用至少一种算法来确定入侵者106是否对飞行器102构成碰撞威胁。例如,返回参考图1,在从传感器204接收到图像数据时,处理器220可以被配置为使用以下示例性公式来确定由传感器204观察到的入侵者106的角大小110:
其中是入侵者的角大小,b是入侵者的最大线性尺寸,以及r是入侵者106和飞行器102之间的距离。假设如果入侵者106和飞行器102处于碰撞路线上,则入侵者106在由传感器204获取的连续图像中将是静止的或基本静止的。接下来,处理器220可以被配置为使用以下示例性公式确定入侵者106的线性尺寸的变化率:
其中是入侵者106和飞行器102之间的距离的变化率。接下来,处理器220可以被配置为通过例如组合公式1和公式2来确定入侵者106和飞行器102的碰撞时间,这得到以下示例性公式:
其中t等于入侵者106和飞行器102的碰撞时间。换句话说,碰撞时间等于距离与距离变化率的负比值。例如,在算法术语中,碰撞路线上的距离变化率是负的,并且随着距离变小,碰撞时间也变小。碰撞时间也可以被确定为等于入侵者106的角大小与接近速度的比。然而,应当理解,防碰撞系统104不需要确定碰撞时间来检测近碰撞或实际碰撞。处理器220可以被配置为使用以下示例性方程获得视线角的变化率、入侵者106相对于飞行器102的垂直于连接入侵者106与飞行器102的视线的相对速度404的分量以及入侵者106和飞行器102之间的距离:
其中VT是入侵者106相对于飞行器102的垂直于连接入侵者106和飞行器102的视线的相对速度404的分量。处理器220可以进一步被配置为使用以下示例性方程获得在可能最接近点410处的入侵者106和飞行器102之间的最小距离、入侵者106和飞行器102之间的距离以及入侵者106相对于飞行器102的相对速度的角度414之间的关系:
d≈rβ (方程5)
其中r是入侵者106和飞行器102之间的距离,并且其中β是入侵者106相对于飞行器102的相对速度的角度414。接下来,使用至少导出的方程(例如,方程4和5),处理器220可以被配置为使用以下示例性方程确定飞行器102与入侵者106的翼展之间的最小距离的比:
其中Vr是入侵者106和飞行器102之间的接近速度406。在一些实施例中,处理器220被配置为假设Vr小于VT(即,入侵者106以比入侵者106在相对于飞行器102的相对方向上行进更快的速度接近飞行器102),这对于近碰撞情况是合理的。
在一些实施例中,如果预计入侵者106在飞行器102的阈值距离内通过,则确定近碰撞。阈值距离可以以任何数量的方式定义,例如,入侵者106的翼展比。例如,阈值距离可以基于入侵者106的最大线性尺寸108相对于在可能最接近点410处的入侵者106和飞行器102之间的最小距离412的比来确定。例如,处理器220可以被配置为使用以下示例性方程确定近碰撞的阈值:
其中数字10表示翼展数目或入侵者的最大线性尺寸108。在一些实施例中,处理器220被配置为如果入侵者106的角速度相对于入侵者106的线性尺寸的变化率的比小于入侵者106的10个翼展,则确定将发生近碰撞。换句话说,如果横向角速度与接近速度的比小于10,则检测到近碰撞。应当理解,方程7可以使用任何数量的翼展,且该数量可以变化(例如,小于5、大于5、大约10、20翼展或入侵者106的最大线性尺寸108)。例如,由于入侵者106的实际大小可能是未知的,所以处理器220可以基于入侵者106在飞行器102内经过的入侵者106的多少个翼展来确定入侵者106对飞行器102构成多大威胁。例如,零翼展表明入侵者106和飞行器102实际上将碰撞,并且小于十个翼展的任何数量的翼展表明对飞行器102将是危险的接近未命中碰撞。
现在参考图5,根据本文公开的发明构思的方法的示例性实施例可以包括以下步骤。
步骤(502)可以包括从光学传感器接收第一图像数据和第二图像数据。处理器220被配置为从光学传感器204接收图像数据。例如,第一图像数据与由光学传感器204捕获的第一图像相关联,并且第二图像数据与由光学传感器204捕获的第二图像相关联。
步骤(504)可以包括确定在第一图像数据中入侵者106的第一位置。处理器220被配置为基于入侵者106在第一图像数据中占据的像素来确定入侵者106的第一位置。
步骤(506)可以包括确定在第二图像数据中入侵者106的第二位置。处理器220被配置为基于入侵者106在第二图像数据中占据的像素来确定入侵者106的第二位置。
步骤(508)可以包括确定入侵者106的角位置变化。处理器220可以被配置为基于图像数据中入侵者106的第一位置与图像数据中入侵者106的第二位置的比较来确定入侵者106的角位置变化。入侵者106的第一位置对应于第一时间的图像数据中的入侵者106的第一地点和第一方向。入侵者106的第二位置对应于在第一时间之后的第二时间的图像数据中的入侵者106的第二地点和第二方向。第一位置和第二位置的比较可以表明入侵者106的飞行特性,诸如路线、角速度和对飞行器102的接近速度。
步骤(510)可以包括确定从飞行器102到入侵者106的视线角的变化率。处理器220可以被配置为基于角位置变化与第一和第二图像之间经过的时间来确定从飞行器102到入侵者106的视线角的变化率。处理器220可以被配置为使用通过比较第一和第二图像中入侵者106的第一和第二位置分别获得的入侵者106的角位置变化与捕获第一图像和第二图像之间经过的时间量来确定视线角的变化率。
步骤(512)可以包括确定入侵者106的角大小的变化率。处理器220可以被配置为基于从第一图像到第二图像入侵者106的角大小110的差异以及第一和第二图像之间经过的时间来确定入侵者106的角大小(即,接近速度)的变化率。
步骤(514)可以包括响应于视线角的变化率和入侵者106的角大小的变化率之比小于阈值而提供警报。处理器220可以被配置为向飞行器102的操作者提供警报。处理器220可以进一步被配置为基于环境因素(例如,天气状况)提供警报。在一些实施例中,视线角的变化率与入侵者106的角大小的变化率之比小于阈值表明入侵者106在飞行器102的预定距离内。预定距离可以用比值(例如在入侵者的10个翼展之内、在入侵者的15个翼展之内)表达。在一些实施例中,警报被提供给飞行器自动驾驶系统,并且使飞行器自动驾驶系统令飞行器102改变路线或速度或从入侵者106的路径转向。
从上文将理解,根据本文公开的发明构思的实施例的、利用视觉信息进行空中碰撞威胁的检测与评估可以使得由于太小而不能携带适当的雷达的飞行器能够使用相机和图像处理算法来检测入侵者、检测近碰撞和实际碰撞并预估碰撞时间,以及在不知道飞行器和入侵者之间的实际距离的情况下提供防碰撞解决方案。
应当理解,根据本文公开的发明构思的方法的实施例可以包括本文所描述的一个或多个步骤。此外,这些步骤可以以任何期望的顺序实行,并且两个或更多个步骤可以彼此同时实行。本文公开的两个或更多个步骤可以组合为单个步骤,并且在一些实施例中,一个或多个步骤可以作为两个或更多个子步骤实行。此外,其它步骤或子步骤可以被执行以作为本文公开的一个或多个步骤的补充或替代。
从上文的描述中,显然本文所公开的发明构思很好地适于实现本文所述的目的以及得到本文所提及的优势,以及本文公开的发明构思中所固有的优势。虽然为了本公开的目的描述了本文公开的发明构思的当前优选实施例,应当理解,可以做出许多改变,这些改变对于本领域技术人员来说将是显而易见的,并且这些改变都在这里公开和要求保护的发明构思的广泛的范围和覆盖内完成。
Claims (20)
1.一种飞行器防碰撞系统,包括:
至少一个处理器,所述处理器具有存储处理器可执行代码的非暂态处理器可读介质,所述处理器可执行代码用于使得所述至少一个处理器:
从光学传感器接收第一图像数据和第二图像数据,所述第一图像数据与由所述光学传感器捕获的第一图像相关联,所述第二图像数据与由所述光学传感器捕获的第二图像相关联;
确定所述第一图像数据中入侵者的第一位置和第一角大小;
确定所述第二图像数据中所述入侵者的第二位置和第二角大小;
基于所述第一和第二位置的比较以及第一和第二角大小的比较来确定所述入侵者的角位置变化;
基于所述角位置变化与所述第一和第二图像之间经过的时间来确定从飞行器到所述入侵者的视线角的变化率;
基于从所述第一图像到所述第二图像所述入侵者的角大小的差异以及所述第一和第二图像之间经过的时间来确定所述入侵者的角大小的变化率;以及
响应于所述视线角的变化率与所述入侵者的角大小的变化率之比小于阈值,向所述飞行器的操作者提供警报。
2.如权利要求1所述的飞行器防碰撞系统,其中提供所述警报是基于直到所述视线角的变化率与所述入侵者的角大小的变化率之比将小于所述阈值为止的时间量。
3.如权利要求1或2所述的飞行器防碰撞系统,其中所述阈值基于所述入侵者的翼展。
4.如前述权利要求中任一项所述的飞行器防碰撞系统,其中所述第一位置包括在第一时间所述入侵者的第一地点和第一方向,并且其中所述第二位置包括在所述第一时间之后的第二时间所述入侵者的第二地点和第二方向。
5.如前述权利要求中任一项所述的飞行器防碰撞系统,其中所述第一位置和所述第二位置的比较指示所述入侵者的移动速率和所述入侵者的最大线性尺寸。
6.如前述权利要求中任一项所述的飞行器防碰撞系统,其中所述第一位置指示在所述第一图像中所述入侵者的质心的第一角坐标,并且所述第二位置指示在所述第二图像中所述入侵者的质心的第二角坐标。
7.如前述权利要求中任一项所述的飞行器防碰撞系统,其中所述第一位置和所述第二位置的比较包括比较所述第一和第二图像数据的特性,所述特性是所述入侵者占据的像素数量、所述入侵者占据的像素的分布以及所述入侵者占据的图像的一部分中的至少一个。
8.如前述权利要求中任一项所述的飞行器防碰撞系统,其中所述光学传感器为单眼相机。
9.一种方法,包括:
从光学传感器接收第一图像数据和第二图像数据,所述第一图像数据与由所述光学传感器捕获的第一图像相关联,所述第二图像数据与由所述光学传感器捕获的第二图像相关联;
确定所述第一图像数据中入侵者的第一位置;
确定所述第二图像数据中所述入侵者的第二位置;
基于所述第一位置与所述第二位置的比较来确定所述入侵者的角位置变化;
基于所述角位置变化与捕获所述第一图像数据和所述第二图像数据之间经过的时间来确定从所述飞行器到所述入侵者的视线角的变化率;
基于从所述第一图像数据到所述第二图像数据所述入侵者的角大小的差异以及所述第一和第二图像之间经过的时间来确定所述入侵者的角大小的变化率;
响应于所述视线角的变化率与所述入侵者的角大小的变化率之比小于阈值,向所述飞行器的操作者提供警报。
10.如权利要求9所述的方法,其中所述第一位置和所述第二位置的比较指示所述入侵者的位置随着时间从所述第一位置到所述第二位置的变化。
11.如权利要求9或10所述的方法,其中所述第一位置包括在第一时间所述入侵者的第一像素大小,并且其中所述第二位置包括在所述第一时间之后的第二时间所述入侵者的第二像素大小。
12.如权利要求11所述的方法,其中所述第一像素大小和所述第二像素大小的比较指示所述入侵者的最大线性尺寸。
13.如权利要求11或12所述的方法,其中所述第一像素大小和所述第二像素大小的比较指示所述入侵者的移动速率。
14.如权利要求9至13中的任一项所述的方法,其中所述警报指示所述飞行器为避免接近未命中而采取的操作。
15.一种飞行器防碰撞系统,包括:
光学传感器;以及
至少一个处理器,所述处理器具有存储处理器可执行代码的非暂态处理器可读介质,所述处理器可执行代码用于使得所述至少一个处理器:
从所述光学传感器接收第一图像数据和第二图像数据,所述第一图像数据与由所述光学传感器捕获的第一图像相关联,所述第二图像数据与由所述光学传感器捕获的第二图像相关联;
基于所述第一图像数据和所述第二图像数据的比较,确定所述入侵者的视线角的变化率和所述入侵者相对于飞行器的角大小的变化率;
响应于所述视线角的变化率与所述入侵者的角大小的变化率之比小于阈值,向所述飞行器的操作者提供警报,所述阈值包括所确定的入侵者大小的比值。
16.如权利要求15所述的飞行器防碰撞系统,其中所述阈值基于所述入侵者的若干尺寸。
17.如权利要求16所述的飞行器防碰撞系统,其中所述入侵者的尺寸基于所述第一图像和所述第二图像中的至少一个中的所述入侵者的像素的数量。
18.如权利要求17所述的飞行器防碰撞系统,其中在所述第一图像中所述入侵者的像素的位置与在所述第二图像中所述入侵者的像素的位置相同或基本相似,所述处理器可执行代码进一步使得所述至少一个处理器确定所述入侵者将引起与所述飞行器的碰撞或近碰撞中的至少一个。
19.如权利要求15至18中的任一项所述的飞行器防碰撞系统,其中从所述飞行器到所述入侵者的视线角的变化率基于所述入侵者从所述第一图像到所述第二图像的角位置变化。
20.如权利要求15至19中的任一项所述的飞行器防碰撞系统,其中所述阈值是所述飞行器和所述入侵者之间的最小允许距离与所述入侵者的尺寸之比。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/277,998 | 2016-09-27 | ||
US15/277,998 US10332409B2 (en) | 2016-09-27 | 2016-09-27 | Midair collision threat detection and assessment using visual information |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107871405A true CN107871405A (zh) | 2018-04-03 |
CN107871405B CN107871405B (zh) | 2021-08-06 |
Family
ID=61686551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710073371.6A Expired - Fee Related CN107871405B (zh) | 2016-09-27 | 2017-02-10 | 利用视觉信息进行空中碰撞威胁的检测与评估 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10332409B2 (zh) |
CN (1) | CN107871405B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111339808A (zh) * | 2018-12-19 | 2020-06-26 | 北京嘀嘀无限科技发展有限公司 | 车辆碰撞概率预测方法、装置、电子设备及存储介质 |
CN111971533A (zh) * | 2018-04-24 | 2020-11-20 | 三菱电机株式会社 | 攻击检测装置、攻击检测程序和攻击检测方法 |
CN112185181A (zh) * | 2019-07-01 | 2021-01-05 | 霍尼韦尔国际公司 | 用于地面操作的碰撞感知系统 |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10068506B2 (en) * | 2014-08-01 | 2018-09-04 | Philips Lighting Holding B.V. | System, device for creating an aerial image |
US11659322B1 (en) | 2017-06-26 | 2023-05-23 | Wing Aviation Llc | Audio based aircraft detection |
US10983589B2 (en) * | 2018-01-22 | 2021-04-20 | MassVR, LLC | Systems and methods for collision avoidance in virtual environments |
US10867519B2 (en) * | 2018-05-31 | 2020-12-15 | The Boeing Company | Aircraft flight information system and method |
US11417227B2 (en) | 2018-05-31 | 2022-08-16 | The Boeing Company | Aircraft detect and avoid gauge |
IL260822B (en) * | 2018-07-26 | 2019-12-31 | Ophir Yoav | Method and system for a dynamic collision awareness envelope for a vehicle |
US10937328B2 (en) | 2018-10-04 | 2021-03-02 | The Boeing Company | Aircraft flight information system and method |
US20210255616A1 (en) * | 2020-02-13 | 2021-08-19 | Honeywell International Inc. | Systems and methods for automated cross-vehicle navigation using sensor data fusion |
EP4288950A1 (en) | 2021-02-08 | 2023-12-13 | Sightful Computers Ltd | User interactions in extended reality |
JP2024506630A (ja) * | 2021-02-08 | 2024-02-14 | サイトフル コンピューターズ リミテッド | 生産性のためのエクステンデッド・リアリティ |
JP2024507749A (ja) | 2021-02-08 | 2024-02-21 | サイトフル コンピューターズ リミテッド | エクステンデッドリアリティにおけるコンテンツ共有 |
WO2023009580A2 (en) | 2021-07-28 | 2023-02-02 | Multinarity Ltd | Using an extended reality appliance for productivity |
US11948263B1 (en) | 2023-03-14 | 2024-04-02 | Sightful Computers Ltd | Recording the complete physical and extended reality environments of a user |
US20230334795A1 (en) | 2022-01-25 | 2023-10-19 | Multinarity Ltd | Dual mode presentation of user interface elements |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003036585A1 (fr) * | 2001-10-24 | 2003-05-01 | Electronic Navigation Research Institute | Procede d'affichage de la position d'un aeronef sur un dispositif d'affichage utilise pour le controle de la circulation aerienne |
US20050109872A1 (en) * | 2003-08-07 | 2005-05-26 | Holger Voos | Method and apparatus for detecting a flight obstacle |
CN102509475A (zh) * | 2011-10-26 | 2012-06-20 | 南京航空航天大学 | 基于4d航迹运行的空中交通管制系统及方法 |
CN102682626A (zh) * | 2011-02-22 | 2012-09-19 | 通用电气公司 | 用于管理空中交通的方法和系统 |
EP2159779B1 (en) * | 2008-08-27 | 2013-01-16 | Saab Ab | Using image sensor and tracking filter time-to-go to avoid mid-air collisions |
CN102981154A (zh) * | 2012-12-05 | 2013-03-20 | 西安电子工程研究所 | 一种高压线链点及整链的航迹处理方法 |
CN103699713A (zh) * | 2013-11-29 | 2014-04-02 | 中国航空无线电电子研究所 | 一种编队飞机冲突检测方法及其应用 |
CN104485025A (zh) * | 2015-01-07 | 2015-04-01 | 江苏理工学院 | 空中交通管制系统的飞行冲突预警方法 |
CN104504938A (zh) * | 2015-01-07 | 2015-04-08 | 江苏理工学院 | 空中交通管制系统的管制方法 |
CN105931497A (zh) * | 2016-05-20 | 2016-09-07 | 中国民用航空总局第二研究所 | 通航空中冲突检测方法、装置和通用航空器 |
US20160275802A1 (en) * | 2015-03-20 | 2016-09-22 | Northrop Grumman Systems Corporation | Unmanned aircraft detection and targeting of other aircraft for collision avoidance |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB201213604D0 (en) * | 2012-07-31 | 2012-09-12 | Bae Systems Plc | Detectig moving vehicles |
US8988524B2 (en) * | 2013-03-11 | 2015-03-24 | The United States Of America As Represented By The Secretary Of The Army | Apparatus and method for estimating and using a predicted vehicle speed in an indirect vision driving task |
-
2016
- 2016-09-27 US US15/277,998 patent/US10332409B2/en not_active Expired - Fee Related
-
2017
- 2017-02-10 CN CN201710073371.6A patent/CN107871405B/zh not_active Expired - Fee Related
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003036585A1 (fr) * | 2001-10-24 | 2003-05-01 | Electronic Navigation Research Institute | Procede d'affichage de la position d'un aeronef sur un dispositif d'affichage utilise pour le controle de la circulation aerienne |
US20050109872A1 (en) * | 2003-08-07 | 2005-05-26 | Holger Voos | Method and apparatus for detecting a flight obstacle |
EP2159779B1 (en) * | 2008-08-27 | 2013-01-16 | Saab Ab | Using image sensor and tracking filter time-to-go to avoid mid-air collisions |
CN102682626A (zh) * | 2011-02-22 | 2012-09-19 | 通用电气公司 | 用于管理空中交通的方法和系统 |
CN102509475A (zh) * | 2011-10-26 | 2012-06-20 | 南京航空航天大学 | 基于4d航迹运行的空中交通管制系统及方法 |
CN102981154A (zh) * | 2012-12-05 | 2013-03-20 | 西安电子工程研究所 | 一种高压线链点及整链的航迹处理方法 |
CN103699713A (zh) * | 2013-11-29 | 2014-04-02 | 中国航空无线电电子研究所 | 一种编队飞机冲突检测方法及其应用 |
CN104485025A (zh) * | 2015-01-07 | 2015-04-01 | 江苏理工学院 | 空中交通管制系统的飞行冲突预警方法 |
CN104504938A (zh) * | 2015-01-07 | 2015-04-08 | 江苏理工学院 | 空中交通管制系统的管制方法 |
US20160275802A1 (en) * | 2015-03-20 | 2016-09-22 | Northrop Grumman Systems Corporation | Unmanned aircraft detection and targeting of other aircraft for collision avoidance |
CN105931497A (zh) * | 2016-05-20 | 2016-09-07 | 中国民用航空总局第二研究所 | 通航空中冲突检测方法、装置和通用航空器 |
Non-Patent Citations (1)
Title |
---|
房翡翡: "基于概率的编队飞行防撞算法的研究", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111971533A (zh) * | 2018-04-24 | 2020-11-20 | 三菱电机株式会社 | 攻击检测装置、攻击检测程序和攻击检测方法 |
CN111971533B (zh) * | 2018-04-24 | 2022-05-31 | 三菱电机株式会社 | 攻击检测装置、计算机能读取的记录介质和攻击检测方法 |
CN111339808A (zh) * | 2018-12-19 | 2020-06-26 | 北京嘀嘀无限科技发展有限公司 | 车辆碰撞概率预测方法、装置、电子设备及存储介质 |
CN111339808B (zh) * | 2018-12-19 | 2024-04-23 | 北京嘀嘀无限科技发展有限公司 | 车辆碰撞概率预测方法、装置、电子设备及存储介质 |
CN112185181A (zh) * | 2019-07-01 | 2021-01-05 | 霍尼韦尔国际公司 | 用于地面操作的碰撞感知系统 |
Also Published As
Publication number | Publication date |
---|---|
US20180090018A1 (en) | 2018-03-29 |
CN107871405B (zh) | 2021-08-06 |
US10332409B2 (en) | 2019-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107871405A (zh) | 利用视觉信息进行空中碰撞威胁的检测与评估 | |
US11704812B2 (en) | Methods and system for multi-target tracking | |
US20210065400A1 (en) | Selective processing of sensor data | |
US10599149B2 (en) | Salient feature based vehicle positioning | |
US10395113B2 (en) | Polarization-based detection and mapping method and system | |
EP2947638A1 (en) | Airport surface collision zone display for an aircraft | |
US8019490B2 (en) | Imaging and display system to aid helicopter landings in brownout conditions | |
US20170010623A1 (en) | Camera configuration on movable objects | |
Nussberger et al. | Aerial object tracking from an airborne platform | |
EP2618322B1 (en) | System and method for detecting and displaying airport approach lights | |
CA2831148A1 (en) | Method of optically locating an aircraft relative to an airport | |
US10303943B2 (en) | Cloud feature detection | |
Martínez-de Dios et al. | Experimental results of automatic fire detection and monitoring with UAVs | |
Nussberger et al. | Robust aerial object tracking from an airborne platform | |
US20150015698A1 (en) | Methods and systems for optical aircraft detection | |
US10210389B2 (en) | Detecting and ranging cloud features | |
US20210018911A1 (en) | Display control system, display control device and display control method | |
US9584791B1 (en) | Image misalignment correcting system, device, and method | |
KR20120105966A (ko) | 가시거리 측정장치 및 그 방법 | |
Wilson et al. | Flight test and evaluation of a prototype sense and avoid system onboard a scaneagle unmanned aircraft | |
Dudek et al. | Cloud Detection System for UAV Sense and Avoid: Cloud Distance Estimation using Triangulation | |
GB2534372A (en) | Cloud Feature Detection | |
US20220309786A1 (en) | Method for training a supervised artificial intelligence intended to identify a predetermined object in the environment of an aircraft | |
Dolph et al. | Monocular Ranging for Small Unmanned Aerial Systems in the Far-Field | |
Doehler et al. | EVS based approach procedures: IR-image analysis and image fusion to support pilots in low visibility |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210806 |