CN111164456A - 提示的汽车传感器融合 - Google Patents

提示的汽车传感器融合 Download PDF

Info

Publication number
CN111164456A
CN111164456A CN201880064466.4A CN201880064466A CN111164456A CN 111164456 A CN111164456 A CN 111164456A CN 201880064466 A CN201880064466 A CN 201880064466A CN 111164456 A CN111164456 A CN 111164456A
Authority
CN
China
Prior art keywords
sensor
module
data
detection module
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201880064466.4A
Other languages
English (en)
Other versions
CN111164456B (zh
Inventor
马修·费特曼
阿雷特·卡尔森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anzher Software Co ltd
Original Assignee
Autoliv ASP Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Autoliv ASP Inc filed Critical Autoliv ASP Inc
Publication of CN111164456A publication Critical patent/CN111164456A/zh
Application granted granted Critical
Publication of CN111164456B publication Critical patent/CN111164456B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

用于涉及提示的传感器融合的物体的远程检测的方法和系统。在一些具体实施中,可以使用第一物体传感器产生第一组感测数据,并且使用第二物体传感器产生第二组感测数据。然后可以使用来自第一物体传感器的感测数据检测物体。当使用来自第一物体传感器的感测数据检测到物体时,可以改变与第二物体传感器相关联的设置,以增加使用来自第二物体传感器的第二组感测数据检测到物体的可能性。

Description

提示的汽车传感器融合
发明内容
物体级融合通常与传感器系统结合使用以从主车辆检测远程物体。利用这种类型的架构,可以将来自第一传感器的数据与来自第二传感器的数据进行组合,以提供更多信息来识别和跟踪物体。这种类型的架构还可以允许将传感器组合为“黑匣子”。换句话说,代替可能需要针对每种可能的传感器组合对检测和/或跟踪模块进行大量调整和调节的检测级融合,传感器可以被组合并且基本上在即插即用型架构中一起使用。但是,如果一个传感器不能识别目标,则此物体级融合将失败。换句话说,对于典型的物体级融合,如果一个传感器不能识别由另一传感器识别的物体,则系统的融合跟踪器或融合跟踪模块将没有来自一个传感器的数据进行组合并且用于跟踪物体。
因此,本发明人已经确定,期望提供克服现有技术中的前述限制和/或其他限制中的一个或多个的系统和方法。因此,在一些实施方案中,本文公开的发明构思可以用于提供提示的融合架构,出于本公开的目的,可以将其视为修改的物体级融合架构。在一些实施方案中,来自第一传感器的提示可以用于对第二传感器触发一个或多个设置或参数变化(诸如以特殊模式运行),以增加第二传感器检测到的可能性。
例如,在一些实施方案中,可以响应于第一传感器检测到物体而降低第二传感器的一个或多个阈值,诸如检测阈值和/或跟踪器阈值。该变化可以是暂时的和/或可以仅位于由第一传感器检测到的物体的方向或大体方向(例如,在角度范围内)上。因此,特殊操作模式可以降低检测阈值和/或需要较少的一致检测来维持跟踪。优选地,这不需要第二传感器的任何物理旋转。这可以提供增加第二传感器检测到物体的可能性而不会增加第二传感器错误警报/检测的可能性。例如,在其中特殊模式仅在相对较短的时间段内和/或在相对较小的空间区域(与第一传感器检测到的物体相对应)内操作的实施方案中,总误报率应保持恒定,或可能仅在相对较小的时间和/或角度窗口内略有增加,并且因此提供忽略不计的总误报率增加,同时增加了感兴趣目标的真实误报率。
有利地,一些实施方案可以被配置为保留物体级传感器融合的黑匣子优点,换句话说,可以将传感器组合在一起而无需大量定制的调整/调节。在一些实施方案中,传感器可以以即插即用的方式组合在一起而无需任何这种定制。
在根据一些具体实施的用于在主车辆内检测物体的方法的更具体的示例中,该方法可以包括使用第一物体传感器(诸如,雷达传感器、视觉传感器/相机、激光雷达传感器等)来产生、接收和/或传输第一组感测数据。该方法可以还包括使用第二物体传感器产生、接收和/或传输第二组感测数据。在优选实施方案和具体实施中,第一物体传感器可以不同于第二物体传感器,以允许组合不同传感器技术的有利方面。然后可以使用来自第一物体传感器的感测数据来检测物体或可疑物体。在使用来自第一物体传感器的感测数据检测到物体时,可以改变与第二物体传感器相关联的设置,以将第二物体传感器置于特殊模式,以增加使用来自第二物体传感器的第二组感测数据检测到物体的可能性。
在一些具体实施中,改变与第二物体传感器相关联的设置以增加使用来自第二物体传感器的第二组感测数据检测到物体的可能性的步骤可以包括改变第二物体传感器的阈值,诸如降低第二物体传感器的阈值。在一些这样的具体实施中,改变与第二物体传感器相关联的设置以增加使用来自第二物体传感器的第二组感测数据检测到物体的可能性的步骤可以包括改变远程物体检测和/或跟踪系统的检测模块的检测阈值和跟踪器或跟踪模块的跟踪阈值中的至少一者,在一些这样的具体实施中,改变与第二物体传感器相关联的设置以增加使用来自第二物体传感器的第二组感测数据检测到物体的可能性的步骤可以包括改变检测模块的信噪比和跟踪模块的用于启动或维持对由检测模块检测到的物体的跟踪的阈值中的至少一者。
一些具体实施还可以包括,在使用来自第二物体传感器的感测数据检测到物体时,改变与第一物体传感器相关联的设置,以增加使用来自第一物体传感器的第一组感测数据检测到物体的可能性。
在根据一些实施方案的用于从主车辆内远程检测物体的系统的示例中,该系统可以包括被配置为接收第一组感测数据的第一物体传感器和被配置为接收第二组感测数据的第二物体传感器。如前所述,优选地,物体传感器是不同的类型,此外,应当理解,在一些实施方案中或在本文公开的任何方法/具体实施中可以使用两个以上的这样的物体传感器。该系统还可以包括被配置为从第一物体传感器接收数据的物体检测模块。物体检测模块可以被配置为使用来自第一物体传感器和/或第二物体传感器的数据来从主车辆内识别远程物体,并且在物体检测模块使用来自第一物体传感器的第一组感测数据检测到物体时,改变与第二物体传感器相关联的设置,以增加物体检测模块使用来自第二物体传感器的数据检测到物体的可能性。
在一些实施方案中,物体检测模块可以是包括第一物体传感器的第一传感器模块的一部分。在一些这样的实施方案中,第一传感器模块还可以包括第一跟踪模块,该第一跟踪模块被配置为从物体检测模块接收处理后的数据,以跟踪由物体检测模块所识别的远程物体。
一些实施方案还可以包括第二传感器模块。第二物体传感器可以是第二传感器模块的一部分。第二传感器模块还可以包括第二物体检测模块,该第二物体检测模块被配置为从第二物体传感器接收数据。第二物体检测模块可以被配置为使用来自第二物体传感器的数据来从主车辆内识别远程物体,在一些实施方案中,第二传感器模块还可以包括第二跟踪模块,该第二跟踪模块被配置为从第二物体检测模块接收处理后的数据,以跟踪由第二物体检测模块所识别的远程物体。
一些实施方案还可以包括融合跟踪模块,该融合跟踪模块被配置为从第一跟踪模块和第二跟踪模块两者接收数据,以跟踪由第一跟踪模块和第二跟踪模块两者检测到的物体。
在一些实施方案中,该系统可以被配置为:在物体检测模块使用来自第一物体传感器的第一组感测数据检测到物体时,降低与第二物体传感器相关联的检测阈值和跟踪器阈值中的至少一者,以增加使用来自第二物体传感器的数据检测到物体的可能性。类似地,一些实施方案可以被配置为在物体检测模块使用来自第二物体传感器的第二组感测数据检测物体时,降低与第一物体传感器相关联的检测阈值和跟踪器阈值中的至少一者,以增加使用来自第一物体传感器的数据检测到物体的可能性。
在一些实施方案中,该系统可以被配置为:在物体检测模块使用来自第一物体传感器的第一组感测数据检测到物体时,仅在与检测到的物体相关联的角度范围内,降低与第二物体传感器相关联的检测阈值和跟踪器阈值中的至少一者。
在用于从主车辆内远程检测物体的系统的另一示例中,该系统可以包括被配置为接收第一组感测数据的第一物体传感器和被配置为接收第二组感测数据的第二物体传感器。同样,第一物体传感器可以包括与第二物体传感器不同类型的物体传感器。因此,在一些实施方案中,第一物体传感器可以包括相机,并且第二物体传感器可以包括雷达传感器。
该系统还可以包括第一物体检测模块,该第一物体检测模块被配置为从第一物体传感器接收原始数据。第一物体检测模块可以被配置为尝试使用来自第一物体传感器的原始数据来识别远程物体。该系统还可以包括第二物体检测模块,该第二物体检测模块被配置为从第二物体传感器接收原始数据。第二物体检测模块可以被配置为尝试使用来自第二物体传感器的原始数据来识别远程物体。
该系统还可以包括:第一跟踪模块,该第一跟踪模块被配置为从第一物体检测模块接收处理后的数据,以跟踪第一物体检测模块所识别的远程物体;第二跟踪模块,该第二跟踪模块被配置为从第二物体检测模块接收处理后的数据,以跟踪第二物体检测模块所识别的远程物体。
该系统还可以包括融合跟踪模块,该融合跟踪模块被配置为从第一跟踪模块和第二跟踪模块两者接收数据,以跟踪由第一跟踪模块和第二跟踪模块两者检测到的物体。
用于远程检测的系统可以被配置为:在确认第一物体检测模块和第一跟踪模块中的至少一者检测到物体时,降低第二物体检测模块的检测阈值和第二跟踪模块的跟踪器阈值中的至少一者,以增加使用来自第二物体传感器的数据检测到物体的可能性。
在一些实施方案中,该系统可以进一步被配置为:在确认第一物体检测模块和第一跟踪模块中的至少一者检测到物体时,降低与雷达传感器相关联的检测阈值和跟踪器阈值中的至少一者,以增加使用来自雷达传感器的数据检测到物体的可能性。
在一些实施方案中,用于远程检测的系统可以被配置为:在第一物体检测模块和第一跟踪模块中的至少一者检测到物体时,仅在与相机/第一传感器检测到的物体相关联的区域内(诸如在与由相机检测到的物体相关联的角度下或角度范围内),降低与雷达传感器相关联的检测阈值和跟踪器阈值中的至少一者。
本文结合一个实施方案公开的特征、结构、步骤或特性可以在一个或多个替代实施方案中以任何合适的方式组合。
附图说明
描述了本公开的非限制性和非穷举性实施方案,包括本公开参照附图的各种实施方案,其中:
图1是描绘根据一些实施方案的用于从主车辆内远程检测物体的系统的示例的示意图;
图2描绘了根据一些实施方案的在检测物体的车辆,该车辆具有用于从主车辆内远程检测物体的系统;
图3描绘了根据其他实施方案的具有用于远程检测物体的系统的另一车辆;并且
图4是描绘根据一些具体实施的用于在主车辆内远程检测物体的方法的示例的流程图。
具体实施方式
下面提供与本公开的各种实施方案一致的设备、系统和方法的详细描述。虽然描述了若干实施方案,但应理解,本公开不限于所公开的任何特定实施方案,而是涵盖许多替代方案、修改和等效物。另外,尽管在以下描述中阐述了许多具体细节以便提供对本文公开的实施方案的透彻理解,但是可以在没有这些细节中的一些或全部的情况下实践一些实施方案。此外,为了清楚起见,没有详细描述相关领域中已知的某些技术材料,以避免不必要地模糊本公开。
本文公开了涉及用于在远程物体检测中组合传感器数据的新方法和系统的设备、方法和系统。在一些实施方案中,本文公开的发明原理可以用于允许以使得每个传感器是黑匣子并且不需要大量修改/定制以融合其数据的方式将两个或更多个传感器组合在一起。这可以通过使用来自一个传感器的触发器来提示一个或多个其他传感器的操作模式的变化来实现。因此,例如,检测物体的雷达传感器可以用作触发器以暂时改变相机的操作模式,以便增加相机也将检测物体的可能性。类似地,在一些实施方案中,检测物体的相机或其他传感器可以用作触发器来暂时改变雷达传感器或其他第二传感器的操作模式,以便增加雷达传感器或其他第二传感器将检测物体的可能性。由此与常规的物体级融合相比,可以降低一个传感器丢失物体的可能性。
作为其中可见光传感器/相机可以提示雷达传感器的实施方案的更具体示例,在一些系统中,相机可能需要约六帧来声明目标。然而,系统可以被配置为使得相机可以在更少的帧之后(例如,在一些情况下,在单个帧之后)声明目标,但是具有较低的品质因数。因此,根据利用本文公开的原理的某些实施方案的一些系统可以被配置为使用较低的品质因数阈值来提示雷达传感器。到雷达传感器已形成跟踪时,相机可能已经改善了其跟踪的品质因数。然后,融合跟踪模块可以被配置为忽略来自相机的较低质量的初始物体数据,直到从相机获得较高质量的跟踪为止。以这种方式,远程物体检测系统可以被配置为通过相机或另一第一传感器利用较低的检测阈值,并且使用特殊的操作模式将雷达传感器更快地提示到检测到的物体。这可以允许在确认跟踪和/或将数据发送到融合跟踪器或跟踪模块之前,对潜在的物体/目标进行更加的确定。
通过参照附图可以最好地理解本公开的实施方案,其中相同的部分可以由相同的标号表示。将容易理解的是,如本文附图中总体描述和说明的,所公开的实施方案的部件可以各种不同的配置来布置和设计。因此,对本公开的设备和方法的实施方案的以下详细描述并非旨在限制所要求保护的本公开的范围,而仅表示本公开的可能实施方案,此外,除非另有说明,否则方法的步骤不一定需要以任何特定的顺序执行,甚至不必顺序执行,也不必仅将步骤执行一次。现在将参照附图更详细地描述关于某些优选实施方案和实现方式的附加细节。
图1描绘了用于从主车辆内远程检测物体的系统100的示意图。如该图所描绘的,系统100包括第一物体传感器模块110,该第一物体传感器模块包括第一传感器112。第一物体传感器模块110还包括第一物体检测子模块120,该第一物体检测子模块被配置为从第一传感器112接收第一组原始的感测数据。第一物体传感器模块110还包括第一跟踪子模块130,该第一跟踪子模块被配置为从第一物体检测模块120接收处理后的数据,以跟踪第一物体检测模块120使用来自第一传感器112的原始数据所识别的远程物体。
类似地,系统100包括第二物体传感器模块150,该第二物体传感器模块包括第二传感器152。第二物体传感器模块150还包括第二物体检测子模块160,该第二物体检测子模块被配置为从第二传感器152接收第二组原始的感测数据。第二物体传感器模块150还包括第二跟踪子模块170,该第二跟踪子模块被配置为从第二物体传感器模块150接收处理后的数据,以跟踪第二物体传感器模块150使用来自第二传感器152的原始数据所识别的远程物体。
物体传感器模块110和150中的一者或两者可以被配置为检测和/或跟踪分别代表所识别的物体(诸如物体115和155)的一组或多组数据。然后可以使用融合跟踪模块180组合来自模块110和150的这些物体,该融合跟踪模块可以被配置为从第一跟踪模块130或者另外从第一物体传感器模块110接收数据和从第二跟踪模块170或者另外从第二物体传感器模块150接收数据,以跟踪第一传感器模块110和第二传感器模块150两者检测到的一个或多个物体。融合跟踪模块180然后可以被配置为融合这些跟踪的物体并且处理所组合的数据以到达一个或多个融合的物体185。因此,系统100是物体级融合系统的修改版本的示例。
然而,与已知的物体级融合系统不同,系统100被配置为响应于传感器模块110和150中的一者识别物体而改变传感器模块110和150中的另一者的操作参数。因此,如图1中的箭头所示,在通过第一传感器模块110检测到物体115时,系统100可以被配置为改变第二传感器模块150(诸如检测模块160和跟踪模块170中的一者或两者)的一个或多个操作参数。
因此,在一些实施方案中,系统100可以被配置为降低第二检测模块160的检测阈值和第二跟踪模块170的跟踪器阈值,以增加由传感器112和/或传感器模块110检测的物体使用来自第二物体传感器152和/或第二传感器模块150的数据被检测到的可能性。
为了提供更具体的示例,在一些实施方案中,传感器112和152可以彼此不同。例如,传感器112可以包括相机,并且传感器152可以包括雷达传感器,在一些这样的实施方案中,系统100可以被配置为在确认相机112和/或模块110检测到物体时,降低与雷达传感器152和/或模块150相关联的检测阈值和跟踪器阈值中的至少一者,以增加相机112检测的物体也使用来自雷达传感器152的数据被检测到的可能性。
因此,作为更具体的示例,如果检测模块被配置为根据信噪比(“SNR”)应用检测阈值以建立物体检测,则在另一传感器的检测模块检测到物体之后,可以暂时减小此SNR阈值。类似地,在一些实施方案中,作为应用检测阈值降低的替代或补充,可以应用跟踪阈值降低。因此,例如,如果跟踪模块被配置为根据在四个连续周期中检测物体而应用用于建立跟踪的阈值(4/4跟踪器),则可以将该阈值暂时降低到诸如3/3跟踪器。在一些实施方案中,该一个/多个改变可以是暂时的,并且可以涉及附加阈值,诸如时间阈值。这样的阈值可以根据系统的期望错误率根据需要而变化。
在一些实施方案中,两个传感器模块110/150可以被配置为在检测到物体时改变另一模块/传感器的设置。因此,关于图1中描绘的实施方案,模块150还可以或替代地被配置为在检测到物体时改变模块110的一个或多个操作参数,以增加模块110检测和/或跟踪同一物体的可能性。
在一些实施方案中,传感器模块110/150中的一者或两者可以被配置为向另一模块应用设置变化,该设置变化可以仅在特定角度下或在特定角度范围内应用。因此,例如,如果相机检测在给定方向上相对于主车辆成三十度的角度的物体,则雷达传感器可以被配置为降低在该角度下或在该角度的期望范围内的检测阈值持续预定量的时间。例如,如果检测阈值为18dB SNR,则该阈值可以在或约30度下降低到15dB SNR持续100ms。另外或替代地,雷达可以降低跟踪阈值。因此,例如,跟踪阈值可以暂时从4/4降低到3/3。在一些实施方案中,非检测传感器/模块的一个或多个设置可以仅在与检测到的物体相关联的角度下或角度范围内被调节。
图2描绘了根据一些实施方案的包括用于远程检测物体的系统的主车辆200。如该图所描绘的,如上所述,车辆200可以包括两个分离的传感器和两个对应的传感器模块。因此,第一传感器模块210可以包括雷达传感器212,并且第二传感器模块250可以包括相机252。因此,如上所述,在通过雷达传感器212和相机252中的一者检测到物体(诸如行人10)时,系统可以被配置为暂时改变非检测传感器/模块的一个或多个设置,以增加非检测传感器/模块检测到行人10的可能性。
图3描绘了根据一些实施方案的另一车辆300,该车辆包括用于在车辆300内远程检测物体的系统305。系统310包括第一物体传感器模块310。第一物体传感器模块310包括第一传感器312、检测模块320和跟踪模块330。类似地,系统305包括第二物体传感器模块350,该第二物体传感器模块包括第二传感器352、第二物体检测模块360和第二跟踪模块370。
检测模块320/360分别被配置为从传感器312/352接收原始的感测数据,并且尝试使用这种数据来识别/检测远程物体。类似地,跟踪模块330/370分别被配置为从检测模块320/360接收处理后的数据,以跟踪检测模块320/360使用来自传感器312/352的原始数据所识别的远程物体。
系统305还包括控制器340,该控制器可以被配置为处理来自传感器312/352的数据。如本文所使用的,术语控制器是指包括处理器并且优选地还包括存储器元件的硬件装置。存储器可以被配置为存储本文中所引用的模块中的一个或多个,并且控制器340和/或处理器可以被配置为执行该模块以执行本文中所描述的一个或多个过程。
如本文所使用的,软件模块或部件可以包括位于存储器装置和/或机器可读存储介质内的任何类型的计算机指令或计算机可执行代码。软件模块可以例如包括计算机指令的一个或多个物理或逻辑块,它们可以被组织为执行一个或多个任务或实现特定抽象数据类型的例程、程序、对象、部件、数据结构等。
在某些实施方案中,特定的软件模块可以包括存储在存储器装置的不同位置中的不同的指令,这些指令一起实现模块的所描述的功能。实际上,模块可以包括单个指令或多个指令,并且可以分布在若干不同的代码段上、不同的程序之间以及跨若干存储器装置分布。一些实施方案可以在分布式计算环境中实践,其中任务由通过通信网络链接的远程处理装置执行。在分布式计算环境中,软件模块可以位于本地和/或远程存储器存储装置中。另外,在数据库记录中绑定或呈现在一起的数据可以驻留在同一存储器装置中或跨若干存储器装置驻留,并且可以跨网络在数据库中的记录字段中链接在一起。
此外,本文公开的本发明的实施方案和具体实施可以包括各种步骤,这些步骤可以体现在由通用或专用计算机(或其他电子装置)执行的机器可执行指令中。替代地,步骤可以由包括用于执行步骤的特定逻辑的硬件部件来执行,或者由硬件、软件和/或固件的组合来执行。
实施方案和/或具体实施还可以作为计算机程序产品提供,该计算机程序产品包括其上存储有指令的机器可读存储介质,该指令可以用于对计算机(或其他电子装置)进行编程以执行本文描述的过程。机器可读存储介质可以包括但不限于:硬盘驱动器、软盘、光盘、CD-ROM、DVD-ROM、ROM、RAM、EPROM、EEPROM、磁卡或光卡、固态存储器装置,或适用于存储电子指令的其他类型的介质/机器可读介质。还可以提供存储器和/或数据存储,它们在一些情况下可以包括非暂时性机器可读存储介质,该介质包含配置为由处理器、控制器/控制单元等执行的可执行程序指令。
系统305还包括融合跟踪模块380,该融合跟踪模块可以被配置为从模块310和350接收数据并且通过处理该组合数据来融合来自检测到的和/或被跟踪的物体的数据。控制器340可以被配置为处理来自融合跟踪模块380的数据。当然,如本领域普通技术人员将理解的,可以根据需要使用任何合适数量的控制器和/或处理器。
图4是描绘根据一些具体实施的用于在主车辆内检测远程物体的方法400的示例的流程图。如该图所示,方法400可以在步骤405开始,在该点处,可以使用第一物体传感器诸如雷达传感器、激光雷达传感器、相机等来产生和/或接收第一组感测数据。类似地,在步骤410处,可以使用第二物体传感器来产生和/或接收第二组感测数据,在一些具体实施中,第二物体传感器可以与第一物体传感器不同。在一些具体实施中,步骤405和/或410可以包括从这些传感器中的一者或两者接收原始数据。
步骤415可以包括使用物体传感器中的一者或两者来检测一个或多个物体。在一些具体实施中,可以使用例如检测模块(诸如检测模块120/160或320/360)来执行步骤415。在使用来自给定传感器的数据检测到物体时,方法400然后可以包括在420处改变传感器和/或与非检测传感器相关联的模块的一个或多个设置。因此,例如,如果第一物体传感器已经检测到物体,则步骤420可以包括改变第二物体传感器或与第二物体传感器相关联的一个或多个模块的操作参数和/或设置,以增加物体也被第二物体传感器检测到的可能性。在优选实施方案和具体实施中,步骤420可以包括暂时改变这种参数和/或设置。然后可以在例如预定时间段之后或者在不再检测和/或跟踪物体之后,将该设置/参数重置为其原始状态。
在一些具体实施中,步骤420可以包括改变非检测物体传感器的阈值。在一些这样的具体实施中,步骤420可以包括降低非检测物体传感器的检测阈值和跟踪阈值中的至少一者或另外降低与非检测物体传感器相关联的检测阈值和跟踪阈值中的至少一者,在一些这样的具体实施中,步骤420可以包括降低非检测传感器的信噪比和用于启动或维持对非检测传感器的物体的跟踪的跟踪阈值中的至少一者。
在步骤425处,可以确定在改变的设置/参数内,非检测传感器(最初没有检测到物体的传感器)是否已经检测到由检测传感器检测到的物体。如果否,则在430处可以恢复非检测传感器和/或相关模块的先前设置。当然,如前所述,在一些具体实施中,如果需要,可以替代地施加时间限制以维持较低阈值设置,如果非检测传感器检测到由检测传感器检测到的物体,则在435处可以使用例如融合跟踪模块等融合来自两个传感器的数据。作为另一替代,在一些具体实施中,步骤425可以包括为非检测传感器施加时间限制以检测由检测传感器检测到的物体。如果该时间限制到期,则方法400可以前进至步骤430,并且可以重置一个或多个暂时设置变化。如果在该时间限制内检测到物体,则在步骤435处,可以通过融合跟踪器等融合两个传感器检测到的物体。
已经参照各种实施方案和实现方式描述了前述说明书。然而,本领域普通技术人员将理解,在不脱离本公开的范围的情况下,可以进行各种修改和改变。例如,各种操作步骤以及用于执行操作步骤的部件可以根据特定应用或考虑与系统操作相关的任何数量的成本功能而以各种方式实现。因此,步骤中的任何一个或多个可以删除、修改或与其他步骤组合。此外,本公开应被视为说明性而非限制性意义,并且所有这些修改旨在包括在其范围内。同样,以上已经关于各种实施方案描述了益处、其他优点和问题的解决方案。然而,益处、优点、问题的解决方案以及可能使得任何利益、优点或解决方案发生或变得更加明显的任何一个或多个元件不应被解释为关键、必需或必要的特征或元件。
本领域技术人员将理解,在不脱离本发明的基本原理的情况下,可以对上述实施方案的细节进行许多改变。因此,本发明的范围应当仅由以下权利要求书确定。

Claims (20)

1.一种用于在主车辆内检测物体的方法,所述方法包括以下步骤:
使用第一物体传感器产生第一组感测数据;
使用第二物体传感器产生第二组感测数据;
使用来自所述第一物体传感器的所述感测数据检测物体;
当使用来自所述第一物体传感器的所述感测数据检测到所述物体时,改变与所述第二物体传感器相关联的设置,以增加使用来自所述第二物体传感器的所述第二组感测数据检测到所述物体的可能性。
2.根据权利要求1所述的方法,其中所述第一物体传感器包括与所述第二物体传感器不同类型的物体传感器。
3.根据权利要求2所述的方法,其中所述第一物体传感器和所述第二物体传感器中的一者包括雷达传感器,并且其中所述第一物体传感器和所述第二物体传感器中的另一者包括相机。
4.根据权利要求1所述的方法,其中改变与所述第二物体传感器相关联的设置以增加使用来自所述第二物体传感器的所述第二组感测数据检测到所述物体的可能性的所述步骤包括改变所述第二物体传感器的阈值。
5.根据权利要求4所述的方法,其中改变与所述第二物体传感器相关联的设置以增加使用来自所述第二物体传感器的所述第二组感测数据检测到所述物体的可能性的所述步骤包括改变检测模块的检测阈值和跟踪模块的跟踪阈值中的至少一者。
6.根据权利要求5所述的方法,其中改变与所述第二物体传感器相关联的设置以增加使用来自所述第二物体传感器的所述第二组感测数据检测到所述物体的可能性的所述步骤包括改变所述检测模块的信噪比和所述跟踪模块的用于启动或维持对由所述检测模块检测到的物体的跟踪的阈值中的至少一者。
7.根据权利要求1所述的方法,还包括:在使用来自所述第二物体传感器的所述感测数据检测到物体时,改变与所述第一物体传感器相关联的设置,以增加使用来自所述第一物体传感器的所述第一组感测数据检测到所述物体的可能性。
8.一种用于从主车辆内远程检测物体的系统,包括:
第一物体传感器,所述第一物体传感器被配置为接收第一组感测数据;
第二物体传感器,所述第二物体传感器被配置为接收第二组感测数据;
物体检测模块,所述物体检测模块被配置为从所述第一物体传感器接收数据,其中所述物体检测模块被配置为使用来自所述第一物体传感器和所述第二物体传感器中的至少一者的数据,以从所述主车辆内识别远程物体,并且其中用于远程检测的所述系统被配置为:在所述物体检测模块使用来自所述第一物体传感器的所述第一组感测数据检测到物体时,改变与所述第二物体传感器相关联的设置,以增加所述物体检测模块使用来自所述第二物体传感器的数据检测到所述物体的可能性。
9.根据权利要求8所述的系统,其中所述物体检测模块是包括所述第一物体传感器的第一传感器模块的一部分。
10.根据权利要求9所述的系统,其中所述第一传感器模块还包括第一跟踪模块,所述第一跟踪模块被配置为从所述物体检测模块接收处理后的数据,以跟踪由所述物体检测模块识别的远程物体。
11.根据权利要求10所述的系统,还包括第二传感器模块,其中所述第二传感器模块包括所述第二物体传感器,其中所述第二传感器模块还包括第二物体检测模块,所述第二物体检测模块被配置为从所述第二物体传感器接收数据,其中所述第二物体检测模块被配置为使用来自所述第二物体传感器的所述数据来从所述主车辆内识别远程物体,并且其中所述第二传感器模块还包括第二跟踪模块,所述第二跟踪模块被配置为从所述第二物体检测模块接收处理后的数据以跟踪所述第二物体检测模块识别的远程物体。
12.根据权利要求11所述的系统,还包括融合跟踪模块,所述融合跟踪模块被配置为从所述第一跟踪模块和所述第二跟踪模块两者接收数据,以跟踪由所述第一跟踪模块和所述第二跟踪模块两者检测到的物体。
13.根据权利要求8所述的系统,其中用于远程检测的所述系统被配置为:在所述物体检测模块使用来自所述第一物体传感器的所述第一组感测数据检测到物体时,降低与所述第二物体传感器相关联的检测阈值和跟踪器阈值中的至少一者,以增加使用来自所述第二物体传感器的数据检测到所述物体的可能性。
14.根据权利要求13所述的系统,其中用于远程检测的所述系统被配置为:在所述物体检测模块使用来自所述第一物体传感器的所述第一组感测数据检测到物体时,仅在与所述检测到的物体相关联的角度范围内,降低与所述第二物体传感器相关联的检测阈值和跟踪器阈值中的至少一者。
15.根据权利要求8所述的系统,其中所述第一物体传感器包括相机,并且其中所述第二物体传感器包括雷达传感器。
16.根据权利要求8所述的系统,其中用于远程检测的所述系统被进一步配置为:在所述物体检测模块使用来自所述第二物体传感器的所述第二组感测数据检测到物体时,改变与所述第一物体传感器相关联的设置,以增加所述物体检测模块使用来自所述第一物体传感器的数据检测到所述物体的可能性。
17.一种用于从主车辆内远程检测物体的系统,包括:
第一物体传感器,所述第一物体传感器被配置为接收第一组感测数据;
第二物体传感器,所述第二物体传感器被配置为接收第二组感测数据,其中所述第一物体传感器包括与所述第二物体传感器不同类型的物体传感器;
第一物体检测模块,所述第一物体检测模块被配置为从所述第一物体传感器接收原始数据,其中所述第一物体检测模块被配置为尝试使用来自所述第一物体传感器的所述原始数据来识别远程物体;
第二物体检测模块,所述第二物体检测模块被配置为从所述第二物体传感器接收原始数据,其中所述第二物体检测模块被配置为尝试使用来自所述第二物体传感器的所述原始数据来识别远程物体;
第一跟踪模块,所述第一跟踪模块被配置为从所述第一物体检测模块接收处理后的数据,以跟踪所述第一物体检测模块所识别的远程物体;
第二跟踪模块,所述第二跟踪模块被配置为从所述第二物体检测模块接收处理后的数据,以跟踪所述第二物体检测模块所识别的远程物体;和
融合跟踪模块,所述融合跟踪模块被配置为从所述第一跟踪模块和所述第二跟踪模块两者接收数据,以跟踪由所述第一跟踪模块和所述第二跟踪模块两者检测到的物体,
其中用于远程检测的所述系统被配置为:在确认所述第一物体检测模块和所述第一跟踪模块中的至少一者检测到物体时,降低所述第二物体检测模块的检测阈值和所述第二跟踪模块的跟踪器阈值中的至少一者,以增加使用来自所述第二物体传感器的数据检测到所述物体的可能性。
18.根据权利要求17所述的系统,其中所述第一物体传感器包括相机,并且其中所述第二物体传感器包括雷达传感器。
19.根据权利要求18所述的系统,其中用于远程检测的所述系统被进一步配置为:在确认所述第一物体检测模块和所述第一跟踪模块中的至少一者检测到物体时,降低与所述雷达传感器相关联的检测阈值和跟踪器阈值中的至少一个,以增加使用来自所述雷达传感器的数据检测到所述物体的可能性。
20.根据权利要求19所述的系统,其中用于远程检测的所述系统被配置为:在所述第一物体检测模块和所述第一跟踪模块中的至少一者检测到物体时,仅在与所述相机检测到的所述物体相关联的角度范围内,降低与所述雷达传感器相关联的检测阈值和跟踪器阈值中的至少一者。
CN201880064466.4A 2017-11-06 2018-11-05 提示的汽车传感器融合 Active CN111164456B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/804,821 2017-11-06
US15/804,821 US10641888B2 (en) 2017-11-06 2017-11-06 Cued automobile sensor fusion
PCT/US2018/059289 WO2019090276A1 (en) 2017-11-06 2018-11-05 Cued automobile sensor fusion

Publications (2)

Publication Number Publication Date
CN111164456A true CN111164456A (zh) 2020-05-15
CN111164456B CN111164456B (zh) 2023-08-01

Family

ID=66327000

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880064466.4A Active CN111164456B (zh) 2017-11-06 2018-11-05 提示的汽车传感器融合

Country Status (5)

Country Link
US (1) US10641888B2 (zh)
EP (1) EP3707527A4 (zh)
JP (1) JP6946570B2 (zh)
CN (1) CN111164456B (zh)
WO (1) WO2019090276A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7511471B2 (ja) * 2018-07-02 2024-07-05 ソニーセミコンダクタソリューションズ株式会社 情報処理装置及び情報処理方法、コンピュータプログラム、並びに移動体装置
JP7185547B2 (ja) * 2019-02-07 2022-12-07 株式会社デンソー 車両検出装置
DE102019006243A1 (de) * 2019-09-04 2021-03-04 Man Truck & Bus Se Verfahren zum Betrieb eines Abbiegeassistenzsystems, Abbiegeassistenzsystem und Kraftfahrzeug mit einem derartigen Abbiegeassistenzsystem

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040213589A1 (en) * 2003-04-22 2004-10-28 Barbera Joseph D. Efficient sensing system
JP2007232653A (ja) * 2006-03-02 2007-09-13 Alpine Electronics Inc 車載レーダ装置
DE102012024334A1 (de) * 2012-12-13 2013-08-01 Daimler Ag Verfahren zur Existenz- und Zustandsbestimmung von Objekten
CN103823208A (zh) * 2012-11-16 2014-05-28 通用汽车环球科技运作有限责任公司 用于物体感测融合系统的健康状态估计的方法和装置
US20150217765A1 (en) * 2014-02-05 2015-08-06 Toyota Jidosha Kabushiki Kaisha Collision prevention control apparatus
DE102014208006A1 (de) * 2014-04-29 2015-11-26 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Umfelderfassung eines Fahrzeugs
DE102016201814A1 (de) * 2016-02-05 2017-08-10 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur sensorischen Umfelderfassung in einem Fahrzeug
US20170242117A1 (en) * 2016-02-19 2017-08-24 Delphi Technologies, Inc. Vision algorithm performance using low level sensor fusion
US20170254895A1 (en) * 2016-03-01 2017-09-07 GM Global Technology Operations LLC Detecting long objects by sensor fusion
US20170301111A1 (en) * 2015-05-23 2017-10-19 SZ DJI Technology Co., Ltd Sensor fusion using inertial and image sensors

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10339645A1 (de) 2003-08-28 2005-04-14 Robert Bosch Gmbh Verfahren und Vorrichtung zur Bestimmung von Größe und Position einer Parklücke
US7483551B2 (en) 2004-02-24 2009-01-27 Lockheed Martin Corporation Method and system for improved unresolved target detection using multiple frame association
JP4396400B2 (ja) * 2004-06-02 2010-01-13 トヨタ自動車株式会社 障害物認識装置
JP4211809B2 (ja) 2006-06-30 2009-01-21 トヨタ自動車株式会社 物体検出装置
JP5101075B2 (ja) * 2006-10-11 2012-12-19 アルパイン株式会社 周辺監視システム
EP2340185B1 (en) 2008-10-08 2018-07-04 Delphi Technologies, Inc. Integrated radar-camera sensor
US8416123B1 (en) 2010-01-06 2013-04-09 Mark Resources, Inc. Radar system for continuous tracking of multiple objects
US8775064B2 (en) * 2011-05-10 2014-07-08 GM Global Technology Operations LLC Sensor alignment process and tools for active safety vehicle applications
US9429650B2 (en) 2012-08-01 2016-08-30 Gm Global Technology Operations Fusion of obstacle detection using radar and camera
JP5835243B2 (ja) * 2013-02-07 2015-12-24 株式会社デンソー 物標認識装置
SE537621C2 (sv) * 2013-09-10 2015-08-11 Scania Cv Ab Detektering av objekt genom användning av en 3D-kamera och en radar
US9563808B2 (en) 2015-01-14 2017-02-07 GM Global Technology Operations LLC Target grouping techniques for object fusion
US9599706B2 (en) 2015-04-06 2017-03-21 GM Global Technology Operations LLC Fusion method for cross traffic application using radars and camera
JP6645074B2 (ja) * 2015-08-25 2020-02-12 株式会社Ihi 支障物検知システム
US10817065B1 (en) 2015-10-06 2020-10-27 Google Llc Gesture recognition using multiple antenna
US10445928B2 (en) * 2017-02-11 2019-10-15 Vayavision Ltd. Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
US10602242B2 (en) * 2017-06-14 2020-03-24 GM Global Technology Operations LLC Apparatus, method and system for multi-mode fusion processing of data of multiple different formats sensed from heterogeneous devices
US10788583B2 (en) * 2017-10-16 2020-09-29 Raytheon Company Rapid robust detection decreaser

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040213589A1 (en) * 2003-04-22 2004-10-28 Barbera Joseph D. Efficient sensing system
JP2007232653A (ja) * 2006-03-02 2007-09-13 Alpine Electronics Inc 車載レーダ装置
CN103823208A (zh) * 2012-11-16 2014-05-28 通用汽车环球科技运作有限责任公司 用于物体感测融合系统的健康状态估计的方法和装置
DE102012024334A1 (de) * 2012-12-13 2013-08-01 Daimler Ag Verfahren zur Existenz- und Zustandsbestimmung von Objekten
US20150217765A1 (en) * 2014-02-05 2015-08-06 Toyota Jidosha Kabushiki Kaisha Collision prevention control apparatus
DE102014208006A1 (de) * 2014-04-29 2015-11-26 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Umfelderfassung eines Fahrzeugs
US20170301111A1 (en) * 2015-05-23 2017-10-19 SZ DJI Technology Co., Ltd Sensor fusion using inertial and image sensors
DE102016201814A1 (de) * 2016-02-05 2017-08-10 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur sensorischen Umfelderfassung in einem Fahrzeug
US20170242117A1 (en) * 2016-02-19 2017-08-24 Delphi Technologies, Inc. Vision algorithm performance using low level sensor fusion
US20170254895A1 (en) * 2016-03-01 2017-09-07 GM Global Technology Operations LLC Detecting long objects by sensor fusion

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ZHAO G 等: "Fusion of Velodyne and camera data for scene parsing", 2012 15TH INTERNATIONAL CONFERENCE OF INFORMATION FUSION.IEEE, pages 1 - 8 *
翟光耀;陈蓉;张剑锋;张继光;吴澄;汪一鸣;: "基于毫米波雷达和机器视觉信息融合的障碍物检测", 物联网学报, no. 02, pages 80 - 87 *
黄显林 等: "自主视觉导航方法综述", 吉林大学学报(信息科学版), vol. 28, no. 2, pages 158 - 162 *

Also Published As

Publication number Publication date
JP2021501344A (ja) 2021-01-14
US20190137619A1 (en) 2019-05-09
US10641888B2 (en) 2020-05-05
EP3707527A4 (en) 2021-08-25
WO2019090276A1 (en) 2019-05-09
CN111164456B (zh) 2023-08-01
JP6946570B2 (ja) 2021-10-06
EP3707527A1 (en) 2020-09-16

Similar Documents

Publication Publication Date Title
CN111164456B (zh) 提示的汽车传感器融合
US20190285726A1 (en) Malfunction detecting device
CN111273268B (zh) 自动驾驶障碍物类型的识别方法、装置及电子设备
US10229588B2 (en) Method and device for obtaining evidences for illegal parking of a vehicle
US8554462B2 (en) Unmanned aerial vehicle and method for controlling the unmanned aerial vehicle
US7239719B2 (en) Automatic target detection and motion analysis from image data
US11774582B2 (en) Imaging and radar fusion for multiple-object tracking
CN105979143B (zh) 一种调整球机拍摄参数的方法及装置
US20150146988A1 (en) Image angle variation detection device, image angle variation detection method and image angle variation detection program
US10977946B2 (en) Vehicle lane change assist improvements
WO2016091545A1 (en) Image processing method
JP2021501344A5 (zh)
KR102535618B1 (ko) 융합형 물체 감지 정보를 이용한 운전자 보조 시스템 및 방법
CN112947516A (zh) 一种船舶运动状态判别方法及系统
Tulpan et al. Experimental evaluation of four feature detection methods for close range and distant airborne targets for Unmanned Aircraft Systems applications
CN117784798A (zh) 目标跟踪方法、智能设备及计算机可读存储介质
KR20180086716A (ko) 다중 객체 추적 방법
US10684357B2 (en) Vehicle detection assisting method and vehicle detection assisting system
US10545230B2 (en) Augmented reality view activation
US11175148B2 (en) Systems and methods to accommodate state transitions in mapping
US20170220880A1 (en) System and Method of Detection, Tracking and Identification of Evolutionary Adaptation of Vehicle Lamp
AU2016309565A1 (en) Navigation device with turntable for index measuring and method for operating the navigation device
CN116783104A (zh) 传感器流水线的上下文感知验证
US20230078046A1 (en) Object Detection in a Vehicle
US12073613B1 (en) Perception adaptation using probabilistic signal spatio-temporal logic system

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20220831

Address after: Michigan USA

Applicant after: Anzher Software Co.,Ltd.

Address before: Michigan, USA

Applicant before: Vennell America

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant