CN108780149B - 通过传感器的间接测量来改进对机动车辆周围的至少一个物体的检测的方法,控制器,驾驶员辅助系统和机动车辆 - Google Patents

通过传感器的间接测量来改进对机动车辆周围的至少一个物体的检测的方法,控制器,驾驶员辅助系统和机动车辆 Download PDF

Info

Publication number
CN108780149B
CN108780149B CN201680083748.XA CN201680083748A CN108780149B CN 108780149 B CN108780149 B CN 108780149B CN 201680083748 A CN201680083748 A CN 201680083748A CN 108780149 B CN108780149 B CN 108780149B
Authority
CN
China
Prior art keywords
sensor
feature
ellipse
determined
fuzzy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201680083748.XA
Other languages
English (en)
Other versions
CN108780149A (zh
Inventor
T.密尔谢夫斯基
J-F.巴里安特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE102016105023.7A external-priority patent/DE102016105023A1/de
Priority claimed from DE102016105022.9A external-priority patent/DE102016105022A1/de
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Publication of CN108780149A publication Critical patent/CN108780149A/zh
Application granted granted Critical
Publication of CN108780149B publication Critical patent/CN108780149B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • G01S15/876Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • G01S15/878Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector wherein transceivers are operated, either sequentially or simultaneously, both in bi-static and in mono-static mode, e.g. cross-echo mode
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/46Indirect determination of position data
    • G01S2015/465Indirect determination of position data by Trilateration, i.e. two transducers determine separately the distance to a target, whereby with the knowledge of the baseline length, i.e. the distance between the transducers, the position data of the target is determined
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/937Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details
    • G01S2015/938Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details in the bumper area

Abstract

本发明涉及一种用于检测机动车辆(1)的周围(4)的至少一个物体(3)的方法,其中第一传感器(6)被致动以发射传感器信号,从第二传感器(6)接收传感器数据,所述传感器数据描述从至少一个物体(3)反射的传感器信号,从传感器数据确定模糊特征(xU)作为用于描述至少一个物体(3)的物体特征(xP,xL,xU),其中,模糊特征(xU)描述至少一个物体(3)和第一传感器(6)之间的距离以及至少一个物体(3)和第二传感器(6)之间的距离,其中,模糊特征(xU)被描述为椭圆(xE),基于第一传感器和/或第二传感器(6)的至少一个另外的测量的传感器数据确定描述至少一个物体(3)的另外的物体特征(xP,xL),并且使用创新函数(h)将另外的物体特征(xP,xL)和模糊特征(xU)转换到公共状态空间中,其中,创新函数(h)描述模糊特征(xU)和另外的物体特征(xP,xL)之间的相似性,并且基于创新函数(h)从另外的物体特征(xP,xL)确定合并的物体特征。

Description

通过传感器的间接测量来改进对机动车辆周围的至少一个物 体的检测的方法,控制器,驾驶员辅助系统和机动车辆
技术领域
本发明涉及一种用于检测机动车辆周围的至少一个物体的方法,其中第一传感器被致动以发出传感器信号,从第二传感器接收传感器数据,该传感器数据描述从至少一个物体反射的传感器信号,从传感器数据确定模糊特征作为描述至少一个物体的物体特征,其中,模糊特征描述至少一个物体与第一传感器之间的距离以及至少一个物体和第二传感器之间的距离。此外,本发明涉及用于机动车辆的控制器和驾驶员辅助系统。最后,本发明涉及一种机动车辆。
背景技术
从现有技术中已知不同的方法,利用这些方法可以检测机动车辆周围的物体。例如,可以借助于相应的传感器识别物体,例如超声传感器,雷达传感器,激光传感器或照相机。此外,已知基于传感器的传感器信号确定机动车辆与物体之间的距离和/或机动车辆与物体之间的相对位置。
特别是结合超声波传感器,已知可以借助间接测量来确定物体。为此目的,第一超声波传感器发射超声波信号。该超声波信号在物体处反射并由第二超声波传感器接收。物体到第一传感器和第二传感器的距离可以基于第一传感器发射超声波信号和第二传感器接收从物体反射的超声波信号之间的运行时间来确定。例如,为简化起见,可以假设物体位于圆上,其中圆的中心点布置在两个传感器之间的中间或两个传感器的位置。然而,不能从这种间接测量导出关于物体的角度信息项。
此外,从现有技术中已知,融合多个或不同传感器的结果,以便能够更可靠地检测物体。为此目的,例如可以提供描述物体的物体特征在每种情况下由相应传感器提供的传感器数据确定。这样的物体特征可以是例如点特征或线特征,其描述物体或其一部分。还可以确定物体特征的空间不确定性或模糊性。物体特征也可以输入数字环境地图中,该数字环境地图描述了机动车辆的周围环境。可以合并物体特征以融合各种传感器的测量结果。
发明内容
发明内容本发明的目的是公开一种解决方案,该方案涉及在机动车辆的传感器的间接测量的情况下如何改进机动车辆周围的物体的检测。
根据本发明,该目的通过具有根据相应独立权利要求的特征的一种方法、一种控制器、一种驾驶员辅助系统以及一种机动车辆来实现。本发明的有利细化是从属权利要求的主题。
在用于检测机动车辆周围的至少一个物体的方法的一个实施例中,优选地,第一传感器被致动以发射传感器信号。此外,接收传感器数据,尤其是从第二传感器接收传感器数据,该传感器数据描述从至少一个物体反射的传感器信号。此外,优选地规定,从传感器数据确定模糊特征作为用于描述至少一个物体的物体特征,其中,模糊特征描述至少一个物体与第一传感器之间的距离以及至少一个物体与第二传感器之间的距离。特别地,模糊特征被描述为椭圆。此外,特别是基于第一和/或第二传感器的至少一个另外测量的传感器数据,确定另外的物体特征,该另外的物体特征描述至少一个物体。特别地,使用创新函数将另外的物体特征和模糊特征转换到公共状态空间中,其中,创新函数描述模糊特征和另外的物体特征之间的相似性。此外,优选地,基于创新函数从另外的物体特征确定合并的物体特征。
根据本发明的方法用于检测机动车辆周围的至少一个物体。在该方法中,致动第一传感器以发射传感器信号。此外,从第二传感器接收传感器数据,该传感器数据描述从至少一个物体反射的传感器信号。从传感器数据确定模糊特征作为用于描述至少一个物体的物体特征,其中,模糊特征描述至少一个物体与第一传感器之间的距离以及至少一个物体与第二传感器之间的距离。在这种情况下,模糊特征被描述为椭圆。此外,基于第一和/或第二传感器的至少一个另外测量的传感器数据,确定另外的物体特征,其描述至少一个物体。使用创新函数将另外的物体特征和模糊特征转换到公共状态空间,其中创新函数描述模糊特征与另外的物体特征之间的相似性。最后,基于创新函数从另外的物体特征确定合并的物体特征。
借助于该方法检测和/或识别机动车辆周围的一个或多个物体。该方法可以例如使用机动车辆的控制器或电子控制单元来执行。使用控制器,可以致动机动车辆的第一传感器,使得第一传感器由于致动而发射传感器信号。然后,该发射的传感器信号入射在至少一个物体上并从其反射。然后,第二传感器接收反射的传感器信号或传感器信号的回波。第一和第二传感器可以是超声传感器。当第二传感器接收到反射的超声波信号时,它提供传输到控制器的传感器数据。这些传感器数据可以包括例如多个传感器值和/或测量值,其描述反射的传感器信号。可以借助于控制器基于第一传感器发射传感器信号和第二传感器接收反射的传感器信号之间的运行时间来确定运行时间。可以基于该运行时间查明物体距第一传感器和第二传感器有多远。此外,规定了借助于控制器确定用于描述物体的模糊特征或模糊物体特征。
这种模糊特征表示用于描述物体的物体特征。例如,模糊特征的结果是,可以基于传感器数据或传感器信号的运行时间仅导出关于物体的距离信息项。模糊特征描述第一传感器和物体之间的距离以及第二传感器和物体之间的距离。不能从传感器数据导出关于物体的角度信息项。因此,不能精确地确定传感器和物体之间的相对位置。模糊特征可以例如在数字环境地图中输入,该数字环境地图描述了机动车辆的周围。在这种情况下,还可以在环境地图中以空间不确定性或模糊性输入模糊特征。还可以在该环境地图中输入另外的物体特征。这些物体特征例如可以通过机动车辆的其他传感器的测量来确定。还可以规定,第一和/或第二传感器已经确定了其他物体特征。
根据本发明规定的是,模糊特征被描述为椭圆形。此外,基于第一和/或第二传感器的至少一个另外测量的传感器数据确定描述至少一个物体的另外的物体特征,并且模糊特征与物体特征合并。这样的物体特征可以是例如点或点特征,其描述物体或其一部分在空间中的位置。物体特征也可以是线或线特征,其描述物体的边界或其一部分。这些物体特征将与模糊特征或椭圆合并,以便能够更详细地表征周围的物体。此外,使用创新函数将另外的物体特征和模糊特征转换到公共状态空间中,其中,创新函数描述物体特征和模糊特征之间的相似性,并且合并的物体特征是基于创新函数从物体特征确定的。可以将另外的物体特征和模糊特征转换和/或变换到公共状态空间中。该状态空间可以表示例如对于另外的物体特征和模糊特征的公共坐标系。特别地,状态空间可以与环境地图不同。可以在状态空间中描述另外的物体特征的状态和模糊特征的状态。还可以在该状态空间中确定创新函数,该创新函数可以表示用于确定另外的物体特征和模糊特征之间的相似性的相似度。特别地,创新函数可以描述另外的物体特征的状态与模糊特征的状态有多相似。借助于创新函数,可以表示另外的物体特征和模糊特征的相应状态,使得仅考虑对于确定相似性也感兴趣的状态和/或维度。例如,创新函数可以描述另外的物体特征和模糊特征之间的距离或者相对于另外的物体特征和模糊特征的取向的差异。首先可以基于创新函数确定模糊特征是否可以与另外的物体特征相关联。如果已经发生关联,则创新函数还可以用于从另外的物体特征导出合并的物体特征。因此,一方面,可以通过由第一和/或第二传感器执行的至少一个直接测量来检测物体,另一方面,可以通过由第一和第二传感器执行的间接测量来检测物体。例如,首先可以基于多个直接和/或间接测量来确定物体,并将其输入数字环境地图中。此后,这样的物体可以与间接测量融合并因此得到改善。可以通过创新函数统一测量的结果,从而可以改善物体的识别。
优选地,基于第一传感器和第二传感器的位置来确定椭圆的焦点,基于传感器信号的运行时间确定椭圆的半长轴的长度,基于焦点和椭圆的半长轴的长度来确定椭圆的半短轴的长度。第一传感器和第二传感器的位置或安装位置是已知的。它们可以存储在例如控制器的存储器中。确定椭圆,使得第一传感器和第二传感器的相应位置与椭圆的两个焦点相关联。此外,椭圆的半长轴的长度基于传感器信号的运行时间来确定。为此目的推测,传感器信号从其被反射的物体位于椭圆上。传感器信号的运行时间描述了从第一个焦点到描述物体的椭圆上的点的路径,以及从该点到第二个焦点的路径。因此,与运行时间相关联的路线对应于半长轴的两倍或椭圆的长轴的长度。半短轴的长度可以从焦点的位置和半长轴的长度导出。因此,可以基于传感器的已知位置和从传感器信号确定的运行时间以简单的方式确定椭圆。因为在使用传感器作为椭圆而不是圆的间接测量的情况下描述了模糊特征,所以可以提供关于物体位置的更准确的信息项。这总体上使得能够更准确和更可靠地检测至少一个物体。
优选地,基于焦点的距离确定椭圆的偏心率,并且根据半长轴的长度和偏心率确定半短轴的长度。由于两个传感器的各个位置或安装位置是已知的,因此也可以确定第一传感器和第二传感器之间的距离。该距离的一半也可以称为椭圆的偏心率。然后可以根据该偏心率和椭圆的半长轴的长度来确定椭圆的半短轴的长度。椭圆的半短轴的长度由半长轴的长度的平方减去偏心率的平方的平方根得出。因此,可以以简单的方式并在短的计算时间内确定描述模糊特征的椭圆的半短轴的长度。
在另一实施例中,确定另外的物体特征并将其输入数字环境地图中,该数字环境地图描述机动车辆的周围,并且随后确定模糊特征并将其输入数字环境地图中。情况可能是物体特征已经输入到环境地图中。随后,可以确定模糊特征。首先可以检查物体特征和模糊特征是否描述了周围的相同物体。因此可以检查模糊特征和物体特征是否可以彼此融合。在这种情况下,首先可以进行关联,该关联用于检查模糊特征与另外的物体特征的融合或合并是否合理。在此合并期间,可以从物体特征开始确定合并或更新的物体特征。该合并的物体特征是基于模糊物体特征确定的。因此可以更可靠地检测物体。
在一个实施例中,确定包括创新函数和用于创新函数的放大因子的线性映射规则,用于从另外的物体特征确定合并的物体特征,其中,放大因子取决于另外的物体特征的空间不确定性和模糊特征的空间不确定性。为了确定合并的物体特征,查明线性映射规则。该映射规则也可以称为过滤器。原则上,映射规则可以被定义为卡尔曼过滤器。映射规则可以包含创新函数和放大因子,创新函数乘以该放大因子。该放大因子也可以称为卡尔曼放大。可以根据另外的物体特征和模糊特征的相应空间不确定性来确定放大因子。可以借助于相应状态或特征的协方差或协方差矩阵来确定空间不确定性。因此可以考虑空间不确定性来确定合并的物体特征。
此外,如果确定放大因子使得合并的物体特征的空间不确定性最小,则是有利的。为了能够尽可能可靠地确定合并的物体特征,可以确定放大因子,使得合并的物体特征的空间不确定性尽可能小。因此可以确定放大因子,使得合并的物体特征的协方差矩阵是最小的。协方差矩阵可以被最小化,例如,协方差矩阵的特征值被最小化。在这种情况下,可以使用任意单位向量来变换协方差矩阵,并且随后可以最小化该标量投影。因此可以可靠地确定放大因子。
还可以规定的是,基于创新函数确定限制,并且如果创新函数超出限制,则在确定合并的物体特征时保持未考虑模糊特征。创新函数可用于决定是否应合并模糊特征和物体特征。特别地,可以确定创新函数的期望和/或创新功能的协方差。也可以从中导出也称为马哈拉诺比斯(MahaLanobis)距离的限制。如果创新的马哈拉诺比斯距离小于该限制,则可以确定合并的物体特征。该创新描述了这种情况下创新函数的输出。对于创新大于此限制的情况,不能考虑模糊特征。
优选地将点特征或线特征确定为另外的物体特征。例如,这样的点特征可以被确定,例如由第一传感器和/或第二传感器多个时间顺序连续的时间点或多个时间顺序连续的测量中检测物体。例如,可以借助于三角测量来确定第一和/或第二传感器之间相对于物体的相对位置。另外的物体特征也可以是线或线特征,其描述物体的边界或其一部分。例如,当机动车辆移动经过物体并且当其移动经过时以持续的方式执行测量时,获得这样的线特征。然后可以组合描述到物体的距离的相应测量值或传感器数据以形成线特征。还可以规定的是,确定多个测量值并且通过测量值布置线以便获得线特征。
此外,有利的是,确定描述模糊特征与点特征之间的距离或模糊特征与线特征之间的距离的测量模型以确定创新函数。测量模型可以特别地映射测量空间。如果另外的物体特征是点特征,则特别地,确定生成的椭圆以确定测量模型,使得点特征位于所生成的椭圆上。因此确定生成的椭圆以确定测量模型,该生成的椭圆也可以称为测量椭圆。该生成的椭圆基于描述模糊特征和/或测量的椭圆确定。在这种情况下,生成的椭圆和椭圆优选地具有相同的焦点。确定该生成的椭圆,使得点特征位于生成的椭圆上。因此,如果使用该椭圆测量点特征作为物体,则检查模糊特征如何以椭圆的形式出现。由于椭圆和生成的椭圆具有相同的焦点,所以该创新描述了半长轴的长度之间的差异。测量模型描述了从第一传感器的位置经由点特征到第二传感器的位置的路线的一半。该路线的一半对应于半长轴。这使得能够简单地确定物体特征是点特征的情况的测量模型。
如果另外的物体特征是线特征,则特别地,确定生成的椭圆以确定测量模型,使得线特征切向地延伸到所生成的椭圆。原则上,可以确定生成的椭圆以确定测量模型,使得其与线特征相交。然而,由此得到两个交叉点,从而不能确定唯一的解。因此,确定生成的椭圆,使得它仅与线特征具有单个交叉点。如果线特征切向地延伸到生成的椭圆,则会出现这种情况。因此,对于物体特征是线特征的情况,也可以以简单的方式确定测量模型。
描述创新函数的输出的创新优选地基于椭圆的半长轴的长度与测量模型之间的差异来确定。如已经解释的那样,测量模型描述了所生成的椭圆的半长轴的长度。这可以与椭圆的半长轴的长度进行比较,椭圆的半长轴被确定为模糊特征。因此可以确定作为模糊特征的椭圆或测量的椭圆如何与生成的椭圆不同。因此,可以以简单的方式确定模糊特征或椭圆与物体特征、点特征或线特征之间的相似性。
根据本发明的用于机动车辆的驾驶员辅助系统的控制器设计为用于执行根据本发明的方法。控制器可包括计算机、微处理器、数字信号处理器等。控制器优选地由机动车辆的电子控制单元形成。
根据本发明的用于机动车辆的驾驶员辅助系统包括根据本发明的控制器以及第一传感器和第二传感器,该第一传感器和该第二传感器尤其是超声传感器。控制器连接到第一和第二传感器以用于数据传输。在这种情况下,第一传感器用作用发射器,用于发射传感器信号。第二传感器用作接收器,用于接收从至少一个物体反射的传感器信号。还可以规定的是,驾驶员辅助系统具有另外的传感器,其可以是超声传感器、相机、雷达传感器、激光雷达传感器、激光扫描仪等。
另一实施例涉及一种用于检测机动车辆周围的至少一个物体的方法。在这种情况下,优选地致动第一传感器以发射传感器信号。此外,特别是传感器数据由第二传感器接收,其描述从至少一个物体反射的传感器信号。此外,优选地规定,从传感器数据确定模糊特征作为用于描述至少一个物体的物体特征,其中,模糊特征描述至少一个物体与第一传感器的位置和/或第二传感器的位置之间的距离。特别地,模糊特征被描述为椭圆,其中,椭圆的焦点基于第一传感器和第二传感器的位置来确定。此外,椭圆的半长轴优选地基于传感器信号的运行时间来确定,并且椭圆的半短轴的长度尤其基于焦点和半长轴的长度来确定。
根据本发明的机动车辆包括根据本发明的驾驶员辅助系统。机动车辆尤其设计为乘用车辆。
参考根据本发明的方法提出的优选实施例及其优点对应地适用于根据本发明的控制器、根据本发明的驾驶员辅助系统和根据本发明的机动车辆。
本发明的另外的特征由权利要求、附图和附图说明得出。上面在说明书中提到的特征和特征的组合,以及之后在附图的描述中和/或在附图中单独示出的特征的特征和组合不仅可以在相应指定的组合中使用,而且可以在其他组合中或单独地使用,而不脱离本发明的范围。因此,本发明的实施例也被考虑为包括和公开,这些实施例未在附图中明确示出并且被解释,但是起源自被解释的实施例并且可以通过来自被解释的实施例的特征的单独组合来产生。实施例和特征的组合也被考虑为公开,这些实施例和特征的组合因此不具有最初表示的独立权利要求的所有特征。另外,特别是通过上述实施例,实施例和特征的组合可以被考虑为公开,这些实施例和特征的组合超出或偏离参考权利要求的所表示的特征的组合。
附图说明
现在将基于优选的的示例性实施例以及参考附图更详细地解释本发明。
在这些图中:
图1示出了根据本发明的一个实施例的机动车辆,其包括驾驶员辅助系统,该驾驶员辅助系统具有用于检测物体的多个传感器;
图2示出了圆,其用于描述在传感器的直接测量的情况下物体的位置;
图3示出了椭圆,其用于描述在传感器的间接测量的情况下物体的位置;
图4示出了另一实施例中的图3的椭圆;
图5示出了椭圆和点特征的示意图,其中,点特征和椭圆将被合并;和
图6示出了椭圆和线特征的示意图,其中线特征和椭圆将被合并。
附图中,相同和功能相同的元件设有相同的附图标记。
具体实施方式
图1在俯视图中示出了根据本发明的一个实施例的机动车辆1。机动车辆1在当前情况下被设计为乘用车。机动车辆1包括驾驶员辅助系统2,利用该驾驶员辅助系统2可以检测机动车辆1的周围环境4中的至少一个物体3。
驾驶员辅助系统2包括控制器5,该控制器例如可以由机动车辆1的电子控制单元(ECU)形成。此外,驾驶员辅助系统2包括多个传感器6、7。传感器6、7可以是例如超声传感器,照相机,雷达传感器,激光雷达传感器,激光扫描仪等。在本示例性实施例中,驾驶员辅助系统2包括十二个超声传感器6,其中的六个布置在前部区域8中并且其中的六个布置在机动车辆1的后部区域9中。超声传感器6例如可以布置在机动车辆1的保险杠上。超声波信号可以由各个超声传感器6发射,并且可以接收从物体3反射的超声波信号。还可以执行间接测量,其中一个超声传感器6发射超声波信号,并且相邻的超声传感器6接收从物体3反射的超声波信号。
此外,驾驶员辅助系统2包括摄像机7,通过摄像机7可以检测物体3。可以在摄像机7的下游连接分析单元,通过该分析单元可以分析摄像机7的图像。例如,可以使用相应的物体识别算法来识别物体3。超声传感器6和摄像机7各自连接到控制器5以进行数据传输。在本情况下,为了可理解性,未示出对应的数据线。可以通过传感器6、7中的每一个执行测量,其中生成测量传感器数据。然后,这些传感器数据可以由相应的传感器6、7传输到控制器5。
控制器5可以基于其从传感器6、7中的一个接收的传感器数据来确定描述物体3的物体特征xP,xL,xU。还可以规定,传感器6、7自身确定物体特征,然后将它们传输到控制器5。物体特征xP,xL,xU的确定可以在所谓的特征提取水平中进行。为此目的,可以组合或合并类似传感器的传感器数据的测量值。物体特征xP,xL,xU可以例如在数字环境地图中输入,该数字环境地图描述机动车辆1的周围环境4。源自不同的传感器的提取的物体特征xP,xL,xU可以首先在环境地图或特征提取水平中融合。物体特征xP,xL,xU可以是点特征xP,线特征xL,或模糊特征xU
这些物体特征xP,xL,xU可以在环境地图中更新。为此,可以确定新的物体特征xP,xL,xU。如果物体特征xP,xL,xU已经存在于环境地图中并且确定了新的物体特征xP,xL,xU,则可以首先检查新的物体特征xP,xL,xU是否可以与存在于环境地图中的物体特征xP,xL,xU相关联。如果物体特征xP,xL,xU彼此相关联,则可以合并物体特征xP,xL,xU。如果不发生关联,则新的物体特征xP,xL,xU可以容纳在环境地图中。
可以从超声传感器6的传感器数据确定物体特征xP,xL,xU。可以基于超声传感器6的传感器数据确定到物体3的距离。为此,超声传感器6发射超声波信号并接收从物体3反射的超声波信号。然后可以基于超声波信号的发射和从物体3反射的超声波信号的接收之间的运行时间来确定距离。如果驾驶员辅助系统2-如图1的示例中所示-具有多个超声传感器6,则可以使用超声传感器6执行直接和间接测量。
在图2中示意性地示出了超声传感器6的直接测量。在直接测量的情况下,超声传感器6发射超声波信号或传感器信号,并且还接收从物体3反射的超声波信号或超声波信号的回波。然后可以从超声波信号的运行时间确定物体3位于围绕超声传感器6的圆xK或半圆上。圆xK的半径由超声波信号的运行时间的一半产生。箭头10描述了在这种情况下传感器信号或超声波信号的信号路径。
在图3中示意性地示出了超声传感器6的间接测量。在这种情况下,第一超声传感器6作为发射器操作。该超声传感器6位于位置xS1并发射超声波信号。位于位置xS2的第二或相邻超声传感器6作为接收器操作,并接收从物体3反射并由第一超声传感器6发射的超声波信号。在这种情况下,物体3位于椭圆xE或半椭圆上,其中,超声传感器6的位置xS1,xS2与椭圆xE的相应焦点xF1和xF2相关联。
如已经解释的,可以通过超声传感器6在多次测量中生成的传感器数据的组合将点特征xP或线特征xL确定为物体特征xP,xL,xU。然而,在某些情况下,不可能确定具有明确空间位置的物体特征xP,xL,xU。例如,如果没有足够的传感器数据,就是这种情况。在这种情况下,提供模糊特征xU作为物体特征xP,xL,xU。在直接测量的情况下,这被描述为在传感器轴线上放置一点,该点具有距传感器位置的测量距离。在间接测量的情况下,椭圆被圆近似,圆的中心点xC是两个传感器位置xS1,xS2的平均值。该中心点xC也称为虚拟传感器位置。圆的半径对应于椭圆的半短轴b的长度。这可以描述如下:
Figure BDA0001803453660000101
以类似的方式,使用计算的半径在虚拟传感器的轴线上生成模糊特征xU。即使不可能基于传感器数据确定点特征xP或线特征xL,也可以规定点特征xP或线特征xL与模糊特征xU合并。
点特征xP,线特征xL和模糊特征xU被描述为具有期望值
Figure BDA0001803453660000102
和协方差矩阵
Figure BDA0001803453660000103
的高斯随机变量x。因此,点特征xP=(xp,yp)T由其在空间中的二维坐标表示。线特征xL=(xl,yl,αl)T由二维空间中的基点或枢轴点和线的角度αl描述。在当前情况下,线的长度不是随机建模的。最后,模糊特征xU由标量随机变量xU=du描述,其中du是其距实际或虚拟传感器位置xS=(xs,ys)T的欧几里德距离。
要合并物体特征xP,xL,xU,使用通用线性估计器形式的映射函数:
x′1=x1+Kh(x1,x2)
在这种情况下,可以用上述物体特征xP,xL,xU代替x1和x2,即点特征xP,线特征xL或模糊特征xU。为此目的,特别地,在下文中描述点特征xP与模糊特征xU的合并或线特征xL与模糊特征xU的合并。通过映射规则组合两个物体特征xP,xL,xU,以获得关于已经存在的物体特征xP,xL,xU的其他信息项。借助于映射规则,可以从第一状态x1或第一物体特征xP,xL,xU确定合并物体特征或合并状态x′1,随机创新函数h(x1,x2)用于此目的。
创新函数h描述了物体特征xP,xL,xU和/或其状态之间的相似性。映射规则或创新函数h也可以是非线性的。在这种情况下,创新函数h然后可以线性化。这可以借助于一阶泰勒级数来进行:
Figure BDA0001803453660000111
在这种情况下,因子H1和H2是雅可比矩阵。此外,映射规则包括放大因子K或放大矩阵。确定放大因子K在于投影eTP′1e被最小化,其中e可以是任意单位矢量。放大系数K可以描述如下:
Figure BDA0001803453660000112
在当前情况下考虑x1和x2不相关。因此,得到
Figure BDA0001803453660000113
合并结果和更新的协方差矩阵因此导致:
Figure BDA0001803453660000114
P′1=P1+KH1P1.
为了检查物体的特征xP,xL,xU和/或状态是否相互关联,定义了所谓的马哈拉诺比斯距离:
Figure BDA0001803453660000115
马哈拉诺比斯距离规定了限制。如果低于此限制,则状态或物体特征xP,xL,xU的关联是合理的。此外,可以使用进一步的几何研究来检查合理性。
为了检查物体特征xP,xL,xU是否应该彼此相关联并合并,要对于物体特征xP,xL,xU确定合适的创新函数h。下面解释用于点特征xP与模糊特征xU的合并以及线特征xL与模糊特征xU的合并的模型。两个模型被确定为测量模型aP,aL与模糊特征xU的测量物体距离du之间的差异。测量模型aP,aL可以将已知的物体特征xP,xL传送到测量空间中。在该测量空间中,然后可以将物体特征xP,xL,xU与当前测量值进行比较。
如果要将点特征xP与模糊特征xU合并,则测量模型aP是点特征xP和传感器位置xS之间的欧几里德距离dP。创新函数h的结果如下:
Figure BDA0001803453660000121
Figure BDA0001803453660000122
Figure BDA0001803453660000123
如果要将线特征xL与模糊特征xU合并,则测量模型aL是线特征xL和传感器位置xS之间的最短距离dL的绝对值。创新函数h的结果如下:
Figure BDA0001803453660000124
Figure BDA0001803453660000125
Figure BDA0001803453660000126
下面将更详细地解释两个创新函数h的图形描述。
如上所述,模糊特征xU被描述为具有距传感器位置xS的距离du的圆形距离测量。该模型独立于生成模糊特征的测量类型使用。在通过超声传感器6进行直接测量的情况下,该模型描述了相对于信号路径的存在的信息项。对于由超声传感器6进行的间接测量,这种模型仅表示近似,其精确度取决于椭圆与圆的相似程度。为了解除这个限制,首先扩展模糊特征xU的描述,以便也能够存储来自间接测量的信息项。此外,确定创新函数h以便能够以椭圆距离测量的形式将点特征xP和线特征xL与模糊特征xU组合。
图4示出了作为模糊特征xU的椭圆xE的示意图。椭圆xE可以以各种方式在数学上描述。典型的描述是将椭圆xE视为一组点,其总和对应于到主长轴2a的长度的两个焦点xF1=(xf1,yf1)T和xF2=(xf2,yf2)T的欧几里德距离:
Figure BDA0001803453660000131
该描述的优点在于它独立于任何笛卡尔坐标系。此外,椭圆xE可以通过使用半长轴a和半短轴b的隐式椭圆方程来描述:
Figure BDA0001803453660000132
在椭圆xE的坐标系中描述该等式,其中x轴在半长轴a上取向,y轴在半短轴b上取向。在这种情况下,椭圆xE以角度α倾斜。椭圆xE的另一特性是所谓的线性偏心率e:
Figure BDA0001803453660000133
线性偏心率e描述了每个焦点xF1,xF2与椭圆xE的中心点xC=(xc,yc)T之间的距离。线性偏心率e由0≤e<a界定。对于偏心率为0的情况e=0,椭圆xE将是圆形。如果e=a,椭圆xE将退化为一条线。
为了获得模糊特征xU的扩展描述,必须将关于超声传感器6的间接测量的所有可用信息项从特征提取层传送到数字环境地图。例如,必须知道两个超声传感器6的位置xS和关于超声传感器的运行时间的信息项。然后可以从运行时间确定半长轴a的长度:a=运行时间距离/2。可以根据超声传感器6的距离确定偏心距e:e=传感器距离/2。然后从以下可以由此确定半短轴b的长度:
Figure BDA0001803453660000134
其中在融合期间不需要半短轴的长度b。
在这种情况下,假设超声传感器6之间的距离或传感器距离是完全已知的。这可以存储在例如控制器5的存储器中。测量的不确定性反映在半长轴a的长度和半短轴b的长度。由于两个半轴a,b的长度彼此不同并且取决于线性偏心率e,所以椭圆xE的不确定性完全通过考虑半轴的单个标量随机变量a或b来反映。由于超声传感器
Figure BDA0001803453660000135
用于直接测量,因此模糊特征xU由半长轴a的长度随机确定。由此,得到xU=au,其中au被建模为高斯曲线。另外,由焦点xF1和xF2描述的传感器位置xS,或者椭圆的中心点xC、线性偏心率e和椭圆xE的取向α的合并,都需要唯一地指定模糊特征。
为了确定关联和合并,将确定两个创新函数h(xP,xU)和h(xL,xU),使用该两个创新函数,点特征xP和线特征xL可以与模糊特征xU合并。确定创新函数h,使得它们考虑测量模型a(x)与测量的椭圆xE的半长轴a之间的差异:
h(x,xU)=h(x,au)=a(x)-au.
在这种情况下,状态x可以由点特征xP的状态或线特征xL的状态代替。测量模型aP(xP)可以确定所产生的椭圆x′E的半长轴a的长度,如果使用超声传感器6或多个超声传感器6测量点特征xP,则点特征xP将位于所产生的椭圆x′E上。如果线特征xL要与模糊特征xU合并,则测量模型aL(xL)确定所生成的椭圆xE的半长轴a的长度,线特征xL将切向地延伸到该椭圆xE。在这种情况下可以考虑的是,线特征xL是使用相同的超声传感器6从测量确定的,模糊特征xU也从该超声传感器6的测量确定。
下面将解释点特征xP和线特征xL的测量模型的确定。将基于图5解释用于点特征xP与椭圆xE的合并的测量模型aP的确定,图5示出了点特征xP和椭圆xE的示意图。在点特征xP的情况下,测量模型由以下定义导出:
Figure BDA0001803453660000141
为了确定测量模型aP,在当前情况下,确定生成的椭圆x′E。确定该生成的椭圆x′E,使得点特征xP位于所生成的椭圆x′E上。可以从以下确定所生成的椭圆x′E的半长轴a的长度:
Figure BDA0001803453660000142
这适用于a>e。如果满足条件a=e,则点特征xP位于将焦点xF1,xF2彼此连接的线上。在这种情况下,无法从点特征xP导出有效测量结果。可以为所有其他点特征xP确定有效的椭圆。测量模型aP由从第一焦点xF1经点特征xP延伸到第二焦点xF2的路线的一半得到。
该模型用于创新函数h:
Figure BDA0001803453660000151
在创新函数h的线性化之后,可以确定雅可比矩阵
Figure BDA0001803453660000152
Figure BDA0001803453660000153
Figure BDA0001803453660000154
Figure BDA0001803453660000155
雅各比矩阵是对于除了
Figure BDA0001803453660000156
Figure BDA0001803453660000157
之外的所有点定义的。但是,如果
Figure BDA0001803453660000158
这不会发生。
将基于图6解释用于线特征xL与椭圆xE的合并的测量模型aL的确定,图6示出了线特征xL和椭圆xE的示意图。线特征xL的测量模型aL可以通过将线特征xL与生成的椭圆x′E相交来确定。由超声传感器以线的形式对真实物体进行的间接测量将得到椭圆测量结果,该椭圆测量结果相切地延伸到线。这意味着线或线特征xL必须切向延伸到生成的椭圆x′E。在第一步骤中,该解是从存在于所生成的椭圆x′E的局部坐标系中线特征xL导出的。然后可以扩展测量模型aL,使得线特征xL可以用在每个笛卡尔坐标系中。
为确定交叉点,线或线特征xL以显式参数形式描述:
Figure BDA0001803453660000159
这被插入到隐式椭圆方程中:
Figure BDA00018034536600001510
Figure BDA00018034536600001511
对于参数t求解该方程,因为可以从其导出交点。由于该方程是二次方程式,因此它被引入一般二次方程的形式中。然后解该方程:
Figure BDA0001803453660000161
为获得唯一解,判别式必须为0:
0=p2-q.
可以通过插入p和q并用以下替换b2=a2-e2来对于a解此规范:
Figure BDA0001803453660000162
Figure BDA0001803453660000163
这种用于计算半长轴a的长度的解适用于在椭圆xE的局部坐标系中定义的线特征xL。因此,通常线特征xL必须转换到椭圆xE的局部坐标系中:
Figure BDA0001803453660000164
通过将转换插入到解中,可以得到以下结果:
Figure BDA0001803453660000165
最后,系列向量被重写为:
Figure BDA0001803453660000166
并被插入。这得到:
Figure BDA0001803453660000171
应注意,第一项中的线特征xL的倾斜位置的旋转完全消失,并且在第二项中仅需要角度变换。不需要点特征xP的旋转,因为第一表达式是线特征xL与椭圆xE的中心点xC之间的最短距离的平方,并且这是不变的。获得的解仅在a>e时才有效。如果该条件不适用,则线特征xL与两个焦点xF1,xF2之间的线段相交。在这种情况下,无法从线特征xL导出正确的椭圆xE
在几何方面,测量模型aL通过线特征xL上的焦点xF1,xF2中的一个的投影以及其到椭圆xE的中心点xC的欧几里德距离d的计算来确定。通过该方法可以容易地示出,如果线特征xL位于焦点xF1,xF2中的一个或两个上,则保持条件a=e。
上述解用于创新函数h,其描述如下:
Figure BDA0001803453660000172
此外,雅克比矩阵被确定:
Figure BDA0001803453660000173
Figure BDA0001803453660000174
雅各比矩阵
Figure BDA0001803453660000175
是为所有情况定义的,除了
Figure BDA0001803453660000176
在这种情况下,线特征xL垂直于椭圆xE的主轴并且延伸通过椭圆xE的中心点xC。该规范
Figure BDA0001803453660000177
已经排除了这种情况。
最后,示出了,用于椭圆xE的确定的创新函数h是已经存在的圆的模型的一般化。对于圆的特殊情况,其中:e=0或者xF1=xF2=xC=xS,上述测量模型在数学上是相等的:
Figure BDA0001803453660000181
Figure BDA0001803453660000182
应注意,线的现有测量模型的法线指向相反方向。
在当前情况下,解释了基于超声传感器6的间接测量。还可以规定,使用机动车辆1的其他传感器的传感器数据。例如,可以从摄像机7的测量值生成物体特征并将其输入到周围环境地图中。以这种方式可以可靠地检测物体3。

Claims (15)

1.一种用于检测机动车辆(1)的周围(4)的至少一个物体(3)的方法,其中第一传感器(6)被致动以发射传感器信号,从第二传感器(6)接收传感器数据,所述传感器数据描述从至少一个物体(3)反射的传感器信号,从传感器数据确定模糊特征(xU)作为用于描述所述至少一个物体(3)的物体特征(xP,xL,xU),其中,模糊特征(xU)描述所述至少一个物体(3)和第一传感器(6)之间的距离以及所述至少一个物体(3)和第二传感器(6)之间的距离,
其特征在于,
模糊特征(xU)被描述为椭圆(xE),基于第一传感器和/或第二传感器(6)的至少一个另外的测量的传感器数据确定描述所述至少一个物体(3)的另外的物体特征(xP,xL),并且使用创新函数(h)将所述另外的物体特征(xP,xL)和所述模糊特征(xU)转换到公共状态空间中,其中,所述创新函数(h)描述所述模糊特征(xU)和所述另外的物体特征(xP,xL)之间的相似性,并且基于所述创新函数(h)从所述另外的物体特征(xP,xL)确定合并的物体特征。
2.根据权利要求1所述的方法,
其特征在于,
基于第一传感器(6)的位置(xS1)和第二传感器(6)的位置(xS2)确定椭圆(xU)的焦点(xF1,xF2),基于传感器信号的运行时间确定椭圆(xE)的半长轴的长度(a),基于焦点(xF1,xF2)和半长轴的长度(a)来确定椭圆(xE)的半短轴的长度(b)。
3.根据权利要求2所述的方法,
其特征在于,
基于焦点(xF1,xF2)的距离确定椭圆(xE)的偏心率(e),并且从半长轴的长度(a)和偏心率(e)确定半短轴的长度(b)。
4.根据前述权利要求中的任一项所述的方法,
其特征在于,
确定所述另外的物体特征(xP,xL)并将其输入数字环境地图中,所述数字环境地图描述了机动车辆的周围,随后确定所述模糊特征(xU)并将其输入环境地图中。
5.根据权利要求1至3中的任一项所述的方法,
其特征在于,
为了从所述另外的物体特征(xP,xL)确定合并的物体特征,确定线性映射规则,所述线性映射规则包括创新函数(h)和用于创新函数(h)的放大因子(K),其中,所述放大因子(K)取决于所述另外的物体特征(xP,xL)的空间不确定性和所述模糊特征(xU)的空间不确定性。
6.根据权利要求5所述的方法,
其特征在于,
确定所述放大因子(K),使得合并的物体特征的空间不确定性最小。
7.根据权利要求1至3中的任一项所述的方法,
其特征在于,
将点特征(xP)或线特征(xL)确定为所述另外的物体特征(xP,xL)。
8.根据权利要求1至3中的任一项所述的方法,
其特征在于,
为了确定所述创新函数(h),确定测量模型(aP,aL),所述测量模型(aP,aL)描述所述模糊特征(xU)与点特征(xP)之间的距离(d)或所述模糊特征(xU)与线特征(xL)之间的距离。
9.根据权利要求8所述的方法,
其特征在于,
如果所述另外的物体特征(xP,xL)是点特征(xP),则为了确定所述测量模型(aP),确定生成的椭圆(x'E),使得所述点特征(xP)位于生成的椭圆(x'E)上。
10.根据权利要求8所述的方法,
其特征在于,
如果所述另外的物体特征(xP,xL)是线特征(xL),则为了确定所述测量模型,确定生成的椭圆(x'E),使得所述线特征(xL)切向地延伸到生成的椭圆(x'E)。
11.根据权利要求8所述的方法,
其特征在于,
基于椭圆(xE)的半长轴的长度(a)与测量模型(aP,aL)之间的差异来确定描述所述创新函数(h)的输出的创新。
12.一种用于机动车辆(1)的驾驶员辅助系统(2)的控制器(5),所述控制器(5)设计为用于执行根据前述权利要求中任一项所述的方法。
13.一种用于机动车辆(1)的驾驶员辅助系统(2),所述驾驶员辅助系统(2)包括根据权利要求12所述的控制器(5),并且包括第一传感器(6)和第二传感器(6)。
14.根据权利要求13所述的驾驶员辅助系统,
其特征在于,
所述第一传感器(6)和所述第二传感器(6)是超声传感器。
15.一种机动车辆(1),所述机动车辆(1)包括根据权利要求13或14所述的驾驶员辅助系统(2)。
CN201680083748.XA 2016-03-18 2016-08-05 通过传感器的间接测量来改进对机动车辆周围的至少一个物体的检测的方法,控制器,驾驶员辅助系统和机动车辆 Active CN108780149B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
DE102016105023.7A DE102016105023A1 (de) 2016-03-18 2016-03-18 Verfahren zum Erfassen zumindest eines Objekts in einer Umgebung eines Kraftfahrzeugs durch Zusammenlegen von Objektmerkmalen, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102016105022.9 2016-03-18
DE102016105023.7 2016-03-18
DE102016105022.9A DE102016105022A1 (de) 2016-03-18 2016-03-18 Verfahren zum Erfassen zumindest eines Objekts in einer Umgebung eines Kraftfahrzeugs durch eine indirekte Messung mit Sensoren, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
PCT/EP2016/068797 WO2017157483A1 (de) 2016-03-18 2016-08-05 Verfahren zur verbesserung einer erfassung zumindest eines objekts in einer umgebung eines kraftfahrzeugs durch eine indirekte messung mit sensoren, steuereinrichtung, fahrerassistenzsystem sowie kraftfahrzeug

Publications (2)

Publication Number Publication Date
CN108780149A CN108780149A (zh) 2018-11-09
CN108780149B true CN108780149B (zh) 2022-12-09

Family

ID=56571331

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680083748.XA Active CN108780149B (zh) 2016-03-18 2016-08-05 通过传感器的间接测量来改进对机动车辆周围的至少一个物体的检测的方法,控制器,驾驶员辅助系统和机动车辆

Country Status (6)

Country Link
US (1) US10564282B2 (zh)
EP (1) EP3430423B1 (zh)
JP (1) JP6862465B2 (zh)
KR (1) KR102146175B1 (zh)
CN (1) CN108780149B (zh)
WO (1) WO2017157483A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210080568A1 (en) * 2018-04-25 2021-03-18 Waymo Llc Underbody Radar Units
DE102018209432A1 (de) * 2018-06-13 2019-12-19 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bestimmen einer Position eines mobilen Objekts
DE102019002662A1 (de) * 2019-04-10 2020-10-15 Friedrich-Alexander-Universität Erlangen-Nürnberg Verfahren zur Auswertung von Radarsystemen
EP3792656A1 (en) * 2019-09-12 2021-03-17 Continental Automotive GmbH Method for elevation angle estimation based on an ultrasound sensor
CN114274954A (zh) * 2021-12-16 2022-04-05 上汽大众汽车有限公司 一种车内外感知结合的车辆主动接管系统及方法
DE102022117277A1 (de) * 2022-07-12 2024-01-18 Valeo Schalter Und Sensoren Gmbh Verfahren zum trainieren eines neuronalen netzes

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4278142A (en) * 1978-05-08 1981-07-14 Agency Of Industrial Science And Technology Automatic guidance system for vehicles
JPS5866080A (ja) * 1981-10-16 1983-04-20 Nissan Motor Co Ltd 車両周辺サ−チアイ装置
JPH03201110A (ja) * 1989-12-28 1991-09-03 Toyota Central Res & Dev Lab Inc 自律走行車の位置方位検出装置
US5281947A (en) * 1991-09-20 1994-01-25 C.A.R.E., Inc. Vehicular safety sensor and warning system
US5493269A (en) * 1991-09-20 1996-02-20 C.A.R.E., Inc. Vehicular safety sensor and warning system
CA2089017C (en) * 1992-02-13 1999-01-19 Yasurou Yamanaka Method of mounting wheel to vehicle
US9102220B2 (en) * 1992-05-05 2015-08-11 American Vehicular Sciences Llc Vehicular crash notification system
JP2783079B2 (ja) * 1992-08-28 1998-08-06 トヨタ自動車株式会社 ヘッドランプの配光制御装置
US5638116A (en) * 1993-09-08 1997-06-10 Sumitomo Electric Industries, Ltd. Object recognition apparatus and method
JPH08318765A (ja) * 1995-05-25 1996-12-03 Hitachi Ltd 情報化自動車制御装置及び方法
JPH09244003A (ja) * 1996-03-13 1997-09-19 Toyota Motor Corp 車両用画面制御装置
KR100243317B1 (ko) * 1997-04-18 2000-03-02 윤종용 차종 판별 장치
DE19738608C1 (de) * 1997-09-04 1998-07-16 Bosch Gmbh Robert Fahrwerkregelung
DE19842250A1 (de) * 1998-09-15 2000-03-16 Mannesmann Vdo Ag Verfahren zur Bestimmung des Abstandes zwischen einem Objekt und einer sich örtlich verändernden Einrichtung, insbesondere einem Kraftfahrzeug
JP4287532B2 (ja) * 1999-03-01 2009-07-01 矢崎総業株式会社 車両用後側方監視装置
DE10136981A1 (de) * 2001-07-30 2003-02-27 Daimler Chrysler Ag Verfahren und Vorrichtung zur Ermittlung eines stationären und/oder bewegten Objektes
JP2003194938A (ja) * 2001-12-25 2003-07-09 Denso Corp 障害物検知装置
EP1504276B1 (en) * 2002-05-03 2012-08-08 Donnelly Corporation Object detection system for vehicle
US7702133B2 (en) * 2003-07-11 2010-04-20 Hitachi, Ltd. Image-processing camera system and image-processing camera control method
WO2005080134A1 (en) * 2004-02-20 2005-09-01 Sharp Kabushiki Kaisha Surroundings exhibiting system and surroundings exhibiting method
US7432800B2 (en) * 2004-07-07 2008-10-07 Delphi Technologies, Inc. Adaptive lighting display for vehicle collision warning
US8924078B2 (en) * 2004-11-18 2014-12-30 Gentex Corporation Image acquisition and processing system for vehicle equipment control
US9250081B2 (en) * 2005-03-25 2016-02-02 Irobot Corporation Management of resources for SLAM in large environments
DE102005026386A1 (de) * 2005-06-02 2006-12-07 Volkswagen Ag Verfahren und Vorrichtung zum Bestimmen von Freiflächen in der Umgebung eines Fahrzeugs
JP2008039497A (ja) * 2006-08-03 2008-02-21 Matsushita Electric Works Ltd 障害物検出装置
US20080211652A1 (en) * 2007-03-02 2008-09-04 Nanolumens Acquisition, Inc. Dynamic Vehicle Display System
US20080300755A1 (en) * 2007-05-30 2008-12-04 Dinu Petre Madau Side collision avoidance system
FR2923933B1 (fr) * 2007-11-16 2010-03-26 Valeo Vision Procede de detection d'un phenomene perturbateur de visibilite pour un vehicule
US8694195B2 (en) * 2007-12-04 2014-04-08 Volkswagen Ag Motor vehicle having a wheel-view camera and method for controlling a wheel-view camera system
US20090292468A1 (en) * 2008-03-25 2009-11-26 Shunguang Wu Collision avoidance method and system using stereo vision and radar sensor fusion
JP5120139B2 (ja) * 2008-08-08 2013-01-16 トヨタ自動車株式会社 物体検出装置
US8120476B2 (en) * 2009-07-22 2012-02-21 International Truck Intellectual Property Company, Llc Digital camera rear-view system
US8482430B2 (en) * 2009-10-13 2013-07-09 GM Global Technology Operations LLC Method and apparatus for communicatively changing interior illumination color in a vehicle
DE102010023162A1 (de) * 2010-06-09 2011-12-15 Valeo Schalter Und Sensoren Gmbh Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Einparken in eine Parklücke, Fahrerassistenzeinrichtung und Kraftfahrzeug
DE102010045657A1 (de) 2010-09-17 2012-03-22 Wabco Gmbh Umfeld-Überwachungssystem für ein Fahrzeug
US8589058B2 (en) * 2010-11-10 2013-11-19 Honda Motor Co., Ltd. Method of retrieving information for a motor vehicle
DE112011105533B4 (de) * 2011-08-16 2016-10-06 Mitsubishi Electric Corp. Objektdetektionsvorrichtung
US9381916B1 (en) * 2012-02-06 2016-07-05 Google Inc. System and method for predicting behaviors of detected objects through environment representation
DE102012004396A1 (de) * 2012-03-03 2013-09-05 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Erfassen von Objekten in einer Umgebung eines Fahrzeugs
DE102013221263A1 (de) * 2013-10-21 2015-04-23 Schaeffler Technologies Gmbh & Co. Kg Autonom fahrendes Golfcaddy mit Ultraschallsensorik
EP2892020A1 (en) * 2014-01-06 2015-07-08 Harman International Industries, Incorporated Continuous identity monitoring for classifying driving data for driving performance analysis
DE102015220360A1 (de) * 2015-10-20 2017-04-20 Robert Bosch Gmbh Verfahren zur Auswahl einer optimierten Trajektorie

Also Published As

Publication number Publication date
EP3430423A1 (de) 2019-01-23
WO2017157483A1 (de) 2017-09-21
CN108780149A (zh) 2018-11-09
KR20180114158A (ko) 2018-10-17
JP2019512699A (ja) 2019-05-16
US10564282B2 (en) 2020-02-18
US20190079188A1 (en) 2019-03-14
KR102146175B1 (ko) 2020-08-19
JP6862465B2 (ja) 2021-04-21
EP3430423B1 (de) 2022-03-30

Similar Documents

Publication Publication Date Title
CN108780149B (zh) 通过传感器的间接测量来改进对机动车辆周围的至少一个物体的检测的方法,控制器,驾驶员辅助系统和机动车辆
JP2501010B2 (ja) 移動ロボットの誘導装置
CN1940591B (zh) 使用传感器融合进行目标跟踪的系统和方法
US11348342B2 (en) Method and device in a motor vehicle for improved data fusion in an environment detection
CN109059902A (zh) 相对位姿确定方法、装置、设备和介质
JP6721784B2 (ja) 情報処理装置、サーバ装置、制御方法、プログラム及び記憶媒体
CN110082753A (zh) 确定车辆位置的方法
Rodríguez Flórez et al. Multi-modal object detection and localization for high integrity driving assistance
JP2019512699A5 (zh)
CN108802741B (zh) 基于DSmT理论的移动机器人声纳数据融合方法
CN109583416A (zh) 伪车道线识别方法及系统
US11954918B2 (en) Object detection device, object detection method, and storage medium
CN111492258A (zh) 用于确定车辆所行驶的道路与测量或雷达传感器的检测方向之间的安装角度的方法和装置
CN113111513B (zh) 传感器配置方案确定方法、装置、计算机设备及存储介质
US8103056B2 (en) Method for target geo-referencing using video analytics
US20220332327A1 (en) Method and Apparatus for Fusing Sensor Information and Recording Medium Storing Program to Execute the Method
US20210033706A1 (en) Methods and systems for automatically labeling point cloud data
US11846726B2 (en) Method and device for identifying objects detected by a LiDAR device
CN114730004A (zh) 物体识别装置和物体识别方法
US20230094836A1 (en) Method for Detecting Moving Objects in the Surroundings of a Vehicle, and Motor Vehicle
US11861914B2 (en) Object recognition method and object recognition device
US10628920B2 (en) Generating a super-resolution depth-map
US11402492B2 (en) Surroundings detection system for motor vehicles
KR20220128787A (ko) 라이다 센서를 이용한 객체 추적 방법 및 장치와, 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체
US20230146935A1 (en) Content capture of an environment of a vehicle using a priori confidence levels

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant