CN112424002A - 视觉对象跟踪器 - Google Patents
视觉对象跟踪器 Download PDFInfo
- Publication number
- CN112424002A CN112424002A CN201980046003.XA CN201980046003A CN112424002A CN 112424002 A CN112424002 A CN 112424002A CN 201980046003 A CN201980046003 A CN 201980046003A CN 112424002 A CN112424002 A CN 112424002A
- Authority
- CN
- China
- Prior art keywords
- coupler
- vehicle
- trailer
- determining
- data processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title description 6
- 230000033001 locomotion Effects 0.000 claims abstract description 67
- 238000000034 method Methods 0.000 claims abstract description 48
- 230000008878 coupling Effects 0.000 claims abstract description 36
- 238000010168 coupling process Methods 0.000 claims abstract description 36
- 238000005859 coupling reaction Methods 0.000 claims abstract description 36
- 238000012545 processing Methods 0.000 claims description 39
- 238000004891 communication Methods 0.000 claims description 14
- 238000005259 measurement Methods 0.000 claims description 6
- 230000006399 behavior Effects 0.000 description 14
- 230000008859 change Effects 0.000 description 9
- 230000001133 acceleration Effects 0.000 description 6
- 238000004590 computer program Methods 0.000 description 6
- 239000000725 suspension Substances 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 230000004927 fusion Effects 0.000 description 5
- 230000010354 integration Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 241000238876 Acari Species 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 241001236644 Lavinia Species 0.000 description 1
- 244000261422 Lysimachia clethroides Species 0.000 description 1
- 239000006096 absorbing agent Substances 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 244000144972 livestock Species 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000013442 quality metrics Methods 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60D—VEHICLE CONNECTIONS
- B60D1/00—Traction couplings; Hitches; Draw-gear; Towing devices
- B60D1/24—Traction couplings; Hitches; Draw-gear; Towing devices characterised by arrangements for particular functions
- B60D1/36—Traction couplings; Hitches; Draw-gear; Towing devices characterised by arrangements for particular functions for facilitating connection, e.g. hitch catchers, visual guide means, signalling aids
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1652—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0225—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/027—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60D—VEHICLE CONNECTIONS
- B60D1/00—Traction couplings; Hitches; Draw-gear; Towing devices
- B60D1/58—Auxiliary devices
- B60D1/62—Auxiliary devices involving supply lines, electric circuits, or the like
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Electromagnetism (AREA)
- Image Analysis (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Steering Control In Accordance With Driving Conditions (AREA)
- Traffic Control Systems (AREA)
Abstract
提供了一种用于跟踪定位在牵引车辆(100)后面的拖车联接器(212)的方法。该方法包括从定位在牵引车辆背部上的相机(142)接收一个或多个图像(143)。该方法还包括确定所述一个或多个图像内的拖车联接器定位。拖车联接器定位与拖车联接器(212)相关联。另外,该方法包括从一个或多个车辆传感器接收车辆传感器数据(141)。该方法包括基于所接收的车辆传感器数据(141)确定车辆运动数据。该方法还包括基于拖车联接器定位和车辆运动数据确定更新的联接器定位。
Description
技术领域
本公开涉及由牵引车辆支撑的视觉对象跟踪系统的方法和系统。视觉对象跟踪系统跟踪定位在牵引车辆后面的拖车的联接器。
背景技术
拖车通常是由动力牵引车辆拉动的无动力车辆。拖车可以是多用途拖车、弹出式露营车、旅行拖车、牲畜拖车、平板拖车、封闭式汽车搬运车和船只拖车等。牵引车辆可以是小汽车、跨界车、卡车、厢式货车、运动型多用途车辆(SUV)、休闲车辆(RV)或被配置为附接于拖车并拉动拖车的任何其他车辆。可以使用拖车挂接装置将拖车附接到机动车辆。接收器挂接装置安装在牵引车辆上,并连接到拖车挂接装置以形成连接。拖车挂接装置可以是球窝、牵引座和鹅颈件或拖车千斤顶。也可以使用其他附接机构。
计算和传感器技术的最新进展已经导致车辆自主驾驶的改进。因此,合期望的是具有一种牵引车辆,其能够朝向定位在牵引车辆后面的拖车在向后的方向上自主驾驶,使得牵引车辆定位成附接于拖车。
发明内容
本公开的一个方面提供了一种用于跟踪定位在牵引车辆后面的拖车联接器的方法。该方法包括在数据处理硬件处从定位在牵引车辆背部并与数据处理硬件通信的相机接收一个或多个图像。该方法还包括在数据处理硬件处确定一个或多个图像内的拖车联接器定位。拖车联接器定位与拖车联接器相关联。该方法还包括在数据处理硬件处从与数据处理硬件通信的一个或多个车辆传感器接收车辆传感器数据。该方法还包括在数据处理硬件处基于所接收的车辆传感器数据确定车辆运动数据。该方法还包括在数据处理硬件处基于拖车联接器定位和车辆运动数据确定更新的联接器定位。
本公开的实施方式可以包括以下可选特征中的一个或多个。在一些实施方式中,车辆运动数据包括车辆姿态、车辆线速度和车辆角速度。所述一个或多个车辆传感器可以包括方向盘角度传感器、车轮编码器、惯性测量单元、雷达和全球定位系统接收器中的至少一个。
在一些示例中,该方法还包括基于车辆运动数据和先前的联接器定位来确定一个或多个图像内的拖车联接器的像素速度。更新的联接器定位可以基于像素速度和先前的联接器定位。像素速度也可以基于现实世界坐标系中的联接器高度。
在一些实施方式中,该方法进一步包括从预定范围确定联接器高度。该方法还可以包括基于像素速度确定与拖车联接器相关联的第一像素点位置。该方法还可以包括基于所述一个或多个图像确定与拖车联接器相关联的第二像素点位置。该方法还可以包括比较第一像素点位置和第二像素点位置。该方法还可以包括基于所比较的第一像素点位置和第二像素点位置来调节联接器高度。在一些示例中,该方法包括在与数据处理硬件通信的存储器硬件处存储更新的联接器定位。该方法还可以包括当接收到一个或多个更新的图像时,检索更新的联接器定位作为先前的联接器定位。
在一些实施方式中,该方法进一步包括基于更新的联接器定位确定世界坐标中的联接器位置。该方法还可以包括向牵引车辆的驾驶系统传输指令。该指令使牵引车辆自主操纵在向后方向上朝向联接器位置移动。
本公开的另一方面提供了一种用于跟踪定位在牵引车辆后面的拖车联接器的系统。该系统包括:数据处理硬件;以及与数据处理硬件通信的存储器硬件。存储器硬件存储指令,当指令在数据处理硬件上执行时,使数据处理硬件执行包括上述方法的操作。
本公开的一个或多个实施方式的细节在随附附图和以下描述中阐述。从描述和附图以及从权利要求书中,其他方面、特征和优点将变得显而易见。
附图说明
图1是示例性牵引车辆示意性顶视图;
图2是包括跟踪系统的图1中所示牵引车辆的示意图;
图3是图2中所示的示例性跟踪系统的示意图;
图4是示例性牵引车辆示意图;
图5是包括高度调节模块的图4中所示牵引车辆的示意图;
图6是用于跟踪定位在牵引车辆后面的拖车的联接器的示例性方法的示意图;
不同附图中同样的参考标号指示同样的元件。
具体实施方式
牵引车辆,诸如但不限于汽车、跨界车、卡车、厢式货车、运动型多用途车辆(SUV)和休闲车辆(RV),可以被配置为对拖车进行牵引。牵引车辆通过拖车挂接装置的方式连接到拖车,该拖车挂接装置包括联接器和牵引杆。合期望的是具有一种能够跟踪拖车联接器并且自主操纵在向后方向上朝向拖车移动的牵引车辆。目标跟踪计算机视觉算法典型地依靠视觉信息来预测目标在未来图像中的位置。虽然图像中对象的过去运动是未来定位的一些指标,但是相机方向的改变可能会使对象跟踪计算机视觉算法混乱,并且使对象跟踪计算机视觉算法失去其对对象的定位。照此,除了在先前捕捉的图像中的联接器的定位之外,还依赖于相机运动的跟踪系统减少了在未来图像中丢失对象位置的机会。
参考图1-3,在一些实施方式中,牵引车辆100的驾驶员想要他的牵引车辆100通过跟踪所选的或所标识的拖车200来自主操纵朝向拖车200移动。牵引车辆100可以自主操纵在向后方向R上朝向拖车200移动。当牵引车辆100和拖车200对准时,牵引车辆100可以(例如,通过驾驶员的方式或自主地)与拖车200挂接。在一些示例中,牵引车辆100包括具有牵引球122的牵引挂接装置120。拖车200包括拖车挂接装置210,拖车挂接装置210包括拖车联接器212和牵引杆214。因此,牵引球122与拖车联接器212联接。牵引车辆100可以包括驾驶系统110,该驾驶系统110例如基于具有x、y和z分量的驾驶命令跨路面操纵牵引车辆100。如所示出的,驾驶系统110包括右前轮112,112a、左前轮112,112b、右后轮112,112c和左后轮112,112d。驾驶系统110也可以包括其他车轮配置。驾驶系统110还可以包括制动系统114和加速系统116,制动系统114包括与每个车轮112,112 a-d相关联的制动器,加速系统116被配置为调节牵引车辆100的速度和方向。此外,驾驶系统110可以包括悬架系统118,该悬架系统118包括与每个车轮112,112 a-d相关联的轮胎、轮胎空气、弹簧、减震器以及将牵引车辆100连接到其车轮112,112 a-d并允许牵引车辆100与车轮112,112 a-d之间的相对运动的连杆。 悬架系统118可以被配置为调节牵引车辆100的高度,从而允许牵引挂接装置120(例如牵引挂接球122)与拖车挂接装置210(例如,拖车挂接联接器212)对准,这允许牵引车辆100和拖车200之间的自主连接。
牵引车辆100可以通过相对于由牵引车辆100限定的三个相互垂直的轴的各种移动的组合跨路面移动:横轴X、前后轴Y和中心垂直轴Z。横轴X在牵引车辆100的右侧和左侧之间延伸。沿着前后轴Y的向前驾驶方向被指定为F,也称为向前运动。此外,沿着前后方向Y的后或向后驾驶方向被指定为R,也称为向后运动。当悬架系统118调节牵引车辆100的悬架时,牵引车辆100可以围绕X轴和/或Y轴倾斜,或者沿着中心垂直轴Z移动。
牵引车辆100可以包括用户接口130。用户接口130可以包括用作输入机构的显示器132、旋钮和按钮。在一些示例中,显示器132可以示出旋钮和按钮。而在其他示例中,旋钮和按钮是旋钮按钮组合。在一些示例中,用户接口130经由一个或多个输入机构或触摸屏显示器132从驾驶员接收一个或多个驾驶员命令,和/或向驾驶员显示一个或多个通知。用户接口130与车辆控制器170通信,车辆控制器170转而与传感器系统140通信。在一些示例中,显示器132显示牵引车辆100的环境的图像,导致用户接口130(从驾驶员)接收一个或多个命令,所述命令发起一个或多个行为的执行。在一些示例中,用户显示器132显示牵引车辆100的后方环境的表示图像,其包括定位在牵引车辆100后面的拖车200,200 a-c的一个或多个表示136,136a-c。在该情况下,驾驶员对拖车200、200 a-c的表示136、136a-c进行选择134,该表示指示驾驶员想要车辆朝向其自主驾驶的拖车200。
牵引车辆100可以包括传感器系统140,以提供可靠和鲁棒的驾驶。传感器系统140可包括不同类型的传感器,所述传感器可单独使用或彼此一起使用,以创建牵引车辆100的环境感知,该感知用于牵引车辆100自主驾驶和/或帮助驾驶员基于由传感器系统140检测到的对象和障碍物做出智能决策。传感器系统140通过使用已知的相机和车辆参数提供数据141(诸如牵引车辆100的运动的测量),其用于计算相机图像143中的特定点(例如,拖车联接器212)的预期变化。如果被跟踪的对象(例如拖车联接器212)是静止的,则图像143中仅有的运动是由于牵引车辆100的移动而导致的,并且跟踪系统300可以确定下一图像143中的联接器位置312将如何改变。
传感器系统140可以包括由牵引车辆100支撑的一个或多个相机142。在一些实施方式中,牵引车辆100包括后相机142,后相机142被安装成为牵引车辆100提供后驾驶路径的视图。后相机142可以包括鱼眼镜头,该鱼眼镜头包括超广角镜头,该超广角镜头产生强烈的视觉失真,旨在创建宽全景或半球形图像。鱼眼相机捕捉具有极宽视图的图像。此外,鱼眼相机捕捉的图像具有特征性的凸非直线外观。也可以使用其他类型的相机来捕捉牵引车辆100的后部环境的图像。
在一些示例中,传感器系统140还包括与牵引车辆100的一个或多个车轮112,112a-d相关联的一个或多个车轮编码器144。车轮编码器144是将车轮的角定位或运动转换成模拟或数字输出信号的机电设备。因此,车轮编码器144确定车轮112,112 a-d已经行驶的速度和距离。
传感器系统140还可以包括惯性测量单元(IMU) 146,其被配置为测量车辆的线性加速度(使用一个或多个加速度计)和旋转速率(使用一个或多个陀螺仪)。在一些示例中,IMU 146还确定牵引车辆100的航向基准。因此,IMU 146确定牵引车辆100的俯仰、横滚和偏航。
在一些实施方式中,传感器系统140包括被配置为确定对象的距离、角度或速度的雷达传感器148。雷达传感器148传输无线电信号,并测量所传输的信号的反射返回所花费的时间。雷达传感器148将到对象的距离确定为往返时间的一半乘以信号速度。雷达传感器148也可以确定牵引车辆100的速度。该速度可以基于第一时间处从雷达传感器148到对象的距离,以及第二时间处从雷达传感器148到对象的距离。因此,雷达传感器148可以基于第一时间和第二时间处的距离之差除以第一时间和第二时间之差来确定速度。
传感器系统140还包括检测车辆运动(即速度、角速度、定位等)的其他传感器150。所述其他传感器105可以包括但不限于方向盘传感器、声纳、LIDAR(光检测和测距,这可能需要光学遥感,其测量散射光的属性以找到远处目标的距离和/或其他信息)、LADAR(激光检测和测距)、超声波等。
在一些实施方式中,牵引车辆100包括全球定位系统(GPS)接收器160,其从GPS卫星接收信息,并且然后计算牵引车辆100的地理定位162。
在一些实施方式中,车辆控制器170包括计算设备(或处理器)172(例如,具有一个或多个计算处理器的中央处理单元),其与能够存储可在(多个)计算处理器172上执行的指令的非暂时性存储器174(例如,硬盘、闪速存储器、随机存取存储器、存储器硬件)通信。
车辆控制器170执行跟踪系统300,跟踪系统300分析接收到的图像143并标识图像143内的拖车联接器212,并且在牵引车辆100在向后方向R上移动时跟踪拖车联接器212。跟踪系统300包括联接器点跟踪器310、低速运动估计模块320、图像点运动模块330和联接器点融合模块340。跟踪系统300通过融合图像143内的联接器点跟踪器310的数据312和由低速运动估计模块320确定的相机运动来提供对联接器位置LC的改进的确定。
参考图3,在一些实施方式中,联接器点跟踪器模块310从后相机142接收图像143。联接器点跟踪器310标识图像143内的拖车联接器212,并且跟踪随后接收到的图像143中的联接器212。因此,联接器点跟踪器310确定当前图像143中的当前联接器位置312,(u + , v + )。图像中的联接器位置312由(u, v)定义,其中u是沿着图像的x图像轴的像素定位,v是沿着图像的y图像轴的像素定位。
低速运动估计模块320从传感器系统140的一个或多个传感器142、144、146、148、150接收传感器数据141。在一些示例中,低速运动估计模块320接收来自相机142的(多个)图像143、来自(多个)车轮编码器144的车轮滴答(tick)145、来自IMU 146的IMU数据147、来自雷达148的雷达数据149以及来自其他传感器150的其他传感器数据151中的一个或多个。在一些示例中,低速运动估计模块320从GPS接收器160接收GPS数据162。在一些示例中,低速运动估计模块320基于接收的传感器数据141确定牵引车辆100的车辆线速度和角速度322,(v, ω,),(其中v是线速度,ω是角速度)以及车辆姿态324,(x, y, θ)。车辆姿态324由(x, y, θ)定义,其中x是牵引车辆100的中心在X-Y平面中沿横轴X的定位,y是车辆的中心在X-Y平面中沿纵轴Y的定位,并且θ是牵引车辆100的航向。低速运动估计模块320还可以基于车辆线速度和角速度322,(v, ω)和车辆姿态324 ,(x, y, θ)来确定相机运动信息,诸如相机速度和相机的定位(相机姿态),因为相机运动与车辆运动直接相关,因为相机142由牵引车辆100支撑。在其他示例中,低速运动估计模块320确定相机运动,并且基于相机运动,低速运动估计模块320确定车辆线速度和角速度322,(v, ω)和车辆姿态324,(x, y, θ)。
在一些实施方式中,图像点运动模块330估计一个或多个图像143内与联接器212相关联的像素的像素速度332。图像点运动模块330向跟踪系统300提供下一图像143中联接器212将在哪里(即,移动到哪里)的估计。图像点运动模块330从低速运动估计模块320接收车辆线速度和角速度322,(v, ω,)和车辆姿态324,(x, y, θ)。此外,图像点运动模块330接收或确定联接器高度Z。联接器高度Z可以由驾驶员通过用户接口130的方式输入,或者例如按照关于图5所解释的那样被计算。图像点运动模块330还接收与先前图像143相关联的先前联接器位置342p。在一些示例中,每个当前联接器位置342c,(u + *, v + *)存储在硬件存储器174中,并与时间戳相关联。因此,当新的当前联接器位置342c被确定时,先前存储的当前联接器位置342c变成先前联接器位置342p。基于接收的车辆线速度和角速度322,(v, ω)和车辆姿态324,(x, y, θ)、联接器高度Z和先前联接器位置342p,图像点运动模块330确定所述一个或多个图像143内与联接器212相关联的像素的像素速度332。
在一些示例中,图像点运动模块330将现实世界中的联接器位置Lc确定为(X, Y, Z)。图像点运动模块330可以通过下式确定联接器在图像143中的定位(u,v):
其中(u,v)是联接器位置,车辆姿态由x, y, θ定义,并且世界中的联接器位置Lc由(X, Y, Z)定义。因此,联接器位置(u, v)是车辆姿态324,(x, y, θ)和现实世界坐标中的联接器位置Lc,(X, Y, Z)的函数。
图像点运动模块330反转方程(1),以根据图像中的联接器位置(u,v)和现实世界中的联接器高度Z来确定x-y平面中的车辆位置(X, Y)。在一些示例中,联接器高度Z在一定范围内(例如,在40厘米和70厘米之间);
在一些实施方式中,联接器点融合模块340基于联接器像素速度332,和先前确定(先前由联接器点融合模块340确定并存储在存储器硬件174中)的联接器点位置342p来确定当前图像143中更新的联接器点位置342c。换句话说,联接器点融合模块340基于联接器像素速度332和先前确定的联接器点位置342p来更新当前图像143中由联接器点跟踪器310确定的联接器点位置312,,以确定当前图像143中更新的联接器位置342c。照此,跟踪系统300通过组合图像像素速度332、先前图像143中的联接器位置342p和基于联接器点跟踪器310的联接器位置312来改进联接器位置342c确定。
在一些实施方式中,控制器170针对每个接收到的图像143执行跟踪系统300,使得牵引车辆100基于更新的联接器位置342自主操纵在向后方向R上移动,从而与支撑联接器212的牵引杆214对准以便挂接。
车辆控制器170执行驾驶辅助系统190,该系统进而包括路径跟随行为192。路径跟随行为192接收当前图像143中的当前联接器位置342c,并执行向驾驶系统110发送命令194的一个或多个行为192 a-b,使牵引车辆100在向后方向R上朝向当前图像143中的联接器位置342c自主驾驶,这使牵引车辆100自主连接到拖车200。在一些示例中,控制器170确定当前图像143中联接器位置342c的现实世界定位,使得驾驶辅助系统190跟随联接器位置LC的现实世界坐标。
路径跟随行为192包括制动行为192a、速度行为192b和转向行为192c。在一些示例中,路径跟随行为192还包括挂接连接行为和悬架调节行为。每个行为192a-192c导致牵引车辆100采取动作,除了其它之外,还诸如向后驾驶、以特定角度转弯、刹车、超速行驶、减速。车辆控制器170可以通过控制驾驶系统110、更具体地通过向驾驶系统110发出命令194,来操纵牵引车辆100跨路面在任何方向上移动。
基于当前图像143中的联接器位置342c,可以执行制动行为192a,以使牵引车辆100停止或使牵引车辆100减速。制动行为192a向驾驶系统110(例如制动系统(未示出))发送信号或命令194,以使牵引车辆100停止或降低牵引车辆100的速度。
可以执行速度行为192b,以通过基于计划路径加速或减速来改变牵引车辆100的速度。速度行为192b将信号或命令194发送到制动系统114用于减速或发送到加速系统116用于加速。
可以执行转向行为192c,以基于当前图像143中的联接器位置342c来改变牵引车辆100的方向。照此,转向行为192c向加速系统116发送指示转向角度的信号或命令194,使驾驶系统110改变方向。
参照图4和图5,在一些实施方式中,跟踪系统300包括积分模块350、求和模块360和高度调节模块370,它们被一起使用以确定在世界坐标系中的拖车联接器212的高度Z。积分模块350、求和模块360和高度调节模块370可以是独立的模块或联接器点融合模块340的一部分。积分模块350从图像点运动模块330接收图像像素速度332,(即图像导数),并基于从像素速度332确定的像素速度输出像素点或位置352。在一些示例中,积分模块350通过对接收的像素速度332进行积分来确定像素点352。
在一些示例中,在良性条件(例如,没有尖锐阴影线或者误导性图像特征等的良好光照)下,联接器点跟踪器310随着时间的经过从一个图像帧到另一个图像帧准确地跟随一个或多个图像像素点。联接器点跟踪器310可以(自我)报告它们的跟踪性能的估计质量的一些度量。
在联接器点跟踪器310表现良好时的时段期间(通过其自我报告的质量度量或一些其他手段),可以将其输出312与图像点运动模块330的输出进行比较。联接器点跟踪器310和图像点运动模块330这两者都报告图像143内的世界中特征(即,拖车联接器212)的位置。因此,联接器点跟踪器310的输出和图像点运动模块330的输出可以由求和模块360直接相互比较。如果两个输出312、352相同,则现实世界中联接器212的高度Z是准确的。然而,如果输出312、352不相同,则高度调节模块370调节联接器212的高度Z。在初始步骤中,高度调节模块370可以选择在距离路面40厘米至70厘米之间的联接器高度Z,并且基于求和模块360的输出,高度调节模块370调节联接器212的高度Z。在一些示例中,联接器高度Z的选择可以在限制之间变化,直到输出312、352相同。一旦高度Z被调节,在下一个所捕捉的图像143中,图像点运动模块330就通过考虑经调节的高度Z来确定像素速度332。
图像点运动模块330依赖于世界中已知的点(即拖车联接器212)的高度Z,而联接器点跟踪器310不依赖于高度Z。因此,跟踪系统300例如通过预先输入、用户输入或计算的方式来确定联接器高度Z。在一些示例中,通过在联接器点跟踪器310的良性条件下比较联接器点跟踪器310的输出312和图像点运动模块330的输出332,并调节图像点运动模块330的高度输入Z,直到其输出332与联接器点跟踪器312的输出312匹配。照此,系统300可以估计在现实世界中使用的特征(即拖车联接器212)的高度Z。
在一些实施方式中,当联接器点跟踪器310的条件不是良性的时,系统300可以更好地利用图像点运动模块330来提高跟踪的性能。
跟踪系统300将图像143与车辆动态(即传感器数据141)融合,以预测图像143内和世界坐标中的联接器点的定位。通过并入车辆运动,可以在未来的图像帧中确定图像内静止对象(相对于世界)的定位。
图6提供了使用图1-5中描述的系统跟踪定位在牵引车辆100后面的拖车联接器212的方法600的示例操作布置。在框602处,方法600包括在数据处理硬件172处从定位在牵引车辆100背部并与数据处理硬件172通信的相机142接收一个或多个图像143。在框604处,方法600包括在数据处理硬件172处确定所述一个或多个图像143内的拖联接器定位312。拖车联接器定位312与拖车联接器212相关联。因此,拖车联接器定位312是图像143内的像素定位。在框606处,方法600包括在数据处理硬件172处从与数据处理硬件172通信的一个或多个车辆传感器142、144、146、148、150、160接收车辆传感器数据141。所述一个或多个车辆传感器可以包括但不限于方向盘角度传感器、车轮编码器、惯性测量单元、雷达和全球定位系统接收器。
另外,在框608处,方法600包括在数据处理硬件172处基于所接收的车辆传感器数据141确定车辆运动数据322、324。车辆运动数据322、324可以包括车辆线速度和角速度322以及车辆姿态324。在框610处,方法600还包括在数据处理硬件172处基于拖车联接器定位312和车辆运动数据322、324确定当前图像的更新的联接器定位342c。
在一些实施方式中,方法600包括基于车辆运动数据322、324和先前的联接器定位342,确定所述一个或多个图像143内的拖车联接器212的一个或多个点的像素速度332,。更新的联接器定位342c基于像素速度和先前的联接器定位。像素速度332,可以基于现实世界坐标系中的联接器高度Z。方法600还可以包括从预定范围(例如,40-70厘米)确定联接器高度Z。该方法还包括基于像素速度332,确定与拖车联接器212相关联的第一像素点位置352,以及基于所述一个或多个图像143确定与拖车联接器212相关联的第二像素点位置312。方法600还包括比较第一像素点位置352和第二像素点位置312,并基于所比较的第一像素点位置352和第二像素点位置312来调节联接器高度Z。
在一些实施方式中,方法600包括在与数据处理硬件172通信的存储器硬件174处存储更新的联接器定位342c,并且当接收到一个或多个更新的图像143时,检索更新的联接器定位342c作为先前的联接器定位342p。
在一些示例中,方法600还包括基于更新的联接器定位342c确定世界坐标中的联接器位置LC。方法600可以包括向牵引车辆100的驾驶系统110传输指令194。指令194使牵引车辆100自主操纵在向后方向R上朝向联接器位置LC移动。
这里描述的系统和技术的各种实施方式可以在数字电子电路、集成电路、专门设计的ASIC(专用集成电路)、计算机硬件、固件、软件和/或它们的组合中实现。这些各种实施方式可以包括在可编程系统上可执行和/或可解释的一个或多个计算机程序中的实施方式,该可编程系统包括至少一个可编程处理器,该可编程处理器可以是专用或通用的,被耦合以从存储系统、至少一个输入设备和至少一个输出设备接收数据和指令,以及向存储系统、至少一个输入设备和至少一个输出设备传输数据和指令。
这些计算机程序(也称为程序、软件、软件应用或代码)包括用于可编程处理器的机器指令,并且可以用高级的面向过程和/或面向对象的编程语言和/或汇编/机器语言来实现。如本文所使用的,术语“机器可读介质”和“计算机可读介质”指代用于向可编程处理器提供机器指令和/或数据的任何计算机程序产品、装置和/或设备(例如,磁盘、光盘、存储器、可编程逻辑器件(PLD)),包括接收机器指令作为机器可读信号的机器可读介质。术语“机器可读信号”指代用于向可编程处理器提供机器指令和/或数据的任何信号。
本说明书中描述的主题和功能操作的实施方式可以在数字电子电路中实现,或者在计算机软件、固件或硬件、包括本说明书中公开的结构及其结构等同物中实现,或者在它们中的一个或多个的组合中实现。此外,本说明书中描述的主题可以实现为一个或多个计算机程序产品,即编码在计算机可读介质上的计算机程序指令的一个或多个模块,用于由数据处理设备执行或控制数据处理设备的操作。计算机可读介质可以是机器可读存储设备、机器可读存储基板、存储器设备、实现机器可读传播信号的物质的组合、或者它们中的一个或多个的组合。术语“数据处理装置”、“计算设备”和“计算处理器”涵盖用于处理数据的所有装置、设备和机器,包括例如可编程处理器、计算机或多个处理器或计算机。除了硬件之外,装置还可以包括为所讨论的计算机程序创建执行环境的代码,例如,构成处理器固件、协议栈、数据库管理系统、操作系统或它们中的一个或多个的组合的代码。传播信号是人工生成的信号,例如机器生成的电、光或电磁信号,其被生成来编码信息以用于传输到合适的接收器装置。
类似地,虽然在附图中以特定顺序描绘了操作,但是这不应当被理解为要求以所示的特定顺序或以序列顺序执行这样的操作,或者要求执行所有图示的操作,以实现合期望的结果。在某些情况下,多任务和并行处理可能是有利的。此外,上述实施例中的各种系统组件的分离不应当被理解为在所有实施例中都要求这样的分离,并且应当理解,所描述的程序组件和系统通常可以一起集成在单个软件产品中或者封装到多个软件产品中。
已经描述了许多实施方式。然而,应当理解,在不脱离本公开的精神和范围的情况下,可以进行各种修改。因此,其他实施方式在以下权利要求的范围内。
Claims (16)
1.一种用于跟踪定位在牵引车辆后面的拖车联接器的方法,所述方法包括:
在数据处理硬件处,从定位在牵引车辆背部并与所述数据处理硬件通信的相机接收一个或多个图像;
在所述数据处理硬件处,确定所述一个或多个图像内的拖车联接器定位,所述拖车联接器定位与所述拖车联接器相关联;
在所述数据处理硬件处,从与所述数据处理硬件通信的一个或多个车辆传感器接收车辆传感器数据;
在所述数据处理硬件处,基于所接收的车辆传感器数据确定车辆运动数据;和
在所述数据处理硬件处,基于所述拖车联接器定位和所述车辆运动数据确定更新的联接器定位。
2.根据权利要求1所述的方法,其中所述车辆运动数据包括车辆姿态、车辆线速度和车辆角速度。
3.根据权利要求1所述的方法,其中所述一个或多个车辆传感器包括方向盘角度传感器、车轮编码器、惯性测量单元、雷达和全球定位系统接收器中的至少一个。
4.根据权利要求1所述的方法,进一步包括:
基于车辆运动数据和先前的联接器定位,确定所述一个或多个图像内的拖车联接器的像素速度;
其中更新的联接器定位基于像素速度和先前的联接器定位。
5.根据权利要求4所述的方法,其中所述像素速度基于现实世界坐标系中的联接器高度。
6.根据权利要求5所述的方法,进一步包括:
从预定范围确定联接器高度;
基于像素速度确定与拖车联接器相关联的第一像素点位置;
基于所述一个或多个图像确定与拖车联接器相关联的第二像素点位置;
比较第一像素点位置和第二像素点位置;和
基于所比较的第一像素点位置和第二像素点位置调节联接器高度。
7.根据权利要求1所述的方法,进一步包括:
在与数据处理硬件通信的存储器硬件处存储更新的联接器定位;和
当接收到一个或多个更新的图像时,检索所述更新的联接器定位作为先前的联接器定位。
8.根据权利要求1所述的方法,进一步包括:
基于更新的联接器定位确定世界坐标中的联接器位置;和
向牵引车辆的驾驶系统传输指令,所述指令使牵引车辆自主操纵在向后方向上朝向联接器位置移动。
9.一种用于跟踪定位在牵引车辆后面的拖车联接器的系统,所述系统包括:
数据处理硬件;和
与所述数据处理硬件通信的存储器硬件,所述存储器硬件存储指令,当在所述数据处理硬件上执行所述指令时,使所述数据处理硬件执行操作,所述操作包括:
从定位在牵引车辆背部并与所述数据处理硬件通信的相机接收一个或多个图像;
确定所述一个或多个图像内的拖车联接器定位,所述拖车联接器定位与所述拖车联接器相关联;
从与所述数据处理硬件通信的一个或多个车辆传感器接收车辆传感器数据;
基于所接收的车辆传感器数据确定车辆运动数据;和
基于所述拖车联接器定位和所述车辆运动数据确定更新的联接器定位。
10.根据权利要求9所述的系统,其中所述车辆运动数据包括车辆姿态、车辆线速度和车辆角速度。
11.根据权利要求9所述的系统,其中所述一个或多个车辆传感器包括方向盘角度传感器、车轮编码器、惯性测量单元、雷达和全球定位系统接收器中的至少一个。
12.根据权利要求9所述的系统,其中所述操作进一步包括:
基于车辆运动数据和先前的联接器定位,确定所述一个或多个图像内的拖车联接器的像素速度;
其中所述更新的联接器定位基于像素速度和先前的联接器定位。
13.根据权利要求12所述的系统,其中所述像素速度基于现实世界坐标系中的联接器高度。
14.根据权利要求13所述的系统,其中所述操作进一步包括:
从预定范围确定联接器高度;
基于像素速度确定与拖车联接器相关联的第一像素点位置;
基于所述一个或多个图像确定与拖车联接器相关联的第二像素点位置;
比较第一像素点位置和第二像素点位置;和
基于所比较的第一像素点位置和第二像素点位置调节联接器高度。
15.根据权利要求9所述的系统,其中所述操作进一步包括:
将更新的联接器定位存储在存储器硬件处;和
当接收到一个或多个更新的图像时,检索更新的联接器定位作为先前的联接器定位。
16.根据权利要求9所述的系统,其中所述操作进一步包括:
基于更新的联接器定位确定世界坐标中的联接器位置;和
向牵引车辆的驾驶系统传输指令,所述指令使牵引车辆自主操纵在向后方向上朝向联接器位置移动。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862668639P | 2018-05-08 | 2018-05-08 | |
US62/668639 | 2018-05-08 | ||
US201862680285P | 2018-06-04 | 2018-06-04 | |
US62/680285 | 2018-06-04 | ||
PCT/US2019/031378 WO2019217586A1 (en) | 2018-05-08 | 2019-05-08 | Visual object tracker |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112424002A true CN112424002A (zh) | 2021-02-26 |
Family
ID=66669080
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980046003.XA Pending CN112424002A (zh) | 2018-05-08 | 2019-05-08 | 视觉对象跟踪器 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11287827B2 (zh) |
EP (1) | EP3790745B1 (zh) |
JP (1) | JP7167185B2 (zh) |
CN (1) | CN112424002A (zh) |
WO (1) | WO2019217586A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115328151A (zh) * | 2022-08-30 | 2022-11-11 | 浙江吉利控股集团有限公司 | 牵引车对接辅助方法、装置、设备及存储介质 |
CN115690194A (zh) * | 2022-10-17 | 2023-02-03 | 广州赤兔宸行科技有限公司 | 一种车载xr设备定位方法、装置、设备及存储介质 |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110168311B (zh) | 2016-11-29 | 2021-12-17 | 布莱克莫尔传感器和分析有限责任公司 | 用于以点云数据集合对对象进行分类的方法和系统 |
WO2018160240A2 (en) | 2016-11-30 | 2018-09-07 | Blackmore Sensors and Analytics Inc. | Method and system for doppler detection and doppler correction of optical chirped range detection |
EP3548926B1 (en) | 2016-11-30 | 2024-05-29 | Aurora Operations, Inc. | Method and system for adaptive scanning with optical ranging systems |
CN117310731B (zh) | 2016-11-30 | 2024-09-27 | 欧若拉运营公司 | 利用光学测距系统进行自动实时自适应扫描的方法和系统 |
US10422880B2 (en) | 2017-02-03 | 2019-09-24 | Blackmore Sensors and Analytics Inc. | Method and system for doppler detection and doppler correction of optical phase-encoded range detection |
US10401495B2 (en) | 2017-07-10 | 2019-09-03 | Blackmore Sensors and Analytics Inc. | Method and system for time separated quadrature detection of doppler effects in optical range measurements |
CN115079195A (zh) * | 2018-04-23 | 2022-09-20 | 布莱克莫尔传感器和分析有限责任公司 | 用相干距离多普勒光学传感器控制自主车辆的方法和系统 |
US10960721B2 (en) * | 2018-06-26 | 2021-03-30 | Ford Global Technologies, Llc | System for detection and response to retreating trailer |
US11030476B2 (en) * | 2018-11-29 | 2021-06-08 | Element Ai Inc. | System and method for detecting and tracking objects |
US11822010B2 (en) | 2019-01-04 | 2023-11-21 | Blackmore Sensors & Analytics, Llc | LIDAR system |
DE102020103597A1 (de) * | 2020-02-12 | 2021-08-12 | Saf-Holland Gmbh | Verfahren und System zum Ermitteln einer Ausrichtung eines Anhängers gegenüber einem Zugfahrzeug |
DE102021201522A1 (de) * | 2021-02-17 | 2022-08-18 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zur Ermittlung einer räumlichen Ausrichtung eines Anhängers |
US12072183B2 (en) * | 2021-12-21 | 2024-08-27 | GM Global Technology Operations LLC | System and method to increase availability range of hitch articulation angle estimations using ultrasonic sensors |
US20230192122A1 (en) * | 2021-12-22 | 2023-06-22 | Eduardo Jose Ramirez Llanos | Autonomous vehicle trailer hitch coupling system |
US12130363B2 (en) | 2022-02-03 | 2024-10-29 | Aurora Operations, Inc. | LIDAR system |
US12128949B2 (en) * | 2022-09-22 | 2024-10-29 | Hyundai Mobis Co., Ltd. | Vehicle control method and apparatus to reverse a trailer |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007017659A1 (de) * | 2007-04-12 | 2008-01-10 | Daimlerchrysler Ag | Anhänger für eine Zugmaschine |
CA2836095A1 (en) * | 2012-12-03 | 2014-06-03 | Fontaine Fifth Wheel Company | Fifth wheel backup camera system and method |
US20150077557A1 (en) * | 2013-09-16 | 2015-03-19 | Deere & Company | Vehicle auto-motion control system |
WO2016155919A1 (en) * | 2015-04-01 | 2016-10-06 | Robert Bosch Gmbh | Trailer coupling assistance system with vehicle video camera |
DE102016210376A1 (de) * | 2015-06-23 | 2016-12-29 | Gm Global Technology Operations, Llc | Intelligente anhängervorrichtungssteuerung, die ein hmi-gestütztes visual servoing verwendet |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4413694C2 (de) * | 1994-04-20 | 1997-05-22 | Claas Ohg | Ankuppelhilfsvorrichtung |
DE102004043761A1 (de) | 2004-09-10 | 2006-03-16 | Daimlerchrysler Ag | Verfahren und Vorrichtung zum Überwachen einer Anhängerkupplung |
GB2513393B (en) * | 2013-04-26 | 2016-02-03 | Jaguar Land Rover Ltd | Vehicle hitch assistance system |
JP2017502866A (ja) | 2013-11-18 | 2017-01-26 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh | 連結のためのオーバヘッドビュー |
CN107567412B (zh) * | 2015-04-10 | 2020-11-24 | 罗伯特·博世有限公司 | 利用汽车相机使用车辆运动数据的对象位置测量 |
DE102017219119A1 (de) | 2017-10-25 | 2019-04-25 | Volkswagen Aktiengesellschaft | Verfahren zur Formerkennung eines Objekts in einem Außenbereich eines Kraftfahrzeugs sowie Kraftfahrzeug |
US10430672B2 (en) * | 2018-02-22 | 2019-10-01 | Ford Global Technologies, Llc | Hitch assist system with trailer height estimation and hitch coupler identification |
-
2019
- 2019-05-08 JP JP2020562603A patent/JP7167185B2/ja active Active
- 2019-05-08 WO PCT/US2019/031378 patent/WO2019217586A1/en unknown
- 2019-05-08 CN CN201980046003.XA patent/CN112424002A/zh active Pending
- 2019-05-08 EP EP19727194.3A patent/EP3790745B1/en active Active
- 2019-05-08 US US16/407,074 patent/US11287827B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102007017659A1 (de) * | 2007-04-12 | 2008-01-10 | Daimlerchrysler Ag | Anhänger für eine Zugmaschine |
CA2836095A1 (en) * | 2012-12-03 | 2014-06-03 | Fontaine Fifth Wheel Company | Fifth wheel backup camera system and method |
US20150077557A1 (en) * | 2013-09-16 | 2015-03-19 | Deere & Company | Vehicle auto-motion control system |
WO2016155919A1 (en) * | 2015-04-01 | 2016-10-06 | Robert Bosch Gmbh | Trailer coupling assistance system with vehicle video camera |
DE102016210376A1 (de) * | 2015-06-23 | 2016-12-29 | Gm Global Technology Operations, Llc | Intelligente anhängervorrichtungssteuerung, die ein hmi-gestütztes visual servoing verwendet |
Non-Patent Citations (1)
Title |
---|
"《军民两用技术与产品》2005年总目录", 军民两用技术与产品, no. 12, 21 December 2005 (2005-12-21), pages 20 - 21 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115328151A (zh) * | 2022-08-30 | 2022-11-11 | 浙江吉利控股集团有限公司 | 牵引车对接辅助方法、装置、设备及存储介质 |
CN115690194A (zh) * | 2022-10-17 | 2023-02-03 | 广州赤兔宸行科技有限公司 | 一种车载xr设备定位方法、装置、设备及存储介质 |
CN115690194B (zh) * | 2022-10-17 | 2023-09-19 | 广州赤兔宸行科技有限公司 | 一种车载xr设备定位方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
EP3790745B1 (en) | 2023-08-02 |
WO2019217586A1 (en) | 2019-11-14 |
EP3790745A1 (en) | 2021-03-17 |
US20190346856A1 (en) | 2019-11-14 |
US11287827B2 (en) | 2022-03-29 |
JP2021523049A (ja) | 2021-09-02 |
JP7167185B2 (ja) | 2022-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7167185B2 (ja) | 視覚物体追跡装置 | |
US11198340B2 (en) | Coupler and tow-bar detection for automated trailer hitching via cloud points | |
US11148667B2 (en) | Automated reversing by choice of target location | |
US11198341B2 (en) | Trailer detection and autonomous hitching | |
US10984553B2 (en) | Real-time trailer coupler localization and tracking | |
US11633994B2 (en) | Vehicle-trailer distance detection device and method | |
CN112004696B (zh) | 牵引车辆和拖车的对准 | |
JP7412412B2 (ja) | ユーザ選択軌跡の追従および車両動き推定による自動後退 | |
US20210155238A1 (en) | 3d position estimation system for trailer coupler | |
US20230294767A1 (en) | Vehicle Trailer Angle Estimation via Projective Geometry |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |