CN108663967A - 用于提供拖车信息的方法和设备 - Google Patents

用于提供拖车信息的方法和设备 Download PDF

Info

Publication number
CN108663967A
CN108663967A CN201810257457.9A CN201810257457A CN108663967A CN 108663967 A CN108663967 A CN 108663967A CN 201810257457 A CN201810257457 A CN 201810257457A CN 108663967 A CN108663967 A CN 108663967A
Authority
CN
China
Prior art keywords
hookup
trailer
information
distance
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810257457.9A
Other languages
English (en)
Other versions
CN108663967B (zh
Inventor
M·布利斯
张云飞
刘小明
Y·阿图姆
J·罗斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Michigan
GM Global Technology Operations LLC
Original Assignee
University of Michigan
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Michigan, GM Global Technology Operations LLC filed Critical University of Michigan
Publication of CN108663967A publication Critical patent/CN108663967A/zh
Application granted granted Critical
Publication of CN108663967B publication Critical patent/CN108663967B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • G05B19/0423Input/output
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60DVEHICLE CONNECTIONS
    • B60D1/00Traction couplings; Hitches; Draw-gear; Towing devices
    • B60D1/24Traction couplings; Hitches; Draw-gear; Towing devices characterised by arrangements for particular functions
    • B60D1/36Traction couplings; Hitches; Draw-gear; Towing devices characterised by arrangements for particular functions for facilitating connection, e.g. hitch catchers, visual guide means, signalling aids
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60DVEHICLE CONNECTIONS
    • B60D1/00Traction couplings; Hitches; Draw-gear; Towing devices
    • B60D1/58Auxiliary devices
    • B60D1/62Auxiliary devices involving supply lines, electric circuits, or the like
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/029Steering assistants using warnings or proposing actions to the driver without influencing the steering system
    • B62D15/0295Steering assistants using warnings or proposing actions to the driver without influencing the steering system by overlaying a vehicle path based on present steering angle over an image without processing that image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/808Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for facilitating docking to a trailer
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/25Pc structure of the system
    • G05B2219/25257Microcontroller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Navigation (AREA)

Abstract

提供了一种用于提供拖车信息的方法和设备。方法包括:检测拖车的联结器在后向摄像机的图像中的位置;检测联结器在所接收的图像中的位置;以及确定拖车的联结器的检测位置与车辆的挂钩之间的距离。方法可以用于显示关于拖车联结器的信息或者引导车辆以便使车辆挂钩与拖车联结器对齐。

Description

用于提供拖车信息的方法和设备
引言
与示例性实施例一致的设备和方法涉及检测拖车并且提供关于拖车的信息。更具体地,与示例性实施例一致的设备和方法涉及拖车联结器检测以及距离估计。
发明内容
一个或多个示例性实施例提供一种方法和设备,该方法和设备检测拖车的联结器并且基于图像分析提供关于拖车联结器的信息。更具体地,一个或多个示例性实施例提供一种方法和设备,该方法和设备检测拖车的联结器,估计联结器的位置,确定联结器与车辆之间的距离,并且提供指导以将车辆引导至联结器。
根据示例性实施例的方面,提供了一种用于提供拖车联结器信息的方法。该方法包括:接收由后向摄像机拍摄的图像;在所接收的图像中识别拖车的联结器;检测所识别的联结器在所接收的图像中的位置;确定拖车的联结器的检测位置与车辆的挂钩之间的距离;以及显示关于确定距离的信息、关于拖车的联结器的检测位置的信息以及将车辆引导至联结器的信息中的至少一个。
识别联结器可以包括:通过使用用于识别联结器的卷积神经网络来检测联结器的坐标,并且检测拖车的联结器的位置可以包括:生成N个随机补块;并且使用多个卷积神经网络来测试该N个随机补块以便估计拖车的联结器的位置。
多个卷积神经网络可以包括:与第一距离相对应的第一卷积神经网络,该第一距离最接近后向摄像机;与第二距离相对应的第二卷积神经网络,该第二距离比第一距离更远离后向摄像机;以及与第三距离相对应的第三卷积神经网络,该第三距离在第一距离与第二距离之间。
检测拖车的联结器在图像中的位置可以进一步包括:估计图像中的联结器的轮廓点;确定联结器的几何结构;基于轮廓点和几何结构来确定联结器的高度。
估计联结器的轮廓点可以包括:使用用于检测联结器的轮廓的卷积神经网络来确定联结器的边缘的二维坐标。
该方法可以进一步包括:基于联结器的边缘的高度和二维坐标来确定联结器的绝对位置。
该方法可以进一步包括:接收用户输入以便调节拖车的联结器在图像中的位置,并且基于该用户输入重新检测拖车的联结器在图像中的位置。
该方法可以进一步包括:基于关于确定距离的信息和关于拖车的联结器的检测位置的信息中的至少一个来进行控制以便将车辆引导至联结器。
根据另一示例性实施例的方面,提供了一种用于提供拖车联结器信息的设备。该设备包括:至少一个存储器,该至少一个存储器包括计算机可执行指令;以及至少一个处理器,该至少一个处理器配置为读取和执行计算机可执行指令。计算机可执行指令使得至少一个处理器:接收由后向摄像机拍摄的图像;在所接收的图像中识别拖车的联结器;检测拖车的所识别的联结器在所接收的图像中的位置;确定拖车的联结器的检测位置与车辆的挂钩之间的距离;以及进行控制以便显示关于确定距离的信息、关于拖车的联结器的检测位置的信息以及将车辆引导至联结器的信息中的至少一个。
计算机可执行指令可以使得至少一个处理器通过使用用于识别联结器的卷积神经网络检测联结器的坐标来识别联结器,并且还可以使得至少一个处理器通过如下方式来检测拖车的联结器的位置:生成N个随机补块,并且使用多个卷积神经网络来测试该N个随机补块以便估计联结器的位置。
多个卷积神经网络可以包括:与第一距离相对应的第一卷积神经网络,该第一距离最接近后向摄像机;与第二距离相对应的第二卷积神经网络,该第二距离比第一距离更远离后向摄像机;以及与第三距离相对应的第三卷积神经网络,该第三距离在第一距离与第二距离之间。
计算机可执行指令可以使得至少一个处理器通过如下操作来检测拖车的联结器在图像中的位置:估计图像中的联结器的轮廓点;确定联结器的几何结构;以及基于轮廓点和几何结构来确定联结器的高度。
计算机可执行指令可以使得至少一个处理器通过如下操作来估计联结器的轮廓点:使用用于检测联结器的轮廓的卷积神经网络来确定联结器的边缘的二维坐标。
计算机可执行指令可以使得至少一个处理器基于联结器的边缘的高度和二维坐标来确定联结器的绝对位置。
计算机可执行指令可以进一步使得至少一个处理器接收用户输入以便调节拖车的联结器在图像中的位置;并且基于该用户输入重新检测拖车的联结器在图像中的位置。
计算机可执行指令可以使得至少一个处理器基于关于确定距离的信息和关于拖车的联结器的检测位置的信息中的至少一个来进行控制以便将车辆引导至联结器。
根据另一示例性实施例的方面,提供了一种非暂时性计算机可读介质,该非暂时性计算机可读介质包括可由处理器执行的计算机指令。该计算机指令可执行为执行一种方法,该方法包括:通过使用卷积神经网络来检测拖车的联结器在由后向摄像机拍摄的图像中的位置;以及确定拖车的联结器的检测位置与车辆的挂钩之间的距离。
检测拖车的位置可以包括:通过使用用于识别联结器的卷积神经网络来检测拖车的联结器的坐标;生成N个随机补块;并且使用多个卷积神经网络来测试该N个随机补块以便估计联结器的位置。
该方法可以进一步包括执行如下至少一个:基于关于确定距离的信息和关于拖车的联结器的检测位置的信息中的至少一个来进行控制以便将车辆引导至联结器;以及显示关于确定距离的信息、关于拖车的联结器的检测位置的信息以及将车辆引导至联结器的信息中的至少一个。
示例性实施例的其它目的、优点以及新颖特征将从对示例性实施例的如下详细描述和附图中变得更加显而易见。
附图说明
图1示出了根据示例性实施例的用于提供拖车信息的设备的框图;
图2示出了根据示例性实施例的用于提供拖车信息的方法的流程图;
图3A示出了根据示例性实施例的方面的用于识别和检测拖车的联结器在图像中的位置的方法的流程图;
图3B示出了根据示例性实施例的方面的用于检测拖车的联结器在图像中的位置的方法的流程图;
图4示出了根据示例性实施例的方面的可显示给操作员以便帮助将车辆引导至拖车的视觉援助图像的示例的视图;以及
图5示出了根据示例性实施例的方面的拖车联结器检测以及操作员调节至检测到的拖车联结器位置的视图。
具体实施方式
现在将参照附图中的图1至图5对用于提供拖车信息的设备和方法进行详细描述,在附图中,相似的附图标记表示相似的元件。
如下公开内容将使得本领域的技术人员能够实践本发明构思。然而,本文所公开的示例性实施例仅仅是示例性的并且不会将发明构思限制于本文所公开的示例性实施例。此外,对每个示例性实施例的特征或者方面的描述通常应该被理解为可用于其它示例性实施例的方面。
还应理解,在本文陈述了第一元件“连接至”、“附接至”、“形成在”或者“设置在”第二元件上的情况下,第一元件可以直接地连接至、直接地形成在或者直接地设置在第二元件上,或者在第一元件与第二元件之间可以存在中间元件,除非声明了第一元件是“直接地”连接至、附接至、形成在或者设置在第二元件上。此外,在第一元件配置为“发送”信息或者从第二元件“接收”信息的情况下,第一元件可以直接地发送信息至第二元件或者从第二元件接收信息、经由总线发送或者接收信息、经由网络发送或者接收信息或者经由中间元件发送或者接收信息,除非指明了第一元件是“直接地”发送信息至第二元件或者从第二元件接收信息。
在本公开中,所公开的一个或多个元件可以被组合到单个装置中或者组合到一个或多个装置中。此外,单个元件可以设置在单独的装置上。
车辆(诸如,卡车)包括拖车挂钩,拖车挂钩用作可以由车辆牵引的拖车的附接点。为了将拖车附接至车辆,车辆的操作员必须将车辆引导至使车辆挂钩足以接近拖车上的附接点的位置。然而,由于提供给车辆的操作员的车辆后面的有限视野,所以将车辆引导至拖车的附接点或者联结器可能证明是困难的。
为了解决上述问题,车辆的操作员可以手动地尝试将车辆引导至拖车的附接点,从车辆中出来并且在视觉上观察挂钩与联结器之间的距离,调节车辆的位置,并且重复这些操作,直到车辆挂钩可以连接至拖车的附接点。可替代地,站在车辆外面的第二个人可以指导车辆的操作员到达拖车的附接点。然而,对于车辆的操作员而言,这两种方法可能都不方便。因此,一种用于使用车辆摄像机来提供拖车信息以便执行车辆引导并且给车辆的操作员显示视觉援助的方法和设备可以解决上述问题。
图1示出了根据示例性实施例的用于提供拖车信息100的设备的框图。如在图1中示出的,根据示例性实施例的用于提供拖车信息100的设备包括:控制器101、电源供应器102、储存装置103、输出104、车辆转向控制器105、用户输入106、后向摄像机107以及通信装置108。然而,用于提供拖车信息100的设备不限于前述配置,并且可以配置为包括附加元件和/或省略一个或多个前述元件。用于提供拖车信息100的设备可以作为车辆的一部分、作为独立的部件、作为车载装置和车辆外部装置之间的混合装置或者在另一计算装置中进行实施。
控制器101控制用于提供拖车信息100的设备的整体操作和功能。控制器101可以控制如下一个或多个:用于提供拖车信息100的设备的储存装置103、输出104、车辆转向控制器105、用户输入106、后向摄像机107以及通信装置108。控制器101可以包括如下一个或多个:处理器、微处理器、中央处理单元(CPU)、图形处理器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、状态机、电路以及硬件、软件和固件部件的组合。
控制器101配置为发送信息和/或从如下一个或多个装置接收信息:用于提供拖车信息100的设备的储存装置103、输出104、车辆转向控制器105、用户输入106、后向摄像机107以及通信装置108。该信息可以经由总线或者网络来发送和接收,或者可以直接地从如下一个或多个装置读取和/或被写至如下一个或多个装置:用于提供拖车信息100的设备的储存装置103、输出104、用户输入106、后向摄像机107以及通信装置108。合适的网络连接的示例包括:控域网(CAN)、媒体导向系统传输(MOST)、本地互连网络(LIN)、局域网(LAN)、诸如蓝牙和802.11等无线网络以及诸如以太网等其它恰当的连接。
电源供应器102给如下一个或多个装置提供电力:用于提供拖车信息100的设备的控制器101、储存装置103、输出104、车辆转向控制器105、用户输入106、后向摄像机107以及通信装置108。电源供应器102可以包括如下一个或多个:电池、电源插座、电容器、太阳能电池、发电机、风能装置、交流发电机等。
储存装置103配置为储存信息和检索由用于提供拖车信息100的设备使用的信息。储存装置103可以由控制器101控制以便储存和检索来自如下装置的信息:后向摄像机107、通信装置108、用户输入106或者车辆转向控制器105。信息可以包括:关于由后向摄像机107检测到的拖车的信息、关于拖车联结器的位置的信息以及/或者将车辆引导至拖车的指导信息。此外,储存装置可以储存由后向摄像机107提供的图像信息,对该图像信息进行分析以便确定拖车的位置、拖车联结器的位置以及/或者拖车的类型。储存装置103还可以包括计算机指令,该计算机指令配置为由处理器执行以便执行用于提供拖车信息100的设备的功能。
储存装置103还可以储存多个卷积神经网络(CNN),该多个卷积神经网络(CNN)包括:与第一距离相对应的第一卷积神经网络,该第一距离最接近后向摄像机;与第二距离相对应的第二卷积神经网络,该第二距离比第一距离更远离后向摄像机;以及与第三距离相对应的第三卷积神经网络,该第三距离在第一距离与第二距离之间。根据示例,卷积神经网络是用于识别拖车联结器的位置。
储存装置103可以包括如下一个或多个:软盘、光盘、CD-ROM(压缩盘-只读存储器)、磁光盘、ROM(只读存储器)、RAM(随机存取存储器)、EPROM(可擦可编程只读存储器)、EEPROM(电可擦可编程只读存储器)、磁卡或者光卡、闪存存储器、高速缓冲存储器以及适合于储存机器可执行指令的其它类型的媒体/机器可读介质。
输出104输出成一种或多种形式的信息,包括:视觉形式、可听形式以及/或者触觉形式。输出104可以由控制器101控制以便将输出提供给用于提供拖车信息100的设备的用户。输出104可以包括如下一个或多个:扬声器、音频输出装置、显示器、位于中央的显示器、平视显示器、挡风玻璃显示器、触觉反馈装置、振动装置、触知反馈装置、轻拍反馈装置、全息显示器、仪表灯、指示灯等。
输出104可以输出包括如下一个或多个的通知:可听通知、光线通知以及显示通知、通知可以包括:通知拖车的位置的信息、示出如何将车辆引导至拖车联结器的通知以及/或者指出车辆与拖车之间的距离的信息。此外,输出104可以输出来自车辆的后方的图像,该图像示出了车辆的路基、车辆的挂钩以及/或者车辆尝试钩柱的拖车。
车辆转向控制器105可以接收与拖车联结器的位置和/或将车辆引导至拖车联结器的位置的命令相对应的信息。车辆转向控制器然后可以基于与拖车联结器的位置和/或将车辆引导至拖车的位置的命令相对应的信息来发出命令以引导车辆以便使车辆挂钩与拖车联结器对齐。
用户输入106配置为给用于提供拖车信息100的设备提供信息和命令。用户输入106可以用于给控制器101提供用户输入等。用户输入106可以包括如下一个或多个:触摸屏、键盘、软键盘、按钮、运动检测器、语音输入检测器、麦克风、摄像机、触控板、转向盘、鼠标、触摸板等。
用户输入106可以配置为接收用户输入以便确认或者取消由输出104输出的通知。用户输入106还可以配置为接收用户输入以便激活拖车检测算法或者用于防止与车辆10的门发生碰撞的设备。例如,操作员可以经由用户输入106来选择用于打开或者关闭系统的设置。根据另一示例,用户输入可以是转向盘,该转向盘提供转向角度信息,转向角度信息用于确定车辆的轨线以及给车辆的操作员提供指导信息以调节车辆的轨线。
用户输入106还可以配置为接收用户输入以便调节图像中的拖车的联结器的位置。例如,如果在屏幕上显示的框表示图像中的联结器的识别位置,则用户可以通过通过用户输入执行手势或者通过按钮或者其它输入装置的选择来使该框移动以便选择联结器的实际位置。控制器101然后可以基于用户选择或者输入来执行算法以重新识别图像中的拖车的联结器的位置。
后向摄像机107可以包括多个传感器中的一个或多个,该多个传感器包括摄像机、红外摄像机、激光雷达、热成像摄像机等。后向摄像机107可以提供一个或多个图像,可以对该一个或多个图像进行分析以便识别拖车的联结器并且确定拖车的联结器的位置。该一个或多个图像也可以用于指导车辆的操作员到达拖车的联结器或者控制车辆以使其与拖车的联结器对齐。
通信装置108可以由用于提供拖车信息100的设备使用,以便根据各种通信方法与各种类型的外部设备通信。通信装置108可以用于将如下信息发送至用于提供拖车信息100的设备的控制器101/从该控制器101接收如下信息:关于拖车的信息、关于车门是打开还是关闭的信息以及/或者车辆动态信息(诸如,速度、加速度等)、位置信息以及/或者关于车辆是否处于钩住模式中的信息。
通信装置108可以包括各种通信模块,诸如,如下一个或多个:远程信息处理单元、广播接收模块、近场通信(NFC)模块、GPS接收器、有线通信模块或者无线通信模块。广播接收模块可以包括:包括天线以接收地面广播信号的地面广播接收模块、解调器以及均衡器等。NFC模块是根据NFC方法与位于附近的外部设备进行通信的模块。GPS接收器是用于从GPS卫星接收GPS信号并且检测当前位置的模块。有线通信模块可以是用于通过有线网络(诸如,局域网、控域网(CAN)或者外部网络)接收信息的模块。无线通信模块是通过使用无线通信协议(诸如,IEEE802.11协议、WiMAX、Wi-Fi或者IEEE通信协议)连接至外部网络并且与外部网络通信的模块。无线通信模块可以进一步包括移动通信模块,该移动通信模块访问移动通信网络并且根据各种移动通信标准执行通信,诸如,第三代(3G)、第三代合作伙伴项目(3GPP)、长期演进(LTE)、蓝牙、EVDO(数据优化)、CDMA(码分多址)、GPRS(通用分组无线业务)、EDGE或者ZigBee。
用于提供拖车信息100的设备的控制器101可以配置为:接收由后向摄像机拍摄的图像,识别在后向摄像机的图像中的拖车的联结器,检测所识别的联结器的位置,确定拖车的联结器的检测位置与车辆的挂钩之间的距离,以及控制以显示关于确定距离的信息、关于拖车的联结器的检测位置的信息以及用于将车辆引导至联结器的信息中的至少一个。
用于提供拖车信息100的设备的控制器101可以配置为:通过使用用于识别联结器的卷积神经网络来识别图像中的拖车的联结器。
用于提供拖车信息100的设备的控制器101可以配置为通过如下操作来识别联结器:分析图像,在所分析的图像中识别联结器,并且输出与所识别的联结器相对应的置信分值。可以通过基于后向摄像机与联结器之间的估计距离生成补块(例如,图像的次级样本)来对图像进行分析。
用于提供拖车信息100的设备的控制器101还可以配置为通过如下操作来检测拖车的联结器的位置:生成N个随机补块,并且使用多个卷积神经网络来测试该N个随机补块以便估计拖车的联结器的位置。
用于提供拖车信息100的设备的控制器101可以配置为通过如下操作来检测图像中的拖车的联结器的位置:使用卷积神经网络来估计图像中的联结器的轮廓点以便估计联结器的轮廓;确定联结器的几何结构;以及基于轮廓点和几何结构来确定联结器的高度。根据示例,可以通过提取几何特征(诸如,沿着直线的距离以及线的斜率)来确定联结器的高度。
控制器101还可以配置为:通过确定联结器的边缘的二维坐标来估计联结器的轮廓点,并且使用用于检测联结器的轮廓的卷积神经网络基于联结器的边缘的高度和二维坐标来更新联结器的位置。对联结器的位置的更新确定了联结器的绝对位置,例如,联结器的三维坐标,例如,联结器的高度坐标、深度坐标以及宽度坐标。联结器的绝对位置可以是相对于现实世界起始点的位置。
用于提供拖车信息100的设备的控制器101可以配置为:基于关于确定距离的信息和关于拖车的联结器的检测位置的信息中的至少一个来进行控制以便将车辆引导至联结器。
图2示出了根据示例性实施例的用于提供拖车信息的方法的流程图。图2的方法可以由用于提供拖车信息100的设备来执行,或者可以作为指令被编码到计算机可读介质中,该指令可由计算机执行以便执行该方法。
参照图2,在操作S210中接收由后向摄像机拍摄的图像。在操作S220中通过使用用于识别联结器的卷积神经网络来识别联结器。在操作S230中检测在由后向摄像机拍摄的图像中的拖车的识别联结器的位置。在操作S240中,确定拖车的联结器的检测位置与车辆的挂钩之间的距离。然后,在操作S250中可以显示关于确定距离的信息、关于拖车的联结器的检测位置的信息或者用于将车辆引导至联结器的信息中的一个或多个。
图3A示出了根据示例性实施例的方面的用于识别和检测图像中的拖车的联结器的位置的方法的流程图。图3A的方法可以由用于提供拖车信息100的设备来执行,或者可以作为指令被编码到计算机可读介质中,该指令可由计算机执行以便执行该方法。
参照图3A,在操作S310中通过使用用于识别联结器的卷积神经网络来检测联结器的坐标。可以通过如下操作来识别联结器:分析图像,在所分析的图像中识别联结器,并且输出与所识别的联结器相对应的置信分值。通过基于后向摄像机与联结器之间的估计距离生成图像的补块(例如,图像的次级样本)来对图像进行分析。
在操作S320中,生成N个随机补块。然后,在操作S330中,通过使用多个卷积神经网络来测试该N个随机补块以便估计拖车的联结器的位置。用于估计位置的多个卷积神经网络可以是如下一个或多个:与第一距离相对应的第一卷积神经网络,该第一距离最接近后向摄像机;与第二距离相对应的第二卷积神经网络,该第二距离比第一距离更远离后向摄像机;以及与第三距离相对应的第三卷积神经网络,该第三距离在第一距离与第二距离之间。
图3B示出了根据示例性实施例的方面的用于检测图像中的拖车的联结器的位置的方法的流程图。图3B的方法可以由用于提供拖车信息100的设备来执行,或者可以作为指令被编码到计算机可读介质中,该指令可由计算机执行以便执行该方法。
参照图3B,在操作S340中通过使用用于估计轮廓的卷积神经网络来估计图像中的联结器的轮廓点。在操作S350中确定联结器的几何结构。然后,在操作S360中基于几何结构和轮廓点来确定联结器的高度。根据示例,可以通过提取几何特征(诸如,沿着直线的距离以及线的斜率)来确定联结器的高度。
图4示出了根据示例性实施例的方面的可显示给操作员以便帮助将车辆引导至拖车的视觉援助图像的示例的视图。视觉援助图像可以被显示在输出104上,例如,在从车辆的内部可见的显示器上。
参照图4,视图401示出了呈图像的形式的指导信息的示例,该图像指出了为了使车辆挂钩与拖车联结器对齐而使车辆移动的方向。视图402示出了呈距离信息的形式的指导信息的示例,该距离信息指出了车辆挂钩与拖车联结器之间的距离。
视图403示出了由后向摄像机107生成的图像的示例视图。该图像示出了拖车、拖车联结器以及用于指出拖车联结器的位置的框404。车辆的操作员可以经由用户输入106对框404进行调节以便将框的位置调节为更加与拖车联结器的位置相对应。
此外,视图405示出了指导信息和距离信息的示例。如在视图405中示出的,可以显示出拖车的联结器与挂钩之间的距离以及车辆的转向角度。此外,可以显示出指令,该指令指出了用于使车辆与联结器对齐的目标转向角度和方向。
图5示出了根据示例性实施例的方面的拖车联结器检测以及操作员调节至检测到的拖车联结器位置的视图。参照图5,视图501图示了来自后向摄像机107的典型图像,该典型图像示出了车辆的挂钩和拖车的联结器。视图502示出了准确地检测拖车的联结器的示例,其中,框505准确地反映出拖车的联结器的位置。视图503示出了对联结器的检测不准确的示例,从而需要操作员将框505移动至图像中与如在视图504中示出的联结器的位置相对应的位置处。用于提供拖车信息的设备可以使用更新位置来更好地分析来自后向摄像机的图像并且校正拖车的联结器的先前确定的位置。
本文所公开的过程、方法或者算法可以交付给处理装置、控制器或者计算机/或者由其实施,该处理装置、控制器或者计算机可以包括任何现有的可编程电子控制装置或者专用电子控制装置。类似地,这些过程、方法或者算法可以被储存作为可由控制器或者计算机执行的数据和指令,该数据和指令呈许多形式,包括但不限于:永久地被储存在不可写储存媒体(诸如,ROM装置)上的信息以及可变更地被储存在可写储存媒体(诸如,软盘、磁带、CD、RAM装置以及其它磁性和光学媒体)上的信息。这些过程、方法或者算法也可以在软件可执行对象中进行实施。可替代地,这些过程、方法或者算法可以全部地或者部分地使用如下合适的硬件部件来体现,诸如,专用集成电路(ASIC)、现场可编程门阵列(FPGA)、状态机、控制器或者其它硬件部件或者装置或者硬件、软件和固件部件的组合。
上文已经参照附图对一个或多个示例性实施例进行了描述。上文所描述的示例性实施例应该被看作是仅仅具有描述性意义,并且不用于限制的目的。此外,在不背离本发明构思的精神和范围的情况下,可以对示例性实施例作出修改,本发明构思由如下权利要求书限制。

Claims (10)

1.一种用于提供拖车联结器信息的设备,所述设备包括:
至少一个存储器,所述至少一个存储器包括计算机可执行指令;以及
至少一个处理器,所述至少一个处理器配置为读取和执行所述计算机可执行指令,所述计算机可执行指令使得所述至少一个处理器:
接收由后向摄像机拍摄的图像;
识别所接收的图像中的拖车的联结器;
检测所述拖车的所识别的联结器在所接收的图像中的位置;
确定所述拖车的所述联结器的所述检测位置与车辆的挂钩之间的距离;以及
控制以显示关于所述确定距离的信息、关于所述拖车的所述联结器的所述检测位置的信息,以及将车辆引导至所述联结器的信息中的至少一个。
2.根据权利要求1所述的设备,其中,所述计算机可执行指令使得所述至少一个处理器通过如下操作来识别所述联结器:通过使用用于识别联结器的卷积神经网络来检测所述联结器的坐标,并且
其中,所述计算机可执行指令使得所述至少一个处理器通过如下操作来检测所述拖车的所述联结器的所述位置:生成N个随机补块,并且使用多个卷积神经网络来测试所述N个随机补块以便估计所述联结器的所述位置。
3.根据权利要求2所述的设备,其中,所述多个卷积神经网络包括:与第一距离相对应的第一卷积神经网络,所述第一距离最接近所述后向摄像机;与第二距离相对应的第二卷积神经网络,所述第二距离比所述第一距离更远离所述后向摄像机;以及与第三距离相对应的第三卷积神经网络,所述第三距离在所述第一距离与所述第二距离之间。
4.根据权利要求3所述的设备,其中,所述计算机可执行指令使得所述至少一个处理器通过如下操作来检测所述拖车的所述联结器在所述图像中的所述位置:估计所述图像中的所述联结器的轮廓点;确定所述联结器的几何结构;以及基于所述轮廓点和所述几何结构来确定所述联结器的高度。
5.根据权利要求4所述的设备,其中,所述计算机可执行指令使得所述至少一个处理器通过如下操作来估计所述联结器的轮廓点:使用用于检测联结器的轮廓的卷积神经网络来确定所述联结器的边缘的二维坐标。
6.根据权利要求5所述的设备,其中,所述计算机可执行指令使得所述至少一个处理器基于所述联结器的所述边缘的所述高度和所述二维坐标来确定所述联结器的绝对位置。
7.根据权利要求1所述的设备,其中,所述计算机可执行指令进一步使得所述至少一个处理器接收用户输入以便调节所述拖车的所述联结器在所述图像中的所述位置;并且基于所述用户输入重新检测所述拖车的所述联结器在所述图像中的所述位置。
8.根据权利要求7所述的设备,其中,所述计算机可执行指令使得所述至少一个处理器基于关于所述确定距离的所述信息以及关于所述拖车的所述联结器的所述检测位置的所述信息中的至少一个来进行控制以将所述车辆引导至所述联结器。
9.一种非暂时性计算机可读介质,所述非暂时性计算机可读介质包括计算机可执行指令,所述计算机可执行指令能够由处理器执行以便实施一种用于提供拖车信息的方法,所述方法包括:
通过使用卷积神经网络检测拖车的联结器在由后向摄像机拍摄的图像中的位置;以及
确定所述拖车的所述联结器的所述检测位置与车辆的挂钩之间的距离。
10.根据权利要求9所述的非暂时性介质,其中,检测所述拖车的所述位置包括:
通过使用用于识别所述联结器的所述卷积神经网络来检测所述拖车的所述联结器的坐标;
生成N个随机补块;以及
使用多个卷积神经网络来测试所述N个随机补块以便估计所述拖车的所述位置。
CN201810257457.9A 2017-03-27 2018-03-27 用于提供拖车信息的方法和设备 Active CN108663967B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/470,159 US10332002B2 (en) 2017-03-27 2017-03-27 Method and apparatus for providing trailer information
US15/470159 2017-03-27

Publications (2)

Publication Number Publication Date
CN108663967A true CN108663967A (zh) 2018-10-16
CN108663967B CN108663967B (zh) 2021-06-08

Family

ID=63450680

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810257457.9A Active CN108663967B (zh) 2017-03-27 2018-03-27 用于提供拖车信息的方法和设备

Country Status (3)

Country Link
US (1) US10332002B2 (zh)
CN (1) CN108663967B (zh)
DE (1) DE102018107196A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112904363A (zh) * 2021-01-19 2021-06-04 北京九曜智能科技有限公司 一种自动驾驶车辆对接拖车自动托挂钩的方法

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10532698B2 (en) * 2017-07-14 2020-01-14 Magna Electronics Inc. Trailer angle detection using rear backup camera
US20190086927A1 (en) * 2017-09-20 2019-03-21 Continental Automotive Systems, Inc. Automated Trailer Hitching Using GPS
US10984553B2 (en) * 2018-05-01 2021-04-20 Continental Automotive Systems, Inc. Real-time trailer coupler localization and tracking
US10733757B2 (en) 2018-05-10 2020-08-04 Magna Electronics Inc. Trailer assist system with estimation of 3D location of hitch
US10748295B2 (en) * 2018-06-08 2020-08-18 Ford Global Technologies, Llc Object tracking in blind-spot
US10884119B2 (en) * 2018-06-08 2021-01-05 Ford Global Technologies, Llc Object tracking in blind-spot
US10960721B2 (en) * 2018-06-26 2021-03-30 Ford Global Technologies, Llc System for detection and response to retreating trailer
JP7208812B2 (ja) * 2019-02-06 2023-01-19 日立Astemo株式会社 電子制御装置
JP7293722B2 (ja) * 2019-02-28 2023-06-20 株式会社デンソーテン 運転支援装置
US11697414B2 (en) * 2020-03-17 2023-07-11 Ford Global Technologies, Llc System and method for remote automated vehicle alignment with a trailer for hitching
US11721108B2 (en) 2020-11-10 2023-08-08 Ford Global Technologies, Llc System and method for training trailer detection systems
US11676300B2 (en) * 2020-12-09 2023-06-13 Continental Autonomous Mobility US, LLC Method for real-time tow ball detection

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104159757A (zh) * 2012-02-29 2014-11-19 罗伯特·博世有限公司 联结器对齐辅助
CN104460361A (zh) * 2013-09-16 2015-03-25 迪尔公司 车辆自动运动控制系统
CN105976400A (zh) * 2016-05-10 2016-09-28 北京旷视科技有限公司 基于神经网络模型的目标跟踪方法及装置
CN106043281A (zh) * 2015-04-14 2016-10-26 大陆汽车系统公司 自动联结辅助系统
GB2538847A (en) * 2015-05-28 2016-11-30 Adobe Systems Inc Joint Depth estimation and semantic segmentation from a single image

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3483143B2 (ja) * 2001-04-09 2004-01-06 松下電器産業株式会社 運転支援装置
JP3945467B2 (ja) * 2003-10-02 2007-07-18 日産自動車株式会社 車両後退支援装置および方法
DE102004029129B4 (de) * 2004-06-17 2008-08-28 Daimler Ag Verfahren und Vorrichtung zur Ankupplung eines Anhängers an ein Kraftfahrzeug
US7568716B2 (en) * 2005-05-13 2009-08-04 Dietz Dan L Method and apparatus for alignment of trailer hitch
US8888121B2 (en) * 2007-01-25 2014-11-18 Target Hitch Llc Towing vehicle guidance for trailer hitch connection
US20090271078A1 (en) * 2008-04-29 2009-10-29 Mike Dickinson System and method for identifying a trailer being towed by a vehicle
DE112010005737B4 (de) * 2010-07-14 2015-09-17 Mitsubishi Electric Corporation Bildsynthesevorrichtung
WO2012103193A1 (en) * 2011-01-26 2012-08-02 Magna Electronics Inc. Rear vision system with trailer angle detection
US9506774B2 (en) * 2011-04-19 2016-11-29 Ford Global Technologies, Llc Method of inputting a path for a vehicle and trailer
JP5682788B2 (ja) * 2011-09-27 2015-03-11 アイシン精機株式会社 車両周辺監視装置
US9914333B2 (en) * 2012-07-05 2018-03-13 Uusi, Llc Vehicle trailer connect system
US9562878B2 (en) * 2012-09-13 2017-02-07 Nordco Inc. Rail condition monitoring system with carriage
KR20140051615A (ko) * 2012-10-23 2014-05-02 현대자동차주식회사 비주차구역의 주차 지원 장치 및 방법
US20140125795A1 (en) * 2012-11-05 2014-05-08 James Arnold Yerke Trailer Coupling Assistant
GB2515800B (en) * 2013-07-04 2017-06-07 Jaguar Land Rover Ltd Vehicle control system
US20150115571A1 (en) * 2013-10-24 2015-04-30 GM Global Technology Operations LLC Smart tow
US10160382B2 (en) * 2014-02-04 2018-12-25 Magna Electronics Inc. Trailer backup assist system
US9296421B2 (en) * 2014-03-06 2016-03-29 Ford Global Technologies, Llc Vehicle target identification using human gesture recognition
EP3140725B1 (en) * 2014-05-06 2018-09-12 Robert Bosch GmbH Dynamic camera view to aid with trailer attachment
GB2530649B (en) * 2014-08-18 2017-06-28 Jaguar Land Rover Ltd Display system and method
US9499018B2 (en) 2015-04-01 2016-11-22 Robert Bosch Gmbh Trailer coupling assistance system with vehicle video camera
US9896130B2 (en) * 2015-09-11 2018-02-20 Ford Global Technologies, Llc Guidance system for a vehicle reversing a trailer along an intended backing path
JP6514624B2 (ja) * 2015-11-02 2019-05-15 クラリオン株式会社 障害物検知装置
US10017115B2 (en) * 2015-11-11 2018-07-10 Ford Global Technologies, Llc Trailer monitoring system and method
US9731568B2 (en) * 2015-12-01 2017-08-15 GM Global Technology Operations LLC Guided tow hitch control system and method
US10127459B2 (en) * 2015-12-17 2018-11-13 Ford Global Technologies, Llc Trailer type identification system
US9798953B2 (en) * 2015-12-17 2017-10-24 Ford Global Technologies, Llc Template matching solution for locating trailer hitch point
US10155478B2 (en) * 2015-12-17 2018-12-18 Ford Global Technologies, Llc Centerline method for trailer hitch angle detection
US9934572B2 (en) * 2015-12-17 2018-04-03 Ford Global Technologies, Llc Drawbar scan solution for locating trailer hitch point
CN107181908B (zh) * 2016-03-11 2020-09-11 松下电器(美国)知识产权公司 图像处理方法、图像处理装置及计算机可读记录介质
JP6364042B2 (ja) * 2016-05-23 2018-07-25 株式会社Subaru 車両の後退支援装置
EP3263370B1 (de) * 2016-06-29 2021-01-20 Volkswagen Aktiengesellschaft Assistenzverfahren und ankuppelassistent zum ankuppeln eines kraftfahrzeuges an einen anhänger
JP7069548B2 (ja) * 2017-03-01 2022-05-18 株式会社アイシン 周辺監視装置
US10906583B2 (en) * 2017-03-03 2021-02-02 Continental Automotive Systems, Inc. Autonomous trailer hitching using neural network
US10384609B2 (en) * 2017-06-20 2019-08-20 Ford Global Technologies, Llc Vehicle rear object proximity system using multiple cameras

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104159757A (zh) * 2012-02-29 2014-11-19 罗伯特·博世有限公司 联结器对齐辅助
CN104460361A (zh) * 2013-09-16 2015-03-25 迪尔公司 车辆自动运动控制系统
CN106043281A (zh) * 2015-04-14 2016-10-26 大陆汽车系统公司 自动联结辅助系统
GB2538847A (en) * 2015-05-28 2016-11-30 Adobe Systems Inc Joint Depth estimation and semantic segmentation from a single image
CN105976400A (zh) * 2016-05-10 2016-09-28 北京旷视科技有限公司 基于神经网络模型的目标跟踪方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112904363A (zh) * 2021-01-19 2021-06-04 北京九曜智能科技有限公司 一种自动驾驶车辆对接拖车自动托挂钩的方法
CN112904363B (zh) * 2021-01-19 2023-04-25 北京九曜智能科技有限公司 一种自动驾驶车辆对接拖车自动托挂钩的方法

Also Published As

Publication number Publication date
CN108663967B (zh) 2021-06-08
DE102018107196A1 (de) 2018-09-27
US20180272941A1 (en) 2018-09-27
US10332002B2 (en) 2019-06-25

Similar Documents

Publication Publication Date Title
CN108663967A (zh) 用于提供拖车信息的方法和设备
US20200348408A1 (en) Vehicle Positioning Method and Vehicle Positioning Apparatus
CN109094669B (zh) 用于评估铰接角度的方法和设备
CN105117146B (zh) 信息提供设备及其方法
JP4946238B2 (ja) 車両周辺撮影送信装置および車両周辺撮影送信プログラム
CN101269644A (zh) 车辆外部显示系统和显示控制装置
TW200930010A (en) System and method for warning parking via a mobile phone
CN108116408A (zh) 多传感器概率对象和自动制动
KR102547441B1 (ko) 차량 간 메시지 전송 장치 및 방법
CN105030491B (zh) 一种导盲方法及导盲系统
CN107408304A (zh) 挂车追踪装置和方法
CN109670458A (zh) 一种车牌识别方法及装置
EP3706095A1 (en) Evaluation device, evaluation system, vehicle, and program
CN103051867A (zh) 图像生成器
CN113205088B (zh) 障碍物图像展示方法、电子设备和计算机可读介质
CN108664883A (zh) 用于启动挂接视图的方法和装置
JP6462528B2 (ja) 移動体追跡装置及び移動体追跡方法及び移動体追跡プログラム
CN106297407A (zh) 基于智能终端的行车安全提示方法及装置
CN108284804A (zh) 一种用于车辆的移动终端设备
CN110334736A (zh) 图像识别方法、装置、电子设备及介质
EP3651061A1 (en) Method and device for evaluating the result of an automatic parking operation, corresponding device and storage medium
CN109413377B (zh) 用于停车距离选择的方法和设备
JP5607188B2 (ja) 情報処理装置及びプログラム
CN111476057A (zh) 车道线获取方法及装置、车辆驾驶方法及装置
JP2018160125A (ja) 車両管理システム、撮影システム、車両管理プログラムおよび撮影プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant