CN110972111A - 用于由自动驾驶车辆检测呼叫者的方法 - Google Patents

用于由自动驾驶车辆检测呼叫者的方法 Download PDF

Info

Publication number
CN110972111A
CN110972111A CN201811456907.3A CN201811456907A CN110972111A CN 110972111 A CN110972111 A CN 110972111A CN 201811456907 A CN201811456907 A CN 201811456907A CN 110972111 A CN110972111 A CN 110972111A
Authority
CN
China
Prior art keywords
caller
autonomous vehicle
image
portable terminal
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811456907.3A
Other languages
English (en)
Other versions
CN110972111B (zh
Inventor
李元锡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyundai Motor Co
Kia Corp
Original Assignee
Hyundai Motor Co
Kia Motors Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyundai Motor Co, Kia Motors Corp filed Critical Hyundai Motor Co
Publication of CN110972111A publication Critical patent/CN110972111A/zh
Application granted granted Critical
Publication of CN110972111B publication Critical patent/CN110972111B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/02Reservations, e.g. for tickets, services or events
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3438Rendez-vous, i.e. searching a destination where several users can meet, and the routes to this destination for these users; Ride sharing, i.e. searching a route such that at least two users can share a vehicle for at least part of the route
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/362Destination input or retrieval received from an external device or application, e.g. PDA, mobile phone or calendar application
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0016Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0038Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/40
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • G08G1/202Dispatching vehicles on the basis of a location, e.g. taxi dispatching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Abstract

本发明提供一种用于由自动驾驶车辆检测呼叫者的方法。具体地,当自动驾驶车辆变得更靠近呼叫者时,它将自动驾驶车辆附近的图像发送到呼叫者的便携式终端,从而使得呼叫者在接收到的图像上指定呼叫者。自动驾驶车辆基于呼叫者标记的图像而自动行驶到呼叫者的位置,从而防止或避免呼叫者亲自检测自动驾驶车辆。

Description

用于由自动驾驶车辆检测呼叫者的方法
相关申请的交叉引用
本申请要求2018年10月1日提交的韩国专利申请No.10-2018-0117095的优先权和权益,该申请的全部内容通过引用结合于此。
技术领域
本申请涉及一种用于由自动驾驶车辆检测呼叫者的方法。
背景技术
本部分中的陈述仅提供与本申请相关的背景信息,并不会构成现有技术。
约车是一种共享车辆的服务,其近来已经受到关注,并且在广义上统称为“车辆呼叫服务”。
车辆呼叫服务是使希望移动的客户与拥有车辆的服务提供者直接联系的一种服务,起始于美国的“优步(Uber)”是一个代表性示例。在韩国,目前“可可出租车(CacaoTaxi)”是一种类似于“优步”的商业模式。
根据操作车辆呼叫服务的方式,如果呼叫者通过该呼叫者的智能电话呼叫车辆,则呼叫者的位置被发送到车辆驾驶员的智能电话,车辆驾驶员将车辆移动到地图上标记的位置,从而使得呼叫者乘坐车辆。在这种情况下,由于全球定位系统(GPS)信息具有距离误差,因此车辆驾驶员可能无法辨识呼叫者的位置。此外,由于车辆驾驶员不知道呼叫者的面部,因此当车辆到达呼叫者的附近时,车辆驾驶员通过呼叫呼叫者或者发送或接收短信来指定呼叫者。
由于最近已经开发的自动驾驶车辆具有在没有驾驶员参与的情况下驶往目的地的能力,因此自动驾驶车辆可以用于各种目的,尤其是甚至用于车辆呼叫服务。
在这种情况下,在自动驾驶车辆中没有驾驶员的情况下,自动驾驶车辆必须直接检测呼叫者,但是这种技术还从未被提出过。
发明内容
本申请用以解决现有技术中出现的上述问题,同时完整地保持现有技术所实现的优点。
本申请的一方面提供一种用于由自动驾驶车辆检测呼叫者的方法,其允许更靠近呼叫者的自动驾驶车辆将自动驾驶车辆附近的图像发送到呼叫者的便携式终端,从而使得呼叫者在图像上指定他/她自己,并且允许所述自动驾驶车辆基于呼叫者标记的图像而自动行驶到呼叫者的位置,从而使呼叫者免于亲自检测自动驾驶车辆。
本发明构思要解决的技术问题不限于上述问题,并且本申请所属领域的技术人员从以下描述中将清楚地理解本文未提及的任何其它技术问题。
根据本申请的一方面,用于由自动驾驶车辆检测呼叫者的方法包括:由自动驾驶车辆的检测控制器接收来自呼叫者的便携式终端的呼叫者标记在其上的图像;基于具有标记的呼叫者的图像,由检测控制器在通过拍摄呼叫者的附近而获得的图像中识别呼叫者;以及自动驾驶车辆移动到所识别的呼叫者的位置。
所述方法可以进一步包括:在接收到来自便携式终端的呼叫时,基于呼叫者的便携式终端的位置的信息,在接收具有标记的呼叫者的图像之前,自动驾驶车辆移动到呼叫者的附近;以及由自动驾驶车辆的图像设备拍摄呼叫者附近的图像,并且将呼叫者附近的图像发送到呼叫者的便携式终端。
此外,识别呼叫者可以包括:将在呼叫者的图像上具有标记的呼叫者的区域设定为模板;拍摄新的附近图像;以及通过具有标记的呼叫者的图像与新的附近图像之间的模板匹配来识别呼叫者。
此外,识别呼叫者可以包括通过辨识呼叫者的面部来识别呼叫者。
此外,所述方法可以进一步包括在移动到所识别的呼叫者的位置之后,将通知到达的信息发送到便携式终端,或者可以进一步包括在移动到所识别的呼叫者的位置之后,通过安装在自动驾驶车辆的外部部分上的显示器通知到达。
根据本申请的另一方面,用于由自动驾驶车辆检测呼叫者的方法包括:由自动驾驶车辆的检测控制器接收来自呼叫者的便携式终端的呼叫者标记在其上的三维(3D)图像;由自动驾驶车辆的控制器从具有标记的呼叫者的3D图像中提取距呼叫者的距离;以及基于提取的距离,自动驾驶车辆移动至呼叫者。
所述方法可以进一步包括:在接收到来自便携式终端的呼叫时,基于呼叫者的便携式终端的位置的信息,在接收具有标记的呼叫者的3D图像之前,自动驾驶车辆移动到呼叫者的附近;以及由自动驾驶车辆的图像设备拍摄呼叫者附近的3D图像,并且将拍摄的呼叫者附近的3D图像发送到呼叫者的便携式终端。
此外,所述方法可以进一步包括在行驶所提取的距呼叫者的距离之后,将通知到达的信息发送到呼叫者的便携式终端,或者可以进一步包括在行驶所提取的距呼叫者的距离之后,通过安装在自动驾驶车辆的外部部分上的显示器通知到达。
根据本申请的另一方面,用于由自动驾驶车辆检测呼叫者的方法包括:由自动驾驶车辆的检测控制器接收来自呼叫者的便携式终端的呼叫者位置标记在其上的电子地图;由自动驾驶车辆的控制器在具有标记的呼叫者位置的电子地图上计算距呼叫者的距离;以及基于提取的距呼叫者的距离,移动自动驾驶车辆。
根据本申请,另一种方法可以进一步包括:在接收到来自便携式终端的呼叫时,基于呼叫者的便携式终端的位置的信息,在接收具有标记的呼叫者位置的电子地图之前,自动驾驶车辆移动到呼叫者的附近;以及当自动驾驶车辆到达呼叫者的附近时在电子地图上标记当前位置,并且将标记的自动驾驶车辆的当前位置发送到便携式终端。
在这种情况下,在电子地图上标记的当前位置可以以车辆图标显示在呼叫者的便携式终端上,车辆图标可以具有与自动驾驶车辆的颜色相同的颜色并且可以表示具有与自动驾驶车辆类型相同的类型的车辆。
此外,电子地图可以为示出当前位置附近的障碍物的详细地图,并且障碍物可以具有标识符(ID)。
根据本申请,另一种方法可以进一步包括在行驶所提取的距呼叫者的距离之后,将通知到达的信息发送到便携式终端,或者可以进一步包括在行驶所提取的距呼叫者的距离之后,通过安装在自动驾驶车辆的外部部分上的显示器通知到达。
通过本文提供的描述,其它适用领域将变得显而易见。应理解的是,所述描述和具体示例旨在仅用于说明的目的,并非旨在限制本申请的范围。
附图说明
为了可以很好地理解本申请,现在将参考附图描述其以示例方式给出的各种形式,在附图中:
图1示出自动驾驶车辆的示意图;
图2是示出用于由自动驾驶车辆检测呼叫者的方法的流程图;
图3是示出用于由自动驾驶车辆检测呼叫者的方法的流程图;
图4A和图4B示出呼叫者标记在其上的图像;
图5示出3D图像;
图6示出包括距离信息的图像;
图7是示出用于由自动驾驶车辆检测呼叫者的方法的流程图;以及
图8是示出实现用于由自动驾驶车辆检测呼叫者的方法的计算系统的框图。
本文描述的附图仅用于说明的目的,并非旨在以任何方式限制本申请的范围。
具体实施方式
以下描述本质上仅是示例性的,并非旨在限制本申请、应用或用途。应理解的是,在整个附图中,相应的附图标记表示相同或相应的部件和特征。
此外,在以下对本申请的示例性形式的描述中,将省略公知特征或功能的详细描述,以免不必要地模糊本申请的主旨。
在描述本申请的示例性形式的元件时,本文可以使用术语1st、2nd、第一、第二、A、B、(a)、(b)等。这些术语仅用于将一个元件与另一个元件区分开,但不限制相应的元件,与相应元件的顺序或优先级无关。除非另外定义,否则本文使用的所有术语(包括技术或科学术语)具有与本申请所属领域的技术人员通常理解的含义相同的含义。在通常使用的字典中定义的那些术语应被解释为具有与相关领域中的背景含义等同的含义,并且不应被解释为具有理想化或过于正式的含义,除非在本申请中明确定义为具有这样的含义。
图1示出应用本申请的自动驾驶车辆的示意图。
如在图1中所示,自动驾驶车辆可以包括:传感器110,地图存储装置120,用户输入设备130,车辆传感器140,行驶路径创建器150,输出设备160,车辆控制器170,转向控制器180,制动控制器190,驱动控制器200,换挡控制器210,以及检测控制器220。取决于再现本申请的方式,组件彼此联接以在一个组件中统一。此外,取决于再现本申请的方式,可以省略一些组件。
在这种情况下,行驶路径创建器150、车辆控制器170、转向控制器180、制动控制器190、驱动控制器200、换挡控制器210和检测控制器220可以包括处理器(未示出)和存储器(未示出)。行驶路径创建器150、车辆控制器170、转向控制器180、制动控制器190、驱动控制器200、换挡控制器210和检测控制器220可以通过车辆网络发送和接收数据(信息),所述车辆网络例如为控制器局域网(CAN)、面向媒体的系统传输(MOST)网络、本地互连网络(LIN)或线控技术(X-by-Wire)(Flexray)。
传感器110获取关于车辆附近的环境信息。在这种情况下,环境信息包括:主题车辆和后方车辆之间的距离,后方车辆的相对速度,前方车辆(前进的车辆)的位置,障碍物,以及交通信号灯的信息。
传感器110可以包括相机111、雷达112、LiDAR 113和全球定位系统(GPS)114。在这种情况下,相机111可以包括红外相机、立体相机和3D相机,LiDAR 113可以包括2D LiDAR和3D LiDAR。此外,传感器110通过相机111、雷达112和LiDAR 113来检测车辆的附近图像、主题车辆和后方车辆之间的距离、后方车辆的相对速度、前方车辆(前进的车辆)的位置、障碍物、和/或交通信号灯的信息,并且通过GPS 114来检测主题车辆的当前位置。此外,传感器110可以进一步包括超声波传感器。
地图存储装置120以数据库(DB)的形式储存基于车道的详细地图。详细地图可以通过无线通信以特定周期自动更新,或者可以由用户手动更新。
地图存储装置120可以用闪存、硬盘、安全数字(SD)卡、随机存取存储器(RAM)、只读存储器(ROM)或网络存储中的至少任一种来实现。
用户输入设备130可以生成由用户输入的数据。例如,用户输入设备130生成目的地信息(例如,地点的名称和/或坐标)。用户输入设备130可以包括键盘、圆顶开关(domeswitch)、触摸板、滚轮(jog wheel)和/或滚动开关(jog switch)。
车辆传感器140测量关于主题车辆的车辆信息。车辆信息包括主题车辆的速度、加速度、横摆角速度和转向角。车辆传感器140可以包括速度传感器141、加速度传感器142、横摆角速度传感器143和转向角传感器144。
行驶路径创建器150创建用于车辆的自动行驶的行驶路径(全局路径)。如果通过用户输入设备130输入目的地,则行驶路径创建器150创建从主题车辆的当前位置到目的地的行驶路径。在这种情况下,行驶路径创建器150基于详细地图和/或通过无线通信所获得的实时交通信息来创建行驶路径。无线通信技术可以包括无线因特网、移动通信或广播通信。
当车辆在自动行驶期间进入前方路径上的袖珍型车道(pocket lane)区域(用于进入袖珍型车道的区域)时,行驶路径创建器150基于环境信息辨识(确定)袖珍型车道的状况。换言之,行驶路径创建器150基于由传感器110测量的数据来辨识袖珍型车道上的交通拥堵、后方车辆与主题车辆之间的距离、后方车辆的相对速度、或开启的交通灯的颜色。行驶路径创建器150通过分析所辨识的袖珍型车道状况来确定主题车辆是否能够停在直线行驶车道(直线车道)上以进入袖珍型车道。行驶路径创建器150根据所辨识的袖珍型车道状况来规划在袖珍型车道区域中的行驶路径。
在主题车辆能够停在直线车道上以进入袖珍型车道时,行驶路径创建器150控制稍后描述的车辆控制器170,开启转弯指示器,使车辆减速,并且确定前方车辆是否存在于袖珍型车道上。
当在袖珍型车道上存在前方车辆时,行驶路径创建器150检测前方车辆在袖珍型车道上的位置,以确定是否可以在行驶路径上进入袖珍型车道。当可以在行驶路径上进入袖珍型车道时,行驶路径创建器150向车辆控制器170提供预设的现有行驶路径。
当难以在行驶路径上进入袖珍型车道时,行驶路径创建器150创建到前方车辆的追踪路径(前方车辆追踪路径),并且向车辆控制器170提供前方车辆追踪路径。因此,车辆控制器170控制主题车辆的行驶,从而使得主题车辆基于前方车辆追踪路径而追踪到前方车辆。
当主题车辆难以在直线行驶路径上停止以进入袖珍型车道(袖珍型车道的入口)时,行驶路径创建器150通过检测新的行驶路径来创建新的行驶路径,以通过在直线行驶车道上的行驶到达预设目的地。行驶路径创建器150将创建的新行驶路径发送到车辆控制器170。
行驶路径创建器150创建到呼叫自动驾驶车辆的呼叫者所在的地点的行驶路径。
用于输出视觉信息、听觉信息和/或触觉信息的输出设备160可以包括显示器、声音输出模块和触觉模块。例如,输出设备160允许从行驶路径创建器150输出的行驶路径与详细地图重叠并显示重叠结果。
输出设备160可以在行驶路径创建器150的控制下以语音信号的形式输出警告信息或通知信息。
此外,输出设备160可以进一步包括安装在自动驾驶车辆外部部分上的显示器和电子板,以显示关于呼叫者的信息(例如,照片、电话号码、标识符、固有号码、一次性代码等),从而使得呼叫者更容易辨识自动驾驶车辆。
车辆控制器170控制车辆沿着由行驶路径创建器150创建的行驶路径自动行驶。车辆控制器170从车辆传感器140获得车辆信息,并基于所获得的车辆信息执行车辆控制。
此外,车辆控制器170控制车辆自动行驶到呼叫者所在的地点。
转向控制器180通过电机驱动动力转向(MDPS)实现,以控制车辆的转向。转向控制器180在车辆控制器170的控制下控制车辆的转向角。
制动控制器190通过电子稳定控制(ESC)实现,以控制车辆的速度。制动控制器190根据制动踏板的位置控制制动压力或者在车辆控制器170的控制下控制制动压力。
驱动控制器200为控制车辆的发动机的设备,其控制车辆的加速或减速。驱动控制器200用发动机管理系统(EMS)实现。驱动控制器200根据关于加速踏板的位置的信息来控制发动机的驱动扭矩。此外,驱动控制器200控制发动机输出以跟随车辆控制器170所期望的目标驱动扭矩。
换挡控制器210负责车辆的换挡(挡位)。换挡控制器210用电子换挡器或线控换挡(SBW)实现。
当车辆接近呼叫者所在的地点时,检测控制器220通过相机111拍摄自动驾驶车辆附近的图像,通过无线通信将拍摄的图像发送到呼叫者的便携式终端300,从而使得呼叫者指定在图像上拍摄的呼叫者。换言之,通过便携式终端300接收到图像的呼叫者指定在图像上拍摄的呼叫者,然后将呼叫者标记在其上的图像发送到自动驾驶车辆。在这种情况下,当呼叫者不在图像中时,呼叫者可以发送呼叫者不在图像中的通知,或者可以请求发送新的图像。
基于具有标记的呼叫者的图像,检测控制器220在与行驶路径创建器150交互工作的同时创建行驶路径,从而使得车辆自动行驶到呼叫者的位置。在这种情况下,检测控制器220可以基于模式匹配、面部辨识等在移动的同时检测呼叫者。以这种方式检测到的呼叫者的位置成为自动驾驶车辆的目的地。
检测控制器220到达呼叫者的便携式终端300所在的点(具体地,可能存在由GPS信息引起的误差),拍摄自动驾驶车辆附近的图像,然后将图像发送到呼叫者的便携式终端300。检测控制器220接收来自呼叫者的便携式终端300的具有标记的呼叫者的图像,在缓慢行驶的同时将当前拍摄的图像与具有标记的呼叫者的图像进行比较,而后追踪呼叫者。换言之,检测控制器220从在呼叫者附近拍摄的图像中识别呼叫者。
图2是示出根据本申请第一形式的用于由自动驾驶车辆检测呼叫者的方法的流程图。
首先,便携式终端300响应于接收到的来自呼叫者500的请求而呼叫自动驾驶车辆100(201)。在这种情况下,便携式终端300将关于便携式终端300的位置的信息发送到自动驾驶车辆100。此外,由于便携式终端300包括GPS接收器,因此便携式终端300可以获得关于便携式终端300的位置的信息(GPS位置信息)。
此后,自动驾驶车辆100将与接收到的来自便携式终端300的GPS位置信息对应的点设定为目的地,并通过自动行驶到达目的地(202)。在这种情况下,由于GPS位置信息具有误差,因此自动驾驶车辆100可能不会到达呼叫者500的位置(例如,在2米内)。换言之,自动驾驶车辆100会到达呼叫者500的附近。
此后,自动驾驶车辆100拍摄呼叫者500附近的图像(照片)(203)。在这种情况下,尽管可以认为自动驾驶车辆100拍摄自动驾驶车辆100的前部的图像,但是自动驾驶车辆100可以根据需要拍摄自动驾驶车辆100的侧部或后部的图像。
此后,自动驾驶车辆100将拍摄的图像发送到便携式终端300(204),并且便携式终端300显示其中接收到的图像(205)。呼叫者500在便携式终端300显示的图像上搜索并标记他/她自己(206)。在这种情况下,当呼叫者500不能在接收的图像上搜索到他/她自己时,呼叫者500可以请求发送新的图像。在这种情况下,新的图像可以指由缓慢行驶的自动驾驶车辆100新拍摄的图像。
然后,便携式终端300将呼叫者500标记在其上的图像发送到自动驾驶车辆100(207)。在这种情况下,具有标记的呼叫者500的图像例如为如图4A和图4B的附图标记410和420所示。
此后,自动驾驶车辆100通过将具有标记的呼叫者500的图像与由缓慢行驶的自动驾驶车辆100新拍摄的图像进行比较来追踪呼叫者500。
在下文中,将详细描述通过由缓慢行驶的自动驾驶车辆100拍摄的图像而追踪呼叫者500的过程。
自动驾驶车辆100将在接收到的来自便携式终端300的图像上的标记区域设定为模板(208),并且在缓慢行驶的同时周期性地拍摄新的附近图像(209)。在这种情况下,设定模板的过程可以包括辨识在标记区域中的呼叫者的面部、发型或衣服颜色的过程。
此外,自动驾驶车辆100执行在先前图像(具有标记的呼叫者的图像)与当前图像(新拍摄的图像)之间的模板匹配(210)。
由于模板匹配以十分短的时间间隔执行,因此除特殊情况外,表示匹配结果的相似度超过阈值。在这种情况下,当前图像可以为在拍摄先前图像之后在短时间段(例如,0.5秒、1秒等)内拍摄的图像。此外,可以基于相机111的视角和分辨率、车辆的速度、操作周期(帧数/秒)或模板的尺寸来确定在进行模板匹配的图像上的目标区域的尺寸(R)。例如,当操作周期为20帧/秒,相机111的视角为100度,相机111的分辨率为2M,车辆的速度为15KPH,模板的尺寸为20像素时,图像内的目标区域的尺寸可以确定为40像素。
此后,自动驾驶车辆100基于模板匹配结果计算相似度(211)。计算相似度的过程可以通过众所周知的各种技术来执行。
此后,自动驾驶车辆100确定相似度是否超过阈值(212)。
当确定结果为相似度不超过阈值时(212),执行操作203。当相似度超过阈值时,确定模板是否位于当前图像上的参考区域中(213)。
当在确定结果213中模板不位于参考区域中时,执行操作209并重复上述过程。当模板位于参考区域中时,自动驾驶车辆100停车(214)。
此外,将自动驾驶车辆100到达呼叫者500的位置的通知发送到便携式终端300(215)。然后,便携式终端300显示出所述通知,从而引起呼叫者500注意(216)。
在本申请第一形式中重复的操作209至213为通过先前图像与当前图像之间的重复模板匹配而在图像上追踪呼叫者的过程。例如,当通过基于第一图像(具有标记的呼叫者的图像)和第二图像(其后拍摄的图像)之间的模板匹配(相似度)而从第二图像检测第一图像的模板来获得的相似度超过阈值时,将第二图像上的模板设定为新的参考,并且在第二图像和第三图像(在第二图像之后拍摄的图像)之间执行模板匹配。当模板随着重复执行上述过程而位于参考区域中时,终止检测呼叫者的过程。
尽管本申请的第一形式描述为关于通过模板匹配来检测呼叫者的过程,但是可以基于先前登记的呼叫者的各种面部照片来使用面部辨识方式。换言之,自动驾驶车辆100可以在到达呼叫者500的附近之后周期性地拍摄附近图像,从具有标记的呼叫者的图像辨识呼叫者的面部。然后,自动驾驶车辆100可以通过使用之后拍摄的图像来追踪呼叫者500。在这种情况下,可以根据需要从高清晰度(HD)、全高清、四倍高清(QHD)和超高清(UDH)中选择相机111的分辨率。
图3是示出根据本申请第二形式的用于由自动驾驶车辆检测呼叫者的方法的流程图。
首先,便携式终端300响应于接收到的来自呼叫者500的请求而呼叫自动驾驶车辆100(301)。在这种情况下,便携式终端300将关于便携式终端300的位置的信息发送到自动驾驶车辆100。此外,由于便携式终端300包括GPS接收器,因此便携式终端300可以获得关于便携式终端300的位置的信息。
此后,自动驾驶车辆100将与接收到的来自便携式终端300的GPS位置信息对应的点设定为目的地,并通过自动行驶到达目的地(302)。在这种情况下,由于GPS位置信息具有误差,因此自动驾驶车辆100可能不会到达呼叫者500的位置(例如,在2米内)。换言之,自动驾驶车辆100会到达呼叫者500的附近。
此后,自动驾驶车辆100拍摄呼叫者500附近的三维(3D)图像(照片)(303)。以这种方式拍摄的3D图像例如为如在图4A和图4B中所示。3D图像的数据包括关于距在图像上的目标(人)的距离的信息。在这种情况下,尽管自动驾驶车辆100可以拍摄自动驾驶车辆100的前部的图像,但是自动驾驶车辆100可以根据需要拍摄自动驾驶车辆100的侧部或后部的图像。
此后,自动驾驶车辆100将拍摄的3D图像发送到便携式终端300(304),并且便携式终端300显示在其中接收到的3D图像(305)。呼叫者500从便携式终端300显示的3D图像中搜索并标记他/她自己(306)。在这种情况下,当呼叫者500不能在接收的图像上搜索到他/她自己时,呼叫者500可以请求发送新的图像。在这种情况下,新的图像可以指由缓慢行驶的自动驾驶车辆100新拍摄的图像。
然后,便携式终端300将呼叫者500标记在其上的图像发送到自动驾驶车辆100(307)。
此后,自动驾驶车辆100从3D图像中提取距呼叫者500的距离,然后移动到呼叫者500的位置(308、309)
此后,自动驾驶车辆100在到达呼叫者500的位置之后停车(310)。然后,自动驾驶车辆100发送向便携式终端300通知到达的信息。在这种情况下,自动驾驶车辆100可以通过使用安装在自动驾驶车辆100的外部部分上的显示器或电子板来向便携式终端300通知到达。
然后,便携式终端300显示出通知,从而引起呼叫者500注意(312)。
尽管本申请的第二形式描述为关于通过使用由3D相机拍摄的3D图像来获得距呼叫者500的距离的方式,但是可以通过使用2D相机和3D LiDAR、2D相机和2D LiDAR、以及2D相机和2D雷达来获得距呼叫者500的距离。在这种情况下,可以使用反投影方式通过将由3DLiDAR、2D LiDAR或雷达测得的信号转换为在图像中的点来创建关于距在图像上的目标的距离的信息。
在这种情况下,虽然由于3D LiDAR测量足够量的距离信息(高密度距离信息),从而通过反投影产生3D图像(如在图5所示),不过,在2D LiDAR或雷达的情况下,由于距离信息是有限的,因此呼叫者仅在具有通过反投影产生的距离信息的区域中标记,从而获得距呼叫者的距离。以这种方式产生的图像如在图6所示。
图7是示出根据本申请第三形式的用于由自动驾驶车辆检测呼叫者的方法的流程图。
首先,便携式终端300响应于接收到的来自呼叫者500的请求而呼叫自动驾驶车辆100(701)。在这种情况下,便携式终端300将关于便携式终端300的位置的信息发送到自动驾驶车辆100。此外,由于便携式终端300包括GPS接收器,因此便携式终端300可以获得关于便携式终端300的位置的信息。
此后,自动驾驶车辆100将与接收到的来自便携式终端300的GPS位置信息对应的点设定为目的地,并通过自动行驶到达目的地(702)。在这种情况下,由于GPS位置信息具有误差,因此自动驾驶车辆100可能不会到达呼叫者500的位置(例如,在2米内)。换言之,自动驾驶车辆100会到达呼叫者500的附近。
此后,自动驾驶车辆100在呼叫者500周围的电子地图上标记其当前位置。在这种情况下,自动驾驶车辆100可以通过使用车辆图标来标记自动驾驶车辆100的当前位置。在这种情况下,车辆图标的车辆类型(例如,轿车、货车或卡车)和车辆的颜色可以与自动驾驶车辆100的类型和颜色相同地表示。此外,电子地图为使得用户容易辨识自动驾驶车辆100的位置以及呼叫者500的位置的详细地图。此外,可以显示由自动驾驶车辆100检测到的环境障碍物的位置。在这种情况下,ID可以被指定给障碍物。该电子地图可以是2D电子地图、3D电子地图或增强现实(AR)图像。
此后,将自动驾驶车辆100的当前位置标记在其上的电子地图发送到便携式终端300(704)。便携式终端300显示接收到的电子地图(705),并且呼叫者500在便携式终端300显示的电子地图上标记呼叫者500的位置(706)。
此后,便携式终端300向自动驾驶车辆100发送呼叫者500的位置标记在其上的电子地图(707)。
此后,自动驾驶车辆100从电子地图中提取距呼叫者500的距离,然后移动到呼叫者500的位置(708、709)。
此后,自动驾驶车辆100在到达呼叫者500的位置之后停车(710)。然后,自动驾驶车辆100将通知到达的信息发送到便携式终端300(711)。在这种情况下,自动驾驶车辆100可以通过使用安装在自动驾驶车辆100的外部部分上的显示器或电子板而向便携式终端300通知到达。
然后,便携式终端300显示出通知,从而引起呼叫者500注意(712)。
图8是示出根据本申请的另一示例性形式的实现用于由自动驾驶车辆检测呼叫者的方法的计算系统的框图。
参考图8,用于检测呼叫者的方法可以通过计算系统来实现。计算系统1000可以包括:至少一个处理器1100,存储器(memory)1300,用户界面输入设备1400,用户界面输出设备1500,存储装置1600,以及网络接口1700,它们经由总线1200而与彼此连接。
处理器1100可以为用于处理储存在存储器1300和/或存储装置1600中的指令的中央处理单元(CPU)或半导体设备。存储器1300和存储装置1600各自可以包括各种类型的易失性或非易失性储存介质。例如,存储器1300可以包括只读存储器(ROM)和随机存取存储器(RAM)。
因此,结合说明书中公开的形式描述的方法或算法的操作可以直接用由处理器1100执行的硬件模块、软件模块或其组合来实现。软件模块可以位于储存介质(例如,存储器1300和/或存储装置1600)上,例如RAM、闪存、ROM、可擦除可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)、寄存器、硬盘、可移动光盘、或光盘-ROM(CD-ROM)。示例性储存介质可以联接至处理器1100。处理器1100可以从储存介质读出信息并且可以在储存介质中写入信息。或者,储存介质可以与处理器1100集成。集成的处理器和储存介质可以位于专用集成电路(ASIC)中。ASIC可以位于用户终端中。或者,集成的处理器和储存介质可以作为用户终端的单独组件。
如上所述,根据本申请,更靠近呼叫者的自动驾驶车辆将自动驾驶车辆附近的图像发送到呼叫者的便携式终端,从而使得呼叫者在图像上指定呼叫者。此外,自动驾驶车辆基于呼叫者标记的图像而自动行驶到呼叫者的位置,从而防止或避免呼叫者亲自检测自动驾驶车辆。
尽管已经参考示例性形式描述了本申请,但是对于本领域技术人员显而易见的是,在不脱离本申请的精神和范围的情况下,可以进行各种改变和修改。
因此,本申请的示例性形式不是限制性的,而是说明性的,并且本申请的精神和范围不限于此。应解释的是,与本申请等同的所有技术构思都包括在本申请的精神和范围内。

Claims (19)

1.一种用于由自动驾驶车辆检测呼叫者的方法,所述方法包括:
由自动驾驶车辆的检测控制器接收来自呼叫者的便携式终端的呼叫者标记在其上的图像;
基于具有标记的呼叫者的图像,由检测控制器在通过拍摄呼叫者的附近而获得的图像中识别呼叫者;以及
自动驾驶车辆移动到所识别的呼叫者的位置。
2.根据权利要求1所述的方法,进一步包括:
在接收到来自便携式终端的呼叫时,在接收具有标记的呼叫者的图像之前,基于呼叫者的便携式终端的位置的信息,自动驾驶车辆移动到呼叫者的附近;以及
由自动驾驶车辆的图像设备拍摄呼叫者附近的图像,并将呼叫者附近的图像发送到呼叫者的便携式终端。
3.根据权利要求1所述的方法,其中,识别呼叫者包括:
在呼叫者的图像上,将具有标记的呼叫者的区域设定为模板;
拍摄新的附近图像;以及
通过在具有标记的呼叫者的图像与新的附近图像之间进行模板匹配来识别呼叫者。
4.根据权利要求1所述的方法,其中,识别呼叫者包括:
通过辨识呼叫者的面部来识别呼叫者。
5.根据权利要求1所述的方法,进一步包括:
在移动到所识别的呼叫者的位置之后,将通知到达的信息发送到便携式终端。
6.根据权利要求1所述的方法,进一步包括:
在移动到所识别的呼叫者的位置之后,通过安装在自动驾驶车辆的外部部分上的显示器通知到达。
7.一种用于由自动驾驶车辆检测呼叫者的方法,所述方法包括:
由自动驾驶车辆的检测控制器接收来自呼叫者的便携式终端的呼叫者标记在其上的三维图像;
由自动驾驶车辆的控制器从具有标记的呼叫者的三维图像中提取距呼叫者的距离;以及
基于提取的距离,自动驾驶车辆移动至呼叫者。
8.根据权利要求7所述的方法,进一步包括:
在接收到来自便携式终端的呼叫时,在接收具有标记的呼叫者的三维图像之前,基于呼叫者的便携式终端的位置的信息,自动驾驶车辆移动到呼叫者的附近;以及
由自动驾驶车辆的图像设备拍摄呼叫者附近的三维图像,并将拍摄到的呼叫者附近的三维图像发送到呼叫者的便携式终端。
9.根据权利要求7所述的方法,进一步包括:
在行驶所提取的距呼叫者的距离之后,将通知到达的信息发送到呼叫者的便携式终端。
10.根据权利要求7所述的方法,进一步包括:
在行驶所提取的距呼叫者的距离之后,通过安装在自动驾驶车辆的外部部分上的显示器通知到达。
11.一种用于由自动驾驶车辆检测呼叫者的方法,所述方法包括:
由自动驾驶车辆的检测控制器接收来自呼叫者的便携式终端的呼叫者位置标记在其上的电子地图;
由自动驾驶车辆的控制器在具有标记的呼叫者位置的电子地图上计算距呼叫者的距离;以及
基于提取的距离,自动驾驶车辆移动至呼叫者。
12.根据权利要求11所述的方法,进一步包括:
在接收到来自便携式终端的呼叫时,在接收具有标记的呼叫者位置的电子地图之前,基于呼叫者的便携式终端的位置的信息,自动驾驶车辆移动到呼叫者的附近;以及
当自动驾驶车辆到达呼叫者的附近时,在电子地图上标记自动驾驶车辆的当前位置,并将标记的自动驾驶车辆的当前位置发送到便携式终端。
13.根据权利要求12所述的方法,其中,在电子地图上标记的当前位置以车辆图标显示在呼叫者的便携式终端上。
14.根据权利要求13所述的方法,其中,所述车辆图标具有与自动驾驶车辆的颜色相同的颜色。
15.根据权利要求13所述的方法,其中,所述车辆图标选择为与自动驾驶车辆的相同类型匹配。
16.根据权利要求11所述的方法,其中,电子地图为示出自动驾驶车辆的当前位置附近的障碍物的详细地图。
17.根据权利要求16所述的方法,其中,所述障碍物具有标识符。
18.根据权利要求11所述的方法,进一步包括:
在行驶所提取的距呼叫者的距离之后,将通知到达的信息发送到便携式终端。
19.根据权利要求11所述的方法,进一步包括:
在行驶所提取的距呼叫者的距离之后,通过安装在自动驾驶车辆的外部部分上的显示器通知到达。
CN201811456907.3A 2018-10-01 2018-11-30 用于由自动驾驶车辆检测呼叫者的方法 Active CN110972111B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180117095A KR102587085B1 (ko) 2018-10-01 2018-10-01 자율주행차량의 호출자 탐색 방법
KR10-2018-0117095 2018-10-01

Publications (2)

Publication Number Publication Date
CN110972111A true CN110972111A (zh) 2020-04-07
CN110972111B CN110972111B (zh) 2024-04-23

Family

ID=69947484

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811456907.3A Active CN110972111B (zh) 2018-10-01 2018-11-30 用于由自动驾驶车辆检测呼叫者的方法

Country Status (3)

Country Link
US (1) US20200103918A1 (zh)
KR (1) KR102587085B1 (zh)
CN (1) CN110972111B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019212022B4 (de) * 2019-08-09 2021-03-04 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Feststellen eines Parallaxenproblems in Sensordaten zweier Sensoren
DE102019212021B4 (de) * 2019-08-09 2024-02-08 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Feststellen eines Parallaxenproblems in Sensordaten zweier Sensoren
US11491909B2 (en) * 2020-09-16 2022-11-08 Waymo Llc External facing communications for autonomous vehicles

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067890A (ja) * 2001-08-22 2003-03-07 Fujitsu Ten Ltd 配車システムおよび配車依頼プログラム並びに情報端末
CN105759295A (zh) * 2014-09-02 2016-07-13 现代自动车株式会社 用于无人驾驶车辆的识别行驶环境的设备和方法
KR20160119321A (ko) * 2015-04-02 2016-10-13 김진영 택시 호출 서비스 제공 방법
US20170008490A1 (en) * 2014-04-01 2017-01-12 Mico Latta Inc. Vehicle and program for vehicle
US20170080900A1 (en) * 2015-09-18 2017-03-23 Ford Global Technologies, Llc Autonomous vehicle unauthorized passenger or object detection
WO2017057053A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法
JP2017136977A (ja) * 2016-02-04 2017-08-10 みこらった株式会社 自動車及び自動車用プログラム
CN107351763A (zh) * 2016-05-09 2017-11-17 Lg电子株式会社 用于车辆的控制装置
CN107369207A (zh) * 2016-05-11 2017-11-21 百度(美国)有限责任公司 在无人驾驶车辆中提供增强虚拟现实内容的系统和方法
US20180025044A1 (en) * 2016-07-20 2018-01-25 Drone Comply International, Inc. Unmanned vehicle data correlation, routing, and reporting
WO2018018177A1 (zh) * 2016-07-24 2018-02-01 刘文婷 无人驾驶汽车精确识别乘客系统
US20180096445A1 (en) * 2016-09-30 2018-04-05 Lyft, Inc. Identifying matched requestors and providers
US9971348B1 (en) * 2015-09-29 2018-05-15 Amazon Technologies, Inc. Passenger profiles for autonomous vehicles
CN108121343A (zh) * 2016-11-29 2018-06-05 Lg电子株式会社 自主驾驶车辆
JP2018100008A (ja) * 2016-12-21 2018-06-28 矢崎総業株式会社 車両用表示装置
CN108230077A (zh) * 2016-12-21 2018-06-29 北京嘀嘀无限科技发展有限公司 移动网络设备的预约车辆显示方法和装置
US20180194344A1 (en) * 2016-07-29 2018-07-12 Faraday&Future Inc. System and method for autonomous vehicle navigation

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101456184B1 (ko) * 2011-09-30 2014-11-04 성균관대학교산학협력단 무인 차량 운행 제어 방법 및 장치, 및 원격 통신 장치를 통한 무인 차량 운행 제어 방법 및 무선 차량 운행 제어를 위한 원격 통신 장치
US10055694B2 (en) * 2012-08-07 2018-08-21 Hitachi, Ltd. Use-assisting tool for autonomous mobile device, operation management center, operation system, and autonomous mobile device

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067890A (ja) * 2001-08-22 2003-03-07 Fujitsu Ten Ltd 配車システムおよび配車依頼プログラム並びに情報端末
US20170008490A1 (en) * 2014-04-01 2017-01-12 Mico Latta Inc. Vehicle and program for vehicle
CN105759295A (zh) * 2014-09-02 2016-07-13 现代自动车株式会社 用于无人驾驶车辆的识别行驶环境的设备和方法
KR20160119321A (ko) * 2015-04-02 2016-10-13 김진영 택시 호출 서비스 제공 방법
US20170080900A1 (en) * 2015-09-18 2017-03-23 Ford Global Technologies, Llc Autonomous vehicle unauthorized passenger or object detection
US9971348B1 (en) * 2015-09-29 2018-05-15 Amazon Technologies, Inc. Passenger profiles for autonomous vehicles
WO2017057053A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法
JP2017136977A (ja) * 2016-02-04 2017-08-10 みこらった株式会社 自動車及び自動車用プログラム
CN107351763A (zh) * 2016-05-09 2017-11-17 Lg电子株式会社 用于车辆的控制装置
CN107369207A (zh) * 2016-05-11 2017-11-21 百度(美国)有限责任公司 在无人驾驶车辆中提供增强虚拟现实内容的系统和方法
US20180025044A1 (en) * 2016-07-20 2018-01-25 Drone Comply International, Inc. Unmanned vehicle data correlation, routing, and reporting
WO2018018177A1 (zh) * 2016-07-24 2018-02-01 刘文婷 无人驾驶汽车精确识别乘客系统
US20180194344A1 (en) * 2016-07-29 2018-07-12 Faraday&Future Inc. System and method for autonomous vehicle navigation
US20180096445A1 (en) * 2016-09-30 2018-04-05 Lyft, Inc. Identifying matched requestors and providers
CN108121343A (zh) * 2016-11-29 2018-06-05 Lg电子株式会社 自主驾驶车辆
JP2018100008A (ja) * 2016-12-21 2018-06-28 矢崎総業株式会社 車両用表示装置
CN108230077A (zh) * 2016-12-21 2018-06-29 北京嘀嘀无限科技发展有限公司 移动网络设备的预约车辆显示方法和装置

Also Published As

Publication number Publication date
CN110972111B (zh) 2024-04-23
KR102587085B1 (ko) 2023-10-11
KR20200039046A (ko) 2020-04-16
US20200103918A1 (en) 2020-04-02

Similar Documents

Publication Publication Date Title
CN110349405B (zh) 利用联网汽车的实时交通监视
US10984655B2 (en) System and method for driving assistance along a path
CN108399792B (zh) 一种无人驾驶车辆避让方法、装置和电子设备
CN106794874B (zh) 用于运行自动引导的无人驾驶的机动车的方法和监控系统
US20210365696A1 (en) Vehicle Intelligent Driving Control Method and Device and Storage Medium
CN108241851B (zh) 信息处理装置、信息处理方法以及程序
JP6630521B2 (ja) 危険判定方法、危険判定装置、危険出力装置及び危険判定システム
US11861754B2 (en) Vehicle terminal device, service server, method, computer program, computer readable recording medium for providing driving related guidance service
CN108248602B (zh) 信息处理装置、信息处理方法以及记录介质
CN110972111B (zh) 用于由自动驾驶车辆检测呼叫者的方法
US9779312B2 (en) Environment recognition system
CN111386562B (zh) 停车位锁以及用于提供停车服务的系统和方法
CN110869867A (zh) 用于对自动化程度较高的车辆的数字地图进行验证的方法、相应的设备和计算机程序
KR20200043252A (ko) 차량의 부감 영상 생성 시스템 및 그 방법
JP7233386B2 (ja) 地図更新装置、地図更新システム、及び地図更新方法
CN114096996A (zh) 在交通中使用增强现实的方法和装置
CN108682174B (zh) 一种驾驶预警方法、装置及电子设备
US20190107402A1 (en) Navigation device, destination guiding system, and non-transitory recording medium
JP2018073275A (ja) 画像認識装置
US10832572B2 (en) Vehicle actuated signal control system and method
CN112857381A (zh) 一种路径推荐方法、装置及可读介质
CN114677848B (zh) 感知预警系统、方法、装置及计算机程序产品
JP2022056153A (ja) 一時停止検出装置、一時停止検出システム、及び一時停止検出プログラム
CN114633764B (zh) 交通信号灯检测方法、装置、存储介质、电子设备及车辆
WO2022039040A1 (ja) 車両用システム及び物標識別プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant