CN109389766A - 用于自主车辆的用户识别系统和方法 - Google Patents

用于自主车辆的用户识别系统和方法 Download PDF

Info

Publication number
CN109389766A
CN109389766A CN201810853098.3A CN201810853098A CN109389766A CN 109389766 A CN109389766 A CN 109389766A CN 201810853098 A CN201810853098 A CN 201810853098A CN 109389766 A CN109389766 A CN 109389766A
Authority
CN
China
Prior art keywords
user
data
autonomous vehicle
controller
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810853098.3A
Other languages
English (en)
Other versions
CN109389766B (zh
Inventor
R·B·库利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of CN109389766A publication Critical patent/CN109389766A/zh
Application granted granted Critical
Publication of CN109389766B publication Critical patent/CN109389766B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F17/00Coin-freed apparatus for hiring articles; Coin-freed facilities or services
    • G07F17/0042Coin-freed apparatus for hiring articles; Coin-freed facilities or services for hiring of objects
    • G07F17/0057Coin-freed apparatus for hiring articles; Coin-freed facilities or services for hiring of objects for the hiring or rent of vehicles, e.g. cars, bicycles or wheelchairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R25/00Fittings or systems for preventing or indicating unauthorised use or theft of vehicles
    • B60R25/20Means to switch the anti-theft system on or off
    • B60R25/25Means to switch the anti-theft system on or off using biometry
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0645Rental transactions; Leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07BTICKET-ISSUING APPARATUS; FARE-REGISTERING APPARATUS; FRANKING APPARATUS
    • G07B15/00Arrangements or apparatus for collecting fares, tolls or entrance fees at one or more control points
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00571Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys operated by interacting with a central unit
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/117Biometrics derived from hands
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Computer Security & Cryptography (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Development Economics (AREA)
  • Mechanical Engineering (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Traffic Control Systems (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)

Abstract

公开了用于提供自主驾驶系统功能的方法和系统。系统包括:提供用于自主车辆中自动化用户识别的功能的控制器、配置为扫描自主车辆的环境并将环境的扫描数据传送至自主车辆的生物测量识别模块的至少一个环境传感器、以及配置为通过利用处理器基于手势识别算法分析环境的扫描数据的生物测量识别模块。手势识别算法通过使用处理器基于至少一个生物测量特征来分析环境的扫描数据。该至少一个生物测量特征包括至少打信号停车手势并且控制器被配置为使自主车辆停在相对于用户的某位置处并将自主车辆配置成向用户提供对该自主车辆的使用。

Description

用于自主车辆的用户识别系统和方法
技术领域
本公开总体上涉及自主车辆,并且更具体地,涉及用于在自主车辆中提供自动化用户识别功能的系统和方法。
背景技术
自主车辆是一种能够感测其环境并利用很少或不利用用户输入来导航的车辆。自主车辆利用一种或多种感测装置感测其环境,例如,雷达(RADAR)、激光雷达(LIDAR)、图像传感器等。自主车辆系统进一步使用来自全球定位系统(GPS)技术、导航系统、车辆-到-车辆通信、车辆-到-基础设施技术、和/或线控系统的信息来导航车辆。
自主车辆可以被用作出租车或者租赁汽车。对于计费或租赁程序,需要特定的自主车辆来确定特定用户的身份。为了确定用户的身份,标识数据由存储器(比如,蜂窝电话或其他个人电子设备)传送至自主车辆。这意味着用户必须具有个人电子设备以租赁或使用自主车辆。
因此,希望能够在不使用任何个人电子设备的情况下租赁或者使用自主车辆。此外,希望能够基于生物测量信息来识别用户。此外,通过后续的详细描述和所附权利要求书并结合附图和前述技术领域和背景技术,本发明的其他期望特征和特性将变得显而易见。
发明内容
在各个方面,一种用于自主车辆中自动化用户识别的用户识别系统包括具有至少一个处理器的控制器,该至少一个处理器提供用于自主车辆中自动化用户识别的功能。用户识别系统包括至少一个环境传感器,其配置为扫描自主车辆的环境并将该环境的扫描数据传送至自主车辆的生物测量识别模块。用户识别系统进一步包括生物测量识别模块,其配置为通过使用至少一个处理器基于手势识别算法来分析环境的扫描数据。手势识别算法通过使用至少一个处理器基于至少一个生物测量特征来分析环境的扫描数据。该至少一个生物测量特征包括至少打信号停车手势。控制器配置为,如果手势识别算法根据环境扫描数据中的至少一个生物测量特征识别出用户正显示出打信号停车手势,则使自主车辆停在用户附近,这意味着在用户的某位置处(即,距离用户的不同距离),并且将自主车辆配置为向用户提供对该自主车辆的使用。
在各个实施例中,生物测量特征描述了用户的至少一个肢体的运动。在该实施例中,打信号停车手势由一组给定特征进行描述,包括关于用户的肢体彼此成特定角度的定向以及用户的肢体相对于其环境(即,相对于当前背景数据)的运动的信息。
在各个实施例中,如果手势识别算法根据至少一个生物测量特征在环境的扫描数据中识别出用户正显示出打信号停车手势,则控制器使自主车辆的至少一个传感器集中在用户上。
为了将传感器集中在用户上,传感器确定和用户有关的数据。由此,传感器朝用户的方向移动或者例如仅确定和用户有关的数据。
在各个实施例中,生物测量识别模块利用步态分析算法分析用户的步态,该步态分析算法在用户接近车辆的同时分析环境的当前扫描数据。
在各个实施例中,用户的步态通过跟踪用户的至少一个肢体和/或头部和/或任何其他身体部分来进行分析。
在各个实施例中,用户识别系统包括服务器并且控制器通过使用通信模块将步态分析算法的结果和/或手势识别算法的结果传送至服务器。服务器配置为在数据库中搜索和手势识别算法的结果和/或步态分析算法的结果有关的数据,并且通过使用通信模块将和手势识别算法的结果和/或步态分析算法的结果有关的数据传送至控制器。
通信模块可以被配置为向和从自主车辆外部的实体无线地传送信息,例如但不限于可以是其他车辆一部分的服务器(“V2V”通信)、或者特定的基础设施(“V2I”通信)。通信系统可以是被配置为经由使用IEEE802.11标准的无线局域网(WLAN或WIFI)或通过使用蜂窝数据通信来进行通信的无线通信系统。然而,诸如专用短距离通信(DSRC)信道等附加或替代通信方法也被认为在本公开的范围内。
在各个实施例中,从服务器传送至控制器的数据包括至少用户的简档数据、用户的预期面部数据以及用户的语音映射。
在各个实施例中,服务器可以包括针对大量用户的用户数的数据库,比如用户的简档数据、用户的预期面部数据以及用户的语音映射。
在各个实施例中,控制器配置为如果服务器在数据库中未找到和手势识别算法的结果和/或步态分析算法的结果有关的数据,则拒绝用户使用自主车辆。
在各个实施例中,用户识别系统包括至少一个面部识别系统,其配置为使用面部扫描传感器(例如,配置为扫描用户的面部的传感器)来扫描用户的面部并且将用户的面部的扫描数据与通过使用控制器的至少一个处理器从服务器传送的预期面部数据匹配。控制器配置为如果用户的面部的扫描数据与从服务器传送的预期面部数据相匹配,则解锁自主车辆并启动与用户的对话。
在各个实施例中,面部扫描传感器是光学传感器(例如相机)、红外传感器、激光扫描仪等。
在各个实施例中,用户识别系统包括至少一个一个语音识别系统,其配置为在对话期间使用语音识别传感器扫描由用户提供的语音数据。控制器配置为如果用户的语音与从服务器传送的语音映射相匹配,则确认用户的身份。
在各个实施例中,语音识别传感器为声学传感器,比如麦克风等。
在各个实施例中,对话包括至少关于用户的目的地的询问。
在各个实施例中,语音识别系统配置为从语音识别传感器所提供的语音数据提取关于用户的目的地的信息。控制器配置为确定到用户的目的地的路径以及将自主车辆配置为将用户送至用户的目的地。
在各个实施例中,从服务器传送至控制器的数据包括用户的标识数据的列表,用户的标识数据将基于提交给服务器的步态分析算法的结果和/或手势识别算法的结果来识别。控制器配置为利用面部识别系统和/或语音识别系统基于从服务器传送的数据确认一个单用户的身份,和/或如果利用面部识别系统和/或语音识别系统基于从服务器传送的数据未确认出一个单用户的身份,则将面部识别系统和/或语音识别系统所确定的数据传送至服务器。如果控制器将由面部识别系统和/或语音识别系统所确定的数据传送至服务器,则服务器配置为基于由面部识别系统和/或语音识别系统所确定的数据以及包括多个用户的面部数据和/或语音数据的数据库来确认一个单用户的身份并将确认的该一个单用户的身份传送至控制器。
可以利用提交给服务器的步态分析算法的结果和/或手势识别算法的结果将发送至用户识别系统的控制器的个人简档信息的量削减成可能候选人的列表。该可能候选人的列表可以用于比较程序,即,用于将可能候选人的列表中的特定候选人的数据与面部识别系统和/或语音识别系统所确定的数据的结果进行匹配的匹配程序。如果面部识别系统和/或语音识别系统所确定的数据的结果不确定或者该结果无法匹配至少一个候选人的个人简档信息,则控制器可以配置为将面部识别系统所确定的面部信息发送至服务器,其中可以运行分析,即对面部识别系统和/或语音识别系统所确定的数据运行匹配程序,即与存储在服务器上的一组完整的用户简档进行匹配。
在各个实施例中,控制器配置为:通过将从语音识别传感器所提供的语音数据提取的关于用户的目的地的信息传送至服务器来确定到用户的目的地的路径。服务器配置为基于语音数据生成到用户的目的地的路径并利用通信模块将该路径传送至控制器。
在各个实施例中,语音识别系统配置为从语音识别传感器所提供的语音数据提取关于用户的情绪状态的信息。进一步地,控制器配置为基于用户的当前情绪状态修改驾驶行为。
在各个实施例中,语音识别系统分析语音识别传感器所提供的语音数据中的频率和/或幅度并将该频率和/或幅度与一组给定情绪状态进行匹配。
在各个实施例中,生物测量识别模块配置为通过将环境的扫描数据与自主车辆的至少一个附加环境传感器所提供的环境的数据进行匹配来从环境的扫描数据提取用户相关数据,使得仅和用户有关的数据被手势识别算法用来识别打信号停车手势并且和特定背景有关的数据被却去掉。
通过从数据组中去掉背景信息,保留了和特定用户有关的数据。由此,用于用户识别的算法,比如手势和/或步态分析算法可以被优化,因为它们仅通过使用用户数据来执行并且由此非常精确。
在各个实施例中,至少一个附加环境传感器选自以下的列表:雷达(RADAR)传感器、激光雷达(LIDAR)传感器、超声传感器、多角度相机传感器以及麦克风传感器。
在各个实施例中,手势识别算法基于自主车辆的跟踪算法来跟踪道路参与者。
在各个实施例中,控制器配置为:如果手势识别算法根据环境的扫描数据中的至少一个生物测量特征识别出用户正显示出打信号停车手势,则使自主车辆停在相对于用户的某位置处并通过基于由自主车辆的至少一个传感器所捕获的用户的生物测量数据来识别该用户而向用户提供对自主车辆的租用和进行收费。
除非被指明为替代方案或参照另一实施例,以上指出了实施例中的任何两个或更多个可以与用户识别系统、特别是与用户识别系统的控制器进行组合。
在各个方面,提供了一种自主车辆,其单独包括用户识别系统的控制器或者与本文所述的用户识别系统的一个或多个实施例相组合。
在各个实施例中,控制器包括:配置为扫描自主车辆的环境并将环境的扫描数据传送至生物测量识别模块的至少一个环境传感器、至少一个处理器,以及配置为通过利用控制器的至少一个处理器基于手势识别算法分析环境的扫描数据的生物测量识别模块。手势识别算法通过使用至少一个处理器基于至少一个生物测量特征来分析环境的扫描数据。该至少一个生物测量特征包括至少打信号停车手势。控制器配置为:如果手势识别算法根据环境的扫描数据中的至少一个生物测量特征识别出用户正显示出打信号停车手势,则使自主车辆停在相对于用户的某位置处并向用户提供对该自主车辆的使用。
根据一个方面,提供了用于自主车辆中自动化用户识别的方法。
在各个实施例中,方法包括以下步骤:通过利用自主车辆的至少一个环境传感器扫描自主车辆的环境并将该环境的扫描数据传送至生物测量识别模块;通过利用控制器的至少一个处理器基于手势识别算法分析环境的扫描数据,该处理器可以是生物测量识别模块的处理器;通过利用至少一个处理器基于在至少一个生物测量特征上使用的手势识别算法来分析环境的扫描数据。至少一个生物测量特征包括至少打信号停车手势,并且如果手势识别算法根据环境的扫描数据中的至少一个生物测量特征识别出用户正显示出打信号停车手势,则使自主车辆停在用户处并向用户提供对该自主车辆的使用。
在各个实施例中,方法包括以下步骤:利用步态分析算法分析用户的步态,该步态分析算法在用户接近车辆的同时分析环境的当前扫描数据;通过使用通信模块将步态分析算法的结果和/或手势识别算法的结果传送至服务器;并且在数据库中搜索和手势识别算法的结果和/或步态分析算法的结果有关的数据;以及通过使用至少一个处理器将和手势识别算法的结果和/或步态分析算法的结果有关的数据传送至控制器。从服务器传送至控制器的数据包括至少用户的简档数据、用于的预期面部数据以及用户的语音映射,利用面部扫描传感器扫描用户的面部并通过利用面部识别系统将用户的面部的扫描数据与从服务器传送的预期面部数据进行匹配,如果通过利用控制器用户的面部的扫描数据与从服务器传送的预期面部数据相匹配,则解锁自主车辆并启动与用户的对话;在对话期间利用语音识别系统的语音识别传感器扫描用户所提供的语音数据,通过利用至少一个处理器将用户的语音的扫描数据与从服务器传送的语音映射进行匹配,该至少一个处理器可以是语音识别系统的处理器,如果通过利用控制器用户的语音的扫描数据与从服务器传送的语音映射相匹配,则确认用户的身份;通过利用语音识别系统从语音识别传感器所提供的语音数据提取关于用户的目的地的信息,通过利用控制器确定到用户的目的地的路径并将自主车辆配置为将用户送至用户的目的地。对话包括至少关于用户的目的地的询问。
在各个实施例中,生物测量识别模块和/或通信模块包含在控制器中。替代地,生物测量识别模块和/或通信模块在与包括控制器的处理器的盒子分离的盒子中实施。一种实施生物测量识别模块和/或通信模块的盒子可以包括配置为执行生物测量识别模块和/或通信模块的逻辑和数学运算的附加的处理器。
应当注意的是,在各个实施例中,方法根据以上所述的用户识别系统和/或自主车辆的一个或多个实施例的功能来修改。
附图说明
以下将结合附图对示范性实施例进行描述,其中相同的附图标记指代相同的元件,并且其中:
图1是示出了根据一实施例的具有自主车辆的用户识别系统的功能框图;
图2是示出了根据一实施例的提供用于图1中所示自主车辆中自动化用户识别的方法的功能框图;
图3是示出了根据一实施例的控制器的功能框图;以及
具体实施方式
以下详细描述在本质上仅是示范性的,并且并不旨在限制应用和使用。此外,不存在被任何前述的技术领域、背景技术、发明内容或以下详细描述中提出的任何明确的或暗示的理论约束的意图。如本文所使用,术语模块是指单独地或呈任何组合的任何硬件、软件、固件、电子控制部件、处理逻辑和/或处理器装置,包括但不限于:专用集成电路(ASIC)、电子电路、处理器(共享、专用或成组)以及执行一个或多个软件或固件程序的存储器、组合逻辑电路和/或提供所述功能性的其他合适部件。
本公开的实施例在本文中可依据功能和/或逻辑块部件和各个处理步骤来描述。应当意识到,这些块部件可由被配置为执行指定功能的任何数量的硬件、软件和/或固件部件来实现。例如,本公开的实施例可采用各种集成电路部件,例如,存储器元件、数字信号处理元件、逻辑元件、查找表等,其可以在一个或多个微处理器或其他控制装置的控制下执行多种功能。另外,本领域技术人员将意识到,本公开的实施例可结合任何数量的系统来实践,并且本文所述的系统仅仅是本公开的示范性实施例。
为了简洁起见,本文可以不再详细描述与信号处理、数据传输、信号发送、控制以及该系统(和该系统的单个操作部件)的其他功能方面有关的常规技术。此外,本文中所包含的各个图示中所示的连接线旨在表示各个元件之间的示例功能关系和/或物理联接。应当注意的是,在本公开的实施例中可以存在许多替代或附加的功能关系或物理连接。
参考图1,根据各个实施例和方面显示了用于自主车辆中自动化用户识别的用户识别系统100。用户识别系统100包括自主车辆10,该自主车辆10通常包括底盘12、车身14、前轮16和后轮18。车身14被布置在底盘12上并且大体上包围车辆10的部件。车身14和底盘12可以共同形成框架。车轮16和18各自在车身14的相应拐角附近可旋转地联接到底盘12。
自主车辆10例如是一种被自动控制以将乘客从一个位置运送到另一个位置的车辆。车辆10在所示实施例中被描绘为客车,但是应当意识到,还可以使用任何其他车辆,包括摩托车、卡车、运动型多功能车(SUV)、娱乐车辆(RV)、船舶、飞行器等。在示范性实施例中,自主车辆10是所谓的四级或五级自动化系统。四级系统指示“高度自动化”,其指代由自动驾驶系统具体执行动态驾驶任务的所有方面的驾驶模式,即使人类驾驶员对干预请求没有做出适当响应。五级系统指示“全自动化”,其指代由自动驾驶系统在可由人类驾驶员管理所有道路和环境状况下全时执行动态驾驶任务的所有方面。
如图所示,自主车辆10通常包括推进系统20、变速器系统22、转向系统24、制动系统26、传感器系统28、致动器系统30、至少一个数据存储装置32、至少一个控制器34,以及通信模块36。在各个实施例中,推进系统20可以包括内燃机、诸如牵引马达的电机和/或燃料电池推进系统。变速器系统22被配置为根据可选速度比将来自推进系统20的动力传递到车辆车轮16和18。根据各个实施例,变速器系统22可包括分级传动比自动变速器、无级变速器或其他适当的变速器。制动系统26被配置为向车轮16和18提供制动转矩。在各个实施例中,制动系统26可包括摩擦制动器、线控制动器、诸如电机等再生制动系统,和/或其他适当的制动系统。转向系统24影响车辆车轮16和18的位置。虽然为了说明目的而被描绘为包括方向盘,但是在本公开的范围内设想的一些实施例中,转向系统24可不包括方向盘。
传感器系统28包括感测自主车辆10的外部环境和/或内部环境的可观察状况的一个或多个环境传感器40a-40n。感测装置40a-40n可以包括但不限于雷达(RADAR)、激光雷达(LIDAR)、光学相机、热感相机、超声传感器、麦克风、和/或其他传感器。传感器系统28的传感器中的一个或多个为生物测量传感器,其感测车辆10的环境中用户的生物测量特征。在各个实施例中,生物测量传感器可以包括但不限于:配置为捕获用户的面部或其他特征的图像的图像传感器,配置为记录用户用户的语音的麦克风等。致动器系统30包括一个或多个致动器装置,其从控制器34接收控制命令以控制一个或多个车辆特征,例如但不限于推进系统20、变速器系统22、转向系统24和制动系统26。在各个实施例中,车辆特征可以进一步包括内部和/或外部车辆特征,例如但不限于车门、行李箱以及诸如无线电、音乐、照明等客舱特征(未标号)。
通信模块36被配置为向和从其他实体48无线地传送信息,例如但不限于可以是其他车辆一部分的服务器(“V2V”通信)、或者特定的基础设施(“V2I”通信)。在示范性实施例中,通信模块36是被配置为经由使用IEEE802.11标准的无线局域网(WLAN或WIFI)或通过使用蜂窝数据通信来进行通信的无线通信模块。然而,诸如专用短距离通信(DSRC)信道等附加或替代通信方法也被认为在本公开的范围内。DSRC信道是指专门为汽车使用而设计的单向或双向短距离到中距离无线通信信道,以及对应的一组协议和标准。在各个实施例中,通信模块36被配置为从外部服务器48接收信息。
数据存储装置32存储数据以用于在自动地控制自主车辆10和/或自动地识别用户时使用。在各个实施例中,数据存储装置32存储由环境传感器40a-40n所确定的数据。
控制器34包括至少一个处理器44和计算机可读存储装置或介质46。处理器44可为任何定制的或商业上可获得的处理器、中央处理单元(CPU)、图形处理单元(GPU)、与控制器34相关联的若干处理器中的辅助处理器、基于半导体的微处理器(采用微芯片或芯片组的形式)、宏处理器、它们的任何组合或通常用于执行指令的任何装置。计算机可读存储装置或介质46可包括例如只读存储器(ROM)、随机存取存储器(RAM)和保活存储器(KAM)中的易失性和非易失性存储装置。KAM是一种持久或非易失性存储器,其可在处理器44断电时用于存储各种操作变量。计算机可读存储装置或介质46可使用诸如PROM(可编程只读存储器)、EPROM(电PROM)、EEPROM(电可擦除PROM)、闪速存储器或能够存储数据的任何其他电、磁、光学或组合存储器装置的许多已知存储器中的任何一种来实施,其中的一些数据表示由控制器34用于控制自主车辆10的可执行指令。
在各个实施例中,控制器34所提供的控制命令包括一个或多个单独的程序,每个程序包括用于实施逻辑功能的可执行指令的有序列表。控制命令在由处理器44执行时接收并处理来自传感器系统28的信号,执行用于自动控制自主车辆10的部件的逻辑、计算、方法和/或算法,并且基于逻辑、计算、方法和/或算法来自动地控制自主车辆10的部件。虽然图1中仅示出了一个控制器34,但是自主车辆10的实施例可包括通过任何合适的通信介质或通信介质的组合进行通信并且协作以处理传感器信号、执行逻辑、计算、方法和/或算法且产生控制信号以自动控制自主车辆10的特征的任意数量的控制器34。
在各个实施例中,控制器34的一个或多个指令被体现为提供参考本文中一个或多个实施例所描述的自动化手势识别功能。例如,一个或多个指令被包含在手势识别模块中,该手势识别模块执行一个或多个手势识别算法以便自动地识别用户的手势。例如,手势识别算法分析由环境传感器40a-40n所提供的环境的扫描数据。手势识别模块基于用户的至少一个已定义生物测量特征分析数据。在本文所公开的用户识别系统100的配置中,手势识别算法检测由环境传感器40a-40n所提供的环境的扫描数据中的图案,比如指示用户的物理特征的移动的图案,特别是指示通过手臂或手部的做出的打信号停车手势的图案。在各个实施例中,指示打信号停车手势的图案是通过将环境传感器40a-40n所提供的数据与至少一个已定义生物测量特征进行匹配来识别的。在各个实施例中,已定义生物测量特征可以描述用户的至少一个肢体的运动。在各个实施例中,已定义生物测量特征可以从外部服务器48传送至控制器34.在各个实施例中,一个或多个已定义生物测量特征可以由技术人员提供给控制器34。例如,技术人员通过指定作为特定生物测量特征的特性的肢体相对于彼此的运动和/或肢体相对彼此的定向来定义特定生物测量特征。
在各个实施例中,打信号停车手势通过一组给定特征来描述,该一组给定特征包括关于用户的肢体彼此成特定角度的定向的信息。例如,打信号停车手势通过描述行人的姿态和/或注视的一组生物测量特征来定义。被识别为打信号停车手势的姿态可以是用户的手臂指向自主车辆10的运动、拇指正在朝自主车辆的方向移动、手臂沿圆形移动、两只手臂形成“x”、身体正转向自主车辆10等。特别地,指示打信号停车手势的运动仅针对那些身体方向表明他们正在朝车辆方向看的用户进行识别。由此,打信号停车手势可以由描述用户的头部指向自主车辆10的定向的生物测量特征在定义。这意味着,如果用户并未朝自主车辆10的方向看,则打信号停车手势将不会被识别并且自主车辆10将不会停在用户处。
控制器34配置为:如果手势识别算法根据环境传感器40a-40n所提供的扫描数据中的至少一个生物测量特征识别出用户正显示出打信号停车手势,则使自主车辆10停在相对于用户的某位置处(这意味着在距离用户的不同距离处)并将自主车辆10配置为向用户提供对该自主车辆10的使用。由此,控制器34响应于由生物测量识别模块30传送至控制器34的指示已识别打信号停车手势的命令来控制自主车辆。
相对于用户的位置由自主车辆的行人识别系统或由控制器34来确定。由此,用户的位置通过使用相对于用户的GPS坐标或任何其他坐标以及位置来确定,比如被选择为使自主车辆停下的距离用户的不同距离中的位置。这意味着,自主车辆的自主控制功能被用来使自主车辆停在相对于用户的位置所确定的位置处。
控制器34被配置为向推进系统20、变速器系统22、转向系统24和/或制动系统26传送控制命令以使自主车辆10停在用户的某坐标处,即在距离用户的不同距离处,其由生物测量识别模块30利用手势识别算法和环境传感器40a-40n所提供的环境的扫描数据来确定。
当自主车辆10停在用户的坐标处时,控制器34向通信模块36传送控制命令以向用户提供对该自主车辆的使用。
为了向用户提供对自主车辆10的使用,通信模块36通过使用扬声器启动与用户的对话。当然,通信模块36可以另外地或替代地使用显示器或任何其他用户界面来联系用户。
控制器34或者其功能模块中的一个被配置为基于环境传感器40a-40n所提供环境的扫描数据来识别至少一个用户。由此,控制器34关于可以描述步态和/或手势的至少一个生物测量特征分析环境的扫描数据。基于例如可以由技术人员利用通信模块36来提供的该至少一个生物测量特征,控制器34和/或服务器(比如外部服务器48)被用来将用户的列表缩减至一组可能的候选人。这意味着,可能的候选人可以根据环境的扫描数据基于和他们步态和/或运动有关的数据从用户的列表中选择。
为了从用户的列表选择可能的候选人,控制器34可以关于至少一个生物测量特征分析环境的扫描数据。这意味着和至少一个生物测量特征有关的数据从环境的扫描数据提取出并与至少一个生物测量特征的给定参数进行匹配。匹配程序可以由手势识别算法执行,比如人工神经网络、支持向量机、图案识别算法等。
手势识别算法是基于监控或非监控算法。由此,手势识别算法是通过使用特定用户的训练数据训练的。
由手势识别算法使用的至少一个生物测量特征是步态或者打信号停车手势。
描述打信号停车手势的生物测量特征可以包括关于用户的肢体彼此成特定角度的定向的信息。特别地,描述打信号停车手势的生物测量特征可以包括关于用户的拇指指向自主车辆正在其上行驶的道路或者直接指向自主车辆的信息。替代地或另外地,描述打信号停车手势的生物测量特征可以包括关于用户的手臂举起或挥动的信息。当然,描述打信号停车手势的生物测量特征可以包括关于据称被用户用作打信号停车手势的特定运动的信息,比如形成圆形、十字等的运动。
如果手势识别算法基于环境的扫描数据识别出了可以与一组特定生物测量特征或特定生物测量特征相匹配的一个或多个用户,即可能的候选人,则特定候选人或用户的身份通过使用面部识别算法分别来确认。
面部识别算法可以基于表征用户的一组面部特征来执行。该组面部特征基于手势识别算法所识别出的用户从数据库选择。该组面部特征由控制器34利用控制器34的处理器44和自主车辆10中的数据库选择,或者由外部服务器48利用存储在外部服务器48或连接至外部服务器48的任何服务器上的数据库选择。
被用来确认用户的身份的该组面部特征可以由外部服务器48基于包括可能候选人的表格来选择,其中该表格包括基于手势识别算法的结果选择可能候选人。包括可能候选人的表格通过通信模块36从外部服务器48传送至控制器34。
如果自主车辆10基于选自自主车辆的数据库的数据执行面部识别程序且该面部识别程序并未以确认用户结束,即从可能候选人的列表中确认出一个候选人,则外部服务器48可以用于基于选自存储在外部服务器48或连接至外部服务器48的服务器上的数据库的用户数据执行第二面部识别。
由于将被用于确认用户的身份的该组面部特征可以由外部服务器48基于包括手势识别算法所识别出的用户的表格来选择,将被用于面部识别的用户或可能候选人的数量相对于可以由用户识别系统识别的可能候选人的总数量而言是有限的。由此,通过利用手势识别算法预先选择可能的候选人,可以提高面部识别的速度并且降低比较(即,匹配)的数量。
面部识别算法与手势识别算法的组合被用来确认用户的身份。然而,可能存在在执行面部识别算法之后仅保留非常少数量的可能候选人的情况。在这种情况下,手势识别算法和面部识别算法可以与语音识别算法进行组合。
语音识别算法被用来将与自主车辆10交互的特定用户的语音数据与基于在执行面部识别之后保留作为可能候选人的用户从数据库选择的语音识别特征进行比较。当然,即使在执行面部识别之后仅保留了一个用户作为可能候选人,也可以执行语音识别算法,例如为了提高安全级别。
例如,语音识别特征由外部服务器48从存储在外部服务器48或连接至外部服务器48的服务器上的数据库选择。例如,外部服务器48关于手势识别算法和/或面部识别算法所提供的结果选择语音识别特征,比如用户的语音映射。
例如,一旦知道了特定用户,这意味着一旦基于手势识别算法和或面部识别算法和/或语音识别算法确认了用户的身份,用户有权对其账户收费或者访问其存储的位置。
由于自主车辆10被配置为按照自主方式驾驶,自主车辆10被配置为在移动期间利用环境传感器40a-40n跟踪环境,在自主车辆的移动期间所确定的数据可以被用作用来执行本文所述方法的数据或者用来修改被用来执行本文所述方法的数据。由此,由于自主车辆10已经通过LIDAR传感器和相机传感器知道了预期背景并且可以执行背景减除,即减除了对于特定用户的步态分析而言不相关的数据,步态分析可以得到优化。
此外,被用于自主驾驶的跟踪道路参与者的能力可以用于检测正在接近车辆的特定客户。
通过利用冗余环境传感器40a-40n,可以从多个角度记录用户,由此最大程度降低了阻挡用户特征的可能性。
本文所述的用户识别系统为自主车辆乘坐共享客户创建了无障碍的用户体验,特别是在其中在任何时间都存在多个车辆的高业务量区域中。
本文所述的用户识别系统可以用作用来在例如不使用诸如智能手机的用户设备的情况下呼叫或租用汽车的程序。
参考图2,在各个实施例中,关于图1所描述的自主车辆适合于在出租车或往返系统的情景下使用。例如,自主车辆可以与基于运输系统的自主车辆相关联。图2示出了用于如关于图1所述的自主车辆207中自动化用户识别的用户识别系统200。
在各个实施例中,用户识别系统200包括账户服务器201、匹配服务器203、路径选择服务器205以及自主车辆207,以识别(即,确认)与用户识别系统200交互的用户209的身份。
账户服务器201包括客户简档数据库211,其包括生物测量模块213和账户模块215。
生物测量模块213存储了生物测量特征数据库217、面部特征数据库219以及语音识别特征数据库221。
账户模块215在用户姓名数据库223中存储用户姓名、在位置数据库225中存储用户特定位置以及在账单信息数据库227中存储用户与账单信息。
在扫描步骤229中,自主车辆207通过利用诸如激光雷达、雷达、相机等的环境传感器不断地扫描自主车辆207的环境。如果在手势步骤231中用户209正显示出打信号停车手势,则将在检测步骤233中利用可以分析环境传感器所确定的数据的手势识别算法来检测用户209。如果未检测到用户,则在扫描步骤229中自主车辆207将继续扫描环境,如箭头235所暗示的。
一旦在检测步骤233中检测到了用户,则在停车步骤237中自主车辆被配置为靠边停车在相对于用户209的某位置处。进一步地,在接近扫描步骤239中自主车辆207在用户接近车辆期间利用环境传感器扫描用户207。这意味着,随着在接近步骤241中用户209接近自主车辆207,自主车辆207例如根据其步态从环境传感器所提供的数据提取信息243。可以用来分析用户的步态的信息可以是特定脚步长度和/或频率和/或步调。当然,用户的高度还可以用于分析用户的步态。
在匹配程序245中,可以是自主车辆207的一部分或者可以是外部服务器的匹配服务器203,将信息243与来自存储在账户服务器201的生物测量模块213中的生物测量特征数据库217的生物测量特征进行匹配。如果匹配程序245的结果大于给定阈值,则用户识别系统200根据在匹配程序245中已经匹配信息243的生物测量特征数据库217的生物测量特征向自主车辆207传送潜在用户的可能的面部映射和/或语音映射,如箭头246所暗示的。当用户209在到达步骤251中到达自主车辆207时,在面部匹配步骤249中,自主车辆207基于潜在用户的可能的面部映射和/或语音映射执行面部识别算法247,该算法将潜在用户的可能面部映射与车辆207的面部识别传感器所确定的用户209的面部数据进行匹配。
如果由自主车辆207执行的面部识别算法247在大于给定阈值的识别速率下结束,则在解锁步骤253中自主车辆207的车门将解锁。
如果由自主车辆207执行的面部识别算法247在小于给定阈值的识别速率下结束,则将通过利用匹配服务器203执行第二面部识别算法255。匹配服务器203将在步骤249中由车辆207的面部识别传感器所确定的用户209的面部数据与面部特征数据库219中可用的每个数据组进行匹配。由此,由匹配服务器203执行的第二面部识别算法255相比于由自主车辆207执行的面部识别算法247复杂得多,这是因为由自主车辆207执行的面部识别算法247基于根据信息243选择的用户的可能面部映射和可能语音映射,与之相比,由匹配服务器203执行的第二面部识别算法255使用了更多数量的用户的数据组。
如果由匹配服务器203执行的第二面部识别算法255的结果并不大于给定阈值,则整个程序将在终止步骤257结束。
如果由匹配服务器203执行的第二面部识别算法255的结果大于给定阈值,则在步骤253中程序继续语音识别算法259并解锁车门。可能根据由匹配服务器203执行的第二面部识别算法255识别出的用户的语音映射被传送至自主车辆207。
如果由自主车辆207执行的面部识别算法247在大于给定阈值的识别速率下结束,则程序将直接继续语音识别算法259,如箭头261所暗示的。
当在进入步骤263中用户209进入自主车辆207时,自主车辆207分别通过在对话步骤267中利用根据用户姓名数据库223与步骤247或245中识别出的面部数据相关联的姓名问候用户209并且通过在询问步骤265中请求期望位置来启动与用户209的对话。
当用户209在信息步骤270中向自主车辆207说话以输入其期望的目的地和/或获得和到其目的地的行程的持续时间有关的信息时,执行语音识别算法259,其将用户209所提供的以及自主车辆207的语音识别传感器所确定的语音数据与在步骤255或247中传送的语音映射进行匹配。如果语音识别算法259的结果大于给定阈值,则在访问步骤269中由路径选择服务器203访问存储在位置数据库225中的位置。
如果语音识别算法259的结果小于给定阈值,则响应于在步骤277中用户209的相应请求,在手动步骤275中自主车辆207被配置为要求用户209手动输入其目的地和/或账单信息。
如果用户209未响应于步骤275输入其目的地和/或账单信息,则程序在终止步骤271处结束。
如果用户209响应于步骤275输入了其目的地和/或账单信息,则目的地被传送至路径选择服务器203。在路径选择步骤273中路径选择服务器203生成到目的地的路径并且将该路径传送至自主车辆207。
进一步地,如果用户209响应于步骤275输入了其目的地和/或账单信息,则在收费步骤277中用户209通过编辑账单信息数据库227中的用户账单信息被收费。
一旦路径被传送至自主车辆207,则在开始步骤279中用户207被告知驾驶即将开始。
在驾驶步骤281中,用户209被自主车辆207送到其目的地。
在到达步骤283中,自主车辆207和用户209到达用户的目的地。
在终止步骤285中用户209离开自主车辆207且程序终止。
控制器必须执行的最重要的步骤为:在步骤233中识别打信号停车手势,接着分析用户的步态以用于匹配程序245,接着在步骤245和步骤255中执行面部识别,以及最后执行语音识别算法259。
在各个实施例中,控制器的指令可以由功能或系统来组织。例如,如图3中所示,根据一个实施例,控制器300包括生物测量识别模块301。生物测量识别模块301包括手势识别模块303、面部识别系统305以及语音识别系统307。控制器300与通信模块309可通信地结合。如可以意识到的,在各个实施例中,指令可以被组织成任何数量的系统(例如,被合并、被进一步分割等),因为本公开并不限于当前示例。在各个实施例中,方法由图1中所示的控制器34实施。
通信模块309包括天线311和收发器313。收发器313配置为从诸如服务器315的外部源接收信号并将接收到的信号传送至控制器300。
收发器313被进一步配置为将信号从控制器300传送至诸如服务器315的外部接收机。
生物测量识别模块301可以使用控制器300的处理器320来执行计算或者使用包含在生物测量识别模块301中的处理器。
生物测量识别模块301被配置为,例如通过使用诸如人工神经网络的机器学习方法来将指示用户的身份的给定数据与通过如图1中所示的用户识别系统的传感器所获得的数据进行匹配。
生物测量识别模块301分析环境传感器所确定的数据。这意味着,手势识别模块303基于由手势识别模块303、面部识别系统305以及语音识别系统307执行的匹配程序来生成指示特定用户的肯定或否定识别的信号。
尽管在前面的详细描述中已经提出了至少一个示范性实施例,但是应该意识到仍存在大量的变型。还应该意识到,示范性实施例或多个示范性实施例仅是示例,而并非旨在以任何方式限制本公开的范围、适用性或配置。而是,前面的详细描述将为本领域技术人员提供用于实现示范性实施例或多个示范性实施例的便利路线图。应当理解的是,在不脱离如所附权利要求及其合法等同物所阐述的本公开的范围的情况下,可以在元件的功能和设置上做出各种改变。
附图标记列表
10 车辆
12 底盘
14 车身
16 前轮
18 后轮
20 推进系统
22 变速器系统
24 转向系统
26 制动系统
28 传感器系统
30 生物测量识别模块
32 数据存储装置
34 控制器
36 通信模块
40a-40n 环境传感器
42a 扫描传感器
42b 语音识别传感器
42n 处理器
44 处理器
46 计算机可读存储装置或介质
48 外部服务器
100 用户识别系统
200 用户识别系统
201 账户服务器
203 匹配服务器
205 路径选择服务器
207 自主车辆
209 用户
211 简档数据库
213 生物测量模块
215 账户模块
217 生物测量特征数据库
219 面部特征数据库
221 语音识别特征数据库
223 用户姓名数据库
225 位置数据库
227 账单信息数据库
229 扫描步骤
231 手势步骤
233 检测步骤
235 箭头
237 停车步骤
239 接近扫描步骤
241 接近步骤
243 信息
245 匹配程序
246 箭头
247 面部识别算法
249 面部匹配步骤
251 到达步骤
253 解锁步骤
255 面部识别算法
257 终止步骤
259 语音识别算法
261 箭头
263 输入步骤
265 询问步骤
267 对话步骤
269 访问步骤
271 终止步骤
270 信息步骤
273 路径选择步骤
275 手动步骤
277 收费步骤
279 起动步骤
281 驾驶步骤
283 到达步骤
285 终止步骤
300 控制器
301 生物测量识别模块
303 手势识别模块
305 面部识别系统
307 语音识别系统
309 通信模块
311 天线
313 收发器
315 服务器
320 处理器
400 方法
401 手势步骤
403 接近步骤
405 传输步骤
407 到达步骤
409 询问步骤
411 确认步骤
413 路径选择步骤
415 驾驶步骤

Claims (10)

1.一种用于自主车辆中自动化用户识别的用户识别系统,包括:
具有至少一个处理器的控制器,所述至少一个处理器提供用于所述自主车辆中自动化用户识别的功能;
至少一个环境传感器,所述至少一个环境传感器配置为扫描所述自主车辆的环境并将所述环境的扫描数据传送至所述自主车辆的生物测量识别模块;
生物测量识别模块,所述生物测量识别模块配置为通过使用所述至少一个处理器基于手势识别算法来分析所述环境的所述扫描数据;
其中所述至少一个处理器配置为基于至少一个生物测量特征分析所述环境的所述扫描数据;
其中所述至少一个生物测量特征包括至少打信号停车手势;并且
其中所述控制器配置为,如果所述手势识别算法根据所述环境的所述扫描数据中的所述至少一个生物测量特征识别出用户正显示出打信号停车手势,则使所述自主车辆停在相对于所述用户的位置处并将所述自主车辆配置为向所述用户提供对所述自主车辆使用。
2.根据权利要求1所述的用户识别系统,
其中所述控制器被配置为如果所述手势识别算法根据所述至少一个生物测量特征在所述环境的所述扫描数据中识别出用户正显示出打信号停车手势则使所述自主车辆的至少一个传感器集中在所述用户上,和/或其中所述生物测量识别模块被配置为利用步态分析算法分析所述用户的步态,所述步态分析算法在所述用户接近所述车辆的同时分析所述环境的当前扫描数据。
3.根据权利要求2所述的用户识别系统,
其中所述用户识别系统包括服务器和通信模块;并且
其中所述控制器配置为通过所述通信模块将所述步态分析算法的结果和/或所述手势识别算法的结果传送至所述服务器;并且
其中所述服务器配置为在数据库中搜索和所述手势识别算法的结果和/或所述步态分析算法的结果有关的数据,并且通过使用所述通信模块将和所述手势识别算法的结果和/或所述步态分析算法的结果有关的所述数据传送至所述控制器。
4.根据权利要求3所述的用户识别系统,
其中从所述服务器传送至所述控制器的数据包括至少所述用户的简档的数据、所述用户的预期面部数据以及所述用户的语音映射,并且
其中所述控制器包括语音识别系统和/或面部识别系统;并且
其中从所述服务器传送至所述控制器的数据包括用户的标识数据的列表,所述用户的标识数据将基于提交给所述服务器的所述步态分析算法的结果和/或所述手势识别算法的结果来识别;并且
其中所述控制器配置为通过所述面部识别系统和/或所述语音识别系统基于从所述服务器传送的所述数据确认所述一个单用户的身份;并且
其中所述控制器配置为,如果利用所述面部识别系统和/或所述语音识别系统基于从所述服务器传送的所述数据未确认出一个单用户的所述身份,则将所述面部识别系统和/或所述语音识别系统所确定的数据传送至所述服务器;并且其中所述服务器配置为基于由所述面部识别系统和/或所述语音识别系统所确定的数据以及包括多个用户的面部数据和/或语音数据的数据库来确认一个单用户的所述身份并将确认的所述一个单用户的身份传送至所述控制器,和/或
其中所述控制器配置为如果所述服务器在所述数据库中未找到和所述手势识别算法的结果和/或所述步态分析算法的结果有关的数据,则拒绝所述用户使用所述自主车辆,或者
其中所述用户识别系统包括至少一个面部识别系统,所述至少一个面部识别系统配置为使用面部扫描传感器来扫描所述用户的面部并且通过使用所述至少一个处理器将所述用户的所述面部的所述扫描数据与从所述服务器传送的预期面部数据匹配;和/或
其中所述控制器配置为如果所述用户的所述面部的所述扫描数据与从所述服务器传送的所述预期面部数据相匹配,则解锁所述自主车辆并启动与所述用户的对话。
5.根据权利要求4所述的用户识别系统,
其中所述用户识别系统包括至少一个一个语音识别系统,所述语音识别系统配置为在所述对话期间使用语音识别传感器扫描由所述用户提供的语音数据;并且
其中所述控制器配置为如果所述用户的所述语音的扫描数据与从所述服务器传送的所述语音映射相匹配,则确认所述用户的所述身份,并且其中所述对话包括至少关于所述用户的目的地的询问,和/或
其中所述控制器配置为,通过将从所述语音识别传感器所提供的所述语音数据提取的关于所述用户的所述目的地的信息传送至所述服务器来确定到所述用户的所述目的地的所述路径;和/或
其中所述服务器配置为基于所述语音数据生成到所述用户的所述目的地的路径并利用通信模块将所述路径传送至所述控制器。
6.根据权利要求5所述的用户识别系统,
其中所述语音识别系统配置为从所述语音识别传感器所提供的语音数据提取关于所述用户的所述目的地的信息;并且
其中所述控制器配置为确定到所述用户的所述目的地的路径以及将所述自主车辆配置为将所述用户送至所述用户的所述目的地,和/或
其中所述语音识别系统配置为从所述语音识别传感器所提供的语音数据提取关于所述用户的情绪状态的信息;和/或
其中所述控制器配置为基于所述用户的当前情绪状态修改驾驶行为,和/或
其中所述生物测量识别模块配置为通过将所述环境的所述扫描数据与所述自主车辆的至少一个附加环境传感器所提供的所述环境的数据进行匹配来从所述环境的所述扫描数据提取用户相关数据,使得仅和所述用户有关的数据被所述手势识别算法用来识别所述打信号停车手势并且和特定背景有关的数据被去掉,或者其中所述手势识别算法基于所述自主车辆的跟踪算法来跟踪道路参与者,并且其中所述至少一个附加环境传感器是以下中的至少一个或其组合:激光雷达传感器、成多角度的相机传感器以及麦克风传感器。
7.根据权利要求1所述的用户识别系统,
其中,如果所述手势识别算法根据所述环境的所述扫描数据中的所述至少一个生物测量特征识别出用户正显示出打信号停车手势,则所述控制器配置为使所述自主车辆停在相对于所述用户的所述位置处并且通过基于所述自主车辆的至少一个传感器所捕获的所述用户的生物测量数据识别所述用户而向所述用户提供对所述自主车辆的租用以及支付租金。
8.一种自主车辆,包括:具有至少一个处理器的控制器,所述至少一个处理器提供用于自动化用户识别的功能;
至少一个环境传感器,所述至少一个传感器配置为扫描所述自主车辆的环境并将所述环境的扫描数据传送至生物测量识别模块;
生物测量识别模块,所述生物测量识别模块配置为通过使用所述至少一个处理器基于手势识别算法来分析所述环境的所述扫描数据;
其中所述手势识别算法通过使用所述处理器基于至少一个生物测量特征来分析所述环境的所述扫描数据;
其中所述至少一个生物测量特征包括至少打信号停车手势;并且
其中,如果所述手势识别算法根据所述环境的所述扫描数据中的所述至少一个生物测量特征识别出用户正显示出打信号停车手势,则所述控制器配置为使所述自主车辆停在相对于所述用户的位置处并且向所述用户提供对所述自主车辆的使用。
9.一种提供用于自主车辆中自动化用户识别的功能的方法,包括以下步骤:
通过使用所述自主车辆的至少一个环境传感器扫描所述自主车辆的环境并将所述环境的扫描数据传送至生物测量识别模块;
通过使用包括所述生物测量识别模块的控制器的至少一个处理器基于手势识别算法来分析所述环境的所述扫描数据;
通过使用所述至少一个处理器基于所述手势识别算法并基于至少一个生物测量特征来分析所述环境的所述扫描数据;
其中所述至少一个生物测量特征包括至少打信号停车手势;并且
如果所述手势识别算法根据所述环境的所述扫描数据中的所述至少一个生物测量特征识别出用户正显示出打信号停车手势,则使所述自主车辆停在所述用户处并且向所述用户提供对所述自主车辆的使用。
10.根据权利要求9所述的方法,包括以下步骤:
利用步态分析算法分析所述用户的步态,所述步态分析算法在所述用户接近所述车辆的同时分析所述环境的当前扫描数据;
通过使用所述控制器的通信模块将所述步态分析算法的结果和/或所述手势识别算法的结果传送至服务器;并且在数据库中搜索和所述手势识别算法的结果和/或所述步态分析算法的结果有关的数据,并且通过使用所述服务器将和所述手势识别算法的结果和/或所述步态分析算法的结果有关的所述数据传送至所述控制器;
其中从所述服务器传送至所述控制器的数据包括至少所述用户的简档的数据、所述用户的预期面部数据以及所述用户的语音映射;
利用面部扫描传感器扫描所述用户的面部并通过利用所述控制器的面部识别系统将所述用户的所述面部的所述扫描数据与从所述服务器传送的所述预期面部数据进行匹配;
如果通过利用控制器所述用户的所述面部的所述扫描数据与从所述服务器传送的所述预期面部数据相匹配,则解锁所述自主车辆并启动与所述用户的对话;
其中所述对话包括至少关于所述用户的目的地的询问;
在所述对话期间利用所述控制器的语音识别系统的语音识别传感器扫描所述用户所提供的语音数据;
通过利用至少一个处理器将所述用户的所述语音的所述扫描数据与从所述服务器传送的所述语音映射进行匹配;
如果所述用户的所述语音的所述扫描数据与从所述服务器传送的所述语音映射相匹配,则确认所述用户的身份;
通过利用所述语音识别系统从所述语音识别传感器所提供的语音数据提取关于所述用户的所述目的地的信息;
通过利用所述至少一个处理器确定到所述用户的所述目的地的路径并将所述自主车辆配置为将所述用户送至所述用户的所述目的地。
CN201810853098.3A 2017-08-10 2018-07-30 用于自主车辆的用户识别系统和方法 Active CN109389766B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/674105 2017-08-10
US15/674,105 US10395457B2 (en) 2017-08-10 2017-08-10 User recognition system and methods for autonomous vehicles

Publications (2)

Publication Number Publication Date
CN109389766A true CN109389766A (zh) 2019-02-26
CN109389766B CN109389766B (zh) 2021-07-27

Family

ID=65084727

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810853098.3A Active CN109389766B (zh) 2017-08-10 2018-07-30 用于自主车辆的用户识别系统和方法

Country Status (3)

Country Link
US (1) US10395457B2 (zh)
CN (1) CN109389766B (zh)
DE (1) DE102018119239B4 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110843790A (zh) * 2019-11-21 2020-02-28 大众问问(北京)信息科技有限公司 一种车辆内的硬件协同控制方法、装置及设备
CN111523460A (zh) * 2020-04-23 2020-08-11 上海铠盾科技有限公司 一种标准作业行为检测系统
CN111746438A (zh) * 2019-03-27 2020-10-09 本田技研工业株式会社 车辆控制装置、车辆控制方法及存储介质
CN112053505A (zh) * 2020-08-21 2020-12-08 杭州小电科技股份有限公司 移动电源租借方法、装置、系统、电子装置和存储介质
WO2022134069A1 (zh) * 2020-12-25 2022-06-30 华为技术有限公司 一种车辆召唤方法、智能车以及设备

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10133275B1 (en) 2017-03-01 2018-11-20 Zoox, Inc. Trajectory generation using temporal logic and tree search
US10671076B1 (en) 2017-03-01 2020-06-02 Zoox, Inc. Trajectory prediction of third-party objects using temporal logic and tree search
US10788829B2 (en) * 2017-12-20 2020-09-29 International Business Machines Corporation Self-driving vehicle passenger management
US10955851B2 (en) 2018-02-14 2021-03-23 Zoox, Inc. Detecting blocking objects
US10414395B1 (en) 2018-04-06 2019-09-17 Zoox, Inc. Feature-based prediction
US11126873B2 (en) * 2018-05-17 2021-09-21 Zoox, Inc. Vehicle lighting state determination
US10576934B2 (en) * 2018-07-20 2020-03-03 Ford Global Technologies, Llc Decentralized cloud-based authentication for autonomous vehicles
US11068893B2 (en) * 2018-07-20 2021-07-20 Ford Global Technologies, Llc Decentralized cloud-based authentication for vehicles and associated transactions
CN109389712B (zh) * 2018-08-31 2020-09-29 阿里巴巴集团控股有限公司 智能锁的解锁方法、移动终端、服务器及可读存储介质
JP7013407B2 (ja) * 2019-03-07 2022-01-31 矢崎総業株式会社 車両管理システム
US11269353B2 (en) * 2019-03-28 2022-03-08 Gm Cruise Holdings Llc Autonomous vehicle hailing and pickup location refinement through use of an identifier
DE102019108159A1 (de) * 2019-03-29 2020-10-01 B-Horizon GmbH Carsharing Verwaltungssystem
US11458929B1 (en) * 2019-05-10 2022-10-04 Gm Cruise Holdings Llc Unlocking vehicle doors with facial recognition
DE102019212998B4 (de) * 2019-08-29 2022-08-04 Volkswagen Aktiengesellschaft Fortbewegungsmittel, Vorrichtung und Verfahren zum Positionieren eines automatisiert fahrfähigen Fortbewegungsmittels
US11794695B2 (en) 2020-02-20 2023-10-24 B-Horizon GmbH Car sharing management system
US11163372B2 (en) 2020-04-01 2021-11-02 Toyota Motor North America, Inc Transport gait and gesture interpretation
DE102020204362A1 (de) 2020-04-03 2021-10-07 Volkswagen Aktiengesellschaft Verfahren zum Bewerten einer Geste eines Fahrzeuginsassen in einem Innenraum eines Fahrzeugs, ein Verfahren zum Beleuchten eines Objekts sowie ein Beleuchtungssystem
US11685401B2 (en) * 2020-09-29 2023-06-27 Waymo Llc Semantic identification of pickup locations
CN113525508B (zh) * 2021-07-23 2022-04-15 深圳华一精品科技有限公司 一种方向盘的控制方法、控制系统、车辆、计算机设备及计算机可读存储介质
US11884238B2 (en) * 2021-10-21 2024-01-30 Zoox, Inc. Vehicle door interface interactions
US11932200B2 (en) * 2021-12-03 2024-03-19 Ford Global Technologies, Llc Vehicle and method of controlling a powered door based on user identification

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103955215A (zh) * 2014-04-15 2014-07-30 桂林电子科技大学 基于手势识别的自动避障小车及其控制装置和控制方法
KR20150006270A (ko) * 2013-07-08 2015-01-16 체이시로보틱스(주) 차량의 자동주차 장치
CN104786988A (zh) * 2015-04-22 2015-07-22 北京兴科迪科技有限公司 一种用于车辆的双重认证进门控制系统及其控制方法
CN105069736A (zh) * 2015-08-25 2015-11-18 北京丰华联合科技有限公司 一种针对自动驾驶的租车管理系统
US20150338852A1 (en) * 2015-08-12 2015-11-26 Madhusoodhan Ramanujam Sharing Autonomous Vehicles
WO2016170764A1 (ja) * 2015-04-21 2016-10-27 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、運転制御装置、車両、運転支援プログラム
CN106314152A (zh) * 2015-07-03 2017-01-11 Lg电子株式会社 车辆驾驶辅助装置及具有其的车辆
KR20170015720A (ko) * 2015-07-30 2017-02-09 주식회사 한글과컴퓨터 무인 스마트카를 이용한 공익서비스 시스템 및 방법
WO2017040929A1 (en) * 2015-09-04 2017-03-09 Robert Bosch Gmbh Access and control for driving of autonomous vehicle
CN106627589A (zh) * 2016-12-27 2017-05-10 科世达(上海)管理有限公司 一种车辆行驶安全辅助方法、系统及车辆
CN106650633A (zh) * 2016-11-29 2017-05-10 上海智臻智能网络科技股份有限公司 一种驾驶员情绪识别方法和装置
US20170217445A1 (en) * 2016-01-29 2017-08-03 GM Global Technology Operations LLC System for intelligent passenger-vehicle interactions
CN107024931A (zh) * 2016-01-29 2017-08-08 通用汽车环球科技运作有限责任公司 用于自动驾驶的语音识别系统和方法
CN109643494A (zh) * 2017-04-14 2019-04-16 松下电器(美国)知识产权公司 自动驾驶车辆、自动驾驶车辆的停车方法以及程序

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040151349A1 (en) * 2003-01-16 2004-08-05 Milne Donald A. Method and or system to perform automated facial recognition and comparison using multiple 2D facial images parsed from a captured 3D facial image
US7917768B2 (en) * 2007-01-23 2011-03-29 Dp Technologies, Inc. System control via characteristic gait signature
AU2012211974A1 (en) * 2011-02-04 2013-09-26 Gannon Technologies Group, Llc Systems and methods for biometric identification
US10096216B1 (en) * 2014-12-16 2018-10-09 Amazon Technologies, Inc. Activation of security mechanisms through accelerometer-based dead reckoning
US10088846B2 (en) * 2016-03-03 2018-10-02 GM Global Technology Operations LLC System and method for intended passenger detection
US20170349184A1 (en) * 2016-06-06 2017-12-07 GM Global Technology Operations LLC Speech-based group interactions in autonomous vehicles
US20180018179A1 (en) * 2016-07-12 2018-01-18 Ford Global Technologies, Llc Intelligent pre-boot and setup of vehicle systems
US20180053276A1 (en) * 2016-08-18 2018-02-22 nuTonomy Inc. Hailing a vehicle
US10244094B2 (en) * 2016-08-18 2019-03-26 nuTonomy Inc. Hailing a vehicle
US20180225307A1 (en) * 2016-08-31 2018-08-09 Robert William Kocher Two-stage, facial recognition and identification system (two-stage facial R & I system)
DE102016217770A1 (de) 2016-09-16 2018-03-22 Audi Ag Verfahren zum Betrieb eines Kraftfahrzeugs
KR102003940B1 (ko) * 2016-11-11 2019-10-01 엘지전자 주식회사 자율 주행 차량 및 그 제어방법
US20180189547A1 (en) * 2016-12-30 2018-07-05 Intel Corporation Biometric identification system
US20180283889A1 (en) * 2017-03-31 2018-10-04 Intel Corporation Navigation based on user intentions
US20180284783A1 (en) * 2017-03-31 2018-10-04 GM Global Technology Operations LLC Autonomous vehicle routing based on occupant characteristics
US11244252B2 (en) * 2017-06-21 2022-02-08 Chian Chiu Li Autonomous driving under user instructions and hailing methods

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150006270A (ko) * 2013-07-08 2015-01-16 체이시로보틱스(주) 차량의 자동주차 장치
CN103955215A (zh) * 2014-04-15 2014-07-30 桂林电子科技大学 基于手势识别的自动避障小车及其控制装置和控制方法
WO2016170764A1 (ja) * 2015-04-21 2016-10-27 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、運転制御装置、車両、運転支援プログラム
CN104786988A (zh) * 2015-04-22 2015-07-22 北京兴科迪科技有限公司 一种用于车辆的双重认证进门控制系统及其控制方法
CN106314152A (zh) * 2015-07-03 2017-01-11 Lg电子株式会社 车辆驾驶辅助装置及具有其的车辆
KR20170015720A (ko) * 2015-07-30 2017-02-09 주식회사 한글과컴퓨터 무인 스마트카를 이용한 공익서비스 시스템 및 방법
US20150338852A1 (en) * 2015-08-12 2015-11-26 Madhusoodhan Ramanujam Sharing Autonomous Vehicles
CN105069736A (zh) * 2015-08-25 2015-11-18 北京丰华联合科技有限公司 一种针对自动驾驶的租车管理系统
WO2017040929A1 (en) * 2015-09-04 2017-03-09 Robert Bosch Gmbh Access and control for driving of autonomous vehicle
US20170217445A1 (en) * 2016-01-29 2017-08-03 GM Global Technology Operations LLC System for intelligent passenger-vehicle interactions
CN107024931A (zh) * 2016-01-29 2017-08-08 通用汽车环球科技运作有限责任公司 用于自动驾驶的语音识别系统和方法
CN106650633A (zh) * 2016-11-29 2017-05-10 上海智臻智能网络科技股份有限公司 一种驾驶员情绪识别方法和装置
CN106627589A (zh) * 2016-12-27 2017-05-10 科世达(上海)管理有限公司 一种车辆行驶安全辅助方法、系统及车辆
CN109643494A (zh) * 2017-04-14 2019-04-16 松下电器(美国)知识产权公司 自动驾驶车辆、自动驾驶车辆的停车方法以及程序

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
刘时笑: "通用汽车新战略:不只是自动驾驶、共享用车……", 《HTTPS://WWW.GEEKCAR.COM/ARCHIVES/30209》 *
腾讯数码: "自动驾驶汽车识别骑行者手势", 《HTTPS://VIEW.INEWS.QQ.COM/A/DIG2014043000559601》 *
腾讯视频: ""在城市道路上的谷歌自动驾驶汽车","汉化No.10:谷歌自动驾驶汽车计划探秘"", 《视频1:HTTPS://V.QQ.COM/X/PAGE/E0128EL9E4M.HTML,视频2:HTTPS://V.QQ.COM/X/PAGE/Z0153HMOQUY.HTML?PTAG=SOGOU.TV.FREE》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111746438A (zh) * 2019-03-27 2020-10-09 本田技研工业株式会社 车辆控制装置、车辆控制方法及存储介质
CN111746438B (zh) * 2019-03-27 2023-10-31 本田技研工业株式会社 车辆控制装置、车辆控制方法及存储介质
CN110843790A (zh) * 2019-11-21 2020-02-28 大众问问(北京)信息科技有限公司 一种车辆内的硬件协同控制方法、装置及设备
CN111523460A (zh) * 2020-04-23 2020-08-11 上海铠盾科技有限公司 一种标准作业行为检测系统
CN112053505A (zh) * 2020-08-21 2020-12-08 杭州小电科技股份有限公司 移动电源租借方法、装置、系统、电子装置和存储介质
CN112053505B (zh) * 2020-08-21 2022-07-01 杭州小电科技股份有限公司 移动电源租借方法、装置、系统、电子装置和存储介质
WO2022134069A1 (zh) * 2020-12-25 2022-06-30 华为技术有限公司 一种车辆召唤方法、智能车以及设备

Also Published As

Publication number Publication date
US20190051069A1 (en) 2019-02-14
DE102018119239A1 (de) 2019-02-14
US10395457B2 (en) 2019-08-27
CN109389766B (zh) 2021-07-27
DE102018119239B4 (de) 2024-03-07

Similar Documents

Publication Publication Date Title
CN109389766A (zh) 用于自主车辆的用户识别系统和方法
CN110750769B (zh) 标识和认证自主运载工具以及乘员
US20180040093A1 (en) Vehicle request using wearable earpiece
WO2019034040A1 (zh) 一种业务执行方法及装置
US20180012092A1 (en) System and method for automatic driver identification
CN110103878B (zh) 用于控制无人车的方法和装置
Jafarnejad et al. Towards a real-time driver identification mechanism based on driving sensing data
CN108628301A (zh) 用于操作自动驾驶车辆的时间数据关联
JP2018105774A (ja) 自動運転システム
CN110517687A (zh) 使用机动交通工具外部的语音命令控制其功能的系统
CN112997211B (zh) 数据分发系统、传感器装置和服务器
US20200393835A1 (en) Autonomous rideshare rebalancing
CN109709946A (zh) 用于自主驾驶车辆的车辆调度系统以及自主驾驶车辆
JP7145971B2 (ja) 自律車両による乗客認識のための方法および車両システム
US11884238B2 (en) Vehicle door interface interactions
CN106570451A (zh) 在镜像或反射表面内的自主车辆的自识别
CN111731206A (zh) 车辆控制装置、车辆控制方法及存储介质
CN113723528A (zh) 车载语视融合多模态交互方法及系统、设备、存储介质
CN110503947A (zh) 对话系统、包括其的车辆和对话处理方法
US20210213909A1 (en) Confirmed automated access to portions of vehicles
US11508241B2 (en) Parking area mapping using image-stream derived vehicle description and space information
CN114639260A (zh) 用于车辆之间的智能交互方法、交互系统和计算机可读的介质
CN114690896A (zh) 信息处理装置、信息处理方法及存储介质
JP6979005B2 (ja) 道路側面に並ぶ店舗の訪問者数を推定する訪問者数推定装置、プログラム及び方法
CN115730287A (zh) 身份认证方法及车辆

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant