JP2022500732A - 自律型車両のための周囲照明状態 - Google Patents

自律型車両のための周囲照明状態 Download PDF

Info

Publication number
JP2022500732A
JP2022500732A JP2021510448A JP2021510448A JP2022500732A JP 2022500732 A JP2022500732 A JP 2022500732A JP 2021510448 A JP2021510448 A JP 2021510448A JP 2021510448 A JP2021510448 A JP 2021510448A JP 2022500732 A JP2022500732 A JP 2022500732A
Authority
JP
Japan
Prior art keywords
vehicle
stop
ambient lighting
computing device
locations
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021510448A
Other languages
English (en)
Other versions
JP7245320B2 (ja
Inventor
パンディット,サリル
パテル,ニルマル
Original Assignee
ウェイモ エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウェイモ エルエルシー filed Critical ウェイモ エルエルシー
Publication of JP2022500732A publication Critical patent/JP2022500732A/ja
Priority to JP2023037208A priority Critical patent/JP7550260B2/ja
Application granted granted Critical
Publication of JP7245320B2 publication Critical patent/JP7245320B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/181Preparing for stopping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • B60W60/00253Taxi operations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/387Organisation of map data, e.g. version management or database structures
    • G01C21/3874Structures specially adapted for data searching and retrieval
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3811Point data, e.g. Point of Interest [POI]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3837Data obtained from a single source
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/04Vehicle stop
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Databases & Information Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Electromagnetism (AREA)
  • Game Theory and Decision Science (AREA)
  • Evolutionary Computation (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

本開示は、自律型車両による乗客および物品のピックアップおよびドロップオフ時の周囲照明状態の使用に関する。例えば、停止場所の周囲照明状態の地図は、所定の停止場所の周囲照明状態データを受信し、このデータを時刻および停止場所の1つに基づいて複数のバケットに配置することによって生成され得る。次いで、車両100は、異なる停止場所282、284の両方の周囲照明状態を観察すること、場合によっては地図も使用することによって、乗客のために停止するために、自律運転モードで制御され得る。【選択図】図2B

Description

関連出願の相互参照
本出願は、2018年9月7日に出願された出願番号第16/125,025号の利益を主張し、その開示は参照により本明細書に組み込まれる。
人間の運転者を必要としない車両などの自律型車両が、ある場所から別の場所へ乗客または物品の輸送を支援するために使用され得る。そのような車両は、ユーザがピックアップ場所または目的地のようないくつかの初期入力を提供し得、かつ車両がその場所へ車両自体を操縦する、完全な自律モードで動作し得る。
人(またはユーザ)は、車両を介して2つの場所の間で物理的に輸送されるか、および/または商品を輸送するのを望む場合、任意の数のタクシーまたは配達サービスを使用し得る。現在に至るまで、これらのサービスは通常、ユーザおよび/または商品をピックアップおよびドロップオフする場所への派遣命令を人間の運転者に与えることを伴う。一般に、これらの場所特定は、物理的な信号(すなわち、運転者を合図で停止させること)、ユーザが実際にどこにいるかを説明する電話、または運転者とユーザとの間の直接の話し合いを介してうまくいく。自律型車両の場合、このような連携は多くの場合、実現するのが困難であるか、または不可能であり、さらに車両に到達するまでの距離または車両が乗客および/または商品をピックアップまたはドロップオフするために停止する所望の目的地に到達するまでの距離という観点で、ユーザに対してかなりの不便性をもたらし得る。
本開示の一態様は、周囲照明状態の地図を生成する方法を提供する。この方法は、異なる時点における異なる場所での周囲照明状態を識別する1つ以上の車両によって生成されたデータを1つ以上のプロセッサによって検索することと、異なる場所に基づいて、車両用の所定の停止場所のセットのうちの1つを1つ以上のプロセッサによって識別することと、異なる時点および所定の停止場所のセットのうちの識別された1つに基づいて、データの少なくとも一部を、各バケットが特定の期間に関連付けられる、複数のバケットに1つ以上のプロセッサによって配置することと、複数のバケットを使用して地図を1つ以上のプロセッサによって生成することと、を含む。
一例では、地図を生成することは、複数のバケットを以前の地図に組み込むことを含む。別の例では、自律型車両が周囲照明状態の履歴に基づいて所定の停止場所のセットのピックアップ停止場所を識別することを可能にするために、自律型車両のコンピューティングデバイスに複数のバケットを提供すること。別の例では、この方法はまた、自律型車両が周囲照明状態の履歴に基づいて所定の停止場所のセットのドロップオフ停止場所を識別することを可能にするために、自律型車両のコンピューティングデバイスに複数のバケットを提供することを含む。別の例では、この方法はまた、クライアントコンピューティングデバイスから、移動のための1つ以上の可能なピックアップ場所を識別する要求を受信することと、クライアントコンピューティングデバイスへの要求に応答して、複数のバケットのうちの少なくとも1つを使用して所定の停止場所のセットのうちの1つを識別する情報を提供することと、を含む。この例では、この方法は、乗客が移動のためにピックアップされるであろうと予想される時刻に基づいて、複数のバケットのうちの少なくとも1つを選択することも含む。加えて、この方法は、クライアントコンピューティングデバイスへの要求に応答して、乗客が移動のためにピックアップされるであろうと予想される時刻に、複数のバケットのうちの少なくとも1つの周囲照明状態を識別する通知を提供することも含む。別の例では、この方法はまた、クライアントコンピューティングデバイスから、移動のための1つ以上の可能なドロップオフ場所を識別する要求を受信することと、クライアントコンピューティングデバイスへの要求に応答して、複数のバケットのうちの少なくとも1つを使用して所定の停止場所のセットのうちの1つを識別する情報を提供することと、を含む。この例では、この方法は、乗客が移動からドロップオフされるであろうと予想される時刻に基づいて、複数のバケットのうちの少なくとも1つを選択することも含む。加えて、この方法は、クライアントコンピューティングデバイスへの要求に応答して、乗客が移動からドロップオフされるであろうと予想される時刻に複数のバケットのうちの少なくとも1つの周囲照明状態を識別する通知を提供することも含む。
本開示の別の態様は、車両を停止するために車両を制御する方法を提供する。この方法は、車両の停止場所を1つ以上のプロセッサによって受信することと、自律運転モードで停止場所に向かう車両を1つ以上のプロセッサによって制御することと、自律運転モードでの車両を制御している間、停止場所を1つ以上のプロセッサによって観察することと、新しい停止場所の観察および周囲照明状態に基づいて、新しい停止場所を1つ以上のプロセッサによって識別することと、自律運転モードでの車両を新しい停止場所で停止するために1つ以上のプロセッサによって制御することと、を含む。
一例では、停止場所を観察することは、停止場所の周囲照明状態を判定することを含む。この例では、停止場所の周囲照明状態を判定することは、車両のカメラによって捕捉された画像に基づく。加えて、または代替的に、停止場所の周囲照明状態を判定することは、車両のカメラの露出値に基づく。加えて、または代替的に、停止場所の周囲照明状態を判定することは、車両の光センサに基づく。加えて、または代替的に、停止場所の周囲照明状態を判定することは、車両のヘッドライトの現在の状態に基づく。加えて、または代替的に、停止場所の周囲照明状態を判定することは、車両の内部ディスプレイの現在の状態に基づく。加えて、または代替的に、新しい停止場所の周囲照明状態を判定することは、車両のカメラによって捕捉された画像に基づく。加えて、または代替的に、新しい停止場所の周囲照明状態を判定することは、新しい停止場所の周囲照明状態の履歴を識別する地図情報に基づく。別の例では、停止場所を観察することは、停止場所が現在利用不可能であることを判定することを含む。
例示的な実施形態による例示的な車両の機能図である。 本開示の態様による地図情報の一例を示す図である。 本開示の態様による車両の例示的な外観図である。 本開示の態様による例示的なシステムのイラスト図である。 本開示の態様による図4のシステムの機能図である。 本開示の態様による運転状況の例示的な表現図である。 本開示の態様による運転状況およびデータの例示的な表現図である。 本開示の態様による例示的なフロー図である。 本開示の態様による例示的なフロー図である。
概要
本技術は、自律型車両の安全で快適な乗客のピックアップおよびドロップオフを容易にすることに関連する。例えば、そのような車両は、1日24時間、1週間7日で、移動サービスに利用可能であり得る。夜間、照明の明るいエリアで、ピックアップおよびドロップオフのために車両を停止することは、乗客の快適性および安全性のために望ましい。一例として、ピックアップ中、照明の明るいエリアは、乗客が車両を待つのをより簡単にし、ストレスを少なくし得る。同様に、ドロップオフ時に、乗客は、水たまりもしくは高い縁石のような何か、または車両の周りに誰かがいるかどうかを、より良好に確認することができる。さらに他の例では、商品をピックアップまたはドロップオフする場合、人は、照明の明るい場所でより安心し、または車両の周りの危険の原因をより良好に見ることができ得る。このように、周囲照明状態に応じて駐車場所を選択することは、自律型タクシーおよび/または配達サービスの重要な安全機能であり得る。所与の駐車場所の周囲照明状態は、任意の数の異なる方式で判定され得る。例えば、車両のコンピューティングデバイスは、車両の光センサからフィードバックを受信し得る。この情報は、車両の現在の場所の周囲照明状態を判定するのに特に役立ち得る。加えて、または代替的に、所与の駐車場の周囲照明状態は、車両の知覚システムによって生成されたデータから判定され得る。加えて、または代替的に、所与の駐車場の周囲照明状態は、履歴データから判定され得る。例えば、周囲照明状態は、異なる時点で様々なエリアを運転する本車両または他の車両によって、収集され、集約され、かつ地図情報を生成するために使用され得る。この地図情報は、車両の車隊の車両に送信され得る。
周囲照明状態は、より良好な乗客のピックアップおよびドロップオフを容易にするために、任意の数の様々な方式で使用され得る。例えば、ユーザ(または将来の乗客)が移動を計画している場合、乗客にとって最良のピックアップ場所および/またはドロップオフ場所を判定するために、地図情報における周囲照明状態を使用することができる。加えて、または代替的に、車両が停車を試み、または駐車場所を探している最中に、車両のコンピューティングデバイスは、リアルタイムの観察に基づいて駐車場所にいくつかの小さな調整を加えることができ得る。
本明細書で説明される機能は、照明の明るいエリアでのピックアップおよびドロップオフのために自律型車両を停止することにより、快適性および安全性の観点からより良好な乗客体験を可能にし得る。履歴データを使用することにより、乗客は照明の明るいエリアでのピックアップおよびドロップオフを予め手配することができる。加えて、自律型車両で収集したリアルタイムの情報を使用することによって、車両は状況の変化に対応し得る。最後に、以下でさらに考察されるように、周囲照明状態は、乗客にサービスを提供しない場合に、車両の安全性およびセキュリティを向上させるために、車両の駐車場所を識別するためにも使用され得る。
例示的なシステム
図1に示されるように、本開示の一態様による車両100は、様々な構成要素を含む。本開示の特定の態様は、特定のタイプの車両に関連して特に有用であるが、車両は、いずれのタイプの車両であってもよく、車、トラック、オートバイ、バス、レクリエーション用車両などを含むが、これらに限定されない。車両は、1つ以上のプロセッサ120、メモリ130、および汎用コンピューティングデバイスに典型的に存在する他の構成要素を含むコンピューティングデバイス110のような1つ以上の制御コンピューティングデバイスを有し得る。
メモリ130は、1つ以上のプロセッサ120によってアクセス可能である情報を記憶し、その情報には、プロセッサ120によって実行または別様に使用され得る命令134およびデータ132が含まれる。メモリ130は、プロセッサによってアクセス可能である情報を記憶することができる任意のタイプのメモリであってもよく、それらには、コンピューティングデバイス可読媒体、またはハードドライブ、メモリカード、ROM、RAM、DVD、もしくは他の光ディスク、ならびに他の書き込み可能および読出し専用メモリなどの電子デバイスを使って読み取ることができるデータを記憶する他の媒体が含まれる。システムおよび方法は、上記の異なる組み合わせを含んでもよく、それによって、命令およびデータの様々な部分が、様々なタイプの媒体に記憶される。
命令134は、プロセッサにより直接的に(マシンコードなど)または間接的に(スクリプトなど)実行される任意の一連の命令であってもよい。例えば、命令は、コンピューティングデバイス可読媒体上のコンピューティングデバイスコードとして記憶されてもよい。その点について、「ソフトウェア」、「命令」、および「プログラム」という用語は、本明細書では、互換的に使用され得る。命令は、プロセッサによる直接処理のためのオブジェクトコード形式で、または要求に応じて解釈されるか、もしくは予めコンパイルされる独立したソースコードモジュールのスクリプトもしくはコレクションを含む、任意の他のコンピューティングデバイス言語で記憶されてもよい。命令の機能、方法、およびルーチンについては、以下でさらに詳細に説明される。
データ132は、命令134に従ってプロセッサ120によって検索、記憶、または修正されてもよい。例えば、特許請求された主題は、いかなる特定のデータ構造にも限定されないが、データは、コンピューティングデバイスレジスタ内に、すなわち、複数の異なるフィールドおよびレコードを有する表、XMLドキュメント、またはフラットファイルとしてリレーショナルデータベース内に記憶されてもよい。データはまた、任意のコンピューティングデバイス可読形式でフォーマットされてもよい。
1つ以上のプロセッサ120は、市販されているCPUなど任意の従来のプロセッサであってもよい。代替的に、1つ以上のプロセッサは、ASICまたは他のハードウェアベースプロセッサなどの専用デバイスであってもよい。図1は、プロセッサ、メモリ、およびコンピューティングデバイス110の他の要素を同じブロック内にあるものとして機能的に例示するが、プロセッサ、コンピューティングデバイス、またはメモリは、実際には、同じ物理的な筐体内に記憶されてもされなくてもよい、複数のプロセッサ、コンピューティングデバイス、またはメモリを含むことができることは、当業者により、理解されるであろう。例えば、メモリは、ハードドライブ、またはコンピューティングデバイス110の筐体とは異なる筐体内に設置された他の記憶媒体であってもよい。したがって、プロセッサまたはコンピューティングデバイスへの言及は、並行に動作してもしなくてもよいプロセッサまたはコンピューティングデバイスまたはメモリの集合体への言及を含むことを理解されたい。
コンピューティングデバイス110は、上述したプロセッサおよびメモリ、ならびにユーザ入力150(例えば、マウス、キーボード、タッチスクリーンおよび/またはマイクロフォン)、様々な電子ディスプレイ(例えば、スクリーン、または情報を表示するように動作可能である任意の他の電気デバイスを有するモニタ)などのコンピューティングデバイスと接続して通常使用されるすべての構成要素であってもよい。この例では、車両は、内部の電子ディスプレイ152、ならびに1つ以上のスピーカ154を含み、情報または音響映像体験を提供する。この点について、内部の電子ディスプレイ152は、車両100の車内に位置付けられてもよく、コンピューティングデバイス110によって使用されて、車両100内の乗員乗客に情報を提供してもよい。
コンピューティングデバイス110はまた、1つ以上の無線ネットワーク接続156も含み、以下に詳細に説明するクライアントコンピューティングデバイスおよびサーバコンピューティングデバイスなどの他のコンピューティングデバイスとの通信を容易にし得る。無線ネットワーク接続には、Bluetooth、Bluetoothローエネルギー(LE)、携帯電話接続などの短距離通信プロトコル、ならびにインターネット、World Wide Web、イントラネット、仮想プライベートネットワーク、ワイドエリアネットワーク、ローカルネットワーク、1つ以上の企業に専用の通信プロトコルを使用するプライベートネットワーク、イーサネット、WiFi、およびHTTPを含む様々な構成およびプロトコル、ならびに上記の様々な組み合わせが含まれ得る。
一例では、コンピューティングデバイス110は、自律運転コンピューティングシステムの制御コンピューティングデバイスであってもよく、または車両100に組み込まれてもよい。この自律運転コンピューティングシステムは、以下でさらに考察されるように、メモリ130の自律制御ソフトウェアに従って車両100の動きを制御するために、車両の様々な構成要素と通信することが可能であり得る。例えば、図1に戻ると、コンピューティングデバイス110は、メモリ130の命令134に従って、車両100の動き、速度などを制御するために、減速システム160、加速システム162、操縦システム164、シグナリングシステム166、ルーティングシステム168、測位システム170、知覚システム172、および動力システム174(すなわち、車両のエンジンまたはモータ)など、車両100の様々なシステムと通信することができる。例えば、メモリは、車両の様々なシステムを制御する方法を判定するために使用することができる車両の操縦、加速および減速のプロファイルおよび制限を記憶し得る。また、これらのシステムは、コンピューティングデバイス110の外部にあるものとして示されるが、実際には、これらのシステムもまた、車両100を制御するための自律運転コンピューティングシステムとして再度、コンピューティングデバイス110の中に組み込まれてもよい。
一例として、コンピューティングデバイス110が、車両の速度を制御するために、車両のブレーキ、アクセルペダル、および/またはエンジン、もしくはモータなどの減速システム160および/または加速システム162の1つ以上のアクチュエータと相互作用してもよい。同様に、操縦ホイール、操縦シャフト、ならびに/またはラックアンドピニオンシステムのピニオンおよびラックなど、操縦システム164の1つ以上のアクチュエータは、車両100の方向を制御するために、コンピューティングデバイス110によって使用され得る。例えば、乗用車またはトラックなどの車両100が道路上で使用するために構成される場合、操縦システムは、車両の向きを変えるために車輪の角度を制御するための1つ以上のアクチュエータを含んでもよい。シグナリングシステム166は、例えば、必要に応じて方向指示器またはブレーキライトを点灯させることによって、車両の意図を他の運転者または車両に知らせるために、コンピューティングデバイス110によって使用され得る。
ルーティングシステム168は、ある場所までの経路を判定し、これをたどるために、コンピューティングデバイス110によって使用され得る。この点について、ルーティングシステム168および/またはデータ132が、詳細な地図情報、例えば、道路の形状および上昇、車線境界線、交差点、横断歩道、速度制限、交通信号、建物、標識、リアルタイム交通情報、植生、または他のそのような物体および情報を特定する高精密地図、を記憶してもよい。
図2Aおよび2Bは、交差点220を含む道路の区画の地図情報の例である。図2Aは、車線マーカまたは車線ライン210、212、214、中央分離帯エリア230、232、交通信号240、242、および停止線250、252、254、256の形状、場所、および他の特性を特定する情報を含む地図情報の一部分を示す。車線ラインはまた、様々な車線260〜271を画定することができ、またはこれらの車線は、地図情報200で明示的に特定することもできる。これらの特徴に加えて、地図情報はまた、各車線についての交通の方向および速度制限を識別する情報、ならびにコンピューティングデバイス110が、車両が特定の操縦を完了する(すなわち、ターンを完了するか、交通または交差点の車線を横断する)ための正しい方式があるか否か、および縁石、建物、水路、植生、標識などの他の特徴を判定することを可能にする情報も含み得る。
地図情報はまた、ピックアップ場所およびドロップオフ場所を含む所定の停止場所を記憶し得る。ピックアップ場所は、移動のために乗員をピックアップするために待機するために自律型車両が停止する場所を指し得る。ドロップオフ場所は、乗員が移動後に車両を出ることを可能にするために自律型車両が停止する場所を指し得る。車両が停止し、乗客が降車し、かつ乗客が戻るために待機することを可能にする場所のような他の停止場所も可能である。停止場所は、またユーザが商品をピックアップまたはドロップオフするために停止および待機するために車両によって使用され得る。例えば、車両がユーザに食品を配達している場合、車両は、停止場所で停止し、かつ待機し得る。これらの各々は、単に、別個の、事前に判定されたピックアップおよびドロップオフ場所であり、場合によっては、人間のオペレータによって手動で選択されるか、または経時的にコンピューティングデバイスによって学習され得る、駐車場所であり得る。この点について、各停止場所は、各場所の特性の何らかの手動または自動分析によって選択された車両が停止することができる場所であり得る。図2Aおよび2Bに示されるように、地図情報は、複数の停止場所280〜288を含む。この例では、各停止場所は車線に隣接する駐車場に対応しているが、これらの所定の停止場所はすべてのタイプの駐車場所であり得る。
これらの停止場所の少なくとも一部には、周囲照明状態のデータが含まれ得る。以下でさらに考察されるように、所与の停止場所は、異なる時刻に予想される周囲照明状態を識別するデータに関連付けられ得、例えば、停止場所280、282、284、286、288では、各々「バケット化された」の期間は、現地時刻の午後6時〜午後7時、現地時刻の午後7時〜午後8時、現地時刻の午前8時〜午前9時などである。この例では、値0.2、0.6、0.8などは、0〜1までの均等目盛りに正規化され、0は周囲照明状態がなく、1は非常に明るい周囲照明状態である。。使用される時刻の実際の「バケット」は、その所与の停止場所についてのデータ量に基づいて判定され得る。
本明細書では、地図情報は、画像ベースの地図として図示されているが、地図情報は、完全に画像ベースである必要はない(例えば、ラスタ)。例えば、地図情報は、1つ以上の道路グラフ、または道路、車線、交差点、およびこれらの特徴間の接続などの情報のグラフネットワークを含み得る。各特徴は、グラフデータとして記憶されてもよく、地理的場所などの情報と関連付けられてもよく、いずれにせよ、他の関連する特徴にリンクされ、例えば、停止標識は、道路および交差点などにリンクされてもよい。いくつかの例では、関連付けられたデータは、道路グラフのグリッドベースのインデックスを含み得、ある道路グラフの特徴の効率的な検索を可能にする。
測位システム170は、地図上または地球上の車両の相対的または絶対的位置を判定するために、コンピューティングデバイス110によって使用され得る。例えば、測位システム170は、デバイスの緯度、経度、および/または標高の位置を判定するためのGPS受信機を含むことができる。レーザを利用した位置特定システム、慣性支援GPS、またはカメラを利用した位置特定などの他の位置特定システムも、車両の位置を特定するために使用することができる。車両の位置には、緯度、経度、高度などの絶対的な地理的位置情報の他に、すぐ周りの他の車両に対する位置などの相対的な位置情報が含まれてもよく、これは、多くの場合、絶対的な地理的位置よりも少ないノイズで判定することができる。
測位システム170はまた、車両の方向および速度、またはそれらの変化を判定するための加速度計、ジャイロスコープ、または別の方向/速度検出デバイスなどの、コンピューティングデバイス110と通信する他のデバイスも含むことができる。単なる例として、加速デバイスは、重力の方向、または重力に対して垂直な平面に対する車両の縦揺れ、偏揺れ、または横揺れ(またはそれらの変化)を判定することができる。このデバイスはまた、速度の増減、およびそのような変化の方向を追跡することもできる。本明細書で説明したように、デバイスの位置および配向データの提供が、コンピューティングデバイス110、他のコンピューティングデバイス、および上記の組み合わせに自動的に提供されてもよい。
知覚システム172はまた、他の車両、道路内の障害物、交通信号、標識、樹木などの車両の外部にある対象物を検出するために1つ以上の構成要素を含む。例えば、知覚システム172は、レーザ、ソナー、レーダー、カメラ、および/またはコンピューティングデバイス110が処理することができるデータを記録する任意の他の検出デバイスを含んでもよい。車両がミニバンなどの搭乗者車両である場合には、ミニバンは、屋根または他の都合の良い場所に搭載されるレーザまたは他のセンサを含んでもよい。例えば、図3は、車両100の例示的な外観図である。この例では、屋根上にある筐体310およびドーム状筐体312は、LIDARセンサ、ならびに各種のカメラおよびレーダーユニットを含んでもよい。さらに、車両100の前端部に設置された筐体320、ならびに車両の運転者側および乗客側の筐体330、332は、各々、LIDARセンサを保管することができる。例えば、筐体330は、運転者ドア350の前部に設置される。車両100はまた、車両100の屋根の上にさらに設置されたレーダーユニットおよび/またはカメラのための筐体340、342も含む。追加のレーダーユニットおよびカメラ(図示せず)は、車両100の前端および後端に、および/または屋根もしくは屋根上にある筐体310に沿った他の位置に設置され得る。車両100はまた、ドア350、352、ホイール360、362などの典型的な乗用車の多くの特徴を含む。
コンピューティングデバイス110は、様々な構成要素を制御することによって車両の方向および速度を制御してもよい。例として、コンピューティングデバイス110は、詳細な地図情報およびルーティングシステム168からのデータを使用して、車両を目的地に完全に自律的にナビゲートし得る。コンピューティングデバイス110は、測位システム170を使用して車両の場所を判定し、知覚システム172を使用して、対象物を検出し、その場所に安全に到着するために必要である場合、対象物に対して応答することができる。そうするために、コンピューティングデバイス110は、車両を、(例えば、加速システム162により、エンジンに提供される燃料または他のエネルギーを増加させることによって)加速させ、(例えば、エンジンに供給される燃料を減少させ、ギアを切り替え、および/または減速システム160によりブレーキをかけることによって)減速させ、(例えば、操縦システム164により、車両100の前輪または後輪の向きを変えることによって)方向を変更させ、(例えば、シグナリングシステム166の方向指示器を点灯することによって)かかる変更を伝えさせてもよい。このため、加速システム162および減速システム160は、車両のエンジンと車両の車輪との間に様々な構成要素を含む、動力伝達装置の一部であり得る。再び、これらのシステムを制御することによって、コンピューティングデバイス110はまた、車両を自律的に操縦するために、車両の動力伝達装置を制御してもよい。
車両100のコンピューティングデバイス110はまた、輸送サービスの一部であるコンピューティングデバイスならびに他のコンピューティングデバイスのような他のコンピューティングデバイスとの間で情報を受信または転送することもできる。図4および図5は、それぞれ、例示的なシステム400のイラスト図および機能図であり、システムは、ネットワーク460を介して接続された複数のコンピューティングデバイス410、420、430、440、および記憶システム450を含む。システム400は、車両100、および車両100と同じまたは同様に構成され得る車両100A、100Bも含む。簡潔にするため、いくつかの車両およびコンピューティングデバイスのみを図示しているが、通常のシステムは、これよりもはるかに多くのものを含み得る。
図4に示されるように、コンピューティングデバイス410、420、430、440の各々は、1つ以上のプロセッサ、メモリ、データ、および命令を含み得る。そのようなプロセッサ、メモリ、データ、および命令は、コンピューティングデバイス110の1つ以上のプロセッサ120、メモリ130、データ132、および命令134と同様に構成されてもよい。
ネットワーク460および仲介ノードは、Bluetooth、BluetoothLE、インターネット、World Wide Web、イントラネット、仮想プライベートネットワーク、ワイドエリアネットワーク、ローカルネットワーク、1つ以上の企業に専用の通信プロトコルを使用するプライベートネットワーク、イーサネット、WiFi、およびHTTP、ならびに上記の様々な組み合わせなどの短距離通信プロトコルを含む様々な構成およびプロトコルを含んでもよい。そのような通信は、モデムおよび無線インターフェースなどの、他のコンピューティングデバイスとの間でデータを送受信することができるいずれかのデバイスによって容易に行われ得る。
一例では、1つ以上のコンピューティングデバイス410は、他のコンピューティングデバイスとの間でデータを受信、処理、および送信する目的で、ネットワークの異なるノードと情報を交換する、例えば、負荷分散サーバファームなど、複数のコンピューティングデバイスを有する1つ以上のサーバコンピューティングデバイスを含んでもよい。例えば、1つ以上のコンピューティングデバイス410は、ネットワーク460を介して、車両100のコンピューティングデバイス110、または車両100Aの同様のコンピューティングデバイス、ならびにコンピューティングデバイス420、430、440と通信することが可能である1つ以上のサーバコンピューティングデバイスを含んでもよい。例えば、車両100、100Aは、サーバコンピューティングデバイスによって様々な場所に派遣され得る車両の車隊の一部であり得る。この点について、サーバコンピューティングデバイス410は、乗客をピックアップおよびドロップオフするために、車両100および車両100Aのような車両を異なる場所に派遣するために使用することができる派遣サーバコンピューティングシステムとして機能し得る。加えて、サーバコンピューティングデバイス410は、ネットワーク460を使用し得、コンピューティングデバイス420、430、440のディスプレイ424、434、444のようなディスプレイ上に、ユーザ422、432、442などのユーザに情報を送信および提示する。この点について、コンピューティングデバイス420、430、440は、クライアントコンピューティングデバイスとみなされてもよい。
図4に示すように、各クライアントコンピューティングデバイス420、430、440は、ユーザ422、432、442が使用することを意図されたパーソナルコンピューティングデバイスであってもよく、1つ以上のプロセッサ(例えば、中央処理装置(CPU))、データおよび命令を記憶するメモリ(例えば、RAMおよび内蔵ハードドライブ)、ディスプレイ424、434、444などのディスプレイ(例えば、画面を有するモニタ、タッチスクリーン、プロジェクタ、テレビ、または情報を表示するように動作可能である他のデバイス)、およびユーザ入力デバイス426、436、446(例えば、マウス、キーボード、タッチスクリーン、またはマイクロフホン)を含む、パーソナルコンピューティングデバイスと接続して通常使用されるすべての構成要素を有し得る。クライアントコンピューティングデバイスはまた、ビデオストリームを記録するためのカメラ、スピーカ、ネットワークインターフェースデバイス、およびこれらの要素を互いに接続するために使用されるすべての構成要素を含んでもよい。
クライアントコンピューティングデバイス420、430、および440は、各々、フルサイズのパーソナルコンピューティングデバイスを含んでもよいが、代替的に、インターネットなどのネットワークを介してサーバとデータを無線で交換することが可能であるモバイルコンピューティングデバイスを含んでもよい。ほんの一例として、クライアントコンピューティングデバイス420は、携帯電話、または無線対応PDA、タブレットPC、ウェアラブルコンピューティングデバイスもしくはシステムなどのデバイス、またはインターネットもしくは他のネットワークを介して情報を取得することができるネットブックであってもよい。別の例では、クライアントコンピューティングデバイス430は、図4に示されるように、腕時計として示されるウェアラブルコンピューティングシステムであってもよい。一例として、ユーザは、小型キーボード、キーパッド、マイクロフォンを使用して、カメラを用いる映像信号、またはタッチスクリーンを使用して、情報を入力し得る。
いくつかの例では、クライアントコンピューティングデバイス440は、以下でさらに考察されるように、シナリオの結果、ハンドオーバー時間、および検証情報をレビューするために管理者またはオペレータによって使用される操作ワークステーションであり得る。図4および図5には操作ワークステーション440が1つのみ示されるが、典型的なシステムには、任意の数のそのようなワークステーションが含まれてもよい。さらに、操作ワークステーションはデスクトップコンピュータとして図示されるが、操作ワークステーションは、ラップトップ、ネットブック、タブレットコンピュータなど様々なタイプのパーソナルコンピューティングデバイスを含み得る。
メモリ130と同様に、記憶システム450は、ハードドライブ、メモリカード、ROM、RAM、DVD、CD−ROM、書き込み可能メモリ、および読み出し専用メモリなどの、サーバコンピューティングデバイス410によりアクセス可能である情報を記憶することができる、任意のタイプのコンピュータ化された記憶装置であり得る。さらに、記憶システム450は、データが、同じまたは異なる地理的位置に物理的に設置され得る複数の異なる記憶デバイス上に記憶される分散型記憶システムを含んでもよい。記憶システム450は、図4および図5に示すように、ネットワーク460を介してコンピューティングデバイスに接続されてもよく、かつ/またはコンピューティングデバイス110、410、420、430、440などのいずれかに直接接続されるか、もしくは組み込まれてもよい。
記憶システム450は、様々なタイプの情報を記憶し得る。この情報には、様々な日時に車隊の車両によって様々なエリアおよび/または停止場所について報告された周囲照明状態が含まれ得る。さらに、記憶システムはまた、地図情報200の1つ以上の複製を記憶してもよい。この情報は、本明細書で記載される特徴のうちのいくつかを実行するために、1つ以上のサーバコンピューティングデバイス410のようなサーバコンピューティングデバイスによって検索または別の方法でアクセスされ得る。
例示的な方法
上述し、図に例示した動作に加えて、様々な動作が、ここで説明される。以下の動作は、以下に説明する正確な順序で実行される必要がないことを理解されたい。むしろ、様々なステップが、異なる順序で、または同時に処理されてもよく、ステップもまた、追加または省略されてもよい。
上記のように、コンピューティングデバイス110は、ルーティングシステムを使用して、目的地へのルートを判定することができ、例えば、乗客をピックアップする、商品をピックアップする、乗客をドロップオフする、および/または商品を配達する。次いで、コンピューティングデバイス110は、目的地までのルートをたどるために、車両が将来にわたってある時間および距離をたどるための軌跡を定期的に生成し得る。例えば、図6は地図情報200に対応する道路600の例示的な区画を表す。この点について、車線ライン610、612、614は車線ライン210、212、214に対応し、交差点620は交差点220に対応し、中央分離帯エリア630、632は中央分離帯エリア230、232に対応し、交通信号640、642は交通信号240、242に対応し、停止線650、652、654、656は停止線250、252、254、256に対応し、車線660〜671は車線260〜271に対応し、駐車場680〜688は停止場所280〜288に対応する。
図示されるように、車両100は、車線660の交差点620に接近し、マーカ690によって表される目的地に到達しようとしているように描かれる。この時点で、コンピューティングデバイス110は、例えば、車両100をピックアップ、ドロップオフ、または単に駐車するために、目的地に近接する停止場所を識別し始め得る。上述したように、そうするために、コンピューティングデバイス110は、目的地に近接する場所に停止するための周囲照明状態を判定しようと試みてもよい。
所与の停止場所の周囲照明状態は、任意の数の異なる方法で判定し得る。これらの少なくとも一部には、リアルタイムの判定が含まれ得る。例えば、コンピューティングデバイス110は、車両のヘッドライトの状態を制御し、内部電子ディスプレイ152などの内部電子ディスプレイの明るさを調整するために使用されるもののような、車両の光センサからフィードバックを受信し得る。光センサからのフィードバックがコンピューティングデバイス110に直接利用できない場合、この情報はまた、車両のヘッドライトおよび/または内部電子ディスプレイの状態から収集され得る。言い換えれば、コンピューティングデバイス110は、この情報から、車両がヘッドライトを点灯するのに「十分に暗い」か、または特定の明るさの内部電子ディスプレイであるかを判定することができ得る。この情報は、例えば、前で考察されたように0〜1までの均等目盛りの値のような、正規化された値に変換することができ、ここで、0は周囲照明状態がない場合(例えば、車両のヘッドライトがオンで内部の電子ディスプレイ152が最も明るい場合)であり、さらに1は非常に明るい周囲照明状態である(例えば、車両のヘッドライトがオフであり、内部電子ディスプレイ152が非常に暗い場合)。この情報はまた、例えば、図7の例700に示されるように、車両100の近くのエリア710内の、車両の現在の場所についての周囲照明状態を判定するために特に有用であり得る。
加えて、または代替的に、所与の停止場所の周囲照明状態は、車両の知覚システムによって生成されたデータから判定され得る。前述したように、知覚システム172は、複数の異なるセンサを含み得、そのいくつかは、静止カメラまたはビデオカメラなど、周囲照明状態を判定するために使用し得る。例えば、周囲照明状態を判定するために、車両の環境のライブカメラ画像を分析し得る。これには、カメラが向けられているエリアが明るいエリアであるか否かを判定するために画素の処理を含み得る。画素が明るく、画像が短い露光時間である場合、これはそのエリアも明るいことを示している可能性がある。同様に、その日の異なる時刻における同じ場所のカメラ画像の画素を上述のように分析し得、それにより周囲照明状態を判定し、ある正規化された値、例えば、前述の0〜1の目盛りの値などに変換し、かつ前で考察されたように地図情報200に記憶し得る。一例として、一部の駐車場は夜間の画像でははるかに暗くなるか「没した」状態になり、さらに一部の駐車場は依然としてかなり鮮明であり得る。
別の例として、周囲照明状態は、カメラの露出値を使用することによってリアルタイムで判定され得る。一例として、画像を捕捉する場合、知覚システム172のカメラは、周囲照明状態が与えられると、露出値を自動的に再較正することができる。この点について、露出値は、車両のカメラによって現在視認可能なエリアの明るさの代用と見なし得る。例えば、リアルタイムの露出値を使用し得、周囲照明状態を判定する。露出値が長いほど、シーンは暗くなり、つまり、周囲照明状態は低くなる(すなわち、前述の0〜1の目盛りで0に近くなる。同様に、露出値が短いほど、シーンは明るくなり、つまり、周囲照明状態は高くなる(すなわち、前述の0〜1の目盛りで1に近くなる。加えて、太陽が出ていない期間(すなわち、1年のうちの任意の所与の日の夕暮れから夜明けまで)の露出値を確認し、より明るい人工照明を示す短い露出時間のものを識別することができる。この場合も、この情報は、何らかの正規化された値、例えば、前述の0〜1の目盛りの値などに変換され、上で考察されたように地図情報に記憶され得る。
ほとんどの場合、車両の知覚システム172のカメラの位置および視野のために、これらの画像は、車両からある程度離れた駐車場所のものであり得る。車両の周囲照明状態に関するより詳細な情報を取得するために、車両の少なくとも一部(すなわち、目に見える車両パネル)を含む画像を分析に使用し得る。もちろん、画像を分析する場合、車両パネル部分は、照明状態を比較するための参照点として使用され得、周囲照明判定の精度を高める。
加えて、または代替的に、所与の駐車エリアの周囲照明状態は、履歴データから判定され得る。例えば、サーバコンピューティングデバイス410は、車両100および100Aのような車隊の様々な車両によって検出された周囲照明状態を識別するデータを、異なる時点における異なる場所で定期的に受信し得る。例えば、データは、所与の時点について上で考察されたように、車両の知覚システムによって収集された光センサまたはカメラ画像からのフィードバックを含み得る。加えて、または代替的に、データは、データを報告する車両のコンピューティングデバイスによる0〜1までの均等目盛りのような、所与の時点の周囲照明状態を表すいくつかの使用可能な正規化値を含み得る。上述したように、この情報は、記憶システム450に記憶され得る。サーバコンピューティングデバイス410は、周囲照明状態を含む地図データを生成するために、このデータを検索し得る。
所与の停止エリアの周囲照明状態データを生成するために、地図情報の停止場所の1つを識別し得る。その識別された停止場所に関連する任意のデータは、サーバコンピューティングデバイス410によって記憶システム450から検索され得る。次いで、この検索されたデータは、上述のように周囲照明状態を表す使用可能な正規化された値に変換され得る。次いで、これらの値は、「バケット化」されるか、またはデータに関連付けられた様々な時点に基づいて、複数のバケット、クラスタ、もしくは離散時間間隔の他のグループに配置され得る。各バケットは、午後4時〜午前9時まで30分および/または60分ごとのように、特定の特定期間または離散時間間隔に関連付けられ得る。バケットの端の近くで時々捕捉されたデータからの外れ値または値の下位への押し下げを削除するためのフィルタリングも使用され得る。データ量に応じて、これらのバケットは、異なる季節、月、または年間の特定日のような、年間の異なる時期にさらに分割され得る。これは、日照時間が年間を通して変化するため、特定の場所で特に役立つ場合があり得る。
次いで、複数のバケットおよび値が、周囲照明状態の地図を生成するために使用され得る。これには、各バケットの残りの値を平均化するか、そうでなければ、単一の使用可能な値に低減し(すなわち、前述のフィルタリングが実行される場合はポストフィルタリング)、さらに、この情報を識別された停止場所の地理的場所に関連付けることが含まれ得る。さらに、地図の生成は、図2Bに示されるような地図情報200および周囲照明状態の例などの、複数のバケットからの低減された値を以前の地図に組み込むことを含み得る。次いで、サーバコンピューティングデバイス410は、この情報を記憶システム450に記憶し得る。
次いで、サーバコンピューティングデバイス410は、複数のバケットへの更新および/または地図情報の任意の停止場所の低減された値を含む、車隊の車両への更新を定期的に送信し得る。以下でさらに考察されるように、これにより、自律型車両のコンピューティングデバイスが、周囲照明状態の履歴に基づいて、所定の停止場所で例えば、ピックアップまたはドロップオフするための停止駐車場所の識別することが可能となり得る。
周囲照明状態は、より良好な乗客のピックアップおよびドロップオフを容易にするために、任意の数の異なる方式で使用され得る。例えば、サーバコンピューティングデバイス410は、クライアントコンピューティングデバイス420のようなクライアントコンピューティングデバイスから、移動のための、より可能性のあるピックアップまたはドロップオフの場所を識別する要求を受信し得る。それに応じて、サーバコンピューティングデバイス410は、所定の駐車場所の1つを識別するために、記憶システム450の地図情報および周囲照明状態を使用し得る。例えば、ピックアップまたはドロップオフ場所への推定到着予想時刻が与えられると、サーバコンピューティングデバイスは、その到着予想時刻の周囲照明状態に対して、最大の低減された値を有する複数のバケットのうちの1つに関連付けられる停止場所を識別し得る。予想されるピックアップまたはドロップオフの時刻がバケット間である場合、情報の柔軟性と有用性を高めるために、2つのバケットの周囲照明状態を平均化し得る。
次いで、サーバコンピューティングデバイス410は、この識別された停止場所をクライアントコンピューティングデバイス420に送信し得る。加えて、サーバコンピューティングデバイス410はまた、識別された停止場所について予想される周囲照明状態を識別する通知を提供し得る。これは、ピックアップまたはドロップオフを手配しようとするユーザに、サーバコンピューティングデバイス410が特定の停止場所をなぜ提案しているかのより良好な理解を提供し得る。
加えて、または代替的に、1人以上の乗客または1つ以上の商品のピックアップまたはドロップオフを設定する場合の最良の選択を容易にするために、様々な近くの停止場所の周囲照明状態も提供され得る。ユーザには、どの場所で照明が最も明るいか、または提案された停止場所がユーザの選好、または以前のピックアップ場所もしくはドロップオフ場所と異なる理由を示す通知が提供され得る。ただし、場合によっては、周囲照明状態が「低すぎる」(すなわち、前述の0〜1のスケールで0に近い)と予想される一部の駐車場は、単に無視されるか(提案されない)、または単にユーザによる選択で使用され得ない。この点について、提案されたピックアップおよび/またはドロップオフ場所を選択したプロセスは、ピックアップまたはドロップオフが発生すると予想される時刻に応じて、照明が明るくない駐車場所よりも、より照明が明るい駐車場所を提案するようにバイアスされ得る。
図8は、コンピューティングデバイス110のプロセッサのような1つ以上のプロセッサによって実行され得る、周囲照明状態の地図を生成するためのいくつかの例のうちの一例のフロー図800を含む。この例では、ブロック810で、異なる時点における異なる場所での周囲照明状態を識別する1つ以上の車両によって生成されたデータを検索し得る。ブロック820で、異なる場所に基づいて車両用の所定の停止場所のセットのうちの1つを識別する。ブロック830で、データの少なくとも一部を、異なる時点および所定の停止場所のセットのうちの識別されたものに基づいて、複数のバケットに配置する。これらの各バケットは、特定の期間に関連付けられる。ブロック840にて、複数のバケットを使用して地図を生成する。
加えて、または代替的に、図6を参照して上述したように、車両が停止するのを試み、または駐車場所を探している最中に、コンピューティングデバイス110は、リアルタイムの観察に基づいて駐車場所にいくつかの小さな調整を行うことができ得る。例えば、新しい街路灯が設置されたり、古い街路灯が撤去されたりすると、周囲照明状態が変わり得る。この点について、コンピューティングデバイス110が自律運転モードでの車両を制御している間、これらのコンピューティングデバイスは、前述の技術によって、停止場所を観察しようと試み得る。この停止場所は、例えば、上で考察されたように移動を設定する場合に乗客によって選択され得、車両が派遣される場合にサーバコンピューティングデバイス410からコンピューティングデバイス110によって受信される場所であり得る。代替的に、この停止場所は、単に、車両の目的地に最も近い停止場所であり得、目的地は、車両が派遣される場合にサーバコンピューティングデバイス410から受信される。例えば、図7のマーカ710によって表される目的地が与えられると、停止場所は、停止場所282に対応する駐車場682であり得る。
この観察には、停止場所が利用可能(すなわち、別の車両または物体によって占有されていない)または利用不可能(占有されているか、そうでなければ利用可能ではない)であるか否かの観察が含まれ得る。加えて、または代替的に、この観察は、停止エリアの周囲照明状態の観察を含み得る。例えば、上で考察されたように、これには、車両のカメラによって捕捉された画像を使用することと、車両のカメラの露出値を使用することと、車両の光センサを使用することと、車両のヘッドライトの現在の状態を使用することと、車両の内部電子ディスプレイの現在の状態を使用することと、停止場所282での周囲照明状態を判定することなどが含まれ得る。
観察されたまたは「元の」停止場所が占有されている場合、および/または周囲照明状態が低い場合、例えば、前述の0〜1の目盛りで0.3の閾値を下回る場合、コンピューティングデバイス110は、新しい停止場所の周囲照明状態に基づいて、所定の停止場所の新しい停止場所を識別し得る。したがって、車両からある程度の距離にある新しい停止場所の周囲照明状態は、車両100のカメラによって捕捉されたカメラ画像から判定され得、車両における周囲照明状態は、上で考察されたようにカメラ画像および/または光センサから判定され得、および/または新しい停止場所の周囲照明状態もまた、地図情報から判定され得る。例えば、コンピューティングデバイス110は、この情報を使用し得、元の停止場所または目的地からのある所定の距離内のすべての停止場所の周囲照明状態、および/または最大の相対周囲照明状態を有する次の最も近い利用可能な停止場所を判定することができる。一例として、この所定の距離は、元の停止場所と新しい停止場所との間の、例えば5分以上またはそれ以下のような妥当な歩行距離であり得る。探索には、新しい停止場所が元の停止場所と同じ車線に沿っているなど、他の制限も有し得る。図6の例に戻ると、コンピューティングデバイスは、停止場所280および284の周囲照明状態を判定し得る。この例では、停止場所286および288は、マーカ710によって表される目的地から「遠すぎる」と見なされ得る。
コンピューティングデバイス110は、コスト分析を実行し得、より照明の明るい停止場所で車両を停止するために乗客がより長い距離を歩くことが「価値がある」のか否かを判定する。例えば、元の停止場所と、停止場所および/または最大の相対的周囲照明状態を有する次の最も近い利用可能な停止場所の所定の距離内の停止場所の各々と、の間の周囲照明状態における増加を、乗客が元の停止場所または目的地と新しい停止場所との間を歩かなければならない可能性のある追加の距離と比較し得る。例えば、停止場所280と停止場所282との間の距離(乗客が歩かなければならない追加の距離)は、停止場所280および停止場所282の周囲照明条件の増加と比較され得る。同様に、停止場所284と停止場所282との間の距離(乗客が歩かなければならない追加の距離)は、停止場所284および停止場所282の周囲照明状態の増加と比較され得る。
この分析は、元の停止場所が実際に占有されている場合、または元の停止状態についての周囲照明状態が非常に低い場合においては、例えば前述の0〜1の目盛りで0に非常に近い場合、車両が元の停止場所で停止することができないというように、わずかに異なり得る。このような場合、コスト分析により、異なる停止場所の周囲照明位置と距離を相互に比較してもよい。例えば、コンピューティングデバイス110は、停止場所284および280までの距離および周囲照明状態を比較してもよい。代替的に、所定の停止場所が他に1つしかない場合、例えば、284および280のうちの1つだけが利用可能である(すなわち、占有されていない)場合、コスト分析は完全に無視されてもよい。
加えて、または代替的に、乗客またはユーザ(商品のピックアップまたは配達の場合)乗客のモバイルデバイスまたは車両内のディスプレイまたは他のUI(ドロップオフの場合)の通知を介して、乗客が新しい停止場所を受諾するか拒否することを可能にするための1つ以上の選択肢が提供され得る。いずれの場合にも、新しい停止場所が識別され、コスト分析によりそれが価値があることと示され、および/または乗客が新しい停止場所を確認した場合、コンピューティングデバイス110は、自律運転モードにおいて、車両を制御し得、新しい停止場所で停止する。
加えて、前述の地図情報および地図情報のリアルタイムの判定はまた、他の目的のために使用され得る。例えば、車両が使用されていない場合、車両は駐車場所に駐車され得る。長期間または短期間に駐車する場合、乗客にサービスを提供していない場合でも、車両が不正使用され、または侵入される可能性を低減するために、照明の明るい場所に車両を駐車すると有効であり得る。この点について、周囲照明状態を使用して、そのような状況で車両を駐車するための好ましい場所を選択し得る。
図9は、コンピューティングデバイス110のプロセッサのような1つ以上のプロセッサによって実行され得る、1人以上の乗客または商品をピックアップまたはドロップオフするように停止するために、車両を制御するためのいくつかの例の例示的なフロー図900を含む。この例では、ブロック910で車両の停止場所を受信する。ブロック920で、車両は、停止場所に向かう自律運転モードで制御される。ブロック930で、自律運転モードでの車両を制御している間、停止場所を観察する。ブロック940で、新しい停止場所を、新しい停止場所の観察および周囲照明状態に基づいて識別する。ブロック950で、車両を自律運転モードで制御し、新しい停止場所で停止する。
ここで説明する機能は、照明の明るいエリアでピックアップおよびドロップオフするために自律型車両を停止することにより、快適性と安全性の観点からより良好な乗客体験を可能にし得る。履歴データを使用することにより、乗客は、(乗客または商品)の照明の明るいエリアでのピックアップおよびドロップオフを予め手配することができる。加えて、自律型車両にて収集したリアルタイムの情報を活用することによって、車両は状況の変化に対応し得る。最後に、周囲照明状態は、乗客にサービスを提供していない場合に、車両の安全性およびセキュリティを向上させるために、車両の駐車場所を識別するためにも使用し得る。
特段の記述がない限り、前述の代替的な例は、相互に排他的ではないが、独自の有益点を達成するために様々な組み合わせで実施し得る。上で考察された特徴のこれらおよび他の変形および組み合わせは、特許請求の範囲によって定義される主題から逸脱することなく利用することができるので、実施形態の前述の説明は、特許請求の範囲によって定義される主題を限定するのではなく、実例としてみなされるべきである。さらに、本明細書に記載された実施例、ならびに「など」、「含む」などと表現された語句の提供は、特許請求の範囲の主題を特定の実施例に限定するものと解釈されるべきではなく、むしろ、実施例は、多くの可能な実施形態のうちの1つだけを例示することが意図される。さらに、異なる図面中の同じ参照番号は、同じまたは類似の要素を特定することができる。

Claims (20)

  1. 周囲照明状態の地図を生成する方法であって、
    異なる時点における異なる場所での周囲照明状態を識別する1つ以上の車両によって生成されたデータを1つ以上のプロセッサによって検索することと、
    前記異なる場所に基づいて、車両用の所定の停止場所のセットのうちの1つを前記1つ以上のプロセッサによって識別することと、
    前記異なる時点および前記所定の停止場所のセットのうちの識別された1つに基づいて、前記データの少なくとも一部を、前記1つ以上のプロセッサによって配置することであって、各バケットが、特定の期間に関連付けられる、配置することと、
    前記複数のバケットを使用して、前記地図を前記1つ以上のプロセッサによって生成することと、を含む、方法。
  2. 前記地図を生成することが、前記複数のバケットを以前の地図に組み込むことを含む、請求項1に記載の方法。
  3. 自律型車両が、周囲照明状態の履歴に基づいて、前記所定の停止場所のセットのピックアップ停止場所を識別することを可能にするために、前記自律型車両のコンピューティングデバイスに前記複数のバケットを提供することをさらに含む、請求項1に記載の方法。
  4. 前記自律型車両が、周囲照明状態の履歴に基づいて、前記所定の停止場所のセットのドロップオフ停止場所を識別することを可能にするために、前記自律型車両のコンピューティングデバイスに前記複数のバケットを提供することをさらに含む、請求項1に記載の方法。
  5. クライアントコンピューティングデバイスから、移動のための1つ以上の可能なピックアップ場所を識別するための要求を受信することと、
    前記クライアントコンピューティングデバイスへの前記要求に応答して、前記複数のバケットのうちの少なくとも1つを使用して、所定の停止場所のセットのうちの1つを識別する情報を提供することと、をさらに含む、請求項1に記載の方法。
  6. 乗客が前記移動のためにピックアップされるであろう予想時刻に基づいて、前記複数のバケットのうちの前記少なくとも1つを選択することをさらに含む、請求項5に記載の方法。
  7. 前記クライアントコンピューティングデバイスへの前記要求に応答して、前記移動のために前記乗客がピックアップされるであろう前記予想時刻における前記複数のバケットのうちの前記少なくとも1つの周囲照明状態を識別する通知を提供することをさらに含む、請求項6に記載の方法。
  8. クライアントコンピューティングデバイスから、移動のための1つ以上の可能なドロップオフ場所を識別するための要求を受信することと、
    前記クライアントコンピューティングデバイスへの前記要求に応答して、前記複数のバケットのうちの少なくとも1つを使用して、所定の停止場所のセットのうちの1つを識別する情報を提供することと、をさらに含む、請求項1に記載の方法。
  9. 前記移動から乗客がドロップオフされるであろう予想時刻に基づいて、前記複数のバケットのうちの前記少なくとも1つを選択することをさらに含む、請求項8に記載の方法。
  10. 前記クライアントコンピューティングデバイスへの前記要求に応答して、前記移動のために前記乗客がドロップオフされるであろう前記予想時刻に前記複数のバケットのうちの前記少なくとも1つの周囲照明状態を識別する通知を提供することをさらに含む、請求項9に記載の方法。
  11. 車両を停止するために前記車両を制御する方法であって、
    前記車両の停止場所を1つ以上のプロセッサによって受信することと、
    自律運転モードで前記停止場所に向かう前記車両を前記1つ以上のプロセッサによって制御することと、
    前記自律運転モードでの前記車両を制御している間、前記停止場所を前記1つ以上のプロセッサによって観察することと、
    新しい停止場所の前記観察および周囲照明状態に基づいて、前記新しい停止場所を前記1つ以上のプロセッサによって識別することと、
    前記新しい停止場所で停止するために、前記自律運転モードでの前記車両を前記1つ以上のプロセッサによって制御することと、を含む、方法。
  12. 前記停止場所を観察することが、前記停止場所の周囲照明状態を判定することを含む、請求項11に記載の方法。
  13. 前記停止場所の前記周囲照明状態を判定することが、前記車両のカメラによって捕捉された画像に基づく、請求項12に記載の方法。
  14. 前記停止場所の前記周囲照明状態を判定することが、前記車両のカメラの露出値に基づく、請求項12に記載の方法。
  15. 前記停止場所の前記周囲照明状態を判定することが、前記車両の光センサに基づく、請求項12に記載の方法。
  16. 前記停止場所の前記周囲照明状態を判定することが、前記車両のヘッドライトの現在の状態に基づく、請求項12に記載の方法。
  17. 前記停止場所の前記周囲照明状態を判定することが、前記車両の内部ディスプレイの現在の状態に基づく、請求項12に記載の方法。
  18. 前記車両のカメラによって捕捉された画像に基づいて、前記新しい停止場所の前記周囲照明状態を判定することをさらに含む、請求項12に記載の方法。
  19. 前記新しい停止場所の周囲照明状態の履歴を識別する地図情報に基づいて、前記新しい停止場所の前記周囲照明状態を判定することをさらに含む、請求項12に記載の方法。
  20. 前記停止場所を観察することが、前記停止場所が現在利用不可能であることを判定することを含む、請求項11に記載の方法。
JP2021510448A 2018-09-07 2019-09-04 自律型車両のための周囲照明状態 Active JP7245320B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023037208A JP7550260B2 (ja) 2018-09-07 2023-03-10 自律型車両のための周囲照明状態

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/125,025 2018-09-07
US16/125,025 US11280625B2 (en) 2018-09-07 2018-09-07 Ambient lighting conditions for autonomous vehicles
PCT/US2019/049486 WO2020051203A1 (en) 2018-09-07 2019-09-04 Ambient lighting conditions for autonomous vehicles

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023037208A Division JP7550260B2 (ja) 2018-09-07 2023-03-10 自律型車両のための周囲照明状態

Publications (2)

Publication Number Publication Date
JP2022500732A true JP2022500732A (ja) 2022-01-04
JP7245320B2 JP7245320B2 (ja) 2023-03-23

Family

ID=69719087

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021510448A Active JP7245320B2 (ja) 2018-09-07 2019-09-04 自律型車両のための周囲照明状態
JP2023037208A Active JP7550260B2 (ja) 2018-09-07 2023-03-10 自律型車両のための周囲照明状態

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023037208A Active JP7550260B2 (ja) 2018-09-07 2023-03-10 自律型車両のための周囲照明状態

Country Status (6)

Country Link
US (3) US11280625B2 (ja)
EP (1) EP3826894A4 (ja)
JP (2) JP7245320B2 (ja)
KR (1) KR102479271B1 (ja)
CN (1) CN112867652B (ja)
WO (1) WO2020051203A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10825340B1 (en) * 2017-11-17 2020-11-03 State Farm Mutual Automotive Insurance Company Autonomous vehicle maneuver system for emergency vehicles and non-standard traffic flow
US10843728B2 (en) * 2019-01-31 2020-11-24 StradVision, Inc. Method and device for delivering steering intention of autonomous driving module or driver to steering apparatus of subject vehicle more accurately
JP7220587B2 (ja) * 2019-02-28 2023-02-10 本田技研工業株式会社 車両制御システム、車両制御方法、及びプログラム
US11480431B1 (en) * 2019-08-27 2022-10-25 Alarm.Com Incorporated Lighting adaptive navigation
WO2022116154A1 (zh) * 2020-12-04 2022-06-09 深圳市优必选科技股份有限公司 地图库建立方法、计算机设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015175694A (ja) * 2014-03-14 2015-10-05 パイオニア株式会社 情報取得装置および情報処理装置
JP2017174417A (ja) * 2016-03-25 2017-09-28 トヨタ自動車株式会社 道路シーン状況の理解および確実に共有するための道路シーン状況のセマンティック表現
US20180136656A1 (en) * 2016-11-14 2018-05-17 Lyft, Inc. Evaluating and Presenting Pick-Up and Drop-Off Locations in a Situational-Awareness View of an Autonomous Vehicle

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001206103A (ja) * 2000-01-27 2001-07-31 Nippon Seiki Co Ltd 車両用調光装置
KR100809342B1 (ko) * 2004-10-05 2008-03-05 삼성전자주식회사 조도기반 네비게이션 장치 및 방법
JP4914675B2 (ja) 2006-08-23 2012-04-11 クラリオン株式会社 車載用装置
CN104395156B (zh) 2012-07-03 2017-02-22 歌乐株式会社 车辆周围监视装置
US8825258B2 (en) * 2012-11-30 2014-09-02 Google Inc. Engaging and disengaging for autonomous driving
JP2014146125A (ja) 2013-01-28 2014-08-14 Aisin Aw Co Ltd 運転状態判定システム
US10534370B2 (en) * 2014-04-04 2020-01-14 Signify Holding B.V. System and methods to support autonomous vehicles via environmental perception and sensor calibration and verification
IL238473A0 (en) * 2015-04-26 2015-11-30 Parkam Israel Ltd A method and system for discovering and mapping parking areas
JP6537385B2 (ja) 2015-07-17 2019-07-03 日立オートモティブシステムズ株式会社 車載環境認識装置
US10023231B2 (en) 2015-08-12 2018-07-17 Madhusoodhan Ramanujam Parking autonomous vehicles
US10139828B2 (en) 2015-09-24 2018-11-27 Uber Technologies, Inc. Autonomous vehicle operated with safety augmentation
EP3371772A4 (en) 2015-11-04 2019-05-01 Zoox, Inc. SOFTWARE APPLICATION FOR REQUEST AND CONTROL OF A SERVICE OF AUTONOMOUS VEHICLES
US9651390B1 (en) * 2016-02-25 2017-05-16 Here Global B.V. Mapping road illumination
US20170267233A1 (en) * 2016-03-15 2017-09-21 Cruise Automation, Inc. Method for autonomous vehicle parking
CN105931488A (zh) * 2016-06-23 2016-09-07 吕红芳 一种车库系统及相关设备、方法
JP6827758B2 (ja) * 2016-10-12 2021-02-10 東芝映像ソリューション株式会社 移動式アシスト装置及び移動式アシスト方法
US9963106B1 (en) * 2016-11-07 2018-05-08 Nio Usa, Inc. Method and system for authentication in autonomous vehicles
US10613537B2 (en) * 2016-12-31 2020-04-07 Lyft Inc. Autonomous vehicle pickup and drop-off management
US10793013B2 (en) 2017-01-27 2020-10-06 Toyota Motor Engineering & Manufacturing North America, Inc. Automatic timer cancellation for charging vehicle
JP6787243B2 (ja) * 2017-04-28 2020-11-18 トヨタ自動車株式会社 画像送信プログラム、画像送信方法、車載器、車両、及び画像処理システム
KR101862994B1 (ko) 2017-05-26 2018-05-30 국방과학연구소 자율차량을 위한 정지선 검출 방법
WO2019065697A1 (ja) 2017-09-28 2019-04-04 パイオニア株式会社 車両制御装置
US10434935B1 (en) * 2018-06-29 2019-10-08 Nissan North America, Inc. Interactive external vehicle-user communication
CN110400091A (zh) * 2019-07-31 2019-11-01 珠海格力电器股份有限公司 一种车辆调度方法、装置、计算设备及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015175694A (ja) * 2014-03-14 2015-10-05 パイオニア株式会社 情報取得装置および情報処理装置
JP2017174417A (ja) * 2016-03-25 2017-09-28 トヨタ自動車株式会社 道路シーン状況の理解および確実に共有するための道路シーン状況のセマンティック表現
US20180136656A1 (en) * 2016-11-14 2018-05-17 Lyft, Inc. Evaluating and Presenting Pick-Up and Drop-Off Locations in a Situational-Awareness View of an Autonomous Vehicle

Also Published As

Publication number Publication date
EP3826894A4 (en) 2022-08-24
JP7245320B2 (ja) 2023-03-23
KR102479271B1 (ko) 2022-12-21
CN112867652B (zh) 2024-08-23
US20200080855A1 (en) 2020-03-12
US20240003710A1 (en) 2024-01-04
US20220221288A1 (en) 2022-07-14
US11747167B2 (en) 2023-09-05
CN112867652A (zh) 2021-05-28
JP2023078250A (ja) 2023-06-06
JP7550260B2 (ja) 2024-09-12
US11280625B2 (en) 2022-03-22
WO2020051203A1 (en) 2020-03-12
EP3826894A1 (en) 2021-06-02
KR20210041106A (ko) 2021-04-14

Similar Documents

Publication Publication Date Title
US20220229436A1 (en) Real-time lane change selection for autonomous vehicles
AU2022200422B2 (en) Communications for autonomous vehicles
US11747167B2 (en) Ambient lighting conditions for autonomous vehicles
US10960894B2 (en) Automated performance checks for autonomous vehicles
US11804136B1 (en) Managing and tracking scouting tasks using autonomous vehicles
US20210053567A1 (en) Identifying pullover regions for autonomous vehicles
US20220107650A1 (en) Providing deliveries of goods using autonomous vehicles
US20240075959A1 (en) Yellow light durations for autonomous vehicles
US11884291B2 (en) Assigning vehicles for transportation services

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230310

R150 Certificate of patent or registration of utility model

Ref document number: 7245320

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150