JPWO2020185665A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2020185665A5
JPWO2020185665A5 JP2021550045A JP2021550045A JPWO2020185665A5 JP WO2020185665 A5 JPWO2020185665 A5 JP WO2020185665A5 JP 2021550045 A JP2021550045 A JP 2021550045A JP 2021550045 A JP2021550045 A JP 2021550045A JP WO2020185665 A5 JPWO2020185665 A5 JP WO2020185665A5
Authority
JP
Japan
Prior art keywords
vehicle
user
computing device
model
communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021550045A
Other languages
Japanese (ja)
Other versions
JP7399179B2 (en
JP2022523937A (en
Publication date
Priority claimed from US16/351,124 external-priority patent/US10696222B1/en
Application filed filed Critical
Publication of JP2022523937A publication Critical patent/JP2022523937A/en
Publication of JPWO2020185665A5 publication Critical patent/JPWO2020185665A5/ja
Priority to JP2023205042A priority Critical patent/JP2024028843A/en
Application granted granted Critical
Publication of JP7399179B2 publication Critical patent/JP7399179B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

関連出願の相互参照
本出願は、2019年3月12日に出願された米国出願第16/351,124号の利益を主張し、その開示は参照により本明細書に組み込まれる。
CROSS-REFERENCE TO RELATED APPLICATIONS This application claims the benefit of US Application No. 16/351,124, filed March 12, 2019, the disclosure of which is incorporated herein by reference.

人間の運転者を必要としない車両などの自律車両が、ある場所から別の場所への乗客または物品の輸送を支援するために使用される場合がある。かかる車両は、乗客がピックアップ場所または目的地などの何らかの初期入力を提供することができ、かつ車両がその場所まで車両自体を操縦する、完全な自律モードで動作し得る。 Autonomous vehicles, such as vehicles that do not require a human driver, may be used to help transport passengers or goods from one location to another. Such vehicles may operate in a fully autonomous mode in which the passenger may provide some initial input such as a pick-up location or destination, and the vehicle steers itself to that location.

人(またはユーザ)は、車両を介して2つの場所の間で物理的に輸送されることを望むとき、任意の数のタクシーサービスを使用し得る。現在に至るまで、これらのサービスは通常、ユーザをピックアップおよびドロップオフする場所への配車命令が与えられる人間の運転者を伴う。概して、これらの場所は、身体的な合図(すなわち、手を挙げて運転者を停止させること)、ユーザが実際にどこにいるかを説明する電話、または運転者とユーザとの間の直接の話し合いを介して分かる。これらのサービスは便利であるが、通常、ピックアップまたはドロップオフが発生する場所に関する正確な情報をユーザに提供することはできない。 A person (or user) may use any number of taxi services when they wish to be physically transported between two locations via a vehicle. To date, these services typically involve a human driver who is given dispatch instructions to the location to pick up and drop off the user. Generally, these locations require physical cues (i.e., raising your hand to stop the driver), a phone call explaining where the user is actually located, or a direct discussion between the driver and the user. understand through. While these services are convenient, they typically cannot provide users with precise information as to where pick-up or drop-off will occur.

本開示の態様は、自律車両からユーザへの伝達を容易にする方法を提供する。この方法は、ユーザをピックアップしようとしている間、ユーザが自律車両に入る前に、車両の1つ以上のプロセッサによって、車両の現在位置および地図情報をモデルに入力することと、モデルを使用して、車両の位置をユーザに伝達するための伝達アクションのタイプを特定することと、1つ以上のプロセッサによって、伝達アクションのタイプに基づいて第1の伝達を有効にすることと、第1の伝達を有効にした後、1つ以上のプロセッサによって、ユーザが受信したセンサデータから車両に向かって移動しているかどうかを判定することと、を含む。 Aspects of the present disclosure provide a method for facilitating communication from an autonomous vehicle to a user. The method comprises inputting the vehicle's current location and map information into a model by one or more processors of the vehicle before the user enters the autonomous vehicle while attempting to pick the user up; , identifying a type of transmission action for communicating the location of the vehicle to the user; enabling, by one or more processors, a first transmission based on the type of transmission action; determining, by one or more processors, whether the user is moving toward the vehicle from the received sensor data after enabling .

一例では、伝達アクションのタイプは、車両による聴覚的伝達を自動的に生成することであり、第1の伝達を可能にすることは、聴覚的伝達を行うように車両に指示することを含む。この例では、第1の伝達は、車両のクラクションを鳴らすことである。別の例では、伝達アクションのタイプは、ユーザが車両に聴覚的伝達を生成させることを可能にするために、ユーザのクライアントコンピューティングデバイス上にオプションを自動的に表面化することである。別の例では、伝達アクションのタイプは、車両による視覚的伝達を自動的に生成することであり、第1の伝達を可能にすることは、車両が視覚的伝達を行うことを含む。この例では、第1の伝達は、車両のヘッドライトを点滅させることである。別の例では、伝達アクションのタイプは、ユーザが車両に視覚的伝達を生成させることを可能にするために、ユーザのクライアントコンピューティングデバイス上にオプションを自動的に表面化させることである。別の例では、受信されたセンサデータは、ユーザのクライアントコンピューティングデバイスによって生成された位置情報を含む。別の例では、受信されたセンサデータは、車両の知覚システムによって生成されたデータを含み、知覚システムは、少なくとも1つのセンサを含む。別の例では、この方法はまた、エスカレートされた伝達のモデルを使用して、第2の伝達のための伝達アクションのタイプを決定することと、1つ以上のプロセッサによって、ユーザが車両に向かって移動しているかどうかの決定に基づいて第2の伝達を可能にすることと、を含み、第2の伝達のための伝達アクションのタイプは、第2の伝達を可能にするためにさらに使用される。この例では、第2の伝達のための伝達アクションのタイプは、ユーザのクライアントコンピューティングデバイス上にオプションを自動的に表面化して、ユーザが車両に聴覚的伝達を生成させることを可能にすることである。代替的に、第2の伝達のための伝達アクションのタイプは、ユーザのクライアントコンピューティングデバイス上のオプションを自動的に表面化して、ユーザが車両に視覚的伝達を生成させることを可能にすることである。別の例では、第1の伝達は、車両が自動的にそのライトを点滅させることを含み、第2の伝達は、車両が車両のクラクションを自動的に鳴らすことを含む。別の例では、第1の伝達は、車両が車両のクラクションを自動的に鳴らすことを含み、第2の伝達は、車両が顧客サービス担当者にユーザのクライアントコンピューティングデバイスに接続するように自動的に要求することを含む。別の例では、モデルは、機械学習モデルである。 In one example, the type of transmission action is automatically generating an audible transmission by the vehicle, and enabling the first transmission includes instructing the vehicle to make the audible transmission . In this example, the first transmission is to honk the vehicle. In another example, the type of communication action is to automatically surface an option on the user's client computing device to allow the user to cause the vehicle to generate an audible communication . In another example, the type of communication action is automatically generating a visual communication with the vehicle, and enabling the first communication includes the vehicle performing the visual communication . In this example, the first transmission is to flash the vehicle's headlights. In another example, a type of communication action is to automatically surface an option on the user's client computing device to allow the user to cause the vehicle to generate a visual communication . In another example, the received sensor data includes location information generated by the user's client computing device. In another example, the received sensor data includes data generated by the vehicle's sensory system, the sensory system including at least one sensor. In another example, the method also includes using the model of the escalated transfer to determine a type of transfer action for the second transfer ; and enabling a second transmission based on the determination of whether the second transmission is moving, wherein the type of transmission action for the second transmission is further used to enable the second transmission . be done. In this example, the type of communication action for the second communication is to automatically surface an option on the user's client computing device to allow the user to cause the vehicle to generate an audible communication . is. Alternatively, the type of communication action for the second communication may automatically surface an option on the user's client computing device to allow the user to have the vehicle generate the visual communication . is. In another example, the first transmission includes the vehicle automatically flashing its lights and the second transmission includes the vehicle automatically honking its horn. In another example, the first transmission includes the vehicle automatically honking the vehicle's horn, and the second transmission automatically causes the vehicle to contact a customer service representative to the user's client computing device. including requesting In another example, the model is a machine learning model.

本開示の別の態様は、自律車両からユーザへの伝達を容易にするためのモデルを訓練する方法を提供する。この方法は、1つ以上のコンピューティングデバイスによって、車両の位置を示す第1の訓練入力、地図情報を示す第2の訓練入力、ユーザの位置を示す第3の訓練入力、車両の環境内の1つ以上のオブジェクトを特定するセンサデータを特徴付ける第4の訓練入力、および伝達のタイプを示すターゲット出力を含む訓練データを受信することと、モデルのパラメータの現在の値に従って訓練データ上で、1つ以上のコンピューティングデバイスによって、モデルを訓練して、伝達のタイプに対する適切性のレベルを示す出力値のセットを生成することと、ターゲット出力と出力値のセットを使用して差分値を決定することと、差分値を使用して、モデルのパラメータの現在の値を調整することと、を含む。 Another aspect of the disclosure provides a method of training a model to facilitate communication from an autonomous vehicle to a user. The method comprises, by one or more computing devices, a first training input indicative of a vehicle location, a second training input indicative of map information, a third training input indicative of a user's location; receiving training data including a fourth training input characterizing sensor data identifying one or more objects and a target output indicating a type of transfer ; one or more computing devices to train a model to produce a set of output values that indicate a level of adequacy for the type of transmission , and using the target output and the set of output values to determine a difference value and using the difference value to adjust the current value of the parameter of the model.

一例では、訓練データは、ユーザと通信するために車両に伝達のタイプを実行させるようにするユーザによる要求に対応する。別の例では、伝達のタイプは、聴覚的伝達である。別の例では、伝達のタイプは、視覚的伝達である。別の例では、訓練データは、周囲照明状態をさらに含む。 In one example, the training data corresponds to a request by a user to have the vehicle perform a type of transmission to communicate with the user. In another example, the type of transmission is auditory transmission . In another example, the type of communication is visual communication . In another example, the training data further includes ambient lighting conditions.

例示的な実施形態による例示的な車両の機能図である。1 is a functional diagram of an exemplary vehicle, in accordance with an exemplary embodiment; FIG. 本開示の態様による地図情報の一例である。1 is an example of map information according to aspects of the present disclosure; 本開示の態様にかかる車両の例示的な外観図である。1 is an exemplary exterior view of a vehicle in accordance with aspects of the present disclosure; FIG. 本開示の態様による例示的なシステムのイラスト図である。1 is an illustration of an exemplary system in accordance with aspects of the present disclosure; FIG. 本開示の態様による図4のシステムの機能図である。5 is a functional diagram of the system of FIG. 4, in accordance with aspects of the present disclosure; FIG. 本開示の態様によるクライアントコンピューティングデバイスおよび表示されたオプションの例である。1 is an example of a client computing device and displayed options in accordance with aspects of the present disclosure; 本開示の態様によるクライアントコンピューティングデバイスおよび表示されたオプションの例である。1 is an example of a client computing device and displayed options in accordance with aspects of the present disclosure; 本開示の態様によるクライアントコンピューティングデバイスおよび表示されたオプションの例である。1 is an example of a client computing device and displayed options in accordance with aspects of the present disclosure; 本開示の態様による地図情報の例である。4 is an example of map information in accordance with aspects of the present disclosure; 本開示の態様による地図情報の例である。4 is an example of map information in accordance with aspects of the present disclosure; 本開示の態様による例示的なフロー図である。FIG. 4 is an exemplary flow diagram in accordance with aspects of the present disclosure;

概要
この技術は、聴覚的および/または視覚的伝達を使用する自律車両の乗客(もしくはユーザ)または貨物のピックアップとドロップオフ、あるいは実際には歩行者が車両に到達する必要があるあらゆる状況を容易にすることに関連する。多くの状況では、自律車両には、人と通信して、人が車両または正しいドロップオフ位置を見つけること(つまり、ピックアップのために)を助けることができる人間の運転手がいない。そのため、自律車両は、様々な聴覚的および/または視覚的伝達を使用して、有用かつ効果的な方法で人との通信を事前に試みることができる。例えば、モデルは、車両がいつ人に聴覚的および/または視覚的伝達を提供すべきか、および/またはその人がそうするためのオプションを表面化するかどうかを決定できるようにするために生成され得る。
Overview This technology facilitates the pick-up and drop-off of passengers (or users) or cargo in autonomous vehicles using auditory and/or visual communication , or indeed any situation where pedestrians need to reach the vehicle. related to making In many situations, autonomous vehicles do not have human drivers who can communicate with humans to help them find the vehicle or the correct drop-off location (ie, for pickup). As such, autonomous vehicles can use various auditory and/or visual transmissions to proactively attempt to communicate with humans in a useful and effective manner. For example, a model may be generated to allow the vehicle to determine when to provide an audible and/or visual communication to a person and/or whether the person surfaces options for doing so. .

モデルを生成するために、人は、例えば、人のコンピューティングデバイス(例えば、携帯電話または他のクライアントコンピューティングデバイス)上のアプリケーションを介して、車両に聴覚的伝達を提供させるオプションを提供され得る。その人がオプションを使用すると、このデータが記録される場合がある。オプションが使用されるたびに、車両に伝達を行わせるメッセージが車両に提供され得る。このメッセージには、要求が生成された日時、行われる伝達のタイプ、および人の位置などの情報が含まれ得る。このメッセージおよび他の情報はまた、例えば、車両および/またはクライアントコンピューティングデバイスによって、サーバコンピューティングシステムに送信され得る。 To generate the model, the person may be provided with the option to have the vehicle provide auditory communication , for example, via an application on the person's computing device (e.g., cell phone or other client computing device). . This data may be recorded when the person uses the option. Each time an option is used, a message may be provided to the vehicle that causes the vehicle to communicate . This message may include information such as the date and time the request was generated, the type of transmission being made, and the location of the person. This message and other information may also be sent to the server computing system, for example, by the vehicle and/or the client computing device.

次に、メッセージおよび他の情報は、車両のコンピューティングデバイスが人よりよく通信できるようにするためのモデルを生成するために、サーバコンピューティングデバイスによって処理され得る。例えば、特定のタイプの伝達が適切かどうかを示すようにモデルを訓練してもよい。そうである場合、伝達のタイプは、人のクライアントコンピューティングデバイス上のアプリケーションのオプションとして利用可能にされ、および/または車両のコンピューティングデバイスによって自動的に生成され得る。 The messages and other information may then be processed by the server computing device to generate models for enabling the vehicle's computing devices to better communicate with people. For example, a model may be trained to indicate whether a particular type of transmission is appropriate. If so, the type of transmission may be made available as an option of an application on the person's client computing device and/or automatically generated by the vehicle's computing device.

モデルを訓練するために、人の位置、他の情報、および地図情報を訓練入力として使用することができ、(メッセージからの)伝達のタイプを訓練出力として使用することができる。モデルの訓練に使用される訓練データが多いほど、伝達を提供するタイミングまたは伝達を提供するオプションを決定する際のモデルの精度が高くなる。モデルは、視覚的伝達が適切である状況と聴覚的伝達が適切である状況を区別するように訓練することができる。 To train the model, the person's location, other information, and map information can be used as training input, and the type of transmission (from the message) can be used as training output. The more training data that is used to train the model, the more accurate the model will be in determining when to provide transmissions or options to provide transmissions . The model can be trained to distinguish between situations in which visual communication is appropriate and situations in which auditory communication is appropriate.

場合によっては、利用可能な訓練データの量に応じて、モデルを特定の目的で訓練することができる。例えば、モデルは、サービスを用いる人またはグループの履歴の特性に基づいて、特定の人または人のグループのために訓練されてもよい。 In some cases, a model can be trained for a specific purpose, depending on the amount of training data available. For example, a model may be trained for a particular person or group of people based on characteristics of the person or group's history of using the service.

次いで、訓練されたモデルは、1つ以上の車両のコンピューティングデバイスが、人より良好な通信を行うことを可能にするために、それらの車両に提供され得る。車両がピックアップまたはドロップオフの位置に接近または待機しているとき、車両のコンピューティングデバイス110は、モデルを使用して、伝達が適切であるかどうか、そうである場合はどのタイプであるかを決定することができる。これは、例えば、車両の環境に基づいて、人(または乗客の可能性がある)が車両に対して明確な視線を持っているかどうか、またはその逆に応じて、行うことができる。 The trained model can then be provided to vehicles to enable one or more of the vehicle's computing devices to better communicate with humans. As the vehicle approaches or waits at a pickup or drop-off location, the vehicle's computing device 110 uses the model to determine if the transfer is appropriate, and if so, what type. can decide. This can be done, for example, depending on whether a person (or possible passenger) has a clear line of sight to the vehicle, or vice versa, based on the environment of the vehicle.

一態様では、モデルを使用して、上記で説明したオプションをアプリケーションで表面化する必要があるかどうかを判定してもよい。加えて、モデルの出力が、視覚的伝達が聴覚的伝達よりも適切であることを示している場合、表面化されたオプションは視覚的伝達のみを許可する場合がある。同様に、モデルの出力が、聴覚的伝達が視覚的伝達よりも適切であることを示している場合、表面化されたオプションは視覚的伝達のみを許可する場合がある。別の態様では、聴覚的または視覚的伝達のためのオプションをユーザに提供するのではなく、モデルを使用して、車両が自動的に聴覚的または視覚的伝達を行うべきかどうかを判定することができる。加えて、または代替的に、モデルの出力を使用して、初期アクションを決定してもよく、後続のアクションは、初期アクションに応じて自動的に実行されてもよい。 In one aspect, the model may be used to determine if the options described above should be surfaced in the application. Additionally, if the output of the model indicates that visual communication is more appropriate than auditory communication , the options surfaced may only allow visual communication . Similarly, if the model's output indicates that auditory communication is more appropriate than visual communication , the options surfaced may only allow visual communication . In another aspect, rather than providing the user with options for auditory or visual communication , the model is used to determine whether the vehicle should automatically perform auditory or visual communication . can be done. Additionally or alternatively, the output of the model may be used to determine initial actions, and subsequent actions may be automatically performed in response to the initial actions.

後続のアクションに対するユーザの応答を使用して、エスカレートされた伝達のモデルを構築してもよい。例えば、後続のアクションが使用された各状況について、結果を追跡してもよい。次に、この情報を分析して、ユーザが車両伝達に応答してより迅速に車両に入る可能性を高めるパターンを特定することができる。エスカレートされた伝達のモデルは、前のまたは最初のアクションに基づいて、ユーザが車両に到達するのを最も容易にするために次のアクションがどうあるべきかを決定するように訓練され得る。繰り返すが、モデルの訓練に使用される訓練データが多いほど、モデルは前のアクションからエスカレートする方法をより正確に決定する。第1のモデルと同様に、エスカレートされた伝達の訓練されたモデルは、それらの車両のコンピューティングデバイスが潜在的な乗客を含む人とよりよく通信できるようにするために、1つ以上の車両に提供され得る。 User responses to subsequent actions may be used to build a model of escalated communication . For example, results may be tracked for each situation in which a subsequent action was used. This information can then be analyzed to identify patterns that increase the likelihood that the user will enter the vehicle more quickly in response to the vehicle transmission . A model of escalated communication can be trained to determine what the next action should be to make it easiest for the user to reach the vehicle, based on previous or initial actions. Again, the more training data used to train the model, the more accurately the model determines how to escalate from previous actions. Similar to the first model, a trained model of escalated transmission is used in one or more vehicles to enable the computing devices in those vehicles to better communicate with people, including potential passengers. can be provided to

本明細書に記載の特徴は、自律車両が乗客のピックアップおよびドロップオフを改善することを可能にし得る。例えば、ユーザは、自分自身で、または表面化されたオプションを使用するように促すことによって、車両がユーザと視覚的および/または聴覚的に伝達するようにすることができる。これにより、ユーザが車両の位置をより容易に特定できる。加えて、または代替的に、車両はモデルを使用して、ユーザと通信するかどうか、および伝達する方法、ならびに時間の経過とともにそれらの伝達をエスカレートする方法を事前に決定してもよい。 The features described herein may enable autonomous vehicles to improve passenger pick-up and drop-off. For example, the user may have the vehicle visually and/or audibly communicate with the user, either by themselves or by prompting them to use surfaced options. This allows the user to more easily identify the position of the vehicle. Additionally or alternatively, the vehicle may use the model to pre-determine if and how to communicate with the user and how to escalate those communications over time.

例示的なシステム
図1に示されるように、本開示の一態様による車両100は、様々な構成要素を含む。本開示のいくつかの態様は、特定のタイプの車両に関連して特に有用であるが、車両は、自動車、トラック、オートバイ、バス、レクリエーション車両などを含むがこれらに限定されない任意のタイプの車両であってもよい。車両は、1つ以上のコンピューティングデバイス、例えば、1つ以上のプロセッサ120、メモリ130、および汎用コンピューティングデバイスに典型的に存在する他の構成要素を含むコンピューティングデバイス110を有し得る。
Exemplary System As shown in FIG. 1, a vehicle 100 according to one aspect of the present disclosure includes various components. Some aspects of the present disclosure are particularly useful in connection with certain types of vehicles, although vehicles of any type include, but are not limited to, automobiles, trucks, motorcycles, buses, recreational vehicles, and the like. may be A vehicle may have one or more computing devices, such as computing device 110, which includes one or more processors 120, memory 130, and other components typically found in general purpose computing devices.

メモリ130は、1つ以上のプロセッサ120によってアクセス可能である情報を記憶し、その情報には、プロセッサ120によって実行または別様に使用され得る命令134およびデータ132が含まれる。メモリ130は、プロセッサによってアクセス可能である情報を記憶することができる任意のタイプのメモリであってもよく、それには、コンピューティングデバイス可読媒体、またはハードドライブ、メモリカード、ROM、RAM、DVD、もしくは他の光ディスク、ならびに他の書き込み可能および読出し専用メモリなどの電子デバイスを用いて読み取ることができるデータを記憶する他の媒体が含まれる。システムおよび方法は、上記の異なる組み合わせを含んでもよく、それによって、命令およびデータの様々な部分が、様々なタイプの媒体に記憶される。 Memory 130 stores information accessible by one or more processors 120 , including instructions 134 and data 132 that may be executed or otherwise used by processors 120 . Memory 130 may be any type of memory capable of storing information that is accessible by the processor, including computing device readable media, or hard drives, memory cards, ROM, RAM, DVD, or other media that store data that can be read with electronic devices such as other optical discs and other writable and read-only memories. Systems and methods may include different combinations of the above, whereby different portions of instructions and data are stored on different types of media.

命令134は、プロセッサにより直接的に(マシンコードなど)または間接的に(スクリプトなど)実行される任意の一連の命令であってもよい。例えば、命令は、コンピューティングデバイス可読媒体上のコンピューティングデバイスコードとして記憶されてもよい。その点について、「命令」および「プログラム」という用語は、本明細書では、互換的に使用され得る。命令は、プロセッサによる直接処理のためのオブジェクトコード形式で、または要求に応じて解釈されるか、もしくは予めコンパイルされるスクリプトもしくは独立したソースコードモジュールの集合を含む、任意の他のコンピューティングデバイス言語で記憶されてもよい。命令の機能、方法、およびルーチンについては、以下にさらに詳細に説明される。 Instructions 134 may be any sequence of instructions that are executed directly (such as machine code) or indirectly (such as scripts) by a processor. For example, the instructions may be stored as computing device code on a computing device readable medium. In that regard, the terms "instructions" and "programs" may be used interchangeably herein. The instructions may be in object code form for direct processing by the processor, or any other computing device language, including scripts or collections of independent source code modules that are interpreted on demand or precompiled. may be stored in The functions, methods and routines of the instructions are described in further detail below.

データ132は、命令134に従ってプロセッサ120によって検索、記憶、または修正されてもよい。例えば、特許請求された主題は、いかなる特定のデータ構造にも限定されないが、データは、コンピューティングデバイスレジスタ内、複数の異なるフィールドおよびレコードを有する表、XMLドキュメント、またはフラットファイルとしてリレーショナルデータベース内に記憶されてもよい。データはまた、任意のコンピューティングデバイス可読形式でフォーマットされてもよい。 Data 132 may be retrieved, stored, or modified by processor 120 according to instructions 134 . For example, although claimed subject matter is not limited to any particular data structure, data may reside in computing device registers, tables with multiple different fields and records, XML documents, or as flat files in relational databases. may be stored. The data may also be formatted in any computing device readable format.

1つ以上のプロセッサ120は、市販されているCPUまたはGPUなどの任意の従来のプロセッサであってもよい。代替的に、1つ以上のプロセッサは、ASICまたは他のハードウェアベースプロセッサなどの専用デバイスであり得る。図1は、プロセッサ、メモリ、およびコンピューティングデバイス110の他の要素を同じブロック内にあるものとして機能的に例示しているが、プロセッサ、コンピューティングデバイス、またはメモリは、実際には、同じ物理的な筐体内に格納されていてもいなくてもよい複数のプロセッサ、コンピューティングデバイス、またはメモリを含むことができることは、当業者により、理解されるであろう。例えば、メモリは、ハードドライブ、またはコンピューティングデバイス110の筐体とは異なる筐体内に配置された他のストレージ媒体であってもよい。したがって、プロセッサまたはコンピューティングデバイスへの言及は、並列に動作してもしなくてもよいプロセッサまたはコンピューティングデバイスまたはメモリの集合への言及を含むことが理解されよう。 The one or more processors 120 may be any conventional processor such as a commercially available CPU or GPU. Alternatively, one or more processors may be dedicated devices such as ASICs or other hardware-based processors. Although FIG. 1 functionally illustrates the processor, memory, and other elements of computing device 110 as being in the same block, the processor, computing device, or memory may actually be in the same physical block. It will be appreciated by those skilled in the art that it may include multiple processors, computing devices, or memories that may or may not be housed within a single enclosure. For example, the memory may be a hard drive or other storage medium located within a different housing than the housing of computing device 110 . Thus, reference to a processor or computing device will be understood to include reference to a collection of processors or computing devices or memories that may or may not operate in parallel.

コンピューティングデバイス110は、上述したプロセッサおよびメモリ、ならびにユーザ入力装置150(例えば、マウス、キーボード、タッチスクリーン、および/またはマイクロフォン)および様々な電子ディスプレイ(例えば、スクリーンを有するモニタ、または情報を表示するように動作可能である任意の他の電気デバイス)などの、コンピューティングデバイスと接続して通常使用されるすべての構成要素を含み得る。この例では、車両は、情報または視聴覚体験を提供するために、電子ディスプレイ152のみならず1つ以上のスピーカ154を含む。この点について、電子ディスプレイ152は、車両100の車内に位置していてもよく、コンピューティングデバイス110によって使用されて、車両100内の乗客に情報を提供してもよい。場合によっては、電子ディスプレイ152は、車両の窓または他の透明な車両筐体を通して車両の外の人に見える内部ディスプレイであり得、および/または窓または他の透明な車両筐体を通して画像を投影することができ、車両の外の人に情報を提供してもよい。代替的に、電子ディスプレイ152は、車両内の乗客に情報を投影することができる外部取り付けディスプレイ(すなわち、ガラス屋根を通して表示できるルーフポッドの下側)および/または車両の外の人に情報を提供する外部取り付けディスプレイであってもよい。 Computing device 110 includes a processor and memory as described above, as well as user input devices 150 (e.g., mouse, keyboard, touch screen, and/or microphone) and various electronic displays (e.g., monitor having a screen or display of information). may include all components normally used in connection with a computing device, such as any other electrical device operable to In this example, the vehicle includes an electronic display 152 as well as one or more speakers 154 to provide information or an audiovisual experience. In this regard, electronic display 152 may be located within vehicle 100 and may be used by computing device 110 to provide information to passengers within vehicle 100 . In some cases, electronic display 152 may be an internal display that is visible to a person outside the vehicle through a vehicle window or other transparent vehicle enclosure and/or projects an image through a window or other transparent vehicle enclosure. and may provide information to persons outside the vehicle. Alternatively, the electronic display 152 can be an externally mounted display that can project information to passengers inside the vehicle (i.e., under the roof pod that can be viewed through the glass roof) and/or provide information to persons outside the vehicle. It may be an externally mounted display that

コンピューティングデバイス110はまた、1つ以上のワイヤレスネットワーク接続156も含むことにより、以下に詳細に説明するクライアントコンピューティングデバイスおよびサーバコンピューティングデバイスなどの他のコンピューティングデバイスと容易に通信することができる。無線ネットワーク接続には、Bluetooth、Bluetoothローエネルギー(LE)、携帯電話接続などの短距離通信プロトコル、ならびにインターネット、World Wide Web、イントラネット、仮想プライベートネットワーク、ワイドエリアネットワーク、ローカルネットワーク、1つ以上の企業に専用の通信プロトコルを使用するプライベートネットワーク、イーサネット、WiFi、およびHTTPを含む様々な構成およびプロトコル、ならびに上記の様々な組み合わせが含まれ得る。 Computing device 110 also includes one or more wireless network connections 156 to facilitate communication with other computing devices, such as the client and server computing devices described in detail below. . Wireless network connections include short-range communication protocols such as Bluetooth, Bluetooth low energy (LE), cellular connections, as well as the Internet, World Wide Web, intranets, virtual private networks, wide area networks, local networks, one or more businesses. Various configurations and protocols including private networks using proprietary communication protocols, Ethernet, WiFi, and HTTP, and various combinations of the above may be included.

一例では、コンピューティングデバイス110は、車両100に組み込まれた自律運転コンピューティングシステムの伝達システムの一部であってもよい。これに関して、伝達システムは、聴覚的伝達がスピーカ154を通して再生されるようにする信号を送信するように含まれ得るか、または構成され得る。伝達システムはまた、例えば、車両のヘッドライト350、352(図3に示される)を点滅させるか、さもなければ制御することによって、または内部電子ディスプレイ152上に情報を表示することによって、視覚的伝達が行われるようにする信号を送信するように構成され得る。 In one example, computing device 110 may be part of a communication system of an autonomous driving computing system embedded in vehicle 100 . In this regard, a transmission system may be included or configured to transmit a signal that causes an audible transmission to be played through speaker 154 . The transmission system also provides visual indication, for example, by flashing or otherwise controlling the vehicle's headlights 350, 352 (shown in FIG. 3), or by displaying information on the internal electronic display 152. It may be configured to send a signal that causes the communication to occur.

自律制御システム176は、自律運転モードで車両を制御するために車両の様々な構成要素と通信することができる、コンピューティングデバイス110と同様に構成された、様々なコンピューティングデバイスを含んでもよい。例えば、図1に戻ると、自律制御システム176は、自律運転モードにおいて、メモリ130の命令134にしたがって、車両100の動き、速度などを制御するために、減速システム160、加速システム162、ステアリングシステム164、ルーティングシステム166、プランナシステム168、測位システム170、および知覚システム172など、車両100の様々なシステムと通信してもよい。 Autonomous control system 176 may include various computing devices, configured similarly to computing device 110, that can communicate with various components of the vehicle to control the vehicle in autonomous modes of operation. For example, returning to FIG. 1, the autonomous control system 176 controls the deceleration system 160, the acceleration system 162, the steering system, etc. to control the movement, speed, etc., of the vehicle 100 according to the instructions 134 in the memory 130 in the autonomous driving mode. 164 , routing system 166 , planner system 168 , positioning system 170 , and perception system 172 .

一例として、自律制御システム176のコンピューティングデバイスは、車両の速度を制御するために、減速システム160および加速システム162と相互作用してもよい。同様に、ステアリングシステム164は、車両100の方向を制御するために、自律制御システム176によって使用されてもよい。例えば、車両100が自動車またはトラックのように道路で使用するように構成されている場合、ステアリングシステムは、車両の向きを変えるための車輪の角度を制御する構成要素を含んでいてもよい。自律制御システム176はまた、例えば、必要に応じて方向指示器またはブレーキライトを点灯させることによって、車両の意図を他の運転手または車両に信号で伝えるために、信号システムを使用してもよい。 As an example, a computing device of autonomous control system 176 may interact with deceleration system 160 and acceleration system 162 to control the speed of the vehicle. Similarly, steering system 164 may be used by autonomous control system 176 to control the direction of vehicle 100 . For example, if the vehicle 100 is configured for road use, such as a car or truck, the steering system may include components that control the angle of the wheels to turn the vehicle. Autonomous control system 176 may also use the signaling system to signal the vehicle's intent to other drivers or vehicles, for example, by illuminating turn signals or brake lights as appropriate. .

ルーティングシステム166は、宛先へのルートを生成するために、自律制御システム176によって使用されてもよい。プランナシステム168は、ルートをたどるために、コンピューティングデバイス110によって使用されてもよい。これに関して、プランナシステム168および/またはルーティングシステム166は、詳細な地図情報、例えば、道路の形状および高度、車線境界線、交差点、横断歩道、制限速度、交通信号、建物、標識、リアルタイムの交通情報、路肩寄せスポット植生、または他のそのような物体および情報を特定する非常に詳細な地図を記憶してもよい。 Routing system 166 may be used by autonomous control system 176 to generate routes to destinations. Planner system 168 may be used by computing device 110 to follow a route. In this regard, planner system 168 and/or routing system 166 may provide detailed map information such as road geometry and elevation, lane markings, intersections, crosswalks, speed limits, traffic lights, buildings, signs, real-time traffic information, and more. , curbside spots, vegetation, or other such objects and information may be stored.

図2は、建物220用の駐車場210に隣接する交差点202を含む、車道のセクションに関する地図情報200の例である。地図情報200は、コンピューティングデバイス110のメモリ130に格納された地図情報のローカルバージョンでもよい。地図情報の他のバージョンもまた、以下でさらに考察される記憶システム450に記憶し得る。この例では、地図情報200は、車線境界線230、232、234、236、車線240、242、244、246、一時停止標識250、252、254、256などの形状、位置、および他の特性を特定する情報を含む。この例では、地図情報200は、駐車場210および建物220の特徴を特定する情報も含む。例えば、駐車スペース260、262、264、266、268、運転可能エリア270、272、274、276などとして。加えて、この例では、地図情報は、建物220の入口と出口282、284、286を識別する。図2の地図情報200に示されている特徴はごくわずかであるが、車両100を自律運転モードで制御できるようにするために、地図情報200はかなり多くの特徴および詳細を含み得る。 FIG. 2 is an example of map information 200 for a section of roadway including an intersection 202 adjacent to a parking lot 210 for a building 220 . Map information 200 may be a local version of the map information stored in memory 130 of computing device 110 . Other versions of map information may also be stored in storage system 450, discussed further below. In this example, the map information 200 describes the shape, location, and other characteristics of lane markings 230, 232, 234, 236, lanes 240, 242, 244, 246, stop signs 250, 252, 254, 256, etc. Contains identifying information. In this example, map information 200 also includes information identifying features of parking lot 210 and building 220 . For example, as parking spaces 260, 262, 264, 266, 268, drivable areas 270, 272, 274, 276, etc. Additionally, in this example, the map information identifies entrances and exits 282 , 284 , 286 of building 220 . Although only a few features are shown in the map information 200 of FIG. 2, the map information 200 may contain significantly more features and details in order to allow the vehicle 100 to be controlled in an autonomous mode.

本明細書では、地図情報を画像ベースの地図として描いているが、地図情報は、完全に画像ベースである必要はない(例えば、ラスタ)。例えば、地図情報は、1つ以上の道路グラフ、または道路、車線、交差点、および道路区分で表し得るこれらの特徴間の接続などの情報のグラフネットワークを含み得る。各特徴は、グラフデータとして記憶され得、地理的場所などの情報と関連付けられ得、他の関連する特徴にリンクされているかどうかにかかわらず、例えば、一時停止標識は、道路および交差点などにリンクされ得る。いくつかの例では、関連付けられたデータは、道路グラフのグリッドベースのインデックスを含んで、特定の道路グラフの特徴の効率的な検索を可能にし得る。 Although the map information is depicted herein as an image-based map, the map information need not be entirely image-based (eg, raster). For example, map information may include one or more road graphs or graph networks of information such as roads, lanes, intersections, and connections between these features, which may be represented by road segments. Each feature may be stored as graphical data, may be associated with information such as geographic location, whether or not linked to other related features, e.g., stop signs link to roads and intersections, etc. can be In some examples, the associated data may include a grid-based index of road graphs to enable efficient retrieval of particular road graph features.

測位システム170は、地図上または地球上の車両の相対位置または絶対位置を判定するために、自律制御システム176によって使用されてもよい。例えば、測位システム170は、デバイスの緯度、経度、および/または高度の位置を判定するためのGPS受信機を含んでいてもよい。レーザを利用した位置特定システム、慣性支援GPS、またはカメラを利用した位置特定などの他の位置特定システムも、車両の位置を識別するために使用することができる。車両の位置には、緯度、経度、高度などの絶対的な地理的位置情報の他に、すぐ周りの他の車両に対する位置などの相対的な位置情報が含まれてもよく、これは、多くの場合、絶対的な地理的位置よりも少ないノイズで判定することができる。 Positioning system 170 may be used by autonomous control system 176 to determine the vehicle's relative or absolute position on a map or earth. For example, positioning system 170 may include a GPS receiver for determining the latitude, longitude, and/or altitude position of the device. Other location systems such as laser-based location systems, inertial-assisted GPS, or camera-based location can also be used to identify the location of the vehicle. A vehicle's position may include absolute geographic location information, such as latitude, longitude, and altitude, as well as relative location information, such as its position relative to other vehicles in its immediate surroundings, which is often , it can be determined with less noise than the absolute geographic position.

測位システム170はまた、車両の方向および速度、またはそれらの変更を判定するための加速度計、ジャイロスコープ、または別の方向/速度検出デバイスなどの、コンピューティングデバイス自律制御システム176と通信する他のデバイスを含んでいてもよい。例示に過ぎないが、加速デバイスは、重力の方向、または重力に対して垂直な平面に対する車両の縦揺れ、偏揺れ、または横揺れ(またはそれらの変化)を判定してもよい。このデバイスはまた、速度の増減、およびそのような変化の方向を追跡することもできる。本明細書で説明したようなデバイスの位置および方位データの提供は、コンピューティングデバイス110、他のコンピューティングデバイス、および上記の組み合わせに自動的に提供され得る。 The positioning system 170 may also use other computing devices in communication with the autonomous control system 176, such as an accelerometer, gyroscope, or another direction/speed sensing device for determining vehicle direction and speed, or changes thereof. may include devices. By way of example only, the acceleration device may determine the pitch, yaw, or roll (or changes thereof) of the vehicle with respect to the direction of gravity or a plane perpendicular to gravity. The device can also track speed increases and decreases, and the direction of such changes. Providing device position and orientation data as described herein may be automatically provided to computing device 110, other computing devices, and combinations of the above.

知覚システム172はまた、他の車両、道路内の障害物、交通信号、標識、樹木などの車両の外部にある物体を検出するために1つ以上の構成要素を含む。例えば、知覚システム172は、レーザ、ソナー、レーダー、カメラ、および/または自律制御システム176のコンピューティングデバイスによって処理され得るデータを記録する任意の他の検出デバイスを含んでもよい。車両がミニバンなどの搭乗者車両である場合には、ミニバンは、屋根または他の都合の良い位置に搭載されるレーザまたは他のセンサを含んでもよい。例えば、図3は、車両100の例示的な外観図である。この例では、ルーフ上部筐体310およびドーム状筐体312は、LIDARセンサ、ならびに様々なカメラおよびレーダーユニットを含み得る。加えて、車両100の前端部に位置する筐体320、ならびに車両の運転者側および助手席側の筐体330、332は、各々、LIDARセンサを記憶し得る。例えば、筐体330は、運転者ドア360の前部に位置している。車両100はまた、車両100のルーフ上にまた位置するレーダーユニットおよび/またはカメラのための筐体340、342を含む。追加のレーダーユニットおよびカメラ(図示せず)は、車両100の前端および後端に、ならびに/またはルーフもしくはルーフ上部筐体310に沿った他の位置上に位置し得る。 Perception system 172 also includes one or more components to detect objects external to the vehicle such as other vehicles, obstacles in the roadway, traffic lights, signs, trees, and the like. For example, perception system 172 may include lasers, sonar, radar, cameras, and/or any other detection device that records data that can be processed by the computing devices of autonomous control system 176 . If the vehicle is a passenger vehicle such as a minivan, the minivan may include lasers or other sensors mounted on the roof or other convenient location. For example, FIG. 3 is an exemplary exterior view of vehicle 100 . In this example, roof top housing 310 and dome housing 312 may include LIDAR sensors as well as various camera and radar units. Additionally, housing 320 located at the front end of vehicle 100 and housings 330, 332 on the driver and passenger sides of the vehicle may each store a LIDAR sensor. For example, housing 330 is located in front of driver door 360 . Vehicle 100 also includes housings 340 , 342 for radar units and/or cameras that are also located on the roof of vehicle 100 . Additional radar units and cameras (not shown) may be located at the front and rear ends of vehicle 100 and/or on other locations along roof or roof top housing 310 .

自律制御システム176は、自律制御システム176のメモリの一次車両制御コードに従う車両100の動きを制御するために、車両の様々な構成要素と通信することが可能であり得る。例えば、図1に戻ると、自律制御システム176は、メモリ130の命令134にしたがって、車両100の動き、速度などを制御するために、減速システム160、加速システム162、ステアリングシステム164、ルーティングシステム166、プランナシステム168、測位システム170、知覚システム172、および電源システム174(すなわち、車両のエンジンまたはモータ)などの車両100の様々なシステムと通信する様々なコンピューティングデバイスを含んでもよい。 Autonomous control system 176 may be able to communicate with various components of the vehicle to control movement of vehicle 100 according to primary vehicle control code in memory of autonomous control system 176 . For example, returning to FIG. 1, the autonomous control system 176 may operate a deceleration system 160, an acceleration system 162, a steering system 164, a routing system 166 to control the movement, speed, etc. of the vehicle 100 according to the instructions 134 in the memory 130. , planner system 168, positioning system 170, perception system 172, and power system 174 (ie, the vehicle's engine or motor).

車両の様々なシステムは、どのように車両を制御するかを判定するためおよび制御するために、自律車両制御ソフトウェアを使用して機能し得る。一例として、認知システム172の認知システムソフトウェアモジュールは、カメラ、LIDARセンサ、レーダーユニット、ソナーユニットなどの自律車両の1つ以上のセンサによって生成されたセンサデータを使用して、物体およびその特徴を検出および識別することができる。これらの特徴には、位置、タイプ、進行方向、配向、速度、加速度、加速度の変化、サイズ、形状などを含み得る。場合によっては、オブジェクトタイプに基づいて様々な動作モデルを使用する動作予測システムソフトウェアモジュールに特徴を入力して、検出されたオブジェクトの予測される将来の動作を出力する。他の例では、特徴は、既知の交通信号の状態を検出するように構成された信号機検出システムソフトウェアモジュール、車両の1つ以上のセンサによって生成されたセンサデータから建設ゾーンを検出するように構成された建設ゾーン検出システムソフトウェアモジュール、ならびに、車両のセンサによって生成されたセンサデータから緊急車両を検出するように構成された緊急車両検出システムなどの1つ以上の検出システムソフトウェアモジュールに入れることができる。これらの検出システムソフトウェアモジュールの各々は、様々なモデルを使用して、建設ゾーンまたはオブジェクトが緊急車両である可能性を出力し得る。検出された物体、予測された将来の行動、検出システムソフトウェアモジュールからの様々な可能性、車両の環境を識別する地図情報、車両の位置および配向を識別する測位システム170からの位置情報、車両の目的地、ならびに車両の様々な他のシステムからのフィードバックをプランナシステム168のプランナシステムソフトウェアモジュールに入力し得る。プランナシステムは、この入力を使用して、ルーティングシステム166のルーティングモジュールによって生成されたルートに基づいて、将来のある短い期間にわたって車両がたどる軌道を生成することができる。自律制御システム176の制御システムソフトウェアモジュールは、例えば、軌道をたどるために、車両の制動、加速、およびステアリングを制御することによって、車両の動きを制御するように構成され得る。 Various systems of the vehicle may function using autonomous vehicle control software to determine and control how to control the vehicle. As an example, the perception system software module of perception system 172 uses sensor data generated by one or more sensors of the autonomous vehicle, such as cameras, LIDAR sensors, radar units, sonar units, etc., to detect objects and their features. and can be identified. These features may include position, type, direction of travel, orientation, velocity, acceleration, change in acceleration, size, shape, and the like. In some cases, the features are input to a motion prediction system software module that uses different motion models based on object type to output the predicted future motion of the detected object. In other examples, the features include a traffic light detection system software module configured to detect known traffic light conditions, a construction zone from sensor data generated by one or more sensors on the vehicle. and one or more detection system software modules, such as a construction zone detection system software module configured to detect emergency vehicles, and an emergency vehicle detection system configured to detect emergency vehicles from sensor data generated by the vehicle's sensors. . Each of these detection system software modules may use different models to output the likelihood that a construction zone or object is an emergency vehicle. Detected objects, predicted future behavior, various possibilities from the detection system software modules, map information identifying the vehicle's environment, location information from the positioning system 170 identifying the vehicle's position and orientation, the vehicle's The destination, as well as feedback from various other systems of the vehicle, may be input into the planner system software module of planner system 168 . The planner system can use this input to generate a trajectory that the vehicle will follow over some short period of time in the future based on the route generated by the routing module of routing system 166 . A control system software module of the autonomous control system 176 may be configured to control the motion of the vehicle, for example, by controlling the braking, acceleration, and steering of the vehicle to follow a trajectory.

自律制御システム176は、様々な構成要素を制御することにより、自律運転モードで車両を制御することができる。例えば、例として、自律制御システム176は、詳細な地図情報およびプランナシステム168からのデータを使用して、車両を目的地に完全に自律的にナビゲートすることができる。自律制御システム176は、測位システム170を使用して車両の位置を決定し、その位置に安全に到達するために必要とされるとき、知覚システム172を使用して物体を検出し、物体に対して応答し得る。繰り返すが、そうするために、コンピューティングデバイス110は、軌道を生成し、車両にこれらの軌道を追従させ、(例えば、加速システム162により、エンジンまたは電源システム174に燃料または他のエネルギーを供給することによって)車両を加速させ、(例えば、エンジンまたは電源システム174に供給される燃料を減少させ、ギヤを変更し、および/または減速システム160によりブレーキをかけることによって)減速させ、(例えば、ステアリングシステム164により、車両100の前輪または後輪の向きを変えることによって)方向を変更し、(例えば、方向指示器を点灯することによって)そのような変更を信号で伝えることができる。したがって、加速システム162および減速システム160は、車両のエンジンと、車両の車輪との間の様々な構成要素を含むドライブトレインの一部であってもよい。繰り返すが、これらのシステムを制御することにより、自律制御システム176はまた、車両を自律的に操縦するために車両のドライブトレインを制御することもできる。 Autonomous control system 176 may control the vehicle in an autonomous mode by controlling various components. For example, by way of example, autonomous control system 176 may use detailed map information and data from planner system 168 to navigate the vehicle to its destination fully autonomously. The autonomous control system 176 uses the positioning system 170 to determine the position of the vehicle and uses the perception system 172 to detect and respond to objects when needed to reach that position safely. can respond with Again, to do so, the computing device 110 generates trajectories, causes the vehicle to follow these trajectories, and (eg, supplies fuel or other energy to the engine or power system 174 via the acceleration system 162). Accelerate the vehicle (e.g., by reducing fuel supplied to the engine or power system 174, change gears, and/or brake with the reduction system 160), slow the vehicle (e.g., by steering The system 164 allows the vehicle 100 to change direction (by turning the front or rear wheels of the vehicle 100) and to signal such changes (eg, by illuminating turn signals). As such, acceleration system 162 and deceleration system 160 may be part of a drivetrain that includes various components between the vehicle's engine and the vehicle's wheels. Again, by controlling these systems, the autonomous control system 176 can also control the vehicle's drivetrain to steer the vehicle autonomously.

車両100のコンピューティングデバイス110はまた、輸送サービスの一部であるコンピューティングデバイスならびに他のコンピューティングデバイスのような他のコンピューティングデバイスとの間で情報を受信または転送することもできる。図4および図5は、それぞれ、例示的なシステム400のイラスト図および機能図であり、システムは、ネットワーク460を介して接続された複数のコンピューティングデバイス410、420、430、440、および記憶システム450を含む。システム400は、車両100、および車両100と同じまたは同様に構成され得る車両100A、100Bも含む。簡潔にするため、いくつかの車両およびコンピューティングデバイスのみを図示しているが、典型的なシステムは、これよりもはるかに多くのものを含み得る。 Computing device 110 of vehicle 100 may also receive or transfer information to and from other computing devices, such as computing devices that are part of transportation services, as well as other computing devices. 4 and 5 are illustrative and functional diagrams, respectively, of an exemplary system 400 that includes multiple computing devices 410, 420, 430, 440 and storage systems connected via a network 460. 450 included. System 400 also includes vehicle 100 and vehicles 100A, 100B that may be configured the same as or similar to vehicle 100 . Only a few vehicles and computing devices are shown for simplicity, but a typical system may include many more.

図5に示されるように、コンピューティングデバイス410、420、430、440の各々は、1つ以上のプロセッサ、メモリ、データ、および命令を含むことができる。そのようなプロセッサ、メモリ、データ、および命令は、コンピューティングデバイス110の1つ以上のプロセッサ120、メモリ130、データ132、および命令134と同様に構成されてもよい。 As shown in FIG. 5, each of computing devices 410, 420, 430, 440 may include one or more processors, memory, data, and instructions. Such processors, memory, data, and instructions may be configured similarly to one or more of processor 120 , memory 130 , data 132 , and instructions 134 of computing device 110 .

ネットワーク460および仲介ノードは、Bluetooth、Bluetooth LE、インターネット、World Wide Web、イントラネット、仮想プライベートネットワーク、ワイドエリアネットワーク、ローカルネットワーク、1つ以上の企業に専用の通信プロトコルを使用するプライベートネットワーク、イーサネット、WiFi、およびHTTP、ならびに上記の様々な組み合わせなどの短距離通信プロトコルを含む様々な構成およびプロトコルを含んでもよい。このような通信は、モデムおよび無線インターフェースなどの、他のコンピューティングデバイスとの間でデータを送信することができる任意のデバイスによって容易に行われ得る。 Network 460 and intermediary nodes can be Bluetooth, Bluetooth LE, Internet, World Wide Web, intranets, virtual private networks, wide area networks, local networks, private networks using communication protocols proprietary to one or more enterprises, Ethernet, WiFi. , and HTTP, as well as various combinations of the above, including short-range communication protocols. Such communication can be facilitated by any device capable of transmitting data to and from other computing devices, such as modems and wireless interfaces.

一例では、1つ以上のコンピューティングデバイス410は、他のコンピューティングデバイスとの間でデータを受信、処理、および送信する目的で、ネットワークの異なるノードと情報を交換する、例えば、負荷分散サーバファームなど、複数のコンピューティングデバイスを有する1つ以上のサーバコンピューティングデバイスを含んでもよい。例えば、1つ以上のコンピューティングデバイス410は、ネットワーク460を介して、車両100のコンピューティングデバイス110、または車両100Aの同様のコンピューティングデバイス、ならびにコンピューティングデバイス420、430、440と通信することが可能である1つ以上のサーバコンピューティングデバイスを含んでもよい。例えば、車両100、100Aは、サーバコンピューティングデバイスによって様々な場所に派遣され得る車両の車隊の一部であり得る。この点について、サーバコンピューティングデバイス410は、乗客をピックアップおよびドロップオフするために、車両100および車両100Aのような車両を異なる場所に派遣するために使用することができる派遣サーバコンピューティングシステムとして機能し得る。加えて、サーバコンピューティングデバイス410は、ネットワーク460を使用し得、コンピューティングデバイス420、430、440のディスプレイ424、434、444のようなディスプレイ上に、ユーザ422、432、442などのユーザに情報を送信および提示する。この点について、コンピューティングデバイス420、430、440は、クライアントコンピューティングデバイスとみなされ得る。 In one example, one or more computing devices 410 exchange information with different nodes of a network for the purpose of receiving, processing, and transmitting data to other computing devices, e.g., a load balancing server farm. , etc., may include one or more server computing devices having multiple computing devices. For example, one or more computing devices 410 may communicate with computing device 110 of vehicle 100, or similar computing devices of vehicle 100A, as well as computing devices 420, 430, 440 via network 460. It can include one or more server computing devices. For example, vehicles 100, 100A may be part of a fleet of vehicles that may be dispatched to various locations by a server computing device. In this regard, server computing device 410 functions as a dispatch server computing system that can be used to dispatch vehicles, such as vehicle 100 and vehicle 100A, to different locations to pick up and drop off passengers. can. In addition, server computing device 410 may use network 460 to provide information to users, such as users 422, 432, 442, on displays such as displays 424, 434, 444 of computing devices 420, 430, 440. to send and present. In this regard, computing devices 420, 430, 440 may be considered client computing devices.

図5に示されるように、各クライアントコンピューティングデバイス420、430、440は、ユーザ422、432、442が使用することを意図されたパーソナルコンピューティングデバイスであってもよく、1つ以上のプロセッサ(例えば、中央処理装置(CPU))、データおよび命令を記憶するメモリ(例えば、RAMおよび内蔵ハードドライブ)、ディスプレイ424、434、444などのディスプレイ(例えば、画面を有するモニタ、タッチスクリーン、プロジェクタ、テレビ、または情報を表示するように動作可能である他のデバイス)、およびユーザ入力デバイス426、436、446(例えば、マウス、キーボード、タッチスクリーン、またはマイクロフォン)を含む、パーソナルコンピューティングデバイスと接続して通常使用されるすべてのコンポーネントを有し得る。クライアントコンピューティングデバイスはまた、ビデオストリームを記録するためのカメラ、スピーカ、ネットワークインターフェースデバイス、およびこれらの要素を互いに接続するために使用される構成要素のすべてを含んでもよい。 As shown in FIG. 5, each client computing device 420, 430, 440 may be a personal computing device intended for use by users 422, 432, 442 and may include one or more processors ( memory (e.g., RAM and internal hard drives) for storing data and instructions; displays such as displays 424, 434, 444 (e.g., monitors with screens, touch screens, projectors, televisions , or other device operable to display information), and user input devices 426, 436, 446 (e.g., a mouse, keyboard, touch screen, or microphone). It can have all the components normally used. A client computing device may also include cameras for recording video streams, speakers, network interface devices, and all of the components used to connect these elements together.

クライアントコンピューティングデバイス420、430、および440は、各々、フルサイズのパーソナルコンピューティングデバイスを備えてもよいが、代替的に、インターネットなどのネットワークを介してサーバとデータを無線で交換することができるモバイルコンピューティングデバイスを備えてもよい。ほんの一例として、クライアントコンピューティングデバイス420は、携帯電話、または無線対応PDA、タブレットPC、ウェアラブルコンピューティングデバイスもしくはシステムなどのデバイス、またはインターネットもしくは他のネットワークを介して情報を取得することができるネットブックであってもよい。別の例では、クライアントコンピューティングデバイス430は、図4に示されるように、腕時計として示されるウェアラブルコンピューティングシステムであってもよい。一例として、ユーザは、小型キーボード、キーパッド、マイクロフォンを使用して、カメラを用いる視覚信号、またはタッチスクリーンを使用して、情報を入力し得る。 Client computing devices 420, 430, and 440 may each comprise a full-sized personal computing device, but may alternatively exchange data wirelessly with a server over a network such as the Internet. It may comprise a mobile computing device. By way of example only, client computing device 420 may be a device such as a mobile phone or wireless-enabled PDA, tablet PC, wearable computing device or system, or netbook capable of obtaining information over the Internet or other network. may be In another example, client computing device 430 may be a wearable computing system shown as a wristwatch, as shown in FIG. As an example, a user may enter information using a miniature keyboard, keypad, microphone, visual signals using a camera, or a touch screen.

メモリ130と同様に、記憶システム450は、ハードドライブ、メモリカード、ROM、RAM、DVD、CD-ROM、書き込み可能メモリ、および読み出し専用メモリなど、サーバコンピューティングデバイス410によってアクセス可能な情報を記憶することができる、任意のタイプのコンピュータ化された記憶装置であり得る。加えて、記憶システム450は、データが、同じまたは異なる地理的位置に物理的に位置し得る複数の異なる記憶デバイス上に記憶される分散型記憶システムを含んでもよい。記憶システム450は、図4および図5に示すように、ネットワーク460を介してコンピューティングデバイスに接続され得、かつ/またはコンピューティングデバイス110、410、420、430、440などのいずれかに直接接続されるか、もしくは組み込まれ得る。 Similar to memory 130, storage system 450 stores information accessible by server computing device 410, such as hard drives, memory cards, ROM, RAM, DVDs, CD-ROMs, writable memory, and read-only memory. It can be any type of computerized storage device capable of. Additionally, storage system 450 may include a distributed storage system in which data is stored on multiple different storage devices that may be physically located at the same or different geographic locations. Storage system 450 may be connected to computing devices via network 460 and/or directly to any of computing devices 110, 410, 420, 430, 440, etc., as shown in FIGS. can be implemented or incorporated.

記憶システム450は、様々なタイプの情報を記憶し得る。例えば、記憶システム450は、自律運転モードで車両を操作するために、車両100などの車両によって使用される上述の自律車両制御ソフトウェアを記憶することもできる。記憶システム450に記憶されたこの自律車両制御ソフトウェアは、自律車両制御ソフトウェアの様々な無効化および検証されたバージョンを含む。検証されると、自律車両制御ソフトウェアは、例えば、自律運転モードで車両を制御するために、車両のコンピューティングデバイスによって使用されるように、車両100のメモリ130に送信されてもよい。 Storage system 450 may store various types of information. For example, storage system 450 may also store the above-described autonomous vehicle control software used by a vehicle, such as vehicle 100, to operate the vehicle in an autonomous mode of operation. This autonomous vehicle control software stored in storage system 450 includes various disabled and verified versions of autonomous vehicle control software. Once verified, the autonomous vehicle control software may be transmitted to the memory 130 of the vehicle 100 for use by the vehicle's computing devices, for example, to control the vehicle in an autonomous mode.

記憶システム450は、以下により詳細に説明されるように、様々なタイプの情報を記憶することができる。この情報は、本明細書で記載する特徴のうちのいくつかまたはすべてを実行するために、1つ以上のサーバコンピューティングデバイス410などのサーバコンピューティングデバイスによって検索または別様にアクセスされ得る。例えば、記憶システムは、様々なモデルと、以下でさらに説明するように訓練を介して更新できるモデルのパラメータ値とを記憶できる。記憶システム450はまた、ログデータを記憶することができる。このログデータは、例えば、車両100の知覚システム172などの知覚システムによって生成されたセンサデータを含み得る。知覚システムは、センサデータを生成する複数のセンサを含み得る。一例として、センサデータは、生のセンサデータのみならず、車両、歩行者、自転車、植生、縁石、車線境界線、歩道、横断歩道、建物などの物体の形状、位置、配向、速度などの知覚された物体(他の道路利用者を含む)の定義特性を特定するデータを含み得る。ログデータには、以下でさらに説明するように、車両の環境および/または要求に応じて車両が生成する様々なタイプの聴覚的伝達を特定する「イベント」データも含まれる場合がある。 Storage system 450 may store various types of information, as described in more detail below. This information may be retrieved or otherwise accessed by one or more server computing devices, such as server computing device 410, to perform some or all of the features described herein. For example, the storage system can store various models and model parameter values that can be updated through training as described further below. Storage system 450 may also store log data. This log data may include, for example, sensor data generated by a sensory system, such as sensory system 172 of vehicle 100 . A sensory system may include multiple sensors that generate sensor data. As an example, sensor data includes not only raw sensor data, but also the perception of the shape, position, orientation, speed, etc. of objects such as vehicles, pedestrians, bicycles, vegetation, curbs, lane lines, sidewalks, pedestrian crossings, and buildings. It may contain data specifying defining characteristics of objects (including other road users) that have been detected. The log data may also include "event" data that identifies various types of auditory transmissions that the vehicle produces in response to the vehicle's environment and/or demands, as described further below.

例示的な方法
上述し、図に示した動作に加えて、様々な動作を、ここで説明する。以下の動作は、以下に説明する正確な順序で実行される必要がないことを理解されたい。むしろ、様々な工程が、異なる順序で、または同時に処理されてもよく、工程もまた、追加または省略されてもよい。
Exemplary Methods Various operations are described herein in addition to those described above and illustrated in the Figures. It should be appreciated that the following operations do not have to be performed in the exact order described below. Rather, various steps may be processed in different orders or simultaneously, and steps may also be added or omitted.

モデルを生成および訓練するために、サービスのユーザは、例えば、ユーザのコンピューティングデバイス(すなわち、携帯電話)上のアプリケーションを介して、車両が伝達を提供することを要求するためのオプションを提供され得る。この点で、オプションを使用すると、車両に伝達を提供させることができる。ユーザがオプションを使用すると、このデータが記録される場合がある。図6は、ディスプレイ424上に表示されるオプション610、620を含む、クライアントコンピューティングデバイス420の例示的な図である。この例では、オプション610は、クライアントコンピューティングデバイスが、例えば、ネットワーク460または他の無線接続を介して、車両に要求を送信し、クラクションを鳴らすことによって、またはスピーカ154を通して対応する音声を再生することによって、車両に聴覚的伝達を生成させることを可能にし得る。オプション620は、クライアントコンピューティングデバイスが、例えば、ネットワーク460または他の無線接続を介して、車両に要求を送信し、例えば、ヘッドライト350、352を点滅させることによって、および/または電子ディスプレイ152に情報を表示することによって、車両に視覚的伝達を生成させることを可能にし得る。いくつかの例では、オプション630は、ユーザが自分の車両を特定したと確信している場合など、ユーザが伝達を要求しないことを可能にするために提供され得る。 To generate and train the model, users of the service are provided the option to request that the vehicle provide transmission , for example, via an application on the user's computing device (i.e., mobile phone). obtain. In this regard, an option may be used to have the vehicle provide transmission . This data may be recorded when the user uses the option. FIG. 6 is an exemplary illustration of client computing device 420 including options 610, 620 displayed on display 424. FIG. In this example, option 610 is for the client computing device to send a request to the vehicle, e.g., over network 460 or other wireless connection, and play a corresponding sound by honking its horn or through speaker 154. This may allow the vehicle to generate an audible transmission . Option 620 allows the client computing device to send a request to the vehicle, e.g., via network 460 or other wireless connection, to e.g. Displaying information may allow the vehicle to generate a visual communication . In some examples, option 630 may be provided to allow the user not to request transmission , such as if the user is confident that they have identified their vehicle.

例えば、ユーザは暗い駐車場でオプション620を使用して、自律車両にヘッドライトを点滅させることができる。別の例として、他の歩行者がほとんどいない明るい駐車場では、ユーザは、オプション610を使用して、車両にクラクションを鳴らさせたり、あるいは他の何らかの聴覚的伝達を提供したりすることができる。より多くの歩行者が存在する場合、ユーザは、オプション610よりもオプション620を選択することができる。別の例として、ユーザは、オプション610を使用して、大きな駐車場内または大きな建物の近くにいるときに、車両にクラクションを鳴らさせることができる。さらに別のオプションとして、ユーザは、オプション620を使用して、近くに複数の自律車両があるときに車両にそのヘッドライトを点滅させてもよい。代替的に、ヘッドライトを点滅させるのではなく、電子ディスプレイ152上に情報を表示するなどの別のタイプの視覚的伝達オプションを提供してもよい。 For example, the user can use option 620 in a dark parking lot to have the autonomous vehicle flash its headlights. As another example, in a well-lit parking lot with few other pedestrians, the user may use option 610 to have the vehicle honk its horn or provide some other audible communication . . If there are more pedestrians, the user may select option 620 over option 610 . As another example, the user may use option 610 to have the vehicle honk when in a large parking lot or near a large building. As yet another option, the user may use option 620 to cause the vehicle to flash its headlights when there are multiple autonomous vehicles nearby. Alternatively, other types of visual communication options may be provided, such as displaying information on the electronic display 152 rather than flashing the headlights.

オプション610、620などのオプションの1つが伝達を要求するために使用されるたびに、メッセージが車両に提供されて、車両のコンピューティングデバイス110に伝達を行わせるかまたは生成させてもよい。このメッセージには、要求が生成された日時、行われる伝達のタイプ、ならびにユーザの位置などの情報が含まれる場合がある。このメッセージのみならず他のメッセージ情報もまた、例えば、車両および/またはユーザのクライアントコンピューティングデバイスによって、メッセージを記憶システム450に記憶することができるサーバコンピューティングシステム410などのサーバコンピューティングシステムに送信されてもよい。一例として、他のメッセージ情報は、車両の位置、伝達のタイプ(ライトの点滅、電子ディスプレイ152上の情報の表示、警笛を鳴らすことなど)、車両の知覚システム172によって検出された他の道路利用者(車両、歩行者、自転車利用者など)の位置および/または特性、周囲照明状態などの、車両のコンピューティングシステムによって生成されたデータを含み得る。 Each time one of the options, such as options 610, 620, is used to request a transmission , a message may be provided to the vehicle to cause the vehicle's computing device 110 to make or generate the transmission . This message may include information such as the date and time the request was generated, the type of transmission being made, as well as the location of the user. This message, as well as other message information, is sent, for example, by the vehicle and/or the user's client computing device to a server computing system, such as server computing system 410, where the message can be stored in storage system 450. may be By way of example, other message information may include the location of the vehicle, the type of transmission (flashing lights, displaying information on the electronic display 152, honking, etc.), other road usage detected by the vehicle's perception system 172, etc. It may include data generated by the vehicle's computing system, such as the location and/or characteristics of persons (vehicles, pedestrians, cyclists, etc.), ambient lighting conditions, and the like.

一例として、周囲照明状態は、任意の数の異なる方法で決定され得る。例えば、コンピューティングデバイス110は、電子ディスプレイ152などの一部の場合には、車両のヘッドライトの状態を制御し、内部電子ディスプレイの明るさを調整するために使用されるものなどの、車両の光センサからのフィードバックを受信し得る。光センサからのフィードバックがコンピューティングデバイス110に直接利用できない場合、この情報はまた、車両のヘッドライトおよび/または内部電子ディスプレイの状態から収集され得る。言い換えれば、コンピューティングデバイス110は、この情報から、車両がヘッドライトを点灯するのに「十分に暗い」か、または特定の明るさの内部電子ディスプレイであるかを判定することができ得る。加えて、または代替的に、周囲照明状態は、車両の知覚システムによって生成されたデータから判定され得る。前述したように、知覚システム172は、複数の異なるセンサを含み得、そのいくつかは、静止カメラまたはビデオカメラなど、周囲照明状態を判定するために使用し得る。例えば、周囲照明状態を判定するために、車両の環境の「ライブ」カメラ画像を分析し得る。これには、カメラが向けられているエリアが明るいエリアであるかを判定するために画素の処理を含み得る。画素が明るく、画像が短い露光時間である場合、これはそのエリアも明るいことを示している可能性がある。別の例として、周囲照明状態は、カメラの露出値を使用することによってリアルタイムで判定され得る。一例として、画像を捕捉する場合、知覚システム172のカメラは、周囲照明状態が与えられると、露出値を自動的に再較正することができる。この点について、露出値は、車両のカメラによって現在視認可能なエリアの明るさの代用と見なし得る。例えば、リアルタイムの露出値を使用し得、周囲照明状態を判定する。露出値が長いほど、シーンは暗くなるか、またはむしろ、周囲照明状態は低くなる。同様に、露出値が短いほど、シーンは明るくなるか、またはむしろ、周囲照明状態は高くなる。加えて、太陽が出ていない期間(すなわち、1年のうちの任意の所与の日の夕暮れから夜明けまで)の露出値を確認し、より明るい人工照明を示す短い露出時間のものを識別することができる。 As an example, ambient lighting conditions may be determined in any number of different ways. For example, the computing device 110 may, in some cases, be used to control the state of the vehicle's headlights and adjust the brightness of internal electronic displays, such as the electronic display 152 . Feedback from the optical sensor may be received. If feedback from light sensors is not directly available to computing device 110, this information may also be gleaned from the status of the vehicle's headlights and/or internal electronic displays. In other words, the computing device 110 may be able to determine from this information whether the vehicle is "dark enough" to turn on the headlights or internal electronic displays of a particular brightness. Additionally or alternatively, ambient lighting conditions may be determined from data generated by the vehicle's perception system. As previously mentioned, perception system 172 may include multiple different sensors, some of which may be used to determine ambient lighting conditions, such as still cameras or video cameras. For example, "live" camera images of the vehicle's environment may be analyzed to determine ambient lighting conditions. This may involve processing the pixels to determine if the area the camera is pointing at is a bright area. If the pixel is bright and the image has a short exposure time, this may indicate that the area is also bright. As another example, ambient lighting conditions can be determined in real-time by using camera exposure values. As an example, when capturing an image, the cameras of perception system 172 can automatically recalibrate exposure values given ambient lighting conditions. In this regard, the exposure value can be considered a proxy for the brightness of the area currently visible by the vehicle's camera. For example, real-time exposure values may be used to determine ambient lighting conditions. The longer the exposure value, the darker the scene, or rather the lower the ambient lighting conditions. Similarly, the shorter the exposure value, the brighter the scene, or rather the higher the ambient lighting conditions. In addition, it is possible to look at exposure values during periods when the sun is not out (i.e., from dusk to dawn on any given day of the year) and identify those with shorter exposure times that indicate brighter artificial illumination. can.

センサデータを含むメッセージおよび他のメッセージ情報は、次に、モデルを生成および訓練するために、サーバコンピューティングデバイス410によって処理され得る。モデルは、決定木(ランダムフォレスト決定木など)、ディープニューラルネットワーク、ロジスティック回帰、ニューラルネットワークなどの機械学習モデルであり得る。モデルを訓練するには、ユーザの位置、他のメッセージ情報(メッセージを生成した様々な車両の知覚システム172によって生成されたセンサデータを含む)、ならびに地図情報を訓練入力として使用することができ、(メッセージからの)伝達のタイプを訓練出力として使用することができる。 Messages containing sensor data and other message information may then be processed by server computing device 410 to generate and train models. The models can be machine learning models such as decision trees (such as random forest decision trees), deep neural networks, logistic regression, neural networks, and the like. To train the model, the user's location, other message information (including sensor data generated by the various vehicle perception systems 172 that generated the messages), and map information can be used as training inputs, The type of transmission (from messages) can be used as training output.

したがって、訓練には、様々な訓練入力だけでなく、訓練出力またはターゲット出力を含む訓練データの受信が含まれる場合がある。モデルは、モデルのパラメータの現在の値を使用して訓練データで訓練され、出力値のセットを生成できる。これらの出力値は、伝達のタイプの適切性のレベル、またはモデルを使用して決定されるその他の出力データを示す場合がある。ターゲット出力および出力値のセットを互いに比較して、これらの値が互いにどれだけ離れているかを示す1つ以上の差分値を決定することができる。この1つ以上の差分値に基づいて、モデルのパラメータの現在の値を調整することができる。訓練と調整を繰り返すと、モデルの精度を向上することができる。したがって、モデルの訓練に使用される訓練データが多いほど、モデルは、自動的に提供する伝達かどうかおよびどの伝達タイプか、または以下でさらに説明するように提供または有効にする伝達オプションのどのタイプかを決定する際に、より正確になる。加えて、地図情報を訓練データとして使用することにより、モデルを訓練して、環境、例えば、車両および/または歩行者が位置している道路またはエリアのタイプ(例えば、住宅または商業)が、どのタイプの伝達または伝達オプションを提供または有効にするかの決定に伝達に対するユーザの望みにどのように影響するかを組み込むことができる。 Thus, training may include receiving training data, including training outputs or target outputs, as well as various training inputs. A model can be trained on training data using the current values of the model's parameters to produce a set of output values. These output values may indicate the level of adequacy of the type of transfer or other output data determined using the model. A target output and a set of output values can be compared to each other to determine one or more difference values that indicate how far these values are from each other. Based on the one or more difference values, the current values of the parameters of the model can be adjusted. Repeated training and tuning can improve the accuracy of the model. Therefore, the more training data that is used to train the model, the more the model can determine whether and which transmission types to automatically provide, or which types of transmission options to provide or enable as described further below. be more accurate in determining In addition, by using map information as training data, the model is trained to determine what type of environment, e.g., road or area (e.g., residential or commercial) the vehicle and/or pedestrian is located. The type of communication or how the user's desire for communication is influenced in determining whether to provide or enable communication options can be incorporated.

加えて、訓練データとして日時および/または周囲照明状態を使用することによって、モデルは、モデルによって出力される異なるタイプの伝達について、異なる時刻および照明状態を区別するように訓練され得る。例えば、日時のみならず周囲照明状態も訓練入力として使用できる。繰り返すが、モデルの訓練に使用される訓練データが多いほど、有効にするおよび/または提供する伝達のタイミングとタイプを決定する際にモデルがより正確になり得る。 Additionally, by using time of day and/or ambient lighting conditions as training data, the model can be trained to distinguish between different times of day and lighting conditions for different types of transmissions output by the model. For example, the time of day as well as ambient lighting conditions can be used as training inputs. Again, the more training data used to train the model, the more accurate the model can be in determining when and what types of transmissions to enable and/or provide.

加えて、フィードバックおよびハンド訓練を介して、誤検知の可能性を減らすために、または車両が不適切または不適当な時間に伝達を生成する必要があることを示すために、様々な伝達オプションに重みを割り当てる(または生成する)ことができる。このような重みは、環境要因(地図情報およびセンサデータなど)に大きく依存する可能性が高いため、このような入力により、モデルが対応する重み付き要因の影響を受ける可能性がある。例えば、モデルを訓練するとき、歩行者に不快感を与える可能性があるため、歩行者が車両から1~2メートルなどの短い距離内にいるときにクラクションを鳴らすことに対して、モデルは、より重み付けすることができる。 In addition, through feedback and hand training, various transmission options can be used to reduce the likelihood of false positives or to indicate that the vehicle should generate transmissions at inappropriate or inappropriate times. Weights can be assigned (or generated). Since such weights are likely to be highly dependent on environmental factors (such as map information and sensor data), such inputs can affect the corresponding weighted factors of the model. For example, when training the model, the model should avoid honking when the pedestrian is within a short distance, such as 1-2 meters, from the vehicle, as this may cause pedestrian discomfort. can be weighted more.

同様に、モデルは、視覚的伝達が適切である状況と聴覚的伝達が適切である場合とを区別するように訓練することができる。例えば、混雑したエリアでクラクションを鳴らす(またはスピーカ154を介して対応する聴覚的伝達を再生する)ことは適切ではない(またはより適切である)場合があり、日中にライトを使用することは適切でない(またはより適切である)場合がある。この点で、様々な伝達の有効性または有用性に関するユーザのフィードバックを使用して、モデルを訓練することもできる。一例として、ユーザは、特定の伝達が不適切または不便であったかどうか、およびその理由(例えば、ヘッドライトが点滅したときに人が車両の前に立っていたかどうか、その人の目に痛みを伴う可能性があるかどうか、クラクションまたは電子ディスプレイ上に表示される情報は、車両の環境で他の人を混乱させたかどうかなど)を示すフィードバックを提供してもよい。加えて、法律および規制に基づいて、聴覚的伝達がより適切であるかまたは適切ではない場合がある(例えば、特定のエリアでヘッドライトを点滅させたり、またはクラクションを鳴らしたりすることは違法である場合がある)。不適切な、効果がない、不便な、またはあまり役に立たない伝達のそのような例は、不適切であるとして(例えば、人間の操作者によって手動で)生成および/またはラベル付けされ、および/または訓練データとして使用され得る。したがって、上記のように、モデルは、伝達が適切であるかどうか、もしそうであれば、伝達のタイプ、またはむしろ、伝達が聴覚的であるかもしくは視覚的であるかを出力するように訓練され得る。一例として、モデルは、可能な伝達タイプのリストおよびそれぞれに対応する適切性のレベルを特定し得る。場合によっては、ユーザは自分の体験について肯定的および/または否定的なフィードバックを提供することがある。この情報は、ユーザがより適切であると最も役立つと思われた伝達を選択するようにモデルを訓練するのを助けるためにも使用できる。 Similarly, the model can be trained to distinguish between situations in which visual communication is appropriate and cases in which auditory communication is appropriate. For example, it may not be appropriate (or more appropriate) to honk the horn (or play a corresponding auditory transmission via speaker 154) in a crowded area, and using lights during the day may be It may not be appropriate (or more appropriate). In this regard, user feedback regarding the effectiveness or usefulness of various transmissions can also be used to train the model. As an example, the user may ask whether a particular transmission was inappropriate or inconvenient, and why (e.g., whether a person was standing in front of the vehicle when the headlights flashed, causing pain to the person's eyes). information displayed on the horn or electronic display has disturbed others in the vehicle's environment, etc.). In addition, based on laws and regulations, audible communication may or may not be more appropriate (e.g., it is illegal to flash your headlights or honk your horn in certain areas). sometimes). Such instances of inappropriate, ineffective, inconvenient, or less helpful communication are generated and/or labeled (e.g., manually by a human operator) as inappropriate, and/or can be used as training data. Thus, as above, the model is trained to output whether the transmission is appropriate and, if so, the type of transmission , or rather whether the transmission is auditory or visual. can be As an example, the model may identify a list of possible transfer types and a corresponding level of appropriateness for each. In some cases, users may provide positive and/or negative feedback about their experience. This information can also be used to help train the model to select the transmissions that the user finds most useful.

場合によっては、利用可能な訓練データの量に応じて、モデルを特定の目的のために訓練することができる。例えば、モデルは、特定のユーザまたはユーザのタイプのために、特定の位置でピックアップされたそのユーザまたはユーザの履歴のタイプに基づいて訓練され得る。このようにして、モデルは、車両がそのユーザの典型的なピックアップ位置から逸脱する必要がある状況において、車両がユーザに事前に通知を提供することを可能にし得る。例えば、ユーザが通常は建物の片隅でピックアップされているが、障害物(建設、駐車中の車両、倒れた木の破片など)があり、車両が建物の別の隅などの別の位置に移動することを余儀なくされている場合、モデルは、車両が視覚的および/または聴覚的伝達(クラクション、ライトの点滅など、または電子ディスプレイ152上に情報を表示することによって)を介してユーザに事前に通知できるように訓練して、ユーザが建物を出るときにユーザの注意を引くことができる。このようにして、車両は必要に応じて応答することができる。場合によっては、モデルは、視覚的および/または聴覚的伝達と併せて、ユーザのクライアントコンピューティングデバイス上のアプリケーションを介してユーザにさらに通知するように訓練され得る。 In some cases, a model can be trained for a specific purpose, depending on the amount of training data available. For example, a model may be trained for a particular user or type of user based on the type of user or user history picked up at a particular location. In this way, the model may allow the vehicle to provide advance notice to the user in situations where the vehicle should deviate from its user's typical pick-up location. For example, a user is normally picked up in one corner of a building, but there is an obstacle (construction, parked vehicle, fallen tree debris, etc.) causing the vehicle to move to another location, such as another corner of the building. If the vehicle is forced to do so, the model will inform the user in advance through visual and/or auditory communication (honking, flashing lights, etc., or by displaying information on the electronic display 152). It can be trained to be notified to get the user's attention when they leave the building. In this way the vehicle can respond as needed. In some cases, the model may be trained to further notify the user via an application on the user's client computing device in conjunction with visual and/or auditory communication .

次に、訓練されたモデル、またはむしろモデルおよびパラメータ値を、車両100、100Aなどの1つ以上の車両に提供して、これらの車両のコンピューティングデバイス110が人よりよく通信できるようにすることができる。車両がピックアップ位置に近づくかまたは待機しているとき(または商品をドロップオフしているとき)。車両のコンピューティングデバイス110は、モデルを使用して、伝達が適切であるかどうか、適切である場合はどのタイプであるかを決定することができる。これは、例えば、車両の環境に基づいて、および/またはユーザ(または可能な乗客)が車両に対して明確な視線を持っているかどうか、またはその逆に応じて、行われ得る。 The trained model, or rather the model and parameter values, are then provided to one or more vehicles, such as vehicles 100, 100A, to enable the computing devices 110 of these vehicles to better communicate with humans. be able to. When the vehicle is approaching or waiting for a pick-up location (or dropping off goods). The vehicle's computing device 110 can use the model to determine if transmission is appropriate, and if so, what type. This may be done, for example, based on the environment of the vehicle and/or whether the user (or possible passenger) has a clear line of sight to the vehicle, or vice versa.

一態様では、モデルおよびパラメータ値を使用して、上記で説明したようなオプションをアプリケーションに表面化する必要があるかどうかを判定できる。例えば、車両の知覚システムによって生成されたセンサデータ、車両の周囲のエリアのローカル地図情報、および車両の現在位置をモデルに入力することができる。地図情報は、例えば、最も近い縁石、階段、入口または出口までの距離、および/または車両が、車両のユーザの視界を妨げる可能性のある壁または木などの別の物体に近接しているかどうかなどの様々な関連情報を含み得る。この決定は、例えば、車両のコンピューティングデバイスが、車両が停止してユーザを待つ場所を見つけ、その場所に寄せ、および/または車両がすでに停止している(つまり、すでに駐車した)場合に実行され得る。次に、モデルは、伝達が適切であるかどうか、および各タイプの伝達の適切性のレベルを示す値を出力することができる。 In one aspect, the model and parameter values can be used to determine whether options such as those described above should be surfaced to the application. For example, sensor data generated by the vehicle's perception system, local map information for the area around the vehicle, and the vehicle's current position can be input to the model. Map information may, for example, indicate the distance to the nearest curbs, stairs, entrances or exits, and/or whether the vehicle is close to another object such as a wall or tree that may block the vehicle's user's view. may include various related information such as This determination may be made, for example, if the vehicle's computing device finds a place for the vehicle to stop and wait for the user, pulls to that location, and/or if the vehicle is already parked (i.e. already parked). can be The model can then output values indicating whether the transfer is appropriate and the level of appropriateness for each type of transfer .

ある例では、モデルの出力が、視覚的伝達が聴覚的伝達よりも適切であることを示している場合、表面化されたオプションは視覚的伝達のみを許可してもよい。言い換えれば、視覚的伝達の適切性を示す値が聴覚的伝達を示す値よりも大きい場合、表面化されたオプションは視覚的伝達のみを可能にし得る。例えば、図7に目を向けると、視覚的伝達を提供するためのオプション620は利用できないが、聴覚的伝達を提供するためのオプション610は利用可能である。 In one example, if the output of the model indicates that visual communication is more appropriate than auditory communication , the options surfaced may only allow visual communication . In other words, if the value indicative of adequacy of visual communication is greater than the value indicative of auditory communication , the surfaced option may only allow visual communication . For example, looking to FIG. 7, option 620 for providing visual communication is not available, but option 610 is available for providing audible communication .

同様に、モデルの出力が、聴覚的伝達が視覚的伝達よりも適切であることを示している場合、表面化されたオプションは視覚的伝達のみを許可する場合がある。繰り返すが、言い換えれば、聴覚的伝達の適切性を示す値が視覚的伝達を示す値よりも大きい場合、表面化されたオプションは視覚的伝達のみを許可してもよい。例えば、図8に目を向けると、聴覚的伝達を提供するためのオプション610は利用できないが、視覚的伝達を提供するためのオプション620は利用可能である。 Similarly, if the model's output indicates that auditory communication is more appropriate than visual communication , the options surfaced may only allow visual communication . Again, in other words, if the value indicating adequacy of auditory communication is greater than the value indicating visual communication , the surfaced option may only allow visual communication . For example, looking at FIG. 8, option 610 for providing audible communication is not available, but option 620 for providing visual communication is available.

一例として、図2の地図情報200に対応する図9に目を向けると、訓練データは、ユーザが、例えば入口および出口286を介して、建物220を出るとき、エリア910の近くに立ち、例えば、オプション610または620を介した聴覚的または視覚的伝達を要求する傾向があることを示し得る。したがって、訓練されたモデルが使用されるとき、ユーザが、例えば入口および出口286を介して建物220を出て、それらのクライアントコンピューティングデバイスのGPSによって追跡されるように(そしておそらく車両の知覚システム172による歩行者の検出によって確認されるように)エリア910に向かってまたはその近くの軌道上にあるとき、アプリケーションは、図6、7、および8のいずれかの例のように、伝達(例えば、視覚的、聴覚的、またはその両方)を提供するオプションを自動的に表面化することができる。 As an example, turning to FIG. 9, which corresponds to the map information 200 of FIG. , options 610 or 620 to indicate a tendency to request audio or visual communication . Thus, when the trained model is used, users exit building 220, for example, via entrances and exits 286, and are tracked by their client computing device's GPS (and possibly the vehicle's perception system). When on a trajectory toward or near area 910 (as confirmed by pedestrian detection by 172), the application may communicate (e.g., , visual, audible, or both) can be automatically surfaced.

別の態様では、モデルを使用して、上記のようにオプションを表面化するだけではなく、車両が自動的に聴覚的伝達を行うべきかどうかを決定することができる。繰り返すが、この決定は、例えば、車両のコンピューティングデバイスが、車両が停止してユーザを待つ場所を見つけ、その場所に寄せ、および/または車両がすでに停止している(すなわち、すでに駐車している)と実行され得る。例えば、図10に目を向けると、訓練データは、ユーザが建物220を出るとき、例えば入口と出口282を経由する場合、エリア1010およびユーザオプション610の近くに立って、車両のコンピューティングデバイスにクラクションを鳴らさせる(または、スピーカ154を介して対応する聴覚的伝達を生成する)傾向があることを示す。したがって、訓練されたモデルが使用されるとき、ユーザが建物220を出て、それらのクライアントコンピューティングデバイスのGPSによって追跡されるように(そしておそらく車両の知覚システムによる歩行者の検出によって確認されるように)エリア1010に向かってまたはその近くの軌道上にあるとき、車両のコンピューティングデバイス110は、自動的にクラクションを鳴らす(またはスピーカ154を介して対応する聴覚的伝達を生成する)ことができる。別の例では、訓練データは、ユーザが、例えば入口および出口286を介して、建物220を出るとき、ユーザはエリア1020の近くに立ち、オプション620を使用して車両のコンピューティングデバイスにヘッドライト350、352を点滅させる傾向があることを示し得る。したがって、訓練されたモデルが使用される場合、ユーザが入口および出口286を介して建物220を出て、ユーザが周囲に多くの歩行者がいるエリア1020に向かってまたはその近くに軌道上にいる場合に周囲に多くの歩行者が存在するとき、それらのクライアントコンピューティングデバイスのGPSによって追跡される(そしておそらく車両の知覚システムによる歩行者の検出によって確認される)ように、車両のコンピューティングデバイス110がヘッドライト350、352を自動的に点滅させることができる。 In another aspect, the model can be used to determine whether the vehicle should automatically make audible transmissions , rather than just surfacing options as described above. Again, this determination can be made, for example, by the vehicle's computing device finding a place where the vehicle is parked and waiting for the user, pulling over to that location, and/or if the vehicle is already parked (i.e. already parked). ) can be executed. For example, turning to FIG. 10, the training data indicates that when the user exits building 220, e.g., via entrance and exit 282, stands near area 1010 and user option 610 and displays the indicates a tendency to honk the horn (or produce a corresponding audible transmission via speaker 154). Thus, when the trained model is used, users leave the building 220 and are tracked by their client computing device's GPS (and possibly confirmed by pedestrian detection by the vehicle's perception system). ), the vehicle's computing device 110 may automatically honk its horn (or generate a corresponding audible communication via speaker 154) when on track toward or near area 1010. can. In another example, the training data indicates that when the user exits the building 220, e.g., via the entrance and exit 286, the user stands near the area 1020 and uses option 620 to turn on the headlights to the vehicle's computing device. It may indicate a tendency to blink 350,352. Thus, when the trained model is used, the user leaves building 220 via entrance and exit 286 and is on track towards or near area 1020 with many pedestrians around. If there are many pedestrians around, the vehicle's computing devices as tracked by their client computing device's GPS (and possibly confirmed by pedestrian detection by the vehicle's perception system) 110 can automatically flash the headlights 350,352.

場合によっては、車両のコンピューティングデバイスは、ユーザのアカウント情報からの情報および/またはユーザからの他の入力を使用して、適切な伝達のタイプを決定することができる。例えば、ユーザのアカウント情報または他の入力が、ユーザに障害(視覚または聴覚関連)があることを示している場合、これをコンピューティングデバイスが使用して、モデルの出力を「オーバーライド」、および/またはモードへの入力としてもよい。例えば、視覚障害者は、聴覚的伝達からより多くの恩恵を受ける可能性がある。ただし、周囲に他の人がたくさんいる場合、システムは、警笛を鳴らすよりも、ユーザのデバイスを介して指示を与えることを好む場合がある。同様に、聴覚障害者は、聴覚的伝達よりも視覚的伝達の方が恩恵を受ける可能性がある。また、ユーザが車両に到達するためにカバーする必要のある距離に関連する様々なパラメータには、より高いしきい値が存在する場合がある。例えば、車両のコンピューティングデバイスは、視覚障害者が道路または他の歩行者に優しくないエリア(交通量が多い)を横断して車両に到達するように指示または奨励することを避ける必要がある。 In some cases, the vehicle's computing device may use information from the user's account information and/or other input from the user to determine the appropriate type of transmission . For example, if the user's account information or other input indicates that the user has a disability (visual or auditory related), this can be used by the computing device to "override" the model's output and/or Or it may be an input to a mode. For example, blind people may benefit more from auditory communication . However, if there are many other people around, the system may prefer to give instructions through the user's device rather than honking. Similarly , deaf people may benefit more from visual than auditory communication . Also, there may be higher thresholds for various parameters related to the distance that the user must cover to reach the vehicle. For example, a vehicle's computing device should avoid directing or encouraging a visually impaired person to cross a road or other pedestrian-unfriendly area (heavy traffic) to reach the vehicle.

加えて、または代替的に、モデルの出力を使用して、初期アクションを決定および実行することができ、その後のアクションは、初期アクションに応じて自動的に実行され得る。繰り返すが、この決定は、例えば、車両のコンピューティングデバイスが、車両が停止してユーザを待つ場所を見つけ、その場所に寄せ、および/または車両がすでに停止している(すなわち、すでに駐車している)と実行され得る。例えば、ユーザが建物220を出てエリア1020に近づくと、車両のコンピューティングデバイス110は、ヘッドライト350、352を自動的に点滅させることができる。(例えば、車両に向かって)ユーザの軌道に即時の変化がなく、オプション610などのオプションが、ユーザのクライアントコンピューティングデバイスを介して表面化され、図7の例のように、ユーザが車両のコンピューティングデバイス110にクラクションを鳴らさせること(またはスピーカ154を介して対応する聴覚的伝達を生成すること)を可能にし得る。別の例として、ユーザが建物220を出てエリア1020に近づくと、車両のコンピューティングデバイス110は、ヘッドライト350、352を自動的に点滅させることができる。(例えば、車両に向かって)ユーザの軌道に即時の変化がない場合、車両のコンピューティングデバイス110は、自動的に車両のクラクションを鳴らす(またはスピーカ154を介して対応する聴覚的伝達を生成する)ことができる。場合によっては、自動的に警笛を鳴らすことに加えて、オプション610などのオプションも表面化して、図7の例に示すように、ユーザが車両に車両のクラクションを鳴らさせる(またはスピーカ154を介して対応する聴覚的伝達を生成する)ことを可能にしてもよい。代替的に、オプションを表面化するのではなく、車両が車両のクラクションを鳴らしていることをユーザに知らせる通知を表示してもよい。少なくとも最初は、これらの後続のアクションは、ランダムに、または人間が調整したヒューリスティックを使用することによって、選択できる。場合によっては、これらのヒューリスティックは、特定の音声キューまたは車両の環境に関する他の情報(他のメッセージ情報など)への応答を伴う可能性がある。例えば、周囲のノイズが多い場合は、大音量の音声伝達が最初のアクションとして役立ち得る。 Additionally or alternatively, the output of the model can be used to determine and perform initial actions, and subsequent actions can be performed automatically in response to the initial actions. Again, this determination can be made, for example, by the vehicle's computing device finding a place where the vehicle is parked and waiting for the user, pulling over to that location, and/or if the vehicle is already parked (i.e. already parked). ) can be executed. For example, when the user exits the building 220 and approaches the area 1020, the vehicle's computing device 110 may automatically cause the headlights 350, 352 to flash. With no immediate change in the user's trajectory (e.g., toward the vehicle), options such as option 610 are surfaced via the user's client computing device, and the user is directed to the vehicle's computing device, as in the example of FIG. may allow the driving device 110 to honk its horn (or generate a corresponding audible transmission via the speaker 154). As another example, when the user exits the building 220 and approaches the area 1020, the vehicle's computing device 110 may automatically flash the headlights 350, 352. FIG. If there is no immediate change in the user's trajectory (eg, towards the vehicle), the vehicle's computing device 110 automatically honks the vehicle's horn (or generates a corresponding auditory communication via speaker 154). )be able to. In some cases, in addition to automatically honking, options such as option 610 also surface to allow the user to cause the vehicle to honk the vehicle (or via speaker 154), as shown in the example of FIG. to generate a corresponding auditory transmission ). Alternatively, rather than surface the option, a notification may be displayed informing the user that the vehicle is honking its horn. At least initially, these subsequent actions can be chosen randomly or by using human-tuned heuristics. In some cases, these heuristics may involve responding to specific audio cues or other information about the vehicle's environment (such as other message information). For example, when there is a lot of ambient noise, a loud voice transmission may serve as a first action.

後続のアクションに対するユーザの応答を使用して、エスカレートされた伝達のモデルを構築できる。エスカレートされた伝達のモデルは、決定木(ランダムフォレスト決定木など)、ディープニューラルネットワーク、ロジスティック回帰、ニューラルネットワークなどの機械学習モデルである可能性がある。例えば、後続のアクションが使用された各状況に対して、結果が追跡される場合がある。次に、この情報は、例えば、サーバコンピューティングデバイス410によって分析されて、エスカレートされた伝達のモデルを訓練し、それによって、ユーザが車両伝達に応答してより迅速に車両に入る可能性を高めるパターンを特定することができる。例えば、この分析には、伝達に応じた「搭乗までの時間」+「軌道の変更の時間/一貫性」の両方が含まれる場合がある。例として、一般的な(または平均的な)ユーザが建物220を出るときに、搭乗するのにN秒かかる場合。しかし、車両のコンピューティングデバイス110が聴覚的伝達を提供する場合、例えば、N/2に減少し、その結果、車両の発見可能性が大幅に改善される。軌道の変更についても同じことが言える。ユーザが一般に建物220で車両から離れようとしているが、平均的な場合で最終的には車両を見つけた場合、理想的には、車両が聴覚的伝達を提供した後、ユーザが車両に向かう軌道を修正するまでの時間が大幅に改善される可能性がある。 User responses to subsequent actions can be used to build models of escalated communication . Models of escalated transfer can be machine learning models such as decision trees (such as random forest decision trees), deep neural networks, logistic regression, neural networks, etc. For example, results may be tracked for each situation where a subsequent action was used. This information is then analyzed, for example, by server computing device 410 to train a model of the escalated transition , thereby increasing the likelihood that the user will enter the vehicle more quickly in response to the vehicle transition . Patterns can be identified. For example, this analysis may include both "time to board" + "time/consistency of trajectory change" depending on the transmission . As an example, when a typical (or average) user exits building 220, it takes N seconds to board. However, if the vehicle's computing device 110 provides an audible transmission , it is reduced, for example, to N/2, resulting in significantly improved discoverability of the vehicle. The same is true for trajectory changes. If the user is generally leaving the vehicle at the building 220, but eventually finds the vehicle in the average case, then ideally the trajectory that the user heads toward the vehicle after the vehicle has provided audible communication . time to fix can be greatly improved.

次に、エスカレートされた伝達のモデルを訓練して、前のアクションまたは最初のアクションに基づいて、ユーザが車両に到達するのを最も容易にするための次のアクションがどうあるべきかを決定することができる。一例として、モデルは、ユーザの向きを使用して訓練することができる。例えば、モデルへの訓練入力は、ユーザが車両に到達する、および/または車両に搭乗するための実際の時間、時間の経過とともにユーザがどのアクションを利用したか、およびユーザの元の向きを含み得る。これらの組み合わせは、エスカレートされた伝達、例えば、ユーザによって開始された第2または第3の伝達が、ユーザがアクションをトリガしたときにユーザの向きを修正することによって搭乗時間を短縮したかどうかを示し得る。したがって、ユーザが北に向かって建物を出る場合(車両が実際には反対方向、ここでは南にある場合)、前述のオプションを使用して車両にクラクションを鳴らさせ、次に車両に向かって方向を変更すると、モデルは、出口を出て北に向かっているユーザを追跡するときに、モデルが車両にクラクションを早く鳴らさせ得るように訓練することができる。同様に、最初のアクションでユーザに向きを変更させない場合、エスカレートされた伝達のモデルを使用して、必要に応じて、ユーザの反応(例えば、向きの変更など)に基づいて、第2の伝達、第3の伝達などを決定できる。繰り返すが、モデルの訓練に使用される訓練データが多いほど、モデルが前のアクションからエスカレートする方法を決定する際に正確なモードになる。 It then trains a model of escalated communication to determine what the next action should be to make it easiest for the user to reach the vehicle, based on previous or initial actions. be able to. As an example, a model can be trained using the user's orientation. For example, training inputs to the model include the actual time for the user to reach and/or board the vehicle, what actions the user employed over time, and the user's original orientation. obtain. These combinations indicate whether escalated transmissions , e.g., user-initiated second or third transmissions , reduced boarding time by correcting the user's orientation when the user triggered the action. can show So if the user exits the building heading north (where the vehicle is actually in the opposite direction, south here), use the previously mentioned options to have the vehicle honk its horn, then head toward the vehicle. By changing , the model can be trained to cause the vehicle to honk its horn early when following a user heading north out of an exit. Similarly, if the first action does not force the user to change orientation, the model of escalated communication can be used to, if necessary, base the second communication on the user's reaction (e.g., change orientation, etc.). , a third transmission , etc. can be determined. Again, the more training data that is used to train the model, the more accurate the model will be in determining how to escalate from previous actions.

一例として、エスカレートされた伝達のモデルは、建物220を出てエリア1010に立っているユーザのために、車両が最初にユーザからの応答なしにライトを点滅させ、その後、車両が自動的に車両のクラクションを鳴らす(またはスピーカ154を介して対応する聴覚的伝達を生成する)ように訓練され得る。(例えば、車両に向かって)ユーザの軌道に即時の変化がない場合、車両のコンピューティングデバイス110は、顧客サービス担当者、例えば、コンピューティングデバイス440を使用するユーザ442などの顧客サービス担当者を自動的に呼び出すことができる。担当者は、車両の知覚システム172によって生成され、そこから受信されたセンサデータ、車両の測位システム170によって生成され、そこから受信された車両の位置、ならびにユーザのクライアントコンピューティングデバイスによって生成され、そこから受信されたユーザの位置を使用することによって、ユーザと通信し、ユーザを車両に誘導することができ得る。 As an example, a model of escalated transmission is that for a user exiting building 220 and standing in area 1010, the vehicle first flashes the lights without any response from the user, and then the vehicle automatically turns on the vehicle. horn (or produce a corresponding auditory transmission via speaker 154). If there is no immediate change in the user's trajectory (e.g., towards the vehicle), the vehicle's computing device 110 may call a customer service representative, e.g., a customer service representative such as user 442 using computing device 440. can be called automatically. Personnel are sensor data generated by and received from the vehicle's perception system 172, the vehicle's position generated by and received from the vehicle's positioning system 170, as well as the user's client computing device, and The user's location received therefrom may be used to communicate with the user and direct the user to the vehicle.

別の例として、エスカレートされた伝達のモデルは、建物220を出てエリア1020に立っているユーザのために、その後、車両は、ユーザの軌跡に変化があるかどうかを確認するために毎回待っている間に車両のクラクションを自動的に3回鳴らすべきであるように訓練され得る。別の例として、エスカレートされた伝達のモデルは、夜間に建物Eを出るユーザのために、オプションを表面化させるのではなく、車両のコンピューティングデバイス110が常に顧客サービス担当者を自動的に呼び出すことができるように訓練され得る。 As another example, a model of escalated transmission is that for a user exiting building 220 and standing in area 1020, the vehicle then waits each time to see if there is a change in the user's trajectory. can be trained to automatically honk the vehicle's horn three times while As another example, the model of escalated communication is that instead of surfacing options for users leaving building E at night, the vehicle's computing device 110 always automatically calls a customer service representative. can be trained to

第1のモデルと同様に、エスカレートされた伝達の訓練されたモデルは、次に、それらの車両のコンピューティングデバイス110が人々とよりよく通信できるようにするために、車両100、100Aなどの1つ以上の車両に提供され得る。 Similar to the first model, the trained model of escalated communication is then applied to one of the vehicles 100, 100A, etc. to enable the computing devices 110 of those vehicles to better communicate with people. can be provided for more than one vehicle.

メッセージおよび他の情報を使用してモデルを訓練することに加えて、ピックアップとドロップオフをより容易にするためにデータを分析することができる。例えば、ユーザがピックアップのために一般にエリア1010に位置し、通常、車両が1020であるときに車両のクラクションを作動させるオプションを使用する場合、これを使用して、車両をエリア1010の位置の近くで停止させることができる。 In addition to using messages and other information to train models, data can be analyzed to make pick-ups and drop-offs easier. For example, if the user is generally located in area 1010 for pickup and would normally use the option to activate the vehicle horn when the vehicle is at 1020, this could be used to move the vehicle near the area 1010 location. can be stopped by

図11は、ユーザに対する自律車両からの伝達を容易にするために、コンピューティングデバイス110のプロセッサ120など、1つ以上のコンピューティングデバイスの1つ以上のプロセッサによって実行され得る本開示の態様による例示的なフロー図1100である。 FIG. 11 illustrates an example according to aspects of the disclosure that may be executed by one or more processors of one or more computing devices, such as processor 120 of computing device 110, to facilitate communication from an autonomous vehicle to a user. 11 is a typical flow diagram 1100. FIG.

ブロック1110に示すように、車両によってユーザをピックアップしようとしている間、ユーザが車両に入る前に、ユーザに対する車両の位置を伝達するための伝達アクションのタイプを特定するために、車両の現在位置および地図情報がモデルに入力される。これには、モデルおよび/または上記のエスカレートされた伝達のモデルが含まれる場合がある。したがって、上記のように、モデルは、伝達が適切であるかどうか、もしそうであれば、伝達のタイプ、またはむしろ、伝達が聴覚的であるかもしくは視覚的であるかを出力することができる。 While attempting to pick up the user by the vehicle, as shown in block 1110, before the user enters the vehicle, the vehicle's current location and Map information is input to the model. This may include models and/or models of escalated communication as described above. Thus, as above, the model can output whether the transmission is appropriate, and if so, the type of transmission , or rather whether the transmission is auditory or visual. .

ブロック1120において、第1の伝達は、伝達アクションのタイプに基づいて有効にされる。この有効化は、例えば、上記のようにオプションを表面化すること、および/または上記のように聴覚的または視覚的伝達を自動的に生成することを含み得る。 At block 1120, a first propagation is enabled based on the type of propagation action. This activation may include, for example, surfacing options as described above and/or automatically generating an audible or visual communication as described above.

ブロック1130において、第1の伝達を可能にした後、ユーザが車両に向かって移動しているかどうかは、受信したセンサデータから決定される。言い換えれば、ユーザが第1の伝達に応答したかどうかが決定され得る。このセンサデータには、車両の知覚システム172によって生成されたセンサデータおよび/またはユーザのクライアントコンピューティングデバイスからのセンサデータが含まれ得る。このセンサデータから、車両のコンピューティングデバイスは、例えば、ユーザが車両に向かって移動しているか、車両に向かって向いているか、および/またはユーザが車両に向かって移動するために向きを変更したかどうかを決定することができる。 At block 1130, it is determined from the received sensor data whether the user is moving toward the vehicle after enabling the first transmission . In other words, it can be determined whether the user has responded to the first transmission . This sensor data may include sensor data generated by the vehicle's perception system 172 and/or sensor data from the user's client computing device. From this sensor data, the vehicle's computing device determines, for example, whether the user is moving toward the vehicle, is facing toward the vehicle, and/or has changed orientation to move toward the vehicle. can decide whether

ブロック1140において、第2の伝達は、ユーザが車両に向かって移動しているかどうかの決定に基づいて有効にされる。一例として、第2の伝達は、第1の伝達の有効化に応答して車両に向かって移動するために、ユーザが車両に向かって移動していないか、またはユーザの向きまたは配向を変更していないときに有効になり得る。有効化は、例えば、上記のようにオプションを表面化すること、および/または上記のように聴覚的または視覚的伝達を自動的に生成することを含み得る。 At block 1140, a second transmission is enabled based on a determination of whether the user is moving toward the vehicle. As an example, the second transmission may indicate that the user is not moving toward the vehicle or changes the orientation or orientation of the user to move toward the vehicle in response to activation of the first transmission . can be enabled when not Activation may include, for example, surfacing options as described above and/or automatically generating an audible or visual communication as described above.

本明細書に記載の特徴は、自律車両が乗客またはユーザのピックアップおよびドロップオフを改善することを可能にし得る。例えば、ユーザは、自分自身で、または表面化されたオプションを使用するように促すことによって、車両がユーザに視覚的および/または聴覚的に伝達するようにすることができる。これにより、ユーザが車両の位置をより容易に特定できる。加えて、または代替的に、車両はモデルを使用して、ユーザと通信するかどうか、および伝達する方法、ならびに時間の経過とともにそれらの伝達をエスカレートする方法を事前に決定してもよい。 The features described herein may enable autonomous vehicles to improve pick-up and drop-off of passengers or users. For example, the user can have the vehicle visually and/or audibly communicate with the user, either by themselves or by prompting them to use surfaced options. This allows the user to more easily identify the position of the vehicle. Additionally or alternatively, the vehicle may use the model to pre-determine if and how to communicate with the user and how to escalate those communications over time.

特段の記述がない限り、前述の代替的な例は、相互に排他的ではないが、独自の有益点を達成するために様々な組み合わせで実施され得る。上で考察される特徴のこれらおよび他の変形および組み合わせは、特許請求の範囲によって規定される主題から逸脱することなく利用することができるので、実施形態の前述の説明は、特許請求の範囲によって規定される主題の限定としてではなく、例示としてみなされるべきである。加えて、本明細書に記載された例、ならびに「など」、「含む」などと表現された語句の提供は、特許請求の範囲の主題を特定の例に限定するものと解釈されるべきではなく、むしろ、例は、多くの可能な実施形態のうちの1つだけを例示することが意図される。さらに、異なる図面中の同じ参照番号は、同じまたは類似の要素を特定することができる。
Unless stated otherwise, the aforementioned alternative examples, although not mutually exclusive, can be implemented in various combinations to achieve unique advantages. Since these and other variations and combinations of the features discussed above may be utilized without departing from the subject matter defined by the claims, the foregoing description of the embodiments is subject to the claims. It should be viewed as an illustration and not as a limitation of the subject matter provided. In addition, the examples described herein and the provision of phrases expressed as "such as,""including," etc. should not be construed as limiting the claimed subject matter to the particular examples. rather, the example is intended to illustrate only one of many possible embodiments. Further, the same reference numbers in different drawings may identify the same or similar elements.

JP2021550045A 2019-03-12 2020-03-09 Transmission for autonomous vehicles Active JP7399179B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023205042A JP2024028843A (en) 2019-03-12 2023-12-05 Transmission for autonomous vehicles

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/351,124 2019-03-12
US16/351,124 US10696222B1 (en) 2019-03-12 2019-03-12 Communications for autonomous vehicles
PCT/US2020/021679 WO2020185665A1 (en) 2019-03-12 2020-03-09 Communications for autonomous vehicles

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023205042A Division JP2024028843A (en) 2019-03-12 2023-12-05 Transmission for autonomous vehicles

Publications (3)

Publication Number Publication Date
JP2022523937A JP2022523937A (en) 2022-04-27
JPWO2020185665A5 true JPWO2020185665A5 (en) 2023-08-23
JP7399179B2 JP7399179B2 (en) 2023-12-15

Family

ID=71125012

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021550045A Active JP7399179B2 (en) 2019-03-12 2020-03-09 Transmission for autonomous vehicles
JP2023205042A Pending JP2024028843A (en) 2019-03-12 2023-12-05 Transmission for autonomous vehicles

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023205042A Pending JP2024028843A (en) 2019-03-12 2023-12-05 Transmission for autonomous vehicles

Country Status (9)

Country Link
US (5) US10696222B1 (en)
EP (1) EP3914496A4 (en)
JP (2) JP7399179B2 (en)
KR (1) KR20210113435A (en)
CN (1) CN113573946A (en)
AU (2) AU2020237426B2 (en)
CA (1) CA3133225A1 (en)
SG (1) SG11202109148WA (en)
WO (1) WO2020185665A1 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10580291B1 (en) * 2017-09-27 2020-03-03 Waymo Llc Vehicle location assistance using audible signals
US10696222B1 (en) * 2019-03-12 2020-06-30 Waymo Llc Communications for autonomous vehicles
US11714153B2 (en) 2019-05-29 2023-08-01 Nvision Solutions, Inc. Remote controlled navigation/locator beacon system
JP7338369B2 (en) * 2019-09-27 2023-09-05 富士通株式会社 Environment map adjustment value calculation method and environment map adjustment value calculation program
US11699206B2 (en) * 2020-02-10 2023-07-11 Ford Global Technologies, Llc Augmented reality vehicle identification with visual light communication
US11682272B2 (en) * 2020-07-07 2023-06-20 Nvidia Corporation Systems and methods for pedestrian crossing risk assessment and directional warning
US11927967B2 (en) * 2020-08-31 2024-03-12 Woven By Toyota, U.S., Inc. Using machine learning models for generating human-like trajectories
US11491909B2 (en) 2020-09-16 2022-11-08 Waymo Llc External facing communications for autonomous vehicles
US11761784B2 (en) 2020-11-24 2023-09-19 Waymo Llc Reachability user experience interfaces for autonomous vehicles
US11458891B1 (en) * 2021-04-05 2022-10-04 Toyota Research Institute, Inc. Secondary horn system for a vehicle
KR20230051827A (en) 2021-10-12 2023-04-19 주식회사 에스씨 Autonomous driving system for ship
US11914914B2 (en) 2022-04-29 2024-02-27 Ford Global Technologies, Llc Vehicle interface control

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6411204B1 (en) * 1999-11-15 2002-06-25 Donnelly Corporation Deceleration based anti-collision safety light control for vehicle
JP3818127B2 (en) * 2001-11-08 2006-09-06 株式会社デンソー Taxi reservation system, reservation terminal, in-vehicle device
US9494938B1 (en) * 2014-04-03 2016-11-15 Google Inc. Unique signaling for autonomous vehicles to preserve user privacy
US10196036B2 (en) * 2014-09-11 2019-02-05 Child Adult Pet Safety Llc Mobile alert and security system
CN107705612A (en) * 2016-08-07 2018-02-16 厦门海存艾匹科技有限公司 The night detection to park cars
CA3140464C (en) 2015-05-13 2023-01-17 Uber Technologies Inc. Autonomous vehicle operated with guide assistance
US10139237B2 (en) 2015-09-01 2018-11-27 Chris Outwater Method for remotely identifying one of a passenger and an assigned vehicle to the other
AU2016355605B2 (en) 2015-11-20 2021-08-19 Uber Technologies, Inc. Controlling autonomous vehicles in connection with transport services
WO2017106497A1 (en) * 2015-12-17 2017-06-22 Counterfy Llc Displayed identifier for a ridesharing service
US9836057B2 (en) * 2016-03-24 2017-12-05 Waymo Llc Arranging passenger pickups for autonomous vehicles
US10255816B2 (en) 2016-04-27 2019-04-09 Uber Technologies, Inc. Transport vehicle configuration for impaired riders
JP6817337B2 (en) * 2016-05-27 2021-01-20 ユーエーティーシー, エルエルシー Facilitating passenger boarding for self-driving cars
CN115343947A (en) * 2016-09-23 2022-11-15 苹果公司 Motion control decision for autonomous vehicles
US10613537B2 (en) * 2016-12-31 2020-04-07 Lyft Inc. Autonomous vehicle pickup and drop-off management
US9953538B1 (en) * 2017-01-17 2018-04-24 Lyft, Inc. Autonomous vehicle notification system
KR20180102871A (en) * 2017-03-08 2018-09-18 엘지전자 주식회사 Mobile terminal and vehicle control method of mobile terminal
US9970615B1 (en) * 2017-05-23 2018-05-15 Ford Global Technologies, Llc Light-based vehicle-device communications
WO2019023324A1 (en) * 2017-07-26 2019-01-31 Via Transportation, Inc. Systems and methods for managing and routing ridesharing vehicles
US11126191B2 (en) * 2017-08-07 2021-09-21 Panasonic Intellectual Property Corporation Of America Control device and control method
JP2019032806A (en) 2017-08-07 2019-02-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Controller and control method
US10696222B1 (en) * 2019-03-12 2020-06-30 Waymo Llc Communications for autonomous vehicles
US11462019B2 (en) * 2019-09-20 2022-10-04 Gm Cruise Holdings Llc Predicting rider entry time for pick-up and drop-off locations
US10953852B1 (en) * 2019-09-27 2021-03-23 GM Cruise Holdings, LLC. Pick-up authentication via audible signals
US11900815B2 (en) * 2019-09-30 2024-02-13 Gm Cruise Holdings Llc Augmented reality wayfinding in rideshare applications

Similar Documents

Publication Publication Date Title
JP7399179B2 (en) Transmission for autonomous vehicles
JP7150159B2 (en) Autonomous Vehicle Traffic Light Detection and Lane State Recognition
US11977387B2 (en) Queueing into pickup and drop-off locations
US11884264B2 (en) Driveway maneuvers for autonomous vehicles
JP7217340B2 (en) Reduced nuisance to surrounding road users caused by stationary autonomous vehicles
KR102479271B1 (en) Ambient Lighting Conditions for Autonomous Vehicles
US11840173B2 (en) External facing communications for autonomous vehicles
US20240092392A1 (en) Detecting and Responding to Malfunctioning Traffic Lights
JPWO2020185665A5 (en)
CN112789205A (en) Detecting and responding to queues for autonomous vehicles
US11912307B2 (en) Monitoring head movements of drivers tasked with monitoring a vehicle operating in an autonomous driving mode
US20240157872A1 (en) External facing communications for autonomous vehicles