JP2019505034A - Automatic prediction and altruistic response of vehicle lane interruptions - Google Patents

Automatic prediction and altruistic response of vehicle lane interruptions Download PDF

Info

Publication number
JP2019505034A
JP2019505034A JP2018526138A JP2018526138A JP2019505034A JP 2019505034 A JP2019505034 A JP 2019505034A JP 2018526138 A JP2018526138 A JP 2018526138A JP 2018526138 A JP2018526138 A JP 2018526138A JP 2019505034 A JP2019505034 A JP 2019505034A
Authority
JP
Japan
Prior art keywords
vehicle
host vehicle
lane
interrupt
target vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018526138A
Other languages
Japanese (ja)
Other versions
JP2019505034A5 (en
JP7188844B2 (en
Inventor
シュタイン,ギデオン
Original Assignee
モービルアイ ビジョン テクノロジーズ リミテッド
モービルアイ ビジョン テクノロジーズ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by モービルアイ ビジョン テクノロジーズ リミテッド, モービルアイ ビジョン テクノロジーズ リミテッド filed Critical モービルアイ ビジョン テクノロジーズ リミテッド
Publication of JP2019505034A publication Critical patent/JP2019505034A/en
Publication of JP2019505034A5 publication Critical patent/JP2019505034A5/ja
Priority to JP2022129417A priority Critical patent/JP2022172153A/en
Application granted granted Critical
Publication of JP7188844B2 publication Critical patent/JP7188844B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • B60W60/00274Planning or execution of driving tasks using trajectory prediction for other traffic participants considering possible movement changes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0016Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09626Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages where the origin of the information is within the own vehicle, e.g. a local storage device, digital map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Business, Economics & Management (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Navigation (AREA)

Abstract

割込み車両を検出し、且つそれに応答するため、及び利他的行動パラメータを考慮に入れながらナビゲートするためのシステム及び方法が提供される。1つの実装形態では、ホスト車両システムのための車両割込み検出及び応答システムは、データインタフェースと、少なくとも1つの処理デバイスとを含み得る。少なくとも1つの処理デバイスは、データインタフェースを介して、ホスト車両に関連付けられる少なくとも1つの画像捕捉デバイスから複数の画像を受信することと、複数の画像において、ホスト車両が走行している第2のレーンと異なる第1のレーンを走行している標的車両の画像を識別することと、複数の画像の分析に基づいて、標的車両が第1のレーンから第2のレーンに変更するであろうという少なくとも1つのインジケータを識別することと、少なくとも1つの所定の割込み感度変更要素がホスト車両の環境中に存在するか否かを検出することと、所定の割込み感度変更要素が検出されない場合、少なくとも1つのインジケータの識別に基づいて、及び第1の割込み感度パラメータに関連付けられる値に基づいて、ホスト車両における第1のナビゲーション応答を生じさせることと、少なくとも1つの所定の割込み感度変更要素が検出される場合、少なくとも1つのインジケータの識別に基づいて、及び第2の割込み感度パラメータに関連付けられる値に基づいて、ホスト車両における第2のナビゲーション応答を生じさせることとを行うようにプログラムされ得、第2の割込み感度パラメータは、第1の割込み感度パラメータと異なる。Systems and methods are provided for detecting and responding to an interrupting vehicle and for navigating while taking into account altruistic behavior parameters. In one implementation, a vehicle interrupt detection and response system for a host vehicle system may include a data interface and at least one processing device. At least one processing device receives, via the data interface, a plurality of images from at least one image capture device associated with the host vehicle, and a second lane in which the host vehicle is traveling in the plurality of images. At least that the target vehicle will change from the first lane to the second lane based on identifying the image of the target vehicle traveling in a different first lane and analyzing the plurality of images Identifying one indicator; detecting whether at least one predetermined interrupt sensitivity changing element is present in the host vehicle environment; and if no predetermined interrupt sensitivity changing element is detected, at least one Based on the identification of the indicator and based on the value associated with the first interrupt sensitivity parameter, Generating a first navigation response, and if at least one predetermined interrupt sensitivity changing element is detected, based on the identification of at least one indicator and based on a value associated with the second interrupt sensitivity parameter And generating a second navigation response at the host vehicle, wherein the second interrupt sensitivity parameter is different from the first interrupt sensitivity parameter.

Description

関連出願の相互参照
本願は、2015年11月26日に出願された米国仮特許出願第62/260,281号及び2016年7月12日に出願された米国仮特許出願第62/361,343号の優先権の利益を主張するものである。上記出願は全て、全体として参照により本明細書に援用される。
This application is related to US Provisional Patent Application No. 62 / 260,281 filed on November 26, 2015 and US Provisional Patent Application No. 62 / 361,343 filed on July 12, 2016. Claims the interest of the priority of the issue. All of the above applications are incorporated herein by reference in their entirety.

背景
技術分野
本開示は、概して、自律車両ナビゲーションに関する。更に、本開示は、割込み車両を検出し且つそれに応答し、及び利他的動作パラメータを考慮に入れながらナビゲートするためのシステム及び方法に関する。
The present disclosure relates generally to autonomous vehicle navigation. The present disclosure further relates to a system and method for detecting and responding to an interrupted vehicle and navigating while taking into account altruistic operating parameters.

背景情報
技術が進化し続けるにつれ、路上でナビゲート可能な完全自律車両という目標が現実味を帯びてきている。自律車両は、様々な要因を考慮する必要があり得、それらの要因に基づいて、意図される目的地に安全且つ正確に到達するのに適切な判断を下し得る。例えば、自律車両は、視覚情報(例えば、カメラから捕捉された情報)を処理して解釈する必要があり得ると共に、他のソースから(例えば、全地球測位システム(GPS)デバイス、速度センサ、加速度計、サスペンションセンサ等から)得られる情報を使用することもある。同時に、目的地にナビゲートするために、自律車両は、特定の道路内のその位置(例えば、複数レーン道路内の特定のレーン)を識別し、他の車両と並んでナビゲートし、障害物及び歩行者を回避し、交通信号及び標識を観測し、適切な交差点又はインターチェンジで1つの道路から別の道路に走行する必要もあり得る。
Background Information As technology continues to evolve, the goal of fully autonomous vehicles that can be navigated on the road is becoming reality. Autonomous vehicles may need to take into account various factors, and based on those factors, can make appropriate decisions to reach the intended destination safely and accurately. For example, autonomous vehicles may need to process and interpret visual information (eg, information captured from a camera) and from other sources (eg, global positioning system (GPS) devices, speed sensors, accelerations) Information obtained from a meter, suspension sensor, etc.) may be used. At the same time, in order to navigate to the destination, the autonomous vehicle identifies its position in a particular road (eg, a particular lane in a multi-lane road), navigates alongside other vehicles, and It may also be necessary to avoid pedestrians, observe traffic signals and signs, and drive from one road to another at appropriate intersections or interchanges.

ナビゲーション中、自律車両は、レーンシフトを試みている他の車両に遭遇し得る。例えば、自律車両が走行しているレーンの左又は右のレーンにある車両が、自律車両が走行しているレーンに変更、すなわち割り込もうとし得る。このような割込みが行われる場合、自律車両は、もう一方の車両による割込みを回避するために、例えばその速度又は加速度を変更し、及び/又は他のレーンに変更することによってナビゲーション応答を生じさせなければならない。   During navigation, the autonomous vehicle may encounter other vehicles attempting lane shifts. For example, a vehicle in the lane on the left or right of the lane in which the autonomous vehicle is traveling may change to the lane in which the autonomous vehicle is traveling, that is, try to interrupt. When such an interruption occurs, the autonomous vehicle may cause a navigation response, for example by changing its speed or acceleration and / or changing to another lane in order to avoid interruption by the other vehicle. There must be.

幾つかの例において、もう一方の車両は割り込もうとしているように見え得るが、最終的に割込みが行われないことがあり得る(例えば、もう一方の車両のドライバーの気が変わったか、もう一方の車両が単に滑っているに過ぎないという理由による)。もう一方の車両による割込みが行われる可能性が十分となるまで、ナビゲーション応答の実行を遅らせると、不必要なブレーキを防止し得るものの、このような遅延はまた、衝突のリスクを増大させ、及び/又は自律車両内の乗員の乗り心地が悪くなり得るようなブレーキをかける原因となり得る。したがって、車両による割込みの試みの予測を改善することが求められている。   In some instances, the other vehicle may appear to be interrupting, but may not eventually be interrupted (for example, the driver of the other vehicle has changed his mind, Because one vehicle is just sliding). Although delaying the execution of the navigation response can prevent unnecessary braking until there is sufficient chance that the other vehicle will be interrupted, such a delay also increases the risk of collision, and This may cause a brake that may cause the ride comfort of the occupant in the autonomous vehicle to deteriorate. Accordingly, there is a need to improve the prediction of vehicle interruption attempts.

更に、幾つかの場合、他の車両による割込みは、例えば道路及び/又は交通ルールにより必要となり得る。しかしながら、別の場合、割込みは、例えば他の車両が単に低速の車両を追い越したいとき等、任意選択により得る。自律車両は、目的地まで遅れずに安全に走行するようにプログラムされ得るため、自律車両は、他の車両による割込みを、その割込みが必要でないのであれば必ずしも許可しないことがあり得る。しかしながら、幾つかの場合、自律車両のオペレータにとって、及び/又は交通の全体的効率にとって、このような割込みを許可することが好ましいことがあり得る。したがって、利他的行動を含めた割込みプロセスが必要である。   Further, in some cases, interruptions by other vehicles may be required, for example, due to road and / or traffic rules. However, in other cases, the interrupt is optionally obtained, for example, when another vehicle simply wants to overtake a slow vehicle. Because autonomous vehicles can be programmed to travel safely without delay to their destination, autonomous vehicles may not necessarily allow an interrupt by another vehicle if the interrupt is not required. However, in some cases it may be preferable to allow such interruptions for an autonomous vehicle operator and / or for the overall efficiency of traffic. Therefore, an interrupt process that includes altruistic behavior is necessary.

概要
本開示による実施形態は、自律車両ナビゲーションのシステム及び方法を提供する。開示される実施形態は、カメラを使用して、自律車両ナビゲーション特徴を提供し得る。例えば、本開示の実施形態によれば、開示されるシステムは、車両の環境を監視する1つ、2つ、又は3つ以上のカメラを含み得る。開示されるシステムは、例えば、カメラの1つ又は複数により捕捉された画像の分析に基づいて、ナビゲーション応答を提供し得る。ナビゲーション応答は、例えば、全地球測位(GPS)データ、センサデータ(例えば、加速度計、速度センサ、サスペンションセンサ等から)、及び/又は他の地図データを含む他のデータを考慮することもできる。
SUMMARY Embodiments according to the present disclosure provide a system and method for autonomous vehicle navigation. The disclosed embodiments may use a camera to provide autonomous vehicle navigation features. For example, according to embodiments of the present disclosure, the disclosed system may include one, two, or three or more cameras that monitor the environment of the vehicle. The disclosed system may provide navigation responses based on, for example, analysis of images captured by one or more of the cameras. The navigation response may also consider other data including, for example, global positioning (GPS) data, sensor data (eg, from accelerometers, speed sensors, suspension sensors, etc.), and / or other map data.

開示される実施形態によれば、ホスト車両のための車両割込み検出及び応答システムが提供される。本システムは、データインタフェースと、少なくとも1つの処理デバイスとを含み得る。少なくとも1つの処理デバイスは、データインタフェースを介して、ホスト車両に関連付けられる少なくとも1つの画像捕捉デバイスから複数の画像を受信することと、複数の画像において、ホスト車両が走行している第2のレーンと異なる第1のレーンを走行している標的車両の画像を識別することと、複数の画像の分析に基づいて、標的車両が第1のレーンから第2のレーンに変更するであろうという少なくとも1つのインジケータを識別することと、少なくとも1つの所定の割込み感度変更要素がホスト車両の環境中に存在するか否かを検出することと、所定の割込み感度変更要素が検出されない場合、少なくとも1つのインジケータの識別に基づいて、及び第1の割込み感度パラメータに関連付けられる値に基づいて、ホスト車両における第1のナビゲーション応答を生じさせることと、少なくとも1つの所定の割込み感度変更要素が検出される場合、少なくとも1つのインジケータの識別に基づいて、及び第2の割込み感度パラメータに関連付けられる値に基づいて、ホスト車両における第2のナビゲーション応答を生じさせることとを行うようにプログラムされ得、第2の割込み感度パラメータは、第1の割込み感度パラメータと異なる。   According to the disclosed embodiments, a vehicle interrupt detection and response system for a host vehicle is provided. The system can include a data interface and at least one processing device. At least one processing device receives, via the data interface, a plurality of images from at least one image capture device associated with the host vehicle, and a second lane in which the host vehicle is traveling in the plurality of images. At least that the target vehicle will change from the first lane to the second lane based on identifying the image of the target vehicle traveling in a different first lane and analyzing the plurality of images Identifying one indicator; detecting whether at least one predetermined interrupt sensitivity changing element is present in the host vehicle environment; and if no predetermined interrupt sensitivity changing element is detected, at least one Based on the identification of the indicator and based on the value associated with the first interrupt sensitivity parameter, Generating a first navigation response, and if at least one predetermined interrupt sensitivity changing element is detected, based on the identification of at least one indicator and based on a value associated with the second interrupt sensitivity parameter And generating a second navigation response at the host vehicle, wherein the second interrupt sensitivity parameter is different from the first interrupt sensitivity parameter.

他の開示される実施形態によれば、ホスト車両は、車体と、少なくとも1つの画像捕捉デバイスと、少なくとも1つの処理デバイスとを含み得る。少なくとも1つの処理デバイスは、ホスト車両に関連付けられる少なくとも1つの画像捕捉デバイスから複数の画像を受信することと、複数の画像において、ホスト車両が走行している第2のレーンと異なる第1のレーンを走行している標的車両の画像を識別することと、複数の画像の分析に基づいて、標的車両が第1のレーンから第2のレーンに変更するであろうという少なくとも1つのインジケータを識別することと、少なくとも1つの所定の割込み感度変更要素がホスト車両の環境中に存在するか否かを検出することと、所定の割込み感度変更要素が検出されない場合、少なくとも1つのインジケータの識別に基づいて、及び第1の割込み感度パラメータに関連付けられる値に基づいて、ホスト車両における第1のナビゲーション応答を生じさせることと、少なくとも1つの所定の割込み感度変更要素が検出される場合、少なくとも1つのインジケータの識別に基づいて、及び第2の割込み感度パラメータに関連付けられる値に基づいて、ホスト車両における第2のナビゲーション応答を生じさせることとを行うようにプログラムされ得、第2の割込み感度パラメータは、第1の割込み感度パラメータと異なる。   According to other disclosed embodiments, the host vehicle may include a vehicle body, at least one image capture device, and at least one processing device. The at least one processing device receives a plurality of images from at least one image capture device associated with the host vehicle and a first lane that is different from the second lane in which the host vehicle is traveling in the plurality of images. Identifying at least one indicator that the target vehicle will change from the first lane to the second lane based on the analysis of the plurality of images and identifying an image of the target vehicle traveling on the road And detecting whether at least one predetermined interrupt sensitivity changing element is present in the environment of the host vehicle and, if no predetermined interrupt sensitivity changing element is detected, based on the identification of at least one indicator And a first navigation response in the host vehicle based on a value associated with the first interrupt sensitivity parameter And when the at least one predetermined interrupt sensitivity change factor is detected, the second in the host vehicle based on the identification of the at least one indicator and based on the value associated with the second interrupt sensitivity parameter. And the second interrupt sensitivity parameter is different from the first interrupt sensitivity parameter.

また別の開示される実施形態によれば、標的車両による割込みを検出し、且つそれに応答する方法が提供される。本方法は、ホスト車両に関連付けられる少なくとも1つの画像捕捉デバイスから複数の画像を受信することと、複数の画像において、ホスト車両が走行している第2のレーンと異なる第1のレーンを走行している標的車両の画像を識別することと、複数の画像の分析に基づいて、標的車両が第1のレーンから第2のレーンに変更するであろうという少なくとも1つのインジケータを識別することと、少なくとも1つの所定の割込み感度変更要素がホスト車両の環境中に存在するか否かを検出することと、所定の割込み感度変更要素が検出されない場合、少なくとも1つのインジケータの識別に基づいて、及び第1の割込み感度パラメータに関連付けられる値に基づいて、ホスト車両における第1のナビゲーション応答を生じさせることと、少なくとも1つの所定の割込み感度変更要素が検出される場合、少なくとも1つのインジケータの識別に基づいて、及び第2の割込み感度パラメータに関連付けられる値に基づいて、ホスト車両における第2のナビゲーション応答を生じさせることとを含み、第2の割込み感度パラメータは、第1の割込み感度パラメータと異なる。   According to yet another disclosed embodiment, a method for detecting and responding to an interrupt by a target vehicle is provided. The method receives a plurality of images from at least one image capture device associated with the host vehicle and travels in a first lane different from the second lane in which the host vehicle is traveling in the plurality of images. Identifying at least one indicator that the target vehicle will change from the first lane to the second lane based on the analysis of the plurality of images; Detecting whether at least one predetermined interrupt sensitivity changing element is present in the environment of the host vehicle, and if no predetermined interrupt sensitivity changing element is detected, based on the identification of the at least one indicator and Generating a first navigation response in the host vehicle based on a value associated with one interrupt sensitivity parameter; If at least one predetermined interrupt sensitivity change factor is detected, a second navigation response in the host vehicle is determined based on the identification of the at least one indicator and based on a value associated with the second interrupt sensitivity parameter. And the second interrupt sensitivity parameter is different from the first interrupt sensitivity parameter.

開示される実施形態によれば、ホスト車両のためのナビゲーションシステムが提供される。本システムは、データインタフェースと、少なくとも1つの処理デバイスとを含み得る。少なくとも1つの処理デバイスは、データインタフェースを介してホスト車両に関連付けられる少なくとも1つの画像捕捉デバイスから複数の画像を受信することと、複数の画像の分析に基づいて、ホスト車両の環境中の少なくとも1つの標的車両を識別することと、複数の画像の分析に基づいて、標的車両に関連付けられる1つ又は複数の状況的特徴を特定することと、利他的行動パラメータに関連付けられる現在の値を特定することと、標的車両に関連付けられる1つ又は複数の状況的特徴に基づいて、ホスト車両のナビゲーション状態の変更が必要ではないことを特定するが、利他的行動パラメータに関連付けられる現在の値に基づいて、及び標的車両に関連付けられる1つ又は複数の状況的特徴に基づいて、ホスト車両における少なくとも1つのナビゲーション変更を生じさせることとを行うようにプログラムされ得る。   According to the disclosed embodiments, a navigation system for a host vehicle is provided. The system can include a data interface and at least one processing device. At least one processing device receives at least one image from at least one image capture device associated with the host vehicle via the data interface and based on analysis of the plurality of images, at least one in the environment of the host vehicle. Identifying one target vehicle, identifying one or more situational features associated with the target vehicle based on analysis of multiple images, and identifying a current value associated with the altruistic behavior parameter And, based on one or more situational features associated with the target vehicle, that it is not necessary to change the navigation state of the host vehicle, but based on the current value associated with the altruistic behavior parameter , And one or more situational features associated with the target vehicle, Both may be programmed to perform a to cause one navigation change.

開示される他の実施形態によれば、ホスト車両は、本体と、少なくとも1つの画像捕捉デバイスと、少なくとも1つの処理デバイスとを含み得る。少なくとも1つの処理デバイスは、少なくとも1つの画像捕捉デバイスから複数の画像を受信することと、複数の画像の分析に基づいて、ホスト車両の環境中の少なくとも1つの標的車両を識別することと、複数の画像の分析に基づいて、標的車両に関連付けられる1つ又は複数の状況的特徴を特定することと、利他的行動パラメータに関連付けられる現在の値を特定することと、標的車両に関連付けられる1つ又は複数の状況的特徴に基づいて、ホスト車両のナビゲーション状態の変更が必要ではないことを特定するが、利他的行動パラメータに関連付けられる現在の値に基づいて、及び標的車両に関連付けられる1つ又は複数の状況的特徴に基づいて、ホスト車両における少なくとも1つのナビゲーション変更を生じさせることとを行うように構成され得る。   According to other disclosed embodiments, the host vehicle may include a body, at least one image capture device, and at least one processing device. At least one processing device receives the plurality of images from the at least one image capture device, identifies at least one target vehicle in the environment of the host vehicle based on the analysis of the plurality of images; Identifying one or more contextual characteristics associated with the target vehicle, identifying a current value associated with the altruistic behavior parameter, and one associated with the target vehicle Or based on a plurality of situational features, identifying that no change in the navigation state of the host vehicle is necessary, but based on the current value associated with the altruistic behavior parameter and / or associated with the target vehicle Causing at least one navigational change in the host vehicle based on the plurality of situational features It may be configured sea urchin.

また別の開示された実施形態によれば、ホスト車両をナビゲートする方法が提供される。本方法は、車両に関連付けられる少なくとも1つの画像捕捉デバイスから複数の画像を受信することと、複数の画像の分析に基づいて、ホスト車両の環境中の少なくとも1つの標的車両を識別することと、複数の画像の分析に基づいて、標的車両に関連付けられる1つ又は複数の状況的特徴を特定することと、利他的行動パラメータに関連付けられる現在の値を特定することと、標的車両に関連付けられる1つ又は複数の状況的特徴に基づいて、ホスト車両のナビゲーション状態の変更が必要ではないことを特定するが、利他的行動パラメータに関連付けられる現在の値に基づいて、及び標的車両に関連付けられる1つ又は複数の状況的特徴に基づいて、ホスト車両における少なくとも1つのナビゲーション変更を生じさせることとを含み得る。   According to yet another disclosed embodiment, a method for navigating a host vehicle is provided. The method receives a plurality of images from at least one image capture device associated with the vehicle, and identifies at least one target vehicle in the environment of the host vehicle based on the analysis of the plurality of images; Based on the analysis of the plurality of images, identifying one or more situational features associated with the target vehicle, identifying a current value associated with the altruistic behavior parameter, and associated with the target vehicle 1 One that identifies that no change in the navigation state of the host vehicle is necessary based on one or more situational features, but that is based on the current value associated with the altruistic behavior parameter and one associated with the target vehicle Or causing at least one navigational change in the host vehicle based on a plurality of situational features. .

開示される他の実施形態によれば、非一時的コンピュータ可読記憶媒体は、少なくとも1つの処理デバイスにより実行され且つ本明細書に記載される任意の方法を実行するプログラム命令を記憶し得る。   According to other disclosed embodiments, a non-transitory computer readable storage medium may store program instructions that are executed by at least one processing device and that perform any of the methods described herein.

上述した概説及び以下に詳述する説明は、単に例示的及び説明的なものであり、特許請求の範囲の限定ではない。   The foregoing general description and the following detailed description are exemplary and explanatory only and are not restrictive of the claims.

図面の簡単な説明
本開示に組み込まれ、本明細書の一部をなす添付図面は、開示される様々な実施形態を示す。
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are incorporated in and constitute a part of this disclosure, illustrate various disclosed embodiments.

開示される実施形態による例示的なシステムの図表現である。2 is a diagrammatic representation of an exemplary system according to disclosed embodiments. 開示される実施形態によるシステムを含む例示的な車両の側面図表現である。1 is a side view representation of an exemplary vehicle including a system according to disclosed embodiments. 開示される実施形態による図2Aに示される車両及びシステムの上面図表現である。2B is a top view representation of the vehicle and system shown in FIG. 2A according to disclosed embodiments. 開示される実施形態によるシステムを含む車両の別の実施形態の上面図表現である。FIG. 5 is a top view representation of another embodiment of a vehicle including a system according to disclosed embodiments. 開示される実施形態によるシステムを含む車両の更に別の実施形態の上面図表現である。FIG. 6 is a top view representation of yet another embodiment of a vehicle including a system according to disclosed embodiments. 開示される実施形態によるシステムを含む車両の更に別の実施形態の上面図表現である。FIG. 6 is a top view representation of yet another embodiment of a vehicle including a system according to disclosed embodiments. 開示される実施形態による例示的な車両制御システムの図表現である。2 is a diagrammatic representation of an exemplary vehicle control system according to disclosed embodiments. バックミラーと、開示される実施形態による車両撮像システムのユーザインタフェースとを含む車両の内部の図表現である。1 is a diagrammatic representation of an interior of a vehicle including a rearview mirror and a user interface of a vehicle imaging system according to disclosed embodiments. 開示される実施形態による、バックミラーの背後に、車両フロントガラスと対向して位置決めされるように構成されるカメラマウントの例の図である。FIG. 6 is an illustration of an example camera mount configured to be positioned behind a rearview mirror and opposite a vehicle windshield, according to disclosed embodiments. 開示される実施形態による、異なる視点からの図3Bに示されるカメラマウントの図である。3C is a view of the camera mount shown in FIG. 3B from a different perspective, according to disclosed embodiments. FIG. 開示される実施形態による、バックミラーの背後に、車両フロントガラスと対向して位置決めされるように構成されるカメラマウントの例の図である。FIG. 6 is an illustration of an example camera mount configured to be positioned behind a rearview mirror and opposite a vehicle windshield, according to disclosed embodiments. 開示される実施形態による1つ又は複数の動作を実行する命令を記憶するように構成されるメモリの例示的なブロック図である。FIG. 4 is an exemplary block diagram of a memory configured to store instructions that perform one or more operations according to disclosed embodiments. 開示される実施形態による、単眼画像分析に基づいて1つ又は複数のナビゲーション応答を生じさせる例示的なプロセスを示すフローチャートである。6 is a flowchart illustrating an exemplary process for generating one or more navigation responses based on monocular image analysis, according to disclosed embodiments. 開示される実施形態による、画像の組内の1つ又は複数の車両及び/又は歩行者を検出する例示的なプロセスを示すフローチャートである。6 is a flowchart illustrating an exemplary process for detecting one or more vehicles and / or pedestrians in a set of images, according to disclosed embodiments. 開示される実施形態による、画像の組内の道路マーク及び/又はレーンジオメトリ情報を検出する例示的なプロセスを示すフローチャートである。6 is a flowchart illustrating an exemplary process for detecting road mark and / or lane geometry information in a set of images according to disclosed embodiments. 開示される実施形態による、画像の組内の信号機を検出する例示的なプロセスを示すフローチャートである。6 is a flowchart illustrating an exemplary process for detecting traffic lights in a set of images according to disclosed embodiments. 開示される実施形態による、車両経路に基づいて1つ又は複数のナビゲーション応答を生じさせる例示的なプロセスのフローチャートである。4 is a flowchart of an exemplary process for generating one or more navigation responses based on a vehicle route according to disclosed embodiments. 開示される実施形態による、先行車両がレーンを変更中であるか否かを特定する例示的なプロセスを示すフローチャートである。6 is a flowchart illustrating an exemplary process for identifying whether a preceding vehicle is changing lanes, according to disclosed embodiments. 開示される実施形態による、立体画像分析に基づいて1つ又は複数のナビゲーション応答を生じさせる例示的なプロセスを示すフローチャートである。6 is a flowchart illustrating an example process for generating one or more navigation responses based on stereoscopic image analysis, according to disclosed embodiments. 開示される実施形態による、3組の画像の分析に基づいて1つ又は複数のナビゲーション応答を生じさせる例示的なプロセスを示すフローチャートである。6 is a flowchart illustrating an exemplary process for generating one or more navigation responses based on analysis of three sets of images, according to disclosed embodiments. 開示される実施形態による、1つ又は複数の動作を実行する命令を記憶するように構成されるメモリの例示的なブロック図である。FIG. 4 is an exemplary block diagram of a memory configured to store instructions for performing one or more operations according to disclosed embodiments. 開示される実施形態による、車両が割込みを検出し且つそれに応答し得る例示的な状況の図である。FIG. 6 is an example situation in which a vehicle may detect and respond to an interrupt according to disclosed embodiments. 開示される実施形態による例示的な所定の割込み感度変更要素を示す。Fig. 4 illustrates an exemplary predetermined interrupt sensitivity modification element according to disclosed embodiments. 開示される実施形態による例示的な所定の割込み感度変更要素を示す。Fig. 4 illustrates an exemplary predetermined interrupt sensitivity modification element according to disclosed embodiments. 開示される実施形態による例示的な所定の割込み感度変更要素を示す。Fig. 4 illustrates an exemplary predetermined interrupt sensitivity modification element according to disclosed embodiments. 開示される実施形態による例示的な所定の割込み感度変更要素を示す。Fig. 4 illustrates an exemplary predetermined interrupt sensitivity modification element according to disclosed embodiments. 開示される実施形態による、車両が利他的行動に従事し得る例示的な状況の図である。FIG. 6 is an illustration of an exemplary situation in which a vehicle may engage in altruistic behavior, according to disclosed embodiments. 開示される実施形態による、車両割込み検出及び応答のための例示的なプロセスを示すフローチャートである。6 is a flowchart illustrating an exemplary process for vehicle interrupt detection and response according to disclosed embodiments. 開示された実施形態による、利他的行動を考慮に入れながらナビゲートする例示的なプロセス1200を示すフローチャートである。7 is a flowchart illustrating an exemplary process 1200 for navigating while taking into account altruistic behavior, in accordance with disclosed embodiments.

詳細な説明
以下の詳細な説明は、添付図面を参照する。可能な場合には常に、図面及び以下の説明において、同じ又は同様の部分を指すのに同じ参照番号が使用される。幾つかの例示的な実施形態は本明細書で説明されるが、変更形態、適応形態、及び他の実装形態が可能である。例えば、図面に示される構成要素に対する置換形態、追加形態、又は変更形態がなされ得、本明細書に記載される例示的な方法は、開示される方法のステップの置換、順序替え、削除、又は追加により変更することができる。したがって、以下の詳細な説明は、開示される実施形態及び例に限定されない。その代わり、適切な範囲は、添付の特許請求の範囲により規定される。
DETAILED DESCRIPTION The following detailed description refers to the accompanying drawings. Wherever possible, the same reference numbers are used in the drawings and the following description to refer to the same or like parts. Although some exemplary embodiments are described herein, modifications, adaptations, and other implementations are possible. For example, substitutions, additions, or modifications to the components shown in the drawings may be made, and the exemplary methods described herein may replace, reorder, delete, or replace the steps of the disclosed methods. It can be changed by adding. Accordingly, the following detailed description is not limited to the disclosed embodiments and examples. Instead, the appropriate scope is defined by the appended claims.

自律車両概説
本開示を通して使用される場合、「自律車両」という用語は、ドライバーの入力なしで少なくとも1つのナビゲーション変更を実施することが可能な車両を指す。「ナビゲーション変更」は、車両の操舵、ブレーキ、又は加速の1つ又は複数の変更を指す。自律的であるために、車両は完全に自動である(例えば、ドライバーなし又はドライバー入力なしでの完全動作)必要はない。むしろ、自律車両は、特定の時間期間中にはドライバーの制御下で動作し、他の時間期間中にはドライバーの制御なしで動作することができる車両を含む。自律車両は、操舵等の車両ナビゲーションの幾つかの側面のみを制御する(例えば、車両レーン制約間に車両コースを維持するために)が、他の側面(例えば、ブレーキ)をドライバーに任せ得る車両を含むこともできる。幾つかの場合、自律車両は、車両のブレーキ、速度制御、及び/又は操舵の幾つか又は全ての側面を扱い得る。
Autonomous Vehicle Overview As used throughout this disclosure, the term “autonomous vehicle” refers to a vehicle capable of performing at least one navigational change without driver input. “Navigation change” refers to one or more changes in vehicle steering, braking, or acceleration. To be autonomous, the vehicle does not need to be fully automatic (eg, full operation without a driver or driver input). Rather, autonomous vehicles include vehicles that operate under driver control during certain time periods and can operate without driver control during other time periods. An autonomous vehicle controls only some aspects of vehicle navigation, such as steering (eg, to maintain a vehicle course between vehicle lane constraints), but can leave other aspects (eg, brakes) to the driver. Can also be included. In some cases, an autonomous vehicle may handle some or all aspects of vehicle braking, speed control, and / or steering.

人間のドライバーは、通常、車両を制御するために視覚的手掛かり及び観測に依存することから、交通基盤はそれに従って構築されており、レーンマーク、交通標識、及び信号機は全て、視覚的情報をドライバーに提供するように設計されている。交通基盤のこれらの設計特徴に鑑みて、自律車両は、カメラと、車両の環境から捕捉される視覚的情報を分析する処理ユニットとを含み得る。視覚的情報は、例えば、ドライバーにより観測可能な交通基盤の構成要素(例えば、レーンマーク、交通標識、信号機等)及び他の障害物(例えば、他の車両、歩行者、瓦礫等)を含み得る。更に、自動車両は、ナビゲート時、車両の環境のモデルを提供する情報等の記憶された情報を使用することもできる。例えば、車両は、GPSデータ、センサデータ(例えば、加速度計、速度センサ、サスペンションセンサ等からの)、及び/又は他の地図データを使用して、車両が走行している間、車両の環境に関連する情報を提供し得、車両(及び他の車両)は情報を使用して、モデルでのそれ自体の位置を特定し得る。   Since human drivers typically rely on visual cues and observations to control the vehicle, the traffic infrastructure is built accordingly, and lane marks, traffic signs, and traffic lights all provide visual information to the driver. Designed to provide to. In view of these traffic infrastructure design features, an autonomous vehicle may include a camera and a processing unit that analyzes visual information captured from the environment of the vehicle. Visual information can include, for example, traffic infrastructure components (eg, lane marks, traffic signs, traffic lights, etc.) and other obstacles (eg, other vehicles, pedestrians, rubble, etc.) that are observable by the driver. . In addition, the motor vehicle may use stored information such as information that provides a model of the vehicle's environment when navigating. For example, the vehicle may use GPS data, sensor data (eg, from accelerometers, speed sensors, suspension sensors, etc.), and / or other map data to Relevant information can be provided, and the vehicle (and other vehicles) can use the information to determine its own location in the model.

システム概説
図1は、開示される例示的な実施形態によるシステム100のブロック図表現である。システム100は、特定の実施要件に応じて様々な構成要素を含み得る。幾つかの実施形態では、システム100は、処理ユニット110、画像取得ユニット120、位置センサ130、1つ又は複数のメモリユニット140、150、地図データベース160、ユーザインタフェース170、及び無線送受信機172を含み得る。処理ユニット110は、1つ又は複数の処理デバイスを含み得る。幾つかの実施形態では、処理ユニット110は、アプリケーションプロセッサ180、画像プロセッサ190、又は任意の他の適する処理デバイスを含み得る。同様に、画像取得ユニット120は、特定用途の要件に応じて、任意の数の画像取得デバイス及び構成要素を含み得る。幾つかの実施形態では、画像取得ユニット120は、画像捕捉デバイス122、画像捕捉デバイス124、及び画像捕捉デバイス126等の1つ又は複数の画像捕捉デバイス(例えば、カメラ)を含み得る。システム100は、処理ユニット110を画像取得ユニット120に通信可能に接続するデータインタフェース128を含むこともできる。例えば、データインタフェース128は、画像取得ユニット120により取得された画像データを処理ユニット110に送信する任意の1つ又は複数の有線及び/又は無線リンクを含み得る。
System Overview FIG. 1 is a block diagram representation of a system 100 in accordance with the disclosed exemplary embodiments. System 100 may include various components depending on specific implementation requirements. In some embodiments, the system 100 includes a processing unit 110, an image acquisition unit 120, a position sensor 130, one or more memory units 140, 150, a map database 160, a user interface 170, and a wireless transceiver 172. obtain. The processing unit 110 may include one or more processing devices. In some embodiments, the processing unit 110 may include an application processor 180, an image processor 190, or any other suitable processing device. Similarly, the image acquisition unit 120 may include any number of image acquisition devices and components, depending on the specific application requirements. In some embodiments, the image acquisition unit 120 may include one or more image capture devices (eg, cameras) such as the image capture device 122, the image capture device 124, and the image capture device 126. The system 100 may also include a data interface 128 that communicatively connects the processing unit 110 to the image acquisition unit 120. For example, the data interface 128 may include any one or more wired and / or wireless links that transmit image data acquired by the image acquisition unit 120 to the processing unit 110.

無線送受信機172は、無線周波数、赤外線周波数、磁場、又は電場の使用により無線インタフェースを介して伝送信号を1つ又は複数のネットワーク(例えば、セルラ、インターネット等)と交換するように構成される1つ又は複数のデバイスを含み得る。無線送受信機172は、任意の既知の標準を使用して、データを送信及び/又は受信し得る(例えば、Wi−Fi(登録商標)、Bluetooth(登録商標)、Bluetooth Smart、802.15.4、ZigBee(登録商標)等)。   The wireless transceiver 172 is configured to exchange transmission signals with one or more networks (eg, cellular, internet, etc.) via a wireless interface through the use of radio frequency, infrared frequency, magnetic field, or electric field 1 One or more devices may be included. The wireless transceiver 172 may transmit and / or receive data using any known standard (eg, Wi-Fi®, Bluetooth®, Bluetooth Smart, 802.15.4). , ZigBee (registered trademark), etc.).

アプリケーションプロセッサ180及び画像プロセッサ190は両方とも、様々なタイプの処理デバイスを含み得る。例えば、アプリケーションプロセッサ180及び画像プロセッサ190の何れか一方又は両方は、マイクロプロセッサ、プリプロセッサ(画像プリプロセッサ等)、グラフィックスプロセッサ、中央演算処理装置(CPU)、サポート回路、デジタル信号プロセッサ、集積回路、メモリ、又はアプリケーションを実行し、画像を処理して分析するのに適する任意の他のタイプのデバイスを含み得る。幾つかの実施形態では、アプリケーションプロセッサ180及び/又は画像プロセッサ190は、任意のタイプのシングルコア又はマルチコアプロセッサ、モバイルデバイスマイクロコントローラ、中央演算処理装置等を含み得る。例えば、Intel(登録商標)、AMD(登録商標)等の製造業者から入手可能なプロセッサを含め、様々な処理デバイスが使用可能であり、様々なアーキテクチャ(例えば、x86プロセッサ、ARM(登録商標)等)を含み得る。   Both application processor 180 and image processor 190 may include various types of processing devices. For example, one or both of the application processor 180 and the image processor 190 are a microprocessor, a preprocessor (such as an image preprocessor), a graphics processor, a central processing unit (CPU), a support circuit, a digital signal processor, an integrated circuit, and a memory. Or any other type of device suitable for running applications and processing and analyzing images. In some embodiments, application processor 180 and / or image processor 190 may include any type of single-core or multi-core processor, mobile device microcontroller, central processing unit, and the like. For example, various processing devices can be used, including processors available from manufacturers such as Intel (registered trademark), AMD (registered trademark), etc., and various architectures (eg, x86 processor, ARM (registered trademark), etc.) ).

幾つかの実施形態では、アプリケーションプロセッサ180及び/又は画像プロセッサ190は、Mobileye(登録商標)から入手可能な任意のEyeQシリーズのプロセッサを含み得る。これらのプロセッサ設計は、それぞれローカルメモリ及び命令セットを有する複数の処理ユニットを含む。そのようなプロセッサは、複数の画像センサから画像データを受信するビデオ入力を含み得ると共に、ビデオ出力機能を含むこともできる。一例では、EyeQ2(登録商標)は、332MHzで動作する90nm−ミクロン技術を使用する。EyeQ2(登録商標)アーキテクチャは、2つの浮動小数点ハイパースレッド32ビットRISC CPU(MIPS32(登録商標)34K(登録商標)コア)、5つのビジョン計算エンジン(VCE)、3つのベクトルマイクロコードプロセッサ(VMP(登録商標))、Denali64ビットモバイルDDRコントローラ、128ビット内部音響相互接続、デュアル16ビットビデオ入力及び18ビットビデオ出力コントローラ、16チャネルDMA、及び幾つかの周辺機器からなる。MIPS34K CPUは、5つのVCE、3つのVMP(商標)及びDMA、第2のMIPS34K CPU及びマルチチャネルDMA、並びに他の周辺機器を管理する。5つのVCE、3つのVMP(登録商標)、及びMIPS34K CPUは、多機能バンドルアプリケーションにより要求される集中的なビジョン計算を実行することができる。別の例では、開示される実施形態において、第三世代プロセッサであり、EyeQ2(登録商標)よりも6倍強力なEyeQ3(登録商標)を使用し得る。   In some embodiments, the application processor 180 and / or the image processor 190 may include any EyeQ series processor available from Mobileye®. These processor designs include multiple processing units each having a local memory and an instruction set. Such a processor may include a video input that receives image data from multiple image sensors and may also include a video output function. In one example, EyeQ2® uses 90 nm-micron technology operating at 332 MHz. The EyeQ2® architecture consists of two floating point hyperthreaded 32-bit RISC CPUs (MIPS32® 34K® core), five vision calculation engines (VCE), three vector microcode processors (VMP ( (Registered trademark)), Denali 64-bit mobile DDR controller, 128-bit internal audio interconnect, dual 16-bit video input and 18-bit video output controller, 16-channel DMA, and several peripherals. The MIPS 34K CPU manages five VCEs, three VMP ™ and DMA, a second MIPS 34K CPU and multi-channel DMA, and other peripheral devices. Five VCEs, three VMPs, and MIPS 34K CPUs can perform the intensive vision calculations required by the multi-function bundle application. In another example, in the disclosed embodiment, a third generation processor, EyeQ3®, which is 6 times more powerful than EyeQ2® may be used.

本明細書に開示される任意の処理デバイスは、特定の機能を実行するように構成し得る。特定の機能を実行するように、記載されたEyeQプロセッサ又は他のコントローラ若しくはマイクロプロセッサの何れか等の処理デバイスを構成することは、コンピュータ実行可能命令をプログラムし、処理デバイスの動作中に実行するために、それらの命令を処理デバイスに提供することを含み得る。幾つかの実施形態では、処理デバイスを構成することは、処理デバイスに直接、アーキテクチャ的命令をプログラムすることを含み得る。他の実施形態では、処理デバイスを構成することは、動作中、処理デバイスがアクセス可能なメモリに実行可能命令を記憶することを含み得る。例えば、処理デバイスは、動作中、メモリにアクセスして、記憶された命令を取得し実行し得る。   Any processing device disclosed herein may be configured to perform a particular function. Configuring a processing device, such as any of the described EyeQ processors or other controllers or microprocessors, to perform a specific function programs computer-executable instructions and executes them during operation of the processing device Providing the instructions to the processing device. In some embodiments, configuring the processing device may include programming architectural instructions directly on the processing device. In other embodiments, configuring the processing device may include storing executable instructions in a memory accessible to the processing device during operation. For example, the processing device may access the memory to obtain and execute stored instructions during operation.

図1は、処理ユニット110に含まれる2つの別個の処理デバイスを示すが、より多数又はより少数の処理デバイスを使用することもできる。例えば、幾つかの実施形態では、単一の処理デバイスを使用して、アプリケーションプロセッサ180及び画像プロセッサ190のタスクを達成し得る。他の実施形態では、これらのタスクは、3つ以上の処理デバイスにより実行し得る。更に、幾つかの実施形態では、システム100は、画像取得ユニット120等の他の構成要素を含まず、1つ又は複数の処理ユニット110を含み得る。   Although FIG. 1 shows two separate processing devices included in the processing unit 110, more or fewer processing devices may be used. For example, in some embodiments, a single processing device may be used to accomplish the tasks of application processor 180 and image processor 190. In other embodiments, these tasks may be performed by more than two processing devices. Further, in some embodiments, the system 100 may include one or more processing units 110 without including other components such as the image acquisition unit 120.

処理ユニット110は、様々なタイプのデバイスを含み得る。例えば、処理ユニット110は、コントローラ、画像プリプロセッサ、中央演算処理装置(CPU)、サポート回路、デジタル信号プロセッサ、集積回路、メモリ、又は画像を処理し分析する任意の他のタイプのデバイス等の様々なデバイスを含み得る。画像プリプロセッサは、画像センサから画像を捕捉し、デジタル化し、処理するビデオプロセッサを含み得る。CPUは、任意の数のマイクロコントローラ又はマイクロプロセッサを含み得る。サポート回路は、キャッシュ、電源、クロック、及び入出力回路を含め、当技術分野で一般に周知の任意の数の回路であり得る。メモリは、プロセッサにより実行されると、システムの動作を制御するソフトウェアを記憶し得る。メモリは、データベース及び画像処理ソフトウェアを含み得る。メモリは、任意の数のランダムアクセスメモリ、読み取り専用メモリ、フラッシュメモリ、ディスクドライブ、光学記憶装置、テープ記憶装置、リムーバブル記憶装置、及び他のタイプの記憶装置を含み得る。一例では、メモリは、処理ユニット110とは別個であり得る。別の例では、メモリは、処理ユニット110に統合し得る。   The processing unit 110 can include various types of devices. For example, the processing unit 110 may be a variety of such as a controller, image preprocessor, central processing unit (CPU), support circuitry, digital signal processor, integrated circuit, memory, or any other type of device that processes and analyzes images. Devices can be included. The image preprocessor may include a video processor that captures, digitizes, and processes images from the image sensor. The CPU may include any number of microcontrollers or microprocessors. The support circuitry can be any number of circuits generally known in the art, including caches, power supplies, clocks, and input / output circuits. The memory may store software that, when executed by the processor, controls the operation of the system. The memory may include a database and image processing software. The memory may include any number of random access memory, read only memory, flash memory, disk drive, optical storage device, tape storage device, removable storage device, and other types of storage devices. In one example, the memory can be separate from the processing unit 110. In another example, the memory may be integrated into the processing unit 110.

各メモリ140、150は、プロセッサ(例えば、アプリケーションプロセッサ180及び/又は画像プロセッサ190)により実行されると、システム100の様々な態様の動作を制御し得るソフトウェア命令を含み得る。これらのメモリユニットは、様々なデータベース及び画像処理ソフトウェアを含み得る。メモリユニットは、ランダムアクセスメモリ、読み取り専用メモリ、フラッシュメモリ、ディスクドライブ、光学記憶装置、テープ記憶装置、リムーバブル記憶装置、及び/又は任意の他のタイプの記憶装置を含み得る。幾つかの実施形態では、メモリユニット140、150は、アプリケーションプロセッサ180及び/又は画像プロセッサ190とは別個であり得る。他の実施形態では、これらのメモリユニットは、アプリケーションプロセッサ180及び/又は画像プロセッサ190に統合し得る。   Each memory 140, 150 may include software instructions that, when executed by a processor (eg, application processor 180 and / or image processor 190), may control the operation of various aspects of system 100. These memory units may include various databases and image processing software. The memory unit may include random access memory, read only memory, flash memory, disk drive, optical storage device, tape storage device, removable storage device, and / or any other type of storage device. In some embodiments, the memory units 140, 150 may be separate from the application processor 180 and / or the image processor 190. In other embodiments, these memory units may be integrated into application processor 180 and / or image processor 190.

位置センサ130は、システム100の少なくとも1つの構成要素に関連付けられた位置を特定するのに適する任意のタイプのデバイスを含み得る。幾つかの実施形態では、位置センサ130はGPS受信機を含み得る。そのような受信機は、全地球測位システム衛星によりブロードキャストされる信号を処理することにより、ユーザの位置及び速度を特定することができる。位置センサ130からの位置情報は、アプリケーションプロセッサ180及び/又は画像プロセッサ190に提供し得る。   The position sensor 130 may include any type of device suitable for determining a position associated with at least one component of the system 100. In some embodiments, the position sensor 130 may include a GPS receiver. Such a receiver can determine the user's position and velocity by processing signals broadcast by global positioning system satellites. Position information from position sensor 130 may be provided to application processor 180 and / or image processor 190.

幾つかの実施形態では、システム100は、車両200の速度を測定する速度センサ(例えば、タコメータ)及び/又は車両200の加速度を測定する加速度計等の構成要素を含み得る。   In some embodiments, the system 100 may include components such as a speed sensor (eg, a tachometer) that measures the speed of the vehicle 200 and / or an accelerometer that measures the acceleration of the vehicle 200.

ユーザインタフェース170は、情報を提供するか、又はシステム100の1人若しくは複数のユーザから入力を受信するのに適する任意のデバイスを含み得る。幾つかの実施形態では、ユーザインタフェース170は、例えば、タッチスクリーン、マイクロフォン、キーボード、ポインタデバイス、トラックホィール、カメラ、つまみ、ボタン等を含め、ユーザ入力デバイスを含み得る。そのような入力デバイスを用いて、ユーザは、命令若しくは情報をタイプし、音声コマンドを提供し、ボタン、ポインタ、若しくは目追跡機能を使用して、又は情報をシステム100に通信する任意の他の適する技法を通して画面上のメニュー選択肢を選択することにより、システム100に情報入力又はコマンドを提供可能であり得る。   User interface 170 may include any device suitable for providing information or receiving input from one or more users of system 100. In some embodiments, user interface 170 may include user input devices including, for example, touch screens, microphones, keyboards, pointer devices, track wheels, cameras, knobs, buttons, and the like. With such an input device, the user can type commands or information, provide voice commands, use buttons, pointers, or eye tracking functions, or any other that communicates information to the system 100. It may be possible to provide information input or commands to the system 100 by selecting menu choices on the screen through suitable techniques.

ユーザインタフェース170は、ユーザに情報を提供するか、又はユーザから情報を受信し、例えば、アプリケーションプロセッサ180による使用のためにその情報を処理するように構成される1つ又は複数の処理デバイスを備え得る。幾つかの実施形態では、そのような処理デバイスは、目の動きを認識して追跡する命令、音声コマンドを受信して解釈する命令、タッチスクリーンで行われたタッチ及び/又はジェスチャを認識して解釈する命令、キーボード入力又はメニュー選択に応答する命令等を実行し得る。幾つかの実施形態では、ユーザインタフェース170は、ディスプレイ、スピーカ、触覚デバイス、及び/又は出力情報をユーザに提供する任意の他のデバイスを含み得る。   The user interface 170 comprises one or more processing devices configured to provide information to the user or receive information from the user and process the information for use by, for example, the application processor 180. obtain. In some embodiments, such a processing device may recognize instructions for recognizing and tracking eye movements, instructions for receiving and interpreting voice commands, touches and / or gestures made on a touch screen. Commands to interpret, commands to respond to keyboard input or menu selections, etc. may be executed. In some embodiments, the user interface 170 may include a display, speakers, haptic devices, and / or any other device that provides output information to the user.

地図データベース160は、システム100にとって有用な地図データを記憶する任意のタイプのデータベースを含み得る。幾つかの実施形態では、地図データベース160は、道路、水特徴、地理的特徴、ビジネス、関心点、レストラン、ガソリンスタンド等を含め、様々な項目の、基準座標系での位置に関連するデータを含み得る。地図データベース160は、そのような項目の位置のみならず、例えば、記憶された特徴の何れかに関連付けられた名称を含め、それらの項目に関連する記述子も記憶し得る。幾つかの実施形態では、地図データベース160は、システム100の他の構成要素と共に物理的に配置し得る。代替又は追加として、地図データベース160又はその一部は、システム100の他の構成要素(例えば、処理ユニット110)に関してリモートに配置し得る。そのような実施形態では、地図データベース160からの情報は、有線又は無線データ接続を介してネットワークにダウンロードし得る(例えば、セルラネットワーク及び/又はインターネット等を介して)。   The map database 160 may include any type of database that stores map data useful for the system 100. In some embodiments, the map database 160 stores data related to the location of various items in a reference coordinate system, including roads, water features, geographic features, businesses, points of interest, restaurants, gas stations, etc. May be included. The map database 160 may store not only the location of such items, but also descriptors associated with those items, including, for example, names associated with any of the stored features. In some embodiments, the map database 160 may be physically located with other components of the system 100. Alternatively or additionally, the map database 160 or a portion thereof may be remotely located with respect to other components of the system 100 (eg, the processing unit 110). In such an embodiment, information from the map database 160 may be downloaded to the network via a wired or wireless data connection (eg, via a cellular network and / or the Internet, etc.).

画像捕捉デバイス122、124、及び126は、それぞれ環境から少なくとも1つの画像を捕捉するのに適する任意のタイプのデバイスを含み得る。更に、任意の数の画像捕捉デバイスを使用して、画像プロセッサに入力する画像を取得し得る。幾つかの実施形態は、単一の画像捕捉デバイスのみを含み得、一方、他の実施形態は、2つ、3つ、更に4つ以上の画像捕捉デバイスを含み得る。画像捕捉デバイス122、124、及び126については、図2B〜図2Eを参照して更に以下に説明する。   Image capture devices 122, 124, and 126 may each include any type of device suitable for capturing at least one image from the environment. In addition, any number of image capture devices may be used to acquire an image for input to the image processor. Some embodiments may include only a single image capture device, while other embodiments may include two, three, and even four or more image capture devices. Image capture devices 122, 124, and 126 are described further below with reference to FIGS. 2B-2E.

システム100又はシステム100の様々な構成要素は、様々な異なるプラットフォームに組み込み得る。幾つかの実施形態では、システム100は、図2Aに示されるように、車両200に含め得る。例えば、車両200は、図1に関して上述したように、処理ユニット110及びシステム100の任意の他の構成要素を備え得る。幾つかの実施形態では、車両200は単一の画像捕捉デバイス(例えば、カメラ)のみを備え得、一方、図2B〜図2Eに関連して考察した実施形態等の他の実施形態では、複数の画像捕捉デバイスが使用可能である。例えば、図2Aに示されるように、車両200の画像捕捉デバイス122及び124の何れかは、ADAS(最新運転者支援システム)撮像セットの一部であり得る。   The system 100 or various components of the system 100 can be incorporated into a variety of different platforms. In some embodiments, the system 100 may be included in a vehicle 200 as shown in FIG. 2A. For example, the vehicle 200 may include the processing unit 110 and any other components of the system 100 as described above with respect to FIG. In some embodiments, the vehicle 200 may include only a single image capture device (e.g., a camera), while in other embodiments, such as the embodiments discussed in connection with FIGS. Image capture devices can be used. For example, as shown in FIG. 2A, any of the image capture devices 122 and 124 of the vehicle 200 may be part of an ADAS (Advanced Driver Assistance System) imaging set.

画像取得ユニット120の一部として車両200に含まれる画像捕捉デバイスは、任意の適する位置に位置し得る。幾つかの実施形態では、図2A〜図2E及び図3A〜図3Cに示されるように、画像捕捉デバイス122は、バックミラーの近傍に配置し得る。この位置は、車両200のドライバーと同様の視線を提供し得、ドライバーにとって何が見え、何が見えないのかの判断を支援し得る。画像捕捉デバイス122は、バックミラーの近傍の任意の位置に位置し得るが、画像捕捉デバイス122をミラーのドライバー側に配置することは、ドライバーの視野及び/又は視線を表す画像の取得を更に支援し得る。   The image capture device included in the vehicle 200 as part of the image acquisition unit 120 may be located in any suitable location. In some embodiments, as shown in FIGS. 2A-2E and 3A-3C, the image capture device 122 may be located in the vicinity of the rearview mirror. This position may provide a line of sight similar to the driver of the vehicle 200 and may assist in determining what the driver sees and cannot see. Image capture device 122 may be located anywhere near the rearview mirror, but positioning image capture device 122 on the driver side of the mirror further assists in obtaining an image representing the driver's field of view and / or line of sight. Can do.

画像取得ユニット120の画像捕捉デバイスのために他の位置を使用することもできる。例えば、画像捕捉デバイス124は、車両200のバンパー上又はバンパー内に配置し得る。そのような位置は、広視野を有する画像捕捉デバイスに特に適し得る。バンパーに配置される画像捕捉デバイスの視線は、ドライバーの視線と異なることができ、したがって、バンパー画像捕捉デバイス及びドライバーは、同じ物体を常に見ているわけではない。画像捕捉デバイス(例えば、画像捕捉デバイス122、124、及び126)は、他の位置に配置することもできる。例えば、画像捕捉デバイスは、車両200のサイドミラーの一方又は両方、車両200のルーフ、車両200のフード、車両200のトランク、車両200の側部に配置し得、車両200の任意のウィンドウに搭載、背後に位置決め、又は前に位置決めし得、車両200の前部及び/又は後部のライト又はその近傍等に搭載し得る。   Other locations may be used for the image capture device of the image acquisition unit 120. For example, the image capture device 124 may be located on or in the bumper of the vehicle 200. Such a position may be particularly suitable for image capture devices having a wide field of view. The line of sight of the image capture device placed on the bumper can be different from the line of sight of the driver, so the bumper image capture device and the driver are not always looking at the same object. Image capture devices (eg, image capture devices 122, 124, and 126) can also be located at other locations. For example, the image capture device may be located on one or both of the side mirrors of the vehicle 200, the roof of the vehicle 200, the hood of the vehicle 200, the trunk of the vehicle 200, the side of the vehicle 200, and mounted on any window of the vehicle 200. It can be positioned behind, or positioned in front, and mounted on the front and / or rear lights of the vehicle 200 or in the vicinity thereof.

画像捕捉デバイスに加えて、車両200は、システム100の様々な他の構成要素を含み得る。例えば、処理ユニット110は、車両のエンジン制御ユニット(ECU)に統合されるか、又はECUとは別個に車両200に含まれ得る。車両200には、GPS受信機等の位置センサ130を備えることもでき、車両200は、地図データベース160並びにメモリユニット140及び150を含むこともできる。   In addition to the image capture device, the vehicle 200 may include various other components of the system 100. For example, the processing unit 110 may be integrated into the vehicle engine control unit (ECU) or included in the vehicle 200 separately from the ECU. The vehicle 200 may include a position sensor 130 such as a GPS receiver, and the vehicle 200 may include a map database 160 and memory units 140 and 150.

上述したように、無線送受信機172は、1つ又は複数のネットワーク(例えば、セルラネットワーク、インターネット等)を介してデータを及び/又は受信し得る。例えば、無線送受信機172は、システム100により収集されたデータを1つ又は複数のサーバにアップロードし、データを1つ又は複数のサーバからダウンロードし得る。無線送受信機172を介して、システム100は、例えば、定期的に又は需要時に地図データベース160、メモリ140、及び/又はメモリ150に記憶されたデータへの更新を受信し得る。同様に、無線送受信機172は、システム100からの任意のデータ(例えば、画像取得ユニット120により捕捉された画像、位置センサ130、他のセンサ、又は車両制御システムにより受信されたデータ等)及び/又は処理ユニット110により処理された任意のデータを1つ又は複数のサーバにアップロードし得る。   As described above, the wireless transceiver 172 may receive and / or receive data via one or more networks (eg, a cellular network, the Internet, etc.). For example, the wireless transceiver 172 may upload data collected by the system 100 to one or more servers and download the data from one or more servers. Via the wireless transceiver 172, the system 100 may receive updates to data stored in the map database 160, memory 140, and / or memory 150, for example, periodically or on demand. Similarly, the wireless transceiver 172 may include any data from the system 100 (eg, images captured by the image acquisition unit 120, position sensors 130, other sensors, or data received by the vehicle control system, etc.) and / or Or any data processed by the processing unit 110 may be uploaded to one or more servers.

システム100は、プライバシーレベル設定に基づいてデータをサーバ(例えば、クラウド)にアップロードし得る。例えば、システム100は、サーバに送信される、車両及び/又は車両のドライバー/所有者を一意に識別し得るタイプのデータ(メタデータを含む)を規制又は制限するプライバシーレベル設定を実施し得る。そのような設定は、例えば、無線送受信機172を介してユーザにより設定されてもよく、工場デフォルト設定により初期化されてもよく、又は無線送受信機172により受信されるデータにより設定されてもよい。   The system 100 may upload data to a server (eg, cloud) based on the privacy level setting. For example, the system 100 may implement a privacy level setting that regulates or restricts the types of data (including metadata) that may be uniquely identified to the vehicle and / or driver / owner of the vehicle that is transmitted to the server. Such settings may be set, for example, by the user via the wireless transceiver 172, initialized by factory default settings, or set by data received by the wireless transceiver 172. .

幾つかの実施形態では、システム100は、「高」プライバシーレベルに従ってデータをアップロードし得、ある設定下において、システム100は、特定の車両及び/又はドライバー/所有者についてのいかなる詳細もないデータ(例えば、ルートに関連する位置情報、捕捉画像等)を送信し得る。例えば、「高」プライバシーレベルに従ってデータをアップロードする場合、システム100は、車両識別番号(VIN)又は車両のドライバー若しくは所有者の氏名を含まず、代わりに、捕捉画像及び/又はルートに関連する限られた位置情報等のデータを送信し得る。   In some embodiments, the system 100 may upload data according to a “high” privacy level, and under certain settings, the system 100 may provide data without any details about a particular vehicle and / or driver / owner ( For example, position information related to the route, captured images, etc.) may be transmitted. For example, when uploading data according to a “high” privacy level, the system 100 does not include a vehicle identification number (VIN) or the name of the driver or owner of the vehicle, but instead is limited in relation to captured images and / or routes. The received position information and other data can be transmitted.

他のプライバシーレベルも意図される。例えば、システム100は、「中」プライバシーレベルに従ってデータをサーバに送信し得、車両及び/又は車両タイプのメーカー及び/又はモデル(例えば、乗用車、スポーツユーティリティ車、トラック等)等の「高」プライバシーレベル下では含まれない追加情報を含み得る。幾つかの実施形態では、システム100は、「低」プライバシーレベルに従ってデータをアップロードし得る。「低」プライバシーレベル設定下では、システム100は、特定の車両、所有者/ドライバー、及び/又は車両が走行したルートの一部又は全体を一意に識別するのに十分なデータをアップロードし、そのような情報を含み得る。そのような「低」プライバシーレベルデータは、例えば、VIN、ドライバー/所有者氏名、出発前の車両の出発点、車両の意図される目的地、車両のメーカー及び/又はモデル、車両のタイプ等の1つ又は複数を含み得る。   Other privacy levels are also contemplated. For example, the system 100 may send data to a server according to a “medium” privacy level, such as “high” privacy, such as vehicle and / or vehicle type manufacturer and / or model (eg, passenger car, sport utility vehicle, truck, etc.). It may contain additional information not included below the level. In some embodiments, the system 100 may upload data according to a “low” privacy level. Under the “low” privacy level setting, the system 100 uploads enough data to uniquely identify a particular vehicle, owner / driver, and / or part or all of the route the vehicle has traveled, Such information may be included. Such “low” privacy level data may include, for example, VIN, driver / owner name, vehicle departure point prior to departure, vehicle intended destination, vehicle manufacturer and / or model, vehicle type, etc. One or more may be included.

図2Aは、開示される実施形態による例示的な車両撮像システムの側面図表現である。図2Bは、図2Aに示される実施形態の上面図表現である。図2Bに示されるように、開示される実施形態は、バックミラーの近傍及び/又は車両200のドライバー近傍に位置決めされた第1の画像捕捉デバイス122と、車両200のバンパー領域(例えば、バンパー領域210の1つ)上又はバンパー領域内に位置決めされる第2の画像捕捉デバイス124と、処理ユニット110とを有するシステム100を本体内に含む車両200を示し得る。   FIG. 2A is a side view representation of an exemplary vehicle imaging system in accordance with the disclosed embodiments. FIG. 2B is a top view representation of the embodiment shown in FIG. 2A. As shown in FIG. 2B, the disclosed embodiments include a first image capture device 122 positioned in the vicinity of the rearview mirror and / or in the vicinity of the driver of the vehicle 200, and a bumper area of the vehicle 200 (eg, a bumper area). 210) may include a system 100 having a second image capture device 124 positioned on or within a bumper region and a processing unit 110 within the body.

図2Cに示されるように、画像捕捉デバイス122及び124は両方とも、車両200のバックミラーの近傍及び/又はドライバーの近傍に位置決めし得る。更に、2つの画像捕捉デバイス122及び124が図2B及び図2Cに示されているが、他の実施形態が3つ以上の画像捕捉デバイスを含み得ることを理解されたい。例えば、図2D及び図2Eに示される実施形態では、第1の画像捕捉デバイス122、第2の画像捕捉デバイス124、及び第3の画像捕捉デバイス126が車両200のシステム100に含まれる。   As shown in FIG. 2C, both image capture devices 122 and 124 may be positioned near the rearview mirror of the vehicle 200 and / or near the driver. Further, although two image capture devices 122 and 124 are shown in FIGS. 2B and 2C, it should be understood that other embodiments may include more than two image capture devices. For example, in the embodiment shown in FIGS. 2D and 2E, a first image capture device 122, a second image capture device 124, and a third image capture device 126 are included in the system 100 of the vehicle 200.

図2Dに示されるように、画像捕捉デバイス122は、車両200のバックミラーの近傍及び/又はドライバーの近傍に位置決めし得、画像捕捉デバイス124及び126は、車両200のバンパー領域(例えば、バンパー領域210の1つ)上に位置決めし得る。また、図2Eに示されるように、画像捕捉デバイス122、124、及び126は、車両200のバックミラーの近傍及び/又はドライバーシートの近傍に位置決めし得る。開示される実施形態は、いかなる特定の数及び構成の画像捕捉デバイスにも限定されず、画像捕捉デバイスは、車両200内及び/又は車両200上の任意の適する位置に位置決めし得る。   As shown in FIG. 2D, the image capture device 122 may be positioned near the rearview mirror of the vehicle 200 and / or near the driver, and the image capture devices 124 and 126 One of 210). Also, as shown in FIG. 2E, the image capture devices 122, 124, and 126 may be positioned near the rearview mirror of the vehicle 200 and / or near the driver seat. The disclosed embodiments are not limited to any particular number and configuration of image capture devices, which may be positioned in any suitable location within and / or on the vehicle 200.

開示される実施形態が車両に限定されず、他の状況でも適用可能なことを理解されたい。開示される実施形態が特定のタイプの車両200に限定されず、自動車、トラック、トレーラー、及び他のタイプの車両を含む全てのタイプの車両に適用可能であり得ることも理解されたい。   It should be understood that the disclosed embodiments are not limited to vehicles and are applicable in other situations. It should also be understood that the disclosed embodiments are not limited to a particular type of vehicle 200 and may be applicable to all types of vehicles, including automobiles, trucks, trailers, and other types of vehicles.

第1の画像捕捉デバイス122は、任意の適するタイプの画像捕捉デバイスを含み得る。画像捕捉デバイス122は光軸を含み得る。一例では、画像捕捉デバイス122は、グローバルシャッタを有するAptina M9V024 WVGAセンサを含み得る。他の実施形態では、画像捕捉デバイス122は、1280×960ピクセルの解像度を提供し得、ローリングシャッタを含み得る。画像捕捉デバイス122は、様々な光学要素を含み得る。幾つかの実施形態では、1枚又は複数枚のレンズが含まれて、例えば、画像捕捉デバイスの所望の焦点距離及び視野を提供し得る。幾つかの実施形態では、画像捕捉デバイス122に6mmレンズ又は12mmレンズを関連付け得る。幾つかの実施形態では、画像捕捉デバイス122は、図2Dに示されるように、所望の視野(FOV)202を有する画像を捕捉するように構成し得る。例えば、画像捕捉デバイス122は、46度FOV、50度FOV、52度FOV、又は52度FOVを超える度数を含め、40度〜56度の範囲内等の通常のFOVを有するように構成し得る。代替的には、画像捕捉デバイス122は、28度FOV又は36度FOV等の23〜40度の範囲の狭いFOVを有するように構成し得る。加えて、画像捕捉デバイス122は、100〜180度の範囲の広いFOVを有するように構成し得る。幾つかの実施形態では、画像捕捉デバイス122は、広角バンパーカメラ又は最高で180度FOVを有するバンパーカメラを含み得る。幾つかの実施形態では、画像捕捉デバイス122は、約100度の水平FOVを有するアスペクト比約2:1(例えば、H×V=3800×1900ピクセル)の7.2Mピクセル画像捕捉デバイスであり得る。そのような画像捕捉デバイスは、三次元画像捕捉デバイス構成の代わりに使用し得る。大きいレンズ歪みに起因して、そのような画像捕捉デバイスの垂直FOVは、画像捕捉デバイスが半径方向に対称なレンズを使用する実装形態では、50度よりはるかに低くなり得る。例えば、そのようなレンズは、半径方向で対称ではなく、それにより、水平FOV100度で、50度よりも大きい垂直FOVが可能である。   The first image capture device 122 may include any suitable type of image capture device. Image capture device 122 may include an optical axis. In one example, the image capture device 122 may include an Aptina M9V024 WVGA sensor with a global shutter. In other embodiments, the image capture device 122 may provide a resolution of 1280 × 960 pixels and may include a rolling shutter. Image capture device 122 may include various optical elements. In some embodiments, one or more lenses may be included to provide the desired focal length and field of view of the image capture device, for example. In some embodiments, a 6 mm lens or a 12 mm lens may be associated with the image capture device 122. In some embodiments, the image capture device 122 may be configured to capture an image having a desired field of view (FOV) 202, as shown in FIG. 2D. For example, the image capture device 122 may be configured to have a normal FOV, such as within a range of 40 degrees to 56 degrees, including frequencies greater than 46 degrees FOV, 50 degrees FOV, 52 degrees FOV, or 52 degrees FOV. . Alternatively, the image capture device 122 may be configured to have a narrow FOV in the range of 23-40 degrees, such as a 28 degree FOV or a 36 degree FOV. In addition, the image capture device 122 may be configured to have a wide FOV in the range of 100-180 degrees. In some embodiments, the image capture device 122 may include a wide angle bumper camera or a bumper camera having a FOV up to 180 degrees. In some embodiments, the image capture device 122 may be a 7.2 M pixel image capture device with an aspect ratio of about 2: 1 (eg, H × V = 3800 × 1900 pixels) with a horizontal FOV of about 100 degrees. . Such an image capture device may be used instead of a three-dimensional image capture device configuration. Due to the large lens distortion, the vertical FOV of such an image capture device can be much lower than 50 degrees in implementations where the image capture device uses a radially symmetric lens. For example, such a lens is not radially symmetric, thereby allowing a vertical FOV greater than 50 degrees with a horizontal FOV of 100 degrees.

第1の画像捕捉デバイス122は、車両200に関連付けられたシーンに対して複数の第1の画像を取得し得る。複数の第1の画像は、それぞれ一連の画像走査線として取得し得、これらはローリングシャッタを使用して捕捉し得る。各走査線は複数のピクセルを含み得る。   The first image capture device 122 may obtain a plurality of first images for a scene associated with the vehicle 200. The plurality of first images can each be acquired as a series of image scan lines, which can be captured using a rolling shutter. Each scan line may include a plurality of pixels.

第1の画像捕捉デバイス122は、第1の一連の画像走査線のそれぞれの取得に関連付けられた走査レートを有し得る。走査レートとは、画像センサが、特定の走査線に含まれる各ピクセルに関連付けられた画像データを取得することができるレートを指し得る。   The first image capture device 122 may have a scan rate associated with each acquisition of the first series of image scan lines. A scan rate may refer to a rate at which the image sensor can acquire image data associated with each pixel included in a particular scan line.

画像捕捉デバイス122、124、及び126は、例えば、CCDセンサ又はCMOSセンサを含め、任意の適するタイプ及び数の画像センサを含み得る。一実施形態では、CMOS画像センサはローリングシャッタと共に利用し得、それにより、行内の各ピクセルは一度に1つずつ読み取られ、行の走査は、画像フレーム全体が捕捉されるまで行毎に進められる。幾つかの実施形態では、行は、フレームに対して上から下に順次捕捉し得る。   Image capture devices 122, 124, and 126 may include any suitable type and number of image sensors, including, for example, CCD sensors or CMOS sensors. In one embodiment, a CMOS image sensor may be utilized with a rolling shutter so that each pixel in the row is read one at a time and the row scan is advanced row by row until the entire image frame is captured. . In some embodiments, rows may be captured sequentially from top to bottom with respect to the frame.

幾つかの実施形態では、本明細書に開示される画像捕捉デバイス(例えば、画像捕捉デバイス122、124、及び126)の1つ又は複数は、高解像度イメージャを構成し得、5Mピクセル超、7Mピクセル超、10Mピクセル超、又はそれを超える解像度を有し得る。   In some embodiments, one or more of the image capture devices disclosed herein (eg, image capture devices 122, 124, and 126) may constitute a high-resolution imager, greater than 5M pixels, 7M It may have a resolution greater than 10 pixels, or greater.

ローリングシャッタの使用により、異なる行内のピクセルは異なるときに露出され捕捉されることになり得、それにより、スキュー及び他の画像アーチファクトが捕捉画像フレームで生じ得る。他方、画像捕捉デバイス122がグローバル又は同期シャッタを用いて動作するように構成される場合、全ピクセルは、同量の時間にわたり、共通の露出期間中に露出し得る。その結果、グローバルシャッタを利用するシステムから収集されるフレーム内の画像データは、特定のときのFOV全体(FOV202等)のスナップショットを表す。それとは逆に、ローリングシャッタを適用する場合、異なる時間にフレーム内の各行が露出され、データが捕捉される。したがって、移動中の物体は、ローリングシャッタを有する画像捕捉デバイスでは歪んで見えることがある。この現象について以下により詳細に説明する。   By using a rolling shutter, pixels in different rows can be exposed and captured at different times, which can cause skew and other image artifacts in the captured image frame. On the other hand, if the image capture device 122 is configured to operate with a global or synchronous shutter, all pixels may be exposed during a common exposure period for the same amount of time. As a result, the image data in the frame collected from the system using the global shutter represents a snapshot of the entire FOV (such as FOV 202) at a specific time. Conversely, when applying a rolling shutter, each row in the frame is exposed and data is captured at different times. Thus, a moving object may appear distorted on an image capture device having a rolling shutter. This phenomenon will be described in more detail below.

第2の画像捕捉デバイス124及び第3の画像捕捉デバイス126は、任意のタイプの画像捕捉デバイスであり得る。第1の画像捕捉デバイス122のように、画像捕捉デバイス124及び126のそれぞれは、光軸を含み得る。一実施形態では、画像捕捉デバイス124及び126のそれぞれは、グローバルシャッタを有するAptina M9V024 WVGAセンサを含み得る。代替的には、画像捕捉デバイス124及び126のそれぞれは、ローリングシャッタを含み得る。画像捕捉デバイス122のように、画像捕捉デバイス124及び126は、様々なレンズ及び光学要素を含むように構成し得る。幾つかの実施形態では、画像捕捉デバイス124及び126に関連付けられたレンズは、画像捕捉デバイス122に関連付けられたFOV(FOV202等)と同じであるか、又は狭いFOV(FOV204及び206等)を提供し得る。例えば、画像捕捉デバイス124及び126は、40度、30度、26度、23度、20度、又は20度未満のFOVを有し得る。   The second image capture device 124 and the third image capture device 126 may be any type of image capture device. Like the first image capture device 122, each of the image capture devices 124 and 126 may include an optical axis. In one embodiment, each of the image capture devices 124 and 126 may include an Aptina M9V024 WVGA sensor with a global shutter. Alternatively, each of the image capture devices 124 and 126 may include a rolling shutter. Like image capture device 122, image capture devices 124 and 126 may be configured to include various lenses and optical elements. In some embodiments, the lenses associated with the image capture devices 124 and 126 are the same as the FOV (such as FOV 202) associated with the image capture device 122 or provide a narrow FOV (such as FOV 204 and 206). Can do. For example, the image capture devices 124 and 126 may have a FOV of 40 degrees, 30 degrees, 26 degrees, 23 degrees, 20 degrees, or less than 20 degrees.

画像捕捉デバイス124及び126は、車両200に関連付けられたシーンに対して複数の第2及び第3の画像を取得し得る。複数の第2及び第3の画像のそれぞれは、第2及び第3の一連の画像走査線として取得し得、これらはローリングシャッタを使用して捕捉し得る。各走査線又は行は、複数のピクセルを有し得る。画像捕捉デバイス124及び126は、第2の一連の、及び第3の一連の各画像走査線の取得に関連付けられた第2及び第3の走査レートを有し得る。   Image capture devices 124 and 126 may obtain a plurality of second and third images for a scene associated with vehicle 200. Each of the plurality of second and third images may be acquired as a second and third series of image scan lines, which may be captured using a rolling shutter. Each scan line or row may have multiple pixels. Image capture devices 124 and 126 may have second and third scan rates associated with acquiring a second series and a third series of image scan lines.

各画像捕捉デバイス122、124、及び126は、任意の適する位置に、車両200に対して任意の適する向きで位置決めし得る。画像捕捉デバイス122、124、及び126の相対位置は、画像捕捉デバイスから取得される情報を一緒に融合させることを支援するように選択し得る。例えば、幾つかの実施形態では、画像捕捉デバイス124に関連付けられたFOV(FOV204)は、画像捕捉デバイス122に関連付けられたFOV(FOV202等)及び画像捕捉デバイス126に関連付けられたFOV(FOV206等)と部分的又は完全に重複し得る。   Each image capture device 122, 124, and 126 may be positioned in any suitable position and in any suitable orientation with respect to the vehicle 200. The relative positions of the image capture devices 122, 124, and 126 may be selected to assist in fusing information obtained from the image capture devices together. For example, in some embodiments, the FOV associated with the image capture device 124 (FOV 204) is the FOV associated with the image capture device 122 (such as FOV 202) and the FOV associated with the image capture device 126 (such as FOV 206). And may partially or completely overlap.

画像捕捉デバイス122、124、及び126は、任意の適する相対高さで車両200に配置し得る。一例では、画像捕捉デバイス122、124、及び126間に高さ差があり得、高さ差は、立体分析を可能にするのに十分な視差情報を提供し得る。例えば、図2Aに示されるように、2つの画像捕捉デバイス122及び124は異なる高さにある。画像捕捉デバイス122、124、及び126間には横方向変位差もあり得、例えば、処理ユニット110による立体分析に追加の視差情報を与える。横方向変位差は、図2C及び図2Dに示されるように、dで示し得る。幾つかの実施形態では、前部変位又は後部変位(例えば、範囲変位)が、画像捕捉デバイス122、124、126間に存在し得る。例えば、画像捕捉デバイス122は、画像捕捉デバイス124及び/又は画像捕捉デバイス126の0.5〜2メートル以上背後に配置し得る。このタイプの変位では、画像捕捉デバイスの1つが、他の画像捕捉デバイスの潜在的なブラインドスポットをカバー可能であり得る。 Image capture devices 122, 124, and 126 may be placed on vehicle 200 at any suitable relative height. In one example, there may be a height difference between the image capture devices 122, 124, and 126, and the height difference may provide sufficient disparity information to allow stereo analysis. For example, as shown in FIG. 2A, the two image capture devices 122 and 124 are at different heights. There may also be lateral displacement differences between the image capture devices 122, 124, and 126, for example providing additional disparity information for stereo analysis by the processing unit 110. The lateral displacement difference may be indicated by d x as shown in FIGS. 2C and 2D. In some embodiments, a front displacement or a rear displacement (eg, range displacement) can exist between the image capture devices 122, 124, 126. For example, the image capture device 122 may be positioned 0.5-2 meters or more behind the image capture device 124 and / or the image capture device 126. With this type of displacement, one of the image capture devices may be able to cover the potential blind spots of other image capture devices.

画像捕捉デバイス122は、任意の適する解像度能力(例えば、画像センサに関連付けられたピクセル数)を有し得、画像捕捉デバイス122に関連付けられた画像センサの解像度は、画像捕捉デバイス124及び126に関連付けられた画像センサの解像度よりも高くてもよく、低くてもよく、又は同じであってもよい。幾つかの実施形態では、画像捕捉デバイス122及び/又は画像捕捉デバイス124及び126に関連付けられた画像センサは、解像度640×480、1024×768、1280×960、又は任意の他の適する解像度を有し得る。   The image capture device 122 may have any suitable resolution capability (eg, the number of pixels associated with the image sensor) and the resolution of the image sensor associated with the image capture device 122 is associated with the image capture devices 124 and 126. The resolution may be higher, lower or the same as the resolution of the image sensor provided. In some embodiments, the image sensor associated with the image capture device 122 and / or the image capture devices 124 and 126 has a resolution of 640 × 480, 1024 × 768, 1280 × 960, or any other suitable resolution. Can do.

フレームレート(例えば、画像捕捉デバイスが、次の画像フレームに関連付けられたピクセルデータの捕捉に移る前、1つの画像フレームのピクセルデータの組を取得する速度)は、制御可能であり得る。画像捕捉デバイス122に関連付けられたフレームレートは、画像捕捉デバイス124及び126に関連付けられたフレームレートよりも高くてもよく、低くてもよく、又は同じであってもよい。画像捕捉デバイス122、124、及び126に関連付けられたフレームレートは、フレームレートのタイミングに影響を及ぼし得る様々なファクタに依存し得る。例えば、画像捕捉デバイス122、124、及び126の1つ又は複数は、画像捕捉デバイス122、124、及び/又は126内の画像センサの1つ又は複数のピクセルに関連付けられた画像データの取得前又は取得後に課される選択可能なピクセル遅延期間を含み得る。一般に、各ピクセルに対応する画像データは、デバイスのクロックレート(例えば、1クロックサイクル当たり1ピクセル)に従って取得し得る。更に、ローリングシャッタを含む実施形態では、画像捕捉デバイス122、124、及び126の1つ又は複数は、画像捕捉デバイス122、124、及び/又は126内の画像センサのピクセル行に関連付けられた画像データの取得前又は取得後に課される選択可能な水平ブランク期間を含み得る。更に、画像捕捉デバイス122、124、及び/又は126の1つ又は複数は、画像捕捉デバイス122、124、及び126の画像フレームに関連付けられた画像データの取得前又は取得後に課される選択可能な垂直ブランク期間を含み得る。   The frame rate (eg, the rate at which the image capture device acquires a set of pixel data for one image frame before moving on to capture pixel data associated with the next image frame) may be controllable. The frame rate associated with the image capture device 122 may be higher, lower, or the same as the frame rate associated with the image capture devices 124 and 126. The frame rate associated with the image capture devices 122, 124, and 126 may depend on various factors that can affect the timing of the frame rate. For example, one or more of the image capture devices 122, 124, and 126 may be prior to acquisition of image data associated with one or more pixels of the image sensor in the image capture devices 122, 124, and / or 126, or It may include a selectable pixel delay period imposed after acquisition. In general, the image data corresponding to each pixel may be acquired according to the clock rate of the device (eg, one pixel per clock cycle). Further, in embodiments that include a rolling shutter, one or more of the image capture devices 122, 124, and 126 may be associated with image data associated with pixel rows of image sensors within the image capture devices 122, 124, and / or 126. May include a selectable horizontal blanking period imposed before or after acquisition. Further, one or more of the image capture devices 122, 124, and / or 126 are selectable imposed before or after acquisition of image data associated with the image frames of the image capture devices 122, 124, and 126. A vertical blank period may be included.

これらのタイミング制御により、各画像捕捉デバイスの線走査レートが異なる場合であっても、画像捕捉デバイス122、124、及び126に関連付けられたフレームレートを同期させることができ得る。更に、以下に更に詳細に考察するように、ファクタ(例えば、画像センサ解像度、最高線走査率等)の中でも特に、これらの選択可能なタイミング制御により、画像捕捉デバイス122の視野が画像捕捉デバイス124及び126のFOVと異なる場合であっても、画像捕捉デバイス122のFOVが画像捕捉デバイス124及び126の1つ又は複数のFOVと重複するエリアからの画像捕捉を同期させることが可能になり得る。   These timing controls may allow the frame rates associated with the image capture devices 122, 124, and 126 to be synchronized even when the line scan rate of each image capture device is different. Further, as will be discussed in more detail below, among other factors (eg, image sensor resolution, maximum line scan rate, etc.), these selectable timing controls allow the field of view of image capture device 122 to be captured by image capture device 124. And 126 may be able to synchronize image capture from areas where the FOV of the image capture device 122 overlaps one or more FOVs of the image capture devices 124 and 126.

画像捕捉デバイス122、124、及び126でのフレームレートタイミングは、関連付けられた画像センサの解像度に依存し得る。例えば、両デバイスの線走査レートが同様であると仮定し、一方のデバイスが解像度640×480を有する画像センサを含み、他方のデバイスが解像度1280×960を有する画像センサを含む場合、高い解像度を有するセンサからの画像データのフレーム取得ほど、長い時間が必要になる。   Frame rate timing at the image capture devices 122, 124, and 126 may depend on the resolution of the associated image sensor. For example, assuming that both devices have similar line scan rates, if one device contains an image sensor with a resolution of 640 × 480 and the other device contains an image sensor with a resolution of 1280 × 960, the higher resolution The longer the time required to acquire a frame of image data from the sensor, the longer the time is required.

画像捕捉デバイス122、124、及び126での画像データ取得のタイミングに影響を及ぼし得る他のファクタは、最高線走査レートである。例えば、画像捕捉デバイス122、124、及び126に含まれる画像センサからの画像データ行の取得は、何らかの最小時間量を必要とする。ピクセル遅延期間が追加されないと仮定すると、画像データ行を取得するこの最小時間量は、特定のデバイスの最高線走査レートに関連することになる。高い最高線走査レートを提供するデバイスほど、より低い最高線走査レートを有するデバイスよりも高いフレームレートを提供する潜在性を有する。幾つかの実施形態では、画像捕捉デバイス124及び126の一方又は両方は、画像捕捉デバイス122に関連付けられた最高線走査レートよりも高い最高線走査レートを有し得る。幾つかの実施形態では、画像捕捉デバイス124及び/又は126の最高線走査レートは、画像捕捉デバイス122の最高線走査レートの1.25倍、1.5倍、1.75倍、又は2倍以上であり得る。   Another factor that can affect the timing of image data acquisition at the image capture devices 122, 124, and 126 is the maximum line scan rate. For example, obtaining image data rows from image sensors included in image capture devices 122, 124, and 126 requires some minimum amount of time. Assuming no pixel delay period is added, this minimum amount of time to acquire an image data row will be related to the maximum line scan rate of a particular device. Devices that provide a high maximum line scan rate have the potential to provide a higher frame rate than devices that have a lower maximum line scan rate. In some embodiments, one or both of image capture devices 124 and 126 may have a maximum line scan rate that is higher than the maximum line scan rate associated with image capture device 122. In some embodiments, the maximum line scan rate of the image capture device 124 and / or 126 is 1.25 times, 1.5 times, 1.75 times, or 2 times the maximum line scan rate of the image capture device 122. That can be the case.

別の実施形態では、画像捕捉デバイス122、124、及び126は、同じ最高線走査レートを有し得るが、画像捕捉デバイス122は、その最高走査レート以下の走査レートで動作し得る。システムは、画像捕捉デバイス124及び126の一方又は両方が画像捕捉デバイス122の線走査レートと等しい線走査レートで動作するように構成し得る。他の例では、システムは、画像捕捉デバイス124及び/又は126の線走査レートが、画像捕捉デバイス122の線走査レートの1.25倍、1.5倍、1.75倍、又は2倍以上であり得るように構成し得る。   In another embodiment, the image capture devices 122, 124, and 126 may have the same maximum line scan rate, but the image capture device 122 may operate at a scan rate below that maximum scan rate. The system may be configured such that one or both of the image capture devices 124 and 126 operate at a line scan rate that is equal to the line scan rate of the image capture device 122. In other examples, the system may have a line scan rate of the image capture device 124 and / or 126 that is 1.25 times, 1.5 times, 1.75 times, or more than twice the line scan rate of the image capture device 122. Can be configured to be.

幾つかの実施形態では、画像捕捉デバイス122、124、及び126は非対称であり得る。すなわち、これら画像捕捉デバイスは、異なる視野(FOV)及び焦点距離を有するカメラを含み得る。画像捕捉デバイス122、124、及び126の視野は、例えば、車両200の環境に対する任意の所望のエリアを含み得る。幾つかの実施形態では、画像捕捉デバイス122、124、及び126の1つ又は複数は、車両200の前の環境、車両200の背後の環境、車両200の両側の環境、又はそれらの組合せから画像データを取得するように構成し得る。   In some embodiments, the image capture devices 122, 124, and 126 may be asymmetric. That is, these image capture devices may include cameras with different fields of view (FOV) and focal lengths. The field of view of the image capture devices 122, 124, and 126 may include any desired area for the environment of the vehicle 200, for example. In some embodiments, one or more of the image capture devices 122, 124, and 126 may capture images from the environment in front of the vehicle 200, the environment behind the vehicle 200, the environment on both sides of the vehicle 200, or combinations thereof. It can be configured to obtain data.

更に、各画像捕捉デバイス122、124、及び/又は126に関連付けられた焦点距離は、各デバイスが車両200から所望の距離範囲にある物体の画像を取得するように選択可能であり得る(例えば、適切なレンズの包含等により)。例えば、幾つかの実施形態では、画像捕捉デバイス122、124、及び126は、車両から数メートル以内の近接物体の画像を取得し得る。画像捕捉デバイス122、124、126は、車両からより離れた範囲(例えば、25m、50m、100m、150m、又はそれを超える)における物体の画像を取得するように構成することもできる。更に、画像捕捉デバイス122、124、及び126の焦点距離は、ある画像捕捉デバイス(例えば、画像捕捉デバイス122)が車両に比較的近い(例えば、10m以内又は20m以内)物体の画像を取得することができ、一方、その他の画像捕捉デバイス(例えば、画像捕捉デバイス124及び126)が、車両200からより離れた物体(例えば、20m超、50m超、100m超、150m超等)の画像を取得することができるように選択し得る。   Further, the focal length associated with each image capture device 122, 124, and / or 126 may be selectable such that each device acquires an image of an object in a desired distance range from the vehicle 200 (eg, By including appropriate lenses, etc.). For example, in some embodiments, the image capture devices 122, 124, and 126 may acquire images of nearby objects within a few meters of the vehicle. The image capture devices 122, 124, 126 can also be configured to acquire images of objects at ranges further away from the vehicle (eg, 25m, 50m, 100m, 150m, or more). Further, the focal length of the image capture devices 122, 124, and 126 is such that an image capture device (eg, the image capture device 122) acquires an image of an object that is relatively close to the vehicle (eg, within 10m or within 20m). While other image capture devices (e.g., image capture devices 124 and 126) acquire images of objects further away from the vehicle 200 (e.g., greater than 20m, greater than 50m, greater than 100m, greater than 150m, etc.). You can choose to be able to.

幾つかの実施形態によれば、1つ又は複数の画像捕捉デバイス122、124、及び126のFOVは、広角を有し得る。例えば、特に車両200の近傍エリアの画像取得に使用し得る画像捕捉デバイス122、124、及び126には140度のFOVを有することが有利であり得る。例えば、画像捕捉デバイス122は、車両200の右又は左のエリアの画像の捕捉に使用し得、そのような実施形態では、画像捕捉デバイス122が広いFOV(例えば、少なくとも140度)を有することが望ましいことがある。   According to some embodiments, the FOV of one or more image capture devices 122, 124, and 126 may have a wide angle. For example, it may be advantageous to have a 140 degree FOV for the image capture devices 122, 124, and 126 that may be used, for example, to acquire images in the vicinity of the vehicle 200 in particular. For example, the image capture device 122 may be used to capture images in the right or left area of the vehicle 200, and in such embodiments, the image capture device 122 may have a wide FOV (eg, at least 140 degrees). Sometimes desirable.

画像捕捉デバイス122、124、及び126のそれぞれに関連付けられた視野は、各焦点距離に依存し得る。例えば、焦点距離が増大するにつれて、対応する視野は低減する。   The field of view associated with each of the image capture devices 122, 124, and 126 may depend on each focal length. For example, as the focal length increases, the corresponding field of view decreases.

画像捕捉デバイス122、124、及び126は、任意の適する視野を有するように構成し得る。特定の一例では、画像捕捉デバイス122は、水平FOV46度を有し得、画像捕捉デバイス124は水平FOV23度を有し得、画像捕捉デバイス126は水平FOV23〜46度を有し得る。別の例では、画像捕捉デバイス122は水平FOV52度を有し得、画像捕捉デバイス124は水平FOV26度を有し得、画像捕捉デバイス126は、水平FOV26〜52度を有し得る。幾つかの実施形態では、画像捕捉デバイス122のFOVと画像捕捉デバイス124及び/又は画像捕捉デバイス126のFOVとの比率は、1.5〜2.0で変化し得る。他の実施形態では、この比率は1.25〜2.25で変化し得る。   Image capture devices 122, 124, and 126 may be configured to have any suitable field of view. In one particular example, image capture device 122 may have a horizontal FOV of 46 degrees, image capture device 124 may have a horizontal FOV of 23 degrees, and image capture device 126 may have a horizontal FOV of 23-46 degrees. In another example, image capture device 122 may have a horizontal FOV of 52 degrees, image capture device 124 may have a horizontal FOV of 26 degrees, and image capture device 126 may have a horizontal FOV of 26-52 degrees. In some embodiments, the ratio of the FOV of the image capture device 122 to the FOV of the image capture device 124 and / or the image capture device 126 can vary from 1.5 to 2.0. In other embodiments, this ratio can vary from 1.25 to 2.25.

システム100は、画像捕捉デバイス122の視野が、画像捕捉デバイス124及び/又は画像捕捉デバイス126の視野と少なくとも部分的に又は完全に重複するように構成し得る。幾つかの実施形態では、システム100は、画像捕捉デバイス124及び126の視野が、例えば、画像捕捉デバイス122の視野内に入り(例えば、画像捕捉デバイス122の視野よりも小さく)、画像捕捉デバイス122の視野と共通の中心を共有するように構成し得る。他の実施形態では、画像捕捉デバイス122、124、及び126は、隣接するFOVを捕捉してもよく、又は部分的に重複するFOVを有してもよい。幾つかの実施形態では、画像捕捉デバイス122、124、及び126の視野は、FOVのより狭い画像捕捉デバイス124及び/又は126の中心が、FOVがより広いデバイス122の視野の下半分に配置され得るように位置合わせし得る。   System 100 may be configured such that the field of view of image capture device 122 at least partially or completely overlaps the field of view of image capture device 124 and / or image capture device 126. In some embodiments, the system 100 includes the field of view of the image capture devices 124 and 126 within, for example, the field of view of the image capture device 122 (eg, smaller than the field of view of the image capture device 122). Can be configured to share a common center. In other embodiments, the image capture devices 122, 124, and 126 may capture adjacent FOVs or have partially overlapping FOVs. In some embodiments, the field of view of the image capture devices 122, 124, and 126 is positioned in the lower half of the field of view of the device 122 with the wider FOV, with the center of the image capture device 124 and / or 126 with the narrower FOV being located. Align as you get.

図2Fは、開示される実施形態による例示的な車両制御システムの図表現である。図2Fに示されるように、車両200は、スロットルシステム220、ブレーキシステム230、及び操舵システム240を含み得る。システム100は、1つ又は複数のデータリンク(例えば、任意の有線及び/又は無線リンク又はデータを伝送するリンク)を介して、スロットルシステム220、ブレーキシステム230、及び操舵システム240の1つ又は複数に入力(例えば、制御信号)を提供し得る。例えば、画像捕捉デバイス122、124、及び/又は126により取得された画像の分析に基づいて、システム100は、車両200をナビゲートする制御信号をスロットルシステム220、ブレーキシステム230、及び操舵システム240の1つ又は複数に提供し得る(例えば、加速、ターン、レーンシフト等を行わせることにより)。更に、システム100は、車両200の動作状況を示す入力(例えば、速度、車両200がブレーキ中及び/又はターン中であるか否か等)をスロットルシステム220、ブレーキシステム230、及び操舵システム24の1つ又は複数から受信し得る。以下、更なる詳細を図4〜図7に関連して提供する。   FIG. 2F is a diagrammatic representation of an exemplary vehicle control system in accordance with the disclosed embodiments. As shown in FIG. 2F, the vehicle 200 may include a throttle system 220, a brake system 230, and a steering system 240. The system 100 may include one or more of a throttle system 220, a brake system 230, and a steering system 240 via one or more data links (eg, any wired and / or wireless link or link that transmits data). May provide an input (eg, a control signal). For example, based on an analysis of images acquired by the image capture devices 122, 124, and / or 126, the system 100 can provide control signals for navigating the vehicle 200 to the throttle system 220, the brake system 230, and the steering system 240. One or more may be provided (eg, by causing acceleration, turns, lane shifts, etc.). In addition, the system 100 provides input (eg, speed, whether the vehicle 200 is braking and / or turning, etc.) indicating the operating status of the vehicle 200 to the throttle system 220, the brake system 230, and the steering system 24. One or more may be received. In the following, further details will be provided in connection with FIGS.

図3Aに示されるように、車両200は、車両200のドライバー又は乗員と相互作用するユーザインタフェース170を含むこともできる。例えば、車両アプリケーション内のユーザインタフェース170は、タッチスクリーン320、つまみ330、ボタン340、及びマイクロフォン350を含み得る。車両200のドライバー又は乗員は、ハンドル(例えば、例えば、ウィンカーハンドルを含め、車両200のステアリングコラム上又はその近傍に配置される)及びボタン(例えば、車両200のハンドルに配置される)等を使用して、システム100と相互作用することもできる。幾つかの実施形態では、マイクロフォン350はバックミラー310に隣接して位置決めし得る。同様に、幾つかの実施形態では、画像捕捉デバイス122は、バックミラー310の近傍に配置し得る。幾つかの実施形態では、ユーザインタフェース170は、1つ又は複数のスピーカ360(例えば、車両オーディオシステムのスピーカ)を含むこともできる。例えば、システム100は、スピーカ360を介して様々な通知(例えば、アラート)を提供し得る。   As shown in FIG. 3A, the vehicle 200 may also include a user interface 170 that interacts with a driver or occupant of the vehicle 200. For example, the user interface 170 in the vehicle application may include a touch screen 320, a knob 330, a button 340, and a microphone 350. The driver or occupant of the vehicle 200 uses a handle (for example, disposed on or near the steering column of the vehicle 200 including a winker handle) and a button (for example, disposed on the handle of the vehicle 200). It can also interact with the system 100. In some embodiments, the microphone 350 may be positioned adjacent to the rearview mirror 310. Similarly, in some embodiments, the image capture device 122 may be located near the rearview mirror 310. In some embodiments, the user interface 170 may also include one or more speakers 360 (eg, speakers of a vehicle audio system). For example, the system 100 may provide various notifications (eg, alerts) via the speaker 360.

図3B〜図3Dは、開示される実施形態による、バックミラー(例えば、バックミラー310)の背後に、車両フロントガラスと対向して位置決めされるように構成される例示的なカメラマウント370の図である。図3Bに示されるように、カメラマウント370は、画像捕捉デバイス122、124、及び126を含み得る。画像捕捉デバイス124及び126は、グレアシールド380の背後に位置決めし得、グレアシールド380は、フロントガラスに直接接触し得、フィルム及び/又は反射防止材料の組成物を含み得る。例えば、グレアシールド380は、一致する傾斜を有するフロントガラスと対向して位置合わせされるように位置決めし得る。幾つかの実施形態では、画像捕捉デバイス122、124、及び126のそれぞれは、例えば、図3Dに示されるように、グレアシールド380の背後に位置決めし得る。開示される実施形態は、画像捕捉デバイス122、124及び126、カメラマウント370、並びにグレアシールド380のいかなる特定の構成にも限定されない。図3Cは、前から見た図3Bに示されるカメラマウント370の図である。   3B-3D are views of an exemplary camera mount 370 configured to be positioned behind a rearview mirror (eg, rearview mirror 310) and opposite a vehicle windscreen, according to disclosed embodiments. It is. As shown in FIG. 3B, the camera mount 370 may include image capture devices 122, 124, and 126. Image capture devices 124 and 126 may be positioned behind glare shield 380, which may be in direct contact with the windshield and may include a composition of film and / or antireflective material. For example, the glare shield 380 may be positioned to be aligned opposite a windshield having a matching slope. In some embodiments, each of the image capture devices 122, 124, and 126 may be positioned behind the glare shield 380, for example, as shown in FIG. 3D. The disclosed embodiments are not limited to any particular configuration of image capture devices 122, 124 and 126, camera mount 370, and glare shield 380. FIG. 3C is a view of the camera mount 370 shown in FIG. 3B as viewed from the front.

本開示の恩恵を受ける当業者により理解されるように、上記開示された実施形態に対する多くの変形形態及び/又は変更形態がなされ得る。例えば、全ての構成要素がシステム100の動作にとって必須であるわけではない。更に、任意の構成要素がシステム100の任意の適切な部分に配置し得、構成要素は、開示される実施形態の機能を提供しながら、様々な構成に再配置し得る。したがって、上述した構成は例であり、上述した構成に関係なく、システム100は、車両200の周囲を分析し、分析に応答して車両200をナビゲートする広範囲の機能を提供することができる。   Many variations and / or modifications to the above disclosed embodiments may be made, as will be appreciated by those skilled in the art having the benefit of this disclosure. For example, not all components are essential to the operation of system 100. Further, any component may be located in any suitable portion of system 100, and the components may be rearranged in various configurations while providing the functionality of the disclosed embodiments. Thus, the configuration described above is an example, and regardless of the configuration described above, the system 100 can provide a wide range of functions for analyzing the surroundings of the vehicle 200 and navigating the vehicle 200 in response to the analysis.

以下に更に詳細に考察するように、様々な開示される実施形態により、システム100は、自律運転及び/又はドライバー支援技術に関連する様々な特徴を提供し得る。例えば、システム100は、画像データ、位置データ(例えば、GPS位置情報)、地図データ、速度データ、及び/又は車両200に含まれるセンサからのデータを分析し得る。システム100は、例えば、画像取得ユニット120、位置センサ130、及び他のセンサから、分析のためにデータを収集し得る。更に、システム100は、収集されたデータを分析して、車両200が特定の行動をとるべきか否かを特定し、次に、人間の介入なしで、判断された動作を自動的にとり得る。例えば、車両200が人間の加入なしでナビゲートする場合、システム100は、車両200のブレーキ、加速度、及び/又は操舵を自動的に制御し得る(例えば、制御信号をスロットルシステム220、ブレーキシステム230、及び操舵システム240の1つ又は複数に送信することにより)。更に、システム100は、収集されたデータを分析し、収集されたデータの分析に基づいて警告及び/又はアラートを車両の搭乗者に発行し得る。システム100により提供される様々な実施形態に関する更なる詳細を以下に提供する。   As discussed in further detail below, according to various disclosed embodiments, system 100 may provide various features related to autonomous driving and / or driver assistance techniques. For example, the system 100 may analyze image data, location data (eg, GPS location information), map data, speed data, and / or data from sensors included in the vehicle 200. System 100 may collect data for analysis from, for example, image acquisition unit 120, position sensor 130, and other sensors. Further, the system 100 may analyze the collected data to determine whether the vehicle 200 should take a specific action and then automatically take the determined action without human intervention. For example, if the vehicle 200 navigates without human participation, the system 100 may automatically control the braking, acceleration, and / or steering of the vehicle 200 (eg, control signals to the throttle system 220, brake system 230, etc. , And by sending to one or more of the steering systems 240). Further, the system 100 may analyze the collected data and issue warnings and / or alerts to vehicle occupants based on the analysis of the collected data. Further details regarding various embodiments provided by the system 100 are provided below.

前向きマルチ撮像システム
上述したように、システム100は、マルチカメラシステムを使用する運転支援機能を提供し得る。マルチカメラシステムは、車両の前方方向を向いた1つ又は複数のカメラを使用し得る。他の実施形態では、マルチカメラシステムは、車両の側部又は車両の後方を向いた1つ又は複数のカメラを含み得る。一実施形態では、例えば、システム100は2カメラ撮像システムを使用し得、その場合、第1のカメラ及び第2のカメラ(例えば、画像捕捉デバイス122及び124)は、車両(例えば、車両200)の前部及び/又は側部に位置決めし得る。第1のカメラは、第2のカメラの視野よりも大きい、小さい、又は部分的に重複する視野を有し得る。更に、第1のカメラは、第1の画像プロセッサに接続されて、第1のカメラにより提供される画像の単眼画像分析を実行し得、第2のカメラは第2の画像プロセッサに接続されて、第2のカメラにより提供される画像の単眼画像分析を実行し得る。第1及び第2の画像プロセッサの出力(例えば、処理された情報)は結合し得る。幾つかの実施形態では、第2の画像プロセッサは、第1のカメラ及び第2のカメラの両方からの画像を受信して、立体分析を実行し得る。別の実施形態では、システム100は3カメラ撮像システムを使用し得、この場合、各カメラは異なる視野を有する。したがって、そのようなシステムは、車両の前方及び側部の両方の様々な距離にある物体から導出される情報に基づいて判断を下し得る。単眼画像分析との言及は、画像分析が単一視点から(例えば、単一のカメラ)から捕捉される画像に基づいて画像分析が実行される場合を指し得る。立体画像分析は、画像捕捉パラメータの1つ又は複数を変更した状態で捕捉された2つ以上の画像に基づいて画像分析が実行される場合を指し得る。例えば、立体画像分析の実行に適した捕捉画像は、2つ以上の異なる位置から捕捉される画像、異なる視野から捕捉される画像、異なる焦点距離を使用して捕捉される画像、視差情報付きで捕捉される画像等を含み得る。
Forward-facing Multi-Imaging System As described above, the system 100 can provide a driving assistance function that uses a multi-camera system. A multi-camera system may use one or more cameras facing the front of the vehicle. In other embodiments, the multi-camera system may include one or more cameras facing the side of the vehicle or the rear of the vehicle. In one embodiment, for example, system 100 may use a two-camera imaging system, in which case the first camera and the second camera (eg, image capture devices 122 and 124) are vehicles (eg, vehicle 200). Can be positioned on the front and / or side of the. The first camera may have a field of view that is larger, smaller, or partially overlapping than the field of view of the second camera. Further, the first camera can be connected to a first image processor to perform monocular image analysis of the image provided by the first camera, and the second camera is connected to the second image processor. A monocular image analysis of the image provided by the second camera may be performed. The outputs (eg, processed information) of the first and second image processors may be combined. In some embodiments, the second image processor may receive images from both the first camera and the second camera to perform stereo analysis. In another embodiment, the system 100 may use a three camera imaging system, where each camera has a different field of view. Thus, such a system can make decisions based on information derived from objects at various distances both on the front and side of the vehicle. Reference to monocular image analysis may refer to the case where image analysis is performed based on images captured from a single viewpoint (eg, a single camera). Stereoscopic image analysis may refer to the case where image analysis is performed based on two or more images captured with one or more of the image capture parameters changed. For example, captured images suitable for performing stereoscopic image analysis include images captured from two or more different positions, images captured from different fields of view, images captured using different focal lengths, with disparity information It can include captured images and the like.

例えば、一実施形態では、システム100は、画像捕捉デバイス122〜126を使用する3カメラ構成を実施し得る。そのような構成では、画像捕捉デバイス122は、狭視野(例えば、34度又は約20〜45度の範囲から選択される他の値等)を提供し得、画像捕捉デバイス124は、広視野(例えば、150度又は約100〜約180度の範囲から選択される他の値)を提供し得、画像捕捉デバイス126は、中視野(例えば、46度又は約35〜約60度の範囲から選択される他の値)を提供し得る。幾つかの実施形態では、画像捕捉デバイス126は、主又は一次カメラとして動作し得る。画像捕捉デバイス122〜126は、バックミラー310の背後に、実質的に並んで(例えば、6cm離間)位置決めし得る。更に、幾つかの実施形態では、上述したように、画像捕捉デバイス122〜126の1つ又は複数は、車両200のフロントガラスと同一平面のグレアシールド380の背後に搭載し得る。そのようなシールドは、車内部からのいかなる反射の画像捕捉デバイス122〜126への影響も最小にするように動作し得る。   For example, in one embodiment, the system 100 may implement a three camera configuration using image capture devices 122-126. In such a configuration, the image capture device 122 may provide a narrow field of view (eg, 34 degrees or other values selected from a range of about 20-45 degrees, etc.) and the image capture device 124 may have a wide field of view ( For example, 150 degrees or other values selected from a range of about 100 to about 180 degrees may be provided, and the image capture device 126 may be selected from a medium field of view (eg, 46 degrees or a range of about 35 to about 60 degrees) Other values to be provided). In some embodiments, the image capture device 126 may operate as a primary or primary camera. The image capture devices 122-126 can be positioned substantially side-by-side (eg, 6 cm apart) behind the rearview mirror 310. Further, in some embodiments, as described above, one or more of the image capture devices 122-126 may be mounted behind a glare shield 380 that is flush with the windshield of the vehicle 200. Such a shield may operate to minimize the effect of any reflections from the interior of the vehicle on the image capture devices 122-126.

別の実施形態では、図3B及び図3Cに関連して上述したように、広視野カメラ(例えば、上記例では画像捕捉デバイス124)は、狭い主視野カメラ(例えば、上記例では画像捕捉デバイス122及び126)よりも低く搭載し得る。この構成は、広視野カメラからの自由な視線を提供し得る。反射を低減するために、カメラは、車両200のフロントガラス近くに搭載し得、反射光を弱める偏光器をカメラに含み得る。   In another embodiment, as described above in connection with FIGS. 3B and 3C, a wide field camera (eg, image capture device 124 in the above example) is a narrow main field camera (eg, image capture device 122 in the above example). And 126). This configuration may provide free line of sight from the wide field camera. To reduce reflection, the camera may be mounted near the windshield of the vehicle 200 and the camera may include a polarizer that attenuates the reflected light.

3カメラシステムは、特定の性能特徴を提供し得る。例えば、幾つかの実施形態は、あるカメラによる物体の検出を別のカメラからの検出結果に基づいて検証する機能を含み得る。上述した3カメラ構成では、処理ユニット110は、例えば、3つの処理デバイス(例えば、上述したように3つのEyeQシリーズのプロセッサチップ)を含み得、各処理デバイスは、画像捕捉デバイス122〜126の1つ又は複数により捕捉される画像の処理に向けられる。   A three-camera system may provide specific performance characteristics. For example, some embodiments may include the ability to verify object detection by one camera based on detection results from another camera. In the three-camera configuration described above, the processing unit 110 may include, for example, three processing devices (eg, three EyeQ series processor chips as described above), each processing device being one of the image capture devices 122-126. Directed to processing images captured by one or more.

3カメラシステムでは、第1の処理デバイスは、主カメラ及び狭視野カメラの両方から画像を受信し得、狭FOVカメラのビジョン処理を実行して、例えば、他の車両、歩行者、レーンマーク、交通標識、信号機、及び他の道路物体を検出し得る。更に、第1の処理デバイスは、主カメラからの画像と狭カメラからの画像との間でのピクセルの不一致を計算し、車両200の環境の3D再構築を作成し得る。次に、第1の処理デバイスは、3D再構築を3Dマップデータ又は別のカメラからの情報に基づいて計算される3D情報と結合し得る。   In a three-camera system, the first processing device may receive images from both the main camera and the narrow field camera and perform the vision processing of the narrow FOV camera, eg, other vehicles, pedestrians, lane marks, Traffic signs, traffic lights, and other road objects may be detected. In addition, the first processing device may calculate a pixel mismatch between the image from the primary camera and the image from the narrow camera to create a 3D reconstruction of the environment of the vehicle 200. The first processing device may then combine the 3D reconstruction with 3D information calculated based on 3D map data or information from another camera.

第2の処理デバイスは、主カメラから画像を受信し得、ビジョン処理を実行して、他の車両、歩行者、レーンマーク、交通標識、信号機、及び他の道路物体を検出し得る。更に、第2の処理デバイスは、カメラ変位を計算し、変位に基づいて、連続画像間のピクセルの不一致を計算し、シーンの3D再構築(例えば、ストラクチャーフロムモーション)を作成し得る。第2の処理デバイスは、3D再構築に基づくストラクチャーフロムモーションを第1の処理デバイスに送信し、ストラクチャーフロムモーションを立体3D画像と結合し得る。   The second processing device may receive images from the primary camera and perform vision processing to detect other vehicles, pedestrians, lane marks, traffic signs, traffic lights, and other road objects. Further, the second processing device may calculate camera displacement, calculate pixel mismatches between successive images based on the displacement, and create a 3D reconstruction of the scene (eg, structure from motion). The second processing device may send a structure from motion based on the 3D reconstruction to the first processing device and combine the structure from motion with the stereoscopic 3D image.

第3の処理デバイスは、画像を広FOVカメラから受信し、画像を処理して、車両、歩行者、レーンマーク、交通標識、信号機、及び他の道路物体を検出し得る。第3の処理デバイスは、追加の処理命令を更に実行して、画像を分析し、レーン変更中の車両、歩行者等の画像内の移動中の物体を識別し得る。   A third processing device may receive images from the wide FOV camera and process the images to detect vehicles, pedestrians, lane marks, traffic signs, traffic lights, and other road objects. The third processing device may further execute additional processing instructions to analyze the image and identify moving objects in the image, such as a lane changing vehicle, pedestrian, etc.

幾つかの実施形態では、画像に基づく情報ストリームを独立して捕捉させ、処理させることは、システムで冗長性を提供する機会を提供し得る。そのような冗長性は、例えば、第1の画像捕捉デバイス及びそのデバイスから処理された画像を使用して、少なくとも第2の画像捕捉デバイスから画像情報を捕捉し処理することにより得られる情報を検証及び/又は捕捉し得る。   In some embodiments, independently capturing and processing an image-based information stream may provide an opportunity to provide redundancy in the system. Such redundancy verifies information obtained by capturing and processing image information from at least a second image capture device using, for example, a first image capture device and an image processed from that device. And / or may be captured.

幾つかの実施形態では、システム100は、車両200にナビゲーション支援を提供するに当たり2つの画像捕捉デバイス(例えば、画像捕捉デバイス122及び124)を使用し得、第3の画像捕捉デバイス(例えば、画像捕捉デバイス126)を使用して、冗長性を提供し、他の2つの画像捕捉デバイスから受信されるデータの分析を検証し得る。例えば、そのような構成では、画像捕捉デバイス122及び124は、車両200をナビゲートするためのシステム100による立体分析の画像を提供し得、一方、画像捕捉デバイス126は、システム100による単眼分析に画像を提供して、画像捕捉デバイス123及び/又は画像捕捉デバイス124から捕捉された画像に基づいて得られる情報の冗長性及び検証を提供し得る。すなわち、画像捕捉デバイス126(及び対応する処理デバイス)は、画像捕捉デバイス122及び124から導出された分析へのチェックを提供する冗長サブシステムを提供する(例えば、自動緊急ブレーキ(AEB)システムを提供する)と見なし得る。   In some embodiments, the system 100 may use two image capture devices (eg, image capture devices 122 and 124) in providing navigation assistance to the vehicle 200, and a third image capture device (eg, image). The capture device 126) may be used to provide redundancy and verify analysis of data received from the other two image capture devices. For example, in such a configuration, the image capture devices 122 and 124 may provide a stereoscopic analysis image by the system 100 for navigating the vehicle 200, while the image capture device 126 is for monocular analysis by the system 100. An image may be provided to provide redundancy and verification of information obtained based on images captured from the image capture device 123 and / or the image capture device 124. That is, the image capture device 126 (and corresponding processing device) provides a redundant subsystem that provides a check to the analysis derived from the image capture devices 122 and 124 (eg, provides an automatic emergency braking (AEB) system). Can be considered).

上記カメラ構成、カメラ配置、カメラ数、カメラ位置等が単なる例示であることを当業者は認識するであろう。全体システムに対して説明されるこれらの構成要素等は、開示される実施形態の範囲から逸脱せずに、様々な異なる構成で組み立て且つ使用し得る。ドライバー支援及び/又は自律車両機能を提供するためのマルチカメラシステムの使用に関する更なる詳細が以下に続く。   Those skilled in the art will recognize that the camera configuration, camera placement, number of cameras, camera position, etc. are merely examples. These components and the like described for the overall system may be assembled and used in a variety of different configurations without departing from the scope of the disclosed embodiments. Further details regarding the use of the multi-camera system to provide driver assistance and / or autonomous vehicle functions follow.

図4は、開示される実施形態による1つ又は複数の動作を実行する命令を記憶/プログラムされ得るメモリ140及び/又は150の例示的な機能ブロック図である。以下ではメモリ140を参照するが、当業者は、命令がメモリ140及び/又は150に記憶可能なことを認識するであろう。   FIG. 4 is an exemplary functional block diagram of memories 140 and / or 150 that may store / program instructions for performing one or more operations in accordance with the disclosed embodiments. In the following, reference will be made to memory 140, but those skilled in the art will recognize that instructions can be stored in memory 140 and / or 150.

図4に示されるように、メモリ140は、単眼画像分析モジュール402、立体画像分析モジュール404、速度及び加速度モジュール406、並びにナビゲーション応答モジュール408を記憶し得る。開示される実施形態は、いかなる特定の構成のメモリ140にも限定されない。更に、アプリケーションプロセッサ180及び/又は画像プロセッサ190は、メモリ140に含まれる任意のモジュール402〜408に記憶された命令を実行し得る。以下の考察での処理ユニット110の参照が、アプリケーションプロセッサ180及び画像プロセッサ190を個々に又はまとめて指し得ることを当業者は理解するであろう。したがって、以下のプロセスの何れかのステップは、1つ又は複数の処理デバイスにより実行し得る。   As shown in FIG. 4, the memory 140 may store a monocular image analysis module 402, a stereoscopic image analysis module 404, a speed and acceleration module 406, and a navigation response module 408. The disclosed embodiments are not limited to any particular configuration of memory 140. Further, application processor 180 and / or image processor 190 may execute instructions stored in any module 402-408 included in memory 140. Those skilled in the art will appreciate that references to processing unit 110 in the following discussion may refer to application processor 180 and image processor 190 individually or collectively. Thus, any of the following process steps may be performed by one or more processing devices.

一実施形態では、単眼画像分析モジュール402は命令(コンピュータビジョンソフトウェア等)を記憶し得、命令は、処理ユニット110により実行されると、画像捕捉デバイス122、124、及び126の1つにより取得された画像の組の単眼画像分析を実行する。幾つかの実施形態では、処理ユニット110は、画像の組からの情報を追加のセンサ情報(例えば、レーダからの情報)と結合して、単眼画像分析を実行し得る。以下の図5A〜図5Dに関連して説明するように、単眼画像分析モジュール402は、レーンマーク、車両、歩行者、道路標識、高速道路出口ランプ、信号機、危険物、及び車両の環境に関連付けられた任意の他の特徴等、画像の組内の特徴の組を検出する命令を含み得る。分析に基づいて、システム100は、ナビゲーション応答モジュール408に関連して以下で考察するように、ターン、レーンシフト、及び加速度変更等の1つ又は複数のナビゲーション応答を車両200において生じさせ得る(例えば、処理ユニット110を介して)。   In one embodiment, the monocular image analysis module 402 may store instructions (such as computer vision software) that are acquired by one of the image capture devices 122, 124, and 126 when executed by the processing unit 110. Perform a monocular image analysis of the set of images. In some embodiments, the processing unit 110 may combine information from the set of images with additional sensor information (eg, information from a radar) to perform monocular image analysis. As described in connection with FIGS. 5A-5D below, the monocular image analysis module 402 associates with lane marks, vehicles, pedestrians, road signs, highway exit lamps, traffic lights, dangerous goods, and vehicle environments. Instructions for detecting a set of features within the set of images, such as any other feature that is provided. Based on the analysis, the system 100 may generate one or more navigation responses in the vehicle 200, such as turns, lane shifts, and acceleration changes, as discussed below in connection with the navigation response module 408 (eg, , Via processing unit 110).

一実施形態では、立体画像分析モジュール404は命令(コンピュータビジョンソフトウェア等)を記憶し得、命令は、処理ユニット110により実行されると、画像捕捉デバイス122、124、及び126から選択された画像捕捉デバイスの組合せにより取得される第1及び第2の組の画像の立体画像分析を実行する。幾つかの実施形態では、処理ユニット110は、第1及び第2の組の画像からの情報を追加のセンサ情報(例えば、レーダからの情報)と結合して、立体画像分析を実行し得る。例えば、立体画像分析モジュール404は、画像捕捉デバイス124により取得される第1の組の画像及び画像捕捉デバイス126により取得される第2の組の画像に基づいて、立体画像分析を実行する命令を含み得る。以下で図6に関連して説明するように、立体画像分析モジュール404は、レーンマーク、車両、歩行者、道路標識、高速道路出口ランプ、信号機、及び危険物等の第1及び第2の組の画像内の特徴の組を検出する命令を含み得る。分析に基づいて、処理ユニット110は、ナビゲーション応答モジュール408に関連して後述するように、ターン、レーンシフト、及び加速度変更等の1つ又は複数のナビゲーション応答を車両200において生じさせ得る。   In one embodiment, the stereoscopic image analysis module 404 may store instructions (such as computer vision software) that, when executed by the processing unit 110, select selected image captures from the image capture devices 122, 124, and 126. Perform stereo image analysis of the first and second sets of images acquired by the combination of devices. In some embodiments, the processing unit 110 may combine information from the first and second sets of images with additional sensor information (eg, information from a radar) to perform stereoscopic image analysis. For example, the stereoscopic image analysis module 404 may issue instructions to perform a stereoscopic image analysis based on a first set of images acquired by the image capture device 124 and a second set of images acquired by the image capture device 126. May be included. As will be described below in connection with FIG. 6, the stereoscopic image analysis module 404 includes first and second sets of lane marks, vehicles, pedestrians, road signs, highway exit lamps, traffic lights, and dangerous goods. Instructions for detecting a set of features in the image. Based on the analysis, the processing unit 110 may generate one or more navigation responses in the vehicle 200, such as turns, lane shifts, and acceleration changes, as described below in connection with the navigation response module 408.

一実施形態では、速度及び加速度モジュール406は、車両200の速度及び/又は加速度を変更させるように構成される車両200内の1つ又は複数の計算及び電気機械デバイスから受信されるデータを分析するように構成されるソフトウェアを記憶し得る。例えば、処理ユニット110は、速度及び加速度モジュール406に関連付けられた命令を実行して、単眼画像分析モジュール402及び/又は立体画像分析モジュール404の実行から導出されるデータに基づいて、車両200の目標速度を計算し得る。そのようなデータとしては、例えば、目標位置、速度、及び/又は加速度、付近の車両、歩行者、又は道路物体に対する車両200の位置及び/又は速度、及び道路のレーンマークに対する車両200の位置情報等を挙げ得る。加えて、処理ユニット110は、センサ入力(例えば、レーダからの情報)と、車両200のスロットルシステム220、ブレーキシステム230、及び/又は操舵システム240等の車両200の他のシステムからの入力とに基づいて、車両200の目標速度を計算し得る。計算された目標速度に基づいて、処理ユニット110は、電子信号を車両200のスロットルシステム220、ブレーキシステム230、及び/又は操舵システム240に送信して、例えば、車両200のブレーキを物理的に弱めるか、又はアクセルを弱めることにより速度及び/又は加速度の変更をトリガーし得る。   In one embodiment, the speed and acceleration module 406 analyzes data received from one or more computational and electromechanical devices in the vehicle 200 configured to change the speed and / or acceleration of the vehicle 200. Software configured as described above may be stored. For example, the processing unit 110 executes instructions associated with the velocity and acceleration module 406 and based on data derived from the execution of the monocular image analysis module 402 and / or the stereoscopic image analysis module 404, the target of the vehicle 200 The speed can be calculated. Such data includes, for example, target position, speed, and / or acceleration, position and / or speed of vehicle 200 with respect to nearby vehicles, pedestrians, or road objects, and position information of vehicle 200 with respect to road lane marks. And the like. In addition, the processing unit 110 receives sensor inputs (eg, information from a radar) and inputs from other systems of the vehicle 200 such as the throttle system 220, brake system 230, and / or steering system 240 of the vehicle 200. Based on this, the target speed of the vehicle 200 can be calculated. Based on the calculated target speed, the processing unit 110 sends an electronic signal to the throttle system 220, brake system 230, and / or steering system 240 of the vehicle 200, for example, to physically weaken the brake of the vehicle 200. Or a change in speed and / or acceleration may be triggered by weakening the accelerator.

一実施形態では、ナビゲーション応答モジュール408は、処理ユニット110により実行可能であり、単眼画像分析モジュール402及び/又は立体画像分析モジュール404の実行から導出されるデータに基づいて、所望のナビゲーション応答を決定するソフトウェアを記憶し得る。そのようなデータは、付近の車両、歩行者、及び道路物体に関連付けられた位置及び速度情報並びに車両200の目標位置情報等を含み得る。更に、幾つかの実施形態では、ナビゲーション応答は、地図データ、車両200の所定の位置、及び/又は車両200と、単眼画像分析モジュール402及び/又は立体画像分析モジュール404の実行から検出される1つ又は複数の物体との間の相対速度又は相対加速度に基づき得る(部分的又は完全に)。ナビゲーション応答モジュール408は、センサ入力(例えば、レーダからの情報)と、車両200のスロットルシステム220、ブレーキシステム230、及び操舵システム240等の車両200の他のシステムからの入力とに基づいて、所望のナビゲーション応答を決定することもできる。所望のナビゲーション応答に基づいて、処理ユニット110は、電子信号を車両200のスロットルシステム220、ブレーキシステム230、及び操舵システム240に送信して、例えば、車両200のハンドルをターンさせ、所定の角度の回転を達成することにより、所望のナビゲーション応答をトリガーし得る。幾つかの実施形態では、処理ユニット110は、車両200の速度変更を計算するための速度及び加速度モジュール406の実行への入力として、ナビゲーション応答モジュール408の出力(例えば、所望のナビゲーション応答)を使用し得る。   In one embodiment, the navigation response module 408 is executable by the processing unit 110 and determines a desired navigation response based on data derived from the execution of the monocular image analysis module 402 and / or the stereoscopic image analysis module 404. Software to be stored. Such data may include location and speed information associated with nearby vehicles, pedestrians, and road objects, target location information for the vehicle 200, and the like. Further, in some embodiments, the navigation response is detected from the map data, the predetermined location of the vehicle 200, and / or the vehicle 200 and the execution of the monocular image analysis module 402 and / or the stereoscopic image analysis module 4041. It may be based (partially or completely) on the relative velocity or relative acceleration between one or more objects. The navigation response module 408 is based on sensor inputs (eg, information from a radar) and inputs from other systems of the vehicle 200 such as the throttle system 220, brake system 230, and steering system 240 of the vehicle 200. The navigation response can also be determined. Based on the desired navigation response, the processing unit 110 sends an electronic signal to the throttle system 220, the brake system 230, and the steering system 240 of the vehicle 200, for example, to turn the steering wheel of the vehicle 200, at a predetermined angle. By achieving rotation, a desired navigation response can be triggered. In some embodiments, the processing unit 110 uses the output of the navigation response module 408 (eg, the desired navigation response) as an input to the execution of the speed and acceleration module 406 to calculate the speed change of the vehicle 200. Can do.

図5Aは、開示される実施形態による、単眼画像分析に基づいて1つ又は複数のナビゲーション応答を生じさせる例示的なプロセス500Aを示すフローチャートである。ステップ510において、処理ユニット110は、処理ユニット110と画像取得ユニット120との間のデータインタフェース128を介して、複数の画像を受信し得る。例えば、画像取得ユニット120に含まれるカメラ(視野202を有する画像捕捉デバイス122等)は、車両200の前方(又は例えば、車両の側部若しくは後方)のエリアの複数の画像を捕捉し、データ接続(例えば、デジタル、有線、USB、無線、Bluetooth等)を介して処理ユニット110に送信し得る。処理ユニット110は、単眼画像分析モジュール402を実行して、ステップ520において、以下で図5B〜図5Dに関連して更に詳細に説明するように、複数の画像を分析し得る。分析を実行することにより、処理ユニット110は、レーンマーク、車両、歩行者、道路標識、高速道路出口ランプ、及び信号機等の画像の組内の特徴の組を検出し得る。   FIG. 5A is a flowchart illustrating an example process 500A for generating one or more navigation responses based on monocular image analysis, according to disclosed embodiments. In step 510, the processing unit 110 may receive a plurality of images via the data interface 128 between the processing unit 110 and the image acquisition unit 120. For example, a camera (such as an image capture device 122 having a field of view 202) included in the image acquisition unit 120 captures multiple images of an area in front of the vehicle 200 (or side or rear of the vehicle, for example) and data connection It can be transmitted to the processing unit 110 via (for example, digital, wired, USB, wireless, Bluetooth, etc.). The processing unit 110 may execute the monocular image analysis module 402 to analyze the plurality of images at step 520, as described in more detail below in connection with FIGS. 5B-5D. By performing the analysis, the processing unit 110 may detect a set of features in the set of images, such as lane marks, vehicles, pedestrians, road signs, highway exit lamps, and traffic lights.

処理ユニット110は、ステップ520において、単眼画像分析モジュール402を実行して、例えば、トラックタイヤの部品、落ちた道路標識、緩んだ貨物、及び小動物等の様々な道路危険物を検出することもできる。道路危険物の構造、形状、サイズ、及び色は様々であり得、そのような危険物の検出をより難しくする。幾つかの実施形態では、処理ユニット110は、単眼画像分析モジュール402を実行して、マルチフレーム分析を複数の画像に対して実行して、道路危険物を検出し得る。例えば、処理ユニット110は、連続画像フレーム間でのカメラ移動を推定し、フレーム間のピクセルの不一致を計算して、道路の3Dマップを構築し得る。次に、処理ユニット110は、3Dマップを使用して、路面及び路面の上に存在する危険物を検出し得る。   The processing unit 110 may also execute a monocular image analysis module 402 in step 520 to detect various road hazards such as, for example, truck tire parts, dropped road signs, loose cargo, and small animals. . The structure, shape, size, and color of road hazards can vary, making detection of such hazards more difficult. In some embodiments, the processing unit 110 may execute the monocular image analysis module 402 to perform multi-frame analysis on multiple images to detect road hazards. For example, the processing unit 110 may estimate camera movement between successive image frames and calculate pixel mismatches between frames to build a 3D map of the road. Next, the processing unit 110 may use the 3D map to detect the road surface and dangerous objects present on the road surface.

ステップ530において、処理ユニット110は、ナビゲーション応答モジュール408を実行して、ステップ520において実行された分析及び図4に関連して上述した技法に基づいて、車両200に1つ又は複数のナビゲーション応答を生じさせ得る。ナビゲーション応答は、例えば、ターン、レーンシフト、及び加速度変更等を含み得る。幾つかの実施形態では、処理ユニット110は、速度及び加速度モジュール406の実行から導出されるデータを使用して、1つ又は複数のナビゲーション応答を生じさせ得る。更に、複数のナビゲーション応答は同時に生じてもよく、順次生じてもよく、又はそれらの任意の組合せで生じてもよい。例えば、処理ユニット110は、例えば、制御信号を車両200の操舵システム240及びスロットルシステム220に順次送信することにより、車両200に1レーン超えさせ、それから、例えば、加速させ得る。代替的には、処理ユニット110は、例えば、制御信号を車両200のブレーキシステム230及び操舵システム240に同時に送信することにより、車両200に、ブレーキを掛けさせ、それと同時にレーンをシフトさせ得る。   In step 530, processing unit 110 executes navigation response module 408 to provide one or more navigation responses to vehicle 200 based on the analysis performed in step 520 and the techniques described above in connection with FIG. Can be generated. The navigation response can include, for example, turns, lane shifts, acceleration changes, and the like. In some embodiments, the processing unit 110 may use data derived from the execution of the velocity and acceleration module 406 to generate one or more navigation responses. Furthermore, multiple navigation responses may occur simultaneously, may occur sequentially, or may occur in any combination thereof. For example, the processing unit 110 may cause the vehicle 200 to exceed one lane by, for example, sequentially transmitting control signals to the steering system 240 and the throttle system 220 of the vehicle 200 and then, for example, accelerate. Alternatively, the processing unit 110 may cause the vehicle 200 to brake and simultaneously shift the lane, for example, by sending control signals to the brake system 230 and steering system 240 of the vehicle 200 simultaneously.

図5Bは、開示される実施形態による、画像の組内の1つ又は複数の車両及び/又は歩行者を検出する例示的なプロセス500Bを示すフローチャートである。処理ユニット110は、単眼画像分析モジュール402を実行して、プロセス500Bを実施し得る。ステップ540において、処理ユニット110は、存在する可能性がある車両及び/又は歩行者を表す候補物体の組を特定し得る。例えば、処理ユニット110は、1つ又は複数の画像を走査し、画像を1つ又は複数の所定のパターンと比較し、各画像内で、対象物体(例えば、車両、歩行者、又はそれらの部分)を含み得る可能性がある位置を識別し得る。所定のパターンは、高率の「偽性ヒット」及び低率の「見逃し」を達成するように指定し得る。例えば、処理ユニット110は、所定のパターンへの低い類似性閾値を使用して、可能性のある車両又は歩行者として候補物体を識別し得る。そうすることにより、処理ユニット110は、車両又は歩行者を表す候補物体を見逃す(例えば、識別しない)確率を低減することができ得る。   FIG. 5B is a flowchart illustrating an exemplary process 500B for detecting one or more vehicles and / or pedestrians in a set of images according to disclosed embodiments. Processing unit 110 may execute monocular image analysis module 402 to perform process 500B. In step 540, the processing unit 110 may identify a set of candidate objects representing vehicles and / or pedestrians that may be present. For example, the processing unit 110 scans one or more images, compares the images to one or more predetermined patterns, and within each image, the target object (eg, vehicle, pedestrian, or portion thereof) ) May be identified. The predetermined pattern may be specified to achieve a high rate of “false hits” and a low rate of “missing”. For example, the processing unit 110 may use a low similarity threshold to a predetermined pattern to identify candidate objects as potential vehicles or pedestrians. By doing so, the processing unit 110 may be able to reduce the probability of missing (eg, not identifying) candidate objects representing the vehicle or pedestrian.

ステップ542において、処理ユニット110は、候補物体の組をフィルタリングして、分類基準に基づいて特定の候補(例えば、無関係又は関係性の低い物体)を除外し得る。そのような基準は、データベース(例えば、メモリ140に記憶されるデータベース)に記憶された物体タイプに関連付けられた様々な特性から導出し得る。特性は、物体の形状、寸法、テクスチャ、及び位置(例えば、車両200に対する)等を含み得る。したがって、処理ユニット110は、1つ又は複数の組の基準を使用して、候補物体の組から偽性候補を拒絶し得る。   In step 542, the processing unit 110 may filter the set of candidate objects to exclude certain candidates (eg, irrelevant or less relevant objects) based on the classification criteria. Such criteria may be derived from various characteristics associated with object types stored in a database (eg, a database stored in memory 140). The characteristics may include the shape, dimensions, texture, position, and the like (eg, relative to the vehicle 200) of the object. Accordingly, processing unit 110 may reject false candidates from a set of candidate objects using one or more sets of criteria.

ステップ544において、処理ユニット110は、複数の画像フレームを分析して、候補画像の組内の物体が車両及び/又は歩行者を表しているか否かを特定し得る。例えば、処理ユニット110は、連続フレームにわたり検出された候補物体を追跡し、検出された物体に関連付けられたフレーム毎データ(例えば、サイズ、車両200に対する位置等)を蓄積し得る。更に、処理ユニット110は、検出された物体のパラメータを推定し、物体のフレーム毎位置データを予測位置と比較し得る。   In step 544, the processing unit 110 may analyze the plurality of image frames to determine whether an object in the set of candidate images represents a vehicle and / or a pedestrian. For example, the processing unit 110 may track candidate objects detected over successive frames and accumulate per-frame data (eg, size, position relative to the vehicle 200, etc.) associated with the detected objects. Furthermore, the processing unit 110 may estimate the parameters of the detected object and compare the frame-by-frame position data of the object with the predicted position.

ステップ546において、処理ユニット110は、検出された物体の測定値の組を構築し得る。そのような測定値は、例えば、検出された物体に関連付けられた位置、速度、及び加速度値(車両200に対する)を含み得る。幾つかの実施形態では、処理ユニット110は、カルマンフィルタ又は線形二次推定(LQE)等の一連の時間ベースの観測を使用する推定技法及び/又は異なる物体タイプ(例えば、車、トラック、歩行者、自転車、道路標識等)で利用可能なモデリングデータに基づいて、測定値を構築し得る。カルマンフィルタは、物体のスケールの測定値に基づき得、ここで、スケール測定は衝突までの時間(例えば、車両200が物体に達するまでの時間量)に比例する。したがって、ステップ540〜546を実行することにより、処理ユニット110は、捕捉画像の組内に現れる車両及び歩行者を識別し、車両及び歩行者に関連付けられた情報(例えば、位置、速度、サイズ)を導出し得る。識別及び導出される情報に基づいて、処理ユニット110は、図5Aに関連して上述したように、車両200で1つ又は複数のナビゲーション応答を生じさせ得る。   In step 546, processing unit 110 may construct a set of detected object measurements. Such measurements may include, for example, position, velocity, and acceleration values (relative to vehicle 200) associated with the detected object. In some embodiments, the processing unit 110 may use an estimation technique that uses a series of time-based observations such as a Kalman filter or linear quadratic estimation (LQE) and / or different object types (eg, car, truck, pedestrian, Measurements can be constructed based on modeling data available on bicycles, road signs, etc.). The Kalman filter may be based on a measurement of the scale of the object, where the scale measurement is proportional to the time to collision (eg, the amount of time until the vehicle 200 reaches the object). Accordingly, by executing steps 540-546, the processing unit 110 identifies vehicles and pedestrians that appear in the set of captured images and information associated with the vehicles and pedestrians (eg, position, speed, size). Can be derived. Based on the identified and derived information, the processing unit 110 may generate one or more navigation responses in the vehicle 200 as described above in connection with FIG. 5A.

ステップ548において、処理ユニット110は、1つ又は複数の画像のオプティカルフロー分析を実行して、「偽性ヒット」を検出する確率及び車両又は歩行者を表す候補物体を見逃す確率を低減し得る。オプティカルフロー分析は、例えば、他の車両及び歩行者に関連付けられた1つ又は複数の画像内の車両200に対する、路面の動きとは別個の移動パターンを分析することを指し得る。処理ユニット110は、異なる時刻に捕捉された複数の画像フレームにわたる物体の異なる位置を観測することにより、候補物体の移動を計算し得る。処理ユニット110は、位置及び時間値を数学モデルへの入力として使用して、候補物体の移動を計算し得る。したがって、オプティカルフロー分析は、車両200の付近にある車両及び歩行者を検出する別の方法を提供し得る。処理ユニット110は、ステップ540〜546と組み合わせてオプティカルフロー分析を実行して、車両及び歩行者を検出する冗長性を提供すると共に、システム100の信頼度を上げ得る。   In step 548, processing unit 110 may perform an optical flow analysis of one or more images to reduce the probability of detecting a “false hit” and the missed candidate object representing the vehicle or pedestrian. Optical flow analysis may refer to, for example, analyzing a movement pattern that is distinct from road surface movement for the vehicle 200 in one or more images associated with other vehicles and pedestrians. The processing unit 110 may calculate the movement of the candidate object by observing different positions of the object across multiple image frames captured at different times. The processing unit 110 may calculate the movement of the candidate object using the position and time values as inputs to the mathematical model. Thus, optical flow analysis may provide another way to detect vehicles and pedestrians in the vicinity of the vehicle 200. The processing unit 110 may perform optical flow analysis in combination with steps 540-546 to provide redundancy for detecting vehicles and pedestrians and increase the reliability of the system 100.

図5Cは、開示される実施形態による、画像の組内の道路マーク及び/又はレーンジオメトリ情報を検出する例示的なプロセス500Cを示すフローチャートである。処理ユニット110は、単眼画像分析モジュール402を実行して、プロセス500Cを実施し得る。ステップ550において、処理ユニット110は、1つ又は複数の画像を走査することにより物体の組を検出し得る。レーンマークの区分、レーンジオメトリ情報、及び他の関連道路マークを検出するために、処理ユニット110は、物体の組をフィルタリングして、無関連(例えば、小さい穴、小さい岩等)であると判断されるものを除外し得る。ステップ552において、処理ユニット110は、同じ道路マーク又はレーンマークに属する、ステップ550において検出されたセグメントを一緒にグループ化し得る。グループ化に基づいて、処理ユニット110は、数学モデル等のモデルを開発して、検出されたセグメントを表し得る。   FIG. 5C is a flowchart illustrating an example process 500C for detecting road marks and / or lane geometry information in a set of images according to disclosed embodiments. Processing unit 110 may execute monocular image analysis module 402 to perform process 500C. In step 550, the processing unit 110 may detect the set of objects by scanning one or more images. In order to detect lane mark segmentation, lane geometry information, and other related road marks, the processing unit 110 filters the set of objects and determines that they are irrelevant (eg, small holes, small rocks, etc.). Can be excluded. In step 552, the processing unit 110 may group together the segments detected in step 550 that belong to the same road mark or lane mark. Based on the grouping, processing unit 110 may develop a model, such as a mathematical model, to represent the detected segments.

ステップ554において、処理ユニット110は、検出されたセグメントに関連付けられた測定値の組を構築し得る。幾つかの実施形態では、処理ユニット110は、画像平面から実世界平面への検出セグメントの射影を作成し得る。射影は、検出された道路の位置、傾斜、曲率、及び曲率微分等の物理特性に対応する係数を有する三次多項式を使用して特徴付け得る。射影を生成するに当たり、処理ユニット110は、路面変化並びに車両200に関連付けられたピッチ及びロール率を考慮に入れ得る。加えて、処理ユニット110は、位置及び路面に存在するモーションキューを分析することにより道路高をモデリングし得る。更に、処理ユニット110は、1つ又は複数の画像での特徴点の組を追跡することにより、車両200に関連付けられたピッチ率及びロール率を推定し得る。   At step 554, processing unit 110 may construct a set of measurements associated with the detected segment. In some embodiments, the processing unit 110 may create a projection of the detected segment from the image plane to the real world plane. The projection may be characterized using a third order polynomial having coefficients corresponding to physical properties such as detected road position, slope, curvature, and curvature derivative. In generating the projection, the processing unit 110 may take into account road changes and the pitch and roll rate associated with the vehicle 200. In addition, the processing unit 110 may model the road height by analyzing the position and motion cues present on the road surface. Further, the processing unit 110 may estimate the pitch rate and roll rate associated with the vehicle 200 by tracking a set of feature points in one or more images.

ステップ556において、処理ユニット110は、例えば、連続した画像フレームにわたり検出セグメントを追跡し、検出セグメントに関連付けられたフレーム毎データを蓄積することにより、マルチフレーム分析を実行し得る。処理ユニット110はマルチフレーム分析を実行する場合、ステップ554において構築された測定値の組はより信頼性の高いものになり得、ますます高い信頼度を関連付け得る。したがって、ステップ550〜556を実行することにより、処理ユニット110は、捕捉画像の組内に現れる道路マークを識別し、レーンジオメトリ情報を導出し得る。識別及び導出される情報に基づいて、処理ユニット110は、図5Aに関連して上述したように、車両200で1つ又は複数のナビゲーション応答を生じさせ得る。   In step 556, the processing unit 110 may perform multi-frame analysis, for example, by tracking the detected segment over successive image frames and accumulating per-frame data associated with the detected segment. If processing unit 110 performs multi-frame analysis, the set of measurements constructed in step 554 can be more reliable and can be associated with an increasingly higher confidence level. Thus, by performing steps 550-556, the processing unit 110 may identify road marks that appear in the set of captured images and derive lane geometry information. Based on the identified and derived information, the processing unit 110 may generate one or more navigation responses in the vehicle 200 as described above in connection with FIG. 5A.

ステップ558において、処理ユニット110は、追加の情報ソースを考慮して、車両の周囲の状況での車両200の安全モデルを更に開発し得る。処理ユニット110は、安全モデルを使用して、システム100が車両200の自律制御を安全に実行し得る状況を定義し得る。安全モデルを開発するために、幾つかの実施形態では、処理ユニット110は、他の車両の位置及び動き、検出された道路縁部及び障壁、及び/又は地図データ(地図データベース160からのデータ等)から抽出された一般道路形状記述を考慮し得る。追加の情報ソースを考慮することにより、処理ユニット110は、道路マーク及びレーンジオメトリを検出するための冗長性を提供し、システム100の信頼性を上げ得る。   In step 558, the processing unit 110 may further develop a safety model of the vehicle 200 in the surrounding environment of the vehicle, taking into account additional information sources. Processing unit 110 may use a safety model to define situations in which system 100 can safely perform autonomous control of vehicle 200. In order to develop a safety model, in some embodiments, the processing unit 110 may include other vehicle locations and movements, detected road edges and barriers, and / or map data (such as data from the map database 160). ) Can be taken into account. By considering additional information sources, the processing unit 110 may provide redundancy for detecting road marks and lane geometry and increase the reliability of the system 100.

図5Dは、開示される実施形態による、画像の組内の信号機を検出する例示的なプロセス500Dを示すフローチャートである。処理ユニット110は、単眼画像分析モジュール402を実行して、プロセス500Dを実施し得る。ステップ560において、処理ユニット110は、画像の組を走査し、信号機を含む可能性が高い画像内の位置に現れる物体を識別し得る。例えば、処理ユニット110は、識別された物体をフィルタリングして、信号機に対応する可能性が低い物体を除外した候補物体の組を構築し得る。フィルタリングは、形状、寸法、テクスチャ、及び位置(例えば、車両200に対する)等の信号機に関連付けられた様々な特性に基づいて行い得る。そのような特性は、信号機及び交通制御信号の多くの例に基づき得、データベースに記憶し得る。幾つかの実施形態では、処理ユニット110は、信号機の可能性がある候補物体の組に対してマルチフレーム分析を実行し得る。例えば、処理ユニット110は、連続した画像フレームにわたり候補物体を追跡し、候補物体の現実世界位置を推定し、移動している(信号機である可能性が低い)物体をフィルタリングして除去し得る。幾つかの実施形態では、処理ユニット110は、カラー分析を候補物体に対して実行し、信号機の可能性がある候補物体内部に表される検出色の相対位置を識別し得る。   FIG. 5D is a flowchart illustrating an example process 500D for detecting traffic lights in a set of images according to disclosed embodiments. Processing unit 110 may execute monocular image analysis module 402 to perform process 500D. In step 560, the processing unit 110 may scan the set of images and identify objects that appear at locations in the image that are likely to contain traffic lights. For example, the processing unit 110 may filter the identified objects to construct a set of candidate objects that excludes objects that are unlikely to correspond to traffic lights. Filtering may be based on various characteristics associated with the traffic light, such as shape, size, texture, and location (eg, relative to vehicle 200). Such characteristics can be based on many examples of traffic lights and traffic control signals and can be stored in a database. In some embodiments, the processing unit 110 may perform multiframe analysis on a set of candidate objects that may be traffic lights. For example, the processing unit 110 may track candidate objects over successive image frames, estimate the real world position of the candidate objects, and filter out moving objects (which are unlikely to be traffic lights). In some embodiments, the processing unit 110 may perform color analysis on the candidate object and identify the relative position of the detected color represented within the candidate object that may be a traffic light.

ステップ562において、処理ユニット110は、交差点のジオメトリを分析し得る。分析は、(i)車両200の両側で検出されるレーン数、(ii)道路で検出されたマーク(矢印マーク等)、及び(iii)地図データ(地図データベース160からのデータ等)から抽出された交差点の記述の任意の組合せに基づき得る。処理ユニット110は、単眼分析モジュール402の実行から導出される情報を使用して、分析を行い得る。加えて、処理ユニット110は、ステップ560において検出された信号機と、車両200近傍に現れるレーンとの対応性を特定し得る。   In step 562, the processing unit 110 may analyze the intersection geometry. The analysis is extracted from (i) the number of lanes detected on both sides of the vehicle 200, (ii) marks detected on the road (such as arrow marks), and (iii) map data (such as data from the map database 160). May be based on any combination of intersection descriptions. Processing unit 110 may perform analysis using information derived from the execution of monocular analysis module 402. In addition, the processing unit 110 may identify the correspondence between the traffic light detected in step 560 and the lane that appears in the vicinity of the vehicle 200.

車両200が交差点に近づくにつれて、ステップ564において、処理ユニット110は、分析された交差点ジオメトリ及び検出された信号機に関連付けられた信頼度を更新し得る。例えば、交差点に実際に現れる数と比較した、交差点に現れると推定された信号機の数は、信頼度に影響を及ぼし得る。したがって、信頼度に基づいて、処理ユニット110は、車両200のドライバーに制御を委任して、安全状況を改善し得る。ステップ560〜564を実行することにより、処理ユニット110は、捕捉画像の組内に現れる信号機を識別し、交差点ジオメトリ情報を分析し得る。識別及び分析に基づいて、処理ユニット110は、図5Aに関連して上述したように、車両200で1つ又は複数のナビゲーション応答を生じさせ得る。   As the vehicle 200 approaches the intersection, at step 564, the processing unit 110 may update the analyzed intersection geometry and the confidence associated with the detected traffic light. For example, the number of traffic lights that are estimated to appear at an intersection compared to the number that actually appears at the intersection can affect the reliability. Thus, based on the reliability, the processing unit 110 may delegate control to the driver of the vehicle 200 to improve the safety situation. By performing steps 560-564, the processing unit 110 may identify traffic lights that appear in the set of captured images and analyze the intersection geometry information. Based on the identification and analysis, the processing unit 110 may generate one or more navigation responses in the vehicle 200 as described above with respect to FIG. 5A.

図5Eは、開示される実施形態による、車両経路に基づいて車両200で1つ又は複数のナビゲーション応答を生じさせる例示的なプロセス500Eのフローチャートである。ステップ570において、処理ユニット110は、車両200に関連付けられた初期車両経路を構築し得る。車両経路は、座標(x,y)で表される点の組を使用して表し得、点の組内の2点間距離dは、1〜5メートルの範囲内にあり得る。一実施形態では、処理ユニット110は、左右の道路多項式等の2つの多項式を使用して初期車両経路を構築し得る。処理ユニット110は、2つの多項式間の幾何学的中間点を計算し、所定のオフセットがある場合(オフセット0は、レーンの中央での走行に対応し得る)、所定のオフセット(例えば、スマートレーンオフセット)だけ、結果として生成される車両経路に含まれる各点をオフセットさせ得る。オフセットは、車両経路内の任意の2点間の区分に垂直の方向であり得る。別の実施形態では、処理ユニット110は、1つの多項式及び推定レーン幅を使用して、推定レーン幅の半分に所定のオフセット(例えば、スマートレーンオフセット)を加えたものだけ車両経路の各点をオフセットさせ得る。 FIG. 5E is a flowchart of an example process 500E for generating one or more navigation responses in the vehicle 200 based on the vehicle path according to disclosed embodiments. In step 570, the processing unit 110 may construct an initial vehicle path associated with the vehicle 200. Vehicle path, the coordinates (x, y) may represent using a set of points represented by the distance d i between two points in the set of points may be in the range of 1 to 5 meters. In one embodiment, the processing unit 110 may construct an initial vehicle route using two polynomials, such as left and right road polynomials. The processing unit 110 calculates the geometric midpoint between the two polynomials and if there is a predetermined offset (offset 0 may correspond to traveling in the middle of the lane), the predetermined offset (e.g. smart lane). Each point included in the resulting vehicle path can be offset by (offset). The offset can be in a direction perpendicular to the section between any two points in the vehicle path. In another embodiment, the processing unit 110 uses a single polynomial and estimated lane width to mark each point in the vehicle path by half the estimated lane width plus a predetermined offset (eg, smart lane offset). Can be offset.

ステップ572において、処理ユニット110は、ステップ570において構築された車両経路を更新し得る。処理ユニット110は、車両経路を表す点の組内の2点間距離dが、上述した距離dよりも短くなるように、より高い解像度を使用して、570において構築された車両経路を再構築し得る。例えば、距離dは0.1〜0.3メートルの範囲であり得る。処理ユニット110は、放物線スプラインアルゴリズムを使用して車両経路を再構築し得、これは、車両経路の全長(すなわち、車両経路を表す点の組に基づく)に対応する累積距離ベクトルSをもたらし得る。 In step 572, the processing unit 110 may update the vehicle path constructed in step 570. The processing unit 110 uses the higher resolution so that the two-point distance d k in the set of points representing the vehicle path is shorter than the distance d i described above. Can be rebuilt. For example, the distance d k can range from 0.1 to 0.3 meters. Processing unit 110 may reconstruct the vehicle path using a parabolic spline algorithm, which may result in a cumulative distance vector S corresponding to the total length of the vehicle path (ie, based on a set of points representing the vehicle path). .

ステップ574において、処理ユニット110は、ステップ572において行われた更新車両経路に基づいて、先読み点((x,z)として座標で表される)を特定し得る。処理ユニット110は、累積距離ベクトルSから先読み点を抽出し得、先読み点には、先読み距離及び先読み時間を関連付け得る。先読み距離は、下限範囲10〜20メートルを有し得、車両200の速度と先読み時間との積として計算し得る。例えば、車両200の速度が下がるにつれて、先読み距離も短くなり得る(例えば、下限に達するまで)。0.5〜1.5秒の範囲であり得る先読み時間は、進行エラー追跡制御ループ等の車両200でナビゲーション応答を生じさせることに関連付けられた1つ又は複数の制御ループの利得に反比例し得る。例えば、進行エラー追跡制御ループの利得は、ヨー率ループ、操舵アクチュエータループ、及び車横方向ダイナミクス等の帯域幅に依存し得る。したがって、進行エラー追跡制御ループの利得が高いほど、先読み時間は短くなる。 In step 574, the processing unit 110 may identify a look-ahead point (represented in coordinates as (x l , z l )) based on the updated vehicle path performed in step 572. The processing unit 110 may extract a prefetch point from the cumulative distance vector S, and the prefetch point may be associated with a prefetch distance and a prefetch time. The look-ahead distance may have a lower range of 10-20 meters and may be calculated as the product of the speed of the vehicle 200 and the look-ahead time. For example, as the speed of the vehicle 200 decreases, the look-ahead distance can also decrease (eg, until a lower limit is reached). The look-ahead time, which can range from 0.5 to 1.5 seconds, can be inversely proportional to the gain of one or more control loops associated with generating a navigation response in the vehicle 200, such as a progress error tracking control loop. . For example, the gain of the progress error tracking control loop may depend on bandwidth such as yaw rate loop, steering actuator loop, and vehicle lateral dynamics. Therefore, the higher the gain of the progress error tracking control loop, the shorter the look-ahead time.

ステップ576において、処理ユニット110は、ステップ574において特定される先読み点に基づいて、進行エラー及びヨー率コマンドを決定し得る。処理ユニット110は、先読み点の逆正接、例えば、arctan(x/z)を計算することにより、進行エラーを特定し得る。処理ユニット110は、進行エラーと高レベル制御利得との積として、ヨー率コマンドを決定し得る。高レベル制御利得は、先読み距離が下限にない場合、(2/先読み時間)に等しい値であり得る。先読み距離が下限である場合、高レベル制御利得は(2*車両200の速度/先読み距離)に等しい値であり得る。 In step 576, processing unit 110 may determine a progress error and yaw rate command based on the look-ahead point identified in step 574. The processing unit 110 may identify the progress error by calculating the arctangent of the look-ahead point, eg, arctan (x 1 / z 1 ). Processing unit 110 may determine the yaw rate command as the product of the progress error and the high level control gain. The high level control gain may be equal to (2 / prefetch time) if the prefetch distance is not at the lower limit. If the look-ahead distance is a lower limit, the high level control gain may be equal to (2 * speed of vehicle 200 / read-ahead distance).

図5Fは、開示される実施形態による、先行車両がレーンを変更中であるか否かを特定する例示的なプロセス500Fを示すフローチャートである。ステップ580において、処理ユニット110は、先行車両(例えば、車両200の前を移動中の車両)に関連付けられたナビゲーション情報を特定し得る。例えば、処理ユニット110は、図5A及び図5Bに関連して上述した技法を使用して、先行車両の位置、速度(例えば、方向及び速度)、及び/又は加速度を特定し得る。処理ユニット110は、図5Eに関連して上述した技法を使用して、1つ又は複数の道路多項式、先読み点(車両200に関連付けられる)、及び/又はスネイルトレイル(例えば、先行車両がとった経路を記述する点の組)を特定することもできる。   FIG. 5F is a flowchart illustrating an exemplary process 500F for identifying whether a preceding vehicle is changing lanes, according to disclosed embodiments. In step 580, the processing unit 110 may identify navigation information associated with a preceding vehicle (eg, a vehicle moving in front of the vehicle 200). For example, the processing unit 110 may determine the position, speed (eg, direction and speed), and / or acceleration of a preceding vehicle using the techniques described above in connection with FIGS. 5A and 5B. Processing unit 110 may use one or more road polynomials, look-ahead points (associated with vehicle 200), and / or snail trails (eg, taken by a preceding vehicle) using the techniques described above in connection with FIG. 5E. It is also possible to specify a set of points describing a route.

ステップ582において、処理ユニット110は、ステップ580において特定されたナビゲーション情報を分析し得る。一実施形態では、処理ユニット110は、スネイルトレイルと道路多項式との間の距離(例えば、トレイルに沿った)を計算し得る。トレイルに沿ったこの距離の相違が所定の閾値(例えば、直線道路では0.1〜0.2メートル、緩くカーブした道路では0.3〜0.4メートル、急カーブの道路では0.5〜0.6メートル)を超える場合、処理ユニット110は、先行車両がレーン変更中である可能性が高いと判断し得る。複数の車両が、車両200の前を走行中であることが検出される場合、処理ユニット110は、各車両に関連付けられたスネイルトレイルを比較し得る。比較に基づいて、処理ユニット110は、スネイルトレイルが他の車両のスネイルトレイルに一致しない車両が、レーン変更中である可能性が高いと判断し得る。処理ユニット110は、更に、スネイルトレイル(先行車両に関連付けられた)の曲率を、先行車両が移動中の道路区分の予期される曲率と比較し得る。予期される曲率は、地図データ(例えば、地図データベース160からのデータ)、道路多項式、他の車両のスネイルトレイル、及び道路についての事前知識等から抽出し得る。スネイルトレイルの曲率と道路区分の予期される曲率との差が、所定の閾値を超える場合、処理ユニット110は、先行車両がレーン変更中である可能性が高いと判断し得る。   In step 582, the processing unit 110 may analyze the navigation information identified in step 580. In one embodiment, the processing unit 110 may calculate the distance (eg, along the trail) between the snail trail and the road polynomial. This difference in distance along the trail is a predetermined threshold (for example, 0.1 to 0.2 meters on straight roads, 0.3 to 0.4 meters on gently curved roads, 0.5 to 0.4 on sharply curved roads). If it exceeds 0.6 meters), the processing unit 110 may determine that the preceding vehicle is likely to be changing lanes. If multiple vehicles are detected traveling in front of the vehicle 200, the processing unit 110 may compare the snail trails associated with each vehicle. Based on the comparison, the processing unit 110 may determine that a vehicle whose snail trail does not match that of another vehicle is likely to be changing lanes. The processing unit 110 may further compare the curvature of the snail trail (associated with the preceding vehicle) with the expected curvature of the road segment on which the preceding vehicle is moving. Expected curvature may be extracted from map data (eg, data from map database 160), road polynomials, other vehicle snail trails, prior knowledge about roads, and the like. If the difference between the curvature of the snail trail and the expected curvature of the road segment exceeds a predetermined threshold, the processing unit 110 may determine that the preceding vehicle is likely to be changing lanes.

別の実施形態では、処理ユニット110は、特定の時間期間(例えば、0.5〜1.5秒)にわたり、先行車両の瞬間的な位置を先読み点(車両200に関連付けられた)と比較し得る。特定の時間期間中の先行車両の瞬間的な位置と先読み点との間の距離の差及び相違の累積和が、所定の閾値(例えば、直線道路では0.3〜0.4メートル、緩くカーブした道路では0.7〜0.8メートル、急カーブの道路では1.3〜1.7メートル)を超える場合、処理ユニット110は、先行車両がレーン変更中である可能性が高いと判断し得る。別の実施形態では、処理ユニット110は、トレイルに沿って移動した横方向距離をスネイルトレイルの予期される曲率と比較することにより、スネイルトレイルの幾何学的形状を分析し得る。予期される曲率半径は、計算:
(δ +δ )/2/(δ
に従って特定し得、式中、σは横方向移動距離を表し、σは縦方向移動距離を表す。横方向移動距離と予期される曲率との差が所定の閾値(例えば、500〜700メートル)を超える場合、処理ユニット110は、先行車両がレーン変更中である可能性が高いと判断し得る。別の実施形態では、処理ユニット110は、先行車両の位置を分析し得る。先行車両の位置が道路多項式を見えなくする(例えば、先行車両が道路多項式の上に重なる)場合、処理ユニット110は、先行車両がレーン変更中である可能性が高いと判断し得る。先行車両の位置が、別の車両が先行車両の前方で検出され、2台の車両のスネイルトレイルが平行ではないようなものである場合、処理ユニット110は、(より近い)先行車両がレーン変更中である可能性が高いと判断し得る。
In another embodiment, the processing unit 110 compares the instantaneous position of the preceding vehicle with the look-ahead point (associated with the vehicle 200) over a specific time period (eg, 0.5-1.5 seconds). obtain. The cumulative sum of the difference and difference between the instantaneous position of the preceding vehicle and the look-ahead point during a certain time period is a predetermined threshold (for example, 0.3 to 0.4 meters on a straight road, gently curved If the road exceeds 0.7 to 0.8 meters on a road that has been cut and 1.3 to 1.7 meters on a sharply curved road), the processing unit 110 determines that there is a high possibility that the preceding vehicle is changing lanes. obtain. In another embodiment, the processing unit 110 may analyze the snail trail geometry by comparing the lateral distance traveled along the trail to the expected curvature of the snail trail. The expected radius of curvature is calculated:
z 2 + δ x 2 ) / 2 / (δ x )
Where σ x represents the lateral travel distance and σ z represents the longitudinal travel distance. If the difference between the lateral travel distance and the expected curvature exceeds a predetermined threshold (eg, 500-700 meters), the processing unit 110 may determine that the preceding vehicle is likely to be changing lanes. In another embodiment, the processing unit 110 may analyze the position of the preceding vehicle. If the position of the preceding vehicle makes the road polynomial invisible (eg, the preceding vehicle overlaps the road polynomial), the processing unit 110 may determine that the preceding vehicle is likely to be changing lanes. If the position of the preceding vehicle is such that another vehicle is detected in front of the preceding vehicle and the snail trails of the two vehicles are not parallel, the processing unit 110 will change the lane to the (closer) preceding vehicle. It can be determined that there is a high possibility of being in the middle.

ステップ584において、処理ユニット110は、ステップ582において実行された分析に基づいて、先行車両200がレーン変更中であるか否かを特定し得る。例えば、処理ユニット110は、ステップ582において実行された個々の分析の加重平均に基づいてその判断を下し得る。そのような方式下では、例えば、特定のタイプの分析に基づいた、先行車両がレーン変更中である可能性が高いという処理ユニット110による判断には、値「1」を割り当て得る(「0」は、先行車両がレーン変更中である可能性が低いとの判断を表す)。ステップ582において実行される異なる分析には異なる重みを割り当て得、開示される実施形態は、分析及び重みのいかなる特定の組合せにも限定されない。   In step 584, the processing unit 110 may identify whether the preceding vehicle 200 is changing lanes based on the analysis performed in step 582. For example, processing unit 110 may make that determination based on a weighted average of the individual analyzes performed in step 582. Under such a scheme, for example, the value “1” may be assigned to a determination by the processing unit 110 based on a particular type of analysis that the preceding vehicle is likely to be changing lanes (“0”). Indicates that it is unlikely that the preceding vehicle is changing lanes). Different weights may be assigned to the different analyzes performed in step 582, and the disclosed embodiments are not limited to any particular combination of analysis and weight.

図6は、開示される実施形態による、立体画像分析に基づいて1つ又は複数のナビゲーション応答を生じさせる例示的なプロセス600を示すフローチャートである。ステップ610において、処理ユニット110は、データインタフェース128を介して第1及び第2の複数の画像を受信し得る。例えば、画像取得ユニット120に含まれるカメラ(視野202及び204を有する画像捕捉デバイス122及び124等)は、車両200の前方のエリアの第1及び第2の複数の画像を捕捉し、デジタル接続(例えば、USB、無線、Bluetooth等)を介して処理ユニット110に送信し得る。幾つかの実施形態では、処理ユニット110は、2つ以上のデータインタフェースを介して第1及び第2の複数の画像を受信し得る。開示される実施形態は、いかなる特定のデータインタフェース構成又はプロトコルにも限定されない。   FIG. 6 is a flowchart illustrating an example process 600 for generating one or more navigation responses based on stereoscopic image analysis, according to disclosed embodiments. In step 610, the processing unit 110 may receive the first and second plurality of images via the data interface 128. For example, a camera included in the image acquisition unit 120 (such as image capture devices 122 and 124 having fields of view 202 and 204) captures a first and second plurality of images of an area in front of the vehicle 200 and is digitally connected ( For example, it can be transmitted to the processing unit 110 via USB, wireless, Bluetooth, or the like. In some embodiments, the processing unit 110 may receive the first and second plurality of images via two or more data interfaces. The disclosed embodiments are not limited to any particular data interface configuration or protocol.

ステップ620において、処理ユニット110は、立体画像分析モジュール404を実行して、第1及び第2の複数の画像の立体画像分析を実行して、車両の前の道路の3Dマップを作成し、レーンマーク、車両、歩行者、道路標識、高速道路出口ランプ、信号機、及び道路危険物等の画像内の特徴を検出し得る。立体画像分析は、図5A〜図5Dに関連して上述したステップと同様に実行し得る。例えば、処理ユニット110は、立体画像分析モジュール404を実行して、第1及び第2の複数の画像内の候補物体(例えば、車両、歩行者、道路マーク、信号機、道路危険物等)を検出し、様々な基準に基づいて候補物体のサブセットをフィルタリングして除外し、マルチフレーム分析を実行し、測定値を構築し、残りの候補物体の信頼度を特定し得る。上記ステップを実行するに当たり、処理ユニット110は、画像の1つの組のみからの情報ではなく、第1及び第2の複数の画像の両方からの情報を考慮し得る。例えば、処理ユニット110は、第1及び第2の複数の画像の両方に現れる候補物体のピクセルレベルデータ(又は捕捉画像の2つのストリームの中からの他のデータサブセット)の差を分析し得る。別の例として、処理ユニット110は、物体が複数の画像の1枚に現れるが、残りの他の画像では現れないことを観測することにより、又は2つの画像ストリームに現れる物体に対して存在し得る他の差に対して、候補物体の位置及び/又は速度(例えば、車両200に対する)を推定し得る。例えば、車両200に対する位置、速度、及び/又は加速度は、画像ストリームの一方又は両方に現れる物体に関連付けられた特徴の軌道、位置、移動特性等に基づいて特定し得る。   In step 620, the processing unit 110 executes the stereoscopic image analysis module 404 to perform stereoscopic image analysis of the first and second plurality of images to create a 3D map of the road in front of the vehicle, and the lane Features in the image such as marks, vehicles, pedestrians, road signs, highway exit lamps, traffic lights, and road hazards may be detected. Stereoscopic image analysis may be performed similar to the steps described above in connection with FIGS. 5A-5D. For example, the processing unit 110 executes the stereoscopic image analysis module 404 to detect candidate objects (eg, vehicles, pedestrians, road marks, traffic lights, road hazards, etc.) in the first and second plurality of images. And filtering and excluding a subset of candidate objects based on various criteria, performing multi-frame analysis, constructing measurements, and determining the confidence of the remaining candidate objects. In performing the above steps, processing unit 110 may consider information from both the first and second plurality of images, rather than information from only one set of images. For example, the processing unit 110 may analyze differences in pixel level data (or other data subsets from within the two streams of captured images) of candidate objects that appear in both the first and second plurality of images. As another example, the processing unit 110 exists by observing that an object appears in one of a plurality of images but not in the remaining other images, or for an object appearing in two image streams. For other differences that may be obtained, the position and / or velocity of the candidate object (eg, relative to the vehicle 200) may be estimated. For example, the position, speed, and / or acceleration relative to the vehicle 200 may be determined based on trajectories, positions, movement characteristics, etc. of features associated with objects appearing in one or both of the image streams.

ステップ630において、処理ユニット110は、ナビゲーション応答モジュール408を実行して、ステップ620において実行された分析及び図4に関連して上述した技法に基づいて、車両200で1つ又は複数のナビゲーション動作を生じさせ得る。ナビゲーション応答は、例えば、ターン、レーンシフト、加速度変更、速度変更、及びブレーキ等を含み得る。幾つかの実施形態では、処理ユニット110は、速度及び加速度モジュール406の実行から導出されるデータを使用して、1つ又は複数のナビゲーション応答を生じさせ得る。更に、複数のナビゲーション応答は、同時に行ってもよく、順次行ってもよく、又はそれらの任意の組合せで行ってもよい。   In step 630, the processing unit 110 executes the navigation response module 408 to perform one or more navigation operations on the vehicle 200 based on the analysis performed in step 620 and the technique described above in connection with FIG. Can be generated. Navigation responses can include, for example, turns, lane shifts, acceleration changes, speed changes, brakes, and the like. In some embodiments, the processing unit 110 may use data derived from the execution of the velocity and acceleration module 406 to generate one or more navigation responses. Furthermore, the multiple navigation responses may be performed simultaneously, sequentially, or in any combination thereof.

図7は、開示される実施形態による、3組の画像の分析に基づいて1つ又は複数のナビゲーション応答を生じさせる例示的なプロセス700を示すフローチャートである。ステップ710において、処理ユニット110は、データインタフェース128を介して第1、第2、及び第3の複数の画像を受信し得る。例えば、画像取得ユニット120に含まれるカメラ(視野202、204、及び206を有する画像捕捉デバイス122、124、及び126等)は、車両200の前方及び/又は側部のエリアの第1、第2、及び第3の複数の画像を捕捉し、デジタル接続(例えば、USB、無線、Bluetooth等)を介して処理ユニット110に送信し得る。幾つかの実施形態では、処理ユニット110は、3つ以上のデータインタフェースを介して第1、第2、及び第3の複数の画像を受信し得る。例えば、画像捕捉デバイス122、124、及び126のそれぞれは、処理ユニット110にデータを通信する関連付けられたデータインタフェースを有し得る。開示される実施形態は、いかなる特定のデータインタフェース構成又はプロトコルにも限定されない。   FIG. 7 is a flowchart illustrating an example process 700 for generating one or more navigation responses based on analysis of three sets of images, according to disclosed embodiments. In step 710, the processing unit 110 may receive the first, second, and third plurality of images via the data interface 128. For example, the cameras included in the image acquisition unit 120 (such as image capture devices 122, 124, and 126 having fields of view 202, 204, and 206) may include first and second areas in front and / or side areas of the vehicle 200. , And a third plurality of images may be captured and transmitted to the processing unit 110 via a digital connection (eg, USB, wireless, Bluetooth, etc.). In some embodiments, the processing unit 110 may receive the first, second, and third plurality of images via more than two data interfaces. For example, each of the image capture devices 122, 124, and 126 may have an associated data interface that communicates data to the processing unit 110. The disclosed embodiments are not limited to any particular data interface configuration or protocol.

ステップ720において、処理ユニット110は、第1、第2、及び第3の複数の画像を分析して、レーンマーク、車両、歩行者、道路標識、高速道路出口ランプ、信号機、及び道路危険物等の画像内の特徴を検出し得る。分析は、図5A〜図5D及び図6に関連して上述したステップと同様に実行し得る。例えば、処理ユニット110は、単眼画像分析を第1、第2、及び第3の複数のそれぞれの画像に対して実行し得る(例えば、単眼画像分析モジュール402の実行及び図5A〜図5Dに関連して上述したステップに基づいて)。代替的には、処理ユニット110は、立体画像分析を第1及び第2の複数の画像、第2及び第3の複数の画像、及び/又は第1及び第3の複数の画像に対して実行し得る(例えば、立体画像分析モジュール404の実行を介して及び図6に関連して上述したステップに基づいて)。第1、第2、及び/又は第3の複数の画像の分析に対応する処理済み情報は、結合し得る。幾つかの実施形態では、処理ユニット110は、単眼画像分析と立体画像分析との組合せを実行し得る。例えば、処理ユニット110は、単眼画像分析を第1の複数の画像に対して実行し(例えば、単眼画像分析モジュール402の実行を介して)、立体画像分析を第2及び第3の複数の画像に対して実行し得る(例えば、立体画像分析モジュール404の実行を介して)。画像捕捉デバイス122、124、及び126の構成(各位置及び視野202、204、及び206を含む)は、第1、第2、及び第3の複数の画像に対して行われる分析のタイプに影響を及ぼし得る。開示される実施形態は、画像捕捉デバイス122、124、及び126の特定の構成又は第1、第2、及び第3の複数の画像に対して行われる分析のタイプに限定されない。   In step 720, the processing unit 110 analyzes the first, second, and third plurality of images to identify lane marks, vehicles, pedestrians, road signs, highway exit lamps, traffic lights, road hazards, and the like. The features in the image can be detected. The analysis may be performed similarly to the steps described above in connection with FIGS. 5A-5D and FIG. For example, the processing unit 110 may perform monocular image analysis on each of the first, second, and third plurality of images (eg, related to the implementation of the monocular image analysis module 402 and FIGS. 5A-5D). And based on the steps described above). Alternatively, the processing unit 110 performs stereo image analysis on the first and second plurality of images, the second and third plurality of images, and / or the first and third plurality of images. (E.g., through execution of the stereoscopic image analysis module 404 and based on the steps described above in connection with FIG. 6). Processed information corresponding to the analysis of the first, second, and / or third plurality of images may be combined. In some embodiments, the processing unit 110 may perform a combination of monocular image analysis and stereo image analysis. For example, the processing unit 110 performs monocular image analysis on the first plurality of images (eg, via execution of the monocular image analysis module 402) and performs stereoscopic image analysis on the second and third plurality of images. (Eg, through execution of the stereoscopic image analysis module 404). The configuration of the image capture devices 122, 124, and 126 (including each position and field of view 202, 204, and 206) affects the type of analysis performed on the first, second, and third images. Can affect. The disclosed embodiments are not limited to the specific configuration of the image capture devices 122, 124, and 126 or the type of analysis performed on the first, second, and third plurality of images.

幾つかの実施形態では、処理ユニット110は、ステップ710及び720において取得され分析された画像に基づいて、システム100にテストを実行し得る。そのようなテストは、画像捕捉デバイス122、124、及び126の特定の構成でのシステム100の全体性能のインジケータを提供し得る。例えば、処理ユニット110は、「偽性ヒット」(例えば、システム100が、車両又は歩行者が存在していると誤って判断する場合)及び「見落とし」の割合を特定し得る。   In some embodiments, the processing unit 110 may perform a test on the system 100 based on the images acquired and analyzed in steps 710 and 720. Such a test may provide an indicator of the overall performance of the system 100 with a particular configuration of the image capture devices 122, 124, and 126. For example, the processing unit 110 may identify a “false hit” (eg, when the system 100 incorrectly determines that a vehicle or pedestrian is present) and a “missing” rate.

ステップ730において、処理ユニット110は、第1、第2、及び第3の複数の画像の2つから導出される情報に基づいて、車両200での1つ又は複数のナビゲーション応答を生じさせ得る。第1、第2、及び第3の複数の画像のうちの2つを選択することは、例えば、複数の画像のそれぞれで検出される物体の数、タイプ、及びサイズ等の様々なファクタに依存し得る。処理ユニット110は、画像の品質及び解像度、画像に反映される有効視野、捕捉フレーム数、及び対象となる1つ又は複数の物体が実際にフレームに現れる程度(例えば、物体が現れるフレームのパーセンテージ、物体がそのような各フレームで現れる割合等)等に基づいて選択を行うことができる。   In step 730, the processing unit 110 may generate one or more navigation responses at the vehicle 200 based on information derived from two of the first, second, and third plurality of images. Selecting two of the first, second, and third plurality of images depends on various factors such as the number, type, and size of objects detected in each of the plurality of images, for example. Can do. The processing unit 110 determines the quality and resolution of the image, the effective field of view reflected in the image, the number of captured frames, and the extent to which the object or objects of interest actually appear in the frame (e.g., the percentage of frames in which the object appears) The selection can be made based on, for example, the rate at which the object appears in each such frame.

幾つかの実施形態では、処理ユニット110は、ある画像ソースから導出された情報が、他の画像ソースから導出される情報と一貫する程度を特定することにより、第1、第2、及び第3の複数の画像のうちの2つから導出される情報を選択し得る。例えば、処理ユニット110は、画像捕捉デバイス122、124、及び126のそれぞれから導出される処理済み情報(単眼分析であれ、立体分析であれ、又はそれら2つの任意の組合せであれ関係なく)を結合して、画像捕捉デバイス122、124、及び126のそれぞれから捕捉される画像にわたり一貫する視覚的インジケータ(例えば、レーンマーク、検出された車両及び/又はその位置及び/又は経路、検出された信号機等)を特定し得る。処理ユニット110は、捕捉画像にわたり一貫しない情報(例えば、レーンを変更中の車両、車両200に近過ぎる車両を示すレーンモデル等)を除外することもできる。したがって、処理ユニット110は、一貫情報及び非一貫情報の特定に基づいて、第1、第2、及び第3の複数の画像のうちの2つからの導出される情報を選択し得る。   In some embodiments, the processing unit 110 identifies first, second, and third by identifying the degree to which information derived from one image source is consistent with information derived from other image sources. Information derived from two of the plurality of images may be selected. For example, the processing unit 110 combines processed information derived from each of the image capture devices 122, 124, and 126 (whether monocular analysis, stereo analysis, or any combination of the two). A visual indicator that is consistent across images captured from each of the image capture devices 122, 124, and 126 (eg, lane marks, detected vehicles and / or their location and / or paths, detected traffic lights, etc.) ) Can be specified. The processing unit 110 may also exclude inconsistent information across captured images (eg, a vehicle that is changing lanes, a lane model that indicates vehicles that are too close to the vehicle 200, etc.). Accordingly, processing unit 110 may select derived information from two of the first, second, and third plurality of images based on the identification of consistent information and inconsistent information.

ナビゲーション応答は、例えば、ターン、レーンシフト、及び加速度変更を含み得る。処理ユニット110は、ステップ720において実行される分析及び図4に関連して上述した技法に基づいて、1つ又は複数のナビゲーション応答を生じさせ得る。処理ユニット110は、速度及び加速度モジュール406の実行から導出されるデータを使用して、1つ又は複数のナビゲーション応答を生じさせることもできる。幾つかの実施形態では、処理ユニット110は、車両200と第1、第2、及び第3の複数の画像の何れかで検出される物体との間の相対位置、相対速度、及び/又は相対加速度に基づいて、1つ又は複数のナビゲーション応答を生じさせ得る。複数のナビゲーション応答は、同時に行ってもよく、順次行ってもよく、又はそれらの任意の組合せで行ってもよい。   The navigation response may include, for example, turns, lane shifts, and acceleration changes. Processing unit 110 may generate one or more navigation responses based on the analysis performed in step 720 and the technique described above in connection with FIG. The processing unit 110 may also generate one or more navigation responses using data derived from the execution of the velocity and acceleration module 406. In some embodiments, the processing unit 110 may have a relative position, relative velocity, and / or relative between the vehicle 200 and an object detected in any of the first, second, and third images. Based on the acceleration, one or more navigation responses may be generated. Multiple navigation responses may be performed simultaneously, sequentially, or any combination thereof.

割込み車両の予測と利他的行動応答
ナビゲーション中、車両200等の自律車両は、レーンシフトを試みている他の車両に遭遇し得る。例えば、車両200が走行しているレーンの左又は右にあるレーン(例えば、道路上のマークにより指定されるレーン、又は道路上にマークのない、車両200の経路に整列するレーン)にある車両が、車両200の走行中のレーンへの変更又は割込みを試み得る。このような車両を標的車両とし得る。このような割込みが行われるとき、車両200はナビゲーション応答を行う必要があり得る。例えば、車両200は、その速度又は加速度を変更し、及び/又は他のレーンに変更することにより、標的車両による割込みを回避することができる。
Interrupted Vehicle Prediction and Altruistic Behavior Response During navigation, an autonomous vehicle, such as vehicle 200, may encounter another vehicle that is attempting a lane shift. For example, a vehicle in a lane on the left or right of the lane in which the vehicle 200 is traveling (for example, a lane designated by a mark on the road or a lane aligned with the route of the vehicle 200 without a mark on the road) May attempt to change or interrupt the lane in which the vehicle 200 is traveling. Such a vehicle may be the target vehicle. When such an interruption occurs, the vehicle 200 may need to make a navigation response. For example, the vehicle 200 can avoid interruption by the target vehicle by changing its speed or acceleration and / or changing to another lane.

幾つかの例では、標的車両は割込みしようとしているよう見え得るが、最終的に割込みは行われないことがあり得る。標的車両のドライバー(又は更に標的車両に関連付けられる完全又は一部自律ナビゲーションシステム)が、例えば心変わりをしたか、それ以外にナビゲーションプランをレーン変更以外に変えることがあり得、又は標的車両が単に滑ったに過ぎないことがあり得る。したがって、不必要なブレーキ及び/又は加速を頻繁に行うことを回避するために、車両200は、標的車両による割込みが行われる可能性が十分となったと判断されるまで、ナビゲーション応答の実行を遅らせることが望ましいことがあり得る。他方、幾つかの状況では(特に標的車両によるホスト車両の経路へのコース変更が予期される場合)、車両200がナビゲーション応答をより早期に実行することが望ましいことがあり得る。少なくとも一部に予期される行動に基づくこのようなナビゲーションは、急ブレーキを回避するのに役立ち得、安全マージンを格段に広げ得る。標的車両による割込みの試みの予測を改善することは、不必要なブレーキと急ブレーキとの両方を最小限にするのに役立ち得る。このような改善された予測を割込み検出と呼ぶことができ、割込みが検出されたときにとられるナビゲーション応答を割込み応答と呼ぶことができる。   In some examples, the target vehicle may appear to be interrupting, but it may not be interrupted eventually. The driver of the target vehicle (or even a fully or partially autonomous navigation system associated with the target vehicle) may have changed mind, for example, or otherwise changed the navigation plan other than a lane change, or the target vehicle simply slipped It can only be a thing. Accordingly, in order to avoid frequent unnecessary braking and / or acceleration, the vehicle 200 delays execution of the navigation response until it is determined that the possibility of interruption by the target vehicle is sufficient. It may be desirable. On the other hand, in some situations (especially when a course change to the route of the host vehicle by the target vehicle is expected), it may be desirable for the vehicle 200 to perform the navigation response earlier. Such navigation, based at least in part on expected behavior, can help avoid sudden braking and can significantly increase the safety margin. Improving the prediction of an interrupt attempt by the target vehicle can help minimize both unnecessary and sudden braking. Such improved prediction can be referred to as interrupt detection, and the navigation response taken when an interrupt is detected can be referred to as an interrupt response.

幾つかの実施形態では、このような改善された予測は、例えば、静的道路特徴(例えば、レーン終了、道路分割)、動的道路特徴(例えば、割込みを試みる可能性のある車両の前方の他の車両の存在)、及び/又は地理的地域内の交通ルールと運転習慣を検出するために、単眼及び/又は立体画像分析、及び/又は他のソースから(例えば、GPSデバイス、速度センサ、加速度計、サスペンションセンサ等から)得られる情報に依存することができる。これらの静的道路特徴、動的道路特徴、及び/又は交通ルールと運転習慣は、所定の割込み感度変更要素と呼ぶことができ、1つ又は複数の所定の割込み感度変更要因の存在は、車両200に標的車両による割込みの試みに対するその感度を変化させ得る。例えば、所定の割込み感度変更要因が環境内に存在する場合(例えば、標的車両が、より低速で移動中の他の車両に近距離で追従している)、車両200は第1の割込み感度パラメータに依存し得、環境中に所定の割込み感度変更要素が存在しない場合(例えば、そのレーンに標的車両のみがある)、車両200は第2の割込み感度パラメータに依存し得る。第2の割込み感度パラメータは、第1の割込み感度パラメータと異なり得る(例えば、より高感度である)。   In some embodiments, such improved predictions may include, for example, static road features (eg, lane end, road split), dynamic road features (eg, ahead of a vehicle that may attempt an interrupt). Presence of other vehicles) and / or from monocular and / or stereoscopic image analysis and / or other sources (e.g., GPS devices, speed sensors, etc.) to detect traffic rules and driving habits within a geographical area Can depend on information obtained from accelerometers, suspension sensors, etc. These static road features, dynamic road features, and / or traffic rules and driving habits can be referred to as predetermined interrupt sensitivity changing factors, and the presence of one or more predetermined interrupt sensitivity changing factors can be 200 can change its sensitivity to an interrupt attempt by the target vehicle. For example, if a predetermined interrupt sensitivity changing factor is present in the environment (eg, the target vehicle is following other vehicles that are moving at a lower speed at a shorter distance), the vehicle 200 may use the first interrupt sensitivity parameter. If there is no predetermined interrupt sensitivity changing factor in the environment (eg, there is only the target vehicle in that lane), the vehicle 200 may depend on the second interrupt sensitivity parameter. The second interrupt sensitivity parameter can be different (eg, more sensitive) than the first interrupt sensitivity parameter.

幾つかの場合、標的車両による割込みが必要であり得る。例えば、標的車両が走行しているレーンが終了することがあり得、道路が分割されることがあり得、又は標的車両が走行しているレーンに障害物(例えば、停止中の車両、物体、又はその他の種類の障害)があり得る。しかし、他の場合、標的車両による割込みは任意選択により得る。例えば、標的車両は、単に、より低速で移動中の車両を追い越すために割込みを試み得る。割込みが任意選択による場合、標的車両が割込みを試みるか否かは、車両200(例えば、ホスト車両)がどのように行動するかに依存し得る。例えば、車両200は、減速することによって標的車両が割り込んでもよいことを知らせ得るか、又は加速することによって標的車両が割り込んではならないことを知らせ得る。加速は、それによって車両200がより早く目的地に到着できる限り、多くの場合、車両200にとって望ましいことがあり得るが、車両200のオペレータ(又は車両200を完全又は部分的に制御するナビゲーションシステム)は、幾つか又は全ての場合において、割込みを許可する傾向があり得る。これを利他的行動と呼ぶことができる。したがって、車両200が、標的車両による割込みを許可するか否かを判断する際、利他的行動に関する検討事項を考慮に入れることが望ましいことがあり得る。   In some cases, an interruption by the target vehicle may be necessary. For example, the lane in which the target vehicle is traveling may end, the road may be split, or the lane in which the target vehicle is traveling is obstructed (eg, a stopped vehicle, object, Or other types of disorders). However, in other cases, the interruption by the target vehicle is optional. For example, the target vehicle may simply attempt an interrupt to overtake a slower moving vehicle. If the interrupt is optional, whether the target vehicle attempts to interrupt may depend on how the vehicle 200 (eg, the host vehicle) behaves. For example, the vehicle 200 may signal that the target vehicle may be interrupted by decelerating, or may indicate that the target vehicle should not be interrupted by accelerating. Acceleration may in many cases be desirable for the vehicle 200 as long as the vehicle 200 can reach its destination earlier, but the operator of the vehicle 200 (or a navigation system that controls the vehicle 200 fully or partially). May tend to allow interrupts in some or all cases. This can be called altruistic behavior. Thus, it may be desirable to take into account considerations regarding altruistic behavior when determining whether the vehicle 200 permits an interruption by the target vehicle.

図8は、開示される実施形態による1つ又は複数の動作を実行する命令と共に記憶/プログラムされ得るメモリ140及び/又は150の例示的な機能ブロックである。以下はメモリ140に関するものであるが、当業者であれば、命令がメモリ140及び/又は150に記憶され得、命令はシステム100の処理ユニット110により実行され得ることがわかるであろう。   FIG. 8 is an exemplary functional block of memories 140 and / or 150 that may be stored / programmed with instructions to perform one or more operations according to the disclosed embodiments. The following relates to the memory 140, but those skilled in the art will appreciate that the instructions can be stored in the memory 140 and / or 150 and that the instructions can be executed by the processing unit 110 of the system 100.

図8に示されているように、メモリ140は、単眼画像分析モジュール402と、立体画像分析モジュール404と、速度及び加速度モジュール406と、ナビゲーション応答モジュール408とを含み得、これらは図4に関連して上で説明したモジュールの形態の何れも取り得る。メモリ140は、割込み検出モジュール802と、割込み応答モジュール804と、利他的行動モジュール806とを更に含み得る。開示される実施形態は、メモリ140の何れの特定の構成にも限定されない。更に、アプリケーションプロセッサ180及び/又は画像プロセッサ190は、メモリ140に含まれるモジュール402〜408及び802〜806の何れに記憶された命令も実行し得る。当業者であれば、以下の考察での処理ユニット110への言及は、アプリケーションプロセッサ180と画像プロセッサ190とを個別又は集合的に指し得ることを理解するであろう。したがって、以下のプロセスの何れのステップも、1つ又は複数の処理デバイスにより実行され得る。更に、モジュール402〜408及び802〜806の何れも、車両200からリモートに記憶され得る(例えば、ネットワークに接続され、ネットワーク上で車両200の無線送受信機172を介してアクセス可能な1つ又は複数のサーバに分散される)。   As shown in FIG. 8, the memory 140 may include a monocular image analysis module 402, a stereoscopic image analysis module 404, a velocity and acceleration module 406, and a navigation response module 408, which are related to FIG. Thus, any of the forms of modules described above can be taken. The memory 140 may further include an interrupt detection module 802, an interrupt response module 804, and an altruistic behavior module 806. The disclosed embodiments are not limited to any particular configuration of memory 140. Further, application processor 180 and / or image processor 190 may execute instructions stored in any of modules 402-408 and 802-806 included in memory 140. Those skilled in the art will appreciate that references to processing unit 110 in the following discussion may refer to application processor 180 and image processor 190 individually or collectively. Accordingly, any of the following process steps may be performed by one or more processing devices. Further, any of modules 402-408 and 802-806 may be stored remotely from vehicle 200 (eg, one or more connected to a network and accessible via a wireless transceiver 172 of vehicle 200 over the network) Distributed to servers).

幾つかの実施形態では、割込み検出モジュール802は、処理ユニット110により実行されると、標的車両の検出を可能にする命令を記憶し得る。標的車両は、車両200が走行しているレーンに隣接するレーンを走行している車両であり得、幾つかの場合、先行車両であり得る。幾つかの実施形態では、割込み検出モジュール802は、単眼画像分析モジュール402に関連して上で説明したように、画像捕捉デバイス122、124、及び126のうちの1つにより取得された画像の組の単眼画像分析を実行することによって標的車両を検出し得る。幾つかの実施形態では、処理ユニット110は、画像の組からの情報を追加のセンサ情報(例えば、レーダ又はライダからの情報)と結合して、単眼画像分析を実行し得る。図5A〜5Dに関連して上で説明したように、このような単眼画像分析は、画像の組内の特徴の組、例えば車両の縁部の特徴、車両のライト(又は車両に関連付けられるその他の要素)、レーンマーク、車両、又は道路標識を検出することを含み得る。例えば、標的車両を検出することは、図5Bに関連して説明したように実行され得、これには標的車両を含む候補物体の組を特定することと、候補物体の組をフィルタにかけることと、候補物体の組のマルチフレーム分析を実行することと、検出された物体(標的車両を含む)の測定値の組を構成することと、オプティカルフロー分析を実行することとを含む。測定値としては、例えば、標的座標に関連付けられる位置、速度、加速度の値(車両200に関する)を含み得る。   In some embodiments, the interrupt detection module 802, when executed by the processing unit 110, may store instructions that allow detection of the target vehicle. The target vehicle may be a vehicle traveling in a lane adjacent to the lane in which the vehicle 200 is traveling, and in some cases may be a preceding vehicle. In some embodiments, the interrupt detection module 802 is a set of images acquired by one of the image capture devices 122, 124, and 126, as described above in connection with the monocular image analysis module 402. The target vehicle may be detected by performing a monocular image analysis. In some embodiments, the processing unit 110 may combine information from the set of images with additional sensor information (eg, information from a radar or lidar) to perform monocular image analysis. As described above in connection with FIGS. 5A-5D, such monocular image analysis can be performed on a set of features within a set of images, such as vehicle edge features, vehicle lights (or other vehicle-related features). Element), lane marks, vehicles, or road signs. For example, detecting the target vehicle may be performed as described in connection with FIG. 5B, including identifying a set of candidate objects that include the target vehicle and filtering the set of candidate objects. And performing a multi-frame analysis of the set of candidate objects, constructing a set of measurements of detected objects (including the target vehicle), and performing an optical flow analysis. The measurement value may include, for example, a position, speed, and acceleration value (related to the vehicle 200) associated with the target coordinates.

代替的又は追加的に、幾つかの実施形態では、割込み検出モジュール802は、立体画像分析モジュール404に関連して上で説明したように、画像捕捉デバイス122、124、及び126の何れかから選択された画像捕捉デバイスの組合せにより取得された第1及び第2の組の画像の立体画像分析を実行することにより、標的車両を検出し得る。幾つかの実施形態では、処理ユニット110は、第1及び第2の組の画像からの情報を、追加のセンサ情報(例えば、レーダ又はライダからの情報)と結合して、立体画像分析を実行し得る。例えば、立体画像分析モジュール404は、画像捕捉デバイス124により取得された第1の組の画像と画像捕捉デバイス126により取得された第2の組の画像とに基づいて立体画像分析を実行する命令を含み得る。図6に関連して説明したように、立体画像分析は、第1及び第2の組の画像中の特徴の組、例えば車両の縁部の特徴、車両のライト(又は車両に関連付けられるその他の要素)、レーンマーク、車又は道路標識を検出することを含み得る。   Alternatively or additionally, in some embodiments, the interrupt detection module 802 selects from any of the image capture devices 122, 124, and 126 as described above in connection with the stereoscopic image analysis module 404. The target vehicle may be detected by performing a stereo image analysis of the first and second sets of images acquired by the combined image capture device. In some embodiments, the processing unit 110 combines information from the first and second sets of images with additional sensor information (eg, information from a radar or lidar) to perform stereoscopic image analysis. Can do. For example, the stereoscopic image analysis module 404 can provide instructions to perform a stereoscopic image analysis based on a first set of images acquired by the image capture device 124 and a second set of images acquired by the image capture device 126. May be included. As described in connection with FIG. 6, stereoscopic image analysis can be performed on feature sets in the first and second sets of images, such as vehicle edge features, vehicle lights (or other vehicle-related features). Element), lane mark, car or road sign.

他の実施形態では、画像捕捉デバイス122、124、及び126のうちの1つにより取得された画像を分析することによって1つ又は複数の車両(例えば、標的車両)を検出することの代替案として、割込み検出モジュール802は、その代わりに、システム100に含まれるレーダデバイス又はライダデバイスを介して取得された情報等のセンサ情報の分析を通じて車両を検出し得る。   In other embodiments, as an alternative to detecting one or more vehicles (eg, target vehicles) by analyzing images acquired by one of the image capture devices 122, 124, and 126. The interrupt detection module 802 may instead detect the vehicle through analysis of sensor information, such as information obtained via a radar or lidar device included in the system 100.

幾つかの実施形態では、割込み検出モジュール802は、更に、処理ユニット110により実行されると、標的車両が割込みを試みるであろう(すなわち、標的車両が、車両200が走行しているレーンへのレーン変更又はそれ以外のホスト車両の走行経路中への移動を試みるであろう)というインジケータの識別を可能にする命令を記憶し得る。幾つかの実施形態では、インジケータを識別することは、図5Bに関連して上で説明したように、単眼及び/又は立体画像分析を使用して標的車両の位置及び/又は速度を検出することを含み得る。幾つかの実施形態では、インジケータを識別することは、図5Cに関連して上で説明したように、1つ又は複数の道路マークを検出することを更に含み得る。また、幾つかの実施形態では、インジケータを識別することは、図5Fに関連して上で説明したように、標的車両がレーンを変更していることを検出することを更に含み得る。特に、処理ユニット110は、図5A及び5Bに関連して上で説明した技術を用いて、先行車両の位置、速度(例えば、方向及び速度)、及び/又は加速度等、標的車両に関連付けられるナビゲーション情報を特定し得る。処理ユニット110はまた、図5Eに関連して上で説明した技術を用いて、1つ又は複数の道路多項式、先読み点(車両200に関連付けられる)、及び/又はスネイルトレイル(例えば、先行車両がたどった経路を記述する点の組)も特定し得る。更に、処理ユニット110は、図5Fに関連して上で説明したように、例えば、スネイルトレイルと道路多項式との間の距離(例えば、トレイルに沿った)を計算すること、又は特定の時間期間(例えば、0.5〜1.5秒)にわたり先行車両の瞬間的な位置を先読み点(車両200に関連付けられる)と比較することにより、ナビゲーション情報を分析し得る。分析に基づき、処理ユニット110は、先行車両が割込みを試みているというインジケータが存在するか否かを識別し得る。   In some embodiments, the interrupt detection module 802, when executed by the processing unit 110, will also cause the target vehicle to attempt an interrupt (i.e., the target vehicle is directed to the lane in which the vehicle 200 is traveling). Instructions may be stored that allow the identification of an indicator that a lane change or other host vehicle will attempt to move into the travel path. In some embodiments, identifying the indicator may detect the position and / or velocity of the target vehicle using monocular and / or stereoscopic image analysis, as described above in connection with FIG. 5B. Can be included. In some embodiments, identifying the indicator may further include detecting one or more road marks, as described above in connection with FIG. 5C. Also, in some embodiments, identifying the indicator may further include detecting that the target vehicle is changing lanes, as described above in connection with FIG. 5F. In particular, the processing unit 110 uses the techniques described above in connection with FIGS. 5A and 5B to navigate associated with the target vehicle, such as the position, speed (eg, direction and speed), and / or acceleration of the preceding vehicle. Information can be specified. The processing unit 110 may also use one or more road polynomials, look-ahead points (associated with the vehicle 200), and / or snail trails (e.g., leading vehicles) using the techniques described above in connection with FIG. A set of points describing the path followed) can also be specified. Further, the processing unit 110 may, for example, calculate the distance (eg, along the trail) between the snail trail and the road polynomial, as described above in connection with FIG. The navigation information may be analyzed by comparing the instantaneous position of the preceding vehicle with the look-ahead point (associated with the vehicle 200) over (e.g., 0.5-1.5 seconds). Based on the analysis, the processing unit 110 may identify whether there is an indicator that the preceding vehicle is attempting to interrupt.

割込み検出モジュール802は、更に、処理ユニット110により実行されると、所定の割込み感度変更要素が車両200の環境中に存在することを検出可能にする命令を記憶し得る。所定の割込み感度変更要素は、標的車両が現在の経路にとどまるのか、ホスト車両の経路へとコース変更するのかという傾向を示唆する任意のインジケータを含み得る。このような感度変更要素は、静的道路特徴(例えば、レーン終了、道路分割、障壁、物体)、動的道路特徴(例えば、割込みを試みる可能性のある車両の前方の他の車両の存在)、及び/又は地理的地域内の交通ルールと運転習慣を含み得る。幾つかの実施形態では、所定の割込み感度変更要素を検出することは、単眼及び/又は立体画像分析を使用して、画像の組内の特徴の組、例えばレーンマーク、車両、歩行者、道路標識、高速道路の出口ランプ、信号機、危険物、並びに図5A〜5D及び6に関連して上で説明したような、車両の環境に関連付けられる任意の他の特徴を検出することを含み得る。代替的又は追加的に、幾つかの実施形態では、所定の割込み感度変更要素を検出することは、他のセンサ情報、例えばGPSデータを使用することを含み得る。例えば、レーン終了、高速道路分割等は地図データに基づいて特定され得る。他の例として、交通ルールは、GPS位置データに基づいて特定され得る。   The interrupt detection module 802 may further store instructions that, when executed by the processing unit 110, make it possible to detect that a predetermined interrupt sensitivity changing element is present in the environment of the vehicle 200. The predetermined interrupt sensitivity changing element may include any indicator that suggests a tendency for the target vehicle to remain on the current route or to change course to the host vehicle's route. Such sensitivity changing elements include static road features (eg, lane termination, road splits, barriers, objects), dynamic road features (eg, the presence of other vehicles in front of the vehicle that may attempt to interrupt). And / or traffic rules and driving habits within a geographic region. In some embodiments, detecting the predetermined interrupt sensitivity changing element uses monocular and / or stereo image analysis to set a set of features in the set of images, such as a lane mark, a vehicle, a pedestrian, a road Detecting signs, highway exit ramps, traffic lights, dangerous goods, and any other features associated with the vehicle environment, such as described above in connection with FIGS. Alternatively or additionally, in some embodiments, detecting a predetermined interrupt sensitivity modification element may include using other sensor information, eg, GPS data. For example, the end of a lane, highway division, etc. can be specified based on map data. As another example, traffic rules may be identified based on GPS location data.

割込み応答モジュール804は、処理ユニット110により実行されると、割込み応答が実行されることを可能にする命令を記憶し得る。割込み応答は、ターン、レーンシフト、加速度変更等、ナビゲーション応答に関して上で説明した形態の何れも取り得、これはナビゲーション応答モジュール408に関連して後に考察する。   Interrupt response module 804 may store instructions that, when executed by processing unit 110, allow an interrupt response to be executed. The interrupt response can take any of the forms described above with respect to the navigation response, such as turns, lane shifts, acceleration changes, etc., which will be discussed later in connection with the navigation response module 408.

幾つかの実施形態において、割込み応答が実行されるか否かは、環境中に所定の割込み感度変更要素の有無に依存し得る。例えば、所定の割込み感度変更要素が環境中に存在しない場合(例えば、そのレーン内に割込みを試みている車両のみがある、画像分析又はGPS/地図/交通データの精査の何れを通じてもレーンシフトや障害物が検出されない等)、車両200は第1の割込み感度パラメータに依存し得る。幾つかの実施形態では、所定の割込み感度変更要素が環境中にない場合、車両200は第1の割込み感度パラメータに関連付けられる値に依存し得る。値は、第1の割込み感度パラメータに直接結び付けられた、及び/又は測定された任意の値を含み得、又は第1の割込み感度パラメータに間接的に関係する1つ又は複数の値であり得る。   In some embodiments, whether an interrupt response is performed may depend on the presence or absence of a predetermined interrupt sensitivity changing factor in the environment. For example, if a given interrupt sensitivity change factor is not present in the environment (eg, there is only a vehicle attempting to interrupt in that lane, either through image analysis or GPS / map / traffic data review, The vehicle 200 may rely on the first interrupt sensitivity parameter, such as no obstacle is detected. In some embodiments, if the predetermined interrupt sensitivity modification factor is not in the environment, the vehicle 200 may rely on a value associated with the first interrupt sensitivity parameter. The value may include any value directly associated with and / or measured with the first interrupt sensitivity parameter, or may be one or more values indirectly related to the first interrupt sensitivity parameter. .

他方、1つ又は複数の所定の割込み感度変更要素が環境中に存在する場合(例えば、標的車両が高速で移動していて、そのレーン内のより低速の車両に接近しつつある、レーンシフト又はレーン終了状態が画像分析を通じて視覚的に又はGPS/地図/交通情報の参照を通じて検出された、その局所的地域が左レーンの運転を奨励しない地域である等)、車両200は第2の割込み感度パラメータに依存し得る。第2の割込み感度パラメータは第1の割込み感度パラメータと異なり得る(例えば、より高感度である)。幾つかの実施形態では、1つ又は複数の所定の割込み感度変更要素が環境中に存在する場合、車両200は第2の割込み感度パラメータに関連付けられる値に依存し得る。第1の割込み感度パラメータに関連付けられる値に関する上述の考察と同様に、第2の割込み感度パラメータに関連付けられる値は、第2の割込み感度パラメータに関して直接結び付けられた、及び/又は測定された任意の値を含み得、又は第2の割込み感度パラメータに間接的に関係する1つ又は複数の値であり得る。   On the other hand, if one or more predetermined interrupt sensitivity changing elements are present in the environment (e.g., the lane shift or If the lane end condition is detected visually through image analysis or through GPS / map / traffic information reference, the local area is an area that does not encourage driving the left lane, etc.), the vehicle 200 has a second interrupt sensitivity. Can depend on parameters. The second interrupt sensitivity parameter may be different (eg, more sensitive) than the first interrupt sensitivity parameter. In some embodiments, the vehicle 200 may rely on a value associated with the second interrupt sensitivity parameter if one or more predetermined interrupt sensitivity modification factors are present in the environment. Similar to the discussion above regarding the value associated with the first interrupt sensitivity parameter, the value associated with the second interrupt sensitivity parameter can be any directly associated and / or measured with respect to the second interrupt sensitivity parameter. The value may include a value or may be one or more values indirectly related to the second interrupt sensitivity parameter.

第1及び第2の割込み感度パラメータは2つの動作状態を確立し得、すなわち、ホスト車両が標的車両による移動又はコース変更に対してより低感度でもよい第1のものと、ホスト車両が標的車両による移動又はコース変更により高感度であり得る第2の状態とを確立し得る。このような状態による方式は、標的車両によるコース変更が任意の環境状態に基づいて予期されない場合、第1の状態において減速、加速、又はコース変更の回数又は程度を減らすことができる。しかしながら、第2の状態では、標的車両の環境中において、標的車両のコース変更(又はその他のナビゲーション応答)の原因となると予期されるような少なくとも1つの状態が検出又は特定される場合、ホスト車両は、標的車両のコース変更又はナビゲーション変更に対してより高感度となることができ、標的車両のナビケーションにおいて認識されるわずかな変化にも基づいて、コース変更、加速、減速等を行い得る。第2の状態におけるこのような小さい変化は、予期される標的車両によるナビゲーション変更と一致すると解釈され得、したがって、第1の状態でのナビゲーションと比較して、より迅速な応答を保証し得る。   The first and second interrupt sensitivity parameters may establish two operating states: a first one in which the host vehicle may be less sensitive to movement or course changes by the target vehicle, and a host vehicle in the target vehicle. A second state that can be highly sensitive can be established by moving or changing course. Such a state-based scheme can reduce the number or degree of deceleration, acceleration, or course changes in the first state when course changes by the target vehicle are not expected based on any environmental conditions. However, in the second state, if at least one state is detected or identified in the target vehicle's environment that is expected to cause a course change (or other navigation response) of the target vehicle, the host vehicle May be more sensitive to course changes or navigation changes of the target vehicle, and may make course changes, accelerations, decelerations, etc. based on slight changes recognized in the navigation of the target vehicle. Such a small change in the second state can be interpreted to be consistent with the expected navigation changes by the target vehicle, and thus can ensure a faster response compared to navigation in the first state.

更に、第2の状態では、ホスト車両のコース変更は、感度変更要素の検出のみに基づいて、標的車両のナビゲーション応答又は変化を検出せずに実行され得る。例えば、ホスト車両システムの画像分析が感度変更要素の存在を示す場合(例えば、捕捉された画像中にレーン終了状態を示す道路標識を認識すること、画像中に標的車両の前方にレーン終了を認識すること、標的車両の前方に障害物又はより低速で移動する車両、又は他の任意の感度変更要素を認識することによる)、ホスト車両は、標的車両によるナビゲーション変化を検出しなくても、1つ又は複数の先制行動(減速、加速、コース変更等)を取り得る。このような変更は、標的車両が将来ナビゲーション変更を行う必要があるという予期に基づいて保証され得る。このような変更は、ホスト車両のナビゲーション変更と予期される標的車両のナビゲーション変更との間の時間の長さを増大又は最大化し得る。   Furthermore, in the second state, the course change of the host vehicle can be performed without detecting the navigation response or change of the target vehicle based solely on the detection of the sensitivity changing element. For example, if image analysis of the host vehicle system indicates the presence of a sensitivity-changing element (for example, recognizing a road sign indicating the lane end state in the captured image, recognizing the lane end in front of the target vehicle in the image By recognizing obstacles ahead of the target vehicle or vehicles moving at a slower speed, or any other sensitivity changing element), the host vehicle can One or more preemptive actions (deceleration, acceleration, course change, etc.) may be taken. Such changes can be guaranteed based on the expectation that the target vehicle will need to make navigation changes in the future. Such a change may increase or maximize the length of time between a host vehicle navigation change and an expected target vehicle navigation change.

割込み感度パラメータは、図5Fに関して上で説明したように、閾値の形態を取り得る(例えば、スネイルトレイルと道路多項式(例えば、トレイルに沿った)との間の距離閾値、又は特定の時間期間中(例えば、0.5〜1.5秒)の標的車両の瞬間的な位置と先読み点(車両200に関連付けられる)との間の距離閾値)、このような閾値の組合せ(例えば、標的車両の横方向移動速度閾値と、車両200を基準とした車両の横方向位置閾値との組合せ)、及び/又はこのような閾値の加重平均)。前述のように、幾つかの実施形態では、割込み感度パラメータはまた、任意に割り当てられた任意の変数であり得、その値がパラメータに関連付けられるか、又はパラメータの値に間接的に関係する任意の値が前述の2つの(又は3つ以上の)感度状態を設定するために使用され得る。例えば、このような変数は、感度変更要素が検出されない場合の低感度状態を示す第1の値に関連付けられ得、感度変更要素が標的車両の環境中で発見されたときに、より高感度状態を示す第2の値に関連付けられ得る。   The interrupt sensitivity parameter may take the form of a threshold (eg, a distance threshold between a snail trail and a road polynomial (eg, along the trail), or during a particular time period, as described above with respect to FIG. 5F. Distance threshold between the instantaneous position of the target vehicle (e.g. 0.5 to 1.5 seconds) and the look-ahead point (associated with vehicle 200)), a combination of such thresholds (e.g. A combination of a lateral movement speed threshold and a lateral position threshold of the vehicle relative to the vehicle 200), and / or a weighted average of such thresholds). As mentioned above, in some embodiments, the interrupt sensitivity parameter can also be any variable that is arbitrarily assigned, any value whose value is associated with the parameter or indirectly related to the value of the parameter. Can be used to set the two (or more) sensitivity states described above. For example, such a variable may be associated with a first value that indicates a low sensitivity state when no sensitivity change element is detected, and the higher sensitivity state when the sensitivity change element is discovered in the environment of the target vehicle. May be associated with a second value indicating.

幾つかの実施形態では、割込み応答モジュール804は、車両200から車両200の後続車両までの距離を評価し、その距離を割込み感度パラメータに含め得る。例えば、車両200は1つ又は複数の背面センサ(例えば、レーダセンサ)を含み、車両200から車両200の後続車両までの距離を特定し得る。更にまた、幾つかの実施形態では、車両200は1つ又は複数の背面カメラを含み得、これは車両200から車両200の後続車両までの距離を特定するための分析用の画像をシステム100に供給する。また別の実施形態では、システム100は1つ又は複数のセンサからの、及び1つ又は複数の背面カメラからのデータを用いて、車両200から車両200の後続車両までの距離を特定し得る。車両200からの距離に基づき、割込み応答モジュール804は、車両200と車両200の後続車両との間の距離に基づいて、車両200が減速することが安全か否かを評価し得る。   In some embodiments, the interrupt response module 804 may evaluate the distance from the vehicle 200 to a vehicle following the vehicle 200 and include that distance in the interrupt sensitivity parameter. For example, the vehicle 200 may include one or more rear sensors (eg, radar sensors) to identify the distance from the vehicle 200 to a vehicle following the vehicle 200. Furthermore, in some embodiments, the vehicle 200 may include one or more rear cameras, which provide the system 100 with an image for analysis to determine the distance from the vehicle 200 to a vehicle following it. Supply. In yet another embodiment, the system 100 may use data from one or more sensors and from one or more rear cameras to determine the distance from the vehicle 200 to the vehicle following it. Based on the distance from the vehicle 200, the interrupt response module 804 may evaluate whether it is safe for the vehicle 200 to decelerate based on the distance between the vehicle 200 and a vehicle following the vehicle 200.

代替的又は追加的に、割込み感度パラメータは、ニューラルネットワーク等の機械学習技術を用いて事例から導き出し得る。例えば、ニューラルネットワークを、シナリオに基づいて割込み感度パラメータを特定するように訓練し得る。一例として、ニューラルネットワークは、道路が3つの走行レーンを含み、車両200が中央レーンを走行していて、中央レーンには先行車両があり、2台の車両が左レーンにあり、1台の車両が右レーンにあるシナリオについて訓練できる。シナリオは、ニューラルネットワークに対して、車両の各々の縦方向位置、縦方向速度、横方向位置、及び横方向速度を明示できる。シナリオに基づいて、ニューラルネットワークは、例えば、バイナリ出力(例えば、標的車両が次のN個のフレーム内で割込みを試みるか否か)、又は値出力(例えば、標的車両が中央レーンへの割込みを試みるまでの時間)を特定し得る。これらの出力から導き出されるバイナリ若しくは値出力、又はその他の値は、割込み感度パラメータとして使用され得る。ニューラルネットワークは、同様に、道路に2つの走行レーンのみがある、中央レーンに先行する車両がない、又は右レーンに車両がないシナリオ等、他のシナリオについても同様に訓練し得る。幾つかの実施形態では、ニューラルネットワークは、メモリ140及び/又は150に記憶された1つ又は複数のプログラミングモジュールを介して提供され得る。別の実施形態では、メモリ140及び/又は150への追加として又は代替として、ニューラルネットワーク(又はニューラルネットワークの局面)は、車両200からリモートに位置付けられてかつネットワーク上で無線送受信機172を介してアクセス可能な1つ又は複数のサーバを介して提供され得る。   Alternatively or additionally, the interrupt sensitivity parameter may be derived from the case using machine learning techniques such as neural networks. For example, a neural network may be trained to identify interrupt sensitivity parameters based on scenarios. As an example, in the neural network, the road includes three traveling lanes, the vehicle 200 is traveling in the central lane, the central lane has a preceding vehicle, two vehicles are in the left lane, and one vehicle. Can train on the scenario in the right lane. The scenario can specify the longitudinal position, longitudinal speed, lateral position, and lateral speed of each vehicle for the neural network. Based on the scenario, the neural network may, for example, provide a binary output (eg, whether the target vehicle attempts to interrupt in the next N frames) or a value output (eg, the target vehicle interrupts the central lane). Time to try) can be specified. Binary or value outputs derived from these outputs, or other values, can be used as interrupt sensitivity parameters. The neural network may similarly be trained for other scenarios, such as a scenario where there are only two driving lanes on the road, no vehicles preceding the central lane, or no vehicles in the right lane. In some embodiments, the neural network may be provided via one or more programming modules stored in memory 140 and / or 150. In another embodiment, as an addition or alternative to memory 140 and / or 150, the neural network (or an aspect of the neural network) is located remotely from vehicle 200 and via a wireless transceiver 172 on the network. It can be provided via one or more accessible servers.

幾つかの実施形態では、シナリオの数を最小限にするために、シナリオは道路のレーンの数及び車両200の位置に応じて分類され得る。例えば、シナリオは、2つのレーンがあり、車両200が左レーンにあるシナリオ、2つのレーンがあり、車両200が右レーンにあるシナリオ、3つのレーンがあり、車両200が左レーンにあるシナリオ、3つのレーンがあり、車両200が中央レーンにあるシナリオ、3つのレーンがあり、車両が右レーンにあるシナリオ、4つのレーンがあり、車両200が一番左のレーンにあるシナリオ、4つのレーンがあり、車両200が中央の左レーンにあるシリオ等が含まれ得る。各シナリオで、先行車両は車両200と同じレーンを走行中であり得、また2台の車両が他のレーンの各々を走行中であり得る。これら他の車両の1台又は複数がない(例えば、先行車両がない、右レーンに1台のみの車両がある等)のシナリオを考慮するために、存在しない車両の縦方向距離は無限に設定し得る。   In some embodiments, scenarios can be classified according to the number of road lanes and the location of the vehicle 200 to minimize the number of scenarios. For example, the scenario is a scenario where there are two lanes, the vehicle 200 is in the left lane, a scenario where there are two lanes, the vehicle 200 is in the right lane, a scenario where there are three lanes, and the vehicle 200 is in the left lane, Scenario with 3 lanes, vehicle 200 in the center lane Scenario with 3 lanes, vehicle in the right lane Scenario with 4 lanes, vehicle 200 in the leftmost lane, 4 lanes There may be included a silio or the like in which the vehicle 200 is in the center left lane. In each scenario, the preceding vehicle may be traveling in the same lane as the vehicle 200, and two vehicles may be traveling in each of the other lanes. To account for scenarios where there is no one or more of these other vehicles (for example, there is no preceding vehicle or only one vehicle in the right lane), the longitudinal distance of the non-existing vehicle is set to infinity Can do.

上述のように、車両200が標的車両を検出し(例えば、標的車両が割込みを試みているというインジケータを識別し)、何れかの感度変更要素が環境中に存在するか否かが検出されると、割込み応答モジュール804は標的車両、インジケータ、及び/又は(存在する場合には)感度変更要素をニューラルネットワークに提供し得、ニューラルネットワークは、車両200の状況に最も近いシナリオを選択し得る。選択されたシナリオに基づいて、ニューラルネットワークは前述のようにバイナリ出力(例えば、標的車両が次のN個のフレーム中に割込みを試みるか否か)又は値出力(例えば、標的車両が中央レーンへの割込みを試みるまでの時間)を示し得、そこから割込み感度パラメータが導き出され得る。割込み感度パラメータに基づいて、割込み応答モジュール804は割込み応答が実行されるようにする。   As described above, the vehicle 200 detects the target vehicle (eg, identifies an indicator that the target vehicle is attempting to interrupt) and detects whether any sensitivity changing elements are present in the environment. The interrupt response module 804 may provide the target vehicle, an indicator, and / or a sensitivity change factor (if any) to the neural network, which may select the scenario closest to the situation of the vehicle 200. Based on the selected scenario, the neural network may output a binary output (eg, whether the target vehicle attempts to interrupt during the next N frames) or a value output (eg, the target vehicle goes to the central lane as described above. Time before attempting to interrupt), from which the interrupt sensitivity parameter can be derived. Based on the interrupt sensitivity parameter, the interrupt response module 804 causes an interrupt response to be executed.

前述のように、割込み応答は、ナビゲーション応答に関連して上で説明した形態の何れも取り得、例えば、ナビゲーション応答モジュール408に関して上で考察したターン、レーンシフト、及び/又は加速度の変更等である。幾つかの実施形態では、処理ユニット110は前述の速度及び加速度モジュール406の実行から導き出されるデータを用いて、1つ又は複数の割込み応答を生じさせ得る。追加的に、複数の割込み応答が同時に、連続的に、又はその任意の組合せで行われ得る。例えば、処理ユニット110は、例えば制御信号を車両200の操舵システム240及びスロットルシステム220に順次送信することにより、車両200に1レーンシフトさせ、次に加速させ得る。代替的には、処理ユニット110は、例えば、制御信号を車両200のブレーキシステム230及び操舵システム240に同時に送信することにより、車両200に、レーンをシフトする間に同時にブレーキを掛けさせ得る。幾つかの実施形態では、割込み応答モジュール804は、画像捕捉デバイス122、124、及び126の1つにより取得された画像を分析して何れかの割込み感度変更要素が車両200の環境中に存在するか否かを検出し得る。他の実施形態では、画像を分析することに加えて又はその代替案として、割込み応答モジュール804は、何れかの割込み感度変更要素が車両200の環境中に存在するか否かを、システム100に含まれるレーダデバイス又はライダデバイスを通じて取得された情報等のセンサ情報の分析を通じて検出し得る。   As described above, the interrupt response can take any of the forms described above in connection with the navigation response, such as a turn, lane shift, and / or acceleration change discussed above with respect to the navigation response module 408. . In some embodiments, the processing unit 110 may generate one or more interrupt responses using data derived from the execution of the velocity and acceleration module 406 described above. Additionally, multiple interrupt responses can occur simultaneously, sequentially, or any combination thereof. For example, the processing unit 110 may cause the vehicle 200 to shift one lane and then accelerate, for example, by sequentially sending control signals to the steering system 240 and the throttle system 220 of the vehicle 200. Alternatively, the processing unit 110 may cause the vehicle 200 to brake simultaneously while shifting lanes, for example, by sending control signals to the braking system 230 and steering system 240 of the vehicle 200 simultaneously. In some embodiments, the interrupt response module 804 analyzes an image acquired by one of the image capture devices 122, 124, and 126 and any interrupt sensitivity changing element is present in the environment of the vehicle 200. It can be detected. In other embodiments, in addition to or as an alternative to analyzing the image, the interrupt response module 804 may indicate to the system 100 whether any interrupt sensitivity modification elements are present in the environment of the vehicle 200. Detection may be through analysis of sensor information, such as information acquired through included radar or lidar devices.

幾つかの実施形態では、前述のニューラルネットワークは、更に、割込み応答も特定するように構成され得る。例えば、ニューラルネットワークは、検出された標的車両、インジケータ、及び/又は(存在する場合には)感度変更要素に基づいて、どのナビゲーション応答を実行すべきかを示すことを特定し、出力し得る。幾つかの実施形態では、このような出力は、前に検出されたドライバーの行動に基づいて特定され得る。幾つかの実施形態では、前に検出されたドライバーの行動は、スムーズな運転行動を優先させるコスト関数分析を用いてフィルタにかけられ得る(例えば、スムーズな運転行動は、ある期間にわたる減速度又は加速度の積分の二乗を最小化するものとしと測定できる)。   In some embodiments, the neural network described above may be further configured to identify an interrupt response. For example, the neural network may identify and output indicating which navigation response is to be performed based on the detected target vehicle, indicator, and / or sensitivity change factor (if any). In some embodiments, such output may be identified based on previously detected driver behavior. In some embodiments, previously detected driver behavior may be filtered using a cost function analysis that prioritizes smooth driving behavior (eg, smooth driving behavior may include deceleration or acceleration over a period of time). Can be measured to minimize the square of the integral of).

割込み検出モジュール802と割込み応答モジュール804について、図9A〜9E及び11に関連して以下に更に説明する。   The interrupt detection module 802 and the interrupt response module 804 are further described below in connection with FIGS.

利他的行動モジュール806は、処理ユニット110により実行されると、車両200が標的車両による車両200の走行中のレーンへの割込みを許可すべきか否を判断するために、利他的行動に関する検討事項を考慮に入れるような命令を記憶し得る。このために、処理ユニット110は、割込み検出モジュール802に関連して上で説明した方法の何れによっても標的車両を検出し得る。   The altruistic behavior module 806, when executed by the processing unit 110, provides considerations regarding altruistic behavior in order to determine whether the vehicle 200 should allow the target vehicle to interrupt the driving lane of the vehicle 200. Instructions that can be taken into account may be stored. To this end, the processing unit 110 may detect the target vehicle by any of the methods described above in connection with the interrupt detection module 802.

更に、処理ユニット110は、標的車両に関連付けられる1つ又は複数の状況的特徴を特定し得る。状況的特徴は、例えば、標的車両が、車両200が走行しているレーンへとレーン変更することから利益を得られるであろうことを示す任意の特徴であり得る。例えば、状況的特徴は、標的車両が、車両200の走行中のレーンに隣接するレーンを走行していること、及び標的車両が標的車両より低速で走行している別の車両の後方にあることを示し得る。一般に、状況的特徴は、標的車両による割込み又は他のナビゲーション応答が必要ではないかもしれないが、割込みが標的車両にとって有利であろうことを示し得る。他のこのような状況は、例えば交通渋滞中、混雑した迂回路、レーン終了の状況、又は標的車両がホスト車両の経路へと移動することを望み得るその他の任意の状況を含み得る。   Further, the processing unit 110 may identify one or more situational features associated with the target vehicle. The situational feature can be any feature that indicates, for example, that the target vehicle will benefit from changing lanes to the lane in which the vehicle 200 is traveling. For example, the situational feature is that the target vehicle is traveling in a lane adjacent to the traveling lane of the vehicle 200 and that the target vehicle is behind another vehicle that is traveling at a lower speed than the target vehicle. Can be shown. In general, the contextual feature may indicate that an interrupt or other navigation response by the target vehicle may not be necessary, but an interrupt may be advantageous for the target vehicle. Other such situations may include, for example, traffic jams, congested detours, lane exit situations, or any other situation where the target vehicle may wish to travel to the host vehicle's route.

幾つかの実施形態では、状況的特徴を検出することは、図5A〜5D及び6に関連して上で説明したように、単眼及び/又は立体画像分析を用いて、画像の組内の特徴の組、例えば、レーンマーク、車両、歩行者、道路標識、高速道路の出口ランプ、信号機、危険物、及び車両の環境に関連付けられる他の任意の特徴を検出することを含んでよい。例えば、状況的特徴を特定することは、図5Bに関連して上で説明したように、単眼及び/又は立体画像分析を使用して、標的車両及び/又は1つ又は複数の他の車両の位置及び/又は速度を検出することを含み得る。幾つかの実施形態では、状況的特徴を識別することは、更に、図5Cに関連して上で説明したように、1つ又は複数の道路マークを検出することを含み得る。代替的又は追加的に、幾つかの実施形態では、状況的特徴を検出することは、GPSデータ等の他のセンサ情報を使用することを含み得る。例えば、道路の入口ランプは地図データに基づいて特定され得る。幾つかの状況では、状況的特徴を検出することは、捕捉された画像から、他の車両を基準とした標的車両の位置、及び/又は標的車両の付近にある車両の台数等を特定することを含み得る。また別の実施形態では、状況的特徴を検出することは、システム100に含まれるレーダデバイス又はライダデバイスを介して取得される情報等、他のセンサ情報を使用することを含み得る。   In some embodiments, detecting the contextual feature may be a feature within the set of images using monocular and / or stereo image analysis, as described above in connection with FIGS. Detecting a set of lane marks, vehicles, pedestrians, road signs, highway exit lamps, traffic lights, dangerous goods, and any other features associated with the vehicle environment. For example, identifying the contextual feature may be performed using monocular and / or stereo image analysis, as described above in connection with FIG. 5B, of the target vehicle and / or one or more other vehicles. It may include detecting position and / or velocity. In some embodiments, identifying the contextual feature may further include detecting one or more road marks, as described above in connection with FIG. 5C. Alternatively or additionally, in some embodiments, detecting the contextual feature may include using other sensor information such as GPS data. For example, a road entrance ramp may be identified based on map data. In some situations, detecting the situational feature may identify the location of the target vehicle relative to other vehicles and / or the number of vehicles in the vicinity of the target vehicle, etc. from the captured image. Can be included. In yet another embodiment, detecting the contextual feature may include using other sensor information, such as information obtained via a radar or lidar device included in the system 100.

利他的行動モジュール806は、更に、処理ユニット110によって実行されると、標的車両による車両200の走行中のレーンへの割込みを許可するようなナビゲーション変更(例えば、前述のナビゲーション応答の何れか)を生じさせるべきか否かを判断する命令を記憶し得る。このような判断は、利他的行動パラメータに基づいて行われ得る。   The altruistic behavior module 806, when executed by the processing unit 110, further performs navigation changes (eg, any of the navigation responses described above) that allow the target vehicle to interrupt the driving lane of the vehicle 200. Instructions can be stored that determine whether to occur. Such a determination may be made based on altruistic behavior parameters.

利他的行動パラメータは、例えば、車両200のオペレータからの入力に基づいて設定され得る。例えば、オペレータは利他的行動を、全ての標的車両による車両200の走行中のレーンへの割込みを許可するため、n台の標的車両ごとに1台のみに、車両200の走行中のレーンへの割込みを許可するため、標的車両による車両200の走行中のレーンへの割込みを、標的車両の前方の他の車両が特定の速度未満で走行している場合にのみ許可するため等に設定し得る。代替的又は追加的に、幾つかの実施形態では、利他的行動パラメータは、ナビゲーションの前又はナビゲーション中にユーザにより選択可能であり得る(例えば、ユーザにより選択可能な値又は状態)。例えば、ユーザは車両200に乗り込む時に、ナビゲーション中に利他的とすべきか否かを選択し得る(例えば、ユーザインタフェース170を通じて)。他の例として、ユーザは1つ又は複数の状況的特徴が検出されたときに、その場合において利他的とすべきか否かを選択し得る(例えば、ユーザインタフェース170を通じて)。   The altruistic behavior parameter may be set based on an input from an operator of the vehicle 200, for example. For example, the operator allows altruistic behavior to interrupt all the target vehicles to the lane in which the vehicle 200 is traveling, so that only one in every n target vehicles can be transferred to the lane in which the vehicle 200 is traveling. To allow interruption, the target vehicle may be set to interrupt the driving lane of the vehicle 200 only when other vehicles ahead of the target vehicle are traveling below a certain speed, etc. . Alternatively or additionally, in some embodiments, the altruistic behavior parameter may be selectable by the user before or during navigation (eg, a value or state selectable by the user). For example, when entering the vehicle 200, the user may select whether to be altruistic during navigation (eg, through the user interface 170). As another example, when one or more contextual features are detected, the user may select whether or not to be altruistic in that case (eg, through user interface 170).

幾つかの実施形態では、利他的行動パラメータは、車両200のオペレータ又は乗員のためのカレンダ登録情報を解析することによって特定された少なくとも1つの情報要素に基づいて設定され得る。例えば、幾つかの実施形態では、利他的行動パラメータは、車両200が車両200のオペレータにとって受け入れられる時間枠内に目的地に到着する限り、標的車両による車両200の走行中のレーンへの割込みが許可されることを示し得る。例えば、オペレータ又は乗員が急いでいない場合、基準はより多くの標的車両による割込みを許可し得るが、オペレータ又は乗員が急いでいれば、基準はより少ない標的車両による割込みを許可し得るか、又は何れの標的車両の割込みも全く許可しないようにし得る。オペレータ又は乗客が急いでいるか否かは、処理ユニット110により、例えばオペレータ又は乗客に関連付けられるカレンダ登録情報(例えば、ユーザが特定の場所に特定の時間までに到着したいことを示すカレンダイベント)及び車両200のためのナビゲーションデータ(例えば、その場所の到着時間を予測するGPS及び/又は地図データ)に基づいて特定され得る。   In some embodiments, the altruistic behavior parameter may be set based on at least one information element identified by analyzing calendar registration information for an operator or occupant of the vehicle 200. For example, in some embodiments, the altruistic behavior parameter is such that the target vehicle can interrupt the driving lane of the vehicle 200 as long as the vehicle 200 arrives at the destination within a time frame acceptable to the operator of the vehicle 200. It can indicate that it is allowed. For example, if the operator or occupant is not in a hurry, the criteria may allow interruption by more target vehicles, but if the operator or occupant is in a hurry, the criteria may allow interruption by fewer target vehicles, or Any target vehicle interruption may not be allowed at all. Whether the operator or passenger is in a hurry is determined by the processing unit 110, for example, calendar registration information associated with the operator or passenger (eg, a calendar event indicating that the user wants to arrive at a specific location by a specific time) and vehicle Navigation data for 200 (eg, GPS and / or map data that predicts the arrival time of the location) may be identified.

幾つかの実施形態では、利他的行動パラメータは、乱数生成機能の出力に基づいて設定され得る。例えば、乱数生成機能の特定の出力が、車両200に標的車両1002による第1のレーン1004への割込みを許可させ得る一方で、乱数生成関数の他の出力は、車両200に標的車両1002による第1のレーン1004への割込みを許可させないものであり得る。更に代替的又は追加的に、利他的行動パラメータは、1つ又は複数の状況的特徴が第1のレーン1004へのコース変更から利益を得るであろうことを示す標的車両に遭遇する所定の数に基づいて設定され得る。   In some embodiments, the altruistic behavior parameter may be set based on the output of the random number generator function. For example, a specific output of the random number generation function may allow the vehicle 200 to allow the target vehicle 1002 to interrupt the first lane 1004, while another output of the random number generation function causes the vehicle 200 to One lane 1004 may not be allowed to be interrupted. Further alternatively or additionally, the altruistic behavior parameter may be a predetermined number that is encountered by the target vehicle indicating that one or more situational features will benefit from a course change to the first lane 1004. Can be set based on

幾つかの実施形態では、利他的行動パラメータは一定であり得る。代替的に、利他的行動パラメータは、車両200がいる経路へのコース変更から利益を得るであうことを1つ又は複数の状況的特徴が示す標的車両との遭遇について少なくとも所定のパーセンテージで車両200のナビゲーション変更が行われるように更新され得る。例えば、所定のパーセンテージは少なくとも10%、少なくとも20%、少なくとも30%等であり得る。   In some embodiments, the altruistic behavior parameter may be constant. Alternatively, the altruistic behavior parameter is at least a predetermined percentage of the vehicle 200's encounter with the target vehicle that the one or more situational characteristics indicate that it will benefit from a course change to the route the vehicle 200 is on. It can be updated to make navigation changes. For example, the predetermined percentage can be at least 10%, at least 20%, at least 30%, and the like.

幾つかの実施形態では、利他的行動パラメータは、特定の基準が満たされた場合にナビゲーション変更が実行されるようにルールを特定し得る。例えば、所定の利他的行動パラメータは、車両200が隣接レーン内の標的車両に接近していて、標的車両が標的車両より低速で移動している別の車両の後方を走行している場合、標的車両が割り込みたいとの意思を示し(例えば、方向指示器の使用を通じて、又は車両200か走行中のレーンに向かう横方向の移動を通じて)、車両200の減速が特定の閾値未満であり(例えば、過剰な急ブレーキを回避するため)、車両200の後方に安全に減速できないような車両がない限り、車両200は減速して標的車両による割込みを許可すべきであることを示し得る。   In some embodiments, the altruistic behavior parameter may specify a rule such that navigation changes are performed if certain criteria are met. For example, the predetermined altruistic behavior parameter may be that if the vehicle 200 is approaching a target vehicle in an adjacent lane and the target vehicle is traveling behind another vehicle that is moving slower than the target vehicle, The vehicle indicates that it wants to interrupt (eg, through the use of a turn indicator or through a lateral movement toward the driving lane of the vehicle 200), and the deceleration of the vehicle 200 is below a certain threshold (eg, Unless there is a vehicle behind the vehicle 200 that cannot be safely decelerated (to avoid excessive sudden braking), the vehicle 200 may decelerate to indicate that the target vehicle should be allowed to interrupt.

幾つかの実施形態では、利他的行動パラメータは一貫していないように設計され得、それによって同じ状況的特徴及び基準でも異なるナビゲーション変更が行われるか、ナビゲーション変更が全く行われないようにし得る。例えば、利他的行動パラメータの結果として、ランダム及び/又は周期的な各種の利他的行為がとられ得る。一例として、利他的行動パラメータは、n台の標的車両ごとに1台のみ割込みを許可し得る。幾つかの実施形態では、nはランダムに選択され得、ランダムに変化し得、状況的特徴が検出されるたびに増加し得、及び/又は割込みが許可されると、小さい値にリセットされ得る。他の例として、利他的行動パラメータは、標的車両による割込みを許可するか否かを、ランダムに生成された数と所定の閾値との比較に基づいて判断し得る。   In some embodiments, altruistic behavior parameters may be designed to be inconsistent, so that different navigation changes may be made, or no navigation changes will be made, even with the same contextual characteristics and criteria. For example, various altruistic actions can be taken randomly and / or periodically as a result of altruistic behavior parameters. As an example, the altruistic behavior parameter may allow only one interrupt for every n target vehicles. In some embodiments, n may be selected randomly, may vary randomly, may increase each time a contextual feature is detected, and / or may be reset to a small value when interrupts are allowed. . As another example, the altruistic behavior parameter may determine whether to allow an interruption by the target vehicle based on a comparison between a randomly generated number and a predetermined threshold.

幾つかの実施形態では、利他的行動モジュール804は、何台の車両が車両200の後方を走行しているかを考慮し、この情報を利他的行動パラメータに追加し得る。例えば、車両200は、後続車両を検出するための1つ又は複数の背面センサ(例えば、レーダセンサ)、及び/又は、分析のためにシステム100に画像を提供し、及び/又は交通情報を無線接続で提供する1つ又は複数の背面カメラを含み得る。この場合、車両200の後続車両の台数に基づいて、利他的行動モジュール804は、車両200が標的車両による割込みを許可するか否かの潜在的影響を評価し得る。例えば、車両の長い列(例えば、5、10台、又はそれを超える車両)が車両200の後方を走行していると判断された場合、車両200が標的車両による割込みを許可しなければ、標的車両はおそらく、後方の車両が通過するまで(これにはかなりの時間がかかり得る)割込みの機会を持つ可能性が低い。しかしながら、少ない台数の車両(例えば、1又は2台)のみが車両200の後方を走行している場合、車両200が標的車両による割込みを許可しないとしても、標的車両は短時間で(例えば、その少ない台数の車両が通過した後に)割り込む機会を有する。   In some embodiments, the altruistic behavior module 804 may consider how many vehicles are driving behind the vehicle 200 and add this information to the altruistic behavior parameters. For example, the vehicle 200 provides one or more rear sensors (eg, radar sensors) for detecting the following vehicle and / or images to the system 100 for analysis and / or wireless traffic information. One or more rear cameras provided in the connection may be included. In this case, based on the number of vehicles following the vehicle 200, the altruistic behavior module 804 may evaluate the potential impact of whether the vehicle 200 allows interruption by the target vehicle. For example, if it is determined that a long row of vehicles (e.g., 5, 10 or more vehicles) is traveling behind the vehicle 200, the target is not allowed to be interrupted by the target vehicle. The vehicle is unlikely to have an opportunity to interrupt until the vehicle behind it (which can take a considerable amount of time). However, if only a small number of vehicles (for example, one or two) are traveling behind the vehicle 200, the target vehicle will be short in time (for example, its Have the opportunity to interrupt (after a small number of vehicles have passed).

幾つかの実施形態では、利他的行動パラメータは、ニューラルネットワーク等の機械学習技術を用いた事例から導き出され得る。例えば、ニューラルネットワークは、前述のように、シナリオに基づいて利他的行動パラメータを特定するように訓練できる。幾つかの実施形態では、利他的行動パラメータは、前に検出されたドライバーの行動に基づいて特定され得る。例えば、ドライバーによる利他的行動はプラスに重み付けでき、それによってニューラルネットワークは利他的行動を優先させる。前述のように、非一貫性を前述のようなランダム又は周期的変化を通じて追加できる。   In some embodiments, altruistic behavior parameters may be derived from examples using machine learning techniques such as neural networks. For example, the neural network can be trained to identify altruistic behavior parameters based on scenarios as described above. In some embodiments, altruistic behavior parameters may be identified based on previously detected driver behavior. For example, altruistic behavior by drivers can be weighted positively, so that the neural network prioritizes altruistic behavior. As mentioned above, inconsistencies can be added through random or periodic changes as described above.

利他的行動モジュール806は、図10及び12に関して以下に更に説明される。   The altruistic behavior module 806 is further described below with respect to FIGS.

図9Aは、車両200が割込みを検出し、それに応答し得る例示的な状況の図である。図のように、車両200は、道路900上で標的車両902と並走し得る。標的車両902は第1のレーン904を走行中であり得、車両200は第2のレーン906を走行中であり得る。第1のレーン904は左レーンであるように示され、第2のレーン906は右レーンであるように示されているが、第1及び第2のレーン904及び906は道路900上の任意の隣接レーンであり得る。更に、2つのレーン904、906のみが道路900上に示されているが、それより多くのレーンも存在可能であると理解されたい。また、「レーン」という用語はより一般的に、それに沿って車両200と標的車両902が走行している経路を指すと理解され得る。例えば、幾つかの実施形態では、「レーン」への言及は、車両200の走行方向又は経路と整列する経路を指し得る。   FIG. 9A is an illustration of an exemplary situation in which vehicle 200 may detect and respond to an interrupt. As illustrated, the vehicle 200 may run parallel to the target vehicle 902 on the road 900. Target vehicle 902 may be traveling in first lane 904 and vehicle 200 may be traveling in second lane 906. The first lane 904 is shown to be the left lane and the second lane 906 is shown to be the right lane, but the first and second lanes 904 and 906 are arbitrary on the road 900. Can be an adjacent lane. Furthermore, although only two lanes 904, 906 are shown on the road 900, it should be understood that more lanes may exist. Also, the term “lane” can be understood more generally to refer to a route along which the vehicle 200 and the target vehicle 902 are traveling. For example, in some embodiments, reference to a “lane” may refer to a route that is aligned with the direction of travel or route of the vehicle 200.

車両200は、道路900の周囲の環境の画像を、例えば、画像捕捉デバイス122、124、及び/又は126等、車両200に関連付けられる1つ又は複数の画像捕捉デバイスから受信するように構成され得る。車両200は、GPSデータ、地図データ、レーダデータ、又はライダデータ等、その他のセンサ情報も受信し得る。画像及び/又はその他のセンサ情報に基づいて、車両200は標的車両902を検出し得る。例えば、車両200は複数の画像中の標的車両902の画像を識別し得る。車両200は、割込み検出モジュール802に関連して上で説明した方法の何れかを含む他の方法でも標的車両902を検出し得る。   The vehicle 200 may be configured to receive images of the environment surrounding the road 900 from one or more image capture devices associated with the vehicle 200, such as, for example, image capture devices 122, 124, and / or 126. . The vehicle 200 may also receive other sensor information such as GPS data, map data, radar data, or lidar data. Based on the image and / or other sensor information, the vehicle 200 may detect the target vehicle 902. For example, the vehicle 200 may identify an image of the target vehicle 902 in the plurality of images. The vehicle 200 may detect the target vehicle 902 in other ways including any of the methods described above in connection with the interrupt detection module 802.

更に画像及び/又はその他のセンサ情報に基づいて、車両200は、標的車両902が第1のレーン904から第2のレーン906に変更するであろうという少なくとも1つのインジケータを識別し得る。例えば、車両200は、画像の単眼及び/又は立体画像分析に基づいて(又はレーダ若しくはライダデータ等のその他のセンサデータに基づいて)、図5Bに関連して説明したような標的車両902の位置及び/又は速度、及び/又は図5Cに関連して説明したような道路900上の1つ又は複数の道路マークの位置を検出し得る。別の例として、車両200は、図5Fに関連して上で説明したように、標的車両902がレーン変更を開始したことを検出し得る。また別の例として、車両200は、地図データに基づいて、第1のレーン904が終了しつつあることを検出し得る。車両200は、割込み検出モジュール802に関連して上で説明した方法の何れかを含む他の方法でも、少なくとも1つのインジケータを識別し得る。   Further, based on the image and / or other sensor information, the vehicle 200 may identify at least one indicator that the target vehicle 902 will change from the first lane 904 to the second lane 906. For example, the vehicle 200 may be based on monocular and / or stereoscopic image analysis of the image (or based on other sensor data such as radar or lidar data) and the position of the target vehicle 902 as described in connection with FIG. 5B. And / or speed and / or the location of one or more road marks on the road 900 as described in connection with FIG. 5C. As another example, the vehicle 200 may detect that the target vehicle 902 has initiated a lane change, as described above in connection with FIG. 5F. As another example, the vehicle 200 can detect that the first lane 904 is being completed based on the map data. The vehicle 200 may identify at least one indicator in other ways including any of the methods described above in connection with the interrupt detection module 802.

前述のように、インジケータが検出されると、車両200は、ナビゲーション応答をとるか否かを判断し得る。不要なブレーキ及び急ブレーキの両方を最小化するために、車両200は、この判断を下す際、標的車両902が第2のレーン906に割り込む可能性に影響を与える所定の割込み感度変更要素の有無を考慮し得る。所定の割込み感度変更要素が検出されない場合、ナビゲーション応答は、車両200において、インジケータの識別に基づいて、また第1の割込み感度パラメータに基づいて生じさせることができる。他方、所定の感度要因が検出される場合、ナビゲーション応答は、車両200において、インジケータの識別に基づいて、また第2の割込み感度パラメータに基づいて生じさせることができる。第2の割込み感度パラメータは、第1の割込み感度パラメータと異なり得る(例えば、より高感度である)。   As described above, when the indicator is detected, the vehicle 200 may determine whether to take a navigation response. In order to minimize both unnecessary braking and sudden braking, the vehicle 200 determines whether there is a predetermined interrupt sensitivity change factor that affects the likelihood that the target vehicle 902 will interrupt the second lane 906 when making this determination. Can be considered. If the predetermined interrupt sensitivity changing element is not detected, a navigation response can be generated in the vehicle 200 based on the identification of the indicator and based on the first interrupt sensitivity parameter. On the other hand, if a predetermined sensitivity factor is detected, a navigation response can be generated in the vehicle 200 based on the identification of the indicator and based on the second interrupt sensitivity parameter. The second interrupt sensitivity parameter can be different (eg, more sensitive) than the first interrupt sensitivity parameter.

所定の割込み感度変更要素を含む追加の例示的な状況は、図9B〜9Eに示されている。   Additional exemplary situations involving predetermined interrupt sensitivity modification elements are shown in FIGS.

図9Bは、例示的な所定の割込み感度変更要素を示し、これは第1のレーン904内の障害物という形態をとる。図のように、標的車両902は第1のレーン904を走行中であり、車両200は第2のレーン906を走行中である。障害物は、その障害物によって標的車両200が割込みを試みる可能性が、障害物のない場合より高くなる場合、所定の割込み感度変更要素としての役割を果たし得る。   FIG. 9B shows an exemplary predetermined interrupt sensitivity changing element, which takes the form of an obstacle in the first lane 904. As shown, the target vehicle 902 is traveling in the first lane 904, and the vehicle 200 is traveling in the second lane 906. An obstacle may serve as a predetermined interrupt sensitivity changing element if the obstacle makes it more likely that the target vehicle 200 will attempt to interrupt than if there is no obstacle.

図のように、障害物は第1のレーン904において標的車両902の前方を走行する他の車両908の検出を通じて検出され得る。障害物は他の車両908として示されているが、幾つかの実施形態では、障害物は停止中の車両、事故、危険物、歩行者等の形態を取り得る。障害物が他の車両908である一実施形態では、車両200は、他の車両908が標的車両902より低速で走行していることを検出することによって障害物を検出し得る。これは、他の車両908が標的車両902より低速で走行している場合、他の車両908が低速であることにより、標的車両902が第2のレーン906への割込みを試みる可能性がより高くなるからである。このような障害物は、所定の割込み感度変更要素を構成し得る。   As shown, the obstacle may be detected through detection of another vehicle 908 traveling in front of the target vehicle 902 in the first lane 904. Although the obstacle is shown as another vehicle 908, in some embodiments, the obstacle may take the form of a stopped vehicle, an accident, a dangerous object, a pedestrian, and the like. In one embodiment where the obstacle is another vehicle 908, the vehicle 200 may detect the obstacle by detecting that the other vehicle 908 is traveling at a lower speed than the target vehicle 902. This is because if the other vehicle 908 is traveling at a lower speed than the target vehicle 902, it is more likely that the target vehicle 902 will attempt to interrupt the second lane 906 due to the lower speed of the other vehicle 908. Because it becomes. Such an obstacle may constitute a predetermined interrupt sensitivity changing element.

車両200は、図8に関連して感度変更要素を検出するために上に記載された方法の何れでも、障害物を検出し得る。例えば、車両200は画像の単眼及び/又は立体画像分析に基づいて、他の車両908の位置及び/又は速度を標的車両902のそれらに加えて検出し得る。他の車両908の位置及び/又は速度は、他のセンサ情報に基づいても検出され得る。別の例として、車両200は、GPSデータ、地図データ、及び/又は例えばWaze等の交通アプリケーションからの交通データに基づいて障害物(例えば、他の車両908)を検出し得る。また別の例として、車両200はレーダ又はライダデータの分析を通じて障害物を検出し得る。   The vehicle 200 may detect an obstruction in any of the methods described above for detecting sensitivity changing elements in connection with FIG. For example, the vehicle 200 may detect the position and / or velocity of other vehicles 908 in addition to those of the target vehicle 902 based on monocular and / or stereoscopic image analysis of the images. The position and / or speed of other vehicles 908 can also be detected based on other sensor information. As another example, the vehicle 200 may detect an obstacle (eg, another vehicle 908) based on GPS data, map data, and / or traffic data from a traffic application such as, for example, Waze. As another example, the vehicle 200 may detect an obstacle through analysis of radar or lidar data.

所定の割込み感度変更要素が検出されると(すなわち、車両200が第1のレーン904上に障害物があると検出すると)、車両200は、インジケータの識別に基づいて、及び第2の割込み感度パラメータに基づいて、ナビゲーション応答を生じさせ得る。ナビゲーション応答は、例えば車両200の加速、車両200の減速、又は(可能であれば)車両200のレーン変更が含まれ得る。第2の割込み感度パラメータは、所定の割込み感度変更要素が検出されなかった場合の第1の割込み感度パラメータより高感度であり得、それは、所定の割込み感度変更要素が存在すると、標的車両902が第2のレーン906への割込みを試みる可能性が高くなるからである。   When a predetermined interrupt sensitivity changing element is detected (ie, when the vehicle 200 detects that there is an obstacle on the first lane 904), the vehicle 200 determines whether the second interrupt sensitivity is based on the identification of the indicator. Based on the parameters, a navigation response can be generated. The navigation response may include, for example, acceleration of the vehicle 200, deceleration of the vehicle 200, or (if possible) a lane change of the vehicle 200. The second interrupt sensitivity parameter may be more sensitive than the first interrupt sensitivity parameter when the predetermined interrupt sensitivity changing element is not detected, which means that if the predetermined interrupt sensitivity changing element is present, the target vehicle 902 This is because the possibility of trying to interrupt the second lane 906 increases.

幾つかの実施形態では、第2の割込み感度パラメータは、車両200の周囲の車両の存在と行動に依存し得る。例えば、第2の割込み感度パラメータは、標的車両902の横方向速度と横方向位置を考慮し得、第2の割込み感度パラメータの感度は、標的車両902の横方向速度と横方向位置の各々の閾値と相関させ得る。例えば、横方向速度閾値が高い、及び/又は横方向位置閾値が低いと、感度はより低くなり得、より高い感度とより迅速にナビゲーション応答をもたらし得る低い横方向速度閾値及び/又は高い横方向位置閾値と比較して、ナビゲーション応答が遅くなる。   In some embodiments, the second interrupt sensitivity parameter may depend on the presence and behavior of vehicles around the vehicle 200. For example, the second interrupt sensitivity parameter may take into account the lateral speed and lateral position of the target vehicle 902, and the sensitivity of the second interrupt sensitivity parameter may be for each of the lateral speed and lateral position of the target vehicle 902. Can be correlated with a threshold. For example, if the lateral speed threshold is high and / or the lateral position threshold is low, the sensitivity may be lower, and the lower lateral speed threshold and / or high lateral direction may result in higher sensitivity and faster navigation response. Compared to the position threshold, the navigation response is slow.

より高い感度(すなわち、より高感度の割込み感度パラメータ)は、特定の状況において望ましいことがあり得る。例えば、標的車両902が車両200より速く移動していて、他の車両908が第1のレーン904内で標的車両902よりかなり低速で移動している場合、標的車両902は減速して第1のレーン904にとどまること、減速して車両200の後ろで第2のレーン906に変更すること、第1のレーン904の左の別のレーンに変更すること(そのようなレーンが存在する場合)、又は第2のレーン906に割り込むことの何れかにより、その行動を修正せざるを得ない可能性があるように見える。標的車両902が他の車両908との衝突を避けるために急減速しなければならない場合、第2のレーン906への割込みの可能性がより高くなる。同様に、標的車両902が車両200の後ろで第2のレーン906に変更するために急減速しなければならない場合にも、第2のレーン906への割込の可能性がより高くなる。   A higher sensitivity (ie, a higher sensitivity interrupt sensitivity parameter) may be desirable in certain situations. For example, if the target vehicle 902 is moving faster than the vehicle 200 and other vehicles 908 are moving much slower than the target vehicle 902 in the first lane 904, the target vehicle 902 decelerates to the first Stay in lane 904, decelerate and change to second lane 906 behind vehicle 200, change to another lane to the left of first lane 904 (if such a lane exists), Or it appears that either by interrupting the second lane 906, the behavior may have to be corrected. If the target vehicle 902 has to decelerate rapidly to avoid a collision with another vehicle 908, there is a higher probability of interruption to the second lane 906. Similarly, if the target vehicle 902 has to decelerate rapidly to change to the second lane 906 behind the vehicle 200, there is a higher probability of interruption into the second lane 906.

第2の割込み感度パラメータの感度は、車両200の周囲の他の車両の存在と行動に更に依存し得る。例えば、第1のレーン904に他の車両908がなく、第2のレーン906内で車両200と車両200に先行する最も近い車両との間の距離が短い場合、感度はより低くなり得る。他の例として、第1のレーン904内の他の車両908が標的車両902とほぼ同じ速度及び/又はそれより高速で移動していて、第2のレーン906内の車両200と車両200に先行する最も近い車両との間の距離が短い場合、感度はより低くなり得る。また別の例として、標的車両902が追い越しレーンにいて(例えば、車両が道路900の右側通行である国において、第1のレーン904が第2のレーン906の左にある場合)、第1のレーン904内の別の車両908が標的車両902とほぼ同じ速度及び/又はそれより高速で移動していて、第2のレーン906内の第2の車両200と車両200に先行する最も近い車両との間の距離が長い場合、感度は若干高くなり得る(例えば、低乃至中程度の感度)。同じ状況で、標的車両902が追い越しレーンにない場合(例えば、車両が道路900の右側通行である国において、第1のレーン904が第2のレーン906の左側にある場合)、感度はより低くなり得る。   The sensitivity of the second interrupt sensitivity parameter may further depend on the presence and behavior of other vehicles around the vehicle 200. For example, if there are no other vehicles 908 in the first lane 904 and the distance between the vehicle 200 and the nearest vehicle preceding the vehicle 200 in the second lane 906 is short, the sensitivity may be lower. As another example, other vehicles 908 in the first lane 904 are moving at approximately the same speed and / or faster than the target vehicle 902 and precede the vehicles 200 and 200 in the second lane 906. The sensitivity can be lower if the distance to the nearest vehicle is short. As another example, if the target vehicle 902 is in an overtaking lane (eg, in a country where the vehicle is on the right side of the road 900, the first lane 904 is to the left of the second lane 906), the first Another vehicle 908 in lane 904 is moving at approximately the same speed and / or higher speed as target vehicle 902 and the second vehicle 200 in second lane 906 and the nearest vehicle preceding vehicle 200 If the distance between is long, the sensitivity can be slightly higher (eg, low to moderate sensitivity). In the same situation, if the target vehicle 902 is not in the overtaking lane (eg, in a country where the vehicle is on the right side of the road 900, the first lane 904 is on the left side of the second lane 906), the sensitivity is lower. Can be.

第2の割込み感度パラメータの感度は、更に、標的車両902によるいかなる加速又は減速も考慮し得る。例えば、標的車両902が第1のレーン904内で他の車両908より高速で移動していて、標的車両902が加速する場合、感度は高くなり得る。他の例として、標的車両902が第1のレーン904内で他の車両908より高速で移動している場合、他の車両908との衝突を避けるために必要な標的車両902の減速度が例えば0.1gより大きく、標的車両902が減速していない場合、感度は上昇し得るが、最高レベルではない。また別の例として、標的車両902が第1のレーン904内で他の車両908より高速で移動していて、他の車両908との衝突を避けるために必要な標的車両902の減速度が例えば0.5gより大きく、標的車両902が減速していない場合、感度はその最高であり得る。しかし、同じ状況で、第2のレーン906内で車両200に先行する最も近い車両が標的車両902より低速で移動しており、第2のレーン906内で車両200に先行する最も近い車両との衝突を避けるために必要な標的車両902の減速度が他の車両908にぶつかるのを避けるのに必要なものより大きい場合、感度は高くなり得るが、最高ではない。しかしながら、同じ状況で、第2のレーン906のもう一方の側のレーンが、標的車両902によるより漸進的な減速を可能にするのに十分に空いている場合、感度はその最高であり得、これは、標的車両902が第2のレーン906のもう一方の側のレーンに入ろうとして第2のレーン906に割込む可能性が高いからである。上及び開示全体を通じて記載されている感度レベルは、ある分布上に存在し得、当該分布は、例えばその分布に沿って任意の所望の相対配置で配置された任意の数の感度レベルを含む。   The sensitivity of the second interrupt sensitivity parameter may further take into account any acceleration or deceleration by the target vehicle 902. For example, if the target vehicle 902 is moving faster than the other vehicles 908 in the first lane 904 and the target vehicle 902 accelerates, the sensitivity can be high. As another example, if the target vehicle 902 is moving at a higher speed in the first lane 904 than the other vehicle 908, the deceleration of the target vehicle 902 required to avoid a collision with the other vehicle 908 is, for example, If it is greater than 0.1 g and the target vehicle 902 is not decelerating, the sensitivity may increase but not at the highest level. As another example, the target vehicle 902 is moving at a higher speed than the other vehicles 908 in the first lane 904, and the deceleration of the target vehicle 902 required to avoid a collision with the other vehicles 908 is, for example, If greater than 0.5 g and the target vehicle 902 is not decelerating, the sensitivity may be at its highest. However, in the same situation, the closest vehicle preceding the vehicle 200 in the second lane 906 is moving at a lower speed than the target vehicle 902, and the closest vehicle preceding the vehicle 200 in the second lane 906 is If the deceleration of the target vehicle 902 required to avoid a collision is greater than necessary to avoid hitting another vehicle 908, the sensitivity can be high but not the highest. However, in the same situation, if the lane on the other side of the second lane 906 is free enough to allow more gradual deceleration by the target vehicle 902, the sensitivity can be its highest, This is because the target vehicle 902 is likely to interrupt the second lane 906 to enter the lane on the other side of the second lane 906. The sensitivity levels described above and throughout the disclosure may exist on a distribution, which includes any number of sensitivity levels arranged, for example, in any desired relative arrangement along the distribution.

他の例として、標的車両902が第1のレーン904内で他の車両908より高速で移動していて、他の車両908との衝突を避けるために必要な標的車両902の減速度が例えば0.2gより大きく、標的車両902が第2のレーン906内の車両200及び/又は車両200に先行する最も近い車両の速度まで減速する場合、感度は最高となり得る。また別の例として、標的車両902が第1のレーン904内で他の車両908より高速で移動していて、標的車両902が第2のレーン906内の車両200の及び/又は車両200に先行する最も近い車両の速度より低速となるまで減速する場合、感度は低くなり得る。他の例として、標的車両902が第1のレーン904で他の車両908より高速で移動していて、他の車両908との衝突を避けるために必要な標的車両902の減速度が例えば0.2gより小さく、標的車両902が減速している場合、感度は低くなり得る。   As another example, the target vehicle 902 is moving at a higher speed in the first lane 904 than the other vehicle 908, and the deceleration of the target vehicle 902 necessary to avoid a collision with the other vehicle 908 is 0, for example. If the target vehicle 902 decelerates to the speed of the vehicle 200 in the second lane 906 and / or the nearest vehicle preceding the vehicle 200, greater than. As another example, the target vehicle 902 is moving at a higher speed in the first lane 904 than the other vehicles 908, and the target vehicle 902 precedes and / or precedes the vehicle 200 in the second lane 906. When decelerating to a speed slower than the nearest vehicle speed, the sensitivity can be low. As another example, the target vehicle 902 is moving at a higher speed than the other vehicles 908 in the first lane 904, and the deceleration of the target vehicle 902 necessary to avoid a collision with the other vehicles 908 is, for example, 0. If it is smaller than 2 g and the target vehicle 902 is decelerating, the sensitivity may be low.

幾つかの実施形態では、車両200は、第2の割込み感度パラメータを決定する際、標的車両902の他の行動を考慮し得る。例えば、標的車両902が追い越しレーンにいて(例えば、車両が道路900の右側通行である国において、第1のレーン904が第2のレーン906の左にある場合)、第1のレーン904内の別の車両908が標的車両902より低速で走行していて、標的車両902が他の車両908に対してそのヘッドライトでパッシングしている場合、より低い感度が使用され得、これは、標的車両902が第1のレーン904にとどまる意思を表示したからである。他の例では、標的車両902が方向指示器を作動させ、それが第2のレーン906への割込みを試みる意図を表示する場合、感度は高くなり得るが、最高ではなく、これは、標的車両902が第2のレーン906に割り込む意思を表示しているだけでなく、それが注意深く走行している、又は運転されているからである。例えば、方向指示器の作動後に、割込みは、標的車両902が有意な横方向移動(例えば、レーンマーカに向かって0.5m)を見せたときに検出され得る。   In some embodiments, the vehicle 200 may consider other behaviors of the target vehicle 902 when determining the second interrupt sensitivity parameter. For example, if the target vehicle 902 is in an overtaking lane (eg, in a country where the vehicle is on the right side of the road 900, the first lane 904 is to the left of the second lane 906), If another vehicle 908 is traveling slower than the target vehicle 902 and the target vehicle 902 is passing with its headlights relative to the other vehicle 908, lower sensitivity may be used, which is This is because 902 displays the intention to stay in the first lane 904. In another example, if the target vehicle 902 activates the turn signal and it indicates an intention to try to interrupt the second lane 906, the sensitivity may be high, but not the highest, which is Not only does 902 indicate an intention to interrupt the second lane 906, but it is also carefully driving or driving. For example, after activation of the turn signal, an interrupt may be detected when the target vehicle 902 shows a significant lateral movement (eg, 0.5 m toward the lane marker).

車両200によりとられたナビゲーション応答も同様に、車両200の周囲の車両の存在と行動に依存し得る。例えば、幾つかの場合、車両200が減速して標的車両902による第2のレーン906への割込みを許可するが、他の状況では、車両200は加速して、標的車両902が車両200の後方で第2のレーン906に変更できるようにし得る。車両200は、例えば車両200が法定速度以下で走行していて、車両200と標的車両902がほぼ同じ速度で並走しているか、第2のレーン906に車両200に先行する車両がないか、第2のレーン906内で車両200に先行する最も近い車両が安全な距離にあるか、標的車両902の前方に他の車両908がない(又は他の車両908が標的車両902より低速では移動していない)か、標的車両902が変更できるような他の空いたレーンがない場合、加速し得る。幾つかの場合、車両200は必要に応じて(例えば、標的車両902が車両200の後方で第2のレーン906に変更するために必要な減速度が例えば0.5gより大きい場合)、より迅速に加速し得る。   The navigation response taken by the vehicle 200 may similarly depend on the presence and behavior of vehicles around the vehicle 200. For example, in some cases, the vehicle 200 decelerates to allow the target vehicle 902 to interrupt the second lane 906, but in other situations, the vehicle 200 accelerates and the target vehicle 902 is behind the vehicle 200. Can be changed to the second lane 906. For example, the vehicle 200 is traveling at a speed equal to or lower than the legal speed, and the vehicle 200 and the target vehicle 902 are running in parallel at substantially the same speed, or there is no vehicle preceding the vehicle 200 on the second lane 906, The nearest vehicle that precedes the vehicle 200 in the second lane 906 is at a safe distance, or there is no other vehicle 908 in front of the target vehicle 902 (or the other vehicle 908 moves at a lower speed than the target vehicle 902). Or if there is no other free lane that the target vehicle 902 can change. In some cases, the vehicle 200 is faster if necessary (eg, if the deceleration required for the target vehicle 902 to change to the second lane 906 behind the vehicle 200 is greater than 0.5 g, for example). Can accelerate to.

図9Cは、地理的地域の形態をとる所定の割込み感度変更要素の例を示す。図のように、標的車両902は第1のレーン904内を走行中であり、車両200は第2のレーン906を走行中である。地理的地域は、地理的地域(例えば、その地理的地域内の交通ルール及び/又は運転習慣)によって標的車両902が割込みを試みる可能性が、標的車両902がその地理的地域にない場合に試みる可能性より高くなるような場合、所定の割込み感度変更要素としての役割を果たし得る。幾つかの実施形態では、地理的地域には、運転に適用される特定の法的ルール及び/又は運転習慣を有する国又はその他の地域が含まれ得る。   FIG. 9C shows an example of a predetermined interrupt sensitivity changing element that takes the form of a geographical region. As shown in the figure, the target vehicle 902 is traveling in the first lane 904, and the vehicle 200 is traveling in the second lane 906. A geographic region may be attempted if the target vehicle 902 may attempt to interrupt due to a geographic region (eg, traffic rules and / or driving habits within that geographic region), but the target vehicle 902 is not in that geographic region. When it becomes higher than the possibility, it can serve as a predetermined interrupt sensitivity changing element. In some embodiments, a geographic region may include a country or other region that has specific legal rules and / or driving habits that apply to driving.

図のように、地理的地域はそこから地理的地域が確認され得るような道路標識910の検出(例えば、道路標識910の単眼及び/又は立体画像分析を使用して)を通じて検出され得る。代替的又は追加的に、幾つかの実施形態では、地理的地域は、他の方法で、例えば1つ又は複数の地理的インジケータ若しくは陸標を通じて、GPS又は地図データ(又は車両200に関連付けられるその他の位置特定のシステム)を用いて、その他により確認されてもよい。地理的地域を検出することにより、車両200は地理的地域内の交通ルール及び/又は運転習慣によって標的車両902が割込みを試みる可能性が、標的車両902がその地理的地域にない場合に試みる可能性より高くなるか否かを特定し得る。高くなる場合、その地理的地域は所定の割込み感度変更要素を構成し得る。   As shown, the geographic area can be detected through detection of a road sign 910 from which the geographic area can be identified (eg, using monocular and / or stereoscopic image analysis of the road sign 910). Alternatively or additionally, in some embodiments, the geographic area may be GPS or map data (or other associated with the vehicle 200) in other ways, such as through one or more geographic indicators or landmarks. May be ascertained by others using a location system). By detecting the geographic region, the vehicle 200 may attempt to interrupt the target vehicle 902 due to traffic rules and / or driving habits within the geographic region, but may attempt when the target vehicle 902 is not in that geographic region. It can be specified whether it becomes higher than sex. If so, the geographic region may constitute a predetermined interrupt sensitivity changing factor.

所定の割込み感度変更要素が検出されると(すなわち、車両200が、標的車両902がその地理的地域内を走行していることを検出すると)、車両200は、インジケータの識別に基づいて、また第2の割込み感度パラメータに基づいてナビゲーション応答を生じさせ得る。ナビゲーション応答は、例えば、車両200の加速、車両200の減速、又は(可能であれば)車両200によるレーン変更が含まれ得る。第2の割込み感度パラメータは、所定の割込み感度変更要素が検出されなかった場合の第1の割込み感度パラメータより高感度であり得、それは、割込み感度変更要素の存在により、標的車両902が第2のレーン906への割込みを試みる可能性がより高くなるからである。   When a predetermined interrupt sensitivity change factor is detected (i.e., when the vehicle 200 detects that the target vehicle 902 is traveling within its geographic region), the vehicle 200 may also be based on the indicator identification and A navigation response may be generated based on the second interrupt sensitivity parameter. The navigation response may include, for example, acceleration of the vehicle 200, deceleration of the vehicle 200, or (if possible) a lane change by the vehicle 200. The second interrupt sensitivity parameter may be more sensitive than the first interrupt sensitivity parameter when the predetermined interrupt sensitivity changing element is not detected, because the presence of the interrupt sensitivity changing element causes the target vehicle 902 to This is because the possibility of trying to interrupt the lane 906 is increased.

図9Dは、レーン終了状態の形態をとる所定の割込み感度変更要素の例を示す。図のように、標的車両902は第1のレーン904内を走行中であり、車両200は第2のレーン906を走行中である。レーン終了は、レーン終了状態によって標的車両902が割込みを試みる可能性が、第1のレーン904が終了しない場合に標的車両902が試みる可能性より高くなるときに、所定の割込み感度変更要素としての役割を果たし得る。   FIG. 9D shows an example of a predetermined interrupt sensitivity changing element that takes the form of a lane end state. As shown in the figure, the target vehicle 902 is traveling in the first lane 904, and the vehicle 200 is traveling in the second lane 906. Lane end is a predetermined interrupt sensitivity change factor when the target vehicle 902 is more likely to attempt an interrupt due to a lane end condition than the target vehicle 902 will attempt if the first lane 904 does not end. Can play a role.

図のように、レーン終了状態は、そこからレーン終了状態が確認され得るような道路標識912の検出(例えば、道路標識912の単眼及び/又は立体加増分析を使用して)及び/又は道路マーク914の検出(例えば、道路標識912の単眼及び/又は立体画像分析を使用して)を通じて検出され得る。代替的又は追加的に、幾つかの実施形態では、レーン終了状態は、他の方法で、例えばGPS又は地図データ(又は車両200に関連付けられるその他の位置特定システム)を通じて等により確認され得る。レーン終了状態を検出することにより、車両200は、標的車両902が割込みを試みる可能性が、第1のレーン904が終了しない場合に標的車両902が試みる可能性より高くなると判断し得る。したがって、レーン終了状態は所定の割込み感度変更要素を構成し得る。   As shown, the lane end state may be detected from a road sign 912 from which the lane end state may be ascertained (eg, using a monocular and / or stereo augmentation analysis of the road sign 912) and / or a road mark. Detection may be through 914 detection (eg, using monocular and / or stereo image analysis of road sign 912). Alternatively or additionally, in some embodiments, the lane end condition may be confirmed in other ways, such as through GPS or map data (or other location system associated with the vehicle 200) and the like. By detecting the lane end condition, the vehicle 200 may determine that the likelihood that the target vehicle 902 will attempt to interrupt is higher than the likelihood that the target vehicle 902 will attempt if the first lane 904 does not end. Accordingly, the lane end state may constitute a predetermined interrupt sensitivity changing element.

所定の割込み感度変更要素が検出されると(すなわち、車両200が第1のレーン904が終了することを検出すると)、車両200は、インジケータの識別に基づいて、また第2の割込み感度パラメータに基づいてナビゲーション応答を生じさせ得る。ナビゲーション応答は、例えば、車両200の加速、車両200の減速、又は(可能であれば)車両200によるレーン変更が含まれ得る。第2の割込み感度パラメータは、所定の割込み感度変更要素が検出されなかった場合の第1の割込み感度パラメータより高感度であり得、それは、割込み感度変更要素の存在により、標的車両902が第2のレーン906への割込みを試みる可能性がより高くなるからである。   When a predetermined interrupt sensitivity change factor is detected (i.e., when the vehicle 200 detects that the first lane 904 is finished), the vehicle 200 determines whether the second interrupt sensitivity parameter is based on the identification of the indicator. Based on this, a navigation response can be generated. The navigation response may include, for example, acceleration of the vehicle 200, deceleration of the vehicle 200, or (if possible) a lane change by the vehicle 200. The second interrupt sensitivity parameter may be more sensitive than the first interrupt sensitivity parameter when the predetermined interrupt sensitivity changing element is not detected, because the presence of the interrupt sensitivity changing element causes the target vehicle 902 to This is because the possibility of trying to interrupt the lane 906 is increased.

図9Eは、道路分割状態の形態をとる所定の割込み感度変更要素の例を示す。図のように、標的車両902は第1のレーン904内を走行中であり、車両200は第2のレーン906を走行中である。道路900は分割されつつある。道路分割状態は、道路分割状態によって標的車両902が割込みを試みる可能性が、第1のレーン904が終了しない場合に標的車両902が試みる可能性より高くなる場合、所定の割込み感度変更要素としての役割を果たし得る。   FIG. 9E shows an example of a predetermined interrupt sensitivity changing element that takes the form of a road split state. As shown in the figure, the target vehicle 902 is traveling in the first lane 904, and the vehicle 200 is traveling in the second lane 906. Road 900 is being divided. The road split state is a predetermined interrupt sensitivity changing factor when the possibility that the target vehicle 902 will try to interrupt due to the road split state is higher than the possibility that the target vehicle 902 will try if the first lane 904 does not end. Can play a role.

図のように、道路分割状態は、そこから道路分割状態が確認され得る道路標識916の検出(例えば、道路標識912の単眼及び/又は立体画像分析を用いて)及び/又は道路マーク918a、918bの検出(例えば、道路標識912の単眼及び/又は立体画像分析を用いて)を通じて検出され得る。代替的又は追加的に、幾つかの実施形態では、道路分割状態は、他の方法で、例えばGPS又は地図データ(又は車両200に関連付けられるその他の位置特定システム)を通じて等により確認され得る。道路分割状態を検出することにより、車両200は、標的車両902が割込みを試みる可能性が、道路900が分割されない場合に標的車両902が試みる可能性より高くなると判断し得る。したがって、道路分割状態は所定の割込み感度変更要素を構成し得る。   As shown, the road segmentation state is detected from the road sign 916 from which the road segmentation state can be confirmed (eg, using monocular and / or stereoscopic image analysis of the road sign 912) and / or road marks 918a, 918b. Detection (eg, using monocular and / or stereoscopic image analysis of road sign 912). Alternatively or additionally, in some embodiments, the road split condition may be verified in other ways, such as through GPS or map data (or other location system associated with the vehicle 200) and the like. By detecting the road split state, the vehicle 200 may determine that the likelihood that the target vehicle 902 will attempt to interrupt is higher than the likelihood that the target vehicle 902 will attempt if the road 900 is not split. Therefore, the road division state can constitute a predetermined interrupt sensitivity changing element.

所定の割込み感度変更要素が検出されると(すなわち、車両200が、道路900が分割されつつあることを検出すると)、車両200は、インジケータの識別に基づいて、また第2の割込み感度パラメータに基づいてナビゲーション応答を生じさせ得る。ナビゲーション応答は、例えば、車両200の加速、車両200の減速、又は(可能であれば)車両200によるレーン変更が含まれ得る。第2の割込み感度パラメータは、所定の割込み感度変更要素が検出されなかった場合の第1の割込み感度パラメータより高感度であり得、それは、割込み感度変更要素の存在により、標的車両902が第2のレーン906への割込みを試みる可能性がより高くなるからである。   When a predetermined interrupt sensitivity change factor is detected (ie, when the vehicle 200 detects that the road 900 is being split), the vehicle 200 is based on the identification of the indicator and also in the second interrupt sensitivity parameter. Based on this, a navigation response can be generated. The navigation response may include, for example, acceleration of the vehicle 200, deceleration of the vehicle 200, or (if possible) a lane change by the vehicle 200. The second interrupt sensitivity parameter may be more sensitive than the first interrupt sensitivity parameter when the predetermined interrupt sensitivity changing element is not detected, because the presence of the interrupt sensitivity changing element causes the target vehicle 902 to This is because the possibility of trying to interrupt the lane 906 is increased.

特定の所定の割込み感度変更要素について説明したが、標的車両902による割込みがそうでない場合より高く又は低くなるような状態を生じさせ得、及び/又はそれに寄与し得る任意の環境要素を含め、他の所定の割込み感度変更要素も可能であると理解されたい。   While certain predetermined interrupt sensitivity changing elements have been described, other factors may be included, including any environmental element that may cause and / or contribute to a situation where the interruption by the target vehicle 902 is higher or lower than otherwise. It will be appreciated that certain interrupt sensitivity modification factors are also possible.

図10は、開示される実施形態による、車両200が利他的行動に従事し得る例示的な状況の図である。図のように、車両200は道路1000上で標的車両1002と並走し得る。車両200は第1のレーン1004を走行中であり得、標的車両1002は第2のレーン1006を走行中であり得る。第1のレーン1004は左レーンであるように示され、第2のレーン1006は右レーンであるように示されているが、第1及び第2のレーン1004及び1006は道路1000上の任意の隣接レーンであり得ると理解されたい。更に、2つのレーン1004、1006のみが道路1000上に示されているが、それより多いレーンも可能であると理解され得る。「レーン」という用語は便宜上使用されており、幾つかの状況では(例えば、レーンがレーンマークで明確に表示されていない場合)、「レーン」という用語は、より一般的に、車両200及び標的車両1002がそれに沿って走行している経路を指すと理解され得る。   FIG. 10 is an illustration of an exemplary situation in which the vehicle 200 may engage in altruistic behavior, according to disclosed embodiments. As shown, the vehicle 200 can run in parallel with the target vehicle 1002 on the road 1000. The vehicle 200 may be traveling in the first lane 1004 and the target vehicle 1002 may be traveling in the second lane 1006. The first lane 1004 is shown to be the left lane and the second lane 1006 is shown to be the right lane, but the first and second lanes 1004 and 1006 are arbitrary on the road 1000. It should be understood that it can be an adjacent lane. Furthermore, although only two lanes 1004, 1006 are shown on the road 1000, it can be understood that more lanes are possible. The term “lane” is used for convenience, and in some situations (eg, when the lane is not clearly labeled with a lane mark), the term “lane” is more commonly referred to as the vehicle 200 and the target. It can be understood to refer to a route along which the vehicle 1002 is traveling.

車両200は、道路1000の周囲の環境の画像を、例えば、画像捕捉デバイス122、124、及び/又は126等、車両200に関連付けられる1つ又は複数の画像捕捉デバイスから受信するように構成され得る。車両200は、GPS又は地図データ等、他のセンサ情報も受信し得る。更に、幾つかの実施形態では、車両200は、システム100に含まれるレーダデバイス又はライダデバイスを介して取得された情報等、他のセンサ情報を受信し得る。画像及び/又はその他のセンサ情報に基づいて、車両200は標的車両1002を検出し得る。例えば、車両200は複数の画像中で標的車両1002の画像を識別し得る。車両200は、割込み検出モジュール802に関連して上で説明した方法の何れも含む、他の方法で標的車両1002を検出し得る。   The vehicle 200 may be configured to receive images of the environment surrounding the road 1000 from one or more image capture devices associated with the vehicle 200, such as, for example, image capture devices 122, 124, and / or 126. . The vehicle 200 may also receive other sensor information such as GPS or map data. Further, in some embodiments, the vehicle 200 may receive other sensor information, such as information obtained via a radar device or lidar device included in the system 100. Based on the image and / or other sensor information, the vehicle 200 may detect the target vehicle 1002. For example, the vehicle 200 may identify an image of the target vehicle 1002 among the plurality of images. The vehicle 200 may detect the target vehicle 1002 in other ways, including any of the methods described above in connection with the interrupt detection module 802.

画像及び/又はその他のセンサ情報に更に基づいて、車両200は、標的車両1002に関連付けられる1つ又は複数の状況的特徴を特定し得る。状況的特徴は、例えば、標的車両1002が車両200の走行中のレーンへのレーン変更から利益を受けることを示す任意の特性であり得る。例えば、図のように、状況的特徴は、標的車両1002が標的車両1002より低速で走行する他の車両1008の後方を走行していることを示し得る。一般に、状況的特徴は、標的車両1002による割込み又はその他のナビゲーション応答は必要でないかもしれないが、割込みが標的車両1002にとって有利となることを示し得る。   Further based on the image and / or other sensor information, the vehicle 200 may identify one or more contextual features associated with the target vehicle 1002. The contextual feature can be any characteristic that indicates, for example, that the target vehicle 1002 benefits from a lane change to a running lane of the vehicle 200. For example, as shown, the contextual feature may indicate that the target vehicle 1002 is traveling behind another vehicle 1008 that travels at a lower speed than the target vehicle 1002. In general, the contextual feature may indicate that an interrupt or other navigation response by the target vehicle 1002 may not be necessary, but an interrupt is advantageous for the target vehicle 1002.

幾つかの実施形態では、車両200は、画像の単眼及び/又は立体画像分析に基づいて、図5Bに関連して説明したように標的車両1002の位置及び/又は速度を、及び/又は図5Cに関連して説明したように道路900上の1つ又は複数の道路マークの位置を検出し得る。他の例として、車両200は、図5Fに関連して上で説明したように、標的車両1002がレーン変更を開始したことを検出し得る。また別の例として、車両200は、システム100に含まれるレーダデバイス又はライダデバイスを介して取得される情報等、他のセンサ情報の分析に基づいて、標的車両1002がレーン変更を開始したことを検出し得る。車両200は、1つ又は複数の状況的特徴を、利他的行動モジュール806に関して上で説明したような方法の何れも含む他の方法でも識別し得る。   In some embodiments, the vehicle 200 can determine the location and / or speed of the target vehicle 1002 and / or FIG. 5C as described in connection with FIG. 5B based on monocular and / or stereoscopic image analysis of the image. As described in connection with, the location of one or more road marks on the road 900 may be detected. As another example, the vehicle 200 may detect that the target vehicle 1002 has initiated a lane change, as described above in connection with FIG. 5F. As another example, the vehicle 200 indicates that the target vehicle 1002 has started a lane change based on an analysis of other sensor information such as information acquired via a radar device or a lidar device included in the system 100. Can be detected. The vehicle 200 may identify the one or more situational features in other ways, including any of the methods as described above with respect to the altruistic behavior module 806.

1つ又は複数の状況的特徴が検出されると、車両200は、車両200が標的車両1002による第1のレーン1004への割込みを許可するか否かを判断するために、利他的行動パラメータに関連付けられる現在の値を特定し得る。利他的行動パラメータは、利他的行動モジュール806に関連して上で説明した形態の何れをもとり得る。例えば、利他的行動パラメータは、車両200のオペレータからの入力に基づいて、車両200のオペレータ又は乗客のためのカレンダ登録情報を解析することによって特定された少なくとも1つの情報要素に基づいて、乱数生成関数の出力に基づいて、及び/又は1つ若しくは複数の状況的特徴が第1のレーン1004へのコース変更から利益を得られることを示す標的車両に遭遇する所定の回数に基づいて設定され得る。利他的行動パラメータは一定であり得、又は車両200がいる経路へのコース変更から利益を得られることを1つ又は複数の状況的特徴が示す標的車両との遭遇の少なくとも所定のパーセンテージで、車両200内のナビゲーション変更が行われるように更新され得る。例えば、所定のパーセンテージは、例えば少なくとも10%、少なくとも20%、少なくとも30%等であり得る。   If one or more situational features are detected, the vehicle 200 may use an altruistic behavior parameter to determine whether the vehicle 200 allows the target vehicle 1002 to interrupt the first lane 1004. The current value associated can be specified. The altruistic behavior parameter may take any of the forms described above in connection with the altruistic behavior module 806. For example, the altruistic behavior parameter may be a random number generation based on at least one information element identified by analyzing calendar registration information for an operator or passenger of the vehicle 200 based on input from an operator of the vehicle 200. Based on the output of the function and / or based on a predetermined number of times the target vehicle is encountered indicating that one or more situational features can benefit from course changes to the first lane 1004 . The altruistic behavior parameter may be constant, or at least a predetermined percentage of encounters with the target vehicle that one or more situational characteristics indicate that it can benefit from a course change to the route that the vehicle 200 is on. It can be updated to make navigation changes within 200. For example, the predetermined percentage can be, for example, at least 10%, at least 20%, at least 30%, and the like.

車両200は、標的車両1002に関連付けられる1つ又は複数の状況的特徴に基づいて、車両200のナビゲーション状態の変更が必要でなくてよいと判断し得る。すなわち、1つ又は複数の状況的特徴は、第1のレーン1004への割込みが標的車両1002にとって有利ではあるが、このような割込みは必要でないかもしれない(例えば、交通ルールにより、又は安全のために)ことを示し得る。しかしながら、標的車両1002は、幾つかの例において、利他的行動パラメータ及び1つ又は複数の状況的特徴に基づいて、標的車両1002による第1のレーン1004への割込みを許可させるように、車両200における少なくとも1つのナビゲーション変更を起こし得る。   The vehicle 200 may determine that a change in the navigation state of the vehicle 200 may not be necessary based on one or more situational features associated with the target vehicle 1002. That is, one or more situational features may indicate that an interrupt to the first lane 1004 is advantageous to the target vehicle 1002, but such an interrupt may not be necessary (eg, by traffic rules or safety Can show that) However, the target vehicle 1002 may, in some examples, allow the target vehicle 1002 to interrupt the first lane 1004 based on altruistic behavior parameters and one or more situational features. At least one navigational change may occur.

例えば、利他的行動パラメータが車両200のオペレータからの入力に基づいて設定され得る場合、オペレータは、車両200が標的車両1002による割込みを許可すべきであることを示す入力を提供し得る。利他的行動パラメータと1つ又は複数の状況的特徴に基づいて、標的車両1002は、標的車両1002による第1のレーン1004への割込みを許可するために、その速度を変更し得る。他の例として、利他的行動パラメータが乱数生成機能の出力に基づいて設定され得る場合、乱数生成機能は、車両200が標的車両1002による第1のレーン1004への割込みを許可してはならないことを示す出力を提供し得る。例えば、乱数生成機能がバイナリ出力(例えば、「ノー」又は「0」を出力し得るか、又は特定の閾値を満たさない値出力を出力し得る(例えば、閾値が「>−5」のとき、「2」を出力し得る)。利他的行動パラメータと1つ又は複数の状況的特徴に基づき、標的車両1002は、標的車両1002による第1のレーン1004の割込みを防止するために、その速度を保持し得る。また別の例として、利他的行動パラメータは、車両200のオペレータに関するカレンダ登録情報を解析することによって特定された少なくとも1つの情報要素に基づいて設定される場合、オペレータのカレンダ登録情報は、オペレータが目的地に所望の時刻までに到着したいことを示し得る。利他的行動パラメータは、オペレータがそれでもその目的地にその所望の時刻までに到達することになる限り、標的車両1002に割り込みさせるべきであることを示し得る。利他的行動パラメータと1つ又は複数の状況的特徴に基づいて、標的車両1002は、標的車両1002による第1のレーン1004への割込みを、そうすることによってオペレータが目的地に所望の時刻に到着できなくならない限り、許可するようにナビゲーション変更を実行させるが、標的車両1002による第1のレーン1004への割込みを、そうすることによってオペレータが目的地に所望の時刻に到着できなくなる場合には、許可しない。   For example, if the altruistic behavior parameter may be set based on input from an operator of the vehicle 200, the operator may provide an input indicating that the vehicle 200 should allow an interruption by the target vehicle 1002. Based on the altruistic behavior parameter and one or more situational features, the target vehicle 1002 may change its speed to allow the target vehicle 1002 to interrupt the first lane 1004. As another example, if the altruistic behavior parameter can be set based on the output of the random number generation function, the random number generation function may not allow the vehicle 200 to allow the target vehicle 1002 to interrupt the first lane 1004. May be provided. For example, the random number generation function may output a binary output (eg, “no” or “0”, or may output a value output that does not satisfy a specific threshold (eg, when the threshold is “> −5”, Based on the altruistic behavior parameter and one or more situational features, the target vehicle 1002 may determine its speed to prevent the target vehicle 1002 from interrupting the first lane 1004. As yet another example, if the altruistic behavior parameter is set based on at least one information element identified by analyzing calendar registration information relating to the operator of the vehicle 200, the calendar registration information of the operator May indicate that the operator wants to arrive at the destination by the desired time, and altruistic behavior parameters may be As long as it arrives by the desired time, it may indicate that the target vehicle 1002 should be interrupted Based on the altruistic behavior parameter and one or more situational features, the target vehicle 1002 An interrupt to the first lane 1004 by 1002 causes the navigation change to be allowed to be performed unless the operator can no longer reach the destination at the desired time, but the first lane by the target vehicle 1002 An interrupt to 1004 is not allowed if doing so prevents the operator from reaching the destination at the desired time.

幾つかの場合、複数の標的車両が第1のレーン1004への割込みにより利益を受け得る。例えば、図のように、標的車両1002に加えて、追加の標的車両1010が第2のレーン1006内で他の車両1008の後方を走行中であり得る。1つ又は複数の状況的特徴は、標的車両1002と同様に、追加の標的車両1010による割込み又はその他のナビゲーション応答は必要でないかもしれないが、割込みが追加の標的車両1010に有利となることを示し得る。例えば、図のように、追加の標的車両1010も他の車両1008の後方を走行中であり得る、他の車両1008は追加の標的車両1010より低速で走行中であり得る。これらの場合、利他的行動パラメータは、車両200に標的車両1002及び追加の標的車両1010の各々を同じに扱わせ(すなわち、第1のレーン1004への割込みを両方に許可するか、何れにも許可しない)、又は利他的行動パラメータは、車両200に標的車両1002と追加の標的車両1010を異なるように扱わせ得る。   In some cases, multiple target vehicles may benefit from an interrupt to the first lane 1004. For example, as shown, in addition to the target vehicle 1002, an additional target vehicle 1010 may be traveling behind another vehicle 1008 in the second lane 1006. One or more situational features, like target vehicle 1002, may indicate that an interrupt is beneficial to additional target vehicle 1010, although an interrupt or other navigation response by additional target vehicle 1010 may not be required. Can show. For example, as shown, the additional target vehicle 1010 may also be traveling behind another vehicle 1008, and the other vehicle 1008 may be traveling at a lower speed than the additional target vehicle 1010. In these cases, the altruistic behavior parameter causes the vehicle 200 to treat each of the target vehicle 1002 and the additional target vehicle 1010 the same (ie, allow both to interrupt the first lane 1004 or both). Not allowed) or altruistic behavior parameters may cause the vehicle 200 to treat the target vehicle 1002 and the additional target vehicle 1010 differently.

例えば、利他的行動パラメータは、状況的特徴が第1のレーン1004へのコース変更により利益を得ることを示す、そのような車両1002、1010等の標的車両との遭遇回数に基づいて設定され得る。例えば、2台の標的車両1002、1010の場合、利他的行動パラメータは、車両200に、標的車両1002のみに第1のレーン1004に割り込ませ、追加の標的車両1010には許可しないようにさせ得る(これに対し、利他的行動パラメータは、単独で遭遇した場合、標的車両1002と追加の標的車両1010との何れの割込みも許可していた可能性がある)。   For example, the altruistic behavior parameter may be set based on the number of encounters with a target vehicle such as the vehicle 1002, 1010, which indicates that the contextual feature will benefit from a course change to the first lane 1004. . For example, in the case of two target vehicles 1002, 1010, the altruistic behavior parameter may cause the vehicle 200 to cause only the target vehicle 1002 to interrupt the first lane 1004 and not allow additional target vehicles 1010. (On the other hand, the altruistic behavior parameter may have allowed any interruption between the target vehicle 1002 and the additional target vehicle 1010 when encountered alone).

他の例として、これらの場合、利他的行動パラメータは、第1のレーン1004へのコース変更から利益を得られることを1つ又は複数の状況的特徴が示す標的車両1002、1010との遭遇の少なくとも所定のパーセンテージで、車両200内のナビゲーション変更が行われるように更新され得る。例えば、利他的行動パラメータは、車両200が遭遇の少なくとも10%でナビゲーション変更を実行すべきであると明示し得る。利他的行動パラメータに基づいて、車両200は、連続的に決定される遭遇の全体的パーセンテージにより、車両200が遭遇の少なくとも10%においてナビゲーション変更を行う限り、標的車両1002及び追加の標的車両1010の一方又は両方を受け入れ得る。   As another example, in these cases, the altruistic behavior parameter may be that the encounter with the target vehicle 1002, 1010 indicates that one or more situational features indicate that it can benefit from a course change to the first lane 1004. At least a predetermined percentage may be updated to make navigation changes within the vehicle 200. For example, the altruistic behavior parameter may specify that the vehicle 200 should perform navigation changes in at least 10% of encounters. Based on the altruistic behavior parameter, the vehicle 200 is subject to the target vehicle 1002 and the additional target vehicle 1010 as long as the vehicle 200 makes navigation changes in at least 10% of the encounter, with an overall percentage of encounters determined continuously. One or both may be accepted.

更に、利他的行動パラメータの検討について図10に示される例に関連して上で考察したが、利他的行動パラメータは、図9A〜9Eに関連して上で考察した例の何れにおいても考慮され得る。   Further, although the discussion of altruistic behavior parameters was discussed above in connection with the example shown in FIG. 10, the altruistic behavior parameters are considered in any of the examples discussed above in connection with FIGS. obtain.

図11は、開示される実施形態による、車両割込み検出及び応答のための例示的なプロセス1100を示すフローチャートである。幾つかの実施形態では、システム100の処理ユニット110は、モジュール402〜408及び802〜806の1つ又は複数のモジュールを実行し得る。他の実施形態では、1つ又は複数のモジュール402〜408及び802〜806に記憶された命令は、システム100からリモートで実行され得る(例えば、ネットワーク上で無線送受信機172を介してアクセス可能なサーバを介して)。また別の実施形態では、モジュール402〜408及び802〜806の1つ又は複数に関連付けられる命令は、処理ユニット110及びリモートサーバにより実行され得る。   FIG. 11 is a flowchart illustrating an example process 1100 for vehicle interrupt detection and response according to disclosed embodiments. In some embodiments, the processing unit 110 of the system 100 may execute one or more modules 402-408 and 802-806. In other embodiments, instructions stored in one or more of modules 402-408 and 802-806 may be executed remotely from system 100 (eg, accessible via a wireless transceiver 172 over a network). Through the server). In yet another embodiment, instructions associated with one or more of modules 402-408 and 802-806 may be executed by processing unit 110 and a remote server.

図のように、プロセス1100は、ステップ1102において画像を受信することを含む。例えば、車両200は、データインタフェースを介して、車両200に関連付けられる少なくとも1つの画像捕捉デバイス(例えば、画像捕捉デバイス122、124、126)から複数の画像を受信し得る。前述のように、他の実施形態では、車両200は、画像を分析する代替案として、又はそれに追加的に、その代わりにシステム100に含まれるレーダデバイス又はライダデバイスを介して取得された情報等のその他のセンサ情報を分析し得る。   As shown, process 1100 includes receiving an image at step 1102. For example, the vehicle 200 may receive a plurality of images from at least one image capture device (eg, image capture devices 122, 124, 126) associated with the vehicle 200 via the data interface. As described above, in other embodiments, the vehicle 200 may be an alternative to analyzing the image, or in addition thereto, information obtained via a radar device or lidar device included in the system 100 instead, etc. Other sensor information may be analyzed.

ステップ1104において、プロセス1100は、標的車両を識別することを含む。例えば、車両200は、複数の画像において、車両200が走行中の第2のレーンと異なる第1のレーンを走行中の標的車両の画像を識別し得る。標的車両の画像を識別することは、例えば、検出モジュール802に関連して上で説明したように、単眼又は立体画像分析及び/又はその他のセンサ情報を含み得る。他の実施形態では、前述のように、標的車両の画像を識別することは、画像の分析の代替案として、又はそれに加えて、システム100に含まれるレーダデバイス又はライダデバイスを介して取得された情報等、その他のセンサ情報を分析することを含み得る。   In step 1104, process 1100 includes identifying the target vehicle. For example, the vehicle 200 may identify images of a target vehicle that is traveling in a first lane that is different from the second lane in which the vehicle 200 is traveling in the plurality of images. Identifying the image of the target vehicle may include, for example, monocular or stereoscopic image analysis and / or other sensor information, as described above in connection with detection module 802. In other embodiments, as described above, identifying an image of the target vehicle was obtained via a radar or lidar device included in system 100 as an alternative to or in addition to image analysis. Analyzing other sensor information, such as information.

ステップ1106において、プロセス1100は、標的車両がレーンを変更するというインジケータを識別することを含む。例えば、車両200は、複数の画像の分析に基づいて、標的車両が第1のレーンから第2のレーンに変更するという少なくとも1つのインジケータを識別し得る。インジケータを識別することは、例えば、割込み検出モジュール802に関連して上で説明したように、単眼又は立体画像分析及び/又はその他のセンサ情報(例えば、レーダ又はライダデータ)を含み得る。   At step 1106, process 1100 includes identifying an indicator that the target vehicle is changing lanes. For example, the vehicle 200 may identify at least one indicator that the target vehicle changes from a first lane to a second lane based on analysis of the plurality of images. Identifying the indicator may include, for example, monocular or stereoscopic image analysis and / or other sensor information (eg, radar or lidar data), as described above in connection with the interrupt detection module 802.

ステップ1108において、プロセス1100は、所定の割込み感度変更要素が存在するか否かを判断することを含む。例えば、車両200は、車両200の環境中に少なくとも1つの所定の割込み感度変更要素が存在するか否かを判断し得る。少なくとも1つの所定の割込み感度変更要素は、例えば、図9A〜Eに関連して上で説明したれ形態の何れも取り得る。所定の割込み感度変更要素は、例えば、レーン終了状態、標的車両の経路内の障害物、道路分割、又は地理的地域を含み得る。少なくとも1つの所定の割込み感度変更要素を検出することは、例えば、割込み検出モジュール802に関連して上で説明したように、単眼又は立体画像分析及び/又はその他のセンサ情報(例えば、レーダ又はライダデータ)を含み得る。   In step 1108, the process 1100 includes determining whether a predetermined interrupt sensitivity change factor is present. For example, the vehicle 200 may determine whether there is at least one predetermined interrupt sensitivity changing element in the environment of the vehicle 200. The at least one predetermined interrupt sensitivity changing element may take any of the forms described above in connection with, for example, FIGS. The predetermined interrupt sensitivity changing element may include, for example, a lane end condition, an obstacle in the route of the target vehicle, a road split, or a geographical area. Detecting at least one predetermined interrupt sensitivity changing element may be, for example, monocular or stereoscopic image analysis and / or other sensor information (eg, radar or lidar, as described above in connection with interrupt detection module 802). Data).

所定の割込み感度変更要素が検出されない場合、プロセス1100はステップ1110に進み、インジケータと第1の割込み感度パラメータに基づいて第1のナビゲーション応答を生じさせ得る。例えば、車両200は、割込み感度変更要素が検出されない場合、少なくとも1つのインジケータの識別に基づいて、また第1の割込み感度パラメータに基づいて、車両内で第1のナビゲーション応答を生じさせ得る。第1の割込み感度パラメータは、割込み応答モジュール804に関連して上で説明した形態の何れも取り得る。更に、前述のように、幾つかの実施形態では、ステップ1110はその代わりに、インジケータと、第1の所定の割込み感度パラメータに関連付けられる値に基づいて第1のナビゲーション応答を生じさせることを含み得、第1のナビゲーション応答は、図4に関するナビゲーション応答について説明した形態の何れも取り得る。   If the predetermined interrupt sensitivity change factor is not detected, the process 1100 may proceed to step 1110 and generate a first navigation response based on the indicator and the first interrupt sensitivity parameter. For example, the vehicle 200 may cause a first navigation response in the vehicle based on the identification of at least one indicator and based on the first interrupt sensitivity parameter if no interrupt sensitivity changing element is detected. The first interrupt sensitivity parameter may take any of the forms described above in connection with the interrupt response module 804. Further, as described above, in some embodiments, step 1110 instead includes generating a first navigation response based on the indicator and a value associated with the first predetermined interrupt sensitivity parameter. Thus, the first navigation response may take any of the forms described for the navigation response with respect to FIG.

他方、少なくとも1つの所定の割込み感度変更要素が検出されると、プロセス1100はステップ1112に進み、インジケータと第2の割込み感度パラメータに基づいて第2のナビゲーション応答を生じさせ得る。例えば、車両200は、割込み感度変更要素が検出される場合、少なくとも1つのインジケータの識別に基づいて、また第2の割込み感度パラメータに基づいて、車両内で第2のナビゲーション応答を生じさせ得る。第2の割込み感度パラメータは、割込み応答モジュール804に関連して上で説明した形態の何れも取り得る。第2の割込み感度パラメータは、第1の割込み感度パラメータと異なり得る(例えば、より高感度である)。更に、前述のように、幾つかの実施形態では、ステップ1112はその代わりに、インジケータと、第2の所定の割込み感度パラメータに関連付けられる値に基づいて第2のナビゲーション応答を生じさせることを含み得る。第2のナビゲーション応答は、図4に関するナビゲーション応答について説明した形態の何れも取り得る。   On the other hand, if at least one predetermined interrupt sensitivity change factor is detected, the process 1100 may proceed to step 1112 to generate a second navigation response based on the indicator and the second interrupt sensitivity parameter. For example, the vehicle 200 may cause a second navigation response in the vehicle based on the identification of at least one indicator and based on the second interrupt sensitivity parameter when an interrupt sensitivity change factor is detected. The second interrupt sensitivity parameter may take any of the forms described above in connection with the interrupt response module 804. The second interrupt sensitivity parameter can be different (eg, more sensitive) than the first interrupt sensitivity parameter. Further, as described above, in some embodiments, step 1112 instead includes generating a second navigation response based on the indicator and a value associated with the second predetermined interrupt sensitivity parameter. obtain. The second navigation response can take any of the forms described for the navigation response with respect to FIG.

図12は、開示される実施形態による、利他的行動を考慮に入れながらナビゲートする例示的なプロセス1200を示すフローチャートである。幾つかの実施形態では、システム100の処理ユニット110は、モジュール402〜408及び802〜806の1つ又は複数のモジュールを実行し得る。他の実施形態では、1つ又は複数のモジュール402〜408及び802〜806に記憶された命令は、システム100からリモートで実行され得る(例えば、ネットワーク上で無線送受信機172を介してアクセス可能なサーバを介して)。また別の実施形態では、モジュール402〜408及び802〜806の1つ又は複数に関連付けられる命令は、処理ユニット110及びリモートサーバにより実行され得る。   FIG. 12 is a flowchart illustrating an example process 1200 for navigating while taking into account altruistic behavior, according to disclosed embodiments. In some embodiments, the processing unit 110 of the system 100 may execute one or more modules 402-408 and 802-806. In other embodiments, instructions stored in one or more of modules 402-408 and 802-806 may be executed remotely from system 100 (eg, accessible via a wireless transceiver 172 over a network). Through the server). In yet another embodiment, instructions associated with one or more of modules 402-408 and 802-806 may be executed by processing unit 110 and a remote server.

図のように、プロセス1200は、ステップ1202において画像を受信することを含む。例えば、車両200は、データインタフェースを介して、車両200に関連付けられる少なくとも1つの画像捕捉デバイス(例えば、画像捕捉デバイス122、124、126)から複数の画像を受信し得る。前述のように、他の実施形態では、車両200は、画像を分析する代替案として、又はそれに追加的に、その代わりにシステム100に含まれるレーダデバイス又はライダデバイスを介して取得された情報等のその他のセンサ情報を分析し得る。   As shown, process 1200 includes receiving an image at step 1202. For example, the vehicle 200 may receive a plurality of images from at least one image capture device (eg, image capture devices 122, 124, 126) associated with the vehicle 200 via the data interface. As described above, in other embodiments, the vehicle 200 may be an alternative to analyzing the image, or in addition thereto, information obtained via a radar device or lidar device included in the system 100 instead, etc. Other sensor information may be analyzed.

プロセス1200は、ステップ1204において、標的車両を識別することを含む。例えば、車両200は、複数の画像において、車両200の環境中の少なくとも1つの標的車両を識別し得る。標的車両を識別することは、例えば、利他的行動モジュール806に関連して上で説明したように、単眼又は立体画像分析及び/又はその他のセンサ情報を含み得る。   Process 1200 includes identifying a target vehicle at step 1204. For example, the vehicle 200 may identify at least one target vehicle in the environment of the vehicle 200 in the plurality of images. Identifying the target vehicle may include, for example, monocular or stereoscopic image analysis and / or other sensor information, as described above in connection with the altruistic behavior module 806.

ステップ1206において、プロセス1200は、標的車両に関連付けられる1つ又は複数の状況的特徴を特定することを含む。例えば、車両200は、複数の画像の分析に基づいて、標的車両に関連付けられる1つ又は複数の状況的特徴を特定し得る。状況的特徴は、利他的行動モジュール806及び/又は図9A〜E及び10に関連して上で説明した形態の何れも取り得る。例えば、状況的特徴は、標的車両が、車両200の経路へのコース変更から利益を受けることを示し得る。他の例として、状況的特徴は、標的車両が、車両200が走行しているレーンに隣接するレーンを走行中であること、及び標的車両が、標的車両より低速且つ車両200より低速で走行中の車両の後方にあることを示し得る。状況的特徴を特定することは、例えば、利他的行動モジュール806に関して上で説明したように、単眼又は立体像分析及び/又はその他のセンサ情報(例えば、レーダ又はライダデータ)を含み得る。   In step 1206, process 1200 includes identifying one or more contextual features associated with the target vehicle. For example, the vehicle 200 may identify one or more contextual features associated with the target vehicle based on the analysis of multiple images. The contextual feature can take any of the forms described above in connection with the altruistic behavior module 806 and / or FIGS. For example, the contextual feature may indicate that the target vehicle benefits from a course change to the route of the vehicle 200. As another example, the contextual feature is that the target vehicle is traveling in a lane adjacent to the lane in which the vehicle 200 is traveling, and the target vehicle is traveling at a lower speed than the target vehicle and at a lower speed than the vehicle 200. It may indicate that the vehicle is behind the vehicle. Identifying the contextual features may include, for example, monocular or stereoscopic image analysis and / or other sensor information (eg, radar or lidar data), as described above with respect to the altruistic behavior module 806.

ステップ1208で、プロセス1200は、利他的行動パラメータの現在の値を特定することを含む。例えば、車両200は、利他的行動パラメータに関連付けられる現在の値を特定し得る。利他的行動パラメータは、利他的行動モジュール806及び/又は図10に関連して上で説明した形態の何れも取り得、利他的行動パラメータを特定することは、利他的行動モジュール806及び/又は図10に関連して上で説明した方法の何れでも行われ得る。利他的行動パラメータの値は、車両200のオペレータからの入力に基づいて、車両200のオペレータに関するカレンダ登録情報を解析することによって特定された少なくとも1つの情報要素に基づいて、乱数生成機能の出力に基づいて、及び/又は1つ又は複数の状況的特徴が車両200の経路へのコース変更から利益を受けることを示す、そのような標的車両との所定の遭遇回数に基づいて設定され得る。代替的又は追加的に、利他的行動パラメータの値は、車両200がいる経路へのコース変更から利益を受けることを1つ又は複数の状況的特徴が示す標的車両との遭遇の少なくとも所定のパーセンテージ(例えば、10%、20%、30%等)で、車両200内のナビゲーション変更が生じるように更新され得る。   At step 1208, process 1200 includes identifying a current value for the altruistic behavior parameter. For example, the vehicle 200 may specify a current value associated with the altruistic behavior parameter. The altruistic behavior parameter may take any of the forms described above in connection with the altruistic behavior module 806 and / or FIG. 10, and identifying the altruistic behavior parameter may include Any of the methods described above in connection with can be performed. The value of the altruistic behavior parameter is output to the random number generation function based on at least one information element specified by analyzing the calendar registration information related to the operator of the vehicle 200 based on the input from the operator of the vehicle 200. Based on and / or based on a predetermined number of encounters with such a target vehicle that indicate that one or more contextual features will benefit from a course change to the route of the vehicle 200. Alternatively or additionally, the value of the altruistic behavior parameter may be at least a predetermined percentage of encounters with the target vehicle that the one or more contextual characteristics indicate that it will benefit from a course change to the route the vehicle 200 is on. (E.g., 10%, 20%, 30%, etc.) may be updated to cause navigation changes within the vehicle 200.

ステップ1210において、プロセス1200は、1つ又は複数の状況的特徴と利他的行動パラメータの現在の値に基づいてナビゲーション変更を生じさせることを含む。例えば、車両200は、標的車両に関連付けられる1つ又は複数の状況的特徴に基づいて、車両200のナビゲーション状態の変更が必要でなくてよいと判断し得るが、それでも、利他的行動パラメータに関連付けられる現在の値に基づいて、また標的車両に関連付けられる1つ又は複数の状況的特徴に基づいて、車両200における少なくとも1つのナビゲーション変更を生じさせ得る。ナビゲーション変更を生じさせることは、利他的行動モジュール806及び/又は図10に関連して上で説明した方法の何れでも行われ得る。   In step 1210, the process 1200 includes causing navigation changes based on the current value of the one or more contextual features and the altruistic behavior parameter. For example, the vehicle 200 may determine that a change in the navigational state of the vehicle 200 may not be necessary based on one or more situational features associated with the target vehicle, but still relates to the altruistic behavior parameter. At least one navigational change in the vehicle 200 may occur based on the current value being obtained and based on one or more situational features associated with the target vehicle. Producing navigation changes can be done in any of the methods described above in connection with the altruistic behavior module 806 and / or FIG.

上述のように、本開示において説明される何れのプロセス又はプロセスステップにおいても、1つ又は複数の前面及び/又は背面カメラから捕捉された画像の画像分析を実行することに加えて、システム100(車両200に含まれる)は、レーダデバイス及び/又はライダデバイスを介して取得される情報等、他のセンサ情報も分析し得る。   As described above, in addition to performing image analysis of images captured from one or more front and / or rear cameras in any process or process step described in this disclosure, system 100 ( The vehicle 200) may also analyze other sensor information, such as information obtained via a radar device and / or a lidar device.

上記説明は、例示を目的として提示されている。上記説明は網羅的ではなく、開示される厳密な形態又は実施形態に限定されない。変更形態及び適合形態は、本明細書を考慮し、開示される実施形態を実施することから当業者に明らかになるであろう。更に、開示される実施形態の態様は、メモリに記憶されるものとして記載されるが、これらの態様が、補助記憶装置等の他のタイプのコンピュータ可読媒体、例えば、ハードディスク若しくはCD ROM又は他の形態のRAM若しくはROM、USBメディア、DVD、Blu-ray(登録商標)、4K超HD Blu-ray、又は他の光学駆動媒体に記憶することも可能なことを当業者は理解するであろう。   The above description is presented for purposes of illustration. The above description is not exhaustive and is not limited to the precise forms or embodiments disclosed. Modifications and adaptations will become apparent to those skilled in the art from consideration of the specification and practice of the disclosed embodiments. Furthermore, although aspects of the disclosed embodiments are described as being stored in a memory, these aspects are not limited to other types of computer readable media, such as auxiliary storage, such as a hard disk or a CD ROM or other Those skilled in the art will appreciate that it can also be stored in the form of RAM or ROM, USB media, DVD, Blu-ray®, 4K Super HD Blu-ray, or other optical drive media.

記載の説明及び開示される方法に基づくコンピュータプログラムは、経験のある開発者の技能内にある。様々なプログラム又はプログラムモジュールは、当業者に既知の任意の技法を使用して作成することができるか、又は既存のソフトウェアに関連して設計することができる。例えば、プログラムセクション又はプログラムモジュールは、.Net Framework、.Net Compact Framework(及びVisual Basic、C等の関連する言語)、Java(登録商標)、C++、Objective-C、HTML、HTML/AJAX組み合わせ、XML、又はJavaアプレットを包含したHTMLにおいて又はそれにより設計することができる。   Computer programs based on the description and the disclosed method are within the skills of experienced developers. The various programs or program modules can be created using any technique known to those skilled in the art or can be designed in relation to existing software. For example, a program section or a program module may include .Net Framework, .Net Compact Framework (and related languages such as Visual Basic, C), Java (registered trademark), C ++, Objective-C, HTML, HTML / AJAX combination, XML Or can be designed in or with HTML containing Java applets.

更に、例示的な実施形態を本明細書において説明したが、あらゆる実施形態の範囲は、本開示に基づいて当業者により理解されるような均等な要素、変更形態、省略形態、組合せ(例えば、様々な実施形態にわたる態様の)、適合形態、及び/又は代替形態を有する。特許請求の範囲での限定は、特許請求の範囲に利用される言語に基づいて広く解釈されるべきであり、本明細書に記載される例又は本願の実行中の例に限定されない。例は、非排他的として解釈されるべきである。更に、開示される方法のステップは、ステップの順序替え及び/又はステップの挿入又は削除を含め、任意の方法で変更し得る。したがって、本明細書及び例が単なる例示として見なされることが意図され、真の範囲及び趣旨は、以下の特許請求の範囲及びその全範囲の均等物により示される。

Furthermore, although exemplary embodiments have been described herein, the scope of any embodiment is intended to be equivalent elements, modifications, omissions, combinations (e.g., as understood by one of ordinary skill in the art based on this disclosure). Of adaptations and / or alternatives of aspects over various embodiments. Limitations in the claims should be construed broadly based on the language utilized in the claims, and are not limited to the examples described herein or the running examples of the present application. Examples should be interpreted as non-exclusive. Further, the steps of the disclosed method may be altered in any manner, including ordering of steps and / or insertion or deletion of steps. Accordingly, it is intended that the specification and examples be considered as exemplary only, with a true scope and spirit being indicated by the following claims and their full scope of equivalents.

Claims (40)

ホスト車両のための車両割込み検出及び応答システムであって、
データインタフェースと、
少なくとも1つの処理デバイスであって、
前記データインタフェースを介して、前記ホスト車両に関連付けられる少なくとも1つの画像捕捉デバイスから複数の画像を受信することと、
前記複数の画像において、前記ホスト車両が走行している第2のレーンと異なる第1のレーンを走行している標的車両の画像を識別することと、
前記複数の画像の分析に基づいて、前記標的車両が前記第1のレーンから前記第2のレーンに変更するであろうという少なくとも1つのインジケータを識別することと、
少なくとも1つの所定の割込み感度変更要素が前記ホスト車両の環境中に存在するか否かを検出することと、
所定の割込み感度変更要素が検出されない場合、前記少なくとも1つのインジケータの前記識別に基づいて、及び第1の割込み感度パラメータに関連付けられる値に基づいて、前記ホスト車両における第1のナビゲーション応答を生じさせることと、
前記少なくとも1つの所定の割込み感度変更要素が検出される場合、前記少なくとも1つのインジケータの前記識別に基づいて、及び第2の割込み感度パラメータに関連付けられる値に基づいて、前記ホスト車両における第2のナビゲーション応答を生じさせることと、を行うようにプログラムされる少なくとも1つの処理デバイスと、
を含み、
前記第2の割込み感度パラメータは、前記第1の割込み感度パラメータと異なる、システム。
A vehicle interrupt detection and response system for a host vehicle, comprising:
A data interface;
At least one processing device,
Receiving a plurality of images from at least one image capture device associated with the host vehicle via the data interface;
Identifying an image of a target vehicle traveling in a first lane different from a second lane in which the host vehicle is traveling in the plurality of images;
Identifying at least one indicator that the target vehicle will change from the first lane to the second lane based on the analysis of the plurality of images;
Detecting whether at least one predetermined interrupt sensitivity changing element is present in the environment of the host vehicle;
If a predetermined interrupt sensitivity change factor is not detected, a first navigation response in the host vehicle is generated based on the identification of the at least one indicator and based on a value associated with a first interrupt sensitivity parameter. And
If the at least one predetermined interrupt sensitivity change factor is detected, a second in the host vehicle based on the identification of the at least one indicator and based on a value associated with a second interrupt sensitivity parameter. Generating at least one navigation response; and at least one processing device programmed to perform
Including
The system, wherein the second interrupt sensitivity parameter is different from the first interrupt sensitivity parameter.
前記所定の割込み感度変更要素は、レーン終了状態を含み、前記第2の割込み感度パラメータに関連付けられる前記値は、前記第1の割込み感度パラメータに関連付けられる前記値より低い、請求項1に記載のシステム。   The predetermined interrupt sensitivity modification element includes a lane end condition, and the value associated with the second interrupt sensitivity parameter is lower than the value associated with the first interrupt sensitivity parameter. system. 前記レーン終了状態は、前記複数の画像の分析に基づいて特定される、請求項2に記載のシステム。   The system according to claim 2, wherein the lane end state is specified based on an analysis of the plurality of images. 前記レーン終了状態は、利用可能な地図データと、前記ホスト車両に関連付けられる位置特定システムの出力とに基づいて特定される、請求項2に記載のシステム。   The system of claim 2, wherein the lane end state is identified based on available map data and an output of a location system associated with the host vehicle. 前記所定の割込み感度変更要素は、前記標的車両の経路内の障害物を含み、前記第2の割込み感度パラメータに関連付けられる前記値は、前記第1の割込み感度パラメータに関連付けられる前記値より低い、請求項1に記載のシステム。   The predetermined interrupt sensitivity changing element includes an obstacle in the path of the target vehicle, and the value associated with the second interrupt sensitivity parameter is lower than the value associated with the first interrupt sensitivity parameter; The system of claim 1. 前記障害物は、前記複数の画像に基づいて、前記標的車両より低速で移動していることが特定される車両を含む、請求項5に記載のシステム。   The system according to claim 5, wherein the obstacle includes a vehicle identified as moving at a lower speed than the target vehicle based on the plurality of images. 前記所定の割込み感度変更要素は、前記標的車両の前方のレーンシフトを含み、前記第2の割込み感度パラメータに関連付けられる前記値は、前記第1の割込み感度パラメータに関連付けられる前記値より低い、請求項1に記載のシステム。   The predetermined interrupt sensitivity changing element includes a forward lane shift of the target vehicle, and the value associated with the second interrupt sensitivity parameter is lower than the value associated with the first interrupt sensitivity parameter. Item 4. The system according to Item 1. 前記レーンシフトは、前記複数の画像の分析に基づいて検出される、請求項7に記載のシステム。   The system of claim 7, wherein the lane shift is detected based on an analysis of the plurality of images. 前記レーンシフトは、利用可能な地図データと、前記ホスト車両に関連付けられる位置特定システムの出力とに基づいて検出される、請求項7に記載のシステム。   8. The system of claim 7, wherein the lane shift is detected based on available map data and a location system output associated with the host vehicle. 前記所定の割込み感度変更要素は、前記標的車両が位置する特定の地理的地域を含み、前記第2の割込み感度パラメータに関連付けられる前記値は、前記第1の割込み感度パラメータに関連付けられる前記値より低い、請求項1に記載のシステム。   The predetermined interrupt sensitivity changing element includes a specific geographical area where the target vehicle is located, and the value associated with the second interrupt sensitivity parameter is greater than the value associated with the first interrupt sensitivity parameter. The system of claim 1, wherein the system is low. 前記特定の地理的地域は、前記複数の画像の分析に基づいて識別される、請求項10に記載のシステム。   The system of claim 10, wherein the specific geographic region is identified based on an analysis of the plurality of images. 前記特定の地理的地域は、前記ホスト車両に関連付けられる位置特定システムの出力に基づいて識別される、請求項10に記載のシステム。   The system of claim 10, wherein the specific geographic region is identified based on a location system output associated with the host vehicle. 前記特定の地理的地域は、国を含む、請求項10に記載のシステム。   The system of claim 10, wherein the specific geographic region includes a country. 前記第2のナビゲーション応答は、前記車両の減速、前記車両の加速、又はレーン変更の少なくとも1つを含む、請求項1に記載のシステム。   The system of claim 1, wherein the second navigation response includes at least one of deceleration of the vehicle, acceleration of the vehicle, or lane change. 少なくとも1つの所定の割込み感度変更要素が前記ホスト車両の環境中に存在するか否かを検出することは、前記複数の画像の分析に基づく、請求項1に記載のシステム。   The system of claim 1, wherein detecting whether at least one predetermined interrupt sensitivity changing element is present in an environment of the host vehicle is based on an analysis of the plurality of images. ホスト車両であって、
車体と、
少なくとも1つの画像捕捉デバイスと、
少なくとも1つの処理デバイスであって、
前記少なくとも1つの画像捕捉デバイスから複数の画像を受信することと、
前記複数の画像において、前記ホスト車両が走行している第2のレーンと異なる第1のレーンを走行している標的車両の画像を識別することと、
前記複数の画像の分析に基づいて、前記標的車両が前記第1のレーンから前記第2のレーンに変更するであろうという少なくとも1つのインジケータを識別することと、
少なくとも1つの所定の割込み感度変更要素が前記ホスト車両の環境中に存在するか否かを検出することと、
所定の割込み感度変更要素が検出されない場合、前記少なくとも1つのインジケータの前記識別に基づいて、及び第1の割込み感度パラメータに関連付けられる値に基づいて、前記ホスト車両における第1のナビゲーション応答を生じさせることと、
前記少なくとも1つの所定の割込み感度変更要素が検出される場合、前記少なくとも1つのインジケータの前記識別に基づいて、及び第2の割込み感度パラメータに関連付けられる値に基づいて、前記ホスト車両における第2のナビゲーション応答を生じさせることと、を行うようにプログラムされる少なくとも1つの処理デバイスと、
を含み、
前記第2の割込み感度パラメータは、前記第1の割込み感度パラメータと異なる、ホスト車両。
A host vehicle,
The car body,
At least one image capture device;
At least one processing device,
Receiving a plurality of images from the at least one image capture device;
Identifying an image of a target vehicle traveling in a first lane different from a second lane in which the host vehicle is traveling in the plurality of images;
Identifying at least one indicator that the target vehicle will change from the first lane to the second lane based on the analysis of the plurality of images;
Detecting whether at least one predetermined interrupt sensitivity changing element is present in the environment of the host vehicle;
If a predetermined interrupt sensitivity change factor is not detected, a first navigation response in the host vehicle is generated based on the identification of the at least one indicator and based on a value associated with a first interrupt sensitivity parameter. And
If the at least one predetermined interrupt sensitivity change factor is detected, a second in the host vehicle based on the identification of the at least one indicator and based on a value associated with a second interrupt sensitivity parameter. Generating at least one navigation response; and at least one processing device programmed to perform
Including
The host vehicle, wherein the second interrupt sensitivity parameter is different from the first interrupt sensitivity parameter.
前記所定の割込み感度変更要素は、レーン終了状態を含み、前記第2の割込み感度パラメータに関連付けられる前記値は、前記第1の割込み感度パラメータに関連付けられる前記値より低い、請求項16に記載のホスト車両。   The predetermined interrupt sensitivity modification element includes a lane end condition, and the value associated with the second interrupt sensitivity parameter is lower than the value associated with the first interrupt sensitivity parameter. Host vehicle. 前記所定の割込み感度変更要素は、前記標的車両の経路内の障害物を含み、前記第2の割込み感度パラメータに関連付けられる前記値は、前記第1の割込み感度パラメータに関連付けられる前記値より低い、請求項16に記載のホスト車両。   The predetermined interrupt sensitivity changing element includes an obstacle in the path of the target vehicle, and the value associated with the second interrupt sensitivity parameter is lower than the value associated with the first interrupt sensitivity parameter; The host vehicle according to claim 16. 前記所定の割込み感度変更要素は、前記標的車両の前方のレーンシフトを含み、前記第2の割込み感度パラメータに関連付けられる前記値は、前記第1の割込み感度パラメータに関連付けられる前記値より低い、請求項15に記載のホスト車両。   The predetermined interrupt sensitivity changing element includes a forward lane shift of the target vehicle, and the value associated with the second interrupt sensitivity parameter is lower than the value associated with the first interrupt sensitivity parameter. Item 15. The host vehicle according to Item 15. 標的車両による割込みを検出し、且つそれに応答する方法であって、
ホスト車両に関連付けられる少なくとも1つの画像捕捉デバイスから複数の画像を受信することと、
前記複数の画像において、前記ホスト車両が走行している第2のレーンと異なる第1のレーンを走行している前記標的車両の画像を識別することと、
前記複数の画像の分析に基づいて、前記標的車両が前記第1のレーンから前記第2のレーンに変更するであろうという少なくとも1つのインジケータを識別することと、
少なくとも1つの所定の割込み感度変更要素が前記ホスト車両の環境中に存在するか否かを検出することと、
所定の割込み感度変更要素が検出されない場合、前記少なくとも1つのインジケータの前記識別に基づいて、及び第1の割込み感度パラメータに関連付けられる値に基づいて、前記ホスト車両における第1のナビゲーション応答を生じさせることと、
前記少なくとも1つの所定の割込み感度変更要素が検出される場合、前記少なくとも1つのインジケータの前記識別に基づいて、及び第2の割込み感度パラメータに関連付けられる値に基づいて、前記ホスト車両における第2のナビゲーション応答を生じさせることと、を含み、
前記第2の割込み感度パラメータは、前記第1の割込み感度パラメータと異なる、方法。
A method of detecting and responding to an interrupt by a target vehicle,
Receiving a plurality of images from at least one image capture device associated with the host vehicle;
Identifying an image of the target vehicle traveling in a first lane different from a second lane in which the host vehicle is traveling in the plurality of images;
Identifying at least one indicator that the target vehicle will change from the first lane to the second lane based on the analysis of the plurality of images;
Detecting whether at least one predetermined interrupt sensitivity changing element is present in the environment of the host vehicle;
If a predetermined interrupt sensitivity change factor is not detected, a first navigation response in the host vehicle is generated based on the identification of the at least one indicator and based on a value associated with a first interrupt sensitivity parameter. And
If the at least one predetermined interrupt sensitivity change factor is detected, a second in the host vehicle based on the identification of the at least one indicator and based on a value associated with a second interrupt sensitivity parameter. Generating a navigation response,
The method, wherein the second interrupt sensitivity parameter is different from the first interrupt sensitivity parameter.
ホスト車両のためのナビゲーションシステムであって、
データインタフェースと、
少なくとも1つの処理デバイスであって、
前記データインタフェースを介して、前記ホスト車両に関連付けられる少なくとも1つの画像捕捉デバイスから複数の画像を受信することと、
前記複数の画像の分析に基づいて、前記ホスト車両の環境中の少なくとも1つの標的車両を識別することと、
前記複数の画像の分析に基づいて、前記標的車両に関連付けられる1つ又は複数の状況的特徴を特定することと、
利他的行動パラメータに関連付けられる現在の値を特定することと、
前記標的車両に関連付けられる前記1つ又は複数の状況的特徴に基づいて、前記ホスト車両のナビゲーション状態の変更が必要ではないことを特定するが、前記利他的行動パラメータに関連付けられる前記現在の値に基づいて、及び前記標的車両に関連付けられる前記1つ又は複数の状況的特徴に基づいて、前記ホスト車両における少なくとも1つのナビゲーション変更を生じさせることと
を行うようにプログラムされる少なくとも1つの処理デバイスと
を含むシステム。
A navigation system for a host vehicle,
A data interface;
At least one processing device,
Receiving a plurality of images from at least one image capture device associated with the host vehicle via the data interface;
Identifying at least one target vehicle in the environment of the host vehicle based on the analysis of the plurality of images;
Identifying one or more contextual features associated with the target vehicle based on the analysis of the plurality of images;
Identifying current values associated with altruistic behavior parameters;
Based on the one or more contextual characteristics associated with the target vehicle, identifying that no change in the navigation state of the host vehicle is necessary, but with the current value associated with the altruistic behavior parameter And at least one processing device programmed to cause at least one navigation change in the host vehicle based on the one or more situational features associated with the target vehicle Including system.
前記1つ又は複数の状況的特徴は、前記標的車両が前記ホスト車両の経路へのコース変更から利益を得るであろうことを示す、請求項21に記載のシステム。   The system of claim 21, wherein the one or more contextual features indicate that the target vehicle will benefit from a course change to the route of the host vehicle. 前記1つ又は複数の状況的特徴は、前記標的車両が、前記ホスト車両が走行しているレーンに隣接するレーンを走行していることを示し、前記標的車両が、前記標的車両より低速であって且つ前記ホスト車両より低速で移動している車両の後方にある、請求項21に記載のシステム。   The one or more situational features indicate that the target vehicle is traveling in a lane adjacent to a lane in which the host vehicle is traveling, and the target vehicle is slower than the target vehicle. 23. The system of claim 21, wherein the system is behind a vehicle that is moving at a lower speed than the host vehicle. 前記利他的行動パラメータの前記値は、前記ホスト車両のオペレータからの入力に基づいて設定される、請求項21に記載のシステム。   The system of claim 21, wherein the value of the altruistic behavior parameter is set based on input from an operator of the host vehicle. 前記利他的行動パラメータの前記値は、前記ホスト車両のオペレータのためのカレンダ登録情報を解析することによって特定される少なくとも1つの情報要素に基づいて設定される、請求項21に記載のシステム。   The system of claim 21, wherein the value of the altruistic behavior parameter is set based on at least one information element identified by analyzing calendar registration information for an operator of the host vehicle. 前記利他的行動パラメータの前記値は、乱数生成機能の出力に基づいて設定される、請求項21に記載のシステム。   The system of claim 21, wherein the value of the altruistic behavior parameter is set based on an output of a random number generation function. 前記利他的行動パラメータの前記値は、前記1つ又は複数の状況的特徴が前記ホスト車両の経路へのコース変更から利益を得るであろうことを示す標的車両との所定の遭遇回数に基づいて設定される、請求項21に記載のシステム。   The value of the altruistic behavior parameter is based on a predetermined number of encounters with a target vehicle indicating that the one or more situational features will benefit from course changes to the route of the host vehicle. The system of claim 21, wherein the system is configured. 前記利他的行動パラメータの前記値は、前記ホスト車両がいる経路へのコース変更から利益を得るであろうことを前記1つ又は複数の状況的特徴が示す標的車両との遭遇の少なくとも所定のパーセンテージにおいて、前記ホスト車両におけるナビゲーション変更が生じさせられるように更新される、請求項21に記載のシステム。   The value of the altruistic behavior parameter is at least a predetermined percentage of encounters with the target vehicle that the one or more situational characteristics indicate will benefit from a course change to the route the host vehicle is on. 23. The system of claim 21, wherein the system is updated to cause navigation changes in the host vehicle. 前記所定のパーセンテージは、少なくとも10%である、請求項28に記載のシステム。   30. The system of claim 28, wherein the predetermined percentage is at least 10%. 前記所定のパーセンテージは、少なくとも20%である、請求項28に記載のシステム。   30. The system of claim 28, wherein the predetermined percentage is at least 20%. ホスト車両であって、
本体と、
少なくとも1つの画像捕捉デバイスと、
少なくとも1つの処理デバイスであって、
前記少なくとも1つの画像捕捉デバイスから複数の画像を受信することと、
前記複数の画像の分析に基づいて、前記ホスト車両の環境中の少なくとも1つの標的車両を識別することと、
前記複数の画像の分析に基づいて、前記標的車両に関連付けられる1つ又は複数の状況的特徴を特定することと、
利他的行動パラメータに関連付けられる現在の値を特定することと、
前記標的車両に関連付けられる前記1つ又は複数の状況的特徴に基づいて、前記ホスト車両のナビゲーション状態の変更が必要ではないことを特定するが、前記利他的行動パラメータに関連付けられる前記現在の値に基づいて、及び前記標的車両に関連付けられる前記1つ又は複数の状況的特徴に基づいて、前記ホスト車両における少なくとも1つのナビゲーション変更を生じさせることと
を行うようにプログラムされる少なくとも1つの処理デバイスと
を含むホスト車両。
A host vehicle,
The body,
At least one image capture device;
At least one processing device,
Receiving a plurality of images from the at least one image capture device;
Identifying at least one target vehicle in the environment of the host vehicle based on the analysis of the plurality of images;
Identifying one or more contextual features associated with the target vehicle based on the analysis of the plurality of images;
Identifying current values associated with altruistic behavior parameters;
Based on the one or more contextual characteristics associated with the target vehicle, identifying that no change in the navigation state of the host vehicle is necessary, but with the current value associated with the altruistic behavior parameter And at least one processing device programmed to cause at least one navigation change in the host vehicle based on the one or more situational features associated with the target vehicle Including host vehicle.
前記1つ又は複数の状況的特徴は、前記標的車両が前記ホスト車両の経路へのコース変更から利益を得るであろうことを示す、請求項31に記載のホスト車両。   32. The host vehicle of claim 31, wherein the one or more contextual features indicate that the target vehicle will benefit from a course change to the route of the host vehicle. 前記1つ又は複数の状況的特徴は、前記標的車両が、前記ホスト車両が走行しているレーンに隣接するレーンを走行していることを示し、前記標的車両は、前記標的車両より低速であって且つ前記ホスト車両より低速で移動している車両の後方にある、請求項31に記載のホスト車両。   The one or more situational features indicate that the target vehicle is traveling in a lane adjacent to a lane in which the host vehicle is traveling, and the target vehicle is slower than the target vehicle. 32. The host vehicle of claim 31, wherein the host vehicle is behind a vehicle moving at a lower speed than the host vehicle. 前記利他的行動パラメータの前記値は、前記ホスト車両のオペレータからの入力に基づいて設定される、請求項31に記載のホスト車両。   32. The host vehicle according to claim 31, wherein the value of the altruistic behavior parameter is set based on an input from an operator of the host vehicle. 前記利他的行動パラメータの前記値は、前記ホスト車両のオペレータのためのカレンダ登録情報を解析することによって特定される少なくとも1つの情報要素に基づいて設定される、請求項31に記載のホスト車両。   32. The host vehicle of claim 31, wherein the value of the altruistic behavior parameter is set based on at least one information element identified by analyzing calendar registration information for an operator of the host vehicle. 前記利他的行動パラメータの前記値は、乱数生成機能の出力に基づいて設定される、請求項31に記載のホスト車両。   The host vehicle according to claim 31, wherein the value of the altruistic behavior parameter is set based on an output of a random number generation function. 前記利他的行動パラメータの前記値は、前記1つ又は複数の状況的特徴が前記ホスト車両の経路へのコース変更から利益を得るであろうことを示す標的車両との所定の遭遇回数に基づいて設定される、請求項31に記載のホスト車両。   The value of the altruistic behavior parameter is based on a predetermined number of encounters with a target vehicle indicating that the one or more situational features will benefit from course changes to the route of the host vehicle. 32. The host vehicle according to claim 31, wherein the host vehicle is set. 前記利他的行動パラメータの前記値は、前記ホスト車両がいる経路へのコース変更から利益を得るであろうことを前記1つ又は複数の状況的特徴が示す標的車両との遭遇の少なくとも所定のパーセンテージにおいて、前記ホスト車両におけるナビゲーション変更が生じさせられるように更新される、請求項31に記載のホスト車両。   The value of the altruistic behavior parameter is at least a predetermined percentage of encounters with the target vehicle that the one or more situational characteristics indicate will benefit from a course change to the route the host vehicle is on. 32. The host vehicle of claim 31, wherein the host vehicle is updated to cause navigation changes in the host vehicle. 前記所定のパーセンテージは、少なくとも10%である、請求項38に記載のホスト車両。   40. The host vehicle of claim 38, wherein the predetermined percentage is at least 10%. ホスト車両をナビゲートする方法であって、
前記車両に関連付けられる少なくとも1つの画像捕捉デバイスから複数の画像を受信することと、
前記複数の画像の分析に基づいて、前記ホスト車両の環境中の少なくとも1つの標的車両を識別することと、
前記複数の画像の分析に基づいて、前記標的車両に関連付けられる1つ又は複数の状況的特徴を特定することと、
利他的行動パラメータに関連付けられる現在の値を特定することと、
前記標的車両に関連付けられる前記1つ又は複数の状況的特徴に基づいて、前記ホスト車両のナビゲーション状態の変更が必要ではないことを特定するが、前記利他的行動パラメータに関連付けられる前記現在の値に基づいて、及び前記標的車両に関連付けられる前記1つ又は複数の状況的特徴に基づいて、前記ホスト車両における少なくとも1つのナビゲーション変更を生じさせることと
を含む方法。
A method for navigating a host vehicle,
Receiving a plurality of images from at least one image capture device associated with the vehicle;
Identifying at least one target vehicle in the environment of the host vehicle based on the analysis of the plurality of images;
Identifying one or more contextual features associated with the target vehicle based on the analysis of the plurality of images;
Identifying current values associated with altruistic behavior parameters;
Based on the one or more contextual characteristics associated with the target vehicle, identifying that no change in the navigation state of the host vehicle is necessary, but with the current value associated with the altruistic behavior parameter And causing at least one navigational change in the host vehicle based on the one or more situational features associated with the target vehicle.
JP2018526138A 2015-11-26 2016-11-23 Automatic Anticipation and Altruistic Response to Vehicle Lane Interruption Active JP7188844B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022129417A JP2022172153A (en) 2015-11-26 2022-08-15 Vehicle navigation system, vehicle and program

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562260281P 2015-11-26 2015-11-26
US62/260,281 2015-11-26
US201662361343P 2016-07-12 2016-07-12
US62/361,343 2016-07-12
PCT/US2016/063525 WO2017091690A1 (en) 2015-11-26 2016-11-23 Automatic prediction and altruistic response to a vehicel cutting in a lane

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022129417A Division JP2022172153A (en) 2015-11-26 2022-08-15 Vehicle navigation system, vehicle and program

Publications (3)

Publication Number Publication Date
JP2019505034A true JP2019505034A (en) 2019-02-21
JP2019505034A5 JP2019505034A5 (en) 2020-01-16
JP7188844B2 JP7188844B2 (en) 2022-12-13

Family

ID=57680490

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018526138A Active JP7188844B2 (en) 2015-11-26 2016-11-23 Automatic Anticipation and Altruistic Response to Vehicle Lane Interruption
JP2022129417A Pending JP2022172153A (en) 2015-11-26 2022-08-15 Vehicle navigation system, vehicle and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022129417A Pending JP2022172153A (en) 2015-11-26 2022-08-15 Vehicle navigation system, vehicle and program

Country Status (5)

Country Link
US (4) US10452069B2 (en)
EP (2) EP3742338A1 (en)
JP (2) JP7188844B2 (en)
CN (3) CN117400938A (en)
WO (1) WO2017091690A1 (en)

Families Citing this family (71)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150332464A1 (en) * 2014-05-19 2015-11-19 Occipital, Inc. Methods for automatic registration of 3d image data
EP3742338A1 (en) * 2015-11-26 2020-11-25 Mobileye Vision Technologies Ltd. Automatic prediction and altruistic response to a vehicle cutting in a lane
US10126136B2 (en) 2016-06-14 2018-11-13 nuTonomy Inc. Route planning for an autonomous vehicle
US10309792B2 (en) 2016-06-14 2019-06-04 nuTonomy Inc. Route planning for an autonomous vehicle
US11092446B2 (en) 2016-06-14 2021-08-17 Motional Ad Llc Route planning for an autonomous vehicle
US10857994B2 (en) 2016-10-20 2020-12-08 Motional Ad Llc Identifying a stopping place for an autonomous vehicle
US10681513B2 (en) 2016-10-20 2020-06-09 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
US10331129B2 (en) 2016-10-20 2019-06-25 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
US10473470B2 (en) 2016-10-20 2019-11-12 nuTonomy Inc. Identifying a stopping place for an autonomous vehicle
US10198693B2 (en) * 2016-10-24 2019-02-05 International Business Machines Corporation Method of effective driving behavior extraction using deep learning
US10671076B1 (en) 2017-03-01 2020-06-02 Zoox, Inc. Trajectory prediction of third-party objects using temporal logic and tree search
US10353390B2 (en) 2017-03-01 2019-07-16 Zoox, Inc. Trajectory generation and execution architecture
JP6897170B2 (en) * 2017-03-07 2021-06-30 株式会社デンソー Travel control device
JP6610601B2 (en) * 2017-04-04 2019-11-27 トヨタ自動車株式会社 Vehicle identification device
CN108305477B (en) * 2017-04-20 2019-08-13 腾讯科技(深圳)有限公司 A kind of choosing lane method and terminal
EP4160147A1 (en) * 2017-06-14 2023-04-05 Mobileye Vision Technologies Ltd. Method and server for creating and distributing locally aligned navigation information for autonomous driving
US11981352B2 (en) 2017-07-05 2024-05-14 Perceptive Automata, Inc. System and method of predicting human interaction with vehicles
US11987272B2 (en) 2017-07-05 2024-05-21 Perceptive Automata, Inc. System and method of predicting human interaction with vehicles
US10402687B2 (en) 2017-07-05 2019-09-03 Perceptive Automata, Inc. System and method of predicting human interaction with vehicles
US10496098B2 (en) * 2017-09-12 2019-12-03 Baidu Usa Llc Road segment-based routing guidance system for autonomous driving vehicles
US10611371B2 (en) 2017-09-14 2020-04-07 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for vehicle lane change prediction using structural recurrent neural networks
US10569784B2 (en) 2017-09-28 2020-02-25 Waymo Llc Detecting and responding to propulsion and steering system errors for autonomous vehicles
US10657811B2 (en) * 2017-10-04 2020-05-19 Toyota Motor Engineering & Manufacturing North America, Inc. Travel lane identification without road curvature data
US10668922B2 (en) * 2017-10-04 2020-06-02 Toyota Motor Engineering & Manufacturing North America, Inc. Travel lane identification without road curvature data
GB2568060B (en) * 2017-11-02 2020-02-12 Jaguar Land Rover Ltd Controller for a vehicle
WO2019117774A1 (en) * 2017-12-14 2019-06-20 Saab Ab Flight vision system and method for presenting images from the surrounding of an airborne vehicle in a flight vision system
US11135881B2 (en) * 2018-01-08 2021-10-05 Hall Labs Llc Trailer and a tow vehicle path optimization
US10955851B2 (en) 2018-02-14 2021-03-23 Zoox, Inc. Detecting blocking objects
US11282389B2 (en) * 2018-02-20 2022-03-22 Nortek Security & Control Llc Pedestrian detection for vehicle driving assistance
KR102054926B1 (en) * 2018-02-27 2019-12-12 주식회사 만도 System and method for detecting close cut-in vehicle based on free space signal
JP7152165B2 (en) * 2018-03-02 2022-10-12 トヨタ自動車株式会社 vehicle controller
JP7085371B2 (en) * 2018-03-15 2022-06-16 本田技研工業株式会社 Vehicle control devices, vehicle control methods, and programs
JP2019156269A (en) * 2018-03-15 2019-09-19 本田技研工業株式会社 Vehicle controller, vehicle control method and program
JP7017443B2 (en) * 2018-03-15 2022-02-08 本田技研工業株式会社 Vehicle control devices, vehicle control methods, and programs
US10414395B1 (en) * 2018-04-06 2019-09-17 Zoox, Inc. Feature-based prediction
US11126873B2 (en) 2018-05-17 2021-09-21 Zoox, Inc. Vehicle lighting state determination
US11495028B2 (en) * 2018-09-28 2022-11-08 Intel Corporation Obstacle analyzer, vehicle control system, and methods thereof
US11120277B2 (en) * 2018-10-10 2021-09-14 Denso Corporation Apparatus and method for recognizing road shapes
US10816987B2 (en) * 2018-10-15 2020-10-27 Zoox, Inc. Responsive vehicle control
DE102018126825A1 (en) * 2018-10-26 2020-04-30 Bayerische Motoren Werke Aktiengesellschaft Control of a motor vehicle
US20200149896A1 (en) * 2018-11-09 2020-05-14 GM Global Technology Operations LLC System to derive an autonomous vehicle enabling drivable map
US11772663B2 (en) 2018-12-10 2023-10-03 Perceptive Automata, Inc. Neural network based modeling and simulation of non-stationary traffic objects for testing and development of autonomous vehicle systems
KR20210118912A (en) 2019-01-30 2021-10-01 퍼셉티브 오토마타, 인코퍼레이티드 Neural network-based autonomous vehicle navigation through traffic objects
US10901375B2 (en) * 2019-01-31 2021-01-26 Morgan Stanley Services Group Inc. Chaotic system anomaly response by artificial intelligence
US11467579B2 (en) 2019-02-06 2022-10-11 Perceptive Automata, Inc. Probabilistic neural network for predicting hidden context of traffic entities for autonomous vehicles
GB2622499A (en) * 2019-03-07 2024-03-20 Mobileye Vision Technologies Ltd Aligning road information for navigation
US11157784B2 (en) * 2019-05-08 2021-10-26 GM Global Technology Operations LLC Explainable learning system and methods for autonomous driving
US11679764B2 (en) * 2019-06-28 2023-06-20 Baidu Usa Llc Method for autonomously driving a vehicle based on moving trails of obstacles surrounding the vehicle
US11763163B2 (en) 2019-07-22 2023-09-19 Perceptive Automata, Inc. Filtering user responses for generating training data for machine learning based models for navigation of autonomous vehicles
CN110444037A (en) * 2019-08-09 2019-11-12 深圳市元征科技股份有限公司 Automobile navigation method and Related product
US11615266B2 (en) 2019-11-02 2023-03-28 Perceptive Automata, Inc. Adaptive sampling of stimuli for training of machine learning based models for predicting hidden context of traffic entities for navigating autonomous vehicles
US20210133500A1 (en) * 2019-11-02 2021-05-06 Perceptive Automata Inc. Generating Training Datasets for Training Machine Learning Based Models for Predicting Behavior of Traffic Entities for Navigating Autonomous Vehicles
CN110930697B (en) * 2019-11-12 2021-05-25 南京航空航天大学 Rule-based intelligent networked vehicle cooperative convergence control method
US10816993B1 (en) * 2019-11-23 2020-10-27 Ha Q Tran Smart vehicle
US11989952B2 (en) 2019-12-10 2024-05-21 Samsung Electronics Co., Ltd. Systems and methods for trajectory prediction
EP4081759A4 (en) 2019-12-27 2023-10-25 INTEL Corporation Device and method for route planning
US11055998B1 (en) * 2020-02-27 2021-07-06 Toyota Motor North America, Inc. Minimizing traffic signal delays with transports
CN111597959B (en) * 2020-05-12 2023-09-26 盛景智能科技(嘉兴)有限公司 Behavior detection method and device and electronic equipment
CN111619564B (en) * 2020-05-29 2022-06-07 重庆长安汽车股份有限公司 Vehicle self-adaptive cruise speed control method, device, processor, automobile and computer readable storage medium
CN111661061B (en) * 2020-06-18 2022-02-11 东软睿驰汽车技术(沈阳)有限公司 Vehicle driving intention identification method and device
US11823395B2 (en) * 2020-07-02 2023-11-21 Magna Electronics Inc. Vehicular vision system with road contour detection feature
CN112158201B (en) * 2020-10-12 2021-08-10 北京信息职业技术学院 Intelligent driving vehicle transverse control method and system
CN114596727A (en) * 2020-12-02 2022-06-07 奥迪股份公司 Assistance method, system for a vehicle, corresponding vehicle and storage medium
TWI793482B (en) * 2020-12-19 2023-02-21 荷蘭商荷蘭移動驅動器公司 Driving assisting method and vehicle thereof
CN114913711A (en) * 2021-02-10 2022-08-16 奥迪股份公司 Auxiliary driving system and method based on predicted vehicle cut-in possibility
US11708075B2 (en) * 2021-04-08 2023-07-25 Ford Global Technologies, Llc Enhanced adaptive cruise control
CN113095263B (en) * 2021-04-21 2024-02-20 中国矿业大学 Training method and device for pedestrian re-recognition model under shielding and pedestrian re-recognition method and device under shielding
CN113963535B (en) * 2021-09-30 2023-01-13 华为技术有限公司 Driving decision determination method and device and electronic equipment storage medium
CN113778108B (en) * 2021-10-09 2023-07-21 招商局检测车辆技术研究院有限公司 Data acquisition system and data processing method based on road side sensing unit
WO2023168630A1 (en) * 2022-03-09 2023-09-14 华为技术有限公司 Vehicle control method and related apparatus
US11491987B1 (en) * 2022-06-22 2022-11-08 Embark Trucks Inc. Merge handling based on merge intentions over time

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002334330A (en) * 2001-05-10 2002-11-22 Nissan Motor Co Ltd Vehicle recognition device
JP2006205860A (en) * 2005-01-27 2006-08-10 Advics:Kk Vehicle traveling support device
US20070150196A1 (en) * 2005-12-09 2007-06-28 Grimm Donald K Method for detecting or predicting vehicle cut-ins
JP2007233587A (en) * 2006-02-28 2007-09-13 Toyota Motor Corp Driver's mentality assessment device
JP2013177054A (en) * 2012-02-28 2013-09-09 Nippon Soken Inc Inter-vehicle distance control device

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3925474B2 (en) 2003-07-18 2007-06-06 日産自動車株式会社 Lane change support device
US7786898B2 (en) * 2006-05-31 2010-08-31 Mobileye Technologies Ltd. Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications
EP2674324B1 (en) * 2007-04-30 2018-12-26 Mobileye Vision Technologies Ltd. Rear obstruction detection
JP4915739B2 (en) * 2007-05-31 2012-04-11 アイシン・エィ・ダブリュ株式会社 Driving assistance device
DE102008011228A1 (en) * 2008-02-26 2009-08-27 Robert Bosch Gmbh Method for assisting a user of a vehicle, control device for a driver assistance system of a vehicle and vehicle having such a control device
EP2659473B1 (en) * 2010-12-29 2016-05-04 Siemens Aktiengesellschaft System and method for active lane-changing assistance for a motor vehicle
JP5763757B2 (en) * 2011-05-20 2015-08-12 本田技研工業株式会社 Lane change support system
TWI434239B (en) * 2011-08-26 2014-04-11 Ind Tech Res Inst Pre-warning method for rear coming vehicle which switches lane and system thereof
US8700251B1 (en) 2012-04-13 2014-04-15 Google Inc. System and method for automatically detecting key behaviors by vehicles
DE102012206725A1 (en) * 2012-04-24 2013-10-24 Ford Global Technologies, Llc Method and device for moving an autonomously moving motor vehicle to a safe state
US9176500B1 (en) * 2012-05-14 2015-11-03 Google Inc. Consideration of risks in active sensing for an autonomous vehicle
US9109907B2 (en) * 2012-07-24 2015-08-18 Plk Technologies Co., Ltd. Vehicle position recognition apparatus and method using image recognition information
US9026300B2 (en) * 2012-11-06 2015-05-05 Google Inc. Methods and systems to aid autonomous vehicles driving through a lane merge
US9045139B2 (en) * 2012-12-20 2015-06-02 Automotive Research & Testing Center Intuitive eco-driving assistance method and system
US8788134B1 (en) * 2013-01-04 2014-07-22 GM Global Technology Operations LLC Autonomous driving merge management system
TWM461270U (en) * 2013-03-01 2013-09-01 Shinsoft Co Ltd Vehicle entry and exist system
US8676431B1 (en) * 2013-03-12 2014-03-18 Google Inc. User interface for displaying object-based indications in an autonomous driving system
US10037689B2 (en) * 2015-03-24 2018-07-31 Donald Warren Taylor Apparatus and system to manage monitored vehicular flow rate
KR20150058679A (en) * 2013-11-20 2015-05-29 한국전자통신연구원 Apparatus and method for localization of autonomous vehicle in a complex
US9517771B2 (en) * 2013-11-22 2016-12-13 Ford Global Technologies, Llc Autonomous vehicle modes
JP5977270B2 (en) * 2014-01-14 2016-08-24 株式会社デンソー Vehicle control apparatus and program
JP6217412B2 (en) * 2014-01-29 2017-10-25 アイシン・エィ・ダブリュ株式会社 Automatic driving support device, automatic driving support method and program
EP3100206B1 (en) * 2014-01-30 2020-09-09 Mobileye Vision Technologies Ltd. Systems and methods for lane end recognition
JP6252316B2 (en) * 2014-03-31 2017-12-27 株式会社デンソー Display control device for vehicle
US9988037B2 (en) * 2014-04-15 2018-06-05 Ford Global Technologies, Llc Driving scenario prediction and automatic vehicle setting adjustment
JP6348758B2 (en) * 2014-04-15 2018-06-27 本田技研工業株式会社 Image processing device
CN103942960B (en) * 2014-04-22 2016-09-21 深圳市宏电技术股份有限公司 A kind of vehicle lane change detection method and device
US9892328B2 (en) * 2014-06-18 2018-02-13 Mobileye Vision Technologies Ltd. Hazard detection from a camera in a scene with moving shadows
US9731713B2 (en) * 2014-09-10 2017-08-15 Volkswagen Ag Modifying autonomous vehicle driving by recognizing vehicle characteristics
US10198772B2 (en) * 2015-01-14 2019-02-05 Tata Consultancy Services Limited Driver assessment and recommendation system in a vehicle
EP3156299A1 (en) * 2015-10-13 2017-04-19 Volvo Car Corporation Method and system for gap selection
EP3742338A1 (en) * 2015-11-26 2020-11-25 Mobileye Vision Technologies Ltd. Automatic prediction and altruistic response to a vehicle cutting in a lane

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002334330A (en) * 2001-05-10 2002-11-22 Nissan Motor Co Ltd Vehicle recognition device
JP2006205860A (en) * 2005-01-27 2006-08-10 Advics:Kk Vehicle traveling support device
US20070150196A1 (en) * 2005-12-09 2007-06-28 Grimm Donald K Method for detecting or predicting vehicle cut-ins
CN101326511A (en) * 2005-12-09 2008-12-17 通用汽车环球科技运作公司 Method for detecting or predicting vehicle cut-ins
JP2007233587A (en) * 2006-02-28 2007-09-13 Toyota Motor Corp Driver's mentality assessment device
JP2013177054A (en) * 2012-02-28 2013-09-09 Nippon Soken Inc Inter-vehicle distance control device

Also Published As

Publication number Publication date
EP3742338A1 (en) 2020-11-25
EP3380988A1 (en) 2018-10-03
US20200142411A1 (en) 2020-05-07
JP2022172153A (en) 2022-11-15
CN108604292A (en) 2018-09-28
US10209712B2 (en) 2019-02-19
US20200348671A1 (en) 2020-11-05
US20170154225A1 (en) 2017-06-01
CN115223139A (en) 2022-10-21
CN117400938A (en) 2024-01-16
US11372407B2 (en) 2022-06-28
JP7188844B2 (en) 2022-12-13
US20220221862A1 (en) 2022-07-14
US20170153639A1 (en) 2017-06-01
WO2017091690A1 (en) 2017-06-01
US10452069B2 (en) 2019-10-22
CN108604292B (en) 2023-10-13

Similar Documents

Publication Publication Date Title
JP7188844B2 (en) Automatic Anticipation and Altruistic Response to Vehicle Lane Interruption
JP7081875B2 (en) Vehicle navigation based on detected barriers
US11392135B2 (en) Systems and methods for navigating lane merges and lane splits
EP3548845B1 (en) Navigation based on vehicle activity
JP6997106B2 (en) Systems, methods and computer programs for navigating vehicles
CN112528737B (en) System and method for detecting objects
US11993290B2 (en) Predicting and responding to cut in vehicles and altruistic responses

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180720

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191118

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201225

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210524

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220406

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220406

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220413

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221128

R150 Certificate of patent or registration of utility model

Ref document number: 7188844

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150