JP2022050427A - 車両をナビゲートするためのシステム、方法およびコンピュータプログラム - Google Patents

車両をナビゲートするためのシステム、方法およびコンピュータプログラム Download PDF

Info

Publication number
JP2022050427A
JP2022050427A JP2021204491A JP2021204491A JP2022050427A JP 2022050427 A JP2022050427 A JP 2022050427A JP 2021204491 A JP2021204491 A JP 2021204491A JP 2021204491 A JP2021204491 A JP 2021204491A JP 2022050427 A JP2022050427 A JP 2022050427A
Authority
JP
Japan
Prior art keywords
vehicle
image
processing unit
image capture
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021204491A
Other languages
English (en)
Inventor
コーエン,バラク
Cohen Barak
シュタイン,ギデオン
Stein Gideon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mobileye Vision Technologies Ltd
Original Assignee
Mobileye Vision Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mobileye Vision Technologies Ltd filed Critical Mobileye Vision Technologies Ltd
Publication of JP2022050427A publication Critical patent/JP2022050427A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/22Command input arrangements
    • G05D1/228Command input arrangements located on-board unmanned vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/247Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
    • G05D1/249Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons from positioning sensors located off-board the vehicle, e.g. from cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Abstract

【課題】自律車両をナビゲートするためのシステム及び方法が提供する。【解決手段】ホスト車両の環境に関連する少なくとも1つの画像を画像捕捉デバイスから受信することと、前記少なくとも1つの画像を分析して駐車車両の側部を識別することと、前記駐車車両のドア縁部を前記少なくとも1つの画像内で識別することと、前記画像捕捉デバイスから受信される1つ又は複数のその後の画像の分析に基づいて前記駐車車両の前記ドア縁部の画像特性の変化を求めることと、前記駐車車両の前記ドア縁部の前記画像特性の前記変化に少なくとも部分的に基づいて前記ホスト車両のナビゲーション経路を変えることとを行うようにプログラムされる少なくとも1つの処理デバイスを含むシステムに関する。【選択図】図10

Description

関連出願の相互参照
本願は、2016年6月27日に出願された米国仮特許出願第62/354,946号、及び2017年1月12日に出願された米国仮特許出願第62/445,500号の優先権の利益を主張する。上記の出願は、参照によりその全体が本明細書に援用される。
背景
技術分野
本開示は、概して、自律車両ナビゲーションに関する。加えて、本開示は、ドアの開きを検出することに基づいてホスト車両をナビゲートするためのシステム及び方法、標的車両がホスト車両のレーンに入ることを検出することに基づいてホスト車両をナビゲートするためのシステム及び方法、ホスト車両が走行する道路が一方通行道路であるかどうかを検出することに基づいてホスト車両をナビゲートするためのシステム及び方法、及び駐車車両の予測状態を求めるためのシステム及び方法に関する。
背景情報
技術が進化し続けるにつれ、路上でナビゲート可能な完全自律車両という目標が現実味を帯びてきている。自律車両は、様々な要因を考慮する必要があり得、それらの要因に基づいて意図される目的地に安全且つ正確に到達するのに適切な判断を下し得る。例えば、自律車両は、視覚的情報(例えば、カメラから捕捉される情報)、レーダ、又はライダからの情報を処理して解釈する必要があり得ると共に、他のソースから(例えば、GPSデバイス、速度センサ、加速度計、サスペンションセンサ等から)得られる情報を使用することもある。同時に、目的地にナビゲートするために、自律車両は、特定の道路内の自らの位置(例えば、複数レーン道路内の特定のレーン)を識別し、他の車両と並んでナビゲートし、障害物及び歩行者を回避し、交通信号及び標識を観測し、適切な交差点又はインターチェンジにおいて道路から別の道路に進み、車両の動作中に生じるか又は起こる他の任意の状況に応答する必要もあり得る。
自律車両は、車両のナビゲーション経路を調節するか又はブレーキをかけるのに十分な時間を伴って、変化する状況に反応できなければならない。現存の自律ブレーキシステム内で使用されているもの等、従来の多くのアルゴリズムは、人間に匹敵する反応時間を有さない。従って、多くの場合、それらのアルゴリズムは、完全自律車両内で使用するよりも、人間のドライバーのためのバックアップとして使用する方が適している。
更に、駐車車両の特性は、道路の特性の優れたインジケータであることが多い。例えば、駐車車両の方向は、その道路が一方通行道路であるかどうかを示すことができ、車両間の間隔は、歩行者が車両間から現れる可能性があるかどうかを示し得る。しかし、既存の自律車両アルゴリズムは、かかる特性を使用しない。
最後に、自律車両システムは、人間のドライバーが入手することができない測定を使用することができる。例えば、自律車両システムは、赤外カメラを使用して環境を評価し、予測を行うことができる。しかし、従来の多くのシステムは、視覚カメラ及び赤外カメラ等の測定の組合せを利用しない。本開示の実施形態は、従来のシステムの上記の欠点の1つ又は複数に対処することができる。
概要
本開示による実施形態は、自律車両ナビゲーションのためのシステム及び方法を提供する。開示される実施形態は、カメラを使用して自律車両ナビゲーションの特徴を提供し得る。例えば、開示される実施形態によれば、開示されるシステムは、車両の環境を監視する1つ、2つ、又は3つ以上のカメラを含み得る。開示されるシステムは、例えば、カメラの1つ又は複数によって捕捉される画像の分析に基づいてナビゲーション応答を提供し得る。幾つかの実施形態は、環境を監視する1つ、2つ、又は3つ以上の赤外カメラを更に含み得る。従って、幾つかの実施形態は、例えば、可視光画像(visual image)、赤外画像、又はその任意の組合せの分析に基づいてナビゲーション応答を提供し得る。
ナビゲーション応答は、例えば、全地球測位システム(GPS)データ、(例えば、加速度計、速度センサ、サスペンションセンサ等からの)センサデータ、及び/又は他の地図データを含む他のデータを考慮することもできる。
一実施形態では、ホスト車両の環境内でドアが開く事象を検出することに基づいて車両をナビゲートするためのシステムは、少なくとも1つの処理デバイスを含み得る。少なくとも1つの処理デバイスは、ホスト車両の環境に関連する少なくとも1つの画像を画像捕捉デバイスから受信することと、その少なくとも1つの画像を分析して駐車車両の側部を識別することとを行うようにプログラムされ得る。少なくとも1つの処理デバイスは、駐車車両の側部の前方領域内の駐車車両の第1の構造上の特徴と、駐車車両の側部の後方領域内の駐車車両の第2の構造上の特徴とを少なくとも1つの画像内で識別することと、第1の構造上の特徴及び第2の構造上の特徴の近傍の、駐車車両のドア縁部を少なくとも1つの画像内で識別することとを行うように更にプログラムされ得る。少なくとも1つの処理デバイスは、画像捕捉デバイスから受信される1つ又は複数のその後の画像の分析に基づいて駐車車両のドア縁部の画像特性の変化を求めることと、駐車車両のドア縁部の画像特性の変化に少なくとも部分的に基づいてホスト車両のナビゲーション経路を変えることとを行うようにもプログラムされ得る。
別の実施形態では、ホスト車両の環境内でドアが開く事象を検出することに基づいて車両をナビゲートするための方法は、ホスト車両の環境に関連する少なくとも1つの画像を画像捕捉デバイスから受信することと、その少なくとも1つの画像を分析して駐車車両の側部を識別することとを含み得る。この方法は、駐車車両の側部の前方領域内の駐車車両の第1の構造上の特徴と、駐車車両の側部の後方領域内の駐車車両の第2の構造上の特徴とを少なくとも1つの画像内で識別することと、第1の構造上の特徴及び第2の構造上の特徴の近傍の、駐車車両のドア縁部を少なくとも1つの画像内で識別することとを更に含み得る。この方法はまた、画像捕捉デバイスから受信される1つ又は複数のその後の画像の分析に基づいて駐車車両のドア縁部の画像特性の変化を求めることと、駐車車両のドア縁部の画像特性の変化に少なくとも部分的に基づいてホスト車両のナビゲーション経路を変えることとを含み得る。
更に別の実施形態では、ホスト車両が走行しているレーンの方への標的車両の移動に基づいてホスト車両をナビゲートするためのシステムは、少なくとも1つの処理デバイスを含み得る。少なくとも1つの処理デバイスは、ホスト車両の環境に関連する複数の画像を画像捕捉デバイスから受信することと、その複数の画像の少なくとも1つを分析して標的車両及び標的車両の側部の少なくとも1つの車輪構成要素を識別することとを行うようにプログラムされ得る。少なくとも1つの処理デバイスは、標的車両の少なくとも1つの車輪構成要素を含む領域を複数の画像の少なくとも2つにおいて分析して、標的車両の少なくとも1つの車輪構成要素に関連する動きを識別することと、標的車両の少なくとも1つの車輪構成要素に関連する識別された動きに基づいてホスト車両の少なくとも1つのナビゲーション変更を生じさせることとを行うように更にプログラムされ得る。
更に別の実施形態では、ホスト車両が走行しているレーンの方への標的車両の移動に基づいてホスト車両をナビゲートするための方法は、ホスト車両の環境に関連する複数の画像を画像捕捉デバイスから受信することと、その複数の画像の少なくとも1つを分析して標的車両及び標的車両の側部の少なくとも1つの車輪構成要素を識別することとを含み得る。この方法は、標的車両の少なくとも1つの車輪構成要素を含む領域を複数の画像の少なくとも2つにおいて分析して、標的車両の少なくとも1つの車輪構成要素に関連する動きを識別することと、標的車両の少なくとも1つの車輪構成要素に関連する識別された動きに基づいてホスト車両の少なくとも1つのナビゲーション変更を生じさせることとを更に含み得る。
更に別の実施形態では、ホスト車両が走行する道路が一方通行道路であるかどうかを検出するためのシステムは、少なくとも1つの処理デバイスを含み得る。少なくとも1つの処理デバイスは、ホスト車両の環境に関連する少なくとも1つの画像を画像捕捉デバイスから受信することと、その少なくとも1つの画像の分析に基づいて、ホスト車両が走行する道路の第1の側方の第1の複数の車両を識別することと、その少なくとも1つの画像の分析に基づいて、ホスト車両が走行する道路の第2の側方の第2の複数の車両を識別することとを行うようにプログラムされ得る。少なくとも1つの処理デバイスは、第1の複数の車両に関連する第1の前向き方向(facing direction)を求めることと、第2の複数の車両に関連する第2の前向き方向を求めることと、第1の前向き方向及び第2の前向き方向の両方がホスト車両の進行方向と逆である場合にホスト車両の少なくとも1つのナビゲーション変更を生じさせることとを行うように更にプログラムされ得る。
更に別の実施形態では、ホスト車両が走行する道路が一方通行道路であるかどうかを検出するための方法は、ホスト車両の環境に関連する少なくとも1つの画像を画像捕捉デバイスから受信することと、その少なくとも1つの画像の分析に基づいて、ホスト車両が走行する道路の第1の側方の第1の複数の車両を識別することと、その少なくとも1つの画像の分析に基づいて、ホスト車両が走行する道路の第2の側方の第2の複数の車両を識別することとを含み得る。この方法は、第1の複数の車両に関連する第1の前向き方向を求めることと、第2の複数の車両に関連する第2の前向き方向を求めることと、第1の前向き方向及び第2の前向き方向の両方がホスト車両の進行方向と逆である場合にホスト車両の少なくとも1つのナビゲーション変更を生じさせることとを更に含み得る。
別の実施形態では、ホスト車両をナビゲートするためのシステムは、少なくとも1つの処理デバイスを含み得る。少なくとも1つの処理デバイスは、ホスト車両が走行している第1の道路から第2の道路にホスト車両をナビゲートするためのナビゲーション命令を受信することと、第2の道路の環境に関連する少なくとも1つの画像を画像捕捉デバイスから受信することとを行うようにプログラムされ得る。少なくとも1つの処理デバイスは、その少なくとも1つの画像の分析に基づいて第2の道路の第1の側方の第1の複数の車両を識別することと、その少なくとも1つの画像の分析に基づいて第2の道路の第2の側方の第2の複数の車両を識別することとを行うように更にプログラムされ得る。少なくとも1つの処理デバイスは、第1の複数の車両に関連する第1の前向き方向を求めることと、第2の複数の車両に関連する第2の前向き方向を求めることと、ホスト車両が第2の道路上に入る場合にホスト車両が走行することになる進行方向に対して第1の前向き方向及び第2の前向き方向の両方が逆であると判定することとを行うようにもプログラムされ得る。少なくとも1つの処理デバイスは、ホスト車両が第2の道路上にナビゲートされる場合にホスト車両が走行することになる進行方向に対して第1の前向き方向及び第2の前向き方向の両方が逆であるという判定に応答して、ナビゲーション命令を中断するように更にプログラムされ得る。
更に別の実施形態では、ホスト車両の環境内の駐車車両の予測状態を求めるためのシステムは、画像捕捉デバイスと、赤外画像捕捉デバイスと、少なくとも1つの処理デバイスとを含み得る。少なくとも1つの処理デバイスは、ホスト車両の環境に関連する複数の画像を画像捕捉デバイスから受信することと、その複数の画像の少なくとも1つを分析して駐車車両を識別することと、その複数の画像の少なくとも2つを分析して、駐車車両に関連する少なくとも1つのライトの照明状態の変化を識別することとを行うようにプログラムされ得る。少なくとも1つの処理デバイスは、駐車車両の少なくとも1つの熱画像を赤外画像捕捉デバイスから受信することと、照明状態の変化及び少なくとも1つの熱画像の分析に基づいて駐車車両の予測状態を求めることと、駐車車両の予測状態に基づいて、ホスト車両による少なくとも1つのナビゲーション応答を生じさせることとを行うように更にプログラムされ得る。
更に別の実施形態では、ホスト車両の環境内の駐車車両の予測状態を求めるための方法は、ホスト車両の環境に関連する複数の画像を画像捕捉デバイスから受信することと、その複数の画像の少なくとも1つを分析して駐車車両を識別することと、その複数の画像の少なくとも2つを分析して、駐車車両に関連する少なくとも1つのライトの照明状態の変化を識別することとを含み得る。この方法は、駐車車両の少なくとも1つの熱画像を赤外画像捕捉デバイスから受信することと、照明状態の変化及び少なくとも1つの熱画像の分析に基づいて駐車車両の予測状態を求めることと、駐車車両の予測状態に基づいて、ホスト車両による少なくとも1つのナビゲーション応答を生じさせることとを更に含み得る。
更に別の実施形態では、ホスト車両の環境内の駐車車両の予測状態を求めるためのシステムは、画像捕捉デバイスと、少なくとも1つの処理デバイスとを含み得る。少なくとも1つの処理デバイスは、ホスト車両の環境に関連する複数の画像を画像捕捉デバイスから受信するようにプログラムされ得る。少なくとも1つの処理デバイスは、その複数の画像の少なくとも1つを分析して駐車車両を識別することと、その複数の画像の少なくとも2つを分析して、駐車車両に関連する少なくとも1つのライトの照明状態の変化を識別することとを行うように更にプログラムされ得る。少なくとも1つの処理デバイスは、照明状態の変化に基づいて駐車車両の予測状態を求めることと、駐車車両の予測状態に基づいて、ホスト車両による少なくとも1つのナビゲーション応答を生じさせることとを行うようにもプログラムされ得る。
更に別の実施形態では、ホスト車両をナビゲートするためのシステムは、少なくとも1つの処理デバイスを含み得る。少なくとも1つの処理デバイスは、ホスト車両の環境を表す複数の画像をカメラから受信することと、その複数の画像の少なくとも1つを分析して少なくとも2つの停止車両を識別することとを行うようにプログラムされ得る。少なくとも1つの処理デバイスは、複数の画像の少なくとも1つの分析に基づいて2つの停止車両間の間隔を求めることと、2つの停止車両間で求められた間隔の広さに基づいてホスト車両の少なくとも1つのナビゲーション変更を生じさせることとを行うように更にプログラムされ得る。
更に別の実施形態では、ホスト車両をナビゲートするための方法は、ホスト車両の環境を表す複数の画像をカメラから受信することと、その複数の画像の少なくとも1つを分析して少なくとも2つの停止車両を識別することとを含み得る。この方法は、複数の画像の少なくとも1つの分析に基づいて2つの停止車両間の間隔を求めることと、2つの停止車両間で求められた間隔の広さに基づいてホスト車両の少なくとも1つのナビゲーション変更を生じさせることとを更に含み得る。
開示される他の実施形態によれば、非一時的コンピュータ可読記憶媒体は、少なくとも1つの処理デバイスにより実行され、且つ本明細書に記載される任意の方法を実行するプログラム命令を記憶し得る。
上述した概要及び以下に詳述する説明は、単に例示的及び説明的なものであり、特許請求の範囲の限定ではない。
図面の簡単な説明
本開示に組み込まれ、本明細書の一部をなす添付図面は、開示される様々な実施形態を示す。
開示される実施形態による例示的なシステムの図表現である。 開示される実施形態によるシステムを含む例示的な車両の側面図表現である。 開示される実施形態による図2Aに示される車両及びシステムの上面図表現である。 開示される実施形態によるシステムを含む車両の別の実施形態の上面図表現である。 開示される実施形態によるシステムを含む車両の更に別の実施形態の上面図表現である。 開示される実施形態によるシステムを含む車両の更に別の実施形態の上面図表現である。 開示される実施形態による例示的な車両制御システムの図表現である。 バックミラーと、開示される実施形態による車両撮像システムのユーザインタフェースとを含む車両の内部の図表現である。 開示される実施形態による、バックミラーの背後に、車両フロントガラスと対向して位置決めされるように構成されるカメラマウントの例の図である。 開示される実施形態による、異なる視点からの図3Bに示されるカメラマウントの図である。 開示される実施形態による、バックミラーの背後に、車両フロントガラスと対向して位置決めされるように構成されるカメラマウントの例の図である。 開示される実施形態による1つ又は複数の動作を実行する命令を記憶するように構成されるメモリの例示的なブロック図である。 開示される実施形態による、単眼画像分析に基づいて1つ又は複数のナビゲーション応答を生じさせる例示的なプロセスを示すフローチャートである。 開示される実施形態による、画像の組内の1つ又は複数の車両及び/又は歩行者を検出する例示的なプロセスを示すフローチャートである。 開示される実施形態による、画像の組内の道路マーク及び/又はレーンジオメトリ情報を検出する例示的なプロセスを示すフローチャートである。 開示される実施形態による、画像の組内の信号機を検出する例示的なプロセスを示すフローチャートである。 開示される実施形態による、車両経路に基づいて1つ又は複数のナビゲーション応答を生じさせる例示的なプロセスのフローチャートである。 開示される実施形態による、先行車両がレーンを変更中であるか否かを特定する例示的なプロセスを示すフローチャートである。 開示される実施形態による、立体画像分析に基づいて1つ又は複数のナビゲーション応答を生じさせる例示的なプロセスを示すフローチャートである。 開示される実施形態による、3組の画像の分析に基づいて1つ又は複数のナビゲーション応答を生じさせる例示的なプロセスを示すフローチャートである。 開示される実施形態による1つ又は複数の動作を実行するための命令を記憶するように構成されるメモリの別の例示的なブロック図である。 開示される実施形態によるシステムの視点からの道路の概略図である。 開示される実施形態によるシステムの視点からの道路の別の概略図である。 開示される実施形態によるシステムの視点からの駐車した車の概略図である。 開示される実施形態によるシステムの視点からのドアが開く事象の概略図である。 開示される実施形態によるシステムの視点からのドアが開く事象の別の概略図である。 開示される実施形態によるシステムの視点からの道路の別の概略図である。 開示される実施形態による、ドアが開く事象を検出することに基づいて1つ又は複数のナビゲーション応答を生じさせるための例示的なプロセスを示すフローチャートである。 開示される実施形態による1つ又は複数の動作を実行するための命令を記憶するように構成されるメモリの別の例示的なブロック図である。 開示される実施形態によるシステムの視点からの駐車した車の概略図である。 開示される実施形態によるシステムの視点からの駐車した車の別の概略図である。 開示される実施形態による、標的車両がホスト車両のレーンに入ることを検出することに基づいて1つ又は複数のナビゲーション応答を生じさせるための例示的なプロセスを示すフローチャートである。 開示される実施形態による、道路のホモグラフィを歪ませるための例示的なプロセスを示すフローチャートである。 開示される実施形態による1つ又は複数の動作を実行するための命令を記憶するように構成されるメモリの別の例示的なブロック図である。 開示される実施形態によるシステムの視点からの一方通行道路の概略図である。 開示される実施形態によるシステムの視点からの一方通行道路の別の概略図である。 開示される実施形態による、ホスト車両が走行する道路が一方通行道路であるかどうかを検出することに基づいて1つ又は複数のナビゲーション応答を生じさせるための例示的なプロセスを示すフローチャートである。 開示される実施形態による1つ又は複数の動作を実行するための命令を記憶するように構成されるメモリの別の例示的なブロック図である。 開示される実施形態によるシステムの視点からの駐車した車の概略図である。 開示される実施形態によるシステムの視点からの照明の変化を有する駐車した車の概略図である。 開示される実施形態によるシステムの視点からの駐車した車の熱マップの概略図である。 開示される実施形態による、駐車車両の予測状態を求めるための例示的なプロセスを示すフローチャートである。 開示される実施形態によるシステムから可視光画像と赤外画像とを整列させるための例示的なプロセスを示すフローチャートである。 開示される実施形態による1つ又は複数の動作を実行するための命令を記憶するように構成されるメモリの別の例示的なブロック図である。 開示される実施形態によるシステムの視点からの道路の別の概略図である。 開示される実施形態による、検出ホットスポットを有する道路の別の概略図である。 開示される実施形態による、ホスト車両をナビゲートするための例示的なプロセスを示すフローチャートである。
詳細な説明
以下の詳細な説明は、添付図面を参照する。可能な場合には常に、図面及び以下の説明において、同じ又は同様の部分を指すのに同じ参照番号が使用される。幾つかの例示的な実施形態は本明細書で説明されるが、変更形態、適応形態、及び他の実装形態が可能である。例えば、図面に示される構成要素に対する置換形態、追加形態、又は変更形態がなされ得、本明細書に記載される例示的な方法は、開示される方法のステップの置換、順序替え、削除、又は追加により変更することができる。従って、以下の詳細な説明は、開示される実施形態及び例に限定されない。その代わり、適切な範囲は、添付の特許請求の範囲により規定される。
自律車両概説
本開示を通して使用される場合、「自律車両」という用語は、ドライバーの入力なしで少なくとも1つのナビゲーション変更を実施することが可能な車両を指す。「ナビゲーション変更」は、車両の操舵、ブレーキ、又は加速/減速の1つ又は複数の変更を指す。自律的であるために、車両は完全に自動である(例えば、ドライバーなし又はドライバー入力なしで完全に動作可能である)必要はない。むしろ、自律車両は、特定の時間期間中にはドライバーの制御下で動作し、他の時間期間中にはドライバーの制御なしで動作することができる車両を含む。自律車両は、(例えば、車両レーン制約間に車両コースを維持するための)操舵又は(全ての状況下ではないが)特定の状況下での一部の操舵操作等の車両ナビゲーションの幾つかの側面のみを制御するが、他の側面(例えば、ブレーキ又は特定の状況下でのブレーキ)をドライバーに任せ得る車両を含むこともできる。幾つかの場合、自律車両は、車両のブレーキ、速度制御、及び/又は操舵の幾つかの又は全ての側面を扱い得る。
人間のドライバーは、車両を制御するために視覚的手掛かり及び観測に概して依存することから、交通基盤は、それに従って構築されており、レーンマーク、交通標識、及び信号機は、視覚的情報をドライバーに提供するように設計されている。交通基盤のこれらの設計特徴に鑑みて、自律車両は、カメラと、車両の環境から捕捉される視覚的情報を分析する処理ユニットとを含み得る。視覚的情報は、例えば、ドライバーによって観測可能な交通基盤の構成要素(例えば、レーンマーク、交通標識、信号機等)及び他の障害物(例えば、他の車両、歩行者、瓦礫等)を表す画像を含み得る。自律車両は、赤外カメラも含み得る。かかる実施形態では、処理ユニットは、環境から捕捉される熱情報を個別に又は視覚的情報と組み合わせて分析し得る。
加えて、自律車両は、ナビゲート時に車両の環境のモデルを提供する情報等の、記憶された情報を使用することもできる。例えば、車両は、GPSデータ、(例えば、加速度計、速度センサ、サスペンションセンサ等からの)センサデータ、及び/又は他の地図データを使用して、車両が走行している間、車両の環境に関連する情報を提供することができ、車両(及び他の車両)は、その情報を使用して自らの位置をモデル上で特定し得る。一部の車両は、車両間の通信、情報の共有、車両の周囲における危険又は変化のピア車両を変更すること等も可能であり得る。
システム概要
図1は、開示される例示的な実施形態によるシステム100のブロック図の表現である。システム100は、特定の実装形態の要件に応じて様々な構成要素を含み得る。幾つかの実施形態では、システム100は、処理ユニット110、画像取得ユニット120、位置センサ130、1つ又は複数のメモリユニット140、150、地図データベース160、ユーザインタフェース170、及び無線送受信機172を含み得る。処理ユニット110は、1つ又は複数の処理デバイスを含み得る。幾つかの実施形態では、処理ユニット110は、アプリケーションプロセッサ180、画像プロセッサ190、又は他の任意の適切な処理デバイスを含み得る。同様に、画像取得ユニット120は、特定の応用の要件に応じて任意の数の画像取得デバイス及び構成要素を含み得る。幾つかの実施形態では、画像取得ユニット120は、画像捕捉デバイス122、画像捕捉デバイス124、画像捕捉デバイス126等の1つ又は複数の画像捕捉デバイス(例えば、カメラ、CCD、又は他の任意のタイプの画像センサ)を含み得る。幾つかの実施形態では、画像取得ユニット120は、1つ又は複数の赤外捕捉デバイス(例えば、赤外カメラ、遠赤外(FIR)検出器、又は他の任意のタイプの赤外センサ)を更に含むことができ、例えば、画像捕捉デバイス122、画像捕捉デバイス124、及び画像捕捉デバイス126の1つ又は複数は、赤外画像捕捉デバイスを含み得る。
システム100は、処理ユニット110を画像取得ユニット120に通信可能に接続するデータインタフェース128を含むこともできる。例えば、データインタフェース128は、画像取得ユニット120によって取得される画像データを処理ユニット110に伝送するための1つ又は複数の任意の有線リンク及び/又は無線リンクを含み得る。
無線送受信機172は、無線周波数、赤外線周波数、磁場、又は電場の使用により無線インタフェースを介して伝送を1つ又は複数のネットワーク(例えば、セルラ、インターネット等)と交換するように構成される1つ又は複数のデバイスを含み得る。無線送受信機172は、任意の既知の規格(例えば、Wi-Fi(登録商標)、Bluetooth(登録商標)、Bluetooth Smart、802.15.4、ZigBee(登録商標)等)を使用してデータを送信及び/又は受信し得る。かかる伝送は、ホスト車両から1つ又は複数の遠隔設置されたサーバへの通信を含み得る。かかる伝送は、(例えば、ホスト車両の環境内の標的車両を考慮して又はかかる標的車両と共に、ホスト車両のナビゲーションの調整を促進するために)ホスト車両と、ホスト車両の環境内の1つ又は複数の標的車両との間の(単方向又は双方向)通信、更には伝送を行う車両の近傍にある不特定の受け手へのブロードキャスト伝送も含み得る。
アプリケーションプロセッサ180及び画像プロセッサ190の両方は、様々なタイプのハードウェアベースの処理デバイスを含み得る。例えば、アプリケーションプロセッサ180及び画像プロセッサ190の何れか一方又は両方は、マイクロプロセッサ、プリプロセッサ(画像プリプロセッサ等)、グラフィックスプロセッサ、中央演算処理装置(CPU)、サポート回路、デジタル信号プロセッサ、集積回路、メモリ、グラフィックス処理ユニット(GPU)、又はアプリケーションを実行し且つ画像を処理し分析するのに適した他の任意のタイプのデバイスを含み得る。幾つかの実施形態では、アプリケーションプロセッサ180及び/又は画像プロセッサ190は、任意のタイプのシングルコア又はマルチコアプロセッサ、モバイルデバイスマイクロコントローラ、中央演算処理装置等を含み得る。例えば、Intel(登録商標)、AMD(登録商標)等の製造業者から入手可能なプロセッサ、又はNVIDIA(登録商標)、ATI(登録商標)等の製造業者から入手可能なGPUを含む様々な処理デバイスが使用可能であり、様々なアーキテクチャ(例えば、x86プロセッサ、ARM(登録商標)等)を含み得る。
幾つかの実施形態では、アプリケーションプロセッサ180及び/又は画像プロセッサ190は、Mobileye(登録商標)から入手可能なEyeQシリーズのプロセッサチップの何れかを含み得る。これらのプロセッサ設計は、ローカルメモリ及び命令セットを有する複数の処理ユニットをそれぞれ含む。そのようなプロセッサは、複数の画像センサから画像データを受信するためのビデオ入力を含むことができ、ビデオ出力機能も含む場合がある。一例では、EyeQ2(登録商標)は、332MHzで動作する90nm-ミクロン技術を使用する。EyeQ2(登録商標)アーキテクチャは、2つの浮動小数点ハイパースレッド32ビットRISC CPU(MIPS32(登録商標)34K(登録商標)コア)、5つのビジョン計算エンジン(VCE)、3つのベクトルマイクロコードプロセッサ(VMP(登録商標))、Denali64ビットモバイルDDRコントローラ、128ビット内部Sonics Interconnect、デュアル16ビットビデオ入力及び18ビットビデオ出力コントローラ、16チャネルDMA、及び幾つかの周辺機器で構成される。MIPS34K CPUは、5つのVCE、3つのVMP(商標)及びDMA、第2のMIPS34K CPU及びマルチチャネルDMA並びに他の周辺機器を管理する。5つのVCE、3つのVMP(登録商標)、及びMIPS34K CPUは、多機能バンドルアプリケーションによって要求される集中的なビジョン計算を実行することができる。別の例では、開示される実施形態において、第三世代プロセッサであり、EyeQ2(登録商標)よりも6倍強力なEyeQ3(登録商標)を使用することができる。他の例では、開示される実施形態において、EyeQ4(登録商標)及び/又はEyeQ5(登録商標)を使用することができる。当然ながら、更に最新の又は将来の任意のEyeQ処理デバイスも、開示される実施形態と共に使用することができる。
本明細書で開示される処理デバイスの何れも特定の機能を実行するように構成され得る。特定の機能を実行するように、記載したEyeQプロセッサ又は他のコントローラ若しくはマイクロプロセッサの何れか等の処理デバイスを構成することは、コンピュータ実行可能命令をプログラムすることと、処理デバイスの動作中に実行するためにそれらの命令を処理デバイスに提供することとを含み得る。幾つかの実施形態では、処理デバイスを構成することは、処理デバイスにアーキテクチャ的命令を直接プログラムすることを含み得る。例えば、書替え可能ゲートアレイ(FPGA)及び特定用途向け集積回路(ASIC)等の処理デバイスは、例えば、1つ又は複数のハードウェア記述言語(HDL)を使用して構成され得る。
他の実施形態では、処理デバイスを構成することは、動作中に処理デバイスがアクセス可能なメモリ上に実行可能命令を記憶することを含み得る。例えば、処理デバイスは、動作中にメモリにアクセスして、記憶された命令を取得し実行することができる。何れの場合にも、本明細書で開示されるセンシング、画像分析、及び/又はナビゲーション機能を実行するように構成される処理デバイスは、ホスト車両の複数のハードウェアベースの構成要素を制御する専用のハードウェアベースのシステムを表す。
図1は、処理ユニット110に含まれる2つの別個の処理デバイスを示すが、より多数又はより少数の処理デバイスを使用することもできる。例えば、幾つかの実施形態では、単一の処理デバイスを使用して、アプリケーションプロセッサ180及び画像プロセッサ190のタスクを達成し得る。他の実施形態では、これらのタスクは、3つ以上の処理デバイスにより実行し得る。更に、幾つかの実施形態では、システム100は、画像取得ユニット120等の他の構成要素を含まず、処理ユニット110の1つ又は複数を含み得る。
処理ユニット110は、様々なタイプのデバイスを含み得る。例えば、処理ユニット110は、コントローラ、画像プリプロセッサ、中央演算処理装置(CPU)、グラフィックス処理ユニット(GPU)、サポート回路、デジタル信号プロセッサ、集積回路、メモリ、画像を処理し分析するための他の任意のタイプのデバイス等の様々なデバイスを含み得る。画像プリプロセッサは、画像センサから画像を捕捉し、デジタル化し、処理するためのビデオプロセッサを含み得る。CPUは、任意の数のマイクロコントローラ又はマイクロプロセッサを含み得る。GPUも任意の数のマイクロコントローラ又はマイクロプロセッサを含み得る。サポート回路は、キャッシュ、電源、クロック、及び入出力回路を含む当技術分野で一般に周知の任意の数の回路であり得る。メモリは、プロセッサによって実行されるときにシステムの動作を制御するソフトウェアを記憶し得る。メモリは、データベース及び画像処理ソフトウェアを含み得る。メモリは、任意の数のランダムアクセスメモリ、読み取り専用メモリ、フラッシュメモリ、ディスクドライブ、光学記憶装置、テープ記憶装置、リムーバブル記憶装置、及び他のタイプの記憶装置を含み得る。一例では、メモリは、処理ユニット110と別個であり得る。別の例では、メモリは、処理ユニット110に統合され得る。
各メモリ140、150は、プロセッサ(例えば、アプリケーションプロセッサ180及び/又は画像プロセッサ190)によって実行されるときにシステム100の様々な側面の動作を制御し得るソフトウェア命令を含み得る。これらのメモリユニットは、様々なデータベース及び画像処理ソフトウェア、並びに例えばニューラルネットワーク又はディープニューラルネットワーク等の訓練されたシステムを含み得る。メモリユニットは、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、フラッシュメモリ、ディスクドライブ、光学記憶装置、テープ記憶装置、リムーバブル記憶装置、及び/又は他の任意のタイプの記憶装置を含み得る。幾つかの実施形態では、メモリユニット140、150は、アプリケーションプロセッサ180及び/又は画像プロセッサ190と別個であり得る。他の実施形態では、これらのメモリユニットは、アプリケーションプロセッサ180及び/又は画像プロセッサ190に統合され得る。
位置センサ130は、システム100の少なくとも1つの構成要素に関連付けられた位置を特定するのに適する任意のタイプのデバイスを含み得る。幾つかの実施形態では、位置センサ130はGPS受信機を含み得る。そのような受信機は、全地球測位システム衛星によりブロードキャストされる信号を処理することにより、ユーザの位置及び速度を特定することができる。位置センサ130からの位置情報は、アプリケーションプロセッサ180及び/又は画像プロセッサ190に提供し得る。
幾つかの実施形態では、システム100は、車両200の速度を測定するための速度センサ(例えば、速度計)等の構成要素を含み得る。システム100は、1つ又は複数の軸に沿って車両200の加速度を測定するための1つ又は複数の(単軸又は多軸)加速度計も含み得る。
メモリユニット140、150は、既知の陸標の1つ又は複数のインジケータ及び/又は位置を含むデータベース又は他の任意の形式で編成されるデータを含み得る。環境のセンサ情報(2つ以上の画像のライダ処理又は立体処理に由来する画像、レーダ信号、奥行情報等)をGPS座標、車両のエゴモーション等の位置情報と一緒に処理して、既知の陸標に対する車両の現在位置を求め、車両の位置を洗練させることができる。この技術の特定の側面は、本願の譲受人が販売するREM(商標)として知られている位置特定技術に含まれる。
ユーザインタフェース170は、情報を提供するか、又はシステム100の1人若しくは複数のユーザから入力を受信するのに適する任意のデバイスを含み得る。幾つかの実施形態では、ユーザインタフェース170は、例えば、タッチスクリーン、マイクロフォン、キーボード、ポインタデバイス、トラックホィール、カメラ、つまみ、ボタン等を含め、ユーザ入力デバイスを含み得る。そのような入力デバイスを用いて、ユーザは、命令若しくは情報をタイプし、音声コマンドを提供し、ボタン、ポインタ、若しくは目追跡機能を使用して、又は情報をシステム100に通信する任意の他の適する技法を通して画面上のメニュー選択肢を選択することにより、システム100に情報入力又はコマンドを提供可能であり得る。
ユーザインタフェース170は、ユーザに情報を提供するか、又はユーザから情報を受信し、例えば、アプリケーションプロセッサ180による使用のためにその情報を処理するように構成される1つ又は複数の処理デバイスを備え得る。幾つかの実施形態では、そのような処理デバイスは、目の動きを認識して追跡する命令、音声コマンドを受信して解釈する命令、タッチスクリーンで行われたタッチ及び/又はジェスチャを認識して解釈する命令、キーボード入力又はメニュー選択に応答する命令等を実行し得る。幾つかの実施形態では、ユーザインタフェース170は、ディスプレイ、スピーカ、触覚デバイス、及び/又は出力情報をユーザに提供する任意の他のデバイスを含み得る。
地図データベース160は、システム100にとって有用な地図データを記憶する任意のタイプのデータベースを含み得る。幾つかの実施形態では、地図データベース160は、道路、水特徴、地理的特徴、ビジネス、関心点、レストラン、ガソリンスタンド等を含む、様々な項目の、基準座標系での位置に関連するデータを含み得る。地図データベース160は、そのような項目の位置のみならず、例えば、記憶された特徴の何れかに関連付けられた名称を含む、それらの項目に関連する記述子も記憶し得る。幾つかの実施形態では、地図データベース160は、システム100の他の構成要素と共に物理的に配置し得る。代替又は追加として、地図データベース160又はその一部は、システム100の他の構成要素(例えば、処理ユニット110)に関してリモートに配置し得る。そのような実施形態では、地図データベース160からの情報は、有線又は無線データ接続を介してネットワークにダウンロードし得る(例えば、セルラネットワーク及び/又はインターネット等を介して)。一部の事例では、地図データベース160は、道路の特定の特徴(例えば、レーンマーク)又はホスト車両の目標軌道の多項式表現を含む疎データモデルを記憶し得る。地図データベース160は、目標軌道に対するホスト車両の既知の位置を求めるか又は更新するために使用することができる認識された様々な陸標の記憶された表現も含み得る。陸標表現は、幾つかある潜在的識別子の中でも特に、陸標のタイプ、陸標の位置等のデータフィールドを含み得る。
画像捕捉デバイス122、124、及び126は、それぞれ環境から少なくとも1つの画像を捕捉するのに適する任意のタイプのデバイスを含み得る。更に、任意の数の画像捕捉デバイスを使用して、画像プロセッサに入力する画像を取得し得る。幾つかの実施形態は、単一の画像捕捉デバイスのみを含み得、一方、他の実施形態は、2つ、3つ、更に4つ以上の画像捕捉デバイスを含み得る。
更に、上記で説明したように、画像捕捉デバイス122、124、及び126は、環境から少なくとも1つの赤外画像を捕捉するのに適した任意のタイプのデバイスをそれぞれ含み得る。任意の数の赤外画像捕捉デバイスが使用され得る。幾つかの実施形態は、単一の赤外画像捕捉デバイスのみを含むことができるのに対し、他の実施形態は、2つ、3つ、更には4つ以上の赤外画像捕捉デバイスを含み得る。更に、幾つかの実施形態は、任意の数の画像捕捉デバイスと組み合わせて任意の数の赤外画像捕捉デバイスを含み得る。画像捕捉デバイス122、124、及び126について、図2B~図2Eに関して以下で更に説明する。
1つ又は複数のカメラ(例えば、画像捕捉デバイス122、124、及び126)は、車両上に含まれるセンシングブロックの一部であり得る。センシングブロックは、1つ又は複数の赤外画像カメラを1つ又は複数のカメラと別個に又は組み合わせて更に含み得る。
センシングブロックに他の様々なセンサが含まれ得、車両のセンシングされたナビゲーション状態を策定するためにそれらのセンサの何れか又は全てを利用し得る。(前方、側方、後方等の)カメラに加えて、レーダ、ライダ、音響センサ等の他のセンサがセンシングブロック内に含まれ得る。加えて、センシングブロックは、車両の環境に関する情報を通信し且つ送信/受信するように構成される1つ又は複数の構成要素を含み得る。例えば、かかる構成要素は、ホスト車両に対して離れて位置するソースから、ホスト車両の環境に関係するセンサベースの情報又は他の任意のタイプの情報を受信し得る無線送受信機(RF等)を含み得る。かかる情報は、ホスト車両以外の車両システムから受信されるセンサ出力情報又は関連情報を含み得る。幾つかの実施形態では、かかる情報は、遠隔計算装置、集中サーバ等から受信される情報を含み得る。更に、カメラは、多くの異なる構成、すなわち単一のカメラユニット、複数のカメラ、カメラクラスタ、長いFOV、短いFOV、広角、魚眼等を呈し得る。
システム100又はその様々な構成要素は、様々な異なるプラットフォームに組み込むことができる。幾つかの実施形態では、システム100は、図2Aに示すように車両200上に含まれ得る。例えば、車両200は、図1に関して上述した処理ユニット110及びシステム100の他の構成要素の何れかを備え得る。幾つかの実施形態では、車両200は、画像捕捉デバイス(例えば、カメラ)及び/又は赤外画像捕捉デバイスを1つのみ備えることができるのに対し、図2B~図2Eに関して解説する実施形態等の他の実施形態では、複数の画像捕捉デバイス及び/又は複数の赤外捕捉デバイスが使用可能である。例えば、図2Aに示す車両200の画像捕捉デバイス122及び124の何れもADAS(最新運転者支援システム)撮像セットの一部であり得る。
画像取得ユニット120の一部として車両200に含まれる画像捕捉デバイスは、任意の適する位置に位置し得る。幾つかの実施形態では、図2A~図2E及び図3A~図3Cに示されるように、画像捕捉デバイス122は、バックミラーの近傍に配置し得る。この位置は、車両200のドライバーと同様の視線を提供し得、ドライバーにとって何が見え、何が見えないかの判断を支援し得る。画像捕捉デバイス122は、バックミラーの近傍の任意の位置に位置し得るが、画像捕捉デバイス122をミラーのドライバー側に配置することは、ドライバーの視野及び/又は視線を表す画像の取得を更に支援し得る。
画像取得ユニット120の画像捕捉デバイスについて他の位置を使用することもできる。例えば、画像捕捉デバイス124は、車両200のバンパー上又はバンパー内に配置し得る。そのような位置は、広視野を有する画像捕捉デバイスに特に適し得る。バンパーに配置される画像捕捉デバイスの視線は、ドライバーの視線と異なることができ、従って、バンパー画像捕捉デバイス及びドライバーは、同じ物体を常に見ているわけではない。画像捕捉デバイス(例えば、画像捕捉デバイス122、124、及び126)は、他の位置に配置することもできる。例えば、画像捕捉デバイスは、車両200のサイドミラーの一方又は両方、車両200のルーフ、車両200のフード、車両200のトランク、車両200の側部に配置し得、車両200の任意のウィンドウに搭載、背後に位置決め、又は前に位置決めし得、車両200の前部及び/又は後部のライト又はその近傍等に搭載し得る。
画像捕捉デバイスに加えて、車両200は、システム100の様々な他の構成要素を含み得る。例えば、処理ユニット110は、車両のエンジン制御ユニット(ECU)に統合されるか、又はECUとは別個に車両200に含まれ得る。車両200には、GPS受信機等の位置センサ130を備えることもでき、車両200は、地図データベース160並びにメモリユニット140及び150を含むこともできる。
上述したように、無線送受信機172は、1つ又は複数のネットワーク(例えば、セルラネットワーク、インターネット等)を介してデータを送信及び/又は受信し得る。例えば、無線送受信機172は、システム100により収集されたデータを1つ又は複数のサーバにアップロードし、データを1つ又は複数のサーバからダウンロードし得る。無線送受信機172を介して、システム100は、例えば、定期的に又は需要時に地図データベース160、メモリ140、及び/又はメモリ150に記憶されたデータへの更新を受信し得る。同様に、無線送受信機172は、システム100からの任意のデータ(例えば、画像取得ユニット120により捕捉された画像、位置センサ130、他のセンサ、又は車両制御システムにより受信されたデータ等)及び/又は処理ユニット110により処理された任意のデータを1つ又は複数のサーバにアップロードし得る。
システム100は、プライバシーレベル設定に基づいてデータをサーバ(例えば、クラウド)にアップロードし得る。例えば、システム100は、サーバに送信される、車両及び/又は車両のドライバー/所有者を一意に識別し得るタイプのデータ(メタデータを含む)を規制又は制限するプライバシーレベル設定を実施し得る。そのような設定は、例えば、無線送受信機172を介してユーザにより設定され得、工場デフォルト設定により初期化され得、又は無線送受信機172により受信されるデータにより設定され得る。
幾つかの実施形態では、システム100は、「高」プライバシーレベルに従ってデータをアップロードし得、そのような設定下において、システム100は、特定の車両及び/又はドライバー/所有者についてのいかなる詳細もないデータ(例えば、ルートに関連する位置情報、捕捉画像等)を送信し得る。例えば、「高」プライバシーレベルに従ってデータをアップロードする場合、システム100は、車両識別番号(VIN)又は車両のドライバー若しくは所有者の氏名を含まず、代わりに、捕捉画像及び/又はルートに関連する限られた位置情報等のデータを送信し得る。
他のプライバシーレベルも意図される。例えば、システム100は、「中」プライバシーレベルに従ってデータをサーバに送信し得、車両及び/又は車両タイプのメーカー及び/又はモデル(例えば、乗用車、スポーツユーティリティ車、トラック等)等の「高」プライバシーレベル下では含まれない追加情報を含み得る。幾つかの実施形態では、システム100は、「低」プライバシーレベルに従ってデータをアップロードし得る。「低」プライバシーレベル設定下では、システム100は、特定の車両、所有者/ドライバー、及び/又は車両が走行したルートの一部又は全体を一意に識別するのに十分なデータをアップロードし、そのような情報を含み得る。そのような「低」プライバシーレベルデータは、例えば、VIN、ドライバー/所有者氏名、出発前の車両の出発点、車両の意図される目的地、車両のメーカー及び/又はモデル、車両のタイプ等の1つ又は複数を含み得る。
図2Aは、開示される実施形態による例示的な車両撮像システムの側面図表現である。図2Bは、図2Aに示される実施形態の上面図表現である。図2Bに示されるように、開示される実施形態は、バックミラーの近傍及び/又は車両200のドライバー近傍に位置決めされた第1の画像捕捉デバイス122と、車両200のバンパー領域(例えば、バンパー領域210の1つ)上又はバンパー領域内に位置決めされる第2の画像捕捉デバイス124と、処理ユニット110とを有するシステム100を本体内に含む車両200を示し得る。図2A及び図2Bでは、第1の画像捕捉デバイス122及び第2の画像捕捉デバイス124の1つ又は複数は、赤外画像捕捉デバイスを含み得る。
図2Cに示すように、画像捕捉デバイス122及び124の両方は、車両200のバックミラーの近傍及び/又はドライバーの近くに配置され得る。図2A及び図2Bと同様に、図2Cでは、第1の画像捕捉デバイス122及び第2の画像捕捉デバイス124の1つ又は複数は、赤外画像捕捉デバイスを含み得る。
更に、図2B及び図2Cでは、2つの画像捕捉デバイス122及び124を示すが、他の実施形態は、3つ以上の画像捕捉デバイスを含み得ることを理解されたい。例えば、図2D及び図2Eに示す実施形態では、第1の画像捕捉デバイス122、第2の画像捕捉デバイス124、及び第3の画像捕捉デバイス126は、車両200のシステム100に含まれる。図2A、図2B、及び図2Cと同様に、図2D及び図2Eの第1の画像捕捉デバイス122、第2の画像捕捉デバイス124、及び第3の画像捕捉デバイス126の1つ又は複数は、赤外画像捕捉デバイスを含み得る。
図2Dに示されるように、画像捕捉デバイス122は、車両200のバックミラーの近傍及び/又はドライバーの近傍に位置決めし得、画像捕捉デバイス124及び126は、車両200のバンパー領域(例えば、バンパー領域210の1つ)上に位置決めし得る。また、図2Eに示されるように、画像捕捉デバイス122、124、及び126は、車両200のバックミラーの近傍及び/又はドライバーシートの近傍に位置決めし得る。開示される実施形態は、いかなる特定の数及び構成の画像捕捉デバイスにも限定されず、画像捕捉デバイスは、車両200内及び/又は車両200上の任意の適する位置に位置決めし得る。
開示される実施形態が車両に限定されず、他の状況でも適用可能なことを理解されたい。開示される実施形態が特定のタイプの車両200に限定されず、自動車、トラック、トレーラー、及び他のタイプの車両を含む全てのタイプの車両に適用可能であり得ることも理解されたい。
第1の画像捕捉デバイス122は、任意の適するタイプの画像捕捉デバイス又は赤外画像補足デバイスを含み得る。画像捕捉デバイス122は光軸を含み得る。一例では、画像捕捉デバイス122は、グローバルシャッタを有するAptinaM9V024WVGAセンサを含み得る。他の実施形態では、画像捕捉デバイス122は、1280×960ピクセルの解像度を提供し得、ローリングシャッタを含み得る。画像捕捉デバイス122は、様々な光学要素を含み得る。幾つかの実施形態では、1枚又は複数枚のレンズが含まれて、例えば、画像捕捉デバイスの所望の焦点距離及び視野を提供し得る。幾つかの実施形態では、画像捕捉デバイス122に6mmレンズ又は12mmレンズを関連付け得る。幾つかの実施形態では、画像捕捉デバイス122は、図2Dに示されるように、所望の視野(FOV)202を有する画像を捕捉するように構成し得る。例えば、画像捕捉デバイス122は、46度FOV、50度FOV、52度FOV、又は52度FOVを超える度数を含め、40度~56度の範囲内等の通常のFOVを有するように構成し得る。代替的に、画像捕捉デバイス122は、28度FOV又は36度FOV等の23~40度の範囲の狭いFOVを有するように構成し得る。加えて、画像捕捉デバイス122は、100~180度の範囲の広いFOVを有するように構成し得る。幾つかの実施形態では、画像捕捉デバイス122は、広角バンパーカメラ又は最高で180度FOVを有するバンパーカメラを含み得る。幾つかの実施形態では、画像捕捉デバイス122は、約100度の水平FOVを有するアスペクト比約2:1(例えば、H×V=3800×1900ピクセル)の7.2Mピクセル画像捕捉デバイスであり得る。そのような画像捕捉デバイスは、三次元画像捕捉デバイス構成の代わりに使用し得る。大きいレンズ歪みに起因して、そのような画像捕捉デバイスの垂直FOVは、画像捕捉デバイスが半径方向に対称なレンズを使用する実装形態では、50度よりはるかに低くなり得る。例えば、そのようなレンズは、半径方向で対称ではなく、それにより、水平FOV100度で、50度よりも大きい垂直FOVが可能である。
第1の画像捕捉デバイス122は、車両200に関連するシーンに対する複数の第1の画像を取得し得る。複数の第1の画像のそれぞれを一連の画像走査線として取得することができ、これらは、ローリングシャッタを使用して捕捉され得る。各走査線は、複数のピクセルを含み得る。第1の画像捕捉デバイス122が赤外画像捕捉デバイスを含む実施形態では、複数の第1の画像のそれぞれは、電子走査システムを使用して捕捉され得る一連の画像走査線として取得され得る。
第1の画像捕捉デバイス122は、第1の一連の画像走査線のそれぞれの取得に関連付けられた走査レートを有し得る。走査レートは、画像センサが、特定の走査線に含まれる各ピクセルに関連付けられた画像データを取得することができるレートを指し得る。第1の画像捕捉デバイス122が赤外画像捕捉デバイスを含む実施形態では、走査レートは、赤外画像センサが、特定の走査線に含まれる各ピクセルに関連付けられた熱データを取得することができるレートを指し得る。
画像捕捉デバイス122、124、及び126は、例えば、CCDセンサ又はCMOSセンサを含む任意の適切なタイプの及び数の画像センサを含み得る。一実施形態では、CMOS画像センサをローリングシャッタと共に利用することができ、それにより行内の各ピクセルが一度に1つずつ読み取られ、行の走査は、画像フレーム全体が捕捉されるまで行毎に進められる。幾つかの実施形態では、行は、フレームに対して上から下に順次捕捉され得る。画像捕捉デバイス122、124、及び126の1つ又は複数が赤外画像捕捉デバイスを含む実施形態では、電子走査システムと共に非冷却焦点面アレイ(UFPA)を利用することができ、それにより、行の走査は、熱マップ全体が捕捉されるまで行毎に進められる。
幾つかの実施形態では、本明細書で開示される画像捕捉デバイス(例えば、画像捕捉デバイス122、124、及び126)の1つ又は複数は、高解像度イメージャを構成することができ、5Mピクセル超、7Mピクセル超、10Mピクセル超、又はそれを超える解像度を有し得る。
ローリングシャッタを使用することは、異なる行内のピクセルが異なる時点において露出され捕捉されることになる場合があり、それは、捕捉画像フレーム内のスキュー及び他の画像アーチファクトを引き起こし得る。他方、画像捕捉デバイス122がグローバルシャッタ又は同期シャッタを用いて動作するように構成される場合、ピクセルの全てが同じ時間にわたって且つ共通の露出期間中に露出され得る。その結果、グローバルシャッタを利用するシステムから収集されるフレーム内の画像データは、特定の時点における全FOV(FOV202等)のスナップショットを表す。対照的に、ローリングシャッタの応用では、フレーム内の各行が異なる時点において露出され、異なる時点においてデータが捕捉される。従って、ローリングシャッタを有する画像捕捉デバイスでは、動いている物体が歪んで見えることがある。この現象(赤外画像捕捉デバイス内での電子走査の使用にも同様に該当する)について、以下でより詳細に説明する。
第2の画像捕捉デバイス124及び第3の画像捕捉デバイス126は、任意のタイプの画像捕捉デバイス又は赤外画像補足デバイスであり得る。第1の画像捕捉デバイス122のように、画像捕捉デバイス124及び126のそれぞれは、光軸を含み得る。一実施形態では、画像捕捉デバイス124及び126のそれぞれは、グローバルシャッタを有するAptinaM9V024WVGAセンサを含み得る。代替的に、画像捕捉デバイス124及び126のそれぞれは、ローリングシャッタを含み得る。画像捕捉デバイス122のように、画像捕捉デバイス124及び126は、様々なレンズ及び光学要素を含むように構成し得る。幾つかの実施形態では、画像捕捉デバイス124及び126に関連付けられたレンズは、画像捕捉デバイス122に関連付けられたFOV(FOV202等)と同じであるか、又は狭いFOV(FOV204及び206等)を提供し得る。例えば、画像捕捉デバイス124及び126は、40度、30度、26度、23度、20度、又は20度未満のFOVを有し得る。
画像捕捉デバイス124及び126は、車両200に関連付けられたシーンに対して複数の第2及び第3の画像を取得し得る。複数の第2及び第3の画像のそれぞれは、第2及び第3の一連の画像走査線として取得し得、これらはローリングシャッタを使用して捕捉し得る。各走査線又は各行は、複数のピクセルを有し得る。画像捕捉デバイス124及び126は、第2及び第3の一連内に含まれる各画像走査線の取得に関連付けられた第2及び第3の走査レートを有し得る。画像捕捉デバイス124及び126の1つ又は複数が赤外画像捕捉デバイスを含む実施形態では、複数の第2の画像及び第3の画像のそれぞれは、電子走査システムを使用して捕捉され得る一連の第2の及び第3の熱走査線として取得され得る。かかる実施形態では、各走査線又は行は、複数のピクセルを有することができ、画像捕捉デバイス124及び/又は126は、第2の一連及び第3の一連に含まれる熱走査線のそれぞれの取得に関連する第2の走査レート及び第3の走査レートを有し得る。
各画像捕捉デバイス122、124、及び126は、任意の適する位置に、車両200に対して任意の適する向きで位置決めし得る。画像捕捉デバイス122、124、及び126の相対位置は、画像捕捉デバイスから取得される情報を一緒に融合させることを支援するように選択し得る。例えば、幾つかの実施形態では、画像捕捉デバイス124に関連付けられたFOV(FOV204)は、画像捕捉デバイス122に関連付けられたFOV(FOV202等)及び画像捕捉デバイス126に関連付けられたFOV(FOV206等)と部分的又は完全に重複し得る。
画像捕捉デバイス122、124、及び126は、任意の適する相対高さで車両200に配置し得る。一例では、画像捕捉デバイス122、124、及び126間に高さ差があり得、高さ差は、立体分析を可能にするのに十分な視差情報を提供し得る。例えば、図2Aに示されるように、2つの画像捕捉デバイス122及び124は異なる高さにある。画像捕捉デバイス122、124、及び126間には横方向変位差もあり得、例えば、処理ユニット110による立体分析に追加の視差情報を与える。横方向変位差は、図2C及び図2Dに示されるように、dxで示し得る。幾つかの実施形態では、前部変位又は後部変位(例えば、範囲変位)が、画像捕捉デバイス122、124、126間に存在し得る。例えば、画像捕捉デバイス122は、画像捕捉デバイス124及び/又は画像捕捉デバイス126の0.5~2メートル以上背後に配置し得る。このタイプの変位では、画像捕捉デバイスの1つが、他の画像捕捉デバイスの潜在的なブラインドスポットをカバー可能であり得る。
同様に、画像捕捉デバイス122、124、及び126間に高低差がなくてもよく、それは、画像捕捉デバイスの1つ又は複数によって作成される熱マップを、画像捕捉デバイスの1つ又は複数によって作成される可視光画像と位置合わせすることを支援し得る。
画像捕捉デバイス122は、任意の適する解像度能力(例えば、画像センサに関連付けられたピクセル数)を有し得、画像捕捉デバイス122に関連付けられた画像センサの解像度は、画像捕捉デバイス124及び126に関連付けられた画像センサの解像度よりも高いか、低いか、又は同じであり得る。幾つかの実施形態では、画像捕捉デバイス122及び/又は画像捕捉デバイス124及び126に関連付けられた画像センサは、解像度640×480、1024×768、1280×960、又は任意の他の適する解像度を有し得る。
フレームレート(例えば、画像捕捉デバイスが、次の画像フレームに関連付けられたピクセルデータ又は熱データの捕捉に移る前に、1つの画像フレームのピクセルデータ又は熱データの組を取得する速度)は、制御可能であり得る。画像捕捉デバイス122に関連付けられたフレームレートは、画像捕捉デバイス124及び126に関連付けられたフレームレートよりも高いか、低いか、又は同じであり得る。画像捕捉デバイス122、124、及び126に関連付けられたフレームレートは、フレームレートのタイミングに影響を及ぼし得る様々なファクタに依存し得る。例えば、画像捕捉デバイス122、124、及び126の1つ又は複数は、画像捕捉デバイス122、124、及び/又は126内の画像センサの1つ又は複数のピクセルに関連付けられた画像データの取得前又は取得後に課される選択可能なピクセル遅延期間を含み得る。一般に、各ピクセルに対応する画像データは、デバイスのクロックレート(例えば、1クロックサイクル当たり1ピクセル)に従って取得し得る。更に、ローリングシャッタを含む実施形態では、画像捕捉デバイス122、124、及び126の1つ又は複数は、画像捕捉デバイス122、124、及び/又は126内の画像センサのピクセル行に関連付けられた画像データの取得前又は取得後に課される選択可能な水平ブランク期間を含み得る。更に、画像捕捉デバイス122、124、及び/又は126の1つ又は複数は、画像捕捉デバイス122、124、及び126の画像フレームに関連付けられた画像データの取得前又は取得後に課される選択可能な垂直ブランク期間を含み得る。同様に、電子走査を含む実施形態では、画像捕捉デバイス122、124、及び126の1つ又は複数は、動的可変走査レートを含み得る。
これらのタイミング制御により、各画像捕捉デバイスの線走査レートが異なる場合でも、画像捕捉デバイス122、124、及び126に関連付けられたフレームレートを同期させることができ得る。更に、以下に更に詳細に考察するように、ファクタ(例えば、画像センサ解像度、最高線走査レート等)の中でも特に、これらの選択可能なタイミング制御により、画像捕捉デバイス122の視野が画像捕捉デバイス124及び126のFOVと異なる場合でも、画像捕捉デバイス122のFOVが画像捕捉デバイス124及び126の1つ又は複数のFOVと重複するエリアからの画像捕捉を同期させることが可能になり得る。
画像捕捉デバイス122、124、及び126でのフレームレートタイミングは、関連付けられた画像センサの解像度に依存し得る。例えば、両デバイスの線走査レートが同様であると仮定し、一方のデバイスが解像度640×480を有する画像センサを含み、他方のデバイスが解像度1280×960を有する画像センサを含む場合、高い解像度を有するセンサからの画像データのフレーム取得ほど、長い時間が必要になる。
画像捕捉デバイス122、124、及び126での画像データ取得のタイミングに影響を及ぼし得る他のファクタは、最高線走査レートである。例えば、画像捕捉デバイス122、124、及び126に含まれる画像センサからの画像データ行の取得は、何らかの最小時間量を必要とする。ピクセル遅延期間が追加されないと仮定すると、画像データ行を取得するこの最小時間量は、特定のデバイスの最高線走査レートに関連することになる。高い最高線走査レートを提供するデバイスほど、より低い最高線走査レートを有するデバイスよりも高いフレームレートを提供する潜在性を有する。幾つかの実施形態では、画像捕捉デバイス124及び126の一方又は両方は、画像捕捉デバイス122に関連付けられた最高線走査レートよりも高い最高線走査レートを有し得る。幾つかの実施形態では、画像捕捉デバイス124及び/又は126の最高線走査レートは、画像捕捉デバイス122の最高線走査レートの1.25倍、1.5倍、1.75倍、又は2倍以上であり得る。
別の実施形態では、画像捕捉デバイス122、124、及び126は、同じ最高線走査レートを有し得るが、画像捕捉デバイス122は、その最高走査レート以下の走査レートで動作し得る。システムは、画像捕捉デバイス124及び126の一方又は両方が画像捕捉デバイス122の線走査レートと等しい線走査レートで動作するように構成し得る。他の例では、システムは、画像捕捉デバイス124及び/又は126の線走査レートが、画像捕捉デバイス122の線走査レートの1.25倍、1.5倍、1.75倍、又は2倍以上であり得るように構成し得る。
幾つかの実施形態では、画像捕捉デバイス122、124、及び126は非対称であり得る。すなわち、これら画像捕捉デバイスは、異なる視野(FOV)及び焦点距離を有するカメラを含み得る。画像捕捉デバイス122、124、及び126の視野は、例えば、車両200の環境に対する任意の所望のエリアを含み得る。幾つかの実施形態では、画像捕捉デバイス122、124、及び126の1つ又は複数は、車両200の前方の環境、車両200の後方の環境、車両200の両側の環境、又はそれらの組合せから画像データを取得するように構成し得る。
更に、各画像捕捉デバイス122、124、及び/又は126に関連付けられた焦点距離は、各デバイスが車両200から所望の距離範囲にある物体の画像を取得するように選択可能であり得る(例えば、適切なレンズの包含等により)。例えば、幾つかの実施形態では、画像捕捉デバイス122、124、及び126は、車両から数メートル以内の近接物体の画像を取得し得る。画像捕捉デバイス122、124、126は、車両からより離れた範囲(例えば、25m、50m、100m、150m、又はそれを超える)における物体の画像を取得するように構成することもできる。更に、画像捕捉デバイス122、124、及び126の焦点距離は、ある画像捕捉デバイス(例えば、画像捕捉デバイス122)が、車両に比較的近い(例えば、10m以内又は20m以内)物体の画像を取得することができ、一方、その他の画像捕捉デバイス(例えば、画像捕捉デバイス124及び126)が、車両200からより離れた物体(例えば、20m超、50m超、100m超、150m超等)の画像を取得することができるように選択し得る。
幾つかの実施形態によれば、1つ又は複数の画像捕捉デバイス122、124、及び126のFOVは、広角を有し得る。例えば、特に車両200の近傍エリアの画像取得に使用し得る画像捕捉デバイス122、124、及び126には140度のFOVを有することが有利であり得る。例えば、画像捕捉デバイス122は、車両200の右又は左のエリアの画像の捕捉に使用し得、そのような実施形態では、画像捕捉デバイス122が広いFOV(例えば、少なくとも140度)を有することが望ましいことがある。
画像捕捉デバイス122、124、及び126のそれぞれに関連付けられた視野は、各焦点距離に依存し得る。例えば、焦点距離が増大するにつれて、対応する視野は低減する。
画像捕捉デバイス122、124、及び126は、任意の適する視野を有するように構成し得る。特定の一例では、画像捕捉デバイス122は、水平FOV46度を有し得、画像捕捉デバイス124は水平FOV23度を有し得、画像捕捉デバイス126は水平FOV23~46度を有し得る。別の例では、画像捕捉デバイス122は水平FOV52度を有し得、画像捕捉デバイス124は水平FOV26度を有し得、画像捕捉デバイス126は、水平FOV26~52度を有し得る。幾つかの実施形態では、画像捕捉デバイス122のFOVと画像捕捉デバイス124及び/又は画像捕捉デバイス126のFOVとの比率は、1.5~2.0で変化し得る。他の実施形態では、この比率は1.25~2.25で変化し得る。
システム100は、画像捕捉デバイス122の視野が、画像捕捉デバイス124及び/又は画像捕捉デバイス126の視野と少なくとも部分的に又は完全に重複するように構成し得る。幾つかの実施形態では、システム100は、画像捕捉デバイス124及び126の視野が、例えば、画像捕捉デバイス122の視野内に入り(例えば、画像捕捉デバイス122の視野よりも小さく)、画像捕捉デバイス122の視野と共通の中心を共有するように構成し得る。他の実施形態では、画像捕捉デバイス122、124、及び126は、隣接するFOVを捕捉し得、又は部分的に重複するFOVを有し得る。幾つかの実施形態では、画像捕捉デバイス122、124、及び126の視野は、FOVのより狭い画像捕捉デバイス124及び/又は126の中心が、FOVがより広いデバイス122の視野の下半分に配置され得るように位置合わせし得る。
図2Fは、開示される実施形態による例示的な車両制御システムの図表現である。図2Fに示されるように、車両200は、スロットルシステム220、ブレーキシステム230、及び操舵システム240を含み得る。システム100は、1つ又は複数のデータリンク(例えば、任意の有線及び/又は無線リンク又はデータを伝送するリンク)を介して、スロットルシステム220、ブレーキシステム230、及び操舵システム240の1つ又は複数に入力(例えば、制御信号)を提供し得る。例えば、画像捕捉デバイス122、124、及び/又は126により取得された画像の分析に基づいて、システム100は、車両200をナビゲートする制御信号をスロットルシステム220、ブレーキシステム230、及び操舵システム240の1つ又は複数に提供し得る(例えば、加速、ターン、レーンシフト等を行わせることにより)。更に、システム100は、車両200の動作状況を示す入力(例えば、速度、車両200がブレーキ中及び/又はターン中であるか否か等)をスロットルシステム220、ブレーキシステム230、及び操舵システム24の1つ又は複数から受信し得る。以下、更なる詳細を図4~図7に関連して提供する。
図3Aに示されるように、車両200は、車両200のドライバー又は乗員と対話するユーザインタフェース170を含むこともできる。例えば、車両アプリケーション内のユーザインタフェース170は、タッチスクリーン320、つまみ330、ボタン340、及びマイクロフォン350を含み得る。車両200のドライバー又は乗員は、ハンドル(例えば、ウィンカーハンドルを含み、車両200のステアリングコラム上又はその近傍に配置される)及びボタン(例えば、車両200のハンドルに配置される)等を使用して、システム100と対話することもできる。幾つかの実施形態では、マイクロフォン350はバックミラー310に隣接して位置決めし得る。同様に、幾つかの実施形態では、画像捕捉デバイス122は、バックミラー310の近傍に配置し得る。幾つかの実施形態では、ユーザインタフェース170は、1つ又は複数のスピーカ360(例えば、車両オーディオシステムのスピーカ)を含むこともできる。例えば、システム100は、スピーカ360を介して様々な通知(例えば、アラート)を提供し得る。
図3B~図3Dは、開示される実施形態による、バックミラー(例えば、バックミラー310)の背後に、車両フロントガラスと対向して位置決めされるように構成される例示的なカメラマウント370の図である。図3Bに示されるように、カメラマウント370は、画像捕捉デバイス122、124、及び126を含み得る。画像捕捉デバイス124及び126は、グレアシールド380の背後に位置決めし得、グレアシールド380は、フロントガラスに直接接触し得、フィルム及び/又は反射防止材料の組成物を含み得る。例えば、グレアシールド380は、一致する傾斜を有するフロントガラスと対向して位置合わせされるように位置決めし得る。幾つかの実施形態では、画像捕捉デバイス122、124、及び126のそれぞれは、例えば、図3Dに示されるように、グレアシールド380の背後に位置決めし得る。画像捕捉デバイス122、124、及び126の1つ又は複数が赤外画像捕捉デバイスを含む実施形態では、かかる材料が赤外光の取り込みを妨げることを防ぐために、これらの装置をグレアシールド380の前に配置することができる(又は代替的に、グレアシールド380が赤外画像捕捉デバイスの前方に延在しなくてもよい)。開示される実施形態は、画像捕捉デバイス122、124、及び126、カメラマウント370、並びにグレアシールド380のいかなる特定の構成にも限定されない。図3Cは、前から見た図3Bに示すカメラマウント370の図である。
本開示の恩恵を受ける当業者により理解されるように、上記開示された実施形態に対する多くの変形形態及び/又は変更形態がなされ得る。例えば、全ての構成要素がシステム100の動作にとって必須であるわけではない。更に、任意の構成要素がシステム100の任意の適切な部分に配置し得、構成要素は、開示される実施形態の機能を提供しながら、様々な構成に再配置し得る。従って、上述した構成は例であり、上述した構成に関係なく、システム100は、車両200の周囲を分析し、分析に応答して車両200をナビゲートする広範囲の機能を提供することができる。
以下に更に詳細に考察するように、様々な開示される実施形態により、システム100は、自律運転及び/又はドライバー支援技術に関連する様々な特徴を提供し得る。例えば、システム100は、画像データ、赤外画像データ、位置データ(例えば、GPS位置情報)、地図データ、速度データ、及び/又は車両200に含まれるセンサからのデータを分析し得る。システム100は、例えば、画像取得ユニット120、位置センサ130、及び他のセンサから、分析のためにデータを収集し得る。更に、システム100は、収集されたデータを分析して、車両200が特定の行動をとるべきか否かを特定し、次に、人間の介入なしで、判断された動作を自動的にとり得る。例えば、車両200が人間の加入なしでナビゲートする場合、システム100は、車両200のブレーキ、加速度、及び/又は操舵を自動的に制御し得る(例えば、制御信号をスロットルシステム220、ブレーキシステム230、及び操舵システム240の1つ又は複数に送信することにより)。更に、システム100は、収集されたデータを分析し、収集されたデータの分析に基づいて警告及び/又はアラートを車両の搭乗者に発行し得る。システム100により提供される様々な実施形態に関する更なる詳細を以下に提供する。
前向きマルチ撮像システム 上述したように、システム100は、マルチカメラシステムを使用する運転支援機能を提供し得る。このマルチカメラシステムは、車両の前方方向に向いた1つ又は複数のカメラ(及び/又は赤外カメラ)を使用し得る。他の実施形態では、このマルチカメラシステムは、車両の側方又は車両の後方に向いた1つ又は複数のカメラ(及び/又は赤外カメラ)を含み得る。一実施形態では、例えば、システム100は、2カメラ撮像システムを使用することができ、その場合、第1のカメラ及び第2のカメラ(例えば、画像捕捉デバイス122及び124)は、車両(例えば、車両200)の前部及び/又は側部に配置され得る。他のカメラ構成も、開示される実施形態と一致し、本明細書で開示される構成は例である。例えば、システム100は、任意の数(例えば、1つ、2つ、3つ、4つ、5つ、6つ、7つ、8つ等)のカメラの構成、及びカメラのタイプの任意の組合せ(例えば、2つの視覚カメラと1つの赤外カメラ、1つの視覚カメラと2つの赤外カメラ、2つの視覚カメラと2つの赤外カメラ等)の構成を含み得る。更に、システム100は、カメラの「クラスタ」を含み得る。例えば、(任意の適切な数、例えば1つ、4つ、8つ等のカメラ及び任意の適切なタイプのカメラ、例えば視覚カメラ、赤外カメラ等を含む)カメラのクラスタは、車両に対して前向きとすることができ、又は他の任意の方向に向き得る(例えば、リワード向き、横向き、斜め等)。従って、システム100は、カメラの複数のクラスタを含むことができ、各クラスタは、車両の環境の特定の領域から画像を捕捉するために特定の方向に向けられている。
第1のカメラは、第2のカメラの視野よりも大きいか、小さいか、又は部分的に重複する視野を有し得る。加えて、第1のカメラは、第1のカメラによって提供される画像の単眼画像分析を実行するために第1の画像プロセッサに接続され得、第2のカメラは、第2のカメラによって提供される画像の単眼画像分析を実行するために第2の画像プロセッサに接続され得る。第1のカメラ及び第2のカメラの1つ又は複数が赤外カメラを含む実施形態では、第1の画像プロセッサ及び/又は第2の画像プロセッサは、赤外カメラによって提供される熱マップの熱マップ分析を実行し得る。
第1の画像プロセッサ及び第2の画像プロセッサの出力(例えば、処理された情報)は、結合され得る。幾つかの実施形態では、第2の画像プロセッサは、第1のカメラ及び第2のカメラの両方から画像を受信して、立体分析を実行することができ、又は位置合わせされた可視光画像及び赤外画像に対する分析を実行することができる。別の実施形態では、システム100は、3カメラ撮像システムを使用することができ、この場合、カメラのそれぞれが異なる視野を有する。従って、そのようなシステムは、車両の前方及び側部の両方の様々な距離にある物体から導出される情報に基づいて判断を下し得る。単眼画像分析への言及は、単一視点から(例えば、単一のカメラから)捕捉される画像に基づいて画像分析が実行される場合を指し得る。立体画像分析は、画像捕捉パラメータの1つ又は複数を変更した状態で捕捉される2つ以上の画像に基づいて画像分析が実行される場合を指し得る。例えば、立体画像分析を実行するのに適した捕捉画像は、2つ以上の異なる位置から捕捉される画像、異なる視野から捕捉される画像、異なる焦点距離を使用して捕捉される画像、視差情報付きで捕捉される画像等を含み得る。混成画像分析は、1つ又は複数の可視光画像が1つ又は複数の赤外画像と位置合わせされ、その位置合わせされた画像に基づいて画像分析が実行される場合を指し得る。
例えば、一実施形態では、システム100は、画像捕捉デバイス122、124、及び126を使用する3カメラ構成を実施し得る。そのような構成では、画像捕捉デバイス122は、狭視野(例えば、34度又は約20~45度の範囲から選択される他の値等)を提供し得、画像捕捉デバイス124は、広視野(例えば、150度又は約100~約180度の範囲から選択される他の値)を提供し得、画像捕捉デバイス126は、中視野(例えば、46度又は約35~約60度の範囲から選択される他の値)を提供し得る。幾つかの実施形態では、画像捕捉デバイス126は、主又は一次カメラとして動作し得る。画像捕捉デバイス122、124、及び126は、バックミラー310の背後に、実質的に並んで(例えば、6cm離間)位置決めし得る。更に、幾つかの実施形態では、上述したように、画像捕捉デバイス122、124、及び126の1つ又は複数は、車両200のフロントガラスと同一平面のグレアシールド380の背後に搭載し得る。そのようなシールドは、車内部からのいかなる反射の画像捕捉デバイス122、124、及び126への影響も最小にするように動作し得る。
別の実施形態では、図3B及び図3Cに関連して上述したように、広視野カメラ(例えば、上記例では画像捕捉デバイス124)は、狭い主視野カメラ(例えば、上記例では画像捕捉デバイス122及び126)よりも低く搭載し得る。この構成は、広視野カメラからの自由な視線を提供し得る。反射を低減するために、カメラは、車両200のフロントガラス近くに搭載し得、反射光を弱める偏光器をカメラに含み得る。
3カメラシステムは、特定の性能特徴を提供し得る。例えば、幾つかの実施形態は、あるカメラによる物体の検出を別のカメラからの検出結果に基づいて検証する機能を含み得る。上述した3カメラ構成では、処理ユニット110は、例えば、3つの処理デバイス(例えば、上述したように3つのEyeQシリーズのプロセッサチップ)を含み得、各処理デバイスは、画像捕捉デバイス122、124、及び126の1つ又は複数により捕捉される画像の処理に向けられる。
3カメラシステムでは、第1の処理デバイスは、主カメラ及び狭視野カメラの両方から画像を受信し得、狭FOVカメラのビジョン処理を実行して、例えば、他の車両、歩行者、レーンマーク、交通標識、信号機、及び他の道路物体を検出し得る。更に、第1の処理デバイスは、主カメラからの画像と狭カメラからの画像との間でのピクセルの視差を計算し、車両200の環境の3D再構築情報を作成し得る。次に、第1の処理デバイスは、3D再構築情報を、3Dマップデータ又は別のカメラからの情報に基づいて計算される3D情報と結合し得る。
第2の処理デバイスは、主カメラから画像を受信し得、ビジョン処理を実行して、他の車両、歩行者、レーンマーク、交通標識、信号機、及び他の道路物体を検出し得る。更に、第2の処理デバイスは、カメラ変位を計算し、変位に基づいて、連続画像間のピクセルの視差を計算し、シーンの3D再構築情報(例えば、ストラクチャーフロムモーション)を作成し得る。第2の処理デバイスは、3D再構築情報に基づくストラクチャーフロムモーションを第1の処理デバイスに送信し、ストラクチャーフロムモーションを立体3D画像と結合し得る。
第3の処理デバイスは、画像を広FOVカメラから受信し、画像を処理して、車両、歩行者、レーンマーク、交通標識、信号機、及び他の道路物体を検出し得る。第3の処理デバイスは、追加の処理命令を更に実行して、画像を分析し、レーン変更中の車両、歩行者等の画像内の移動中の物体を識別し得る。
幾つかの実施形態では、画像に基づく情報ストリームを独立して捕捉させ、処理させることは、システムで冗長性を提供する機会を提供し得る。そのような冗長性は、例えば、第1の画像捕捉デバイス及びそのデバイスから処理された画像を使用して、少なくとも第2の画像捕捉デバイスから画像情報を捕捉し処理することにより得られる情報を検証及び/又は補足し得る。
幾つかの実施形態では、システム100は、車両200にナビゲーション支援を提供するに当たり2つの画像捕捉デバイス(例えば、画像捕捉デバイス122及び124)を使用し得、第3の画像捕捉デバイス(例えば、画像捕捉デバイス126)を使用して、冗長性を提供し、他の2つの画像捕捉デバイスから受信されるデータの分析を検証し得る。例えば、そのような構成では、画像捕捉デバイス122及び124は、車両200をナビゲートするためのシステム100による立体分析の画像を提供し得、一方、画像捕捉デバイス126は、システム100による単眼分析に画像を提供して、画像捕捉デバイス122及び/又は画像捕捉デバイス124から捕捉された画像に基づいて得られる情報の冗長性及び検証を提供し得る。すなわち、画像捕捉デバイス126(及び対応する処理デバイス)は、画像捕捉デバイス122及び124から導出された分析へのチェックを提供する冗長サブシステムを提供する(例えば、自動緊急ブレーキ(AEB)システムを提供するため)と見なし得る。更に、幾つかの実施形態では、1つ又は複数のセンサから受信される情報(例えば、レーダ、ライダ、音響センサ、車外の1つ又は複数の送受信機から受信される情報等)に基づいて受信データの冗長性及び検証を補うことができる。
上記カメラ構成、カメラ配置、カメラ数、カメラ位置等が単なる例示であることを当業者は認識するであろう。全体システムに対して説明されるこれらの構成要素等は、開示される実施形態の範囲から逸脱せずに、様々な異なる構成で組み立て且つ使用し得る。ドライバー支援及び/又は自律車両機能を提供するためのマルチカメラシステムの使用に関する更なる詳細が以下に続く。
図4は、開示される実施形態による1つ又は複数の動作を実行する命令を記憶/プログラムされ得るメモリ140及び/又は150の例示的な機能ブロック図である。以下ではメモリ140を参照するが、当業者は、命令がメモリ140及び/又は150に記憶可能なことを認識するであろう。
図4に示されるように、メモリ140は、単眼画像分析モジュール402、立体画像分析モジュール404、速度及び加速度モジュール406、並びにナビゲーション応答モジュール408を記憶し得る。開示される実施形態は、いかなる特定の構成のメモリ140にも限定されない。更に、アプリケーションプロセッサ180及び/又は画像プロセッサ190は、メモリ140に含まれる任意のモジュール402、404、406、及び408に記憶された命令を実行し得る。以下の考察での処理ユニット110の参照が、アプリケーションプロセッサ180及び画像プロセッサ190を個々に又はまとめて指し得ることを当業者は理解するであろう。従って、以下のプロセスの何れかのステップは、1つ又は複数の処理デバイスにより実行し得る。
一実施形態では、単眼画像分析モジュール402は命令(コンピュータビジョンソフトウェア等)を記憶し得、命令は、処理ユニット110により実行されると、画像捕捉デバイス122、124、及び126の1つにより取得された画像の組の単眼画像分析を実行する。幾つかの実施形態では、処理ユニット110は、画像の組からの情報を追加のセンサ情報(例えば、レーダ、ライダ等からの情報)と結合して、単眼画像分析を実行し得る。以下の図5A~図5Dに関連して説明するように、単眼画像分析モジュール402は、レーンマーク、車両、歩行者、道路標識、高速道路出口ランプ、信号機、危険物、及び車両の環境に関連付けられた任意の他の特徴等、画像の組内の特徴の組を検出する命令を含み得る。分析に基づいて、システム100は、ナビゲーション応答モジュール408に関連して以下で考察するように、ターン、レーンシフト、及び加速度変更等の1つ又は複数のナビゲーション応答を車両200において生じさせ得る(例えば、処理ユニット110を介して)。
一実施形態では、立体画像分析モジュール404は命令(コンピュータビジョンソフトウェア等)を記憶し得、命令は、処理ユニット110により実行されると、画像捕捉デバイス122、124、及び126から選択された画像捕捉デバイスの組合せにより取得される第1及び第2の組の画像の立体画像分析を実行する。幾つかの実施形態では、処理ユニット110は、第1及び第2の組の画像からの情報を追加のセンサ情報(例えば、レーダからの情報)と結合して、立体画像分析を実行し得る。例えば、立体画像分析モジュール404は、画像捕捉デバイス124により取得される第1の組の画像及び画像捕捉デバイス126により取得される第2の組の画像に基づいて、立体画像分析を実行する命令を含み得る。以下で図6に関連して説明するように、立体画像分析モジュール404は、レーンマーク、車両、歩行者、道路標識、高速道路出口ランプ、信号機、及び危険物等の第1及び第2の組の画像内の特徴の組を検出する命令を含み得る。分析に基づいて、処理ユニット110は、ナビゲーション応答モジュール408に関連して後述するように、ターン、レーンシフト、及び加速度変更等の1つ又は複数のナビゲーション応答を車両200において生じさせ得る。更に、幾つかの実施形態では、立体画像分析モジュール404は、訓練されたシステム(ニューラルネットワーク又はディープニューラルネットワーク等)又は訓練されていないシステム(コンピュータビジョンアルゴリズムを使用するように構成され得るシステム等)に関連する技法を実装して、センサ情報の捕捉元及び処理元である環境内の物体を検出し且つ/又はラベル付けすることができる。一実施形態では、立体画像分析モジュール404及び/又は他の画像処理モジュールは、訓練されたシステムと訓練されていないシステムとの組合せを使用するように構成され得る。
一実施形態では、速度及び加速度モジュール406は、車両200の速度及び/又は加速度を変更させるように構成される、車両200内の1つ又は複数の計算及び電気機械デバイスから受信されるデータを分析するように構成されるソフトウェアを記憶し得る。例えば、処理ユニット110は、速度及び加速度モジュール406に関連付けられた命令を実行して、単眼画像分析モジュール402及び/又は立体画像分析モジュール404の実行から導出されるデータに基づいて、車両200の目標速度を計算し得る。そのようなデータとしては、例えば、目標位置、速度、及び/又は加速度、付近の車両、歩行者、又は道路物体に対する車両200の位置及び/又は速度、及び道路のレーンマークに対する車両200の位置情報等を挙げ得る。加えて、処理ユニット110は、センサ入力(例えば、レーダからの情報)と、車両200のスロットルシステム220、ブレーキシステム230、及び/又は操舵システム240等の車両200の他のシステムからの入力とに基づいて、車両200の目標速度を計算し得る。計算された目標速度に基づいて、処理ユニット110は、電子信号を車両200のスロットルシステム220、ブレーキシステム230、及び/又は操舵システム240に送信して、例えば、車両200のブレーキを物理的に弱めるか、又はアクセルを弱めることにより速度及び/又は加速度の変更をトリガーし得る。
一実施形態では、ナビゲーション応答モジュール408は、処理ユニット110により実行可能であり、単眼画像分析モジュール402及び/又は立体画像分析モジュール404の実行から導出されるデータに基づいて、所望のナビゲーション応答を決定するソフトウェアを記憶し得る。そのようなデータは、付近の車両、歩行者、及び道路物体に関連付けられた位置及び速度情報並びに車両200の目標位置情報等を含み得る。更に、幾つかの実施形態では、ナビゲーション応答は、地図データ、車両200の所定の位置、及び/又は車両200と、単眼画像分析モジュール402及び/又は立体画像分析モジュール404の実行から検出される1つ又は複数の物体との間の相対速度又は相対加速度に基づき得る(部分的又は完全に)。ナビゲーション応答モジュール408は、センサ入力(例えば、レーダからの情報)と、車両200のスロットルシステム220、ブレーキシステム230、及び操舵システム240等の車両200の他のシステムからの入力とに基づいて、所望のナビゲーション応答を決定することもできる。所望のナビゲーション応答に基づいて、処理ユニット110は、電子信号を車両200のスロットルシステム220、ブレーキシステム230、及び操舵システム240に送信して、例えば、車両200のハンドルをターンさせ、所定の角度の回転を達成することにより、所望のナビゲーション応答をトリガーし得る。幾つかの実施形態では、処理ユニット110は、車両200の速度変更を計算するための速度及び加速度モジュール406の実行への入力として、ナビゲーション応答モジュール408の出力(例えば、所望のナビゲーション応答)を使用し得る。
更に、本明細書で開示されるモジュール(例えば、モジュール402、404、及び406)の何れも、訓練されたシステム(ニューラルネットワーク又はディープニューラルネットワーク等)又は訓練されていないシステムに関連する技法を実装することができる。
図5Aは、開示される実施形態による、単眼画像分析に基づいて1つ又は複数のナビゲーション応答を生じさせる例示的なプロセス500Aを示すフローチャートである。ステップ510において、処理ユニット110は、処理ユニット110と画像取得ユニット120との間のデータインタフェース128を介して、複数の画像を受信し得る。例えば、画像取得ユニット120に含まれるカメラ(視野202を有する画像捕捉デバイス122等)は、車両200の前方(又は例えば、車両の側部若しくは後方)のエリアの複数の画像を捕捉し、データ接続(例えば、デジタル、有線、USB、無線、Bluetooth等)を介して処理ユニット110に送信し得る。処理ユニット110は、単眼画像分析モジュール402を実行して、ステップ520において、以下で図5B~図5Dに関連して更に詳細に説明するように、複数の画像を分析し得る。分析を実行することにより、処理ユニット110は、レーンマーク、車両、歩行者、道路標識、高速道路出口ランプ、及び信号機等の画像の組内の特徴の組を検出し得る。
処理ユニット110は、ステップ520において、単眼画像分析モジュール402を実行して、例えば、トラックタイヤの部品、落ちた道路標識、緩んだ貨物、及び小動物等の様々な道路危険物を検出することもできる。道路危険物の構造、形状、サイズ、及び色は様々であり得、そのような危険物の検出をより難しくする。幾つかの実施形態では、処理ユニット110は、単眼画像分析モジュール402を実行し、マルチフレーム分析を複数の画像に対して実行して、道路危険物を検出し得る。例えば、処理ユニット110は、連続画像フレーム間でのカメラ移動を推定し、フレーム間のピクセルの視差を計算して、道路の3Dマップを構築し得る。次に、処理ユニット110は、3Dマップを使用して、路面及び路面の上に存在する危険物を検出し得る。
ステップ530において、処理ユニット110は、ナビゲーション応答モジュール408を実行して、ステップ520において実行された分析及び図4に関連して上述した技法に基づいて、車両200に1つ又は複数のナビゲーション応答を生じさせ得る。ナビゲーション応答は、例えば、ターン、レーンシフト、及び加速度変更等を含み得る。幾つかの実施形態では、処理ユニット110は、速度及び加速度モジュール406の実行から導出されるデータを使用して、1つ又は複数のナビゲーション応答を生じさせ得る。更に、複数のナビゲーション応答は同時に生じ得、順次生じ得、又はそれらの任意の組合せで生じ得る。例えば、処理ユニット110は、例えば、制御信号を車両200の操舵システム240及びスロットルシステム220に順次送信することにより、車両200に1レーンシフトさせ、それから、例えば、加速させ得る。代替的に、処理ユニット110は、例えば、制御信号を車両200のブレーキシステム230及び操舵システム240に同時に送信することにより、車両200に、ブレーキを掛けさせ、それと同時にレーンをシフトさせ得る。
図5Bは、開示される実施形態による、画像の組内の1つ又は複数の車両及び/又は歩行者を検出する例示的なプロセス500Bを示すフローチャートである。処理ユニット110は、単眼画像分析モジュール402を実行して、プロセス500Bを実施し得る。ステップ540において、処理ユニット110は、存在する可能性がある車両及び/又は歩行者を表す候補物体の組を特定し得る。例えば、処理ユニット110は、1つ又は複数の画像を走査し、画像を1つ又は複数の所定のパターンと比較し、各画像内で、対象物体(例えば、車両、歩行者、又はそれらの部分)を含み得る可能性がある位置を識別し得る。所定のパターンは、低率の「偽性ヒット」及び低率の「見逃し」を達成するように指定し得る。例えば、処理ユニット110は、所定のパターンへの低い類似性閾値を使用して、可能性のある車両又は歩行者として候補物体を識別し得る。そうすることにより、処理ユニット110は、車両又は歩行者を表す候補物体を見逃す(例えば、識別しない)確率を低減することができ得る。
ステップ542において、処理ユニット110は、候補物体の組をフィルタリングして、分類基準に基づいて特定の候補(例えば、無関係又は関係性の低い物体)を除外し得る。そのような基準は、データベース(例えば、メモリ140に記憶されるデータベース)に記憶された物体タイプに関連付けられた様々な特性から導出し得る。特性は、物体の形状、寸法、テクスチャ、及び位置(例えば、車両200に対する)等を含み得る。従って、処理ユニット110は、1つ又は複数の組の基準を使用して、候補物体の組から偽性候補を拒絶し得る。
ステップ544において、処理ユニット110は、複数の画像フレームを分析して、候補画像の組内の物体が車両及び/又は歩行者を表しているか否かを特定し得る。例えば、処理ユニット110は、連続フレームにわたり検出された候補物体を追跡し、検出された物体に関連付けられたフレーム毎データ(例えば、サイズ、車両200に対する位置等)を蓄積し得る。更に、処理ユニット110は、検出された物体のパラメータを推定し、物体のフレーム毎位置データを予測位置と比較し得る。
ステップ546において、処理ユニット110は、検出された物体の測定値の組を構築し得る。そのような測定値は、例えば、検出された物体に関連付けられた位置、速度、及び加速度値(例えば、車両200に対する)を含み得る。幾つかの実施形態では、処理ユニット110は、カルマンフィルタ又は線形二次推定(LQE)等の一連の時間ベースの観測を使用する推定技法及び/又は異なる物体タイプ(例えば、車、トラック、歩行者、自転車、道路標識等)で利用可能なモデリングデータに基づいて、測定値を構築し得る。カルマンフィルタは、物体のスケールの測定値に基づき得、ここで、スケール測定値は衝突までの時間(例えば、車両200が物体に達するまでの時間量)に比例する。従って、ステップ540、542、544、及び546を実行することにより、処理ユニット110は、捕捉画像の組内に現れる車両及び歩行者を識別し、車両及び歩行者に関連付けられた情報(例えば、位置、速度、サイズ)を導出し得る。識別及び導出される情報に基づいて、処理ユニット110は、図5Aに関連して上述したように、車両200で1つ又は複数のナビゲーション応答を生じさせ得る。
ステップ548において、処理ユニット110は、1つ又は複数の画像のオプティカルフロー分析を実行して、「偽性ヒット」を検出する確率及び車両又は歩行者を表す候補物体を見逃す確率を低減し得る。オプティカルフロー分析は、例えば、他の車両及び歩行者に関連付けられた1つ又は複数の画像内の車両200に対する、路面の動きとは別個の移動パターンを分析することを指し得る。処理ユニット110は、異なる時刻に捕捉された複数の画像フレームにわたる物体の異なる位置を観測することにより、候補物体の移動を計算し得る。処理ユニット110は、位置及び時間値を数学モデルへの入力として使用して、候補物体の移動を計算し得る。従って、オプティカルフロー分析は、車両200の付近にある車両及び歩行者を検出する別の方法を提供し得る。処理ユニット110は、ステップ540、542、544、及び546と組み合わせて光学フロー分析を実行して、車両及び歩行者を検出する冗長性を提供すると共に、システム100の信頼度を上げ得る。
図5Cは、開示される実施形態による、画像の組内の道路マーク及び/又はレーンジオメトリ情報を検出する例示的なプロセス500Cを示すフローチャートである。処理ユニット110は、単眼画像分析モジュール402を実行して、プロセス500Cを実施し得る。ステップ550において、処理ユニット110は、1つ又は複数の画像を走査することにより物体の組を検出し得る。レーンマークのセグメント、レーンジオメトリ情報、及び他の関連道路マークを検出するために、処理ユニット110は、物体の組をフィルタリングして、無関連(例えば、小さい穴、小さい岩等)であると判断されるものを除外し得る。ステップ552において、処理ユニット110は、同じ道路マーク又はレーンマークに属する、ステップ550において検出されたセグメントを一緒にグループ化し得る。グループ化に基づいて、処理ユニット110は、数学モデル等のモデルを開発して、検出されたセグメントを表し得る。
ステップ554において、処理ユニット110は、検出されたセグメントに関連付けられた測定値の組を構築し得る。幾つかの実施形態では、処理ユニット110は、画像平面から実世界平面への検出セグメントの射影を作成し得る。射影は、検出された道路の位置、傾斜、曲率、及び曲率微分等の物理特性に対応する係数を有する三次多項式を使用して特徴付け得る。射影を生成するに当たり、処理ユニット110は、路面変化並びに車両200に関連付けられたピッチ及びロール率を考慮に入れ得る。加えて、処理ユニット110は、位置及び路面に存在するモーションキューを分析することにより道路高をモデリングし得る。更に、処理ユニット110は、1つ又は複数の画像での特徴点の組を追跡することにより、車両200に関連付けられたピッチ率及びロール率を推定し得る。
ステップ556において、処理ユニット110は、例えば、連続した画像フレームにわたり検出セグメントを追跡し、検出セグメントに関連付けられたフレーム毎データを蓄積することにより、マルチフレーム分析を実行し得る。処理ユニット110はマルチフレーム分析を実行する場合、ステップ554において構築された測定値の組はより信頼性の高いものになり得、ますます高い信頼度を関連付け得る。従って、ステップ550~556を実行することにより、処理ユニット110は、捕捉画像の組内に現れる道路マークを識別し、レーンジオメトリ情報を導出し得る。識別及び導出される情報に基づいて、処理ユニット110は、図5Aに関連して上述したように、車両200で1つ又は複数のナビゲーション応答を生じさせ得る。
ステップ558において、処理ユニット110は、追加の情報ソースを考慮して、車両の周囲の状況での車両200の安全モデルを更に開発し得る。処理ユニット110は、安全モデルを使用して、システム100が車両200の自律制御を安全に実行し得る状況を定義し得る。安全モデルを開発するために、幾つかの実施形態では、処理ユニット110は、他の車両の位置及び動き、検出された道路縁部及び障壁、及び/又は地図データ(地図データベース160からのデータ等)から抽出された一般道路形状記述を考慮し得る。追加の情報ソースを考慮することにより、処理ユニット110は、道路マーク及びレーンジオメトリを検出する冗長性を提供し、システム100の信頼性を上げ得る。
図5Dは、開示される実施形態による、画像の組内の信号機を検出する例示的なプロセス500Dを示すフローチャートである。処理ユニット110は、単眼画像分析モジュール402を実行して、プロセス500Dを実施し得る。ステップ560において、処理ユニット110は、画像の組を走査し、信号機を含む可能性が高い画像内の位置に現れる物体を識別し得る。例えば、処理ユニット110は、識別された物体をフィルタリングして、信号機に対応する可能性が低い物体を除外した候補物体の組を構築し得る。フィルタリングは、形状、寸法、テクスチャ、及び位置(例えば、車両200に対する)等の信号機に関連付けられた様々な特性に基づいて行い得る。そのような特性は、信号機及び交通制御信号の多くの例に基づき得、データベースに記憶し得る。幾つかの実施形態では、処理ユニット110は、可能性のある信号機を反映した候補物体の組に対してマルチフレーム分析を実行し得る。例えば、処理ユニット110は、連続した画像フレームにわたり候補物体を追跡し、候補物体の現実世界位置を推定し、移動している(信号機である可能性が低い)物体をフィルタリングして除去し得る。幾つかの実施形態では、処理ユニット110は、カラー分析を候補物体に対して実行し、可能性のある信号機内部に表される検出色の相対位置を識別し得る。
ステップ562において、処理ユニット110は、交差点のジオメトリを分析し得る。分析は、(i)車両200の両側で検出されるレーン数、(ii)道路で検出されたマーク(矢印マーク等)、及び(iii)地図データ(地図データベース160からのデータ等)から抽出された交差点の記述の任意の組合せに基づき得る。処理ユニット110は、単眼分析モジュール402の実行から導出される情報を使用して、分析を行い得る。加えて、処理ユニット110は、ステップ560において検出された信号機と、車両200近傍に現れるレーンとの対応性を特定し得る。
車両200が交差点に近づくにつれて、ステップ564において、処理ユニット110は、分析された交差点ジオメトリ及び検出された信号機に関連付けられた信頼度を更新し得る。例えば、交差点に実際に現れる信号機の数と比較した、交差点に現れると推定された信号機の数は、信頼度に影響を及ぼし得る。従って、信頼度に基づいて、処理ユニット110は、車両200のドライバーに制御を委任して、安全状況を改善し得る。ステップ560、562、及び564を実行することにより、処理ユニット110は、捕捉画像の組内に現れる信号機を識別し、交差点ジオメトリ情報を分析し得る。識別及び分析に基づいて、処理ユニット110は、図5Aに関連して上述したように、車両200で1つ又は複数のナビゲーション応答を生じさせ得る。
図5Eは、開示される実施形態による、車両経路に基づいて車両200で1つ又は複数のナビゲーション応答を生じさせる例示的なプロセス500Eのフローチャートである。ステップ570において、処理ユニット110は、車両200に関連付けられた初期車両経路を構築し得る。車両経路は、座標(x,y)で表される点の組を使用して表し得、点の組内の2点間距離diは、1~5メートルの範囲内にあり得る。一実施形態では、処理ユニット110は、左右の道路多項式等の2つの多項式を使用して初期車両経路を構築し得る。処理ユニット110は、2つの多項式間の幾何学的中間点を計算し、所定のオフセットがある場合(オフセット0は、レーンの中央での走行に対応し得る)、所定のオフセット(例えば、スマートレーンオフセット)だけ、結果として生成される車両経路に含まれる各点をオフセットさせ得る。オフセットは、車両経路内の任意の2点間の区分に垂直の方向であり得る。別の実施形態では、処理ユニット110は、1つの多項式及び推定レーン幅を使用して、推定レーン幅の半分に所定のオフセット(例えば、スマートレーンオフセット)を加えたものだけ車両経路の各点をオフセットさせ得る。
ステップ572において、処理ユニット110は、ステップ570において構築された車両経路を更新し得る。処理ユニット110は、車両経路を表す点の組内の2点間距離dkが、上述した距離diよりも短くなるように、より高い解像度を使用して、570において構築された車両経路を再構築し得る。例えば、距離dkは0.1~0.3メートルの範囲であり得る。処理ユニット110は、放物線スプラインアルゴリズムを使用して車両経路を再構築し得、これは、車両経路の全長(すなわち、車両経路を表す点の組に基づく)に対応する累積距離ベクトルSをもたらし得る。
ステップ574において、処理ユニット110は、ステップ572において行われた更新車両経路に基づいて、先読み点((x,z)として座標で表される)を特定し得る。処理ユニット110は、累積距離ベクトルSから先読み点を抽出し得、先読み点には、先読み距離及び先読み時間を関連付け得る。先読み距離は、下限範囲10~20メートルを有し得、車両200の速度と先読み時間との積として計算し得る。例えば、車両200の速度が下がるにつれて、先読み距離も短くなり得る(例えば、下限に達するまで)。0.5~1.5秒の範囲であり得る先読み時間は、ヘッディングエラー追跡制御ループ等の車両200でナビゲーション応答を生じさせることに関連付けられた1つ又は複数の制御ループの利得に反比例し得る。例えば、ヘッディングエラー追跡制御ループの利得は、ヨー率ループ、操舵アクチュエータループ、及び車横方向ダイナミクス等の帯域幅に依存し得る。従って、ヘッディングエラー追跡制御ループの利得が高いほど、先読み時間は短くなる。
ステップ576において、処理ユニット110は、ステップ574において特定される先読み点に基づいて、ヘッディングエラー及びヨー率コマンドを決定し得る。処理ユニット110は、先読み点の逆正接、例えば、arctan(x/z)を計算することにより、ヘッディングエラーを特定し得る。処理ユニット110は、ヘッディングエラーと高レベル制御利得との積としてヨー率コマンドを決定し得る。高レベル制御利得は、先読み距離が下限にない場合、(2/先読み時間)に等しい値であり得る。先読み距離が下限である場合、高レベル制御利得は(2×車両200の速度/先読み距離)に等しい値であり得る。
図5Fは、開示される実施形態による、先行車両がレーンを変更中であるか否かを特定する例示的なプロセス500Fを示すフローチャートである。ステップ580において、処理ユニット110は、先行車両(例えば、車両200の前を移動中の車両)に関連付けられたナビゲーション情報を特定し得る。例えば、処理ユニット110は、図5A及び図5Bに関連して上述した技法を使用して、先行車両の位置、速度(例えば、方向及び速度)、及び/又は加速度を特定し得る。処理ユニット110は、図5Eに関連して上述した技法を使用して、1つ又は複数の道路多項式、先読み点(車両200に関連付けられる)、及び/又はスネイルトレイル(例えば、先行車両がとった経路を記述する点の組)を特定することもできる。
ステップ582において、処理ユニット110は、ステップ580において特定されたナビゲーション情報を分析し得る。一実施形態では、処理ユニット110は、スネイルトレイルと道路多項式との間の距離(例えば、トレイルに沿った)を計算し得る。トレイルに沿ったこの距離の相違が所定の閾値(例えば、直線道路では0.1~0.2メートル、緩くカーブした道路では0.3~0.4メートル、急カーブの道路では0.5~0.6メートル)を超える場合、処理ユニット110は、先行車両がレーン変更中である可能性が高いと判断し得る。複数の車両が、車両200の前を走行中であることが検出される場合、処理ユニット110は、各車両に関連付けられたスネイルトレイルを比較し得る。比較に基づいて、処理ユニット110は、スネイルトレイルが他の車両のスネイルトレイルに一致しない車両が、レーン変更中である可能性が高いと判断し得る。処理ユニット110は、更に、スネイルトレイル(先行車両に関連付けられた)の曲率を、先行車両が移動中の道路区分の予期される曲率と比較し得る。予期される曲率は、地図データ(例えば、地図データベース160からのデータ)、道路多項式、他の車両のスネイルトレイル、及び道路についての事前知識等から抽出し得る。スネイルトレイルの曲率と道路区分の予期される曲率との差が、所定の閾値を超える場合、処理ユニット110は、先行車両がレーン変更中である可能性が高いと判断し得る。
別の実施形態では、処理ユニット110は、特定の時間期間(例えば、0.5~1.5秒)にわたり、先行車両の瞬間位置を先読み点(車両200に関連付けられた)と比較し得る。特定の時間期間中の先行車両の瞬間位置と先読み点との間の距離の差及び相違の累積和が、所定の閾値(例えば、直線道路では0.3~0.4メートル、緩くカーブした道路では0.7~0.8メートル、急カーブの道路では1.3~1.7メートル)を超える場合、処理ユニット110は、先行車両がレーン変更中である可能性が高いと判断し得る。別の実施形態では、処理ユニット110は、トレイルに沿って移動した横方向距離をスネイルトレイルの予期される曲率と比較することにより、スネイルトレイルの幾何学的形状を分析し得る。予期される曲率半径は、計算:(δ +δ )/2/(δ)に従って特定し得、式中、σは横方向移動距離を表し、σは縦方向移動距離を表す。横方向移動距離と予期される曲率との差が所定の閾値(例えば、500~700メートル)を超える場合、処理ユニット110は、先行車両がレーン変更中である可能性が高いと判断し得る。別の実施形態では、処理ユニット110は、先行車両の位置を分析し得る。先行車両の位置が道路多項式を覆い隠す(例えば、先行車両が道路多項式の上に重なる)場合、処理ユニット110は、先行車両がレーン変更中である可能性が高いと判断し得る。先行車両の位置が、別の車両が先行車両の前方で検出され、2台の車両のスネイルトレイルが平行ではないようなものである場合、処理ユニット110は、(より近い)先行車両がレーン変更中である可能性が高いと判断し得る。
ステップ584において、処理ユニット110は、ステップ582において実行された分析に基づいて、先行車両200がレーン変更中であるか否かを特定し得る。例えば、処理ユニット110は、ステップ582において実行された個々の分析の加重平均に基づいてその判断を下し得る。そのような方式下では、例えば、特定のタイプの分析に基づいた、先行車両がレーン変更中である可能性が高いという処理ユニット110による判断には、値「1」を割り当て得る(「0」は、先行車両がレーン変更中である可能性が低いとの判断を表す)。ステップ582において実行される異なる分析には異なる重みを割り当て得、開示される実施形態は、分析及び重みのいかなる特定の組合せにも限定されない。更に、幾つかの実施形態では、分析は、訓練されたシステム(例えば、機械学習システム又はディープラーニングシステム)を利用することができ、かかるシステムは、例えば、現在位置において捕捉される画像に基づいて車両の現在位置の先にあるその後の経路を推定することができる。
図6は、開示される実施形態による、立体画像分析に基づいて1つ又は複数のナビゲーション応答を生じさせる例示的なプロセス600を示すフローチャートである。ステップ610において、処理ユニット110は、データインタフェース128を介して第1及び第2の複数の画像を受信し得る。例えば、画像取得ユニット120に含まれるカメラ(視野202及び204を有する画像捕捉デバイス122及び124等)は、車両200の前方のエリアの第1及び第2の複数の画像を捕捉し、デジタル接続(例えば、USB、無線、Bluetooth等)を介して処理ユニット110に送信し得る。幾つかの実施形態では、処理ユニット110は、2つ以上のデータインタフェースを介して第1及び第2の複数の画像を受信し得る。開示される実施形態は、いかなる特定のデータインタフェース構成又はプロトコルにも限定されない。
ステップ620において、処理ユニット110は、立体画像分析モジュール404を実行し、第1及び第2の複数の画像の立体画像分析を実行して、車両の前の道路の3Dマップを作成し、レーンマーク、車両、歩行者、道路標識、高速道路出口ランプ、信号機、及び道路危険物等の画像内の特徴を検出し得る。立体画像分析は、図5A~図5Dに関連して上述したステップと同様に実行し得る。例えば、処理ユニット110は、立体画像分析モジュール404を実行して、第1及び第2の複数の画像内の候補物体(例えば、車両、歩行者、道路マーク、信号機、道路危険物等)を検出し、様々な基準に基づいて候補物体のサブセットをフィルタリングして除外し、マルチフレーム分析を実行し、測定値を構築し、残りの候補物体の信頼度を特定し得る。上記ステップを実行するに当たり、処理ユニット110は、画像の1つの組のみからの情報ではなく、第1及び第2の複数の画像の両方からの情報を考慮し得る。例えば、処理ユニット110は、第1及び第2の複数の画像の両方に現れる候補物体について、ピクセルレベルデータ(又は捕捉画像の2つのストリームの中からの他のデータサブセット)の差を分析し得る。別の例として、処理ユニット110は、物体が複数の画像の1枚に現れるが、他の画像では現れないことを観測することにより、又は2つの画像ストリームに現れる物体に対して存在し得る他の差に対して、候補物体の位置及び/又は速度(例えば、車両200に対する)を推定し得る。例えば、車両200に対する位置、速度、及び/又は加速度は、画像ストリームの一方又は両方に現れる物体に関連付けられた特徴の軌道、位置、移動特性等に基づいて特定し得る。
ステップ630において、処理ユニット110は、ナビゲーション応答モジュール408を実行して、ステップ620において実行された分析及び図4に関連して上述した技法に基づいて、車両200で1つ又は複数のナビゲーション動作を生じさせ得る。ナビゲーション応答は、例えば、ターン、レーンシフト、加速度変更、速度変更、及びブレーキ等を含み得る。幾つかの実施形態では、処理ユニット110は、速度及び加速度モジュール406の実行から導出されるデータを使用して、1つ又は複数のナビゲーション応答を生じさせ得る。更に、複数のナビゲーション応答は、同時に行い得、順次行い得、又はそれらの任意の組合せで行い得る。
図7は、開示される実施形態による、3組の画像の分析に基づいて1つ又は複数のナビゲーション応答を生じさせる例示的なプロセス700を示すフローチャートである。ステップ710において、処理ユニット110は、データインタフェース128を介して第1、第2、及び第3の複数の画像を受信し得る。例えば、画像取得ユニット120に含まれるカメラ(視野202、204、及び206を有する画像捕捉デバイス122、124、及び126等)は、車両200の前方及び/又は側部のエリアの第1、第2、及び第3の複数の画像を捕捉し、デジタル接続(例えば、USB、無線、Bluetooth等)を介して処理ユニット110に送信し得る。幾つかの実施形態では、処理ユニット110は、3つ以上のデータインタフェースを介して第1、第2、及び第3の複数の画像を受信し得る。例えば、画像捕捉デバイス122、124、及び126のそれぞれは、処理ユニット110にデータを通信する関連付けられたデータインタフェースを有し得る。開示される実施形態は、いかなる特定のデータインタフェース構成又はプロトコルにも限定されない。
ステップ720において、処理ユニット110は、第1、第2、及び第3の複数の画像を分析して、レーンマーク、車両、歩行者、道路標識、高速道路出口ランプ、信号機、及び道路危険物等の画像内の特徴を検出し得る。分析は、図5A~図5D及び図6に関連して上述したステップと同様に実行し得る。例えば、処理ユニット110は、単眼画像分析を第1、第2、及び第3の複数のそれぞれの画像に対して実行し得る(例えば、単眼画像分析モジュール402の実行及び図5A~図5Dに関連して上述したステップに基づいて)。代替的に、処理ユニット110は、立体画像分析を第1及び第2の複数の画像、第2及び第3の複数の画像、及び/又は第1及び第3の複数の画像に対して実行し得る(例えば、立体画像分析モジュール404の実行を介して及び図6に関連して上述したステップに基づいて)。第1、第2、及び/又は第3の複数の画像の分析に対応する処理された情報は、結合し得る。幾つかの実施形態では、処理ユニット110は、単眼画像分析と立体画像分析との組合せを実行し得る。例えば、処理ユニット110は、単眼画像分析を第1の複数の画像に対して実行し(例えば、単眼画像分析モジュール402の実行を介して)、立体画像分析を第2及び第3の複数の画像に対して実行し得る(例えば、立体画像分析モジュール404の実行を介して)。画像捕捉デバイス122、124、及び126の構成-各位置及び視野202、204、及び206を含む-は、第1、第2、及び第3の複数の画像に対して行われる分析のタイプに影響を及ぼし得る。開示される実施形態は、画像捕捉デバイス122、124、及び126の特定の構成、又は第1、第2、及び第3の複数の画像に対して行われる分析のタイプに限定されない。
幾つかの実施形態では、処理ユニット110は、ステップ710及び720において取得され分析された画像に基づいて、システム100にテストを実行し得る。そのようなテストは、画像捕捉デバイス122、124、及び126の特定の構成でのシステム100の全体性能のインジケータを提供し得る。例えば、処理ユニット110は、「偽性ヒット」(例えば、システム100が車両又は歩行者の存在を誤って判断する場合)及び「見落とし」の割合を特定し得る。
ステップ730において、処理ユニット110は、第1、第2、及び第3の複数の画像の2つから導出される情報に基づいて、車両200での1つ又は複数のナビゲーション応答を生じさせ得る。第1、第2、及び第3の複数の画像の2つの選択は、例えば、複数の画像のそれぞれで検出される物体の数、タイプ、及びサイズ等の様々なファクタに依存し得る。処理ユニット110は、画像の品質及び解像度、画像に反映される有効視野、捕捉フレーム数、及び対象となる1つ又は複数の物体が実際にフレームに現れる程度(例えば、物体が現れるフレームのパーセンテージ、物体がそのような各フレームで現れる割合等)等に基づいて選択を行うことができる。
幾つかの実施形態では、処理ユニット110は、ある画像ソースから導出された情報が、他の画像ソースから導出される情報と一貫する程度を特定することにより、第1、第2、及び第3の複数の画像の2つから導出される情報を選択し得る。例えば、処理ユニット110は、画像捕捉デバイス122、124、及び126のそれぞれから導出される処理された情報(単眼分析であれ、立体分析であれ、又はそれら2つの任意の組合せであれ関係なく)を結合して、画像捕捉デバイス122、124、及び126のそれぞれから捕捉される画像にわたり一貫する視覚的インジケータ(例えば、レーンマーク、検出された車両及び/又はその位置及び/又は経路、検出された信号機等)を特定し得る。処理ユニット110は、捕捉画像にわたり一貫しない情報(例えば、レーンを変更中の車両、車両200に近過ぎる車両を示すレーンモデル等)を除外することもできる。従って、処理ユニット110は、一貫情報及び非一貫情報の特定に基づいて、第1、第2、及び第3の複数の画像の2つからの導出される情報を選択し得る。
ナビゲーション応答は、例えば、ターン、レーンシフト、及び加速度変更を含み得る。処理ユニット110は、ステップ720において実行される分析及び図4に関連して上述した技法に基づいて、1つ又は複数のナビゲーション応答を生じさせ得る。処理ユニット110は、速度及び加速度モジュール406の実行から導出されるデータを使用して、1つ又は複数のナビゲーション応答を生じさせることもできる。幾つかの実施形態では、処理ユニット110は、車両200と第1、第2、及び第3の複数の画像の何れかで検出される物体との間の相対位置、相対速度、及び/又は相対加速度に基づいて、1つ又は複数のナビゲーション応答を生じさせ得る。複数のナビゲーション応答は、同時に行い得、順次行い得、又はそれらの任意の組合せで行い得る。
捕捉画像及び/又は熱マップの分析は、駐車車両及び移動車両の両方の特定の特性を検出できるようにし得る。検出される特性に基づいてナビゲーション変更を計算することができる。捕捉画像及び/又は熱マップの1つ又は複数の特定の分析に基づいて特定の特性を検出するための実施形態について、図8~図28に関して以下で解説する。
車のドアが開く事象の検出
例えば、車両を識別すること、及びその後に続く識別した車両の車輪構成要素を識別することは、ドアが開く事象を標的とした監視を可能にし得る。監視の標的を定めることにより、システムは、従来の動き検出よりも短い反応時間でドアが開く事象を識別し、それに反応することができる。以下で説明する本開示の実施形態は、標的を定めた監視を使用して、ドアが開く事象を検出するためのシステム及び方法に関する。
図8は、開示される実施形態による1つ又は複数の動作を実行するための命令を記憶/プログラムされ得るメモリ140及び/又は150の例示的な機能ブロック図である。以下は、メモリ140に関するものであるが、当業者であれば、命令がメモリ140及び/又は150に記憶され得ることがわかるであろう。
図8に示されているように、メモリ140は、車両側部識別モジュール802と、車輪識別モジュール804と、ドア縁部識別モジュール806と、ナビゲーション応答モジュール808とを記憶し得る。開示される実施形態は、メモリ140のいかなる特定の構成にも限定されない。更に、アプリケーションプロセッサ180及び/又は画像プロセッサ190は、メモリ140に含まれるモジュール802~808の何れかに記憶される命令も実行し得る。当業者であれば、以下の考察で処理ユニット110に言及することは、アプリケーションプロセッサ180と画像プロセッサ190とを個別に又は集合的に指し得ることを理解するであろう。従って、以下のプロセスの何れのステップも1つ又は複数の処理デバイスによって実行され得る。
一実施形態では、車両側部識別モジュール802は、処理ユニット110によって実行されるときに画像捕捉デバイス122、124、及び126の1つによって取得される1つ又は複数の画像の分析を実行する命令(コンピュータビジョンソフトウェア等)を記憶し得る。図9~図14に関して以下で説明するように、車両側部識別モジュール802は、1つ又は複数の車両の側部をマーキングするバウンディングボックスを決定するための命令を含み得る。
一実施形態では、車輪識別モジュール804は、処理ユニット110によって実行されるときに画像捕捉デバイス122、124、及び126の1つによって取得される1つ又は複数の画像の分析を実行する命令(コンピュータビジョンソフトウェア等)を記憶し得る。図9~図14に関して以下で説明するように、車輪識別モジュール804は、1つ又は複数の車両の車輪をマーキングする楕円を決定するための命令を含み得る。
一実施形態では、ドア縁部識別モジュール806は、処理ユニット110によって実行されるときに画像捕捉デバイス122、124、及び126の1つによって取得される1つ又は複数の画像の分析を実行する命令(コンピュータビジョンソフトウェア等)を記憶し得る。図9~図14に関して以下で説明するように、ドア縁部識別モジュール806は、ドア縁部の外観を識別し、識別したドア縁部の動きを監視するための命令を含み得る。
一実施形態では、ナビゲーション応答モジュール808は、車両側部識別モジュール802、車輪識別モジュール804、及び/又はドア縁部識別モジュール806を実行することから得られるデータに基づいて所望のナビゲーション応答を決定するために処理ユニット110によって実行可能なソフトウェアを記憶し得る。例えば、ナビゲーション応答モジュール808は、以下に記載の図14の方法1400に従ってナビゲーション変更を生じさせることができる。
更に、本明細書で開示されるモジュール(例えば、モジュール802、804、及び806)の何れも、訓練されたシステム(ニューラルネットワーク又はディープニューラルネットワーク等)又は訓練されていないシステムに関連する技法を実装することができる。
図9は、開示される実施形態によるホスト車両に含まれるシステム(例えば、上記のシステム100)の視点からの道路902の概略図である。図9に示すように、道路902は、1つ又は複数の駐車車両(例えば、駐車車両904又は駐車車両906)を有し得る。
システム100は、例えば、注意機構(attention mechanism)を使用して駐車車両を検出することができ、注意機構は、疑わしいパッチを返し、その疑わしいパッチを一層複雑な分類器のカスケードに供給して、そのパッチが実際に車両であるかどうかを判定する。以下で説明するように、注意機構及び分類器は、真及び偽のパッチに基づいて訓練することができる。
例えば、システム100は、駐車車両の後部(例えば、車両の後部908及び910)を検出するために注意機構を使用することができる。検出した後部を使用して、システム100は、駐車車両の側部(例えば、車両の側部912及び914)を検出することができる。検出すると、車両の後部及び/又は側部を追跡することができる。
図9に示すバウンディングボックスを検出するために、システム100は、1つ又は複数の学習されたアルゴリズムに画像(例えば、画像捕捉デバイス122、124、又は126の1つからの画像)を入力することができる。入力画像は、例えば、元の1280x9560のグレースケール画像であり得る。学習されたアルゴリズムは、スケーリングされた(例えば、256x192の)注意画像を出力することができる。疑わしいパッチを注意画像から識別することができ、疑わしいパッチの(x,y)点を(例えば、5で)スケーリングして元の画像の座標上にマップすることができる。学習されたアルゴリズムは、疑わしいパッチの中心を定めるために(x,y)座標を使用することができる。疑わしいパッチは、(x,y)座標の領域内において、例えば各方向に+/-5ピクセル走査することができる。この例では、それぞれの疑わしいパッチが11x11の総候補パッチを作り出す。
更に、この例では、各候補パッチがサイズ2R+1の正方形であり、但しRは、バウンディング楕円の半径である。例えば、図10に示すように、車両(例えば、車両1002)は、中心(例えば、中心1006)を有する関連するバウンディング楕円(例えば、楕円1004)を有し得る。
候補パッチは、正規サイズ(40x40等)にスケーリングすることができ、1つ又は複数の訓練されたネットワーク、例えば以下に記載の畳み込みニューラルネットワーク(CNN)の1つ又は複数への入力として使用される。例えば、1つ又は複数の訓練されたネットワークのそれぞれは、入力されるパッチにスコアを付けることができる。そのスコアを使用し、最も高いスコアに基づいて各候補パッチにラベルが割り当てられ得る。(この例では、候補パッチを再び元の画像にマップするために半径R及び元の座標(x,y)を使用することができる。)
閾値(予め設定され得るか又は可変であり得、訓練から学習され得る)を上回る最も高いスコアを有する各候補パッチが最終分類器に入力され得る。最終分類器は、バウンディングボックスの一番下の3点の(x,y)座標を出力し得る。適切な係数を掛けることにより、これらの座標を元の画像の座標にスケーリングして戻すことができる。上記の例では、適切なスケーリング係数が(2R+1)/40であり得る。スケーリング係数を使用することに加えて、実際の位置(x,y)を、スケーリングされた座標(x,y)に追加することができる。一意のラベルを使用して、システムは、3つの(x,y)座標の何れの2つが側部に(及び何れの側部に)属するか、及び3つの(x,y)座標の何れの2つが後部又は前部に属するかを特定することができる。
このアルゴリズムの例に対する改変形態があり得ることを当業者であれば理解されよう。例えば、スケーリングされた注意画像のサイズが変わり得、疑わしいパッチのシフティングが変わり得、候補パッチのサイズ等が変わり得る。更なる例として、バウンディングボックスの上部の座標も計算することができる。(かかる例では、最終分類器が3つの追加の点の(x,y)座標を出力し得る。)加えて、上記のアルゴリズムの例の代わりに又はかかるアルゴリズムと組み合わせて他のアルゴリズムもあり得る。例えば、他のアルゴリズムは、異なる及び/又は追加の分類器を含み得る。
上記で説明したように、注意機構及びその後の分類器は、訓練することができる。例えば訓練機構は、例えば、1280x960のグレースケール画像であり得る100万個を超える画像例を利用することができる。この訓練セットの例では、バウンディングボックスの可視面が左側、右側、後部、又は前部としてマーキングされ得る。例えば、それらの可視面は、黄色、青色、赤色、及び緑色としてそれぞれ示され得る。面が部分的に見える場合、明白な部分のみを画像内でマーキングすることができ、データベース内で部分的に見えないことが注記される。
この訓練の例では、バウンディングボックスごとにシステムがバウンディングボックスの最も離れた2つの縁部を計算し、その2つの縁部の中間を中心とし、且つ最も離れた縁部までの距離としての半径を有するバウンデッド楕円を構築することができる。
この訓練の例では、次いで、システムは、注意画像を全体から抽出することができ、注意画像は、256x192の(すなわち5分の1にされた)画像である。訓練画像内でマーキングされた各車両は、5で除算した楕円の中心の座標に位置する注意画像内の1つの点によって置換することができ、その点の値は、バウンディング楕円の半径であり得る。
この訓練の例では、画像例を使用して畳み込みニューラルネットワーク(CNN)を訓練することができる。CNNの代わりに又はCNNと組み合わせて他の機械訓練技法が使用され得ることを当業者であれば理解されよう。従って、ニューラルネットワークは、元の画像を疎の解像度低減注意画像にマップすることができる。この手法は、シーンの理解(例えば、道路の位置、画像の遠近感)を、車のように見える何らかの物体の局所的検出と組み合わせることができる。他の設計選択も可能である。例えば、ネットワークは、車が予期される場所(例えば、空ではない)で車を検出するように設計されるフィルタバンクを最初に適用し得る。
ニューラルネットワークは、あり得るビューごとにスコアを付けることができる第1の分類器に疑わしいパッチを送信することができる。例えば、第1の分類器は、左後部、左前部、右後部、右前部の4つの主要ラベルの1つを割り当てることができる。1つの面のみが見える場合、2つのあり得るラベルの片方を無作為に割り当てることができる。それぞれの主要ラベルは、更に細分することができる。例えば、それぞれの主要ラベルは、パッチが「端部」よりも多くの「側部」を含むかどうかに細分することができ、その逆も同様である。かかる細分は、例えば、マーキングした端部面及び後部面の画像幅を比較することによって行うことができる。幅が等しい場合、細分を無作為に割り当てることができる。
更なる例として、各細分を3つの下位細分に更に分割することができる。例えば、左後部ラベルの「側部」の細分は、次の3つの下位細分を含み得る:「端部」左後部10は、後部面が左側の面の幅の10%以下であるパッチを示すことができ、「端部」左後部50は、後部面が10%を超えるが、50%未満のパッチを示すことができ、「端部」左後部は、後部面が50%を超えるパッチを示すことができる。
更なる例として、少なくとも1つの面が隠されている場合、それぞれの下位細分を更にラベル付けすることができる。この例では、下位細分とラベルとの全組合せが48である。同じ又は異なる全組合せをもたらす他の分割手段及びラベルがあり得ることを当業者であれば理解されよう。例えば、「側部」左後部20は、左側の面が全体の20%未満であるパッチを示すことができ、「側部」左後部50は、左側の面が全体の20%~50%であるパッチを示すことができ、「側部」左後部80は、左側の面が全体の50%~80%のパッチを示すことができ、「側部」左後部100は、左側の面が全体の80%~100%のパッチを示すことができる。
更なる例として、側部面が端部面の左側に見えるか又は右側に見えるかに応じて、4つの主要ラベルを2つの主要ラベル、すなわち「側部/端部」及び「端部/側部」でそれぞれ置換することができる。分割及びラベルの選択は、入手可能なデータ量に依存し、それは、細分及びラベルの数が増えればより多数の例が訓練に必要となるからである。
従って、ニューラルネットワークは、元の画像の座標にスケーリングして戻され、x方向及びy方向に+/-5ピクセルだけ余すところなくシフトされた注意マップ内の点を中心とするパッチを第1の分類器に入力することができる。かかるシフティングは121個のシフトされた例を生成する。シフトされた例を生成する他の手段もあり得ることを当業者であれば理解されよう。例えば、パッチは、x方向及びy方向に+/-4(又は+/-3等)ピクセルだけ余すところなくシフトされ得る。
この例では、正規サイズ(40x40ピクセル等)にスケーリングされたサイズ(2R+1)×(2R+1)の正方形をカットするためにバウンディング楕円の半径Rを使用して、各パッチを形成することができる。パッチを生成する他の手段もあり得ることを当業者であれば理解されよう。例えば、(2R-1)×(2R-1)の正方形をカットすることができる。更なる例として、2Rの代わりにバウンディングボックスの1つ又は複数の長さを使用することができる。
ニューラルネットワークは、ラベル付けされた各パッチを最終分類器に入力することができる。最終分類器は、バウンディングボックスの一番下を定める3点のそれぞれのラベル付けされたパッチ内の位置(x,y)を出力することができる。出力される(x,y)座標は、パッチに対するものであり得る。幾つかの実施形態では、細分及びラベルの組合せごとにニューラルネットワークを訓練することができる。他の実施形態では、更に少ないニューラルネットワークを訓練することができる。
識別した車両からより詳細な特徴を抽出するために、同様の学習技法を使用して分類器を訓練することができる。例えば、分類器は、車輪、タイヤ、「A」ピラー、サイドミラー等を識別するように訓練することができる。図11の例では、車両1106の車輪1102及び1104が楕円で印付けされている。システムは、例えば、バウンディングボックスを正規サイズ(例えば、長さ40ピクセルx高さ20ピクセル)にスケーリングし、スケーリングしたボックスを適切な分類器に入力することによって、楕円を描くことができる。
車輪を識別することに基づき、システムは、ドアが開く事象が起こると予期され得る識別された車両上の1つ又は複数の「ホットスポット」を求めることができる。例えば、1つ又は複数のホットスポットは、識別されたタイヤ間に及び/又は識別された後部タイヤ上に位置し得る。図12Aに示すように、車両1204上の垂直方向のストライプ1202の出現について、1つ又は複数のホットスポットを監視することができる。ストライプ1202の出現は、ドアが開く事象の開始を示し得る。
幾つかの実施形態では、システムは、車両1204上の1つ又は複数の特徴を参照点として使用して車両1204の側部に対するストライプ1202の縁部の動きを追跡することができる。例えば、1つ又は複数の特徴は、識別されたタイヤ、又は車両1204の前端、車両1204の1つ若しくは複数のテールライト等の他の識別された特徴を含み得る。
図12Bに示すように、車両1204のドアが開くとき、ストライプ1202が広がり得る。ストライプ1202の縁部1202aは、車両1204の車体に沿った位置に固定され得る一方、ストライプ1202の縁部1202bは、車両1204の前方に移動するように見え得る。従って、システムは、ストライプ1202を監視することに基づいて、ドアが開く事象があることを確認することができる。
ドアが開く事象があることに基づいてホスト車両をナビゲーション変更にかけることができる。例えば、図13に示すように、ホスト車両のヨー1301が変わっており、ドアが開く事象からホスト車両が離れていることを示している。
図14は、開示される実施形態による、ドアが開く事象を検出することに基づいて1つ又は複数のナビゲーション応答を生じさせるための例示的なプロセス1400を示すフローチャートである。ステップ1402では、処理ユニット110は、データインタフェース128を介してホスト車両の環境の少なくとも1つの画像を受信することができる。例えば、画像取得ユニット120に含まれるカメラ(視野202、204、及び206を有する画像捕捉デバイス122、124、及び126等)は、ホスト車両の前方の及び/又は側方の領域の少なくとも1つの画像を捕捉し、それらをデジタル接続(例えば、USB、無線、Bluetooth等)上で処理ユニット110に伝送することができる。
ステップ1404では、処理ユニット110は、少なくとも1つの画像を分析して駐車車両の側部を識別することができる。ステップ1404は、駐車車両の側部の形状に少なくとも1つのバウンディングボックスを関連付けることを更に含み得る。例えば、分析は、図9及び図10に関して上記で論じた学習されたアルゴリズムを使用して実行することができる。
ステップ1406では、処理ユニット110は、駐車車両の構造上の特徴を識別することができる。幾つかの実施形態では、処理ユニット110は、駐車車両の側部の前方領域内の駐車車両の第1の構造上の特徴と、駐車車両の側部の後方領域内の駐車車両の第2の構造上の特徴とを識別することができる。例えば、構造上の特徴は、車輪構成要素(タイヤ、ハブキャップ、車輪構造等)、ミラー、「A」ピラー、「B」ピラー、「C」ピラー等を含み得る。第1の構造上の特徴及び/又は第2の構造上の特徴は、識別された側部の近傍の領域内で識別され得る。例えば、分析は、図11に関して上記で論じた学習されたアルゴリズムを使用して実行することができる。
ステップ1408では、処理ユニット110は、駐車車両のドア縁部を識別することができる。ドア縁部は、構造上の特徴の近傍の領域内で識別され得る。例えば、処理ユニット110が前輪構成要素と後輪構成要素とを識別する実施形態では、第1の車輪及び第2の車輪の近傍は、前輪構成要素と後輪構成要素との間の領域を含み得る。更なる例として、処理ユニット110が前輪構成要素と後輪構成要素とを識別する実施形態では、第1の車輪構成要素及び第2の車輪構成要素の近傍は、後輪構成要素の上部の領域を含み得る。分析は、図12Aに関して上記で論じた学習されたアルゴリズムを使用して実行することができる。
ステップ1410では、処理ユニット110は、ドア縁部の画像特性の変化を求めることができる。例えば、処理ユニット110は、図12Bに関して上記で論じたように、第1の車輪構成要素及び第2の車輪構成要素の近傍での垂直ストライプの出現について、画像捕捉デバイスから受信される少なくとも2つの画像を監視することができる。この例では、垂直ストライプの第1の縁部は、監視画像内の駐車車両の車体に沿って固定されており、垂直ストライプの第2の縁部は、監視画像内の駐車車両の前方領域の方に移動する。出現後、ドア縁部の幅(すなわち垂直ストライプの幅)を経時的に追跡することができる。幾つかの実施形態では、ドア縁部の画像特性の変化は、ドア縁部が広がることを含み得る。かかる実施形態では、ドア縁部の画像特性の変化を求めることは、垂直ストライプの広がりを監視することを含み得る。
幾つかの実施形態では、処理ユニット110は、ドアが開く量を推定することができる。例えば、処理ユニット110は、バウンディングボックスと交差するように、固定された縁部のコラムを伸ばし、ドアまでの距離を推定するために交点のy座標を使用することができる。この例では、ドアまでの距離及びストライプの幅を使用してドアが開く量を推定することができる。従って、処理ユニット110は、求められた幅に基づいて、ドア縁部が駐車車両から離れて広がる距離を求めることができる。従って、車両の本体からのドア縁部の離れ具合(すなわちドアが開く量)を経時的に追跡することができる。
ステップ1412では、処理ユニット110は、ホスト車両のナビゲーション経路を変えることができる。例えば、ナビゲーション応答は、(図13に示すように)ターン、レーンシフト、加速度の変更等を含み得る。処理ユニット110は、ステップ1410で行った算出に基づいて1つ又は複数のナビゲーション応答を生じさせることができる。例えば、処理ユニット110は、ドア縁部の事象からホスト車両を離すことができ且つ/又はドア縁部の事象に応じてホスト車両を減速させることができる。この例では、処理ユニット110は、ドア縁部が駐車車両から離れて広がる求められた距離に基づいて、ホスト車両のための横方向の安全距離を求めることができ、ホスト車両のナビゲーション経路の変更は、求められた横方向の安全距離に少なくとも部分的に基づき得る。別の例では、処理ユニット110は、車両のドアが開くことに関連する典型的な突出の程度と一致する値等の既定値に基づいて、ホスト車両のための横方向の安全距離を求めることができる。更に、例として、異なるタイプの車両に異なる既定値を使用することができ、例えばトラック等の他のサイズの車両について、小型車両に使用する安全距離値と比較して更に長い既定の安全距離値を使用することができる。
処理ユニット110は、速度及び加速度モジュール406を実行することから得られるデータを使用して1つ又は複数のナビゲーション応答を生じさせることもできる。複数のナビゲーション応答は、同時に、順に、又はその任意の組合せで起こり得る。例えば、ナビゲーション応答は、訓練されたシステムによって決定され得る。更に、例として、訓練されたシステムは、性能を最適化しながら一定の安全制約を損なうことを回避するように構成することができ、ナビゲーション変更を呼び出すことによってドアの開きを検出することに反応するように構成され得る。別の例では、(駐車車両の)ドアが開く事象を検出したときの所望の応答を決定するために規則の組を使用することができる。
ホスト車両のレーンに入る車両の検出
道路のホモグラフィを識別し、車両の車輪構成要素を識別するシステム及び方法は、車両の動きを標的とした監視を可能にし得る。監視の標的を定めることにより、システムは、別のレーンからの又は駐車位置からのホスト車両のレーン内への動きを、少なくとも一定の状況下で従来の動き検出よりも短い反応時間で識別し、それに反応することができる。以下に記載の本開示の実施形態は、標的を定めた監視を使用して、ホスト車両のレーンに入る車両を検出するためのシステム及び方法に関する。
図15は、開示される実施形態による1つ又は複数の動作を実行するための命令を記憶/プログラムされ得るメモリ140及び/又は150の例示的な機能ブロック図である。以下は、メモリ140に関するものであるが、当業者であれば、命令がメモリ140及び/又は150に記憶され得ることがわかるであろう。
図15に示されているように、メモリ140は、道路ホモグラフィモジュール1502と、車輪識別モジュール1504と、動き分析モジュール1506と、ナビゲーション応答モジュール1508とを記憶し得る。開示される実施形態は、メモリ140のいかなる特定の構成にも限定されない。更に、アプリケーションプロセッサ180及び/又は画像プロセッサ190は、メモリ140に含まれるモジュール1502~1508の何れかに記憶される命令も実行し得る。当業者であれば、以下の考察で処理ユニット110に言及することは、アプリケーションプロセッサ180と画像プロセッサ190とを個別に又は集合的に指し得ることを理解するであろう。従って、以下のプロセスの何れのステップも1つ又は複数の処理デバイスによって実行され得る。
一実施形態では、道路ホモグラフィモジュール1502は、処理ユニット110によって実行されるときに画像捕捉デバイス122、124、及び126の1つによって取得される1つ又は複数の画像内の道路のホモグラフィ変換を行う(warp the homography)命令(コンピュータビジョンソフトウェア等)を記憶し得る。例えば、道路ホモグラフィモジュール1502は、以下に記載の図18の方法1800を実行するための命令を含み得る。
一実施形態では、車輪識別モジュール1504は、処理ユニット110によって実行されるときに画像捕捉デバイス122、124、及び126の1つによって取得される1つ又は複数の画像の分析を実行する命令(コンピュータビジョンソフトウェア等)を記憶し得る。図9~図14に関して上記で説明したように、車輪識別モジュール1504は、1つ又は複数の車両の車輪にマーキングする楕円を決定するための命令を含み得る。
一実施形態では、動き分析モジュール1506は、処理ユニット110によって実行されるとき、1つ又は複数の識別された車両構成要素の動きを追跡するために画像捕捉デバイス122、124、及び126の1つによって取得される1つ又は複数の画像(及び/又は道路ホモグラフィモジュール1502によって処理される1つ又は複数の画像)の分析を実行する命令(コンピュータビジョンソフトウェア等)を記憶し得る。例えば、車輪識別モジュール1504と組み合わせて、動き分析モジュール1506は、車両の識別された車輪構成要素の動きを経時的に追跡することができる。
一実施形態では、ナビゲーション応答モジュール1508は、道路ホモグラフィモジュール1502、車輪識別モジュール1504、及び/又は動き分析モジュール1506を実行することから得られるデータに基づいて所望のナビゲーション応答を決定するために処理ユニット110によって実行可能なソフトウェアを記憶し得る。例えば、ナビゲーション応答モジュール1508は、以下に記載の図17の方法1700に従ってナビゲーション変更を生じさせることができる。
更に、本明細書で開示されるモジュール(例えば、モジュール1502、1504、及び1506)の何れも、訓練されたシステム(ニューラルネットワーク又はディープニューラルネットワーク等)又は訓練されていないシステムに関連する技法を実装することができる。
図16Aは、開示される実施形態によるシステムの視点からの駐車した車1602を示す。図16Aの例では、車両1602の車輪1604及び1606が楕円でマーキングされている。システムは、例えば、上記で説明したようにバウンディングボックスを正規サイズ(例えば、長さ40ピクセルx高さ20ピクセル)にスケーリングし、スケーリングしたボックスを適切な分類器に入力することによって楕円を描くことができる。
図16Bは、駐車(すなわち静止)状態から離れる車両1602を示す。図16Bの例では、車両1602が動くにつれて、車両1602の車輪1604及び1606が回転している。システムは、以下で論じるように車輪1604及び1606の回転を追跡して、車両1602が移動していると判定することができる。
図17は、開示される実施形態による、標的車両がホスト車両のレーンに入ることを検出することに基づいて1つ又は複数のナビゲーション応答を生じさせるための例示的なプロセス1700を示すフローチャートである。ステップ1702では、処理ユニット110は、データインタフェース128を介してホスト車両の環境の複数の画像を受信することができる。例えば、画像取得ユニット120に含まれるカメラ(視野202、204、及び206を有する画像捕捉デバイス122、124、及び126等)は、ホスト車両の前方の及び/又は側方の領域の複数の画像を捕捉し、それらをデジタル接続(例えば、USB、無線、Bluetooth等)上で処理ユニット110に伝送することができる。
複数の画像は、経時的に収集することができる。例えば、複数は、時点t=0において捕捉される第1の画像、t=0.5秒において捕捉される第2の画像、及びt=1.0秒において捕捉される第3の画像を含み得る。画像間のタイミングは、1つ又は複数の画像捕捉デバイスの走査レートに少なくとも依存し得る。
ステップ1704では、処理ユニット110は、少なくとも1つの画像を分析して標的車両を識別することができる。例えば、標的車両を識別することは、標的車両の側部の形状に少なくとも1つのバウンディングボックスを関連付けることを更に含み得る。例えば、分析は、図9及び図10に関して上記で論じた学習されたアルゴリズムを使用して実行することができる。幾つかの実施形態では、ステップ1704は、識別された標的車両の側部にある車輪を識別することを更に含み得る。例えば、分析は、図11に関して上記で論じた学習されたアルゴリズムを使用して実行することができる。
ステップ1704は、車輪に限定されず、車輪構成要素も含み得る。例えば、処理ユニット110は、タイヤ、ハブキャップ、又は車輪構造の少なくとも1つを含む車輪構成要素を識別することができる。
ステップ1706では、処理ユニット110は、識別された車輪に関連する動きを識別することができる。例えば、処理ユニットは、標的車両の少なくとも1つの車輪構成要素を含む領域内の動きを識別することができ、領域は、路面に隣接する領域を含み得る。複数の画像の少なくとも2つを監視することにより、処理ユニットは、少なくとも1つの車輪構成要素の回転の兆候(indication)を使用して動きを識別することができる。
更なる例として、処理ユニット110は、少なくとも1つの車輪構成要素に関連する少なくとも1つの特徴(例えば、車輪上のロゴ、車輪のタイヤの測定、車輪のハブキャップの測定、ピクセルの特定のパッチ)を識別することができる。少なくとも1つの特徴を使用して、処理ユニット110は、少なくとも1つの特徴の位置変化のインジケータ(例えば、ロゴのぼけ、ピクセルのパッチの変化した座標)を識別することができる。
更なる例として、処理ユニット110は、図18の方法1800に関して以下で説明するように道路のホモグラフィ変換を行い、識別された車輪と、変換した道路との間の接点(静止していることができる)を識別し、その接点上の点を追跡して動きを識別することができる。
処理ユニットは、回転、少なくとも1つの特徴の位置変化、及び/又は追跡された点のインジケータを使用して標的車両の移動速度を求めることができる。処理ユニット110は、以下に記載のステップ1708におけるナビゲーション変更を生じさせる際に求められた速度を使用することができる。加えて、処理ユニット110は、グラウンドプレーン制約を使用してタイヤまでの距離を推定することができ、推定した距離に基づいて標的車両の横方向の動きを推定することができる。
ステップ1708では、処理ユニット110は、ホスト車両のナビゲーション変更を生じさせることができる。例えば、ナビゲーション応答は、(上記の図13で示したように)ホスト車両の進行方向の変更、レーンシフト、加速度の変更(例えば、ホスト車両のブレーキをかけること)等を含み得る。処理ユニット110は、ステップ1706で行った決定に基づいて1つ又は複数のナビゲーション応答を生じさせることができる。例えば、処理ユニット110は、標的車両の動きに応じてホスト車両を標的車両から離すこと及び/又はホスト車両を減速させることができる。この例では、処理ユニット110は、標的車両の算出された速度(及び/又は推定される横方向の動き)に基づいて、ホスト車両の横方向の安全距離を求めることができ、ホスト車両のナビゲーション経路の変更は、求められた横方向の安全距離に少なくとも部分的に基づき得る。
処理ユニット110は、速度及び加速度モジュール406を実行することから得られるデータを使用して1つ又は複数のナビゲーション応答を生じさせることもできる。複数のナビゲーション応答は、同時に、順に、又はその任意の組合せで起こり得る。
図18は、道路のホモグラフィ変換を行うための例示的なプロセス1800を示すフローチャートである。ステップ1802では、処理ユニット110は、データインタフェース128を介してホスト車両の環境の複数の画像を受信することができる。例えば、画像取得ユニット120に含まれるカメラ(視野202、204、及び206を有する画像捕捉デバイス122、124、及び126等)は、ホスト車両の前方の及び/又は側方の領域の複数の画像を捕捉し、それらをデジタル接続(例えば、USB、無線、Bluetooth等)上で処理ユニット110に伝送することができる。
複数の画像は、経時的に収集することができる。例えば、複数は、時点t=0において捕捉される第1の画像、及びt=0.5秒において捕捉される第2の画像を含み得る。画像間のタイミングは、1つ又は複数の画像捕捉デバイスの走査レートに少なくとも依存し得る。
ステップ1804では、処理ユニット110は、複数の画像の第1の画像を複数の画像の第2の画像に対して最初に変換することができる。例えば、第1の画像又は第2の画像の1つをホスト車両のヨー、ピッチ、及びロールの推定に基づいて回転させることができる。
ステップ1806では、処理ユニット110は、第1の画像又は第2の画像内の点のグリッドを基準点のグリッドとして選択することができる。例えば、このグリッドは、任意の形状、例えば楕円、矩形、台形等から形成され得る。代替的に、無作為の点分布が選択され得る。
ステップ1808では、処理ユニット110は、選択されたグリッドの周りにパッチを配置することができる。例えば、パッチは、均一のサイズ及び形状のものであり得る。代替的に、パッチは、一様ではなくてもよく、且つ/又は無作為に一様ではない場合がある。
ステップ1810では、処理ユニット110は、例えば、パッチに基づく正規化相関計算を使用して、選択されたグリッドの点を追跡することができる。追跡する点から、処理ユニット110は、追跡に基づく最も高いスコアを有する点のサブセットを選択することができる。
ステップ1812では、処理ユニット110は、追跡した点をホモグラフィに適合させることができる。幾つかの実施形態では、処理ユニット110は、追跡した点の無作為のサブセットを使用して複数のホモグラフィを計算することができる。かかる実施形態では、処理ユニット110は、最も高いスコアのホモグラフィを伴う無作為のサブセットを保持することができる。
ステップ1814では、ステップ1812のホモグラフィを使用して処理ユニット110が最初の変換を訂正することができる。例えば、処理ユニット110は、複数の画像の第1の画像を複数の画像の第2の画像に対して再び変換するために、最も高いスコアのホモグラフィを伴う点の無作為のサブセットを使用することができる。処理ユニット110は、再び変換した画像から最小二乗ホモグラフィ(least squares homography)を更に直接計算することができる。道路のホモグラフィを計算するための他のアルゴリズムが使用され得ることを当業者であれば理解されよう。
駐車車両の方向に基づく一方通行道路の検出
車両を識別し且つ識別した車両の前部及び/又は後部を識別するシステム及び方法は、一方通行道路の検出を可能にし得る。車両の識別された前部及び/又は後部を使用することにより、標識を解釈する必要なしに又は道路上で車両が走っていないときでさえ一方通行道路を検出することができる。以下に記載する本開示の実施形態は、駐車車両の方向に基づいて一方通行道路を検出するためのシステム及び方法に関する。
図19は、開示される実施形態による1つ又は複数の動作を実行するための命令を記憶/プログラムされ得るメモリ140及び/又は150の例示的な機能ブロック図である。以下は、メモリ140に関するものであるが、当業者であれば、命令がメモリ140及び/又は150に記憶され得ることがわかるであろう。
図19に示されているように、メモリ140は、車両識別モジュール1902と、方向決定モジュール1904と、車両側部識別モジュール1906と、ナビゲーション応答モジュール1908とを記憶し得る。開示される実施形態は、メモリ140のいかなる特定の構成にも限定されない。更に、アプリケーションプロセッサ180及び/又は画像プロセッサ190は、メモリ140に含まれるモジュール1902~1908の何れかに記憶される命令も実行し得る。当業者であれば、以下の考察で処理ユニット110に言及することは、アプリケーションプロセッサ180と画像プロセッサ190とを個別に又は集合的に指し得ることを理解するであろう。従って、以下のプロセスの何れのステップも1つ又は複数の処理デバイスによって実行され得る。
一実施形態では、車両識別モジュール1902は、処理ユニット110によって実行されるときに画像捕捉デバイス122、124、及び126の1つによって取得される1つ又は複数の画像の分析を実行する命令(コンピュータビジョンソフトウェア等)を記憶し得る。図9~図14に関して上記で説明したように、車両識別モジュール1902は、1つ又は複数の車両のバウンディングボックスを決定するための命令を含み得る。
一実施形態では、方向決定モジュール1904は、処理ユニット110によって実行されるときに画像捕捉デバイス122、124、及び126の1つによって取得される1つ又は複数の画像の分析を実行する命令(コンピュータビジョンソフトウェア等)を記憶し得る。図20A及び図20Bに関して以下で説明するように、方向決定モジュール1904は、識別された車両の前向き方向を決定するための命令を含み得る。
例えば、前向き方向は、縦列駐車された識別された車両がホスト車両の方を向いているか又はその逆を向いているかを示し得る。更なる例として、前向き方向又は「傾斜方向」は、斜めのスポットに駐車された識別された車両がホスト車両の方に傾いているか又はその逆に傾いているかを示し得る。かかる例では、前向き方向は、識別された車両が斜めのスポットへと後退しているか又はそのスポットへと前進しているかを更に示し得る。
一実施形態では、車両側部識別モジュール1906は、処理ユニット110によって実行されるときに画像捕捉デバイス122、124、及び126の1つによって取得される1つ又は複数の画像の分析を実行する命令(コンピュータビジョンソフトウェア等)を記憶し得る。図9~図14に関して上記で説明したように、車両側部識別モジュール1906は、1つ又は複数の車両の識別されたバウンディングボックスを分類するための命令を含み得る。
一実施形態では、ナビゲーション応答モジュール1908は、車両識別モジュール1902、方向決定モジュール1904、及び/又は車両側部識別モジュール1906を実行することから得られるデータに基づいて所望のナビゲーション応答を決定するために処理ユニット110によって実行可能なソフトウェアを記憶し得る。例えば、ナビゲーション応答モジュール1908は、以下に記載の図21の方法2100に従ってナビゲーション変更を生じさせることができる。
更に、本明細書で開示されるモジュール(例えば、モジュール1902、1904、及び1906)の何れも、訓練されたシステム(ニューラルネットワーク又はディープニューラルネットワーク等)又は訓練されていないシステムに関連する技法を実装することができる。
図20Aは、開示される実施形態によるシステムの視点からの一方通行道路2002を示す。道路2002は、1つの側方の第1の複数の停止車両(例えば、第1の車両2004)を含むことができ、他の側方の第2の複数の停止車両(例えば、第2の車両2006)を含み得る。図21の方法2100に関して以下で説明するように、システムは、第1の複数の車両の前向き方向及び第2の複数の車両の前向き方向を求めることができる。
図20Aに示すように、システムは、第1の複数の車両及び第2の複数の車両の両方の前向き方向が同じである場合、道路2002が一方通行道路であると判定し得る。道路2002の1つの側方が縦列駐車ではなく斜めに駐車される他の実施形態では、システムは、縦列駐車側の前向き方向が、斜めに駐車される側の傾斜方向と同じである場合、道路2002が一方通行道路であると判定し得る。斜めに駐車される2つの側方を道路2002が有する更に他の実施形態では、システムは、第1の複数の車両及び第2の複数の車両の両方の傾斜方向が同じである場合、道路2002が一方通行道路であると判定し得る。特定の態様では、この判定は、第1の複数の車両及び/又は第2の複数の車両が斜めのスポットへと後退して駐車しているか又はそのスポットへと前進して駐車しているかに依存し得る。
図20Bも、開示される実施形態によるシステムの視点からの一方通行道路2008を示す。道路2008は、道路2002と同様に、1つの側方の第1の複数の停止車両(例えば、第1の車両2010)を含むことができ、他の側方の第2の複数の停止車両(例えば、第2の車両2012)を含み得る。図21の方法2100に関して以下で説明するように、システムは、第1の複数の車両の前向き方向及び第2の複数の車両の前向き方向を求めることができる。図20Aに示すように、システムは、ある車両(例えば、車両2010)の前向き方向がその車両に関連する複数の車両の前向き方向と異なる場合、その車両が不適切に駐車されていると判定することができる。例えば、システムは、関連する複数のうちの異なる前向き方向を有する他の車両の数が閾値を上回る場合、車両が不適切に駐車されていると判定することができる。更なる例として、システムは、同じ前向き方向を有する車両に対する異なる前向き方向を有する他の車両の比率が閾値(例えば、50%以上、60%以上、70%以上等)を上回る場合、車両が正しく駐車されていると判定することができる。幾つかの実施形態では、車両2010の所有者又はオペレータに交通違反切符を発行するために(又は車両2010の所有者若しくはオペレータに対して交通違反切符を発行するようにホスト車両のオペレータに指示するために)、この判定を使用することができる。
図21は、開示される実施形態による、ホスト車両が走行する道路が一方通行道路であるかどうかを検出することに基づいて1つ又は複数のナビゲーション応答を生じさせるための例示的なプロセス2100を示すフローチャートである。ステップ2102では、処理ユニット110は、データインタフェース128を介してホスト車両の環境の少なくとも1つの画像を受信することができる。例えば、画像取得ユニット120に含まれるカメラ(視野202、204、及び206を有する画像捕捉デバイス122、124、及び126等)は、ホスト車両の前方の及び/又は側方の領域の少なくとも1つの画像を捕捉し、それらをデジタル接続(例えば、USB、無線、Bluetooth等)上で処理ユニット110に伝送することができる。
ステップ2104では、処理ユニット110は、少なくとも1つの画像を分析して道路の1つの側方の第1の複数の車両を識別することができる。例えば、第1の複数の車両を識別することは、第1の複数の車両の形状にバウンディングボックスを関連付けることを更に含み得る。例えば、分析は、図9及び図10に関して上記で論じた学習されたアルゴリズムを使用して実行することができる。
ステップ2104は、少なくとも1つの画像の分析に基づいて、第1の複数の車両の少なくとも1つ又は第2の複数の車両の少なくとも1つの側部を識別することを更に含み得る。例えば、分析は、図9及び図10に関して上記で論じた学習されたアルゴリズムを使用して実行することができる。幾つかの実施形態では、側部を識別することは、第1の複数の車両の少なくとも1つ又は第2の複数の車両の少なくとも1つに関連する少なくとも2つの特徴に基づき得る。例えば、車両に関連する特徴は、ミラー、ウィンドウ、ドアハンドル、ドアの形状、ドアの数、フロントガラス及び/又はリアガラスの傾斜等を含み得る。幾つかの実施形態では、識別される側部は、右側の側部であり得る。他の実施形態では、識別される側部は、左側の側部であり得る。
ステップ2106では、処理ユニットは、少なくとも1つの画像を分析して道路の他の側方の第2の複数の車両を識別することができる。ステップ2106は、ステップ2104と類似して且つ/又は同時に実行され得る。
ステップ2108では、処理ユニット110は、第1の複数の車両の第1の前向き方向を求めることができる。幾つかの実施形態では、第1の複数の車両が全て同じ前向き方向を有し得る。他の実施形態では、前向き方向が異なり得る。
ステップ2110では、処理ユニット110は、第2の複数の車両の第2の前向き方向を求めることができる。幾つかの実施形態では、第2の複数の車両が全て同じ前向き方向を有し得る。他の実施形態では、前向き方向が異なり得る。
ステップ2112では、処理ユニット110は、ホスト車両のナビゲーション変更を生じさせることができる。例えば、ナビゲーション応答は、(上記の図13に示したような)ターン、レーンシフト、加速度の変更(例えば、ホスト車両のブレーキをかけること)等を含み得る。処理ユニット110は、ステップ2112で行った算出に基づいて1つ又は複数のナビゲーション応答を生じさせることができる。例えば、処理ユニット110は、第1の前向き方向及び第2の前向き方向に基づいて道路が一方通行道路であると判定し得る。この判定に基づいて、処理ユニットは、ホスト車両を減速若しくは停止し且つ/又はUターンを行うことができる。
幾つかの実施形態では、方法2100は、追加のステップを含み得る。例えば、方法2100は、ホスト車両が走行している第1の道路から第2の道路にホスト車両をナビゲートするためのナビゲーション命令を受信することを含み得る。ナビゲーション命令は、ホスト車両の向きを第2の道路に変えるための命令、第2の道路に方向転換するための命令、第2の道路に入るランプに合流するための命令等を含み得る。
かかる実施形態では、方法2100は、ホスト車両が第2の道路に向きを変える場合にホスト車両が走行することになる進行方向に対して、第1の前向き方向及び第2の前向き方向の両方が逆であると判定することを更に含み得る。例えば、処理ユニット110は、第2の道路上の車両の画像を分析して第1の前向き方向及び第2の前向き方向を求め、次いでそれらの前向き方向がホスト車両の予測進行方向と逆であるかどうかを判定することができる。ホスト車両が第2の道路に向きを変える場合にホスト車両が走行することになる進行方向に対して、第1の前向き方向及び第2の前向き方向の両方が逆であると判定することに応答し、処理ユニット110は、ナビゲーション命令を中断することができる。例えば、処理ユニット110は、道路が予測進行方向と逆方向の一方通行道路であると判定したことを理由に、第2の道路に向きを変えること、第2の道路に方向転換すること、第2の道路に合流すること等を中止することができる。
更なる実施形態では、方法2100は、中断されたナビゲーション命令を回復するためのオーバライド命令を受信することを含み得る。例えば、オーバライド命令は、ホスト車両内の人から受信される手動確認に基づいて始動され、地図データにアクセスすることに基づいて始動され、第2の道路の走行方向に関係するクラウドソースデータに基づいて始動される等であり得る。
処理ユニット110は、速度及び加速度モジュール406を実行することから得られるデータを使用して1つ又は複数のナビゲーション応答を生じさせることもできる。複数のナビゲーション応答は、同時に、順に、又はその任意の組合せで起こり得る。
熱プロファイルに基づく駐車車両の状態予測
熱プロファイルに基づいて駐車車両の状態を予測するシステム及び方法は、駐車車両が動き始める前に車両の動きを予測することを可能にし得る。このようにして、従来の動き検出のように実際に動きを検出するまで待つのではなく、システムは、予測される動きを識別し、それに合わせて先制して調節を行うことができる。以下に記載の本開示の実施形態は、熱プロファイルに基づいて駐車車両の状態を予測するためのシステム及び方法に関する。
図22は、開示される実施形態による1つ又は複数の動作を実行するための命令を記憶/プログラムされ得るメモリ140及び/又は150の例示的な機能ブロック図である。以下は、メモリ140に関するものであるが、当業者であれば、命令がメモリ140及び/又は150に記憶され得ることがわかるであろう。
図22に示すように、メモリ140は、視覚-赤外位置合わせモジュール2202と、車両識別モジュール2204と、状態予測モジュール2206と、ナビゲーション応答モジュール2208とを記憶し得る。開示される実施形態は、メモリ140のいかなる特定の構成にも限定されない。更に、アプリケーションプロセッサ180及び/又は画像プロセッサ190は、メモリ140に含まれるモジュール2202~2208の何れかに記憶される命令も実行し得る。当業者であれば、以下の考察で処理ユニット110に言及することは、アプリケーションプロセッサ180と画像プロセッサ190とを個別に又は集合的に指し得ることを理解するであろう。従って、以下のプロセスの何れのステップも1つ又は複数の処理デバイスによって実行され得る。
幾つかの実施形態では、視覚-赤外位置合わせモジュール2202は、処理ユニット110によって実行されるときに画像捕捉デバイス122、124、及び126の1つによって取得される1つ又は複数の可視光画像を、画像捕捉デバイス122、124、及び126の1つによって取得される1つ又は複数の赤外画像(すなわち熱マップ)と位置合わせする命令(コンピュータビジョンソフトウェア等)を記憶し得る。例えば、視覚-赤外位置合わせモジュール2202は、以下に記載の図25の方法2500を実行するための命令を含み得る。
他の実施形態では、車両識別モジュール2204は、処理ユニット110によって実行されるときに画像捕捉デバイス122、124、及び126の1つによって取得される1つ又は複数の画像の分析を実行する命令(コンピュータビジョンソフトウェア等)を記憶し得る。図9~図14に関して以下で説明するように、車両識別モジュール2202は、1つ又は複数の車両のバウンディングボックスを決定するための命令を含み得る。
一実施形態では、状態予測モジュール2206は、処理ユニット110によって実行されるときに視覚-赤外位置合わせモジュール2202からの1つ又は複数の位置合わせされた画像の分析を実行して1つ又は複数の識別された車両の状態を予測する命令(コンピュータビジョンソフトウェア等)を記憶し得る。例えば、状態予測モジュール2206は、識別された車両の視覚的インジケータ及び熱インジケータに基づいて予測状態を出力し得る。
一実施形態では、ナビゲーション応答モジュール2208は、視覚-赤外位置合わせモジュール2202、車両識別モジュール2204、及び/又は状態予測モジュール2206を実行することから得られるデータに基づいて所望のナビゲーション応答を決定するために処理ユニット110によって実行可能なソフトウェアを記憶し得る。例えば、ナビゲーション応答モジュール2208は、以下に記載の図24の方法2400に従ってナビゲーション変更を生じさせることができる。
更に、本明細書で開示されるモジュール(例えば、モジュール2202、2204、及び2206)の何れも、訓練されたシステム(ニューラルネットワーク又はディープニューラルネットワーク等)又は訓練されていないシステムに関連する技法を実装することができる。
図23Aは、開示される実施形態によるシステムの視点からの駐車車両2302を示す。例えば、車両2302は、照明状態の変化及び/又は温度特性についてシステムによって監視され得る。システムは、例えば、図24の方法2400を使用して、照明状態の変化及び/又は温度特性の変化に基づいて車両2302の予測状態を求めることができる。
図23Bは、照明状態の変化を有する駐車車両2302を示す。図23Cの例では、車両2302のテールライト2304a及び2304bは、非点灯状態から点灯状態に変わっている。照明状態の変化をヘッドライトが示す他の実施形態もあり得る。更に、車両のヘッドライト及び/又はテールライトが点灯状態から非点灯状態に変わる他の実施形態もあり得る。
図23Cは、温かいエンジン2306と冷たいタイヤ2308a及び2308bとを有する駐車車両2302を(異なる角度から)示す。本明細書で使用するとき、「温かい」及び「冷たい」は、予め決められ且つ/又は学習され得る期待温度値からのずれを指す。例えば、エンジンは、周囲温度を上回る場合に「温かい」とすることができ、周囲温度以下の場合に「冷たい」とすることができる。本開示の実施形態では、エンジン又はエンジンの温度に言及することは、その温度が典型的にはエンジンの温度の影響を受ける車両の特定の領域、例えば車両の前部に位置するボンネットに関係し得る。「温かい」及び「冷たい」温度の閾値は、場合により偽陽性又は偽陰性の検出を必要に応じて減らすための幾らかのマージンを伴い、特定の条件下のボンネットの期待温度を反映するように選択することができる。一例では、快晴の条件下では(例えば、車両のボンネットが太陽にさらされていると判定した後で)太陽からの加熱を考慮するように閾値温度を調節することができる。別の例では、画像のスペクトル分析によって特定することができる車両の色を考慮に入れて太陽の影響を織り込むことができる。別の例では、例えば、場合により現在監視されている車の局所的領域内にある、過去に検出された駐車された車の温度及び/又は1つ若しくは複数の駐車された車の特定の領域の温度を平均することにより、閾値を決定することができる。
同様に、車両の状態の指示としてタイヤの温度を使用することができる。例えば、タイヤは、道路の温度を上回る場合に「温かい」とすることができ、道路の温度以下の場合に「冷たい」とすることができる。別の例では、閾値温度(例えば、「温かい」タイヤと「冷たい」タイヤとを区別するために使用される温度)は、期待される又は計算されるタイヤの動作温度に関係し得る。動作温度の計算は、周囲条件並びに場合により運転のモデル及びタイヤの温度に対するその影響も考慮に入れることができる。更に別の例では、動作温度の計算は、タイヤの冷却モデルを含むこともできる。タイヤの冷却モデルも周囲条件を考慮に入れることができる。図23Cの例では、システムは、例えば、図24の方法2400を使用して、エンジン2306並びにタイヤ2308a及び2308bの温度に基づいて車両2302の予測状態を求めることができる。
図24は、開示される実施形態による駐車車両の予測状態を求めるための例示的なプロセス2400を示すフローチャートである。ステップ2402では、処理ユニット110は、データインタフェース128を介してホスト車両の環境の複数の画像を受信することができる。例えば、画像取得ユニット120に含まれるカメラ(視野202、204、及び206を有する画像捕捉デバイス122、124、及び126等)は、ホスト車両の前方の及び/又は側方の領域の複数の画像を捕捉し、それらをデジタル接続(例えば、USB、無線、Bluetooth等)上で処理ユニット110に伝送することができる。
複数の画像は、経時的に収集することができる。例えば、複数は、時点t=0において捕捉される第1の画像、t=0.5秒において捕捉される第2の画像、及びt=1.0秒において捕捉される第3の画像を含み得る。画像間のタイミングは、1つ又は複数の画像捕捉デバイスの走査レートに少なくとも依存し得る。
ステップ2404では、処理ユニット110は、複数の画像を分析して駐車車両を識別することができる。例えば、駐車車両を識別することは、駐車車両の側部の形状に少なくとも1つのバウンディングボックスを関連付けることを更に含み得る。例えば、分析は、図9及び図10に関して上記で論じた学習されたアルゴリズムを使用して実行することができる。幾つかの実施形態では、ステップ2404は、識別された標的車両の前部のエンジン及び/又は識別された標的車両の側部にある車輪を識別することを更に含み得る。例えば、分析は、図11に関して上記で論じた学習されたアルゴリズムを使用して実行することができる。
ステップ2406では、処理ユニット110は、複数の画像を分析して駐車車両の照明状態の変化を識別することができる。例えば、処理ユニット110は、駐車車両のテールライト及び/又はヘッドライトを識別し、(図23Bの例に見られるように)非点灯から点灯への変化又は点灯から非点灯への変化について、識別したテールライト及び/又はヘッドライトを監視することができる。他の実施形態は、より詳細な変化、例えば駐車灯のみの点灯からブレーキ灯の点灯への変化等を含み得る。
幾つかの実施形態では、方法2400は、照明状態の変化に基づいて駐車車両の予測状態を求めることを含むことができ、ステップ2412(すなわち駐車車両の予測状態に基づいてホスト車両による少なくとも1つのナビゲーション応答を生じさせる)に直接進むことができる。例えば、処理ユニット110は、駐車車両に関連する少なくとも1つのライトの照明状態が非点灯状態から点灯状態に変化することに基づき、駐車車両のエンジンが始動されたという兆候を駐車車両の予測状態が含むと判定し得る。同様に、処理ユニット110は、駐車車両に関連する少なくとも1つのライトの照明状態が点灯状態から非点灯状態に変化することに基づき、駐車車両のエンジンが切られたという兆候を駐車車両の予測状態が含むと判定し得る。従って、かかる実施形態では、これらの判定は、熱画像を使用することを含まない場合がある。
ステップ2408では、処理ユニット110は、データインタフェース128を介してホスト車両の環境の少なくとも1つの熱画像(すなわち赤外画像)を受信することができる。例えば、画像取得ユニット120に含まれるカメラ(視野202、204、及び206を有する画像捕捉デバイス122、124、及び126等)は、ホスト車両の前方の及び/又は側方の領域の少なくとも1つの熱画像を捕捉し、それらをデジタル接続(例えば、USB、無線、Bluetooth等)上で処理ユニット110に伝送することができる。
ステップ2408は、ステップ2402と別に又は同時に実行することができる。従って、幾つかの実施形態では、可視光画像及び赤外画像が同時に受信され得る。他の実施形態では、1つ又は複数の画像捕捉デバイスと1つ又は複数の赤外画像捕捉デバイスとの間の異なる走査レート及び/又は異なる伝送速度は、可視光画像と赤外画像との間の遅延をもたらす場合がある。
幾つかの実施形態では、方法2400は、複数の画像の少なくとも1つを少なくとも1つの熱画像と位置合わせすることを更に含み得る。位置合わせすることに基づき、方法2400は、位置合わせされた少なくとも1つの熱画像内で駐車車両のエンジン領域又は少なくとも1つの車輪構成要素領域の少なくとも1つを識別することを更に含み得る。
ステップ2410では、処理ユニット110は、ステップ2406の分析及び/又は少なくとも1つの熱画像の分析に基づいて駐車車両の予測状態を求めることができる。例えば、予測状態は、駐車車両のエンジンが始動されたという兆候又は駐車車両のエンジンが切られたという兆候を含み得る。更なる例として、予測状態は、駐車車両が所定の期間内に動かないと予期されるという兆候、駐車車両が所定の期間内に動くと予期されるという兆候、又は駐車車両のドアが所定の期間内に開くと予期されるという兆候を含み得る。
幾つかの実施形態では、少なくとも1つの熱画像の分析は、駐車車両のエンジン領域の温度値を求めることを含み得る。例えば、温度値が閾値を下回る場合、処理ユニット110は、駐車車両が所定の期間内に動かないと予期されるという兆候を含む予測状態を求めることができる。所定の期間は、例えば、駐車車両の既知の特性又は駐車車両のエンジンによって決まり得る。
幾つかの実施形態では、少なくとも1つの熱画像の分析は、駐車車両のエンジン領域の第1の温度値及び駐車車両の少なくとも1つの車輪構成要素の第2の温度値を求めることを含み得る。かかる実施形態では、駐車車両の予測状態は、第1の温度値の第1の閾値との比較及び第2の温度値の第2の閾値との比較に基づいて求められ得る。例えば、第1の温度値が第1の閾値を上回り、且つ第2の温度値が第2の閾値を下回る場合、処理ユニット110は、駐車車両が所定の期間内に動くと予期されるという兆候を含む予測状態を求めることができる。更なる例として、第1の温度値が第1の閾値を上回り、且つ第2の温度値が第2の閾値を上回る場合、処理ユニット110は、駐車車両のドアが所定の期間内に開くと予期されるという兆候を含む予測状態を求めることができる。
幾つかの実施形態では、予測状態が照明の変化、少なくとも1つの熱画像の分析、又はその組合せに基づくかどうかによって、処理ユニット110が予測状態に少なくとも部分的に基づいて受信画像の追加の監視を行うことができる。例えば、駐車車両のエンジンが切られたこと及び/又は駐車車両のドアが所定の期間内に開くと予期されることを予測状態が示す場合、処理ユニット110は、駐車車両のドア縁部の画像特性の変化について受信画像の1つ又は複数の部分を監視することができる。この監視の一例は、図14の方法1400に関して上記で説明した。更なる例として、駐車車両のエンジンがかかったこと及び/又は駐車車両が所定の期間内に動くと予期されることを予測状態が示す場合、処理ユニット110は、車輪構成要素の動きについて受信画像の1つ又は複数の車輪構成要素を監視することができる。この監視の一例は、図17の方法1700に関して上記で説明した。
ステップ2412では、処理ユニット110は、ホスト車両のナビゲーション変更を生じさせることができる。例えば、ナビゲーション応答は、(上記の図13で示したように)ホスト車両の進行方向の変更、レーンシフト、加速度の変更等を含み得る。処理ユニット110は、ステップ2410で行われた予測状態決定に基づいて1つ又は複数のナビゲーション応答を生じさせることができる。例えば、処理ユニット110は、駐車車両が所定の期間内に動くと予期されることを示す予測状態又は駐車車両のドアが所定の期間内に開くと予期されることを示す予測状態に応じて、ホスト車両を標的車両から離すこと及び/又はホスト車両を減速させることができる。
図25は、可視光画像と赤外画像とを位置合わせするための例示的なプロセス2500を示すフローチャートである。ステップ2502及び2504では、処理ユニット110は、データインタフェース128を介してホスト車両の環境の少なくとも1つの可視光画像、及びその環境の少なくとも1つの赤外画像を受信することができる。例えば、画像取得ユニット120に含まれるカメラ(視野202、204、及び206を有する画像捕捉デバイス122、124、及び126等)は、ホスト車両の前方の及び/又は側方の領域の少なくとも1つの可視光画像及び少なくとも1つの赤外画像を捕捉し、それらをデジタル接続(例えば、USB、無線、Bluetooth等)上で処理ユニット110に伝送することができる。
幾つかの実施形態では、可視光画像及び赤外画像が同時に受信され得る。他の実施形態では、1つ又は複数の画像捕捉デバイスと1つ又は複数の赤外画像捕捉デバイスとの間の異なる走査レート及び/又は異なる伝送速度は、可視光画像と赤外画像との間の遅延をもたらす場合がある。
ステップ2506では、処理ユニット110は、少なくとも1つの赤外画像内の基準点の組を選択することができる。例えば、基準点の組は、無作為に選択され得、又は既知の特性に基づく既知の物体(例えば、歩行者、木、車両等)の識別を含み得る。
ステップ2508では、処理ユニット110は、少なくとも1つの赤外画像から少なくとも1つの可視光画像に基準点を射影することができる。例えば、処理ユニット110は、少なくとも1つの可視光画像内の位置に、基準点を表す(例えば、取り囲む)形状(例えば、楕円、矩形、台形等)を射影することができる。
ステップ2510では、処理ユニット110は、基準点に対応する可視光画像の部分に関する利得及び/又は露出を最適化することができる。例えば、最適化によるコントラストの改善は、より高信頼の位置合わせをもたらし得る。ステップ2508は、任意選択的であり、全ての実施形態で行われる必要はない。
ステップ2512では、処理ユニット110は、少なくとも1つの赤外画像を少なくとも1つの可視光画像と位置合わせすることができる。例えば、画像を位置合わせ(又はマッチング)することは、位置合わせ測度(alignment measure)を最適化する距離にわたってエピポーラ線に沿って検索することを含み得る。この例では、位置合わせ測度を最適化することは、基準点とビューワとの間の距離及び/又は基準点と他の物体との間の距離が可視光画像及び赤外画像の両方において同じであることを確実にし得る。
検出した車両間の間隔に基づくナビゲーション
車両及び車両間の間隔を識別するシステム及び方法は、検出した間隔に基づいてナビゲートすることを可能にし得る。このようにナビゲートすることは、検出した間隔内の動きを先制して監視すること及びかかる動きに従来の動き検出よりも短い反応時間で反応することを可能にし得る。以下に記載の本開示の実施形態は、検出した車両間の間隔に基づいてナビゲートするためのシステム及び方法に関する。
図26は、開示される実施形態による1つ又は複数の動作を実行するための命令を記憶/プログラムされ得るメモリ140及び/又は150の例示的な機能ブロック図である。以下は、メモリ140に関するものであるが、当業者であれば、命令がメモリ140及び/又は150に記憶され得ることがわかるであろう。
図26に示されているように、メモリ140は、画像分析モジュール2602と、車両識別モジュール2604と、間隔計算モジュール2606と、ナビゲーション応答モジュール2608とを記憶し得る。開示される実施形態は、メモリ140のいかなる特定の構成にも限定されない。更に、アプリケーションプロセッサ180及び/又は画像プロセッサ190は、メモリ140に含まれるモジュール2602~2608の何れかに記憶される命令も実行し得る。当業者であれば、以下の考察で処理ユニット110に言及することは、アプリケーションプロセッサ180と画像プロセッサ190とを個別に又は集合的に指し得ることを理解するであろう。従って、以下のプロセスの何れのステップも1つ又は複数の処理デバイスによって実行され得る。
一実施形態では、画像分析モジュール2602は、処理ユニット110によって実行されるときに画像捕捉デバイス122、124、及び126の1つによって取得される1つ又は複数の画像の画像分析を実行する命令(コンピュータビジョンソフトウェア等)を記憶し得る。幾つかの実施形態では、処理ユニット110は、画像の組からの情報を追加のセンサ情報(例えば、レーダ、ライダ等からの情報)と組み合わせて画像分析を実行することができる。車両識別モジュール2604に関して以下で説明するように、画像分析モジュール2602は、1つ又は複数の特徴(例えば、前部、後部、側部等)を使用して車両を検出するための命令を含み得る。
一実施形態では、車両識別モジュール2604は、処理ユニット110によって実行されるときに画像捕捉デバイス122、124、及び126の1つによって取得される1つ又は複数の画像の分析を実行する命令(コンピュータビジョンソフトウェア等)を記憶し得る。図9~図14に関して上記で説明したように、車両識別モジュール2604は、1つ又は複数の車両のバウンディングボックスを決定するための命令を含み得る。
一実施形態では、間隔計算モジュール2606は、処理ユニット110によって実行されるときに画像捕捉デバイス122、124、及び126の1つによって取得される1つ又は複数の画像の分析を実行する命令(コンピュータビジョンソフトウェア等)を記憶し得る。図27A及び図27Bに関して説明するように、車両識別モジュール2604と共同して、間隔計算モジュール2606は、識別された車両間の1つ又は複数の間隔を計算するための命令を含み得る。
一実施形態では、ナビゲーション応答モジュール2608は、画像分析モジュール2602、車両識別モジュール2604、及び/又は間隔計算モジュール2606を実行することから得られるデータに基づいて所望のナビゲーション応答を決定するために処理ユニット110によって実行可能なソフトウェアを記憶し得る。例えば、ナビゲーション応答モジュール2608は、以下に記載の図28の方法2800に従ってナビゲーション変更を生じさせることができる。
更に、本明細書で開示されるモジュール(例えば、モジュール2602、2604、及び2606)の何れも、訓練されたシステム(ニューラルネットワーク又はディープニューラルネットワーク等)又は訓練されていないシステムに関連する技法を実装することができる。
図27Aは、開示される実施形態によるシステムの視点からの道路2702を示す。道路2702は、複数の停止車両、例えば車両2704及び車両2706を含み得る。図28の方法2800に関して以下で説明するように、システムは、停止車両の側部に関するバウンディングボックス、例えば車両2704の側部バウンディングボックス2708及び車両2706の側部バウンディングボックス2710を識別することができる。図28の方法2800に関して以下で更に説明するように、システムは、あるバウンディングボックスの前部及び隣接するバウンディングボックスの後部、例えばバウンディングボックス2708の前部2712及びバウンディングボックス2710の後部2714を使用して、識別したバウンディングボックス間の間隔を求めることができる。
図27Bも、開示される実施形態によるシステムの視点からの、車両2704及び車両2706を有する道路2702を示す。図27Aと同様に、システムは、車両2704の側部バウンディングボックス2708及び車両2706の側部バウンディングボックス2710を識別している。図27Bに示すように、バウンディングボックス2708の前部2712とバウンディングボックス2710の後部2714との間で求められた間隔に基づいてホットスポット2716が識別されている。図28の方法2800に関して以下で説明するように、システムは、識別したホットスポットに基づいてホスト車両のナビゲーション応答を決定することができる。
図28は、開示される実施形態による、検出した車両間の間隔に基づいてナビゲートするための例示的なプロセス2800を示すフローチャートである。ステップ2802では、処理ユニット110は、データインタフェース128を介してホスト車両の環境の複数の画像を受信することができる。例えば、画像取得ユニット120に含まれるカメラ(視野202、204、及び206を有する画像捕捉デバイス122、124、及び126等)は、ホスト車両の前方の及び/又は側方の領域の少なくとも1つの画像を捕捉し、それらをデジタル接続(例えば、USB、無線、Bluetooth等)上で処理ユニット110に伝送することができる。複数の画像と組み合わせて又はその代わりに、他のセンサ、例えばレーダ、ライダ、音響センサ等からの追加情報を使用することができる。
ステップ2804では、処理ユニット110は、複数の画像の少なくとも1つを分析して少なくとも2つの停止車両を識別することができる。例えば、停止車両を識別することは、停止車両の側部の形状に少なくとも1つのバウンディングボックスを関連付けることを更に含み得る。例えば、分析は、図9及び図10に関して上記で論じた学習されたアルゴリズムを使用して実行することができる。
ステップ2806では、処理ユニット110は、識別した車両間の間隔を求めることができる。例えば、処理ユニット110は、少なくとも1つの画像を左から右に(又は右から左に)走査して、右の縁部と隣接する左の縁部とを識別することができる。識別される右の縁部及び識別される左の縁部は、あるバウンディングボックスの前部と別のバウンディングボックスの後部とを含み得る。右の縁部及び左の縁部は、間隔が計算され得る間隙の対を形成し得る。かかる実施形態では、間隔は、停止車両の1つの前部と他の停止車両の後部との間の距離に対応し得る。
他の実施形態では、識別される右の縁部及び識別される左の縁部は、道路の1つの側方の1つのバウンディングボックス及び道路の他の側方の他のバウンディングボックスを含み得る。かかる実施形態では、間隔は、停止車両の隣接する側部間の距離に対応し得る。
幾つかの実施形態では、ステップ2806は、ホスト車両と、求められた間隔との間の距離を計算することを更に含み得る。例えば、処理ユニット110は、ホスト車両の画像捕捉デバイス(例えば、カメラ)の高さ及び焦点距離に基づいて距離を計算することができる。歩行者又は他の物体の既知の特性(高さ等)に基づき、処理ユニット110は、歩行者又は他の物体が出現するための「ホットスポット」として計算された間隔の範囲内の及び/又はその付近の形状を決定することができる。例えば、その形状は矩形、楕円、又は他の形状であり得る。
ステップ2808では、処理ユニット110は、ホスト車両のナビゲーション変更を生じさせることができる。例えば、ナビゲーション応答は、(上記の図13に示したような)ターン、レーンシフト(例えば、ホスト車両を走行レーン内で移動させること又はホスト車両の走行レーンを変えること)、加速度の変更(例えば、ホスト車両の減速)等を含み得る。幾つかの実施形態では、少なくとも1つのナビゲーション変更は、ホスト車両の操舵機構、ブレーキ、又はアクセルの少なくとも1つを作動させることによって行われ得る。
処理ユニット110は、ステップ2806で計算した間隔に基づいて1つ又は複数のナビゲーション応答を生じさせることができる。例えば、処理ユニット110は、計算した間隔が歩行者を含むのに十分であると判定し得る。この判定に基づいて、処理ユニットは、ホスト車両を減速し且つ/又はホスト車両をその間隔から離すことができる。換言すれば、ナビゲーション変更は、歩行者が横断するのに2つの停止車両間の間隔が十分であると判定される場合に生じられ得る。
更なる例として、処理ユニット110は、計算した間隔が車両を含むのに十分であると判定し得る。この判定に基づいて、処理ユニットは、ホスト車両を減速し且つ/又はホスト車両をその間隔から離すことができる。換言すれば、ナビゲーション変更は、標的車両が横断するのに2つの停止車両間の間隔が十分であると判定される場合に生じられ得る。
更なる例として、ホットスポットを監視することに基づき、歩行者又は他の物体がホットスポット内で若しくはその付近で識別される場合、又は動きがホットスポット内で若しくはその付近で検出される場合、処理ユニット110は、ホスト車両を減速し且つ/又はホスト車両をその間隔から離すことができる。
幾つかの実施形態では、処理ユニット110は、複数の画像の分析に基づいて2つの停止車両間の間隔において歩行者を検出し得る。例えば、処理ユニット110は、計算した間隔及び予期される歩行者の身長を使用して、歩行者の頭部が出現すると予期され得る受信画像内の位置(例えば、図27Bのホットスポット2716)を求めることができる。
歩行者の検出は、上記で論じた車両側部のための訓練された分類器と同様の、歩行者について訓練された分類器を使用して行うことができる。かかる例では、ホットスポット内の試験点が上限閾値を上回る分類器スコアを得る場合、処理ユニット110は、その点において確実な歩行者を検出し得る。他方では、ホットスポット内の試験点が下限閾値を上回るが、上限閾値を下回る分類器スコアを得る場合、処理ユニット110は、その点において疑わしい歩行者を検出し得る。疑わしい歩行者は、道路に向かう動きについて更に追跡され得、その道路に向かう場合、処理ユニットは、疑わしい歩行者を確実な歩行者として再分類する。かかる検出方法は、従来の動き検出を改善することができる。
幾つかの実施形態では、2つの停止車両間の間隔の少なくとも一部がカメラの視野から隠される場合がある。かかる実施形態では、処理ユニット110は、曖昧さを補償するために追加の分析を行い得る。
処理ユニット110は、速度及び加速度モジュール406を実行することから得られるデータを使用して1つ又は複数のナビゲーション応答を生じさせることもできる。複数のナビゲーション応答は、同時に、順に、又はその任意の組合せで起こり得る。
上記説明は、例示を目的として提示されている。上記説明は網羅的ではなく、開示される厳密な形態又は実施形態に限定されない。変更形態及び適合形態は、本明細書を考慮し、開示される実施形態を実施することから当業者に明らかになるであろう。更に、開示される実施形態の態様は、メモリに記憶されるものとして記載されるが、これらの態様が、補助記憶装置等の他のタイプのコンピュータ可読媒体、例えば、ハードディスク若しくはCD ROM又は他の形態のRAM若しくはROM、USBメディア、DVD、Blu-ray(登録商標)、4K超HD Blu-ray、又は他の光学駆動媒体に記憶することも可能なことを当業者は理解するであろう。
記載の説明及び開示される方法に基づくコンピュータプログラムは、経験のある開発者の技能内にある。様々なプログラム又はプログラムモジュールは、当業者に既知の任意の技法を使用して作成することができるか、又は既存のソフトウェアに関連して設計することができる。例えば、プログラムセクション又はプログラムモジュールは、.Net Framework、.Net Compact Framework(及びVisual Basic(登録商標)、C等の関連する言語)、Java(登録商標)、C++、Objective-C、HTML、HTML/AJAX組み合わせ、XML、又はJavaアプレットを包含したHTMLにおいて又はそれにより設計することができる。
更に、例示的な実施形態を本明細書において説明したが、あらゆる実施形態の範囲は、本開示に基づいて当業者により理解されるような均等な要素、変更形態、省略形態、組合せ(例えば、様々な実施形態にわたる態様の)、適合形態、及び/又は代替形態を有する。特許請求の範囲での限定は、特許請求の範囲に利用される言語に基づいて広く解釈されるべきであり、本明細書に記載される例又は本願の実行中の例に限定されない。例は、非排他的として解釈されるべきである。更に、開示される方法のステップは、ステップの順序替え及び/又はステップの挿入又は削除を含め、任意の方法で変更し得る。従って、本明細書及び例が単なる例示として見なされることが意図され、真の範囲及び趣旨は、以下の特許請求の範囲及びその全範囲の均等物により示される。
本明細書によれば、以下の各項目に記載の事項もまた開示される。
[項目1]
ホスト車両の環境内でドアが開く事象を検出することに基づいて前記車両をナビゲートするためのシステムであって、
前記ホスト車両の前記環境に関連する少なくとも1つの画像を画像捕捉デバイスから受信することと、
前記少なくとも1つの画像を分析して駐車車両の側部を識別することと、
前記駐車車両の前記側部の前方領域内の前記駐車車両の第1の構造上の特徴と、前記駐車車両の前記側部の後方領域内の前記駐車車両の第2の構造上の特徴とを前記少なくとも1つの画像内で識別することと、
前記第1の構造上の特徴及び前記第2の構造上の特徴の近傍の前記駐車車両のドア縁部を前記少なくとも1つの画像内で識別することと、
前記画像捕捉デバイスから受信される1つ又は複数のその後の画像の分析に基づいて前記駐車車両の前記ドア縁部の画像特性の変化を求めることと、
前記駐車車両の前記ドア縁部の前記画像特性の前記変化に少なくとも部分的に基づいて前記ホスト車両のナビゲーション経路を変えることと
を行うようにプログラムされる少なくとも1つの処理デバイスを含むシステム。
[項目2]
前記駐車車両の前記側部を識別することは、前記駐車車両の前記側部の形状に少なくとも1つのバウンディングボックスを関連付けることを含む、項目1に記載のシステム。
[項目3]
前記第1の構造上の特徴は、前記駐車車両の前輪構成要素を含み、及び前記第2の構造上の特徴は、前記駐車車両の後輪構成要素を含む、項目1に記載のシステム。
[項目4]
前記第1の構造上の特徴及び前記第2の構造上の特徴の前記近傍は、前記駐車車両の前輪構成要素と前記駐車車両の後輪構成要素との間の領域を含む、項目1に記載のシステム。
[項目5]
前記第1の車輪構成要素及び前記第2の車輪構成要素の近傍は、前記駐車車両の後輪構成要素の上部の領域を更に含む、項目4に記載のシステム。
[項目6]
前記ドア縁部の前記画像特性の前記変化は、前記ドア縁部が広がることを含む、項目1に記載のシステム。
[項目7]
前記ドア縁部の前記画像特性の前記変化は、前記ドア縁部が前記車両の車体から離れることを含む、項目1に記載のシステム。
[項目8]
前記ドア縁部の前記画像特性の前記変化を求めることは、前記第1の車輪構成要素及び前記第2の車輪構成要素の前記近傍における垂直ストライプの出現について、前記画像捕捉デバイスから受信される少なくとも2つの画像を監視することを含む、項目1に記載のシステム。
[項目9]
前記ドア縁部の前記画像特性の前記変化を求めることは、前記垂直ストライプの広がりを監視することを更に含む、項目8に記載のシステム。
[項目10]
前記垂直ストライプの第1の縁部は、前記監視画像内の前記駐車車両の車体に沿って固定されており、前記垂直ストライプの第2の縁部は、前記監視画像内の前記駐車車両の前方領域の方に移動する、項目9に記載のシステム。
[項目11]
前記少なくとも1つの処理デバイスは、前記垂直ストライプの幅を求めるように更に構成される、項目10に記載のシステム。
[項目12]
前記少なくとも1つの処理デバイスは、前記求められた幅に基づいて前記ドア縁部が前記駐車車両から離れて広がる距離を求めるように更に構成される、項目11に記載のシステム。
[項目13]
前記少なくとも1つの処理デバイスは、前記ドア縁部が前記駐車車両から離れて広がる前記求められた距離に基づいて、前記ホスト車両のための横方向の安全距離を求めるように更に構成される、項目12に記載のシステム。
[項目14]
前記ホスト車両の前記ナビゲーション経路を変更することは、前記求められた横方向の安全距離に基づく、項目13に記載のシステム。
[項目15]
ホスト車両の環境内でドアが開く事象を検出することに基づいて前記車両をナビゲートするための方法であって、
前記ホスト車両の前記環境に関連する少なくとも1つの画像を画像捕捉デバイスから受信することと、
前記少なくとも1つの画像を分析して駐車車両の側部を識別することと、
前記駐車車両の前記側部の前方領域内の前記駐車車両の第1の構造上の特徴と、前記駐車車両の前記側部の後方領域内の前記駐車車両の第2の構造上の特徴とを前記少なくとも1つの画像内で識別することと、
前記第1の構造上の特徴及び前記第2の構造上の特徴の近傍の前記駐車車両のドア縁部を前記少なくとも1つの画像内で識別することと、
前記画像捕捉デバイスから受信される1つ又は複数のその後の画像の分析に基づいて前記駐車車両の前記ドア縁部の画像特性の変化を求めることと、
前記駐車車両の前記ドア縁部の前記画像特性の前記変化に少なくとも部分的に基づいて前記ホスト車両のナビゲーション経路を変えることと
を含む方法。
[項目16]
前記ドア縁部の前記画像特性の前記変化を求めることは、前記第1の構造上の特徴及び前記第2の構造上の特徴の前記近傍における垂直ストライプの出現について、前記画像捕捉デバイスから受信される少なくとも2つの画像を監視することを含む、項目15に記載の方法。
[項目17]
前記ドア縁部の前記画像特性の前記変化を求めることは、前記垂直ストライプの広がりを監視することを更に含む、項目16に記載の方法。
[項目18]
前記垂直ストライプの幅を求めることと、
前記求められた幅に基づいて、前記ドア縁部が前記駐車車両から離れて広がる距離を求めることと
を更に含む、項目17に記載の方法。
[項目19]
前記ドア縁部が前記駐車車両から離れて広がる前記求められた距離に基づいて、前記ホスト車両のための横方向の安全距離を求めることを更に含み、前記ホスト車両の前記ナビゲーション経路を変えることは、前記求められた横方向の安全距離に基づく、項目18に記載の方法。
[項目20]
少なくとも1つの処理デバイスによって実行されるとき、
ホスト車両の環境に関連する少なくとも1つの画像を画像捕捉デバイスから受信することと、
前記少なくとも1つの画像を分析して駐車車両の側部を識別することと、
前記駐車車両の前記側部の前方領域内の前記駐車車両の第1の構造上の特徴と、前記駐車車両の前記側部の後方領域内の前記駐車車両の第2の構造上の特徴とを前記少なくとも1つの画像内で識別することと、
前記第1の構造上の特徴及び前記第2の構造上の特徴の近傍の前記駐車車両のドア縁部を前記少なくとも1つの画像内で識別することと、
前記画像捕捉デバイスから受信される1つ又は複数のその後の画像の分析に基づいて前記駐車車両の前記ドア縁部の画像特性の変化を求めることと、
前記駐車車両の前記ドア縁部の前記画像特性の前記変化に少なくとも部分的に基づいて前記ホスト車両のナビゲーション経路を変えることと
を含む方法を実行する命令を記憶する非一時的コンピュータ可読媒体。
[項目21]
ホスト車両が走行しているレーンの方への標的車両の移動に基づいて前記ホスト車両をナビゲートするためのシステムであって、
前記ホスト車両の環境に関連する複数の画像を画像捕捉デバイスから受信することと、
前記複数の画像の少なくとも1つを分析して前記標的車両及び前記標的車両の側部の少なくとも1つの車輪構成要素を識別することと、
前記標的車両の前記少なくとも1つの車輪構成要素を含む領域を前記複数の画像の少なくとも2つにおいて分析して、前記標的車両の前記少なくとも1つの車輪構成要素に関連する動きを識別することと、
前記標的車両の前記少なくとも1つの車輪構成要素に関連する前記識別された動きに基づいて前記ホスト車両の少なくとも1つのナビゲーション変更を生じさせることと
を行うようにプログラムされる少なくとも1つの処理デバイスを含むシステム。
[項目22]
前記少なくとも1つのナビゲーション変更は、前記ホスト車両の進行方向の変更を含む、項目21に記載のシステム。
[項目23]
前記少なくとも1つのナビゲーション変更は、前記ホスト車両のブレーキをかけることを含む、項目21に記載のシステム。
[項目24]
前記標的車両を識別することは、前記標的車両の形状に少なくとも1つのバウンディングボックスを関連付けることを含む、項目21に記載のシステム。
[項目25]
前記標的車両の前記少なくとも1つの車輪構成要素を含む前記領域は、路面に隣接する領域を含む、項目21に記載のシステム。
[項目26]
前記少なくとも1つの車輪構成要素に関連する動きを識別することは、前記少なくとも1つの車輪構成要素の回転の兆候について前記複数の画像の少なくとも2つを監視することを含む、項目21に記載のシステム。
[項目27]
前記少なくとも1つのタイヤ車輪構成要素に関連する動きを識別することは、前記少なくとも1つの車輪構成要素に関連する少なくとも1つの特徴を識別することと、前記少なくとも1つの特徴の位置変化のインジケータを識別することとを含む、項目21に記載のシステム。
[項目28]
前記少なくとも1つの処理デバイスは、前記少なくとも1つの車輪構成要素に関連する前記少なくとも1つの特徴の前記位置変化に基づいて、前記標的車両が移動する速度を求めるように更に構成される、項目27に記載のシステム。
[項目29]
前記少なくとも1つの処理デバイスは、前記標的車両の前記速度に基づいて、前記車両のための横方向の安全距離を求めるように更に構成される、項目28に記載のシステム。
[項目30]
前記標的車両の前記少なくとも1つのナビゲーション変更は、前記求められた横方向の安全距離に基づく、項目29に記載のシステム。
[項目31]
前記少なくとも1つの車輪構成要素は、タイヤ、ハブキャップ、又は車輪構造の少なくとも1つを含む、項目21に記載のシステム。
[項目32]
ホスト車両が走行しているレーンの方への標的車両の移動に基づいて前記ホスト車両をナビゲートするための方法であって、
前記ホスト車両の環境に関連する複数の画像を画像捕捉デバイスから受信することと、
前記複数の画像の少なくとも1つを分析して前記標的車両及び前記標的車両の側部の少なくとも1つの車輪構成要素を識別することと、
前記標的車両の前記少なくとも1つの車輪構成要素を含む領域を前記複数の画像の少なくとも2つにおいて分析して、前記標的車両の前記少なくとも1つの車輪構成要素に関連する動きを識別することと、
前記標的車両の前記少なくとも1つの車輪構成要素に関連する前記識別された動きに基づいて前記ホスト車両の少なくとも1つのナビゲーション変更を生じさせることと
を含む方法。
[項目33]
前記標的車両を識別することは、前記標的車両の形状に少なくとも1つのバウンディングボックスを関連付けることを含む、項目32に記載の方法。
[項目34]
前記少なくとも1つの車輪構成要素に関連する動きを識別することは、前記少なくとも1つの車輪構成要素の回転の兆候について前記複数の画像の少なくとも2つを監視することを含む、項目32に記載の方法。
[項目35]
前記少なくとも1つのタイヤ車輪構成要素に関連する動きを識別することは、前記少なくとも1つの車輪構成要素に関連する少なくとも1つの特徴を識別することと、前記少なくとも1つの特徴の位置変化のインジケータを識別することとを含む、項目32に記載の方法。
[項目36]
前記少なくとも1つの車輪構成要素に関連する前記少なくとも1つの特徴の前記位置変化に基づいて、前記標的車両が移動する速度を求めることと、
前記標的車両の前記速度に基づいて、前記車両のための横方向の安全距離を求めることと
を更に含む、項目35に記載の方法。
[項目37]
少なくとも1つの処理デバイスによって実行されるとき、
ホスト車両の環境に関連する複数の画像を画像捕捉デバイスから受信することと、
前記複数の画像の少なくとも1つを分析して標的車両及び前記標的車両の側部の少なくとも1つの車輪構成要素を識別することと、
前記標的車両の前記少なくとも1つの車輪構成要素を含む領域を前記複数の画像の少なくとも2つにおいて分析して、前記標的車両の前記少なくとも1つの車輪構成要素に関連する動きを識別することと、
前記標的車両の前記少なくとも1つの車輪構成要素に関連する前記識別された動きに基づいて前記ホスト車両の少なくとも1つのナビゲーション変更を生じさせることと
を含む方法を実行する命令を記憶する非一時的コンピュータ可読媒体。
[項目38]
前記標的車両を識別することは、前記標的車両の形状に少なくとも1つのバウンディングボックスを関連付けることを含む、項目37に記載の非一時的コンピュータ可読媒体。
[項目39]
前記少なくとも1つのタイヤ車輪構成要素に関連する動きを識別することは、前記少なくとも1つの車輪構成要素に関連する少なくとも1つの特徴を識別することと、前記少なくとも1つの特徴の位置変化のインジケータを識別することとを含む、項目37に記載の非一時的コンピュータ可読媒体。
[項目40]
前記少なくとも1つの車輪構成要素に関連する前記少なくとも1つの特徴の前記位置変化に基づいて、前記標的車両が移動する速度を求めることと、
前記標的車両の前記速度に基づいて、前記車両のための横方向の安全距離を求めることと
を行うための命令を更に記憶している、項目38に記載の非一時的コンピュータ可読媒体。
[項目41]
ホスト車両が走行する道路が一方通行道路であるかどうかを検出するためのシステムであって、
前記ホスト車両の環境に関連する少なくとも1つの画像を画像捕捉デバイスから受信することと、
前記少なくとも1つの画像の分析に基づいて、前記ホスト車両が走行する前記道路の第1の側方の第1の複数の車両を識別することと、
前記少なくとも1つの画像の分析に基づいて、前記ホスト車両が走行する前記道路の第2の側方の第2の複数の車両を識別することと、
前記第1の複数の車両に関連する第1の前向き方向を求めることと、
前記第2の複数の車両に関連する第2の前向き方向を求めることと、
前記第1の前向き方向及び前記第2の前向き方向の両方が前記ホスト車両の進行方向と逆である場合に前記ホスト車両の少なくとも1つのナビゲーション変更を生じさせることと
を行うようにプログラムされる少なくとも1つの処理デバイスを含むシステム。
[項目42]
前記少なくとも1つの処理デバイスは、前記少なくとも1つの画像の分析に基づいて、前記第1の複数の車両の少なくとも1つ又は前記第2の複数の車両の少なくとも1つの側部を識別するように更にプログラムされる、項目41に記載のシステム。
[項目43]
前記識別される側部は、右側の側部である、項目42に記載のシステム。
[項目44]
前記識別される側部は、左側の側部である、項目42に記載のシステム。
[項目45]
前記少なくとも1つの処理デバイスは、前記第1の複数の車両の少なくとも1つ又は前記第2の複数の車両の少なくとも1つに関連する少なくとも2つの特徴に基づいて前記側部を識別するように更にプログラムされる、項目42に記載のシステム。
[項目46]
前記少なくとも1つのナビゲーション変更は、前記ホスト車両のブレーキをかけることを含む、項目41に記載のシステム。
[項目47]
ホスト車両が走行する道路が一方通行道路であるかどうかを検出するための方法であって、
前記ホスト車両の環境に関連する少なくとも1つの画像を画像捕捉デバイスから受信することと、
前記少なくとも1つの画像の分析に基づいて、前記ホスト車両が走行する前記道路の第1の側方の第1の複数の車両を識別することと、
前記少なくとも1つの画像の分析に基づいて、前記ホスト車両が走行する前記道路の第2の側方の第2の複数の車両を識別することと、
前記第1の複数の車両に関連する第1の前向き方向を求めることと、
前記第2の複数の車両に関連する第2の前向き方向を求めることと、
前記第1の前向き方向及び前記第2の前向き方向の両方が前記ホスト車両の進行方向と逆である場合に前記ホスト車両の少なくとも1つのナビゲーション変更を生じさせることと
を含む方法。
[項目48]
前記複数の画像の少なくとも1つの分析に基づいて、前記第1の複数の車両の少なくとも1つ又は前記第2の複数の車両の少なくとも1つの側部を識別することを更に含む、項目47に記載の方法。
[項目49]
前記識別される側部は、右側の側部である、項目48に記載の方法。
[項目50]
前記識別される側部は、左側の側部である、項目48に記載の方法。
[項目51]
前記第1の複数の車両の少なくとも1つ又は前記第2の複数の車両の少なくとも1つに関連する少なくとも2つの特徴に基づいて前記側部を識別することを更に含む、項目48に記載の方法。
[項目52]
前記少なくとも1つのナビゲーション変更は、前記ホスト車両のブレーキをかけることを含む、項目47に記載の方法。
[項目53]
少なくとも1つの処理デバイスによって実行されるとき、
ホスト車両の環境に関連する少なくとも1つの画像を画像捕捉デバイスから受信することと、
前記少なくとも1つの画像の分析に基づいて、前記ホスト車両が走行する道路の第1の側方の第1の複数の車両を識別することと、
前記少なくとも1つの画像の分析に基づいて、前記ホスト車両が走行する前記道路の第2の側方の第2の複数の車両を識別することと、
前記第1の複数の車両に関連する第1の前向き方向を求めることと、
前記第2の複数の車両に関連する第2の前向き方向を求めることと、
前記第1の前向き方向及び前記第2の前向き方向の両方が前記ホスト車両の進行方向と逆である場合に前記ホスト車両の少なくとも1つのナビゲーション変更を生じさせることと
を含む方法を実行する命令を記憶する非一時的コンピュータ可読媒体。
[項目54]
前記複数の画像の少なくとも1つの分析に基づいて、前記第1の複数の車両の少なくとも1つ又は前記第2の複数の車両の少なくとも1つの側部を識別するための命令を更に記憶している、項目53に記載の非一時的コンピュータ可読媒体。
[項目55]
ホスト車両をナビゲートするためのシステムであって、
前記ホスト車両が走行している第1の道路から第2の道路に前記ホスト車両をナビゲートするためのナビゲーション命令を受信することと、
前記第2の道路の環境に関連する少なくとも1つの画像を画像捕捉デバイスから受信することと、
前記少なくとも1つの画像の分析に基づいて前記第2の道路の第1の側方の第1の複数の車両を識別することと、
前記少なくとも1つの画像の分析に基づいて前記第2の道路の第2の側方の第2の複数の車両を識別することと、
前記第1の複数の車両に関連する第1の前向き方向を求めることと、
前記第2の複数の車両に関連する第2の前向き方向を求めることと、
前記ホスト車両が前記第2の道路上に入る場合に前記ホスト車両が走行することになる進行方向に対して前記第1の前向き方向及び前記第2の前向き方向の両方が逆であると判定することと、
前記ホスト車両が前記第2の道路上にナビゲートされる場合に前記ホスト車両が走行することになる前記進行方向に対して前記第1の前向き方向及び前記第2の前向き方向の両方が逆であるという前記判定に応答して、前記ナビゲーション命令を中断することと
を行うようにプログラムされる少なくとも1つの処理デバイスを含むシステム。
[項目56]
前記少なくとも1つの処理デバイスは、前記中断されたナビゲーション命令を回復するためのオーバライド命令を受信するように更にプログラムされる、項目55に記載のシステム。
[項目57]
前記オーバライド命令は、前記ホスト車両内の人から受信される手動確認に基づいて始動される、項目56に記載のシステム。
[項目58]
前記オーバライド命令は、地図データにアクセスすることに基づいて始動される、項目56に記載のシステム。
[項目59]
前記オーバライド命令は、前記第2の道路の走行方向に関係するクラウドソースデータに基づいて始動される、項目56に記載のシステム。
[項目60]
ホスト車両の環境内の駐車車両の予測状態を求めるためのシステムであって、
画像捕捉デバイスと、
赤外画像捕捉デバイスと、
少なくとも1つの処理デバイスであって、
前記ホスト車両の前記環境に関連する複数の画像を前記画像捕捉デバイスから受信することと、
前記複数の画像の少なくとも1つを分析して前記駐車車両を識別することと、
前記複数の画像の少なくとも2つを分析して、前記駐車車両に関連する少なくとも1つのライトの照明状態の変化を識別することと、
前記駐車車両の少なくとも1つの熱画像を前記赤外画像捕捉デバイスから受信することと、
前記照明状態の前記変化及び前記少なくとも1つの熱画像の分析に基づいて前記駐車車両の前記予測状態を求めることと、
前記駐車車両の前記予測状態に基づいて、前記ホスト車両による少なくとも1つのナビゲーション応答を生じさせることと
を行うようにプログラムされる少なくとも1つの処理デバイスと
を含むシステム。
[項目61]
前記駐車車両に関連する前記少なくとも1つのライトの前記照明状態の前記変化は、非点灯状態から点灯状態への変化を含む、項目60に記載のシステム。
[項目62]
前記駐車車両の前記予測状態は、前記駐車車両のエンジンが始動されたという兆候を含む、項目61に記載のシステム。
[項目63]
前記駐車車両に関連する前記少なくとも1つのライトの前記照明状態の前記変化は、点灯状態から非点灯状態への変化を含む、項目60に記載のシステム。
[項目64]
前記駐車車両の前記予測状態は、前記駐車車両のエンジンが切られたという兆候を含む、項目63に記載のシステム。
[項目65]
前記少なくとも1つの熱画像の前記分析は、前記駐車車両のエンジン領域の温度値を求めることを含む、項目60に記載のシステム。
[項目66]
前記駐車車両の前記予測状態は、前記温度値と閾値との比較に少なくとも部分的に基づいて求められる、項目65に記載のシステム。
[項目67]
温度値が閾値を下回る場合、前記駐車車両の前記予測状態は、前記駐車車両が所定の期間内に動かないと予期されるという兆候を含む、項目66に記載のシステム。
[項目68]
前記少なくとも1つの熱画像の前記分析は、前記駐車車両のエンジン領域の第1の温度値及び前記駐車車両の少なくとも1つの車輪構成要素の第2の温度値を求めることを含む、項目60に記載のシステム。
[項目69]
前記駐車車両の前記予測状態は、前記第1の温度値と第1の閾値との比較及び前記第2の温度値と第2の閾値との比較に基づいて求められる、項目68に記載のシステム。
[項目70]
前記第1の温度値が第1の閾値を上回り、且つ前記第2の温度値が第2の閾値を下回る場合、前記駐車車両の前記予測状態は、前記駐車車両が所定の期間内に動くと予期されるという兆候を含む、項目68に記載のシステム。
[項目71]
前記第1の温度値が第1の閾値を上回り、且つ前記第2の温度値が第2の閾値を上回る場合、前記駐車車両の前記予測状態は、前記駐車車両のドアが所定の期間内に開くと予期されるという兆候を含む、項目68に記載のシステム。
[項目72]
前記駐車車両の前記予測状態は、前記駐車車両が所定の期間内に動かないと予期されるという兆候、前記駐車車両が所定の期間内に動くと予期されるという兆候、又は前記駐車車両のドアが所定の期間内に開くと予期されるという兆候の少なくとも1つを含む、項目60に記載のシステム。
[項目73]
前記少なくとも1つの処理デバイスは、
前記複数の画像の少なくとも1つを前記少なくとも1つの熱画像と位置合わせすることと、
前記位置合わせした少なくとも1つの熱画像内で前記駐車車両のエンジン領域又は少なくとも1つの車輪構成要素領域の少なくとも1つを識別することと
を行うように更にプログラムされる、項目60に記載のシステム。
[項目74]
ホスト車両の環境内の駐車車両の予測状態を求めるための方法であって、
前記ホスト車両の前記環境に関連する複数の画像を画像捕捉デバイスから受信することと、
前記複数の画像の少なくとも1つを分析して前記駐車車両を識別することと、
前記複数の画像の少なくとも2つを分析して、前記駐車車両に関連する少なくとも1つのライトの照明状態の変化を識別することと、
前記駐車車両の少なくとも1つの熱画像を赤外画像捕捉デバイスから受信することと、
前記照明状態の前記変化及び前記少なくとも1つの熱画像の分析に基づいて前記駐車車両の前記予測状態を求めることと、
前記駐車車両の前記予測状態に基づいて、前記ホスト車両による少なくとも1つのナビゲーション応答を生じさせることと
を含む方法。
[項目75]
前記少なくとも1つの熱画像の前記分析は、前記駐車車両のエンジン領域の温度値を求めることを含み、及び
前記温度値が閾値を下回る場合、前記駐車車両の前記予測状態は、前記駐車車両が所定の期間内に動かないと予期されるという兆候を含む、項目74に記載の方法。
[項目76]
前記少なくとも1つの熱画像の前記分析は、前記駐車車両のエンジン領域の第1の温度値及び前記駐車車両の少なくとも1つの車輪構成要素の第2の温度値を求めることを含み、及び
前記第1の温度値が第1の閾値を上回り、且つ前記第2の温度値が第2の閾値を下回る場合、前記駐車車両の前記予測状態は、前記駐車車両が所定の期間内に動くと予期されるという兆候を含む、項目74に記載の方法。
[項目77]
前記少なくとも1つの熱画像の前記分析は、前記駐車車両のエンジン領域の第1の温度値及び前記駐車車両の少なくとも1つの車輪構成要素の第2の温度値を求めることを含み、及び
前記第1の温度値が第1の閾値を上回り、且つ前記第2の温度値が第2の閾値を上回る場合、前記駐車車両の前記予測状態は、前記駐車車両のドアが所定の期間内に開くと予期されるという兆候を含む、項目74に記載の方法。
[項目78]
前記複数の画像の少なくとも1つを前記少なくとも1つの熱画像と位置合わせすることと、
前記位置合わせした少なくとも1つの熱画像内で前記駐車車両のエンジン領域又は少なくとも1つの車輪構成要素領域の少なくとも1つを識別することと
を更に含む、項目74に記載の方法。
[項目79]
少なくとも1つの処理デバイスによって実行されるとき、
ホスト車両の環境に関連する複数の画像を画像捕捉デバイスから受信することと、
前記複数の画像の少なくとも1つを分析して駐車車両を識別することと、
前記複数の画像の少なくとも2つを分析して、前記駐車車両に関連する少なくとも1つのライトの照明状態の変化を識別することと、
前記駐車車両の少なくとも1つの熱画像を赤外画像捕捉デバイスから受信することと、
前記照明状態の前記変化及び前記少なくとも1つの熱画像の分析に基づいて前記駐車車両の予測状態を求めることと、
前記駐車車両の前記予測状態に基づいて、前記ホスト車両による少なくとも1つのナビゲーション応答を生じさせることと
を含む方法を実行する命令を記憶する非一時的コンピュータ可読媒体。
[項目80]
ホスト車両の環境内の駐車車両の予測状態を求めるためのシステムであって、
画像捕捉デバイスと、
少なくとも1つの処理デバイスであって、
前記ホスト車両の前記環境に関連する複数の画像を前記画像捕捉デバイスから受信することと、
前記複数の画像の少なくとも1つを分析して前記駐車車両を識別することと、
前記複数の画像の少なくとも2つを分析して、前記駐車車両に関連する少なくとも1つのライトの照明状態の変化を識別することと、
前記照明状態の前記変化に基づいて前記駐車車両の前記予測状態を求めることと、
前記駐車車両の前記予測状態に基づいて、前記ホスト車両による少なくとも1つのナビゲーション応答を生じさせることと
を行うようにプログラムされる少なくとも1つの処理デバイスと
を含むシステム。
[項目81]
前記駐車車両に関連する前記少なくとも1つのライトの前記照明状態の前記変化は、非点灯状態から点灯状態への変化を含む、項目80に記載のシステム。
[項目82]
前記駐車車両の前記予測状態は、前記駐車車両のエンジンが始動されたという兆候を含む、項目81に記載のシステム。
[項目83]
前記駐車車両に関連する前記少なくとも1つのライトの前記照明状態の前記変化は、点灯状態から非点灯状態への変化を含む、項目80に記載のシステム。
[項目84]
前記駐車車両の前記予測状態は、前記駐車車両のエンジンが切られたという兆候を含む、項目83に記載のシステム。
[項目85]
ホスト車両のためのナビゲーションシステムであって、
前記ホスト車両の環境を表す複数の画像をカメラから受信することと、
前記複数の画像の少なくとも1つを分析して少なくとも2つの停止車両を識別することと、
前記複数の画像の前記少なくとも1つの分析に基づいて前記2つの停止車両間の間隔を求めることと、
前記2つの停止車両間で求められた前記間隔の広さに基づいて前記ホスト車両の少なくとも1つのナビゲーション変更を生じさせることと
を行うようにプログラムされる少なくとも1つの処理デバイスを含むシステム。
[項目86]
前記少なくとも1つのナビゲーション変更は、前記ホスト車両を減速させることを含む、項目85に記載のシステム。
[項目87]
前記少なくとも1つのナビゲーション変更は、前記ホスト車両を走行レーン内で移動させることを含む、項目85に記載のシステム。
[項目88]
前記少なくとも1つのナビゲーション変更は、前記ホスト車両の走行レーンを変更することを含む、項目85に記載のシステム。
[項目89]
前記少なくとも1つのナビゲーション変更を生じさせることは、前記ホスト車両の操舵機構、ブレーキ、又はアクセルの少なくとも1つを作動させることによって行われる、項目85に記載のシステム。
[項目90]
前記ホスト車両の前記少なくとも1つのナビゲーション変更は、歩行者が横断するのに前記2つの停止車両間の前記間隔が十分であると判定される場合に生じる、項目85に記載のシステム。
[項目91]
前記ホスト車両の前記少なくとも1つのナビゲーション変更は、標的車両が横断するのに前記2つの停止車両間の前記間隔が十分であると判定される場合に生じる、項目85に記載のシステム。
[項目92]
前記間隔は、前記停止車両の隣接する側部間の距離に対応する、項目85に記載のシステム。
[項目93]
前記間隔は、前記停止車両の1つの前部と、他の停止車両の後部との間の距離に対応する、項目85に記載のシステム。
[項目94]
前記少なくとも1つの処理デバイスは、前記複数の画像の分析に基づいて、前記2つの停止車両間の前記間隔内の歩行者を検出するように更にプログラムされる、項目85に記載のシステム。
[項目95]
前記2つの停止車両間の前記間隔の少なくとも一部は、前記カメラの視野から隠される、項目85に記載のシステム。
[項目96]
ホスト車両をナビゲートするための方法であって、
前記ホスト車両の環境を表す複数の画像をカメラから受信することと、
前記複数の画像の少なくとも1つを分析して少なくとも2つの停止車両を識別することと、
前記複数の画像の前記少なくとも1つの分析に基づいて前記2つの停止車両間の間隔を求めることと、
前記2つの停止車両間で求められた前記間隔の広さに基づいて前記ホスト車両の少なくとも1つのナビゲーション変更を生じさせることと
を含む方法。
[項目97]
前記ホスト車両の少なくとも1つのナビゲーション変更を生じさせることは、前記ホスト車両を減速させることを含む、項目96に記載の方法。
[項目98]
前記ホスト車両の少なくとも1つのナビゲーション変更を生じさせることは、前記ホスト車両を走行レーン内で移動させることを含む、項目96に記載の方法。
[項目99]
前記ホスト車両の少なくとも1つのナビゲーション変更を生じさせることは、前記ホスト車両の走行レーンを変更することを含む、項目96に記載の方法。
[項目100]
前記少なくとも1つのナビゲーション変更を生じさせることは、前記ホスト車両の操舵機構、ブレーキ、又はアクセルの少なくとも1つを作動させることを含む、項目96に記載の方法。
[項目101]
前記ホスト車両の前記少なくとも1つのナビゲーション変更は、歩行者が横断するのに前記2つの停止車両間の前記間隔が十分であると判定される場合に生じる、項目96に記載の方法。
[項目102]
前記ホスト車両の前記少なくとも1つのナビゲーション変更は、標的車両が横断するのに前記2つの停止車両間の前記間隔が十分であると判定される場合に生じる、項目96に記載の方法。
[項目103]
少なくとも1つの処理デバイスによって実行されるとき、
ホスト車両の環境を表す複数の画像をカメラから受信することと、
前記複数の画像の少なくとも1つを分析して少なくとも2つの停止車両を識別することと、
前記複数の画像の前記少なくとも1つの分析に基づいて前記2つの停止車両間の間隔を求めることと、
前記2つの停止車両間で求められた前記間隔の広さに基づいて前記ホスト車両の少なくとも1つのナビゲーション変更を生じさせることと
を含む方法を実行する命令を記憶する非一時的コンピュータ可読媒体。
[項目104]
前記ホスト車両の少なくとも1つのナビゲーション変更を生じさせることは、前記ホスト車両を減速させること、前記ホスト車両を走行レーン内で移動させること、又は前記ホスト車両の走行レーンを変更することの少なくとも1つを含む、項目103に記載の非一時的コンピュータ可読媒体。

Claims (1)

  1. ホスト車両の環境内でドアが開く事象を検出することに基づいて前記ホスト車両をナビゲートするためのシステムであって、
    前記ホスト車両の前記環境に関連する少なくとも1つの画像を画像捕捉デバイスから受信することと、
    前記少なくとも1つの画像を分析して駐車車両の側部を識別することと、
    前記駐車車両のドア縁部を前記少なくとも1つの画像内で識別することと、
    前記画像捕捉デバイスから受信される1つ又は複数のその後の画像の分析に基づいて前記駐車車両の前記ドア縁部の画像特性の変化を求めることと、
    前記駐車車両の前記ドア縁部の前記画像特性の前記変化に少なくとも部分的に基づいて前記ホスト車両のナビゲーション経路を変えることとを行うようにプログラムされる少なくとも1つの処理デバイスを含むシステム。
JP2021204491A 2016-06-27 2021-12-16 車両をナビゲートするためのシステム、方法およびコンピュータプログラム Pending JP2022050427A (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201662354946P 2016-06-27 2016-06-27
US62/354,946 2016-06-27
US201762445500P 2017-01-12 2017-01-12
US62/445,500 2017-01-12
PCT/US2017/039427 WO2018005441A2 (en) 2016-06-27 2017-06-27 Controlling host vehicle based on detected parked vehicle characteristics
JP2018560452A JP6997106B2 (ja) 2016-06-27 2017-06-27 車両をナビゲートするためのシステム、方法およびコンピュータプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018560452A Division JP6997106B2 (ja) 2016-06-27 2017-06-27 車両をナビゲートするためのシステム、方法およびコンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2022050427A true JP2022050427A (ja) 2022-03-30

Family

ID=59315715

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018560452A Active JP6997106B2 (ja) 2016-06-27 2017-06-27 車両をナビゲートするためのシステム、方法およびコンピュータプログラム
JP2021204491A Pending JP2022050427A (ja) 2016-06-27 2021-12-16 車両をナビゲートするためのシステム、方法およびコンピュータプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018560452A Active JP6997106B2 (ja) 2016-06-27 2017-06-27 車両をナビゲートするためのシステム、方法およびコンピュータプログラム

Country Status (6)

Country Link
US (7) US10262217B2 (ja)
EP (6) EP3614106B1 (ja)
JP (2) JP6997106B2 (ja)
KR (3) KR102359806B1 (ja)
CN (5) CN110345962B (ja)
WO (1) WO2018005441A2 (ja)

Families Citing this family (134)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11609336B1 (en) * 2018-08-21 2023-03-21 Innovusion, Inc. Refraction compensation for use in LiDAR systems
US9898671B2 (en) 2015-05-11 2018-02-20 Magna Electronics Inc. Vehicle vision system with structure and motion estimation
JP6915542B2 (ja) * 2015-09-30 2021-08-04 日本電気株式会社 情報処理装置、通知システム、情報送信方法及びプログラム
DE102016102510A1 (de) * 2016-02-12 2017-08-17 Kiekert Aktiengesellschaft Verfahren und Vorrichtung zur Beaufschlagung einer Kraftfahrzeugtür im Sinne eines Abbremsens insbesondere zur Kollisionsvermeidung
JP6997106B2 (ja) 2016-06-27 2022-01-17 モービルアイ ビジョン テクノロジーズ リミテッド 車両をナビゲートするためのシステム、方法およびコンピュータプログラム
US9984567B2 (en) 2016-09-09 2018-05-29 Ford Global Technologies, Llc Detection of oncoming vehicles with IR light
US10629079B2 (en) * 2016-12-05 2020-04-21 Ford Global Technologies, Llc Vehicle collision avoidance
CN106650806B (zh) * 2016-12-16 2019-07-26 北京大学深圳研究生院 一种用于行人检测的协同式深度网络模型方法
CN110657820A (zh) * 2017-01-12 2020-01-07 御眼视觉技术有限公司 基于车辆活动的导航
US9988048B1 (en) * 2017-03-03 2018-06-05 GM Global Technology Operations LLC Lane detection systems and methods
US10160459B2 (en) * 2017-03-22 2018-12-25 Ford Global Technologies, Llc Vehicle lane direction detection
US10089872B1 (en) * 2017-05-11 2018-10-02 Here Global B.V. Vehicle communication system for vehicle boarding area
JP2019016188A (ja) * 2017-07-07 2019-01-31 株式会社日立製作所 移動体遠隔操作システムおよび移動体遠隔操作方法
US11112796B2 (en) * 2017-08-08 2021-09-07 Uatc, Llc Object motion prediction and autonomous vehicle control
US10656657B2 (en) * 2017-08-08 2020-05-19 Uatc, Llc Object motion prediction and autonomous vehicle control
JP6540917B1 (ja) * 2017-09-08 2019-07-10 日本精工株式会社 自走装置、自走装置の走行制御方法及び走行制御プログラム
US20190094858A1 (en) * 2017-09-25 2019-03-28 Uber Technologies, Inc. Parking Location Prediction
CN110998596B (zh) * 2017-09-28 2023-11-07 苹果公司 夜间感测
US10997491B2 (en) * 2017-10-04 2021-05-04 Huawei Technologies Co., Ltd. Method of prediction of a state of an object in the environment using an action model of a neural network
US10627606B2 (en) * 2017-11-10 2020-04-21 Denso Corporation Camera module
US10232800B1 (en) * 2017-11-10 2019-03-19 Denson Corporation Camera module
US10406995B2 (en) 2017-11-10 2019-09-10 Denso Corporation Camera module
US11181816B2 (en) 2017-11-10 2021-11-23 Denso Corporation Windshield-mounted camera module
US10534253B2 (en) 2017-11-10 2020-01-14 Denso Corporation Camera module which includes lens units and configured to be mounted on inside of windshiled of vehicle
US10661725B2 (en) * 2017-11-10 2020-05-26 Denso Corporation Camera module
DE102018218986B4 (de) 2017-11-10 2023-02-16 Denso Corporation Kameramodul
KR20190063750A (ko) * 2017-11-30 2019-06-10 주식회사 만도 3차원 차량 인식 기반의 차량 제어 장치 및 방법
US10699571B2 (en) * 2017-12-04 2020-06-30 Ford Global Technologies, Llc High definition 3D mapping
JP6922706B2 (ja) * 2017-12-06 2021-08-18 トヨタ自動車株式会社 センサー搭載構造
WO2019136375A1 (en) 2018-01-07 2019-07-11 Nvidia Corporation Guiding vehicles through vehicle maneuvers using machine learning models
US10596958B2 (en) * 2018-01-30 2020-03-24 Toyota Research Institute, Inc. Methods and systems for providing alerts of opening doors
DE112019000065T5 (de) 2018-02-02 2020-03-05 Nvidia Corporation Sicherheitsprozeduranalyse zur hindernisvermeidung in einem autonomen fahrzeug
US11417107B2 (en) * 2018-02-19 2022-08-16 Magna Electronics Inc. Stationary vision system at vehicle roadway
WO2019168869A1 (en) 2018-02-27 2019-09-06 Nvidia Corporation Real-time detection of lanes and boundaries by autonomous vehicles
CN108482367B (zh) * 2018-03-13 2020-08-18 京东方科技集团股份有限公司 一种基于智能后视镜辅助驾驶的方法、装置及系统
US11537139B2 (en) 2018-03-15 2022-12-27 Nvidia Corporation Determining drivable free-space for autonomous vehicles
US10685239B2 (en) * 2018-03-18 2020-06-16 Tusimple, Inc. System and method for lateral vehicle detection
WO2019182974A2 (en) 2018-03-21 2019-09-26 Nvidia Corporation Stereo depth estimation using deep neural networks
DE112019001605T5 (de) 2018-03-27 2020-12-17 Nvidia Corporation Trainieren, testen und verifizieren von autonomen maschinen unter verwendung simulierter umgebungen
JP7125214B2 (ja) 2018-04-03 2022-08-24 モービルアイ ビジョン テクノロジーズ リミテッド プログラムおよびコンピューティングデバイス
CN115393536A (zh) * 2018-04-18 2022-11-25 移动眼视力科技有限公司 利用相机进行车辆环境建模
CN108647638B (zh) * 2018-05-09 2021-10-12 东软睿驰汽车技术(上海)有限公司 一种车辆位置检测方法及装置
US10706563B2 (en) * 2018-05-15 2020-07-07 Qualcomm Incorporated State and position prediction of observed vehicles using optical tracking of wheel rotation
US11966838B2 (en) 2018-06-19 2024-04-23 Nvidia Corporation Behavior-guided path planning in autonomous machine applications
WO2020014683A1 (en) * 2018-07-13 2020-01-16 Kache.AI Systems and methods for autonomous object detection and vehicle following
JP2020021188A (ja) * 2018-07-31 2020-02-06 田中 成典 自動車の姿勢推定装置
US10663963B2 (en) * 2018-08-03 2020-05-26 Here Global B.V. Method and apparatus for visualizing future events for passengers of autonomous vehicles
CN109345512A (zh) * 2018-09-12 2019-02-15 百度在线网络技术(北京)有限公司 汽车图像的处理方法、装置及可读存储介质
US11495028B2 (en) * 2018-09-28 2022-11-08 Intel Corporation Obstacle analyzer, vehicle control system, and methods thereof
US11040714B2 (en) * 2018-09-28 2021-06-22 Intel Corporation Vehicle controller and method for controlling a vehicle
US11300965B2 (en) * 2018-10-01 2022-04-12 EmergeX, LLC Methods and systems for navigating autonomous and semi-autonomous vehicles
CN111159833A (zh) * 2018-10-22 2020-05-15 百度在线网络技术(北京)有限公司 无人驾驶车辆算法的评估的方法和装置
US11132586B2 (en) * 2018-10-29 2021-09-28 Nec Corporation Rolling shutter rectification in images/videos using convolutional neural networks with applications to SFM/SLAM with rolling shutter images/videos
US10698415B2 (en) * 2018-10-31 2020-06-30 Trw Automotive U.S. Llc Vehicle assist system
US20200143546A1 (en) * 2018-11-05 2020-05-07 GM Global Technology Operations LLC Apparatus and method for detecting slow vehicle motion
DE112019005750T5 (de) 2018-11-16 2021-08-05 Nvidia Corporation Erlernen des Erzeugens synthetischer Datensätze zum Trainieren neuronalerNetze
US11105927B2 (en) * 2018-11-29 2021-08-31 Waymo Llc Localization initialization for autonomous vehicles
CN111292351A (zh) 2018-12-07 2020-06-16 星克跃尔株式会社 车辆检测方法及执行其的电子设备
JP7122589B2 (ja) * 2018-12-26 2022-08-22 パナソニックIpマネジメント株式会社 駐車支援装置、駐車支援方法、及び、コンピュータプログラム
DE112019006484T5 (de) 2018-12-28 2021-10-21 Nvidia Corporation Detektion von abständen zu hindernissen in autonomen maschinenanwendungen
US11182916B2 (en) 2018-12-28 2021-11-23 Nvidia Corporation Distance to obstacle detection in autonomous machine applications
US11170299B2 (en) 2018-12-28 2021-11-09 Nvidia Corporation Distance estimation to objects and free-space boundaries in autonomous machine applications
US11361557B2 (en) 2019-01-18 2022-06-14 Toyota Research Institute, Inc. Attention-based recurrent convolutional network for vehicle taillight recognition
US10796206B2 (en) * 2019-01-31 2020-10-06 StradVision, Inc. Method for integrating driving images acquired from vehicles performing cooperative driving and driving image integrating device using same
WO2020163390A1 (en) 2019-02-05 2020-08-13 Nvidia Corporation Driving lane perception diversity and redundancy in autonomous driving applications
DE102019202107B3 (de) * 2019-02-18 2020-04-23 Zf Friedrichshafen Ag Kollisionsvermeidung einer autonomen Landmaschine
US11648945B2 (en) 2019-03-11 2023-05-16 Nvidia Corporation Intersection detection and classification in autonomous machine applications
DE102019203334A1 (de) * 2019-03-12 2020-09-17 Robert Bosch Gmbh Verfahren zum Durchführen einer Reaktion auf Personen an Fahrzeugen
JP2020166479A (ja) * 2019-03-29 2020-10-08 本田技研工業株式会社 運転支援装置
US11077846B2 (en) 2019-03-31 2021-08-03 Gm Cruise Holdings Llc Controlling an autonomous vehicle based upon a predicted imminent lane change
DE102019204656A1 (de) * 2019-04-02 2020-10-08 Conti Temic Microelectronic Gmbh Parkassistenzsystem
CN110084230B (zh) * 2019-04-11 2021-05-28 北京百度网讯科技有限公司 基于图像的车身方向检测方法和装置
US11618439B2 (en) * 2019-04-11 2023-04-04 Phantom Auto Inc. Automatic imposition of vehicle speed restrictions depending on road situation analysis
JP7156152B2 (ja) * 2019-04-17 2022-10-19 日本電信電話株式会社 危険予知方法及び危険予知装置
CN113825979A (zh) * 2019-05-24 2021-12-21 御眼视觉技术有限公司 用于基于图像分析的车辆导航的系统和方法
JP7309480B2 (ja) * 2019-06-27 2023-07-18 フォルシアクラリオン・エレクトロニクス株式会社 車載装置、及び車載装置の制御方法
US11636307B2 (en) * 2019-07-08 2023-04-25 Uatc, Llc Systems and methods for generating motion forecast data for actors with respect to an autonomous vehicle and training a machine learned model for the same
CN110262511B (zh) * 2019-07-12 2022-08-09 同济人工智能研究院(苏州)有限公司 基于深度强化学习的双足机器人自适应性行走控制方法
US10956776B2 (en) 2019-08-06 2021-03-23 Alibaba Group Holding Limited 2D convolutional accelerator that generates 3D results
US10922826B1 (en) 2019-08-07 2021-02-16 Ford Global Technologies, Llc Digital twin monitoring systems and methods
US11586194B2 (en) 2019-08-12 2023-02-21 Micron Technology, Inc. Storage and access of neural network models of automotive predictive maintenance
US11748626B2 (en) 2019-08-12 2023-09-05 Micron Technology, Inc. Storage devices with neural network accelerators for automotive predictive maintenance
US11775816B2 (en) 2019-08-12 2023-10-03 Micron Technology, Inc. Storage and access of neural network outputs in automotive predictive maintenance
US11853863B2 (en) 2019-08-12 2023-12-26 Micron Technology, Inc. Predictive maintenance of automotive tires
US11635893B2 (en) 2019-08-12 2023-04-25 Micron Technology, Inc. Communications between processors and storage devices in automotive predictive maintenance implemented via artificial neural networks
US11586943B2 (en) 2019-08-12 2023-02-21 Micron Technology, Inc. Storage and access of neural network inputs in automotive predictive maintenance
US10993647B2 (en) 2019-08-21 2021-05-04 Micron Technology, Inc. Drowsiness detection for vehicle control
US11042350B2 (en) 2019-08-21 2021-06-22 Micron Technology, Inc. Intelligent audio control in vehicles
US11498388B2 (en) 2019-08-21 2022-11-15 Micron Technology, Inc. Intelligent climate control in vehicles
US11702086B2 (en) 2019-08-21 2023-07-18 Micron Technology, Inc. Intelligent recording of errant vehicle behaviors
US11361552B2 (en) * 2019-08-21 2022-06-14 Micron Technology, Inc. Security operations of parked vehicles
WO2021042051A1 (en) 2019-08-31 2021-03-04 Nvidia Corporation Map creation and localization for autonomous driving applications
US11435946B2 (en) 2019-09-05 2022-09-06 Micron Technology, Inc. Intelligent wear leveling with reduced write-amplification for data storage devices configured on autonomous vehicles
US11436076B2 (en) 2019-09-05 2022-09-06 Micron Technology, Inc. Predictive management of failing portions in a data storage device
US11693562B2 (en) 2019-09-05 2023-07-04 Micron Technology, Inc. Bandwidth optimization for different types of operations scheduled in a data storage device
US11409654B2 (en) 2019-09-05 2022-08-09 Micron Technology, Inc. Intelligent optimization of caching operations in a data storage device
US11650746B2 (en) 2019-09-05 2023-05-16 Micron Technology, Inc. Intelligent write-amplification reduction for data storage devices configured on autonomous vehicles
CN112572424B (zh) * 2019-09-11 2022-05-17 北京百度网讯科技有限公司 基于障碍物识别的车辆控制方法、装置、设备和介质
US10824882B1 (en) 2019-09-13 2020-11-03 Ford Global Technologies, Llc Systems and methods for improving vehicle parking skills
US20230005364A1 (en) 2019-09-17 2023-01-05 Mobileye Vision Technologies Ltd. Systems and methods for monitoring traffic lane congestion
DE102019125245A1 (de) 2019-09-19 2021-03-25 Ford Global Technologies, Llc System und Verfahren zum bedarfsorientierten Anpassen eines Durchlasses zwischen zwei Fahrzeugen
US11891057B2 (en) * 2019-09-24 2024-02-06 Seek Thermal, Inc. Thermal imaging system with multiple selectable viewing angles and fields of view for vehicle applications
US11386670B2 (en) * 2019-10-03 2022-07-12 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and systems for tracking non-connected vehicles
DE102019128253A1 (de) * 2019-10-18 2021-04-22 StreetScooter GmbH Verfahren zum Navigieren eines Flurförderzeugs
EP4057058A4 (en) * 2019-11-07 2022-12-21 Sony Semiconductor Solutions Corporation IMAGING DEVICE
KR102155054B1 (ko) * 2019-11-28 2020-09-11 국민대학교산학협력단 인공지능을 활용한 주변차량 컷인 의도 예측 방법
US11180080B2 (en) 2019-12-13 2021-11-23 Continental Automotive Systems, Inc. Door opening aid systems and methods
US11250648B2 (en) 2019-12-18 2022-02-15 Micron Technology, Inc. Predictive maintenance of automotive transmission
US11531339B2 (en) 2020-02-14 2022-12-20 Micron Technology, Inc. Monitoring of drive by wire sensors in vehicles
US11709625B2 (en) 2020-02-14 2023-07-25 Micron Technology, Inc. Optimization of power usage of data storage devices
US11195033B2 (en) * 2020-02-27 2021-12-07 Gm Cruise Holdings Llc Multi-modal, multi-technique vehicle signal detection
WO2022019747A1 (en) * 2020-07-24 2022-01-27 Mimos Berhad System and method for identification of text region in video
US20220024495A1 (en) * 2020-07-24 2022-01-27 Autobrains Technologies Ltd Open door predictor
JP7466396B2 (ja) * 2020-07-28 2024-04-12 株式会社Soken 車両制御装置
KR102176188B1 (ko) * 2020-08-07 2020-11-09 정만식 인공지능 기반의 도로 노후화 등급 판단을 위한 전자 장치 및 그 동작 방법
US11210533B1 (en) 2020-08-09 2021-12-28 Phantom AI, Inc. Method of predicting trajectory of vehicle
GB2599442A (en) * 2020-10-04 2022-04-06 Gerard Bailey Samuel Measuring vehicle speed in video capture
US11978266B2 (en) 2020-10-21 2024-05-07 Nvidia Corporation Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications
CN112277939B (zh) * 2020-10-30 2022-09-06 重庆长安汽车股份有限公司 一种对于避让前方压线车辆的偏移控制系统及方法
JP7452402B2 (ja) * 2020-12-18 2024-03-19 トヨタ自動車株式会社 車両ドア寄り掛かり検出システム
CN112644479B (zh) * 2021-01-07 2022-05-13 广州小鹏自动驾驶科技有限公司 一种泊车控制方法和装置
US11724641B2 (en) * 2021-01-26 2023-08-15 Ford Global Technologies, Llc Hazard condition warning for package delivery operation
CN113012441B (zh) * 2021-03-25 2023-01-13 北京百度网讯科技有限公司 车辆停车检测方法、系统、电子设备以及存储介质
US11794737B2 (en) 2021-04-07 2023-10-24 Ford Global Technologies, Llc Vehicle operation
US11919526B1 (en) * 2021-04-28 2024-03-05 Zoox, Inc. Model-based vehicle drive system monitors
CN113246968B (zh) * 2021-06-15 2021-10-22 成都信息工程大学 一种自动驾驶汽车精准停车控制方法及装置
DE102021209783A1 (de) 2021-09-06 2023-03-09 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Bereitstellen von Daten zum Erstellen einer digitalen Karte
EP4148703A1 (en) * 2021-09-08 2023-03-15 Toyota Jidosha Kabushiki Kaisha Vehicle behavior prediction device
US11879610B2 (en) 2021-09-20 2024-01-23 Apple Inc. Multi-mode lights
US20230236313A1 (en) * 2022-01-26 2023-07-27 Motional Ad Llc Thermal sensor data vehicle perception
US20230311863A1 (en) 2022-04-04 2023-10-05 Mobileye Vision Technologies Ltd. Detecting an open door using a sparse representation
US20230007914A1 (en) * 2022-09-20 2023-01-12 Intel Corporation Safety device and method for avoidance of dooring injuries
KR102593769B1 (ko) * 2023-05-04 2023-10-25 박찬배 인공지능에 의한 무선형 객체 인식 시스템 및 이를 이용한 객체 인식 방법
CN116580066B (zh) * 2023-07-04 2023-10-03 广州英码信息科技有限公司 一种低帧率场景下的行人目标跟踪方法及可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004168085A (ja) * 2002-11-18 2004-06-17 Nissan Motor Co Ltd 駐車支援装置
JP2006113836A (ja) * 2004-10-15 2006-04-27 Fuji Heavy Ind Ltd 道路情報提供システム
JP2011210102A (ja) * 2010-03-30 2011-10-20 Mazda Motor Corp 車両用運転支援装置
JP2016024602A (ja) * 2014-07-18 2016-02-08 日立オートモティブシステムズ株式会社 物体検知装置及びそれを用いた車両制御システム

Family Cites Families (71)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5170352A (en) 1990-05-07 1992-12-08 Fmc Corporation Multi-purpose autonomous vehicle with path plotting
JPH08177263A (ja) * 1994-12-21 1996-07-09 Mitsubishi Heavy Ind Ltd 車ドアの開閉検知方法
EP0913751B1 (de) * 1997-11-03 2003-09-03 Volkswagen Aktiengesellschaft Autonomes Fahrzeug und Verfahren zur Steuerung eines autonomen Fahrzeuges
JP2004122844A (ja) * 2002-09-30 2004-04-22 Clarion Co Ltd 駐車支援システム
JP2006268081A (ja) * 2005-03-22 2006-10-05 Denso Corp 前方車両ドア開き報知制御装置および前方車両ドア開き報知制御プログラム
US8381982B2 (en) * 2005-12-03 2013-02-26 Sky-Trax, Inc. Method and apparatus for managing and controlling manned and automated utility vehicles
US7786898B2 (en) 2006-05-31 2010-08-31 Mobileye Technologies Ltd. Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications
CN100572169C (zh) * 2007-02-09 2009-12-23 财团法人车辆研究测试中心 虚拟道路边界的辅助驾驶装置
US9103671B1 (en) * 2007-11-29 2015-08-11 American Vehicular Sciences, LLC Mapping techniques using probe vehicles
DE102008003662A1 (de) * 2008-01-09 2009-07-16 Robert Bosch Gmbh Verfahren und Vorrichtung zum Anzeigen der Umgebung eines Fahrzeugs
DE102008004632A1 (de) * 2008-01-16 2009-07-23 Robert Bosch Gmbh Vorrichtung und Verfahren zur Vermessung einer Parklücke
EP2107503A1 (en) * 2008-03-31 2009-10-07 Harman Becker Automotive Systems GmbH Method and device for generating a real time environment model for vehicles
JP5225820B2 (ja) * 2008-11-25 2013-07-03 アイシン精機株式会社 入力装置、車両周辺監視装置、アイコンスイッチ選択方法及びプログラム
KR101048369B1 (ko) * 2008-12-22 2011-07-11 한국전자통신연구원 차량의 자동 주차 방법 및 그 장치
CN101823435B (zh) * 2009-03-03 2012-12-12 珠海市智汽电子科技有限公司 便于外置安装、便于手动/自动切换的车辆自动驾驶系统
FR2947223B1 (fr) * 2009-06-29 2015-05-01 Valeo Vision Procede de commande de faisceau d'eclairage pour vehicules
AT509438A1 (de) * 2010-01-18 2011-08-15 Zeno Track Gmbh Verfahren und system zum erfassen der position eines fahrzeuges in einem definierten bereich
IT1399988B1 (it) * 2010-05-05 2013-05-09 Space S R L Con Unico Socio Sistema, e relativo metodo, di determinazione dell'allineamento delle ruote di un veicolo
CN101957176B (zh) * 2010-09-19 2012-05-02 天津大学 基于机器人结合相机定标的高精度汽车车门的检测方法
US9118816B2 (en) 2011-12-06 2015-08-25 Mobileye Vision Technologies Ltd. Road vertical contour detection
US8514099B2 (en) * 2010-10-13 2013-08-20 GM Global Technology Operations LLC Vehicle threat identification on full windshield head-up display
CN102175172B (zh) * 2010-12-30 2012-07-04 南京理工大学 一种基于图像识别的机动车辆外形尺寸检测系统
JP5482670B2 (ja) * 2011-01-12 2014-05-07 株式会社デンソー 物体検出装置
DE102011003881A1 (de) * 2011-02-09 2012-08-09 Robert Bosch Gmbh Verfahren zur Unterstützung eines Fahrers eines Kraftfahrzeugs
CN102692224B (zh) * 2011-03-24 2015-08-05 昆达电脑科技(昆山)有限公司 附于载具的导航系统及其导航方法
US9466000B2 (en) * 2011-05-19 2016-10-11 The Regents Of The University Of California Dynamic Bayesian Networks for vehicle classification in video
CN202230205U (zh) * 2011-08-06 2012-05-23 李良杰 车辆定位导航、防撞提醒及收费站免停自动收费系统
JP5616301B2 (ja) * 2011-08-10 2014-10-29 株式会社日本自動車部品総合研究所 車両検出装置
DE102011081382A1 (de) 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ändern einer Lichtaussendung zumindest eines Scheinwerfers eines Fahrzeugs
JP5810843B2 (ja) * 2011-11-02 2015-11-11 アイシン・エィ・ダブリュ株式会社 レーン案内表示システム、方法およびプログラム
CN202582559U (zh) * 2011-12-07 2012-12-05 北京北方胜达机电科技发展有限公司 物流车北斗卫星导航定位监控系统
US9187117B2 (en) * 2012-01-17 2015-11-17 Ford Global Technologies, Llc Autonomous lane control system
US8855847B2 (en) * 2012-01-20 2014-10-07 Toyota Motor Engineering & Manufacturing North America, Inc. Intelligent navigation system
US9429943B2 (en) * 2012-03-05 2016-08-30 Florida A&M University Artificial intelligence valet systems and methods
US8504233B1 (en) * 2012-04-27 2013-08-06 Google Inc. Safely navigating on roads through maintaining safe distance from other vehicles
US8849515B2 (en) 2012-07-24 2014-09-30 GM Global Technology Operations LLC Steering assist in driver initiated collision avoidance maneuver
DE102012215093A1 (de) * 2012-08-24 2014-02-27 Robert Bosch Gmbh Fahrerassistenzsystem und Verfahren zum Betreiben des Fahrerassistenzsystems
JP6119956B2 (ja) * 2012-10-10 2017-04-26 三菱自動車工業株式会社 車両の危険回避支援装置
US9076034B2 (en) * 2012-12-07 2015-07-07 Analog Devices, Inc. Object localization using vertical symmetry
CN102991504B (zh) * 2012-12-07 2015-06-03 长安大学 一种对驾驶员换道安全性进行判断并预警的方法
CN203047045U (zh) * 2013-01-09 2013-07-10 谢健良 车辆门把的光警示系统
JP6036371B2 (ja) * 2013-02-14 2016-11-30 株式会社デンソー 車両用運転支援システム及び運転支援方法
CN103204123B (zh) * 2013-03-25 2015-07-08 中国电子科技集团公司第三十八研究所 一种车辆行人检测跟踪预警装置及其预警方法
DE102013208763A1 (de) * 2013-05-13 2014-11-13 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen einer Anfahrabsicht eines haltenden Fahrzeugs
CN103465828A (zh) * 2013-05-21 2013-12-25 麦特汽车服务股份有限公司 一种汽车转向预警方法及其车载智能终端装置
US9110163B2 (en) * 2013-06-14 2015-08-18 Microsoft Technology Licensing, Llc Lidar-based classification of object movement
US9024787B2 (en) * 2013-09-18 2015-05-05 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Controlling vehicular traffic on a one-way roadway
EP3812962A1 (en) * 2013-12-04 2021-04-28 Mobileye Vision Technologies Ltd. Navigating a vehicle to pass another vehicle
JP6237214B2 (ja) * 2013-12-24 2017-11-29 株式会社デンソー 逆走検出装置
US9248832B2 (en) * 2014-01-30 2016-02-02 Mobileye Vision Technologies Ltd. Systems and methods for detecting traffic signal details
US9547989B2 (en) * 2014-03-04 2017-01-17 Google Inc. Reporting road event data and sharing with other vehicles
CN103984950B (zh) * 2014-04-22 2017-07-14 北京联合大学 一种适应白天检测的运动车辆刹车灯状态识别方法
JP6190758B2 (ja) * 2014-05-21 2017-08-30 本田技研工業株式会社 物体認識装置及び車両
US9734583B2 (en) * 2014-06-30 2017-08-15 Collin Walker Systems and methods for controlling vehicle position and orientation
US9575184B2 (en) * 2014-07-03 2017-02-21 Continental Advanced Lidar Solutions Us, Inc. LADAR sensor for a dense environment
DE102014011630A1 (de) * 2014-08-01 2015-03-26 Daimler Ag Verfahren zur Reaktion eines Fahrzeuges auf einen haltenden Bus sowie ein Fahrzeug
JP6296162B2 (ja) * 2014-08-11 2018-03-20 日産自動車株式会社 車両の走行制御装置及び方法
CN104156737B (zh) * 2014-08-19 2017-07-11 哈尔滨工程大学 一种公交车乘客安全下车自动检测方法
CN104260723B (zh) * 2014-09-29 2018-03-06 长安大学 一种后方车辆运动状态追踪预测装置及预测方法
JP6025268B2 (ja) * 2014-10-31 2016-11-16 富士重工業株式会社 車両の走行制御装置
US9672433B2 (en) * 2014-11-14 2017-06-06 Toyota Motor Engineering & Manufacturing North America, Inc. Multi-directional vehicle maneuvering assistance
JP6126573B2 (ja) * 2014-12-25 2017-05-10 本田技研工業株式会社 衝突回避支援装置
US9475429B2 (en) * 2015-03-03 2016-10-25 Chengdu Haicun Ip Technology Llc Night detection of parked vehicles
US9557736B1 (en) * 2015-04-08 2017-01-31 Google Inc. Detecting street parked vehicles
US20160357262A1 (en) * 2015-06-05 2016-12-08 Arafat M.A. ANSARI Smart vehicle
KR101843773B1 (ko) * 2015-06-30 2018-05-14 엘지전자 주식회사 차량 운전 보조 장치, 차량용 디스플레이 장치 및 차량
CN105059190B (zh) * 2015-08-17 2018-05-29 上海交通大学 基于视觉的汽车开门碰撞预警装置及方法
US9740944B2 (en) * 2015-12-18 2017-08-22 Ford Global Technologies, Llc Virtual sensor data generation for wheel stop detection
US20170329332A1 (en) * 2016-05-10 2017-11-16 Uber Technologies, Inc. Control system to adjust operation of an autonomous vehicle based on a probability of interference by a dynamic object
JP6997106B2 (ja) * 2016-06-27 2022-01-17 モービルアイ ビジョン テクノロジーズ リミテッド 車両をナビゲートするためのシステム、方法およびコンピュータプログラム
US10160459B2 (en) * 2017-03-22 2018-12-25 Ford Global Technologies, Llc Vehicle lane direction detection

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004168085A (ja) * 2002-11-18 2004-06-17 Nissan Motor Co Ltd 駐車支援装置
JP2006113836A (ja) * 2004-10-15 2006-04-27 Fuji Heavy Ind Ltd 道路情報提供システム
JP2011210102A (ja) * 2010-03-30 2011-10-20 Mazda Motor Corp 車両用運転支援装置
JP2016024602A (ja) * 2014-07-18 2016-02-08 日立オートモティブシステムズ株式会社 物体検知装置及びそれを用いた車両制御システム

Also Published As

Publication number Publication date
US20170371344A1 (en) 2017-12-28
US20170371347A1 (en) 2017-12-28
EP4283563A2 (en) 2023-11-29
US10832066B2 (en) 2020-11-10
KR102359806B1 (ko) 2022-02-09
CN109416257B (zh) 2020-07-07
JP2019524525A (ja) 2019-09-05
US10262217B2 (en) 2019-04-16
US20170371345A1 (en) 2017-12-28
CN110345963A (zh) 2019-10-18
EP3598074B1 (en) 2021-10-20
EP3611472B1 (en) 2021-11-24
KR102493878B1 (ko) 2023-01-31
US11915491B2 (en) 2024-02-27
EP3614105B1 (en) 2023-10-18
EP3475659A2 (en) 2019-05-01
EP3614105C0 (en) 2023-10-18
US20170371343A1 (en) 2017-12-28
CN110345962B (zh) 2022-04-26
EP3611472A1 (en) 2020-02-19
CN110345962A (zh) 2019-10-18
US20190294897A1 (en) 2019-09-26
CN110345961B (zh) 2020-10-16
EP4283563A3 (en) 2024-05-29
US20170371340A1 (en) 2017-12-28
US10055653B2 (en) 2018-08-21
WO2018005441A2 (en) 2018-01-04
EP3475659B1 (en) 2020-05-20
KR20220021020A (ko) 2022-02-21
US10354157B2 (en) 2019-07-16
KR20230017365A (ko) 2023-02-03
US20210056327A1 (en) 2021-02-25
CN109416257A (zh) 2019-03-01
US10127465B2 (en) 2018-11-13
CN110264500A (zh) 2019-09-20
US10303959B2 (en) 2019-05-28
CN110345961A (zh) 2019-10-18
JP6997106B2 (ja) 2022-01-17
EP3614105A1 (en) 2020-02-26
EP3614106A1 (en) 2020-02-26
EP3614106B1 (en) 2021-10-27
EP3598074A1 (en) 2020-01-22
KR20190028386A (ko) 2019-03-18
WO2018005441A3 (en) 2018-06-07

Similar Documents

Publication Publication Date Title
JP6997106B2 (ja) 車両をナビゲートするためのシステム、方法およびコンピュータプログラム
US11392135B2 (en) Systems and methods for navigating lane merges and lane splits
JP7081875B2 (ja) 検出された障壁に基づく車両のナビゲーション
EP3657130B1 (en) Navigation based on vehicle activity

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230501

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230807

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240313

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240321

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20240426