JP7150274B2 - 改善された視覚的検出能力を備えた自律走行車 - Google Patents

改善された視覚的検出能力を備えた自律走行車 Download PDF

Info

Publication number
JP7150274B2
JP7150274B2 JP2018543306A JP2018543306A JP7150274B2 JP 7150274 B2 JP7150274 B2 JP 7150274B2 JP 2018543306 A JP2018543306 A JP 2018543306A JP 2018543306 A JP2018543306 A JP 2018543306A JP 7150274 B2 JP7150274 B2 JP 7150274B2
Authority
JP
Japan
Prior art keywords
camera
pitch
autonomous vehicle
variable
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018543306A
Other languages
English (en)
Other versions
JP2019512913A5 (ja
JP2019512913A (ja
Inventor
デブレチェニ,ゲルゲイ
Original Assignee
エーアイモーティブ ケーエフティー.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エーアイモーティブ ケーエフティー. filed Critical エーアイモーティブ ケーエフティー.
Publication of JP2019512913A publication Critical patent/JP2019512913A/ja
Publication of JP2019512913A5 publication Critical patent/JP2019512913A5/ja
Priority to JP2021208374A priority Critical patent/JP2022058391A/ja
Application granted granted Critical
Publication of JP7150274B2 publication Critical patent/JP7150274B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/35Road bumpiness, e.g. potholes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/24Direction of travel

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Regulating Braking Force (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)

Description

本開示はカメラを備えた自律走行車、とりわけ自律走行車の視覚的検出能力を改善するためのカメラを備えた自律走行車に関する。
人間の介入を最小とした独立的制御動作の機能を備える自律走行車は、人々および物体を運送するのに使用することができる。典型的には、いくつかの自律走行車は、オペレータからの初期入力を要求する一方、自律走行車の他のいくつかの設計は持続的なオペレータ制御下にある。いくつかの自律走行車は完全に遠隔で操作することができる。例えば、自動駐車は、Teslaなど、普通の人間に運転される車における、運転中の自律走行車の例である。
さらに、自律走行車は、動的に変化する環境条件(environmental conditions)の中で動作することが要求される。例えば、自律走行車は、変動する速度で、かつ様々な障害物にわたって、様々な地面上で経路を辿ることが要求されることもある。様々な地面は、平坦な地形、曲がりくねった地形、または丘陵地帯を含んでもよい。様々な障害物は、予期しない場所または時間に現われる他の車両または人間を含んでもよい。
より広いレベルでは、自律走行車は、多数の情報収集デバイスから環境(environment )に対応する知覚データを受信するように構成された制御システムを含む。情報収集デバイスは、輻射の誘導放出による光増幅のデバイス(レーザー)、音声ナビゲーションおよび測距のデバイス(ソナー)、無線検出および測距のデバイス(レーダー)、光検出と測距のデバイス(LIDAR)等を含むこともある。最近は、自律走行車は、最大限の安全を保証するために情報収集するための市販のカメラも搭載している。
従来の自律走行車では、カメラは、固定された位置および/または配向で取り付けられており、このことが、カメラが最適な性能を達成するのを妨げ、結果として信頼性の低い画像再構成精度をもたらす。信頼性の低い画像再構成が原因で、画像に表された物体は、均質なテクスチャ背景(homogeneous texture background)において見失うこともあり、それによって不正確な車線検出機能、位置再構成(position reconstruction)、路面標識の検出等が結果としてもたらされる。画像再構成の不信頼性は、交通安全、車の経路および環境における物体の検出に関して危険である可能性があり、かつ自律走行車の操縦能力を低下させる。
車両シャーシ上の様々なセンサーの位置決めおよび/または配向をどのようにするか、およびどの範囲までするかの検討の不正確性が、自律走行車の検出能力に影響を与える。したがって、その結果、自律走行車の操縦能力も妨げられ、それによって、自律走行車の信頼性が低くなる。
可動カメラを備えた自律走行車は、Evans et al. 米国特許第5040116号において既に知られていた。この文献は、参考文献としてここで引用される。
車載カメラのピッチが自律走行車のコンピュータビジョンの画像にどのように影響を与えるかは、米国特許第9121717号において分析されている。この文献も、参考文献としてここで引用される。米国特許第5559695号には、車両のための自己較正型視覚センサーが開示され、そこではセンサーは消失点(the focus of extension)の方向に向くように連続的に較正される。
しかしながら、その先行技術は、車両が動くつれ車載カメラの画質を改善する技術が不十分である。
本発明は、先行技術の前記の欠陥に対処し、かつ改善することを目的とする。
本発明は、自律走行車の様々な位置におよび/または配向で位置決めされた1つ以上の可変ピッチカメラを使用することによって、自律走行車の制御を容易にすることを目的とする。
本発明の一態様では、複数の可変ピッチカメラは、様々な位置に、および/または可動な配向で自律走行車に据え付けられる。可変ピッチカメラは、自律走行車の検出能力を改善するために、自律走行車の動作の方向に対する様々な0以外のピッチ角(non-zero pitch angles)で画像を得るために使用される。
本発明の別の態様では、各可変ピッチカメラのピッチ角を、自律走行車が動くにつれて動的に変化させ、画像の鮮明性および/または解像度を最大化し、それによって自律走行車の経路における最適な車線の検出および/または物体の検出を確かなものとする。一例では、可変ピッチカメラの0以外のピッチ角は、自律走行車の誘導経路における物体からの自律走行車の距離に基づいて、または自律走行車からの物体の距離が近いときに、焦点距離、センサーサイズ、カメラ高さ等に関する異なるカメラ構成に基づいて選択されることもある。
本発明のさらなる態様では、少なくとも1つの可変ピッチカメラの配向は、与えられた交通状況においてより良く画像化するために、動的に調節されることもある。例えば、与えられたピッチ角で、可変ピッチカメラは、自律走行車の経路における他の車両を識別し、そして自律走行車の動きを制御するために使用されうる別の車両の画像を動的に生成する。
本発明のさらなる態様では、少なくとも1つの可変ピッチカメラからの少なくとも1つの画像は、自律走行車の動きを制御するために使用される。例えば、自律走行車の制御ユニットは、衝突の時間および車両の間の距離を算出するために生成された画像を使用し、かつ自律走行車による車線維持を確かなものとすると共に、別の車両との衝突を避けるために自律走行車の速度を動的に減少させる。
本出願では、自律走行車は、本質的に、車、トラック、あらゆる二輪自動車もしくは四輪自動車、クワッドコプター、または交通制御のために構成されたドローン等である。自律走行車は、主として運転手と共に、または運転手なしで、人々および物体を運送する。すなわち、自動運転車(self driving car)は自律走行車であると理解され、またある状況においては自動運転しているが、他の状況では人間のドライバーによって運転される車も、本出願における自律走行車であると理解される。自律走行車はまた、交通渋滞を制御する、歩行者の安全を確かなものとする、自律走行車の誘導経路の窪みを検出する、間違った車線逸脱に対して運転手に警告を出す、および運転手に対して、本発明に従って安全かつ効率的に運転するのを支援する多数の支援機能を実施することもある。
本発明に従う自律走行車は、自律走行車を制御するために使用されるコンピュータビジョンのための画像を生成するように構成された少なくとも1つのカメラを含み、ここで、
-前記少なくとも1つのカメラは、制御されるように構成される、進行の方向に対する可変および可動ピッチ、ヨー、および/またはロールを有し、
-少なくとも1つのカメラのピッチ、ヨー、および/またはロールは、自律走行車が動くにつれて、カメラの画像の鮮明性および/または解像度を最大限にするために変更されるように構成され、
-可変ピッチ、可変ヨー、および/または可変ロールのカメラからの少なくとも1つの画像は、自律走行車の動きを制御する際に使用されるように構成される。
自律走行車を制御するために使用されるコンピュータビジョンのための画像を生成するように構成された、少なくとも1つのカメラを含む本発明に従う自律走行車を制御する方法であって、該方法は以下の工程を含む;
-前記少なくとも1つのカメラが、制御される進行の方向に対する可変および可動ピッチ、可変および可動ヨー、ならびに/または可変および可動ロールを有する、
-少なくとも1つのカメラのピッチ、ヨー、および/またはロールが、自律走行車が動くにつれて、カメラの画像の鮮明性および/または解像度を最大限にするために変更される、および
-可変ピッチ、可変ヨー、および/または可変ロールのカメラからの少なくとも1つの画像は、自律走行車の動きを制御する際に使用される。
自律走行車を制御するために、非一時的なメモリ媒体上に記憶される本発明に従うソフトウェアプログラム製品であって、該ソフトウェアプログラム製品は、自律走行車を制御するために使用されるコンピュータビジョンソフトウェアのための画像を生成するように構成された、少なくとも1つのカメラソフトウェアを含み、ここで、
-前記少なくとも1つのカメラは、制御されるように構成される、進行の方向に対する可変および可動ピッチ、可変および可動ヨー、ならびに/または可変および可動ロールを有し、
-少なくとも1つのカメラのピッチ、ヨー、および/またはロールは、自律走行車が動くにつれて、カメラの画像の鮮明性および/または解像度を最大限にするために変更されるように構成され、
-可変ピッチ、可変ヨー、および/または可変ロールのカメラからの少なくとも1つの画像は、自律走行車の動きを制御する際に使用されるように構成される。
本発明は大きな利点を有する。本発明は、自律走行車の動作を有する車両を用いて、交通安全性を顕著に増加させる実質的に正確で信頼できるカメラに基づく検出アプローチを結果としてもたらす。本発明の可変ピッチカメラを搭載した自律走行車は、水平に調整されたカメラ(horizontally aligned cameras)によって生成された画像と比較して、より良い再構成精度を有する。0以外のカメラピッチの構成は、自律走行車により実施される軌道制御モデルに関係なく、正確な車線検出結果を生み出す。また重要なことに、可変ピッチカメラの最適なピッチ角は、自律走行車の速度に基づいて動的に変更される。可変ピッチカメラは、近距離範囲のための画像再構成精度も改善し、これは焦点距離、センサーサイズ、カメラ高さ等などのカメラ構成を調節することにより達成されうる。これは効率的な運転を容易にするための高精細な地図を作成することにおいて役立つ。本発明のより良い画像の検出によって、自律動作を備える車両に関連する交通安全性を増大させる、より正確でより信頼できるカメラベースの検出方法が結果としてもたらされる。これによって、高精度な車線維持がもたらされ、かつ自動運転車、および人間の運転が自律走行車の機能により支援される車の両方のためのより良い軌道制御メカニズムが提供される。
本発明は、車両の動き(例えば車の運転方向)に対するカメラピッチに関して記載されている。しかしながら、本発明は、カメラアングルのロールまたはヨーに同等に応用可能である。したがって、本発明の全ての実施形態では、本発明に従って自律走行車の動作のための画像の検出を改善するために、ロール角またはヨー角は、同様に、ピッチと別々に、または共に組み合わせて制御される可能性がある。
本発明の最良の形態は、車、その乗客の安全および交通安全性を確かなものとすると共に、渋滞しやすい経路を、動いている物体または人々の間を、または粗面を、独立して運転する無人自動車であると見なされる。無人自動車の動きは、車の様々な位置および/または配向で位置した複数の可変ピッチカメラとは異なるピッチ角で取得された様々な画像に基づいて制御される。本発明の最良の形態は、車の経路における、いかなる人間、物体、または他の車両も効果的に識別し、車線維持を確かなものとし、かつ車の動きを効率的に制御することを可能にする。
ダイヤグラムとしての、本発明に従う、複数の可変ピッチカメラを含む自律走行車の実施形態(10)を実証する。 フロー図としての、本発明に従う、少なくとも1つの可変ピッチカメラを含む自律走行車を制御する方法の実施形態(20)を実証する。 ダイヤグラムとしての、本発明に従う、自律走行車のダッシュボード上に表示された様々なカメラ視野を備えた、より精巧な自律走行車の実施形態(30)を実証する。 ブロック図としての、本発明に従う、車載カメラ調整システム(vehicle camera alignment system)の実施形態(40)を実証する。 フロー図としての、本発明に従う、少なくとも1つの可変ピッチカメラを含む自律走行車を制御する、より精巧な方法の実施形態(50)を実証する。 ダイヤグラムとしての、本発明に従う、自律走行車のオーバーヘッドコンソール上に表示された様々なカメラ視野を備えた、より精巧な自律走行車の別の実施形態(60)を実証する。 概略図としての、本発明に従った、車載カメラ調整システムの動作原理の実施形態(70)を実証する。 本発明の機能を示す実験に関するピンホールカメラモデルの実施形態(80)を実証する。 本発明の機能を示す実験に関する、水平に調整されたカメラの場合の、X座標再構成(X coordinate reconstruction)の絶対誤差(メートル)の分布のグラフ表示の実施形態(91)を実証する。 本発明の機能を示す実験に関する、水平に調整されたカメラの場合の、Y座標再構成(Y coordinate reconstruction)の絶対誤差(メートル)の分布のグラフ表示の実施形態(91)を実証する。 本発明の機能を示す実験に関する、水平に調整されたカメラおよび可変ピッチカメラの場合の、Y座標再構成の絶対誤差の比較(an absolute error comparison)のグラフ表示の実施形態(92)を実証する。 本発明の機能を示す実験に関する、絶対誤差の比率計算による再構成性能(reconstruction performance)の評価のグラフ表示の実施形態(92)を実証する。 本発明の機能を示す実験に関する、水平に調整されたカメラおよび可変ピッチカメラの場合の、X座標再構成の絶対誤差の計算(absolute error calculation)のグラフ表示の実施形態(93)を実証する。 本発明の機能を示す実験に関する、絶対誤差の比率計算による再構成性能の評価のグラフ表示の実施形態(93)を実証する。 本発明の機能を示す実験に関する、1.6mの高さにある可変ピッチカメラの2.5メートル前の点に対するY座標再構成の場合の、カメラピッチ角に応じる再構成精度の変動のグラフ表示の実施形態(94)を実証する。 本発明の機能を示す実験に関する、1.6mの高さにある可変ピッチカメラの2.5メートル前での点に対するX座標再構成の場合の、カメラピッチ角に応じる位置再構成精度の変動のグラフ表示の実施形態(94)を実証する。 本発明の機能を示す実験に関する、水平に調整されたカメラおよび可変ピッチカメラのためのx=-1.5メートルでのy座標に応じる車線区分線の位置再構成の品質測度のグラフ表示の実施形態(95)を実証する。 本発明の機能を示す実験に関する、可変ピッチカメラおよび水平に調整されたカメラのための、品質測度の比率計算のグラフ表示の実施形態(95)を実証する。 本発明の機能を示す実験に関する、0以外のピッチを有するピンホールカメラモデルの再構成の誤差計算(reconstruction error calculation)のグラフ表示の実施形態(96)を実証する。
いくつかの実施形態は、従属クレームに記載されている。
本開示は、自律走行車の視覚的検出能力を改善するための、車載カメラ調整システムを含む自律走行車、方法、およびソフトウェアプログラム製品を提供する。自律走行車は少なくとも1つの可変ピッチカメラを含む。可変ピッチカメラは、自律走行車の動作の方向に調節することができる可変および可動の0以外のピッチを有する。可変ピッチカメラのピッチは、可変ピッチカメラにより取り込まれた画像の鮮明性および/または解像度を最大化するように変更され、それによって自律走行車の経路に関連する物体および/または環境を再構成するための正確なデータの使用の確かなものとする。より正確な画像再構成データは、自律走行車の動きを制御するために使用される。
図1は、自律走行車(100)の実施形態(10)を実証する。自律走行車(100)は、本発明に従う、自律走行車(100)の様々な位置に取り付けられた複数の可変ピッチカメラ(110、111、112、および113)を含む。カメラのヨーおよび/またはロールはまた、同様に、本発明に従って自律走行車上の任意の位置から制御されうる。自律走行車(100)は、本質的には無人自動車である。他の例では、自律走行車(100)は、車、トラック、あらゆる二輪自動車もしくは四輪、クワッドコプター、または交通を制御するように構成されたドローン等である。自律走行車(100)は、交通における人々および物体を運送するために使用されてもよい。自律走行車はまた、本発明に従って、運転を交通渋滞に合わせること、歩行者の安全を確かなものとすること、自律走行車(100)の誘導経路の窪みを検出すること、車線逸脱に対して運転手に警告を出すことなどで、運転手を支援することができる。
可変ピッチカメラ(110、111、112、および113)は、例えば、ピンホールカメラ、デジタルカメラ、ビデオカメラ、遠隔カメラ、口紅型カメラ(a lipstick camera)、CMOSセンサーを備えたカメラ、CCDセンサーを備えたカメラ、近距離カメラ、遠距離カメラ、および/または魚眼カメラ等を含んでもよい。可変ピッチカメラ(110、111、112および113)の各々は、自律走行車(100)の経路に関連する人々もしくは物体、および/または環境の様々な画像を取り込むために、例えば、自律走行車(100)の前面、裏面、頂面、および/または底面上に位置してもよい。様々な画像は、変動する0または0以外のピッチ角で取り込まれる。
ピッチ角は、カメラに入る平行光線間の、車両の動き方向に対する角度である。可変ピッチカメラ(110、111、112および113)のピッチ角は、自律走行車(100)により実行される必要な検出機能に基づいて判定され、調節されてもよい。これらの機能は、限定されないが:車線の検出、Structure From Motion(SFM)、路面標識、窪みの検出等を含む。可変ピッチカメラ(110、111、112、および113)のピッチ角はまた、自律走行車(100)の速度に基づいて判定され
図1を参照すると、可変ピッチカメラ(110、111、112、および113)の各々は、自律走行車(100)の誘導経路または軌道に関連する静的なおよび/または動的な物体の画像および/または映像のフィード(images and/or video feed)(140)を取り込むように構成される。静的な物体は、例えば、3次元(3D)環境(150)の項目、車線(160)、および/または窪み(180)を含むこともある。動的な物体は例えば、歩行者(170)を含むこともある。可変ピッチカメラ(110、111、112、および113)の各々は、取り込まれた画像および/または映像のフィード(140)中の3次元環境(150)、車線1(60)、歩行者(170)、および/または窪み(180)を検出するために、LIDAR、レーダー等などの従来の画像化技術および/または他の検出技術を利用する。
そのように取り込まれた画像および/または映像のフィード(140)は、可変ピッチカメラ(110、111、112、および113)の各々のためのステアリング制御コマンドを生成するために処理される。ステアリング制御コマンドは、信頼できる画像再構成精度を得るために可変ピッチカメラ(110、111、または112)の各々のピッチ角を再調整する(realign)ように構成される。その後、信頼できる再構成精度の画像は、自律走行車(100)の動きを制御するために使用されうる。ピッチ角はまた、ジャイロスコープ、レーザー、レーダー等などの自律走行車(100)の他のセンサーから受信される知覚情報に基づいて調節されることもある。知覚情報は、車両速度、カメラの方向情報、カメラの位置情報、交通情報などを含んでもよい。
可変ピッチカメラ(110、111、112、および/または113)の各々は、それぞれのピッチ角を調節した後、新しい画像および/または映像のフィード(140)を取り込む。可変ピッチカメラ(110、111、112、および/または113)のピッチ角を調節した後に得られた画像および/または映像のフィード(140)の目的は、典型的には、画像の鮮明性および/または解像度を改善することであり、これらの変数が悪化する場合、ピッチを調節する理由は全くない。画像の鮮明性および解像度が改善すると、窪みの検出、歩行者の検出等などの様々な検出タスクに関連する改善されたデータは、自律走行車(100)を制御するために使用されうる。改善された検出データを含む画像および/または映像のフィード(140)は、自律走行車(100)のダッシュボード(120)上に位置する表示画面(130)に表示されてもよい。自律走行車(100)の動きは、図1に示されるような改善された検出データに基づいて制御される。
例えば、可変ピッチカメラ(110)が、自律走行車(100)の経路において、1メートル(m)を距離で歩行者を検出する場合、自律走行車(100)は直ちに停止され、歩行者を通過させる。別の例では、可変ピッチカメラ(111)は、車線(160)の連続画像のフィードを受信するように構成される。可変ピッチカメラ(111)が予め定義された距離で車線(160)に関連する車線区分線からの逸脱を検出するとき、自律走行車(100)の動作の方向は、車線(160)の方へ再び向けられる。
実施形態(10)のうちいかなる特徴も、本発明に従って、他の実施形態(20、30、40、50、60、70、80、91、92、93、94、95、および/または96)のいずれかと即座に組み合わせられる、または置き換えられてもよい。
図2は、フロー図としての、本発明に従う、少なくとも1つの可変ピッチカメラ(110、111、112、および/または113)を含む自律走行車(100)を制御するための方法の実施形態(20)を実証する。その方法は、例えば、図1または7の実施形態(10)または(70)と同一か類似のシステムにおいて、その記載の他の部分で論じられるように実施されうる。その方法のエンドユーザーは、図3および6の実施形態(30)および(60)でそれぞれ開示されたユーザーインターフェースと同一か類似のユーザーインターフェースを使用する可能性がある。
自律走行車(100)を制御するための方法は、複数の可変ピッチカメラ(110、111、112、および/または113)を発明的に含む。
フェーズ(200)では、自律走行車(100)のモーターは、自律走行車(100)の進行の方向に対する可変および可動ピッチを有する自律走行車(100)の少なくとも1つの可変ピッチカメラ(110、111、112、および/または113)を制御する。可変ピッチカメラ(110、111、112、および/または113)の配向が、進行の方向から離れている場合、モーターは、典型的には、進行の方向またはそれに近いセクターの画像を取り込むようにピッチを動的に調節する。動きを制御するモーターは、典型的には、車両のエンジンとは別の小さな電気モーターである。しかしながら、モーターは、車両バッテリーから動力を電気的に供給されてもよい。モーターはまた、本発明の様々な実施形態のカメラを動かすために使用される、磁気的手段または油圧制御的手段で置き換えられうる。
フェーズ2(10)では、可変ピッチカメラ(110、111、112、または113)のピッチは、自律走行車(100)が動くにつれ、画像の鮮明性および/または解像度を最大限にするために変更される。例えば、自律走行車(100)が進行の方向を変更する場合、可変ピッチカメラ(110、111、112、または113)のピッチは、画像の鮮明性の妨げとなることなく、進行方向に向かうように動的に調節される。可変ピッチカメラ(110、111、112、または113)のピッチはまた、可変ピッチカメラ(110、111、112、または113)が、あまりにも粗い画像を生成するときに画像フィードの解像度を増大させるように、または生成された画像があまりにもぼやけているときにカメラの焦点を合わせるように調節されてもよい。
フェーズ(220)では、可変ピッチカメラ(110、111、112、または113)からの少なくとも1つの画像は、自律走行車(100)の動きを制御するために使用される。例えば、可変ピッチカメラ(110、111、112、または113)からの画像が車線からの逸脱を示す場合、自律走行車(100)は好ましくは、車線維持を確かなものとするように直ちに車線の方へ再び向けられる。
フェーズ(230)では、自律走行車(100)の可変ピッチカメラ(110、111、112、または113)は、例えば、車線の検出、歩行者の検出、環境の3次元再構成、窪み検出のために、および他の事故を回避するアクティビティのために 使用されてもよい。
実施形態(20)のうちいかなる特徴も、本発明に従って、他の実施形態(10、30、40、50、60、70、80、91、92、93、94、95、および/または96)のいずれかと即座に組み合わせられる、または置き換えられてもよい。
図3は、ダイヤグラムとしての、本発明に従う、自律走行車(100)のダッシュボード(120)上に表示された様々なカメラ視野を備えた、より精巧な自律走行車(100)の実施形態(30)を実証する。自律走行車(100)は、自律走行車(100)を制御するために使用されるコンピュータビジョンのための画像を生成するように構成された様々な可変ピッチカメラ(110、111、112、および113)を含む。可変ピッチカメラ(110、111、112、および113)は、自律走行車(100)の、好ましくはモーターによって制御される進行の方向に対応する可変ピッチおよび可動ピッチを有する。
図3の明示されるように、少なくとも4つのスクリーンがダッシュボード(120)に据え付けられる。4つのスクリーンの各スクリーンは、様々な位置および/または配向に位置付けられた、自律走行車(100)の4つの異なる可変ピッチカメラ(110、111、112、および113)によって取り込まれた画像または映像のデータのライブフィードを表示する。いくつかの実施形態では、各可変ピッチカメラ(110、111、112、および113)は、様々なカメラ位置および/または配向で完了する、窪みの検出、歩行者の検出等などの様々なタスクを実行するように構成される。
例えば、一実施形態では、ユーザーインターフェース(131)は、カメラ#1(110)から得られる検出された歩行者の画像および/または映像のフィード(141)を表示し;ユーザーインターフェース(132)は、カメラ#2(111)からの検出された窪みの画像および/または映像のフィード(142)を表示し;ユーザーインターフェース(133)は、カメラ#3(112)からの、交通状況を示す検出された車両の画像および/または映像のフィード(143)を表示し;そしてユーザーインターフェース(134)は、カメラ#4(113)からの、環境の検出された3次元再構成の画像および/または映像のフィード(144)を表示する。可変ピッチカメラ(110、111、112、および/または113)の全ては、自律走行車(100)の動作の方向に向かって自律走行車(100)の頂面に位置してもよいが、本発明のいくつかの実施形態では、他の位置でも可能である。
複数の可変ピッチカメラ(110、111、112、および113)からの、少なくとも1つの可変ピッチカメラ(110、111、112、または113)のピッチは、自律走行車(100)が動くにつれて、カメラ画像の鮮明性および/または解像度を最大限にするために変更されるように構成される。少なくとも1つの可変ピッチカメラ(110、111、112、または113)のピッチは、車両速度に加えて、例えば、カメラ位置および/またはカメラ配向に基づいて制御される。可変ピッチカメラ(110、111、112、および/または113)のピッチはまた、例えば、天候および/または交通状況に基づいて制御されることもある。可変ピッチカメラ(110、111、112、および/または113)からの少なくとも1つの画像は、自律走行車(100)の動きを制御するのに使用されるように構成される。
自律走行車(100)のフロントガラス(wind shield)を介する誘導経路の乗客の視野(300)とは別に、自律走行車(100)の運転手には、ユーザーインターフェース(131、132、133および134)を介して、前方の経路のより詳細な視野が提供される。一例では、運転手は、車線から逸脱することなく車線上の窪み、車両、または歩行者を回避するように自律走行車(100)を巧みに操縦するなど、自律走行車(100)の動きを制御することができる。別の例では、自律走行車(100)の動きは、車線から逸脱することなく車線上の窪み、車両、または歩行者を回避するように、自律走行車(100)の制御ユニットによって独立して制御される。運転手はまた、本発明のいくつかの実施形態では、いくつかの回避機能または運転制御機能を自動に、およびいくつかの回避機能または運転制御機能を手動に設定してもよい。例えば、歩行者の回避は優先度が高く、自動に設定される可能性があるが、窪みの検出は、人間の命が危険に晒されないのでそれほど重要ではなく、したがって本発明のいくつかの実施形態では、手動に設定される可能性がある。
実施形態(30)のうちいかなる特徴も、本発明に従って、他の実施形態(10、20、40、50、60、70、80、91、92、93、94、95、および/または96)のいずれかと即座に組み合わせられる、または置き換えられてもよい。
図4は、ブロック図としての、本発明に従う、車載カメラ調整システム(400)の実施形態(40)を実証する。車載カメラ調整システム(400)は、人工知能および検出モジュール(AI/DET)のモジュール410、ステアリングユニット430、ならびに制御ユニット(440)を含む。自律走行車(100)は、複数の可変ピッチカメラ、例えばカメラ#1(110)、カメラ#2(111)、カメラ#3(112)、およびカメラ#4(113)を含む。自律走行車(100)内に存在する車載カメラ調整システム(400)は、可変ピッチカメラ(110、111、112、および113)のピッチ角を変動させることによって自律走行車(100)の動きを制御するために利用される。可変ピッチカメラ(110、111、112、および/または113)は、車載カメラ調整システム(400)によって動作され、制御される。AI/DETモジュール(410)は、可変ピッチカメラ(110、111、112、および/または113)からのカメラデータを受信する。カメラデータは、可変ピッチカメラ(110、111、112、および/または113)から得られた画像および/または映像のフィードを含む。
AI/DETモジュール(410)は、カメラデータを処理し、ステアリングユニット(430)にステアリング制御コマンドを送信する。ステアリングユニット(430)はまた、付自律走行車(100)の他のセンサーからのジャイロスコープのデータ、カメラ位置、カメラ配向、車両速度、気象情報、交通情報等を含む加的な車両関連情報(420)を受信する。他のセンサーは、例えば、パーキングセンサー、LIDAR、レーダー、ジャイロスコープ等を含んでもよい。ステアリングユニット(430)は、ステアリング制御コマンドおよび他のセンサーから受信された車両関連情報(420)に基づいて、可変ピッチカメラ(110、111、112、および/または113)のピッチ角を制御し、変更する。可変ピッチカメラ(110、111、112、および/または113)のピッチは、自律走行車(100)の動きを効率的かつ安全に制御するように使用されうる、改善し信頼できる検出データを生成するために、ステアリング制御コマンドに基づいて調節される。
実施形態(40)のうちいかなる特徴も、本発明に従って、他の実施形態(10、20、30、50、60、70、80、91、92、93、94、95、および/または96)のいずれかと即座に組み合わせられる、または置き換えられてもよい。
図5は、フロー図としての、本発明に従う、少なくとも1つの可変ピッチカメラ(110、111、112、または113)を含む自律走行車(100)を制御するためのより精巧な方法の実施形態(50)を実証する。
フェーズ(500)では、異なるカメラ位置および/またはカメラ配向で位置付けられる、異なる可変ピッチカメラ(110、111、112、および/または113)からの画像および/または映像のフィードを含むカメラデータが受信される。そのカメラデータは、自律走行車(100)によって実行される窪みの検出、歩行者の検出等などの様々なタスクに関連する。
フェーズ(510)では、カメラデータは、画像の鮮明性および/または解像度のあらゆる相違を修正するように処理される。
フェーズ(520)では、各可変ピッチカメラ(110、111、112、および113)に関連するステアリング制御コマンドが生成される。例えば、相違がカメラデータの処理によって修正されない場合、調節されるピッチ角で取り込まれたカメラデータにあらゆる相違がないように、適切なピッチ角が決定される。
フェーズ(530)では、車両速度、ジャイロスコープのデータ、気象情報、交通情報等などの複数の車両関連情報が得られる。複数の車両関連情報は、自律走行車(100)によって利用される様々なセンサーから得られる。センサーの少数の例には、ジャイロスコープ、レーダーセンサ、LIDARセンサー、速度計等が含まれる。
フェーズ(540)では、各可変ピッチカメラ(110、111、112、および113)のピッチ角は、窪みの検出、車線の検出、歩行者の検出等などの様々なタスクを実行するために制御される。そのピッチ角は、自律走行車(100)によって実行されるタスクの最適な性能を達成するために、ステアリング制御コマンドおよび車両関連情報を考慮して調節される。そのピッチ角は、各可変ピッチカメラ(110、111、112、および113)によって取り込まれたカメラデータの画像の鮮明性および/または解像度のあらゆる相違も改善するように調節される。調節されたピッチ角での各可変ピッチカメラ(110、111、112、および113)によって、最良にタスクを実行するために使用されうる、修正された画像の鮮明性および/または解像度を有する改善された検出データが得られる。
フェーズ(550)では、改善された検出データは、各可変ピッチカメラ(110、111、112、および/または113)のピッチを調節した後、可変ピッチカメラ(110、111、112、および/または113)から得られる。改善されたカメラ検出データは、自律走行車(100)の制御ユニット(440)に供給される。制御ユニット(440)は、他の目的の中でとりわけ交通安全性および車両安全性を確かなものとするために、改善されたカメラ検出データに基づいて自律走行車(100)の動きを制御するように構成される。他の目的は、交通渋滞エリアを避けること、運転手の眠気を検出すること、速度超過している場合に運転手に警告するIntelligent Speed Adaptation(ISA)、または許容可能な速度限界(an allowable speed limit)内に導くために車両速度を動的に減少させることを含む。
実施形態(50)のうちいかなる特徴も、本発明に従って、他の実施形態(10、20、30、40、60、70、80、91、92、93、94、95、および/または96)のいずれかと即座に組み合わせられる、または置き換えられてもよい。
図6は、ダイヤグラムとしての、本発明に従う、自律走行車(100)のオーバーヘッドコンソール(600)上に表示された様々なカメラ視野を備えた、より精巧な自律走行車(100)の別の実施形態(60)を実証する。例となる実施では、様々なカメラ視野は、運転手が乗客の視野(300)と同じ視線に沿ってカメラ画像を見ることを好む場合に、自律走行車(100)の内部の様々な位置、すなわちオーバーヘッドコンソール(600)において自律走行車(100)の運転手に対して表示される。歩行者の画像および/または映像のフィード141、窪みの画像および/または映像のフィード142、車両の画像および/または映像のフィード143、および環境の画像および/または映像のフィード(144)を表示するためのユーザーインターフェース(131、132、133、および134)の背後にあるシステムは、例えば、前に説明された実施形態(30)と類似である可能性があり、簡潔さのために繰り返されない。
いくつかの実施形態では、可変ピッチカメラ(110、111、112、および113)のピッチは、以下のうちのいずれかに基づいて制御される:カメラ位置、カメラ配向、および/またはジャイロスコープのデータ、ならびに前記自律走行車(100)の速度。さらに、可変ピッチカメラ(110、111、112、および113)のピッチはまた、以下のうちのいずれかに基づいて制御されることもある:天候、画像化アルゴリズムの出力、マッピング情報、GPS(全地球測位システム)位置、および/または交通状況。前記複数のカメラ(110、111、112、および113)は、自律走行車(100)の異なる部分に位置付けられ、かつ様々なタスクを実行するように構成され、したがってダッシュボード(141、142、143、および/または144)の上で様々な視野を示す。
いくつかの実施形態では、検出のタスクの各々は、様々なカメラ位置および/または配向で完了するように構成され、様々な視野(141、142、143、および/または144)をもたらす。さらに、必ずしもそうではないが、典型的には、少なくとも1つのカメラ出力は、人工知能および検出モジュール(410)によって処理されるように構成される。
人工知能および検出モジュール(410)は、それが受信する画像データ、および他の車両検出システムによって検出される他の知覚データに基づいて、ステアリングユニット(430)にステアリング制御コマンドを送信するように構成される。例えば、ステアリングユニット(430)は、前記少なくとも1つのカメラ(110、111、112、および/または113)のピッチ角を制御し、変更するために車両速度および/またはジャイロスコープのデータを使用するように構成され、それによって、視野(141、142、143、および/または144)の描写(pictures)を変化させる。
いくつかの実施形態では、ステアリングユニット(430)は、前記少なくとも1つのカメラ(110、111、112、または113)のピッチ角を、閉ループで繰り返し制御して、変更するために、車両速度および/またはジャイロスコープのデータを使用するように構成され、かつ随意に、改善された検出性能は、自律走行車(100)の制御論理を供給するために使用されるように構成される。これは、ダッシュボードおよびスクリーン(141、142、143、および/または144)上に示され、結果としてスクリーンが非常に明瞭で高解像度の描写を生成するように常に探索し調節する。
実施形態(60)のうちいかなる特徴も、本発明に従って、他の実施形態(10、20、30、40、50、70、80、91、92、93、94、95、および/または96)のいずれかと即座に組み合わせられる、または置き換えられてもよい。
図7は、本発明の機能を示す実験に関する、概略図としての、車載カメラ調整システム(400)の動作原理の実施形態(70)を実証する。図7は、自律走行車(100)を制御するためのソフトウェアプログラム製品の実施形態(70)を実証する。ソフトウェアプログラム製品は、自律走行車(100)もしくはネットワークホストのいずれかの非一時的なメモリ媒体に記憶されるか、またはいくつかの部分が自律走行車(100)に存在し、かつソフトウェアプログラム製品のいくつかの部分がネットワークホストに存在するようにそれら2つの場所間に分散される。本発明における自律走行車(100)およびネットワークホストとの間の通信のために使用されるネットワークは、無線インターネットまたは電話ネットワークであり、典型的には、UMTS-(ユニバーサル移動体通信システム)、GSM(登録商標)-(モバイル通信のための国際システム(Global System for Mobile Telecommunications))、GPRS-(汎用パケット無線サービス)、CDMA-(符号分割多元アクセス)、3G-、4G-、Wi-Fi、および/またはWCDMA(登録商標)-(広帯域符号分割多元アクセス)ネットワークなどのセルラーネットワークである。ソフトウェアプログラム製品は、自律走行車(100)を制御するために使用されるコンピュータビジョンのための画像を生成するように構成されたカメラソフトウェアを含む。
自律走行車(100)は、例えば、自律走行車(100)の異なる部分に位置付けられるカメラ#1(110)、カメラ#2(111)、カメラ#3(112)、カメラ#4(113)等のいくつかの可変ピッチカメラを搭載しており、それぞれが、車線の検出、歩行者の検出、窪みの検出、環境の検出等などの様々なタスクを実行する。可変ピッチカメラ(110、111、112、または113)は、自律走行車(100)のモーターによって制御されるように構成される、進行の方向に対する可変ピッチおよび可動ピッチを有する。自律走行車(100)は、ステアリングユニット430、人工知能(AI)および検出(DET)モジュール410、および品質モニタ(QM)モジュール(710)を含む。
AI/DETモジュール(410)は、可変ピッチカメラ(110、111、112、および/または113)から受信されるカメラ入力を受信して処理する。AI/DETモジュール(410)は、処理されたカメラ画像をQMモジュール(710)に送信する。QMモジュール(710)は、処理されたカメラ入力の品質をチェックし、処理されたカメラ画像に基づいてカメラ調整の修正リクエスト(camera alignment modification requests)を生成する。QMモジュール(710)は、ステアリングユニット(430)にカメラ調整の修正リクエストを送信する。自律走行車(100)のコントローラエリアネットワーク(CAN)バス(700)は、自律走行車(100)の様々なセンサーから得られる車両速度、ジャイロスコープのデータ、気象情報、交通情報、画像化アルゴリズムの出力、マッピング情報、GPS等などの情報を、ステアリングユニット(430)に提供する。ジャイロスコープのデータは、例えば、カメラ位置および/またはカメラ配向を含むこともある。
QMモジュール(710)からのカメラ調整の修正リクエストに応答して、ステアリングユニット(430)は、CANバス(700)からの受信した情報に基づいて、自律走行車(100)の各可変ピッチカメラ(110、111、112、および113)のための最適なカメラアングルを設定する。ステアリングユニット(430)は、自律走行車(100)が動くにつれて、カメラ画像の鮮明性および/または解像度を最大限にするために、少なくとも1つの可変ピッチカメラ(110、111、112、または113)のピッチを変更する。いくつかの実施形態では、ステアリングユニット(430)は、自律走行車(100)の様々な可変ピッチ(110、111、112、および/または113)のための様々な最適なカメラアングルを設定することもある。車載カメラ調整システム(400)の動作原理は、可変ピッチカメラ(110、111、112、および/または113)の最適な検出性能を得るために、閉ループで繰り返される。可変ピッチカメラ(110、111、112、および/または113)によって実行される検出は、画像および/または映像のフィードを含むカメラデータが、高い画像の鮮明性および/または分解能を有するときに最適である。最適な検出データは、制御ユニット(440)に供給される。制御ユニット(440)は、自律走行車(100)の動きを制御する際に、可変ピッチカメラ(110、111、112、および/または113)からの少なくとも1つの画像を使用する。
一実施形態では、自律走行車(100)は、車載カメラ調整システム(400)によって提供された検出データに基づいて、自律走行車(100)の運転手またはオペレータに誘導経路を選択させる、または自律走行車(100)の動きを制御させるメモリにインストールされたアプリケーションを有するように構成される。アプリケーションは、例えば、実施形態(30)で説明されるような複数のダッシュボードスクリーン上に、または実施形態(60)で説明されるような複数のオーバーヘッドコンソールのスクリーン上に表示されるユーザーインターフェースを介して、運転手が利用可能である。制御ユニット(440)は、自律走行車(100)の動きを制御する際に運転手を先導するために、運転手に対してユーザーインターフェース上で動的に検出されたデータを表示する。ユーザーインターフェースは、視野を拡大する、視野を最小化する、視野を回転する等など、運転手が検出されたデータの表示を管理することを可能にするタッチ感知インターフェースとして提供されてもよい。
実施形態(70)のうちいかなる特徴も、本発明に従って、他の実施形態(10、20、30、40、50、60、80、91、92、93、94、95、および/または96)のいずれかと即座に組み合わせられる、または置き換えられてもよい。
図8は、本発明の機能を示す実験に関するピンホールカメラモデルの実施形態(80)を実証する。
図8において明示される座標系の表示(800)は、右手座標系である。ピンホールカメラは、3次元の点(X、Y、Z)(820)に対して水平に調整される。3次元の点(820)の座標は(X、Y、Z)である。カメラは、地表面上「h」メートルの高さに位置する。「f」は、ピクセルでのピンホールカメラの焦点距離を表わす。(x、y)は、ピンホールカメラによって生成された、3次元の点(X、Y、Z)(820)の画像ピクセル(image pixel)の座標(810)である。カメラの主点の(x、y)座標(810)は、(px、py)としてピクセルで表される。ピンホールカメラの画像センサーはカメラレンズの光軸に集中し;従って、px、pyの値は0で置換される。そのカメラは、0のピッチ角(zero pitch angle)を有する。画像座標(x、y)(810)と、車の前の平面上に横たわる物体の3次元の点の座標(X、Y、Z)(820)の関係は、以下の式によって表わすことができる:
Figure 0007150274000001
図1の自律走行車(100)上に取り付けられた可変ピッチカメラ(110、111、112、または113)のうちの1つが0以外のピッチ角を有するとき、画像座標(x、y)(810)と、物体の3次元の点の座標(X、Y、)(820)の関係は、以下の式によって表わされる:
Figure 0007150274000002
式中、
Figure 0007150274000003
は、水平軸から時計回りにカウントされた可変ピッチカメラ(110、111、112、または113)のピッチ角である。
実施形態(80)のうちいかなる特徴も、本発明に従って、他の実施形態(10、20、30、40、50、60、70、91、92、93、94、95、および/または96)のいずれかと即座に組み合わせられる、または置き換えられてもよい。
図9Aは、本発明の機能を示す実験に関する、水平に調整されたカメラの場合の、X座標再構成の絶対誤差(メートル)の分布のグラフ表示(900)の実施形態(91)を実証する。ピンホールカメラの画像センサーはなおカメラレンズの光軸に集中しており;従って、px、pyの値は0で置換されることを考慮すること。
X座標に関連する位置再構成の誤差(position reconstruction error)(ΔX)の関係性は、以下の式で表すことができる:
Figure 0007150274000004
図1の自律走行車(100)上に取り付けられた可変ピッチカメラ(110、111、112、または113)の場合の、X座標再構成の絶対誤差(メートル)の関係性の分布(relation distribution)は、以下の式で表すことができる:
Figure 0007150274000005
図9Bは、本発明の機能を示す実験に関する、水平に調整されたカメラの場合の、Y座標再構成の絶対誤差(メートル)の分布のグラフ表示(910)の実施形態(91)を実証する。
Y座標に関連する位置再構成の誤差(ΔY)の関係性は、以下の式で表すことができる:
Figure 0007150274000006
自律走行車(100)上に取り付けられた可変ピッチカメラ(110、111、112、または113)の場合の、Y座標再構成の絶対誤差(メートル)の関係性の分布は、以下の式で表すことができる:
Figure 0007150274000007
実施形態(91)のうちいかなる特徴も、本発明に従って、他の実施形態(10、20、30、40、50、60、70、80、92、93、94、95、および/または96)のいずれかと即座に組み合わせられる、または置き換えられてもよい。
図10Aは、本発明の機能を示す実験に関する、水平に調整されたカメラおよび可変ピッチカメラ(110、111、112、または113)の場合の、Y座標再構成の絶対誤差の比較のグラフ表示(1000)の実施形態(92)を実証する。曲線(1010)は、水平に調整されたカメラに関連する絶対誤差を明示し、曲線(1020)は、可変ピッチカメラ(110、111、112、または113)に関連する絶対誤差を実証する。
図10Bは、本発明の機能を示す実験に関する、絶対誤差の比率計算による再構成性能の評価のグラフ表示(1030)の実施形態(92)を実証する。曲線(1040)は、Y座標再構成の誤差の比率を実証する。
かなり明確に、その実験は、カメラのピッチがY座標の全範囲において、かつ近距離においてはなおさら、再構成の誤差を低減させることを示す。
実施形態(92)のうちいかなる特徴も、本発明に従って、他の実施形態(10、20、30、40、50、60、70、80、91、93、94、95、および/または96)のいずれかと即座に組み合わせられる、または置き換えられてもよい。
図11Aは、本発明の機能を示す実験に関する、水平に調整されたカメラおよび可変ピッチカメラ(110、111、112、または113)の場合の、X座標再構成の絶対誤差の計算のグラフ表示(1100)の実施形態(93)を実証する。曲線(1110)は、水平に調整されたカメラに関連する絶対誤差を明示し、曲線(1120)は、可変ピッチカメラ(110、111、112、または113)に関連する絶対誤差を実証する。
図11Bは、本発明の機能を示す実験に関する、絶対誤差の比率計算による再構成性能の評価のグラフ表示(1130)の実施形態(93)を実証する。曲線(1140)は、X座標再構成の誤差の比率を実証する。
かなり明確に、その実験は、カメラのピッチがX座標の全範囲で、およびX座標で3メートルに近似するとなおさら、再構成の誤差を低減させることを示す。
実施形態(93)のうちいかなる特徴も、本発明に従って、他の実施形態(10、20、30、40、50、60、70、80、91、92、94、95、および/または96)のいずれかと即座に組み合わせられる、または置き換えられてもよい。
図12Aは、本発明の機能を示す実験に関する、1.6mの高さにある可変ピッチカメラ(110、111、112、または113)の2.5メートル前の点のためのY座標再構成の場合の、カメラピッチ角に応じる、位置再構成精度の変動のグラフ表示(1200)の実施形態(94)を実証する。グラフ表示(1200)は、再構成精度が可変ピッチカメラ(110、111、112、または113)のカメラピッチ角にどのように依存するかを実証する。一例では、カメラの光学中心が対象の点(the point in question)、すなわちカメラピッチ
Figure 0007150274000008
を直接指し示しているとき、位置再構成精度の高感度性が達成されうる。曲線(1210)は、2.5mの距離における可変ピッチカメラ(110、111、112、または113)に関連する再構成の誤差を実証する。
図12Bは、本発明の機能を示す実験に関する、1.6mの高さにある可変ピッチカメラ(110、111、112、または113)の2.5メートル前の点のためのX座標再構成の場合の、カメラピッチ角に応じる、位置再構成精度の変動のグラフ表示(1220)の実施形態(94)を実証する。曲線(1230)は、2.5mの距離における可変ピッチカメラ(110、111、112、または113)に関連する再構成の誤差を表す。
実験は、例えば、高さ1.6mにおける平均的な歩行者の頭/肩の検出が30-35度のカメラピッチで最良に達成されることを明確に示す。したがって、本発明の好ましい実施形態では、車両が、歩行者が現われそうなエリアにいることを検出する場合、少なくとも1つのカメラのピッチを30-35度まで変更し、かつ他のものにわたってオーバーライド機能をこのカメラに提供し、他の検出器が検出するものに関わらず、歩行者の検出が、このカメラによって、例えば車両を止めることを可能にする。
実施形態(94)のうちいかなる特徴も、本発明に従って、他の実施形態(10、20、30、40、50、60、70、80、91、92、93、95、および/または96)のいずれかと即座に組み合わせられる、または置き換えられてもよい。
ここで、車両がどのように車線区分線を検出するかを見て頂きたい。自律走行車のための最適な軌道を算出できるように、可能な限り高い精度で、車両の前方の車線区分線の明確な長さ(l)を検出しなければならない。この検出精度(誤差、E)の測定値は、自然に以下のように定義することができ:
Figure 0007150274000009
ここで、ΔXおよびΔYは式(5-8)のような位置再構成の誤差であり、lはカメラから測定された距離であるが、I(l)は、カメラから非常に遠くに存在する車線区分線の点の重みは、より近い1つとは異なるという事実を考慮している、制御および軌道のメカニズムに特有の重要度関数(importance function)である。
積分上限の経験に基づいた推定値に関しては、曲率/品質の著しい/危険な変化が定められた(認められた)巡航速度(v)において人間の運転手の反応時間(tr)内で起こりえない方法によって、ハイウェイおよび道路が建造されるという事実を考慮することができる。反応時間の保守的な推定値に関しては、tr=1.0sを選択する:
Figure 0007150274000010
式(9)の積分は、パラメータ空間の様々な領域のために数的に、容易に算出することができる。このセクションの目的は、特定の巡航速度vにおいてEを最小化する最適なカメラピッチを決定することである。
図13Aは、本発明の機能を示す実験に関する、水平に調整されたカメラ、および可変ピッチカメラ(110、111、112、または113)のための、x=-1.5メートルにおけるy座標に応じる、車線区分線の位置再構成の品質測度のグラフ表示(1300)の実施形態(95)を実証する。曲線(1310)は、水平に調整されたカメラのための車線区分線の位置再構成精度の測定を明示し、曲線(1320)は、可変ピッチカメラ(110、111、112、または113)のための車線区分線の位置再構成精度の測定を実証する。この実施形態(95)は、車両速度と最適なカメラピッチとの関係を説明する。車線区分線の再構成測定値の精度を算出するために、所定の時間における車両の動きの横方向および自律走行車(100)に近位の3次元の点が検討される。より近い車線区分線の点の重みとは異なる、可変ピッチカメラ(110、111、112、または113)から非常に遠くに存在している車線区分線の点の重みに基づいて、制御と軌道のメカニズムを特定する重要度関数(I)は、以下に与えられる式によって表わされる:
Figure 0007150274000011
図13Aは、車線が自律走行車(100)の中心の左側および右側から約-1.5mの距離に位置する典型的な車線の検出の状況に関する、自律走行車(100)の前方の距離に応じる、式(11)の積分の発展(evolution)を実証する。
図13Bは、本発明の機能を示す実験に関する、可変ピッチカメラおよび水平に調整されたカメラのための、品質測度の比率計算のグラフ表示(1330)の実施形態(95)を実証する。図13Bに明示されるプロットは、改善された車線区分線の位置再構成の測定(I)を結果としてもたらす、カメラピッチ角の選択を図示する。この実験で分析されるように、可変ピッチカメラ(110、111、112、または113)に対する品質測度と、水平に調整されたカメラに関する品質測度との間の差異は、非常に近い距離では300%ほどになりうる。曲線(1340)は、水平に調整されたカメラの車線区分線の位置再構成の精度測定の、可変ピッチカメラ(110、111、112、または113)の車線区分線の位置再構成の精度測定に対する比を実証する。
したがって、本実験は、軌道制御が本発明に従って実行されるとき、車線区分線が車線の測定値の中で最も大きい相対的な重みを有するので、少なくとも1つのカメラを近距離で車線区分線を観測するように傾けることが有益であることを示す。
実施形態(95)のうちいかなる特徴も、本発明に従って、他の実施形態(10、20、30、40、50、60、70、80、91、92、93、94、および/または96)のいずれかと即座に組み合わせられる、または置き換えられてもよい。
図14は、本発明の機能を示す実験に関する、0以外のピッチを有するピンホールカメラモデルの再構成の誤差計算のグラフ表示(1400)の実施形態(96)を実証する。再構成の誤差計算は、画像ピクセルの座標(x、y)(1410)および3次元の点の座標(X、Y、Φ)(1420)に関連して実行される。
Y座標と表面からのピンホールカメラの高さとの関係は、以下に与えられる通りである:
Figure 0007150274000012
式(12)は、Y座標の測定値が、yの画像の座標およびそのピッチ角に依存することを開示する。
Y座標の測定値の精度は、以下の式により与えられる:
Figure 0007150274000013
X座標と平面からのピンホールカメラの高さとの関係は、以下に与えられる通りである:
Figure 0007150274000014
式(14)は、Y座標の測定値が、xおよびyの画像の座標およびそのピッチ角に依存することを開示する。
X座標の測定値の精度は、以下の式により与えられる:
Figure 0007150274000015
実施形態(96)のうちいかなる特徴も、本発明に従って、他の実施形態(10、20、30、40、50、60、70、80、91、92、93、94、および/または95)のいずれかと即座に組み合わせられる、または置き換えられてもよい。
全ての実施形態では、画像処理アルゴリズムは、簡易な画像後処理アルゴリズム、古典的なコンピュータビジョン、機械学習、および/もしくは人工知能のアルゴリズムのうちのいずれかであるか、ならびに/またはそれらは互いに共に組み合せて使用することができるか、または本発明に従う他の画像処理アルゴリズムでありうる。
多くの実施形態では、ピンホールカメラのカメラタイプは、本発明の自律走行車において傾けられる本発明の検出カメラとして役立つ。
前述の説明された実験と実施形態によって、本発明の以下の考察および利点がもたらされる。0以外のカメラピッチの構成の利点および欠点を検討して、すべての場合に対して一般的に以下のことが言える:
-車両の前の平面における点pに関して、0以外のカメラピッチは、結果としてもたらされる再構成精度が本発明に従って水平に置かれたカメラの再構成精度よりも良くなるように選択されうる。
-車からの距離に応じる再構成精度の関数の発展は、厳密に単調であり、このことにより、0以外のカメラピッチの構成が、重要度関数(I(ΔX(); _ΔY()))とは無関係に、すなわち本発明に従う軌道制御モデルおよび考察に関わらず、車線の検出のためのより正確な入力を常に生み出すことができるという結果をもたらす。
-典型的なカメラ構成(焦点距離、センサーサイズ、およびカメラ高さ)に関して、再構成精度の著しい改善は、近距離(典型的には数メートル)で達成されうる。このことは、本発明に従って、高精細な地図を作成するためにカメラを使用するとき、重要な結果である。
-特定の車線の検出アルゴリズムおよび車線維持ソリューションのためのカメラの最適な配向(ピッチ)は、通常車両の速度に依存し、かつ本発明に従って最適な性能に到達するように動的に調節される可能性がある。
本発明が前述され、大きな利点が明示されている。可変ピッチカメラ(110、111、112、および/または113)を搭載された自律走行車(100)は、水平に調整されたカメラによって生成された画像と比較して、実質的に信頼できる再構成精度を提供する。自律走行車(100)からの物体の距離との再構成精度の関係が可変的であるため、0以外のカメラピッチの構成は、自律走行車(100)により実施される軌道制御モデルに関係なく、何度も正確な車線検出結果を生み出す。また重要なことに、可変ピッチカメラ(110、111、112、または113)の最適なピッチは、自律走行車(100)の速度および他の変数に基づいて、動的に変更することができる。近距離の範囲のための再構成精度の実質的な改善は、焦点距離、センサーサイズ、カメラ高さ等などのカメラ構成を調節することによっても達成されうる。これは効率的な車両の運転を容易にするための高精細な地図を作成することにおいて役立つ。本発明は、自律的なソリューションまたは運転手支援のソリューションを備える車両に関連する交通安全性を実質的に増大させる、より正確でより信頼できるカメラベースの検出方法を結果としてもたらす。本発明は高精度な車線維持を改善し、軌道制御メカニズムを提供し、歩行者の安全性を改善する。
本発明は、前述の実施形態に関して上で説明された。しかしながら、本発明は、これらの実施形態のみに限定されるものではないが、本発明の思想および以下の特許請求項の精神および範囲内の全ての考えられうる実施形態を含むことが明らかである。
<参考文献>
US 9,121,717 Bl COLLISION AVOIDANCE FOR VEHICLE CONTROL, published on Sep.1,2015 Jiajun Zhu.
US 5040116 VISUAL NAVIGATION AND OBSTACLE AVOIDANCE STRUCTURED LIGHT SYSTEM, published Aug. 13, 1991 Evans et al.

Claims (1)

  1. 自律走行車(100)であって、該自律走行車(100)は、自律走行車(100)を制御するために使用されるコンピュータビジョンのための画像(141、142、143、または144)を生成するように構成された少なくとも1つのカメラ(110、111、または112)を含み、ここで、
    -少なくとも1つのカメラ(110、111、112、または113)は、進行の方向に対して制御可能なピッチ並びに可変および可動なピッチを有し、
    -可変ピッチカメラ(110、111、112、または113)からの少なくとも1つの画像(141、142、143、または144)は、自律走行車(100)の動きを制御するのに使用されるように構成され、および
    -可変ピッチカメラ(110、111、112、または113)のピッチは、自律走行車が動くにつれて、カメラの画像の鮮明性および/または解像度を最大限にするために変更されるように構成され、可変ピッチカメラ(110、111、112、または113)は常に0以外のピッチを有し、車線の検出のための正確な入力を提供するために下方へ傾けられ、および、
    ここで、可変ピッチカメラ(110、111、112、または113)のピッチは、自律走行車(100)の速度に基づいて制御される、
    ことを特徴とする、自律走行車(100)。
JP2018543306A 2016-03-29 2016-11-14 改善された視覚的検出能力を備えた自律走行車 Active JP7150274B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021208374A JP2022058391A (ja) 2016-03-29 2021-12-22 改善された視覚的検出能力を備えた自律走行車

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/084,084 2016-03-29
US15/084,084 US9535423B1 (en) 2016-03-29 2016-03-29 Autonomous vehicle with improved visual detection ability
PCT/EP2016/077518 WO2017167411A1 (en) 2016-03-29 2016-11-14 An autonomous vehicle with improved visual detection ability

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021208374A Division JP2022058391A (ja) 2016-03-29 2021-12-22 改善された視覚的検出能力を備えた自律走行車

Publications (3)

Publication Number Publication Date
JP2019512913A JP2019512913A (ja) 2019-05-16
JP2019512913A5 JP2019512913A5 (ja) 2019-12-19
JP7150274B2 true JP7150274B2 (ja) 2022-10-11

Family

ID=57396404

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018543306A Active JP7150274B2 (ja) 2016-03-29 2016-11-14 改善された視覚的検出能力を備えた自律走行車
JP2021208374A Pending JP2022058391A (ja) 2016-03-29 2021-12-22 改善された視覚的検出能力を備えた自律走行車

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021208374A Pending JP2022058391A (ja) 2016-03-29 2021-12-22 改善された視覚的検出能力を備えた自律走行車

Country Status (5)

Country Link
US (2) US9535423B1 (ja)
EP (1) EP3436879B1 (ja)
JP (2) JP7150274B2 (ja)
CN (1) CN109074069B (ja)
WO (1) WO2017167411A1 (ja)

Families Citing this family (130)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2888173A1 (en) * 2014-04-17 2015-10-17 Navagation Solutions, Llc Rotatable camera
KR101592740B1 (ko) * 2014-07-24 2016-02-15 현대자동차주식회사 차량용 광각카메라의 영상 왜곡 보정 장치 및 방법
US9535423B1 (en) * 2016-03-29 2017-01-03 Adasworks Kft. Autonomous vehicle with improved visual detection ability
US10196058B2 (en) * 2016-11-28 2019-02-05 drive.ai Inc. Method for influencing entities at a roadway intersection
US10261513B2 (en) 2016-12-19 2019-04-16 drive.ai Inc. Methods for communicating state, intent, and context of an autonomous vehicle
US10261515B2 (en) * 2017-01-24 2019-04-16 Wipro Limited System and method for controlling navigation of a vehicle
US20180259958A1 (en) * 2017-03-09 2018-09-13 Uber Technologies, Inc. Personalized content creation for autonomous vehicle rides
US9953236B1 (en) 2017-03-10 2018-04-24 TuSimple System and method for semantic segmentation using dense upsampling convolution (DUC)
US11587304B2 (en) 2017-03-10 2023-02-21 Tusimple, Inc. System and method for occluding contour detection
US10192111B2 (en) 2017-03-10 2019-01-29 At&T Intellectual Property I, L.P. Structure from motion for drone videos
US10311312B2 (en) 2017-08-31 2019-06-04 TuSimple System and method for vehicle occlusion detection
US10671873B2 (en) 2017-03-10 2020-06-02 Tusimple, Inc. System and method for vehicle wheel detection
US10147193B2 (en) 2017-03-10 2018-12-04 TuSimple System and method for semantic segmentation using hybrid dilated convolution (HDC)
JP6921587B2 (ja) * 2017-03-31 2021-08-18 キヤノン株式会社 撮像装置、撮像システム、移動体
US9952594B1 (en) 2017-04-07 2018-04-24 TuSimple System and method for traffic data collection using unmanned aerial vehicles (UAVs)
US10471963B2 (en) 2017-04-07 2019-11-12 TuSimple System and method for transitioning between an autonomous and manual driving mode based on detection of a drivers capacity to control a vehicle
US10710592B2 (en) 2017-04-07 2020-07-14 Tusimple, Inc. System and method for path planning of autonomous vehicles based on gradient
US10552691B2 (en) 2017-04-25 2020-02-04 TuSimple System and method for vehicle position and velocity estimation based on camera and lidar data
US10481044B2 (en) 2017-05-18 2019-11-19 TuSimple Perception simulation for improved autonomous vehicle control
US10558864B2 (en) 2017-05-18 2020-02-11 TuSimple System and method for image localization based on semantic segmentation
US20180341821A1 (en) * 2017-05-26 2018-11-29 Dura Operating, Llc Method and system for generating and using a perception scene graph in motor vehicle applications
US10474790B2 (en) 2017-06-02 2019-11-12 TuSimple Large scale distributed simulation for realistic multiple-agent interactive environments
US10762635B2 (en) 2017-06-14 2020-09-01 Tusimple, Inc. System and method for actively selecting and labeling images for semantic segmentation
US10836312B2 (en) 2017-06-19 2020-11-17 Rom Acquisition Corporation Dynamic 360 degree view accident avoidance system
US10493988B2 (en) 2017-07-01 2019-12-03 TuSimple System and method for adaptive cruise control for defensive driving
US10737695B2 (en) 2017-07-01 2020-08-11 Tusimple, Inc. System and method for adaptive cruise control for low speed following
US10752246B2 (en) 2017-07-01 2020-08-25 Tusimple, Inc. System and method for adaptive cruise control with proximate vehicle detection
US10308242B2 (en) 2017-07-01 2019-06-04 TuSimple System and method for using human driving patterns to detect and correct abnormal driving behaviors of autonomous vehicles
US10303522B2 (en) 2017-07-01 2019-05-28 TuSimple System and method for distributed graphics processing unit (GPU) computation
US10759534B2 (en) 2017-07-03 2020-09-01 George A. Miller Method and system from controlling an unmanned aerial vehicle
JP2019016188A (ja) * 2017-07-07 2019-01-31 株式会社日立製作所 移動体遠隔操作システムおよび移動体遠隔操作方法
DE102017212373A1 (de) 2017-07-19 2019-01-24 Volkswagen Aktiengesellschaft Verfahren zur Bestimmung einer Trajektorie für eine autonom fahrendes Kraftfahrzeug, Steuereinrichtung und Kraftfahrzeug
CN107421615A (zh) 2017-07-21 2017-12-01 北京图森未来科技有限公司 实现车辆自动称重的方法及系统、相关设备
CN107352497B (zh) 2017-07-21 2018-10-12 北京图森未来科技有限公司 一种车辆的自动加油方法、装置和系统
CN107416754B (zh) 2017-07-21 2018-11-02 北京图森未来科技有限公司 一种长途运输车辆的自动加油方法、装置和系统
CN107393074B (zh) 2017-07-21 2019-01-18 北京图森未来科技有限公司 实现车辆自动过卡的方法和系统、相关设备
CN107381488B (zh) 2017-07-21 2018-12-18 北京图森未来科技有限公司 一种车辆的自动加油方法、装置和系统
CN107369218B (zh) 2017-07-21 2019-02-22 北京图森未来科技有限公司 实现车辆自动缴费的方法及系统、相关设备
CN107272657B (zh) 2017-07-21 2020-03-10 北京图森未来科技有限公司 实现车辆自动检修的方法及系统、相关设备
CN116540739A (zh) 2017-07-21 2023-08-04 北京图森智途科技有限公司 实现车辆自动装卸货的方法及系统、相关设备
US11029693B2 (en) 2017-08-08 2021-06-08 Tusimple, Inc. Neural network based vehicle dynamics model
US10360257B2 (en) 2017-08-08 2019-07-23 TuSimple System and method for image annotation
US10816354B2 (en) 2017-08-22 2020-10-27 Tusimple, Inc. Verification module system and method for motion-based lane detection with multiple sensors
US10565457B2 (en) 2017-08-23 2020-02-18 Tusimple, Inc. Feature matching and correspondence refinement and 3D submap position refinement system and method for centimeter precision localization using camera-based submap and LiDAR-based global map
US10303956B2 (en) 2017-08-23 2019-05-28 TuSimple System and method for using triplet loss for proposal free instance-wise semantic segmentation for lane detection
US10762673B2 (en) 2017-08-23 2020-09-01 Tusimple, Inc. 3D submap reconstruction system and method for centimeter precision localization using camera-based submap and LiDAR-based global map
US10678234B2 (en) 2017-08-24 2020-06-09 Tusimple, Inc. System and method for autonomous vehicle control to minimize energy cost
US10783381B2 (en) 2017-08-31 2020-09-22 Tusimple, Inc. System and method for vehicle occlusion detection
US10782694B2 (en) 2017-09-07 2020-09-22 Tusimple, Inc. Prediction-based system and method for trajectory planning of autonomous vehicles
US10953881B2 (en) 2017-09-07 2021-03-23 Tusimple, Inc. System and method for automated lane change control for autonomous vehicles
US10656644B2 (en) 2017-09-07 2020-05-19 Tusimple, Inc. System and method for using human driving patterns to manage speed control for autonomous vehicles
US10649458B2 (en) 2017-09-07 2020-05-12 Tusimple, Inc. Data-driven prediction-based system and method for trajectory planning of autonomous vehicles
US10782693B2 (en) 2017-09-07 2020-09-22 Tusimple, Inc. Prediction-based system and method for trajectory planning of autonomous vehicles
US10953880B2 (en) 2017-09-07 2021-03-23 Tusimple, Inc. System and method for automated lane change control for autonomous vehicles
US10671083B2 (en) 2017-09-13 2020-06-02 Tusimple, Inc. Neural network architecture system for deep odometry assisted by static scene optical flow
US10552979B2 (en) 2017-09-13 2020-02-04 TuSimple Output of a neural network method for deep odometry assisted by static scene optical flow
US10387736B2 (en) 2017-09-20 2019-08-20 TuSimple System and method for detecting taillight signals of a vehicle
US10733465B2 (en) 2017-09-20 2020-08-04 Tusimple, Inc. System and method for vehicle taillight state recognition
US10843669B2 (en) * 2017-09-28 2020-11-24 Uatc, Llc Sensor control system for autonomous vehicle
US10970564B2 (en) 2017-09-30 2021-04-06 Tusimple, Inc. System and method for instance-level lane detection for autonomous vehicle control
US10768626B2 (en) 2017-09-30 2020-09-08 Tusimple, Inc. System and method for providing multiple agents for decision making, trajectory planning, and control for autonomous vehicles
US10962979B2 (en) 2017-09-30 2021-03-30 Tusimple, Inc. System and method for multitask processing for autonomous vehicle computation and control
US10410055B2 (en) 2017-10-05 2019-09-10 TuSimple System and method for aerial video traffic analysis
EP3696789B1 (en) * 2017-10-10 2022-08-03 Nissan Motor Co., Ltd. Driving control method and driving control apparatus
WO2019073525A1 (ja) * 2017-10-10 2019-04-18 日産自動車株式会社 運転制御方法及び運転制御装置
US10739775B2 (en) 2017-10-28 2020-08-11 Tusimple, Inc. System and method for real world autonomous vehicle trajectory simulation
US10812589B2 (en) 2017-10-28 2020-10-20 Tusimple, Inc. Storage architecture for heterogeneous multimedia data
US10666730B2 (en) 2017-10-28 2020-05-26 Tusimple, Inc. Storage architecture for heterogeneous multimedia data
US10332394B2 (en) * 2017-11-07 2019-06-25 Intel Corporation Unmanned aerial vehicles and related methods and systems
US10528851B2 (en) 2017-11-27 2020-01-07 TuSimple System and method for drivable road surface representation generation using multimodal sensor data
US10528823B2 (en) 2017-11-27 2020-01-07 TuSimple System and method for large-scale lane marking detection using multimodal sensor data
US10657390B2 (en) 2017-11-27 2020-05-19 Tusimple, Inc. System and method for large-scale lane marking detection using multimodal sensor data
US10860018B2 (en) 2017-11-30 2020-12-08 Tusimple, Inc. System and method for generating simulated vehicles with configured behaviors for analyzing autonomous vehicle motion planners
US20190164007A1 (en) * 2017-11-30 2019-05-30 TuSimple Human driving behavior modeling system using machine learning
US10877476B2 (en) 2017-11-30 2020-12-29 Tusimple, Inc. Autonomous vehicle simulation system for analyzing motion planners
US10757320B2 (en) 2017-12-28 2020-08-25 Waymo Llc Multiple operating modes to expand dynamic range
US20190208136A1 (en) 2017-12-29 2019-07-04 Waymo Llc High-speed image readout and processing
AU2019206509A1 (en) 2018-01-09 2020-07-23 Tusimple, Inc. Real-time remote control of vehicles with high redundancy
WO2019140277A2 (en) 2018-01-11 2019-07-18 TuSimple Monitoring system for autonomous vehicle operation
US11009365B2 (en) 2018-02-14 2021-05-18 Tusimple, Inc. Lane marking localization
US11009356B2 (en) 2018-02-14 2021-05-18 Tusimple, Inc. Lane marking localization and fusion
US10752218B2 (en) * 2018-02-22 2020-08-25 Ford Global Technologies, Llc Camera with cleaning system
US10685244B2 (en) 2018-02-27 2020-06-16 Tusimple, Inc. System and method for online real-time multi-object tracking
US10685239B2 (en) 2018-03-18 2020-06-16 Tusimple, Inc. System and method for lateral vehicle detection
CN108492625A (zh) * 2018-03-25 2018-09-04 张小莲 一种基于NB-IoT的行人防撞智能交通管理控制系统
CN110378185A (zh) 2018-04-12 2019-10-25 北京图森未来科技有限公司 一种应用于自动驾驶车辆的图像处理方法、装置
CN116129376A (zh) 2018-05-02 2023-05-16 北京图森未来科技有限公司 一种道路边缘检测方法和装置
US11027747B2 (en) 2018-05-15 2021-06-08 International Business Machines Corporation Vehicle content based symbiosis for vehicle occupants
US11104334B2 (en) 2018-05-31 2021-08-31 Tusimple, Inc. System and method for proximate vehicle intention prediction for autonomous vehicles
US10778901B2 (en) 2018-06-27 2020-09-15 Aptiv Technologies Limited Camera adjustment system
US20200001779A1 (en) 2018-06-27 2020-01-02 drive.ai Inc. Method for communicating intent of an autonomous vehicle
US10875535B2 (en) * 2018-07-27 2020-12-29 Toyota Research Institute, Inc. Tactile detection to determine lane localization
DE102018212555A1 (de) * 2018-07-27 2020-01-30 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zur Fahrspurerkennung
US10839234B2 (en) 2018-09-12 2020-11-17 Tusimple, Inc. System and method for three-dimensional (3D) object detection
CN112689586B (zh) 2018-09-13 2024-04-16 图森有限公司 远程安全驾驶方法和系统
US20210233115A1 (en) * 2018-10-17 2021-07-29 Firefly Systems Inc. Vehicle-mounted dynamic content delivery systems
US10796402B2 (en) 2018-10-19 2020-10-06 Tusimple, Inc. System and method for fisheye image processing
WO2020089668A1 (en) * 2018-10-30 2020-05-07 Toyota Jidosha Kabushiki Kaisha Autonomous multi-purpose utility vehicle
US10942271B2 (en) 2018-10-30 2021-03-09 Tusimple, Inc. Determining an angle between a tow vehicle and a trailer
CN112867631B (zh) * 2018-11-13 2024-04-12 瑞维安知识产权控股有限责任公司 用于控制车辆摄像头的系统和方法
US10885785B2 (en) 2018-12-04 2021-01-05 At&T Intellectual Property I, L.P. Network-controllable physical resources for vehicular transport system safety
CN111319629B (zh) 2018-12-14 2021-07-16 北京图森智途科技有限公司 一种自动驾驶车队的组队方法、装置及系统
JP7202208B2 (ja) * 2019-02-13 2023-01-11 株式会社Subaru 自動運転システム
CN111750871A (zh) * 2019-03-29 2020-10-09 北京地平线机器人技术研发有限公司 行驶出错的提醒方法、装置及电子设备
US11823460B2 (en) 2019-06-14 2023-11-21 Tusimple, Inc. Image fusion for autonomous vehicle operation
CN110166767B (zh) * 2019-06-26 2021-02-05 湖北亿咖通科技有限公司 一种结合车机闲散资源的图像质量调节方法及装置
CN110276322B (zh) * 2019-06-26 2022-01-07 湖北亿咖通科技有限公司 一种结合车机闲散资源的图像处理方法及装置
US11614739B2 (en) 2019-09-24 2023-03-28 Apple Inc. Systems and methods for hedging for different gaps in an interaction zone
US11320830B2 (en) 2019-10-28 2022-05-03 Deere & Company Probabilistic decision support for obstacle detection and classification in a working area
EP3819665B1 (en) 2019-11-06 2022-01-19 Yandex Self Driving Group LLC Method and computer device for calibrating lidar system
DE102019217897A1 (de) * 2019-11-20 2021-05-20 Robert Bosch Gmbh Verfahren zum Betreiben einer Umfeldsensoreinrichtung eines Fahrzeugs
US11238292B2 (en) * 2019-11-26 2022-02-01 Toyota Research Institute, Inc. Systems and methods for determining the direction of an object in an image
CN111147761A (zh) * 2019-12-28 2020-05-12 中国第一汽车股份有限公司 一种车用摄像设备清洗方法、系统、车辆及存储介质
US12014630B2 (en) 2020-03-03 2024-06-18 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for assisting a maneuver of a moving object
EP3893150A1 (en) 2020-04-09 2021-10-13 Tusimple, Inc. Camera pose estimation techniques
AU2021203567A1 (en) 2020-06-18 2022-01-20 Tusimple, Inc. Angle and orientation measurements for vehicles with multiple drivable sections
JP2022047408A (ja) * 2020-09-11 2022-03-24 トヨタ自動車株式会社 情報処理装置、情報処理システム、プログラム、及び車両
US11987261B2 (en) 2020-09-15 2024-05-21 Tusimple, Inc. Detecting a road structure change by a lead autonomous vehicle (AV) and updating routing plans for the lead AV and following AVs
US11458993B2 (en) 2020-09-15 2022-10-04 Tusimple, Inc. Detecting a road closure by a lead autonomous vehicle (AV) and updating routing plans for following AVs
US20220081003A1 (en) * 2020-09-15 2022-03-17 Tusimple, Inc. DETECTING A CONSTRUCTION ZONE BY A LEAD AUTONOMOUS VEHICLE (AV) AND UPDATING ROUTING PLANS FOR FOLLOWING AVs
US11840175B2 (en) * 2020-09-23 2023-12-12 Robert D. Fish Traffic signal alarm device having no navigational control
US11597404B2 (en) * 2020-09-23 2023-03-07 Robert D. Fish Traffic signal alarm device
US20220129685A1 (en) * 2020-10-23 2022-04-28 Deka Products Limited Partnership System and Method for Determining Object Characteristics in Real-time
US11548535B2 (en) * 2020-10-24 2023-01-10 Ghost Autonomy Inc. Automatic disengagement of an autonomous driving mode
JP7283461B2 (ja) * 2020-11-19 2023-05-30 トヨタ自動車株式会社 車両制御装置
JP7501470B2 (ja) * 2021-08-19 2024-06-18 トヨタ自動車株式会社 走行映像表示方法、走行映像表示システム
KR102562617B1 (ko) * 2021-09-15 2023-08-03 김배훈 어레이 카메라 시스템
US20230256988A1 (en) * 2022-02-17 2023-08-17 Gm Cruise Holdings Llc Dynamic lidar adjustments based on av road conditions
CN115220449B (zh) * 2022-07-14 2023-11-21 小米汽车科技有限公司 路径规划的方法、装置、存储介质、芯片及车辆
US11983932B1 (en) * 2023-07-28 2024-05-14 New Automobile Co., Ltd Vision acquisition system equipped in intelligent terminal of smart logistics vehicle

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5040116A (en) 1988-09-06 1991-08-13 Transitions Research Corporation Visual navigation and obstacle avoidance structured light system
JPH03225513A (ja) * 1990-01-31 1991-10-04 Nec Corp 自律走行車両方向制御装置
JP3082507B2 (ja) * 1993-04-07 2000-08-28 日産自動車株式会社 移動体の画像処理装置
US5559695A (en) * 1994-12-27 1996-09-24 Hughes Aircraft Company Apparatus and method for self-calibrating visual time-to-contact sensor
JPH11312300A (ja) * 1998-04-27 1999-11-09 Matsushita Electric Ind Co Ltd 車載カメラ
JP4622928B2 (ja) * 2006-04-14 2011-02-02 トヨタ自動車株式会社 車載カメラ制御装置および車載カメラ制御方法。
DE102007004348A1 (de) * 2007-01-29 2008-07-31 Robert Bosch Gmbh Imager-Halbleiterbauelement, Kamerasystem und Verfahren zum Erstellen eines Bildes
JP4434224B2 (ja) * 2007-03-27 2010-03-17 株式会社デンソー 走行支援用車載装置
US8761434B2 (en) * 2008-12-17 2014-06-24 Sony Computer Entertainment Inc. Tracking system calibration by reconciling inertial data with computed acceleration of a tracked object in the three-dimensional coordinate system
CN101976429B (zh) * 2010-10-27 2012-11-14 南京大学 基于游弋图像的水面鸟瞰图成像方法
EP2448251B1 (en) * 2010-10-31 2019-09-25 Mobileye Vision Technologies Ltd. Bundling night vision and other driver assistance systems (DAS) using near infra red (NIR) illumination and a rolling shutter
US9499200B2 (en) * 2011-04-19 2016-11-22 Ford Global Technologies, Llc Trailer backup assist system with object detection
DE102011076795A1 (de) * 2011-05-31 2012-09-20 Robert Bosch Gmbh Verfahren zum Bestimmen einer Nickbewegung einer in einem Fahrzeug verbauten Kamera und Verfahren zur Steuerung einer Lichtaussendung zumindest eines Frontscheinwerfers eines Fahrzeugs
US8630806B1 (en) 2011-10-20 2014-01-14 Google Inc. Image processing for vehicle control
US9538144B2 (en) * 2012-05-02 2017-01-03 GM Global Technology Operations LLC Full speed lane sensing using multiple cameras
US10547774B2 (en) * 2013-01-09 2020-01-28 Sony Corporation Image processing device, image processing method, and program
CN103196418A (zh) * 2013-03-06 2013-07-10 山东理工大学 一种弯道车距测量方法
EP2975483B1 (en) * 2013-03-15 2020-02-26 NEC Corporation Target pointing apparatus, target pointing control method, target pointing control program
GB2512628A (en) * 2013-04-04 2014-10-08 Sony Corp Method and apparatus
US9201424B1 (en) * 2013-08-27 2015-12-01 Google Inc. Camera calibration using structure from motion techniques
JP6065328B2 (ja) * 2013-12-17 2017-01-25 みこらった株式会社 自動運転車及び自動運転車用プログラム
KR20150100452A (ko) * 2014-02-25 2015-09-02 최해용 고광도 헤드-업 디스플레이 장치
CN104061899B (zh) * 2014-06-20 2016-03-30 东南大学 一种基于卡尔曼滤波的车辆侧倾角与俯仰角估计方法
CN104049634B (zh) * 2014-07-02 2017-02-01 燕山大学 基于Camshift算法的智能体模糊动态避障方法
US9731713B2 (en) * 2014-09-10 2017-08-15 Volkswagen Ag Modifying autonomous vehicle driving by recognizing vehicle characteristics
CN104460673A (zh) * 2014-11-21 2015-03-25 广西智通节能环保科技有限公司 一种无人驾驶系统
CN104865965B (zh) * 2015-05-20 2017-12-26 深圳市锐曼智能装备有限公司 机器人用深度摄像头与超声波结合的避障控制方法及系统
US9535423B1 (en) * 2016-03-29 2017-01-03 Adasworks Kft. Autonomous vehicle with improved visual detection ability

Also Published As

Publication number Publication date
EP3436879A1 (en) 2019-02-06
CN109074069B (zh) 2022-06-17
CN109074069A (zh) 2018-12-21
US20170285649A1 (en) 2017-10-05
US10073462B2 (en) 2018-09-11
US9535423B1 (en) 2017-01-03
JP2019512913A (ja) 2019-05-16
WO2017167411A1 (en) 2017-10-05
JP2022058391A (ja) 2022-04-12
EP3436879B1 (en) 2020-03-25

Similar Documents

Publication Publication Date Title
JP7150274B2 (ja) 改善された視覚的検出能力を備えた自律走行車
US11192557B2 (en) Road profile along a predicted path
EP3611472B1 (en) Controlling host vehicle based on detected parked vehicle characteristics
KR102313026B1 (ko) 차량 및 차량 후진 시 충돌방지 보조 방법
US20150293534A1 (en) Vehicle control system and method
JP6984232B2 (ja) 自動運転装置
US7652686B2 (en) Device for image detecting objects, people or similar in the area surrounding a vehicle
KR20190062390A (ko) 검출된 배리어에 기반한 차량의 항법
US10891747B1 (en) Sensor calibration system for autonomous driving vehicles
US20190135169A1 (en) Vehicle communication system using projected light
WO2021226981A1 (en) A detector for point cloud fusion
CN112824997B (zh) 用于局部行进车道感知的方法和系统
CA3149075A1 (en) Vehicle control method, vehicle control system, and vehicle
CN116674557B (zh) 车辆自主变道动态规划方法、装置和域控制器
US11312416B2 (en) Three-dimensional vehicle path guidelines
US11897461B2 (en) Methods and systems for autonomous vehicle collision avoidance
US20230152807A1 (en) Vehicle control system and vehicle driving method using the vehicle control system
US20210096249A1 (en) Front and side four-lidar design for autonomous driving vehicles
CN117930220A (zh) 障碍物速度检测方法、装置、计算机设备以及存储介质
CN117437772A (zh) 用于确定并提供停车设施入口特性的系统和方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181210

A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20181011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191111

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210312

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211222

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211222

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20211224

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20220119

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220216

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220221

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220311

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220317

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220520

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20220701

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220801

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220831

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220916

R150 Certificate of patent or registration of utility model

Ref document number: 7150274

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150