JP7242316B2 - 先行物体の検出及び測距のための前方車両センサデータの融合 - Google Patents

先行物体の検出及び測距のための前方車両センサデータの融合 Download PDF

Info

Publication number
JP7242316B2
JP7242316B2 JP2019014442A JP2019014442A JP7242316B2 JP 7242316 B2 JP7242316 B2 JP 7242316B2 JP 2019014442 A JP2019014442 A JP 2019014442A JP 2019014442 A JP2019014442 A JP 2019014442A JP 7242316 B2 JP7242316 B2 JP 7242316B2
Authority
JP
Japan
Prior art keywords
modality
sensing
preceding object
vehicle
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019014442A
Other languages
English (en)
Other versions
JP2019164124A (ja
Inventor
ビー.リンドホルム トレントン
Original Assignee
トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド filed Critical トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド
Publication of JP2019164124A publication Critical patent/JP2019164124A/ja
Application granted granted Critical
Publication of JP7242316B2 publication Critical patent/JP7242316B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • B60W30/162Speed limiting therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/93185Controlling the brakes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9319Controlling the accelerator
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Artificial Intelligence (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Electromagnetism (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Image Analysis (AREA)

Description

アダプティブクルーズコントロール(ACC:Adaptive cruise control)システムは、先行物体のサイズ、速度及び距離を検出する前方センサを利用することによりドライバの安全性及び信頼性を向上する。ドライバが長手方向の制御のためにACCを利用することを選択する例では、ACCは、安全な車両間運転距離を維持するために、車両の速度を変更するコマンドを生成する。Chiaによる「停止と進行を繰り返すアダプティブクルーズコントロールに関してトラックトレーラを検出するための技術(Technique for detecting truck trailer for stop and go adaptive cruise control)」を発明の名称とする米国特許第7,457,699号は、不正確に予測される虞がある近距離トラックトレーラの検出に対するレーダーベースのアプローチを対象とする。このアプローチは、一貫性がない後面(すなわち、タイヤの上に距離をおいて、トラックの荷台、トラックトレーラから突き出た建築資材)を有する車両の検出を改善することを目的とする一方で、レーダーは近距離の状況では準最適なままであり、従って、先行物体を検出するための新しいアプローチが必要である。
上述の「背景技術」の説明は、本開示の内容を概略的に表すためのものである。発明者らの仕事は、この背景技術の欄に記載されている限りにおいて、そうでなければ出願時に従来技術として適さない説明の態様と同様に、本発明に対する従来技術として明示的にも暗示的にも認められない。
本開示は、車両と先行物体との間の距離を決定するように構成された方法、装置及びコンピュータ可読媒体であって、第一検知様式を介して、前記車両と前記先行物体との間の前記距離に関連する第一検知パラメータを取得することと、処理回路を介して、前記第一検知様式を介して取得された前記第一検知パラメータの大きさを決定することと、第二検知様式を介して、前記車両と前記先行物体との間の前記距離に関連する第二検知パラメータを取得することと、処理回路を介して、前記第二検知様式を介して取得された前記第二検知パラメータの大きさを決定することと、前記車両と前記先行物体との間の前記距離を決定するために、所定の閾値に対する前記第一検知パラメータの大きさ及び前記第二検知パラメータの大きさの前記決定に基づいて、前記第一検知パラメータ、前記第二検知パラメータ又はそれらの組み合わせを選択することと、を含む、方法、装置及びコンピュータ可読媒体に関する。
実施形態によると、本開示は、カメラを介して、前記先行物体に関連する画像を取得することと、前記先行物体に関連する前記画像を分類することと、前記先行物体に関連する前記画像の前記分類に基づいて、前記第一検知パラメータ、前記第二検知パラメータ又はそれらの組み合わせを選択することと、にさらに関する。
上述の段落は、概略的な序論の目的で提供されており、以下の特許請求の範囲を限定することを意図したものではない。記載される実施形態が、更なる利点と共に、添付の図面と関連して以下の詳細な説明を参照することによって最もよく理解されるであろう。
図1は、本開示の例示的な実施形態に係る、先行車両に対するユーザ車両を例示する図である。 図2は、運転支援システム制御部及び走行速度制御部を含む、本開示のアダプティブクルーズコントロールシステムの高レベルフローチャートである。 図3は、本開示の例示的な実施形態に係る、走行速度制御部のブロック図である。 図4は、本開示の例示的な実施形態に係る、先行車両の識別を例示する図である。 図5は、本開示の例示的な実施形態の高レベルフローチャートである。 図6は、本開示の例示的な実施形態に係る、検出及び測距のフローチャートである。 図7Aは、本開示の例示的な実施形態に係る、検出及び測距を例示する図である。 図7Bは、本開示の例示的な実施形態に係る、検出及び測距を例示する図である。 図7Cは、本開示の例示的な実施形態に係る、検出及び測距を例示する図である。 図8Aは、本開示の例示的な実施形態に係る、検出及び測距中の物体認識を例示する図である。 図8Bは、本開示の例示的な実施形態に係る、検出及び測距中の物体認識を例示する図である。 図8Cは、本開示の例示的な実施形態に係る、検出及び測距中の物体認識を例示する図である。 図9は、本開示の例示的な実施形態に係る、検出、測距及び制御を実行するように構成されたコンピュータのハードウェア記述のブロック図である。
本開示のより完全な理解及び多くのその付随的な利点は、添付の図面と関連して考慮されるときに以下の詳細な説明を参照することによってより良く理解されるため、容易に得られるであろう。
本明細書において用いられるように、用語「一つの(「a」又は「an」)」は一つ又は一つよりも多いものとして定義される。本明細書において用いられるように、用語「複数の(plurality)」は二つ又は二つよりも多いものとして定義される。本明細書において用いられるように、用語「別の(another)」は少なくとも第二の又はそれ以上のものとして定義される。本明細書において用いられるように、用語「含む(including)」及び/又は「有する(having)」は備える(すなわちオープンな言語)として定義される。「一実施形態(one embodiment)」、「ある実施形態(certain embodiments)」、「実施形態(an embodiment)」、「実装形態(an implementation)」、「例(an example)」又は同様の用語に対する本文書全体にわたる参照は、実施形態に関連して記載される特定の特徴、構造又は特性が本開示の少なくとも一つの実施形態に含まれることを意味する。従って、そのようなフレーズの出現又は本明細書全体にわたる様々な場所における出現は、必ずしも全て同じ実施形態に対して言及しているものとは限らない。さらに、特定の特徴、構造又は特性は、制限なしに一つ又は複数の実施形態における任意の適切な手法において組み合わせられることができる。
アダプティブクルーズコントロール(ACC)は、乗客の安全性を改善するために、現代の車両において広く展開される。これをするために、ACCは、ユーザの車両と先行車両との間の距離を能動的に測定し、他の入力に加えて、この距離情報をユーザ車両の既知の速度情報と統合し、所定の車間距離を維持するために又は目標速度に到達するために、ユーザ車両の速度を調整する必要があるかどうかを決定する。距離推定(distancing)は、理想的な状況(例えば、距離が離れた高速道路走行)において車両の距離を決定するための高効率システムであるレーダーを介して実行されることが多い。しかしながら、交通渋滞では、又は先行車両がその車両の後面から延びる厄介な荷物を運搬するとき、レーダーベースの情報の正確性が低下する可能性があり、車両速度を適切に制御するための及び衝突を回避するためのACCの能力に影響を与える。
この欠点は、車両において展開されるレーダーベースのシステムの技術的基礎の結果である。レーダー送信機は、狭い円錐形の電波を放出し、この電波は物体と接触し且つ様々な方向に反射又は散乱される。その波の一部が既知の時間及び周波数間隔で反射されて受信機で受信されるとき、先行物体に対する距離が決定され得る。しかしながら、様々な信号から一つの距離を決定するために、先行物体からの最も高い反射率の中心(centroid)が選択される。この中心は、先行車両の後方の全体像(perspective)の大部分を網羅する場合があるが、先行車両のごく一部を表すだけの場合もある。これら不一致は、鋼のI型の梁を運搬するフラットベッドトラックの例では、先行車両の最も後方の態様(rear aspect)に対する真の距離の不正確な決定をもたらす。例えば、ユーザ車両が先行車両に近づくと、先行車両及び任意の後方の態様は、ユーザの車両によって放出された細い円錐形の電波を外れる場合があり、レーダーの視野を外れて追跡不能になる。現時点では、近距離で効果的な距離推定技術が必要である。
この理由のために、本明細書で記載されるように、本開示は、ある範囲の距離にわたる車両間の距離を正確に決定するために、カメラ、レーダー及びソナーを統合するためのシステムを導入する。
図1は、本開示の例示的な実施形態に係る、先行車両に対するユーザ車両を例示する。本車両105は、先行車両110の後方で距離をおいて既知の速度で走行している。実施形態では、本車両105は乗客を運搬するために装備されたユーザ車両115であり、先行車両110は重い機材を輸送するために装備されたフラットベッドトレーラトラック121である。実施形態では、フラットベッドトレーラトラック121のフラットベッドトレーラ122の後方の態様は、ユーザ車両115のレーダー視野111内ではない。しかしながら、ユーザ車両115に対する近接性に起因してレーダーによって追跡可能ではない、フラットベッドトレーラトラック121のフラットベッドトレーラ122のこの後方の態様は、ユーザ車両115のソナー視野112内である。実施形態では、フラットベッドトレーラトラック121のフラットベッドトレーラ122の重い機材又は同様の物は、高い強度で電波を反射する。フラットベッドトレーラトラック121の最も後方の態様ではないにもかかわらず、この重い機材は、フラットベッドトレーラ122に対する距離を正確に決定するためのレーダーシステムの能力に偏った影響を与える。その結果、これはユーザ車両115とフラットベッドトレーラトラック121の後方の態様との間の真の距離を曖昧にする可能性がある。ユーザ車両115の前面カメラは、先行車両の画像113を捉える。これら捉えられた画像113は、先行車両の識別(identity)を決定するために用いられ、距離推定技術の能力は車両のタイプ(すなわち、形状、サイズ、貨物)によって影響されるため、上述の距離推定技術の正確性をさらに知らせている。
レーダーがより長い距離を決定する際により効果的であると知られている一方で、ソナーは、音波を用いることの技術的限界のために、より短い距離を決定する際により効果的である。それ故、例示的な実施形態では、先行車両がこれら二つの距離推定アプローチの間の境界に近づくとき、使用する距離推定アプローチに関する決定を行うことがユーザ車両のために必要である。先行車両の識別及びその予測された距離に基づいて、最も正確な距離にたどり着くために、レーダーのみ、ソナーのみを使用すること、又は二つのアプローチを統合することが適切である場合がある。
図2は、本開示のアダプティブクルーズコントロールシステムの高レベルフローチャートである。図2は、左から右へ、先行車両に対する距離を正確に決定することを担当する運転支援システム制御部230に供給される入力の概要を示し、車両速度を変更するためにその値が次に走行速度制御部235に供給される。
図2に示されるように、車両制御システム200は、限定されないが、先行物体を捉えるためのカメラ203と、先行物体と本車両との間の距離を決定するためのレーダー機器201と、先行物体と本車両との間の距離を決定するためのソナー機器202と、本車両の走行速度を検出するための走行速度センサ204と、運転支援システム制御部230と、走行速度制御部235と、を含む。運転システム制御部230は、限定されないが、カメラ203からの捉えられた画像を利用する物体認識手段233と、距離決定手段231と、レーダー強度決定手段234と、ソナー解像度決定手段232と、を含む。距離決定手段233は、レーダー機器201及びソナー機器202からのデータを利用して、レーダー強度決定手段234及びソナー解像度決定手段232からの出力に照らして、先行車両と本車両との間の距離を決定する。距離が距離決定手段233によって決定されると、適切な場合、その値が本車両速度の調整のために走行速度制御部235に供給される。
実施形態によると、カメラ204は、その視野内の任意の物体を含む先行視野の画像を少なくとも取得し、捉えられた画像を運転支援システム制御部230に出力する。カメラ203からの捉えられた画像は、距離決定手段に知らせるために及び視野内の車両の横方向の存在を記録するために、物体認識に用いられ得る。車両の存在及びそれらの空間的位置は、環境的な変化(すなわち、予期せぬ車線変更)の状況下において重大であり、それにより車両速度が直ちに制御され得る。運転支援システム制御部230にリアルタイム物体データを提供するために、データはカメラ203から連続的に取得される。実施形態では、カメラ203は、可視光カメラ、赤外線カメラ、又はそれらの組み合わせである。
実施形態によると、レーダー機器201は、車両を含む先行物体を検出し、本車両と先行車両との間の距離を測定するためのミリ波レーダーである。車両ベースのミリ波レーダー機器201は、送信機から放出された伝送波(ミリ波)と先行車両から反射された受信波とを混合し、混合された信号においてビート周波数を抽出し、それにより本車両と先行車両との間の距離についての情報が取得される。この距離情報は、次に、運転支援システム制御部230に出力される。実施形態では、先行車両に対する距離に関する情報は、受信機で捉えられた反射電波の中心の位置特定(localization)を介して決定される。ヒートマップと同様に、電波強度の画素化されたレンダリングが生成され、最も高い強度を有する領域が先行車両の後方の態様として選択される。別の実施形態では、先行車両に対する距離に関する情報は、視野内の物体と相関している周波数スペクトルの波形ピークから決定される。データは、運転支援システム制御部230にリアルタイムデータを提供するために、レーダー機器201から連続的に取得される。
実施形態によると、ソナー機器202は、当技術分野で知られるように、音波を利用して近距離で、本車両と車両などの先行物体との間の距離を決定する。車両ベースのソナー機器202は、人間には聞こえない超音波が放出されたときから先行物体によって反射された波がソナー機器202に戻ってくるときまでの時間を測定する。この時間領域データは、距離決定を知らせ、その出力は運転支援システム制御部230に供給される。データは、運転支援システム制御部230にリアルタイムデータを提供するために、ソナー機器202から連続的に取得される。
実施形態によると、走行速度センサ204は、本車両の走行速度を検出し、その走行速度を運転支援システム制御部230に出力する。この走行速度は、運転支援システム制御部230からの決定された距離とまとめられて、運転支援システム制御部230を通って走行速度制御部235に渡され、その二つの値は、適切な場合、走行速度調整を決定するために、走行速度制御部235によって利用される。データは、運転支援システム制御部230ひいては走行速度制御部235にリアルタイムデータを提供するために、走行速度センサ204から連続的に取得される。
本開示の実施形態によると、カメラ203、ミリ波レーダー機器201、ソナー機器202及び走行速度センサ204は、個々の仕様の制限に従って実装可能な商用製品である。
実施形態によると、運転支援システム制御部230は、CPU(中央処理装置)、ROM(リードオンリメモリ)、RAM(ランダムアクセスメモリ)及びI/O(入力及び出力)インターフェースを有する周知のマイクロコンピュータである。ROMなどの記憶装置に記憶された制御プログラムは、CPUが以下で記載される物体認識手段233、距離決定手段231、レーダー強度決定手段及びソナー解像度決定手段232として機能することを可能にする。運転支援システム制御部230の例示的な実施形態は、図9において記載される。
実施形態によると、物体認識手段233は、カメラ機器204からの捉えられた画像に基づいて、先行車両の識別を決定するように構成される。標準的な機械学習アプローチによると、畳み込みニューラルネットワークなどのアルゴリズム又は同様のプロセスは、利用可能な既知の車両のデータベース上で訓練され、限定されないが、オードバイ、車又はトラックを含む先行車両の分類を可能にする。さらに、メーカーとモデルに従った下位分類は、先行車両の速度、重量及び形状に関連する特異性および認識の向上を可能にするように決定され得る。
物体認識手段233のデータベースの例示的な実施形態では、データベースは、参照画像のコーパスを含み、各参照画像は、識別可能な参照物体を含み、データベースにおいて参照物体の対応するテキスト記述に関連付けられる。さらに、データベースは、各々が記録の集合を含む複数の画像クエリ解像度データ構造(image query resolution data structures)を含み、各記録は、参照画像の画像記述子を含む。それ故、各データ構造は、画像記述子に基づいてデータ構造内の最も一致する記録を識別するために、一組の所定の検索プロセスのうちの対応する一つを用いて検索可能である。
実施形態によると、距離決定手段231は、物体認識手段233を介して、カメラ機器203からの物体データと統合されたレーダー機器201及びソナー機器202からの距離データに基づいて、正確な車間距離を決定するように構成される。
距離決定中に、運転支援システム制御部230の距離決定手段231は、距離推定データのための適切なソースを選択しなければならない。この目的のため、車間距離を正確に推定するために、運転支援システム制御部230に供給されるように、データストリームがレーダー機器201、ソナー機器202又は二つのデータストリームの融合(fusion)のいずれかから選択される。適正なデータソースを決定する際に、各データストリームは、所定の閾値に関して評価され得る。レーダーに関して、信号は最大の反射率の中心から生成され、閾値は所定の反射率強度で設定される。この所定の反射率強度より高い強度は先行物体の距離の正確な表現を提供するとみなされ、閾値はレーダー機器201の仕様に従って設定される。ソナーに関して、信号は空中ベースのノイズの観点から生成され、閾値は所定の解像度で設定される。この所定の解像度閾値よりも高い解像度は先行物体の距離の正確な推定を提供するとみなされ、閾値はソナー機器202の仕様に従って設定される。
本開示の距離決定手段の例示的な実施形態では、所定のレーダー及びソナー閾値が使用され、先行車両は、セダンであり、本車両よりも相対的に遅い速度で走行している。当初、セダンは本車両の20メートル前であり、レーダー強度は所定の閾値よりも高く、ソナー解像度は所定の解像度より低い。この場合において、レーダーは、距離決定手段のための理想的な様式(modality)として選択される。車間距離が狭くなると、距離が近づけられ(例えば6メートル)、ソナー解像度及びレーダー強度は両方ともそれらの個々の閾値を超える。カメラ機器からの情報及び先行車両の識別に照らして、決定は、ソナーに移行するために、レーダーのみで維持するために、または二つのデータストリームを一つの距離出力に融合するためになされ得る。車間距離が狭くなり続けると、レーダー強度は所定の閾値を下回る可能性がある一方で、ノイズの影響が最小になる近距離で効果的なソナーは、個々の閾値を超える解像度を表示し続ける。その結果、ソナーが理想的な様式として選択される。センサ選択のための上述の手法は、同様に、車間距離が拡大しているときに適用可能である。さらに、近距離から遠距離までの個々の車間距離で、データストリームの質は、意思決定プロセスを左右する。
本開示の例示的な実施形態によると、上述したように、カメラ機器からの捉えられた画像による物体認識は、距離決定のための距離推定様式の選択を補助するために利用される。例えば、車両がレーダー及びソナーの両者の範囲内である場合、各データソースからのデータは、改善された出力を生み出すために融合され得る。しかしながら、物体認識を介して、先行車両がトレーラを有するフラットベッドトラックであると決定された場合、レーダーがフラットベッドトラックの後方の態様を正確に検出する能力は最も小さいため、ソナーのデータを優先することが適切である場合がある。
実施形態によると、走行速度制御部235は、ドライバによって前もって設定された走行速度並びに運転支援システム制御部からの距離及び速度の入力に基づいて、本車両の走行速度を制御する。例えば、ACCを作動させるとき、ドライバは所望の走行速度を選択する。所望の走行速度を認識しているとき、走行速度制御部235は、所望の走行速度を維持するために、スロットルサブシステム及びブレーキサブシステムを介して、車両走行速度を調整する。実施形態では、前方センサを介して先行車両が車両の検知距離内であると決定されると、車両走行速度を変更するか否かの決定がなされる。例示的な実施形態では、先行車両は、本車両よりも相対的に遅い速度で走行している。走行速度制御部235は、適切である場合、ブレーキサブシステムを作動させる信号を生成するために、運転支援システム制御部230を通って渡された現在の走行速度と運転支援システム制御部230からの決定された車間距離とを利用することができる。走行速度が釣り合うにつれて、又は先行車両が前方センサの視野を外れるとき、走行速度制御部235は、現在の走行速度と目標走行速度との間の不一致を認識することができ、それに応じて信号を生成することができる。
次に、図3は、本開示の例示的な実施形態に係る、走行速度制御部と運転支援システム制御部に対するその接続のブロック図である。走行速度制御部335は、限定されないが、メモリサブシステム336と、スロットルサブシステム337と、ブレーキサブシステム339と、警報サブシステム338と、を含む。車間距離及び現在の走行速度に関するデータは、運転支援システム制御部340から走行速度制御部335に供給される。ACC作動時にドライバによって選択される目標走行速度は、メモリサブシステム336に記憶される。メモリサブシステム336は、概して、アプリケーションに適切な量の揮発性メモリ(例えば、ダイナミックランダムアクセスメモリ(DRAM))及び不揮発性メモリ(例えば、フラッシュメモリ、電気的消去可能プログラマブル読取り専用メモリ(EEPROM))を含む。実施形態では、本車両の相対速度調整を決定するためのプロセッサが実行可能なコードは、走行速度制御部335のメモリサブシステム336の不揮発性メモリ内に記憶される。
実施形態では、速度調整部プロセッサ341及びメモリサブシステム336は、選択されたクルーズコントロール速度に照らして適切な車間距離を維持するために、様々な適切な適応コントローラのうちの一つである比例-積分-微分コントローラ(PIDコントローラ)を使用する。制御ループフィードバック機構であるPIDコントローラは、測定されたプロセスと所望の設定点との間の差としての誤差値の計算を通して出力の連続的な調節を提供し、設定点に到達するために、比例、積分及び微分に基づいて補正を適用する。同様に、本実施形態の観点から、速度制御部プロセッサ341は、設定点についての車両速度を調節するために、必要に応じて、スロットルサブシステム337及びブレーキサブシステム339に対する信号を生成することができる。必要であれば、速度制御部プロセッサ341は、警報サブシステム338に制御信号を提供して、警報サブシステム338に本車両のドライバに対する視覚的及び/又は聴覚的フィードバックを提供させてもよい。
本開示の走行速度制御部の例示的な実施形態では、ドライバがACCを作動させ、速度制御を時速80マイルに設定する。しかしながら、時速75マイルで走行する先行車両が、本車両の前方で検出される。先行車両に対する距離及び本車両の現在の速度に関する連続的な情報は、運転支援システム制御部によって提供される。安全な車間距離を維持するために、速度制御部プロセッサ341は、車両を減速するためにブレーキサブシステム339に信号を供給する。運転支援システム制御部340によって連続的に提供されるように、現在の車両速度と先行車両に対する距離とを能動的に監視する際、速度制御部プロセッサ341は、車間距離が適切である場合を決定し、又は必要に応じて車両速度を変更する。先行車両が視野を外れるか又は安全な距離を超えて車間距離が拡大すると、速度制御部プロセッサ341は、メモリサブシステム336に記憶されるように、ドライバによって選択された設定点に到達するまで、車両速度を増大するようにスロットルサブシステム337に対する信号を生成することができる。スロットルサブシステム337及びブレーキサブシステム339に対するコマンドの生成は、PIDコントローラの制御ループフィードバック機構に従って決定される。PIDコントローラの使用は、参照によって本明細書に組み込まれる米国特許第5335164A号から明らかなように、当技術分野において理解される。
実施形態によると、車間安全距離は、本車両の走行速度に従って決定される。車間安全距離は、先行車両のメーカー及びモデルによってさらに知らされてもよく、先行車両のサイズ、形状及び重量は、時間領域において、加速又は減速するためのその能力に影響を与える。実施形態では、車間安全距離に関連し且つ識別された先行車両に関する情報は、走行速度制御部335のメモリサブシステム336に対するシステムソフトウェア更新を介して又はクラウドベースのシステムソフトウェア更新を介して更新されてもよい。
実施形態では、走行速度制御部335は、CPU(中央処理装置)、ROM(リードオンリメモリ)、RAM(ランダムアクセスメモリ)及びI/O(入力及び出力)インターフェースを有する周知のマイクロコンピュータである。ROMなどの記憶装置に記憶された制御プログラムは、CPUが以下で記載される走行速度制御部335として機能することを可能にする。
図4は、本開示の例示的な実施形態に係る、先行車両の識別を例示する。先行車両の識別は、物体認識及び機械学習を介して達成される。例示的な実施形態では、当技術分野において理解され且つ参照によって本明細書に組み込まれる米国特許第7747070B2号によって明らかなように、標準的な畳み込みニューラルネットワーク(CNN)アプローチが用いられる。CNNは、本明細書に記載される一方で、限定とみなされるべきではなく、単に物体認識に対する様々なアプローチの代表例である。本開示の観点から、CNNは、仮想の先行物体451の収集された画像のキュレートされた(curated)データベース上で訓練される(450)。実施形態では、キュレートされたデータベースは、物体認識手段に対するシステムソフトウェア更新を介して又はクラウドベースのシステムソフトウェア更新を介して能動的に維持及び更新される。手短に言えば、特徴学習452及び目標分類453は、データベース451で実行される。概して、特徴学習452は、反復的な畳み込みと、正規化線形関数を介した活性化と、プーリングと、を備える一方で、分類453は、学習された特徴を既知のラベルに関連付けることを含む。学習された特徴(例えば、エッジ、コーナー)は、手動で選択されるか又は深層学習若しくは同様のアプローチを介してCNNによって決定される。CNNの訓練450の後、CNNのテスト455が精度を確保するために実行される。特徴は、テスト画像456から抽出され(457)、訓練分類器450によって分類される(458)。訓練された分類器の有効性の確認後、CNNは、運転支援システム制御部440の物体認識手段に実装されてもよい。
実施形態では、訓練データベース451は、特徴を抽出して分類器を発展して、限定されないが、車、トラック、スポーツ用多目的車、トラクタートレイラ、及びオードバイを含む様々な車両を識別するために、ラベル付き画像を含む。
実施形態では、訓練データベース451は、特徴を抽出して分類器を発展して、車両のメーカー及びモデルを識別するために、ラベル付き画像を含む。
図5は、本開示の例示的な実施形態の高レベルフローチャートである。実施形態によると、ACCの初期化S516及び目標走行速度の設定の後、前方センサからのデータが取得される。カメラS518、レーダー及びソナーS517を含むこれら入力は、運転支援システム制御部に送信される。運転支援システム制御部内で、距離決定手段S531は、捉えられた画像(すなわち、物体認識)からのデータを、レーダー及びソナーによって決定されたような推定された車間距離と統合する。実施形態では、距離決定手段S531は、レーダー強度及びソナー解像度に従って、レーダー及びソナーからの入力を状況に当てはめて(contextualize)、本車両と先行車両との間の単一の推定された車間距離を決定する。この単一の推定された車間距離は、搭載された車両速度センサによって決定された本車両走行速度S518と共に走行速度制御部S535に供給される。走行速度制御部S535は、次に、理想的な車間距離(すなわち、安全な走行距離)又は目標走行速度(すなわち、本車両速度対目標走行速度)に関する不一致を識別するために、これら入力(例えば、車間距離、本車両走行速度)を評価する。不一致が存在する場合、走行速度調整S542が、目標距離及び/又は目標走行速度に到達しようとしてなされる。走行速度調整は、目標が達成されるまで、走行速度制御部S535のPIDコントローラによってなされ得る。さらに、前方センサ入力から走行速度制御部へのループは、ACCが解除されるまで反復的に進行する。
図6は、本開示の運転支援システム制御部の距離決定手段の実施形態の例示的なフローチャートである。例示的なフローチャートは、ACCの初期化後の反復的なループとみなされるべきである。実施形態によると、車両は、当初、ドライバの手動制御下であり、先行車両を含む車両の速度及び周囲を認識している(S660)。ユーザがACCを作動させると(S661)、車両は、カメラ、レーダー及びソナーを含む前方センサデータ取得を初期化する。最初に、距離決定手段は、ソナー機器の仕様によってある程度定められるように、先行物体又は先行車両がソナーの範囲内(すなわち、所定の閾値より高い)であるか否かを決定する(S662)。そうするために、距離決定手段は、レーダー、カメラ及びソナーを含む車両の前方センサを調べて(S663)、特に、先行車両の位置に関連するデータを取得する。先行車両がソナーの範囲内ではないと決定された場合、距離決定手段は、車間距離を決定するために、レーダー及びカメラデータに戻ることになる(S664)。しかしながら、車両を正確に距離推定するのに十分な解像度で、先行車両がソナーの範囲内であると決定されると、距離決定は、車間距離を正確に決定するためにレーダー反射の質が十分であるか否かを決定することになる(S666)。レーダー反射強度が所定の閾値を下回った場合、上述したように、ソナーが車間距離を決定するために用いられることになる(S667)。しかしながら、実施形態では、レーダー反射が正確であるような強度にあると決定される場合がある。この例では、距離決定は、レーダーデータの信頼度を決定するために、カメラからの物体認識データを考慮することができる(S668)。例えば、レーダー強度が強度に関する所定の閾値より高いにもかかわらず、先行車両が電波ベースのアプローチに関する固有の困難性をもたらすタイプのものである場合がある。フラットベッドトレーラトラックの場合では、レーダーは、先行車両の後面を識別することができる。しかしながら、この後面は先行車両の最も後方の態様ではない場合があり、不正確な距離推定が衝突をもたらす場合がある。それ故、後面の輪郭を描いて先行車両の最も後方の態様を捉えるために、ソナーに従うことが適切である場合がある。レーダーが信頼できない可能性があると決定された場合、距離決定手段は、車間距離を決定する際にソナーに従う(S667)。しかしながら、先行車両がセダンなどのレーダーを介して確実に距離推定される車両であるように識別された例では、距離決定手段によって決定された車間距離は、レーダー、ソナー又はそれらの融合に依存することができる。三つのアプローチのうちのいずれかを介して距離推定した後、決定された車間距離は、走行速度調整において用いられるために、運転支援システム制御部を介して走行速度制御部に送信される(S670)。
図7A、図7B及び図7Cは、例示的な実施形態に係る、先行車両の検出及び測距を例示する。実施形態では、先行車両710は、クーペである。図7Aでは、先行車両710は、ソナー視野712及びレーダー視野711のいずれもの範囲を超えて走行している。しかしながら、先行車両710は、本車両705よりも比較的遅い速度で走行している。本車両705のセンサの範囲内に先行車両がいない場合、本車両705は、現在の走行速度のACC維持を続ける。
実施形態では、本車両715が先行車両に近づくと、図7Bに示されるように、本車両705の前方センサは、先行車両710を検出及び測距し始める。実施形態では、レーダーの視野711内のみに先行車両710がある場合、レーダーは、車間距離を決定するために用いられる。このレーダーベースの値は、次に、走行速度制御部に送信される。
しかしながら、速度の突然な変更が生じた場合又は交通渋滞中、図7Cに示されるように、車間距離は、先行車両710がソナー712及びレーダー711の両方の視野内であるような点に縮小する場合がある。実施形態では、両ソースからのデータは、車間距離を決定する際に考慮される。レーダー反射強度が測距のために十分であると決定された場合、上述したように、レーダー及びソナーのデータの融合が車間距離を走行速度制御部に提供するために用いられることになる。しかしながら、レーダーからのデータがレーダー反射強度に従って不十分であると決定された場合、ソナー712が車間距離の最も正確な決定を提供するために選択される。
図8A、図8B及び図8Cは、本開示の例示的な実施形態に係る、先行車両の検出及び測距中の物体認識を例示する。各図では、本車両805は、ユーザ車両815である。ラベル付き画像のデータベース上で訓練される物体認識のためのCNN又は同様のアプローチを含むアルゴリズム又は同様のプロセスは、それに応じて先行車両を分類する。
実施形態では、図8Aに示されるように、先行車両は、車823である。車823は、レーダー視野811及びソナー視野812の両方の範囲内である。各データソースのメトリクス(Metrics)は、生データが所定の閾値より高いことを示す。先行車は車823であり、車の後面はおおよそ平面であるため、不一致面に関するレーダーの性能限界が取り除かれ、レーダーは信頼可能とみなされる。その結果、ソナー及びレーダーのデータソースは、車間距離を決定するために融合されることができる。
実施形態では、図8Bに示されるように、先行車両は、フラットベッドトレーラトラック821である。フラットベッドトレーラトラック821は、レーダー視野811及びソナー視野812の両方の範囲内である。さらに、各データソースのメトリクスは、生データが所定の閾値より高いことを示す。しかしながら、先行車両の識別に関する技術的限界の観点から、レーダーは信頼性を欠き、車間距離はソナー視野812から専ら決定されるべきである。図8Bに示されるように、先行車両がレーダー視野811内であるが、フラットベッドトレーラトラック821としての先行車両の識別は、中心ベースのアプローチが回収された電波における微妙な差異(nuances)を識別することができないことの原因となることにおいて重大である。フラットベッド822の最も後方の態様は、レーダーから受信した距離推定データにおいて正確に表されていない可能性があり、それ故、反射強度の所定の閾値よりも高いとしても信頼可能ではないかもしれない。
実施形態によると、図8Cに示されるように、先行車両は、オートバイ824である。オートバイ824は、レーダー視野811及びソナー視野812の両方の範囲内である。さらに、各データソースのメトリクスは、生データが所定の閾値より高いことを示す。しかしながら、先行車両の識別に関する技術的限界の観点から、レーダーは信頼性を欠き、車間距離はソナー視野812から専ら決定されるべきである。図8Cに示されるように、先行車両がレーダー視野811内であるが、オートバイ824としての先行車両の識別は、中心ベースのアプローチが回収された電波における微妙な差異を識別することができないことの原因となることにおいて重大である。オートバイ824の後方の態様は、レーダーからの距離推定データにおいて正確に表されていない可能性があり、それ故、ソナーデータのみに従って距離推定することが推奨される。さらに、オートバイが速度の急激な変化が可能であるため、オードバイ824としての先行車両の識別は、安全な車間距離をより良く知らせ、ドライバ及びライダの安全性を確保する。
図9は、本開示の例示的な実施形態に係る、検出、測距及び制御を実行するように構成されたコンピュータのハードウェア記述のブロック図である。実施形態では、ハードウェアは、運転支援システム制御部である。図9では、運転支援システム制御部は、上記/下記のプロセスを実行するCPU985を含む。プロセスデータ及び命令は、メモリ986に記憶されることができる。これらプロセス及び命令は、ハードドライブ(HDD)などの記憶媒体ディスク987若しくは携帯可能記憶媒体に記憶されてもよく、又は遠隔的に記憶されてもよい。さらに、クレームされた進歩は、発明のプロセスの命令が記憶されたコンピュータ可読媒体の形式によって限定されない。例えば、命令は、CD、DVD、FLASHメモリ、RAM、ROM、PROM、EPROM、EEPROM、ハードディスク、又は、運転支援システム制御部が通信する、サーバ若しくはコンピュータなどの任意の他の情報処理デバイス上で記憶されてもよい。
更に、クレームされた進歩は、CPU985、並びにMicrosoft Windows 7(登録商標)、UNIX(登録商標)、Solaris(登録商標)、LINUX(登録商標)、Apple MAC‐OS(登録商標)、及び当業者に公知の他のシステムなどのオペレーティングシステムと協働して実行される、ユーティリティアプリケーション、バックグラウンドデーモン、若しくはオペレーティングシステムのコンポーネント、またはこれらの組み合わせとして提供されてもよい。
運転支援システム制御部を実現するために、ハードウェア要素は、当業者に公知の様々な回路要素によって実現されてもよい。例えば、CPU985は、米国のインテル(登録商標)社からのXenon(登録商標)若しくはCoreプロセッサ、米国のAMD社からのOpteronプロセッサ、または当業者により認識され得る他のプロセッサタイプであってもよい。代替的に、CPU985は、当業者により理解されるように、FPGA、ASIC、PLD上で、または個別的な論理回路を用いて実装されてもよい。更に、CPU900は、協働的に並列に動作して上述の本発明のプロセスの命令を実行する複数のプロセッサとして実装されてもよい。
図9における運転支援システム制御部は、ネットワーク996とインターフェースで接続するための、米国のインテル社からのIntel Ethernet(登録商標) PROネットワークインターフェースカードなどのネットワークコントローラ988も含む。理解され得るように、ネットワーク996は、インターネットなどのパブリックネットワーク、又はLAN若しくはWANネットワークなどの私設ネットワーク、又はそれらの任意の組合せであり得ると共に、PSTN若しくはISDNサブネットワークも含み得る。ネットワーク996はまた、Ethernetネットワークなどの有線式とされ得るか、又はEDGE、3Gおよび4G無線セルラシステムを含むセルラネットワークなどの無線式とされ得る。無線ネットワークはまた、WiFi(登録商標)、Bluetooth(登録商標)、又は公知の通信の任意の他の無線形態であり得る。
運転支援システム制御部は、ヒューレットパッカード(登録商標)社のHPL2445w LCDモニタなどのディスプレイ990とインターフェースで接続するための米国のNVIDIA(登録商標)社からのNVIDIA GeForce GTX又はQuadroグラフィックスアダプタなどのディスプレイコントローラ989をさらに含む。汎用I/Oインターフェース991は、ディスプレイ990上の、又はディスプレイ990とは別個のタッチスクリーンパネル992とインターフェースで接続する。
Creative社からのSound Blaster X‐Fi Titaniumなどのサウンドコントローラ993はまた、スピーカ994とインターフェースで接続することにより音及び/又は音楽を提供するために、運転支援システム制御部に提供される。
汎用記憶コントローラ995は、記憶媒体ディスク987を、運転支援システム制御部の全ての構成要素を相互接続するための、ISA、EISA、VESA、PCI又は同様のものであり得る通信バス997に接続する。ディスプレイ990及びディスプレイコントローラ989、記憶コントローラ995、ネットワークコントローラ988、サウンドコントローラ993、並びに汎用I/Oインターフェース991の一般的な特徴および機能性の説明は、これら特徴が公知であるため、本明細書において簡潔さのために省略される。
明らかに、多くの変更及び変形が上記の教示の観点から可能である。それ故、添付の特許請求の範囲の範囲内で、本発明は本明細書で詳細に記載されたものとは違うもので実施され得ることが理解されるべきである。
従って、上述の議論は、単に、本発明の例示的な実施形態を開示及び記載する。当業者によって理解されるように、本発明は、それらの精神又は本質的な特性から逸脱せずに、他の特定の形式において具現化され得る。従って、本発明の開示は、例示を意図したものであり、本発明の範囲及び他の特許請求の範囲を限定するものではない。本開示は、本明細書の教示の容易に認識可能な変形を含み、発明の主題が公共に捧げられることがないように、上述の特許請求の範囲の用語の範囲を部分的に定義する。
本明細書に開示される発明は以下の態様を含む。
<態様1>
車両と先行物体との間の距離を決定するための方法であって、
第一検知様式を介して、前記車両と前記先行物体との間の前記距離に関連する第一検知パラメータを取得することと、
処理回路を介して、前記第一検知様式を介して取得された前記第一検知パラメータの大きさを決定することと、
第二検知様式を介して、前記車両と前記先行物体との間の前記距離に関連する第二検知パラメータを取得することと、
処理回路を介して、前記第二検知様式を介して取得された前記第二検知パラメータの大きさを決定することと、
所定の閾値に対する前記第一検知パラメータの大きさ及び前記第二検知パラメータの大きさの前記決定に基づいて、前記第一検知パラメータ、前記第二検知パラメータ又はそれらの組み合わせを選択することと、
を含む、方法。
<態様2>
カメラを介して、前記先行物体に関連する画像を取得することと、
前記先行物体に関連する前記画像を分類することと、
前記先行物体に関連する前記画像の前記分類に基づいて、前記第一検知パラメータ、前記第二検知パラメータ又はそれらの組み合わせを選択することと、
をさらに含む、態様1に記載の方法。
<態様3>
前記分類することは、
分類器に基づいて前記画像を分類することをさらに含み、
前記分類器は、データベース上で訓練され、前記データベースは、参照画像のコーパスであって、各参照画像が識別可能な参照物体を含み且つ前記データベースにおいて前記参照物体の対応するテキスト記述に関連付けられる、コーパスと、複数の画像クエリ解像度データ構造であって、各々が記録の集合を含む、複数の画像クエリ解像度データ構造と、を含み、各記録は、前記参照画像のうちの一つの画像記述子を含み、各データ構造は、前記画像記述子に基づいて前記データ構造内の最も一致する記録を識別するために、一組の所定の検索プロセスのうちの対応する一つを用いて検索可能である、態様2に記載の方法。
<態様4>
前記第一検知様式又は前記第二検知様式は、レーダー及びソナーを含む複数の検知様式のうちの一つである、態様1に記載の方法。
<態様5>
前記第一検知パラメータ又は前記第二検知パラメータは、レーダー反射強度及びソナー解像度を含む複数の検知パラメータのうちの一つである、態様1に記載の方法。
<態様6>
前記カメラは、可視光カメラ、赤外線カメラ又はそれらの組み合わせである、態様2に記載の方法。
<態様7>
前記先行物体は、車両である、態様1に記載の方法。
<態様8>
処理回路によって実行されるとき、前記処理回路に、
第一検知様式を介して、前記車両と前記先行物体との間の前記距離に関連する第一検知パラメータを取得することと、
前記第一検知様式を介して取得された前記第一検知パラメータの大きさを決定することと、
第二検知様式を介して、前記車両と前記先行物体との間の前記距離に関連する第二検知パラメータを取得することと、
前記第二検知様式を介して取得された前記第二検知パラメータの大きさを決定することと、
所定の閾値に対する前記第一検知パラメータの大きさ及び前記第二検知パラメータの大きさの前記決定に基づいて、前記第一検知パラメータ、前記第二検知パラメータ又はそれらの組み合わせを選択することと、
を含む方法を実装させる、実行可能なプログラム命令を含む非一時的コンピュータ可読媒体。
<態様9>
前記方法は、
カメラを介して、前記先行物体に関連する画像を取得することと、
前記先行物体に関連する前記画像を分類することと、
前記先行物体に関連する前記画像の前記分類に基づいて、前記第一検知パラメータ、前記第二検知パラメータ又はそれらの組み合わせを選択することと、
をさらに含む、態様8に記載の非一時的コンピュータ可読媒体。
<態様10>
前記分類することは、
分類器に基づいて前記画像を分類することをさらに含み、
前記分類器は、データベース上で訓練され、前記データベースは、参照画像のコーパスであって、各参照画像が識別可能な参照物体を含み且つ前記データベースにおいて前記参照物体の対応するテキスト記述に関連付けられる、コーパスと、複数の画像クエリ解像度データ構造であって、各々が記録の集合を含む、複数の画像クエリ解像度データ構造と、を含み、各記録は、前記参照画像のうちの一つの画像記述子を含み、各データ構造は、前記画像記述子に基づいて前記データ構造内の最も一致する記録を識別するために、一組の所定の検索プロセスのうちの対応する一つを用いて検索可能である、態様9に記載の非一時的コンピュータ可読媒体。
<態様11>
前記第一検知様式又は前記第二検知様式は、レーダー及びソナーを含む複数の検知様式のうちの一つである、態様8に記載の非一時的コンピュータ可読媒体。
<態様12>
前記第一検知パラメータ又は前記第二検知パラメータは、レーダー反射強度及びソナー解像度を含む複数の検知パラメータのうちの一つである、態様8に記載の非一時的コンピュータ可読媒体。
<態様13>
前記カメラは、可視光カメラ、赤外線カメラ又はそれらの組み合わせである、態様9に記載の非一時的コンピュータ可読媒体。
<態様14>
前記先行物体は、車両である、態様8に記載の非一時的コンピュータ可読媒体。
<態様15>
車両と先行物体との間の距離を決定するための装置であって、
第一検知様式を介して、前記車両と前記先行物体との間の前記距離に関連する第一検知パラメータを取得し、
前記第一検知様式を介して取得された前記第一検知パラメータの大きさを決定し、
第二検知様式を介して、前記車両と前記先行物体との間の前記距離に関連する第二検知パラメータを取得し、
前記第二検知様式を介して取得された前記第二検知パラメータの大きさを決定し、
所定の閾値に対する前記第一検知パラメータの大きさ及び前記第二検知パラメータの大きさの前記決定に基づいて、前記第一検知パラメータ、前記第二検知パラメータ又はそれらの組み合わせを選択する、
ように構成される処理回路を含む、装置。
<態様16>
前記処理回路は、
カメラを介して、前記先行物体に関連する画像を取得し、
前記先行物体に関連する前記画像を分類し、
前記先行物体に関連する前記画像の前記分類に基づいて、前記第一検知パラメータ、前記第二検知パラメータ又はそれらの組み合わせを選択する、
ようにさらに構成される、態様15に記載の装置。
<態様17>
前記処理回路は、
分類器に基づいて前記画像を分類するようにさらに構成され、
前記分類器は、データベース上で訓練され、前記データベースは、参照画像のコーパスであって、各参照画像が識別可能な参照物体を含み且つ前記データベースにおいて前記参照物体の対応するテキスト記述に関連付けられる、コーパスと、複数の画像クエリ解像度データ構造であって、各々が記録の集合を含む、複数の画像クエリ解像度データ構造と、を含み、各記録は、前記参照画像のうちの一つの画像記述子を含み、各データ構造は、前記画像記述子に基づいて前記データ構造内の最も一致する記録を識別するために、所定の検索プロセスの集合のうちの対応する一つを用いて検索可能である、態様16に記載の装置。
<態様18>
前記第一検知様式又は前記第二検知様式は、レーダー及びソナーを含む複数の検知様式のうちの一つである、態様15に記載の装置。
<態様19>
前記第一検知パラメータ又は前記第二検知パラメータは、レーダー反射強度及びソナー解像度を含む複数の検知パラメータのうちの一つである、態様15に記載の装置。
<態様20>
前記カメラは、可視光カメラ、赤外線カメラ又はそれらの組み合わせである、態様16に記載の装置。

Claims (18)

  1. 車両と先行物体との間の距離を決定するための方法であって、
    第一検知様式から第一検知データを、第二検知様式から第二検知データを受信することであって、前記第一検知データ及び前記第二検知データは前記車両と前記先行物体との間の距離に関する、ことと、
    少なくとも一つの撮影装置から前記先行物体に関する画像を受信することと、
    処理回路によって前記第一検知データの値を前記第一検知様式に関連する予め定められた閾値と比較することと、
    前記処理回路によって、前記第二検知データの値を前記第二検知様式に関連する予め定められた閾値と比較することと、
    前記処理回路によって、前記先行物体に関する前記画像を分類することと、
    前記処理回路によって、前記第一検知データの値と前記第一検知様式に関連する前記予め定められた閾値との比較及び前記第二検知データの値と前記第二検知様式に関連する前記予め定められた閾値との比較が前記第一検知データの値及び前記第二検知データの値がそれぞれの前記予め定められた閾値を超えていることを示しているときに、前記先行物体に関する前記分類された画像に基づいて、距離推定様式として前記第一検知様式、前記第二検知様式又は前記第一検知様式及び前記第二検知様式の融合を選択することと、
    前記処理回路によって、前記選択された前記距離推定様式の距離値に基づいて、前記車両と前記先行物体との間の距離を決定することと、
    を含み、
    前記分類された画像の前記先行物体の分類は前記第一検知様式の信頼度を示す、方法。
  2. 前記分類することは、先行物体の参照画像のデータベース上で訓練された分類器に基づいて前記先行物体に関する前記画像を分類することを更に含み、
    先行物体の参照画像の前記データベース内の各参照画像の特徴はラベル付けされ、前記分類器は、先行物体の参照画像の前記データベース内の各参照画像の特徴に関連するラベルに従って、先行物体の参照画像の前記データベース内の各参照画像を分類するように訓練される、請求項1に記載の方法。
  3. 前記第一検知様式又は前記第二検知様式の一方はソナーであり前記第一検知様式又は前記第二検知様式の他方はレーダーである、請求項1に記載の方法。
  4. 前記第一検知データ又は前記第二検知データの一方はレーダー反射強度であり、前記第一検知データ又は前記第二検知データの他方はソナー解像度である、請求項1に記載の方法。
  5. 前記少なくとも一つの撮影装置は、可視光カメラ、又は赤外線カメラである、請求項1に記載の方法。
  6. 処理回路によって実行されるとき、前記処理回路に車両と先行物体との間の距離を決定するための方法を実行させる、実行可能なプログラム命令を含む非一時的なコンピュータ可読媒体であって、前記方法は、
    第一検知様式から第一検知データを、第二検知様式から第二検知データを受信することであって、前記第一検知データ及び前記第二検知データは前記車両と前記先行物体との間の距離に関する、ことと、
    少なくとも一つの撮影装置から前記先行物体に関する画像を受信することと、
    前記第一検知データの値を前記第一検知様式に関連する予め定められた閾値と比較することと、
    前記第二検知データの値を前記第二検知様式に関連する予め定められた閾値と比較することと、
    前記先行物体に関する前記画像を分類することと、
    前記第一検知データの値と前記第一検知様式に関連する前記予め定められた閾値との比較及び前記第二検知データの値と前記第二検知様式に関連する前記予め定められた閾値との比較が前記第一検知データの値及び前記第二検知データの値がそれぞれの前記予め定められた閾値を超えていることを示しているときに、前記先行物体に関連する前記分類された画像に基づいて距離推定様式として前記第一検知様式、前記第二検知様式又は前記第一検知様式及び前記第二検知様式の融合を選択することと、
    前記処理回路によって、前記選択された前記距離推定様式の距離値に基づいて、前記車両と前記先行物体との間の距離を決定することと、
    を含み、
    前記分類された画像の前記先行物体の分類は前記第一検知様式の信頼度を示す、非一時的コンピュータ可読媒体。
  7. 前記分類することは、先行物体の参照画像のデータベース上で訓練された分類器に基づいて前記先行物体に関する前記画像を分類することを更に含み、
    先行物体の参照画像の前記データベース内の各参照画像の特徴はラベル付けされ、前記分類器は、先行物体の参照画像の前記データベース内の各参照画像の特徴に関連するラベルに従って、先行物体の参照画像の前記データベース内の各参照画像を分類するように訓練される、請求項6に記載の非一時的コンピュータ可読媒体。
  8. 前記第一検知様式又は前記第二検知様式の一方はソナーであり、前記第一検知様式又は前記第二検知様式の他方はレーダーである、請求項6に記載の非一時的コンピュータ可読媒体。
  9. 前記第一検知データ又は前記第二検知データの一方はレーダー反射強度であり、前記第一検知データ又は前記第二検知データの他方はソナー解像度である、請求項6に記載の非一時的コンピュータ可読媒体。
  10. 前記少なくとも一つの撮影装置は、可視光カメラ、又は赤外線カメラである、請求項6に記載の非一時的コンピュータ可読媒体。
  11. 車両と先行物体との間の距離を決定するための装置であって、
    処理回路であって、
    第一検知様式から第一検知データを、第二検知様式から第二検知データを受信し、前記第一検知データ及び前記第二検知データは前記車両と前記先行物体との間の距離に関するものであり、
    少なくとも一つの撮影装置から前記先行物体に関する画像を受信し、
    前記第一検知データの値を前記第一検知様式に関連する予め定められた閾値と比較し、
    前記第二検知データの値を前記第二検知様式に関連する予め定められた閾値と比較し、
    前記先行物体に関する前記画像を分類し、
    前記第一検知データの値と前記第一検知様式に関連する前記予め定められた閾値との比較及び前記第二検知データの値と前記第二検知様式に関連する前記予め定められた閾値との比較が前記第一検知データの値及び前記第二検知データの値がそれぞれの前記予め定められた閾値を超えていることを示しているときに、前記先行物体に関連する前記分類された画像に基づいて距離推定様式として前記第一検知様式、前記第二検知様式又は前記第一検知様式及び前記第二検知様式の融合を選択し、
    前記選択された前記距離推定様式の距離値に基づいて、前記車両と前記先行物体との間の距離を決定する、
    ように構成される処理回路を含み、
    前記分類された画像の前記先行物体の分類は前記第一検知様式の信頼度を示す、装置。
  12. 前記処理回路は、先行物体の参照画像のデータベース上で訓練された分類器に基づいて前記先行物体に関する前記画像を分類するように更に構成され、
    先行物体の参照画像の前記データベース内の各参照画像の特徴はラベル付けされ、前記分類器は、先行物体の参照画像の前記データベース内の各参照画像の特徴に関連するラベルに従って、先行物体の参照画像の前記データベース内の各参照画像を分類するように訓練される、請求項11に記載の装置。
  13. 前記第一検知様式又は前記第二検知様式の一方はソナーであり、前記第一検知様式又は前記第二検知様式の他方はレーダーである、請求項11に記載の装置。
  14. 前記第一検知データ又は前記第二検知データの一方はレーダー反射強度であり、前記第一検知データ又は前記第二検知データの他方はソナー解像度である、請求項11に記載の装置。
  15. 前記少なくとも一つの撮影装置は、可視光カメラ、又は赤外線カメラである、請求項11に記載の装置。
  16. 前記分類された画像の分類は前記第一検知様式から受信した前記第一検知データの信頼度を示す、請求項1に記載の方法。
  17. 前記分類された画像の分類は前記第一検知様式から受信した前記第一検知データの信頼度を示す、請求項6に記載の非一時的コンピュータ可読媒体。
  18. 前記分類された画像の分類は前記第一検知様式から受信した前記第一検知データの信頼度を示す、請求項11に記載の装置。
JP2019014442A 2018-01-30 2019-01-30 先行物体の検出及び測距のための前方車両センサデータの融合 Active JP7242316B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/883,607 2018-01-30
US15/883,607 US11091162B2 (en) 2018-01-30 2018-01-30 Fusion of front vehicle sensor data for detection and ranging of preceding objects

Publications (2)

Publication Number Publication Date
JP2019164124A JP2019164124A (ja) 2019-09-26
JP7242316B2 true JP7242316B2 (ja) 2023-03-20

Family

ID=67224483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019014442A Active JP7242316B2 (ja) 2018-01-30 2019-01-30 先行物体の検出及び測距のための前方車両センサデータの融合

Country Status (4)

Country Link
US (1) US11091162B2 (ja)
JP (1) JP7242316B2 (ja)
CN (1) CN110103958B (ja)
DE (1) DE102019102216A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10955540B2 (en) 2017-12-01 2021-03-23 Aptiv Technologies Limited Detection system
US20190337511A1 (en) * 2018-05-02 2019-11-07 GM Global Technology Operations LLC System and Method for Controlling an Autonomous Vehicle
JP6700359B2 (ja) * 2018-09-26 2020-05-27 株式会社Subaru 車両制御装置
US10838054B2 (en) * 2018-10-08 2020-11-17 Aptiv Technologies Limited Detection system and method
US10817732B2 (en) * 2018-12-20 2020-10-27 Trimble Inc. Automated assessment of collision risk based on computer vision
IL270540A (en) * 2018-12-26 2020-06-30 Yandex Taxi Llc Method and system for training a machine learning algorithm to recognize objects from a distance
JP7111088B2 (ja) * 2019-01-24 2022-08-02 カシオ計算機株式会社 画像検索装置、学習方法及びプログラム
US11092668B2 (en) 2019-02-07 2021-08-17 Aptiv Technologies Limited Trailer detection system and method
US11572079B2 (en) * 2019-04-25 2023-02-07 WeRide Corp. Apparatus and method for controlling velocity of autonomous driving vehicle, and storage medium
CA3168740C (en) * 2020-02-21 2023-08-01 Joel Pazhayampallil Method for object avoidance during autonomous navigation
US11408995B2 (en) 2020-02-24 2022-08-09 Aptiv Technologies Limited Lateral-bin monitoring for radar target detection
KR102323483B1 (ko) * 2020-04-13 2021-11-10 주식회사 만도모빌리티솔루션즈 스마트 순항 제어 시스템 및 그 제어 방법
US20220172080A1 (en) * 2020-12-02 2022-06-02 International Business Machines Corporation Learning unpaired multimodal feature matching for semi-supervised learning
US12110024B2 (en) * 2020-12-29 2024-10-08 GM Global Technology Operations LLC Consideration of acceleration lag in lead vehicle to enhance host vehicle operation
CN113740843B (zh) * 2021-09-07 2024-05-07 中国兵器装备集团自动化研究所有限公司 一种跟踪目标的运动状态估计方法、系统及电子装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004053278A (ja) 2002-07-16 2004-02-19 Nissan Motor Co Ltd 前方車両追跡システムおよび前方車両追跡方法
JP2007255979A (ja) 2006-03-22 2007-10-04 Nissan Motor Co Ltd 物体検出方法および物体検出装置
JP2009186260A (ja) 2008-02-05 2009-08-20 Nissan Motor Co Ltd 物体検出装置及び測距方法
JP2013057584A (ja) 2011-09-08 2013-03-28 Mitsubishi Electric Corp 物体検出装置
JP2016008922A (ja) 2014-06-25 2016-01-18 株式会社東芝 センサ情報融合装置
US20180022347A1 (en) 2016-07-20 2018-01-25 Ford Global Technologies, Llc Rear camera stub detection

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5335164A (en) 1991-07-31 1994-08-02 Universal Dynamics Limited Method and apparatus for adaptive control
JP2900737B2 (ja) * 1993-02-01 1999-06-02 トヨタ自動車株式会社 車間距離検出装置
US7426437B2 (en) * 1997-10-22 2008-09-16 Intelligent Technologies International, Inc. Accident avoidance systems and methods
US7457699B2 (en) 2004-01-21 2008-11-25 Delphi Technologies, Inc. Technique for detecting truck trailer for stop and go adaptive cruise control
US7747070B2 (en) 2005-08-31 2010-06-29 Microsoft Corporation Training convolutional neural networks on graphics processing units
JP4211809B2 (ja) * 2006-06-30 2009-01-21 トヨタ自動車株式会社 物体検出装置
US20090254260A1 (en) * 2008-04-07 2009-10-08 Axel Nix Full speed range adaptive cruise control system
US20100100324A1 (en) * 2008-10-22 2010-04-22 Toyota Motor Engineering & Manufacturing North America, Inc. Communication based vehicle-pedestrian collision warning system
US8666546B2 (en) 2009-07-10 2014-03-04 The Boeing Company Autonomous robotic platform
US9472097B2 (en) * 2010-11-15 2016-10-18 Image Sensing Systems, Inc. Roadway sensing systems
TWI468647B (zh) 2011-10-13 2015-01-11 Altek Autotronics Corp 障礙物偵測系統及其障礙物偵測方法
JP5977047B2 (ja) 2012-02-29 2016-08-24 株式会社日本自動車部品総合研究所 車両走行制御装置
KR20140030749A (ko) * 2012-09-03 2014-03-12 현대모비스 주식회사 램프 이미지를 이용한 차간 거리 검출 장치 및 차간 거리 검출 방법
KR101491849B1 (ko) * 2013-07-23 2015-02-06 현대오트론 주식회사 차간 거리용 센서 고장 보상 시스템 및 방법
KR102192252B1 (ko) * 2014-03-05 2020-12-17 현대모비스 주식회사 센서를 이용한 차량 인식 시스템 및 그 방법
JP6137001B2 (ja) 2014-03-14 2017-05-31 株式会社デンソー 車載装置
JP6183257B2 (ja) 2014-03-19 2017-08-23 トヨタ自動車株式会社 車両運動状態決定装置及び車両運動制御装置
US9460625B2 (en) 2014-04-08 2016-10-04 Denso International America, Inc. Proxy DSRC basic safety message for unequipped vehicles
CN110171405B (zh) * 2014-05-22 2021-07-13 御眼视觉技术有限公司 基于检测对象制动车辆的系统和方法
JP6285303B2 (ja) * 2014-07-11 2018-02-28 株式会社デンソー 車両制御装置
JP6290737B2 (ja) * 2014-07-11 2018-03-07 株式会社デンソー 車両制御装置
KR101843773B1 (ko) * 2015-06-30 2018-05-14 엘지전자 주식회사 차량 운전 보조 장치, 차량용 디스플레이 장치 및 차량
US9910441B2 (en) * 2015-11-04 2018-03-06 Zoox, Inc. Adaptive autonomous vehicle planner logic
US20190227553A1 (en) * 2015-11-04 2019-07-25 Zoox, Inc. Interactive autonomous vehicle command controller
US9754490B2 (en) * 2015-11-04 2017-09-05 Zoox, Inc. Software application to request and control an autonomous vehicle service
US11328155B2 (en) * 2015-11-13 2022-05-10 FLIR Belgium BVBA Augmented reality labels systems and methods
WO2017175025A2 (en) * 2015-12-01 2017-10-12 Yakov Shambik Detecting visual information corresponding to an animal
US10373019B2 (en) * 2016-01-13 2019-08-06 Ford Global Technologies, Llc Low- and high-fidelity classifiers applied to road-scene images
US10365359B2 (en) * 2016-05-06 2019-07-30 Raytheon Company Ambiguous radar range resolution using range lookup table
US20170359561A1 (en) * 2016-06-08 2017-12-14 Uber Technologies, Inc. Disparity mapping for an autonomous vehicle
MX2019001893A (es) * 2016-08-22 2019-07-01 Sony Corp Aparato de asistente de conduccion, metodo de asistente de conduccion, objeto en movimiento, y programa.
JP6940612B2 (ja) * 2016-09-14 2021-09-29 ナウト, インコーポレイテッドNauto, Inc. ニアクラッシュ判定システムおよび方法
US10386792B2 (en) * 2016-10-19 2019-08-20 Ants Technology (Hk) Limited Sensory systems for autonomous devices
KR20180068578A (ko) * 2016-12-14 2018-06-22 삼성전자주식회사 복수의 센서를 이용하여 객체를 인식하는 전자 기기 및 방법
US10445928B2 (en) * 2017-02-11 2019-10-15 Vayavision Ltd. Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
US10202126B2 (en) * 2017-03-07 2019-02-12 Uber Technologies, Inc. Teleassistance data encoding for self-driving vehicles
US11899669B2 (en) * 2017-03-20 2024-02-13 Carnegie Mellon University Searching of data structures in pre-processing data for a machine learning classifier
US10710592B2 (en) * 2017-04-07 2020-07-14 Tusimple, Inc. System and method for path planning of autonomous vehicles based on gradient
US10705525B2 (en) * 2017-04-07 2020-07-07 Nvidia Corporation Performing autonomous path navigation using deep neural networks
US20180300620A1 (en) * 2017-04-12 2018-10-18 Ford Global Technologies, Llc Foliage Detection Training Systems And Methods
WO2018201097A2 (en) * 2017-04-28 2018-11-01 FLIR Belgium BVBA Video and image chart fusion systems and methods
US20180314253A1 (en) * 2017-05-01 2018-11-01 Mentor Graphics Development (Deutschland) Gmbh Embedded automotive perception with machine learning classification of sensor data
WO2018229549A2 (en) * 2017-06-16 2018-12-20 Nauto Global Limited System and method for digital environment reconstruction
US10691962B2 (en) * 2017-09-22 2020-06-23 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for rear signal identification using machine learning
US10445597B2 (en) * 2017-10-17 2019-10-15 Toyota Research Institute, Inc. Systems and methods for identification of objects using audio and sensor data
US10628671B2 (en) * 2017-11-01 2020-04-21 Here Global B.V. Road modeling from overhead imagery
CN111587407B (zh) * 2017-11-10 2024-01-23 辉达公司 用于安全且可靠的自主车辆的系统和方法
US20180074506A1 (en) * 2017-11-21 2018-03-15 GM Global Technology Operations LLC Systems and methods for mapping roadway-interfering objects in autonomous vehicles
US10535138B2 (en) * 2017-11-21 2020-01-14 Zoox, Inc. Sensor data segmentation
US10466707B2 (en) * 2017-12-22 2019-11-05 X Development Llc Planning robot stopping points to avoid collisions
US10558897B2 (en) * 2017-12-27 2020-02-11 Intel Corporation Context-based digital signal processing
US10745005B2 (en) * 2018-01-24 2020-08-18 Ford Global Technologies, Llc Inter-vehicle cooperation for vehicle self height estimation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004053278A (ja) 2002-07-16 2004-02-19 Nissan Motor Co Ltd 前方車両追跡システムおよび前方車両追跡方法
JP2007255979A (ja) 2006-03-22 2007-10-04 Nissan Motor Co Ltd 物体検出方法および物体検出装置
JP2009186260A (ja) 2008-02-05 2009-08-20 Nissan Motor Co Ltd 物体検出装置及び測距方法
JP2013057584A (ja) 2011-09-08 2013-03-28 Mitsubishi Electric Corp 物体検出装置
JP2016008922A (ja) 2014-06-25 2016-01-18 株式会社東芝 センサ情報融合装置
US20180022347A1 (en) 2016-07-20 2018-01-25 Ford Global Technologies, Llc Rear camera stub detection

Also Published As

Publication number Publication date
CN110103958B (zh) 2022-09-09
US20190232964A1 (en) 2019-08-01
US11091162B2 (en) 2021-08-17
JP2019164124A (ja) 2019-09-26
CN110103958A (zh) 2019-08-09
DE102019102216A1 (de) 2019-08-01

Similar Documents

Publication Publication Date Title
JP7242316B2 (ja) 先行物体の検出及び測距のための前方車両センサデータの融合
CN108263279B (zh) 基于传感器整合的行人检测和行人碰撞避免装置及方法
EP3172589B1 (en) Method for mitigating radar sensor limitations with video camera input for active braking for pedestrians
US9457809B2 (en) Collision possibility determination apparatus, drive assist apparatus, collision possibility determination method, and collision possibility determination program
JP6690517B2 (ja) 運転支援装置、及び運転支援方法
US10836388B2 (en) Vehicle control method and apparatus
US9738280B2 (en) Adaptive cruise control with on-ramp detection
JP6407431B2 (ja) 後方から急接近中の車両を示す出力、又は、後方から極度に急接近中の車両を示す出力に応答して、ホスト車両の運転者に警告を与える、又は、ホスト車両を自律制御するためのレーンアシストシステム及び方法
JP4428277B2 (ja) 物体検出装置
US10661803B2 (en) Vehicle travel control method and travel control device
US20140297170A1 (en) Driving support system
US20100191391A1 (en) multiobject fusion module for collision preparation system
US10839232B2 (en) Vehicle control method and apparatus
KR102054926B1 (ko) Free Space 신호 기반 근거리 컷인 차량 검출 시스템 및 방법
JP7413935B2 (ja) 車載センサシステム
US20180144633A1 (en) Vehicle control method and apparatus
KR102139590B1 (ko) 교차로에서의 차량 자동 긴급 제동 시스템 및 방법
US10183676B2 (en) System for use in a vehicle
JP2012089114A (ja) 障害物認識装置
US11433888B2 (en) Driving support system
US9939523B2 (en) Vehicle type radar system, and method for removing an uninterested target
US11420624B2 (en) Vehicle control apparatus and vehicle control method
JP4670449B2 (ja) 物体検出装置
JP2006047033A (ja) 物体認識方法及び物体認識装置
KR102723258B1 (ko) 운전자 보조 시스템 및 그의 동작 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230308

R150 Certificate of patent or registration of utility model

Ref document number: 7242316

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350