JP2019164124A - Fusion of front vehicle sensor data for detection and ranging of preceding objects - Google Patents

Fusion of front vehicle sensor data for detection and ranging of preceding objects Download PDF

Info

Publication number
JP2019164124A
JP2019164124A JP2019014442A JP2019014442A JP2019164124A JP 2019164124 A JP2019164124 A JP 2019164124A JP 2019014442 A JP2019014442 A JP 2019014442A JP 2019014442 A JP2019014442 A JP 2019014442A JP 2019164124 A JP2019164124 A JP 2019164124A
Authority
JP
Japan
Prior art keywords
detection
vehicle
detection parameter
distance
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019014442A
Other languages
Japanese (ja)
Other versions
JP7242316B2 (en
Inventor
ビー.リンドホルム トレントン
B Lindholm Trenton
ビー.リンドホルム トレントン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Engineering and Manufacturing North America Inc
Original Assignee
Toyota Motor Engineering and Manufacturing North America Inc
Toyota Engineering and Manufacturing North America Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Engineering and Manufacturing North America Inc, Toyota Engineering and Manufacturing North America Inc filed Critical Toyota Motor Engineering and Manufacturing North America Inc
Publication of JP2019164124A publication Critical patent/JP2019164124A/en
Application granted granted Critical
Publication of JP7242316B2 publication Critical patent/JP7242316B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • B60W30/162Speed limiting therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/93185Controlling the brakes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9319Controlling the accelerator
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Abstract

To provide a method for determining the inter-vehicle distance during adaptive cruise control, which improves detection of vehicles with inconsistent rear planes (i.e., construction materials projecting from a truck bed or truck trailers at a distance above tires).SOLUTION: The method comprises: acquiring, via a camera, an image related to a preceding object; classifying the image related to the preceding object; and selecting the first sensed parameter, the second sensed parameter or a combination thereof on the basis of the classification of the image related to the preceding object.SELECTED DRAWING: Figure 2

Description

アダプティブクルーズコントロール(ACC:Adaptive cruise control)システムは、先行物体のサイズ、速度及び距離を検出する前方センサを利用することによりドライバの安全性及び信頼性を向上する。ドライバが長手方向の制御のためにACCを利用することを選択する例では、ACCは、安全な車両間運転距離を維持するために、車両の速度を変更するコマンドを生成する。Chiaによる「停止と進行を繰り返すアダプティブクルーズコントロールに関してトラックトレーラを検出するための技術(Technique for detecting truck trailer for stop and go adaptive cruise control)」を発明の名称とする米国特許第7,457,699号は、不正確に予測される虞がある近距離トラックトレーラの検出に対するレーダーベースのアプローチを対象とする。このアプローチは、一貫性がない後面(すなわち、タイヤの上に距離をおいて、トラックの荷台、トラックトレーラから突き出た建築資材)を有する車両の検出を改善することを目的とする一方で、レーダーは近距離の状況では準最適なままであり、従って、先行物体を検出するための新しいアプローチが必要である。   The adaptive cruise control (ACC) system improves driver safety and reliability by utilizing a forward sensor that detects the size, speed and distance of the preceding object. In the example where the driver chooses to use ACC for longitudinal control, the ACC generates a command to change the vehicle speed in order to maintain a safe inter-vehicle driving distance. US Pat. No. 7,457,699, whose title is “Technique for detecting truck trailer for stop and go adaptive cruise control” for adaptive cruise control that repeatedly stops and progresses, is inaccurate. Targeted at a radar-based approach to the detection of near-distance track trailers that may be predicted. While this approach aims to improve the detection of vehicles with inconsistent rear surfaces (ie building materials protruding from truck bed, truck trailer at a distance above the tire), radar Remains sub-optimal in short distance situations, and therefore a new approach is needed to detect preceding objects.

上述の「背景技術」の説明は、本開示の内容を概略的に表すためのものである。発明者らの仕事は、この背景技術の欄に記載されている限りにおいて、そうでなければ出願時に従来技術として適さない説明の態様と同様に、本発明に対する従来技術として明示的にも暗示的にも認められない。   The above description of “background art” is intended to schematically represent the contents of the present disclosure. The inventor's work is expressly and implicitly as prior art to the present invention, as long as it is described in this background art section, as well as embodiments of the description that would otherwise not be suitable as prior art at the time of filing. Also not allowed.

本開示は、車両と先行物体との間の距離を決定するように構成された方法、装置及びコンピュータ可読媒体であって、第一検知様式を介して、前記車両と前記先行物体との間の前記距離に関連する第一検知パラメータを取得することと、処理回路を介して、前記第一検知様式を介して取得された前記第一検知パラメータの大きさを決定することと、第二検知様式を介して、前記車両と前記先行物体との間の前記距離に関連する第二検知パラメータを取得することと、処理回路を介して、前記第二検知様式を介して取得された前記第二検知パラメータの大きさを決定することと、前記車両と前記先行物体との間の前記距離を決定するために、所定の閾値に対する前記第一検知パラメータの大きさ及び前記第二検知パラメータの大きさの前記決定に基づいて、前記第一検知パラメータ、前記第二検知パラメータ又はそれらの組み合わせを選択することと、を含む、方法、装置及びコンピュータ可読媒体に関する。   The present disclosure is a method, apparatus, and computer-readable medium configured to determine a distance between a vehicle and a preceding object, wherein the vehicle and the preceding object are located via a first sensing modality. Obtaining a first detection parameter associated with the distance; determining a magnitude of the first detection parameter obtained via the first detection manner via a processing circuit; and a second detection manner. Acquiring a second detection parameter related to the distance between the vehicle and the preceding object via the second detection mode and acquiring the second detection parameter via the processing circuit and the second detection mode. In order to determine the magnitude of the parameter and to determine the distance between the vehicle and the preceding object, the magnitude of the first sensing parameter and the magnitude of the second sensing parameter relative to a predetermined threshold Said decision Based on the first detection parameter, it said comprising selecting a second sensed parameter, or combination thereof, to a method, an apparatus and a computer-readable medium.

実施形態によると、本開示は、カメラを介して、前記先行物体に関連する画像を取得することと、前記先行物体に関連する前記画像を分類することと、前記先行物体に関連する前記画像の前記分類に基づいて、前記第一検知パラメータ、前記第二検知パラメータ又はそれらの組み合わせを選択することと、にさらに関する。   According to an embodiment, the present disclosure obtains, via a camera, an image associated with the preceding object, classifying the image associated with the preceding object, and of the image associated with the preceding object. And further selecting the first detection parameter, the second detection parameter, or a combination thereof based on the classification.

上述の段落は、概略的な序論の目的で提供されており、以下の特許請求の範囲を限定することを意図したものではない。記載される実施形態が、更なる利点と共に、添付の図面と関連して以下の詳細な説明を参照することによって最もよく理解されるであろう。   The above paragraphs are provided for purposes of general introduction and are not intended to limit the scope of the following claims. The described embodiments, together with further advantages, will be best understood by referring to the following detailed description in conjunction with the accompanying drawings.

図1は、本開示の例示的な実施形態に係る、先行車両に対するユーザ車両を例示する図である。FIG. 1 is a diagram illustrating a user vehicle relative to a preceding vehicle, according to an exemplary embodiment of the present disclosure. 図2は、運転支援システム制御部及び走行速度制御部を含む、本開示のアダプティブクルーズコントロールシステムの高レベルフローチャートである。FIG. 2 is a high-level flowchart of the adaptive cruise control system of the present disclosure including a driving support system control unit and a travel speed control unit. 図3は、本開示の例示的な実施形態に係る、走行速度制御部のブロック図である。FIG. 3 is a block diagram of a traveling speed control unit according to an exemplary embodiment of the present disclosure. 図4は、本開示の例示的な実施形態に係る、先行車両の識別を例示する図である。FIG. 4 is a diagram illustrating identification of a preceding vehicle, according to an exemplary embodiment of the present disclosure. 図5は、本開示の例示的な実施形態の高レベルフローチャートである。FIG. 5 is a high-level flowchart of an exemplary embodiment of the present disclosure. 図6は、本開示の例示的な実施形態に係る、検出及び測距のフローチャートである。FIG. 6 is a flowchart of detection and ranging according to an exemplary embodiment of the present disclosure. 図7Aは、本開示の例示的な実施形態に係る、検出及び測距を例示する図である。FIG. 7A is a diagram illustrating detection and ranging according to an exemplary embodiment of the present disclosure. 図7Bは、本開示の例示的な実施形態に係る、検出及び測距を例示する図である。FIG. 7B is a diagram illustrating detection and ranging according to an exemplary embodiment of the present disclosure. 図7Cは、本開示の例示的な実施形態に係る、検出及び測距を例示する図である。FIG. 7C is a diagram illustrating detection and ranging according to an exemplary embodiment of the present disclosure. 図8Aは、本開示の例示的な実施形態に係る、検出及び測距中の物体認識を例示する図である。FIG. 8A is a diagram illustrating object recognition during detection and ranging, according to an exemplary embodiment of the present disclosure. 図8Bは、本開示の例示的な実施形態に係る、検出及び測距中の物体認識を例示する図である。FIG. 8B is a diagram illustrating object recognition during detection and ranging according to an exemplary embodiment of the present disclosure. 図8Cは、本開示の例示的な実施形態に係る、検出及び測距中の物体認識を例示する図である。FIG. 8C is a diagram illustrating object recognition during detection and ranging, according to an exemplary embodiment of the present disclosure. 図9は、本開示の例示的な実施形態に係る、検出、測距及び制御を実行するように構成されたコンピュータのハードウェア記述のブロック図である。FIG. 9 is a block diagram of a hardware description of a computer configured to perform detection, ranging and control, according to an exemplary embodiment of the present disclosure.

本開示のより完全な理解及び多くのその付随的な利点は、添付の図面と関連して考慮されるときに以下の詳細な説明を参照することによってより良く理解されるため、容易に得られるであろう。   A more complete understanding of the present disclosure and many of its attendant advantages will be readily obtained as the same becomes better understood by reference to the following detailed description when considered in conjunction with the accompanying drawings. Will.

本明細書において用いられるように、用語「一つの(「a」又は「an」)」は一つ又は一つよりも多いものとして定義される。本明細書において用いられるように、用語「複数の(plurality)」は二つ又は二つよりも多いものとして定義される。本明細書において用いられるように、用語「別の(another)」は少なくとも第二の又はそれ以上のものとして定義される。本明細書において用いられるように、用語「含む(including)」及び/又は「有する(having)」は備える(すなわちオープンな言語)として定義される。「一実施形態(one embodiment)」、「ある実施形態(certain embodiments)」、「実施形態(an embodiment)」、「実装形態(an implementation)」、「例(an example)」又は同様の用語に対する本文書全体にわたる参照は、実施形態に関連して記載される特定の特徴、構造又は特性が本開示の少なくとも一つの実施形態に含まれることを意味する。従って、そのようなフレーズの出現又は本明細書全体にわたる様々な場所における出現は、必ずしも全て同じ実施形態に対して言及しているものとは限らない。さらに、特定の特徴、構造又は特性は、制限なしに一つ又は複数の実施形態における任意の適切な手法において組み合わせられることができる。   As used herein, the term “a” (“a” or “an”) is defined as one or more than one. As used herein, the term “plurality” is defined as two or more than two. As used herein, the term “another” is defined as at least a second or more. As used herein, the terms “including” and / or “having” are defined as comprising (ie, an open language). For "one embodiment", "certain embodiments", "an embodiment", "an implementation", "an example" or similar terms Reference throughout this document means that a particular feature, structure, or characteristic described in connection with the embodiment is included in at least one embodiment of the present disclosure. Thus, the appearance of such phrases or appearances at various locations throughout this specification are not necessarily all referring to the same embodiment. Furthermore, the particular features, structures, or characteristics may be combined in any suitable manner in one or more embodiments without limitation.

アダプティブクルーズコントロール(ACC)は、乗客の安全性を改善するために、現代の車両において広く展開される。これをするために、ACCは、ユーザの車両と先行車両との間の距離を能動的に測定し、他の入力に加えて、この距離情報をユーザ車両の既知の速度情報と統合し、所定の車間距離を維持するために又は目標速度に到達するために、ユーザ車両の速度を調整する必要があるかどうかを決定する。距離推定(distancing)は、理想的な状況(例えば、距離が離れた高速道路走行)において車両の距離を決定するための高効率システムであるレーダーを介して実行されることが多い。しかしながら、交通渋滞では、又は先行車両がその車両の後面から延びる厄介な荷物を運搬するとき、レーダーベースの情報の正確性が低下する可能性があり、車両速度を適切に制御するための及び衝突を回避するためのACCの能力に影響を与える。   Adaptive cruise control (ACC) is widely deployed in modern vehicles to improve passenger safety. To do this, the ACC actively measures the distance between the user's vehicle and the preceding vehicle and, in addition to other inputs, integrates this distance information with the known speed information of the user vehicle, It is determined whether the speed of the user vehicle needs to be adjusted in order to maintain the following inter-vehicle distance or to reach the target speed. Distance estimation is often performed via a radar, which is a highly efficient system for determining the distance of a vehicle in an ideal situation (eg, highway travel at a distance). However, in traffic jams or when the preceding vehicle carries a nuisance load that extends from the rear of the vehicle, the accuracy of the radar-based information may be reduced, and to control the vehicle speed properly and for collisions Affects ACC's ability to avoid.

この欠点は、車両において展開されるレーダーベースのシステムの技術的基礎の結果である。レーダー送信機は、狭い円錐形の電波を放出し、この電波は物体と接触し且つ様々な方向に反射又は散乱される。その波の一部が既知の時間及び周波数間隔で反射されて受信機で受信されるとき、先行物体に対する距離が決定され得る。しかしながら、様々な信号から一つの距離を決定するために、先行物体からの最も高い反射率の中心(centroid)が選択される。この中心は、先行車両の後方の全体像(perspective)の大部分を網羅する場合があるが、先行車両のごく一部を表すだけの場合もある。これら不一致は、鋼のI型の梁を運搬するフラットベッドトラックの例では、先行車両の最も後方の態様(rear aspect)に対する真の距離の不正確な決定をもたらす。例えば、ユーザ車両が先行車両に近づくと、先行車両及び任意の後方の態様は、ユーザの車両によって放出された細い円錐形の電波を外れる場合があり、レーダーの視野を外れて追跡不能になる。現時点では、近距離で効果的な距離推定技術が必要である。   This drawback is a result of the technical basis of radar-based systems deployed in vehicles. Radar transmitters emit narrow conical radio waves that touch the object and are reflected or scattered in various directions. When a portion of the wave is reflected at a known time and frequency interval and received at the receiver, the distance to the preceding object can be determined. However, in order to determine a distance from the various signals, the highest reflectance centroid from the preceding object is selected. This center may cover most of the perspective behind the preceding vehicle, but may only represent a small portion of the preceding vehicle. These discrepancies result in an inaccurate determination of the true distance for the rear aspect of the preceding vehicle in the example of a flatbed truck carrying steel type I beams. For example, as the user vehicle approaches the preceding vehicle, the preceding vehicle and any rear aspects may deviate from the thin cone-shaped radio waves emitted by the user's vehicle and become untrackable out of the radar field of view. At present, effective distance estimation technology is necessary at short distances.

この理由のために、本明細書で記載されるように、本開示は、ある範囲の距離にわたる車両間の距離を正確に決定するために、カメラ、レーダー及びソナーを統合するためのシステムを導入する。   For this reason, as described herein, this disclosure introduces a system for integrating cameras, radar and sonar to accurately determine the distance between vehicles over a range of distances. To do.

図1は、本開示の例示的な実施形態に係る、先行車両に対するユーザ車両を例示する。本車両105は、先行車両110の後方で距離をおいて既知の速度で走行している。実施形態では、本車両105は乗客を運搬するために装備されたユーザ車両115であり、先行車両110は重い機材を輸送するために装備されたフラットベッドトレーラトラック121である。実施形態では、フラットベッドトレーラトラック121のフラットベッドトレーラ122の後方の態様は、ユーザ車両115のレーダー視野111内ではない。しかしながら、ユーザ車両115に対する近接性に起因してレーダーによって追跡可能ではない、フラットベッドトレーラトラック121のフラットベッドトレーラ122のこの後方の態様は、ユーザ車両115のソナー視野112内である。実施形態では、フラットベッドトレーラトラック121のフラットベッドトレーラ122の重い機材又は同様の物は、高い強度で電波を反射する。フラットベッドトレーラトラック121の最も後方の態様ではないにもかかわらず、この重い機材は、フラットベッドトレーラ122に対する距離を正確に決定するためのレーダーシステムの能力に偏った影響を与える。その結果、これはユーザ車両115とフラットベッドトレーラトラック121の後方の態様との間の真の距離を曖昧にする可能性がある。ユーザ車両115の前面カメラは、先行車両の画像113を捉える。これら捉えられた画像113は、先行車両の識別(identity)を決定するために用いられ、距離推定技術の能力は車両のタイプ(すなわち、形状、サイズ、貨物)によって影響されるため、上述の距離推定技術の正確性をさらに知らせている。   FIG. 1 illustrates a user vehicle relative to a preceding vehicle, according to an exemplary embodiment of the present disclosure. The vehicle 105 is traveling at a known speed at a distance behind the preceding vehicle 110. In the embodiment, the vehicle 105 is a user vehicle 115 equipped to carry passengers, and the preceding vehicle 110 is a flat bed trailer truck 121 equipped to transport heavy equipment. In the embodiment, the aspect behind the flat bed trailer 122 of the flat bed trailer truck 121 is not within the radar field of view 111 of the user vehicle 115. However, this rear aspect of the flatbed trailer 122 of the flatbed trailer truck 121 that is not trackable by the radar due to proximity to the user vehicle 115 is within the sonar field 112 of the user vehicle 115. In the embodiment, the heavy equipment or the like of the flat bed trailer 122 of the flat bed trailer truck 121 reflects radio waves with high intensity. Although not the most rearward aspect of the flatbed trailer truck 121, this heavy equipment has a biased effect on the radar system's ability to accurately determine the distance to the flatbed trailer 122. As a result, this can obscure the true distance between the user vehicle 115 and the aspect behind the flatbed trailer truck 121. The front camera of the user vehicle 115 captures the image 113 of the preceding vehicle. These captured images 113 are used to determine the identity of the preceding vehicle, and the distance estimation techniques described above are affected by the type of vehicle (ie, shape, size, cargo). It further informs the accuracy of the estimation technique.

レーダーがより長い距離を決定する際により効果的であると知られている一方で、ソナーは、音波を用いることの技術的限界のために、より短い距離を決定する際により効果的である。それ故、例示的な実施形態では、先行車両がこれら二つの距離推定アプローチの間の境界に近づくとき、使用する距離推定アプローチに関する決定を行うことがユーザ車両のために必要である。先行車両の識別及びその予測された距離に基づいて、最も正確な距離にたどり着くために、レーダーのみ、ソナーのみを使用すること、又は二つのアプローチを統合することが適切である場合がある。   While radar is known to be more effective in determining longer distances, sonar is more effective in determining shorter distances due to the technical limitations of using sound waves. Therefore, in the exemplary embodiment, when the preceding vehicle approaches the boundary between these two distance estimation approaches, it is necessary for the user vehicle to make a decision regarding the distance estimation approach to use. Based on the identification of the preceding vehicle and its predicted distance, it may be appropriate to use only radar, only sonar, or integrate the two approaches to reach the most accurate distance.

図2は、本開示のアダプティブクルーズコントロールシステムの高レベルフローチャートである。図2は、左から右へ、先行車両に対する距離を正確に決定することを担当する運転支援システム制御部230に供給される入力の概要を示し、車両速度を変更するためにその値が次に走行速度制御部235に供給される。   FIG. 2 is a high level flowchart of the adaptive cruise control system of the present disclosure. FIG. 2 shows, from left to right, an overview of the inputs supplied to the driving assistance system controller 230, which is responsible for accurately determining the distance to the preceding vehicle, the value of which is then changed to change the vehicle speed. This is supplied to the traveling speed control unit 235.

図2に示されるように、車両制御システム200は、限定されないが、先行物体を捉えるためのカメラ203と、先行物体と本車両との間の距離を決定するためのレーダー機器201と、先行物体と本車両との間の距離を決定するためのソナー機器202と、本車両の走行速度を検出するための走行速度センサ204と、運転支援システム制御部230と、走行速度制御部235と、を含む。運転システム制御部230は、限定されないが、カメラ203からの捉えられた画像を利用する物体認識手段233と、距離決定手段231と、レーダー強度決定手段234と、ソナー解像度決定手段232と、を含む。距離決定手段233は、レーダー機器201及びソナー機器202からのデータを利用して、レーダー強度決定手段234及びソナー解像度決定手段232からの出力に照らして、先行車両と本車両との間の距離を決定する。距離が距離決定手段233によって決定されると、適切な場合、その値が本車両速度の調整のために走行速度制御部235に供給される。   As shown in FIG. 2, the vehicle control system 200 includes, but is not limited to, a camera 203 for capturing a preceding object, a radar device 201 for determining a distance between the preceding object and the vehicle, and a preceding object. A sonar device 202 for determining the distance between the vehicle and the vehicle, a travel speed sensor 204 for detecting the travel speed of the vehicle, a driving support system control unit 230, and a travel speed control unit 235. Including. The driving system control unit 230 includes, but is not limited to, an object recognition unit 233 that uses an image captured from the camera 203, a distance determination unit 231, a radar intensity determination unit 234, and a sonar resolution determination unit 232. . The distance determining unit 233 uses the data from the radar device 201 and the sonar device 202 to determine the distance between the preceding vehicle and the present vehicle in light of the outputs from the radar intensity determining unit 234 and the sonar resolution determining unit 232. decide. When the distance is determined by the distance determining means 233, if appropriate, the value is supplied to the traveling speed control unit 235 for the adjustment of the vehicle speed.

実施形態によると、カメラ204は、その視野内の任意の物体を含む先行視野の画像を少なくとも取得し、捉えられた画像を運転支援システム制御部230に出力する。カメラ203からの捉えられた画像は、距離決定手段に知らせるために及び視野内の車両の横方向の存在を記録するために、物体認識に用いられ得る。車両の存在及びそれらの空間的位置は、環境的な変化(すなわち、予期せぬ車線変更)の状況下において重大であり、それにより車両速度が直ちに制御され得る。運転支援システム制御部230にリアルタイム物体データを提供するために、データはカメラ203から連続的に取得される。実施形態では、カメラ203は、可視光カメラ、赤外線カメラ、又はそれらの組み合わせである。   According to the embodiment, the camera 204 acquires at least an image of a preceding visual field including an arbitrary object within the visual field, and outputs the captured image to the driving support system control unit 230. The captured image from the camera 203 can be used for object recognition to inform the distance determining means and to record the lateral presence of the vehicle in the field of view. The presence of vehicles and their spatial location are critical in the context of environmental changes (ie, unexpected lane changes), so that vehicle speed can be controlled immediately. Data is continuously acquired from the camera 203 to provide real-time object data to the driving support system controller 230. In the embodiment, the camera 203 is a visible light camera, an infrared camera, or a combination thereof.

実施形態によると、レーダー機器201は、車両を含む先行物体を検出し、本車両と先行車両との間の距離を測定するためのミリ波レーダーである。車両ベースのミリ波レーダー機器201は、送信機から放出された伝送波(ミリ波)と先行車両から反射された受信波とを混合し、混合された信号においてビート周波数を抽出し、それにより本車両と先行車両との間の距離についての情報が取得される。この距離情報は、次に、運転支援システム制御部230に出力される。実施形態では、先行車両に対する距離に関する情報は、受信機で捉えられた反射電波の中心の位置特定(localization)を介して決定される。ヒートマップと同様に、電波強度の画素化されたレンダリングが生成され、最も高い強度を有する領域が先行車両の後方の態様として選択される。別の実施形態では、先行車両に対する距離に関する情報は、視野内の物体と相関している周波数スペクトルの波形ピークから決定される。データは、運転支援システム制御部230にリアルタイムデータを提供するために、レーダー機器201から連続的に取得される。   According to the embodiment, the radar device 201 is a millimeter wave radar that detects a preceding object including a vehicle and measures a distance between the vehicle and the preceding vehicle. The vehicle-based millimeter wave radar device 201 mixes the transmission wave (millimeter wave) emitted from the transmitter and the reception wave reflected from the preceding vehicle, and extracts the beat frequency in the mixed signal, thereby Information about the distance between the vehicle and the preceding vehicle is acquired. This distance information is then output to the driving support system control unit 230. In the embodiment, the information on the distance to the preceding vehicle is determined through localization of the center of the reflected radio wave captured by the receiver. Similar to the heat map, a pixelated rendering of radio field strength is generated and the region with the highest strength is selected as the aspect behind the preceding vehicle. In another embodiment, the information about the distance to the preceding vehicle is determined from waveform peaks in the frequency spectrum that are correlated with objects in the field of view. The data is continuously acquired from the radar device 201 in order to provide real-time data to the driving support system control unit 230.

実施形態によると、ソナー機器202は、当技術分野で知られるように、音波を利用して近距離で、本車両と車両などの先行物体との間の距離を決定する。車両ベースのソナー機器202は、人間には聞こえない超音波が放出されたときから先行物体によって反射された波がソナー機器202に戻ってくるときまでの時間を測定する。この時間領域データは、距離決定を知らせ、その出力は運転支援システム制御部230に供給される。データは、運転支援システム制御部230にリアルタイムデータを提供するために、ソナー機器202から連続的に取得される。   According to an embodiment, the sonar device 202 uses sound waves to determine the distance between the vehicle and a preceding object such as a vehicle at close range, as is known in the art. The vehicle-based sonar device 202 measures the time from when an ultrasonic wave that is inaudible to humans is emitted to when the wave reflected by the preceding object returns to the sonar device 202. This time domain data informs the distance determination, and its output is supplied to the driving support system controller 230. Data is continuously acquired from the sonar device 202 to provide real-time data to the driving assistance system controller 230.

実施形態によると、走行速度センサ204は、本車両の走行速度を検出し、その走行速度を運転支援システム制御部230に出力する。この走行速度は、運転支援システム制御部230からの決定された距離とまとめられて、運転支援システム制御部230を通って走行速度制御部235に渡され、その二つの値は、適切な場合、走行速度調整を決定するために、走行速度制御部235によって利用される。データは、運転支援システム制御部230ひいては走行速度制御部235にリアルタイムデータを提供するために、走行速度センサ204から連続的に取得される。   According to the embodiment, the traveling speed sensor 204 detects the traveling speed of the vehicle and outputs the traveling speed to the driving support system control unit 230. This travel speed is combined with the determined distance from the drive support system control unit 230 and passed to the travel speed control unit 235 through the drive support system control unit 230, and the two values are In order to determine the travel speed adjustment, it is used by the travel speed control unit 235. The data is continuously acquired from the travel speed sensor 204 in order to provide real-time data to the driving support system control unit 230 and thus the travel speed control unit 235.

本開示の実施形態によると、カメラ203、ミリ波レーダー機器201、ソナー機器202及び走行速度センサ204は、個々の仕様の制限に従って実装可能な商用製品である。   According to the embodiment of the present disclosure, the camera 203, the millimeter wave radar device 201, the sonar device 202, and the traveling speed sensor 204 are commercial products that can be implemented in accordance with individual specification restrictions.

実施形態によると、運転支援システム制御部230は、CPU(中央処理装置)、ROM(リードオンリメモリ)、RAM(ランダムアクセスメモリ)及びI/O(入力及び出力)インターフェースを有する周知のマイクロコンピュータである。ROMなどの記憶装置に記憶された制御プログラムは、CPUが以下で記載される物体認識手段233、距離決定手段231、レーダー強度決定手段及びソナー解像度決定手段232として機能することを可能にする。運転支援システム制御部230の例示的な実施形態は、図9において記載される。   According to the embodiment, the driving support system control unit 230 is a known microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and an I / O (input and output) interface. is there. A control program stored in a storage device such as a ROM enables the CPU to function as object recognition means 233, distance determination means 231, radar intensity determination means and sonar resolution determination means 232 described below. An exemplary embodiment of the driving assistance system controller 230 is described in FIG.

実施形態によると、物体認識手段233は、カメラ機器204からの捉えられた画像に基づいて、先行車両の識別を決定するように構成される。標準的な機械学習アプローチによると、畳み込みニューラルネットワークなどのアルゴリズム又は同様のプロセスは、利用可能な既知の車両のデータベース上で訓練され、限定されないが、オードバイ、車又はトラックを含む先行車両の分類を可能にする。さらに、メーカーとモデルに従った下位分類は、先行車両の速度、重量及び形状に関連する特異性および認識の向上を可能にするように決定され得る。   According to the embodiment, the object recognition means 233 is configured to determine the identification of the preceding vehicle based on the captured image from the camera device 204. According to a standard machine learning approach, an algorithm or similar process such as a convolutional neural network is trained on a database of known vehicles that are available and can be used to classify preceding vehicles including, but not limited to, an audi, car or truck. enable. In addition, sub-classification according to manufacturer and model can be determined to allow for increased specificity and perception related to the speed, weight and shape of the preceding vehicle.

物体認識手段233のデータベースの例示的な実施形態では、データベースは、参照画像のコーパスを含み、各参照画像は、識別可能な参照物体を含み、データベースにおいて参照物体の対応するテキスト記述に関連付けられる。さらに、データベースは、各々が記録の集合を含む複数の画像クエリ解像度データ構造(image query resolution data structures)を含み、各記録は、参照画像の画像記述子を含む。それ故、各データ構造は、画像記述子に基づいてデータ構造内の最も一致する記録を識別するために、一組の所定の検索プロセスのうちの対応する一つを用いて検索可能である。   In an exemplary embodiment of a database of object recognition means 233, the database includes a corpus of reference images, each reference image includes an identifiable reference object and is associated with a corresponding text description of the reference object in the database. In addition, the database includes a plurality of image query resolution data structures, each containing a collection of records, and each record includes an image descriptor for a reference image. Thus, each data structure can be searched using a corresponding one of a set of predetermined search processes to identify the best matching record in the data structure based on the image descriptor.

実施形態によると、距離決定手段231は、物体認識手段233を介して、カメラ機器203からの物体データと統合されたレーダー機器201及びソナー機器202からの距離データに基づいて、正確な車間距離を決定するように構成される。   According to the embodiment, the distance determination unit 231 determines an accurate inter-vehicle distance based on the distance data from the radar device 201 and the sonar device 202 integrated with the object data from the camera device 203 via the object recognition unit 233. Configured to determine.

距離決定中に、運転支援システム制御部230の距離決定手段231は、距離推定データのための適切なソースを選択しなければならない。この目的のため、車間距離を正確に推定するために、運転支援システム制御部230に供給されるように、データストリームがレーダー機器201、ソナー機器202又は二つのデータストリームの融合(fusion)のいずれかから選択される。適正なデータソースを決定する際に、各データストリームは、所定の閾値に関して評価され得る。レーダーに関して、信号は最大の反射率の中心から生成され、閾値は所定の反射率強度で設定される。この所定の反射率強度より高い強度は先行物体の距離の正確な表現を提供するとみなされ、閾値はレーダー機器201の仕様に従って設定される。ソナーに関して、信号は空中ベースのノイズの観点から生成され、閾値は所定の解像度で設定される。この所定の解像度閾値よりも高い解像度は先行物体の距離の正確な推定を提供するとみなされ、閾値はソナー機器202の仕様に従って設定される。   During the distance determination, the distance determination means 231 of the driving support system controller 230 must select an appropriate source for the distance estimation data. For this purpose, the data stream is either a radar device 201, a sonar device 202 or a fusion of two data streams as supplied to the driving assistance system controller 230 in order to accurately estimate the inter-vehicle distance. Selected from. In determining the proper data source, each data stream can be evaluated with respect to a predetermined threshold. For radar, the signal is generated from the center of maximum reflectivity and the threshold is set at a predetermined reflectivity intensity. Intensities higher than this predetermined reflectance intensity are considered to provide an accurate representation of the distance of the preceding object, and the threshold is set according to the specifications of the radar device 201. For sonar, the signal is generated in terms of air-based noise and the threshold is set at a predetermined resolution. A resolution higher than this predetermined resolution threshold is considered to provide an accurate estimate of the distance of the preceding object, and the threshold is set according to the specifications of the sonar device 202.

本開示の距離決定手段の例示的な実施形態では、所定のレーダー及びソナー閾値が使用され、先行車両は、セダンであり、本車両よりも相対的に遅い速度で走行している。当初、セダンは本車両の20メートル前であり、レーダー強度は所定の閾値よりも高く、ソナー解像度は所定の解像度より低い。この場合において、レーダーは、距離決定手段のための理想的な様式(modality)として選択される。車間距離が狭くなると、距離が近づけられ(例えば6メートル)、ソナー解像度及びレーダー強度は両方ともそれらの個々の閾値を超える。カメラ機器からの情報及び先行車両の識別に照らして、決定は、ソナーに移行するために、レーダーのみで維持するために、または二つのデータストリームを一つの距離出力に融合するためになされ得る。車間距離が狭くなり続けると、レーダー強度は所定の閾値を下回る可能性がある一方で、ノイズの影響が最小になる近距離で効果的なソナーは、個々の閾値を超える解像度を表示し続ける。その結果、ソナーが理想的な様式として選択される。センサ選択のための上述の手法は、同様に、車間距離が拡大しているときに適用可能である。さらに、近距離から遠距離までの個々の車間距離で、データストリームの質は、意思決定プロセスを左右する。   In an exemplary embodiment of the distance determining means of the present disclosure, a predetermined radar and sonar threshold is used, and the preceding vehicle is a sedan and is traveling at a relatively slower speed than the present vehicle. Initially, the sedan is 20 meters before the vehicle, the radar intensity is higher than a predetermined threshold, and the sonar resolution is lower than the predetermined resolution. In this case, the radar is selected as the ideal modality for the distance determining means. As the inter-vehicle distance decreases, the distance is reduced (eg, 6 meters), and sonar resolution and radar intensity both exceed their individual thresholds. In light of the information from the camera equipment and the identification of the preceding vehicle, a decision can be made to transition to sonar, to maintain with radar alone, or to merge the two data streams into one distance output. As the inter-vehicle distance continues to decrease, the radar intensity may fall below a predetermined threshold, while sonar that is effective at close range where the effects of noise are minimized will continue to display resolutions above the individual thresholds. As a result, sonar is selected as the ideal style. The above-described method for sensor selection is similarly applicable when the inter-vehicle distance is increasing. In addition, at individual vehicle distances from short to long distances, the quality of the data stream affects the decision making process.

本開示の例示的な実施形態によると、上述したように、カメラ機器からの捉えられた画像による物体認識は、距離決定のための距離推定様式の選択を補助するために利用される。例えば、車両がレーダー及びソナーの両者の範囲内である場合、各データソースからのデータは、改善された出力を生み出すために融合され得る。しかしながら、物体認識を介して、先行車両がトレーラを有するフラットベッドトラックであると決定された場合、レーダーがフラットベッドトラックの後方の態様を正確に検出する能力は最も小さいため、ソナーのデータを優先することが適切である場合がある。   According to exemplary embodiments of the present disclosure, as described above, object recognition by captured images from camera equipment is utilized to assist in selecting a distance estimation manner for distance determination. For example, if the vehicle is within both radar and sonar, the data from each data source can be merged to produce an improved output. However, if it is determined through object recognition that the preceding vehicle is a flatbed truck with a trailer, the radar will have the least ability to accurately detect the rear aspect of the flatbed truck, and sonar data will be given priority. It may be appropriate to do so.

実施形態によると、走行速度制御部235は、ドライバによって前もって設定された走行速度並びに運転支援システム制御部からの距離及び速度の入力に基づいて、本車両の走行速度を制御する。例えば、ACCを作動させるとき、ドライバは所望の走行速度を選択する。所望の走行速度を認識しているとき、走行速度制御部235は、所望の走行速度を維持するために、スロットルサブシステム及びブレーキサブシステムを介して、車両走行速度を調整する。実施形態では、前方センサを介して先行車両が車両の検知距離内であると決定されると、車両走行速度を変更するか否かの決定がなされる。例示的な実施形態では、先行車両は、本車両よりも相対的に遅い速度で走行している。走行速度制御部235は、適切である場合、ブレーキサブシステムを作動させる信号を生成するために、運転支援システム制御部230を通って渡された現在の走行速度と運転支援システム制御部230からの決定された車間距離とを利用することができる。走行速度が釣り合うにつれて、又は先行車両が前方センサの視野を外れるとき、走行速度制御部235は、現在の走行速度と目標走行速度との間の不一致を認識することができ、それに応じて信号を生成することができる。   According to the embodiment, the travel speed control unit 235 controls the travel speed of the vehicle based on the travel speed set in advance by the driver and the distance and speed input from the driving support system control unit. For example, when operating the ACC, the driver selects the desired travel speed. When the desired traveling speed is recognized, the traveling speed control unit 235 adjusts the vehicle traveling speed through the throttle subsystem and the brake subsystem in order to maintain the desired traveling speed. In the embodiment, when it is determined that the preceding vehicle is within the detection distance of the vehicle via the front sensor, it is determined whether to change the vehicle traveling speed. In the exemplary embodiment, the preceding vehicle is traveling at a relatively slower speed than the present vehicle. The travel speed controller 235, when appropriate, generates a signal for operating the brake subsystem and the current travel speed passed through the drive assist system controller 230 and from the drive assist system controller 230. The determined inter-vehicle distance can be used. As the travel speeds are balanced or when the preceding vehicle is out of the field of view of the front sensor, the travel speed control unit 235 can recognize the discrepancy between the current travel speed and the target travel speed, and signal accordingly. Can be generated.

次に、図3は、本開示の例示的な実施形態に係る、走行速度制御部と運転支援システム制御部に対するその接続のブロック図である。走行速度制御部335は、限定されないが、メモリサブシステム336と、スロットルサブシステム337と、ブレーキサブシステム339と、警報サブシステム338と、を含む。車間距離及び現在の走行速度に関するデータは、運転支援システム制御部340から走行速度制御部335に供給される。ACC作動時にドライバによって選択される目標走行速度は、メモリサブシステム336に記憶される。メモリサブシステム336は、概して、アプリケーションに適切な量の揮発性メモリ(例えば、ダイナミックランダムアクセスメモリ(DRAM))及び不揮発性メモリ(例えば、フラッシュメモリ、電気的消去可能プログラマブル読取り専用メモリ(EEPROM))を含む。実施形態では、本車両の相対速度調整を決定するためのプロセッサが実行可能なコードは、走行速度制御部335のメモリサブシステム336の不揮発性メモリ内に記憶される。   Next, FIG. 3 is a block diagram of the connection to the travel speed control unit and the driving support system control unit according to an exemplary embodiment of the present disclosure. The traveling speed control unit 335 includes, but is not limited to, a memory subsystem 336, a throttle subsystem 337, a brake subsystem 339, and an alarm subsystem 338. Data regarding the inter-vehicle distance and the current traveling speed is supplied from the driving support system control unit 340 to the traveling speed control unit 335. The target travel speed selected by the driver during ACC operation is stored in the memory subsystem 336. The memory subsystem 336 generally includes an application-appropriate amount of volatile memory (eg, dynamic random access memory (DRAM)) and non-volatile memory (eg, flash memory, electrically erasable programmable read only memory (EEPROM)). including. In the embodiment, the code executable by the processor for determining the relative speed adjustment of the vehicle is stored in a non-volatile memory of the memory subsystem 336 of the travel speed control unit 335.

実施形態では、速度調整部プロセッサ341及びメモリサブシステム336は、選択されたクルーズコントロール速度に照らして適切な車間距離を維持するために、様々な適切な適応コントローラのうちの一つである比例−積分−微分コントローラ(PIDコントローラ)を使用する。制御ループフィードバック機構であるPIDコントローラは、測定されたプロセスと所望の設定点との間の差としての誤差値の計算を通して出力の連続的な調節を提供し、設定点に到達するために、比例、積分及び微分に基づいて補正を適用する。同様に、本実施形態の観点から、速度制御部プロセッサ341は、設定点についての車両速度を調節するために、必要に応じて、スロットルサブシステム337及びブレーキサブシステム339に対する信号を生成することができる。必要であれば、速度制御部プロセッサ341は、警報サブシステム338に制御信号を提供して、警報サブシステム338に本車両のドライバに対する視覚的及び/又は聴覚的フィードバックを提供させてもよい。   In an embodiment, the speed adjuster processor 341 and the memory subsystem 336 are proportional--one of a variety of suitable adaptive controllers to maintain an appropriate inter-vehicle distance in light of the selected cruise control speed. Use an integral-derivative controller (PID controller). The PID controller, which is a control loop feedback mechanism, provides continuous adjustment of the output through the calculation of the error value as the difference between the measured process and the desired set point, and is proportional to reach the set point Apply corrections based on integration and differentiation. Similarly, from the perspective of this embodiment, the speed controller processor 341 may generate signals for the throttle subsystem 337 and the brake subsystem 339 as needed to adjust the vehicle speed about the set point. it can. If necessary, the speed controller processor 341 may provide a control signal to the alarm subsystem 338 to cause the alarm subsystem 338 to provide visual and / or audio feedback to the driver of the vehicle.

本開示の走行速度制御部の例示的な実施形態では、ドライバがACCを作動させ、速度制御を時速80マイルに設定する。しかしながら、時速75マイルで走行する先行車両が、本車両の前方で検出される。先行車両に対する距離及び本車両の現在の速度に関する連続的な情報は、運転支援システム制御部によって提供される。安全な車間距離を維持するために、速度制御部プロセッサ341は、車両を減速するためにブレーキサブシステム339に信号を供給する。運転支援システム制御部340によって連続的に提供されるように、現在の車両速度と先行車両に対する距離とを能動的に監視する際、速度制御部プロセッサ341は、車間距離が適切である場合を決定し、又は必要に応じて車両速度を変更する。先行車両が視野を外れるか又は安全な距離を超えて車間距離が拡大すると、速度制御部プロセッサ341は、メモリサブシステム336に記憶されるように、ドライバによって選択された設定点に到達するまで、車両速度を増大するようにスロットルサブシステム337に対する信号を生成することができる。スロットルサブシステム337及びブレーキサブシステム339に対するコマンドの生成は、PIDコントローラの制御ループフィードバック機構に従って決定される。PIDコントローラの使用は、参照によって本明細書に組み込まれる米国特許第5335164A号から明らかなように、当技術分野において理解される。   In an exemplary embodiment of the travel speed controller of the present disclosure, the driver activates the ACC and sets the speed control to 80 mph. However, a preceding vehicle traveling at a speed of 75 miles per hour is detected in front of the vehicle. Continuous information regarding the distance to the preceding vehicle and the current speed of the vehicle is provided by the driving assistance system controller. In order to maintain a safe inter-vehicle distance, the speed controller processor 341 provides a signal to the brake subsystem 339 to decelerate the vehicle. When actively monitoring the current vehicle speed and the distance to the preceding vehicle as continuously provided by the driving assistance system controller 340, the speed controller processor 341 determines when the inter-vehicle distance is appropriate. Or change the vehicle speed as necessary. When the preceding vehicle goes out of sight or the inter-vehicle distance increases beyond a safe distance, the speed controller processor 341 until the set point selected by the driver is reached, as stored in the memory subsystem 336. A signal to throttle subsystem 337 can be generated to increase vehicle speed. Command generation for the throttle subsystem 337 and brake subsystem 339 is determined according to the control loop feedback mechanism of the PID controller. The use of a PID controller is understood in the art, as will be apparent from US Pat. No. 5,335,164A, which is incorporated herein by reference.

実施形態によると、車間安全距離は、本車両の走行速度に従って決定される。車間安全距離は、先行車両のメーカー及びモデルによってさらに知らされてもよく、先行車両のサイズ、形状及び重量は、時間領域において、加速又は減速するためのその能力に影響を与える。実施形態では、車間安全距離に関連し且つ識別された先行車両に関する情報は、走行速度制御部335のメモリサブシステム336に対するシステムソフトウェア更新を介して又はクラウドベースのシステムソフトウェア更新を介して更新されてもよい。   According to the embodiment, the inter-vehicle safety distance is determined according to the traveling speed of the vehicle. The inter-vehicle safety distance may be further informed by the manufacturer and model of the preceding vehicle, and the size, shape, and weight of the preceding vehicle will affect its ability to accelerate or decelerate in the time domain. In an embodiment, information related to the identified preceding vehicle related to the safety distance between vehicles is updated via a system software update to the memory subsystem 336 of the travel speed controller 335 or via a cloud-based system software update. Also good.

実施形態では、走行速度制御部335は、CPU(中央処理装置)、ROM(リードオンリメモリ)、RAM(ランダムアクセスメモリ)及びI/O(入力及び出力)インターフェースを有する周知のマイクロコンピュータである。ROMなどの記憶装置に記憶された制御プログラムは、CPUが以下で記載される走行速度制御部335として機能することを可能にする。   In the embodiment, the traveling speed control unit 335 is a well-known microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and an I / O (input and output) interface. A control program stored in a storage device such as a ROM enables the CPU to function as a traveling speed control unit 335 described below.

図4は、本開示の例示的な実施形態に係る、先行車両の識別を例示する。先行車両の識別は、物体認識及び機械学習を介して達成される。例示的な実施形態では、当技術分野において理解され且つ参照によって本明細書に組み込まれる米国特許第7747070B2号によって明らかなように、標準的な畳み込みニューラルネットワーク(CNN)アプローチが用いられる。CNNは、本明細書に記載される一方で、限定とみなされるべきではなく、単に物体認識に対する様々なアプローチの代表例である。本開示の観点から、CNNは、仮想の先行物体451の収集された画像のキュレートされた(curated)データベース上で訓練される(450)。実施形態では、キュレートされたデータベースは、物体認識手段に対するシステムソフトウェア更新を介して又はクラウドベースのシステムソフトウェア更新を介して能動的に維持及び更新される。手短に言えば、特徴学習452及び目標分類453は、データベース451で実行される。概して、特徴学習452は、反復的な畳み込みと、正規化線形関数を介した活性化と、プーリングと、を備える一方で、分類453は、学習された特徴を既知のラベルに関連付けることを含む。学習された特徴(例えば、エッジ、コーナー)は、手動で選択されるか又は深層学習若しくは同様のアプローチを介してCNNによって決定される。CNNの訓練450の後、CNNのテスト455が精度を確保するために実行される。特徴は、テスト画像456から抽出され(457)、訓練分類器450によって分類される(458)。訓練された分類器の有効性の確認後、CNNは、運転支援システム制御部440の物体認識手段に実装されてもよい。   FIG. 4 illustrates identification of a preceding vehicle, according to an exemplary embodiment of the present disclosure. The identification of the preceding vehicle is achieved through object recognition and machine learning. In an exemplary embodiment, a standard convolutional neural network (CNN) approach is used, as will be apparent from US Pat. No. 7,774,070 B2, as understood in the art and incorporated herein by reference. While described herein, CNNs should not be considered limiting, but are merely representative of various approaches to object recognition. In view of this disclosure, the CNN is trained (450) on a curated database of collected images of the virtual predecessor 451. In an embodiment, the curated database is actively maintained and updated via system software updates to the object recognition means or via cloud-based system software updates. In short, feature learning 452 and target classification 453 are executed in the database 451. In general, feature learning 452 comprises iterative convolution, activation via a normalized linear function, and pooling, while classification 453 includes associating learned features with known labels. The learned features (eg, edges, corners) are either manually selected or determined by the CNN via deep learning or a similar approach. After CNN training 450, a CNN test 455 is performed to ensure accuracy. Features are extracted from the test image 456 (457) and classified by the training classifier 450 (458). After confirming the effectiveness of the trained classifier, the CNN may be implemented in the object recognition unit of the driving assistance system control unit 440.

実施形態では、訓練データベース451は、特徴を抽出して分類器を発展して、限定されないが、車、トラック、スポーツ用多目的車、トラクタートレイラ、及びオードバイを含む様々な車両を識別するために、ラベル付き画像を含む。   In an embodiment, the training database 451 extracts features and develops classifiers to identify various vehicles including, but not limited to, cars, trucks, sport utility vehicles, tractor trailers, and audi dubai. Includes labeled images.

実施形態では、訓練データベース451は、特徴を抽出して分類器を発展して、車両のメーカー及びモデルを識別するために、ラベル付き画像を含む。   In an embodiment, the training database 451 includes labeled images to extract features and develop classifiers to identify vehicle manufacturers and models.

図5は、本開示の例示的な実施形態の高レベルフローチャートである。実施形態によると、ACCの初期化S516及び目標走行速度の設定の後、前方センサからのデータが取得される。カメラS518、レーダー及びソナーS517を含むこれら入力は、運転支援システム制御部に送信される。運転支援システム制御部内で、距離決定手段S531は、捉えられた画像(すなわち、物体認識)からのデータを、レーダー及びソナーによって決定されたような推定された車間距離と統合する。実施形態では、距離決定手段S531は、レーダー強度及びソナー解像度に従って、レーダー及びソナーからの入力を状況に当てはめて(contextualize)、本車両と先行車両との間の単一の推定された車間距離を決定する。この単一の推定された車間距離は、搭載された車両速度センサによって決定された本車両走行速度S518と共に走行速度制御部S535に供給される。走行速度制御部S535は、次に、理想的な車間距離(すなわち、安全な走行距離)又は目標走行速度(すなわち、本車両速度対目標走行速度)に関する不一致を識別するために、これら入力(例えば、車間距離、本車両走行速度)を評価する。不一致が存在する場合、走行速度調整S542が、目標距離及び/又は目標走行速度に到達しようとしてなされる。走行速度調整は、目標が達成されるまで、走行速度制御部S535のPIDコントローラによってなされ得る。さらに、前方センサ入力から走行速度制御部へのループは、ACCが解除されるまで反復的に進行する。   FIG. 5 is a high-level flowchart of an exemplary embodiment of the present disclosure. According to the embodiment, data from the front sensor is acquired after initialization 516 of ACC and setting of the target travel speed. These inputs including camera S518, radar and sonar S517 are transmitted to the driving assistance system controller. Within the driving support system control unit, the distance determination means S531 integrates the data from the captured image (ie, object recognition) with the estimated inter-vehicle distance as determined by radar and sonar. In an embodiment, the distance determining means S531 contextualizes the input from the radar and sonar according to the radar intensity and sonar resolution, and determines a single estimated inter-vehicle distance between the vehicle and the preceding vehicle. decide. The single estimated inter-vehicle distance is supplied to the traveling speed control unit S535 together with the vehicle traveling speed S518 determined by the mounted vehicle speed sensor. The travel speed control unit S535 then identifies these inputs (e.g., discrepancies regarding the ideal inter-vehicle distance (i.e., safe travel distance) or target travel speed (i.e., this vehicle speed vs. target travel speed) , Inter-vehicle distance, vehicle running speed). If there is a discrepancy, travel speed adjustment S542 is attempted to reach the target distance and / or target travel speed. The travel speed adjustment can be performed by the PID controller of the travel speed control unit S535 until the target is achieved. Furthermore, the loop from the front sensor input to the traveling speed control unit proceeds repeatedly until ACC is released.

図6は、本開示の運転支援システム制御部の距離決定手段の実施形態の例示的なフローチャートである。例示的なフローチャートは、ACCの初期化後の反復的なループとみなされるべきである。実施形態によると、車両は、当初、ドライバの手動制御下であり、先行車両を含む車両の速度及び周囲を認識している(S660)。ユーザがACCを作動させると(S661)、車両は、カメラ、レーダー及びソナーを含む前方センサデータ取得を初期化する。最初に、距離決定手段は、ソナー機器の仕様によってある程度定められるように、先行物体又は先行車両がソナーの範囲内(すなわち、所定の閾値より高い)であるか否かを決定する(S662)。そうするために、距離決定手段は、レーダー、カメラ及びソナーを含む車両の前方センサを調べて(S663)、特に、先行車両の位置に関連するデータを取得する。先行車両がソナーの範囲内ではないと決定された場合、距離決定手段は、車間距離を決定するために、レーダー及びカメラデータに戻ることになる(S664)。しかしながら、車両を正確に距離推定するのに十分な解像度で、先行車両がソナーの範囲内であると決定されると、距離決定は、車間距離を正確に決定するためにレーダー反射の質が十分であるか否かを決定することになる(S666)。レーダー反射強度が所定の閾値を下回った場合、上述したように、ソナーが車間距離を決定するために用いられることになる(S667)。しかしながら、実施形態では、レーダー反射が正確であるような強度にあると決定される場合がある。この例では、距離決定は、レーダーデータの信頼度を決定するために、カメラからの物体認識データを考慮することができる(S668)。例えば、レーダー強度が強度に関する所定の閾値より高いにもかかわらず、先行車両が電波ベースのアプローチに関する固有の困難性をもたらすタイプのものである場合がある。フラットベッドトレーラトラックの場合では、レーダーは、先行車両の後面を識別することができる。しかしながら、この後面は先行車両の最も後方の態様ではない場合があり、不正確な距離推定が衝突をもたらす場合がある。それ故、後面の輪郭を描いて先行車両の最も後方の態様を捉えるために、ソナーに従うことが適切である場合がある。レーダーが信頼できない可能性があると決定された場合、距離決定手段は、車間距離を決定する際にソナーに従う(S667)。しかしながら、先行車両がセダンなどのレーダーを介して確実に距離推定される車両であるように識別された例では、距離決定手段によって決定された車間距離は、レーダー、ソナー又はそれらの融合に依存することができる。三つのアプローチのうちのいずれかを介して距離推定した後、決定された車間距離は、走行速度調整において用いられるために、運転支援システム制御部を介して走行速度制御部に送信される(S670)。   FIG. 6 is an exemplary flowchart of an embodiment of a distance determination unit of the driving support system control unit of the present disclosure. The exemplary flowchart should be considered an iterative loop after ACC initialization. According to the embodiment, the vehicle is initially under the manual control of the driver and recognizes the speed and surroundings of the vehicle including the preceding vehicle (S660). When the user activates the ACC (S661), the vehicle initializes forward sensor data acquisition including camera, radar and sonar. First, the distance determination means determines whether or not the preceding object or the preceding vehicle is within the sonar range (that is, higher than a predetermined threshold) as determined to some extent by the specifications of the sonar device (S662). In order to do so, the distance determination means examines the front sensors of the vehicle including radar, camera and sonar (S663), and in particular acquires data related to the position of the preceding vehicle. If it is determined that the preceding vehicle is not within the sonar range, the distance determination means returns to the radar and camera data to determine the inter-vehicle distance (S664). However, if it is determined that the preceding vehicle is within the sonar range with sufficient resolution to accurately estimate the vehicle, the distance determination is sufficient for the quality of the radar reflections to accurately determine the inter-vehicle distance. It is determined whether or not (S666). When the radar reflection intensity falls below a predetermined threshold, as described above, sonar is used to determine the inter-vehicle distance (S667). However, in embodiments, it may be determined that the radar reflection is at an intensity that is accurate. In this example, the distance determination can consider object recognition data from the camera to determine the reliability of the radar data (S668). For example, the preceding vehicle may be of the type that presents inherent difficulties with a radio-based approach, even though the radar intensity is higher than a predetermined threshold for intensity. In the case of a flatbed trailer truck, the radar can identify the rear face of the preceding vehicle. However, this rear surface may not be the most rearward aspect of the preceding vehicle, and inaccurate distance estimation may cause a collision. Therefore, it may be appropriate to follow sonar to delineate the rear surface and capture the rearmost aspect of the preceding vehicle. If it is determined that the radar may be unreliable, the distance determining means follows the sonar when determining the inter-vehicle distance (S667). However, in examples where the preceding vehicle has been identified as a vehicle whose distance is reliably estimated via a radar such as a sedan, the inter-vehicle distance determined by the distance determining means depends on the radar, sonar or a combination thereof be able to. After the distance is estimated through any of the three approaches, the determined inter-vehicle distance is transmitted to the travel speed control unit via the driving support system control unit in order to be used in the travel speed adjustment (S670). ).

図7A、図7B及び図7Cは、例示的な実施形態に係る、先行車両の検出及び測距を例示する。実施形態では、先行車両710は、クーペである。図7Aでは、先行車両710は、ソナー視野712及びレーダー視野711のいずれもの範囲を超えて走行している。しかしながら、先行車両710は、本車両705よりも比較的遅い速度で走行している。本車両705のセンサの範囲内に先行車両がいない場合、本車両705は、現在の走行速度のACC維持を続ける。   7A, 7B, and 7C illustrate detection and ranging of a preceding vehicle, according to an exemplary embodiment. In the embodiment, the preceding vehicle 710 is a coupe. In FIG. 7A, the preceding vehicle 710 is traveling beyond both the sonar field of view 712 and the radar field of view 711. However, the preceding vehicle 710 is traveling at a relatively slower speed than the main vehicle 705. When there is no preceding vehicle within the range of the sensor of the present vehicle 705, the present vehicle 705 continues to maintain ACC at the current traveling speed.

実施形態では、本車両715が先行車両に近づくと、図7Bに示されるように、本車両705の前方センサは、先行車両710を検出及び測距し始める。実施形態では、レーダーの視野711内のみに先行車両710がある場合、レーダーは、車間距離を決定するために用いられる。このレーダーベースの値は、次に、走行速度制御部に送信される。   In the embodiment, when the present vehicle 715 approaches the preceding vehicle, the front sensor of the present vehicle 705 starts to detect and measure the preceding vehicle 710 as shown in FIG. 7B. In an embodiment, if there is a leading vehicle 710 only in the radar field of view 711, the radar is used to determine the inter-vehicle distance. This radar-based value is then transmitted to the travel speed controller.

しかしながら、速度の突然な変更が生じた場合又は交通渋滞中、図7Cに示されるように、車間距離は、先行車両710がソナー712及びレーダー711の両方の視野内であるような点に縮小する場合がある。実施形態では、両ソースからのデータは、車間距離を決定する際に考慮される。レーダー反射強度が測距のために十分であると決定された場合、上述したように、レーダー及びソナーのデータの融合が車間距離を走行速度制御部に提供するために用いられることになる。しかしながら、レーダーからのデータがレーダー反射強度に従って不十分であると決定された場合、ソナー712が車間距離の最も正確な決定を提供するために選択される。   However, if a sudden change in speed occurs or during traffic jams, the inter-vehicle distance reduces to a point where the preceding vehicle 710 is within the field of view of both the sonar 712 and the radar 711, as shown in FIG. 7C. There is a case. In an embodiment, data from both sources are taken into account when determining the inter-vehicle distance. If the radar reflection intensity is determined to be sufficient for ranging, as described above, a fusion of radar and sonar data will be used to provide the inter-vehicle distance to the travel speed controller. However, if the data from the radar is determined to be insufficient according to the radar reflection intensity, the sonar 712 is selected to provide the most accurate determination of the inter-vehicle distance.

図8A、図8B及び図8Cは、本開示の例示的な実施形態に係る、先行車両の検出及び測距中の物体認識を例示する。各図では、本車両805は、ユーザ車両815である。ラベル付き画像のデータベース上で訓練される物体認識のためのCNN又は同様のアプローチを含むアルゴリズム又は同様のプロセスは、それに応じて先行車両を分類する。   8A, 8B, and 8C illustrate object recognition during leading vehicle detection and ranging according to an exemplary embodiment of the present disclosure. In each figure, this vehicle 805 is a user vehicle 815. An algorithm or similar process involving CNN or similar approach for object recognition trained on a database of labeled images classifies the preceding vehicle accordingly.

実施形態では、図8Aに示されるように、先行車両は、車823である。車823は、レーダー視野811及びソナー視野812の両方の範囲内である。各データソースのメトリクス(Metrics)は、生データが所定の閾値より高いことを示す。先行車は車823であり、車の後面はおおよそ平面であるため、不一致面に関するレーダーの性能限界が取り除かれ、レーダーは信頼可能とみなされる。その結果、ソナー及びレーダーのデータソースは、車間距離を決定するために融合されることができる。   In the embodiment, as shown in FIG. 8A, the preceding vehicle is a car 823. The car 823 is within both the radar field of view 811 and the sonar field of view 812. The metrics for each data source indicate that the raw data is above a predetermined threshold. Since the preceding car is car 823 and the rear face of the car is roughly flat, the radar's performance limits on the mismatched surface are removed and the radar is considered reliable. As a result, sonar and radar data sources can be merged to determine the inter-vehicle distance.

実施形態では、図8Bに示されるように、先行車両は、フラットベッドトレーラトラック821である。フラットベッドトレーラトラック821は、レーダー視野811及びソナー視野812の両方の範囲内である。さらに、各データソースのメトリクスは、生データが所定の閾値より高いことを示す。しかしながら、先行車両の識別に関する技術的限界の観点から、レーダーは信頼性を欠き、車間距離はソナー視野812から専ら決定されるべきである。図8Bに示されるように、先行車両がレーダー視野811内であるが、フラットベッドトレーラトラック821としての先行車両の識別は、中心ベースのアプローチが回収された電波における微妙な差異(nuances)を識別することができないことの原因となることにおいて重大である。フラットベッド822の最も後方の態様は、レーダーから受信した距離推定データにおいて正確に表されていない可能性があり、それ故、反射強度の所定の閾値よりも高いとしても信頼可能ではないかもしれない。   In the embodiment, as shown in FIG. 8B, the preceding vehicle is a flat bed trailer truck 821. Flatbed trailer track 821 is within both radar field of view 811 and sonar field of view 812. Further, the metrics for each data source indicate that the raw data is higher than a predetermined threshold. However, from the technical limit point of view of preceding vehicle identification, the radar is unreliable and the inter-vehicle distance should be determined solely from the sonar field of view 812. As shown in FIG. 8B, the preceding vehicle is in the radar field of view 811, but identification of the preceding vehicle as a flatbed trailer truck 821 identifies subtle nuances in the radio waves from which the center-based approach was recovered. Serious in causing things that cannot be done. The rearmost aspect of the flatbed 822 may not be accurately represented in the distance estimation data received from the radar, and therefore may not be reliable even if it is above a predetermined threshold of reflection intensity .

実施形態によると、図8Cに示されるように、先行車両は、オートバイ824である。オートバイ824は、レーダー視野811及びソナー視野812の両方の範囲内である。さらに、各データソースのメトリクスは、生データが所定の閾値より高いことを示す。しかしながら、先行車両の識別に関する技術的限界の観点から、レーダーは信頼性を欠き、車間距離はソナー視野812から専ら決定されるべきである。図8Cに示されるように、先行車両がレーダー視野811内であるが、オートバイ824としての先行車両の識別は、中心ベースのアプローチが回収された電波における微妙な差異を識別することができないことの原因となることにおいて重大である。オートバイ824の後方の態様は、レーダーからの距離推定データにおいて正確に表されていない可能性があり、それ故、ソナーデータのみに従って距離推定することが推奨される。さらに、オートバイが速度の急激な変化が可能であるため、オードバイ824としての先行車両の識別は、安全な車間距離をより良く知らせ、ドライバ及びライダの安全性を確保する。   According to an embodiment, the leading vehicle is a motorcycle 824, as shown in FIG. 8C. The motorcycle 824 is within both the radar field of view 811 and the sonar field of view 812. Further, the metrics for each data source indicate that the raw data is higher than a predetermined threshold. However, from the technical limit point of view of preceding vehicle identification, the radar is unreliable and the inter-vehicle distance should be determined solely from the sonar field of view 812. As shown in FIG. 8C, although the preceding vehicle is in the radar field of view 811, the identification of the preceding vehicle as a motorcycle 824 is incapable of identifying subtle differences in the radio waves collected by the center-based approach. Serious in causing. The aspect behind the motorcycle 824 may not be accurately represented in the distance estimation data from the radar, so it is recommended to estimate the distance according to the sonar data alone. In addition, because motorcycles can change speed rapidly, the identification of the preceding vehicle as the AUDUY 824 better informs the safe inter-vehicle distance and ensures driver and rider safety.

図9は、本開示の例示的な実施形態に係る、検出、測距及び制御を実行するように構成されたコンピュータのハードウェア記述のブロック図である。実施形態では、ハードウェアは、運転支援システム制御部である。図9では、運転支援システム制御部は、上記/下記のプロセスを実行するCPU985を含む。プロセスデータ及び命令は、メモリ986に記憶されることができる。これらプロセス及び命令は、ハードドライブ(HDD)などの記憶媒体ディスク987若しくは携帯可能記憶媒体に記憶されてもよく、又は遠隔的に記憶されてもよい。さらに、クレームされた進歩は、発明のプロセスの命令が記憶されたコンピュータ可読媒体の形式によって限定されない。例えば、命令は、CD、DVD、FLASHメモリ、RAM、ROM、PROM、EPROM、EEPROM、ハードディスク、又は、運転支援システム制御部が通信する、サーバ若しくはコンピュータなどの任意の他の情報処理デバイス上で記憶されてもよい。   FIG. 9 is a block diagram of a hardware description of a computer configured to perform detection, ranging and control, according to an exemplary embodiment of the present disclosure. In the embodiment, the hardware is a driving support system control unit. In FIG. 9, the driving support system control unit includes a CPU 985 that executes the processes described above / below. Process data and instructions can be stored in memory 986. These processes and instructions may be stored on a storage media disk 987 such as a hard drive (HDD) or a portable storage medium, or may be stored remotely. Further, the claimed progress is not limited by the form of computer readable media on which the instructions of the inventive process are stored. For example, the instructions are stored on a CD, DVD, FLASH memory, RAM, ROM, PROM, EPROM, EEPROM, hard disk, or any other information processing device such as a server or computer with which the driving support system controller communicates May be.

更に、クレームされた進歩は、CPU985、並びにMicrosoft Windows 7(登録商標)、UNIX(登録商標)、Solaris(登録商標)、LINUX(登録商標)、Apple MAC‐OS(登録商標)、及び当業者に公知の他のシステムなどのオペレーティングシステムと協働して実行される、ユーティリティアプリケーション、バックグラウンドデーモン、若しくはオペレーティングシステムのコンポーネント、またはこれらの組み合わせとして提供されてもよい。   Further, the claimed progress has been made to CPU 985 and Microsoft Windows 7®, UNIX®, Solaris®, LINUX®, Apple MAC-OS®, and those skilled in the art. It may be provided as a utility application, background daemon, or operating system component, or a combination thereof, that runs in cooperation with an operating system, such as another known system.

運転支援システム制御部を実現するために、ハードウェア要素は、当業者に公知の様々な回路要素によって実現されてもよい。例えば、CPU985は、米国のインテル(登録商標)社からのXenon(登録商標)若しくはCoreプロセッサ、米国のAMD社からのOpteronプロセッサ、または当業者により認識され得る他のプロセッサタイプであってもよい。代替的に、CPU985は、当業者により理解されるように、FPGA、ASIC、PLD上で、または個別的な論理回路を用いて実装されてもよい。更に、CPU900は、協働的に並列に動作して上述の本発明のプロセスの命令を実行する複数のプロセッサとして実装されてもよい。   In order to realize the driving support system control unit, the hardware elements may be realized by various circuit elements known to those skilled in the art. For example, CPU 985 may be a Xenon® or Core processor from Intel®, USA, an Opteron processor from AMD, US, or other processor types that may be recognized by those skilled in the art. Alternatively, CPU 985 may be implemented on an FPGA, ASIC, PLD, or using separate logic circuitry, as will be appreciated by those skilled in the art. Further, the CPU 900 may be implemented as a plurality of processors that cooperatively operate in parallel to execute the instructions of the process of the present invention described above.

図9における運転支援システム制御部は、ネットワーク996とインターフェースで接続するための、米国のインテル社からのIntel Ethernet(登録商標) PROネットワークインターフェースカードなどのネットワークコントローラ988も含む。理解され得るように、ネットワーク996は、インターネットなどのパブリックネットワーク、又はLAN若しくはWANネットワークなどの私設ネットワーク、又はそれらの任意の組合せであり得ると共に、PSTN若しくはISDNサブネットワークも含み得る。ネットワーク996はまた、Ethernetネットワークなどの有線式とされ得るか、又はEDGE、3Gおよび4G無線セルラシステムを含むセルラネットワークなどの無線式とされ得る。無線ネットワークはまた、WiFi(登録商標)、Bluetooth(登録商標)、又は公知の通信の任意の他の無線形態であり得る。   The driving support system control unit in FIG. 9 also includes a network controller 988 such as an Intel Ethernet (registered trademark) PRO network interface card from Intel Corporation in the United States for interface with the network 996. As can be appreciated, the network 996 can be a public network such as the Internet, or a private network such as a LAN or WAN network, or any combination thereof, and can also include a PSTN or ISDN subnetwork. The network 996 can also be wired such as an Ethernet network or wireless such as cellular networks including EDGE, 3G and 4G wireless cellular systems. The wireless network may also be WiFi®, Bluetooth®, or any other wireless form of known communication.

運転支援システム制御部は、ヒューレットパッカード(登録商標)社のHPL2445w LCDモニタなどのディスプレイ990とインターフェースで接続するための米国のNVIDIA(登録商標)社からのNVIDIA GeForce GTX又はQuadroグラフィックスアダプタなどのディスプレイコントローラ989をさらに含む。汎用I/Oインターフェース991は、ディスプレイ990上の、又はディスプレイ990とは別個のタッチスクリーンパネル992とインターフェースで接続する。   The driving support system control unit is a display such as an NVIDIA GeForce GTX or Quadro graphics adapter from NVIDIA (USA) for interfacing with a display 990 such as a Hewlett Packard (registered trademark) HPL2445w LCD monitor. A controller 989 is further included. The general purpose I / O interface 991 interfaces with a touch screen panel 992 on or separate from the display 990.

Creative社からのSound Blaster X‐Fi Titaniumなどのサウンドコントローラ993はまた、スピーカ994とインターフェースで接続することにより音及び/又は音楽を提供するために、運転支援システム制御部に提供される。   A sound controller 993, such as Sound Blaster X-Fi Titanium from Creative, is also provided to the driving assistance system controller to provide sound and / or music by interfacing with the speaker 994.

汎用記憶コントローラ995は、記憶媒体ディスク987を、運転支援システム制御部の全ての構成要素を相互接続するための、ISA、EISA、VESA、PCI又は同様のものであり得る通信バス997に接続する。ディスプレイ990及びディスプレイコントローラ989、記憶コントローラ995、ネットワークコントローラ988、サウンドコントローラ993、並びに汎用I/Oインターフェース991の一般的な特徴および機能性の説明は、これら特徴が公知であるため、本明細書において簡潔さのために省略される。   The general purpose storage controller 995 connects the storage media disk 987 to a communication bus 997 which can be ISA, EISA, VESA, PCI or the like for interconnecting all the components of the driving support system controller. A description of the general features and functionality of the display 990 and display controller 989, storage controller 995, network controller 988, sound controller 993, and general purpose I / O interface 991, as these features are known, are described herein. Omitted for brevity.

明らかに、多くの変更及び変形が上記の教示の観点から可能である。それ故、添付の特許請求の範囲の範囲内で、本発明は本明細書で詳細に記載されたものとは違うもので実施され得ることが理解されるべきである。   Obviously, many modifications and variations are possible in view of the above teachings. It is therefore to be understood that within the scope of the appended claims, the invention may be practiced otherwise than as specifically described herein.

従って、上述の議論は、単に、本発明の例示的な実施形態を開示及び記載する。当業者によって理解されるように、本発明は、それらの精神又は本質的な特性から逸脱せずに、他の特定の形式において具現化され得る。従って、本発明の開示は、例示を意図したものであり、本発明の範囲及び他の特許請求の範囲を限定するものではない。本開示は、本明細書の教示の容易に認識可能な変形を含み、発明の主題が公共に捧げられることがないように、上述の特許請求の範囲の用語の範囲を部分的に定義する。   Accordingly, the foregoing discussion merely discloses and describes exemplary embodiments of the present invention. As will be appreciated by those skilled in the art, the present invention may be embodied in other specific forms without departing from their spirit or essential characteristics. Accordingly, the disclosure of the present invention is intended to be illustrative and is not intended to limit the scope of the invention and other claims. This disclosure includes some readily recognizable variations of the teachings herein and partially defines the scope of the terms of the appended claims so that the subject matter of the invention is not devoted to the public.

Claims (20)

車両と先行物体との間の距離を決定するための方法であって、
第一検知様式を介して、前記車両と前記先行物体との間の前記距離に関連する第一検知パラメータを取得することと、
処理回路を介して、前記第一検知様式を介して取得された前記第一検知パラメータの大きさを決定することと、
第二検知様式を介して、前記車両と前記先行物体との間の前記距離に関連する第二検知パラメータを取得することと、
処理回路を介して、前記第二検知様式を介して取得された前記第二検知パラメータの大きさを決定することと、
所定の閾値に対する前記第一検知パラメータの大きさ及び前記第二検知パラメータの大きさの前記決定に基づいて、前記第一検知パラメータ、前記第二検知パラメータ又はそれらの組み合わせを選択することと、
を含む、方法。
A method for determining a distance between a vehicle and a preceding object, comprising:
Obtaining a first detection parameter related to the distance between the vehicle and the preceding object via a first detection mode;
Determining, via a processing circuit, the magnitude of the first detection parameter obtained via the first detection mode;
Obtaining a second detection parameter related to the distance between the vehicle and the preceding object via a second detection mode;
Determining the magnitude of the second detection parameter obtained via the second detection mode via a processing circuit;
Selecting the first detection parameter, the second detection parameter, or a combination thereof based on the determination of the magnitude of the first detection parameter and the magnitude of the second detection parameter for a predetermined threshold;
Including a method.
カメラを介して、前記先行物体に関連する画像を取得することと、
前記先行物体に関連する前記画像を分類することと、
前記先行物体に関連する前記画像の前記分類に基づいて、前記第一検知パラメータ、前記第二検知パラメータ又はそれらの組み合わせを選択することと、
をさらに含む、請求項1に記載の方法。
Obtaining an image related to the preceding object via a camera;
Classifying the image associated with the preceding object;
Selecting the first detection parameter, the second detection parameter or a combination thereof based on the classification of the image associated with the preceding object;
The method of claim 1, further comprising:
前記分類することは、
分類器に基づいて前記画像を分類することをさらに含み、
前記分類器は、データベース上で訓練され、前記データベースは、参照画像のコーパスであって、各参照画像が識別可能な参照物体を含み且つ前記データベースにおいて前記参照物体の対応するテキスト記述に関連付けられる、コーパスと、複数の画像クエリ解像度データ構造であって、各々が記録の集合を含む、複数の画像クエリ解像度データ構造と、を含み、各記録は、前記参照画像のうちの一つの画像記述子を含み、各データ構造は、前記画像記述子に基づいて前記データ構造内の最も一致する記録を識別するために、一組の所定の検索プロセスのうちの対応する一つを用いて検索可能である、請求項2に記載の方法。
The classification is
Further comprising classifying the image based on a classifier;
The classifier is trained on a database, the database being a corpus of reference images, each reference image including an identifiable reference object and associated with a corresponding text description of the reference object in the database. A corpus and a plurality of image query resolution data structures, each comprising a set of records, each record comprising an image descriptor of one of the reference images. Each data structure is searchable using a corresponding one of a set of predetermined search processes to identify the best matching record in the data structure based on the image descriptor. The method according to claim 2.
前記第一検知様式又は前記第二検知様式は、レーダー及びソナーを含む複数の検知様式のうちの一つである、請求項1に記載の方法。   The method of claim 1, wherein the first detection mode or the second detection mode is one of a plurality of detection modes including radar and sonar. 前記第一検知パラメータ又は前記第二検知パラメータは、レーダー反射強度及びソナー解像度を含む複数の検知パラメータのうちの一つである、請求項1に記載の方法。   The method according to claim 1, wherein the first detection parameter or the second detection parameter is one of a plurality of detection parameters including radar reflection intensity and sonar resolution. 前記カメラは、可視光カメラ、赤外線カメラ又はそれらの組み合わせである、請求項2に記載の方法。   The method of claim 2, wherein the camera is a visible light camera, an infrared camera, or a combination thereof. 前記先行物体は、車両である、請求項1に記載の方法。   The method of claim 1, wherein the preceding object is a vehicle. 処理回路によって実行されるとき、前記処理回路に、
第一検知様式を介して、前記車両と前記先行物体との間の前記距離に関連する第一検知パラメータを取得することと、
前記第一検知様式を介して取得された前記第一検知パラメータの大きさを決定することと、
第二検知様式を介して、前記車両と前記先行物体との間の前記距離に関連する第二検知パラメータを取得することと、
前記第二検知様式を介して取得された前記第二検知パラメータの大きさを決定することと、
所定の閾値に対する前記第一検知パラメータの大きさ及び前記第二検知パラメータの大きさの前記決定に基づいて、前記第一検知パラメータ、前記第二検知パラメータ又はそれらの組み合わせを選択することと、
を含む方法を実装させる、実行可能なプログラム命令を含む非一時的コンピュータ可読媒体。
When executed by a processing circuit, the processing circuit includes:
Obtaining a first detection parameter related to the distance between the vehicle and the preceding object via a first detection mode;
Determining the magnitude of the first detection parameter obtained via the first detection mode;
Obtaining a second detection parameter related to the distance between the vehicle and the preceding object via a second detection mode;
Determining the magnitude of the second detection parameter acquired via the second detection mode;
Selecting the first detection parameter, the second detection parameter, or a combination thereof based on the determination of the magnitude of the first detection parameter and the magnitude of the second detection parameter for a predetermined threshold;
A non-transitory computer-readable medium containing executable program instructions for implementing a method comprising:
前記方法は、
カメラを介して、前記先行物体に関連する画像を取得することと、
前記先行物体に関連する前記画像を分類することと、
前記先行物体に関連する前記画像の前記分類に基づいて、前記第一検知パラメータ、前記第二検知パラメータ又はそれらの組み合わせを選択することと、
をさらに含む、請求項8に記載の非一時的コンピュータ可読媒体。
The method
Obtaining an image related to the preceding object via a camera;
Classifying the image associated with the preceding object;
Selecting the first detection parameter, the second detection parameter or a combination thereof based on the classification of the image associated with the preceding object;
The non-transitory computer readable medium of claim 8, further comprising:
前記分類することは、
分類器に基づいて前記画像を分類することをさらに含み、
前記分類器は、データベース上で訓練され、前記データベースは、参照画像のコーパスであって、各参照画像が識別可能な参照物体を含み且つ前記データベースにおいて前記参照物体の対応するテキスト記述に関連付けられる、コーパスと、複数の画像クエリ解像度データ構造であって、各々が記録の集合を含む、複数の画像クエリ解像度データ構造と、を含み、各記録は、前記参照画像のうちの一つの画像記述子を含み、各データ構造は、前記画像記述子に基づいて前記データ構造内の最も一致する記録を識別するために、一組の所定の検索プロセスのうちの対応する一つを用いて検索可能である、請求項9に記載の非一時的コンピュータ可読媒体。
The classification is
Further comprising classifying the image based on a classifier;
The classifier is trained on a database, the database being a corpus of reference images, each reference image including an identifiable reference object and associated with a corresponding text description of the reference object in the database. A corpus and a plurality of image query resolution data structures, each comprising a set of records, each record comprising an image descriptor of one of the reference images. Each data structure is searchable using a corresponding one of a set of predetermined search processes to identify the best matching record in the data structure based on the image descriptor. The non-transitory computer readable medium of claim 9.
前記第一検知様式又は前記第二検知様式は、レーダー及びソナーを含む複数の検知様式のうちの一つである、請求項8に記載の非一時的コンピュータ可読媒体。   The non-transitory computer-readable medium of claim 8, wherein the first detection mode or the second detection mode is one of a plurality of detection modes including radar and sonar. 前記第一検知パラメータ又は前記第二検知パラメータは、レーダー反射強度及びソナー解像度を含む複数の検知パラメータのうちの一つである、請求項8に記載の非一時的コンピュータ可読媒体。   The non-transitory computer-readable medium of claim 8, wherein the first detection parameter or the second detection parameter is one of a plurality of detection parameters including radar reflection intensity and sonar resolution. 前記カメラは、可視光カメラ、赤外線カメラ又はそれらの組み合わせである、請求項9に記載の非一時的コンピュータ可読媒体。   The non-transitory computer readable medium of claim 9, wherein the camera is a visible light camera, an infrared camera, or a combination thereof. 前記先行物体は、車両である、請求項8に記載の非一時的コンピュータ可読媒体。   The non-transitory computer readable medium of claim 8, wherein the preceding object is a vehicle. 車両と先行物体との間の距離を決定するための装置であって、
第一検知様式を介して、前記車両と前記先行物体との間の前記距離に関連する第一検知パラメータを取得し、
前記第一検知様式を介して取得された前記第一検知パラメータの大きさを決定し、
第二検知様式を介して、前記車両と前記先行物体との間の前記距離に関連する第二検知パラメータを取得し、
前記第二検知様式を介して取得された前記第二検知パラメータの大きさを決定し、
所定の閾値に対する前記第一検知パラメータの大きさ及び前記第二検知パラメータの大きさの前記決定に基づいて、前記第一検知パラメータ、前記第二検知パラメータ又はそれらの組み合わせを選択する、
ように構成される処理回路を含む、装置。
An apparatus for determining a distance between a vehicle and a preceding object,
Via a first detection mode, obtaining a first detection parameter related to the distance between the vehicle and the preceding object;
Determining the magnitude of the first detection parameter obtained via the first detection mode;
Via a second detection mode, obtaining a second detection parameter related to the distance between the vehicle and the preceding object;
Determining the magnitude of the second detection parameter acquired via the second detection mode;
Selecting the first detection parameter, the second detection parameter, or a combination thereof based on the determination of the magnitude of the first detection parameter and the magnitude of the second detection parameter relative to a predetermined threshold;
An apparatus comprising a processing circuit configured as follows.
前記処理回路は、
カメラを介して、前記先行物体に関連する画像を取得し、
前記先行物体に関連する前記画像を分類し、
前記先行物体に関連する前記画像の前記分類に基づいて、前記第一検知パラメータ、前記第二検知パラメータ又はそれらの組み合わせを選択する、
ようにさらに構成される、請求項15に記載の装置。
The processing circuit includes:
Via the camera, obtaining an image related to the preceding object,
Classifying the image associated with the preceding object;
Selecting the first detection parameter, the second detection parameter or a combination thereof based on the classification of the image associated with the preceding object;
The apparatus of claim 15, further configured as follows.
前記処理回路は、
分類器に基づいて前記画像を分類するようにさらに構成され、
前記分類器は、データベース上で訓練され、前記データベースは、参照画像のコーパスであって、各参照画像が識別可能な参照物体を含み且つ前記データベースにおいて前記参照物体の対応するテキスト記述に関連付けられる、コーパスと、複数の画像クエリ解像度データ構造であって、各々が記録の集合を含む、複数の画像クエリ解像度データ構造と、を含み、各記録は、前記参照画像のうちの一つの画像記述子を含み、各データ構造は、前記画像記述子に基づいて前記データ構造内の最も一致する記録を識別するために、所定の検索プロセスの集合のうちの対応する一つを用いて検索可能である、請求項16に記載の装置。
The processing circuit includes:
Further configured to classify the image based on a classifier;
The classifier is trained on a database, the database being a corpus of reference images, each reference image including an identifiable reference object and associated with a corresponding text description of the reference object in the database. A corpus and a plurality of image query resolution data structures, each comprising a set of records, each record comprising an image descriptor of one of the reference images. Each data structure is searchable using a corresponding one of a set of predetermined search processes to identify the best matching record in the data structure based on the image descriptor; The apparatus of claim 16.
前記第一検知様式又は前記第二検知様式は、レーダー及びソナーを含む複数の検知様式のうちの一つである、請求項15に記載の装置。   The apparatus according to claim 15, wherein the first detection mode or the second detection mode is one of a plurality of detection modes including radar and sonar. 前記第一検知パラメータ又は前記第二検知パラメータは、レーダー反射強度及びソナー解像度を含む複数の検知パラメータのうちの一つである、請求項15に記載の装置。   The apparatus according to claim 15, wherein the first detection parameter or the second detection parameter is one of a plurality of detection parameters including radar reflection intensity and sonar resolution. 前記カメラは、可視光カメラ、赤外線カメラ又はそれらの組み合わせである、請求項16に記載の装置。   The apparatus of claim 16, wherein the camera is a visible light camera, an infrared camera, or a combination thereof.
JP2019014442A 2018-01-30 2019-01-30 Fusion of forward vehicle sensor data for preceding object detection and ranging Active JP7242316B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/883,607 US11091162B2 (en) 2018-01-30 2018-01-30 Fusion of front vehicle sensor data for detection and ranging of preceding objects
US15/883,607 2018-01-30

Publications (2)

Publication Number Publication Date
JP2019164124A true JP2019164124A (en) 2019-09-26
JP7242316B2 JP7242316B2 (en) 2023-03-20

Family

ID=67224483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019014442A Active JP7242316B2 (en) 2018-01-30 2019-01-30 Fusion of forward vehicle sensor data for preceding object detection and ranging

Country Status (4)

Country Link
US (1) US11091162B2 (en)
JP (1) JP7242316B2 (en)
CN (1) CN110103958B (en)
DE (1) DE102019102216A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210127285A (en) * 2020-04-13 2021-10-22 주식회사 만도모빌리티솔루션즈 Smart cruise control system and method thereof

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10955540B2 (en) 2017-12-01 2021-03-23 Aptiv Technologies Limited Detection system
US20190337511A1 (en) * 2018-05-02 2019-11-07 GM Global Technology Operations LLC System and Method for Controlling an Autonomous Vehicle
JP6700359B2 (en) * 2018-09-26 2020-05-27 株式会社Subaru Vehicle control device
US10838054B2 (en) 2018-10-08 2020-11-17 Aptiv Technologies Limited Detection system and method
US10817732B2 (en) * 2018-12-20 2020-10-27 Trimble Inc. Automated assessment of collision risk based on computer vision
IL270540A (en) * 2018-12-26 2020-06-30 Yandex Taxi Llc Method and system for training machine learning algorithm to detect objects at distance
JP7111088B2 (en) * 2019-01-24 2022-08-02 カシオ計算機株式会社 Image retrieval device, learning method and program
US11092668B2 (en) 2019-02-07 2021-08-17 Aptiv Technologies Limited Trailer detection system and method
US11572079B2 (en) * 2019-04-25 2023-02-07 WeRide Corp. Apparatus and method for controlling velocity of autonomous driving vehicle, and storage medium
CN115461258B (en) * 2020-02-21 2023-09-05 蓝色空间人工智能公司 Method for object avoidance during autonomous navigation
US11408995B2 (en) 2020-02-24 2022-08-09 Aptiv Technologies Limited Lateral-bin monitoring for radar target detection
US20220172080A1 (en) * 2020-12-02 2022-06-02 International Business Machines Corporation Learning unpaired multimodal feature matching for semi-supervised learning
US20220203984A1 (en) * 2020-12-29 2022-06-30 GM Global Technology Operations LLC Consideration of acceleration lag in lead vehicle to enhance host vehicle operation
CN113740843B (en) * 2021-09-07 2024-05-07 中国兵器装备集团自动化研究所有限公司 Motion state estimation method and system for tracking target and electronic device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06230115A (en) * 1993-02-01 1994-08-19 Toyota Motor Corp Vehicular gap detector
JP2004053278A (en) * 2002-07-16 2004-02-19 Nissan Motor Co Ltd Front vehicle tracking system and front vehicle tracking method
JP2007255979A (en) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd Object detection method and object detector
JP2009186260A (en) * 2008-02-05 2009-08-20 Nissan Motor Co Ltd Object detecting device and distance measuring method
JP2013057584A (en) * 2011-09-08 2013-03-28 Mitsubishi Electric Corp Object detection device
JP2016008922A (en) * 2014-06-25 2016-01-18 株式会社東芝 Sensor information fusion device
US20180022347A1 (en) * 2016-07-20 2018-01-25 Ford Global Technologies, Llc Rear camera stub detection

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5335164A (en) 1991-07-31 1994-08-02 Universal Dynamics Limited Method and apparatus for adaptive control
US7426437B2 (en) * 1997-10-22 2008-09-16 Intelligent Technologies International, Inc. Accident avoidance systems and methods
US7457699B2 (en) 2004-01-21 2008-11-25 Delphi Technologies, Inc. Technique for detecting truck trailer for stop and go adaptive cruise control
US7747070B2 (en) 2005-08-31 2010-06-29 Microsoft Corporation Training convolutional neural networks on graphics processing units
JP4211809B2 (en) * 2006-06-30 2009-01-21 トヨタ自動車株式会社 Object detection device
US20090254260A1 (en) * 2008-04-07 2009-10-08 Axel Nix Full speed range adaptive cruise control system
US20100100324A1 (en) * 2008-10-22 2010-04-22 Toyota Motor Engineering & Manufacturing North America, Inc. Communication based vehicle-pedestrian collision warning system
US8666546B2 (en) 2009-07-10 2014-03-04 The Boeing Company Autonomous robotic platform
US9472097B2 (en) * 2010-11-15 2016-10-18 Image Sensing Systems, Inc. Roadway sensing systems
TWI468647B (en) 2011-10-13 2015-01-11 Altek Autotronics Corp Obstacle detection system and obstacle detection method thereof
JP5977047B2 (en) 2012-02-29 2016-08-24 株式会社日本自動車部品総合研究所 Vehicle travel control device
KR20140030749A (en) * 2012-09-03 2014-03-12 현대모비스 주식회사 Apparatus for detecting inter-vehicle distance using lamp image and method for detecting inter-vehicle distance using the same
KR101491849B1 (en) * 2013-07-23 2015-02-06 현대오트론 주식회사 fail-safe system and method for inter-vehicle distance
KR102192252B1 (en) * 2014-03-05 2020-12-17 현대모비스 주식회사 System and method for detecting vehicle by using sensor
JP6137001B2 (en) 2014-03-14 2017-05-31 株式会社デンソー In-vehicle device
JP6183257B2 (en) 2014-03-19 2017-08-23 トヨタ自動車株式会社 Vehicle motion state determination device and vehicle motion control device
US9460625B2 (en) 2014-04-08 2016-10-04 Denso International America, Inc. Proxy DSRC basic safety message for unequipped vehicles
CN110171405B (en) * 2014-05-22 2021-07-13 御眼视觉技术有限公司 System and method for braking vehicle based on detection object
JP6285303B2 (en) * 2014-07-11 2018-02-28 株式会社デンソー Vehicle control device
JP6290737B2 (en) * 2014-07-11 2018-03-07 株式会社デンソー Vehicle control device
KR101843773B1 (en) * 2015-06-30 2018-05-14 엘지전자 주식회사 Advanced Driver Assistance System, Display apparatus for vehicle and Vehicle
US20190227553A1 (en) * 2015-11-04 2019-07-25 Zoox, Inc. Interactive autonomous vehicle command controller
US9754490B2 (en) * 2015-11-04 2017-09-05 Zoox, Inc. Software application to request and control an autonomous vehicle service
US9910441B2 (en) * 2015-11-04 2018-03-06 Zoox, Inc. Adaptive autonomous vehicle planner logic
US11328155B2 (en) * 2015-11-13 2022-05-10 FLIR Belgium BVBA Augmented reality labels systems and methods
US10152649B2 (en) * 2015-12-01 2018-12-11 Mobileye Vision Technologies Ltd. Detecting visual information corresponding to an animal
US10373019B2 (en) * 2016-01-13 2019-08-06 Ford Global Technologies, Llc Low- and high-fidelity classifiers applied to road-scene images
US10365359B2 (en) * 2016-05-06 2019-07-30 Raytheon Company Ambiguous radar range resolution using range lookup table
US20170359561A1 (en) * 2016-06-08 2017-12-14 Uber Technologies, Inc. Disparity mapping for an autonomous vehicle
US11167752B2 (en) * 2016-08-22 2021-11-09 Sony Corporation Driving assistant apparatus, driving assistant method, moving object, and program
WO2018053175A1 (en) * 2016-09-14 2018-03-22 Nauto Global Limited Systems and methods for near-crash determination
US10386792B2 (en) * 2016-10-19 2019-08-20 Ants Technology (Hk) Limited Sensory systems for autonomous devices
KR20180068578A (en) * 2016-12-14 2018-06-22 삼성전자주식회사 Electronic device and method for recognizing object by using a plurality of senses
US10445928B2 (en) * 2017-02-11 2019-10-15 Vayavision Ltd. Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
US10202126B2 (en) * 2017-03-07 2019-02-12 Uber Technologies, Inc. Teleassistance data encoding for self-driving vehicles
US11899669B2 (en) * 2017-03-20 2024-02-13 Carnegie Mellon University Searching of data structures in pre-processing data for a machine learning classifier
US10710592B2 (en) * 2017-04-07 2020-07-14 Tusimple, Inc. System and method for path planning of autonomous vehicles based on gradient
US10705525B2 (en) * 2017-04-07 2020-07-07 Nvidia Corporation Performing autonomous path navigation using deep neural networks
US20180300620A1 (en) * 2017-04-12 2018-10-18 Ford Global Technologies, Llc Foliage Detection Training Systems And Methods
GB2601644B (en) * 2017-04-28 2023-02-08 FLIR Belgium BVBA Video and image chart fusion systems and methods
US20180314253A1 (en) * 2017-05-01 2018-11-01 Mentor Graphics Development (Deutschland) Gmbh Embedded automotive perception with machine learning classification of sensor data
WO2018229549A2 (en) * 2017-06-16 2018-12-20 Nauto Global Limited System and method for digital environment reconstruction
US10691962B2 (en) * 2017-09-22 2020-06-23 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for rear signal identification using machine learning
US10445597B2 (en) * 2017-10-17 2019-10-15 Toyota Research Institute, Inc. Systems and methods for identification of objects using audio and sensor data
US10628671B2 (en) * 2017-11-01 2020-04-21 Here Global B.V. Road modeling from overhead imagery
JP7346401B2 (en) * 2017-11-10 2023-09-19 エヌビディア コーポレーション Systems and methods for safe and reliable autonomous vehicles
US10535138B2 (en) * 2017-11-21 2020-01-14 Zoox, Inc. Sensor data segmentation
US20180074506A1 (en) * 2017-11-21 2018-03-15 GM Global Technology Operations LLC Systems and methods for mapping roadway-interfering objects in autonomous vehicles
US10466707B2 (en) * 2017-12-22 2019-11-05 X Development Llc Planning robot stopping points to avoid collisions
US10558897B2 (en) * 2017-12-27 2020-02-11 Intel Corporation Context-based digital signal processing
US10745005B2 (en) * 2018-01-24 2020-08-18 Ford Global Technologies, Llc Inter-vehicle cooperation for vehicle self height estimation

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06230115A (en) * 1993-02-01 1994-08-19 Toyota Motor Corp Vehicular gap detector
JP2004053278A (en) * 2002-07-16 2004-02-19 Nissan Motor Co Ltd Front vehicle tracking system and front vehicle tracking method
JP2007255979A (en) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd Object detection method and object detector
JP2009186260A (en) * 2008-02-05 2009-08-20 Nissan Motor Co Ltd Object detecting device and distance measuring method
JP2013057584A (en) * 2011-09-08 2013-03-28 Mitsubishi Electric Corp Object detection device
JP2016008922A (en) * 2014-06-25 2016-01-18 株式会社東芝 Sensor information fusion device
US20180022347A1 (en) * 2016-07-20 2018-01-25 Ford Global Technologies, Llc Rear camera stub detection

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210127285A (en) * 2020-04-13 2021-10-22 주식회사 만도모빌리티솔루션즈 Smart cruise control system and method thereof
KR102323483B1 (en) 2020-04-13 2021-11-10 주식회사 만도모빌리티솔루션즈 Smart cruise control system and method thereof

Also Published As

Publication number Publication date
JP7242316B2 (en) 2023-03-20
US11091162B2 (en) 2021-08-17
CN110103958B (en) 2022-09-09
DE102019102216A1 (en) 2019-08-01
CN110103958A (en) 2019-08-09
US20190232964A1 (en) 2019-08-01

Similar Documents

Publication Publication Date Title
JP7242316B2 (en) Fusion of forward vehicle sensor data for preceding object detection and ranging
CN108263279B (en) Sensor integration based pedestrian detection and pedestrian collision avoidance apparatus and method
US10444346B2 (en) Method for migrating radar sensor limitations with video camera input for active braking for pedestrians
JP6690517B2 (en) Driving support device and driving support method
JP4428277B2 (en) Object detection device
CN109204311B (en) Automobile speed control method and device
US9452759B2 (en) Vehicle-use collision mitigation apparatus
US10302760B2 (en) Vehicle water detection system
US10672273B2 (en) Vehicle control method and apparatus
US20030160866A1 (en) Obstacle detection device for vehicle and method thereof
JP6855776B2 (en) Object detection device and object detection method
EP3339896A1 (en) Object detection device and recording medium
KR102054926B1 (en) System and method for detecting close cut-in vehicle based on free space signal
US10839232B2 (en) Vehicle control method and apparatus
JP7413935B2 (en) In-vehicle sensor system
JP2006292621A (en) Object detection apparatus
US10183676B2 (en) System for use in a vehicle
US20220371584A1 (en) Monitoring area setting apparatus
US20050004719A1 (en) Device and method for determining the position of objects in the surroundings of a motor vehicle
JP2022550762A (en) A method for tracking a remote target vehicle within a peripheral area of a motor vehicle using collision recognition means
CN113573965A (en) Method for determining the risk of accidents caused by moisture for a vehicle
US20220315058A1 (en) Vehicle control device, vehicle control method, and storage medium
JP2006266927A (en) Object detector
WO2021210268A1 (en) Object detection device, information processing device, and object detection method
JP4670449B2 (en) Object detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230308

R150 Certificate of patent or registration of utility model

Ref document number: 7242316

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350