JP4771657B2 - Proximity object detection system - Google Patents

Proximity object detection system Download PDF

Info

Publication number
JP4771657B2
JP4771657B2 JP2003521392A JP2003521392A JP4771657B2 JP 4771657 B2 JP4771657 B2 JP 4771657B2 JP 2003521392 A JP2003521392 A JP 2003521392A JP 2003521392 A JP2003521392 A JP 2003521392A JP 4771657 B2 JP4771657 B2 JP 4771657B2
Authority
JP
Japan
Prior art keywords
target
sensor
path
data
sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003521392A
Other languages
Japanese (ja)
Other versions
JP2005500537A (en
Inventor
デルチェッコロ,マイケル・ジョセフ
ラッセル,マーク・イー
ウッディントン,ウォルター・ゴードン
プレヴァ,ジョセフ・エス
ファーダ,ジョン・エム
ヴァン・リーズ,エイチ・バーテルド
Original Assignee
ヴァレオ・レイダー・システムズ・インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US09/931,631 external-priority patent/US6784828B2/en
Application filed by ヴァレオ・レイダー・システムズ・インコーポレーテッド filed Critical ヴァレオ・レイダー・システムズ・インコーポレーテッド
Priority claimed from PCT/US2002/002776 external-priority patent/WO2003016943A1/en
Publication of JP2005500537A publication Critical patent/JP2005500537A/en
Application granted granted Critical
Publication of JP4771657B2 publication Critical patent/JP4771657B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K31/00Vehicle fittings, acting on a single sub-unit only, for automatically controlling vehicle speed, i.e. preventing speed from exceeding an arbitrarily established velocity or maintaining speed at a particular velocity, as selected by the vehicle operator
    • B60K31/0008Vehicle fittings, acting on a single sub-unit only, for automatically controlling vehicle speed, i.e. preventing speed from exceeding an arbitrarily established velocity or maintaining speed at a particular velocity, as selected by the vehicle operator including means for detecting potential obstacles in vehicle path
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/04Systems determining presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/10Systems for measuring distance only using transmission of interrupted, pulse modulated waves
    • G01S13/26Systems for measuring distance only using transmission of interrupted, pulse modulated waves wherein the transmitted pulses use a frequency- or phase-modulated carrier wave
    • G01S13/28Systems for measuring distance only using transmission of interrupted, pulse modulated waves wherein the transmitted pulses use a frequency- or phase-modulated carrier wave with time compression of received pulses
    • G01S13/282Systems for measuring distance only using transmission of interrupted, pulse modulated waves wherein the transmitted pulses use a frequency- or phase-modulated carrier wave with time compression of received pulses using a frequency modulated carrier wave
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/32Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S13/34Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
    • G01S13/343Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal using sawtooth modulation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/46Indirect determination of position data
    • G01S13/48Indirect determination of position data using multiple beams at emission or reception
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/03Details of HF subsystems specially adapted therefor, e.g. common to transmitter and receiver
    • G01S7/032Constructional details for solid-state radar subsystems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • G01S7/06Cathode-ray tube displays or other two dimensional or three-dimensional displays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/35Details of non-pulse systems
    • G01S7/352Receivers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4021Means for monitoring or calibrating of parts of a radar system of receivers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01QANTENNAS, i.e. RADIO AERIALS
    • H01Q1/00Details of, or arrangements associated with, antennas
    • H01Q1/27Adaptation for use in or on movable bodies
    • H01Q1/32Adaptation for use in or on road or rail vehicles
    • H01Q1/3208Adaptation for use in or on road or rail vehicles characterised by the application wherein the antenna is used
    • H01Q1/3233Adaptation for use in or on road or rail vehicles characterised by the application wherein the antenna is used particular used as part of a sensor or in a security system, e.g. for automotive radar, navigation systems
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01QANTENNAS, i.e. RADIO AERIALS
    • H01Q1/00Details of, or arrangements associated with, antennas
    • H01Q1/27Adaptation for use in or on movable bodies
    • H01Q1/32Adaptation for use in or on road or rail vehicles
    • H01Q1/325Adaptation for use in or on road or rail vehicles characterised by the location of the antenna on the vehicle
    • H01Q1/3258Adaptation for use in or on road or rail vehicles characterised by the location of the antenna on the vehicle using the gutter of the vehicle; Means for clamping a whip aerial on the edge of a part of the vehicle
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01QANTENNAS, i.e. RADIO AERIALS
    • H01Q1/00Details of, or arrangements associated with, antennas
    • H01Q1/27Adaptation for use in or on movable bodies
    • H01Q1/32Adaptation for use in or on road or rail vehicles
    • H01Q1/325Adaptation for use in or on road or rail vehicles characterised by the location of the antenna on the vehicle
    • H01Q1/3283Adaptation for use in or on road or rail vehicles characterised by the location of the antenna on the vehicle side-mounted antennas, e.g. bumper-mounted, door-mounted
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01QANTENNAS, i.e. RADIO AERIALS
    • H01Q1/00Details of, or arrangements associated with, antennas
    • H01Q1/36Structural form of radiating elements, e.g. cone, spiral, umbrella; Particular materials used therewith
    • H01Q1/38Structural form of radiating elements, e.g. cone, spiral, umbrella; Particular materials used therewith formed by a conductive layer on an insulating support
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01QANTENNAS, i.e. RADIO AERIALS
    • H01Q13/00Waveguide horns or mouths; Slot antennas; Leaky-waveguide antennas; Equivalent structures causing radiation along the transmission path of a guided wave
    • H01Q13/10Resonant slot antennas
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01QANTENNAS, i.e. RADIO AERIALS
    • H01Q21/00Antenna arrays or systems
    • H01Q21/0006Particular feeding systems
    • H01Q21/0037Particular feeding systems linear waveguide fed arrays
    • H01Q21/0043Slotted waveguides
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01QANTENNAS, i.e. RADIO AERIALS
    • H01Q21/00Antenna arrays or systems
    • H01Q21/06Arrays of individually energised antenna units similarly polarised and spaced apart
    • H01Q21/061Two dimensional planar arrays
    • H01Q21/065Patch antenna array
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01QANTENNAS, i.e. RADIO AERIALS
    • H01Q25/00Antennas or antenna systems providing at least two radiating patterns
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01QANTENNAS, i.e. RADIO AERIALS
    • H01Q3/00Arrangements for changing or varying the orientation or the shape of the directional pattern of the waves radiated from an antenna or antenna system
    • H01Q3/24Arrangements for changing or varying the orientation or the shape of the directional pattern of the waves radiated from an antenna or antenna system varying the orientation by switching energy from one active radiating element to another, e.g. for beam switching
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01QANTENNAS, i.e. RADIO AERIALS
    • H01Q3/00Arrangements for changing or varying the orientation or the shape of the directional pattern of the waves radiated from an antenna or antenna system
    • H01Q3/26Arrangements for changing or varying the orientation or the shape of the directional pattern of the waves radiated from an antenna or antenna system varying the relative phase or relative amplitude of energisation between two or more active radiating elements; varying the distribution of energy across a radiating aperture
    • H01Q3/30Arrangements for changing or varying the orientation or the shape of the directional pattern of the waves radiated from an antenna or antenna system varying the relative phase or relative amplitude of energisation between two or more active radiating elements; varying the distribution of energy across a radiating aperture varying the relative phase between the radiating elements of an array
    • H01Q3/34Arrangements for changing or varying the orientation or the shape of the directional pattern of the waves radiated from an antenna or antenna system varying the relative phase or relative amplitude of energisation between two or more active radiating elements; varying the distribution of energy across a radiating aperture varying the relative phase between the radiating elements of an array by electrical means
    • H01Q3/40Arrangements for changing or varying the orientation or the shape of the directional pattern of the waves radiated from an antenna or antenna system varying the relative phase or relative amplitude of energisation between two or more active radiating elements; varying the distribution of energy across a radiating aperture varying the relative phase between the radiating elements of an array by electrical means with phasing matrix
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/08Lane monitoring; Lane Keeping Systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/08Lane monitoring; Lane Keeping Systems
    • B60T2201/081Lane monitoring; Lane Keeping Systems using distance control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/08Lane monitoring; Lane Keeping Systems
    • B60T2201/088Lane monitoring; Lane Keeping Systems using transmission control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2530/00Input parameters relating to vehicle conditions or values, not covered by groups B60W2510/00 or B60W2520/00
    • B60W2530/10Weight
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/583Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets
    • G01S13/584Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves and based upon the Doppler effect resulting from movement of targets adapted for simultaneous range and velocity measurements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S2013/0236Special technical features
    • G01S2013/0245Radar with phased array antenna
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9315Monitoring blind spots
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9321Velocity regulation, e.g. cruise control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93272Sensor installation details in the back of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93274Sensor installation details on the side of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93275Sensor installation details in the bumper area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/28Details of pulse systems
    • G01S7/285Receivers
    • G01S7/288Coherent receivers

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Security & Cryptography (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Description

【0001】
発明の背景
自動車走行に伴う危険性に鑑み、ドライバの意識を高めることが今日求められている。ドライバの意識を高めることが可能な分野の1つに、車両周囲における物体検出がある。車両が物体(例えば、別の自動車、歩行者および障害物)に接近する際、または物体が車両に接近する際、ドライバは常に物体を検出し、この物体との衝突を回避するために必要な介入処置を取ることができるとは限らない。例えば、車両のドライバは、車両のいわゆる「盲点」では物体を検出できない場合もある。
【0002】
トラックの状況意識を高めるために、例えば、トラック周囲の物体を検出するセンサ・システムまたは更に簡略化して「センサ」が提案されている。このようなセンサは、光学検出器即ち赤外線(IR)検出器を含み、車両の経路における障害物を検出するのが通例である。このような用途では、車両の経路において精度高くかつ信頼性高く物体を検出可能なセンサを設けることが必要である。
【0003】
レーダは、自動車やトラックのような車両に用いるセンサを実現するには相応しい技術である。この目的に適したレーダの一種に、周波数変調連続波(FMCW:Frequency Modulated Continuous Wave)レーダがある。典型的なFMCWレーダでは、送信CW信号の周波数は、第1所定周波数から第2所定周波数まで線形に増加する。FMCWレーダには、高い感度、比較的低い送信機出力、および高い距離分解能という利点がある。
【0004】
センサの精度や信頼性に寄与する特性には、ノイズに対する感受性や、受信無線周波数信号(RF)を処理しセンサの視野内で物体を検出する全体的精密度が含まれる。ノイズに対する感受性については、例えば、物体の距離や位置について偽検出の原因となる可能性があり、更に危険なのは、物体を検出せずに見過ごす虞れもあることである。
【0005】
センサの更に重要な属性は、その物理的サイズおよび形状係数に関係する。好ましくは、センサは、車両の表面背後に装着可能な比較的小型のエンクロージャ即ちハウジングに収容する。精度および信頼性のためには、送信および受信アンテナならびにセンサの回路が車両の属性(例えば、車両のグリル、バンパ等)の影響を受けず、予測できるように位置合わせしてセンサを車両に装着することが必須である。
【0006】
したがって、車両周囲において物体を検出可能なセンサ・システムを提供することができれば望ましいであろう。また、異なるサイズの車両周囲に検出ゾーンを設けるように適応可能なシステムを提供することができれば望ましいであろう。更に、遠隔地においてプログラムし直すことができるシステムを提供することができれば望ましいであろう。
発明の概要
本発明によれば、近接物体検出(NOD:near object detection)システムは、輸送手段(車両)周囲に配置された複数の無線周波数(RF)送信受信(TR)センサ・モジュール(または、単に「センサ」)を含み、車両周囲に1つ以上の検出ゾーンが展開されるようにしている。好適な実施形態では、センサを配置する際、各センサが、実質的に車両を包囲する1つ以上のカバレッジ・ゾーンにおいて、物体を検出するようにしている。複数のセンサの内、第1センサは車両の後部および/または前部バンパに装着することができ、一方第2センサは車両の側面パネルに装着することができる。センサの各々は、センサ・アンテナ・システムを含み、センサ・アンテナ・システムは、RF信号を放出即ち送信する送信アンテナと、送信RF信号の内、送信アンテナの視野内にある1つ以上の物体によって遮断され反射して戻ってきた部分を受信する受信アンテナとから成る。あるいは、モノスタティック・アンテナを用いることもできる。送信アンテナは、平面アレイ状のアンテナ・エレメントで構成することができ、一方受信アンテナは、平面アレイ状のアンテナ・エレメントまたは一列のアンテナ・エレメントで構成することができる。即ち、送信および受信アンテナは、異なる数および異なる種類のアンテナ・エレメントを有するように設けることができる。更に、NODシステムは、受信アンテナに結合され、受信アンテナから信号を受け、1つ以上の物体の経路即ち行路(進路)を検出する受信回路も含む。
【0007】
この特定的な構成により、車両周囲のいずれの領域においても物体を検出するNODシステムを提供する。センサの内1つが、車両が物体に接近しつつあると判定するか、または物体が車両に接近しつつあると判定した場合、センサは、1組の検出ルール(規則)に応じて実行するステップを開始する。
【0008】
一実施形態では、前述のシステムは、分散プロセッサ・システムとして設けられ、その場合センサの各々がプロセッサを含む。各センサは、互いに結合されており、センサ同士で情報を共有できるようになっている。別の実施形態では、センサの各々を中央センサ・プロセッサに結合し、中央センサ・プロセッサがセンサの各々から情報を受け取り、適宜この情報を処理する。
発明の詳細な説明
本発明の前述の特徴、および本発明自体は、以下の図面と関連する説明から一層深く理解することができよう。
【0009】
NODシステムについて説明する前に、予備概念および用語を少し説明しておく。ここで用いる場合、「センサ・システム」という用語は、車両(輸送手段)上に配置され、別の車両や静止物体のような、物体を検出することができ、このような検出を示すことができる対応出力を有するシステムのことを言う。「センサ」という用語も、ここではセンサ・システムを記述するために用いられる。センサ・システムまたはセンサは、種々のセンサ・システムからデータを受け取り、種々のセンサ・システムからのデータを組み合わせて処理する近接物体検出(NOD)システムとは区別する。
【0010】
これより図1を参照すると、近接物体検出(NOD)システム10が輸送手段(車両)11上に配置されている。車両11は、例えば、自動車、オートバイ、またはトラックのような自動車両、ボートのような海洋輸送手段または水中輸送手段、あるいは刈り取り機のような農業車両として設けることができる。この特定的な実施形態では、近接物体検出システム10は、本発明の譲受人に譲渡された、「Automotive Forward Looking Sensor Application」(自動車用前方監視センサの応用)と題し1999年7月27日に発行された米国特許第5,929,802号に記載されている形式とすることができる、前方監視センサ(FLS:forward-looking sensor)システム12、赤外線(IR)センサとすることができる電気光学システム(EOS:electro-optic system)センサ14、本発明の譲受人に譲渡された、「Radar Transmitter Circuitry and Techniques」(レーダ送信回路および技法)と題し2001年8月16日に出願された同時係属中の米国特許出願第09/931,636号に記載されている形式とすることができる複数の側方(横方向)監視センサ(SLS:side-looking sensor)システム12〜22(横方向物体検出(SOD:side object detection)システム16〜22とも呼ぶ)、および複数の後方監視センサ(RLS:rear-looking sensor)システム24、26を含む。センサ16〜28は、本発明の譲受人に譲渡された「System and Technique for Mounting a Radar System on a Vehicle」(レーダ・システムを車両上に搭載するシステムおよび技法)と題する同時係属中の米国特許出願第09/930,868号に記載されている技法を含む種々の技法を用いて、車両に結合することができる。また、システム10は、停止および発進(SNG:stop and go)センサ27も含むことができる。尚、停止および発進センサ27によって行われる処理ならびにセンサ27によって設けられる検出ゾーンは、FLS12によって設けることもでき、したがってセンサ27は省略可能であることは理解されよう。停止および発進処理機能をFLS12から得るかあるいは別個のセンサ(例えば、SNGセンサ27)から得るか判断する際には、トレードオフが必要となる。一例としてトレードオフの検討事項には、所望の最短および最長検出距離、ゾーン周辺の許容度および反応時間が含まれる。
【0011】
FLS、EOS、SLS、RLSおよびSNG(含まれている場合)システム12〜27は、各々、センサ12〜27各々間に通信バスを設けるバス28に結合されている。バス28は、例えば、ローカル・エリア・ネットワーク(LAN)28として設けることができる。実施形態によっては、LAN28をワイヤレスLANとして設けることが望ましい場合もある。
【0012】
「ターゲット行路(追跡行路)データ」、「行路(追跡行路)データ」、「ターゲット・データ」または同等な「行路(追跡行路)情報」とは、ここで用いる場合、物体に関連する「行路(追跡行路)ファイル」におけるデータのことを言い、ある座標系においてターゲットの経路を記述する。物体のことを、ここでは、「ターゲット」とも呼び、別の車両または静止物体等がある。ターゲット行路データは、ターゲットがあった場所に対応する旧ターゲット行路データ、現データ更新時にターゲットがある場所に対応する新ターゲット行路データ、ならびに現在および/または今後のターゲット行路データ更新時においてターゲットが予測される場所に対応する予測ターゲット行路データを含むことができる。
【0013】
尚、システム10はリアル・タイム・システムであり、したがって、センサ12〜27の各々とプロセッサ30との間では情報をできるだけ迅速に交換/転送すべきことは認められよう。つまり、バス28は、比較的高いデータ転送レートに対応できなければならない。
【0014】
例えば、バス28は、毎秒157kビットにプロトコルのオーバーヘッド追加分を考慮した平均バス帯域幅を有することが望ましい場合もある。この帯域幅は、送信および受信アンテナが各々7つのアンテナ・ビームを有し、7つのアンテナ・ビームの各々で平均2つのターゲット追跡行路を有し、一追跡行路当たり14Hz(最少)、100バイトで各追跡行路を報告することを想定して計算した(7×2×14×100×8=157kバイトの平均バス帯域幅)。つまり、現在車両上で可能なように(例えば、カー・エリア・ネットワーク(CAN))、従来のバスを通じてセンサに通信させることはできるが、先に記した平均バス帯域幅以上ではないにしても、少なくともその程度の帯域幅を有する専用バスとして、バス28を設けることが望ましい場合もある。
【0015】
バス・レイテンシとは、ここで用いる場合、センサによる物体の検出と、バス28上での検出報告との間の時間差のことを言う。バス・レイテンシによってもたらされる時間遅延は相対的に小さくなければならず、例えば、相対的な自動車の移動の0.5メートル未満に対応する時間遅延程度とする。相対的移動とは、ここで用いる場合、自動車と静止物体との間または車両と移動物体、例えば、別の移動自動車との間のいずれかにおける距離を単位とする相対的移動のことを言う。相対速度とは、ここで用いる場合、相対的移動の速度である。自動車の相対的移動の0.5メートルに対応するバス・レイテンシ遅延は、最大相対自動車速度、例えば、200km/hr=125mph=55.6m/sを選択することによって決定することができる。つまり、自動車の相対的移動0.5メートルを55.6m/sで除算すると、約9msとなり、これが対応する最大バス・レイテンシ時間遅延となる。バスのクロック周波数が33kHzと仮定すると、9msは約300クロック・サイクルと同等となる。要約すると、最大相対車両速度を約200km/hrに選択すると、0.5メートルの相対的自動車移動は、約9msに対応する。即ち、300KHzのクロック周波数において約300クロック・サイクルに対応する。
【0016】
先の説明では、特定の相対的自動車移動、特定の選択した最大相対自動車速度、および特定のクロック周波数を含む特定のパラメータについて記載したが、別のパラメータも本発明では使用可能であることは認められよう。しかしながら、バス時間レイテンシを記述するパラメータは、種々の因子(ファクタ)に応じて選択しなければならない。限定ではないが、そのファクタには、警報、制動(ブレーキ)、エアバッグの作動等によってシステムが車両に対して作用することを可能にする全システム応答時間を含み、有用であるには十分な迅速性を要する。検討すべき他のファクタには、フォールト・トレランス(耐故障性)、干渉に対する抵抗性、信頼性、およびコストを含むことができる。
【0017】
また、センサは、バス28を通して、セントラル・トラッカー(中央追跡装置)/データ融合(CT/DF:central tracker/data fusion)プロセッサ30にも結合されている。CT/DFプロセッサ30については、図4、図6および図7に関連付けて以下で説明する。ここでは、CT/DFプロセッサ30は、センサ12〜27の各々から与えられた情報を受信し、情報をセンサ12〜27の各々に提供することを述べれば十分であろう。センサ12〜27は、CT/DFプロセッサ30が提供する情報を利用し、システム10の全体的性能を向上させる。これはいずれ明らかになろう。
【0018】
また、CT/DFプロセッサ30には、バス28を通して人間インターフェース32も結合されている。インターフェース32の目的は、センサ12〜28が収集した情報を、車両11のドライバまたはその他の乗員に表示またはその他の方法で伝達する(例えば、オーディオ信号またはその他の信号によって)ことである。インターフェース32は、例えば、ヘッド・アップ・ディスプレイとして設けることもできる。
【0019】
この特定の実施形態では、CT/DFプロセッサ30は、センサ16の一部として設けられた単一のプロセッサとして示されており、これに対してバス28またはその他の手段を通じて、FLS、EOS、SLS、RLSおよびSNGセンサ12〜27の各々が結合されている。尚、別の実施形態では、FLS、EOS、SLS、RLSおよびSNGセンサ12〜27の1つ以上がそれ自体のCT/DFプロセッサを含み、センサ12〜27の別のものと直接情報(例えば、送信および受信情報)を共有するために必要な処理を行うようにしてもよいことは認められよう。CT/DF処理機能に冗長性を持たせることが望ましい場合、センサ12〜27の内2つにCT/DFプロセッサ30を設けることが望ましいこともある。センサ12〜27の各々がそれ自体のCT/DFシステムを含む場合、近接物体検出システムは分散処理システムとして設けることができる。分散型と単一のマスタ・プロセッサとの間で選択する際に検討すべき因子には、信頼性、バスの帯域幅、処理のレイテンシ、およびコストが含まれるが、これらに限定される訳ではない。
【0020】
一実施形態では、CT/DFプロセッサ30は、特定の情報をセンサ12〜27の内の特定のセンサに提供し、別の実施形態では、CT/DFプロセッサ20はあらゆる情報をセンサ12〜27の各々に提供する。
【0021】
図1に示すように、少なくとも1つのセンサ12〜27が、セントラル・トラッカー・データ融合(CT/DF)プロセッサ30を含み、センサ12〜27の各々はバス28を通じてデータをCT/DFプロセッサ30に送る。近接物体検出システムが含むCT/DFプロセッサ30が単一かまたは多数かには関係なく、センサ12〜27の各々によって収集された情報は共有され、CT/DFプロセッサ30(または、分散システムの場合には複数のプロセッサ)は、判断ツリー即ち規則ツリーを実施する。例えば、CT/DFプロセッサ30を、1つ以上の車両(輸送手段)安全システム、例えば、車両のエアバッグ・システムに結合することができる。FLS、EOS、SLS、およびRLSシステムの1つ以上からの信号に応答して、センサ・プロセッサは、車両のエアバッグを「準備」するのに適していると判断することができる。別の例には、制動および操舵システム、トランスミッション制御、警報、警笛(horn)および/または自動点滅器の活性化が含まれる。
【0022】
NODシステム10は、したがって、以下で更に説明する多数の車両安全システムに結合することもできる。CT/DFプロセッサ30は、提供されるあらゆる情報を受け取り、車両全体に対してNODSシステムの処理能力を最適化する。
【0023】
1対のRLSシステム24、26は、三角測量方式を利用して、車両後部において物体を検出することができる。物体の位置(距離および方向)は、1対のRLSシステム24、26のそれぞれ各1つからの距離またはレンジ(距離範囲)読み取り値から判断すればよく、2つのセンサ24、26のそれぞれから個々に方向を解明する必要はない。三角測量は、2つの距離円(range circle)を描けば行うことができる。各距離円は、1対のRLSシステム24、26のそれぞれ各1つが与えるレンジ(距離範囲)に対応し、それぞれの各距離円は、レンジに等しい半径を有する。このように与えられた2つの距離円は、2カ所の距離で交差することができる。交差距離点の一方は、ホスト11内部に位置するので、不可能な距離に対応する。他方の距離点を選択し、距離および方向によって位置を記述する。
【0024】
前述の三角測量を行うには、センサ24、26の間隔がわかっており、十分に大きく、センサ24、26の各々によって得られる距離測定精度に関して、所定の最大三角測量誤差を許容するようにしなければならない。尚、RLSシステム24、26の分離は種々の車種によって異なる可能性があり、車両11はその一例に過ぎないので、ある程度の距離較正が必要となることは認められよう。しかしながら、較正は、既知の分離量に基づいて予め決めておくことができる。
【0025】
尚、センサ12〜27の1つ以上を車両11上に着脱可能に配備してもよいことは認められよう。即ち、実施形態によっては、SLS、RLS、およびFLSセンサを車両の本体外部に配置してもよく(即ち、車両本体の露出面に配置する)、一方別のシステムでは、センサ12〜27の1つ以上を車両のバンパまたはその他の部分(例えば、ドア、パネル、クオータ・パネル、車両の前端、および車両の後端)に埋め込んでもよい。また、車両内部(例えば、バンパまたはその他の場所の内部)に搭載し、しかも着脱可能なシステムを設けることも可能である。
【0026】
次に図2を参照すると、図1において同様のエレメントには同様の参照番号が付されている。NODシステムが配置された車両11が示されており、この車両周囲にレーダ繭(radar cocoon)を形成する複数の検出ゾーン32〜40によって包囲されている。尚、センサ12〜27(図1)のサイズが異なれば、検出ゾーン32〜40も異なることは認められよう。即ち、センサ12および14は、適応的クルーズ(巡航)制御および暗視ゾーン34を設け、センサ16は車線維持ゾーン36bを設け、センサ18は道路離脱ゾーン(road departure zone)36aを設け、センサ20、22はそれぞれ横方向(側方)物体検出ゾーン38a、38bを設け、センサ24、26は後退および駐車補助ゾーン40を設け、センサ27は停車および発車ゾーン42を設ける。実施形態の一例では、適応的巡航制御/暗視ゾーン34の角度範囲は制限されており、高い相対速度で動作するために、ロングレンジ即ち長い距離(>50m)を特徴とする。道路離脱および車線維持ゾーン36a、36bは、それぞれ、距離が短く(ショートレンジ)角度範囲が広く、中程度の相対速度で動作する。停止および発進ならびに後退/駐車補助ゾーン42、40は、角度範囲が広いが、距離が非常に短く(ショートレンジ)、小さい相対速度範囲で動作する。また、後退/駐車補助ゾーン40は、通常の運転状態において後部衝突警告情報を提供することもできる。横方向物体検出ゾーン38a、38bは、広い角度範囲および比較的短い距離を有し、広い範囲の相対速度で動作する。
【0027】
尚、センサ・ゾーン各々のサイズ、形状およびその他の特性は静的に変更可能であることも認められよう。センサ・ゾーンは、センサ12〜27(図1)に関連する検出特性およびレーダ・ビーム角によって決定される所定のゾーン形状を有するように、静的に変更することができる。自動車のサイズ即ち大きさやオペレータの周辺視野の選択(これらに限定されない)を含み、1つ以上の検出ゾーンの特性を変更することを望む理由は数多くある。検出ゾーン・サイズを変更することが望まれるその他の理由には、トレーラの牽引、車線サイズの変更、交通密度および個人的な好みも含まれる可能性がある。
【0028】
また、センサ・ゾーンは動的に変更することもできる。動的制御は、あるレーダ・ビーム上におけるドウェル(dwell)を含むことができるが、これに限定される訳ではない。これについては、図7に関連付けて以下で説明する。追跡のハンドオフによって、捕捉検証ステップ(工程)を回避または削減し、キュー(cue)データに対するセンサ応答の迅速化または信頼性向上が可能となる。動的変更については、図7に関連付けて以下で更に説明する。
【0029】
単一のセンサの特性を変更すれば、センサは異なるサイズおよび形状のカバレッジ・ゾーンにおいて検出機能を得ることができるので、車両11よりも大型の車両または小型の車両でもセンサを用いることができる。このように、個々のセンサによって設けられるカバレッジ・ゾーンの変更は、センサのプログラミングによって行うことができる。
【0030】
一実施形態では、カバレッジ・ゾーンは、2001年8月16日に出願され、「Technique for Changing a Range Gate and Radar Coverage」(距離ゲートおよびレーダ・カバレッジの変更技法)と題する同時係属中の米国特許出願第09/930,867号に記載されているように、センサの距離ゲートを調節することによって変更することができる。この出願は、本発明の譲受人に譲渡されており、その内容はこの言及により本願にも援用されることとする。別の実施形態では、カバレッジ・ゾーンを変更するには、再構成可能なアンテナを用いる。更に別の実施形態では、再構成可能なアンテナを設けるには、微小電気機械(MEM:microelectromechanical)デバイスを用い、これを用いてビーム形状、したがってビーム・カバレッジを変化させる。MEMSは、アパーチャの形状、したがってビーム形状を変化させることができる。
【0031】
尚、図1に示すセンサの特定的な構成では、7つのカバレッジ・ゾーン32〜40が設けられることを注目すべきである。特定の一実施形態では、カバレッジ・ゾーンの各々では、レーダ・センサ・システムが利用されている。このレーダ・センサ・システムは、ここでは、センサおよびRFセンサとも呼ばれている。レーダ・センサは、アンテナとカバレッジ・ゾーンの各々において多数の送信ビームおよび多数の受信ビームを供給するビーム形成システムを利用することができる。こうして、別の物体即ちターゲットが車両に近づく方向、または逆に車両が別の物体に近づく特定の方向を発見することができる。特定的な一実施形態では、FLSセンサ12(図1)は、8つの別個のアンテナ・ビームを含むアンテナ・システムを利用することができる。RFセンサ・システムは、先に引用した米国特許第5,929,802号に記載されているように動作することができる。同様に、センサ16〜27も、7つの別個の送信および受信アンテナ・ビームを含むアンテナ・システムを利用することができる。センサ16〜27(図1)は、「Radar Transmitter Circuit and Technique」(レーダ送信回路および技法)と題する先に引用した米国特許出願第09/931,636号に記載されているように動作することができる。しかしながら、本発明と共に用いることができるレーダ・センサ・システムが有する送信および受信ビームの数はいずれでもよいことは認められよう。
【0032】
次に図3を参照すると、NODシステムが配置されている車両11が、3本の車線41a、41b、41cを有する道路41上を走行している。車両11は、車線41b内にあり、第1車両50が車両11の前方にあり、検出ゾーン34内に見える。第2車両52が車両11の右側の車線41a内にあり、検出ゾーン38a内に見える。第3車両54が車線41b内の車両11背後にあり、検出ゾーン40内に見える。第4車両56が車両11の左後方の車線41c内にある。車両56は車両11から比較的遠いので、車両56はいずれの検出ゾーンにも見えず、したがって第1車両11上に配置したNODシステムによって検出されない。
【0033】
図3に示すように、NODシステムは、車両11に近接する3台の車両即ちターゲット50、52、54を識別している。NODシステムは、各ターゲット50〜54の情報を維持し、このような情報をユーザに(例えば、図1のディスプレイ32を通じて)提供するか、あるいは所要の機能(例えば、車両のエアバッグ・システムを準備する)を実行する。
【0034】
更に、センサ12〜27(図1)はCT/DFプロセッサ30(図1)と通信状態にあるとともに相互に通信状態にあるので、センサはターゲットに関する情報を共有することができる。例えば、車両11上に装着したセンサ18が第2車両52を検出し、第2車両52を追跡し始めたと想定する。ある時間期間の後、第2車両52は加速を開始して車両11を追い抜くこともあり得る。センサ18が、第2車両52が右側から車両11を追い抜くことを検出できれば、センサ18はこの情報をFLS12に提供することができる。この情報は、共用行路ファイル(public track file)の形式、または車両11のグローバル座標系においてターゲット即ち第2車両52を示す同様のデータ集合とすることができる。このような行路ファイルによって、FLS12は現在のターゲット位置情報およびターゲット位置予測情報を有することができ、そして実際にターゲット即ち第2車両52を観察/検出することが可能となる。
【0035】
このように、FLS12自体が実際にターゲットを検出し、捕捉し、確認し、追跡する前に、FLS12には、確認したターゲット(即ち、「実」ターゲット)に関する事前行路情報が与えられる。この事前行路情報のことを、ここでは「キュー・データ」とも呼ぶ。キュー・データについては、図5に関連付けて以下で更に論ずることにする。ターゲット検出とは、ここで用いる場合、ある閾値に基づいて干渉レベルを超えるターゲット信号を区別するプロセスのことを言う。この場合、ターゲット信号はターゲットからの後方散乱RFエネルギに対応し、干渉はノイズおよび/またはクラッタ(clutter)に対応する。ターゲットの捕捉とは、ここで用いる場合、新たなターゲット検出、およびそれに関連するターゲット位置を、「行路ファイル」に対応する既存のターゲット行路と関連(連携)させるプロセスのことを言う。ターゲットの確認とは、ここで用いる場合、同じ追跡ファイルの連続更新または隣接ビームに対して繰り返すターゲット連携のような、1組の規則を適用して、検出したターゲットが本当であることを検証するプロセスのことを言う。ターゲットの追跡とは、ここで用いる場合、更新毎に、新たなターゲット方向を以前のターゲット方向と関連させ、ターゲット位置に対応する位置状態ベクトルを予測し平均化することによって、位置や速度のようなターゲットに関する情報を維持するプロセスのことを言う。これらのプロセスについては、図7に関連付けて説明するとき、一層深く理解されよう。
【0036】
FLS12(図1)に事前情報、即ち、キュー・データ(例えば、確認したターゲットが車両11の右側からその視野に入りつつあることの情報)を提供することによって、FLS12は、まず始めにターゲット検出、ターゲット捕捉またはターゲット確認プロセスを実行することなく、即ち、このようなプロセスを実行するのに必要な処理量を最少に抑えて、ターゲット追跡プロセスに進むことができる。FLS12は、車両52が実際にFLS12の視野に入りつつある実ターゲットであることを確認するために処理時間を費やすことなく、センサ18(図1)からの情報によってターゲットおよびターゲット追跡行路を確認することができるので、FLS12は、多数のターゲットの追跡のような一層多くの処理機能や、以下に説明するその他の機能を実行することができる。このように、FLSに事前情報を提供することによって、FLS12は一層迅速にターゲットを追跡することができ、特にFLS12はいわゆる「割り込み」(cut-in)ターゲット(即ち、突然車両11前方で車線41bに入り込んでくる車両)を一層迅速に検出し追跡することができるようになる。
【0037】
恐らく更に重要なこととして、FLS12がこのような事前知識を得ることが有利なのは、ターゲット52がFLS12の検出ゾーンに侵入する前に、ターゲット52の経路に関する情報をFLS12に提供することによって、FLS12は防御処置の作動(engagement)に関する処理を開始するか、場合によっては実行できるからである。防御処置には、エア・バッグの準備、自動巡航制御(ACC)システムの自動調節、および制動(ブレーキ)システムの準備が含まれるが、これらに限定される訳ではない。このように、FLS12は、車両の運転に関係する別の機能も実行することができる。
【0038】
尚、CT/FSプロセッサ30(図1)は、追跡機能を実行する「ターゲット・トラッカー」であり、しかも融合機能を実行する「データ融合部」でもあることは認められよう。CT/DFプロセッサ30の中心的な追跡機能は、システム10(図1)内にある種々のセンサ(例えば、図1のセンサ12〜27)からのあらゆる追跡行路を受信し維持し、別のセンサの前述したような動作を補助することである。
【0039】
次に図4ないし図4Dを参照すると、図4では、放射状区間57a〜57gの各々が、センサ18によって与えられる7つのビームのそれぞれに対応し、放射状区間58a〜58gの各々が、センサ20によって与えられる7つのビームのそれぞれに対応する。
【0040】
図4A、図4Cおよび図4B、図4Dは、それぞれ、センサ18、20が行う検出を矩形グラフで表しており、行が各センサ18、20それぞれの7つのビームに対応し、列がレンジ(距離)セルに対応する。図4A、図4Bにおけるドットは、各センサ18、20それぞれの7つのビームにおけるターゲット検出を表す。図4C、図4Dにおけるドットは、各センサ18、20それぞれの7つのビームに関連する融合ターゲット検出を表す。したがって、第1平行線模様(クロスハッチ)を有するドット59aおよび59bは、それぞれ、放射状区間57a、57bに対応するセンサ18のビームにおけるターゲット52の検出に対応する。第2平行線模様を有するドット59cおよび59dは、それぞれ、放射状区間57f,59gに対応するセンサ18のビームにおけるターゲット54の検出に対応する。第3平行線模様を有するドット60a〜60cは、それぞれ、放射状区間58a〜58cに対応するセンサ20のビームにおけるターゲット54の検出に対応する。第4平行線模様を有するドット60d、60eは、それぞれ、放射状区間58f、58gに対応するセンサ20のビームにおけるターゲット56の検出に対応する。第1平行線模様を有するドット61a、61bは、それぞれ、放射状区間57a、57bに対応するセンサ18のビームにおけるターゲット52の融合検出(fused detection)に対応する。塗りつぶされたドット61c、61dは、それぞれ、放射状区間57f、57gに対応するセンサ18のビームにおけるターゲット54の融合検出に対応し、塗りつぶされたドット62a〜62cは、それぞれ、放射状区間58a〜58cに対応するセンサ20のビームにおけるターゲット54の融合検出に対応し、第3平行線模様を有するドット62d、62eは、それぞれ、放射状区間58f、58gに対応するセンサ20のビームにおけるターゲット56の融合検出に対応する。
【0041】
前述のように、図4Aおよび図4Bは、それぞれ、センサ18および20からの非融合ターゲット・データに対応する。図4Cおよび図4Dは、それぞれ、CT/DFプロセッサ30(図1)の融合機能によって与えられる、センサ18および20からの融合ターゲット・データに対応する。図4A、図4Cに示す7つの行の各々は、センサ18に伴う7つのビームのそれぞれ1つに対応する。同様に、図4B、図4Dに示す7つの行の各々は、センサ20に伴う7つのビームのそれぞれ1つに対応する。融合機能は、センサ18によって行われる個々のターゲットの検出の、センサ20によって行われるそれとの連携に対応する。したがって、ドット61c、61dに対応するデータは、ドット62a〜62cに対応するデータと連携即ち融合される。図示のドット61c〜61d、62a〜62cは全て、塗りつぶされており、これらが同じターゲット54と連携されていること、および2つのセンサ18、20の各々からの対応データが融合されていることを示す。図示のドット61a、61bおよび62d、62eは、対応する非融合ドット59a、59bおよび60d、60eと同じ平行線模様をそれぞれ有し、融合によってそれぞれのセンサ18、20間にはターゲット連携が得られなかったことを示す。図4Cおよび図4Dは、それぞれのセンサ18、20のローカル(局部)座標系で示すが、ドット61a〜61dおよび62a〜62eに対応するデータはグローバル座標系でも表示可能であることは、以下の論述から明白であろう。尚、このように融合されたデータを用い、2つ以上のセンサによって行われるターゲットの検出およびターゲットの追跡は、1つのセンサによって行われる検出およびターゲットの追跡よりも高い精度確率を有する検出であることは認められよう。
【0042】
動作において、センサ12〜27(図1)の内多数のセンサが同じターゲットを追跡することができる。図4に示すように、例えば、ターゲット54がセンサ18の視野内に現れ、したがってセンサ18がターゲット54を検出し追跡することができる。同様に、ターゲット54は、センサ20(図4)によって検出および追跡される。したがって、両センサ18および20はターゲット54を検出し追跡することができる。ターゲット54に対応するセンサ18および20によって与えられるデータは、融合することができる。このように融合されたデータによって、センサ18、20の一方からのデータよりも、検出および追跡の信頼性を高めることができる。
【0043】
センサ18および20は、車両11の異なる点に位置するので、センサ18、20は2つの異なるアスペクト角からターゲットを追跡する。センサ18、20の各々は、それ自体の一意のローカル座標系を有する。2つの異なるローカル座標系を有するため、センサ18、20は、これらが各々同じターゲットを追跡していることを判断できない。各センサ18、20からの検出および追跡データを調整するために、各センサ18、20はその追跡情報を、センサ18、20に対応する行路ファイルとして、CT/DFプロセッサ30に提供する。
【0044】
CT/DFプロセッサ30には、センサ12〜27の各々の車両11上における物理的位置を特定する情報が提供される。特定の車両上におけるセンサの相対的位置は固定しているので、CT/DFプロセッサ30は、各センサがそれぞれのローカル座標系で与えたターゲット行路データを、車両のグローバル座標系に変換することができる。
【0045】
加えて、CT/DFプロセッサ30は、個々のいずれのセンサでも、そのセンサのローカル座標系に変換したターゲット行路データを供給することができる。このように、CT/DFプロセッサ30は、センサ18、20各々から与えられたローカル座標系の行路データを、それ自体のグローバル座標系に変換することができる。こうして、CT/DFプロセッサ30は、センサ18、20の各々(更に一般にはセンサ12〜27のいずれか)が検出した各ターゲットの位置を単一の座標系において観察する。尚、放射セグメント57a〜57gは、センサ18に関連するローカル座標系に対応し、放射セグメント58a〜58gはセンサ20に関連するローカル座標系に対応することは認められよう。
【0046】
あらゆるターゲット情報が単一の制御系で見られるので、CT/DFプロセッサ30(図1)は、多数のセンサの各々が行う場合よりも信頼性を高めて、ターゲットを検出し対応するターゲット行路を生成することができる。NODシステムおよび連動するCT/DFプロセッサ30は、各センサ(例えば、センサ18、20)が行う各ターゲット追跡からのデータを共通のファイルに融合することができ、あるいは(追跡ノイズ等によって判定される)最も品質が高いデータのみを選択し、個々のセンサを補助し、それによって得られる処理能力を高めることができる。
【0047】
CT/DFプロセッサ30が実行するプロセスは、複数のセンサによって与えられるターゲット・データの融合を含むことができる。ターゲット・データの融合は、複数のセンサによってそれぞれのローカル座標系で与えられたセンサ・ターゲット行路データをグローバル座標系に変換することを含むことができる。これは、1つ以上の座標変換によって行うことができる。次いで、CT/DFプロセッサ30は、各センサによって与えられた行路データを、以前に融合した追跡行路と連携し、新たな融合行路データを得る。
【0048】
また、CT/DFプロセッサ30が実行するプロセスは、「データ連携」も含むことができ、ここで用いる場合、「新たな」行路または第1想定品質(予測誤差統計)を有する位置データを、第2想定品質を有する既存の行路データと比較するプロセスのことを言う。ある追跡行路と一致する(相関がある)可能性が高いと考えられる新たな追跡データ、即ち、既存のターゲットの追跡行路と比較したときに、新たな行路データの位置差異が小さい場合、関連(連携)するという。この新たな位置データは、その追跡行路と同じ物理的ターゲットから得られたと想定する。ある追跡行路と一致する可能性が低いと思われる新たな行路データ、即ち、追跡行路と比較したときに、新たなデータの位置差異が大きい場合は、関連(連携)しないと言う。
【0049】
更に、CT/DFプロセッサ30が実行するプロセスは、位置行路の「リカーシブ(反復的)更新」も含むことができる。このような実施形態の1つでは、位置行路のリカーシブ更新は、カルマン・フィルタによって行う。カルマン・フィルタは、ターゲット位置を記述する位置状態ベクトルを与えるフィルタであることが認められており、新たな行路データと組み合わせて既存のターゲット行路に適用することができる。カルマン・フィルタは、更新毎に関連する状態ベクトル・データの平均を取ることによって、追跡誤差を低減することができる。尚、カルマン・フィルタ以外の状態ベクトル・フィルタも本発明では使用可能であることも認められよう。
【0050】
CT/DFプロセッサ30が実行するプロセスは、更に、「追跡行路開始」も含むことができ、ここで用いる場合、既存の行路データのいずれとも連携しない、新たな非連携行路データのために行路ファイルを新しく作成することを言う。非連携行路データは、以前に追跡されたことがない新しいターゲットに対応すると想定する。このプロセスでは、既存の追跡行路と連携しないあらゆる検出を初期化し、その検出を表す新たな行路ファイルを作成する。後続のデータ更新において、新たなターゲットを追跡する。同様に、CT/DFプロセッサ30は、特定のセンサの視野から外れた行路を脱落、即ち、削除することができる。あるデータ更新時に新たな位置データと連携されていない既存の行路ファイルを有するターゲットはいずれも、視野外にあると見なされ、その行路ファイルを削除し、今後の更新では処理しないようにする。CT/DFプロセッサ30が実行する処理については、図7に関連付けて更に説明する。
【0051】
次に図5を参照すると、レーダ・システム66は、送信および受信アンテナ68、69を有するアンテナ部67と、送信機72および受信機74双方を有するマイクロ波部70と、ディジタル信号プロセッサ(DSP)80、電源82、制御回路84およびディジタル・インターフェース・ユニット(DIU)86を内蔵した電子装置部78を含む。送信機72は、電圧制御発振器(VCO)に制御信号を発生するディジタル・ランプ(傾斜)信号発生器を含む。VCOは、例えば、「Radar Transmitter Circuitry And Techniques」(レーダ送信回路および技法)と題し2001年8月16日に出願された、同時係属中の米国特許出願第09/931,636号に記載されている形式で設けることができる。この出願は、本発明の譲受人に譲渡されている。
【0052】
レーダ・センサ66は、当該センサ66の視野内にある1つ以上の物体、即ち、ターゲットを検出する。例示の実施形態では、レーダ・センサ66は、図1に関連付けて先に述べたNODシステム10のような、近接物体検出システムとすることができる。即ち、レーダ・センサ66は、図1と関連付けて先に説明した、横方向(側方)物体検出(SOD)モジュール、またはセンサ16〜27の1つのようなセンサとして用いるのに適している。前述のように、このようなセンサは、別の車両、木々、標識、歩行者、および車両が位置する通路に近接して検出され得るその他の物体を含むがこれらには限定されない物体を検出する目的で、自動車またはその他の輸送手段96上に装着するように構成されている。当業者には明白であろうが、レーダ・センサ66は、多くの異なる種類の用途における使用にも適している。このような用途には、限定の意味ではなく、海洋の用途が含まれ、この場合レーダ・システム60をボート、船またはその他の船舶に搭載することができる。
【0053】
実施形態の一例では、送信機72は、周波数変調連続波(FMCW)レーダとして動作し、送信信号の周波数が第1の所定周波数から第2の所定周波数まで線形に増加する。FMCWレーダには、感度が高く、送信電力が比較的低く、距離分解能が高いという利点がある。しかしながら、別の種類の送信機を使用してもよいことは認められよう。
【0054】
制御信号バス92を通じて車両96からレーダ・システム60に制御信号が供給される。制御信号は、車両96に関するヨー・レート(yaw rate)に対応するヨー・レート信号、および車両の速度に対応する速度信号を含むことができる。ディジタル信号プロセッサ(DSP)80は、これらの制御信号、およびレーダ・システム66が受信したレーダ反射信号を処理し、レーダ・システム66の視野内において物体を検出する。
【0055】
レーダ・システム66は、更に、CT/DFプロセッサ88を含む。これは、図1で説明したCT/DFプロセッサ30の形式とすればよい。DSP80は、CT/DFプロセッサ88を介してディジタル・インターフェース・ユニット(DIU)86に結合されている。レーダ・システム60の別の実施形態では、CT/DFプロセッサ88を省略してもよく、その場合、DSP80をディジタル・インターフェース・ユニット86に直接結合する。CT/DFプロセッサ88の形式は、図1ないし図3に関連付けて先に述べそして以下に述べる形式とすることができる。つまり、CT/DFプロセッサ88はDSP80から信号を受け、更にDIU86を介して、車両96周囲に配置されたその他のレーダ・システム66からも情報を受ける。レーダ・センサ、例えば、センサ12〜27(図1)のそれぞれによってCT/DFプロセッサ88に与えられるデータは、行路ファイルの形式、またはセンサの座標系の未加工検出データでもよい。また、CT/DFプロセッサ88は、センサにキュー・データ(先行データ)を供給することもでき、この場合、キュー・データはセンサ12〜27(図1)の内別のそれぞれによるターゲットの検出から得られる。キュー・データは、未だ当該センサの視野内にはないが、移動して視野内に入ってくると予想されるターゲットの位置を与えることができる。
【0056】
レーダ・システム66は、その視野内にある物体を特徴化する1つ以上の出力信号を、車両に至る出力信号バス94を通じて車両96に供給する。これらの出力信号は、ターゲットに関する距離を示す距離信号、ターゲットに関する距離レートを示す距離レート信号、および車両96に対するターゲットに関する方位を示す方位信号を有する行路データ含むことができる。出力信号を車両96の制御ユニット(図示せず)に結合し、様々な使用のためにこの制御ユニットを更に車両96の安全システムに結合し、例えば、インテリジェント巡航制御システムや衝突回避システムを設けることができる。
【0057】
アンテナ・アセンブリ67は、RF信号を受信する受信アンテナ68と、RF信号を送信する送信アンテナ69とを含む。この特定的な例では、レーダ・センサ66はバイスタティック・レーダ・システム(bistatic radar system)に対応する。何故なら、これは互いに近接して位置する別個の送信および受信アンテナを含むからである。アンテナ68、69は、ステアリング角を並列に制御して、同じ方向で送信ビームおよび受信ビームに照準を合わせるように多数のビームを供給する。それぞれのアンテナ68、69の角度を選択するには、様々の適合する回路があり、その中には多重位置スイッチが含まれる。適当なアンテナ・システムは、例えば、2001年8月16日に出願され本発明の譲受人に譲渡された、「Switched Beam Antenna Architecture」(切替ビーム・アンテナ・アーキテクチャ)と題する同時係属中の米国特許出願第09/932,574号に記載されている形式として設けることができる。
【0058】
次に図6を参照すると、図1のレーダ・システム10の応用例が、自動車用近接物体検出(NOD)システム100の形態で示されている。NODシステム100は、車両120上に配置されている。車両120は、例えば、自動車、オートバイ、またはトラックのような自動車両、ボートのような海洋輸送手段または水中輸送手段、あるいは刈り取り機のような農業車両として設けることができる。この特定的な実施形態では、NODシステム100は、前方監視センサ(FLS)システム122、画像データを得ることができる光電センサ(EOS)システム124、複数の側方監視センサ(SLS)システム128または同等の横方向物体検出(SOD)システム128、および複数の後方監視センサ(RLS)システム130を含む。例示の実施形態では、図1のレーダ・システム10はSODシステム128であり、図3に更に詳細に示されている。
【0059】
FLS、EOS、SLS、およびRSLシステムの各々は、センサ・プロセッサ134に結合されている。この特定的な実施形態では、センサ・プロセッサ134は、中央プロセッサとして示されており、FLS、EOS、SLS、およびRLSシステムの各々がバスまたはその他の手段を通じてこれに結合されている。尚、別の実施形態では、FLS、EOS、SLS、およびRLSシステムの内1つ以上が、図5のCT/DFプロセッサ88のような、それ自体のプロセッサを含み、以下で説明する処理を行うようにしてもよいことは認められよう。この場合、NODシステム100は、分散プロセッサ・システムとして設けられる。
【0060】
NODシステム100の含むプロセッサが1つかまたは多数かには係わらず、センサ・システム122、124、128、130の各々によって収集した情報は共有され、センサ・プロセッサ134(または分散システムの場合は複数のプロセッサ)は判断ツリー即ち規則ツリーを形成する。NODシステム100は、盲点検出、車線変更検出、車両のエア・バック作動準備を含み、これらには限定されない多数の機能のために用い、車線停留(持続)機能を実行することができる。例えば、センサ・プロセッサ134を車両132のエアバッグ・システムに結合することができる。FLS、EOS、SLS、およびRLSシステムの内1つ以上からの信号に応答して、センサ・プロセッサは、車両のエアバッグを「準備」するのに適していると判断することができる。別の例も可能である。
【0061】
EOSシステム124は、光センサ即ちIRセンサ、あるいはセンサの方位面において比較的高い分解能が得られる別のいずれかのセンサを含む。1対のRLSシステム130は、三角測量方式を利用して、車両の後部にある物体を検出することができる。FLSシステム122の一例が、前述の米国特許第5,929,802号に記載されている。尚、SLSおよびRLSセンサの各々は、同じアンテナ・システムを有するように設けてもよいことは認められよう。
【0062】
センサの各々は、複数のカバレッジ・ゾーンが車両周囲に存在するように、車両120上に配置されている。したがって、車両は、センサ・ゾーンの繭のような網または覆いに包囲されている。図6に示す特定的な構成では、4つのカバレッジ・ゾーン68a〜68dが設けられている。カバレッジ・ゾーン68a〜68dの各々は、1つ以上のRF検出システムを利用する。RF検出システムは、カバレッジ・ゾーン68a〜68dの各々において多数のビームを供給するアンテナ・システムを利用する。このように、別の物体が車両に接近する特定の方向、または車両が別の物体に接近する方向を発見することができる。使用可能な具体的なアンテナの1つが、2001年8月16日に出願された「Slot Antenna Element for an Array Antenna」(アレイ・アンテナ用スロット・アンテナ・エレメント)と題する米国特許出願第09/931,633号、および2001年8月16日に出願された「Switched Beam Antenna Architecture」(切替ビーム・アンテナ・アーキテクチャ)と題する米国特許出願第09/932,574号に記載されている。これらの各々は、本発明の譲受人に譲渡されている。
【0063】
尚、SLR、RSL、およびFLSシステムは、車両上に着脱可能に配備可能であることは認められよう。即ち、実施形態によっては、SLS、RLS、およびFLSセンサを車両の本体外部(即ち、車両本体の露出面上)に配置することができ、一方別のシステムでは、SLS、RLS、およびFLSセンサをバンパやその他の車両の部分(例えば、ドア、パネル、クオータ・パネル、車両の前端、および車両の後端)に埋め込む場合もある。また、車両内部(例えば、バンパ内またはその他の場所)に装着し、しかも着脱可能なシステムを設けることも可能である。装着システムは、2001年8月16日に出願され本発明の譲受人に譲渡された「System and Technique for Mounting a Radar System on a Vehicle」(レーダ・システムを車両に搭載するシステムおよび技法)と題する米国特許出願第09/930,868号に記載されているような形式とすることができる。これらの出願の内容は、この言及により本願にも援用されることとする。
【0064】
次に図7を参照すると、CT/DFプロセッサ30(図1)、CT/DFプロセッサ88(図4)、またはセンサ・プロセッサ134(図5)のようなCT/DFプロセッサによって設けることができる1組のエレメント148の一例が示され、ブロック150においてセンサ測定データを含む。センサ測定データ150は、赤外線(IR)センサからの撮像測定データや、図1に関連付けて先に述べたセンサ12〜27のようなセンサによって設けられる、レーダ・センサからのレーダ・データを含む。センサ・データは、図4に関連付けて先に説明したように、それぞれのローカル座標系にて与えられる。次に、センサ・データを多重推測トラッカー(MHT:Multiple Hypothesis Tracker)152に供給し、各追跡に関連するそれぞれのローカル座標系において、センサ170によって与えられた新たな追跡行路データのデータ連携を行う。新たなターゲットが検出されたが、この新たなターゲットに対する行路ファイルが存在しない場合、MHTは新たなターゲット毎に新たな追跡を開始する。追跡行路の開始およびデータ連携については、図4に関連付けて先に説明した。
【0065】
MHT152は、偽追跡行路判定の確率を低下させると認められる。MHT152は、多数の測定値に基づいて、種々のセンサ、例えば、センサ12〜27(図1)によって与えられる新たな追跡行路データのデータ連携に対して可能な多数の推測を考慮する。MHT152は、最も確率の高い推測、即ち、新たな追跡行路データの各既存追跡行路との連携の内、確率が最も高い連携を選択する。
【0066】
関連性推測生成器154は、データ連携、分解能、およびデータ品質についての推測を生成する。更に、連携の推測も個別に行う。個別推測プロセスを行うのは、計算効率のために推測総数を低減することを目的とする。個別推定は、確率が低い推測の除去、および相関付けた推測の結合を含むことができるが、これらに限定される訳ではない。
【0067】
追跡行路データは、カルマン・フィルタ156または同様の状態予測フィルタのいずれかによって受け取られる。前述したことから、追跡行路データは、既存の、新たな、または今後予測される追跡行路データである可能性があることに留意すると、カルマン・フィルタによって得られる出力は、各ターゲット追跡行路と連携する可能性が高い今後の追跡行路データを記述するターゲット追跡行路予測を与える状態ベクトル予測となる。状態ベクトル予測は、種々の因子を含むことができ、ターゲット位置およびターゲット速度を含むが、これらに限定される訳ではない。次に、カルマン・フィルタ156によって得られた状態ベクトル予測は、MHT152に戻され、多数の推測の1つとして用いられる。即ち、センサによって得られた新たな追跡行路データ点に関連する推測を与える。状態ベクトル予測は、カルマン・フィルタ156において実行されるフィルタ平均化、およびMHT152における新たな追跡行路データの既存の追跡行路との連携の双方に用いられ、ターゲット追跡が可能な確率を更新毎に高めるためである。
【0068】
次に、処理は共用追跡行路生成器160に進み、「共用追跡行路」(public track)即ち「共用追跡行路ファイル」を形成する。共用追跡行路とは、センサ170、例えば、センサ12〜27(図1)のいずれかによって与えられた追跡行路データから、MHT152による追跡の連携のために、そして関連性推測生成器154による連携の改善のために生成された追跡行路である。共用追跡行路を形成するには、関連性推測生成器154によってローカル座標系で与えられた追跡行路データを変換し、前述のように車両のグローバル座標系でデータを追跡することを含む。共用追跡行路からのデータは、最終的に、センサ・スケジューラ158が行うセンサ動作/資源(リソース)スケジューリングのための情報を提供することができる。共用追跡行路生成器160は、ターゲット毎に、車両のグローバル座標系において、1つ以上のセンサ、例えば、図1のセンサ12〜27に関連するターゲット追跡を行う。
【0069】
共用追跡行路データは、データ融合部162に与えられる。データ融合部162は、現行の更新のためそして以前の更新から、多数のセンサ、例えば、センサ12〜27(図1)によって与えられる追跡行路ファイルを連携することによって、共用追跡行路を融合する。データ融合については、図4ないし図4Dに関連付けて先に詳細に説明した。
【0070】
次に、融合共用追跡行路ファイルは、追跡行路品質生成器164に供給される。有効共用追跡行路ファイルを比較して、最低追跡行路データ分散、追跡行路ファイルの作成時期(age)、および逸した検出または連携の履歴を含む因子に基づいて、品質が最も高い追跡行路ファイルを決定するが、これらには限定されない。
【0071】
追跡行路品質生成器164によって供給される追跡行路ファイルは、判別部166によって受け取られる。判別部166は、追跡行路品質生成器164からのデータ出力を解釈することによって、道路状況(road scene)、即ち、全検出追跡行路を評価する。判別部166は、ターゲット・サイズを識別し、多数の追跡行路ファイルを生成するトレーラのような大型で長いターゲットを特定すること、盲点ゾーン検出のような危険の可能性を特定すること、およびセンサ・キューイング(sensor cueing)が適用可能か否か判定することを含むがこれらに限定されないプロセスを実行する。キュー・データについては、先に説明した。
【0072】
また、判別部166は、共用追跡行路生成器160から送られた連携共用追跡行路を受け取り、レーダ・スケジューリングに何らかの変更が必要か否か判断し、センサ・スケジューラ158にスケジューリング情報およびキューイング情報を提供する。スケジューリング情報は、種々の因子を含むことができ、ターゲットがあるレーダ・ビーム内で検出され、そのターゲットが非常に危険な状態を表すと見なされる場合に、そのレーダ・ビームにおいてドウェル(dwell)をセンサに行わせる因子が含まれる。判別部166によって提供されるスケジューリング情報は、別のセンサからのキュー・データ(cued data)が特定のレーダ・ビームと連携されている場合、センサにそのレーダ・ビームからデータを処理させることができる情報も含むことができる。キューイング情報は、特定のセンサを適応させ、別のセンサによってターゲットが現れると予測された方向にレーダ・ビームの照準を主に向けさせるようにすることができる。
【0073】
センサ・スケジューラ158は、判別部166からの情報を受け取り、センサがMHT150に対して追跡行路データの更新を行うべきときを通知し、種々のセンサに、行うべきビーム・ドウェル(beam dwell)を通知し、更にセンサにいずれかの適切なキュー・データを通知する。
【0074】
追跡行路品質生成器164からのデータ追跡行路は、車両制御衝突管理オペレータ(操作部)168によって受け取られる。判別部166が行った道路状況の評価、および追跡行路品質生成器164が判定した最高品質の追跡行路に基づいて、車両制御衝突管理操作部168は、前述のように車両に結合されている安全システムに伴う種々の出力機能を実行することができる。
【0075】
以上、車両上に配置した種々のセンサによって与えられるデータの融合を行う例をあげて、特定的な実施形態について説明したが、センサ・データを融合する別の実施形態も本発明では可能であることは言うまでもない。別の実施形態は、カルマン・フィルタ156以外のフィルタや、ブロック150〜170の別のシーケンスを含むが、これらに限定される訳ではない。
【0076】
以上本発明の好適な実施形態について説明したが、その概念を組み込んだ別の実施形態も使用可能であることは、当業者には今や明白であろう。したがって、これらの実施形態は開示した実施形態に限定されるのではなく、特許請求の範囲の精神および範囲によってのみ限定されるべきであると思料する。
【0077】
この中で引用した全ての刊行物および文献は、その言及により、その全体が本願にも明白に含まれることとする。
【図面の簡単な説明】
【図1】 図1は、車両上に配置した近接物体検出(NOD)システムのブロック図である。
【図2】 図2は、図1に示す形式のNODシステムによって設けられるセンサ・ゾーンの繭で包囲した車両の図である。
【図3】 図3は、図1に示す形式のNODシステムによって設けられるセンサ・ゾーンの繭で包囲され、近接する別の車両と共に道路に沿って走行している車両の図である。
【図4】 図4は、複数のターゲットに囲まれ、1つのターゲットが異なる2つのセンサのセンサ・ゾーンに現れる場合の車両の図である。
図4Aは、2つの異なるセンサの一方のローカル座標系におけるレーダ報告に対応するプロットである。
図4Bは、2つの異なるセンサの他方のローカル座標系におけるレーダ報告に対応するプロットである。
図4Cは、図4Aのローカル座標系に対応する座標系で、図4Aにおけるセンサからの融合レーダ報告に対応するプロットを示す図である。
図4Dは、図4Bのローカル座標系に対応する座標系で、図4Bにおけるセンサからの融合レーダ報告に対応するプロットを示す図である。
【図5】 図5は、セントラル・トラッカー/データ融合(CT/DF:central tracker/data fusion)プロセッサを有する近接物体検出(NOD)システムのブロック図である。
【図6】 図6は、単一のセンサ処理システムを有する車両上に搭載した近接物体検出(NOD)システムのブロック図である。
【図7】 図7は、CT/DFプロセッサが設けることができる1組の処理エレメント例のブロック図である。
[0001]
Background of the Invention
In view of the dangers associated with driving a car, it is demanded today to raise the driver's awareness. One area where driver awareness can be raised is object detection around the vehicle. When a vehicle approaches an object (eg another car, pedestrian and obstacle), or when an object approaches a vehicle, the driver is always required to detect the object and avoid collision with this object Intervention is not always possible. For example, a vehicle driver may not be able to detect an object at the so-called “blind spot” of the vehicle.
[0002]
In order to raise the awareness of the situation of a truck, for example, a sensor system for detecting objects around the truck or a further simplified “sensor” has been proposed. Such sensors typically include optical detectors or infrared (IR) detectors that detect obstacles in the vehicle's path. In such an application, it is necessary to provide a sensor capable of detecting an object with high accuracy and reliability in a vehicle route.
[0003]
Radar is a suitable technique for realizing sensors used in vehicles such as automobiles and trucks. One type of radar suitable for this purpose is a frequency modulated continuous wave (FMCW) radar. In a typical FMCW radar, the frequency of the transmitted CW signal increases linearly from a first predetermined frequency to a second predetermined frequency. FMCW radar has the advantages of high sensitivity, relatively low transmitter power, and high range resolution.
[0004]
Characteristics that contribute to the accuracy and reliability of the sensor include sensitivity to noise and overall accuracy of processing received radio frequency signals (RF) to detect objects within the field of view of the sensor. Regarding sensitivity to noise, for example, the distance and position of an object may cause false detection, and a further danger is that it may be overlooked without detecting the object.
[0005]
A further important attribute of the sensor relates to its physical size and shape factor. Preferably, the sensor is housed in a relatively small enclosure or housing that can be mounted behind the surface of the vehicle. For accuracy and reliability, transmit and receive antennas and sensor circuits are not affected by vehicle attributes (eg vehicle grills, bumpers, etc.) and can be predicted and aligned to mount the sensor on the vehicle It is essential to do.
[0006]
Therefore, it would be desirable to provide a sensor system that can detect objects around the vehicle. It would also be desirable to be able to provide a system that can be adapted to provide detection zones around different sized vehicles. Furthermore, it would be desirable to be able to provide a system that can be reprogrammed at a remote location.
Summary of the Invention
In accordance with the present invention, a near object detection (NOD) system includes a plurality of radio frequency (RF) transmit / receive (TR) sensor modules (or simply “sensors” disposed around a vehicle (vehicle). ”), And one or more detection zones are deployed around the vehicle. In a preferred embodiment, when placing the sensors, each sensor detects an object in one or more coverage zones that substantially surround the vehicle. Of the plurality of sensors, the first sensor can be mounted on the rear and / or front bumper of the vehicle, while the second sensor can be mounted on the side panel of the vehicle. Each of the sensors includes a sensor antenna system, which includes a transmit antenna that emits or transmits an RF signal and one or more objects within the transmit RF signal within the field of view of the transmit antenna. It consists of a receiving antenna that receives the part that is blocked and reflected back. Alternatively, a monostatic antenna can be used. The transmit antenna can be composed of a planar array of antenna elements, while the receive antenna can be composed of a planar array of antenna elements or a single row of antenna elements. That is, the transmit and receive antennas can be provided with different numbers and different types of antenna elements. The NOD system further includes a receiving circuit coupled to the receiving antenna and receiving a signal from the receiving antenna to detect a path or path of one or more objects.
[0007]
With this specific configuration, an NOD system that detects an object in any region around the vehicle is provided. If one of the sensors determines that the vehicle is approaching the object or determines that the object is approaching the vehicle, the sensor executes according to a set of detection rules (rules) To start.
[0008]
In one embodiment, the aforementioned system is provided as a distributed processor system, where each of the sensors includes a processor. Each sensor is coupled to each other so that information can be shared between the sensors. In another embodiment, each of the sensors is coupled to a central sensor processor that receives information from each of the sensors and processes this information as appropriate.
Detailed Description of the Invention
The foregoing features of the invention, as well as the invention itself, may be better understood from the following description in conjunction with the drawings.
[0009]
Before describing the NOD system, some preliminary concepts and terminology are explained. As used herein, the term “sensor system” is located on a vehicle (transportation means) and can detect and indicate such an object, such as another vehicle or a stationary object. Refers to a system that has a corresponding output capable. The term “sensor” is also used herein to describe a sensor system. A sensor system or sensor receives data from various sensor systems and distinguishes it from a proximity object detection (NOD) system that combines and processes data from various sensor systems.
[0010]
Referring now to FIG. 1, a proximity object detection (NOD) system 10 is disposed on a vehicle (vehicle) 11. The vehicle 11 can be provided as, for example, an automobile such as an automobile, a motorcycle, or a truck, a marine transportation means such as a boat or an underwater transportation means, or an agricultural vehicle such as a mower. In this particular embodiment, the proximity object detection system 10 was assigned to the assignee of the present invention on July 27, 1999, entitled “Automotive Forward Looking Sensor Application”. Forward-looking sensor (FLS) system 12, which can be of the type described in issued US Pat. No. 5,929,802, electro-optics which can be an infrared (IR) sensor Electro-optic system (EOS) sensor 14, a co-pending application filed August 16, 2001 entitled "Radar Transmitter Circuitry and Techniques" assigned to the assignee of the present invention. A plurality of side-looking sensors (SLS) that can be of the type described in US patent application Ser. No. 09 / 931,636. ) Systems 12-22 (also referred to as side object detection (SOD) systems 16-22), and a plurality of rear-looking sensor (RLS) systems 24,26. Sensors 16-28 are co-pending US patents entitled "System and Technique for Mounting a Radar System on a Vehicle" assigned to the assignee of the present invention. Various techniques can be used to couple to the vehicle, including the techniques described in application 09 / 930,868. The system 10 can also include a stop and go (SNG) sensor 27. It should be understood that the processing performed by the stop and start sensor 27 and the detection zone provided by the sensor 27 can also be provided by the FLS 12, and therefore the sensor 27 can be omitted. When determining whether to obtain the stop and start processing function from the FLS 12 or a separate sensor (for example, the SNG sensor 27), a trade-off is necessary. As an example, trade-off considerations include the desired shortest and longest detection distance, tolerance around the zone and reaction time.
[0011]
The FLS, EOS, SLS, RLS and SNG (if included) systems 12-27 are each coupled to a bus 28 that provides a communication bus between each of the sensors 12-27. The bus 28 can be provided as a local area network (LAN) 28, for example. In some embodiments, it may be desirable to provide the LAN 28 as a wireless LAN.
[0012]
As used herein, “target route (tracking route) data”, “track (tracking route) data”, “target data” or equivalent “track (tracking route) information” refers to “path ( This is the data in the "tracking path) file" and describes the path of the target in a certain coordinate system. The object is also referred to herein as a “target” and includes another vehicle or a stationary object. The target route data is predicted by the target when the old target route data corresponding to the location where the target was, the new target route data corresponding to the location where the target is present when updating the current data, and the current and / or future target route data updating. Predicted target route data corresponding to the location to be performed can be included.
[0013]
It will be appreciated that the system 10 is a real time system and therefore information should be exchanged / transferred between each of the sensors 12-27 and the processor 30 as quickly as possible. That is, the bus 28 must be able to handle a relatively high data transfer rate.
[0014]
For example, it may be desirable for bus 28 to have an average bus bandwidth that takes into account additional protocol overhead at 157 kbits per second. This bandwidth is such that the transmit and receive antennas each have 7 antenna beams, each of the 7 antenna beams has an average of 2 target tracking paths, 14 Hz per tracking path (minimum), 100 bytes Calculations were made assuming that each track was reported (7 × 2 × 14 × 100 × 8 = 157 kbytes average bus bandwidth). In other words, the sensor can communicate through a conventional bus as currently possible on a vehicle (e.g., car area network (CAN)), but not more than the average bus bandwidth noted above. In some cases, it may be desirable to provide the bus 28 as a dedicated bus having at least such a bandwidth.
[0015]
Bus latency, as used herein, refers to the time difference between the detection of an object by a sensor and the detection report on the bus 28. The time delay introduced by bus latency should be relatively small, for example, on the order of a time delay corresponding to less than 0.5 meters of relative car movement. Relative movement, as used herein, refers to relative movement in units of distance either between an automobile and a stationary object or between a vehicle and a moving object, eg, another moving automobile. As used herein, relative speed is the speed of relative movement. The bus latency delay corresponding to 0.5 meters of relative vehicle movement can be determined by selecting the maximum relative vehicle speed, eg, 200 km / hr = 125 mph = 55.6 m / s. That is, dividing the car's relative travel of 0.5 meters by 55.6 m / s gives approximately 9 ms, which is the corresponding maximum bus latency time delay. Assuming the bus clock frequency is 33 kHz, 9 ms is equivalent to about 300 clock cycles. In summary, if the maximum relative vehicle speed is selected to be about 200 km / hr, a relative vehicle movement of 0.5 meters corresponds to about 9 ms. That is, it corresponds to about 300 clock cycles at a clock frequency of 300 KHz.
[0016]
While the previous description has described specific parameters including specific relative vehicle movement, specific selected maximum relative vehicle speed, and specific clock frequency, it will be appreciated that other parameters may be used in the present invention. I will be. However, the parameters describing the bus time latency must be selected according to various factors. The factors include, but are not limited to, the total system response time that allows the system to act on the vehicle by alarms, braking (braking), airbag activation, etc. It needs quickness. Other factors to consider can include fault tolerance, resistance to interference, reliability, and cost.
[0017]
The sensor is also coupled through bus 28 to a central tracker / data fusion (CT / DF) processor 30. The CT / DF processor 30 will be described below with reference to FIGS. 4, 6 and 7. It will suffice here to mention that the CT / DF processor 30 receives information provided from each of the sensors 12-27 and provides the information to each of the sensors 12-27. The sensors 12-27 use information provided by the CT / DF processor 30 to improve the overall performance of the system 10. This will eventually become clear.
[0018]
A human interface 32 is also coupled to the CT / DF processor 30 through the bus 28. The purpose of the interface 32 is to display or otherwise communicate the information collected by the sensors 12-28 to the driver of the vehicle 11 or other occupant (eg, by an audio signal or other signal). The interface 32 can also be provided as a head-up display, for example.
[0019]
In this particular embodiment, the CT / DF processor 30 is shown as a single processor provided as part of the sensor 16, whereas the FLS, EOS, SLS, through the bus 28 or other means. Each of RLS and SNG sensors 12-27 is coupled. Note that in another embodiment, one or more of the FLS, EOS, SLS, RLS and SNG sensors 12-27 include its own CT / DF processor, and directly communicate with another of the sensors 12-27 (eg, It will be appreciated that the processing necessary to share the transmission and reception information) may be performed. When it is desirable to provide redundancy in the CT / DF processing function, it may be desirable to provide the CT / DF processor 30 in two of the sensors 12 to 27. If each of the sensors 12-27 includes its own CT / DF system, the proximity object detection system can be provided as a distributed processing system. Factors to consider when choosing between a distributed and a single master processor include, but are not limited to, reliability, bus bandwidth, processing latency, and cost. Absent.
[0020]
In one embodiment, the CT / DF processor 30 provides specific information to a specific sensor among the sensors 12-27, and in another embodiment, the CT / DF processor 20 provides any information of the sensors 12-27. Provide to each.
[0021]
As shown in FIG. 1, at least one sensor 12-27 includes a central tracker data fusion (CT / DF) processor 30, each of the sensors 12-27 passing data to a CT / DF processor 30 via a bus 28. send. Regardless of whether the proximity object detection system includes a single or multiple CT / DF processors 30, the information collected by each of the sensors 12-27 is shared and the CT / DF processor 30 (or in the case of a distributed system). A plurality of processors) implement a decision tree or rule tree. For example, the CT / DF processor 30 may be coupled to one or more vehicle (vehicle) safety systems, such as a vehicle airbag system. In response to signals from one or more of the FLS, EOS, SLS, and RLS systems, the sensor processor may determine that it is suitable to “prepare” the vehicle airbag. Other examples include the activation of braking and steering systems, transmission controls, alarms, horns and / or automatic flashers.
[0022]
The NOD system 10 can therefore be coupled to a number of vehicle safety systems that are further described below. The CT / DF processor 30 receives any information provided and optimizes the processing power of the NODS system for the entire vehicle.
[0023]
The pair of RLS systems 24, 26 can detect objects at the rear of the vehicle using a triangulation method. The position (distance and direction) of the object may be determined from the distance or range (distance range) reading from each one of the pair of RLS systems 24, 26, and individually from each of the two sensors 24, 26. There is no need to elucidate the direction. Triangulation can be done by drawing two range circles. Each distance circle corresponds to a range (distance range) provided by each one of the pair of RLS systems 24, 26, and each distance circle has a radius equal to the range. The two distance circles thus given can intersect at two distances. Since one of the intersection distance points is located inside the host 11, it corresponds to an impossible distance. Select the other distance point and describe the position by distance and direction.
[0024]
To perform the triangulation described above, the distance between the sensors 24, 26 is known and large enough to allow a predetermined maximum triangulation error with respect to the distance measurement accuracy obtained by each of the sensors 24, 26. I must. It will be appreciated that the separation of the RLS systems 24, 26 may vary with various vehicle types, and the vehicle 11 is just one example, and some distance calibration is required. However, the calibration can be predetermined based on a known amount of separation.
[0025]
It will be appreciated that one or more of the sensors 12-27 may be detachably mounted on the vehicle 11. That is, in some embodiments, SLS, RLS, and FLS sensors may be located outside the vehicle body (i.e., located on the exposed surface of the vehicle body), while in other systems, one of sensors 12-27. One or more may be embedded in the bumper or other part of the vehicle (eg, door, panel, quarter panel, vehicle front end, and vehicle rear end). It is also possible to provide a system that is mounted inside the vehicle (for example, inside a bumper or other place) and that is detachable.
[0026]
Referring now to FIG. 2, like elements in FIG. 1 are given like reference numerals. Shown is a vehicle 11 in which a NOD system is located and is surrounded by a plurality of detection zones 32-40 forming a radar cocoon around the vehicle. It will be appreciated that if the size of the sensors 12-27 (FIG. 1) is different, the detection zones 32-40 are also different. That is, sensors 12 and 14 provide an adaptive cruise control and night vision zone 34, sensor 16 provides a lane keeping zone 36b, sensor 18 provides a road departure zone 36a, and sensor 20 , 22 are provided with lateral (side) object detection zones 38a, 38b, sensors 24, 26 are provided with a reverse and parking assist zone 40, and sensor 27 is provided with a stop and departure zone 42. In one example embodiment, the adaptive cruise control / night vision zone 34 has a limited angular range and is characterized by a long range (> 50 m) in order to operate at high relative speeds. The road departure and lane keeping zones 36a, 36b each have a short distance (short range), a wide angular range, and operate at a medium relative speed. The stop and start and reverse / park assist zones 42, 40 have a wide angular range but a very short distance (short range) and operate in a small relative speed range. The reverse / parking assistance zone 40 can also provide rear collision warning information in normal driving conditions. The lateral object detection zones 38a, 38b have a wide angular range and a relatively short distance and operate over a wide range of relative speeds.
[0027]
It will be appreciated that the size, shape and other characteristics of each sensor zone can be changed statically. The sensor zone can be statically modified to have a predetermined zone shape determined by detection characteristics and radar beam angles associated with sensors 12-27 (FIG. 1). There are many reasons for desiring to change the characteristics of one or more detection zones, including but not limited to the choice of the size of the vehicle or the operator's peripheral vision. Other reasons why it is desirable to change the detection zone size may also include trailer traction, lane size changes, traffic density and personal preference.
[0028]
The sensor zone can also be changed dynamically. Dynamic control can include, but is not limited to, a dwell on a radar beam. This will be described below in connection with FIG. Tracking handoffs can avoid or reduce capture verification steps (processes) and speed up sensor response to cue data or improve reliability. Dynamic changes are further described below in connection with FIG.
[0029]
By changing the characteristics of a single sensor, the sensor can obtain detection functions in coverage zones of different sizes and shapes, so that the sensor can be used in a vehicle larger or smaller than the vehicle 11. In this way, changing the coverage zone provided by an individual sensor can be done by programming the sensor.
[0030]
In one embodiment, the coverage zone is filed Aug. 16, 2001 and is a co-pending US patent entitled “Technique for Changing a Range Gate and Radar Coverage”. It can be changed by adjusting the distance gate of the sensor, as described in application 09 / 930,867. This application is assigned to the assignee of the present invention, the contents of which are hereby incorporated by reference. In another embodiment, a reconfigurable antenna is used to change the coverage zone. In yet another embodiment, a reconfigurable antenna is provided by using a microelectromechanical (MEM) device, which is used to change the beam shape and thus beam coverage. MEMS can change the shape of the aperture, and thus the beam shape.
[0031]
It should be noted that in the specific configuration of the sensor shown in FIG. 1, seven coverage zones 32-40 are provided. In one particular embodiment, a radar sensor system is utilized in each of the coverage zones. This radar sensor system is also referred to herein as a sensor and an RF sensor. Radar sensors can utilize a beamforming system that provides multiple transmit beams and multiple receive beams in each of the antenna and coverage zone. In this way, it is possible to find a direction in which another object or target approaches the vehicle or vice versa. In one particular embodiment, FLS sensor 12 (FIG. 1) may utilize an antenna system that includes eight separate antenna beams. The RF sensor system can operate as described in US Pat. No. 5,929,802, cited above. Similarly, sensors 16-27 can utilize an antenna system that includes seven separate transmit and receive antenna beams. Sensors 16-27 (FIG. 1) operate as described in previously cited US patent application Ser. No. 09 / 931,636 entitled “Radar Transmitter Circuit and Technique”. Can do. However, it will be appreciated that the radar sensor system that can be used with the present invention can have any number of transmit and receive beams.
[0032]
Next, referring to FIG. 3, the vehicle 11 in which the NOD system is arranged is traveling on a road 41 having three lanes 41 a, 41 b, 41 c. The vehicle 11 is in the lane 41 b and the first vehicle 50 is in front of the vehicle 11 and is visible in the detection zone 34. The second vehicle 52 is in the lane 41a on the right side of the vehicle 11 and is visible in the detection zone 38a. The third vehicle 54 is behind the vehicle 11 in the lane 41 b and is visible in the detection zone 40. The fourth vehicle 56 is in the left rear lane 41 c of the vehicle 11. Since the vehicle 56 is relatively far from the vehicle 11, the vehicle 56 is not visible in any detection zone and is therefore not detected by the NOD system located on the first vehicle 11.
[0033]
As shown in FIG. 3, the NOD system identifies three vehicles or targets 50, 52, 54 that are close to the vehicle 11. The NOD system maintains information for each target 50-54 and provides such information to the user (e.g., through the display 32 of FIG. 1) or a required function (e.g., a vehicle airbag system). Prepare).
[0034]
Furthermore, since the sensors 12 to 27 (FIG. 1) are in communication with the CT / DF processor 30 (FIG. 1) and in communication with each other, the sensors can share information about the target. For example, it is assumed that the sensor 18 mounted on the vehicle 11 detects the second vehicle 52 and starts tracking the second vehicle 52. After a certain period of time, the second vehicle 52 may start accelerating and overtake the vehicle 11. If the sensor 18 can detect that the second vehicle 52 overtakes the vehicle 11 from the right side, the sensor 18 can provide this information to the FLS 12. This information can be in the form of a public track file or a similar data set that indicates the target or second vehicle 52 in the global coordinate system of the vehicle 11. Such a path file allows the FLS 12 to have current target position information and target position prediction information and to actually observe / detect the target, ie the second vehicle 52.
[0035]
Thus, before the FLS 12 itself actually detects, captures, confirms, and tracks the target, the FLS 12 is given pre-route information about the identified target (ie, the “real” target). This pre-route information is also referred to herein as “queue data”. Queue data will be discussed further below in connection with FIG. Target detection, as used herein, refers to the process of distinguishing target signals that exceed an interference level based on a certain threshold. In this case, the target signal corresponds to backscattered RF energy from the target, and the interference corresponds to noise and / or clutter. Target acquisition, as used herein, refers to the process of associating (coordinating) a new target detection and associated target position with an existing target path corresponding to the “path file”. Target verification, as used herein, applies a set of rules, such as successive updates of the same tracking file or repeated target coordination for adjacent beams, to verify that the detected target is true. Say about the process. Target tracking, as used here, refers to the position and velocity of each update by associating the new target direction with the previous target direction and predicting and averaging the position state vector corresponding to the target position. Refers to the process of maintaining information about specific targets. These processes will be better understood when described in connection with FIG.
[0036]
By providing the FLS 12 (FIG. 1) with prior information, ie cue data (eg, information that the identified target is entering its field of view from the right side of the vehicle 11), the FLS 12 first detects the target. It is possible to proceed to the target tracking process without performing a target acquisition or target verification process, i.e., with a minimal amount of processing required to perform such a process. The FLS 12 checks the target and target tracking path with information from the sensor 18 (FIG. 1) without spending processing time to confirm that the vehicle 52 is actually a real target that is entering the field of view of the FLS 12. As such, the FLS 12 can perform more processing functions such as tracking multiple targets and other functions described below. In this way, by providing advance information to the FLS, the FLS 12 can track the target more quickly, and in particular, the FLS 12 can use a so-called “cut-in” target (ie, suddenly in front of the vehicle 11 lane 41b It is possible to detect and track the incoming vehicle) more quickly.
[0037]
Perhaps more importantly, it is advantageous for the FLS 12 to gain such prior knowledge by providing information about the path of the target 52 to the FLS 12 before the target 52 enters the FLS 12 detection zone. This is because the processing related to the operation of the defensive treatment can be started or executed in some cases. Defensive actions include, but are not limited to, air bag preparation, automatic adjustment of an automatic cruise control (ACC) system, and preparation of a braking (braking) system. In this way, the FLS 12 can also perform other functions related to driving the vehicle.
[0038]
It will be appreciated that the CT / FS processor 30 (FIG. 1) is a “target tracker” that performs the tracking function and also a “data fusion unit” that performs the fusion function. The central tracking function of the CT / DF processor 30 receives and maintains every tracking path from various sensors (eg, sensors 12-27 in FIG. 1) within the system 10 (FIG. 1), and another sensor. Is to assist the operation as described above.
[0039]
Referring now to FIGS. 4-4D, in FIG. 4, each of the radial sections 57a-57g corresponds to each of the seven beams provided by the sensor 18, and each of the radial sections 58a-58g is provided by the sensor 20. Corresponds to each of the seven given beams.
[0040]
FIGS. 4A, 4C, 4B, and 4D represent detections performed by the sensors 18 and 20 in a rectangular graph, with rows corresponding to the seven beams of each of the sensors 18 and 20, and columns corresponding to the range ( Corresponds to the (distance) cell. The dots in FIGS. 4A and 4B represent target detection in the seven beams of each sensor 18, 20. The dots in FIGS. 4C and 4D represent the fusion target detection associated with the seven beams of each sensor 18,20. Therefore, the dots 59a and 59b having the first parallel line pattern (cross hatch) correspond to detection of the target 52 in the beam of the sensor 18 corresponding to the radial sections 57a and 57b, respectively. The dots 59c and 59d having the second parallel line pattern correspond to detection of the target 54 in the beam of the sensor 18 corresponding to the radial sections 57f and 59g, respectively. The dots 60a-60c having the third parallel line pattern correspond to detection of the target 54 in the beam of the sensor 20 corresponding to the radial sections 58a-58c, respectively. The dots 60d and 60e having the fourth parallel line pattern correspond to detection of the target 56 in the beam of the sensor 20 corresponding to the radial sections 58f and 58g, respectively. The dots 61a and 61b having the first parallel line pattern correspond to fused detection of the target 52 in the beam of the sensor 18 corresponding to the radial sections 57a and 57b, respectively. The filled dots 61c and 61d correspond to the fusion detection of the target 54 in the beam of the sensor 18 corresponding to the radial sections 57f and 57g, respectively, and the filled dots 62a to 62c respectively correspond to the radial sections 58a to 58c. Corresponding to fusion detection of the target 54 in the beam of the corresponding sensor 20, the dots 62d and 62e having the third parallel line pattern respectively detect fusion of the target 56 in the beam of the sensor 20 corresponding to the radial sections 58f and 58g. Correspond.
[0041]
As previously described, FIGS. 4A and 4B correspond to unfused target data from sensors 18 and 20, respectively. 4C and 4D correspond to fusion target data from sensors 18 and 20, respectively, provided by the fusion function of CT / DF processor 30 (FIG. 1). Each of the seven rows shown in FIGS. 4A and 4C corresponds to a respective one of the seven beams associated with sensor 18. Similarly, each of the seven rows shown in FIGS. 4B and 4D corresponds to a respective one of the seven beams associated with the sensor 20. The fusion function corresponds to the cooperation of the individual target detection performed by the sensor 18 with that performed by the sensor 20. Therefore, the data corresponding to the dots 61c and 61d are linked or fused with the data corresponding to the dots 62a to 62c. The illustrated dots 61c-61d, 62a-62c are all filled, indicating that they are linked to the same target 54, and that the corresponding data from each of the two sensors 18, 20 are fused. Show. The dots 61a, 61b and 62d, 62e shown in the figure have the same parallel line pattern as the corresponding non-fusion dots 59a, 59b and 60d, 60e, respectively, and the target cooperation is obtained between the respective sensors 18, 20 by the fusion. Indicates no. 4C and 4D show the local (local) coordinate systems of the respective sensors 18 and 20, but the data corresponding to the dots 61a to 61d and 62a to 62e can be displayed also in the global coordinate system. It will be clear from the discussion. It should be noted that using such fused data, target detection and target tracking performed by two or more sensors are detections that have a higher accuracy probability than detection and target tracking performed by one sensor. It will be appreciated.
[0042]
In operation, many of the sensors 12-27 (FIG. 1) can track the same target. As shown in FIG. 4, for example, the target 54 appears in the field of view of the sensor 18 so that the sensor 18 can detect and track the target 54. Similarly, target 54 is detected and tracked by sensor 20 (FIG. 4). Thus, both sensors 18 and 20 can detect and track the target 54. The data provided by the sensors 18 and 20 corresponding to the target 54 can be merged. Such fused data can increase detection and tracking reliability over data from one of the sensors 18,20.
[0043]
Since the sensors 18 and 20 are located at different points on the vehicle 11, the sensors 18 and 20 track the target from two different aspect angles. Each of the sensors 18, 20 has its own unique local coordinate system. Because it has two different local coordinate systems, the sensors 18, 20 cannot determine that they are each tracking the same target. In order to adjust the detection and tracking data from each sensor 18, 20, each sensor 18, 20 provides its tracking information to the CT / DF processor 30 as a path file corresponding to the sensor 18, 20.
[0044]
The CT / DF processor 30 is provided with information specifying the physical position of each of the sensors 12 to 27 on the vehicle 11. Since the relative position of the sensor on a specific vehicle is fixed, the CT / DF processor 30 can convert the target route data given by each sensor in the respective local coordinate system into the global coordinate system of the vehicle. it can.
[0045]
In addition, the CT / DF processor 30 can supply target path data converted to the local coordinate system of any individual sensor. In this way, the CT / DF processor 30 can convert the path data in the local coordinate system given from each of the sensors 18 and 20 into its own global coordinate system. Thus, the CT / DF processor 30 observes the position of each target detected by each of the sensors 18 and 20 (more generally, any of the sensors 12 to 27) in a single coordinate system. It will be appreciated that the radiating segments 57a-57g correspond to the local coordinate system associated with the sensor 18, and the radiating segments 58a-58g correspond to the local coordinate system associated with the sensor 20.
[0046]
Since all target information can be seen in a single control system, the CT / DF processor 30 (FIG. 1) is more reliable than if each of a number of sensors is used to detect the target and determine the corresponding target path. Can be generated. The NOD system and the associated CT / DF processor 30 can fuse the data from each target tracking performed by each sensor (eg, sensors 18, 20) into a common file or (determined by tracking noise etc.) ) Only the highest quality data can be selected, assisting individual sensors and thereby increasing the processing power obtained.
[0047]
The process performed by the CT / DF processor 30 can include the fusion of target data provided by multiple sensors. Target data fusion may include transforming sensor target path data provided by a plurality of sensors in their respective local coordinate systems to a global coordinate system. This can be done by one or more coordinate transformations. The CT / DF processor 30 then links the track data provided by each sensor with the previously merged tracking track to obtain new merged track data.
[0048]
The process executed by the CT / DF processor 30 can also include “data linkage”, and when used here, position data having a “new” path or first assumed quality (prediction error statistic) 2 Refers to the process of comparing with existing route data having assumed quality. New tracking data that is likely to match (correlate with) a tracked path, i.e., when the position difference of the new track data is small when compared to the tracked track of an existing target, It is said to cooperate. Assume that this new position data was obtained from the same physical target as the tracking path. It is said that there is no association (cooperation) when new route data that is unlikely to match a certain tracking route, that is, when the position difference of the new data is large when compared with the tracking route.
[0049]
Further, the process performed by the CT / DF processor 30 may also include “recursive update” of the position path. In one such embodiment, the recursive update of the position path is performed by a Kalman filter. The Kalman filter is recognized as a filter that provides a position state vector that describes a target position, and can be applied to an existing target path in combination with new path data. The Kalman filter can reduce tracking errors by averaging the associated state vector data with each update. It will be appreciated that state vector filters other than Kalman filters can also be used in the present invention.
[0050]
The process executed by the CT / DF processor 30 can further include “tracking path start”, and when used here, a path file for new uncoordinated path data that is not linked to any of the existing path data. Say to create a new. Assume that uncoordinated route data corresponds to a new target that has never been tracked before. This process initializes any detection that does not work with an existing tracking path and creates a new path file representing that detection. Track new targets in subsequent data updates. Similarly, the CT / DF processor 30 can drop, or delete, a path that is out of the field of view of a particular sensor. Any target that has an existing path file that is not linked to new location data at the time of a data update is considered out of view, and the path file is deleted and not processed in future updates. The processing executed by the CT / DF processor 30 will be further described with reference to FIG.
[0051]
Referring now to FIG. 5, a radar system 66 includes an antenna section 67 having transmit and receive antennas 68, 69, a microwave section 70 having both a transmitter 72 and a receiver 74, and a digital signal processor (DSP). 80, a power supply 82, a control circuit 84, and a digital interface unit (DIU) 86. The transmitter 72 includes a digital ramp (slope) signal generator that generates a control signal to a voltage controlled oscillator (VCO). VCOs are described, for example, in co-pending US patent application Ser. No. 09 / 931,636, filed Aug. 16, 2001, entitled “Radar Transmitter Circuitry And Techniques”. Can be provided in the form. This application is assigned to the assignee of the present invention.
[0052]
The radar sensor 66 detects one or more objects, that is, targets, within the field of view of the sensor 66. In the exemplary embodiment, radar sensor 66 may be a proximity object detection system, such as NOD system 10 described above in connection with FIG. That is, the radar sensor 66 is suitable for use as a sensor such as one of the lateral (side) object detection (SOD) modules or sensors 16-27 described above in connection with FIG. As mentioned above, such sensors detect objects including, but not limited to, other vehicles, trees, signs, pedestrians, and other objects that can be detected in close proximity to the path in which the vehicle is located. For purposes, it is configured to be mounted on an automobile or other transport means 96. As will be apparent to those skilled in the art, radar sensor 66 is also suitable for use in many different types of applications. Such applications include, but are not limited to, marine applications, where radar system 60 can be mounted on a boat, ship or other vessel.
[0053]
In one example embodiment, the transmitter 72 operates as a frequency modulated continuous wave (FMCW) radar and the frequency of the transmitted signal increases linearly from a first predetermined frequency to a second predetermined frequency. FMCW radar has the advantages of high sensitivity, relatively low transmission power, and high distance resolution. However, it will be appreciated that other types of transmitters may be used.
[0054]
A control signal is supplied from the vehicle 96 to the radar system 60 through the control signal bus 92. The control signals can include a yaw rate signal corresponding to a yaw rate for the vehicle 96 and a speed signal corresponding to the speed of the vehicle. A digital signal processor (DSP) 80 processes these control signals and radar reflection signals received by the radar system 66 to detect objects in the field of view of the radar system 66.
[0055]
Radar system 66 further includes a CT / DF processor 88. This may be in the form of the CT / DF processor 30 described in FIG. The DSP 80 is coupled to a digital interface unit (DIU) 86 via a CT / DF processor 88. In another embodiment of the radar system 60, the CT / DF processor 88 may be omitted, in which case the DSP 80 is directly coupled to the digital interface unit 86. The format of the CT / DF processor 88 can be the format described above in connection with FIGS. 1-3 and described below. That is, the CT / DF processor 88 receives a signal from the DSP 80 and further receives information from the other radar system 66 arranged around the vehicle 96 via the DIU 86. The data provided to the CT / DF processor 88 by each of the radar sensors, eg, sensors 12-27 (FIG. 1), may be in the form of a path file or raw detection data in the sensor's coordinate system. The CT / DF processor 88 can also supply cue data (preceding data) to the sensor, in which case the cue data is obtained from detection of targets by each of the sensors 12 to 27 (FIG. 1). can get. The cue data can provide a target position that is not yet within the field of view of the sensor but is expected to move into the field of view.
[0056]
Radar system 66 provides one or more output signals characterizing objects within its field of view to vehicle 96 through output signal bus 94 to the vehicle. These output signals may include path data having a distance signal indicative of a distance associated with the target, a distance rate signal indicative of a distance rate associated with the target, and an orientation signal indicative of an orientation relative to the vehicle 96 relative to the target. Coupling the output signal to a control unit (not shown) of the vehicle 96 and further coupling this control unit to the safety system of the vehicle 96 for various uses, for example providing an intelligent cruise control system or collision avoidance system Can do.
[0057]
The antenna assembly 67 includes a receiving antenna 68 that receives an RF signal and a transmitting antenna 69 that transmits the RF signal. In this particular example, radar sensor 66 corresponds to a bistatic radar system. This is because it includes separate transmit and receive antennas located close to each other. Antennas 68 and 69 provide multiple beams to control the steering angle in parallel to aim the transmit and receive beams in the same direction. There are various suitable circuits for selecting the angle of each antenna 68, 69, including multiple position switches. A suitable antenna system is, for example, a co-pending US patent entitled “Switched Beam Antenna Architecture” filed on August 16, 2001 and assigned to the assignee of the present invention. It can be provided as the format described in application 09 / 932,574.
[0058]
Referring now to FIG. 6, an example application of the radar system 10 of FIG. 1 is shown in the form of an automotive proximity object detection (NOD) system 100. The NOD system 100 is disposed on the vehicle 120. The vehicle 120 can be provided as, for example, an automobile such as an automobile, motorcycle or truck, an ocean or underwater vehicle such as a boat, or an agricultural vehicle such as a mower. In this particular embodiment, the NOD system 100 includes a forward monitoring sensor (FLS) system 122, a photoelectric sensor (EOS) system 124 capable of obtaining image data, a plurality of side monitoring sensor (SLS) systems 128 or equivalent. A lateral object detection (SOD) system 128 and a plurality of rear monitoring sensor (RLS) systems 130. In the exemplary embodiment, radar system 10 of FIG. 1 is SOD system 128 and is shown in more detail in FIG.
[0059]
Each of the FLS, EOS, SLS, and RSL systems is coupled to a sensor processor 134. In this particular embodiment, sensor processor 134 is shown as a central processor, and each of the FLS, EOS, SLS, and RLS systems is coupled to it through a bus or other means. In another embodiment, one or more of the FLS, EOS, SLS, and RLS systems includes its own processor, such as the CT / DF processor 88 of FIG. 5, and performs the processing described below. It will be appreciated that this may be done. In this case, the NOD system 100 is provided as a distributed processor system.
[0060]
Regardless of whether the NOD system 100 includes one or many processors, the information collected by each of the sensor systems 122, 124, 128, 130 is shared and the sensor processor 134 (or multiple in the case of a distributed system). The processor) forms a decision tree or rule tree. The NOD system 100 can be used for a number of functions, including but not limited to blind spot detection, lane change detection, and vehicle air bag activation preparation, to perform a lane stop (sustain) function. For example, the sensor processor 134 can be coupled to the airbag system of the vehicle 132. In response to signals from one or more of the FLS, EOS, SLS, and RLS systems, the sensor processor may determine that it is suitable to “prepare” the vehicle airbag. Other examples are possible.
[0061]
The EOS system 124 includes an optical or IR sensor, or any other sensor that provides a relatively high resolution in the sensor's orientation plane. The pair of RLS systems 130 can detect an object at the rear of the vehicle using a triangulation method. An example of FLS system 122 is described in the aforementioned US Pat. No. 5,929,802. It will be appreciated that each of the SLS and RLS sensors may be provided with the same antenna system.
[0062]
Each of the sensors is arranged on the vehicle 120 such that a plurality of coverage zones exist around the vehicle. Thus, the vehicle is surrounded by a net or shroud like a sensor zone cage. In the specific configuration shown in FIG. 6, four coverage zones 68a-68d are provided. Each of the coverage zones 68a-68d utilizes one or more RF detection systems. The RF detection system utilizes an antenna system that provides multiple beams in each of the coverage zones 68a-68d. In this way, a specific direction in which another object approaches the vehicle or a direction in which the vehicle approaches another object can be found. One specific antenna that can be used is US patent application Ser. No. 09/931, filed Aug. 16, 2001, entitled “Slot Antenna Element for an Array Antenna”. 633, and US patent application Ser. No. 09 / 932,574 filed Aug. 16, 2001, entitled “Switched Beam Antenna Architecture”. Each of these is assigned to the assignee of the present invention.
[0063]
It will be appreciated that the SLR, RSL, and FLS systems can be removably deployed on the vehicle. That is, in some embodiments, the SLS, RLS, and FLS sensors can be located outside the vehicle body (ie, on the exposed surface of the vehicle body), while in other systems, the SLS, RLS, and FLS sensors are It may be embedded in bumpers and other vehicle parts (eg, doors, panels, quarter panels, the front end of the vehicle, and the rear end of the vehicle). It is also possible to provide a system that can be mounted inside a vehicle (for example, in a bumper or other place) and can be attached and detached. The mounting system is entitled “System and Technique for Mounting a Radar System on a Vehicle” filed on August 16, 2001 and assigned to the assignee of the present invention. It can be in the form as described in US patent application Ser. No. 09 / 930,868. The contents of these applications are incorporated herein by this reference.
[0064]
Referring now to FIG. 7, which may be provided by a CT / DF processor such as CT / DF processor 30 (FIG. 1), CT / DF processor 88 (FIG. 4), or sensor processor 134 (FIG. 5). An example of a set of elements 148 is shown and includes sensor measurement data at block 150. Sensor measurement data 150 includes imaging measurement data from infrared (IR) sensors and radar data from radar sensors provided by sensors such as sensors 12-27 described above in connection with FIG. The sensor data is given in each local coordinate system as described above in connection with FIG. Next, the sensor data is supplied to a multiple hypothesis tracker (MHT) 152 to perform data linkage of new tracking route data provided by the sensor 170 in each local coordinate system related to each tracking. . If a new target is detected but no path file exists for this new target, the MHT starts a new trace for each new target. The start of the tracking route and data linkage have been described above in connection with FIG.
[0065]
It is recognized that MHT 152 reduces the probability of false tracking path determination. The MHT 152 considers a number of possible guesses for data alignment of new track path data provided by various sensors, eg, sensors 12-27 (FIG. 1), based on a large number of measurements. The MHT 152 selects the cooperation with the highest probability among the predictions with the highest probability, that is, the cooperation with each existing tracking route of the new tracking route data.
[0066]
The relevance guess generator 154 generates guesses about data association, resolution, and data quality. In addition, the estimation of cooperation is performed individually. The purpose of the individual estimation process is to reduce the total number of estimations for computational efficiency. Individual estimation can include, but is not limited to, removal of low-probability guesses and a combination of correlated guesses.
[0067]
The tracking path data is received by either the Kalman filter 156 or a similar state prediction filter. Given the above, tracking path data may be existing, new, or future predicted tracking path data, and the output obtained by the Kalman filter works with each target tracking path. This is a state vector prediction that gives a target tracking route prediction that describes future tracking route data that is likely to be. State vector prediction can include various factors, including but not limited to target position and target velocity. The state vector prediction obtained by the Kalman filter 156 is then returned to the MHT 152 and used as one of many guesses. That is, it provides a guess related to the new track path data point obtained by the sensor. State vector prediction is used for both the filter averaging performed in the Kalman filter 156 and the linkage of the new tracking path data with the existing tracking path in the MHT 152, and increases the probability that target tracking is possible with each update. Because.
[0068]
The process then proceeds to the shared tracking path generator 160 to form a “public tracking path” or “shared tracking path file”. A shared tracking path refers to the tracking path data provided by any of the sensors 170, eg, sensors 12-27 (FIG. 1), for tracking tracking by the MHT 152, and for the tracking by the relevance guess generator 154. This is a tracking path generated for improvement. Forming a shared tracking route includes transforming the tracking route data provided in the local coordinate system by the relevance inference generator 154 and tracking the data in the vehicle's global coordinate system as described above. Data from the shared tracking path can ultimately provide information for sensor operation / resource scheduling performed by the sensor scheduler 158. The shared tracking path generator 160 performs target tracking associated with one or more sensors, eg, sensors 12-27 of FIG. 1, in the global coordinate system of the vehicle for each target.
[0069]
The shared tracking route data is given to the data fusion unit 162. The data fusion unit 162 fuses the shared tracking path by coordinating tracking path files provided by multiple sensors, eg, sensors 12-27 (FIG. 1), for current updates and from previous updates. Data fusion has been described in detail above in connection with FIGS. 4-4D.
[0070]
The fused shared tracking path file is then provided to the tracking path quality generator 164. Compare available shared track files to determine the best track track file based on factors including minimum track data distribution, track file creation time (age), and missed detection or federation history. However, it is not limited to these.
[0071]
The tracking path file supplied by the tracking path quality generator 164 is received by the determination unit 166. The discriminator 166 evaluates the road scene, i.e., all detected tracking paths, by interpreting the data output from the tracking path quality generator 164. The discriminator 166 identifies target sizes, identifies large and long targets such as trailers that generate a large number of tracking path files, identifies potential dangers such as blind spot detection, and sensors Perform processes including, but not limited to, determining whether sensor cueing is applicable. The queue data was explained earlier.
[0072]
Further, the determination unit 166 receives the cooperative shared tracking route sent from the shared tracking route generator 160, determines whether any change is necessary for radar scheduling, and sends scheduling information and queuing information to the sensor scheduler 158. provide. Scheduling information can include various factors, and if a target is detected in a radar beam and the target is considered to represent a very dangerous condition, the dwell in the radar beam Contains factors to be performed by the sensor. The scheduling information provided by the discriminator 166 can cause a sensor to process data from a radar beam when cue data from another sensor is linked to a particular radar beam. Information can also be included. The queuing information can adapt a particular sensor and direct the aiming of the radar beam primarily in the direction that the target is expected to appear by another sensor.
[0073]
The sensor scheduler 158 receives information from the discriminating unit 166, notifies the MHT 150 when the tracking path data should be updated, and notifies various sensors of the beam dwell to be performed. In addition, the sensor is notified of any appropriate queue data.
[0074]
The data tracking path from the tracking path quality generator 164 is received by the vehicle control collision management operator (operation unit) 168. Based on the road condition assessment performed by the discriminator 166 and the highest quality tracked path determined by the tracked path quality generator 164, the vehicle control collision management operating unit 168 is a safety coupled to the vehicle as described above. Various output functions associated with the system can be performed.
[0075]
The specific embodiment has been described above by exemplifying the fusion of data given by various sensors arranged on the vehicle. However, another embodiment of merging sensor data is also possible in the present invention. Needless to say. Other embodiments include, but are not limited to, filters other than the Kalman filter 156 and other sequences of blocks 150-170.
[0076]
While preferred embodiments of the present invention have been described above, it will now be apparent to those skilled in the art that other embodiments incorporating the concepts may be used. Thus, it is contemplated that these embodiments should not be limited to the disclosed embodiments, but only by the spirit and scope of the claims.
[0077]
All publications and documents cited herein are hereby expressly incorporated by reference in their entirety.
[Brief description of the drawings]
FIG. 1 is a block diagram of a proximity object detection (NOD) system located on a vehicle.
FIG. 2 is a diagram of a vehicle surrounded by a sensor zone cage provided by a NOD system of the type shown in FIG.
FIG. 3 is a diagram of a vehicle traveling along a road with another vehicle in the vicinity surrounded by a sensor zone fence provided by a NOD system of the type shown in FIG. 1;
FIG. 4 is a diagram of a vehicle when surrounded by a plurality of targets, where one target appears in the sensor zone of two different sensors.
FIG. 4A is a plot corresponding to radar reports in one local coordinate system of two different sensors.
FIG. 4B is a plot corresponding to radar reporting in the other local coordinate system of two different sensors.
FIG. 4C shows a plot corresponding to the fusion radar report from the sensor in FIG. 4A in a coordinate system corresponding to the local coordinate system of FIG. 4A.
FIG. 4D is a coordinate system corresponding to the local coordinate system of FIG. 4B and shows a plot corresponding to the fusion radar report from the sensor in FIG. 4B.
FIG. 5 is a block diagram of a proximity object detection (NOD) system having a central tracker / data fusion (CT / DF) processor.
FIG. 6 is a block diagram of a proximity object detection (NOD) system mounted on a vehicle having a single sensor processing system.
FIG. 7 is a block diagram of an example set of processing elements that a CT / DF processor can provide.

Claims (26)

輸送手段に結合された複数のターゲット・センサであって、各々がそれぞれのターゲット・センサに関連するローカル座標でレンジ・セル・データを提供する、複数のターゲット・センサと、
前記複数のターゲット・センサから前記ローカル座標を用いたレンジ・セル・データを受け取るように結合され、該レンジ・セル・データを輸送手段のグローバル座標系において処理するように構成されたプロセッサであって、1つまたは複数の輸送手段安全システムを制御する制御信号を生成するように構成されたプロセッサと、を備え、前記プロセッサは、
前記複数のターゲット・センサからのレンジ・セル・データを受け取るように結合され、前記レンジ・セル・データからターゲット行路データおよび関連するターゲット行路を生成するとともに、新たなターゲット行路データの前記ターゲット行路との連携を生成するように構成された、多重推測追跡装置(MHT)と、
前記MHTから前記ターゲット行路を受け取るように結合され、行路データ連携、分解能、またはターゲット行路品質の少なくとも1つについての推測を生成するように構成された、関連性推測生成器と、
前記関連性推測生成器に結合され、更に前記MHTに結合された状態変数フィルタであって、前記ターゲット行路に関連するターゲット行路予測を行うように構成された状態変数フィルタと、
前記関連性推測生成器に結合された共用行路生成器であって、ターゲット行路のローカル座標を輸送手段のグローバル座標系に変換するように構成された共用行路生成器と、
前記共用行路生成器に結合されたデータ融合装置であって、前記複数のターゲット・センサに関連するターゲット行路を結合して融合共用行路を提供するように構成された、データ融合装置と、
前記データ融合装置に結合された行路品質生成器であって、前記融合共用行路に関連するデータ品質値を決定するように構成された行路品質生成器と、
前記共用行路生成器および前記行路品質生成器に結合された判別器であって、ターゲット・センサ・スケジューリングを行うように構成された判別器と、
前記行路品質生成器および前記判別器に結合された輸送手段衝突管理作動装置であって、前記1つまたは複数の輸送手段安全システムを制御する前記制御信号を供給するように構成された、輸送手段衝突管理作動装置と
を備えた近接物体検出システム。
A plurality of target sensors coupled to the vehicle, each providing range cell data in local coordinates associated with the respective target sensor;
A processor coupled to receive range cell data using the local coordinates from the plurality of target sensors and configured to process the range cell data in a global coordinate system of the vehicle; A processor configured to generate a control signal for controlling one or more vehicle safety systems, the processor comprising:
Coupled to receive range cell data from the plurality of target sensors to generate target path data and associated target paths from the range cell data, and for the target path of new target path data; A multiple guess tracker (MHT) configured to generate a linkage of
A relevance inference generator coupled to receive the target path from the MHT and configured to generate an inference for at least one of path data association, resolution, or target path quality;
A state variable filter coupled to the relevance inference generator and further coupled to the MHT, the state variable filter configured to perform target path prediction associated with the target path;
A shared path generator coupled to the relevance guess generator, the shared path generator configured to convert the local coordinates of the target path to the global coordinate system of the vehicle;
A data fusion device coupled to the shared path generator, the data fusion apparatus configured to combine target paths associated with the plurality of target sensors to provide a fused shared path;
A path quality generator coupled to the data fusion device, the path quality generator configured to determine a data quality value associated with the fused shared path;
A discriminator coupled to the shared path generator and the path quality generator and configured to perform target sensor scheduling;
A vehicle collision management actuator coupled to the path quality generator and the discriminator, the vehicle being configured to provide the control signal for controlling the one or more vehicle safety systems A collision management actuator ,
Proximity object detection system.
請求項1記載のシステムにおいて、前記プロセッサは、
前記複数のターゲット・センサのそれぞれに関連する行路ファイルを結合する結合器を備え、前記行路ファイルは1つまたは複数のターゲットのそれぞれのターゲット位置経路に対応する、システム。
The system of claim 1, wherein the processor is
A system comprising a combiner for combining a path file associated with each of the plurality of target sensors, the path file corresponding to a respective target position path of one or more targets.
請求項1記載のシステムにおいて、前記状態変数フィルタがカルマン・フィルタを含む、システム。  The system of claim 1, wherein the state variable filter comprises a Kalman filter. 請求項1記載のシステムにおいて、更に、
前記判別器および前記複数のターゲット・センサに結合されたセンサ・スケジューラを備え、該センサ・スケジューラは、前記複数のターゲット・センサによって行われるレンジ・セル・データ更新に関連する更新されたスケジュールを提供するように構成され、前記複数のターゲット・センサの選択されたものが、それ以外のターゲット・センサよりも高いレートで、該選択されたターゲット・センサによって検出されたターゲットに関連するレンジ・セル・データを提供することを可能にする、システム。
The system of claim 1, further comprising:
A sensor scheduler coupled to the discriminator and the plurality of target sensors, the sensor scheduler providing an updated schedule associated with range cell data updates performed by the plurality of target sensors A range cell associated with a target detected by the selected target sensor at a higher rate than the other target sensors. A system that allows you to provide data.
請求項4記載のシステムにおいて、前記センサ・スケジューラは、更に、前記複数のターゲット・センサの少なくとも1つに関連するビーム・ドウェルを提供するように構成され、該ビーム・ドウェルは、前記複数のターゲット・センサのそれぞれが処理時間を集中させる1つまたは複数の指向性ビームを決定する、システム。  5. The system of claim 4, wherein the sensor scheduler is further configured to provide a beam dwell associated with at least one of the plurality of target sensors, the beam dwell comprising the plurality of targets. A system in which each of the sensors determines one or more directional beams that concentrate processing time. 輸送手段に結合され、各々がターゲット・データを提供するように構成された複数のターゲット・センサであって、赤外線(IR)センサまたはレーダ・センサの少なくとも1つを含む、複数のターゲット・センサと、
前記ターゲット・データを受信し、該データを処理し、1つまたは複数の輸送手段安全システムを制御する制御信号を提供するプロセッサと、
を備えた近接物体検出システムであって、前記プロセッサが、
前記複数のターゲット・センサからターゲット・データを受け取るように結合され、前記ターゲット・データからターゲット行路データおよび関連するターゲット行路を生成するとともに、新たなターゲット行路データの前記ターゲット行路との連携を生成するように構成された、多重推測追跡装置(MHT)と、
前記MHTから前記ターゲット行路を受け取るように結合され、行路データ連携、分解能、またはターゲット行路品質の少なくとも1つについての推測を生成するように構成された、関連性推測生成器と、
前記関連性推測生成器に結合され、更に前記MHTに結合された状態変数フィルタであって、前記ターゲット行路に関連するターゲット行路予測を行うように構成された状態変数フィルタと、
前記関連性推測生成器に結合された共用行路生成器であって、前記ターゲットに関連するターゲット行路のローカル座標を輸送手段のグローバル座標系に変換するように構成された共用行路生成器と、
前記共用行路生成器に結合されたデータ融合装置であって、前記複数のターゲット・センサに関連するターゲット行路を結合して融合共用行路を提供するように構成された、データ融合装置と、
前記データ融合装置に結合された行路品質生成器であって、前記融合共用行路に関連するデータ品質値を決定するように構成された行路品質生成器と、
前記共用行路生成器および前記行路品質生成器に結合された判別器であって、ターゲット・センサ・スケジューリングを行うように構成された判別器と、
前記行路品質生成器および前記判別器に結合された輸送手段衝突管理作動装置であって、前記1つまたは複数の輸送手段安全システムを制御する前記制御信号を供給するように構成された、輸送手段衝突管理作動装置と、を含む、
近接物体検出システム。
A plurality of target sensors coupled to the vehicle and each configured to provide target data, the plurality of target sensors comprising at least one of an infrared (IR) sensor or a radar sensor; ,
A processor that receives the target data, processes the data, and provides control signals to control one or more vehicle safety systems;
A proximity object detection system comprising:
Combined to receive target data from the plurality of target sensors, generates target route data and associated target routes from the target data, and generates a linkage of new target route data with the target route. A multiple guess tracker (MHT) configured as follows:
A relevance inference generator coupled to receive the target path from the MHT and configured to generate an inference for at least one of path data association, resolution, or target path quality;
A state variable filter coupled to the relevance inference generator and further coupled to the MHT, the state variable filter configured to perform target path prediction associated with the target path;
A shared path generator coupled to the relevance guess generator, the shared path generator configured to convert local coordinates of a target path associated with the target to a global coordinate system of a vehicle;
A data fusion device coupled to the shared path generator, the data fusion apparatus configured to combine target paths associated with the plurality of target sensors to provide a fused shared path;
A path quality generator coupled to the data fusion device, the path quality generator configured to determine a data quality value associated with the fused shared path;
A discriminator coupled to the shared path generator and the path quality generator and configured to perform target sensor scheduling;
A vehicle collision management actuator coupled to the path quality generator and the discriminator, the vehicle being configured to provide the control signal for controlling the one or more vehicle safety systems A collision management actuator,
Proximity object detection system.
請求項6記載のシステムにおいて、前記状態変数フィルタがカルマン・フィルタを含む、システム。  7. The system of claim 6, wherein the state variable filter includes a Kalman filter. 請求項6記載のシステムにおいて、更に、
前記判別器および前記複数のターゲット・センサに結合されたセンサ・スケジューラを備え、該センサ・スケジューラは、前記複数のターゲット・センサによって行われるターゲット・データ更新に関連する更新されたスケジュールを提供するように構成され、前記複数のターゲット・センサの選択されたものが、それ以外のターゲット・センサよりも高いレートで、該選択されたターゲット・センサによって検出されたターゲットに関連するレンジ・セル・データを提供することを可能にする、システム。
The system of claim 6, further comprising:
A sensor scheduler coupled to the discriminator and the plurality of target sensors, the sensor scheduler providing an updated schedule associated with target data updates performed by the plurality of target sensors; And the selected one of the plurality of target sensors has a range cell data associated with the target detected by the selected target sensor at a higher rate than the other target sensors. A system that makes it possible to provide.
請求項8記載のシステムにおいて、前記センサ・スケジューラは、更に、前記レーダ・センサに関連するビーム・ドウェルを提供するように構成され、該ビーム・ドウェルは、前記複数のターゲット・センサのそれぞれが処理時間を集中させる1つまたは複数の指向性ビームを決定する、システム。  9. The system of claim 8, wherein the sensor scheduler is further configured to provide a beam dwell associated with the radar sensor, the beam dwell being processed by each of the plurality of target sensors. A system for determining one or more directional beams to concentrate time. 近接物体検出方法であって、
輸送手段に結合された複数のターゲット・センサを用いてターゲット追跡を行い、前記ターゲット・センサの各々に関連するローカル座標でレンジ・セル・データを提供し、
前記複数のターゲット・センサの各々によって与えられるレンジ・セル・データを、輸送手段のグローバル座標系で前記レンジ・セル・データを受信および処理するように結合されたプロセッサにおいて共用し、
前記共用に応答して、1つまたは複数の輸送手段安全システムを制御する制御信号を生成する、ことを含み、
前記ターゲット・データの共用は、
前記複数のターゲット・センサによって提供されたレンジ・セル・データを受け取る多重推測追跡装置(MHT)を用いて、前記レンジ・セル・データからターゲット行路データおよび関連するターゲット行路を生成するとともに、新たなターゲット行路データの前記ターゲット行路との連携を生成し、
前記MHTに結合された関連性推測生成器を用いて行路推測を検査し、前記行路推測は、行路データ連携、分解能、またはターゲット行路品質の少なくとも1つについての推測を含み、
前記関連性推測生成器に結合され、更に前記MHTに結合された状態変数フィルタを用いてフィルタ処理を行い、該フィルタ処理は、前記ターゲット行路に関連するターゲット行路予測の生成を含み、
前記関連性推測生成器に結合された共用行路生成器を用いて共用行路を生成し、前記共用行路生成器が、ターゲットに関連するターゲット行路のローカル座標を輸送手段のグローバル座標系に変換するように構成され、
前記共用行路生成器に結合されたデータ融合装置を用いてデータを融合し、前記データ融合装置が、前記複数のターゲット・センサに関連するターゲット行路を結合して、融合共用行路を提供するように構成され、
前記データ融合装置に結合された行路品質生成器を用いて行路品質値を生成し、前記行路品質生成器が、前記融合共用行路に関連するデータ品質値を決定するように構成され、
前記共用行路生成器および前記行路品質生成器に結合された判別器を用いて判別を行い、前記判別器がターゲット・センサ・スケジューリングを行うように構成され、
前記行路品質生成器および前記判別器に結合された輸送手段衝突管理作動装置を用いて、前記1つまたは複数の輸送手段安全システムを制御する制御信号を生成する、
ことを含む方法。
A proximity object detection method,
Performing target tracking using a plurality of target sensors coupled to the vehicle, providing range cell data in local coordinates associated with each of the target sensors;
Sharing the range cell data provided by each of the plurality of target sensors in a processor coupled to receive and process the range cell data in a global coordinate system of a vehicle;
Generating a control signal to control one or more vehicle safety systems in response to the sharing;
The sharing of the target data is as follows:
Generating target path data and associated target paths from the range cell data using a multiple guess tracker (MHT) that receives range cell data provided by the plurality of target sensors; Generate a linkage of the target route data with the target route;
Examining a route guess using a relevance guess generator coupled to the MHT, wherein the route guess includes a guess for at least one of route data association, resolution, or target route quality;
Filtering using a state variable filter coupled to the relevance guess generator and further coupled to the MHT, the filtering includes generating a target path prediction associated with the target path;
Generating a shared path using a shared path generator coupled to the relevance guess generator, wherein the shared path generator converts the local coordinates of the target path associated with the target into a global coordinate system of the vehicle; Composed of
Fusing data using a data fusion device coupled to the shared path generator, wherein the data fusion apparatus combines target paths associated with the plurality of target sensors to provide a fused shared path. Configured,
Generating a route quality value using a route quality generator coupled to the data fusion device, wherein the route quality generator is configured to determine a data quality value associated with the fused shared route;
Making a determination using a classifier coupled to the shared path generator and the path quality generator, the classifier configured to perform target sensor scheduling;
Generating a control signal for controlling the one or more vehicle safety systems using a vehicle collision management actuator coupled to the path quality generator and the discriminator;
A method involving that.
請求項10記載の方法において、前記ターゲット・データの共用は、
前記複数のターゲット・センサのそれぞれに関連する行路ファイルを結合し、前記行路ファイルは1つまたは複数のターゲットのそれぞれのターゲット位置経路に対応する、ことを含む方法。
The method of claim 10, wherein the sharing of the target data is:
Combining a path file associated with each of the plurality of target sensors, wherein the path file corresponds to a respective target position path of one or more targets.
請求項10記載の方法において、前記状態変数フィルタがカルマン・フィルタを含む、方法。  The method of claim 10, wherein the state variable filter comprises a Kalman filter. 請求項10記載の方法において、更に、
前記判別器および前記複数のターゲット・センサに結合されたセンサ・スケジューラを用いて前記ターゲット・センサのスケジューリングを行い、前記センサ・スケジューラは、前記複数のターゲット・センサによって行われるレンジ・セル・データ更新に関連する更新されたスケジュールを提供するように構成され、前記複数のターゲット・センサの選択されたものが、それ以外のターゲット・センサよりも高いレートで、該選択されたターゲット・センサによって検出されたターゲットに関連するレンジ・セル・データを提供することを可能にする、ことを含む方法。
The method of claim 10, further comprising:
Scheduling the target sensor using a sensor scheduler coupled to the discriminator and the plurality of target sensors, the sensor scheduler updating range cell data performed by the plurality of target sensors A selected one of the plurality of target sensors is detected by the selected target sensor at a higher rate than the other target sensors. Enabling providing range cell data associated with the target.
請求項13記載の方法において、更に、
前記センサ・スケジューラを用いて、前記複数のターゲット・センサの少なくとも1つに関連するビーム・ドウェルを生成し、該ビーム・ドウェルは、前記複数のターゲット・センサのそれぞれが処理時間を集中させる1つまたは複数の指向性ビームを決定する、方法。
The method of claim 13, further comprising:
The sensor scheduler is used to generate a beam dwell associated with at least one of the plurality of target sensors, the beam dwell being one in which each of the plurality of target sensors concentrates processing time. Or a method of determining a plurality of directional beams.
近接物体検出方法であって、
輸送手段に結合された複数のターゲット・センサを用いてターゲット追跡を行い、前記ターゲット・センサは所定のカバレッジ・ゾーン内で1つまたは複数のターゲットの検出を行うように構成され、前記複数のターゲット・センサはそれぞれのターゲット・データを生成するように構成され、前記ターゲット追跡が、赤外線(IR)センサによる撮像、またはレーダ・センサによるレーダ検知の少なくとも一方を含み、
前記複数のターゲット・センサの各々によって与えられるターゲット・データをプロセッサにおいて共用して、1つまたは複数の輸送手段安全システムを制御する制御信号を生成するように構成され、
前記ターゲット・データの共用は、
前記複数のターゲット・センサによって提供されるターゲット・データを受け取る多重推測追跡装置(MHT)を用いて、前記ターゲット・データからターゲット行路データおよび関連するターゲット行路を生成するとともに、新たなターゲット行路データの前記ターゲット行路との連携を生成し、
前記MHTに結合された関連性推測生成器を用いて行路推測を検査し、前記行路推測は、行路データ連携、分解能、またはターゲット行路品質の少なくとも1つについての推測を含み、
前記関連性推測生成器に結合され、更に前記MHTに結合された状態変数フィルタを用いてフィルタ処理を行い、該フィルタ処理は、前記ターゲット行路に関連するターゲット行路予測の生成を含み、
前記関連性推測生成器に結合された共用行路生成器を用いて共用行路を生成し、前記共用行路生成器が、ターゲットに関連するターゲット行路のローカル座標を輸送手段のグローバル座標系に変換するように構成され、
前記共用行路生成器に結合されたデータ融合装置を用いてデータを融合し、前記データ融合装置が、前記複数のターゲット・センサの各々に関連するターゲット・データを結合して、融合共用行路を提供するように構成され、
前記データ融合装置に結合された行路品質生成器を用いて行路品質値を生成し、前記行路品質生成器が、前記融合共用行路に関連するデータ品質値を決定するように構成され、
前記共用行路生成器および前記行路品質生成器に結合された判別器を用いて判別を行い、前記判別器がセンサ・スケジューリングを行うように構成され、
前記行路品質生成器および前記判別器に結合された輸送手段衝突管理作動装置を用いて、前記1つまたは複数の輸送手段安全システムを制御する制御信号を生成する、
ことを含む方法。
A proximity object detection method,
Target tracking is performed using a plurality of target sensors coupled to the vehicle, the target sensor configured to detect one or more targets within a predetermined coverage zone, and the plurality of targets The sensors are configured to generate respective target data, the target tracking comprising at least one of imaging by an infrared (IR) sensor or radar detection by a radar sensor;
The target data provided by each of the plurality of target sensors is shared in the processor to generate a control signal that controls one or more vehicle safety systems;
The sharing of the target data is as follows:
A multiple guess tracker (MHT) that receives target data provided by the plurality of target sensors is used to generate target path data and associated target paths from the target data and to generate new target path data Generate a linkage with the target route;
Examining a route guess using a relevance guess generator coupled to the MHT, wherein the route guess includes a guess for at least one of route data association, resolution, or target route quality;
Filtering using a state variable filter coupled to the relevance guess generator and further coupled to the MHT, the filtering includes generating a target path prediction associated with the target path;
Generating a shared path using a shared path generator coupled to the relevance guess generator, wherein the shared path generator converts the local coordinates of the target path associated with the target into a global coordinate system of the vehicle; Composed of
Data fusion is performed using a data fusion device coupled to the shared path generator, and the data fusion apparatus combines target data associated with each of the plurality of target sensors to provide a fused shared path. Configured to
Generating a route quality value using a route quality generator coupled to the data fusion device, wherein the route quality generator is configured to determine a data quality value associated with the fused shared route;
Performing discrimination using a classifier coupled to the shared path generator and the path quality generator, the classifier configured to perform sensor scheduling;
Generating a control signal for controlling the one or more vehicle safety systems using a vehicle collision management actuator coupled to the path quality generator and the discriminator;
A method involving that.
請求項15記載の方法において、前記状態変数フィルタがカルマン・フィルタを含む、方法。  The method of claim 15, wherein the state variable filter comprises a Kalman filter. 請求項15記載の方法において、更に、
前記判別器および前記複数のターゲット・センサに結合されたセンサ・スケジューラを用いて前記ターゲット・センサのスケジューリングを行い、前記センサ・スケジューラは、前記複数のターゲット・センサによって行われるターゲット・データ更新に関連する更新されたスケジュールを提供するように構成され、前記複数のターゲット・センサの選択されたものが、それ以外のターゲット・センサよりも高いレートで、該選択されたターゲット・センサによって検出されたターゲットに関連するレンジ・セル・データを提供することを可能にする、ことを含む方法。
The method of claim 15, further comprising:
Scheduling the target sensor using a sensor scheduler coupled to the discriminator and the plurality of target sensors, wherein the sensor scheduler is associated with target data updates performed by the plurality of target sensors. A target configured to provide an updated schedule to be detected, wherein a selected one of the plurality of target sensors is detected by the selected target sensor at a higher rate than the other target sensors. Enabling to provide range cell data associated with the.
請求項17記載の方法において、更に、
前記センサ・スケジューラを用いて、前記複数のターゲット・センサの少なくとも1つに関連するビーム・ドウェルを生成し、該ビーム・ドウェルは、前記複数のターゲット・センサのそれぞれが処理時間を集中させる1つまたは複数の指向性ビームを決定する、方法。
The method of claim 17, further comprising:
The sensor scheduler is used to generate a beam dwell associated with at least one of the plurality of target sensors, the beam dwell being one in which each of the plurality of target sensors concentrates processing time. Or a method of determining a plurality of directional beams.
請求項1記載のシステムにおいて、前記複数のターゲット・センサは、輸送手段前方監視センサおよび輸送手段側方監視センサを備える、システム。  The system of claim 1, wherein the plurality of target sensors comprises a vehicle forward monitoring sensor and a vehicle side monitoring sensor. 請求項1記載のシステムにおいて、前記プロセッサは、ターゲットが前記複数のターゲット・センサの第1センサの視野から前記複数のターゲット・センサの第2センサの視野に移動するとき、前記複数のターゲット・センサの第1センサに関連するターゲットの検出を、前記第2センサに引き渡すように構成される、システム。  2. The system of claim 1, wherein the processor moves the target sensor from a field of view of a first sensor of the plurality of target sensors to a field of view of a second sensor of the plurality of target sensors. A system configured to deliver detection of a target associated with the first sensor to the second sensor. 請求項6記載のシステムにおいて、前記複数のターゲット・センサは、輸送手段前方監視センサおよび輸送手段側方監視センサを備える、システム。  7. The system of claim 6, wherein the plurality of target sensors comprises a vehicle forward monitoring sensor and a vehicle side monitoring sensor. 請求項6記載のシステムにおいて、前記プロセッサは、ターゲットが前記複数のターゲット・センサの第1センサの視野から前記複数のターゲット・センサの第2センサの視野に移動するとき、前記複数のターゲット・センサの第1センサに関連するターゲットの検出を、前記第2センサに引き渡すように構成される、システム。  7. The system of claim 6, wherein the processor moves the target sensor from a field of view of a first sensor of the plurality of target sensors to a field of view of a second sensor of the plurality of target sensors. A system configured to deliver detection of a target associated with the first sensor to the second sensor. 請求項10記載の方法において、前記複数のターゲット・センサは、輸送手段前方監視センサおよび輸送手段側方監視センサを備える、方法。  12. The method of claim 10, wherein the plurality of target sensors comprises a vehicle forward monitoring sensor and a vehicle side monitoring sensor. 請求項10記載の方法において、更に、ターゲットが前記複数のターゲット・センサの第1センサの視野から前記複数のターゲット・センサの第2センサの視野に移動するとき、前記複数のターゲット・センサの第1センサに関連するターゲットの検出を、前記第2センサに引き渡すことを含む、方法。  11. The method of claim 10, further comprising: moving a target from a first sensor field of the plurality of target sensors to a second sensor field of the plurality of target sensors. Passing the detection of a target associated with one sensor to the second sensor. 請求項15記載の方法において、前記複数のターゲット・センサは、輸送手段前方監視センサおよび輸送手段側方監視センサを備える、方法。  16. The method of claim 15, wherein the plurality of target sensors comprises a vehicle forward monitoring sensor and a vehicle side monitoring sensor. 請求項15記載の方法において、更に、ターゲットが前記複数のターゲット・センサの第1センサの視野から前記複数のターゲット・センサの第2センサの視野に移動するとき、前記複数のターゲット・センサの第1センサに関連するターゲットの検出を、前記第2センサに引き渡すことを含む、方法。  16. The method of claim 15, further comprising: moving a target from a first sensor field of the plurality of target sensors to a second sensor field of the plurality of target sensors. Passing the detection of a target associated with one sensor to the second sensor.
JP2003521392A 2001-08-16 2002-02-01 Proximity object detection system Expired - Fee Related JP4771657B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US09/931,631 2001-08-16
US09/931,631 US6784828B2 (en) 2000-08-16 2001-08-16 Near object detection system
US10/062,578 2002-01-31
US10/062,578 US6670910B2 (en) 2000-08-16 2002-01-31 Near object detection system
PCT/US2002/002776 WO2003016943A1 (en) 2001-08-16 2002-02-01 Near object detection system

Publications (2)

Publication Number Publication Date
JP2005500537A JP2005500537A (en) 2005-01-06
JP4771657B2 true JP4771657B2 (en) 2011-09-14

Family

ID=44693674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003521392A Expired - Fee Related JP4771657B2 (en) 2001-08-16 2002-02-01 Proximity object detection system

Country Status (1)

Country Link
JP (1) JP4771657B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7508335B2 (en) * 2006-12-20 2009-03-24 Raytheon Company Multiple sensor processing
US9255989B2 (en) * 2012-07-24 2016-02-09 Toyota Motor Engineering & Manufacturing North America, Inc. Tracking on-road vehicles with sensors of different modalities
JP2015155807A (en) * 2014-02-20 2015-08-27 富士通テン株式会社 Radar device, vehicle control system, and signal processing method
FR3085143B1 (en) * 2018-08-23 2020-07-17 Continental Automotive France METHOD FOR DETECTING THE APPROACH OF AN OBJECT ON A SIDE SIDE OF A VEHICLE ON THE MOVE AND ASSOCIATED DETECTION DEVICE
EP3865907A4 (en) * 2018-10-12 2022-09-14 Kyocera Corporation Electronic device, method for controlling electronic device, and program for controlling electronic device
WO2020126396A1 (en) * 2018-12-17 2020-06-25 Orlaco Products B.V. Camera mirror system with ir led night vision system
CN112731324A (en) * 2020-12-16 2021-04-30 中交第一公路勘察设计研究院有限公司 Multi-radar cross-regional networking multi-target tracking method for expressway
CN117560638B (en) * 2024-01-10 2024-03-22 山东派蒙机电技术有限公司 Converged communication method, device and equipment applied to mobile terminal communication system

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03248073A (en) * 1990-02-27 1991-11-06 Nec Corp Integral processor
JPH07104057A (en) * 1993-10-05 1995-04-21 Nec Corp Wake tracking device
JPH0868855A (en) * 1994-08-30 1996-03-12 Mitsubishi Electric Corp Multiple target tracking system
JPH0921867A (en) * 1995-07-07 1997-01-21 Mitsubishi Heavy Ind Ltd Cooperative transfer method of target between two radars
JPH0991595A (en) * 1995-09-25 1997-04-04 Mitsubishi Motors Corp Obstacle recognition device
JPH10112000A (en) * 1996-10-03 1998-04-28 Suzuki Motor Corp Obstacle recognizer
JPH1116099A (en) * 1997-06-27 1999-01-22 Hitachi Ltd Automobile traveling supporting device
US6037860A (en) * 1997-09-20 2000-03-14 Volkswagen Ag Method and arrangement for avoiding and/or minimizing vehicle collisions in road traffic
JP2000193741A (en) * 1998-12-28 2000-07-14 Mitsubishi Electric Corp Target tracking device
JP2000221265A (en) * 1999-02-03 2000-08-11 Mitsubishi Electric Corp Target correlation integrating device
JP2000292538A (en) * 1999-04-07 2000-10-20 Mitsubishi Electric Corp Obstacle detector for vehicle
JP2001099930A (en) * 1999-09-29 2001-04-13 Fujitsu Ten Ltd Sensor for monitoring periphery
JP2002144991A (en) * 2000-11-13 2002-05-22 Nissan Motor Co Ltd Obstacle sensing device
JP2004506908A (en) * 2000-08-16 2004-03-04 レイセオン・カンパニー Proximity object detection system

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03248073A (en) * 1990-02-27 1991-11-06 Nec Corp Integral processor
JPH07104057A (en) * 1993-10-05 1995-04-21 Nec Corp Wake tracking device
JPH0868855A (en) * 1994-08-30 1996-03-12 Mitsubishi Electric Corp Multiple target tracking system
JPH0921867A (en) * 1995-07-07 1997-01-21 Mitsubishi Heavy Ind Ltd Cooperative transfer method of target between two radars
JPH0991595A (en) * 1995-09-25 1997-04-04 Mitsubishi Motors Corp Obstacle recognition device
JPH10112000A (en) * 1996-10-03 1998-04-28 Suzuki Motor Corp Obstacle recognizer
JPH1116099A (en) * 1997-06-27 1999-01-22 Hitachi Ltd Automobile traveling supporting device
US6037860A (en) * 1997-09-20 2000-03-14 Volkswagen Ag Method and arrangement for avoiding and/or minimizing vehicle collisions in road traffic
JP2000193741A (en) * 1998-12-28 2000-07-14 Mitsubishi Electric Corp Target tracking device
JP2000221265A (en) * 1999-02-03 2000-08-11 Mitsubishi Electric Corp Target correlation integrating device
JP2000292538A (en) * 1999-04-07 2000-10-20 Mitsubishi Electric Corp Obstacle detector for vehicle
JP2001099930A (en) * 1999-09-29 2001-04-13 Fujitsu Ten Ltd Sensor for monitoring periphery
JP2004506908A (en) * 2000-08-16 2004-03-04 レイセオン・カンパニー Proximity object detection system
JP2002144991A (en) * 2000-11-13 2002-05-22 Nissan Motor Co Ltd Obstacle sensing device

Also Published As

Publication number Publication date
JP2005500537A (en) 2005-01-06

Similar Documents

Publication Publication Date Title
JP5063851B2 (en) Proximity object detection system
US11703587B2 (en) Vehicle radar sensing system with enhanced angle resolution
US11027653B2 (en) Apparatus, system and method for preventing collision
US20200387160A1 (en) Autonomous cruise control apparatus and method
US11474230B2 (en) Method and apparatus for non-line-of-sight detection and coded radar signals
US20190072659A1 (en) Artificial-Intelligence Controlled Adaptive Multi-Purpose Beam Forming Automobile Radar
US11867830B2 (en) Side lobe reduction in a beam steering vehicle radar antenna for object identification
US11867789B2 (en) Optimized proximity clustering in a vehicle radar for object identification
EP3834008A1 (en) An apparatus and method for providing driver assistance of a vehicle
US20200290605A1 (en) Apparatus, system, and method for vehicle collision avoidance control
JP4771657B2 (en) Proximity object detection system
JP7153784B2 (en) ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, AND PROGRAM
EP1417512B1 (en) Near object detection system
CN111086507A (en) Device and method for avoiding blind spot of next lane vehicle
CN210617998U (en) Blind area detection equipment for freight transport and passenger transport vehicles
US20200241122A1 (en) Radar system with three-dimensional beam scanning
GB2587565A (en) An apparatus and method for providing driver assistance of a vehicle
WO2023032620A1 (en) Electronic device, method for controlling electronic device, and program
WO2023032619A1 (en) Electronic device, electronic device control method, and program
WO2023032600A1 (en) Electronic device, method for controlling electronic device, and program
WO2022113765A1 (en) Electronic apparatus, control method for electronic apparatus, and program
CN107561537B (en) Radar system, vehicle, unmanned aerial vehicle and detection method
CN116547185A (en) Method for controlling a drive train of a vehicle
CN112904342A (en) Sensor system and method for operating a sensor system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071115

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080214

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081201

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090227

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091222

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100319

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100329

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100421

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100428

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100520

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100622

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20100910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110621

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140701

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4771657

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees