BR102021006989A2 - Sistema de sensor a bordo - Google Patents

Sistema de sensor a bordo Download PDF

Info

Publication number
BR102021006989A2
BR102021006989A2 BR102021006989-9A BR102021006989A BR102021006989A2 BR 102021006989 A2 BR102021006989 A2 BR 102021006989A2 BR 102021006989 A BR102021006989 A BR 102021006989A BR 102021006989 A2 BR102021006989 A2 BR 102021006989A2
Authority
BR
Brazil
Prior art keywords
vehicle
observation
information
sensor
unit
Prior art date
Application number
BR102021006989-9A
Other languages
English (en)
Inventor
Takeshi Yamakawa
Yasuo Uehara
Osamu Komeda
Kazuki HIRAMOTO
Kazuhiro MIYAZATO
Masamu Chiba
Naohide Uchida
Hideaki Sawada
Masaki IKAI
Original Assignee
Toyota Jidosha Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Jidosha Kabushiki Kaisha filed Critical Toyota Jidosha Kabushiki Kaisha
Publication of BR102021006989A2 publication Critical patent/BR102021006989A2/pt

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/28Details of pulse systems
    • G01S7/285Receivers
    • G01S7/32Shaping echo pulse signals; Deriving non-pulse signals from echo pulse signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/009Priority selection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/10Number of lanes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9315Monitoring blind spots
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9322Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using additional data, e.g. driver condition, road state or weather data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93272Sensor installation details in the back of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93274Sensor installation details on the side of the vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

sistema de sensor a bordo. a presente invenção se refere a um sistema de sensor a bordo (100, 110) que inclui: um primeiro sensor (20) configurado para detectar uma situação ao redor de um veículo (1); um segundo sensor (30) tendo uma resolução angular mais alta do que o primeiro sensor (20); uma unidade de aquisição (11, 111) configurada para adquirir um resultado de detecção do primeiro sensor (20); e uma unidade de decisão de faixa (12, 121) configurada para decidir, com base no resultado da detecção, uma faixa de observação a ser observada pelo segundo sensor (30) em torno do veículo (1).

Description

SISTEMA DE SENSOR A BORDO FUNDAMENTOS DA INVENÇÃO Campo da Técnica
[001] A invenção se refere ao campo da técnica de sistemas de sensores a bordo.
Descrição da Técnica Relacionada
[002] Por exemplo, um sistema para atualizar uma base de dados que é usada para identificar e determinar os tipos de objetos por um dispositivo de radar com base em informações sobre o resultado da identificação do tipo de objeto de uma câmera a bordo e informações sobre o resultado da identificação do tipo de objeto do dispositivo de radar é proposto como um sistema de sensor a bordo (consulte a Publicação do Pedido de Patente Japonês não Examinado No. 2017- 207348 (JP 2017-207348 A)). Outras técnicas relacionadas incluem a Publicação do Pedido de Patente Japonês não Examinado No. H10-246778 (JP H10-246778 A). JP H10-246778 A descreve uma técnica para decidir um alvo de rastreamento com base no resultado de detecção obtido com um feixe de busca e emitir um feixe de rastreamento em direção ao alvo de rastreamento.
SUMÁRIO DA INVENÇÃO
[003] Por exemplo, a fim de implementar uma direção autônoma mais avançada, são requeridos dos sensores resultados de observação corretos (em outras palavras, precisos) do entorno de um veículo. Quanto maior a precisão necessária, mais longo tende a ser o tempo necessário para a observação dos arredores do veículo pelos sensores. Além disso, o tempo que pode ser gasto para uma observação é limitado em veículos que deveriam se mover. Por exemplo, no caso em que o dispositivo de radar na técnica descrita em JP 2017-207348 A tem maior precisão (isto é, resolução angular mais alta), o dispositivo de radar pode não ser adequado para uso prático porque um tempo de observação é significativamente maior.
[004] A invenção fornece um sistema de sensor a bordo capaz de adquirir resultados de observação precisos ao mesmo tempo em que reduz o tempo de observação.
[005] Um primeiro aspecto da invenção é um sistema de sensor a bordo. O sistema de sensor a bordo é um sistema de sensor a bordo que inclui um primeiro sensor configurado para detectar uma situação em torno de um veículo e um segundo sensor com uma resolução angular mais alta do que o primeiro sensor. O sistema de sensor a bordo inclui: uma unidade de aquisição configurada para adquirir um resultado de detecção do primeiro sensor; e uma unidade de decisão de alcance configurada para decidir, com base no resultado da detecção, um alcance de observação a ser observado pelo segundo sensor ao redor do veículo.
[006] De acordo com o primeiro aspecto, a faixa de observação do segundo sensor é observada com precisão relativamente alta e o resultado da detecção do primeiro sensor pode ser usado para a faixa remanescente. De acordo com o sistema de sensor a bordo, os resultados de observação precisos podem ser obtidos enquanto reduz o tempo de observação.
[007] No primeiro aspecto, o sistema de sensor a bordo pode ainda incluir uma unidade de decisão de nível de prioridade configurada para decidir os níveis de prioridade de detecção de obstáculos de pelo menos uma dentre uma posição relativa entre cada um dos obstáculos e o veículo, um movimento relativo entre cada um dos obstáculos e o veículo, e um tipo de cada um dos obstáculos com base nas informações do obstáculo. A unidade de aquisição pode ser configurada para adquirir a informação do obstáculo como o resultado da detecção, sendo a informação do obstáculo informação sobre os obstáculos existentes ao redor do veículo. A unidade de decisão de alcance pode ser configurada para decidir o alcance de observação de modo que os obstáculos de níveis de prioridade de detecção altos sejam preferencialmente incluídos no alcance de observação sobre os obstáculos de níveis de prioridade de detecção baixos.
[008] No primeiro aspecto, a unidade de decisão de nível de prioridade pode ser configurada para, quando os obstáculos incluem um primeiro objeto fixo localizado acima do veículo e um segundo objeto fixo localizado na superfície de uma estrada na qual o veículo está percorrendo, definir um nível de prioridade de detecção mais alto para o segundo objeto fixo do que para o primeiro objeto fixo a partir de uma posição relativa entre o primeiro objeto fixo e o veículo e uma posição relativa entre o segundo objeto fixo e o veículo.
[009] No primeiro aspecto, a unidade de decisão de nível de prioridade pode ser configurada para definir um nível de prioridade de detecção mais alto para um pedestre quando os obstáculos incluem o pedestre e a unidade de decisão do nível de prioridade presume que o pedestre vai estar em um curso do veículo a partir de um movimento relativo entre o pedestre e o veículo, do que quando a unidade de decisão nível de prioridade não presume que o pedestre estará no curso do veículo.
[010] No primeiro aspecto, o primeiro sensor pode ser um sensor de radar. A unidade de aquisição pode ser configurada para adquirir informação de alvo como a informação de obstáculo, a informação de alvo sendo informação sobre uma pluralidade de alvos, cada um composto por uma pluralidade de pontos de reflexão. A unidade de decisão de nível de prioridade pode ser configurada para, quando os alvos incluem um alvo específico, definir um nível de prioridade de detecção mais alto para o alvo específico do que para pelo menos uma parte dos alvos que não sejam o alvo específico, o alvo específico sendo um alvo correspondente para um objeto em movimento, uma velocidade do alvo específico sendo igual ou inferior a uma velocidade predeterminada e uma seção transversal de radar do alvo específico sendo igual ou menor do que uma seção transversal de radar predeterminada.
[011] No primeiro aspecto, quando o veículo está parado, pelo menos uma parte de uma faixa observável do segundo sensor pode ser diferente de uma faixa de detecção do primeiro sensor. A unidade de decisão de faixa pode ser configurada para decidir a faixa de observação de modo que os obstáculos dos níveis de prioridade de detecção altos sejam incluídos na faixa de observação quando os obstáculos dos níveis de prioridade de detecção altos estão fora da faixa observável em um primeiro ponto no tempo, e os obstáculos dos níveis de detecção de prioridade alta entram na faixa observável em um segundo ponto no tempo depois do primeiro ponto no tempo.
[012] No primeiro aspecto, a unidade de decisão de nível de prioridade pode ser configurada para decidir os níveis de prioridade de detecção dos obstáculos usando ainda informações de mapa correspondentes a uma área incluindo pelo menos uma parte dos obstáculos.
[013] No primeiro aspecto, a unidade de aquisição pode ser configurada para adquirir informações de pista como o resultado da detecção, as informações de pista sendo informações em uma pista à frente do veículo. A unidade de decisão de faixa pode ser configurada para, ao detectar a partir das informações da pista que há uma pista de conversão à direita à frente do veículo e que o veículo entrou na pista de conversão à direita, decidir a faixa de observação de modo que a faixa de observação inclua uma área e o veículo que faz a curva à direita passe a área.
[014] No primeiro aspecto, a unidade de aquisição pode ser configurada para adquirir informações da estrada como o resultado da detecção, as informações da estrada sendo informações em uma estrada à frente do veículo. A unidade de decisão de alcance pode ser configurada para, ao detectar que o número de pistas diminui à frente do veículo a partir das informações da estrada, decidir o alcance de observação de modo que um ponto de convergência seja incluído no alcance de observação e o ponto de convergência seja um ponto onde o número de pistas diminui à frente do veículo.
[015] No primeiro aspecto, a unidade de aquisição pode ser configurada para adquirir informação de sinal como o resultado da detecção, a informação de sinal sendo informação sobre pelo menos um dentre um sinal de trânsito e uma marcação rodoviária existente em torno do veículo, e a unidade de decisão de faixa pode ser configurada para decidir a faixa de observação com base na informação do sinal.
[016] No primeiro aspecto, o sistema de sensor a bordo pode ainda incluir uma unidade de controle configurada para controlar uma direção de emissão de um feixe de lápis. O segundo sensor pode ser um sensor configurado para emitir o feixe de lápis. A unidade de aquisição pode ser configurada para adquirir informações como o resultado da detecção, as informações de formato sendo informações sobre os formatos dos obstáculos existentes em torno do veículo. A unidade de decisão de faixa pode ser configurada para decidir a faixa de observação com base nas informações do formato. A unidade de controle pode ser configurada para controlar a direção da emissão com base nas informações do formato de modo que o feixe de lápis seja varrido ao longo de um formato externo dos obstáculos.
BREVE DESCRIÇÃO DOS DESENHOS
[017] Características, vantagens e significado técnico e industrial de modalidades exemplares da invenção serão descritas abaixo com referência aos desenhos anexos, nos quais sinais semelhantes denotam elementos semelhantes, e em que:
a Figura 1 é um diagrama de blocos que mostra um exemplo da configuração de um sistema de sensor de acordo com a modalidade;
a Figura 2 mostra um exemplo do campo de vistas de sensores de medição aproximada de acordo com a modalidade;
a Figura 3 mostra um exemplo do campo de vistas de sensores de medição fina de acordo com a modalidade;
a Figura 4 é um fluxograma da operação do sistema de sensor de acordo com a modalidade;
a Figura 5 é um diagrama de blocos que mostra outro exemplo da configuração do sistema de sensor de acordo com a modalidade;
a Figura 6 mostra um exemplo das faixas que são observadas pelos sensores de medição aproximada de acordo com a modalidade;
a Figura 7 mostra um exemplo de uma estrada na qual um veículo 1 percorre;
a Figura 8 é um diagrama conceitual que mostra o conceito dos resultados de observação pelos sensores de medição aproximada de acordo com a modalidade;
a Figura 9 é um fluxograma de determinação do nível de risco de acordo com a modalidade;
a Figura 10 mostra um exemplo de uma tabela que define a relação entre o nível de risco, a distância e a prioridade de observação;
a Figura 11 é um fluxograma da operação de geração de um plano de observação de acordo com a modalidade;
a Figura 12A mostra um exemplo de um padrão de varredura;
a Figura 12B mostra um exemplo do padrão de varredura; e
a Figura 13 é um fluxograma da operação de alteração da ordem de observação de acordo com a modalidade.
DESCRIÇÃO DETALHADA DAS MODALIDADES
[018] Será descrita uma modalidade de um sistema de sensor a bordo. O sistema de sensor a bordo de acordo com a modalidade inclui um primeiro sensor que detecta os arredores de um veículo e um segundo sensor com uma resolução angular mais alta do que o primeiro sensor. O segundo sensor pode ser do mesmo tipo do primeiro sensor ou de um tipo diferente do primeiro sensor, desde que a resolução angular do segundo sensor seja mais alta do que do primeiro sensor. O número dos primeiros sensores não está limitado a um e pode ser dois ou mais. O número de segundos sensores também não está limitado a um e pode ser dois ou mais.
[019] A resolução do sensor pode ser avaliada pelo número de pontos de observação por área de unidade (isto é, a densidade de observação). Quanto maior for o número de pontos de observação por área de unidade (em outras palavras, quanto maior a densidade de observação), maior será a resolução avaliada. Por outro lado, uma resolução específica é representada pela distância ou ângulo mínimo que possa ser distinguido pelo sensor. Quanto menor a distância ou ângulo mínimo distinguível, maior será a resolução (ou seja, a capacidade de distinguir entre objetos). Ou seja, quanto menor for a distância ou ângulo mínimo distinguível, maior será a densidade de observação. A “resolução angular” é um índice que representa a resolução pelo ângulo mínimo distinguível. A expressão "resolução angular mais alta do que o primeiro sensor" significa "capaz de distinguir ângulos menores do que o ângulo mínimo que pode ser distinguido pelo primeiro sensor".
[020] Por exemplo, para um sensor (por exemplo, uma câmera, etc.) que tenha uma unidade de detecção com uma pluralidade de elementos de detecção dispostos bidimensionalmente e que observe a pista do campo de visão da unidade de detecção de uma vez, a resolução corresponde à densidade de observação. Neste caso, o ângulo de visão (ou seja, campo de visão instantâneo) de um elemento de detecção é um exemplo específico da "resolução angular".
[021] Por exemplo, para um sensor que emite ondas de observação (ondas de luz, de rádio, etc.) e observa ondas refletidas das ondas de observação emitidas (por exemplo, uma Detecção de Luz e Variação (LIDAR), um radar, etc.), o número de feixes de laser emitidos ou feixes por unidade de área corresponde à densidade de observação. Por exemplo, no caso do LIDAR, a "resolução angular" é aproximadamente dada por "d.2tan-1(1/2x)" (este valor corresponde ao ângulo da etapa de varredura), onde x representa a distância para uma superfície e d representa a distância entre os pontos de laser em uma superfície. Por exemplo, no caso do radar, a largura do feixe representada pelo ângulo é um exemplo específico da "resolução angular".
[022] Os "arredores do veículo" significam as condições em torno do veículo em um determinado ponto no tempo. Os "arredores do veículo" incluem, por exemplo, objetos existentes em torno do veículo, o formato e a estrutura de uma estrada na qual o veículo esteja percorrendo, e informações sobre o piso da estrada em que o veículo esteja percorrendo. Os “arredores do veículo” podem ainda incluir informações sobre o clima, com chuva e queda de neve.
[023] Os "objetos existentes ao redor do veículo" podem incluir, por exemplo, objetos instalados fixos ao solo, como grades de proteção, postes e meios-fios; objetos fixos, como veículos estacionados e cones de trânsito; e objetos móveis, como veículos em movimento e pedestres. Os objetos instalados, os objetos fixos e os objetos móveis são doravante referidos como “obstáculos”, conforme necessário. Cada um do primeiro sensor e do segundo sensor pode identificar os objetos com base, por exemplo, em suas características (por exemplo, refletância, cor, etc.) (ou seja, com base em categorias diferentes das categorias acima). Por exemplo, para sinais de trânsito, a própria placa de sinalização e um suporte de sinalização apoiando um sinal de trânsito podem identificados como objetos separados.
[024] O "formato e estrutura da estrada" podem incluir, por exemplo, o número de pistas, largura da pista, largura da estrada, curvatura, uma pista de conversão à direita, uma parte de fusão e uma parte divergente, uma interseção. A "informação na superfície da estrada" pode incluir, por exemplo, informações sobre marcações na superfície da estrada e informações sobre irregularidades da superfície da estrada.
[025] O sistema de sensor a bordo inclui unidade de aquisição e unidade de decisão de faixa. A unidade de aquisição adquire o resultado da detecção do primeiro sensor. No caso em que o primeiro sensor é uma câmera, o resultado da detecção pode ser uma imagem capturada pela câmera. No caso em que o primeiro sensor é um LIDAR ou um radar, o resultado da detecção pode ser dados incluindo, por exemplo, a distância do primeiro sensor a um ponto de reflexo e a intensidade do reflexo.
[026] A unidade de decisão de faixa decide a faixa de observação a ser observada pelo segundo sensor fora da área ao redor do veículo, com base no resultado de detecção adquirido pela unidade de aquisição. Conforme usado neste documento, a "faixa de observação" é a faixa que é realmente observada pelo segundo sensor e que é mais estreita do que a faixa observável do segundo sensor. A faixa observável do segundo sensor é a faixa máxima que o segundo sensor pode observar de acordo com suas capacidades. No caso em que o segundo sensor é, por exemplo, uma câmera incluindo uma função de zoom, a “faixa observável” corresponde ao ângulo de visão na menor distância focal. No caso em que o segundo sensor é um LIDAR de varredura ou radar, a "faixa observável" corresponde a, por exemplo, o ângulo de visão mostrado em um catálogo de produtos ou brochura, etc.
[027] A expressão "com base no resultado de detecção" não se limita a ser baseada no próprio resultado de detecção (o que é chamado de dados aproximados), mas é um conceito que também inclui, por exemplo, ser baseado em dados processados do resultado de detecção, dados resultantes da realização de algum processamento (como processamento analítico) no resultado da detecção, etc.
[028] Quando a informação sobre um obstáculo existente ao redor do veículo é obtida com base no resultado da detecção, a unidade de decisão de faixa pode decidir a faixa de observação de modo que, por exemplo, a área ao redor do obstáculo seja incluída na faixa de observação. Neste caso, a unidade de decisão de faixa pode decidir a faixa de observação de modo que, por exemplo, nenhuma área diferente da área ao redor do obstáculo seja incluída na faixa de observação. Alternativamente, quando a informação sobre uma pluralidade de obstáculos existentes em torno do veículo é obtida com base no resultado da detecção, a unidade de decisão de faixa pode decidir a faixa de observação de modo que, por exemplo, o obstáculo correspondente a um objeto em movimento seja preferencialmente incluído na faixa de observação. Alternativamente, quando for confirmado com base no resultado da detecção que há um cruzamento à frente do veículo, a unidade de decisão de faixa pode decidir a faixa de observação de modo que a área ao redor do cruzamento seja incluída na faixa de observação. Neste caso, a unidade de decisão de faixa pode decidir a faixa de observação de modo que, por exemplo, nenhuma área diferente da área em torno do cruzamento seja incluída na faixa de observação.
[029] Por exemplo, a fim de alcançar uma condução autônoma mais avançada, é necessário um resultado de observação preciso de um sensor a bordo em relação aos arredores do veículo. Por exemplo, um radar de matriz por fase que varre um feixe de lápis é proposto como um sensor de alta precisão que produz um resultado de observação preciso. No entanto, uma vez que o feixe de lápis tem uma largura de feixe relativamente estreita, o radar de matriz por fase requer várias a várias centenas de vezes mais tempo de observação do que, por exemplo, um radar que emite um feixe de leque. Por conseguinte, mesmo que um sensor de alta precisão, como um radar de matriz por fase seja montado em um veículo que percorre em uma estrada que é um ambiente complicado, não há tempo suficiente para o sensor observar mudanças ambientais ao redor do veículo (por exemplo, no momento em que o resultado da observação é obtido, pode não haver nada indicado pelo resultado da observação na posição indicada pelo resultado da observação porque o veículo se moveu ou outros veículos etc. ao redor do veículo mudaram). Ou seja, mesmo que um sensor de alta precisão seja montado no veículo, é difícil para o sensor de alta precisão fornecer todo o seu potencial de desempenho.
[030] Portanto, o sistema de sensor a bordo decide a faixa de observação a ser observada pelo segundo sensor com uma resolução angular relativamente alta (correspondendo ao sensor de alta precisão descrito acima) com base no resultado de detecção do primeiro sensor com uma resolução angular relativamente baixa.
[031] Uma vez que a resolução angular do primeiro sensor é relativamente baixa, leva um tempo relativamente curto para realizar um processo relacionado à detecção dos arredores do veículo pelo primeiro sensor. Além disso, uma vez que a resolução angular do primeiro sensor é relativamente baixa, a quantidade de dados do resultado da detecção do primeiro sensor é relativamente pequena. O tempo que leva desde a detecção dos arredores do veículo pelo primeiro sensor até a decisão da faixa de observação do segundo sensor é assim reduzido. Uma vez que a faixa de observação do segundo sensor é mais estreita do que a faixa observável do segundo sensor (em outras palavras, a faixa a ser observada pelo segundo sensor é limitada), o tempo que leva para o segundo sensor observar a faixa de observação é menor do que o tempo que leva para o segundo sensor observar toda a sua faixa observável.
[032] A faixa de observação do segundo sensor pode ser decidida de modo que um ponto que deve ser notado quando o veículo se desloca, como um obstáculo ou um cruzamento (em outras palavras, um ponto que pode afetar de maneira relativamente significativa o deslocamento do veículo) está incluído na faixa de observação. Com esta configuração, pode ser obtido resultado de observação relativamente preciso para o ponto que deve ser anotado.
[033] Ou seja, o sistema de sensor a bordo realiza uma observação relativamente precisa para a faixa de observação do segundo sensor e realiza uma observação relativamente menos precisa para as outras faixas. O sistema de sensor a bordo pode, portanto, adquirir resultados de observação precisos enquanto reduz o tempo de observação. Conforme descrito acima, de acordo com o sistema de sensor a bordo, pode ser implementado um sistema que adquire um resultado de observação relativamente preciso para um ponto que pode afetar de maneira relativamente significativa o percurso do veículo e adquirir apenas um resultado de observação relativamente menos preciso para um ponto que não, ou é improvável para afetar o deslocamento do veículo.
[034] Um sistema de sensor 100 que é um exemplo específico do sistema de sensor a bordo de acordo com a modalidade será descrito com referência às Figuras 1 a 4.
[035] Com referência à Figura 1, o sistema de sensor 100 é montado em um veículo 1 correspondendo a um exemplo do veículo descrito acima. O sistema de sensor 100 inclui uma unidade central de processamento e controle 10, um sensor de medição aproximada 20 e um sensor de medição fina 30. Embora um sensor de medição aproximada 20 e um sensor de medição fina 30 sejam mostrados na Figura 1, o sistema de sensor 100 pode incluir uma pluralidade de sensores de medição aproximada 20 e uma pluralidade de sensores de medição fina 30.
[036] O sensor de medição aproximada 20 e o sensor de medição fina 30 são um exemplo do primeiro sensor e do segundo sensor, respectivamente. A resolução angular do sensor de medição fina 30 é, portanto, maior do que a do sensor de medição aproximada 20.
[037] As posições dos sensores de medição aproximada 20 serão descritas com referência à Figura 2. Na Figura 2, as faixas em forma de leque indicam os campos de visão dos sensores de medição aproximada 20. Por exemplo, os sensores de medição aproximada 20 podem ser dispostos na superfície frontal da frente do veículo 1 e na parte dianteira direita, dianteira esquerda, direita traseira e partes esquerda traseira do veículo 1. Os sensores de medição aproximada 20 podem ser dispostos de modo que o campo de visão de um sensor de medição aproximada 20 se sobreponha a pelo menos uma parte do campo de visão de outro sensor de medição aproximada 20.
[038] As posições dos sensores de medição fina 30 serão descritas com referência à Figura 3. Na Figura 3, as faixas em forma de leque indicam os campos de visão dos sensores de medição fina 30 (correspondendo à faixa observável do segundo sensor descrito acima). Por exemplo, os sensores de medição fina 30 podem ser dispostos no teto do veículo 1. Os sensores de medição fina 30 podem ser dispostos de modo que o campo de visão de um sensor de medição fina 30 se sobreponha pelo menos a uma parte do campo de visão de outro sensor de medição fina fino 30.
[039] O número e as posições dos sensores de medição aproximada 20 e o número e as posições dos sensores de medição fina 30 são apenas a título de exemplo e não estão limitados aos descritos acima.
[040] A unidade central de processamento e controle 10 inclui uma unidade de processamento de dados de medição aproximada 11 e uma unidade de processamento de dados de medição fina 12 como blocos de processamento implementados logicamente dentro da unidade central de processamento e controle 10 ou como circuitos de processamento implementados fisicamente dentro do processamento central e unidade de controle 10. A unidade de processamento de dados de medição aproximada 11 realiza processamento de dados relacionados ao sensor de medição aproximada 20. A unidade de processamento de dados de medição fina 12 realiza o processamento de dados relacionados ao sensor de medição fina 30.
[041] As operações da unidade de processamento de dados de medição aproximada 11 e da unidade de processamento de dados de medição fina 12 serão descritas com referência ao fluxograma da Figura 4.
[042] Com referência à Figura 4, a unidade de processamento de dados de medição aproximada 11 adquire informações de observação (por exemplo, informações sobre alvos etc. correspondentes aos obstáculos existentes em torno do veículo 1) do sensor de medição aproximada 20 (etapa S1). A unidade de processamento de dados de medição aproximada 11 estima posições ou caminhos futuros dos obstáculos existentes em torno do veículo 1 a partir da informação de observação (etapa S2). O caminho do obstáculo pode ser previsto quando o obstáculo é um objeto em movimento. A unidade de processamento de dados de medição aproximada 11 então determina os níveis de risco dos obstáculos com base no resultado do processamento da etapa S2 e no comportamento do veículo 1. O nível de risco pode ser determinado com base, por exemplo, na possibilidade de colisão entre o veículo 1 e o obstáculo. A unidade de processamento de dados de medição aproximada 11 envia o resultado da determinação dos níveis de risco para a unidade de processamento de dados de medição fina 12.
[043] A unidade de processamento de dados de medição fina 12 decide os obstáculos a serem observados pelos sensores de medição fina 30 dos obstáculos existentes em torno do veículo 1, com base no resultado da determinação dos níveis de risco recebidos da unidade de processamento de dados de medição aproximada 11. A unidade de processamento de dados de medição fina 12 define a ordem de observação dos obstáculos decididos a serem observados e define a faixa de observação do sensor de medição fina 30 (etapa S4). A unidade de processamento de dados de medição fina 12 controla o sensor de medição fina 30 para observar os obstáculos a serem observados pelo sensor de medição fina 30 de acordo com a ordem de observação definida e a faixa de observação definida (etapa S5).
[044] Será descrito um sistema de sensor 110 que é outro exemplo específico do sistema de sensor a bordo de acordo com a modalidade com referência às Figuras 5 a 13. O sistema de sensores 110 é o sistema de sensor 100 com uma configuração mais prática. Nas figuras, as mesmas partes do sistema de sensor 100 são indicadas com os mesmos sinais e a descrição repetitiva será omitida conforme apropriado.
[045] Com referência à Figura 5, o sistema de sensor 110 é montado no veículo 1. O sistema de sensor 110 inclui a unidade de processamento central e de controle 10 (doravante referida como a "unidade de controle 10", conforme necessário), uma pluralidade de sensores de medição aproximada 20, uma pluralidade dos sensores de medição finos 30 e um sensor de movimento do veículo 40. O sistema de sensor 110 é conectado a um dispositivo de controle do veículo 60 do veículo 1 através de um dispositivo de interface 50.
[046] Embora dois sensores de medição aproximada 20 sejam mostrados na Figura 5, o número de sensores de medição aproximada 20 não está limitado a dois (isto é, o número de sensores de medição aproximada 20 pode ser três ou mais ou pode ser um). Da mesma forma, o número de sensores de medição fina 30 não está limitado a dois.
[047] Os sensores de medição aproximada 20 não estão limitados a sensores do mesmo tipo, mas podem ser sensores de diferentes tipos. Exemplos específicos do sensor de medição aproximada 20 incluem uma câmera, um radar que emite um feixe de ventilador e um flash LIDAR. Da mesma forma, os sensores de medição fina 30 não estão limitados a sensores do mesmo tipo, mas podem ser sensores de diferentes tipos. Exemplos específicos do sensor de medição fina 30 incluem um radar de matriz de fase ativa, um LIDAR de varredura, um radar de onda contínua modulada por frequência (FMCW), um FMCW LIDAR e uma câmera montada no gimbal.
[048] O sensor de medição aproximada 20 inclui uma unidade de observação, uma unidade de detecção e uma unidade de controle. A unidade de observação obtém informações de observação. A unidade de detecção processa dados de observação aproximados (por exemplo, uma imagem, informação de onda refletida, etc.) saída da unidade de observação para identificar, por exemplo, um objeto e converter o objeto em uma nuvem de pontos ou um alvo. A unidade de controle recebe instruções da unidade de processamento de dados de medição aproximados 11 que será descrita mais tarde e define os parâmetros de observação. A configuração do sensor de medição aproximada 20 é apenas a título de exemplo e não está limitada a isso.
[049] O sensor de medição fina 30 inclui uma unidade de observação, uma unidade de varredura, uma unidade de detecção e uma unidade de controle. A unidade de observação obtém informações de observação. A unidade de varredura varre a unidade de observação. A unidade de detecção identifica, por exemplo, um objeto e converte o objeto em uma nuvem de pontos ou um alvo. A unidade de controle recebe instruções da unidade de processamento de dados de medição fina 12 que será descrita posteriormente e define os parâmetros de observação. A configuração do sensor de medição fina 30 é apenas a título de exemplo e não se limita a isso.
[050] O sensor de movimento do veículo 40 inclui uma pluralidade de sensores que detecta informações de movimento do veículo 1. O sensor de movimento do veículo 40 pode incluir, por exemplo, um sensor de posição (tal como um sistema de posicionamento global (GPS)), um sensor de aceleração , um sensor de velocidade angular, etc.
[051] A unidade de controle 10 inclui a unidade de processamento de dados de medição aproximada 11, a unidade de processamento de dados de medição fina 12 e uma unidade de integração e percepção de dados de observação 13 como blocos de processamento logicamente implementados dentro da unidade de controle 10 ou como circuitos de processamento fisicamente implementados dentro da unidade de controle 10.
Unidade de Processamento de Dados de Medição Aproximada
[052] A unidade de processamento de dados de medição aproximada 11 inclui uma unidade de integração de dados de detecção 111, uma unidade de detecção de objeto móvel 112, uma unidade de determinação de nível de risco 113, uma unidade de gerenciamento de informação de medição aproximada 114 e uma unidade de controle de observação de sensor de medição aproximada 115.
[053] A unidade de integração de dados de detecção 111 integra dados recebidos de cada um dos sensores de medição aproximada 20. Especificamente, para os dados recebidos de cada um dos sensores de medição aproximada 20, a unidade de integração de dados de detecção 111, por exemplo, realiza a sincronização de tempo dos tempos de observação, corrige os ângulos de montagem e os erros de montagem dos sensores de medição aproximada 20 e transforma um quadro de referência de sensor em um sistema de coordenadas centrado no veículo 1. Neste momento, a unidade de integração de dados de detecção 111 pode corrigir distorções dos pontos de observação, conforme necessário.
[054] A unidade de integração de dados de detecção 111, então, integra os dados de todos os sensores de medição aproximada 20 em um espaço de coordenadas comum (isto é, no sistema de coordenadas centralizado no veículo 1). Neste momento, para a área de sobreposição do campo de visão de um sensor de medição aproximada 20 e o campo de visão de outro sensor de medição aproximada 20, a unidade de integração de dados de detecção 111 determina se os dados de um sensor de medição aproximada 20 e o os dados do outro sensor de medição aproximada 20 coincidem e integram os pontos de observação para o mesmo objeto (por exemplo, obtém a média dos valores para os pontos de observação, exclui um ponto de observação, etc.). O espaço de coordenadas comum pode ser um sistema de coordenadas com a origem em um ponto diferente do centro do veículo 1, como um sistema de coordenadas inercial, em vez do sistema de coordenadas centralizado no veículo 1.
[055] A unidade de integração de dados de detecção 111 gera, assim, dados de observação integrados na área em torno do veículo 1 (por exemplo, as áreas correspondentes às porções sombreadas na Figura 6). A unidade de integração de dados de detecção 111 adiciona informação de tempo aos dados de observação integrados e envia sequencialmente os dados de observação integrados resultantes para a unidade de detecção de objeto em movimento 112 e a unidade de gerenciamento de informação de medição aproximada 114. O método de integração de dados descrito acima é apenas a título de exemplo e não se limita a isso. Ou seja, vários aspectos existentes podem ser aplicados ao método de integração de dados.
[056] A unidade de detecção de objeto em movimento 112 detecta um objeto em movimento a partir dos dados de observação integrados. Especificamente, a unidade de detecção de objeto em movimento 112 detecta o estado de movimento do veículo 1 com base na saída do sensor de movimento do veículo 40 e, em seguida, detecta um objeto em movimento removendo elementos resultantes do movimento do veículo 1 dos dados de observação integrados e determinando o movimento dos objetos. O método de detecção de objeto em movimento pode ser decidido como apropriado de acordo com o (s) tipo (s) de sensores de medição aproximada 20. Uma vez que vários aspectos existentes podem ser aplicados ao método de detecção de objeto em movimento, a descrição detalhada dos mesmos será omitida.
[057] A unidade de detecção de objeto em movimento 112 identifica características do objeto em movimento detectado. Exemplos das características incluem a velocidade, aceleração, direção do movimento, distância relativa ao veículo 1, tamanho e informações específicas para os sensores de medição aproximada (como seção transversal de radar (RCS), intensidade de reflexo de luz, cor e forma) . A unidade de detecção de objeto em movimento 112 também detecta o objeto incluído nos dados de observação integrados, mas não detectado como um objeto em movimento mas como um objeto fixo. A unidade de detecção de objeto em movimento 112 também identifica características do objeto fixo detectado. Exemplos das características incluem a distância relativa ao veículo 1, tamanho e informações específicas para os sensores de medição aproximada. A unidade de detecção de objeto em movimento 112 envia os resultados de detecção para os objetos em movimento e fixos para a unidade de determinação de nível de risco 113.
[058] Presume-se que o veículo 1 esteja percorrendo em uma estrada como mostrado na Figura 7. Com referência à Figura 7, um pedestre 511 está prestes a atravessar uma faixa de pedestres à frente do veículo 1. Um pedestre 512 está caminhando ao longo da estrada na qual o veículo 1 está trafegando. Um veículo que se aproxima 520 está percorrendo em direção ao veículo 1 na pista oposta da estrada na qual o veículo 1 está percorrendo. Há uma placa de trânsito 532 instalada perto da faixa de pedestres à frente do veículo 1. A placa de trânsito 532 indica a presença de uma faixa de pedestres. Existem árvores à beira da estrada plantadas em ambos os lados da estrada em que o veículo 1 está percorrendo. Na Figura 7, as setas indicam as direções de movimento de objetos em movimento (como os pedestres e o veículo).
[059] Uma vez que a resolução angular dos sensores de medição aproximada 20 é relativamente baixa, os objetos, como o pedestre 511, são observados com precisão relativamente baixa, como mostrado por, por exemplo, áreas redondas na Figura 8. Consequentemente, quando os objetos estão relativamente próximos uns dos outros, eles podem não ser identificados como objetos separados. Na Figura 8, as áreas circulares ou elípticas sombreadas relativamente escuras indicam objetos em movimento, e áreas circulares ou elípticas sombreadas relativamente claras indicam objetos fixos.
[060] A unidade de determinação do nível de risco 113 determina os níveis de risco dos objetos em movimento e fixos detectados pela unidade de detecção de objeto em movimento 112. A unidade de determinação de nível de risco 113 inclui uma unidade de processamento de objeto em movimento 113a que determina o nível de risco de um objeto em movimento e uma unidade de processamento de objeto em fixo 113b que determina o nível de risco de um objeto fixo.
[061] Um exemplo específico da determinação do nível de risco pela unidade de determinação do nível de risco 113 será descrito com referência às Figuras 9 e 10.
[062] Com referência ao fluxograma da Figura 9, quando a unidade de detecção de objeto em movimento 112 recebe os dados de observação integrados gerados pela unidade de integração de dados de detecção 111 (etapa S101), a unidade de detecção de objeto em movimento 112 realiza a determinação de movimento conforme descrito acima (isto é, determina o movimento de objetos) (etapa S102). A unidade de detecção de objeto em movimento 112, então, emite o resultado de detecção de um objeto em movimento para a unidade de processamento de objeto em movimento 113a, e emite o resultado de detecção de um objeto fixo para a unidade de processamento de objeto em fixo 113b.
[063] A unidade de processamento de objeto em movimento 113a estima a partir das características do objeto em movimento a posição e o caminho futuros (isto é, o caminho ao longo do qual o objeto em movimento se move da posição atual para a posição futura) do objeto em movimento (doravante referido como o “objeto alvo”) (etapa S103). Em paralelo com, ou antes ou após a etapa S103, a unidade de processamento de objeto em movimento 113a detecta o estado de movimento do veículo 1 (por exemplo, estima a posição futura do veículo 1) com base na saída do sensor de movimento do veículo 40.
[064] A unidade de processamento de objeto em movimento 113a realiza determinação de colisão entre o objeto alvo e o veículo 1 com base na posição futura e caminho do objeto alvo e a posição futura do veículo 1 (e um caminho ao longo do qual o veículo 1 se move da posição atual para a posição futura) (etapa S104). Na etapa S104, a unidade de processamento de objeto em movimento 113a determina que (i) o veículo 1 colidirá com o objeto alvo, que (ii) o veículo 1 e o objeto alvo não colidirão, mas seus cursos se cruzam, ou que (iii) o veículo 1 não colidirá com o objeto alvo e um curso do veículo 1 não cruzará o curso do objeto alvo. Ou seja, a unidade de processamento de objeto em movimento 113a realiza a determinação de colisão com base na posição relativa e movimento relativo entre o veículo 1 e o objeto alvo.
[065] No exemplo da Figura 7, a unidade de processamento de objeto em movimento 113a determina para o pedestre 511 que (i) o veículo 1 colidirá com o objeto alvo ou que (ii) o veículo 1 e o objeto alvo não colidirão, mas seus cursos se cruzam. Para cada um do pedestre 512 e do veículo que se aproxima 520, a unidade de processamento de objeto em movimento 113a determina que (iii) o veículo 1 não colidirá com o objeto alvo e o curso do veículo 1 não cruzará o curso do objeto alvo.
[066] Quando a unidade de processamento de objeto em movimento 113a determina que o veículo 1 irá colidir com o objeto alvo (etapa S104: colidir), a unidade de processamento de objeto em movimento 113a identifica o objeto alvo como um alvo de alto risco (etapa S105). A unidade de processamento de objeto em movimento 113a também determina, por exemplo, a distância do veículo 1 para o objeto alvo identificado como um alvo de alto risco, com base nas características deste objeto alvo (etapa S106). A unidade de processamento de objeto em movimento 113a, então, organiza uma pluralidade de objetos alvo identificados como alvos de alto risco em ordem crescente de distância do veículo 1 (etapa S107)
[067] Quando a unidade de processamento de objeto em movimento 113a determina que o curso do veículo 1 e o curso do objeto alvo se cruzam (etapa S104: os cursos se cruzam), a unidade de processamento de objeto em movimento 113a identifica o objeto alvo como um alvo de risco médio (etapa S108). A unidade de processamento de objeto em movimento 113a também determina, por exemplo, a distância do veículo 1 para o objeto alvo identificado como um alvo de risco médio, com base nas características deste objeto alvo (etapa S109). A unidade de processamento de objeto em movimento 113a, então, organiza uma pluralidade de objetos alvo identificados como alvos de risco médio em ordem crescente de distância do veículo 1 (etapa S110).
[068] Quando a unidade de processamento de objeto em movimento 113a determina que o veículo 1 não colidirá com o objeto alvo e o curso do veículo 1 não cruzará o curso do objeto alvo (etapa S104: outros), a unidade de processamento de objeto em movimento 113a identifica o objeto alvo como um alvo de baixo risco (etapa S111). A unidade de processamento de objeto em movimento 113a também determina, por exemplo, a distância do veículo 1 para o objeto alvo identificado como um alvo de baixo risco, com base nas características deste objeto alvo (etapa S112). A unidade de processamento de objeto em movimento 113a, então, organiza uma pluralidade de objetos alvo identificados como alvos de baixo risco em ordem crescente de distância do veículo 1 (etapa S113).
[069] A unidade de processamento de objeto em movimento 113a determina (decide) a prioridade de observação de cada objeto alvo (correspondendo aos valores numéricos na tabela mostrada na Figura 10) com base nos resultados das etapas S107, S110 e S113 e, por exemplo, a tabela da Figura 10 que define as prioridades de observação (etapa S114). Na etapa S114, a unidade de processamento de objeto em movimento 113a reorganiza os objetos alvo em ordem decrescente de prioridade de observação. Os valores numéricos na tabela da Figura 10 são apenas a título de exemplo e não se limitam a estes.
[070] No exemplo da Figura 7, o pedestre 511 é determinado como um alvo de alto ou médio risco. Uma vez que o pedestre 511 está relativamente longe do veículo 1, a prioridade de observação do pedestre 511 é "6 (alvo de alto risco)" ou "9 (alvo de médio risco)". O pedestre 512 e o veículo que se aproxima 520 são determinados como alvos de baixo risco. Uma vez que o pedestre 512 está mais perto do veículo 1 do que o veículo que se aproxima 520, a prioridade de observação do pedestre 512 é, por exemplo, "11" e a prioridade de observação do veículo que se aproxima 520 é, por exemplo, "12". Neste caso, a unidade de processamento de objeto em movimento 113a organiza o pedestre 511, o pedestre 512 e o veículo que se aproxima 520 nesta ordem com base em suas prioridades de observação.
[071] A unidade de processamento de objeto fixo 113b especifica, por exemplo, a posição do objeto fixo, a distância do veículo 1, tamanho, etc. das características do objeto fixo. A unidade de processamento do objeto fixo 113b também detecta o estado de movimento do veículo 1 com base na saída do sensor de movimento de veículo 40 (por exemplo, estima a posição futura do veículo 1). A unidade de processamento de objeto fixo 113b então executa a determinação de colisão entre o objeto fixo e o veículo 1 com base na posição, etc. do objeto fixo e a posição futura do veículo 1 (etapa S115). Na etapa S115, a unidade de processamento de objeto fixo 113b determina que (i) o veículo 1 colidirá com o objeto fixo ou que (ii) o veículo 1 e o objeto fixo não colidirão. Ou seja, a unidade de processamento de objeto fixo 113b realiza a determinação de colisão com base na posição relativa e movimento relativo entre o veículo 1 e o objeto fixo.
[072] Quando a unidade de processamento de objeto fixo 113b determina que o veículo 1 irá colidir com o objeto fixo (etapa S115: colidir), a unidade de processamento de objeto fixo 113b identifica o objeto fixo como um objeto fixo no curso (etapa S116). A unidade de processamento de objeto fixo 113b também determina, por exemplo, a distância do veículo 1 para objeto fixo identificado como um objeto fixo no curso, com base nas características deste objeto fixo (etapa S117). A unidade de processamento do objeto fixo 113b, então, arranja uma pluralidade de objetos fixos identificados como objetos fixos no curso em ordem crescente de distância do veículo 1 (etapa S118).
[073] Quando a unidade de processamento de objeto fixo 113b determina que o veículo 1 e o objeto fixo não colidirão (etapa S115: outro), a unidade de processamento de objeto fixo 113b identifica o objeto fixo como nenhum risco. O objeto fixo identificado como nenhum risco é excluído do processamento posterior.
[074] A unidade de determinação do nível de risco 113 integra o resultado da unidade de processamento de objeto em movimento 113a (isto é, o resultado da etapa S114) com o resultado da unidade de processamento de objeto fixo 113b (isto é, o resultado da etapa S118) ( etapa S119).
[075] Especificamente, a unidade de determinação do nível de risco 113 primeiro determina a prioridade de observação de cada objeto fixo identificado como um objeto fixo no curso, com base no resultado da unidade de processamento do objeto fixo 113b e, por exemplo, a tabela mostrada na Figura 10. Neste momento, a unidade de determinação do nível de risco 113 determina a prioridade de observação de cada objeto fixo identificado como um objeto fixo no curso, referindose aos valores numéricos na linha para o "objeto fixo em curso" na tabela mostrada em Figura 10.
[076] A unidade de determinação do nível de risco 113, então, reorganiza os objetos em movimento e fixos em ordem decrescente de prioridade de observação com base no resultado da unidade de processamento de objeto em movimento 113a e nas prioridades de observação dos objetos fixos identificados como objetos fixos no curso.
[077] A unidade de determinação de nível de risco 113 envia o resultado da etapa S119 para a unidade de gerenciamento de informação de medição aproximada 114 como informação de nível de risco de medição aproximada. A informação de tempo foi adicionada à informação de nível de risco de medição aproximada. A informação de nível de risco de medição aproximada pode incluir, por exemplo, a posição, distância, tamanho, formato, direção do movimento, etc. de cada objeto (ou seja, em movimento ou objeto fixo), além da prioridade de observação dos mesmos.
[078] Na modalidade, conforme descrito acima, o nível de risco de cada objeto é determinado com base na relação entre o estado de movimento (por exemplo, a posição futura) do veículo 1 e o caminho e a posição futura do objeto em movimento e relação entre o estado de movimento do veículo 1 e a posição futura do objeto fixo. A prioridade de observação de cada objeto é decidida de acordo com o nível de risco do objeto, a distância do veículo 1 para o objeto e o tipo do objeto (neste exemplo, se o objeto é um objeto em movimento ou um objeto fixo). Ou seja, no sistema de sensor 110, a prioridade de observação de cada objeto é decidida a partir da posição relativa e do movimento relativo entre o veículo 1 e o objeto e o tipo do objeto. A prioridade de observação de cada objeto pode ser decidida a partir de pelo menos uma das posições relativas entre o veículo 1 e o objeto, o movimento relativo entre o veículo 1 e o objeto e o tipo de objeto.
[079] A unidade de gerenciamento de informação de medição aproximada 114 recebe os dados de observação integrados da unidade de integração de dados de detecção 111 e recebe a informação de nível de risco de medição aproximada da unidade de determinação de nível de risco 113. A unidade de gerenciamento de informação de medição aproximada 114 correlaciona os dados de observação integrados e as informações de nível de risco de medição aproximada com base nas informações de tempo adicionadas a cada um dos dados de observação integrados e as informações de nível de risco de medição aproximada. Como resultado, os dados de observação e as informações de nível de risco de medição aproximada são acumulados.
[080] A unidade de gerenciamento de informação de medição aproximada 114 envia a informação de nível de risco de medição aproximada para uma unidade de planejamento de observação e decisão de alvo de medição fina 121 da unidade de processamento de dados de medição fina 12. Neste momento, a unidade de gerenciamento de informação de medição aproximada 114 pode limitar a informação a ser enviada da unidade de gerenciamento de informação de medição aproximada 114 para a unidade de planejamento de observação e decisão de alvo de medição fina 121 ou processar esta informação, em resposta a um pedido do dispositivo de controle do veículo 60 recebido através do dispositivo de interface 50. A unidade de gerenciamento de informações de medição aproximada 114 envia os dados de observação integrados para a unidade de integração e percepção de dados de observação 13.
[081] A unidade de gerenciamento de informações de medição aproximada 114 pode ajustar os parâmetros de processamento para os sensores de medição aproximada 20 em resposta a uma solicitação do dispositivo de controle de veículo 60 recebido através do dispositivo de interface 50. A unidade de gerenciamento de informação de medição aproximada 114 pode enviar os parâmetros de processamento ajustados para a unidade de controle de observação do sensor de medição aproximada 115.
[082] A unidade de controle de observação do sensor de medição aproximada 115 controla cada sensor de medição aproximada 20 de acordo com as instruções da unidade de gerenciamento de informação de medição aproximada 114. Neste momento, a unidade de controle de observação do sensor de medição aproximada 115 pode controlar cada sensor de medição aproximada 20 com base em nos parâmetros de processamento ajustados.
Unidade de Processamento de Dados de Medição Fina
[083] A unidade de processamento de dados de medição fina 12 inclui a unidade de planejamento de observação e decisão de alvo de medição fina 121 (doravante referida como a "unidade de planejamento de observação 121", conforme necessário), uma unidade de controle de observação de sensor de medição fina 122, uma unidade de recebimento de dados de detecção 123, e uma unidade de gerenciamento de informação de medição fina 124.
[084] A unidade de planejamento de observação 121 decide os alvos de observação de cada sensor de medição fina 30 e define a ordem de observação e as faixas de observação dos alvos de observação, com base na informação de nível de risco de medição aproximada recebida da unidade de gerenciamento de informação de medição aproximada 114.
[085] Especificamente, a unidade de planejamento de observação 121 gera um plano de observação para que os objetos sejam observados em ordem decrescente de prioridade de observação indicada pela informação de nível de risco de medição aproximada (ou seja, em ordem decrescente de risco ao veículo 1), em vista de informações de especificações do sensor de cada sensor de medição fina 30 (por exemplo, o método de observação, capacidades de observação, como resolução angular, faixa observável (campo de visão), método de varredura, taxa de varredura, etc.). No caso em que é impossível completar a observação de todos os objetos dentro de um intervalo de observação predefinido (por exemplo, um período de quadro), a unidade de planejamento de observação 121 pode excluir o (s) objeto (s) de baixa prioridade de observação indicados pelas informações de nível de risco de medição aproximada dos alvos de observação.
[086] A operação da unidade de planejamento de observação 121 será ainda descrita com referência ao fluxograma da Figura 11. Com referência à Figura 11, a unidade de planejamento de observação 121 primeiro recebe as informações de nível de risco de medição aproximada (etapa S201). A unidade de planejamento de observação 121 define a ordem de observação dos alvos de observação com base nas prioridades de observação incluídas nas informações de nível de risco de medição aproximada (etapa S202).
[087] Em paralelo com a etapa S202, a unidade de planejamento de observação 121 determina a área de observação (ou seja, a faixa a ser observada pelo sensor de medição fina 30) para cada alvo de observação (ou seja, objeto em movimento ou fixo), com base nas coordenadas dos alvos de observação (ou seja, as posições dos alvos de observação) incluídas nas informações de nível de risco de medição aproximada (etapa S203). A unidade de planejamento de observação 121, então, aloca os sensores de medição fina 30 com base nas áreas de observação (etapa S204). A área de observação é um exemplo da faixa de observação descrita acima.
[088] Por exemplo, a unidade de planejamento de observação 121 determina que uma área de observação A1 mostrada na Figura 8 é a área de observação para o pedestre 511 mostrada na Figura 7. Da mesma forma, por exemplo, a unidade de planejamento de observação 121 determina que as áreas de observação A2 e A3 mostradas na Figura 8 são as áreas de observação para o veículo que se aproxima 520 e o pedestre 512 mostrado na Figura 7, respectivamente. Por exemplo, a unidade de planejamento de observação 121 então aloca o sensor de medição fina 30 capaz de observar uma área na frente e à esquerda do veículo 1 para a área de observação A1. A unidade de planejamento de observação 121 também aloca o sensor de medição fina 30 capaz de observar uma área na frente e à direita do veículo 1 para as áreas de observação A2 e A3.
[089] Em paralelo com as etapas S202 a S204, a unidade de planejamento de observação 121 determina a faixa de observação para observar os alvos de observação, com base nos tamanhos dos alvos de observação e as distâncias para os alvos de observação incluídos nas informações de nível de risco de medição aproximada (etapa S205). A unidade de planejamento de observação 121 define a faixa de observação de cada sensor de medição fina 30 com base no resultado da etapa S205 (etapa S206).
[090] Em paralelo com as etapas S202 a S206, a unidade de planejamento de observação 121 determina a resolução dos sensores de medição fina 30 (etapa S207). Na etapa S207, a unidade de planejamento de observação 121 pode adquirir a resolução angular de cada sensor de medição fina 30.
[091] Por exemplo, quando a resolução angular dos sensores de medição fina 30 é 0,2 graus, a resolução a uma distância de 30 m à frente do veículo 1 é de cerca de 10 cm, enquanto a resolução a uma distância de 10 m à frente do o veículo 1 tem cerca de 3,5 cm. Quando o alvo de observação está 10 m à frente do veículo 1, a precisão da observação do resultado da observação do alvo de observação com a resolução de distância de cerca de 3,5 cm pode ser mais alta do que a precisão da observação necessária para o controle do veículo. Nesse caso, a resolução pode ser intencionalmente reduzida para reduzir o tempo necessário para a observação. Ou seja, na etapa S207, a unidade de planejamento de observação 121 pode determinar, por exemplo, a resolução dos sensores de medição fina 30 necessária para o controle do veículo.
[092] Subsequentemente, a unidade de planejamento de observação 121 define uma etapa de varredura, padrão de varredura e tamanho do feixe para cada sensor de medição fina 30 com base na resolução determinada na etapa S207 e na informação de formato e movimento (por exemplo, direção de movimento etc.) cada alvo de observação incluído nas informações de nível de risco de medição aproximada (etapa S208).
[093] Exemplos do padrão de varredura incluem um padrão de varredura como uma varredura raster mostrado na Figura 12A e um padrão de varredura mostrado na Figura 12B em que o ponto do feixe s se move ao longo da forma externa do alvo de observação. É preferível que o tamanho do feixe (por exemplo, o tamanho de um ponto do feixe na posição do alvo de observação) seja, por exemplo, 1/10 a 1/100 do tamanho do alvo de observação.
[094] Com referência novamente à Figura 11, a unidade de planejamento de observação 121 decide os parâmetros de observação de cada sensor de medição fina 30 com base nos resultados das etapas S204, S206 e S208 (etapa S209). A unidade de planejamento de observação 121, então, define o número de alvos que podem ser observados dentro de um tempo de observação permitido predefinido com base nos resultados das etapas S202 e S209 e o tempo de observação permitido (etapa S210). O tempo de observação permitido pode ser o tempo correspondente a um ciclo de atualização de dados. Por exemplo, no caso em que os dados são atualizados 50 vezes por segundo, o ciclo de atualização dos dados é de 20 milissegundos.
[095] Subsequentemente, a unidade de planejamento de observação 121 decide os alvos de observação a serem realmente observados pelos sensores de medição fina 30 com base no resultado da etapa S210 e gera um plano de observação (etapa S211). Conforme descrito acima, de acordo com o sistema de sensor 110, o alvo de observação (objeto) de alta prioridade de observação é observado preferencialmente sobre o alvo de observação de baixa prioridade de observação. Em outras palavras, de acordo com o sistema de sensor 110, a área de observação de cada sensor de medição fina 30 é decidida de modo que o alvo de observação de alta prioridade de observação seja preferencialmente incluído na área de observação sobre o alvo de observação de baixa prioridade de observação.
[096] Por exemplo, na Figura 8, a área de observação A1 inclui a área circular correspondente ao sinal de trânsito 532 (ver Figura 7), além da área circular correspondente ao pedestre 511 (ver Figura 7). Neste caso, observar o pedestre 511 e o sinal de trânsito 532 simultaneamente melhora a eficiência da observação.
[097] Consequentemente, por exemplo, a unidade de planejamento de observação 121 pode realizar a operação mostrada na Figura 13 entre as etapas S210 e S211. Especificamente, a unidade de planejamento de observação 121 determina a presença ou ausência de qualquer outro alvo de observação em torno do alvo de alta prioridade de alta prioridade de observação (etapa S301). Neste momento, a faixa definida por "ao redor" pode ser decidida como apropriada de acordo com, por exemplo, as especificações dos sensores de medição fina 30 etc.
[098] A unidade de planejamento de observação 121 determina se existe qualquer outro alvo de observação com base no resultado da etapa S301 (etapa S302). Quando a unidade de planejamento de observação 121 determina que exista outro alvo de observação no processo da etapa S302 (etapa S302: Sim), a unidade de planejamento de observação 121 determina se é possível observar o alvo de alta prioridade usado como um alvo de referência na etapa S301 e o outro alvo de observação simultaneamente (etapa S303).
[099] Quando a unidade de planejamento de observação 121 determina na etapa S303 que é possível observar o alvo de alta prioridade e o outro alvo de observação simultaneamente (etapa S303: Sim), a unidade de planejamento de observação 121 determina o tempo necessário para a observação simultânea (etapa S304). A unidade de planejamento de observação 121 então determina novamente se é possível observar o alvo de prioridade alta e o outro alvo de observação simultaneamente, com base no resultado da etapa S304 (isto é, o tempo necessário para a observação simultânea) (etapa S305).
[0100] Quando a unidade de planejamento de observação 121 determina na etapa S305 que é possível observar o alvo de alta prioridade e o outro alvo de observação simultaneamente (etapa S305: Sim), a unidade de planejamento de observação 121 altera a ordem de observação para que o outro alvo de observação seja observado simultaneamente com o alvo de alta prioridade (etapa S306).
[0101] Quando a unidade de planejamento de observação 121 determina na etapa S302 que não há outro alvo de observação (etapa S302: Não), quando a unidade de planejamento de observação 121 determina na etapa S303 que não é possível observar o alvo de alta prioridade e o outro alvo de observação simultaneamente (etapa S303: Não), ou quando a unidade de planejamento de observação 121 determina na etapa S305 que não é possível observar o alvo de alta prioridade e o outro alvo de observação simultaneamente (etapa S305: Não), a unidade de planejamento de observação 121 termina a operação mostrada na Figura 13 sem alterar a ordem de observação (etapa S307).
[0102] A unidade de planejamento de observação 121 envia o plano de observação gerado como descrito acima para a unidade de controle de observação do sensor de medição fina 122 e a unidade de gerenciamento de informação de medição fina 124.
[0103] A unidade de controle de observação do sensor de medição fina 122 envia instruções de observação para a unidade de controle de cada sensor de medição fina 30 de acordo com o plano de observação recebido da unidade de planejamento de observação 121. A unidade de controle de cada sensor de medição fina 30 envia, por exemplo, informações para definir a faixa de observação, padrão de varredura, etapa de varredura, tamanho do feixe, etc. para a unidade de varredura e a unidade de observação do sensor de medição fina 30 de acordo com as instruções de observação recebidas da unidade de controle de observação do sensor de medição fina 122. A operação da unidade de controle de cada sensor de medição fina 30 pode variar dependendo do tipo e das especificações de cada sensor de medição fina 30.
[0104] A unidade de recepção de dados de detecção 123 recebe dados de observação de cada um dos sensores de medição fina 30. A unidade de recepção de dados de detecção 123 detecta o estado de movimento do veículo 1 com base na saída do sensor de movimento do veículo 40. A unidade de recepção de dados de detecção 123 então remove os elementos resultantes do movimento do veículo 1 dos dados de observação. A unidade de recepção de dados de detecção 123 gera, assim, informações de medição fina que são os dados de observação incluindo apenas elementos resultantes do movimento dos alvos de observação. A unidade de detecção de dados de recepção 123 envia a informação de medição fina para a unidade de gerenciamento de informação de medição fina 124.
[0105] No caso em que os sensores de medição fina 30 são LIDARs ou radares, a unidade de recepção de dados de detecção 123 pode processar dados de nuvem de pontos, que são os dados de observação, de acordo com as características dos sensores de medição fina 30. Especificamente, no caso em que os sensores de medição fina 30 são LIDARs, a unidade de recepção de dados de detecção 123 pode realizar detecção de borda usando um segundo eco. No caso em que os sensores de medição fina 30 são radares, a unidade de recepção de dados de detecção 123 pode separar os alvos de observação por um deslocamento Doppler.
[0106] A unidade de gerenciamento de informações de medição fina 124 associa o plano de observação recebido da unidade de planejamento de observação 121 com as informações de medição finas recebidas da unidade de recepção de dados de detecção 123 (isto é, o resultado da observação de cada sensor de medição fina 30 de acordo com o plano de observação). A unidade de gerenciamento de informações de medição fina 124 envia o plano de observação e as informações de medição finas associadas entre si para a unidade de integração e percepção de dados de observação 13.
Unidade de Integração e Percepção de Dados de Observação
[0107] A unidade de integração e percepção de dados de observação 13 integra os dados de observação integrados recebidos da unidade de gerenciamento de informações de medição aproximada 114 e o plano de observação e as informações de medição fina recebidas da unidade de gerenciamento de informações de medição fina 124 e gera um mapa de percepção ao redor o veículo 1. A unidade de integração e percepção de dados de observação 13 refere-se ao mapa de percepção e envia, por exemplo, os resultados de observação para os alvos de alto risco para o dispositivo de controle do veículo 60 através do dispositivo de interface 50. A unidade de integração e percepção de dados de observação 13 pode enviar os resultados de observação dos sensores de medição aproximada 20 (por exemplo, os dados de observação integrados), um mapa dos resultados de observação dos sensores de medição aproximada 20 com os resultados de observação dos sensores de medição fina 30 nele embutidos (por exemplo, o mapa de percepção), etc. para o dispositivo de controle do veículo 60 em resposta a uma solicitação do dispositivo de controle do veículo 60.
[0108] A unidade de integração e percepção de dados de observação 13 pode ter acumulado os mapas de percepção. Neste caso, a unidade de integração e percepção de dados de observação 13 pode enviar o (s) mapa (s) de reconhecimento anterior ou uma parte da informação incluída no (s) mapa (s) de reconhecimento anterior para o dispositivo de controle do veículo 60 em resposta a um pedido do controle do dispositivo do veículo 60.
Efeitos Técnicos
[0109] Há uma pluralidade de objetos em torno de um veículo que percorre em uma via pública. Esses objetos costumam estar próximos uns dos outros. Neste caso, dois (ou três ou mais) objetos próximos podem ser observados como um único objeto de acordo com o resultado da observação de um sensor com uma resolução angular relativamente baixa. Isto é, devido à resolução angular relativamente baixa, o sensor pode não ser capaz de perceber dois (ou três ou mais) objetos próximos como separados.
[0110] Especialmente, por exemplo, no caso em que um objeto em movimento, como um pedestre, e um objeto fixo, como uma árvore ou arbusto na beira da estrada, se sobrepõem no campo de visão do sensor durante a condução autônoma do veículo, ou em o caso em que dois objetos em movimento se movendo em direções diferentes se sobrepõem no campo de visão do sensor durante a condução autônoma do veículo, seria um problema em termos de controle do veículo se o objeto em movimento não fosse facilmente percebido como separado de outros.
[0111] Espera-se que um sensor com uma resolução angular relativamente alta seja capaz de perceber dois (ou três ou mais) objetos próximos como separados. No entanto, devido à resolução angular relativamente alta, o tempo necessário para a observação é relativamente longo.
[0112] Isso será descrito usando valores numéricos específicos. Por exemplo, a distância de parada de um veículo percorrendo a 60 km/h é de cerca de 40 m. De um ponto de vista de segurança, o sensor deve ser capaz de perceber, por exemplo, um pedestre localizado 50 m à frente do veículo. A resolução angular que permite que o sensor perceba um pedestre situado 50 m à frente do veículo, por exemplo, 0,2 graus. Nesse caso a resolução em uma distância de 50 m à frente do veiculo é em torno de 18 cm.
[0113] No caso em que o tempo necessário para uma observação (ou seja, o tempo que leva para o sensor observar toda a sua faixa observável) é, por exemplo, 20 milissegundos, o veículo percorrendo a 60 km/h se move cerca de 30 cm durante uma observação. Ou seja, a posição do sensor, que é um ponto de referência de observação, muda cerca de 30 cm durante uma observação. Tendo em vista o valor da resolução a uma distância de 50 m à frente do veículo, este deslocamento de cerca de 30 cm é considerado como tendo um impacto relativamente significativo no resultado da observação do sensor. Portanto, não é realista observar todo o entorno de um veículo em movimento apenas com um sensor com resolução angular relativamente alta.
[0114] No sistema de sensor 110, as áreas de observação dos sensores de medição fina 30 são, portanto, primeiro definidas para, por exemplo, posições aproximadas de alvos de alto risco (isto é, as faixas a serem observadas pelos sensores de medição fina 30 são limitadas ) com base nos resultados de observação dos sensores de medição aproximada 20 (dados de observação integrados). Os sensores de medição fina 30, então, observam as áreas de observação definidas. De acordo com o sistema de sensor 110, apenas os alvos que podem afetar o percurso do veículo 1, como alvos de alto risco, são observados pelos sensores de medição fina 30. Resultados de observação relativamente precisa podem, assim, ser adquiridos enquanto reduz o tempo necessário para uma observação. De acordo com o sistema de sensor 110, dois objetos próximos podem, assim, ser percebidos como separados, enquanto reduzem o tempo necessário para uma observação.
Modificações Primeira Modificação
[0115] Ao decidir as prioridades de observação de objetos fixos, a unidade de determinação do nível de risco 113 distingue entre um objeto fixo localizado acima do veículo 1, como um sinal de guia rodoviário e um objeto fixo localizado na superfície da estrada na qual o veículo 1 está trafegando, em vez de ou além da operação do fluxograma da Figura 9. A unidade de determinação do nível de risco 113 pode definir apenas o objeto fixo localizado na superfície da estrada como um alvo de alto risco (neste momento, o objeto fixo localizado acima do veículo 1 pode ser excluído dos alvos de observação). Ou seja, a unidade de determinação do nível de risco 113 pode definir uma prioridade de observação mais alta para o objeto fixo localizado na superfície da estrada do que para o objeto fixo localizado acima do veículo 1.
Segunda Modificação
[0116] Quando um objeto correspondente a um pedestre é detectado a partir dos dados de observação integrados e é presumido (determinado) a partir da posição futura etc. do objeto correspondente a um pedestre que o objeto estará no curso do veículo 1, a unidade de processamento de objeto em movimento 113a da unidade de determinação de nível de risco 113 pode definir o objeto como um alvo de alto risco. Especialmente quando uma curva à direita ou à esquerda do veículo 1 é detectada a partir de, por exemplo, um plano de viagem do veículo 1, o fato de que o veículo 1 está trafegando em uma pista de conversão à direita, etc., a unidade de processamento de objeto em movimento 113a pode estimar um caminho do veículo 1 associado à curva à direita ou à esquerda. Quando é presumido que o objeto correspondente a um pedestre esteja no curso do veículo 1 que trafega ao longo do caminho estimado, a unidade de processamento de objeto em movimento 113a pode definir o objeto como um alvo de alto risco. A unidade de determinação do nível de risco 113, portanto, define uma prioridade de observação relativamente alta para o objeto identificado como um pedestre.
[0117] Com esta configuração, é possível avaliar com antecedência uma mudança significativa que ocorrerá na direção de deslocamento do veículo 1 e que é difícil de detectar antecipadamente pelo sensor de movimento do veículo 40. O sensor de medição fina 30 pode, portanto, observar, por exemplo, um objeto correspondente a um pedestre que atualmente não está no curso do veículo 1, mas estará no curso do veículo 1 quando o veículo 1 fizer uma curva à direita ou à esquerda.
Terceira Modificação
[0118] Quando um alvo correspondente a um objeto em movimento com uma seção transversal de radar relativamente pequena (RCS) e se movendo a uma velocidade relativamente baixa é detectado a partir dos resultados de observação incluídos nos dados de observação integrados, ou seja, os resultados de observação de sensores de radar que são os sensores de medição aproximada 20 (ou seja, informação do alvo isto é, informação sobre uma pluralidade de alvos, cada um composto por uma pluralidade de pontos de reflexão), a unidade de processamento de objeto móvel 113a da unidade de determinação do nível de risco 113 pode identificar o alvo como um pedestre. Ao contrário dos veículos, os pedestres às vezes mudam de curso repentinamente. A unidade de processamento de objeto em movimento 113a pode, portanto, definir o alvo identificado como um pedestre como um alvo de alto risco, independentemente de sua posição, etc. A unidade de determinação do nível de risco 113, portanto, define uma prioridade de observação relativamente alta para o alvo identificado como um pedestre.
[0119] Se o RCS for relativamente pequeno, pode ser decidido por determinação se o RCS é igual ou menor do que um primeiro valor predeterminado. A faixa de RCS que pode ser obtida quando o objeto em movimento é um pedestre é obtida experimental ou empiricamente ou por simulações, e o primeiro valor prédeterminado é decidido com base na faixa obtida. Se a velocidade do corpo em movimento for relativamente baixa, pode ser decidido por determinação se a velocidade é igual ou mais baixa do que um segundo valor predeterminado. A faixa de velocidade que pode ser obtida quando o objeto em movimento é um pedestre é obtida experimental ou empiricamente ou por simulações, e o segundo valor predeterminado é decidido com base na faixa de velocidade obtida.
Quarta Modificação
[0120] Conforme mostrado nas Figuras 2 e 3, o campo de visão do sensor de medição aproximada 20 e o campo de visão do sensor de medição fina 30 são diferentes. Por exemplo, quando o veículo 1 está se deslocando em uma estrada estreita com pouca visibilidade, pode haver um alvo de alto risco que esteja incluído no campo de visão do sensor de medição aproximada 20, mas não incluído no campo de visão do sensor de medição fina 30 em um primeiro ponto no tempo. Neste caso, a unidade de planejamento de observação 121 da unidade de processamento de dados de medição fina 12 pode decidir a área de observação do sensor de medição fina 30 de modo que o alvo de alto risco seja incluído na área de observação quando o alvo de alto risco entra no campo de visão do sensor de medição fina 30 em um segundo ponto no tempo mais tarde do que o primeiro ponto no tempo.
Quinta Modificação
[0121] A unidade de determinação do nível de risco 113 pode decidir a prioridade de observação de cada objeto em movimento usando informações de mapa, além do resultado do processamento da unidade de processamento de objeto em movimento 113a. Por exemplo, um objeto em movimento localizado perto de um cruzamento tem mais probabilidade de mudar de curso repentinamente do que um objeto em movimento localizado em outro lugar (por exemplo, porque um pedestre cruzaria a estrada e um veículo faria uma curva para a direita ou esquerda). Consequentemente, a prioridade de observação de cada objeto em movimento pode ser mais apropriadamente decidida usando não apenas a distância do veículo 1 para o corpo em movimento, mas também as informações do mapa.
Sexta Modificação
[0122] Na modalidade acima, os objetos a serem observados pelos sensores de medição fina 30 são decididos a partir de uma pluralidade de objetos observada pelos sensores de medição aproximada 20. No entanto, os sensores de medição fina 30 podem observar uma área que não foi observada pelos sensores de medição aproximada 20.
[0123] Especificamente, a unidade de processamento de dados de medição aproximada 11 adquire informação de pista, que é informação sobre uma pista à frente do veículo 1, a partir de uma imagem de uma área à frente do veículo 1 capturada, por exemplo, por uma câmera que é o sensor de medição aproximada 20. A unidade de processamento de dados de medição aproximada 11 envia a informação da pista para a unidade de planejamento de observação 121. Quando a unidade de planejamento de observação 121 detecta a partir da informação de pista recebida que há uma pista de conversão à direita à frente do veículo 1 e detecta, por exemplo, o estado de movimento etc. do veículo 1 com base na saída do sensor de movimento do veículo 40 que o veículo 1 entrou na pista de conversão à direita, a unidade de planejamento de observação 121 pode decidir a área de observação do sensor de medição fina 30 para que a área pela qual o veículo 1 que faz uma curva à direita passe seja incluída na área de observação.
[0124] A unidade de processamento de dados de medição aproximada 11 adquire informações da estrada, que são informações na estrada à frente do veículo 1, a partir da imagem da área à frente do veículo 1 capturada, por exemplo, pela câmera que é o sensor de medição aproximada 20. A unidade de processamento de dados de medição aproximada 11 envia as informações da estrada para a unidade de planejamento de observação 121. Quando a unidade de planejamento de observação 121 detecta a partir das informações da estrada recebida que o número de pistas diminui à frente do veículo 1, a unidade de planejamento de observação 121 pode decidir a área de observação do sensor de medição fina 30 de modo que um ponto de fusão, que é o ponto onde o número de pistas diminui, seja incluído no área de observação.
[0125] A unidade de processamento de dados de medição aproximada 11 adquire informação de sinal, que é informação sobre um ou ambos os sinais de trânsito e uma (s) marcação (ões) rodoviária (s) que existem em torno do veículo 1, a partir de imagens capturadas por câmeras que são os sensores de medição aproximada 20. A unidade de processamento de dados de medição aproximada 11 envia a informação de sinal para a unidade de planejamento de observação 121. A unidade de planejamento de observação 121 pode decidir as áreas de observação dos sensores de medição fina 30 com base na informação de sinal.
[0126] É aqui presumido que, no exemplo da Figura 7, uma ou ambas as marcações de estrada 531 e a placa de trânsito 532 foram observadas pelo sensor de medição aproximada 20. Tanto o sinal de trânsito 531 como o sinal de trânsito 532 indicam que há uma faixa de pedestres à frente do veículo 1. Neste caso, a unidade de planejamento de observação 121 pode decidir a área de observação do sensor de medição fina 30 de modo que a faixa de pedestres seja incluída na área de observação.
[0127] Com a configuração acima, é obtida informação de observação relativamente precisa em uma área onde um número relativamente grande de objetos em movimento estão ou estarão no curso do veículo 1.
Exemplos de Aplicação Primeiro Exemplo de Aplicação
[0128] O sistema de sensor 110 é aplicável não apenas a um único veículo, mas também, por exemplo, a uma pluralidade de veículos que se deslocam em um pelotão comunicando-se uns com os outros. Neste caso, o (s) sensor (es) de medição aproximada (s) 20 podem ser montados apenas no veículo líder do pelotão e podem não ser montados em outros veículos seguindo o veículo líder. Ou seja, os outros veículos podem receber do veículo líder o resultado da observação do (s) sensor (es) de medição aproximada 20 montado no veículo líder. A operação semelhante à do sistema de sensor 110 descrito acima pode ser implementada desta maneira.
Segundo Exemplo de Aplicação
[0129] O sistema de sensor 110 é aplicável não apenas a um veículo, mas também a, por exemplo, um corpo em movimento não tripulado, como um drone. O sistema de sensor 110 também é aplicável a uma pluralidade de corpos móveis não tripulados que se movem em uma formação ou pelotão. Nesse caso, a pluralidade de corpos móveis não tripulados pode incluir um corpo em movimento não tripulado equipado apenas com o (s) sensor (es) de medição aproximada 20 e um corpo em movimento não tripulado equipado apenas com o (s) sensor (es) de medição fina 30. A pluralidade de corpos móveis não tripulados pode incluir um corpo em movimento tendo apenas funções correspondentes à unidade de controle 10 fora do sistema de sensor 110. Isto é, um sistema de sensor 110 pode ser implementado por toda a pluralidade de corpos móveis não tripulados.
[0130] Serão descritos abaixo vários aspectos da invenção que são derivados da modalidade e modificações acima.
[0131] Um sistema de sensor a bordo de acordo com um aspecto da invenção é um sistema de sensor a bordo incluindo um primeiro sensor configurado para detectar nas proximidades de um veículo e um segundo sensor tendo uma resolução angular mais alta do que o primeiro sensor. O sistema de sensor a bordo inclui: unidade de aquisição configurada para adquirir um resultado de detecção do primeiro sensor; e unidade de decisão de faixa configurada para decidir, com base no resultado da detecção, uma faixa de observação a ser observada pelo segundo sensor nas proximidades do veículo. Na modalidade acima, o sensor de medição aproximada 20 é um exemplo do primeiro sensor, o sensor de medição fina 30 é um exemplo do segundo sensor, a unidade de integração de dados de detecção 111 é um exemplo da unidade de aquisição e a unidade de decisão de alvo de medição e planejamento de observação 121 é um exemplo da unidade de decisão de faixa.
[0132] No aspecto do sistema de sensor a bordo, a unidade de aquisição é configurada para adquirir informações de obstáculo como o resultado da detecção, a informação de obstáculo sendo informação sobre uma pluralidade de obstáculos existentes ao redor do veículo. O sistema de sensor a bordo inclui ainda unidade de decisão de nível de prioridade configurada para decidir os níveis de prioridade de detecção dos obstáculos a partir de pelo menos um dentre uma posição relativa entre cada um dos obstáculos e o veículo, um movimento relativo entre cada um dos obstáculos e o veículo, e um tipo de cada um dos obstáculos com base nas informações do obstáculo. A unidade de decisão de faixa é configurada para decidir a faixa de observação de tal maneira que os obstáculos de níveis de prioridade de detecção altos sejam preferencialmente incluídos na faixa de observação sobre os obstáculos dos níveis de prioridade de detecção baixos
[0133] A "posição relativa" é um conceito que não se limita à relação posicional relativa entre o veículo e o obstáculo quando o veículo é visto no plano de cima (isto é, em um sistema de coordenadas bidimensional), mas também inclui a relação posicional relativa entre o veículo e o obstáculo em um sistema de coordenadas tridimensional incluindo também a direção da altura. A expressão "decide o nível de prioridade de detecção da posição relativa" não se limita a decidir o nível de prioridade de detecção da própria posição relativa, mas pode incluir decidir o nível de prioridade de detecção de uma quantidade física ou parâmetro derivado da posição relativa (por exemplo, a distância entre o veículo e o obstáculo, etc.). Na modalidade acima, a unidade de determinação do nível de risco 113 é um exemplo da unidade de decisão do nível de prioridade, e a prioridade de observação é um exemplo do nível de prioridade de detecção.
[0134] No aspecto que inclui a unidade de decisão de nível de prioridade, a unidade de decisão de nível de prioridade pode ser configurada para, quando os obstáculos incluem um primeiro objeto fixo localizado acima do veículo e um segundo objeto fixo localizado na superfície da estrada de uma estrada na qual o veículo está trafegando, definir um nível de prioridade de detecção mais alto para o segundo objeto fixo do que para o primeiro objeto fixo a partir de uma posição relativa entre o primeiro objeto fixo e o veículo e uma posição relativa entre o segundo objeto fixo e o veículo.
[0135] No aspecto que inclui a unidade de decisão de nível de prioridade, a unidade de decisão de nível de prioridade pode ser configurada para, quando os obstáculos incluírem um pedestre, definir um nível de prioridade de detecção mais alto para o pedestre quando é presumido de um movimento relativo entre o pedestre e o veículo que o pedestre estará no curso do veículo do que quando não se presume que o pedestre estará no curso do veículo.
[0136] No aspecto que inclui a unidade de decisão de nível de prioridade, o primeiro sensor pode ser um sensor de radar, a unidade de aquisição pode ser configurada para adquirir informação de alvo como a informação de obstáculo, a informação de alvo sendo informação sobre uma pluralidade de alvos, cada um composto de uma pluralidade de pontos de reflexão. A unidade de decisão de nível de prioridade pode ser configurada para, quando os alvos incluírem um alvo específico, definir um nível de prioridade de detecção mais alto para o alvo específico do que para pelo menos uma parte dos alvos que não sejam o alvo específico, o alvo específico sendo um alvo correspondente a um objeto em movimento, uma velocidade do alvo específico sendo igual ou inferior a uma velocidade predeterminada e uma seção transversal de radar do alvo específico sendo igual a ou menor que uma seção transversal de radar predeterminada. Na modalidade acima, o alvo identificado como um pedestre é um exemplo do alvo específico.
[0137] No aspecto que inclui a unidade de decisão de nível de prioridade, quando o veículo está parado, pelo menos uma parte de uma faixa observável do segundo sensor pode ser diferente de uma faixa de detecção do primeiro sensor. A unidade de decisão de faixa pode ser configurada para, quando os obstáculos dos níveis de alta prioridade de detecção estão fora da faixa observável em um primeiro ponto no tempo, decidir a faixa de observação de tal maneira que os obstáculos dos níveis de alta prioridade de detecção sejam incluídos na faixa de observação quando os obstáculos dos níveis de alta prioridade de detecção entram na faixa observável em um segundo ponto no tempo depois do primeiro ponto no tempo. Na modalidade acima, o campo de visão do sensor de medição aproximada 20 é um exemplo da faixa de detecção do primeiro sensor e o campo de visão do sensor de medição fina 30 é um exemplo da faixa observável do segundo sensor.
[0138] No aspecto que inclui a unidade de decisão de nível de prioridade, a unidade de decisão de nível de prioridade pode ser configurada para decidir os níveis de prioridade de detecção dos obstáculos usando ainda informações de mapa correspondentes a uma área que inclui pelo menos uma parte dos obstáculos.
[0139] Em outro aspecto do sistema de sensor a bordo, a unidade de aquisição é configurada para adquirir informações de pista como o resultado da detecção, as informações de faixa sendo informações em uma pista à frente do veículo e a unidade de decisão de faixa é configurada para, quando for detectado a partir das informações da pista que haja uma pista de conversão à direita à frente do veículo e que o veículo entrou na pista de conversão à direita, decidir a faixa de observação de tal forma que a área que o veículo que faz uma conversão à direita passe seja incluída na faixa de observação.
[0140] Em ainda outro aspecto do sistema de sensor a bordo, a unidade de aquisição é configurada para adquirir informações da estrada como o resultado da detecção, as informações da estrada sendo informações em uma estrada à frente do veículo, e a unidade de decisão de faixa é configurada para , quando for detectado a partir da informação da estrada que o número de pistas diminui à frente do veículo, decidir a faixa de observação de tal forma que um ponto de convergência, que é um ponto onde o número de pistas diminui à frente do veículo, seja incluído na faixa de observação.
[0141] Em ainda outro aspecto do sistema de sensor a bordo, a unidade de aquisição é configurada para adquirir informações de sinal como o resultado da detecção, a informação de sinal sendo informação sobre um ou ambos os sinais de trânsito e uma marcação rodoviária que exista em torno do veículo, e a unidade de decisão de faixa é configurada para decidir a faixa de observação com base nas informações de sinal.
[0142] Em um aspecto adicional do sistema de sensor a bordo, o sistema de sensor a bordo inclui ainda uma unidade de controle configurada para controlar uma direção de emissão de um feixe de lápis e o segundo sensor é um sensor configurado para emitir o feixe de lápis. A unidade de aquisição é configurada para adquirir informações do formato como o resultado da detecção, a informação de formato sendo informações sobre os formatos dos obstáculos existentes ao redor do veículo. A unidade de decisão de faixa é configurada para decidir a faixa de observação com base nas informações de formato. A unidade de controle é configurada para controlar a direção de emissão com base na informação de forma que o feixe de lápis seja varrido ao longo de um formato externo do obstáculo.
[0143] A invenção não está limitada à modalidade acima e pode ser modificada conforme apropriado, sem se afastar da matéria ou ideia da invenção que pode ser lida a partir das reivindicações e de todo o relatório descritivo, e sistemas de sensores a bordo assim modificados também incidem no escopo técnico da invenção.

Claims (11)

  1. Sistema de sensor a bordo (100, 110) incluindo um primeiro sensor (20) configurado para detectar uma situação em torno de um veículo (1) e um segundo sensor (30) tendo uma resolução angular mais alta do que o primeiro sensor (20), o sistema de sensor a bordo (100, 110) CARACTERIZADO pelo fato de que compreende:
    uma unidade de aquisição (11, 111) configurada para adquirir um resultado de detecção do primeiro sensor (20); e
    uma unidade de decisão de faixa (12, 121) configurada para decidir, com base no resultado da detecção, uma faixa de observação a ser observada pelo segundo sensor (30) ao redor do veículo (1).
  2. Sistema de sensor a bordo (100, 110), de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o sistema de sensor a bordo (100, 110) compreende adicionalmente uma unidade de decisão de nível de prioridade (113) configurada para decidir níveis de prioridade de detecção de obstáculos de pelo menos um dentre uma posição relativa entre cada um dos obstáculos e o veículo (1), um movimento relativo entre cada um dos obstáculos e o veículo (1), e um tipo de cada um dos obstáculos com base em informações do obstáculo, em que:
    a unidade de aquisição (11, 111) é configurada para adquirir a informação do obstáculo como o resultado da detecção, a informação do obstáculo sendo informação sobre os obstáculos existentes ao redor do veículo (1); e
    a unidade de decisão de faixa (12, 121) é configurada para decidir a faixa de observação de modo que os obstáculos de níveis de prioridade de detecção altos sejam preferencialmente incluídos na faixa de observação sobre os obstáculos de níveis de prioridade de detecção baixos.
  3. Sistema de sensor a bordo (100, 110), de acordo com a reivindicação 2, CARACTERIZADO pelo fato de que a unidade de decisão do nível de prioridade (113) é configurada para, quando os obstáculos incluem um primeiro objeto fixo localizado acima do veículo (1) e um segundo objeto fixo localizado em uma superfície de estrada de uma estrada na qual o veículo (1) esteja trafegando, definir um nível de prioridade de detecção mais alto para o segundo objeto fixo do que para o primeiro objeto fixo de uma posição relativa entre o primeiro objeto fixo e o veículo (1), e uma posição relativa entre o segundo objeto fixo e o veículo (1).
  4. Sistema de sensor a bordo (100, 110), de acordo com a reivindicação 2 ou 3, CARACTERIZADO pelo fato de que a unidade de decisão de nível de prioridade (113) é configurada para definir um nível de prioridade de detecção mais alto para um pedestre quando os obstáculos incluem o pedestre e a unidade de decisão de nível de prioridade (113) presume que o pedestre estará em um curso do veículo (1) a partir de um movimento relativo entre o pedestre e o veículo (1), do que quando a unidade de decisão de nível de prioridade (113) não presume que o pedestre estará no curso do veículo (1).
  5. Sistema de sensor a bordo (100, 110), de acordo com qualquer uma das reivindicações 2 a 4, CARACTERIZADO pelo fato de que:
    o primeiro sensor (20) é um sensor de radar;
    a unidade de aquisição (11, 111) é configurada para adquirir informação do alvo como a informação do obstáculo, a informação do alvo sendo informação sobre uma pluralidade de alvos, cada um composto por uma pluralidade de pontos de reflexão; e
    a unidade de decisão de nível de prioridade (113) é configurada para, quando os alvos incluírem um alvo específico, definir um nível de prioridade de detecção mais alto para o alvo específico do que para pelo menos uma parte dos alvos que não sejam o alvo específico, o alvo específico sendo um alvo correspondendo a um objeto em movimento, uma velocidade do alvo específico sendo igual ou inferior a uma velocidade predeterminada e uma seção transversal de radar do alvo específico sendo igual a ou menor do que uma seção transversal de radar predeterminada.
  6. Sistema de sensor a bordo (100, 110), de acordo com qualquer uma das reivindicações 2 a 5, CARACTERIZADO pelo fato de que:
    quando o veículo (1) está parado, pelo menos uma parte de uma faixa observável do segundo sensor (30) é diferente de uma faixa de detecção do primeiro sensor (20); e
    a unidade de decisão de faixa (12, 121) é configurada para decidir a faixa de observação de tal maneira que os obstáculos dos níveis de prioridade de detecção altos sejam incluídos na faixa de observação quando os obstáculos dos níveis de prioridade de detecção altos estão fora da faixa observável em um primeiro ponto no tempo, e os obstáculos dos níveis de prioridade de detecção altos entram na faixa observável em um segundo ponto no tempo depois do primeiro ponto no tempo.
  7. Sistema de sensor a bordo (100, 110), de acordo com qualquer uma das reivindicações 2 a 6, CARACTERIZADO pelo fato de que a unidade de decisão de nível de prioridade (113) é configurada para decidir os níveis de prioridade de detecção dos obstáculos usando ainda informações do mapa correspondendo a uma área incluindo pelo menos uma parte dos obstáculos.
  8. Sistema de sensor a bordo (100, 110), de acordo com qualquer uma das reivindicações 1 a 7, CARACTERIZADO pelo fato de que:
    a unidade de aquisição (11, 111) é configurada para adquirir informações de pista como o resultado da detecção, a informação de pista sendo informações em uma pista à frente do veículo (1); e
    a unidade de decisão de faixa (12, 121) é configurada para, ao detectar a partir da informação da pista que há uma pista de conversão à direita à frente do veículo (1) e que o veículo entrou na pista de conversão à direita, decidir a faixa de observação de modo que a faixa de observação inclua uma área e o veículo (1) que faz uma curva à direita passa a área.
  9. Sistema de sensor a bordo (100, 110), de acordo com qualquer uma das reivindicações 1 a 8, CARACTERIZADO pelo fato de que:
    a unidade de aquisição (11, 111) é configurada para adquirir informação da estrada como o resultado da detecção, a informação da estrada sendo informação sobre uma estrada à frente do veículo (1); e
    a unidade de decisão de faixa (12, 121) é configurada para, ao detectar que o número de pistas diminui à frente do veículo (1) a partir das informações da estrada, decidir a faixa de observação de modo que um ponto de fusão seja incluído na faixa de observação e o ponto de fusão é um ponto onde o número de pistas diminui à frente do veículo (1).
  10. Sistema de sensor a bordo (100, 110), de acordo com qualquer uma das reivindicações 1 a 9, CARACTERIZADO pelo fato de que:
    a unidade de aquisição (11, 111) é configurada para adquirir informações de sinal conforme o resultado da detecção, a informação do sinal sendo informação sobre pelo menos um dentre um sinal de trânsito e uma marcação rodoviária existente em torno do veículo (1); e
    a unidade de decisão de faixa (12, 121) é configurada para decidir a faixa de observação com base na informação do sinal.
  11. Sistema de sensor a bordo (100, 110), de acordo com qualquer uma das reivindicações 1 a 10, CARACTERIZADO pelo fato de que compreende adicionalmente uma unidade de controle configurada para controlar uma direção de emissão de um feixe de lápis, em que:
    o segundo sensor (30) é um sensor configurado para emitir o feixe de lápis;
    a unidade de aquisição (11, 111) é configurada para adquirir informação de formato como o resultado da detecção, a informação de formato sendo informação sobre formatos dos obstáculos existentes ao redor do veículo (1);
    a unidade de decisão de faixa (12, 121) é configurada para decidir a faixa de observação com base nas informações de formato; e
    a unidade de controle é configurada para controlar a direção de emissão com base nas informações de formato de modo que o feixe de lápis seja varrido ao longo de um formato externo dos obstáculos.
BR102021006989-9A 2020-04-13 2021-04-12 Sistema de sensor a bordo BR102021006989A2 (pt)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-071587 2020-04-13
JP2020071587A JP7327257B2 (ja) 2020-04-13 2020-04-13 車載センサシステム

Publications (1)

Publication Number Publication Date
BR102021006989A2 true BR102021006989A2 (pt) 2021-10-26

Family

ID=75377691

Family Applications (1)

Application Number Title Priority Date Filing Date
BR102021006989-9A BR102021006989A2 (pt) 2020-04-13 2021-04-12 Sistema de sensor a bordo

Country Status (7)

Country Link
US (1) US11780436B2 (pt)
EP (1) EP3896485A1 (pt)
JP (1) JP7327257B2 (pt)
KR (1) KR20210127088A (pt)
CN (1) CN113538966B (pt)
BR (1) BR102021006989A2 (pt)
RU (1) RU2763800C1 (pt)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230334966A1 (en) * 2022-04-14 2023-10-19 Iqbal Khan Ullah Intelligent security camera system
US20230408684A1 (en) * 2022-06-20 2023-12-21 Honeywell International Inc. Integrated surveillance radar system
JP2024035974A (ja) * 2022-09-05 2024-03-15 日立Astemo株式会社 車両制御装置

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10246778A (ja) 1997-03-04 1998-09-14 Mitsubishi Electric Corp 目標探知追尾装置
JP4016826B2 (ja) * 2002-12-10 2007-12-05 株式会社デンソー 物標識別方法及び装置、プログラム
DE102004003850A1 (de) 2004-01-26 2005-08-18 Ibeo Automobile Sensor Gmbh Verfahren zur Erkennung von Markierungen auf einer Fahrbahn
ES2371758T3 (es) * 2005-11-09 2012-01-09 Saab Ab Sistema de sensores múltiples.
US8050863B2 (en) * 2006-03-16 2011-11-01 Gray & Company, Inc. Navigation and control system for autonomous vehicles
JP4589947B2 (ja) 2007-07-27 2010-12-01 三菱電機株式会社 情報提供車載装置
JP5634046B2 (ja) * 2009-09-25 2014-12-03 クラリオン株式会社 センサコントローラ、ナビゲーション装置、センサ制御方法
JP5488805B2 (ja) 2010-01-13 2014-05-14 株式会社Ihi レーザセンサ及びこれを用いた検出対象判定方法
JP5407898B2 (ja) 2010-01-25 2014-02-05 株式会社豊田中央研究所 対象物検出装置及びプログラム
JP5558440B2 (ja) * 2011-09-08 2014-07-23 三菱電機株式会社 物体検出装置
US9383753B1 (en) * 2012-09-26 2016-07-05 Google Inc. Wide-view LIDAR with areas of special attention
US9437111B2 (en) * 2014-05-30 2016-09-06 Ford Global Technologies, Llc Boundary detection system
US9625582B2 (en) * 2015-03-25 2017-04-18 Google Inc. Vehicle with multiple light detection and ranging devices (LIDARs)
JP6473685B2 (ja) * 2015-11-19 2019-02-20 日立建機株式会社 車両制御装置及び作業機械
EP3223034B1 (en) * 2016-03-16 2022-07-20 Ricoh Company, Ltd. Object detection apparatus and moveable apparatus
JP6223504B1 (ja) * 2016-05-18 2017-11-01 三菱電機株式会社 レーダ装置およびこれを用いたセンサフュージョン装置
JP6772639B2 (ja) 2016-08-02 2020-10-21 株式会社リコー 視差演算システム、移動体及びプログラム
JP6384534B2 (ja) * 2016-09-29 2018-09-05 マツダ株式会社 車両用物標検出システム
WO2018218680A1 (zh) * 2017-06-02 2018-12-06 华为技术有限公司 一种障碍物检测方法及设备
JP6525406B1 (ja) 2017-11-02 2019-06-05 マツダ株式会社 車両制御装置
US10884115B2 (en) * 2018-03-09 2021-01-05 Waymo Llc Tailoring sensor emission power to map, vehicle state, and environment
JP7028982B2 (ja) 2018-08-23 2022-03-02 日立Astemo株式会社 レーダ処理装置
JP2020035439A (ja) 2018-08-23 2020-03-05 株式会社Jvcケンウッド 画像処理装置、警告システム、画像処理方法及びプログラム

Also Published As

Publication number Publication date
JP2021168065A (ja) 2021-10-21
US20210316723A1 (en) 2021-10-14
KR20210127088A (ko) 2021-10-21
US11780436B2 (en) 2023-10-10
RU2763800C1 (ru) 2022-01-11
CN113538966A (zh) 2021-10-22
EP3896485A1 (en) 2021-10-20
JP7327257B2 (ja) 2023-08-16
CN113538966B (zh) 2023-02-28

Similar Documents

Publication Publication Date Title
JP3848431B2 (ja) 車両位置推定装置と車両位置推定方法、および、走行車線維持装置と走行車線維持方法
BR102021006989A2 (pt) Sistema de sensor a bordo
CN107161141B (zh) 无人驾驶汽车系统及汽车
US9759812B2 (en) System and methods for intersection positioning
US11346926B2 (en) Detection device and method for adjusting parameter thereof
US11971274B2 (en) Method, apparatus, computer program, and computer-readable recording medium for producing high-definition map
US20150378015A1 (en) Apparatus and method for self-localization of vehicle
CN112074885A (zh) 车道标志定位
US20020169537A1 (en) Three-dimensional perception of environment
WO2015173034A1 (en) Method and system for determining a position relative to a digital map
US20210208282A1 (en) Detection device and detection system
US20200174492A1 (en) Autonomous driving method and system using road view or aerial view map information
WO2020145053A1 (ja) 走行車線推定装置、走行車線推定方法、制御プログラム、およびコンピュータ読み出し可能持続的記録媒体
CN110296708B (zh) 运营路线规划方法、装置及存储介质
JP2007303842A (ja) 車両位置推定装置及び地図情報作成装置
CN112673280A (zh) 用于装配有lidar传感器的机动车辆的道路检测方法
US20180208197A1 (en) Lane keeping assistance system
JP7321035B2 (ja) 物体位置検出方法及び物体位置検出装置
JP2021076422A (ja) 物体認識方法及び物体認識装置
WO2022262327A1 (zh) 交通信号灯检测
US20230150534A1 (en) Vehicle control system and vehicle driving method using the vehicle control system
US20240183986A1 (en) Travelable area extraction apparatus, system, and method, and non-transitory computer readable medium
CN220855184U (zh) 矿卡的环境感知系统和矿卡
JP7414603B2 (ja) 走路境界決定装置および走路境界決定方法
JP2022117835A (ja) 地物データの生成装置及び地物データの生成方法

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]