WO2019208271A1 - 電子制御装置、演算方法 - Google Patents

電子制御装置、演算方法 Download PDF

Info

Publication number
WO2019208271A1
WO2019208271A1 PCT/JP2019/016010 JP2019016010W WO2019208271A1 WO 2019208271 A1 WO2019208271 A1 WO 2019208271A1 JP 2019016010 W JP2019016010 W JP 2019016010W WO 2019208271 A1 WO2019208271 A1 WO 2019208271A1
Authority
WO
WIPO (PCT)
Prior art keywords
future
unit
area
measurement
sensors
Prior art date
Application number
PCT/JP2019/016010
Other languages
English (en)
French (fr)
Inventor
勇太 武藤
栗山 哲
Original Assignee
日立オートモティブシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立オートモティブシステムズ株式会社 filed Critical 日立オートモティブシステムズ株式会社
Priority to DE112019001545.1T priority Critical patent/DE112019001545T5/de
Priority to US17/049,220 priority patent/US11958480B2/en
Publication of WO2019208271A1 publication Critical patent/WO2019208271A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to an electronic control device and a calculation method.
  • Patent Document 1 an image obtained by photographing a situation ahead of the host vehicle by camera means is image-processed to recognize a preceding vehicle, and an engine that controls engine output so as to travel while tracking the preceding vehicle.
  • a laser that detects the position of an object existing in front of the host vehicle by receiving the reflected laser beam that is emitted forward from the host vehicle while scanning the laser beam in a horizontal plane
  • a processing area in the screen is set corresponding to the position of the object detected by the laser radar, and only the image in this processing area is processed.
  • a preceding vehicle detection mechanism of a travel control device for an automobile characterized by having an image processing means for recognizing a preceding vehicle.
  • the electronic control device acquires the state quantity including the position of the measurement target using the outputs of the plurality of sensors, or the state quantity of the measurement target using the outputs of the plurality of sensors.
  • the sensor information acquisition unit that calculates the position
  • the storage unit that stores the position determination information that is the classification condition regarding the position
  • the position determination unit that classifies the measurement object using the position determination information
  • the position determination unit Fusion that fuses the positions of the plurality of measurement objects that are classified as the measurement objects that are classified into the plurality of measurement objects that are measured by different sensors with reference to the state quantity and that are determined to match.
  • the measurement object is an object that can be measured by each of the plurality of sensors.
  • the state quantity including the position of the measurement object is acquired using the outputs of the plurality of sensors, or the state quantity of the measurement object is obtained using the outputs of the plurality of sensors.
  • the measurement target is classified using the position determination information
  • the plurality of measurement objects that are the same as the measurement object by the classification and that are determined to match by determining whether the plurality of measurement objects measured by the different sensors match each other by referring to the state quantity.
  • the measurement object is an object that can be measured by each of the plurality of sensors.
  • the amount of calculation can be reduced.
  • Configuration diagram of vehicle C 2A is a diagram showing a data acquisition region of the sensor group 1, and FIG. 2B is a visible diagram of the region to be defined.
  • region determination table 3211 The figure which shows an example of the table 3212 before a process The figure which shows an example of the table 3213 after a process The figure which shows an example of 1st area
  • the flowchart showing the process which the process part 31 performs The flowchart which shows the detail of S103 of FIG.
  • the figure which shows an example of the pattern determination table 3214 The figure which shows an example of the area
  • region correlation information 3217 The flowchart showing the process of the process part 31 in 2nd Embodiment.
  • the figure which shows an example of the future table 3216 The flowchart showing the process of the process part 31 in 3rd Embodiment.
  • FIG. 1 is a configuration diagram of the vehicle C.
  • the vehicle C includes a sensor group 1, an electronic control device 3, and an actuator group 4. Sensor group 1 and actuator group 4 are connected to electronic control unit 3.
  • Sensor group 1 includes two or more sensors, for example, left camera LC, right camera RC, left radar LR, and right radar RR.
  • the left camera LC is a camera that captures the left front of the vehicle C
  • the right camera RC is a camera that captures the right front of the vehicle C.
  • the left radar LR is a radar that measures an obstacle on the left front of the vehicle C, for example, a millimeter wave radar
  • the right radar RR is a radar that measures an obstacle on the right front of the vehicle C, for example, a millimeter wave radar.
  • Each sensor constituting the sensor group 1 acquires information on a measurement target that can be measured by each sensor, and calculates the position and speed of the measurement target from the acquired information.
  • Each sensor outputs the position and speed as state quantities to the electronic control unit 3.
  • the state quantity may include information other than the position and speed, for example, angular velocity.
  • each of the left camera LC and the right camera RC analyzes an image obtained by photographing, and calculates the position and speed of the measurement target from the continuity of luminance and saturation, and their time series changes.
  • each of the left radar LR and the right radar RR calculates the position and speed of the measurement target from distance continuity and time series change.
  • Each sensor may output the position of the measurement target with reference to each sensor, or may output with the electronic control device 3 as a reference.
  • the “measurement target” is different for each sensor, even when the measurable ranges of a plurality of sensors overlap, there is an object that is a measurement target only with a certain sensor.
  • the measurement objects include those that do not hinder the movement of the vehicle C, such as smoke. This is because even smoke that does not hinder the movement of the vehicle C is measured by a measurable sensor to help grasp the surrounding environment.
  • FIG. 2 (a) is a diagram showing a data acquisition region of the sensor group 1
  • FIG. 2 (b) is a visible diagram of the region to be defined.
  • the data acquisition region of each sensor is given a reference numeral of that sensor.
  • the data acquisition areas of the left camera LC and the left radar LR overlap on the left side of the figure
  • the data acquisition areas of two to four sensors overlap near the center of the figure, and on the right side of the figure.
  • the data acquisition areas of the right camera RC and the right radar RR overlap.
  • the first area Z1 is an area where the data acquisition areas of the left camera LC and the left radar LR overlap.
  • the second area Z2 is an area where the data acquisition areas of the sensors 2 to 4 overlap.
  • the third region Z3 is a region where the data acquisition regions of the right camera RC and the right radar RR overlap.
  • each sensor may be able to acquire data in a wider area than the data acquisition area shown in FIG. In this case, information acquired by a sensor outside the range shown in FIG. 2A may be considered or ignored.
  • the processing may be performed in consideration of the information on the measurement target, or may be handled as not existing. Returning to FIG. 1, the description will be continued.
  • Actuator group 4 is a plurality of actuators that control the direction and speed of the vehicle, and includes, for example, a steering wheel, a brake, and an accelerator.
  • the actuator group 4 operates according to an operation command from the electronic control unit 3. However, the actuator group 4 may be operated by a user operation.
  • the electronic control device 3 is an electronic control device (Electronic Control Unit) including a processing unit 31, a storage unit 32, and an input / output unit 33.
  • the processing unit 31 includes a CPU that is a central electronic control device, a ROM that is a read-only storage device, and a RAM that is a readable / writable storage device, and the CPU expands and executes a program stored in the ROM on the RAM. The following functions are realized.
  • the processing unit 31 includes a position determination unit 311, a fusion unit 312, and a vehicle control processing unit 313 as functions thereof. These functions will be described later.
  • the input / output unit 33 is a communication interface that communicates with the sensor group 1 and the actuator group 4.
  • the input / output unit 33 corresponds to a communication standard such as CAN (registered trademark) or IEEE802.3.
  • the fusion unit 312 includes a first fusion unit 312A for processing the first region Z1, a second fusion unit 312B for processing the second region Z2, and a third fusion unit for processing the third region Z3. 312C.
  • the fusion unit 312 determines whether or not the measurement objects have acquired state quantities from different sensors, and fuses the state quantities of the plurality of measurement objects that have been determined to match.
  • a measurement object in which state quantities are fused is referred to as a “fused measurement object”.
  • a sensor that is not to be processed in the sensor group 1 may be preset.
  • the first fusion unit 312A may be preset as a sensor that sets only the measurement target of the left camera LC and the left radar LR as processing targets and excludes the right camera RC and the right radar RR as processing targets.
  • the storage unit 32 is a non-volatile storage device such as a flash memory.
  • the storage unit 32 is divided into a common storage unit 321 that can be referred to from the entire processing unit 31 and a dedicated storage unit 322 that can be read and written only by the respective fusion units 312.
  • the common storage unit 321 and the dedicated storage unit 322 may be realized by the same hardware, or may be realized by different hardware.
  • the common storage unit 321 stores an area determination table 3211, a pre-processing table 3212, and a post-processing table 3213.
  • first area table 3221A that only the first fusion part 312A reads and writes
  • second area table 3221B that only the second fusion part 312B reads and writes
  • third area that only the third fusion part 312C reads and writes.
  • An area table 3221C is stored.
  • first area table 3221A is read and written only by first fusion unit 312A” in the sense that it is not necessary to refer to information of other areas in the processing of a specific area. I'm just there. Therefore, in the present embodiment, special access restriction means such as permission setting and file lock mechanism are not required for the first area table 3221A and the like.
  • FIG. 3 is a diagram illustrating an example of the area determination table 3211.
  • the area determination table 3211 stores the correspondence between the conditions regarding the position of the measurement target and the area number.
  • the condition regarding the position is expressed by a conditional expression, for example.
  • the conditional expression is described in a polar coordinate system based on the vehicle C. That is, the condition of the distance R from the reference point provided in the vehicle C and the angle ⁇ of the measurement object with the right direction on the right side as the front direction of the vehicle C being zero degrees is described.
  • the region numbers shown on the right side of FIG. 3 are the region numbers Z1 to Z3 shown in FIG. That is, the area determination table 3211 expresses the areas of the first area Z1, the second area Z2, and the third area Z3 shown in FIG.
  • the position determination unit 311 refers to the area determination table 3211 and determines, for example, as follows. For example, when a position of a measurement target is represented in a polar coordinate format, the distance R from the reference point is in the range of a predetermined threshold value R1a to threshold value R1A, and the angle ⁇ from the reference direction is in the range of threshold value ⁇ 1a to threshold value ⁇ 1A. If it is, it is determined that the measurement object belongs to the first region Z1.
  • FIG. 4 is a diagram illustrating an example of the pre-processing table 3212.
  • the pre-processing table 3212 stores information acquired by the input / output unit 33 from the sensor group 1 and information generated by the position determination unit 311.
  • the pre-processing table 3212 stores the state quantity of the measurement target before the fusion unit 312 performs processing.
  • the pre-processing table 3212 includes a plurality of records, and each record has fields of ID, acquisition sensor, position, speed, and area.
  • the ID field stores a convenient identifier for identifying the measurement object. This identifier is, for example, a combination of “B” indicating before processing and a serial number indicating the acquired order.
  • the name of the sensor from which the input / output unit 33 has acquired the state quantity is stored in the acquisition sensor field. In the position and speed fields, the state quantity acquired by the input / output unit 33 is stored. The name of the area determined by the position determination unit 311 is stored in the speed field. That is, out of the fields of the pre-processing table 3212, the fields other than the area field are written by the input / output unit 33, and only the area field is written by the position determination unit 311.
  • FIG. 5 is a diagram illustrating an example of the post-processing table 3213.
  • the post-processing table 3213 stores the fused state quantities of the measurement target calculated by the first fusion unit 312A, the second fusion unit 312B, and the third fusion unit 312C.
  • the post-processing table 3213 includes a plurality of records, and each record has fields of a new ID, an original ID, a position, and a speed.
  • the new ID field stores a convenient identifier for identifying the fused measurement object. This identifier is, for example, a combination of “A” indicating after processing and a serial number indicating the calculated order.
  • the ID of the measurement object used to create the merged measurement object that is, the value of the ID of the pre-processing table 3212 is stored.
  • the position and velocity fields the position and velocity of the fused measurement object are stored. Note that the new ID and original ID fields are provided for convenience only, and the post-processing table 3213 may not have these fields.
  • FIG. 6 is a diagram illustrating an example of the first area table 3221A.
  • the first area table 3221A mainly stores the state quantities of the measurement target existing in the first area Z1 acquired by the sensor group 1.
  • the first area table 3221A is composed of a plurality of records, and each record has fields of ID, acquisition sensor, position, speed, and matching. Information similar to the pre-processing table 3212 is stored in the ID, acquisition sensor, position, and speed fields.
  • the matching field stores an internal variable used by the first fusion unit 312A in a process described later. The initial value of the matching field is “not yet”.
  • the first area table 3221A is created when the first fusion unit 312A extracts a record whose area is “Z1” from the pre-processing table 3212.
  • the field of the region is deleted, but the region field may be left as it is.
  • the configuration of the first region table 3221A has been described above, but the configuration of the second region table 3221B and the third region table 3221C is the same as that of the first region table 3221A.
  • the second region table 3221B is created by the second fusion unit 312B, and mainly stores the state quantities of the measurement target existing in the second region Z2.
  • the third area table 3221C is created by the third fusion unit 312C, and stores the state quantities of the measurement target mainly existing in the third area Z3.
  • FIG. 7 is a flowchart showing processing executed by the processing unit 31.
  • the processing unit 31 executes the process shown in FIG. 7 every predetermined processing cycle, for example, every 100 ms.
  • the input / output unit 33 acquires a state quantity to be measured from the sensor group 1, and creates a pre-processing table 3212 (S101).
  • S101 the state quantity to be measured from the sensor group 1
  • S102 the processing target
  • the position determination unit 311 of the processing unit 31 determines a region for each of the state quantities acquired in S101 as a processing target (S102). That is, the position determination unit 311 refers to the position field of the pre-processing table 3212 and the area determination table 3211 to determine the area of each record, and stores the determined area name in the area field of each record.
  • the first fusion unit 312A performs the fusion process on only the state quantities belonging to the first region Z1 among the state quantities acquired in S101 (S103).
  • the second fusion unit 312B performs the fusion process on only the state quantity belonging to the second region Z2 among the state quantities acquired in S101 (S104).
  • the 3rd fusion part 312C performs fusion processing for only the state quantity which belongs to the 3rd field Z3 among the state quantities acquired in S101 (S105).
  • the first fusion unit 312A, the second fusion unit 312B, and the third fusion unit 312C write the processing results in the post-processing table 3213.
  • S103 to S105 are executed in order, but the order may be changed or executed in parallel.
  • the vehicle control processing unit 313 determines a control process for the vehicle C with reference to the post-processing table 3213 and outputs an operation command to the actuator group 4. Note that the vehicle control processing unit 313 may delete the information stored in the first area table 3221A, the second area table 3221B, and the third area table 3221C before the execution of S106 or after the execution of S106.
  • FIG. 8 is a flowchart showing the details of the fusion process executed by the first fusion unit 312A, that is, S103 of FIG.
  • the processing unit 31 refers to the pre-processing table 3212 and extracts the measurement target belonging to the first region Z1 to create the first region table 3221A (S210).
  • the matching columns for all the measurement objects in the first area table 3221A are “not yet”.
  • the processing unit 31 sets the measurement target having the smallest ID among the measurement targets described in the first area table 3221A created in S210 as the processing target (S211).
  • the processing unit 31 has a matching field “not yet”, the measurement target of the processing target is different from the acquisition sensor, and the position difference from the processing target is predetermined.
  • a measurement object within the value is extracted (S212).
  • the processing unit 31 extracts a measurement target whose speed difference from the measurement target to be processed is within a predetermined value among the measurement targets extracted in S212 (S213).
  • the processing unit 31 determines whether or not the measurement target extracted in S213 exists (S214). When the processing unit 31 determines that the measurement target extracted in S213 exists, that is, for the measurement target that is the processing target, there is another measurement target that satisfies the conditions of S212 and S213, these measurement targets , The process proceeds to S215, and if it is determined that they do not exist, the process proceeds to S218. In S215, the processing unit 31 fuses the processing target and the position and speed of the measurement target extracted in S213. Fusion is, for example, a simple average.
  • the processing unit 31 writes the calculation result of S215 in the post-processing table 3213, and rewrites the measurement target that is the processing target of the first region table 23221A and the matching column of the measurement target extracted in S213 to “completed”. (S216).
  • the processing unit 31 determines whether or not there is a measurement target described in the region table 3221A, which is not yet a processing target, and whose matching column is “not yet” ( S217). When the processing unit 31 makes an affirmative determination in S217, the processing unit 31 determines any measurement target that is not yet a processing target and whose matching field is “not yet” as a new processing target (S218), and returns to S212. . If the processing unit 31 makes a negative determination in step S217, the processing unit 31 ends the processing illustrated in FIG.
  • the fusion process executed by the first fusion unit 312A has been described, but the fusion process executed by the second fusion unit 312B and the third fusion unit 312C is the same, and the description thereof will be omitted.
  • the second fusion unit 312B is different in that only the measurement target belonging to the second region Z2 is a processing target, and the third fusion unit 312C is only the measurement target belonging to the third region Z3.
  • a storage unit that stores an input / output unit 33 that obtains a state quantity including a position of a measurement target using outputs of a plurality of sensors included in the sensor group 1 and an area determination table 3211 that is a classification condition regarding the position. 32, a position determination unit 311 that classifies the measurement target using the classification condition, and a measurement target that is classified in the same manner by the position determination unit 311 and uses a state quantity to indicate the coincidence of a plurality of measurement targets measured by different sensors.
  • a fusion unit 312 that fuses the positions of a plurality of measurement objects that are determined with reference and determined to match.
  • the measurement object is an object that can be measured by each of the plurality of sensors.
  • the fusion unit 312 determines the coincidence of the measurement objects with respect to the measurement objects classified in the same manner by the position determination unit 311. Therefore, the target for determining the coincidence with the measurement target with the fusion unit 312 is limited by the classification by the position determination unit 311, so that the processing load on the fusion unit 312 can be reduced. Moreover, the upper limit of the measuring object which can be processed by the electronic control unit 3 can be increased.
  • the case where the classification by the position determination unit 311 is not performed is referred to as a “comparative example”, and the effect of the electronic control device 3 including the position determination unit 311 will be described.
  • the comparative example it is determined whether a certain measurement object measured by the left camera LC matches a total of 30 measurement objects measured by the other three sensors. For this reason, in the simple calculation, it is determined whether each of the 40 measurement objects matches the 30 measurement objects. Therefore, in the comparative example, it is necessary to examine 1200 combinations.
  • the classification by the position determination unit 311 is performed, the combination of measurement objects is examined in each of the first region Z1 to the third region Z3, so the total number of combinations decreases.
  • the processing of the processing unit 31 is performed every predetermined processing cycle, there is an upper limit on the number of combinations that can be examined. Even if the total of measurement objects measured by the respective sensors is the same, the number of combinations studied by the electronic control unit 3 is smaller than that of the comparative example. In other words, in the comparative example and the electronic control device 3, when the number of combinations that can be examined is the same, the electronic control device 3 has a higher upper limit of measurement objects that can be processed.
  • the types and number of sensors constituting the sensor group 1 in the first embodiment, the data acquisition area of each sensor, and the defined areas are examples, and may be different from those in the first embodiment.
  • the sensor group 1 may include at least two sensors.
  • the data acquisition area of each sensor only needs to overlap at least one place.
  • the definition of the area may be determined based on the data acquisition area of each sensor, in particular, the overlap of the data acquisition areas with other sensors.
  • the area determination table 3211 may be expressed in a format other than the table format, and the position condition may be described by a mathematical expression. Further, in the area determination table 3211, the position may be expressed by coordinates in an orthogonal coordinate system.
  • Each sensor included in the sensor group 1 may output the output of the sensor to the electronic control device 3 as it is.
  • the electronic control unit 3 further includes a state quantity calculation unit that calculates the state quantity of the measurement target using each sensor.
  • the state quantity calculation unit may be realized by the processing unit 31 or may be realized by a hardware circuit.
  • the electronic control device 3 may be connected to an input device such as a mouse or a keyboard, and an operator input input to the input device via the input / output unit 33 may be used to rewrite information stored in the storage unit 32.
  • the electronic control unit 3 may omit the fusion process.
  • a parallax image is created using images output from the left camera LC and the right camera RC, and the parallax image is input to the electronic control device 3.
  • the parallax image may be created by either the left camera LC or the right camera RC, or by another device.
  • the processing amount can be reduced and the processing delay can be reduced.
  • the processing capacity required for the electronic control unit 3 is reduced, the manufacturing cost of the electronic control unit 3 can be reduced.
  • FIGS. A second embodiment of the electronic control apparatus according to the present invention will be described with reference to FIGS.
  • the same components as those in the first embodiment are denoted by the same reference numerals, and different points will be mainly described. Points that are not particularly described are the same as those in the first embodiment.
  • the present embodiment is different from the first embodiment mainly in that a plurality of patterns are described in the area determination table and the pattern used due to a decrease in sensor performance is changed. Moreover, in this Embodiment, a sensor is linked
  • FIG. 9 is a diagram illustrating a configuration of the vehicle C in the second embodiment.
  • the vehicle C includes all the configurations in the first embodiment, and further includes an illuminance sensor 21 that measures ambient brightness and a wiper sensor 22 that monitors the operation of the wiper of the vehicle C.
  • the illuminance sensor 21 and the wiper sensor 22 are also collectively referred to as an environmental monitor 2.
  • the electronic control device 3 acquires the measured value of the environment monitor 2 using the input / output unit 33.
  • the common storage unit 321 further stores a pattern determination table 3214 and sensor area association information 3217, and stores an area determination table 3211A instead of the area determination table 3211.
  • the processing unit 31 further includes an area changing unit 314 as its function.
  • the region changing unit 314 estimates the performance degradation of one or more sensors based on the state quantity of the measurement target acquired from the sensor group 1 and the information on the surrounding environment acquired from the environment monitor 2, and sets a plurality of predetermined patterns. Which of the following is determined.
  • This pattern is a pattern that defines a region.
  • the decrease in performance includes a decrease in the amount of information and information quality obtained, and a decrease in sensitivity.
  • the region changing unit 314 acquires performance estimation information for estimating the performance degradation of the sensor group 1 from the sensor group 1 and the environment monitor 2.
  • the operation of the area changing unit 314 is conceptualized as follows.
  • the area changing unit 314 identifies a sensor whose performance has deteriorated using the performance estimation information acquired by the input / output unit 33, and changes the coordinate condition of the area determination table 3211A so that the area associated with the sensor becomes narrower. To do.
  • the coordinate condition is also referred to as “position condition”. Therefore, in the present embodiment, first, the area changing unit 314 determines a pattern, and then the position determining unit 311 refers to the area determining table 3211A. That is, the position determination unit 311 determines each measurement target region based on the coordinate conditions described in the region determination table 3211A and corresponding to the pattern determined by the region change unit 314.
  • the second region Z2 instead of the second region Z2 in the first embodiment, six regions of a second A region Z2A to a second F region Z2F are defined, and a total of eight regions are defined.
  • the second fusion part 312B may process the six areas from the second A area Z2A to the second F area Z2F. There may be an independent fusion part for processing the region. In that case, the processing unit 31 includes a total of eight fusion units.
  • the position determination unit 311 refers to the pattern determination table 3214 in order to determine which one should be used.
  • the sensor area association information 3217 indicates the association of sensors for each area, and at least two sensors are associated with each area.
  • the fusion processing unit 312 refers to the sensor region association information 3217 and sets only the measurement target of the sensor associated with each region as the processing target. Details will be described later.
  • FIG. 10 is a diagram illustrating an example of the pattern determination table 3214.
  • the pattern determination table 3214 describes combinations of conditions and area patterns. In the condition field, conditions relating to the performance of the sensor are described, and in the area pattern field, the name of the corresponding area pattern is described.
  • the first record in FIG. 10 describes that the area pattern is “pattern B” when the illuminance E acquired from the illuminance sensor 21 is smaller than a predetermined threshold value Ea.
  • the next record describes that the area pattern is “pattern C” when the wiper sensor 22 determines that the wiper switch is ON.
  • the next record describes that the area pattern is “pattern D” when the velocity of the measurement target output by the left camera LC is discontinuous.
  • the continuity of the velocity of the measurement target output from the left camera LC can be evaluated as follows, for example. For a measurement object output by the left camera LC, t0 is the last measured time, R (t0) is the last measured position, V (t0) is the last measured speed, t1 is the current measured time, and the current measured position is Let R (t1) and the speed measured this time be V (t1). At this time, it is determined that the speed is discontinuous when the following equation (1) holds for a predetermined number of times N or more continuously for all measurement objects of the left camera LC.
  • the next record describes that when it is determined that the left camera LC is out of order, the area pattern is set to “pattern D” as in the previous record.
  • the last record describes that the area pattern is “pattern A” when none of the cases is applicable, that is, when there is no particular problem in the sensor group 1.
  • the region pattern in the first embodiment corresponds to “pattern A”.
  • a large number of patterns are described. However, the number of patterns is not limited, and the number of patterns may be two or more.
  • FIG. 11 is a diagram illustrating an example of the area determination table 3211A according to the second embodiment.
  • a plurality of patterns for the position conditions are recorded.
  • the area determination table 3211A includes the coordinate conditions of all patterns described in the pattern determination table 3214.
  • FIG. 12 is a diagram illustrating an example of the sensor region association information 3217.
  • the left camera LC and the left radar LR are associated with the first area Z1
  • the left camera LC, the right camera RC, the left radar LR, and the right radar RR are associated with the second A area Z2A to the second F area Z2F. It is shown that any two sensors selected from these four are associated with each other, and the right camera RC and the right radar RR are associated with the third region Z3.
  • the pattern D which is not shown in FIG. 11, is larger in size of the first area Z1, the second A area Z2A, the second B area Z2B, and the second C area Z2C associated with the left camera LC than the pattern A.
  • the area other than the above that is not associated with the left camera LC becomes wider.
  • the first region Z1 is narrower than the pattern A, the areas of the second A region Z2A to the second F region Z2F are not changed, and the area of the third region Z3 is increased.
  • FIG. 13 is a flowchart showing processing executed by the processing unit 31 in the second embodiment.
  • the difference from the process shown in FIG. 7 in the first embodiment is that S101A and S101B are added between S101 and S102, and that S102 is changed to S102A.
  • S101A and S101B are added between S101 and S102, and that S102 is changed to S102A.
  • the input / output unit 33 receives the output of the environment monitor 2.
  • the area changing unit 314 determines one of the area patterns by referring to the information acquired in S101 and S101A and the pattern determination table 3214.
  • the position determination unit 311 determines a region to which the processing target acquired in S101 belongs, using the region pattern determined in S101B and the position condition specified by the region determination table 3211A.
  • the operation of the fusion unit 312 in the second embodiment is different from that of the first embodiment in that the processing target is determined in consideration of the sensor region association information 3217 as well.
  • the first fusion unit 312A processes the measurement target whose processing target position is the first region Z1 and the sensor that acquired the processing target is a sensor associated with the first region in the sensor region association information 3217. set to target. If the operation of the first fusion unit 312A in the second embodiment is represented by a flowchart, S210 in FIG. 8 in the first embodiment may be changed as follows.
  • the first fusion unit 312A refers to the pre-processing table 3212 and the sensor region association information 3217, and extracts a measurement target that belongs to the first region Z1 and whose acquisition sensor is the left camera LC or the left laser LR.
  • a first area table 3221A is created.
  • the processing may be performed in consideration of the information on the measurement target, or it is treated as not existing. However, in the present embodiment, the measurement target of the first region Z1 acquired by the right camera RC is ignored.
  • Each area classified by the area determination table 3211A is associated with at least two sensors among the plurality of sensors.
  • the fusion unit 312 is a measurement target that is classified into the same region by the position determination unit 311, and determines a match between a plurality of measurement targets measured by different sensors associated with the same region with reference to the state quantity. The positions of a plurality of measurement objects determined to match are fused.
  • the electronic control unit 3 narrows the area associated with the input / output unit 33 that acquires performance estimation information for estimating the degradation of the performance of each of the plurality of sensors and the sensor that has degraded performance using the performance estimation information.
  • a region changing unit 314 that changes a region to be referred to in the region determination table 3211A is provided.
  • the pattern D is selected as the area pattern, so the first area Z1 associated with the left camera LC is narrowed and the left camera LC is associated.
  • the third region Z3 that is not present is widened. Therefore, the area using the left camera LC whose performance has been reduced is reduced, and the fusion processing using the detection result of the sensor having relatively high sensor performance as compared to before the area change is easily selected. Therefore, the electronic control unit 3 can select the fusion processing using the detection result of the sensor having relatively high sensor performance without increasing the total processing amount. Therefore, even if the sensor performance changes, high safety can be ensured with a small amount of processing.
  • the pattern C is selected, and the area associated with at least one of the left camera LC and the right camera RC is narrowed.
  • the following three configurations are possible.
  • Second, only the second C region Z2C associated with the left camera LC and the right camera RC is set as an empty set, and the other regions are the same as the pattern A.
  • the wiper switch If the wiper switch is ON, it is considered rainy.
  • the camera is easily affected by rainfall, and the millimeter wave radar is not easily affected by rainfall. Therefore, in order to utilize the left radar LR and the right radar RR that are not easily affected by rainfall, the three configurations described above can be employed.
  • the storage unit 32 stores a pattern determination table 3214 that defines the correspondence between the degradation of the performance of a plurality of sensors included in the sensor group 1 and the classification conditions.
  • the region changing unit 314 determines which pattern included in the pattern determination table 3214 is to be used using the performance estimation information. Therefore, the area can be changed easily.
  • the environmental monitor 2 may be replaced with the sensor group 1. That is, if the conditions described in the pattern determination table 3214 can be determined using the output of the sensor group 1, the electronic control device 3 may not include the environmental monitor 2. Further, the electronic control unit 3 may use the output of the processing unit 31 for the determination of the pattern determination table 3214 when the CPU or the like constituting the processing unit 31 has a clock or calendar function.
  • the processing unit 31 further includes a Kalman filter for estimating an error included in the observation amount of each sensor included in the sensor group 1, and the region changing unit 314 determines each region based on the magnitude of the error estimated by the Kalman filter. You may decide. Also in this case, based on the same idea as in the second embodiment, a region associated with a sensor having a large estimated error is narrowed, and a region associated with a sensor having a small estimated error is widened. That is, in this modification, the area size can be flexibly changed according to the magnitude of the error.
  • the senor and the region are associated by the sensor region association information 3217.
  • the sensor may be associated with each fusion unit 312.
  • the fusion part 312 is composed of, for example, first to eighth eight fusion parts, and each is associated with a different region.
  • FIGS. A third embodiment of the electronic control device according to the present invention will be described with reference to FIGS.
  • the same components as those in the first embodiment are denoted by the same reference numerals, and different points will be mainly described. Points that are not particularly described are the same as those in the first embodiment.
  • This embodiment is different from the first embodiment in that the future position of the fused measurement object is mainly estimated and the estimated future position is also targeted in the fusion processing.
  • FIG. 14 is a diagram illustrating a configuration of a vehicle C according to the third embodiment.
  • the electronic control device 3 further includes a future position estimation unit 315 in the processing unit 31 in addition to the configuration of the first embodiment.
  • the storage unit 32 further stores a future area determination table 3215 and a future table 3216.
  • the future position estimation unit 315 estimates a future state quantity based on the fused state quantity described in the post-processing table 3213 and writes it in the future table 3216.
  • the position included in the state quantity estimated by the future position estimation unit 315 is referred to as “future position”.
  • the future position estimation unit 315 calculates a position difference using the time interval for each processing cycle and the speed of the fused state quantity, and estimates the future position from the position of the fused state quantity and the calculated difference.
  • the future position estimation unit 315 can set the future speed as the speed of the combined state quantity, for example. Further, the future position estimation unit 315 determines which area described in the future area determination table 3215 corresponds to the estimated position, and stores the determination result in the future area determination table 3215.
  • the unit 315 may calculate the future position R (t2) as shown in Equation 2 below.
  • R (t2) R (t1) + V (t1) (t2-t1) (2)
  • FIG. 15 is a diagram illustrating an example of the future area determination table 3215.
  • the future area determination table 3215 stores the correspondence between the future position of the fused measurement object, that is, the condition related to the position estimated by the future position estimation unit 315 and the area number.
  • the configuration of the future area determination table 3215 is the same as that of the area determination table 3211.
  • the area number included in the future area determination table 3215 is the same as that of the area determination table 3211, and the position condition may be the same as or different from the area determination table 3211.
  • FIG. 16 is a diagram showing an example of the future table 3216.
  • the future table 3216 stores the future state quantity of the fused measurement object and the classification of the future position of the fused measurement object.
  • the future table 3216 is written by the future position estimation unit 315.
  • FIG. 17 is a flowchart showing the processing of the processing unit 31 in the third embodiment.
  • the difference from the process shown in FIG. 7 in the first embodiment is that S102B is added after S102, and S107 and S108 are added after S106.
  • S102B is added after S102
  • S107 and S108 are added after S106.
  • the future position estimation unit 315 transfers the future table 3216, that is, reads the entire future table 3216, and records each record in the corresponding area table in accordance with the value of the area number field. For example, in the example shown in FIG. 16, since the first two records have the future area “Z2”, the information of the record is recorded in the second area table 3221B. However, the value of the field of the acquired sensor written in the area table in S102B is a value different from each sensor, for example, “fusion”. When the future position estimation unit 315 reads all the future tables 3216, the future position estimation unit 315 deletes all the information stored in the future tables 3216.
  • the future position estimation unit 315 calculates a state quantity in the next processing cycle including the future position for all the fusion processing objects described in the post-processing table 3213, and writes the state quantities in the future table 3216.
  • the future position estimation unit 315 refers to the future table 3216 and the future area determination table 3215, classifies the future position, and fills the area number field of the future table 3216. More specifically, the future position estimation unit 315 determines which area the future position corresponds to in the future area determination table 3215, and describes the determination result in the area number field of the future table 3216. The above is the description of FIG.
  • the fusion processing in each region shown in S103 to S105 is the same as that in the first embodiment, but changes substantially as follows due to the influence of S102B.
  • the first fusion unit 312A performs extraction including the future position in S212 of FIG. 8, and also sets the future position that satisfies the conditions of S212 and S213 in S214.
  • the processing unit 31 may use a simple average as in the first embodiment, or may use a weighted average obtained by changing the weights at the predicted position and other positions.
  • the storage unit 32 includes a future area determination table 3215 that is a classification condition for the future position that is the future position of the measurement target, and a future table that includes the future position where the future area is classified by the future area determination table 3215. 3216 is stored.
  • the processing unit 31 includes a future position estimation unit 315 that estimates the future position of the measurement target and classifies the future position using the future region determination table 3215.
  • the fusion unit 312 includes, in the determination target, the same measurement target classified by the future position estimation unit 315, and fuses the positions and future positions of the plurality of measurement targets determined to match.
  • the electronic control unit 3 determines the area of the calculated future position, and the combination is limited to the same area. Therefore, it is possible to increase the accuracy of the state quantities of the measurement objects that are fused while suppressing an increase in processing load.
  • the future position estimation unit 315 estimates the future position of the measurement target fused with the fusion unit 312. Therefore, the state quantity of the measurement target in the next processing cycle can be calculated with high accuracy using the future position of the state quantity calculated using a plurality of sensor outputs.
  • the future position estimation unit 315 may write the estimated future position in any of the first area table 3221A, the second area table 3221B, and the third area table 3221C instead of writing it in the future table 3216. That is, the future position estimation unit 315 writes the future position in one of the first area table 3221A, the second area table 3221B, and the third area table 3221C according to the area into which the calculated future position is classified. In this case, S102B in FIG. 17 can be deleted.
  • the state quantity estimation target is only the fused measurement target.
  • the future position estimation unit 315 may use only the measurement target that is not fused as the state quantity estimation target, or may set both the fused measurement target and the non-fused measurement target as the state quantity estimation target.
  • the future position estimation unit 315 may perform the following processing instead of writing the estimated state quantity in the future table 3216. That is, the future position estimation unit 315 refers to the future area determination table 3215, classifies the future positions of the measurement objects that are not fused, and includes the first area table 3221A, the second area table 3221B, and You may write in either of the 3rd area
  • the process in this case can also be said to be a process of deleting the measurement object determined to move to a different area from the movement source area table and moving it to the movement destination area table.
  • the position determination unit 311 and the future position estimation unit 315 store the classification results determined with reference to the region determination table 3211A and the future table 3216 in the associated regions of the dedicated storage unit 322, respectively. Therefore, it is not necessary to transfer state quantities from the future table 3216 to the dedicated storage unit 322, and the processing can be simplified.
  • the program of the electronic control device 3 is stored in a ROM (not shown), but the program may be stored in the storage unit 32.
  • the program may be read from another device via a medium that can be used by the input / output unit 33 and the electronic control device 3.
  • the medium refers to, for example, a storage medium that can be attached to and detached from the input / output interface, or a communication medium, that is, a wired, wireless, or optical network, or a carrier wave or digital signal that propagates through the network.
  • part or all of the functions realized by the program may be realized by a hardware circuit or FPGA.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

電子制御装置は、複数のセンサの出力を用いて測定対象の位置を含む状態量を取得する、または複数のセンサの出力を用いて測定対象の状態量を算出するセンサ情報取得部と、位置に関する分類の条件である位置判定情報を記憶する記憶部と、測定対象を位置判定情報を用いて分類する位置判定部と、位置判定部により同一に分類される測定対象であって、異なるセンサが測定した複数の測定対象の一致を状態量を参照して判断し、一致すると判断した複数の測定対象の位置を融合させるフュージョン部とを備え、測定対象とは、複数のセンサのそれぞれが測定可能な対象である。

Description

電子制御装置、演算方法
 本発明は、電子制御装置、および演算方法に関する。
 近年、自動車の自動走行の開発が盛んである。自動運転では、複数のセンサの測定結果を組み合わせて使うことが多い。特許文献1には、カメラ手段により自車より前方の状況を撮影して得た画像を、画像処理して先行車を認識し、この先行車を追尾しつつ走行するようエンジン出力を制御する自動車の走行制御装置において、レーザビームを水平面内でスキャンしつつ自車から前方に向けて出射すると共に反射してきたレーザビームを受信することにより、自車の前方に存在する物体の位置を検出するレーザレーダと、画像を画像処理して先行車を認識する際に、前記レーザレーダで検出した物体の位置に対応して画面内の処理エリアを設定し、この処理エリアの画像についてのみ画像処理して先行車を認識する画像処理手段とを有することを特徴とする自動車の走行制御装置の先行車検出機構が開示されている。
日本国特開平7-125567号公報
 特許文献1に記載されている発明では、測定対象が多数存在する場合に計算量が膨大になる。
 本発明の第1の態様による電子制御装置は、複数のセンサの出力を用いて測定対象の位置を含む状態量を取得する、または前記複数のセンサの出力を用いて前記測定対象の前記状態量を算出するセンサ情報取得部と、位置に関する分類の条件である位置判定情報を記憶する記憶部と、前記測定対象を前記位置判定情報を用いて分類する位置判定部と、前記位置判定部により同一に分類される前記測定対象であって、異なる前記センサが測定した複数の前記測定対象の一致を前記状態量を参照して判断し、一致すると判断した前記複数の測定対象の位置を融合させるフュージョン部とを備え、前記測定対象とは、前記複数のセンサのそれぞれが測定可能な対象である。
 本発明の第2の態様による演算方法は、複数のセンサの出力を用いて測定対象の位置を含む状態量を取得する、または前記複数のセンサの出力を用いて前記測定対象の前記状態量を算出するセンサ情報取得部、および位置に関する分類の条件である位置判定情報を記憶する記憶部を備える電子制御装置が実行する演算方法において、前記測定対象を前記位置判定情報を用いて分類を行うことと、前記分類により同一に分類される前記測定対象であって、異なる前記センサが測定した複数の前記測定対象の一致を前記状態量を参照して判断し、一致すると判断した前記複数の測定対象の位置について融合を行うこととを含み、前記測定対象とは、前記複数のセンサのそれぞれが測定可能な対象である。
 本発明によれば、計算量を減らすことができる。
車両Cの構成図 図2(a)はセンサ群1のデータ取得領域を示す図、図2(b)は定義する領域の可視図 領域判定テーブル3211の一例を示す図 処理前テーブル3212の一例を示す図 処理後テーブル3213の一例を示す図 第1領域テーブル3221Aの一例を示す図 処理部31が実行する処理を表すフローチャート 図7のS103の詳細を示すフローチャート 第2の実施の形態における車両Cの構成を示す図 パタン判定テーブル3214の一例を示す図 第2の実施の形態における領域判定テーブル3211Aの一例を示す図 センサ領域関連付け情報3217の一例を示す図 第2の実施の形態において処理部31の処理を表すフローチャート 第3の実施の形態における車両Cの構成を示す図 将来領域判定テーブル3215の一例を示す図 将来テーブル3216の一例を示す図 第3の実施の形態における処理部31の処理を表すフローチャート
―第1の実施の形態―
 以下、図1~図8を参照して、本発明に係る電子制御装置の第1の実施の形態を説明する。
(構成図)
 図1は車両Cの構成図である。車両Cは、センサ群1と、電子制御装置3と、アクチュエータ群4とを備える。電子制御装置3には、センサ群1およびアクチュエータ群4が接続される。
 センサ群1は2以上のセンサ、たとえば左カメラLC、右カメラRC、左レーダLR、および右レーダRRから構成される。左カメラLCは車両Cの左前方を撮影するカメラであり、右カメラRCは車両Cの右前方を撮影するカメラである。左レーダLRは車両Cの左前方の障害物を測定するレーダ、たとえばミリ波レーダであり、右レーダRRは車両Cの右前方の障害物を測定するレーダ、たとえばミリ波レーダである。
 センサ群1を構成するそれぞれのセンサは、それぞれのセンサが測定可能な対象である測定対象の情報を取得し、取得した情報から測定対象の位置および速度を算出する。そしてそれぞれのセンサは、位置および速度を状態量として電子制御装置3に出力する。ただし状態量には位置および速度以外の情報、たとえば角速度が含まれてもよい。たとえば左カメラLCおよび右カメラRCのそれぞれは、撮影して得られた画像を解析して、輝度や彩度の連続性、およびそれらの時系列変化などから測定対象の位置や速度などを算出する。たとえば左レーダLRおよび右レーダRRのそれぞれは、距離の連続性および時系列変化から測定対象の位置や速度などを算出する。それぞれのセンサは、測定対象の位置をそれぞれのセンサを基準として出力してもよいし、電子制御装置3を基準として出力してもよい。
 なお「測定対象」はセンサごとに異なるため、複数のセンサの測定可能範囲が重複している場合でも、あるセンサでのみ測定対象となる物体も存在する。また測定対象には、煙のように車両Cの移動の障害にならないものも含まれる。車両Cの移動の障害とならない煙のようなものであっても、測定可能なセンサで測定することにより周囲環境の把握に資するためである。
 図2(a)はセンサ群1のデータ取得領域を示す図であり、図2(b)は定義する領域の可視図である。ただし図2(a)ではそれぞれのセンサのデータ取得領域にそのセンサの符号を付している。図2(a)に示すように、図示左側では左カメラLCと左レーダLRのデータ取得領域が重複し、図示中央付近では2個~4個のセンサのデータ取得領域が重複し、図示右側では右カメラRCと右レーダRRのデータ取得領域が重複する。
 本実施の形態では、図2(b)に示すようにZ1~Z3の3つの領域を定義する。第1領域Z1は、左カメラLCと左レーダLRのデータ取得領域が重複する領域である。第2領域Z2は、2~4のセンサのデータ取得領域が重複する領域である。第3領域Z3は、右カメラRCと右レーダRRのデータ取得領域が重複する領域である。ただしそれぞれのセンサは、図2(a)に示すデータ取得領域よりも広い領域のデータを取得可能であってもよい。この場合に、図2(a)に示す範囲外のセンサが取得した情報を考慮してもよいし無視してもよい。たとえば右カメラRCが取得した測定対象の位置が第1領域Z1である場合に、その測定対象の情報を考慮して処理を行ってもよいし存在しないものと扱ってもよい。図1に戻って説明を続ける。
 アクチュエータ群4は、車両の向きや速度を制御する複数のアクチュエータであり、たとえばステアリングホイール、ブレーキ、およびアクセルを含む。アクチュエータ群4は電子制御装置3の動作指令により動作する。ただしアクチュエータ群4は、ユーザの操作により動作してもよい。
 電子制御装置3は、処理部31と、記憶部32と、入出力部33とを備える電子制御装置(Electronic Control Unit)である。処理部31は、中央電子制御装置であるCPU、読み出し専用の記憶装置であるROM、および読み書き可能な記憶装置であるRAMを備え、CPUがROMに格納されるプログラムをRAMに展開して実行することで次の機能を実現する。処理部31はその機能として、位置判定部311と、フュージョン部312と、車両制御処理部313とを備える。これらの機能は後述する。入出力部33は、センサ群1およびアクチュエータ群4と通信を行う通信インタフェースである。入出力部33は、CAN(登録商標)やIEEE802.3などの通信規格に対応する。
 フュージョン部312は、第1領域Z1を処理対象とする第1フュージョン部312Aと、第2領域Z2を処理対象とする第2フュージョン部312Bと、第3領域Z3を処理対象とする第3フュージョン部312Cとを備える。フュージョン部312は、異なるセンサから状態量を取得した測定対象について一致の判断を行い、一致すると判断した複数の測定対象の状態量を融合する。以下では、状態量が融合された測定対象を「融合された測定対象」と呼ぶ。また、フュージョン部312毎に、センサ群1の中で処理対象外とするセンサを事前設定してもよい。たとえば第1フュージョン部312Aは、左カメラLCおよび左レーダLRの測定対象のみを処理対象とし、右カメラRCおよび右レーダRRを処理対象外とするセンサとして事前設定してもよい。
 記憶部32は、不揮発性の記憶装置、たとえばフラッシュメモリである。記憶部32は、処理部31の全体から参照可能な共通記憶部321と、それぞれのフュージョン部312のみが読み書き可能な専用記憶部322とに分かれている。共通記憶部321と専用記憶部322は、同一のハードウエアにより実現されてもよいし、別々のハードウエアにより実現されてもよい。共通記憶部321には、領域判定テーブル3211と、処理前テーブル3212と、処理後テーブル3213とが格納される。
 専用記憶部322には、第1フュージョン部312Aのみが読み書きする第1領域テーブル3221Aと、第2フュージョン部312Bのみが読み書きする第2領域テーブル3221Bと、第3フュージョン部312Cのみが読み書きする第3領域テーブル3221Cとが格納される。なお本実施の形態では、特定の領域の処理において他の領域の情報を参照する必要がないという意味で、たとえば”第1領域テーブル3221Aは第1フュージョン部312Aのみが読み書きする”と説明しているにすぎない。そのため本実施の形態において、第1領域テーブル3221Aなどに特段のアクセス制限手段、たとえばパーミッションの設定やファイルロックの機構などは不要である。
(領域判定テーブル3211)
 図3は、領域判定テーブル3211の一例を示す図である。領域判定テーブル3211には、測定対象の位置に関する条件と領域番号の対応が格納される。位置に関する条件は、たとえば条件式により表され、図3に示す例では条件式を車両Cを基準とする極座標系にて記載している。すなわち、車両Cに設けられた基準点からの距離Rと、車両Cの正面方向をゼロ度として右側を正とする測定対象の角度θの条件が記載される。図3の右側に示す領域番号は、図2(b)に示した領域番号Z1~Z3である。すなわち領域判定テーブル3211は、図2(b)に示した第1領域Z1、第2領域Z2、および第3領域Z3の領域を条件式で表現したものである。
 位置判定部311は、領域判定テーブル3211を参照してたとえば以下のように判断する。たとえば、ある測定対象の位置を極座標形式で表した場合に、基準点からの距離Rが所定の閾値R1a~閾値R1Aの範囲にあり、かつ基準方向からの角度θが閾値θ1a~閾値θ1Aの範囲にある場合は、その測定対象は第1領域Z1に属すると判断する。
(処理前テーブル3212)
 図4は、処理前テーブル3212の一例を示す図である。処理前テーブル3212には、入出力部33がセンサ群1から取得した情報、および位置判定部311が作成した情報が格納される。処理前テーブル3212には、フュージョン部312が処理を行う前の測定対象の状態量が格納される。処理前テーブル3212は複数のレコードから構成され、各レコードは、ID、取得センサ、位置、速度、および領域のフィールドを有する。IDのフィールドには、測定対象を識別するための便宜的な識別子が格納される。この識別子はたとえば処理前であることを示す「B」と、取得した順番を示す連番の数字との組み合わせである。
 取得センサのフィールドには、入出力部33が状態量を取得したセンサの名称が格納される。位置および速度のフィールドには、入出力部33が取得した状態量が格納される。速度のフィールドには、位置判定部311が判断した領域の名称が格納される。すなわち処理前テーブル3212のフィールドのうち、領域のフィールド以外は入出力部33により書き込まれ、領域のフィールドのみ位置判定部311により書き込まれる。
(処理後テーブル3213)
 図5は、処理後テーブル3213の一例を示す図である。処理後テーブル3213には、第1フュージョン部312A、第2フュージョン部312B、および第3フュージョン部312Cが算出した融合された測定対象の状態量が格納される。処理後テーブル3213は複数のレコードから構成され、各レコードは、新ID、元ID、位置、および速度のフィールドを有する。新IDのフィールドには、融合された測定対象を識別するための便宜的な識別子が格納される。この識別子はたとえば処理後であることを示す「A」と、算出した順番を示す連番の数字との組み合わせである。
 元IDのフィールドには、融合された測定対象の作成に用いた測定対象のID、すなわち処理前テーブル3212のIDの値が格納される。位置および速度のフィールドには、融合された測定対象の位置および速度が格納される。なお新IDおよび元IDのフィールドは便宜的に設けているにすぎず、処理後テーブル3213がこれらのフィールドを有さなくてもよい。
(第1領域テーブル3221A)
 図6は、第1領域テーブル3221Aの一例を示す図である。第1領域テーブル3221Aには主に、センサ群1が取得した第1領域Z1に存在する測定対象の状態量が格納される。第1領域テーブル3221Aは複数のレコードから構成され、それぞれのレコードはID、取得センサ、位置、速度、およびマッチングのフィールドを有する。ID、取得センサ、位置、および速度のフィールドには、処理前テーブル3212と同様の情報が格納される。マッチングのフィールドには、第1フュージョン部312Aが後述する処理で用いる内部変数が格納される。マッチングのフィールドの初期値は「未」である。第1領域テーブル3221Aは、第1フュージョン部312Aが処理前テーブル3212から領域が「Z1」であるレコードを抜き出すことにより作成される。なお図6に示す例では領域のフィールドを削除しているが、領域のフィールドを残したままでもよい。
 以上、第1領域テーブル3221Aの構成を説明したが、第2領域テーブル3221Bおよび第3領域テーブル3221Cの構成も第1領域テーブル3221Aと同様である。ただし第2領域テーブル3221Bは、第2フュージョン部312Bにより作成され、主に第2領域Z2に存在する測定対象の状態量を格納する。また第3領域テーブル3221Cは、第3フュージョン部312Cにより作成され、主に第3領域Z3に存在する測定対象の状態量を格納する。
(処理部31の動作)
 図7は処理部31が実行する処理を表すフローチャートである。処理部31は、図7に示す処理を所定の処理周期ごとに、たとえば100msごとに実行する。処理部31はまず、入出力部33がセンサ群1から測定対象の状態量を取得し、処理前テーブル3212を作成する(S101)。なおS101の時点では、処理前テーブル3212の領域フィールドは空白である。次に処理部31の位置判定部311が、S101において取得した状態量のそれぞれを処理対象として領域を決定する(S102)。すなわち位置判定部311は、処理前テーブル3212の位置のフィールドと領域判定テーブル3211を参照して各レコードの領域を決定し、各レコードの領域フィールドに決定した領域の名称を格納する。
 次に第1フュージョン部312Aは、S101において取得した状態量のうち、第1領域Z1に属する状態量のみを処理対象としてフュージョン処理を行う(S103)。次に第2フュージョン部312Bは、S101において取得した状態量のうち、第2領域Z2に属する状態量のみを処理対象としてフュージョン処理を行う(S104)。次に第3フュージョン部312Cは、S101において取得した状態量のうち、第3領域Z3に属する状態量のみを処理対象としてフュージョン処理を行う(S105)。
 なおS103~S105の詳細は後述するが、第1フュージョン部312A、第2フュージョン部312B、および第3フュージョン部312Cは処理結果を処理後テーブル3213に書き込む。またここではS103~S105を順番に実行したが、順番を入れ替えてもよいし並列に実行してもよい。最後に車両制御処理部313は、処理後テーブル3213を参照して車両Cの制御処理を決定し、アクチュエータ群4に動作指令を出力する。なお車両制御処理部313は、S106の実行前またはS106の実行後に、第1領域テーブル3221A、第2領域テーブル3221B、および第3領域テーブル3221Cに格納された情報を削除してもよい。
(フュージョン処理)
 図8は第1フュージョン部312Aが実行するフュージョン処理、すなわち図7のS103の詳細を示すフローチャートである。はじめに処理部31は、処理前テーブル3212を参照し、第1領域Z1に属する測定対象を抽出して第1領域テーブル3221Aを作成する(S210)。なお前述のとおり、作成した時点では第1領域テーブル3221Aにおける全ての測定対象のマッチング欄は「未」である。
 次に処理部31は、S210において作成した第1領域テーブル3221Aに記載される測定対象のうち、IDが最も小さい測定対象を処理対象に設定する(S211)。次に処理部31は、第1領域テーブル3221Aに記載される測定対象から、マッチング欄が「未」であり、処理対象の測定対象と取得センサが異なり、かつ処理対象との位置の差が所定値以内である測定対象を抽出する(S212)。次に処理部31は、S212において抽出した測定対象のうち、処理対象の測定対象との速度の差が所定値以内である測定対象を抽出する(S213)。
 次に処理部31は、S213において抽出された測定対象が存在するか否かを判断する(S214)。処理部31は、S213において抽出された測定対象が存在する、すなわち処理対象である測定対象に対して、S212およびS213の条件を満たす他の測定対象が存在すると判断する場合は、これらの測定対象が一致すると判断してS215に進み、存在しないと判断する場合はS218に進む。S215では処理部31は、処理対象およびS213において抽出された測定対象の位置および速度を融合する。融合はたとえば、単純平均である。次に処理部31は、S215の計算結果を処理後テーブル3213に書き込むとともに、第1領域テーブル23221Aの処理対象である測定対象、およびS213において抽出された測定対象のマッチング欄を「済」に書き換える(S216)。
 次に処理部31は、領域テーブル3221Aに記載される測定対象であって、まだ処理対象となっておらず、かつマッチング欄が「未」である測定対象が存在するか否かを判断する(S217)。処理部31はS217を肯定判断する場合は、まだ処理対象となっておらず、かつマッチング欄が「未」である測定対象のいずれかを新たな処理対象として決定し(S218)、S212に戻る。処理部31は、S217を否定判断する場合は図8に示す処理を終了する。
 なお図8では第1フュージョン部312Aが実行するフュージョン処理を説明したが、第2フュージョン部312Bおよび第3フュージョン部312Cが実行するフュージョン処理も同様なので説明を省略する。ただし第2フュージョン部312Bは第2領域Z2に属する測定対象のみを処理対象とし、第3フュージョン部312Cは第3領域Z3に属する測定対象のみを処理対象とする点が異なる。
 上述した第1の実施の形態によれば、次の作用効果が得られる。
(1)センサ群1に含まれる複数のセンサの出力を用いて測定対象の位置を含む状態量を取得する入出力部33と、位置に関する分類の条件である領域判定テーブル3211を記憶する記憶部32と、測定対象を分類条件を用いて分類する位置判定部311と、位置判定部311により同一に分類される測定対象であって、異なるセンサが測定した複数の測定対象の一致を状態量を参照して判断し、一致すると判断した複数の測定対象の位置を融合させるフュージョン部312とを備える。測定対象とは、複数のセンサのそれぞれが測定可能な対象である。
 フュージョン部312は、位置判定部311により同一に分類された測定対象同士を対象として測定対象の一致を判断する。そのためフュージョン部312がある測定対象との一致を判断する対象が、位置判定部311による分類により限定されるので、フュージョン部312の処理負荷を軽減できる。また、電子制御装置3が処理可能な測定対象の上限を増加できる。
 ここでは、位置判定部311による分類を行わない場合を「比較例」と呼んで、位置判定部311を備える電子制御装置3の効果を説明する。たとえば、左カメラLC、右カメラRC、左レーダLR、および右レーダRRのそれぞれが10個、合計40個の測定対象を測定した場合を考える。このとき比較例では、左カメラLCが測定したある測定対象について、他の3つのセンサが測定した合計30個の測定対象との一致を判断することになる。そのため単純計算では、40個の測定対象のそれぞれについて30個の測定対象との一致を判断するので、比較例では1200の組み合わせについて検討が必要となる。これに対して位置判定部311による分類を行う場合は、第1領域Z1~第3領域Z3のそれぞれの領域で測定対象の組み合わせが検討されるので、組み合わせの総数が減少する。
 また処理部31の処理は所定の処理周期ごとに行われるので、検討が可能な組み合わせの数に上限がある。それぞれのセンサが測定した測定対象の合計が同一でも、比較例よりも電子制御装置3の方が検討する組み合わせの数が少ない。換言すると比較例と電子制御装置3では、検討可能な組み合わせの数が同一の場合に、電子制御装置3の方が処理可能な測定対象の上限が多い。
(変形例1)
 第1の実施の形態におけるセンサ群1を構成するセンサの種類や数、各センサのデータ取得領域、および定義した領域は例示であり、第1の実施の形態と異なっていてもよい。センサ群1には少なくとも2つのセンサが含まれればよい。各センサのデータ取得領域は、少なくとも1カ所で重複していればよい。領域の定義は、各センサのデータ取得領域、とくに他のセンサとのデータ取得領域の重複数に基づき決定されればよい。また領域判定テーブル3211は、表形式以外で表現されてもよいし、数式により位置の条件が記載されてもよい。さらに領域判定テーブル3211では位置を直交座標系の座標で表してもよい。
(変形例2)
 センサ群1に含まれるそれぞれのセンサは、センサの出力をそのまま電子制御装置3に出力してもよい。その場合は電子制御装置3は、それぞれのセンサを用いて測定対象の状態量を算出する状態量算出部をさらに備える。状態量算出部は、処理部31により実現されてもよいし、ハードウエア回路により実現されてもよい。
(変形例3)
 電子制御装置3はマウスやキーボードなどの入力装置と接続され、入出力部33を介して入力装置に入力されたオペレータの入力を記憶部32に格納された情報の書き換えに使用してもよい。
(変形例4)
 電子制御装置3の外部でフュージョン処理が行われ、その演算結果が電子制御装置3に入力される場合は、電子制御装置3はそのフュージョン処理を省略してもよい。たとえば左カメラLCと右カメラRCとが出力する画像を用いて視差画像が作成され、その視差画像が電子制御装置3に入力される。この場合に視差画像は左カメラLCおよび右カメラRCのいずれかが作成してもよいし、その他の装置が作成してもよい。
 この変形例4によれば、電子制御装置3におけるフュージョン処理を省略することで処理量を削減し、処理遅延を低減できる。また電子制御装置3に要求される処理能力が低下するので、電子制御装置3の製造コストを引き下げることができる。
―第2の実施の形態―
 図9~図12を参照して、本発明に係る電子制御装置の第2の実施の形態を説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。本実施の形態では、主に、領域判定テーブルに複数のパタンが記載されセンサの性能低下により使用されるパタンが変更される点で、第1の実施の形態と異なる。また本実施の形態では、それぞれの領域にセンサが関連付けられ、それぞれの領域は重複してもよい。
(構成)
 図9は、第2の実施の形態における車両Cの構成を示す図である。本実施の形態では車両Cは、第1の実施の形態における構成を全て備え、周囲の明るさを測定する照度センサ21と、車両Cのワイパーの動作を監視するワイパーセンサ22とをさらに備える。ただし以下では、照度センサ21とワイパーセンサ22とをあわせて、環境モニタ2とも呼ぶ。電子制御装置3は、環境モニタ2の測定値を入出力部33を用いて取得する。また本実施の形態では共通記憶部321に、パタン判定テーブル3214およびセンサ領域関連付け情報3217がさらに格納され、領域判定テーブル3211の代わりに領域判定テーブル3211Aが格納される。処理部31はその機能として、領域変更部314をさらに有する。
 領域変更部314は、センサ群1から取得した測定対象の状態量や環境モニタ2から取得する周辺環境の情報に基づいて1個以上のセンサの性能低下を推定し、あらかじめ定められた複数のパタンのいずれに該当するかを判定する。このパタンは領域を定義するパタンである。性能の低下とは、得られる情報量や情報の質の低下、および感度の低下が含まれる。換言すると領域変更部314は、センサ群1の性能低下を推定するための性能推定情報をセンサ群1および環境モニタ2から取得する。なお領域変更部314の動作を上位概念化すると次のようになる。すなわち、領域変更部314は、入出力部33が取得した性能推定情報を用いて性能が低下したセンサを特定し、そのセンサに関連付けられる領域が狭くなるように領域判定テーブル3211Aの座標条件を変更する。
 第2の実施の形態における領域判定テーブル3211Aには、領域変更部314が判断するそれぞれのパタンに対応する座標条件が記載される。なお以下では、座標条件を「位置条件」とも呼ぶ。そのため本実施の形態では、まず領域変更部314がパタンを決定してから位置判定部311が領域判定テーブル3211Aを参照する。すなわち位置判定部311は、領域判定テーブル3211Aに記載された座標条件であって、領域変更部314が決定したパタンに対応する座標条件に基づき、それぞれの測定対象の領域を決定する。また本実施の形態では、第1の実施の形態における第2領域Z2の代わりに、第2A領域Z2A~第2F領域Z2Fの6つの領域が定義され、合計で8つの領域が定義される。
 なお図9では第2フュージョン部312Bは1つのみ記載しているが、第2フュージョン部312Bが第2A領域Z2A~第2F領域Z2Fの6つの領域を処理してもよいし、前述の6つの領域を処理するフュージョン部が独立に存在してもよい。その場合は、処理部31は全部で8つのフュージョン部を備えることになる。
 パタン判定テーブル3214には、センサ群1の状態が領域を定義する複数のパタンのいずれに該当するかを判断するための情報が記載される。前述のように本実施の形態では領域判定テーブル3211Aには複数のパタンが記載されているので、位置判定部311はそのいずれを使用すべきかを判断するためにパタン判定テーブル3214を参照する。
 センサ領域関連付け情報3217には、それぞれの領域についてセンサの関連付けが示されており、各領域には少なくとも2つのセンサが関連付けられる。フュージョン処理部312は、センサ領域関連付け情報3217を参照して、領域ごとに関連付けられたセンサの測定対象のみを処理対象とする。詳しくは後述する。
(パタン判定テーブル3214)
 図10は、パタン判定テーブル3214の一例を示す図である。パタン判定テーブル3214には、条件と領域パタンの組み合わせが記載される。条件のフィールドには、センサの性能に関する条件が記載され、領域パタンのフィールドには対応する領域パタンの名称が記載される。たとえば図10の最初のレコードは、照度センサ21から取得する照度Eが所定の閾値Eaよりも小さい場合に、領域パタンを「パタンB」とすることが記載されている。次のレコードには、ワイパーセンサ22の出力からワイパーのスイッチがONと判断される場合に、領域パタンを「パタンC」とすることが記載されている。
 次のレコードには、左カメラLCが出力する測定対象の速度が不連続である場合に、領域パタンを「パタンD」とすることが記載されている。左カメラLCが出力する測定対象の速度の連続性は、たとえば次のように評価できる。左カメラLCが出力するある測定対象について、前回測定した時刻をt0、前回測定した位置をR(t0)、前回測定した速度をV(t0)、今回測定した時刻をt1、今回測定した位置をR(t1)、今回測定した速度をV(t1)とおく。このとき、左カメラLCの全ての測定対象について所定の回数N回以上連続で以下の式(1)が成り立つ場合に速度が不連続と判断する。
  |R(t1)-{R(t0)+V(t0)(t1-t0)}|>ΔR・・・(1)
 次のレコードには、左カメラLCが故障していると判断される場合は領域パタンを直前のレコードと同様に「パタンD」とすることが記載されている。そして最後のレコードには、いずれのケースに該当しない場合は、すなわちセンサ群1に特段の問題がない場合は領域パタンを「パタンA」とすることが記載されている。なお第1の実施の形態における領域パタンは「パタンA」に相当する。また図10に示す例では多数のパタンが記載されているが、パタンの数に制限はなく、パタンは2以上あればよい。
(領域判定テーブル3211A)
 図11は、第2の実施の形態における領域判定テーブル3211Aの一例を示す図である。領域判定テーブル3211Aには、位置条件について複数のパタンが記録される。たとえば図11に示す例では、領域判定テーブル3211AにはパタンAとパタンBの2つの位置条件が明示されており、他のパタンの具体的な値が省略されている。領域判定テーブル3211Aには、パタン判定テーブル3214に記載される全てのパタンの座標条件が含まれる。
(センサ領域関連付け情報3217)
 図12は、センサ領域関連付け情報3217の一例を示す図である。図12に示す例では、第1領域Z1には左カメラLCと左レーダLRが関連付けられ、第2A領域Z2A~第2F領域Z2Fには左カメラLC、右カメラRC、左レーダLR、右レーダRRの4つから選択されたいずれか2つのセンサが関連付けられ、第3領域Z3には右カメラRCと右レーダRRが関連付けられることが示されている。
 なお図11では図示が省略されているパタンDは、パタンAに比べて左カメラLCに関連付けられた第1領域Z1、第2A領域Z2A、第2B領域Z2B、および第2C領域Z2Cの広さが同等以下になり、左カメラLCに関連付けられていない上記以外の領域の広さが広くなる。たとえばパタンDではパタンAに比べて第1領域Z1が狭くなり、第2A領域Z2A~第2F領域Z2Fの面積は変わらず、第3領域Z3の面積が広くなる。
(処理部31の動作)
 図13は第2の実施の形態において処理部31が実行する処理を表すフローチャートである。第1の実施の形態における図7に示す処理との違いは、S101とS102との間にS101AおよびS101Bが追加されている点、およびS102がS102Aに変更されている点である。以下では第1の実施の形態との相違点を説明する。
 S101Aでは、入出力部33が環境モニタ2の出力を受信する。続くS101Bでは領域変更部314がS101およびS101Aにおいて取得した情報、およびパタン判定テーブル3214を参照していずれかの領域パタンを決定する。S102Aでは位置判定部311が、S101Bにおいて決定された領域パタンと領域判定テーブル3211Aにより特定される位置条件を用いて、S101において取得した処理対象の属する領域を決定する。
(フュージョン処理)
 第2の実施の形態におけるフュージョン部312の動作は、センサ領域関連付け情報3217も考慮して処理対象を決定する点で第1の実施の形態と異なる。たとえば第1フュージョン部312Aは、処理対象の位置が第1領域Z1であり、かつその処理対象を取得したセンサがセンサ領域関連付け情報3217において第1領域と関連付けられているセンサである測定対象を処理対象とする。第2の実施の形態における第1フュージョン部312Aの動作をフローチャートで表すと、第1の実施の形態における図8のS210を以下のように変更すればよい。
 すなわちS210において第1フュージョン部312Aは、処理前テーブル3212およびセンサ領域関連付け情報3217を参照し、第1領域Z1に属し、かつ取得センサが左カメラLCまたは左レーザLRである測定対象を抽出して第1領域テーブル3221Aを作成する。なお第1の実施の形態では、右カメラRCが取得した測定対象の位置が第1領域Z1である場合に、その測定対象の情報を考慮して処理を行ってもよいし存在しないものと扱ってもよいとしていたが、本実施の形態では右カメラRCが取得した第1領域Z1の測定対象は無視することになる。
 上述した第2の実施の形態によれば、次の作用効果が得られる。
(2)領域判定テーブル3211Aにより分類されるそれぞれの領域は、複数のセンサのうち少なくとも2つのセンサと関連付けられる。フュージョン部312は、位置判定部311により同一の領域に分類される測定対象であって、同一の領域に関連付けられた異なるセンサが測定した複数の測定対象の一致を状態量を参照して判断し、一致すると判断した複数の測定対象の位置を融合させる。電子制御装置3は、複数のセンサのそれぞれの性能の低下を推定するための性能推定情報を取得する入出力部33と、性能推定情報を用いて性能が低下したセンサに関連付けられる領域が狭くなるように領域判定テーブル3211Aの参考すべき領域を変更する領域変更部314とを備える。
 たとえば、左カメラLCの性能が低下したと判断された場合には領域パタンとしてパタンDが選択されるので、左カメラLCに関連付けられた第1領域Z1を狭くし、左カメラLCが関連付けられていない第3領域Z3を広くする。そのため、性能が低下した左カメラLCを使う領域が縮小し、領域変更前に比べて相対的にセンサ性能が高いセンサの検知結果を用いたフュージョン処理が選択されやすくなる。したがって電子制御装置3は、総処理量を増やさずに、相対的にセンサ性能が高いセンサの検知結果を用いたフュージョン処理を選択できる。そのためセンサ性能に変化が生じた場合であっても、少ない処理量で高い安全性を確保できる。
 またワイパスイッチがONの場合にはパタンCが選択され、左カメラLCおよび右カメラRCの少なくとも一方に関連付けられた領域を狭くする。具体的には次の3つの構成が考えられる。第1に、左レーダLRおよび右レーダRRに関連付けられた第2F領域Z2Fのみを非空集合とし、それ以外の領域を空集合とする構成である。すなわち第1の構成では第2F領域Z2F以外の領域の面積はゼロである。第2に、左カメラLCおよび右カメラRCに関連付けられた第2C領域Z2Cのみを空集合とし、他の領域はパタンAと同一とする構成である。第3に、第1の構成と第2の構成の中間とする構成である。理由は以下のとおりである。
 ワイパスイッチがONの場合には雨天であると考えられる。そして、カメラは降雨の影響を受けやすく、ミリ波レーダは降雨の影響を受けにくい。そのため降雨の影響を受けにくい左レーダLRおよび右レーダRRを活用するために、上述した3つの構成をとりうる。
(3)記憶部32には、センサ群1に含まれる複数のセンサの性能の低下と分類条件の対応を定めるパタン判定テーブル3214が格納される。領域変更部314は、性能推定情報を用いてパタン判定テーブル3214に含まれるいずれのパタンを用いるかを決定する。そのため簡便に領域を変更することができる。
(第2の実施の形態の変形例1)
 環境モニタ2はセンサ群1で代用してもよい。すなわちパタン判定テーブル3214に記載される条件がセンサ群1の出力を用いて判断可能であれば、電子制御装置3は環境モニタ2を備えなくてもよい。さらに電子制御装置3は、処理部31を構成するCPUなどが時計やカレンダーの機能を有する場合は、パタン判定テーブル3214の判断に処理部31の出力を用いてもよい。
(第2の実施の形態の変形例2)
 上述した第2の実施の形態では、領域判定テーブル3211Aに複数のパタンが予め登録された。しかし電子制御装置3は、領域判定テーブル3211Aを備えずそれぞれの領域を演算により決定してもよい。たとえば処理部31が、センサ群1に含まれるそれぞれのセンサの観測量に含まれる誤差を推定するカルマンフィルタをさらに備え、領域変更部314はカルマンフィルタが推定する誤差の大きさに基づいてそれぞれの領域を決定してもよい。この場合も第2の実施の形態と同様の考えに基づき、推定される誤差が大きいセンサに関連付けられる領域が狭くなり、推定される誤差が小さいセンサに関連付けられる領域が広くなるようにする。すなわち本変形例では、誤差の大きさに応じて領域の広さを柔軟に変更することができる。
(第2の実施の形態の変形例3)
 第2の実施の形態では、センサ領域関連付け情報3217によりセンサと領域が関連付けられた。しかしセンサとそれぞれのフュージョン部312とを関連付けてもよい。この場合には、フュージョン部312はたとえば第1~第8の8つのフュージョン部から構成され、それぞれが異なる領域と関連付けられる。
―第3の実施の形態―
 図14~図17を参照して、本発明に係る電子制御装置の第3の実施の形態を説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。本実施の形態では、主に、融合した測定対象の将来の位置を推定し、フュージョン処理では推定した将来の位置も対象とする点で、第1の実施の形態と異なる。
(構成)
 図14は、第3の実施の形態における車両Cの構成を示す図である。本実施の形態では電子制御装置3は、第1の実施の形態の構成に加えて、処理部31に将来位置推定部315をさらに備える。また記憶部32には将来領域判定テーブル3215と、将来テーブル3216とがさらに格納される。
 将来位置推定部315は、処理後テーブル3213に記載される融合された状態量に基づき将来の状態量を推定して将来テーブル3216に書き込む。以下では、将来位置推定部315が推定する状態量に含まれる位置を「将来位置」と呼ぶ。たとえば将来位置推定部315は、処理周期ごとの時間間隔および融合された状態量の速度を用いて位置の差分を算出し、融合された状態量の位置と算出した差分とから将来位置を推定する。将来位置推定部315は、たとえば将来の速度を融合された状態量の速度とすることができる。さらに将来位置推定部315は、推定した位置が将来領域判定テーブル3215に記載されたいずれの領域に該当するかを判断し、その判断結果を将来領域判定テーブル3215に格納する。
 現在の処理周期の時刻がt1、次回の処理周期の時刻がt2、融合された状態量の位置がR(t1)、融合された状態量の速度がV(t1)のとき、たとえば将来位置推定部315は、将来位置R(t2)を以下の式2のように算出してもよい。
   R(t2)=R(t1)+V(t1)(t2-t1)・・・(2)
(将来領域判定テーブル3215)
 図15は将来領域判定テーブル3215の一例を示す図である。将来領域判定テーブル3215には、融合された測定対象の将来の位置、すなわち将来位置推定部315が推定する位置に関する条件と領域番号の対応が格納される。将来領域判定テーブル3215の構成は領域判定テーブル3211と同様である。将来領域判定テーブル3215に含まれる領域番号は領域判定テーブル3211と同様であり、位置条件は領域判定テーブル3211と同一でもよいし異なっていてもよい。
(将来テーブル3216)
 図16は将来テーブル3216の一例を示す図である。将来テーブル3216には、融合された測定対象の将来の状態量、および融合された測定対象の将来の位置の分類が格納される。将来テーブル3216は将来位置推定部315によって書き込まれる。
(処理部31の動作)
 図17は第3の実施の形態における処理部31の処理を表すフローチャートである。第1の実施の形態における図7に示す処理との違いは、S102の次にS102Bが追加され、S106の次にS107およびS108が追加されている点である。以下では第1の実施の形態との相違点を説明する。
 S102Bでは将来位置推定部315は、将来テーブル3216の転記、すなわち将来テーブル3216の全体を読み込み、領域番号のフィールドの値に応じてそれぞれのレコードを対応する領域テーブルに記録する。たとえば図16に示す例では、先頭の2つのレコードはいずれも将来領域が「Z2」なので、そのレコードの情報を第2領域テーブル3221Bに記録する。ただしS102Bにおいて領域テーブルに書き込む取得センサのフィールドの値は、それぞれのセンサとは異なる値、たとえば「融合」とする。将来位置推定部315は、将来テーブル3216を全て読み込むと将来テーブル3216に格納されていた情報をすべて削除する。
 S107では将来位置推定部315は、処理後テーブル3213に記載された全ての融合された処理対象について将来位置を含む次の処理周期における状態量を算出し、将来テーブル3216に記載する。続くS108では将来位置推定部315は、将来テーブル3216および将来領域判定テーブル3215を参照し、将来位置を分類して将来テーブル3216の領域番号のフィールドを埋める。詳述すると将来位置推定部315は、将来位置が将来領域判定テーブル3215に記載されたいずれの領域に該当するかを判断し、その判断結果を将来テーブル3216の領域番号のフィールドに記載する。以上が図17の説明である。
 なおS103~S105に示すそれぞれの領域におけるフュージョン処理は第1の実施の形態と同様であるが、S102Bの影響により実質的に以下のように変化する。たとえば第1フュージョン部312Aは、図8のS212において将来位置を含めて抽出を行い、S214においてS212およびS213の条件を満たす将来位置も融合の対象とする。S214では処理部31は、第1の実施の形態と同様に単純平均を用いてもよいし、予測位置とその他の位置では重みを変化させた加重平均を用いてもよい。
 上述した第3の実施の形態によれば、次の作用効果が得られる。
(4)記憶部32には、測定対象の将来の位置である将来位置に関する分類の条件である将来領域判定テーブル3215と、将来領域判定テーブル3215により将来領域が分類された将来位置を含む将来テーブル3216とが格納される。処理部31は、測定対象の将来位置を推定し、将来領域判定テーブル3215を用いて将来位置を分類する将来位置推定部315を備える。フュージョン部312は、測定対象の一致の判断において将来位置推定部315により同一に分類される測定対象も判断の対象に含め、一致すると判断した複数の測定対象の位置および将来位置を融合させる。
 一般に、融合された測定対象の精度を高めるには、過去の測定値に基づく予測値をフュージョン処理の対象に含めることが有効である。しかし処理対象の増加に伴い組み合わせの数が大きく増加し、処理量の増加および処理周期内に処理可能な測定対象の数が減少する問題がある。そこで電子制御装置3は、算出した将来位置の領域を判断し、組み合わせは同一の領域内に限定する。そのため、処理負荷の増加を抑えて融合された測定対象の状態量の精度を高めることができる。
(5)将来位置推定部315は、フュージョン部312が融合した測定対象の将来位置を推定する。そのため複数のセンサ出力を用いて算出した状態量の将来位置を用いて、次の処理周期における測定対象の状態量を高精度に算出できる。
(第3の実施の形態の変形例1)
 将来位置推定部315は推定した将来位置を将来テーブル3216に書き込む代わりに、第1領域テーブル3221A、第2領域テーブル3221B、および第3領域テーブル3221Cのいずれかに書き込んでもよい。すなわち将来位置推定部315は、算出した将来位置が分類される領域に応じて第1領域テーブル3221A、第2領域テーブル3221B、および第3領域テーブル3221Cのいずれかに将来位置を書き込む。この場合は、図17のS102Bを削除できる。
(第3の実施の形態の変形例2)
 上述した第3の実施の形態では、状態量の推定対象は融合された測定対象のみであった。しかし将来位置推定部315は、融合されていない測定対象のみを状態量の推定対象としてもよいし、融合された測定対象および融合されていない測定対象の両方を状態量の推定対象としてもよい。
 さらに将来位置推定部315は、推定した状態量を将来テーブル3216に書き込む代わりに以下の処理を行ってもよい。すなわち将来位置推定部315は、将来領域判定テーブル3215を参照して融合されていない測定対象の将来位置を分類し、分類された領域に対応する第1領域テーブル3221A、第2領域テーブル3221B、および第3領域テーブル3221Cのいずれかに書き込んでもよい。この場合の処理は、異なる領域に移動すると判断された測定対象を移動元の領域テーブルから削除し、移動先の領域テーブルに移動させる処理ともいえる。
 本変形例によれば次の作用効果が得られる。
(6)位置判定部311および将来位置推定部315は、領域判断テーブル3211Aおよび将来テーブル3216を参照して決定した分類結果ごとに、専用記憶部322のそれぞれの関連付けられた領域に保存する。そのため将来テーブル3216から専用記憶部322に状態量を転記する必要がなく、処理を簡便にできる。
 上述した各実施の形態および変形例において、電子制御装置3のプログラムは不図示のROMに格納されるとしたが、プログラムは記憶部32に格納されていてもよい。また、入出力部33と電子制御装置3が利用可能な媒体を介して、他の装置からプログラムが読み込まれてもよい。ここで媒体とは、たとえば入出力インタフェースに着脱可能な記憶媒体、または通信媒体、すなわち有線、無線、光などのネットワーク、または当該ネットワークを伝搬する搬送波やディジタル信号、を指す。また、プログラムにより実現される機能の一部または全部がハードウエア回路やFPGAにより実現されてもよい。
 上述した各実施の形態および変形例は、それぞれ組み合わせてもよい。上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
 次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
 日本国特許出願2018-84266(2018年4月25日出願)
1…センサ群
2…環境モニタ
3…電子制御装置
4…アクチュエータ群
31…処理部
32…記憶部
33…入出力部
311…位置判定部
312…フュージョン部
313…車両制御処理部
314…領域変更部
315…将来位置推定部
321…共通記憶部
322…専用記憶部
3211…領域判定テーブル
3212…処理前テーブル
3213…処理後テーブル
3214…パタン判定テーブル
3215…将来領域判定テーブル
3216…将来テーブル
3221A…第1領域テーブル
3221B…第2領域テーブル
3221C…第3領域テーブル
C…車両

Claims (12)

  1.  複数のセンサの出力を用いて測定対象の位置を含む状態量を取得する、または前記複数のセンサの出力を用いて前記測定対象の前記状態量を算出するセンサ情報取得部と、
     位置に関する分類の条件である位置判定情報を記憶する記憶部と、
     前記測定対象を前記位置判定情報を用いて分類する位置判定部と、
     前記位置判定部により同一に分類される前記測定対象であって、異なる前記センサが測定した複数の前記測定対象の一致を前記状態量を参照して判断し、一致すると判断した前記複数の測定対象の位置を融合させるフュージョン部とを備え、
     前記測定対象とは、前記複数のセンサのそれぞれが測定可能な対象である電子制御装置。
  2.  請求項1に記載の電子制御装置において、
     位置判定情報により分類されるそれぞれの領域は、前記複数のセンサのうち少なくとも2つのセンサと関連付けられ、
     前記フュージョン部は、前記位置判定部により同一の領域に分類される前記測定対象であって、前記同一の領域に関連付けられた異なる前記センサが測定した複数の前記測定対象の一致を前記状態量を参照して判断し、一致すると判断した前記複数の測定対象の位置を融合させ、
     前記複数のセンサのそれぞれの性能の低下を推定するための性能推定情報を取得する性能推定情報取得部と、
     前記性能推定情報を用いて性能が低下したセンサに関連付けられる領域が狭くなるように前記位置判定情報を変更する領域変更部とを備える電子制御装置。
  3.  請求項2に記載の電子制御装置において、
     前記記憶部には、複数の前記分類の条件、および前記複数のセンサの性能の低下と前記分類の条件の対応を定めるパタン判定情報がさらに格納され、
     前記領域変更部は、前記性能推定情報を用いて前記パタン判定情報に含まれるいずれの前記分類の条件を用いるかを決定する電子制御装置。
  4.  請求項1に記載の電子制御装置において、
     前記記憶部には、
     前記測定対象の将来の位置である将来位置に関する分類の条件である将来分類条件と、
     前記将来分類条件により分類された前記測定対象の前記将来位置である分類済み将来位置とがさらに格納され、
     前記測定対象の前記将来位置を推定し、前記将来分類条件を用いて前記将来位置を分類する将来位置推定部をさらに備え、
     前記フュージョン部は、前記測定対象の一致の判断において前記将来位置推定部により同一に分類される前記測定対象も判断の対象に含め、一致すると判断した前記複数の測定対象の位置および前記将来位置を融合させる電子制御装置。
  5.  請求項4に記載の電子制御装置において、
     前記将来位置推定部は、前記フュージョン部が融合した前記測定対象の将来の位置、および前記センサ情報取得部が前記状態量を取得した測定対象の将来の位置の少なくとも一方を推定する電子制御装置。
  6.  請求項4に記載の電子制御装置において、
     前記位置判定部および前記将来位置推定部は、前記分類の結果ごとに前記記憶部の関連付けられた領域に保存する電子制御装置。
  7.  複数のセンサの出力を用いて測定対象の位置を含む状態量を取得する、または前記複数のセンサの出力を用いて前記測定対象の前記状態量を算出するセンサ情報取得部、および位置に関する分類の条件である位置判定情報を記憶する記憶部を備える電子制御装置が実行する演算方法において、
     前記測定対象を前記位置判定情報を用いて分類を行うことと、
     前記分類により同一に分類される前記測定対象であって、異なる前記センサが測定した複数の前記測定対象の一致を前記状態量を参照して判断し、一致すると判断した前記複数の測定対象の位置について融合を行うこととを含み、
     前記測定対象とは、前記複数のセンサのそれぞれが測定可能な対象である演算方法。
  8.  請求項7に記載の演算方法において、
     前記記憶部には、前記分類の条件により分類されるそれぞれの領域について、前記複数のセンサのうち少なくとも2つのセンサとの関連付けであるセンサ領域関連付け情報がさらに格納され、
     前記融合では、前記分類により同一の領域に分類される前記測定対象であって、前記センサ領域関連付け情報により前記同一の領域に関連付けられた異なる前記センサが測定した複数の前記測定対象の一致を前記状態量を参照して判断し、一致すると判断した前記複数の測定対象の位置について融合を行い、
     前記複数のセンサのそれぞれの性能の低下を推定するための性能推定情報を取得することと、
     前記性能推定情報を用いて性能が低下したセンサに関連付けられる領域が狭くなるように前記位置判定情報を変更することとをさらに含む演算方法。
  9.  請求項8に記載の演算方法において、
     前記記憶部には、複数の前記分類の条件、および前記複数のセンサの性能の低下と前記分類の条件の対応を定めるパタン判定情報がさらに格納され、
     前記性能推定情報を用いて前記パタン判定情報に含まれるいずれの前記分類の条件を新たな前記位置判定情報とするかを決定することをさらに含む演算方法。
  10.  請求項7に記載の演算方法において、
     前記記憶部には、
     前記測定対象の将来の位置である将来位置に関する分類の条件である将来分類条件と、
     前記将来分類条件により分類された前記測定対象の前記将来位置である分類済み将来位置とがさらに格納され、
     前記測定対象の前記将来位置を推定し、前記将来分類条件を用いて前記将来位置を分類することをさらに含み、
     前記分類では、前記測定対象の一致の判断において同一に分類される前記将来位置も判断の対象に含め、一致すると判断した前記複数の測定対象の位置および前記将来位置を融合させる演算方法。
  11.  請求項10に記載の演算方法において、
     前記将来位置の推定では、前記融合を行った前記測定対象の将来の位置、および前記状態量を取得した測定対象の将来の位置の少なくとも一方を推定する演算方法。
  12.  請求項10に記載の演算方法において、
     前記分類された前記状態量および前記将来位置を、前記分類の結果ごとに前記記憶部の関連付けられた領域に保存する演算方法。
PCT/JP2019/016010 2018-04-25 2019-04-12 電子制御装置、演算方法 WO2019208271A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE112019001545.1T DE112019001545T5 (de) 2018-04-25 2019-04-12 Elektronische steuervorrichtung und betriebsverfahren
US17/049,220 US11958480B2 (en) 2018-04-25 2019-04-12 Electronic control device and operation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018084266A JP7019503B2 (ja) 2018-04-25 2018-04-25 電子制御装置、演算方法
JP2018-084266 2018-04-25

Publications (1)

Publication Number Publication Date
WO2019208271A1 true WO2019208271A1 (ja) 2019-10-31

Family

ID=68295458

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/016010 WO2019208271A1 (ja) 2018-04-25 2019-04-12 電子制御装置、演算方法

Country Status (4)

Country Link
US (1) US11958480B2 (ja)
JP (1) JP7019503B2 (ja)
DE (1) DE112019001545T5 (ja)
WO (1) WO2019208271A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021166718A1 (ja) * 2020-02-17 2021-08-26 株式会社デンソー 車載用の計測装置ユニットおよび車載用の計測装置ユニットにおける統合データ生成方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7019503B2 (ja) * 2018-04-25 2022-02-15 日立Astemo株式会社 電子制御装置、演算方法
KR102303854B1 (ko) * 2020-07-10 2021-09-23 경일대학교산학협력단 페일 세이프 시스템 및 이의 동작 방법
US12080072B2 (en) * 2021-03-18 2024-09-03 Aptiv Technologies AG History-based identification of incompatible tracks
JP7449907B2 (ja) 2021-09-22 2024-03-14 ダイハツ工業株式会社 車両用制御装置
JP2023069374A (ja) * 2021-11-05 2023-05-18 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010176669A (ja) * 2010-01-25 2010-08-12 Fujitsu Ten Ltd 情報処理装置、情報入手装置、情報統合装置、制御装置および物体検出装置
JP2010244474A (ja) * 2009-04-09 2010-10-28 Hitachi Automotive Systems Ltd 自動車の外界認識装置
JP2010249613A (ja) * 2009-04-14 2010-11-04 Toyota Motor Corp 障害物認識装置及び車両制御装置
JP2014006123A (ja) * 2012-06-22 2014-01-16 Toyota Motor Corp 物体検出装置、情報処理装置、物体検出方法
JP2014197325A (ja) * 2013-03-29 2014-10-16 株式会社日本自動車部品総合研究所 横断判定装置およびプログラム
JP2016099635A (ja) * 2014-11-18 2016-05-30 日立オートモティブシステムズ株式会社 走行制御システム
JP2017182771A (ja) * 2016-03-24 2017-10-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 物体検出装置、物体検出方法及び物体検出プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3264060B2 (ja) 1993-11-04 2002-03-11 三菱自動車工業株式会社 自動車の走行制御装置の先行車検出機構
CN107226091B (zh) 2016-03-24 2021-11-26 松下电器(美国)知识产权公司 物体检测装置、物体检测方法以及记录介质
JP6787102B2 (ja) * 2016-12-14 2020-11-18 株式会社デンソー 物体検出装置、物体検出方法
JP7019503B2 (ja) * 2018-04-25 2022-02-15 日立Astemo株式会社 電子制御装置、演算方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244474A (ja) * 2009-04-09 2010-10-28 Hitachi Automotive Systems Ltd 自動車の外界認識装置
JP2010249613A (ja) * 2009-04-14 2010-11-04 Toyota Motor Corp 障害物認識装置及び車両制御装置
JP2010176669A (ja) * 2010-01-25 2010-08-12 Fujitsu Ten Ltd 情報処理装置、情報入手装置、情報統合装置、制御装置および物体検出装置
JP2014006123A (ja) * 2012-06-22 2014-01-16 Toyota Motor Corp 物体検出装置、情報処理装置、物体検出方法
JP2014197325A (ja) * 2013-03-29 2014-10-16 株式会社日本自動車部品総合研究所 横断判定装置およびプログラム
JP2016099635A (ja) * 2014-11-18 2016-05-30 日立オートモティブシステムズ株式会社 走行制御システム
JP2017182771A (ja) * 2016-03-24 2017-10-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 物体検出装置、物体検出方法及び物体検出プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021166718A1 (ja) * 2020-02-17 2021-08-26 株式会社デンソー 車載用の計測装置ユニットおよび車載用の計測装置ユニットにおける統合データ生成方法

Also Published As

Publication number Publication date
US11958480B2 (en) 2024-04-16
US20210256328A1 (en) 2021-08-19
DE112019001545T5 (de) 2020-12-24
JP2019191945A (ja) 2019-10-31
JP7019503B2 (ja) 2022-02-15

Similar Documents

Publication Publication Date Title
WO2019208271A1 (ja) 電子制御装置、演算方法
US10220841B2 (en) Method and system for assisting a driver of a vehicle in driving the vehicle, vehicle and computer program
US9922565B2 (en) Sensor fusion of camera and V2V data for vehicles
JP7040374B2 (ja) 物体検出装置、車両制御システム、物体検出方法及び物体検出用コンピュータプログラム
US20180173232A1 (en) System and method for sensing the driving environment of a motor vehicle
JP2017521745A (ja) 車両のナビゲーションモジュールに対象物の存在を知らせる車載装置
CN112445222B (zh) 导航方法、装置、存储介质以及终端
JP6717240B2 (ja) 物標検出装置
KR102456151B1 (ko) 레이더 및 카메라 기반의 센서 퓨전 시스템 및 주변 차량의 위치 산출 방법
CN112639811A (zh) 用于分析处理具有扩展对象识别的传感器数据的方法
JP2024534059A (ja) 視覚に基づくシステムのための検出されたオブジェクト経路予測
EP3467545A1 (en) Object classification
JP2021128705A (ja) 物体状態識別装置
CN116368051A (zh) 用于车辆的增强传感器健康和回归测试
US11555913B2 (en) Object recognition device and object recognition method
US20210365039A1 (en) Target tracking method and device
CN115482352A (zh) 用于训练机器学习算法的方法和装置
CN115575942A (zh) 激光雷达数据和毫米波雷达数据的融合方法及融合系统
JP6611334B2 (ja) 区画線認識装置
CN110969058B (zh) 用于环境目标的融合方法及装置
CN111143423A (zh) 动态场景标注数据挖掘方法、装置以及终端
WO2022215348A1 (ja) 物標検出装置
KR102636740B1 (ko) 차량 및 그 제어방법
WO2023157350A1 (ja) 物標算出方法、演算装置
WO2024185078A1 (en) System and method for supporting object detection

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19793456

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 19793456

Country of ref document: EP

Kind code of ref document: A1