WO2020250527A1 - 外部環境認識装置 - Google Patents

外部環境認識装置 Download PDF

Info

Publication number
WO2020250527A1
WO2020250527A1 PCT/JP2020/011537 JP2020011537W WO2020250527A1 WO 2020250527 A1 WO2020250527 A1 WO 2020250527A1 JP 2020011537 W JP2020011537 W JP 2020011537W WO 2020250527 A1 WO2020250527 A1 WO 2020250527A1
Authority
WO
WIPO (PCT)
Prior art keywords
recognition processing
abnormality
vehicle
unit
external environment
Prior art date
Application number
PCT/JP2020/011537
Other languages
English (en)
French (fr)
Inventor
大介 堀籠
Original Assignee
マツダ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マツダ株式会社 filed Critical マツダ株式会社
Priority to CN202080043188.1A priority Critical patent/CN113966526A/zh
Priority to US17/618,504 priority patent/US11830254B2/en
Priority to EP20821657.2A priority patent/EP3979221A4/en
Publication of WO2020250527A1 publication Critical patent/WO2020250527A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/38Outdoor scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Definitions

  • the technology disclosed here relates to an external environment recognition device that recognizes the external environment of a moving object.
  • Patent Document 1 discloses an image processing device mounted on a vehicle. This image processing device performs a road surface detection unit that detects a road surface area from an input image based on an input image obtained by taking a picture with a camera, and a time series verification that verifies the detection result of the road surface area in the input image in time series.
  • a detection area selection unit that sets a detection area for detecting an object in the input image based on the time-series verification unit, the detection result of the road surface area by the road surface detection unit, and the time-series verification result by the time-series verification unit.
  • a detection unit that detects an object in the detection area.
  • the technology disclosed here was made in view of this point, and the purpose thereof is an external environment recognition device capable of reducing an increase in circuit scale and power consumption due to the addition of an abnormality detection function. Is to provide.
  • the technology disclosed here relates to an external environment recognition device that recognizes the external environment of a moving object.
  • This external environment recognition device includes a recognition processing unit that performs recognition processing for recognizing the external environment of the moving body based on image data obtained by an imaging unit that images the external environment of the moving body.
  • the recognition processing unit is composed of a plurality of arithmetic cores.
  • the plurality of arithmetic cores detect anomalies in a data processing system including the imaging unit and the recognition processing unit based on an abnormality in the output of the recognition processing core that performs the recognition processing and the recognition processing core. Including with core.
  • the abnormality in the output of the recognition processing core may be an abnormality in the movable region included in the external environment of the moving body shown in the output of the recognition processing core.
  • the abnormality detection core detects an abnormality in the data processing system based on the abnormality in the movable area (that is, the movable area recognized by the recognition processing) indicated in the output of the recognition processing core.
  • the area of the pixel area showing the movable area for example, the roadway
  • the target for example, the vehicle. .. Therefore, in the recognition process, the movable area is more easily recognized than the target.
  • the abnormality of the data processing system is based on the abnormality of the target indicated in the output of the recognition processing core.
  • the accuracy of detecting an abnormality in the data processing system can be improved as compared with the case of detecting an abnormality.
  • the abnormality of the output of the recognition processing core may be an abnormality of the temporal change of the output of the recognition processing core.
  • the abnormality detection core detects an abnormality in the data processing system based on the abnormality of the temporal change of the output of the recognition processing core. In this way, by based on the abnormality of the temporal change of the output of the recognition processing core, it is possible to detect an abnormality that cannot be detected only by the output of the recognition processing core at a single time point. As a result, the accuracy of detecting an abnormality in the data processing system can be improved.
  • the abnormality detection core may be configured to detect an abnormality in the data processing system based on the duration of the abnormality of the output of the recognition processing core.
  • FIG. 1 illustrates the configuration of the vehicle control system 10.
  • the vehicle control system 10 is provided in a vehicle (automobile four-wheeled vehicle in this example) which is an example of a moving body. This vehicle can be switched between manual driving, assisted driving, and automatic driving.
  • Manual driving is driving that runs in response to a driver's operation (for example, accelerator operation).
  • Assisted driving is driving that assists the driver's operation.
  • Autonomous driving is driving that runs without the operation of a driver.
  • the vehicle control system 10 controls the operation of the vehicle by controlling the actuator 101 provided in the vehicle in the automatic driving and the assisted driving.
  • the actuator 101 includes an engine, a transmission, a brake, a steering, and the like.
  • the vehicle provided with the vehicle control system 10 is described as “own vehicle”, and other vehicles existing around the own vehicle are described as “other vehicle”.
  • the vehicle control system 10 includes a plurality of cameras 11, a plurality of radars 12, a position sensor 13, a vehicle status sensor 14, a driver status sensor 15, a driving operation sensor 16, and a communication unit 17. It includes a control unit 18, a human-machine interface 19, and a computing device 20.
  • the arithmetic unit 20 is an example of an external environment recognition device.
  • the plurality of cameras 11 have the same configuration as each other.
  • the camera 11 acquires image data showing the external environment of the own vehicle by taking an image of the external environment of the own vehicle.
  • the image data obtained by the camera 11 is transmitted to the arithmetic unit 20.
  • the camera 11 is an example of an imaging unit that images the external environment of a moving body.
  • the camera 11 is a monocular camera having a wide-angle lens. Then, the plurality of cameras 11 are arranged in the own vehicle so that the imaging range of the external environment of the own vehicle by the plurality of cameras 11 extends over the entire circumference of the own vehicle.
  • the camera 11 is configured by using a solid-state image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary metal-oxide-semiconductor).
  • the camera 11 may be a monocular camera having a normal lens (for example, a narrow-angle camera) or a stereo camera.
  • the plurality of radars 12 have similar configurations to each other.
  • the radar 12 detects the external environment of the own vehicle. Specifically, the radar 12 detects the external environment of the own vehicle by transmitting a radio wave (an example of a detection wave) toward the external environment of the own vehicle and receiving the reflected wave from the external environment of the own vehicle. To do.
  • the detection result of the radar 12 is transmitted to the arithmetic unit 20.
  • the radar 12 is an example of a detection unit that detects the external environment of a moving body.
  • the detection unit detects the external environment of the moving body by transmitting a detection wave toward the external environment of the moving body and receiving a reflected wave from the external environment of the moving body.
  • a plurality of radars 12 are arranged in the own vehicle so that the detection range of the external environment of the own vehicle by the plurality of radars 12 covers the entire circumference of the own vehicle.
  • the radar 12 may be a millimeter-wave radar that transmits a millimeter wave (an example of a detection wave) or a lidar (Light Detection and Ringing) that transmits a laser beam (an example of a detection wave).
  • it may be an infrared radar that transmits infrared rays (an example of a detection wave), or an ultrasonic sensor that transmits an ultrasonic wave (an example of a detection wave).
  • the position sensor 13 detects the position of the own vehicle (for example, latitude and longitude). For example, the position sensor 13 receives GPS information from the global positioning system and detects the position of its own vehicle based on the GPS information. The position of the own vehicle detected by the position sensor 13 is transmitted to the arithmetic unit 20.
  • the vehicle state sensor 14 detects the state of the own vehicle (for example, speed, acceleration, yaw rate, etc.).
  • the vehicle state sensor 14 includes a vehicle speed sensor that detects the speed of the own vehicle, an acceleration sensor that detects the acceleration of the own vehicle, a yaw rate sensor that detects the yaw rate of the own vehicle, and the like.
  • the state of the own vehicle detected by the vehicle state sensor 14 is transmitted to the arithmetic unit 20.
  • the driver status sensor 15 detects the status of the driver driving the own vehicle (for example, the driver's health status, emotions, physical behavior, etc.).
  • the driver status sensor 15 includes an in-vehicle camera that captures an image of the driver, a biological information sensor that detects the biological information of the driver, and the like.
  • the driver status detected by the driver status sensor 15 is transmitted to the arithmetic unit 20.
  • the driving operation sensor 16 detects a driving operation applied to the own vehicle.
  • the driving operation sensor 16 includes a steering angle sensor that detects the steering angle of the steering wheel of the own vehicle, an accelerator sensor that detects the operation amount of the accelerator of the own vehicle, a brake sensor that detects the operation amount of the brake of the own vehicle, and the like. Will be done.
  • the driving operation detected by the driving operation sensor 16 is transmitted to the arithmetic unit 20.
  • the communication unit 17 communicates with an external device provided outside the own vehicle. For example, the communication unit 17 receives communication information from another vehicle (not shown) located around the own vehicle, traffic information from a navigation system (not shown), and the like. The information received by the communication unit 17 is transmitted to the arithmetic unit 20.
  • the control unit 18 is controlled by the arithmetic unit 20 and controls the actuator 101 provided in the own vehicle.
  • the control unit 18 includes a power train device, a braking device, a steering device, and the like.
  • the power train device controls the engine and transmission included in the actuator 101 based on the target driving force indicated by the drive command value described later.
  • the braking device controls the brake included in the actuator 101 based on the target braking force indicated by the braking command value described later.
  • the steering device controls the steering included in the actuator 101 based on the target steering amount indicated by the steering command value described later.
  • the human-machine interface 19 is provided to input / output information between the arithmetic unit 20 and the occupant (particularly the driver) of the own vehicle.
  • the human-machine interface 19 includes a display for displaying information, a speaker for outputting information by voice, a microphone for inputting voice, an operation unit to be operated by an occupant (particularly a driver) of the own vehicle, and the like.
  • the operation unit is a touch panel or a button.
  • the arithmetic unit 20 determines a target route, which is a route to be traveled by the own vehicle, based on the output of sensors provided in the own vehicle, information transmitted from outside the vehicle, and the like, and is necessary for traveling on the target route. Determine the target movement, which is the movement of the own vehicle. Then, the arithmetic unit 20 controls the control unit 18 to control the operation of the actuator 101 so that the motion of the own vehicle becomes the target motion.
  • the arithmetic unit 20 is composed of an electronic control unit (ECU) having one or a plurality of arithmetic chips.
  • the arithmetic unit 20 is composed of an electronic control unit (ECU) having one or more processors, one or more memories for storing programs and data for operating the one or more processors, and the like. To.
  • the arithmetic unit 20 includes an external environment recognition unit 21, a candidate route generation unit 22, a vehicle behavior recognition unit 23, a driver behavior recognition unit 24, a target motion determination unit 25, and a motion control unit 26. Have. These are some of the functions of the arithmetic unit 20.
  • the external environment recognition unit 21 recognizes the external environment of the own vehicle.
  • the candidate route generation unit 22 generates one or a plurality of candidate routes based on the output of the external environment recognition unit 21.
  • the candidate route is a route on which the own vehicle can travel and is a candidate for the target route.
  • the vehicle behavior recognition unit 23 recognizes the behavior of the own vehicle (for example, speed, acceleration, yaw rate, etc.) based on the output of the vehicle condition sensor 14. For example, the vehicle behavior recognition unit 23 recognizes the behavior of its own vehicle from the output of the vehicle state sensor 14 using the learning model generated by deep learning.
  • the driver behavior recognition unit 24 recognizes the driver's behavior (for example, the driver's health state, emotion, physical behavior, etc.) based on the output of the driver state sensor 15. For example, the driver behavior recognition unit 24 recognizes the driver behavior from the output of the driver state sensor 15 using the learning model generated by deep learning.
  • the target motion determination unit 25 becomes a target route from one or a plurality of candidate routes generated by the candidate route generation unit 22 based on the output of the vehicle behavior recognition unit 23 and the output of the driver behavior recognition unit 24. Select a candidate route. For example, the target movement determination unit 25 selects a candidate route that the driver feels most comfortable with among the plurality of candidate routes. Then, the target movement determination unit 25 determines the target movement based on the candidate route selected as the target route.
  • the motion control unit 26 controls the control unit 18 based on the target motion determined by the target motion determination unit 25. For example, the motion control unit 26 derives the target driving force, the target braking force, and the target steering amount, which are the driving force, the braking force, and the steering amount for achieving the target motion, respectively. Then, the motion control unit 26 includes a power train device, a brake device, and a steering device in which the control unit 18 includes a drive command value indicating a target driving force, a braking command value indicating a target braking force, and a steering command value indicating a target steering amount. Send to each.
  • FIG. 2 illustrates the configuration of the external environment recognition unit 21.
  • the external environment recognition unit 21 is composed of an image processing chip 31, an artificial intelligence accelerator 32, and a control chip 33.
  • Each of the image processing chip 31, the artificial intelligence accelerator 32, and the control chip 33 is composed of a processor and a memory for storing programs and data for operating the processor.
  • the external environment recognition unit 21 has a preprocessing unit 40, a recognition processing unit 41, an integrated data generation unit 42, and a two-dimensional data generation unit 43. These are some of the functions of the external environment recognition unit 21.
  • the image processing chip 31 is provided with the preprocessing unit 40
  • the artificial intelligence accelerator 32 is provided with the recognition processing unit 41 and the integrated data generation unit 42
  • the control chip 33 is provided with the two-dimensional data generation unit 43.
  • the preprocessing unit 40 performs preprocessing on the image data obtained by the camera 11.
  • the preprocessing includes a distortion correction process for correcting the distortion of the image shown in the image data, a white balance adjustment process for adjusting the brightness of the image shown in the image data, and the like.
  • the recognition processing unit 41 performs recognition processing.
  • the recognition processing unit 41 recognizes the external environment of the own vehicle based on the image data preprocessed by the preprocessing unit 40.
  • the recognition processing unit 41 self-recognizes based on the external environment of the own vehicle recognized based on the image data and the detection result of the laser 12 (that is, the external environment of the own vehicle detected by the radar 12). Outputs the recognition result of the external environment of the vehicle.
  • the integrated data generation unit 42 generates integrated data based on the recognition result of the recognition processing unit 41.
  • the integrated data is data in which the movable area and the target included in the external environment of the own vehicle recognized by the recognition processing unit 41 are integrated.
  • the integrated data generation unit 42 generates integrated data based on the recognition result of the recognition processing unit 41.
  • the two-dimensional data generation unit 43 generates two-dimensional data based on the integrated data generated by the integrated data generation unit 42.
  • the two-dimensional data is data in which the movable area and the target included in the integrated data are two-dimensionalized.
  • the integrated data generation unit 42 and the two-dimensional data generation unit 43 constitute the external environment data generation unit 45.
  • the external environment data generation unit 45 generates external environment data (object data) based on the recognition result of the recognition processing unit 41.
  • the external environment data is data representing the external environment of the own vehicle recognized by the recognition processing unit 41.
  • the external environment data generation unit 45 generates external environment data based on the recognition result of the recognition processing unit 41.
  • FIG. 3 illustrates the configuration of the recognition processing unit 41.
  • the recognition processing unit 41 is composed of a plurality of arithmetic cores 300.
  • the plurality of arithmetic cores 300 include a recognition processing core 301 and an abnormality detection core 302.
  • eight arithmetic cores 300 out of the twelve arithmetic cores 300 are recognition processing cores 301, and the remaining four arithmetic cores 300 are abnormality detection cores 302.
  • the arithmetic core 300 is composed of a processor and a memory for storing programs and data for operating the processor.
  • the recognition processing core 301 performs recognition processing.
  • the recognition process core 301 recognizes the external environment of the own vehicle based on the image data preprocessed by the preprocessing unit 40.
  • the recognition processing core 301 outputs the recognition result of the external environment of the own vehicle based on the external environment of the own vehicle recognized based on the image data and the detection result of the laser 12.
  • the abnormality detection core 302 detects an abnormality in the data processing system including the camera 11 and the recognition processing unit 41 based on the abnormality in the output of the recognition processing core 301.
  • the data processing system including the camera 11 and the recognition processing unit 41 is a data processing system that reaches the recognition processing unit 41 from the camera 11 via the preprocessing unit 40.
  • the abnormality detection core 302 may be configured to detect an abnormality in the output of the recognition processing core 301 by using a learning model generated by deep learning in the abnormality detection process for detecting an abnormality in the data processing system. .. This learning model is a learning model for detecting an abnormality in the output of the recognition processing core 301.
  • the abnormality detection core 302 may be configured to detect an abnormality in the output of the recognition processing core 301 by using another well-known abnormality detection technique.
  • the preprocessing unit 40 performs preprocessing on the image data obtained by the camera 11.
  • the preprocessing unit 40 performs preprocessing on each of the plurality of image data obtained by the plurality of cameras 11.
  • the preprocessing includes distortion correction processing that corrects the distortion of the image shown in the image data (distortion due to widening of the camera 11 in this example), and white balance adjustment that adjusts the white balance of the image shown in the image data. Processing etc. are included. If the image data obtained by the camera 11 is not distorted (for example, when a camera having a normal lens is used), the distortion correction processing may be omitted.
  • the external environment of the own vehicle shown in the image data D1 includes the roadway 50, the sidewalk 71, and the open space 72.
  • the roadway 50 is an example of a movable area in which the own vehicle can move.
  • the external environment of the own vehicle shown in the image data D1 includes another vehicle 61, a sign 62, a roadside tree 63, and a building 80.
  • the other vehicle 61 (automobile four-wheeled vehicle) is an example of a moving body that is displaced over time. Other examples of moving objects include motorcycles, bicycles, pedestrians, and the like.
  • the sign 62 and the roadside tree 63 are examples of stationary bodies that do not displace over time. Other examples of resting bodies include medians, center poles, buildings and the like.
  • a moving body and a stationary body are examples of the target 60.
  • the sidewalk 71 is provided on the outside of the roadway 50, and the open space 72 is provided on the outside of the sidewalk 71 (the side far from the roadway 50). Further, in the example of FIG. 5, one other vehicle 61 travels in the lane in which the own vehicle travels in the lane 50, and two other vehicles 61 in the oncoming lane of the lane in which the own vehicle travels in the lane 50. I'm running. A sign 62 and a roadside tree 63 are lined up along the outside of the sidewalk 71. Further, the building 80 is provided at a distant position in front of the own vehicle.
  • the recognition processing unit 41 performs classification processing on the image data D1.
  • the recognition processing unit 41 performs classification processing on each of the plurality of image data obtained by the plurality of cameras 11.
  • the recognition processing unit 41 classifies the image shown in the image data D1 on a pixel-by-pixel basis, and adds classification information indicating the classification result to the image data D1.
  • the recognition processing unit 41 recognizes the movable area and the target from the image (image showing the external environment of the own vehicle) shown in the image data D1.
  • the recognition processing unit 41 performs classification processing using a learning model generated by deep learning. This learning model is a learning model for classifying the image shown in the image data D1 on a pixel-by-pixel basis.
  • the recognition processing unit 41 may be configured to perform classification processing using another well-known classification technique.
  • FIG. 6 shows a segmentation image D2 illustrating the classification result of the image shown in the image data D1.
  • the image shown in the image data D1 is classified into one of a roadway, a vehicle, a sign, a roadside tree, a sidewalk, an open space, and a building in pixel units.
  • the recognition processing unit 41 performs movable area data generation processing on the image data.
  • the recognition processing unit 41 identifies a pixel area classified into a movable area (roadway 50 in this example) from the images shown in the image data D1 by the classification process, and the identification is specified.
  • the movable area data is generated based on the pixel area.
  • the movable area data is data representing the movable area recognized by the recognition processing unit 41 (three-dimensional map data in this example).
  • the recognition processing unit 41 generates movable area data based on the movable area specified in each of the plurality of image data acquired by the plurality of cameras 11 at the same time point. For example, a well-known three-dimensional data generation technique may be used for the movable data generation process.
  • the recognition processing unit 41 (recognition processing core 301) performs target information generation processing.
  • the recognition processing unit 41 performs the first information generation process, the second information generation process, and the information integration process.
  • the first information generation process is performed on the image data.
  • the recognition processing unit 41 performs the first information generation processing on each of the plurality of image data obtained by the plurality of cameras 11.
  • the recognition processing unit 41 identifies a pixel area classified into the target 60 by the classification process from the images shown in the image data D1, and the target based on the specified pixel area. Generate information.
  • the recognition processing unit 41 performs the first information generation processing for each of the plurality of target 60s.
  • the target information is information about the target 60, such as the type of the target 60, the shape of the target 60, the distance and direction from the own vehicle to the target 60, the position of the target 60 with respect to the own vehicle, and the self.
  • the magnitude and direction of the relative speed of the target 60 with respect to the moving speed of the vehicle are shown.
  • the recognition processing unit 41 performs the first information generation processing using the learning model generated by the deep learning.
  • This learning model is a learning model for generating target information based on a pixel region (pixel region classified into the target 60) specified from the image shown in the image data D1.
  • the recognition processing unit 41 may be configured to perform the first information generation processing by using another well-known information generation technology (target detection technology).
  • the second information generation process is performed on the output of the radar 12.
  • the recognition processing unit 41 performs the second information generation processing based on the output of each of the plurality of radars 12.
  • the recognition processing unit 41 generates target information based on the detection result of the radar 12.
  • the recognition processing unit 41 performs analysis processing on the detection result of the radar 12 (intensity distribution of the reflected wave expressing the external environment of the own vehicle), thereby performing target information (specifically, the target 60).
  • target information specifically, the target 60.
  • Type, shape of target 60, distance and direction from own vehicle to target 60, position of target 60 with respect to own vehicle, magnitude and direction of relative speed of target 60 with respect to movement speed of own vehicle, etc. ) Is derived.
  • the recognition processing unit 41 is configured to perform the second information generation processing using a learning model generated by deep learning (a learning model for generating target information based on the detection result of the radar 12). Alternatively, it may be configured to perform the second information generation process using another well-known analysis technique (target detection technique).
  • the recognition processing unit 41 integrates the target information obtained by the first information generation process and the target information obtained by the second information generation process to obtain new target information. Generate.
  • the recognition processing unit 41 refers to a plurality of parameters (specifically, the type of the target 60, the shape of the target 60, the distance and direction from the own vehicle to the target 60, and the own vehicle) included in the target information.
  • the parameters of the target information obtained by the first information generation process and the second information generation are compared, and the parameter having the higher accuracy among the two parameters is set as the parameter included in the new target information.
  • the integrated data generation unit 42 generates the integrated data D3 by integrating the movable area data generated in step S13 and the target information generated in step S14.
  • the integrated data D3 is data in which the movable area (roadway 50 in this example) and the target 60 recognized by the recognition processing unit 41 (recognition processing core 301) are integrated (three-dimensional map data in this example).
  • the integrated data generation unit 42 may be configured to generate integrated data D3 from the movable area data and the target information by using a well-known data integration technique.
  • FIG. 7 illustrates the concept of integrated data D3. As shown in FIG. 7, in the integrated data D3, the target 60 is abstracted.
  • the two-dimensional data generation unit 43 generates the two-dimensional data D4 by making the integrated data D3 two-dimensional.
  • the two-dimensional data D4 is data in which the movable area (roadway 50 in this example) and the target 60 included in the integrated data D3 are two-dimensional (two-dimensional map data in this example).
  • the two-dimensional data generation unit 43 may be configured to generate two-dimensional data D4 from the integrated data D3 by using a well-known two-dimensionalization technique.
  • the movable area (roadway 50 in this example) and the target 60 (own vehicle 100 in this example) are two-dimensionalized.
  • the two-dimensional data D4 corresponds to a bird's-eye view of the own vehicle 100 (a view looking down on the own vehicle 100 from the sky).
  • the two-dimensional data D4 includes a roadway 50, another vehicle 61, and own vehicle 100.
  • the recognition process performed by the recognition processing unit 41 includes a classification process, a movable area data generation process, and a target information generation process.
  • the output of the recognition processing core 301 indicates the external environment (movable area, target 60, etc.) of the own vehicle recognized by the recognition processing.
  • the abnormality detection core 302 acquires the output of the recognition processing core 301. That is, in the abnormality detection core 302, the output of the recognition processing core 301 indicates the external environment of the own vehicle recognized by the recognition processing.
  • the abnormality detection core 302 determines whether or not an abnormality has occurred in the output of the recognition processing core 301. If the output of the recognition processing core 301 is abnormal, the process of step S23 is performed, and if not, the process of step S24 is performed.
  • Step S23> When an abnormality in the output of the recognition processing core 301 has occurred, the abnormality detection core 302 determines that an abnormality in the data processing system including the camera 11 and the recognition processing unit 41 has occurred.
  • Step S24> On the other hand, when the output abnormality of the recognition processing core 301 has not occurred, the abnormality detection core 302 determines that the abnormality of the data processing system including the camera 11 and the recognition processing unit 41 has not occurred.
  • the abnormality of the output of the recognition processing core 301 includes a static abnormality of the output of the recognition processing core 301 and an abnormality of the temporal change of the output of the recognition processing core 301 (dynamic abnormality). That is, in this example, the abnormality detection core 302 processes data when at least one of a static abnormality of the output of the recognition processing core 301 and an abnormality of the temporal change of the output of the recognition processing core 301 have occurred. When it is determined that a system error has occurred and neither a static error in the output of the recognition processing core 301 nor an abnormality in the temporal change of the output of the recognition processing core 301 has occurred, the data processing system It is determined that no abnormality has occurred.
  • a static anomaly in the output of the recognition processing core 301 is detected based on the output of the recognition processing core 301 generated based on the image data acquired at a single time point.
  • Examples of static abnormalities in the output of the recognition processing core 301 include an abnormality in the amount of data in the output of the recognition processing core 301, an abnormality in the external environment of the own vehicle shown in the output of the recognition processing core 301, and the like.
  • the abnormality detection core 302 is normal in which the output data amount of the recognition processing core 301 is predetermined. If it deviates from the range, it is determined that an abnormality has occurred in the data processing system, and if the amount of data output from the recognition processing core 301 does not deviate from the normal range, it is determined that no abnormality has occurred in the data processing system. judge.
  • the abnormality detection core 302 is set to the output of the recognition processing core 301.
  • the indicated external environment of the own vehicle is unrealistic, it is determined that an abnormality in the data processing system has occurred, and the external environment of the own vehicle shown in the output of the recognition processing core 301 is realistic. In a certain case, it is determined that no abnormality has occurred in the data processing system.
  • the recognition processing core 301 As an example in which the external environment of the own vehicle shown in the output of the recognition processing core 301 is unrealistic, the position of the roadway 50 included in the external environment of the own vehicle shown in the output of the recognition processing core 301 and / Or if the shape is unrealistic, the position and / or shape of the target 60 contained in the external environment of the own vehicle shown in the output of the recognition processing core 301 is unrealistic, the recognition processing core 301 The case where the position and / or shape of each of the roadway 50 and the target 60 included in the external environment of the own vehicle shown in the output of the above is unrealistic.
  • the width of the roadway 50 deviates from a predetermined roadway width range (for example, a range from the minimum value to the maximum value of the assumed width of the roadway 50), it is an example of the target 60.
  • a predetermined roadway width range for example, a range from the minimum value to the maximum value of the assumed width of the roadway 50
  • the width of the other vehicle 61 deviates from a predetermined vehicle width range (for example, the range from the minimum value to the maximum value of the assumed width of the other vehicle 61).
  • the abnormality of the temporal change of the output of the recognition processing core 301 is detected based on the output of the plurality of recognition processing cores 301 generated based on the plurality of image data acquired at different time points.
  • Examples of temporal changes in the output of the recognition processing core 301 include abnormal changes in the amount of data in the output of the recognition processing core 301 and the time of the external environment of the own vehicle shown in the output of the recognition processing core 301. Abnormal changes in the target can be mentioned.
  • the abnormality detection core 302 is the time of the output data amount of the recognition processing core 301.
  • the target change amount for example, the change amount per unit time
  • the data amount of the output of the recognition processing core 301 is determined. If the amount of change over time does not deviate from the normal change range, it is determined that no abnormality has occurred in the data processing system.
  • the abnormality detection core 302 is the external environment of the own vehicle shown in the output of the recognition processing core 301.
  • the temporal change is unrealistic, it is determined that an abnormality in the data processing system has occurred, and the temporal change of the external environment of the own vehicle shown in the output of the recognition processing core 301 is realistic. In this case, it is determined that no abnormality has occurred in the data processing system.
  • the temporal change of the external environment of the own vehicle shown in the output of the recognition processing core 301 is unrealistic, the roadway included in the external environment of the own vehicle shown in the output of the recognition processing core 301.
  • the temporal change in position and / or shape of 50 (movable area) is unrealistic, the position and / or position of the target 60 contained in the external environment of the own vehicle shown in the output of the recognition processing core 301.
  • the temporal change of the shape is unrealistic, the temporal change of the position and / or shape of the roadway 50 and the target 60 included in the external environment of the own vehicle shown in the output of the recognition processing core 301 is This is the case when it is unrealistic.
  • the amount of change in the width of the roadway 50 with time exceeds a predetermined amount of change in the upper limit of the width of the roadway (for example, the upper limit of the amount of change in the width of the assumed roadway 50 with time), an example of the target 60.
  • the other vehicle 61 or a sign is used.
  • the target 60 such as 62 suddenly disappears and the target 60 cannot be tracked.
  • the arithmetic unit 20 of this embodiment can detect an abnormality in the data processing system without duplicating the entire data processing system to be detected for the abnormality. As a result, it is possible to reduce the increase in circuit scale and power consumption due to the addition of the abnormality detection function, as compared with the case where the entire data processing system to be detected for abnormality is duplicated.
  • the abnormality detection core 302 detects an abnormality in the data processing system based on the abnormality of the temporal change of the output of the recognition processing core 301. In this way, by based on the abnormality of the temporal change of the output of the recognition processing core 301, it is possible to detect an abnormality that cannot be detected only by the output of the recognition processing core 301 at a single time point. As a result, the accuracy of detecting an abnormality in the data processing system can be improved.
  • the abnormality in the output of the recognition processing core 301 is an abnormality in the movable area included in the external environment of the vehicle (that is, the external environment of the vehicle recognized by the authentication process) indicated in the output of the recognition processing core 301. Is preferable.
  • the abnormality detection core 302 detects an abnormality in the data processing system based on the abnormality in the movable region included in the external environment of the vehicle shown in the output of the recognition processing core 301.
  • the abnormality detection core 302 detects an abnormality in the data processing system based on the abnormality in the movable region recognized by the recognition process.
  • the area of the pixel area showing the movable area (for example, the roadway 50) tends to be larger than the area of the pixel area showing the target 60 (for example, the vehicle 61). It is in. Therefore, in the recognition process, the movable area is more easily recognized than the target.
  • the abnormality of the data processing system is detected based on the abnormality of the target recognized by the recognition processing.
  • the accuracy of detecting abnormalities in the data processing system can be improved.
  • the abnormality detection core 302 may be configured to detect an abnormality in the data processing system based on the duration of the abnormality of the output of the recognition processing core 301. Specifically, in this modification 2, the abnormality detection core 302 has an abnormality in the data processing system when the duration of the abnormality of the output of the recognition processing core 301 exceeds a predetermined normal time. If the duration of the abnormality of the output of the recognition processing core 301 does not exceed the normal time, it is determined that no abnormality has occurred in the data processing system.
  • the abnormalities in the output of the recognition processing core 301 include a static abnormality in the output of the recognition processing core 301 and an abnormality in the temporal change of the output of the recognition processing core 301 (dynamic abnormality). ) May be present.
  • the abnormality detection core 302 detects an abnormality in the data processing system based on the duration of the abnormality of the output of the recognition processing core 301. This makes it possible to reduce over-detection of abnormalities in the data processing system. For example, when the output of the recognition processing core 301 becomes abnormal for a short time due to another cause other than the abnormality of the data processing system (for example, instantaneous noise), the abnormality of the data processing system is erroneously detected. The situation can be avoided. As a result, it is possible to appropriately detect an abnormality in the data processing system.
  • a part or all of the plurality of arithmetic cores 300 may be configured to be switched between the recognition processing core 301 and the abnormality detection core 302.
  • the first row when all of the 12 arithmetic cores 300 arranged in a matrix of 3 rows and 4 columns can be switched between the recognition processing core 301 and the abnormality detection core 302, the first row.
  • the second state of 301 and the third state in which the arithmetic core 300 in the third row becomes the abnormality detection core 302 and the remaining arithmetic core 300 becomes the recognition processing core 301 may be switched in a cycle.
  • a part or all of the plurality of arithmetic cores 300 is configured to be switched between the recognition processing core 301 and the abnormality detection core 302.
  • the arithmetic core 300 which becomes the abnormality detection core 302 and is in charge of the abnormality detection processing can be switched to the recognition processing core 301 which is the target of the abnormality detection processing, so that the number of the arithmetic cores 300 which is the target of the abnormality detection processing is increased. Can be made to.
  • FIG. 10 illustrates a specific structure of the above-mentioned arithmetic unit 20.
  • the arithmetic unit 20 is provided in the vehicle V.
  • the arithmetic unit 20 has one or more electronic control units (ECUs).
  • the electronic control unit has one or more chips A.
  • Chip A has one or more cores B.
  • the core B has a processor P and a memory M. That is, the arithmetic unit 20 has one or more processors P and one or more memories M.
  • the memory M stores programs and information for operating the processor.
  • the memory M stores a module that is software that can be executed by the processor P, data indicating a model used in the processing of the processor P, and the like.
  • the functions of each part of the control device 20 described above are realized by the processor P executing each module stored in the memory M.
  • a vehicle (automobile four-wheeled vehicle) is taken as an example as a moving body, but the present invention is not limited to this.
  • the moving body may be a ship, a train, an aircraft, a motorcycle, a self-sustaining robot, a vacuum cleaner, a drone, or the like.
  • the two-dimensional data generation unit 43 may be provided in the artificial intelligence accelerator 32, or may be provided in another arithmetic chip.
  • the same can be said for other configurations of the external environment recognition unit 21 (for example, the preprocessing unit 40) and other configurations of the arithmetic unit 20 (for example, the candidate route generation unit 22).
  • the external environment recognition unit 21 is composed of the image processing chip 31, the artificial intelligence accelerator 32, and the control chip 33 has been given as an example, but the present invention is not limited to this.
  • the external environment recognition unit 21 may be composed of two or less arithmetic chips, or may be composed of four or more arithmetic chips. The same can be said for other configurations of the external environment recognition unit 21 (for example, the preprocessing unit 40) and other configurations of the arithmetic unit 20 (for example, the candidate route generation unit 22).
  • the technology disclosed here is useful as an external environment recognition device that recognizes the external environment of a moving body.
  • Vehicle control system (mobile control system) 11 Camera (imaging unit) 12 Radar (detector) 13 Position sensor 14 Vehicle status sensor 15 Driver status sensor 16 Driving operation sensor 17 Communication unit 18 Control unit 19 Human machine interface 20 Computing device 21 External environment recognition unit 22 Candidate route generation unit 23 Vehicle behavior recognition unit 24 Driver behavior recognition unit 25 Target Motion determination unit 26 Motion control unit 31 Image processing chip 32 Artificial intelligence accelerator 33 Control chip 40 Preprocessing unit 41 Recognition processing unit 42 Integrated data generation unit 43 Two-dimensional data generation unit 45 External environment data generation unit 50 Road (movable area) 60 Target 61 Other vehicle 62 Sign 63 Roadside tree 71 Sidewalk 72 Open space 80 Building 100 Vehicle (moving body) 101 Actuator 300 Calculation core 301 Recognition processing core 302 Anomaly detection core

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Computational Linguistics (AREA)
  • Mechanical Engineering (AREA)
  • Acoustics & Sound (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

認識処理部(41)は、移動体の外部環境を撮像する撮像部(11)により得られた画像データに基づいて移動体の外部環境を認識する認識処理を行う。認識処理部(41)は、複数の演算コア(300)により構成される。複数の演算コア(300)は、認識処理を行う認識処理コア(301)と、認識処理コア(301)の出力の異常に基づいて撮像部(11)と認識処理部(41)とを含むデータ処理系統の異常を検出する異常検出コア(302)とを含む。

Description

外部環境認識装置
 ここに開示する技術は、移動体の外部の環境を認識する外部環境認識装置に関する。
 特許文献1には、車両に搭載される画像処理装置が開示されている。この画像処理装置は、カメラで撮影して得られた撮影画像に基づく入力画像から路面領域を検出する路面検出部と、入力画像における路面領域の検出結果を時系列で検証する時系列検証を行う時系列検証部と、路面検出部による路面領域の検出結果と時系列検証部による時系列検証の結果とに基づいて対象物を検知するための検知領域を入力画像内に設定する検知領域選択部と、検知領域において対象物を検知する検知部とを備える。
特開2018-22234号公報
 ところで、特許文献1のような装置に設けられたデータ処理系統の異常を検出するために、異常検出の対象となるデータ処理系統を二重化することが考えられる。具体的には、同一のデータ処理を行う2つの処理部を設け、2つの処理部に同一のデータを入力して2つの処理部の出力を比較し、2つの処理部の出力が互いに異なる場合にデータ処理に異常があると判定する、という方式(いわゆるデュアルロックステップ方式)を採用することが考えられる。しかしながら、データ処理系統を二重化すると、冗長な構成が追加されることになるので、データ処理系統の回路規模および消費電力が増加してしまう。
 ここに開示する技術は、かかる点に鑑みてなされたものであり、その目的とするところは、異常検出機能の追加に伴う回路規模および消費電力の増加を低減することが可能な外部環境認識装置を提供することにある。
 ここに開示する技術は、移動体の外部環境を認識する外部環境認識装置に関する。この外部環境認識装置は、前記移動体の外部環境を撮像する撮像部により得られた画像データに基づいて、該移動体の外部環境を認識する認識処理を行う認識処理部を備える。前記認識処理部は、複数の演算コアにより構成される。前記複数の演算コアは、前記認識処理を行う認識処理コアと、前記認識処理コアの出力の異常に基づいて、前記撮像部と前記認識処理部とを含むデータ処理系統の異常を検出する異常検出コアとを含む。
 前記の構成では、異常検出の対象となるデータ処理系統の全体を二重化することなく、データ処理系統の異常を検出することができる。これにより、異常検出の対象となるデータ処理系統の全体を二重化する場合よりも、異常検出機能の追加に伴う回路規模および消費電力の増加を低減することができる。
 なお、前記認識処理コアの出力の異常は、該認識処理コアの出力に示された前記移動体の外部環境に含まれる移動可能領域の異常であってもよい。
 前記の構成では、異常検出コアは、認識処理コアの出力に示された移動可能領域(すなわち認識処理により認識された移動可能領域)の異常に基づいて、データ処理系統の異常を検出する。なお、移動体の外部環境を示す画像(画像データ)において、移動可能領域(例えば車道)を示す画素領域の面積は、物標(例えば車両)を示す画素領域の面積よりも大きくなる傾向にある。そのため、認識処理において、移動可能領域は、物標よりも認識されやすい。したがって、認識処理コアの出力に示された移動可能領域の異常に基づいてデータ処理系統の異常を検出することにより、認識処理コアの出力に示された物標の異常に基づいてデータ処理系統の異常を検出する場合よりも、データ処理系統の異常の検出精度を向上させることができる。
 また、前記認識処理コアの出力の異常は、該認識処理コアの出力の時間的変化の異常であってもよい。
 前記の構成では、異常検出コアは、認識処理コアの出力の時間的変化の異常に基づいてデータ処理系統の異常を検出する。このように、認識処理コアの出力の時間的変化の異常に基づくことにより、単一の時点における認識処理コアの出力だけでは検出することができない異常を検出することができる。これにより、データ処理系統の異常の検出精度を向上させることができる。
 また、前記異常検出コアは、前記認識処理コアの出力の異常の継続時間に基づいて、前記データ処理系統の異常を検出するように構成されてもよい。
 前記の構成では、認識処理コアの出力の異常の継続時間に基づいて、データ処理系統の異常を検出することにより、データ処理系統の異常の過検出を低減することができる。これにより、データ処理系統の異常の検出を適切に行うことができる。
 ここに開示する技術によれば、異常検出機能の追加に伴う回路規模および消費電力の増加を低減することができる。
実施形態による移動体制御システムの構成を例示するブロック図である。 外部環境認識部の構成を例示するブロック図である。 認識処理部の構成を例示するブロック図である。 外部環境認識部の基本動作を例示するフローチャートである。 画像データを例示する図である。 画像データの分類結果を例示する図である。 統合データの概念を例示する図である。 二次元データを例示する図である。 異常検出コアによる異常検出動作を例示するフローチャートである。 演算装置の具体的構造を例示する図である。
 以下、実施の形態を図面を参照して詳しく説明する。なお、図中同一または相当部分には同一の符号を付しその説明は繰り返さない。以下では、移動体の動作を制御する移動体制御システムの一例である車両制御システム10を例に挙げて説明する。
 (実施形態)
 図1は、車両制御システム10の構成を例示する。車両制御システム10は、移動体の一例である車両(この例では自動四輪車)に設けられる。この車両は、マニュアル運転とアシスト運転と自動運転とに切り換え可能である。マニュアル運転は、ドライバの操作(例えばアクセルの操作など)に応じて走行する運転である。アシスト運転は、ドライバの操作を支援して走行する運転である。自動運転は、ドライバの操作なしに走行する運転である。車両制御システム10は、自動運転およびアシスト運転において、車両に設けられたアクチュエータ101を制御することで車両の動作を制御する。例えば、アクチュエータ101は、エンジン、トランスミッション、ブレーキ、ステアリングなどを含む。
 なお、以下の説明では、車両制御システム10が設けられている車両を「自車両」と記載し、自車両の周囲に存在する他の車両を「他車両」と記載する。
 この例では、車両制御システム10は、複数のカメラ11と、複数のレーダ12と、位置センサ13と、車両状態センサ14と、ドライバ状態センサ15と、運転操作センサ16と、通信部17と、コントロールユニット18と、ヒューマンマシンインターフェース19と、演算装置20とを備える。演算装置20は、外部環境認識装置の一例である。
  〔カメラ(撮像部)〕
 複数のカメラ11は、互いに同様の構成を有する。カメラ11は、自車両の外部環境を撮像することで、自車両の外部環境を示す画像データを取得する。カメラ11により得られた画像データは、演算装置20に送信される。なお、カメラ11は、移動体の外部環境を撮像する撮像部の一例である。
 この例では、カメラ11は、広角レンズを有する単眼カメラである。そして、複数のカメラ11による自車両の外部環境の撮像範囲が自車両の周囲の全周に渡るように、複数のカメラ11が自車両に配置されている。例えば、カメラ11は、CCD(Charge Coupled Device)やCMOS(Complementary metal-oxide-semiconductor)などの固体撮像素子を用いて構成される。なお、カメラ11は、通常のレンズ(例えば狭角カメラ)を有する単眼カメラであってもよいし、ステレオカメラであってもよい。
  〔レーダ(検出部)〕
 複数のレーダ12は、互いに同様の構成を有する。レーダ12は、自車両の外部環境を検出する。具体的には、レーダ12は、自車両の外部環境へ向けて電波(探知波の一例)を送信して自車両の外部環境からの反射波を受信することで、自車両の外部環境を検出する。レーダ12の検出結果は、演算装置20に送信される。なお、レーダ12は、移動体の外部環境を検出する検出部の一例である。検出部は、移動体の外部環境へ向けて探知波を送信して移動体の外部環境からの反射波を受信することで、移動体の外部環境を検出する。
 この例では、複数のレーダ12による自車両の外部環境の検出範囲が自車両の周囲の全周に渡るように、複数のレーダ12が自車両に配置されている。例えば、レーダ12は、ミリ波(探知波の一例)を送信するミリ波レーダであってもよいし、レーザ光(探知波の一例)を送信するライダ(Light Detection and Ranging)であってもよいし、赤外線(探知波の一例)を送信する赤外線レーダであってもよいし、超音波(探知波の一例)を送信する超音波センサであってもよい。
  〔位置センサ〕
 位置センサ13は、自車両の位置(例えば緯度および経度)を検出する。例えば、位置センサ13は、全地球測位システムからのGPS情報を受信し、GPS情報に基づいて自車両の位置を検出する。位置センサ13により検出された自車両の位置は、演算装置20に送信される。
  〔車両状態センサ〕
 車両状態センサ14は、自車両の状態(例えば速度や加速度やヨーレートなど)を検出する。例えば、車両状態センサ14は、自車両の速度を検出する車速センサ、自車両の加速度を検出する加速度センサ、自車両のヨーレートを検出するヨーレートセンサなどにより構成される。車両状態センサ14により検出された自車両の状態は、演算装置20に送信される。
  〔ドライバ状態センサ〕
 ドライバ状態センサ15は、自車両を運転するドライバの状態(例えばドライバの健康状態や感情や身体挙動など)を検出する。例えば、ドライバ状態センサ15は、ドライバを撮像する車内カメラ、ドライバの生体情報を検出する生体情報センサなどにより構成される。ドライバ状態センサ15により検出されたドライバの状態は、演算装置20に送信される。
  〔運転操作センサ〕
 運転操作センサ16は、自車両に加えられる運転操作を検出する。例えば、運転操作センサ16は、自車両のハンドルの操舵角を検出する操舵角センサ、自車両のアクセルの操作量を検出するアクセルセンサ、自車両のブレーキの操作量を検出するブレーキセンサなどにより構成される。運転操作センサ16により検出された運転操作は、演算装置20に送信される。
  〔通信部〕
 通信部17は、自車両の外部に設けられた外部装置との間で通信を行う。例えば、通信部17は、自車両の周囲に位置する他車両(図示を省略)からの通信情報、ナビゲーションシステム(図示を省略)からの交通情報などを受信する。通信部17により受信された情報は、演算装置20に送信される。
  〔コントロールユニット〕
 コントロールユニット18は、演算装置20により制御され、自車両に設けられたアクチュエータ101を制御する。例えば、コントロールユニット18は、パワートレイン装置、ブレーキ装置、ステアリング装置などを含む。パワートレイン装置は、後述する駆動指令値に示された目標駆動力に基づいて、アクチュエータ101に含まれるエンジンおよびトランスミッションを制御する。ブレーキ装置は、後述する制動指令値に示された目標制動力に基づいて、アクチュエータ101に含まれるブレーキを制御する。ステアリング装置は、後述する操舵指令値に示された目標操舵量に基づいてアクチュエータ101に含まれるステアリングを制御する。
  〔ヒューマンマシンインターフェース〕
 ヒューマンマシンインターフェース19は、演算装置20と自車両の乗員(特にドライバ)との間において情報の入出力を行うために設けられる。例えば、ヒューマンマシンインターフェース19は、情報を表示するディスプレイ、情報を音声出力するスピーカ、音声を入力するマイク、自車両の乗員(特にドライバ)による操作が与えられる操作部などを含む。操作部は、タッチパネルやボタンである。
  〔演算装置〕
 演算装置20は、自車両に設けられたセンサ類の出力および車外から送信された情報などに基づいて、自車両が走行すべき経路である目標経路を決定し、目標経路を走行するために必要となる自車両の運動である目標運動を決定する。そして、演算装置20は、自車両の運動が目標運動となるように、コントロールユニット18を制御してアクチュエータ101の動作を制御する。例えば、演算装置20は、1つまたは複数の演算チップを有する電子制御ユニット(ECU)により構成される。言い換えると、演算装置20は、1つまたは複数のプロセッサ、1つまたは複数のプロセッサを動作させるためのプログラムやデータを記憶する1つまたは複数のメモリなどを有する電子制御ユニット(ECU)により構成される。
 この例では、演算装置20は、外部環境認識部21と、候補経路生成部22と、車両挙動認識部23と、ドライバ挙動認識部24と、目標運動決定部25と、運動制御部26とを有する。これらは、演算装置20の機能の一部である。
 外部環境認識部21は、自車両の外部環境を認識する。候補経路生成部22は、外部環境認識部21の出力に基づいて1つまたは複数の候補経路を生成する。候補経路は、自車両が走行可能な経路であり、目標経路の候補である。
 車両挙動認識部23は、車両状態センサ14の出力に基づいて自車両の挙動(例えば速度や加速度やヨーレートなど)を認識する。例えば、車両挙動認識部23は、深層学習により生成された学習モデルを用いて車両状態センサ14の出力から自車両の挙動を認識する。ドライバ挙動認識部24は、ドライバ状態センサ15の出力に基づいてドライバの挙動(例えばドライバの健康状態や感情や身体挙動など)を認識する。例えば、ドライバ挙動認識部24は、深層学習により生成された学習モデルを用いてドライバ状態センサ15の出力からドライバの挙動を認識する。
 目標運動決定部25は、車両挙動認識部23の出力と、ドライバ挙動認識部24の出力に基づいて、候補経路生成部22により生成された1つまたは複数の候補経路の中から目標経路となる候補経路を選択する。例えば、目標運動決定部25は、複数の候補経路のうちドライバが最も快適であると感じる候補経路を選択する。そして、目標運動決定部25は、目標経路として選択された候補経路に基づいて目標運動を決定する。
 運動制御部26は、目標運動決定部25により決定された目標運動に基づいてコントロールユニット18を制御する。例えば、運動制御部26は、目標運動を達成するための駆動力と制動力と操舵量である目標駆動力と目標制動力と目標操舵量をそれぞれ導出する。そして、運動制御部26は、目標駆動力を示す駆動指令値と目標制動力を示す制動指令値と目標操舵量を示す操舵指令値をコントロールユニット18に含まれるパワートレイン装置とブレーキ装置とステアリング装置にそれぞれ送信する。
  〔外部環境認識部〕
 図2は、外部環境認識部21の構成を例示する。この例では、外部環境認識部21は、画像処理チップ31と、人工知能アクセラレータ32と、制御チップ33とにより構成される。画像処理チップ31と人工知能アクセラレータ32と制御チップ33の各々は、プロセッサと、プロセッサを動作させるためのプログラムやデータなどを記憶するメモリとにより構成される。
 この例では、外部環境認識部21は、前処理部40と、認識処理部41と、統合データ生成部42と、二次元データ生成部43とを有する。これらは、外部環境認識部21の機能の一部である。この例では、画像処理チップ31に前処理部40が設けられ、人工知能アクセラレータ32に認識処理部41と統合データ生成部42が設けられ、制御チップ33に二次元データ生成部43が設けられる。
   〈前処理部〉
 前処理部40は、カメラ11により得られた画像データに対して前処理を行う。前処理には、画像データに示された画像の歪みを補正する歪み補正処理、画像データに示された画像の明度を調整するホワイトバランス調整処理などが含まれる。
   〈認識処理部〉
 認識処理部41は、認識処理を行う。認識処理では、認識処理部41は、前処理部40により前処理された画像データに基づいて、自車両の外部環境を認識する。この例では、認識処理部41は、画像データに基づいて認識された自車両の外部環境と、レーザ12の検出結果(すなわちレーダ12により検出された自車両の外部環境)とに基づいて、自車両の外部環境の認識結果を出力する。
   〈統合データ生成部〉
 統合データ生成部42は、認識処理部41の認識結果に基づいて、統合データを生成する。統合データは、認識処理部41により認識された自車両の外部環境に含まれる移動可能領域および物標が統合されたデータである。この例では、統合データ生成部42は、認識処理部41の認識結果に基づいて、統合データを生成する。
   〈二次元データ生成部〉
 二次元データ生成部43は、統合データ生成部42により生成された統合データに基づいて、二次元データを生成する。二次元データは、統合データに含まれる移動可能領域および物標が二次元化されたデータである。
   〈外部環境データ生成部〉
 なお、この例では、統合データ生成部42と二次元データ生成部43が外部環境データ生成部45を構成している。外部環境データ生成部45は、認識処理部41の認識結果に基づいて、外部環境データ(オブジェクトデータ)を生成する。外部環境データは、認識処理部41により認識された自車両の外部環境を表現するデータである。この例では、外部環境データ生成部45は、認識処理部41の認識結果に基づいて、外部環境データを生成する。
  〔認識処理部の構成〕
 図3は、認識処理部41の構成を例示する。認識処理部41は、複数の演算コア300により構成される。複数の演算コア300は、認識処理コア301と、異常検出コア302とを含む。図3の例では、12個の演算コア300のうち8つの演算コア300が認識処理コア301であり、残りの4つの演算コア300が異常検出コア302である。例えば、演算コア300は、プロセッサと、プロセッサを動作させるためのプログラムやデータを記憶するメモリとにより構成される。
 認識処理コア301は、認識処理を行う。認識処理では、認識処理コア301は、前処理部40により前処理された画像データに基づいて、自車両の外部環境を認識する。この例では、認識処理コア301は、画像データに基づいて認識された自車両の外部環境と、レーザ12の検出結果とに基づいて、自車両の外部環境の認識結果を出力する。
 異常検出コア302は、認識処理コア301の出力の異常に基づいて、カメラ11と認識処理部41とを含むデータ処理系統の異常を検出する。この例では、カメラ11と認識処理部41とを含むデータ処理系統は、カメラ11から前処理部40を経由して認識処理部41に至るデータ処理系統である。例えば、異常検出コア302は、データ処理系統の異常を検出する異常検出処理において、深層学習により生成された学習モデルを用いて認識処理コア301の出力の異常を検出するように構成されてもよい。この学習モデルは、認識処理コア301の出力の異常を検出するための学習モデルである。なお、異常検出コア302は、他の周知の異常検出技術を用いて認識処理コア301の出力の異常を検出するように構成されてもよい。
  〔外部環境認識部の基本動作〕
 次に、図4を参照して、外部環境認識部21の基本動作について説明する。
   〈ステップS11〉
 まず、前処理部40は、カメラ11により得られた画像データに対して前処理を行う。この例では、前処理部40は、複数のカメラ11により得られた複数の画像データの各々に対して前処理を行う。前処理には、画像データに示された画像の歪み(この例ではカメラ11の広角化による歪み)を補正する歪み補正処理や、画像データに示された画像のホワイトバランスを調整するホワイトバランス調整処理などが含まれる。なお、カメラ11により得られた画像データに歪みがない場合(例えば通常のレンズを有するカメラを用いる場合)は、歪み補正処理が省略されてもよい。
 図5に示すように、画像データD1に示された自車両の外部環境には、車道50と歩道71と空地72が含まれている。車道50は、自車両が移動することができる移動可能領域の一例である。また、この画像データD1に示された自車両の外部環境には、他車両61と標識62と街路樹63と建物80が含まれている。他車両61(自動四輪車)は、時間経過により変位する動体の一例である。動体の他の例としては、自動二輪車、自転車、歩行者などが挙げられる。標識62と街路樹63は、時間経過により変位しない静止体の一例である。静止体の他の例としては、中央分離帯、センターポール、建物などが挙げられる。動体と静止体は、物標60の一例である。
 図5の例では、車道50の外側に歩道71が設けられ、歩道71の外側(車道50から遠い側)に空地72が設けられている。また、図5の例では、車道50のうち自車両が走行する車線を1台の他車両61が走行し、車道50のうち自車両が走行する車線の対向車線を2台の他車両61が走行している。そして、歩道71の外側に沿うように標識62と街路樹63が並んでいる。また、自車両の前方の遠い位置に建物80が設けられている。
   〈ステップS12〉
 次に、認識処理部41(認識処理コア301)は、画像データD1に対して分類処理を行う。この例では、認識処理部41は、複数のカメラ11により得られた複数の画像データの各々に対して分類処理を行う。分類処理では、認識処理部41は、画像データD1に示された画像を画素単位で分類し、その分類結果を示す分類情報を画像データD1に付加する。この分類処理により、認識処理部41は、画像データD1に示された画像(自車両の外部環境を示す画像)の中から移動可能領域および物標を認識する。例えば、認識処理部41は、深層学習により生成された学習モデルを用いて分類処理を行う。この学習モデルは、画像データD1に示された画像を画素単位で分類するための学習モデルである。なお、認識処理部41は、他の周知の分類技術を用いて分類処理を行うように構成されてもよい。
 図6は、画像データD1に示される画像の分類結果を例示するセグメンテーション画像D2を示す。図6の例では、画像データD1に示される画像は、画素単位で、車道と車両と標識と街路樹と歩道と空地と建物のいずれかに分類されている。
   〈ステップS13〉
 次に、認識処理部41(認識処理コア301)は、画像データに対して、移動可能領域データ生成処理を行う。移動可能領域データ生成処理では、認識処理部41は、画像データD1に示される画像の中から分類処理により移動可能領域(この例では車道50)に分類された画素領域を特定し、その特定された画素領域に基づいて移動可能領域データを生成する。移動可能領域データは、認識処理部41により認識された移動可能領域を表現するデータ(この例では三次元マップデータ)である。この例では、認識処理部41は、同一の時点において複数のカメラ11により取得された複数の画像データの各々において特定された移動可能領域に基づいて、移動可能領域データを生成する。例えば、移動可能データ生成処理には、周知の三次元データ生成技術が用いられてもよい。
   〈ステップS14〉
 また、認識処理部41(認識処理コア301)は、物標情報生成処理を行う。物標情報生成処理では、認識処理部41は、第1情報生成処理と、第2情報生成処理と、情報統合処理とを行う。
 第1情報生成処理は、画像データに対して行われる。この例では、認識処理部41は、複数のカメラ11により得られた複数の画像データの各々に対して第1情報生成処理を行う。第1情報生成処理では、認識処理部41は、画像データD1に示される画像の中から分類処理により物標60に分類された画素領域を特定し、その特定された画素領域に基づいて物標情報を生成する。なお、画像データD1に示された画像において複数の物標60が認識された場合、認識処理部41は、複数の物標60の各々に対して第1情報生成処理を行う。物標情報は、物標60に関する情報であり、物標60の種別、物標60の形状、自車両から物標60までの距離および方向、自車両を基準とする物標60の位置、自車両の移動速度に対する物標60の相対速度の大きさおよび向きなどを示す。例えば、認識処理部41は、深層学習により生成された学習モデルを用いて第1情報生成処理を行う。この学習モデルは、画像データD1に示される画像の中から特定された画素領域(物標60に分類された画素領域)に基づいて物標情報を生成ための学習モデルである。なお、認識処理部41は、他の周知の情報生成技術(物標検出技術)を用いて第1情報生成処理を行うように構成されてもよい。
 第2情報生成処理は、レーダ12の出力に対して行われる。この例では、認識処理部41は、複数のレーダ12の各々の出力に基づいて第2情報生成処理を行う。第2情報生成処理では、認識処理部41は、レーダ12の検出結果に基づいて物標情報を生成する。例えば、認識処理部41は、レーダ12の検出結果(自車両の外部環境を表現する反射波の強度分布)に対して解析処理を行うことで、物標情報(具体的には物標60の種別、物標60の形状、自車両から物標60までの距離および方向、自車両を基準とする物標60の位置、自車両の移動速度に対する物標60の相対速度の大きさおよび向きなど)を導出する。なお、認識処理部41は、深層学習により生成された学習モデル(レーダ12の検出結果に基づいて物標情報を生成するための学習モデル)を用いて第2情報生成処理を行うように構成されてもよいし、他の周知の解析技術(物標検出技術)を用いて第2情報生成処理を行うように構成されてもよい。
 情報統合処理では、認識処理部41は、第1情報生成処理により得られた物標情報と、第2情報生成処理により得られた物標情報とを統合することにより、新たな物標情報を生成する。例えば、認識処理部41は、物標情報に含まれる複数のパラメータ(具体的には物標60の種別、物標60の形状、自車両から物標60までの距離および方向、自車両を基準とする物標60の位置、自車両の移動速度に対する物標60の相対速度の大きさおよび向きなど)の各々について、第1情報生成処理により得られた物標情報のパラメータと第2情報生成処理により得られた物標情報のパラメータとを比較し、2つのパラメータのうち精度が高いほうのパラメータを新たな物標情報に含まれるパラメータとする。
   〈ステップS15〉
 次に、統合データ生成部42は、ステップS13において生成された移動可能領域データと、ステップS14において生成された物標情報とを統合することにより、統合データD3を生成する。統合データD3は、認識処理部41(認識処理コア301)により認識された移動可能領域(この例では車道50)および物標60が統合されたデータ(この例では三次元マップデータ)である。例えば、統合データ生成部42は、周知のデータ統合技術を用いて、移動可能領域データと物標情報とから統合データD3を生成するように構成されてもよい。
 図7は、統合データD3の概念を例示する。図7に示すように、統合データD3では、物標60が抽象化されている。
   〈ステップS16〉
 次に、二次元データ生成部43は、統合データD3を二次元化することにより、二次元データD4を生成する。二次元データD4は、統合データD3に含まれる移動可能領域(この例では車道50)および物標60が二次元化されたデータ(この例では二次元マップデータ)である。例えば、二次元データ生成部43は、周知の二次元化技術を用いて、統合データD3から二次元データD4を生成するように構成されてもよい。
 図8に示すように、二次元データD4では、移動可能領域(この例では車道50)と物標60(この例では自車両100)とが二次元化されている。この例では、二次元データD4は、自車両100の俯瞰図(上空から自車両100を見下ろした図)に対応する。二次元データD4には、車道50と他車両61と自車両100とが含まれている。
 以上のように、この例では、認識処理部41(具体的には認識処理コア301)により行われる認識処理には、分類処理と、移動可能領域データ生成処理と、物標情報生成処理とが含まれている。そして、認識処理コア301の出力には、認識処理により認識された自車両の外部環境(移動可能領域や物標60など)が示されている。
  〔異常検出処理〕
 次に、図9を参照して、異常検出コア302による異常検出処理(データ処理系統の異常を検出する処理)について説明する。
   〈ステップS21〉
 まず、異常検出コア302は、認識処理コア301の出力を取得する。すなわち、異常検出コア302は、認識処理コア301の出力には、認識処理により認識された自車両の外部環境が示されている。
   〈ステップS22〉
 次に、異常検出コア302は、認識処理コア301の出力の異常が発生しているか否かを判定する。認識処理コア301の出力の異常が発生している場合には、ステップS23の処理が行われ、そうでない場合には、ステップS24の処理が行われる。
   〈ステップS23〉
 認識処理コア301の出力の異常が発生している場合、異常検出コア302は、カメラ11と認識処理部41とを含むデータ処理系統の異常が発生していると判定する。
   〈ステップS24〉
 一方、認識処理コア301の出力の異常が発生していない場合、異常検出コア302は、カメラ11と認識処理部41とを含むデータ処理系統の異常が発生していないと判定する。
  〔認識処理コア301の出力の異常の具体例〕
 次に、認識処理コア301の出力の異常について説明する。この例では、認識処理コア301の出力の異常には、認識処理コア301の出力の静的な異常と、認識処理コア301の出力の時間的変化の異常(動的な異常)とがある。すなわち、この例では、異常検出コア302は、認識処理コア301の出力の静的な異常および認識処理コア301の出力の時間的変化の異常のうち少なくとも一方が発生している場合に、データ処理系統の異常が発生していると判定し、認識処理コア301の出力の静的な異常および認識処理コア301の出力の時間的変化の異常の両方が発生していない場合に、データ処理系統の異常が発生していないと判定する。
   〈認識処理コア301の出力の静的な異常〉
 認識処理コア301の出力の静的な異常は、単一の時点において取得された画像データに基づいて生成された認識処理コア301の出力に基づいて検出される。認識処理コア301の出力の静的な異常の例としては、認識処理コア301の出力のデータ量の異常、認識処理コア301の出力に示された自車両の外部環境の異常などが挙げられる。
 認識処理コア301の出力のデータ量の異常に基づく異常検出処理(データ処理系統の異常を検出する処理)では、異常検出コア302は、認識処理コア301の出力のデータ量が予め定められた正常範囲から逸脱する場合に、データ処理系統の異常が発生していると判定し、認識処理コア301の出力のデータ量が正常範囲から逸脱しない場合に、データ処理系統の異常が発生していないと判定する。
 認識処理コア301の出力に示された自車両の外部環境(すなわち認識処理により認識された車両の外部環境)の異常に基づく異常検出処理では、異常検出コア302は、認識処理コア301の出力に示された自車両の外部環境が非現実的である場合に、データ処理系統の異常が発生していると判定し、認識処理コア301の出力に示された自車両の外部環境が現実的である場合に、データ処理系統の異常が発生していないと判定する。なお、認識処理コア301の出力に示された自車両の外部環境が非現実的である例としては、認識処理コア301の出力に示された自車両の外部環境に含まれる車道50の位置および/または形状が非現実的である場合、認識処理コア301の出力に示された自車両の外部環境に含まれる物標60の位置および/または形状が非現実的である場合、認識処理コア301の出力に示された自車両の外部環境に含まれる車道50および物標60の各々の位置および/または形状が非現実的である場合などが挙げられる。具体的には、車道50の幅が予め定められた車道幅範囲(例えば想定される車道50の幅の最小値から最大値までの範囲)から逸脱している場合、物標60の一例である他車両61の車幅が予め定められた車幅範囲(例えば想定される他車両61の幅の最小値から最大値までの範囲)から逸脱している場合などが挙げられる。
   〈認識処理コア301の出力の時間的変化の異常〉
 認識処理コア301の出力の時間的変化の異常は、それぞれ異なる時点において取得された複数の画像データに基づいて生成された複数の認識処理コア301の出力に基づいて検出される。認識処理コア301の出力の時間的変化の異常の例としては、認識処理コア301の出力のデータ量の時間的変化の異常、認識処理コア301の出力に示された自車両の外部環境の時間的変化の異常などが挙げられる。
 認識処理コア301の出力のデータ量の時間的変化の異常に基づく異常検出処理(データ処理系統の異常を検出する処理)では、異常検出コア302は、認識処理コア301の出力のデータ量の時間的変化量(例えば単位時間当たりの変化量)が予め定められた正常変化範囲から逸脱する場合に、データ処理系統の異常が発生していると判定し、認識処理コア301の出力のデータ量の時間的変化量が正常変化範囲から逸脱しない場合に、データ処理系統の異常が発生していないと判定する。
 認識処理コア301の出力に示された自車両の外部環境の時間的変化の異常に基づく異常検出処理では、異常検出コア302は、認識処理コア301の出力に示された自車両の外部環境の時間的変化が非現実的である場合に、データ処理系統の異常が発生していると判定し、認識処理コア301の出力に示された自車両の外部環境の時間的変化が現実的である場合に、データ処理系統の異常が発生していないと判定する。なお、認識処理コア301の出力に示された自車両の外部環境の時間的変化が非現実的である例としては、認識処理コア301の出力に示された自車両の外部環境に含まれる車道50(移動可能領域)の位置および/または形状の時間的変化が非現実的である場合、認識処理コア301の出力に示された自車両の外部環境に含まれる物標60の位置および/または形状の時間的変化が非現実的である場合、認識処理コア301の出力に示された自車両の外部環境に含まれる車道50および物標60の各々の位置および/または形状の時間的変化が非現実的である場合などが挙げられる。具体的には、車道50の幅の時間的変化量が予め定められた車道幅上限変化量(例えば想定される車道50の幅の時間的変化量の上限)を上回る場合、物標60の一例である他車両61の車幅の時間的変化量が予め定められた車幅上限変化量(例えば想定される他車両61の幅の時間的変化量の上限)を上回る場合、他車両61や標識62などの物標60が急に消えて物標60を追跡することができない場合などが挙げられる。
  〔実施形態の効果〕
 以上のように、この実施形態の演算装置20では、異常検出の対象となるデータ処理系統の全体を二重化することなく、データ処理系統の異常を検出することができる。これにより、異常検出の対象となるデータ処理系統の全体を二重化する場合よりも、異常検出機能の追加に伴う回路規模および消費電力の増加を低減することができる。
 また、この実施形態の演算装置20では、異常検出コア302は、認識処理コア301の出力の時間的変化の異常に基づいてデータ処理系統の異常を検出する。このように、認識処理コア301の出力の時間的変化の異常に基づくことにより、単一の時点における認識処理コア301の出力だけでは検出することができない異常を検出することができる。これにより、データ処理系統の異常の検出精度を向上させることができる。
 (実施形態の変形例1)
 なお、認識処理コア301の出力の異常は、認識処理コア301の出力に示された車両の外部環境(すなわち認証処理により認識された車両の外部環境)に含まれる移動可能領域の異常であることが好ましい。この変形例1では、異常検出コア302は、認識処理コア301の出力に示された車両の外部環境に含まれる移動可能領域の異常に基づいて、データ処理系統の異常を検出する。
  〔実施形態の変形例1の効果〕
 この実施形態の変形例1の演算装置20では、異常検出コア302は、認識処理により認識された移動可能領域の異常に基づいて、データ処理系統の異常を検出する。なお、車両の外部環境を示す画像(画像データ)において、移動可能領域(例えば車道50)を示す画素領域の面積は、物標60(例えば車両61)を示す画素領域の面積よりも大きくなる傾向にある。そのため、認識処理において、移動可能領域は、物標よりも認識されやすい。したがって、認識処理により認識された移動可能領域の異常に基づいてデータ処理系統の異常を検出することにより、認識処理により認識された物標の異常に基づいてデータ処理系統の異常を検出する場合よりも、データ処理系統の異常の検出精度を向上させることができる。
 (実施形態の変形例2)
 また、異常検出コア302は、認識処理コア301の出力の異常の継続時間に基づいて、データ処理系統の異常を検出するように構成されてもよい。具体的には、この変形例2では、異常検出コア302は、認識処理コア301の出力の異常の継続時間が予め定められた正常時間を上回る場合に、データ処理系統に異常が発生していると判定し、認識処理コア301の出力の異常の継続時間が正常時間を上回らない場合に、データ処理系統に異常が発生していないと判定する。なお、この変形例2においても、認識処理コア301の出力の異常には、認識処理コア301の出力の静的な異常と、認識処理コア301の出力の時間的変化の異常(動的な異常)とがあってもよい。
  〔実施形態の変形例2の効果〕
 この実施形態の変形例2の演算装置20では、異常検出コア302は、認識処理コア301の出力の異常の継続時間に基づいて、データ処理系統の異常を検出する。これにより、データ処理系統の異常の過検出を低減することができる。例えば、データ処理系統の異常ではない別の原因(例えば瞬時的なノイズなど)により認識処理コア301の出力が僅かな時間だけ異常となる場合に、データ処理系統の異常が誤検出される、という事態を回避することができる。これにより、データ処理系統の異常の検出を適切に行うことができる。
 (実施形態の変形例3)
 また、複数の演算コア300の一部または全部は、認識処理コア301と異常検出コア302とに切り換えられるように構成されてもよい。例えば、図3に示すように、3行4列の行列状に配列された12個の演算コア300の全部が認識処理コア301と異常検出コア302とに切り換え可能である場合、第1行目の演算コア300が異常検出コア302となり残りの演算コア300が認識処理コア301となる第1状態と、第2行目の演算コア300が異常検出コア302となり残りの演算コア300が認識処理コア301となる第2状態と、第3行目の演算コア300が異常検出コア302となり残りの演算コア300が認識処理コア301となる第3状態とが周期に切り換えられてもよい。
  〔実施形態の変形例3の効果〕
 この実施形態の変形例3の演算装置20では、複数の演算コア300の一部または全部は、認識処理コア301と異常検出コア302とに切り換えられるように構成される。これにより、異常検出コア302となり異常検出処理を担当する演算コア300を異常検出処理の対象となる認識処理コア301に切り換えることができるので、異常検出処理の対象となる演算コア300の数を増加させることができる。
 (制御装置の具体的構造)
 図10は、上述の演算装置20の具体的構造を例示する。演算装置20は、車両Vに設けられる。演算装置20は、1つまたは複数の電子制御ユニット(ECU)を有する。電子制御ユニットは、1つまたは複数のチップAを有する。チップAは、1つまたは複数のコアBを有する。コアBは、プロセッサPと、メモリMとを有する。すなわち、演算装置20は、1つまたは複数のプロセッサPと、1つまたは複数のメモリMとを有する。メモリMは、プロセッサを動作させるためのプログラムおよび情報を記憶する。具体的には、メモリMは、プロセッサPにより実行可能なソフトウェアであるモジュール、プロセッサPの処理において利用されるモデルを示すデータなどを記憶する。上述の制御装置20の各部の機能は、プロセッサPがメモリMに記憶された各モジュールを実行することにより実現される。
 (その他の実施形態)
 以上の説明では、移動体として車両(自動四輪車)を例に挙げたが、これに限定されない。例えば、移動体は、船舶、列車、航空機、自動二輪車、自立移動型のロボット、掃除機、ドローンなどであってもよい。
 また、以上の説明では、二次元データ生成部43が制御チップ33に設けられる場合を例に挙げたが、これに限定されない。例えば、二次元データ生成部43は、人工知能アクセラレータ32に設けられてもよいし、その他の演算チップに設けられてもよい。なお、外部環境認識部21の他の構成(例えば前処理部40など)および演算装置20の他の構成(例えば候補経路生成部22など)についても同様のことがいえる。
 また、以上の説明では、外部環境認識部21が画像処理チップ31と人工知能アクセラレータ32と制御チップ33とにより構成される場合を例に挙げたが、これに限定されない。例えば、外部環境認識部21は、2つ以下の演算チップにより構成されてもよいし、4つ以上の演算チップにより構成されてもよい。なお、外部環境認識部21の他の構成(例えば前処理部40など)および演算装置20の他の構成(例えば候補経路生成部22など)についても同様のことがいえる。
 また、以上の実施形態および変形例を適宜組み合わせて実施してもよい。以上の実施形態および変形例は、本質的に好ましい例示であって、この発明、その適用物、あるいはその用途の範囲を制限することを意図するものではない。
 以上説明したように、ここに開示する技術は、移動体の外部の環境を認識する外部環境認識装置として有用である。
10     車両制御システム(移動体制御システム)
11     カメラ(撮像部)
12     レーダ(検出部)
13     位置センサ
14     車両状態センサ
15     ドライバ状態センサ
16     運転操作センサ
17     通信部
18     コントロールユニット
19     ヒューマンマシンインターフェース
20     演算装置
21     外部環境認識部
22     候補経路生成部
23     車両挙動認識部
24     ドライバ挙動認識部
25     目標運動決定部
26     運動制御部
31     画像処理チップ
32     人工知能アクセラレータ
33     制御チップ
40     前処理部
41     認識処理部
42     統合データ生成部
43     二次元データ生成部
45     外部環境データ生成部
50     車道(移動可能領域)
60     物標
61     他車両
62     標識
63     街路樹
71     歩道
72     空地
80     建物
100    車両(移動体)
101    アクチュエータ
300    演算コア
301    認識処理コア
302    異常検出コア

Claims (4)

  1.  移動体の外部環境を認識する外部環境認識装置であって、
     前記移動体の外部環境を撮像する撮像部により得られた画像データに基づいて、該移動体の外部環境を認識する認識処理を行う認識処理部を備え、
     前記認識処理部は、複数の演算コアにより構成され、
     前記複数の演算コアは、
      前記認識処理を行う認識処理コアと、
      前記認識処理コアの出力の異常に基づいて、前記撮像部と前記認識処理部とを含むデータ処理系統の異常を検出する異常検出コアとを含む
    ことを特徴とする外部環境認識装置。
  2.  請求項1において、
     前記認識処理コアの出力の異常は、該認識処理コアの出力に示された前記移動体の外部環境に含まれる移動可能領域の異常である
    ことを特徴とする外部環境認識装置。
  3.  請求項1または2において、
     前記認識処理コアの出力の異常は、該認識処理コアの出力の時間的変化の異常である
    ことを特徴とする外部環境認識装置。
  4.  請求項1~3のいずれか1つにおいて、
     前記異常検出コアは、前記認識処理コアの出力の異常の継続時間に基づいて、前記データ処理系統の異常を検出する
    ことを特徴とする外部環境認識装置。
PCT/JP2020/011537 2019-06-14 2020-03-16 外部環境認識装置 WO2020250527A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202080043188.1A CN113966526A (zh) 2019-06-14 2020-03-16 外部环境识别装置
US17/618,504 US11830254B2 (en) 2019-06-14 2020-03-16 Outside environment recognition device
EP20821657.2A EP3979221A4 (en) 2019-06-14 2020-03-16 EXTERNAL ENVIRONMENT DETECTION DEVICE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019111071A JP7400222B2 (ja) 2019-06-14 2019-06-14 外部環境認識装置
JP2019-111071 2019-06-14

Publications (1)

Publication Number Publication Date
WO2020250527A1 true WO2020250527A1 (ja) 2020-12-17

Family

ID=73781736

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/011537 WO2020250527A1 (ja) 2019-06-14 2020-03-16 外部環境認識装置

Country Status (5)

Country Link
US (1) US11830254B2 (ja)
EP (1) EP3979221A4 (ja)
JP (1) JP7400222B2 (ja)
CN (1) CN113966526A (ja)
WO (1) WO2020250527A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285699A (ja) * 2005-03-31 2006-10-19 Nohmi Bosai Ltd 画像処理装置
JP2013140448A (ja) * 2011-12-28 2013-07-18 Fujitsu Ltd 路面調査プログラム及び路面調査装置
JP2018022234A (ja) 2016-08-01 2018-02-08 クラリオン株式会社 画像処理装置、外界認識装置
JP2018124864A (ja) * 2017-02-02 2018-08-09 株式会社デンソーテン 車両制御装置及び車両制御方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10218924A1 (de) 2002-04-27 2003-11-06 Bosch Gmbh Robert Verfahren und Vorrichtung zur Kursprädiktion bei Kraftfahrzeugen
JP4738778B2 (ja) * 2003-10-15 2011-08-03 富士通テン株式会社 画像処理装置、運転支援装置および運転支援システム
WO2010040402A1 (en) * 2008-10-08 2010-04-15 Tomtom International B.V. Navigation apparatus and method for recording image data
DE102009024131A1 (de) 2009-06-05 2010-01-21 Daimler Ag Verfahren zur Ermittelung einer Fahrspur und Fahrerassistenzsystem für ein Fahrzeug mit Mitteln zur Ermittelung einer Fahrspur
JP6316976B2 (ja) * 2014-09-30 2018-04-25 日立オートモティブシステムズ株式会社 車載画像認識装置
DE102015222321A1 (de) * 2015-11-12 2017-05-18 Siemens Aktiengesellschaft Verfahren zum Betrieb eines Mehrkernprozessors
CN107226091B (zh) * 2016-03-24 2021-11-26 松下电器(美国)知识产权公司 物体检测装置、物体检测方法以及记录介质
JP6858002B2 (ja) 2016-03-24 2021-04-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 物体検出装置、物体検出方法及び物体検出プログラム
JP6664317B2 (ja) * 2016-12-28 2020-03-13 本田技研工業株式会社 情報処理システム、および情報処理方法
US20180215392A1 (en) 2017-02-02 2018-08-02 Denso Ten Limited Vehicle control device and vehicle control method
JP6683178B2 (ja) * 2017-06-02 2020-04-15 トヨタ自動車株式会社 自動運転システム
JP6751691B2 (ja) * 2017-06-15 2020-09-09 ルネサスエレクトロニクス株式会社 異常検出装置及び車両システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285699A (ja) * 2005-03-31 2006-10-19 Nohmi Bosai Ltd 画像処理装置
JP2013140448A (ja) * 2011-12-28 2013-07-18 Fujitsu Ltd 路面調査プログラム及び路面調査装置
JP2018022234A (ja) 2016-08-01 2018-02-08 クラリオン株式会社 画像処理装置、外界認識装置
JP2018124864A (ja) * 2017-02-02 2018-08-09 株式会社デンソーテン 車両制御装置及び車両制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3979221A4

Also Published As

Publication number Publication date
JP2020204821A (ja) 2020-12-24
EP3979221A1 (en) 2022-04-06
US11830254B2 (en) 2023-11-28
US20220237922A1 (en) 2022-07-28
EP3979221A4 (en) 2022-07-27
CN113966526A (zh) 2022-01-21
JP7400222B2 (ja) 2023-12-19

Similar Documents

Publication Publication Date Title
US20210365750A1 (en) Systems and methods for estimating future paths
CN110494863B (zh) 确定自主车辆的可驾驶自由空间
CN110248861B (zh) 在车辆操纵过程中使用机器学习模型来引导车辆
CN113767389A (zh) 从用于自主机器应用的经变换的真实世界传感器数据模拟逼真的测试数据
JP2019008796A (ja) 自律可能車両用衝突回避システム
CN113906271A (zh) 用于自主机器应用的使用地图信息增强的地面实况数据的神经网络训练
CN112989914A (zh) 具有自适应加权输入的注视确定机器学习系统
CN114270294A (zh) 使用眩光作为输入的注视确定
CN115136148A (zh) 投影使用鱼眼镜头捕获的图像用于自主机器应用中的特征检测
CN114764782A (zh) 多视图汽车和机器人系统中的图像合成
WO2020250526A1 (ja) 外部環境認識装置
US20230245468A1 (en) Image processing device, mobile object control device, image processing method, and storage medium
US20220222936A1 (en) Outside environment recognition device
WO2020250527A1 (ja) 外部環境認識装置
WO2020250528A1 (ja) 外部環境認識装置
JP7139300B2 (ja) 認識装置、認識方法、およびプログラム
CN113609888A (zh) 利用平面单应性和自监督的场景结构理解进行对象检测
JP2021123234A (ja) 車両用制御システム
US11603119B2 (en) Method and apparatus for out-of-distribution detection
CN117475390A (zh) 利用摄像头信息识别外部对象位置的电子装置及其方法
JP2021123232A (ja) 車両用制御装置
CN112581793A (zh) 操作具有立体摄像机系统和lidar传感器的机动车辆的方法
CN114841336A (zh) 修补用于自主机器应用的部署的深度神经网络

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20821657

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020821657

Country of ref document: EP

Effective date: 20211227