WO2020031689A1 - 情報処理装置及び情報処理方法、コンピュータプログラム、情報処理システム、並びに移動体装置 - Google Patents

情報処理装置及び情報処理方法、コンピュータプログラム、情報処理システム、並びに移動体装置 Download PDF

Info

Publication number
WO2020031689A1
WO2020031689A1 PCT/JP2019/028923 JP2019028923W WO2020031689A1 WO 2020031689 A1 WO2020031689 A1 WO 2020031689A1 JP 2019028923 W JP2019028923 W JP 2019028923W WO 2020031689 A1 WO2020031689 A1 WO 2020031689A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
vehicle
processing
calculation
information processing
Prior art date
Application number
PCT/JP2019/028923
Other languages
English (en)
French (fr)
Inventor
一木 洋
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US17/264,278 priority Critical patent/US20210302570A1/en
Priority to JP2020536439A priority patent/JP7374098B2/ja
Priority to KR1020217002229A priority patent/KR20210040947A/ko
Priority to EP19847375.3A priority patent/EP3835823B1/en
Priority to CN201980051429.4A priority patent/CN112534297A/zh
Publication of WO2020031689A1 publication Critical patent/WO2020031689A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/32Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S13/34Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • G01S7/06Cathode-ray tube displays or other two dimensional or three-dimensional displays
    • G01S7/10Providing two-dimensional and co-ordinated display of distance and direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4052Means for monitoring or calibrating by simulation of echoes
    • G01S7/4056Means for monitoring or calibrating by simulation of echoes specially adapted to FMCW
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details

Definitions

  • the technology disclosed in this specification mainly relates to an information processing device and an information processing method for processing detection information of a sensor that recognizes the outside world, a computer program, an information processing system, and a mobile device.
  • ADAS Advanced Driver Assistance System
  • ADAS Advanced Driver Assistance System
  • ADAS Advanced Driver Assistance System
  • ADAS Advanced Driver Assistance System
  • the millimeter-wave radar can detect obstacles that reflect radio waves, such as surrounding vehicles and bicycles, even in a bad environment for a camera that captures visible light, such as nighttime, fog, rainfall, and backlight. That is, the millimeter wave radar is an important technology of ADAS, which can compensate for the weak point of the camera.
  • an FMCW method using an FM-CW (Frequency Modulated-Continuous Wave) which is a frequency-modulated continuous wave as a radar wave is known.
  • the FMCW type radar device receives a reflected wave from a target with respect to a radar wave transmitted via an antenna as a received signal, it performs frequency conversion by mixing the received signal and the transmitted signal, and When a beat signal having a frequency difference from the signal is detected, the beat signal is subjected to A / D conversion (Analog to Digital Conversion), and an FFT (Fast Fourier Transform) analysis is performed on the data sequence after the A / D conversion to obtain a target signal. Measure relative distance, relative speed, etc.
  • the FMCW method has a problem that when a pedestrian and a target having different speeds such as a bicycle come close to each other, one of them is overlooked.
  • a radar apparatus of the FCM (Fast Chirp Modulation) method in which a chirp signal in which the frequency of a millimeter wave signal continuously or rapidly increases or decreases as time elapses as a radar wave (for example, see Patent Document 1) Is getting more attention.
  • the radar processing of the FCM system there is an advantage that the detection of the distance resolution and the speed of the target object can be widened by increasing the modulation speed of the frequency of the millimeter wave signal.
  • the FCM radar apparatus performs frequency conversion by mixing a received signal and a transmitted signal, and detects a beat signal having a difference frequency between the transmitted signal and the received signal, and performs A / D conversion. Then, FFT analysis is performed on the data sequence after the A / D conversion.
  • a relative distance to a target, a relative speed, and the like are measured by performing a two-dimensional FFT analysis in which the vertical direction is the distance direction and the number of transmitted chirp signals is the horizontal axis.
  • the purpose of the technology disclosed in this specification is to provide an information processing device and an information processing method, a computer program, an information processing system, and a mobile device that mainly process detection information of a sensor that recognizes the outside world.
  • a processing unit that performs arithmetic processing on a detection signal of the FCM type radar;
  • a control unit that controls a method of arithmetic processing in the processing unit based on a detection result of another sensor; It is an information processing apparatus comprising:
  • the radar is mounted on a vehicle, and the other sensor is an on-vehicle sensor of the same vehicle.
  • the control unit controls at least one of a calculation region and a calculation accuracy of a calculation process in the processing unit based on a detection result of the another sensor. Further, the control unit selects a target on which the processing unit performs an arithmetic process based on a detection result of the other sensor.
  • a second aspect of the technology disclosed in the present specification is as follows.
  • An information processing method having the following.
  • a processing unit for calculating and processing a detection signal of the FCM type radar A control unit that controls a method of arithmetic processing in the processing unit based on a detection result of another sensor, Is a computer program written in a computer-readable format so as to cause a computer to function as a computer.
  • the computer program according to the third aspect defines a computer program described in a computer-readable format so as to realize a predetermined process on a computer.
  • a cooperative action is exerted on the computer, and the same effect as the information processing apparatus according to the first aspect can be obtained. .
  • a fourth aspect of the technology disclosed in the present specification is as follows. Radar and other in-vehicle sensors mounted on the vehicle, A recognition unit that performs recognition processing based on a detection signal of the vehicle-mounted sensor, A processing unit that performs arithmetic processing on the detection signal of the radar by an FCM method; A control unit that controls a method of arithmetic processing in the processing unit based on a recognition result by the recognition unit; It is an information processing system including:
  • system refers to a logical collection of a plurality of devices (or functional modules that realize specific functions), and each device or functional module is in a single housing. It does not matter in particular.
  • a fifth aspect of the technology disclosed in this specification is as follows. Moving objects, Radar and other sensors mounted on the mobile, A recognition unit that performs recognition processing based on a detection signal of the other sensor, A processing unit that performs arithmetic processing on the detection signal of the radar by an FCM method; A control unit that controls a method of arithmetic processing in the processing unit based on a recognition result by the recognition unit; A moving body control unit that controls the moving body based on a processing result by the processing unit; A mobile device comprising:
  • an information processing device and an information processing method it is possible to provide an information processing device and an information processing method, a computer program, an information processing system, and a mobile device that mainly process detection information of a sensor that recognizes the outside world.
  • FIG. 1 is a block diagram illustrating a schematic configuration example of functions of the vehicle control system 100.
  • FIG. 2 is a diagram illustrating an example of a functional configuration of an information processing system for switching and controlling the processing method of the on-vehicle radar device.
  • FIG. 3 is a flowchart illustrating an example of a processing procedure executed by the information processing system 100.
  • FIG. 4 is a flowchart illustrating another example of the processing procedure executed by the information processing system 100.
  • FIG. 5 is a flowchart illustrating still another example of the processing procedure executed by the information processing system 100.
  • FIG. 6 is a flowchart illustrating a detailed processing procedure of the priority determination processing of the measurement target.
  • FIG. 7 is a flowchart illustrating a detailed processing procedure of the priority determination processing of the measurement target.
  • FIG. 8 is a flowchart illustrating a processing procedure for calculating a collision time between the vehicle and the measurement target.
  • FIG. 9 is a flowchart illustrating a processing procedure for estimating the collision time between the vehicle and the measurement target.
  • FIG. 10 is a diagram showing a configuration example of a screen on which the sorting result of the measurement target is displayed.
  • FIG. 11 is a diagram illustrating a configuration example of a screen displaying a measurement target from which distance calculation is omitted.
  • FIG. 12 is a diagram showing a state in which a change of the measurement target is instructed on the screen shown in FIG.
  • FIG. 13 is a diagram showing a transmission signal, a reception signal, and a beat signal in the FCM system.
  • FIG. 1 is a block diagram illustrating a schematic configuration example of functions of a vehicle control system 100 which is an example of a moving object control system to which the present technology can be applied.
  • a vehicle provided with the vehicle control system 100 is distinguished from other vehicles, the vehicle is referred to as a host vehicle or a host vehicle.
  • the vehicle control system 100 includes an input unit 101, a data acquisition unit 102, a communication unit 103, an in-vehicle device 104, an output control unit 105, an output unit 106, a drive system control unit 107, a drive system system 108, a body system control unit 109, and a body.
  • a system system 110, a storage unit 111, and an automatic operation control unit 112 are provided.
  • the input unit 101, the data acquisition unit 102, the communication unit 103, the output control unit 105, the drive system control unit 107, the body system control unit 109, the storage unit 111, and the automatic operation control unit 112 Interconnected.
  • the communication network 121 may be, for example, an in-vehicle communication network or a bus that conforms to any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay (registered trademark). Become. In addition, each part of the vehicle control system 100 may be directly connected without passing through the communication network 121.
  • CAN Controller Area Network
  • LIN Local Interconnect Network
  • LAN Local Area Network
  • FlexRay registered trademark
  • the description of the communication network 121 will be omitted.
  • the input unit 101 and the automatic operation control unit 112 communicate via the communication network 121, it is described that the input unit 101 and the automatic operation control unit 112 simply communicate.
  • the input unit 101 includes a device used by a passenger to input various data and instructions.
  • the input unit 101 includes an operation device such as a touch panel, a button, a microphone, a switch, and a lever, and an operation device that can be input by a method other than a manual operation by voice, gesture, or the like.
  • the input unit 101 may be a remote control device using infrared rays or other radio waves, or an externally connected device such as a mobile device or a wearable device compatible with the operation of the vehicle control system 100.
  • the input unit 101 generates an input signal based on data, instructions, and the like input by a passenger, and supplies the input signal to each unit of the vehicle control system 100.
  • the data acquisition unit 102 includes various sensors for acquiring data used for processing of the vehicle control system 100 and supplies the acquired data to each unit of the vehicle control system 100.
  • the data acquisition unit 102 includes various sensors for detecting the state of the own vehicle and the like.
  • the data acquisition unit 102 includes a gyro sensor, an acceleration sensor, an inertial measurement device (IMU), an operation amount of an accelerator pedal, an operation amount of a brake pedal, a steering angle of a steering wheel, an engine speed, A sensor or the like for detecting a motor rotation speed, a wheel rotation speed, or the like is provided.
  • IMU inertial measurement device
  • the data acquisition unit 102 includes various sensors for detecting information outside the vehicle.
  • the data acquisition unit 102 includes an imaging device such as a Time-of-Flight (ToF) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the data acquisition unit 102 includes an environment sensor for detecting weather or weather, and a surrounding information detection sensor for detecting an object around the own vehicle.
  • the environment sensor includes, for example, a raindrop sensor, a fog sensor, a sunshine sensor, a snow sensor, and the like.
  • the surrounding information detection sensor includes, for example, an ultrasonic sensor, a millimeter wave radar, a LiDAR (Light Detection and Ranging, Laser Imaging and Detection and Ranging), a sonar, and the like.
  • the data acquisition unit 102 includes various sensors for detecting the current position of the vehicle. More specifically, for example, the data acquisition unit 102 includes a GNSS receiver that receives a GNSS signal from a GNSS (Global Navigation / Satellite / System) satellite.
  • GNSS Global Navigation / Satellite / System
  • the data acquisition unit 102 includes various sensors for detecting information in the vehicle.
  • the data acquisition unit 102 includes an imaging device that captures an image of the driver, a biological sensor that detects biological information of the driver, a microphone that collects sounds in the vehicle compartment, and the like.
  • the biological sensor is provided on, for example, a seat surface or a steering wheel, and detects biological information of a passenger sitting on a seat or a driver holding a steering wheel.
  • the communication unit 103 communicates with the in-vehicle device 104, various devices outside the vehicle, a server, a base station, and the like, and transmits data supplied from each unit of the vehicle control system 100, and transmits received data to the vehicle control system. 100 parts.
  • the communication protocol supported by the communication unit 103 is not particularly limited, and the communication unit 103 can support a plurality of types of communication protocols.
  • the communication unit 103 performs wireless communication with the in-vehicle device 104 using a wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), WUSB (Wireless USB), or the like.
  • the communication unit 103 may be connected via a connection terminal (not shown) (and a cable if necessary), may be a USB (Universal Serial Bus), an HDMI (High-Definition Multimedia Interface), or an MHL (Mobile High-definition). Link) or the like to perform wired communication with the in-vehicle device 104.
  • the communication unit 103 communicates with a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network, or a network unique to an operator) via a base station or an access point. Perform communication. Also, for example, the communication unit 103 communicates with a terminal (for example, a pedestrian or store terminal, or a MTC (Machine Type Communication) terminal) using a P2P (Peer To To Peer) technology, in the vicinity of the own vehicle. Perform communication.
  • a device for example, an application server or a control server
  • an external network for example, the Internet, a cloud network, or a network unique to an operator
  • the communication unit 103 communicates with a terminal (for example, a pedestrian or store terminal, or a MTC (Machine Type Communication) terminal) using a P2P (Peer To To Peer) technology, in the vicinity of the own vehicle. Perform communication.
  • P2P Peer To To Peer
  • the communication unit 103 may communicate between vehicles (Vehicle to Vehicle), road to vehicle (Vehicle to Infrastructure), communication between own vehicle and home (Vehicle to Home), and between vehicles (Vehicle to Vehicle). ) Perform V2X communication such as communication.
  • the communication unit 103 includes a beacon receiving unit, receives a radio wave or an electromagnetic wave transmitted from a wireless station or the like installed on a road, and obtains information such as a current position, traffic congestion, traffic regulation, or required time. I do.
  • the in-vehicle device 104 includes, for example, a mobile device or a wearable device possessed by the passenger, an information device carried or attached to the own vehicle, a navigation device for searching for a route to an arbitrary destination, and the like.
  • the output control unit 105 controls the output of various types of information to the occupant of the vehicle or to the outside of the vehicle.
  • the output control unit 105 generates an output signal including at least one of visual information (for example, image data) and auditory information (for example, audio data), and supplies the output signal to the output unit 106.
  • the output control unit 105 combines image data captured by different imaging devices of the data acquisition unit 102 to generate a bird's-eye view image or a panoramic image, and outputs an output signal including the generated image. It is supplied to the output unit 106.
  • the output control unit 105 generates sound data including a warning sound or a warning message for danger such as collision, contact, entry into a dangerous zone, and the like, and outputs an output signal including the generated sound data to the output unit 106. Supply.
  • the output unit 106 includes a device capable of outputting visual information or auditory information to the occupant of the vehicle or to the outside of the vehicle.
  • the output unit 106 includes a display device, an instrument panel, an audio speaker, headphones, a wearable device such as an eyeglass-type display worn by a passenger, a projector, a lamp, and the like.
  • the display device included in the output unit 106 can display visual information in a driver's visual field such as a head-up display, a transmissive display, and a device having an AR (Augmented Reality) display function in addition to a device having a normal display.
  • the display device may be used.
  • the drive system control unit 107 controls the drive system 108 by generating various control signals and supplying them to the drive system 108. Further, the drive system control unit 107 supplies a control signal to each unit other than the drive system 108 as necessary, and notifies a control state of the drive system 108 and the like.
  • the drive system 108 includes various devices related to the drive system of the vehicle.
  • the driving system 108 includes a driving force generating device for generating driving force such as an internal combustion engine or a driving motor, a driving force transmitting mechanism for transmitting driving force to wheels, a steering mechanism for adjusting a steering angle,
  • the vehicle includes a braking device that generates a braking force, an ABS (Antilock Break System), an ESC (Electronic Stability Control), an electric power steering device, and the like.
  • the body system control unit 109 controls the body system 110 by generating various control signals and supplying them to the body system 110. Further, the body-system control unit 109 supplies a control signal to each unit other than the body-system system 110 as needed, and notifies a control state of the body-system system 110 and the like.
  • the body system 110 includes various body-system devices mounted on the vehicle body.
  • the body system 110 includes a keyless entry system, a smart key system, a power window device, a power seat, a steering wheel, an air conditioner, and various lamps (for example, a head lamp, a back lamp, a brake lamp, a blinker, a fog lamp, and the like). Etc. are provided.
  • the storage unit 111 includes, for example, a magnetic storage device such as a ROM (Read Only Memory), a RAM (Random Access Memory), a HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, and a magneto-optical storage device. .
  • the storage unit 111 stores various programs and data used by each unit of the vehicle control system 100.
  • the storage unit 111 stores map data such as a three-dimensional high-accuracy map such as a dynamic map, a global map that is less accurate than the high-accuracy map and covers a wide area, and a local map that includes information around the own vehicle. Is stored.
  • the automatic driving control unit 112 performs control relating to automatic driving such as autonomous driving or driving support. Specifically, for example, the automatic driving control unit 112 may perform collision avoidance or impact mitigation of the own vehicle, follow-up running based on the following distance, vehicle speed maintaining running, own vehicle collision warning, or own vehicle lane departure warning and the like. It performs cooperative control for the purpose of realizing the function of ADAS (Advanced ⁇ Driver ⁇ Assistance ⁇ System). In addition, for example, the automatic driving control unit 112 performs cooperative control for the purpose of autonomous driving in which the vehicle runs autonomously without depending on the operation of the driver.
  • the automatic driving control unit 112 includes a detection unit 131, a self-position estimation unit 132, a situation analysis unit 133, a planning unit 134, and an operation control unit 135.
  • the detection unit 131 detects various kinds of information necessary for controlling the automatic driving.
  • the detection unit 131 includes an outside information detection unit 141, an inside information detection unit 142, and a vehicle state detection unit 143.
  • the outside-of-vehicle information detection unit 141 performs detection processing of information outside the vehicle based on data or signals from each unit of the vehicle control system 100. For example, the outside-of-vehicle information detection unit 141 performs detection processing, recognition processing, tracking processing, and detection processing of the distance to the object around the own vehicle. Objects to be detected include, for example, vehicles, people, obstacles, structures, roads, traffic lights, traffic signs, road markings, and the like. Further, for example, the outside-of-vehicle information detection unit 141 performs a process of detecting an environment around the own vehicle. The surrounding environment to be detected includes, for example, weather, temperature, humidity, brightness, road surface conditions, and the like.
  • the out-of-vehicle information detection unit 141 uses the data indicating the result of the detection processing as the self-position estimation unit 132, the map analysis unit 151 of the situation analysis unit 133, the traffic rule recognition unit 152, the situation recognition unit 153, and the operation control unit 135. To the emergency avoidance unit 171 and the like.
  • the in-vehicle information detection unit 142 performs a process of detecting information in the vehicle based on data or signals from each unit of the vehicle control system 100.
  • the in-vehicle information detection unit 142 performs a driver authentication process and a recognition process, a driver state detection process, a passenger detection process, an in-vehicle environment detection process, and the like.
  • the state of the driver to be detected includes, for example, physical condition, arousal level, concentration level, fatigue level, gaze direction, and the like.
  • the environment in the vehicle to be detected includes, for example, temperature, humidity, brightness, odor, and the like.
  • the in-vehicle information detection unit 142 supplies data indicating the result of the detection process to the situation recognition unit 153 of the situation analysis unit 133, the emergency avoidance unit 171 of the operation control unit 135, and the like.
  • the vehicle state detection unit 143 performs detection processing of the state of the own vehicle based on data or signals from each unit of the vehicle control system 100.
  • the state of the subject vehicle to be detected includes, for example, speed, acceleration, steering angle, presence / absence and content of abnormality, driving operation state, power seat position and inclination, door lock state, and other in-vehicle devices. State and the like are included.
  • the vehicle state detection unit 143 supplies data indicating the result of the detection processing to the situation recognition unit 153 of the situation analysis unit 133, the emergency avoidance unit 171 of the operation control unit 135, and the like.
  • the self-position estimating unit 132 estimates the position and orientation of the own vehicle based on data or signals from each unit of the vehicle control system 100 such as the outside-of-vehicle information detecting unit 141 and the situation recognizing unit 153 of the situation analyzing unit 133. Perform processing. In addition, the self-position estimating unit 132 generates a local map used for estimating the self-position (hereinafter, referred to as a self-position estimation map) as necessary.
  • the self-position estimation map is, for example, a high-accuracy map using a technique such as SLAM (Simultaneous Localization and Mapping).
  • the self-position estimating unit 132 supplies data indicating the result of the estimation processing to the map analyzing unit 151, the traffic rule recognizing unit 152, the status recognizing unit 153, and the like of the status analyzing unit 133. Further, the self-position estimating unit 132 causes the storage unit 111 to store the self-position estimating map.
  • the situation analysis unit 133 performs analysis processing of the situation of the own vehicle and the surroundings.
  • the situation analysis unit 133 includes a map analysis unit 151, a traffic rule recognition unit 152, a situation recognition unit 153, and a situation prediction unit 154.
  • the map analysis unit 151 uses various data or signals from the various units of the vehicle control system 100 such as the self-position estimation unit 132 and the outside-of-vehicle information detection unit 141 as necessary, and executes various types of maps stored in the storage unit 111. Performs analysis processing and builds a map containing information necessary for automatic driving processing.
  • the map analysis unit 151 converts the constructed map into a traffic rule recognition unit 152, a situation recognition unit 153, a situation prediction unit 154, and a route planning unit 161, an action planning unit 162, and an operation planning unit 163 of the planning unit 134. To supply.
  • the traffic rule recognition unit 152 determines the traffic rules around the own vehicle based on data or signals from each unit of the vehicle control system 100 such as the self-position estimating unit 132, the outside-of-vehicle information detecting unit 141, and the map analyzing unit 151. Perform recognition processing. By this recognition processing, for example, the position and state of the signal around the own vehicle, the contents of traffic regulation around the own vehicle, the lanes that can travel, and the like are recognized.
  • the traffic rule recognition unit 152 supplies data indicating the result of the recognition processing to the situation prediction unit 154 and the like.
  • the situation recognition unit 153 converts data or signals from each unit of the vehicle control system 100 such as the self-position estimation unit 132, the outside-of-vehicle information detection unit 141, the in-vehicle information detection unit 142, the vehicle state detection unit 143, and the map analysis unit 151. Based on this, a process for recognizing the situation regarding the own vehicle is performed. For example, the situation recognition unit 153 performs recognition processing on the situation of the own vehicle, the situation around the own vehicle, the situation of the driver of the own vehicle, and the like. Further, the situation recognizing unit 153 generates a local map (hereinafter, referred to as a situation recognizing map) used for recognizing a situation around the own vehicle as needed.
  • the situation recognition map is, for example, an occupancy grid map (Occupancy ⁇ Grid ⁇ Map).
  • the situation of the own vehicle to be recognized includes, for example, the position, posture, and movement (for example, speed, acceleration, moving direction, etc.) of the own vehicle, and the presence / absence and content of an abnormality.
  • the situation around the subject vehicle to be recognized includes, for example, the type and position of the surrounding stationary object, the type, position and movement (eg, speed, acceleration, moving direction, and the like) of the surrounding moving object, and the surrounding road.
  • the configuration and the state of the road surface, and the surrounding weather, temperature, humidity, brightness, and the like are included.
  • the state of the driver to be recognized includes, for example, physical condition, arousal level, concentration level, fatigue level, movement of the line of sight, driving operation, and the like.
  • the situation recognizing unit 153 supplies data indicating the result of the recognition process (including a situation recognizing map as necessary) to the self-position estimating unit 132, the situation estimating unit 154, and the like.
  • the situation recognition unit 153 causes the storage unit 111 to store the situation recognition map.
  • the situation prediction unit 154 performs a situation prediction process for the own vehicle based on data or signals from each unit of the vehicle control system 100 such as the map analysis unit 151, the traffic rule recognition unit 152, and the situation recognition unit 153. For example, the situation prediction unit 154 performs prediction processing on the situation of the own vehicle, the situation around the own vehicle, the situation of the driver, and the like.
  • the situation of the subject vehicle to be predicted includes, for example, the behavior of the subject vehicle, occurrence of an abnormality, and a mileage that can be traveled.
  • the situation around the own vehicle to be predicted includes, for example, behavior of a moving object around the own vehicle, a change in a signal state, a change in an environment such as weather, and the like.
  • the situation of the driver to be predicted includes, for example, the behavior and physical condition of the driver.
  • the situation prediction unit 154 together with data from the traffic rule recognition unit 152 and the situation recognition unit 153, shows data indicating the result of the prediction process, along with the route planning unit 161, the behavior planning unit 162, and the operation planning unit 163 of the planning unit 134. And so on.
  • the route planning unit 161 plans a route to a destination based on data or signals from each unit of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154. For example, the route planning unit 161 sets a route from the current position to a specified destination based on the global map. In addition, for example, the route planning unit 161 appropriately changes the route based on conditions such as traffic congestion, accidents, traffic regulations, construction, and the like, and the physical condition of the driver. The route planning unit 161 supplies data indicating the planned route to the action planning unit 162 and the like.
  • the action planning unit 162 safely performs the route planned by the route planning unit 161 within the planned time based on data or signals from each unit of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154. Plan your vehicle's behavior to drive. For example, the action planning unit 162 performs planning such as start, stop, traveling direction (for example, forward, backward, left turn, right turn, direction change, etc.), traveling lane, traveling speed, and passing.
  • the behavior planning unit 162 supplies data indicating the planned behavior of the own vehicle to the behavior planning unit 163 and the like.
  • the operation planning unit 163 performs the operation of the own vehicle for realizing the action planned by the action planning unit 162 based on data or signals from each unit of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154. To plan. For example, the operation planning unit 163 plans acceleration, deceleration, a traveling trajectory, and the like. The operation planning unit 163 supplies data indicating the planned operation of the own vehicle to the acceleration / deceleration control unit 172 and the direction control unit 173 of the operation control unit 135.
  • the operation control unit 135 controls the operation of the own vehicle.
  • the operation control unit 135 includes an emergency avoidance unit 171, an acceleration / deceleration control unit 172, and a direction control unit 173.
  • the emergency avoidance unit 171 performs a collision, a contact, an approach to a danger zone, a driver abnormality, a vehicle abnormality, based on the detection results of the outside information detection unit 141, the inside information detection unit 142, and the vehicle state detection unit 143. An emergency situation such as an abnormality is detected. When detecting the occurrence of an emergency, the emergency avoidance unit 171 plans the operation of the own vehicle to avoid an emergency such as a sudden stop or a sudden turn. The emergency avoidance unit 171 supplies data indicating the planned operation of the own vehicle to the acceleration / deceleration control unit 172, the direction control unit 173, and the like.
  • Acceleration / deceleration control section 172 performs acceleration / deceleration control for realizing the operation of the vehicle planned by operation planning section 163 or emergency avoidance section 171.
  • the acceleration / deceleration control unit 172 calculates a control target value of a driving force generation device or a braking device for achieving planned acceleration, deceleration, or sudden stop, and drives a control command indicating the calculated control target value. It is supplied to the system control unit 107.
  • the direction control unit 173 performs direction control for realizing the operation of the vehicle planned by the operation planning unit 163 or the emergency avoidance unit 171. For example, the direction control unit 173 calculates a control target value of the steering mechanism for realizing the traveling trajectory or the sharp turn planned by the operation planning unit 163 or the emergency avoidance unit 171, and performs control indicating the calculated control target value. The command is supplied to the drive system control unit 107.
  • the FMCW system that periodically modulates the speed of the frequency of the millimeter wave signal is mainstream, but the FCM system that increases the modulation speed of the frequency has attracted attention.
  • the reception signal and the transmission signal are mixed to perform frequency conversion.
  • a / D conversion is performed.
  • An FFT solution is performed on the data sequence after the D conversion. Therefore, the configuration of the radar device is the same regardless of the type.
  • the frequency of a beat signal generated from a transmission signal that generates a chirp wave whose frequency continuously or rapidly increases or decreases and a reception signal obtained by receiving a reflected wave of a chirp wave from a measurement target are determined. Based on the phase change, the distance to the measurement target and the relative speed are detected.
  • FIG. 13 shows a transmission signal, a reception signal, and a beat signal in the FCM system.
  • the FCM system makes a faster frequency transition, so that the difference between f BH and f BL at the beat frequency can be made larger, resulting in excellent speed resolution. There is a feature that there is.
  • the chirp time is on the order of milliseconds in the FMCW system and on the order of microseconds in the FCW system.
  • the chirp speed is high, and the Doppler frequency can be ignored. Therefore, the algorithm for calculating the detection distance is simple, and the multi-target recognition ability is improved.
  • the detection of the distance resolution and the speed of the target object can be broadened (that is, the performance of object detection is improved), but three-dimensional FFT analysis (or three-dimensional processing for repeating one-dimensional FFT), Alternatively, a process of estimating the azimuth angle instead of the third FFT after the two-dimensional FFT) is required, and the required memory and the amount of calculation increase, so that the cost and power consumption of the calculation circuit may increase.
  • an electric vehicle Electric @ Vehicle: EV
  • power is consumed when the air conditioner is used or when the charge amount of the EV battery is reduced to a predetermined amount or less. Therefore, power consumption by the arithmetic circuit should be suppressed.
  • an in-vehicle control system that employs fusion technology that fuses multiple object detection sensors
  • sufficient measurement accuracy may not be obtained for all sensors, or the measurement accuracy may be maintained. If this is attempted, it may not be possible to measure all necessary subjects (measurement cannot be made in time).
  • the resolution of the radar must be high enough to match the image of the camera.
  • the computational load on the radar is enormous.
  • the purpose of on-vehicle radar is to measure the distance and relative speed of a subject, but it is not necessary to measure with high accuracy in all directions. Further, when a plurality of subjects exist around the own vehicle, the priority of each subject changes every moment during traveling.
  • the following proposes a technique for adaptively switching and controlling the processing method of the radar device according to the situation.
  • ⁇ ⁇ ⁇ ⁇ Switching the processing method of the radar device basically includes selecting a calculation region and a calculation accuracy in a specific calculation method such as the FCM method.
  • the FCM method By applying the FCM method in a limited calculation area, it is possible to suppress an increase in cost and power consumption as compared with the case where the FCM method is performed in all areas, and to utilize the surplus calculation amount due to the limited calculation area. Accordingly, measurement can be performed with high resolution in the selected calculation region.
  • the calculation accuracy is reduced by reducing the speed, distance, or resolution of the antenna in the calculation region where the FFT analysis is performed, thereby reducing the calculation accuracy. And an increase in power consumption can be suppressed.
  • switching of the processing method of the radar device includes limiting a measurement target in a specific calculation method such as the FCM method.
  • a specific calculation method such as the FCM method.
  • the distance calculation using the radar device is performed only on some specific measurement targets, and the other measurement targets are excluded from the range of the distance calculation, thereby specifying the measurement targets.
  • the measurement target sufficient calculation accuracy can be obtained, and in other measurement targets, the required performance can be ensured, and increase in cost and power consumption can be suppressed.
  • the measurement target of the radar device is switched based on a scene recognition result by another sensor, such as a camera image or LiDAR object detection.
  • Switching of the processing method of the radar apparatus includes switching of the calculation order in which the recognition processing is performed for each measurement target in a specific calculation method such as the FCM method, that is, calculation order planning. For example, when a plurality of measurement objects exist around the own vehicle, the priority of each measurement object changes every moment during traveling. Therefore, the priority of each measurement target is determined based on the possibility of collision with the own vehicle (for example, the expected collision time). Then, by performing the distance calculation in the order according to the priority, it is possible to avoid the collision between the own vehicle and the measurement target, and to enhance the safety of ADAS or automatic driving.
  • a specific calculation method such as the FCM method
  • switching of the processing method of the radar device may further include switching of an arithmetic method such as the FMCW method or the FCM method.
  • the FCM method the performance of object detection is improved, but the cost and power consumption are increased.
  • the processing method of the radar device may be switched in accordance with the required calculation accuracy and the remaining calculation capability. For example, when it is determined that high calculation accuracy is required according to the object recognition result or scene recognition result by another sensor such as a camera, or the running condition of the vehicle, the FCM method is applied. If it is determined, it may be switched to the FMCW method.
  • the FCM method may be switched to the FMCW method.
  • an LSI Large Scale Integration
  • circuit modules common to the FMCW method and the FCM method may be shared to constitute each LSI.
  • the radar is mounted on a part that is easily damaged, such as a bumper, but by separately mounting an LSI for each method, even if one is destroyed, the other becomes a backup.
  • switching of the processing method of the radar apparatus includes switching of the fusion processing method. That is, the processing accuracy and calculation speed of each sensor and the calculation order between the sensors are switched.
  • the measurement target may be limited for each sensor.
  • the FCM method is adaptively performed to ensure sufficient calculation accuracy by the radar.
  • switching to the FMCW method is performed to suppress an increase in cost and power consumption while sacrificing the calculation accuracy by the radar to some extent.
  • the "situation" for switching the processing method of the radar device here refers to the situation around the vehicle such as the running condition of the target vehicle such as ADAS or automatic driving, the computing capacity in the vehicle control system 100, the power consumption or the surplus power. Includes the situation of the vehicle itself, such as quantity. Further, an instruction input from a driver or the like via an input device in the vehicle compartment is also included in the “situation”. In a vehicle control system connected to an external network such as the Internet, an instruction received from outside such as a cloud is also included in the “situation”.
  • the FCM method performs two FFT processes on a beat signal generated for each chirp wave generated from a transmission signal that generates a chirp wave whose frequency continuously increases or decreases and a reception signal of a reflected wave of a chirp wave from a target.
  • Two-dimensional FFT processing is performed to detect the distance to the target and the relative speed.
  • a two-dimensional FFT process can be performed for each of a plurality of receiving antennas (or a steering direction) forming an array antenna, and a distance to a target and a relative speed can be captured three-dimensionally.
  • the FCM method has, for example, better speed resolution than the FMCW method, and can increase the speed resolution by increasing the number of chirp waves (the number of chirps).
  • the FCM method requires a larger amount of calculation than the FMCW method.
  • the amount of calculation can be reduced by limiting the calculation region or suppressing the calculation accuracy.
  • the amount of calculation can be reduced by limiting the calculation region by limiting the speed region, the distance region, or the antenna region where the FCM analysis of the FCM method is performed.
  • the calculation amount can be reduced by suppressing the speed, the distance, or the resolution of the antenna to lower the calculation accuracy.
  • a beam forming method, a Capon method, or the like is used instead of the third FFT, the amount of calculation can be reduced by limiting the distance and the azimuth of the measurement target.
  • FIG. 2 shows an example of a functional configuration of an information processing system for switching and controlling the processing method of the on-vehicle radar device.
  • the illustrated information processing system 200 includes an object recognition unit 201, a scene recognition unit 202, a driving situation recognition unit 203, a selection unit 204, a planning unit 205, a distance calculation unit 206, a presentation unit 207, and an input unit. 208, a main control unit 209, and various databases (DBs) 211 to 214.
  • the information processing system 200 receives sensor signals from various sensors such as a camera 221, a LiDAR 222, a vehicle body sensor 223, and a radar (millimeter wave radar) 224.
  • the information processing system 200 is basically used by being mounted on a vehicle, and is more preferably incorporated in the vehicle control system 100 shown in FIG.
  • the functional modules 201 to 206 are mounted in the automatic driving control unit 112, or are mounted in any of the functional modules in the automatic driving control unit 112 shown in FIG.
  • the main control unit 109 corresponds to, for example, an ECU (Electronic Control Unit) mounted on the vehicle.
  • the presentation unit 209 can be shared by the output unit 106 in FIG. 1, and the input unit 208 can be shared by the input unit 101 in FIG.
  • sensors included in the data acquisition unit 102 in FIG. 1 can be used for the camera 221, LiDAR 222, vehicle body sensor 223, and radar 224.
  • the various databases (DBs) 211 to 214 may be constructed in the information processing system 200 (that is, may be mounted on the vehicle), but are connected via the communication unit 103 in FIG. It may be an external database.
  • the object recognizing unit 201 performs image recognition of an image captured by the camera 221 or object recognition based on a detection signal of the LiDAR 222 to determine the type of an object existing around the own vehicle, the direction in which the object exists, Estimate the approximate distance to the object.
  • the object recognition unit 201 may perform a sensor fusion process as needed.
  • the scene recognition unit 202 recognizes a scene encountered by the own vehicle based on an image captured by the camera 221, a detection signal of the LiDAR 222, or a result of object recognition by the object recognition unit 201.
  • the scene recognized here includes, for example, the shape of the road on which the vehicle is traveling, the degree of congestion, road conditions such as pedestrians, and the traveling environment such as weather and lighting.
  • the scene recognition unit 202 may perform a sensor fusion process as needed.
  • the traveling state recognition unit 203 receives the sensor signal from the vehicle body sensor 223 and recognizes the traveling state of the own vehicle.
  • the vehicle body sensor 223 includes a gyro sensor, an acceleration sensor, an inertial measurement device (IMU), an operation amount of an accelerator pedal, an operation amount of a brake pedal, a steering angle of a steering wheel, an engine speed, a motor speed, or a wheel speed.
  • IMU inertial measurement device
  • Various sensors for detecting the state of the vehicle such as the rotation speed, a battery sensor for detecting the remaining amount of the onboard battery, and an environmental sensor for detecting weather or weather (raindrop sensor, fog sensor, sunshine sensor, snow sensor, Temperature sensor, humidity sensor, etc.).
  • the traveling state recognition unit 203 recognizes the traveling state such as the vehicle speed, the traveling direction of the vehicle, the acceleration, the acceleration direction, the absolute position of the vehicle, the outside temperature, the vibration, and the raindrop based on the sensor signals of the vehicle body sensor 223.
  • the selection unit 204 selects a calculation region and a calculation accuracy in a specific calculation method such as the FCM method.
  • the selection of the calculation area performed by the selection unit 204 includes limiting the measurement target. In the case where a plurality of measurement targets can exist, the distance calculation using the radar 224 is performed only on some specific measurement targets, and the other measurement targets are excluded from the distance calculation targets, thereby reducing the calculation load. Sufficient computational accuracy can be obtained for a specific measurement object while suppressing it.
  • the selection of the calculation accuracy performed by the selection unit 204 includes, in the FCM method, reducing the calculation accuracy by suppressing the speed, the distance, or the resolution of the antenna in the calculation region where the FFT analysis is performed. By suppressing the calculation accuracy, the amount of calculation can be reduced.
  • the selection unit 204 A calculation area (or a measurement target) in which distance calculation is to be performed is selected from the sensor signals of H.224, or calculation accuracy in a specific calculation area is selected.
  • the selection of the calculation accuracy performed by the selection unit 204 may include selection of either the FCM method or the FMCW method (selection from a plurality of calculation methods having different calculation accuracy).
  • the selection unit 204 basically selects the object recognized by the object recognition unit 201 as a region where the distance calculation is to be performed, and excludes other regions from the target of the distance calculation. This is because performing a distance calculation on an area where no object is present is useless and simply increases the calculation load.
  • the selection unit 204 further includes an object (a nearby vehicle, a bicycle, a pedestrian, an obstacle, or the like) that is likely to collide with the host vehicle among the objects recognized by the object recognition unit 201 based on the scene recognized by the scene recognition unit 202. Etc.) and select the measurement target.
  • an object close to the own vehicle may collide, but it is unlikely to collide with an oncoming vehicle or a pedestrian who is walking on the sidewalk, and should not be selected as a measurement target.
  • pedestrians trying to cross the pedestrian crossing in front of their own vehicle are likely to collide, and young children who are taken by their parents or elderly people who are walking alone are more likely to collide. , Should be selected for measurement.
  • the selection unit 204 may select the calculation accuracy to be applied to the measurement target based on the scene recognized by the scene recognition unit 202. For example, if a general road is likely to collide with a pedestrian or the like, a high calculation accuracy (or an FCM method with a high calculation accuracy) is selected, and if a highway is used, a low calculation accuracy (or a high calculation accuracy) is selected. Or no FMCW method).
  • the selection unit 204 selects a measurement target based on the traveling state of the own vehicle recognized by the traveling state recognition unit 203 from the detection result of the vehicle body sensor 223. For example, in bad weather where the millimeter-wave radar is superior to the camera or LiDAR, the selection unit 204 increases the number of measurement targets using the radar 224 to ensure the safety of traveling of the vehicle. Conversely, when sufficient object recognition performance can be obtained even with a camera or LiDAR, an increase in cost and power consumption due to performing the distance calculation of the FCM method is suppressed by limiting the measurement target.
  • the selection unit 204 selects a measurement target based on the situation of the driver monitored by the vehicle body sensor 223, such as acceleration / deceleration, turning of the steering wheel, or reduced attention of the driver. You may. Further, the selection unit 204 selects a measurement target based on the calculation capability of the distance calculation unit 206 (or the information processing system 200), the power consumption amount, the surplus power amount, and the like. If there is no margin in the calculation capability or the electric energy, the selection unit 204 restricts the measurement target to surely perform the distance calculation on the urgent measurement target. Conversely, if there is a margin in the computing capacity or the amount of power, the selection unit 204 may increase the number of measurement targets to further ensure safety.
  • the selection unit 204 may select the calculation accuracy to be applied to the measurement target based on the scene recognized by the traveling situation recognition unit 203. For example, when the vehicle is an electric vehicle and the charge amount of the battery is sufficient, high calculation accuracy (or FCM method with high calculation accuracy) is selected, and when the charge amount is reduced to a predetermined value or less, low calculation accuracy (or calculation accuracy) is selected. May be selected. Further, when the vehicle speed of the vehicle is high, the FCM method may be selected to broaden the detection of the speed of the object to be measured, and when the vehicle speed is low, the FMCW method may be selected.
  • the selecting unit 204 refers to at least one of the urgency database 211 for each subject, the priority subject database 212 for each scene, and the priority subject database 213 for each driving situation, and performs the measurement for which the distance calculation is to be performed. Select the target and calculation accuracy.
  • the urgency database 211 for each subject includes a distance for each subject that can be recognized by the object recognition unit 201, such as a pedestrian (child, adult, elderly person, etc.), a vehicle (preceding vehicle, following vehicle, oncoming vehicle, motorcycle, bicycle). Information on the degree of urgency to be calculated and the required resolution is stored.
  • the priority subject database 212 for each scene stores information such as intersections and curves, general roads, expressways, inside tunnels, when driving at night, when driving in rainy weather, when fog is heavy, and when snow is recognized by the scene recognition unit 202. Information on the subject to be subjected to distance calculation with priority and necessary resolution is stored.
  • the priority subject database 213 for each traveling situation includes objects to be distance-calculated with priority according to the traveling situation of the own vehicle recognized by the traveling situation recognition unit 203, such as a charge amount, a vehicle speed, and a steering angle of a steering wheel. Information on the required resolution is stored.
  • the selection unit 204 refers to the urgency database 211 for each subject to determine the urgency and the required resolution for each type of the object recognized by the object recognition unit 201, or to be recognized by the scene recognition unit 202. It predicts the object to be recognized and the required resolution in priority for each scene, and recognizes the object to be recognized and the required resolution in priority for each traveling condition of the vehicle recognized by the traveling condition recognition unit 203. Thus, the measurement target and the calculation accuracy can be appropriately selected.
  • the selection unit 204 selects the measurement target, the calculation region in which the distance calculation is to be performed in the distance calculation unit 206 is determined.
  • the selection unit 204 also selects the calculation accuracy in addition to the calculation area for performing the distance calculation. To select the calculation accuracy, select the speed, distance, or antenna resolution in the calculation area where the FFT analysis is performed in the FCM method, or select from among a plurality of calculation methods with different calculation accuracy such as the FCM method and the FMCW method. Or selecting.
  • the selection unit 204 may use the presentation unit 207 to present information on the selected measurement target and calculation accuracy to a driver of the vehicle such as a driver. Further, when an instruction related to the measurement target is input from the driver of the vehicle such as a driver via the input unit 208, the selection unit 204 may change the selection of the measurement target according to the instruction. .
  • the traveling condition recognition unit 203 recognizes the traveling condition that the required power is insufficient based on the operating condition of the air conditioner and the remaining amount of the vehicle-mounted battery
  • the selecting unit 204 uses the presentation unit 207 to recognize a driver or the like. A warning may be issued to the occupant of the host vehicle, or the main control unit 209 may be notified.
  • the main control unit 209 may prompt a process for extending the operating time of the distance calculation, such as stopping the air conditioner.
  • a learning function is incorporated in the urgency database 211 for each subject, the priority subject database 212 for each scene, and the priority subject database 213 for each driving situation, and based on the selection result by the selection unit 204, the storage data of each database 211 to 213 is stored. May be updated.
  • the planning unit 205 estimates the calculation capability of the distance calculation unit 206 to calculate the distance and the relative speed of the object by the FCM method and the calculation load according to the recognition target, and calculates the calculation of each measurement target selected by the selection unit 204. Plan your order. Further, the planning unit 205 may plan the calculation order of the measurement target based on the situation such as the power consumption or the surplus power. The planning unit 205 omits the distance calculation for the measurement target having no margin in the calculation capability and the electric energy, and ensures that the distance calculation is performed for the urgent measurement target. Conversely, if there is a margin in the computing capacity or the electric energy, the planning unit 205 may increase the number of measurement targets to further ensure safety.
  • the planning unit 205 may appropriately refer to the necessary calculation amount database 214 for each measurement object, which stores information on the necessary calculation amounts for each measurement object.
  • the necessary calculation amount database 214 stores information on the calculation amount required for performing the distance calculation for each measurement target.
  • the necessary calculation amount database 214 may accumulate the necessary calculation amount according to the calculation accuracy and the calculation method for each measurement target.
  • the planning unit 205 When determining that the measurement target selected by the selection unit 204 exceeds the calculation capability of the distance calculation unit 206, the planning unit 205 warns the driver of the vehicle such as a driver using the presentation unit 207. You may make it emit. Further, the planning unit 205 may instruct the main control unit 209 to reduce the vehicle speed of the own vehicle in order to reduce the calculation load of the distance calculation unit 206. Further, the planning unit 205 may use the presentation unit 207 to present information on a subject whose distance calculation is not to be performed to the driver of the vehicle such as a driver using the presentation unit 207.
  • a learning function may be incorporated into the required calculation amount database 214 for each measurement target, and the storage data of the required calculation amount database 214 for each measurement target may be updated based on the plan drafted by the planning unit 205.
  • the distance calculation unit 206 performs the distance calculation from the sensor signal of the radar 224 to the object, limited by the measurement target selected by the selection unit 204, and according to the calculation order planned by the planning unit 205.
  • the distance calculation unit 206 employs at least the FCM method.
  • the FCM method performs two FFT processes on a beat signal generated for each chirp wave generated from a transmission signal that generates a chirp wave whose frequency continuously increases or decreases and a reception signal of a reflected wave of a chirp wave from a target. (Two-dimensional FFT processing) is performed to detect the distance to the target and the relative speed.
  • the distance calculation unit 206 performs the distance calculation by the FCW method with a resolution according to the calculation accuracy selected by the selection unit 204. Further, the distance calculation unit 206 may employ both the FCM method and the FMCW method, and may perform the distance calculation by switching to the calculation accuracy or the calculation method selected by the selection unit 204. Then, the distance calculation unit 206 outputs information on the calculated distance and relative speed of each object to the main control unit 209.
  • the main control unit 209 uses the calculation result of the distance calculation unit 206 for vehicle control such as automatic driving and ADAS.
  • vehicle control such as automatic driving and ADAS.
  • the main control unit 209 is used for automatic driving or ADAS such as inter-vehicle control (ACC), lane departure warning (LDW), lane keep assist (LKA), automatic emergency braking (AEB), and blind spot detection (BSD).
  • ACC inter-vehicle control
  • LDW lane departure warning
  • LKA lane keep assist
  • AEB automatic emergency braking
  • BSD blind spot detection
  • the vehicle control is performed, and the drive of each drive unit such as an active cornering light (ACL), a brake actuator (BRK), and a steering device (STR) is controlled.
  • ACL active cornering light
  • BK brake actuator
  • STR steering device
  • FIG. 3 shows an example of a processing procedure executed by the information processing system 100 in the form of a flowchart.
  • the illustrated processing procedure is realized by the operation of each unit in the information processing system 100 under the control of the main control unit 209.
  • the object recognizing unit 201 performs image recognition of an image captured by the camera 221 and performs object recognition based on the detection signal of the LiDAR 222 (step S301).
  • the object recognition unit 201 performs a sensor fusion process as needed.
  • the scene recognizing unit 202 recognizes a scene encountered by the own vehicle based on the image captured by the camera 221, the detection signal of the LiDAR 222, or the result of object recognition by the object recognizing unit 201 (step S302).
  • the scene recognition unit 202 performs a sensor fusion process as needed.
  • the driving situation recognizing unit 203 receives the sensor signal from the vehicle body sensor 223 and recognizes the driving situation of the own vehicle (step S303).
  • the order of the object recognition process by the object recognition unit 201, the scene recognition process by the scene recognition unit 202, and the recognition process of the traveling situation by the traveling situation recognition unit 203 are not specified. Even if these three processes are performed simultaneously and in parallel. Good.
  • the selection unit 204 determines that the distance calculation unit 206 uses the sensor of the radar 224. It is checked whether or not there is a measurement target to be subjected to distance calculation from the signal (step S304).
  • the selection unit 204 appropriately refers to the urgency database 211 for each subject, the priority subject database 212 for each scene, and the priority subject database 213 for each driving situation as necessary. Further, the selection unit 204 may also select the calculation accuracy or the calculation method for performing the distance calculation for the selected measurement target.
  • step S304 If there is no measurement target to be subjected to the distance calculation (No in step S304), the process returns to step S301, and repeatedly performs the object recognition processing, the scene recognition processing, and the traveling situation recognition processing to try to find the measurement target. .
  • step S304 When there is a measurement target to be subjected to distance calculation (Yes in step S304), the planning unit 205 performs distance calculation on each measurement target detected through the above-described recognition processing S301 to S303. A priority determination is performed (step S305).
  • the planning unit 205 estimates the calculation ability of the distance calculation unit 206 to calculate the distance and the relative speed of the object by the FCM method and the calculation load according to the recognition target, and calculates the distance calculation unit 206 (or the information processing system 200). It is checked whether or not there is enough spare capacity in the calculation capability (step S307). At this time, the planning unit 205 appropriately refers to the necessary computation amount database 214 for each measurement target. If the selection unit 204 also selects the calculation accuracy or the calculation method for performing the distance calculation for the measurement target, in step S307, there is room for the calculation capability according to the calculation accuracy or the calculation method. Make sure to check if
  • the distance calculation unit 206 calculates the distance and the relative speed of the object by the FCM method for the next measurement target (step S308).
  • the distance calculation unit 206 performs the distance calculation with the calculation area and the calculation accuracy selected by the selection unit 204. However, if an arbitrary calculation method can be selected, the distance and the relative speed of the object are calculated by the calculation method selected by the selection unit 204.
  • step S306 the calculation capability is confirmed (step S307), and the distance calculation for the measurement target (step S308) is repeatedly performed.
  • step S306 When the distance and the relative speed have been measured for all the measurement targets (Yes in step S306), the process returns to step S301, and the object recognition processing, the scene recognition processing, and the traveling situation recognition processing are repeatedly performed to newly appear. Attempt to find the measurement object
  • the planning unit 205 gives up calculating the distance for the remaining measurement target.
  • the calculation accuracy may be abandoned, and the subsequent measurement target may be switched from the FCM method to the FMCW method to calculate the distance and relative speed of the object.
  • the presentation unit 207 is used to present the fact that the measurement has been omitted to the driver of the vehicle such as the driver (step S309).
  • FIG. 4 shows another example of the processing procedure executed by the information processing system 100 in the form of a flowchart.
  • the illustrated processing procedure is realized by the operation of each unit in the information processing system 100 under the control of the main control unit 209.
  • the object recognizing unit 201 performs image recognition of the image captured by the camera 221 and performs object recognition based on the detection signal of the LiDAR 222 (step S401). Further, the scene recognizing unit 202 recognizes a scene encountered by the own vehicle based on the image captured by the camera 221, the detection signal of the LiDAR 222, or the result of object recognition by the object recognizing unit 201 (step S402). In each process of object recognition and scene recognition, a sensor fusion process may be appropriately incorporated.
  • the traveling state recognition unit 203 receives the sensor signal from the vehicle body sensor 223 to recognize the traveling state of the own vehicle (step S403).
  • the order of the object recognition process by the object recognition unit 201, the scene recognition process by the scene recognition unit 202, and the recognition process of the traveling situation by the traveling situation recognition unit 203 are not specified. Even if these three processes are performed simultaneously and in parallel. Good.
  • the selection unit 204 determines that the distance calculation unit 206 uses the sensor of the radar 224. It is checked whether or not there is a measurement target to be subjected to distance calculation from the signal (step S404).
  • the selection unit 204 appropriately refers to the urgency database 211 for each subject, the priority subject database 212 for each scene, and the priority subject database 213 for each driving situation as necessary. Further, the selection unit 204 may also select the calculation accuracy or the calculation method for performing the distance calculation for the selected measurement target.
  • step S304 If there is no measurement target for which distance calculation is to be performed (No in step S304), the process returns to step S401 and repeats the above processing to try to find a measurement target.
  • step S304 when there is a measurement target on which distance calculation is to be performed (Yes in step S304), the planning unit 205 performs a priority determination for performing distance calculation on each of the detected measurement targets (step S304). S405). Thereafter, the distance calculation of each measurement target is tried sequentially according to the determined priority.
  • the planning unit 205 estimates the calculation capability of the distance calculation unit 206 to calculate the distance and relative speed of the object by the FCM method and the calculation load according to the recognition target. It is checked whether there is (step S407). If the selection unit 204 has also selected the calculation accuracy or the calculation method for performing the distance calculation for the measurement target, in step S ⁇ b> 407, there is room for the calculation capability according to the calculation accuracy or the calculation method. Make sure to check if Then, when there is sufficient spare capacity in the calculation capability (Yes in step S407), the distance calculation unit 206 calculates the distance and the relative speed of the object by the FCM method for the next measurement target (step S408). The distance calculation unit 206 performs the distance calculation with the calculation area and the calculation accuracy selected by the selection unit 204. However, if an arbitrary calculation method can be selected, the distance and relative speed of the object are calculated by the calculation method selected by the selection unit 204.
  • step S406 if the measurement target still remains (No in step S406), the calculation capability is confirmed (step S407), and the distance calculation for the measurement target (step S408) is repeatedly performed.
  • step S406 the process returns to step S401, and the above processing is repeated to try to find a newly appearing measurement object.
  • the planning unit 205 gives up the distance calculation for the remaining measurement target.
  • the calculation accuracy may be abandoned, and the subsequent measurement target may be switched from the FCM method to the FMCW method to calculate the distance and relative speed of the object.
  • the main control unit 209 instructs the operation control unit 135 to reduce the vehicle speed of the own vehicle in order to reduce the calculation load of the distance calculation unit 206 (Step S410).
  • the vehicle speed decreases, the number of objects per unit time recognized by the object recognition unit 201 decreases, or the change per unit time of the scene recognized by the scene recognition unit 202 decreases. Since the number of selected measurement objects also decreases, it is expected that the calculation load will be reduced.
  • the planning unit 205 performs processing for not measuring the distance and the relative speed for the remaining measurement targets, and also informs the driver and the occupant of the host vehicle such as the driver by using the presentation unit 207. It is presented (step S409). When the calculation method used in the distance calculation unit 206 is switched, that effect may be presented. Then, returning to step S401, the object recognition processing, the scene recognition processing, and the traveling situation recognition processing are repeatedly performed to try to find the measurement target.
  • FIG. 5 shows still another example of the processing procedure executed by the information processing system 100 in the form of a flowchart.
  • the illustrated processing procedure is realized by the operation of each unit in the information processing system 100 under the control of the main control unit 209.
  • the object recognizing unit 201 performs image recognition of an image captured by the camera 221 and performs object recognition based on the detection signal of the LiDAR 222 (step S501). Further, the scene recognizing unit 202 recognizes a scene encountered by the own vehicle based on an image captured by the camera 221, a detection signal of the LiDAR 222, or an object recognition result by the object recognizing unit 201 (step S502). In each process of object recognition and scene recognition, a sensor fusion process may be appropriately incorporated.
  • the traveling state recognition unit 203 receives the sensor signal from the vehicle body sensor 223 and recognizes the traveling state of the own vehicle (step S503).
  • the order of the object recognition process by the object recognition unit 201, the scene recognition process by the scene recognition unit 202, and the recognition process of the traveling situation by the traveling situation recognition unit 203 are not specified. Even if these three processes are performed simultaneously and in parallel. Good.
  • the selection unit 204 determines that the distance calculation unit 206 uses the sensor of the radar 224. It is checked whether or not there is a measurement target to be subjected to distance calculation from the signal (step S504).
  • the selection unit 204 appropriately refers to the urgency database 211 for each subject, the priority subject database 212 for each scene, and the priority subject database 213 for each driving situation as necessary. Further, the selection unit 204 may also select the calculation accuracy or the calculation method for performing the distance calculation for the selected measurement target.
  • step S504 If there is no measurement target to be subjected to distance calculation (No in step S504), the process returns to step S501 and repeats the above processing to try to find a measurement target.
  • the planning unit 205 determines the priority of performing distance calculation on each of the detected measurement targets (step S504). S505). Thereafter, the distance calculation of each measurement target is tried sequentially according to the determined priority.
  • the planning unit 205 estimates the calculation capability of the distance calculation unit 206 to calculate the distance and relative speed of the object by the FCM method and the calculation load according to the recognition target. It is checked whether there is (step S507). If the selection unit 204 also selects the calculation accuracy or the calculation method for performing the distance calculation for the measurement target, in step S507, there is room for the calculation capability or the calculation capability according to the calculation method. Make sure to check if Then, when there is sufficient spare capacity in the calculation capability (Yes in step S507), the distance calculation unit 206 calculates the distance and the relative speed of the object by the FCM method for the next measurement target (step S508). The distance calculation unit 206 performs the distance calculation with the calculation area and the calculation accuracy selected by the selection unit 204. However, if an arbitrary calculation method can be selected, the distance and relative speed of the object are calculated by the calculation method selected by the selection unit 204.
  • step S506 the calculation capability is confirmed (step S507), and the distance calculation for the measurement target (step S508) is repeatedly performed.
  • the process returns to step S501, and the above processing is repeated to try to find a newly appearing measurement object.
  • the planning unit 205 gives up distance calculation for the remaining measurement target.
  • the calculation accuracy may be abandoned, and the subsequent measurement target may be switched from the FCM method to the FMCW method to calculate the distance and relative speed of the object.
  • the main control unit 209 instructs the body system control unit 109 and the like to secure the power so that the power for the calculation processing of the distance calculation unit 206 can be prioritized (step S510).
  • surplus power can be generated by suppressing the operation of the air conditioner (for example, increasing the setting of the cooling temperature).
  • the drive system control unit 107 can generate surplus power by suppressing the generation of the driving force of the driving motor (limiting the speed or acceleration of the vehicle). .
  • the planning unit 205 performs processing for not measuring the distance and the relative speed for the remaining measurement targets, and also informs the driver and the occupant of the host vehicle such as the driver by using the presentation unit 207. It is presented (step S509). When the processing method of the radar device is switched, the fact may be presented. Then, returning to step S401, the object recognition processing, the scene recognition processing, and the traveling situation recognition processing are repeatedly performed to try to find the measurement target.
  • FIG. 6 shows, in the form of a flowchart, a detailed processing procedure of the priority determination processing of the measurement target, which is performed in step S305 in the flowchart shown in FIG. It should be understood that similar processing is performed in step S405 in the flowchart shown in FIG. 4 and in step S505 in the flowchart shown in FIG.
  • This priority determination process is executed by, for example, the planning unit 205 in the information processing system 200.
  • the priority determination process shown in FIG. 6 it is assumed that a measurement target list in which measurement targets are sorted in order of priority is used.
  • the following processing for determining the collision time is performed for all the measurement targets detected through the object recognition, the scene recognition, and the driving situation recognition S301 to S303 (No in step S601).
  • the planning unit 205 refers to the measurement target list (described above) and selects the measurement targets according to, for example, the order of priority (step S602). Then, it is checked whether the selected measurement target has been tracked (step S603).
  • step S603 If the selected measurement target has been tracked (Yes in step S603), the course of the own vehicle and the trajectory of the measurement target intersect and the own vehicle and the measurement target intersect based on the result of the tracking.
  • the collision time is calculated (step S604). If the selected measurement target has not been tracked yet (No in step S603), the trajectory of the measurement target is predicted according to a predetermined prediction algorithm, and the collision time between the host vehicle and the measurement target is estimated. (Step S605). Note that the collision time of a measurement target that has no possibility of collision is infinite.
  • the planning unit 205 sorts the respective measurement targets based on the estimated collision time obtained in step S604 or S605. Then (step S606), the data is written in the measurement target list (described above), and the process ends.
  • FIG. 7 is a flowchart illustrating another example of the detailed processing procedure of the priority determination processing of the measurement target performed in step S305 in the flowchart illustrated in FIG. It should be understood that similar processing is performed in step S405 in the flowchart shown in FIG. 4 and in step S505 in the flowchart shown in FIG.
  • the following processing for determining the collision time is performed for all the measurement targets detected through the object recognition, the scene recognition, and the driving situation recognition S301 to S303 (No in step S701).
  • the planning unit 205 refers to the measurement target list (described above) and selects measurement targets in accordance with, for example, priority order (step S702). Then, it is checked whether the selected measurement target has been tracked (step S703). If the selected measurement target has been tracked (Yes in step S703), the collision time between the host vehicle and the measurement target is calculated (step S704). If the selected measurement target has not been tracked yet (No in step S703), the collision time between the host vehicle and the measurement target is estimated (step S705). Note that the collision time of a measurement target that has no possibility of collision is infinite.
  • the planning unit 205 sorts the respective measurement targets based on the estimated collision time obtained in step S704 or S705. (Step S706), the result of sorting the measurement targets is presented to the occupant of the host vehicle such as a driver via the presentation unit 207.
  • the sort result of the measurement target is displayed on the screen using, for example, the display device (described above).
  • the passenger can use the input unit 208 to input an instruction to change the priority of the measurement target.
  • the input unit 208 may be a UI (User @ Interface) of a screen of a display device such as a touch panel or a voice input.
  • the planning unit 205 changes the priority of each measurement target according to the priority change instruction (step S707), writes the priority in the measurement target list (described above), and ends this processing.
  • FIG. 8 shows, in the form of a flowchart, a processing procedure for calculating the collision time between the host vehicle and the measurement target, which is performed in step S604 in the flowchart shown in FIG. It should be understood that the same processing is performed in step S704 in the flowchart shown in FIG.
  • the planning unit 205 tracks the measurement target being processed based on the past measurement result (step S801). Then, based on the tracking result, the trajectory of the measurement object is calculated (step S802), and the course of the own vehicle and the trajectory of the measurement object intersect and the collision time between the own vehicle and the measurement object is calculated. Then (step S803), the process ends.
  • FIG. 9 shows, in the form of a flowchart, a processing procedure for estimating the collision time between the host vehicle and the measurement target, which is performed in step S605 in the flowchart shown in FIG. It should be understood that the same processing is performed in step S605 in the flowchart shown in FIG.
  • the planning unit 205 performs matching with the scene recognition result by the scene recognition unit 202 (Step S901) and matching with the subject type of the measurement target (Step S902). In these matching processes, matching with an empirical rule database is performed as needed. In these matching processes, among the objects selected as the measurement targets by the selection unit 204 through the recognition processing steps S301 to S303 (or steps S401 to S403), objects for which distance calculation is obviously unnecessary (for example, a possibility of collision) This is performed to exclude objects that are extremely low, or to extract objects that require distance calculation (for example, objects that are highly likely to collide).
  • the planning unit 205 calculates the position information and the size of the object to be measured (Step S903). Then, the planning unit 205 verifies the possibility that the object collides with the own vehicle based on the speed information for each subject type and the relationship between the position, the size, and the distance of the object, and calculates the collision time ( Step S904), this process ends.
  • FIG. 10 shows a configuration example of a screen on which the sorting result of the measurement target is displayed using the display device (described above) in step S706 in the flowchart shown in FIG.
  • the sorting result is displayed on a screen showing the scenery ahead of the own vehicle.
  • a head-up display displayed on the windshield of the own vehicle may be used.
  • reference numerals 1001 to 1003 denote objects recognized by the object recognition unit 201. As illustrated, each recognized object may be surrounded by a square to indicate that it has been recognized.
  • the object 1001 is a pedestrian trying to jump out ahead of the host vehicle.
  • the object 1002 is a preceding vehicle running ahead of the host vehicle, and the distance from the host vehicle is gradually decreasing.
  • the object 1003 is a pedestrian stopped on the sidewalk.
  • the selection unit 204 selects only the object 1001 and the object 1002 among the recognized objects as measurement targets. Further, the planning unit 205 assigns priorities 1 and 2 to the objects 1001 and 1002 selected by the selecting unit 204, respectively, and displays the priorities in frames surrounding each object. This allows a driver of the vehicle such as a driver to know that the pedestrian 1001 who is about to start walking on the road or the vehicle 1002 ahead is measured with high priority. The driver may be encouraged to reduce the vehicle speed in order to avoid a collision with the pedestrian 1001 or the vehicle 1002 ahead.
  • FIG. 11 illustrates a measurement target in which distance calculation is omitted using a display device (described above) as a processing to cope with not measuring the distance and the relative speed of the measurement target in step S309 in the flowchart illustrated in FIG. 2 shows an example of the configuration of a screen that displays. It should be understood that a similar screen display is also performed in step S409 in the flowchart shown in FIG. 4 and in step S509 in the flowchart shown in FIG. Further, in the example shown in FIG. 11, a measurement target from which distance calculation is omitted is displayed on a screen showing a scene in front of the own vehicle. However, instead of the screen, a head-up display displayed on the windshield of the own vehicle may be used.
  • reference numeral 1101 in FIG. 11 denotes an object which is not selected by the selection unit 204 as a measurement target or is excluded from a distance measurement target by the planning unit 205 among the objects recognized by the object recognition unit 201.
  • This object 1101 is a pedestrian standing on the sidewalk.
  • a pedestrian denoted by reference numeral 1102 and a preceding vehicle denoted by reference numeral 1103 may collide with the own vehicle in the near future, and thus are selected as targets for distance measurement and are included in a distance calculation plan.
  • the stationary pedestrian 1101 since the stationary pedestrian 1101 has a very low possibility of colliding with the own vehicle, it is not selected as a target of the distance measurement, or if there is no spare capacity in the calculation, the pedestrian 1101 does not calculate the distance. Excluded.
  • the selection unit 204 or the planning unit 205 displays on the screen that the pedestrian 1103 has not been measured.
  • the presenting unit 207 may present, by using a voice message, that the pedestrian 1101 is not a target of the distance measurement in conjunction with the screen display (or instead of the screen display).
  • the driver may be urged to reduce the vehicle speed in order to avoid a collision with the pedestrian 1101.
  • FIG. 12 shows a state in which an instruction to change the measurement target is given.
  • the driver of the own vehicle such as a driver touches a measurement target whose distance and relative speed are not measured with a fingertip using a UI of a screen of a display device such as a touch panel. , Can be instructed to the measurement unit.
  • step S707 in the flowchart illustrated in FIG. 7 the planning unit 205 responds to the driver's instruction to add the measurement target to the distance measurement target or to increase the priority of the measurement target. Write the measurement target to the measurement target list or change the priority.
  • step S309 in the flowchart shown in FIG. 3, step S409 in the flowchart shown in FIG. 4, and step S509 in the flowchart shown in FIG. an instruction to add an object excluded from the measurement target to the measurement target may be provided.
  • the information processing system 200 can be suitably applied to a device that performs measurement using a radar device together with another object detection sensor such as a camera or LiDAR.
  • a specific example of this type of device is a vehicle control system 100 that implements ADAS and automatic driving.
  • the FCM type radar processing by applying the FCM type radar processing, it is possible to expand the detection of the distance resolution and the speed of the target object, but on the other hand, the amount of calculation increases, so that the cost and power consumption of the calculation circuit increase. (See above).
  • the information processing system 200 according to the present embodiment there is an advantage that the amount of calculation in the FCM radar processing can be reduced, or the same amount of calculation can be applied to a plurality of applications. Further, by switching the calculation method by time division, the necessary total calculation amount can be reduced.
  • the information processing system 200 it is possible to manage the processing method of the radar device according to the priority of the measurement target. Therefore, even with an inexpensive device configuration, it is possible to enhance the safety of ADAS or automatic driving in the vehicle control system 100.
  • the information processing system 200 it is also possible to increase the number of measurement targets of the distance calculation using the radar device and realize an upgrade that further enhances security by enhancing the calculation capability. is there.
  • the embodiment relating to fusion of the on-vehicle sensor has been mainly described, but the application range of the technology disclosed in this specification is not limited to vehicles.
  • various types of mobile devices such as unmanned aerial vehicles such as drones, robots that autonomously move in a predetermined work space (home, office, factory, etc.), ships, aircraft, and the like, are also described herein.
  • the disclosed technology can be applied.
  • the technology disclosed in this specification can be similarly applied to information terminals installed in mobile devices and various devices that are not mobile.
  • the technology disclosed in the present specification may have the following configurations.
  • a processing unit that performs arithmetic processing on a detection signal of an FCM type radar;
  • a control unit that controls a method of arithmetic processing in the processing unit based on a detection result of another sensor;
  • An information processing apparatus comprising: (2) the radar is mounted on a vehicle and used, and the other sensor is a vehicle-mounted sensor of the same vehicle; The information processing device according to (1).
  • the control unit controls at least one of a calculation area and a calculation accuracy of a calculation process in the processing unit based on a detection result of the another sensor;
  • the information processing apparatus according to any one of (1) and (2).
  • the control unit selects an object to be subjected to arithmetic processing by the processing unit based on a detection result of the other sensor;
  • the information processing device according to any one of (1) to (3).
  • the control unit selects a target on which the processing unit performs an arithmetic process based on a result of object recognition by the other sensor;
  • the information processing device according to (4). (5-1) the control unit selects the target based on the urgency of each object;
  • the information processing device is applied to a vehicle,
  • the control unit is configured to select a target on which the processing unit performs an arithmetic process based on a scene encountered by the vehicle recognized by the other sensor.
  • the information processing apparatus according to any one of (4) and (5).
  • (6-1) The control unit selects the target based on a priority for each scene.
  • the information processing device according to (6).
  • the information processing device is applied to a vehicle, The control unit selects a target on which the processing unit performs an arithmetic process based on a traveling state of the vehicle recognized by the other sensor.
  • the information processing apparatus according to any one of (4) to (6).
  • the control unit selects the target based on a priority for each driving situation;
  • the information processing device according to (7).
  • the information processing device according to any one of the above (4) to (7).
  • the control unit controls the order based on a required calculation amount for each target; The information processing device according to (8).
  • the control unit omits the calculation process for a target that does not have sufficient remaining calculation capability of the processing unit with respect to a required calculation amount.
  • (11) The information processing device is applied to a vehicle, The control unit controls the order based on an estimated collision time between the vehicle and each of the plurality of targets.
  • the control unit presents information on an object selected to perform an arithmetic process by the processing unit;
  • the information processing apparatus according to any one of (1) to (11).
  • (12-1) The control unit presents information on the priority of each object.
  • the arithmetic unit presents information on an object for which the arithmetic processing by the processing unit is omitted.
  • the control unit changes an object to be subjected to arithmetic processing by the processing unit based on an external instruction.
  • the information processing device is applied to a vehicle, The control unit, when there is not enough spare capacity in the computing capacity of the processing unit, instructs a decrease in the vehicle speed of the vehicle, The information processing device according to any one of (1) to (14). (16) the control unit instructs to secure power when there is not enough spare capacity in the processing unit.
  • a processing step of performing arithmetic processing on a detection signal of the FCM type radar A control step of controlling an arithmetic processing method in the processing step based on a detection result of another sensor;
  • An information processing method comprising: (18) a processing unit that performs arithmetic processing on the detection signal of the FCM type radar; A control unit that controls a method of arithmetic processing in the processing unit based on a detection result of another sensor, A computer program written in a computer-readable format to function as a computer.
  • a mobile device comprising: (20) radar and other in-vehicle sensors mounted on the vehicle, A recognition unit that performs recognition processing based on a detection signal of the vehicle-mounted sensor, A processing unit that performs arithmetic processing on the detection signal of the radar by an FCM method; A control unit that controls a method of arithmetic processing in the processing unit based on a recognition result by the recognition unit;
  • An information processing system comprising: (20) a moving body; Radar and other sensors mounted on the mobile, A recognition unit that performs recognition processing based on a detection signal of the other sensor, A processing unit that performs arithmetic processing on the detection signal of the radar by an FCM method; A control unit that controls a method of arithmetic processing in the processing unit based on a recognition result by the recognition unit; A moving body control unit that controls the moving body based on a processing result by the processing unit;
  • a mobile device comprising:
  • REFERENCE SIGNS LIST 100 vehicle control system 101 input unit 102 data acquisition unit 103 communication unit 104 in-vehicle device 105 output control unit 106 output unit 107 drive system control unit 108 drive system system 109 body System control unit, 110: Body system, 111 storage unit 112: Automatic operation control unit, 121: Communication network 131: Detection unit, 132: Self-position estimation unit, 133: Situation analysis unit 134: Planning unit, 135: Operation control Unit 141: Out-of-vehicle information detecting unit, 142: In-vehicle information detecting unit 143: Vehicle state detecting unit 151: Map analyzing unit, 152: Traffic rule recognizing unit 153: Situation recognizing unit, 154: Situation predicting unit 161: Route planning unit, 162 ...
  • Action planning unit 163 ... operation planning unit 171 ... emergency avoidance unit, 172 ... acceleration / deceleration control unit, 173 ... direction control unit 200
  • Information processing system 201: Object recognition unit, 202: Scene recognition unit, 203: Running situation recognition unit 204: Selection unit, 205: Planning unit, 206: Calculation unit, 207: Presentation unit 208: Input unit, 209: Main control unit 211: Emergency database for each subject 212 ... Priority subject database for each scene 213 ... Priority subject database for each driving situation 214 ... Required calculation amount database for each measurement target 221 ... Camera, 222 ... LiDAR, 223 ... Body sensor 224 ... Radar (Millimeter wave radar)

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

センサの検出情報を処理する情報処理装置及び情報処理方法、コンピュータプログラム、情報処理システム、並びに移動体装置を提供する。 情報処理装置は、FCM方式のレーダーの検出信号を演算処理する処理部と、他のセンサの検出結果に基づいて前記処理部における演算処理の方式を制御する制御部を具備する。前記レーダーは車両に搭載して用いられ、前記他のセンサは同じ車両の車載センサである。前記制御部は、前記他のセンサの検出結果に基づいて、前記処理部における演算処理の演算領域又は演算精度のうち少なくともいずれかを制御する。

Description

情報処理装置及び情報処理方法、コンピュータプログラム、情報処理システム、並びに移動体装置
 本明細書で開示する技術は、主に外界を認識するセンサの検出情報を処理する情報処理装置及び情報処理方法、コンピュータプログラム、情報処理システム、並びに移動体装置に関する。
 自動運転やADAS(Advanced Driver Assistance System)の実現のために、他の車両や人、レーンなど、さまざまな物体を検出する必要があり、また、晴天時の昼間に限らず、雨天ときや夜間などさまざまな環境で物体を検出する必要がある。このため、カメラ、ミリ波レーダー、レーザーレーダーなど、種類の異なる多くの外界認識センサが車両に搭載され始めている。このうち、ミリ波レーダーは、夜間、霧や降雨、逆光など、可視光を捕捉するカメラにとって悪環境下でも周辺車両や自転車などなど電波を反射する障害物を検出することができる。すなわち、ミリ波レーダーは、カメラの弱点を補うことができる、ADASの重要な技術である。
 従来から、周波数変調された連続波であるFM-CW(Frequency Modulated-Continuous Wave)をレーダー波として用いるFMCW方式が知られている。FMCW方式のレーダー装置は、例えば、アンテナを介して送信されたレーダー波に対するターゲットからの反射波を受信信号として受信すると、受信信号と送信信号とを混合して周波数変換を行い、送信信号と受信信号との差分周波数を持ったビート信号を検出するとA/D変換(Analog to Digital Conversion)し、A/D変換後のデータ列に対してFFT(Fast Fourier Transform)解析を行うことで、ターゲットとの間の相対距離、相対速度などを計測する。ところが、FMCW方式は、歩行者と自転車など速度の異なるターゲットが近接すると、片方を見落としてしまうという問題がある。
 そこで、近年では、ミリ波信号の周波数が時間の経過とともに連続的且つ高速に増加し又は減少するチャープ信号をレーダー波とするFCM(Fast Chirp Modulation)方式のレーダー装置(例えば、特許文献1を参照のこと)が注目されつつある。FCM方式のレーダー処理によれば、ミリ波信号の周波数の変調速度を高めることで距離分解能や対象物の速度の検知を広げることができるというメリットがある。
 FCM方式のレーダー装置においても、FMCW方式と同様に、受信信号と送信信号とを混合して周波数変換を行い、送信信号と受信信号との差分周波数を持ったビート信号を検出するとA/D変換し、A/D変換後のデータ列に対してFFT解析が行われる。但し、FCM方式では、例えば、距離方向を縦軸とし、チャープ信号の送信数を横軸とした2次元FFT解析を行うことで、ターゲットとの間の相対距離、相対速度などが計測される。
特開2016-3873号公報
 本明細書で開示する技術の目的は、主に外界を認識するセンサの検出情報を処理する情報処理装置及び情報処理方法、コンピュータプログラム、情報処理システム、並びに移動体装置を提供することにある。
 本明細書で開示する技術の第1の側面は、
 FCM方式のレーダーの検出信号を演算処理する処理部と、
 他のセンサの検出結果に基づいて前記処理部における演算処理の方式を制御する制御部と、
を具備する情報処理装置である。
 前記レーダーは車両に搭載して用いられ、前記他のセンサは同じ車両の車載センサである。前記制御部は、前記他のセンサの検出結果に基づいて、前記処理部における演算処理の演算領域又は演算精度のうち少なくともいずれかを制御する。また、前記制御部は、前記他のセンサの検出結果に基づいて、前記処理部により演算処理を実施する対象を選択する。
 また、本明細書で開示する技術の第2の側面は、
 FCM方式のレーダーの検出信号を演算処理する処理ステップと、
 他のセンサの検出結果に基づいて前記処理ステップにおける演算処理の方式を制御する制御ステップと、
を有する情報処理方法である。
 また、本明細書で開示する技術の第3の側面は、
 FCM方式のレーダーの検出信号を演算処理する処理部、
 他のセンサの検出結果に基づいて前記処理部における演算処理の方式を制御する制御部、
としてコンピュータを機能させるようにコンピュータ可読形式で記述されたコンピュータプログラムである。
 第3の側面に係るコンピュータプログラムは、コンピュータ上で所定の処理を実現するようにコンピュータ可読形式で記述されたコンピュータプログラムを定義したものである。換言すれば、第3の側面に係るコンピュータプログラムをコンピュータにインストールすることによって、コンピュータ上では協働的作用が発揮され、第1の側面に係る情報処理装置と同様の作用効果を得ることができる。
 また、本明細書で開示する技術の第4の側面は、
 車両に搭載されたレーダー及びその他の車載センサと、
 前記車載センサの検出信号に基づいて認識処理を行う認識部と、
 前記レーダーの検出信号をFCM方式により演算処理する処理部と、
 前記認識部による認識結果に基づいて前記処理部における演算処理の方式を制御する制御部と、
を具備する情報処理システムである。
 但し、ここで言う「システム」とは、複数の装置(又は特定の機能を実現する機能モジュール)が論理的に集合した物のことを言い、各装置や機能モジュールが単一の筐体内にあるか否かは特に問わない。
 また、本明細書で開示する技術の第5の側面は、
 移動体と、
 前記移動体に搭載されたレーダー及びその他のセンサと、
 前記他のセンサの検出信号に基づいて認識処理を行う認識部と、
 前記レーダーの検出信号をFCM方式により演算処理する処理部と、
 前記認識部による認識結果に基づいて前記処理部における演算処理の方式を制御する制御部と、
 前記処理部による処理結果に基づいて前記移動体を制御する移動体制御部と、
を具備する移動体装置である。
 本明細書で開示する技術によれば、主に外界を認識するセンサの検出情報を処理する情報処理装置及び情報処理方法、コンピュータプログラム、情報処理システム、並びに移動体装置を提供することができる。
 なお、本明細書に記載された効果は、あくまでも例示であり、本発明の効果はこれに限定されるものではない。また、本発明が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
 本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、車両制御システム100の概略的な機能の構成例を示すブロック図である。 図2は、車載レーダー装置の処理方式を切り替え制御するための情報処理システムの機能的構成例を示した図である。 図3は、情報処理システム100が実行する処理手順の一例を示したフローチャートである。 図4は、情報処理システム100が実行する処理手順の他の例を示したフローチャートである。 図5は、情報処理システム100が実行する処理手順のさらに他の例を示したフローチャートである。 図6は、測定対象の優先度判定処理の詳細な処理手順を示したフローチャートである。 図7は、測定対象の優先度判定処理の詳細な処理手順を示したフローチャートである。 図8は、車両と測定対象との衝突時刻を計算するための処理手順を示したフローチャートである。 図9は、車両と測定対象との衝突時刻を推定するための処理手順を示したフローチャートである。 図10は、測定対象のソート結果を表示した画面の構成例を示した図である。 図11は、距離演算を省略した測定対象を表示した画面の構成例を示した図である。 図12は、図11に示した画面上で測定対象の変更を指示する様子を示した図である。 図13は、FCM方式における送信信号及び受信信号、並びにビート信号を示した図である。
 以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
 図1は、本技術が適用され得る移動体制御システムの一例である車両制御システム100の概略的な機能の構成例を示すブロック図である。
 なお、以下、車両制御システム100が設けられている車両を他の車両と区別する場合、自車又は自車両と称する。
 車両制御システム100は、入力部101、データ取得部102、通信部103、車内機器104、出力制御部105、出力部106、駆動系制御部107、駆動系システム108、ボディ系制御部109、ボディ系システム110、記憶部111、及び、自動運転制御部112を備える。入力部101、データ取得部102、通信部103、出力制御部105、駆動系制御部107、ボディ系制御部109、記憶部111、及び、自動運転制御部112は、通信ネットワーク121を介して、相互に接続されている。通信ネットワーク121は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、又は、FlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークやバス等からなる。なお、車両制御システム100の各部は、通信ネットワーク121を介さずに、直接接続される場合もある。
 なお、以下、車両制御システム100の各部が、通信ネットワーク121を介して通信を行う場合、通信ネットワーク121の記載を省略するものとする。例えば、入力部101と自動運転制御部112が、通信ネットワーク121を介して通信を行う場合、単に入力部101と自動運転制御部112が通信を行うと記載する。
 入力部101は、搭乗者が各種のデータや指示等の入力に用いる装置を備える。例えば、入力部101は、タッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイス、並びに、音声やジェスチャ等により手動操作以外の方法で入力可能な操作デバイス等を備える。また、例えば、入力部101は、赤外線若しくはその他の電波を利用したリモートコントロール装置、又は、車両制御システム100の操作に対応したモバイル機器若しくはウェアラブル機器等の外部接続機器であってもよい。入力部101は、搭乗者により入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム100の各部に供給する。
 データ取得部102は、車両制御システム100の処理に用いるデータを取得する各種のセンサ等を備え、取得したデータを、車両制御システム100の各部に供給する。
 例えば、データ取得部102は、自車の状態等を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、及び、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数、モータ回転数、若しくは、車輪の回転速度等を検出するためのセンサ等を備える。
 また、例えば、データ取得部102は、自車の外部の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ、及び、その他のカメラ等の撮像装置を備える。また、例えば、データ取得部102は、天候又は気象等を検出するための環境センサ、及び、自車の周囲の物体を検出するための周囲情報検出センサを備える。環境センサは、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ等からなる。周囲情報検出センサは、例えば、超音波センサ、ミリ波レーダー、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等からなる。
 さらに、例えば、データ取得部102は、自車の現在位置を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号を受信するGNSS受信機等を備える。
 また、例えば、データ取得部102は、車内の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、運転者を撮像する撮像装置、運転者の生体情報を検出する生体センサ、及び、車室内の音声を集音するマイクロフォン等を備える。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座っている搭乗者又はステアリングホイールを握っている運転者の生体情報を検出する。
 通信部103は、車内機器104、並びに、車外の様々な機器、サーバ、基地局等と通信を行い、車両制御システム100の各部から供給されるデータを送信したり、受信したデータを車両制御システム100の各部に供給したりする。なお、通信部103がサポートする通信プロトコルは、特に限定されるものではなく、また、通信部103が、複数の種類の通信プロトコルをサポートすることも可能である
 例えば、通信部103は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、又は、WUSB(Wireless USB)等により、車内機器104と無線通信を行う。また、例えば、通信部103は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)、又は、MHL(Mobile High-definition Link)等により、車内機器104と有線通信を行う。
 さらに、例えば、通信部103は、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)との通信を行う。また、例えば、通信部103は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又は、MTC(Machine Type Communication)端末)との通信を行う。さらに、例えば、通信部103は、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、自車と家との間(Vehicle to Home)の通信、及び、歩車間(Vehicle to Pedestrian)通信等のV2X通信を行う。また、例えば、通信部103は、ビーコン受信部を備え、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行規制又は所要時間等の情報を取得する。
 車内機器104は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、自車に搬入され若しくは取り付けられる情報機器、及び、任意の目的地までの経路探索を行うナビゲーション装置等を含む。
 出力制御部105は、自車の搭乗者又は車外に対する各種の情報の出力を制御する。例えば、出力制御部105は、視覚情報(例えば、画像データ)及び聴覚情報(例えば、音声データ)のうちの少なくとも1つを含む出力信号を生成し、出力部106に供給することにより、出力部106からの視覚情報及び聴覚情報の出力を制御する。具体的には、例えば、出力制御部105は、データ取得部102の異なる撮像装置により撮像された画像データを合成して、俯瞰画像又はパノラマ画像等を生成し、生成した画像を含む出力信号を出力部106に供給する。また、例えば、出力制御部105は、衝突、接触、危険地帯への進入等の危険に対する警告音又は警告メッセージ等を含む音声データを生成し、生成した音声データを含む出力信号を出力部106に供給する。
 出力部106は、自車の搭乗者又は車外に対して、視覚情報又は聴覚情報を出力することが可能な装置を備える。例えば、出力部106は、表示装置、インストルメントパネル、オーディオスピーカ、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ、ランプ等を備える。出力部106が備える表示装置は、通常のディスプレイを有する装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)表示機能を有する装置等の運転者の視野内に視覚情報を表示する装置であってもよい。
 駆動系制御部107は、各種の制御信号を生成し、駆動系システム108に供給することにより、駆動系システム108の制御を行う。また、駆動系制御部107は、必要に応じて、駆動系システム108以外の各部に制御信号を供給し、駆動系システム108の制御状態の通知等を行う。
 駆動系システム108は、自車の駆動系に関わる各種の装置を備える。例えば、駆動系システム108は、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備える。
 ボディ系制御部109は、各種の制御信号を生成し、ボディ系システム110に供給することにより、ボディ系システム110の制御を行う。また、ボディ系制御部109は、必要に応じて、ボディ系システム110以外の各部に制御信号を供給し、ボディ系システム110の制御状態の通知等を行う。
 ボディ系システム110は、車体に装備されたボディ系の各種の装置を備える。例えば、ボディ系システム110は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、パワーシート、ステアリングホイール、空調装置、及び、各種ランプ(例えば、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカ、フォグランプ等)等を備える。
 記憶部111は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイス等を備える。記憶部111は、車両制御システム100の各部が用いる各種プログラムやデータ等を記憶する。例えば、記憶部111は、ダイナミックマップ等の3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ、及び、自車の周囲の情報を含むローカルマップ等の地図データを記憶する。
 自動運転制御部112は、自律走行又は運転支援等の自動運転に関する制御を行う。具体的には、例えば、自動運転制御部112は、自車の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自車の衝突警告、又は、自車のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行う。また、例えば、自動運転制御部112は、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行う。自動運転制御部112は、検出部131、自己位置推定部132、状況分析部133、計画部134、及び、動作制御部135を備える。
 検出部131は、自動運転の制御に必要な各種の情報の検出を行う。検出部131は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143を備える。
 車外情報検出部141は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の外部の情報の検出処理を行う。例えば、車外情報検出部141は、自車の周囲の物体の検出処理、認識処理、及び、追跡処理、並びに、物体までの距離の検出処理を行う。検出対象となる物体には、例えば、車両、人、障害物、構造物、道路、信号機、交通標識、道路標示等が含まれる。また、例えば、車外情報検出部141は、自車の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、及び、路面の状態等が含まれる。車外情報検出部141は、検出処理の結果を示すデータを自己位置推定部132、状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153、並びに、動作制御部135の緊急事態回避部171等に供給する。
 車内情報検出部142は、車両制御システム100の各部からのデータ又は信号に基づいて、車内の情報の検出処理を行う。例えば、車内情報検出部142は、運転者の認証処理及び認識処理、運転者の状態の検出処理、搭乗者の検出処理、及び、車内の環境の検出処理等を行う。検出対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線方向等が含まれる。検出対象となる車内の環境には、例えば、気温、湿度、明るさ、臭い等が含まれる。車内情報検出部142は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
 車両状態検出部143は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の状態の検出処理を行う。検出対象となる自車の状態には、例えば、速度、加速度、舵角、異常の有無及び内容、運転操作の状態、パワーシートの位置及び傾き、ドアロックの状態、並びに、その他の車載機器の状態等が含まれる。車両状態検出部143は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
 自己位置推定部132は、車外情報検出部141、及び、状況分析部133の状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の位置及び姿勢等の推定処理を行う。また、自己位置推定部132は、必要に応じて、自己位置の推定に用いるローカルマップ(以下、自己位置推定用マップと称する)を生成する。自己位置推定用マップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いた高精度なマップとされる。自己位置推定部132は、推定処理の結果を示すデータを状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153等に供給する。また、自己位置推定部132は、自己位置推定用マップを記憶部111に記憶させる。
 状況分析部133は、自車及び周囲の状況の分析処理を行う。状況分析部133は、マップ解析部151、交通ルール認識部152、状況認識部153、及び、状況予測部154を備える。
 マップ解析部151は、自己位置推定部132及び車外情報検出部141等の車両制御システム100の各部からのデータ又は信号を必要に応じて用いながら、記憶部111に記憶されている各種のマップの解析処理を行い、自動運転の処理に必要な情報を含むマップを構築する。マップ解析部151は、構築したマップを、交通ルール認識部152、状況認識部153、状況予測部154、並びに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
 交通ルール認識部152は、自己位置推定部132、車外情報検出部141、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の周囲の交通ルールの認識処理を行う。この認識処理により、例えば、自車の周囲の信号の位置及び状態、自車の周囲の交通規制の内容、並びに、走行可能な車線等が認識される。交通ルール認識部152は、認識処理の結果を示すデータを状況予測部154等に供給する。
 状況認識部153は、自己位置推定部132、車外情報検出部141、車内情報検出部142、車両状態検出部143、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の認識処理を行う。例えば、状況認識部153は、自車の状況、自車の周囲の状況、及び、自車の運転者の状況等の認識処理を行う。また、状況認識部153は、必要に応じて、自車の周囲の状況の認識に用いるローカルマップ(以下、状況認識用マップと称する)を生成する。状況認識用マップは、例えば、占有格子地図(Occupancy Grid Map)とされる。
 認識対象となる自車の状況には、例えば、自車の位置、姿勢、動き(例えば、速度、加速度、移動方向等)、並びに、異常の有無及び内容等が含まれる。認識対象となる自車の周囲の状況には、例えば、周囲の静止物体の種類及び位置、周囲の動物体の種類、位置及び動き(例えば、速度、加速度、移動方向等)、周囲の道路の構成及び路面の状態、並びに、周囲の天候、気温、湿度、及び、明るさ等が含まれる。認識対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線の動き、並びに、運転操作等が含まれる。
 状況認識部153は、認識処理の結果を示すデータ(必要に応じて、状況認識用マップを含む)を自己位置推定部132及び状況予測部154等に供給する。また、状況認識部153は、状況認識用マップを記憶部111に記憶させる。
 状況予測部154は、マップ解析部151、交通ルール認識部152及び状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の予測処理を行う。例えば、状況予測部154は、自車の状況、自車の周囲の状況、及び、運転者の状況等の予測処理を行う。
 予測対象となる自車の状況には、例えば、自車の挙動、異常の発生、及び、走行可能距離等が含まれる。予測対象となる自車の周囲の状況には、例えば、自車の周囲の動物体の挙動、信号の状態の変化、及び、天候等の環境の変化等が含まれる。予測対象となる運転者の状況には、例えば、運転者の挙動及び体調等が含まれる。
 状況予測部154は、予測処理の結果を示すデータを、交通ルール認識部152及び状況認識部153からのデータとともに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
 ルート計画部161は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、目的地までのルートを計画する。例えば、ルート計画部161は、グローバルマップに基づいて、現在位置から指定された目的地までのルートを設定する。また、例えば、ルート計画部161は、渋滞、事故、通行規制、工事等の状況、及び、運転者の体調等に基づいて、適宜ルートを変更する。ルート計画部161は、計画したルートを示すデータを行動計画部162等に供給する。
 行動計画部162は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、ルート計画部161により計画されたルートを計画された時間内で安全に走行するための自車の行動を計画する。例えば、行動計画部162は、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換等)、走行車線、走行速度、及び、追い越し等の計画を行う。行動計画部162は、計画した自車の行動を示すデータを動作計画部163等に供給する
 動作計画部163は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、行動計画部162により計画された行動を実現するための自車の動作を計画する。例えば、動作計画部163は、加速、減速、及び、走行軌道等の計画を行う。動作計画部163は、計画した自車の動作を示すデータを、動作制御部135の加減速制御部172及び方向制御部173等に供給する。
 動作制御部135は、自車の動作の制御を行う。動作制御部135は、緊急事態回避部171、加減速制御部172、及び、方向制御部173を備える。
 緊急事態回避部171は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143の検出結果に基づいて、衝突、接触、危険地帯への進入、運転者の異常、車両の異常等の緊急事態の検出処理を行う。緊急事態回避部171は、緊急事態の発生を検出した場合、急停車や急旋回等の緊急事態を回避するための自車の動作を計画する。緊急事態回避部171は、計画した自車の動作を示すデータを加減速制御部172及び方向制御部173等に供給する。
 加減速制御部172は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための加減速制御を行う。例えば、加減速制御部172は、計画された加速、減速、又は、急停車を実現するための駆動力発生装置又は制動装置の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
 方向制御部173は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための方向制御を行う。例えば、方向制御部173は、動作計画部163又は緊急事態回避部171により計画された走行軌道又は急旋回を実現するためのステアリング機構の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
 自動運転やADASの実現に向けて、より高精度な外界認識を行うために、カメラ、ミリ波レーダー、レーザーレーダーなど、種類の異なる多くの外界認識センサが車両に搭載され始めている。各センサは、検出原理にも依拠して、得手不得手がある。例えば、可視光を撮影するカメラは暗所を苦手とし、電波の反射を検出するレーダーは人や動物などの電波を反射し難い物体を苦手とする。レーダー(ミリ波レーダー)、カメラ、及びレーザーレーダー(LiDAR)の得手不得手を以下の表1にまとめておく。同表中で、◎は大得意(高い認識精度を持つ)、○は得意(良好な認識精度を持つ)、△は苦手(認識精度が十分でない)を意味する。2以上のセンサを組み合わせるフュージョン技術を利用することによって、各センサの特徴を生かして、より高精度な外界認識を実現することができる。
Figure JPOXMLDOC01-appb-T000001
 ミリ波レーダーに関しては、ミリ波信号の周波数の速度を周期的に変調させるFMCW方式が主流であるが、周波数の変調速度を高めるFCM方式が注目されてきている。FCM方式では、FMCW方式と同様に、受信信号と送信信号とを混合して周波数変換を行い、送信信号と受信信号との差分周波数を持ったビート信号を検出するとA/D変換し、A/D変換後のデータ列に対してFFT解を行う。したがって、いずれの方式であっても、同様のレーダー装置の構成となる。FCM方式では、周波数が連続的且つ高速に増加又は減少するチャープ波を生成する送信信号と測定対象からのチャープ波の反射波を受信して得られる受信信号とから生成されたビート信号の周波数と位相変化に基づいて測定対象との距離と相対速度とを検出する。図13に、FCM方式における送信信号及び受信信号、並びにビート信号を示している。比較的ゆっくりと中心周波数が遷移するFMCW方式に比べ、FCM方式ではより高速な周波数遷移をとることにより、ビート周波数におけるfBHとfBLの差を大きくとることができるため、速度分解能に優れているという特徴がある。チャープ時間が、FMCW方式ではおよそミリ秒単位、FCW方式ではおよそマイクロ秒単位である。また、FCM方式ではチャープ速度が高速であるため、ドップラー周波数を無視できるため、検知距離を計算するアルゴリズムが簡素であり、マルチターゲットの認識力も向上する。
 FCM方式によれば、距離分解能や対象物の速度の検知を広げることができる(すなわち、物体検出の性能が向上する)反面、3次元FFT解析(若しくは1次元FFTを繰り返す3次元的な処理、又は2次元FFTの後に3回目のFFTの代わりに方位角推定を行う処理)が必要であり、必要なメモリと演算量が増加するため、演算回路のコストや消費電力が増大することが懸念される。例えば電気自動車(Electric Vehicle:EV)の場合、エアコン使用時、EVバッテリの充電量が所定量以下に低減したときなどには電力を消費するので演算回路による消費電力を抑制すべきである。
 また、複数の物体検出センサをフュージョンするフュージョン技術を採用した車載制御システムにおいて、すべての被写体を測定しようとすると、すべてのセンサにおいて十分な測定精度が得られないことがあり、あるいは測定精度を維持しようとすると、必要な被写体をすべて測定できない(測定が間に合わない)可能性がある。例えば、レーダーをカメラとフュージョン処理する場合、カメラの画像に見合う程度のレーダーの分解能が求められるが、カメラの視野角(FOV)は広いため、レーダーの演算負荷が厖大になる。車載レーダーは、被写体の距離や相対速度の計測を目的とするが、そもそも全方位にわたって高精度に測定する必要はない。また、自車両の周辺に複数の被写体が存在する場合、走行中に各被写体の優先度は時々刻々と変化する。
 そこで、本明細書では、状況に応じてレーダー装置の処理方式を適応的に切り替え制御する技術について、以下で提案する。
 ここで言うレーダー装置の処理方式の切り替えは、基本的には、FCM方式など特定の演算方式において、演算領域や演算精度を選択することを含む。演算領域を限定してFCM方式を適用することにより、全領域でFCM方式を実施する場合に比べコストや消費電力の増大を抑制し、演算領域を限定したことによる余剰の演算量を活用することによって、選択した演算領域では高分解能で測定を行うことができる。また、FCM方式を実施する場合、FFT解析を実施する演算領域において速度、距離、又はアンテナの分解能を抑制して演算精度を落とすことにより、演算精度は低下するが、演算量を削減し、コストや消費電力の増大を抑制することができる。
 具体的には、レーダー装置の処理方式の切り替えは、FCM方式など特定の演算方式において、測定対象を限定することを含む。すなわち、複数の測定対象が存在し得る場合において、一部の特定の測定対象においてのみレーダー装置を用いた距離演算を実施し、それ以外の測定対象を距離演算の対象から除外することにより、特定の測定対象においては十分な演算精度を得るとともに、それ以外の測定対象においては必要な性能を確保しつつ、コストや消費電力の増大を抑制することができる。例えば、カメラの画像認識結果やLiDARの物体認識結果など、他のセンサの認識結果に基づいて、レーダー装置による測定を特定の対象物を限定することができる。また、走行車両が遭遇するシーン毎に重要な対象物が変動するので、カメラの画像やLiDARの物体検出など、他のセンサによるシーン認識結果に基づいてレーダー装置の測定対象を切り替えるようにする。
 また、レーダー装置の処理方式の切り替えは、FCM方式など特定の演算方式において、測定対象毎に認識処理を行う演算順序の切り替え、すなわち演算順序計画を含む。例えば、自車両の周辺に複数の測定対象が存在する場合、走行中に各測定対象の優先度は時々刻々と変化する。そこで、各測定対象について、自車両と衝突する可能性(例えば、予想される衝突時刻)に基づいて優先度を判定する。そして、優先度に従った順序で距離演算を実施することにより、自車両と測定対象との衝突を回避して、ADAS若しくは自動運転の安全性を高めることが可能である。
 また、レーダー装置の処理方式の切り替えは、FMCW方式やFCM方式など演算方式の切り替えをさらに含んでもよい。FCM方式によれば、物体検出の性能は向上するが、コストや消費電力の増大を招来する。これに対し、FMCW方式に切り替えることによって、性能の低下を許容しつつ、コストや消費電力を抑制することができる。そこで、必要とされる演算精度や、演算能力の余力などに応じて、レーダー装置の処理方式の切り替えを行うようにしてもよい。例えば、カメラなど他のセンサによる物体認識結果やシーン認識結果、車両の走行状況に応じて、高い演算精度が必要と判定される場合にはFCM方式を適用するが、高い演算精度が必要でないと判定される場合には、FMCW方式に切り替えるようにしてもよい。また、車両が電気自動車の場合には、バッテリの充電量が所定値以下に低減したときには、FCM方式からFMCW方式に切り替えるようにしてもよい。演算方式の切り替えを実現するには、FMCW方式及びFCM方式のそれぞれの演算処理を実施するLSI(Large Scale Integration)チップを車両に搭載する。但し、FMCW方式及びFCM方式で共通する回路モジュールは共通化して各LSIを構成するようにしてもよい。なお、レーダーはバンパーなど破損し易い部位に搭載されるが、方式毎に個別にLSIを装備することで、一方が破壊しても他方がバックアップになる。
 また、ミリ波レーダーを、カメラやLiDARなど他のセンサをフュージョンするフュージョン技術を取り入れた車両制御システムの場合には、レーダー装置の処理方式の切り替えは、フュージョン処理方式の切り替えを含む。すなわち、各センサの処理の精度や演算速度、センサ間の演算順序を切り替えるようにする。また、センサ毎に測定対象を限定するようにしてもよい。例えば、カメラやLiDARよりもミリ波レーダーが優位となる悪天候時において、適応的にFCM方式を実施してレーダーによる十分な演算精度を確保するようにする。他方、カメラの画像認識でも必要な性能が得られるときには、FMCW方式に切り替えて、レーダーによる演算精度をある程度犠牲にしつつ、コストや消費電力の増大を抑制する。
 また、ここで言う、レーダー装置の処理方式を切り替える「状況」は、ADASや自動運転など対象車両の走行状況など車両周辺の状況や、車両制御システム100における演算能力や、消費電力量若しくは余剰電力量など車両自体の状況を含む。また、車室内の入力装置を介してドライバなどから入力される指示も、「状況」に含まれる。また、インターネットなどの外部ネットワークに接続されている車両制御システムにおいては、クラウドなど外部から受ける指示も、「状況」に含まれる。
 ここで、FCM方式のレーダー装置における演算処理について、補足説明しておく。FCM方式は、周波数が連続的に増加又は減少するチャープ波を生成する送信信号とターゲットからのチャープ波の反射波の受信信号から生成されたチャープ波毎のビート信号に対して2回のFFT処理(2次元FFT処理)を行ってターゲットとの距離及び相対速度を検出する方式である。また、アレーアンテナを形成する複数の受信アンテナのアンテナ毎(若しくは、操舵方向)に2次元FFT処理を実施して、ターゲットとの距離及び相対速度を3次元的に捕捉することができる。FCM方式は、FMCW方式に比べ例えば速度分解能に優れ、チャープ波の数(チャープ数)を増やすことなどによって速度分解能を上げることができる。
 上述したように、FCM方式は、FMCW方式に比べ、演算量が多い。FCM方式のレーダー装置において、演算領域を限定したり、演算精度を抑えたりすることによって、演算量を削減することができる。例えば、FCM方式のFFT解析処理を実施する速度領域、距離領域、又はアンテナ領域を限定して演算領域を限定することにより、演算量を削減することができる。また、FCM方式のFFT解析を実施する演算領域において、速度、距離、又はアンテナの分解能を抑制して演算精度を落とすことにより、演算量を削減することができる。あるいは、3回目のFFTの代わりにビームフォーミング法やCapon法などを用いる場合には、測定対象の距離と方位角を限定することで、演算量を削減することができる。
 図2には、車載レーダー装置の処理方式を切り替え制御するための情報処理システムの機能的構成例を示している。
 図示の情報処理システム200は、物体認識部201と、シーン認識部202と、走行状況認識部203と、選択部204と、計画部205と、距離演算部206と、提示部207と、入力部208と、主制御部209と、各種データベース(DB)211~214を備えている。また、情報処理システム200には、カメラ221、LiDAR222、車体センサ223、及びレーダー(ミリ波レーダー)224などの各種センサからセンサ信号を入力する。
 情報処理システム200は、基本的には車両に搭載して用いられ、より好ましくは、図1に示した車両制御システム100内に組み込まれている。例えば、機能モジュール201~206の一部又は全部は、自動運転制御部112内に実装され、若しくは図1に示した自動運転制御部112内のいずれかの機能モジュール内に実装されている。また、主制御部109は、例えば車両に搭載されるECU(Electronic Control Unit)に相当する。また、提示部209は図1中の出力部106が兼用し、入力部208は図1中の入力部101が兼用することができる。また、カメラ221、LiDAR222、車体センサ223、及びレーダー224は、図1中のデータ取得部102に含まれるセンサを利用することができる。また、各種データベース(DB)211~214は、情報処理システム200内に構築されてもよいが(すなわち、車両に搭載されていてもよいが)、図1中の通信部103を介して接続される外部データベースであってもよい。
 物体認識部201は、カメラ221による撮影画像を画像認識し、又は、LiDAR222の検出信号に基づいて物体認識して、自車両周辺に存在する物体の種類や、物体が存在する方向、自車両から物体までの概算距離を推定する。物体認識部201は、必要に応じてセンサフュージョン処理を実施してもよい。
 シーン認識部202は、カメラ221による撮影画像、LiDAR222の検出信号、あるいは物体認識部201による物体認識結果に基づいて、自車両が遭遇するシーンを認識する。ここで認識されるシーンとして、例えば、走行中の道路の形状や、混雑具合や歩行者などの道路状況、天候や照明などの走行環境を挙げることができる。シーン認識部202は、必要に応じてセンサフュージョン処理を実施してもよい。
 走行状況認識部203は、車体センサ223からのセンサ信号を入力して、自車両の走行状況を認識する。車体センサ223は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、及び、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数、モータ回転数、若しくは、車輪の回転速度などの自車両の状態を検出する各種センサや、車載バッテリの残量を検出するバッテリセンサ、天候又は気象などを検出するための環境センサ(雨滴センサ、霧センサ、日照センサ、雪センサ、温度センサ、湿度センサなど)を含む。走行状況認識部203は、これらの車体センサ223のセンサ信号に基づいて、車速、車両の進行方向、加速度、加速度方向、車両の絶対位置、外気温、振動、雨滴などの走行状況を認識する。
 選択部204は、FCM方式など特定の演算方式において、演算領域や演算精度を選択する。選択部204が行う演算領域の選択には、測定対象を限定することを含む。複数の測定対象が存在し得る場合において、一部の特定の測定対象においてのみレーダー224を用いた距離演算を実施し、それ以外の測定対象を距離演算の対象から除外することにより、演算負荷を抑制しつつ、特定の測定対象においては十分な演算精度を得ることができる。また、選択部204が行う演算精度の選択には、FCM方式において、FFT解析を実施する演算領域で速度、距離、又はアンテナの分解能を抑制して演算精度を落とすことを含む。演算精度の抑制により、演算量を削減することができる。具体的には、選択部204は、物体認識部201による物体認識結果、シーン認識部202によるシーン認識結果、並びに走行状況認識部203による走行状況の認識結果に基づいて、距離演算部206がレーダー224のセンサ信号から距離演算を実施すべき演算領域(若しくは、測定対象)を選択したり、特定の演算領域における演算精度を選択したりする。また、選択部204が行う演算精度の選択には、FCM方式とFMCW方式のいずれかの選択(演算精度が異なる複数の演算方式の中からの選択)を含んでもよい。
 選択部204は、基本的には、物体認識部201により認識された物体を、距離演算を実施すべき領域として選択し、その他の領域を距離演算の対象から除外する。物体が存在しない領域に距離演算を施しても無駄であり、いたずらに演算負荷を上げるだけだからである。
 また、選択部204は、さらにシーン認識部202により認識されたシーンに基づいて、物体認識部201により認識された物体のうち自車両と衝突しそうな物体(周辺車両、自転車、歩行者、障害物など)を判定して、測定対象を選択する。例えば、自車両からの距離が近い物体は衝突する可能性があるが、対向車や歩道を歩行中の歩行者とは衝突する可能性が低く、測定対象として選択するべきではない。また、自車両の前方の横断歩道を渡ろうとしている歩行者は衝突する可能性が高く、親に連れられている幼い子供や、独りで歩いている老人であればさらに衝突する可能性が高く、測定対象として選択するべきである。選択部204は、シーン認識部202により認識されたシーンに基づいて、測定対象に対して適用すべき演算精度を選択するようにしてもよい。例えば、歩行者などとの衝突の可能性が高い一般道であれば高い演算精度(あるいは、演算精度の高いFCM方式)を選択し、高速道路であれば低い演算精度(あるいは、演算精度が高くないFMCW方式)を選択するようにしてもよい。
 また、選択部204は、走行状況認識部203が車体センサ223の検出結果から認識する自車両の走行状況に基づいて、測定対象を選択する。例えば、カメラやLiDARよりもミリ波レーダーが優位となる悪天候時には、選択部204は、レーダー224を用いた測定対象を増やして、自車両の走行の安全性を確保する。逆に、カメラやLiDARでも十分な物体認識性能が得られる場合には、測定対象を制限することにより、FCM方式の距離演算を実施することによるコストや消費電力の増大を抑制する。また、選択部204は、加減速している、ハンドルを切っている、ドライバの注意力が低下しているなど、車体センサ223がモニタするドライバの状況に基づいて、測定対象を選択するようにしてもよい。また、選択部204は、距離演算部206(若しくは、情報処理システム200)の演算能力や、消費電力量若しくは余剰電力量などの状況に基づいて、測定対象を選択する。演算能力や電力量に余裕がなければ、選択部204は、測定対象を制限して、喫緊の測定対象について確実に距離演算を行うようにする。逆に、演算能力や電力量に余裕が生じれば、選択部204は、測定対象を増やして、安全性をより確保するようにしてもよい。選択部204は、走行状況認識部203により認識されたシーンに基づいて、測定対象に対して適用すべき演算精度を選択するようにしてもよい。例えば、車両が電気自動車でバッテリの充電量が十分なときには高い演算精度(あるいは、演算精度の高いFCM方式)を選択し、充電量が所定値以下に低減したときには低い演算精度(あるいは、演算精度が高くないFMCW方式)を選択するようにしてもよい。また、車両の車速が速いときには測定対象の速度の検知を広げるためにFCM方式を選択し、車速がおそいときにはFMCW方式を選択するようにしてもよい。また、ステアリングホイールの操舵角が変化したとき(すなわち、ハンドル操作が行われたとき)には衝突の危険が高まるので高い演算精度(あるいは、演算精度の高いFCM方式)を選択し、車両の直進時には低い演算精度(あるいは、演算精度が高くないFMCW方式)を選択するようにしてもよい。
 選択部204が演算領域及び演算精度を選択する要因はさまざまである。そこで、選択部204は、被写体毎の緊急度データベース211、シーン毎の優先被写体データベース212、並びに走行状況毎の優先被写体データベース213のうち少なくとも1つのデータベースを参照して、距離演算を実施すべき測定対象や演算精度を選択する。
 被写体毎の緊急度データベース211には、歩行者(子供、大人、老人など)、車両(先行車、後続車、対向車、バイク、自転車)など、物体認識部201により認識可能な被写体毎の距離演算すべき緊急度や必要な分解能に関する情報を蓄積している。また、シーン毎の優先被写体データベース212は、交差点やカーブ、一般道、高速道路、トンネル内、夜間走行時、雨天走行時、濃霧、積雪時など、シーン認識部202により認識可能なシーンに応じて優先して距離演算すべき被写体や必要な分解能に関する情報を蓄積している。また、走行状況毎の優先被写体データベース213は、充電量や車速、ステアリングホイールの操舵角など、走行状況認識部203により認識される自車両の走行状況に応じて優先して距離演算すべき被写体や必要な分解能に関する情報を蓄積している。
 したがって、選択部204は、被写体毎の緊急度データベース211を参照して、物体認識部201により認識された物体の種類毎の緊急度や必要な分解能を判断したり、シーン認識部202により認識されたシーン毎に優先して認識すべき物体や必要な分解能を予測したり、走行状況認識部203により認識された自車両の走行状況毎に優先して認識すべき物体や必要な分解能を認識して、測定対象並びに演算精度を適切に選択することができる。選択部204が測定対象を選択することによって、距離演算部206において距離演算を実施すべき演算領域が確定する。また、選択部204は、距離演算を実施する演算領域と併せて、演算精度の選択も行う。演算精度の選択には、FCM方式においてFFT解析を実施する演算領域で速度、距離、又はアンテナの分解能を選択することや、FCM方式とFMCW方式など演算精度が異なる複数の演算方式の中からいずれかを選択することを含む。
 また、選択部204は、選択した測定対象並びに演算精度に関する情報を、提示部207を使ってドライバなど自車両の搭乗者に提示するようにしてもよい。また、選択部204は、ドライバなど自車両の搭乗者から、入力部208を介して測定対象に関する指示が入力された場合には、その指示に従って、測定対象の選択を変更するようにしてもよい。また、選択部204は、走行状況認識部203がエアコンの稼働状況や車載バッテリの残量などに基づいて必要電力が不足するという走行状況を認識した場合には、提示部207を使ってドライバなど自車両の搭乗者に警告を発したり、主制御部209に通知したりするようにしてもよい。主制御部209は、エアコンの停止など距離演算の稼働時間を延長するための処理を促すようにしてもよい。
 なお、被写体毎の緊急度データベース211、シーン毎の優先被写体データベース212、走行状況毎の優先被写体データベース213に学習機能を取り入れ、選択部204による選択結果に基づいて、各データベース211~213の記憶データを更新するようにしてもよい。
 計画部205は、距離演算部206がFCM方式により物体の距離及び相対速度を演算する演算能力と、認識対象に応じた演算負荷の見積りを行うとともに、選択部204で選択した各測定対象の演算順序の計画を立案する。また、計画部205は、消費電力量若しくは余剰電力量などの状況に基づいて、測定対象の演算順序を計画するようにしてもよい。計画部205は、演算能力や電力量に余裕がない測定対象の距離演算を省略して、喫緊の測定対象について確実に距離演算を行うようにする。逆に、演算能力や電力量に余裕が生じれば、計画部205は、測定対象を増やして、安全性をより確保するようにしてもよい。計画部205は、測定対象の演算順序を計画するに際して、測定対象毎の必要演算量に関する情報を蓄積した、測定対象毎の必要演算量データベース214を適宜参照してもよい。必要演算量データベース214は、測定対象毎に距離演算の実施に必要となる演算量に関する情報を蓄積している。演算精度や演算方式の切り替えを想定している場合には、必要演算量データベース214は、測定対象毎に演算精度や演算方式に応じた必要演算量を蓄積していてもよい。
 また、計画部205は、選択部204により選択された測定対象が、距離演算部206の演算能力を超えると判断した場合には、提示部207を使ってドライバなど自車両の搭乗者に警告を発するようにしてもよい。また、計画部205は、距離演算部206の演算負荷を軽減するために、主制御部209に対して自車両の車速を低下するように指示してもよい。また、計画部205は、演算能力にために距離演算を実施しない被写体に関する情報を、提示部207を使ってドライバなど自車両の搭乗者に提示するようにしてもよい。
 なお、測定対象毎の必要演算量データベース214に学習機能を取り入れ、計画部205が立案した計画に基づいて、測定対象毎の必要演算量データベース214の記憶データを更新するようにしてもよい。
 距離演算部206は、選択部204が選択した測定対象によって限定して、且つ、計画部205が計画した演算順序に従って、レーダー224のセンサ信号から物体までの距離演算を実施する。距離演算部206は、少なくともFCM方式を採用する。FCM方式は、周波数が連続的に増加又は減少するチャープ波を生成する送信信号とターゲットからのチャープ波の反射波の受信信号から生成されたチャープ波毎のビート信号に対して2回のFFT処理(2次元FFT処理)を行ってターゲットとの距離及び相対速度を検出する方式である。この場合、距離演算部206は、選択部204によって選択された演算精度に応じた分解能で、FCW方式による距離演算を実施する。また、距離演算部206は、FCM方式及びFMCW方式をともに採用することもでき、選択部204によって選択された演算精度若しくは演算方式に切り替えて、距離演算を実施するようにしてもよい。そして、距離演算部206は、算出した各物体の距離及び相対速度に関する情報を、主制御部209に出力する。
 主制御部209は、距離演算部206による演算結果を、自動運転やADASなどの車両制御に活用する。主制御部209は、例えば、自動車間制御(ACC)、車線逸脱警報(LDW)、レーンキープアシスト(LKA)、自動緊急ブレーキ(AEB)、死角検知(BSD)といった、自動運転又はADASのための車両制御を実施し、さらにはアクティブコーナリングライト(ACL)、ブレーキアクチュエータ(BRK)、操舵装置(STR)など各駆動部の駆動を制御する。
 図3には、情報処理システム100が実行する処理手順の一例をフローチャートの形式で示している。図示の処理手順は、主制御部209の制御下で、情報処理システム100内の各部が動作することによって実現される。
 まず、物体認識部201が、カメラ221による撮影画像を画像認識するとともに、LiDAR222の検出信号に基づいて物体認識を行う(ステップS301)。物体認識部201は、必要に応じてセンサフュージョン処理を実施する。
 また、シーン認識部202が、カメラ221による撮影画像、LiDAR222の検出信号、あるいは物体認識部201による物体認識結果に基づいて、自車両が遭遇するシーンを認識する(ステップS302)。シーン認識部202は、必要に応じてセンサフュージョン処理を実施する。
 また、走行状況認識部203は、車体センサ223からのセンサ信号を入力して、自車両の走行状況を認識する(ステップS303)。
 但し、物体認識部201による物体認識処理、シーン認識部202によるシーン認識処理、並びに走行状況認識部203による走行状況の認識処理は順不同であり、これら3つの処理を同時並行して実施してもよい。
 次いで、選択部204は、物体認識部201による物体認識結果、シーン認識部202によるシーン認識結果、並びに走行状況認識部203による走行状況の認識結果に基づいて、距離演算部206がレーダー224のセンサ信号から距離演算を実施すべき測定対象が存在するか否かをチェックする(ステップS304)。選択部204は、測定対象の選択を行う際に、被写体毎の緊急度データベース211、シーン毎の優先被写体データベース212、並びに走行状況毎の優先被写体データベース213を必要に応じて適宜参照する。また、選択部204は、選択した測定対象について、距離演算を実施する演算精度又は演算方式を併せて選択するようにしてもよい。
 距離演算を実施すべき測定対象が存在しない場合には(ステップS304のNo)、ステップS301に戻り、物体認識処理、シーン認識処理、走行状況認識処理を繰り返し実施して、測定対象の発見を試みる。
 また、距離演算を実施すべき測定対象が存在する場合には(ステップS304のYes)、計画部205は、上記認識処理S301~S303を通じて検出された各測定対象に対して、距離演算を実施する優先度判定を行う(ステップS305)。
 以降は、判定された優先度に従って、各測定対象の距離演算が順次試みられることになる。
 計画部205は、距離演算部206がFCM方式により物体の距離及び相対速度を演算する演算能力と、認識対象に応じた演算負荷の見積りを行い、距離演算部206(若しくは、情報処理システム200)の演算能力に十分な余力があるかどうかをチェックする(ステップS307)。その際、計画部205は、測定対象毎の必要演算量データベース214を適宜参照する。また、選択部204がその測定対象について距離演算を実施する演算精度又は演算方式を併せて選択している場合には、ステップS307では、その演算精度又は演算方式に応じた演算能力の余力があるかどうかをチェックするようにする。
 演算能力に十分な余力がある場合には(ステップS307のYes)、距離演算部206は、次の測定対象について、FCM方式により物体の距離及び相対速度を演算する(ステップS308)。そして、距離演算部206は、選択部204で選択した演算領域及び演算精度で、距離演算を実施するものとする。但し、任意の演算方式を選択可能な場合には、選択部204が選択した演算方式により物体の距離及び相対速度を演算する。
 その後、測定対象がまだ残っている場合には(ステップS306のNo)、演算能力の確認(ステップS307)、及び測定対象に対する距離演算(ステップS308)を、繰り返し実施する。
 すべての測定対象について距離及び相対速度の測定を行った場合には(ステップS306のYes)、ステップS301に戻り、物体認識処理、シーン認識処理、走行状況認識処理を繰り返し実施して、新たに出現した測定対象の発見を試みる。
 また、距離演算部206(若しくは、情報処理システム200)の演算能力の余力が十分でない場合には(ステップS307のNo)、計画部205は、残った測定対象についての距離演算を諦める。あるいは、演算能力の余力が十分でない場合には、演算精度を諦めて、以降の測定対象についてはFCM方式からFMCW方式に切り替えて、物体の距離及び相対速度の演算を実施するようにしてもよい。そして、残りの測定対象について距離及び相対速度の測定を行わないことの対処処理として、提示部207を使って、測定を省略したことをドライバなど自車両の搭乗者に提示する(ステップS309)。距離演算部206で使用する演算方式を切り替えたときには、その旨を提示するようにしてもよい。その後、ステップS301に戻り、物体認識処理、シーン認識処理、走行状況認識処理を繰り返し実施して、測定対象の発見を試みる。
 図4には、情報処理システム100が実行する処理手順の他の例をフローチャートの形式で示している。図示の処理手順は、主制御部209の制御下で、情報処理システム100内の各部が動作することによって実現される。
 まず、物体認識部201が、カメラ221による撮影画像を画像認識するとともに、LiDAR222の検出信号に基づいて物体認識を行う(ステップS401)。また、シーン認識部202が、カメラ221による撮影画像、LiDAR222の検出信号、あるいは物体認識部201による物体認識結果に基づいて、自車両が遭遇するシーンを認識する(ステップS402)。物体認識並びにシーン認識の各処理において、センサフュージョン処理を適宜取り入れてもよい。
 また、走行状況認識部203は、車体センサ223からのセンサ信号を入力して、自車両の走行状況を認識する(ステップS403)。但し、物体認識部201による物体認識処理、シーン認識部202によるシーン認識処理、並びに走行状況認識部203による走行状況の認識処理は順不同であり、これら3つの処理を同時並行して実施してもよい。
 次いで、選択部204は、物体認識部201による物体認識結果、シーン認識部202によるシーン認識結果、並びに走行状況認識部203による走行状況の認識結果に基づいて、距離演算部206がレーダー224のセンサ信号から距離演算を実施すべき測定対象が存在するか否かをチェックする(ステップS404)。選択部204は、測定対象の選択を行う際に、被写体毎の緊急度データベース211、シーン毎の優先被写体データベース212、並びに走行状況毎の優先被写体データベース213を必要に応じて適宜参照する。また、選択部204は、選択した測定対象について、距離演算を実施する演算精度又は演算方式を併せて選択するようにしてもよい。
 距離演算を実施すべき測定対象が存在しない場合には(ステップS304のNo)、ステップS401に戻って、上記の処理を繰り返して、測定対象の発見を試みる。
 一方、距離演算を実施すべき測定対象が存在する場合には(ステップS304のYes)、計画部205は、検出された各測定対象に対して、距離演算を実施する優先度判定を行う(ステップS405)。以降は、判定された優先度に従って、各測定対象の距離演算が順次試みられる。
 計画部205は、距離演算部206がFCM方式により物体の距離及び相対速度を演算する演算能力と、認識対象に応じた演算負荷の見積りを行い、距離演算部206の演算能力に十分な余力があるかどうかをチェックする(ステップS407)。また、選択部204がその測定対象について距離演算を実施する演算精度又は演算方式を併せて選択している場合には、ステップS407では、その演算精度又は演算方式に応じた演算能力の余力があるかどうかをチェックするようにする。そして、演算能力に十分な余力がある場合には(ステップS407のYes)、距離演算部206は、次の測定対象について、FCM方式により物体の距離及び相対速度を演算する(ステップS408)。距離演算部206は、選択部204で選択した演算領域及び演算精度で、距離演算を実施するものとする。但し、任意の演算方式を選択可能な場合には、選択部204が選択した演算方式により物体の距離及び相対速度を演算する。
 その後、測定対象がまだ残っている場合には(ステップS406のNo)、演算能力の確認(ステップS407)、及び測定対象に対する距離演算(ステップS408)を、繰り返し実施する。また、すべての測定対象について距離及び相対速度の測定を行った場合には(ステップS406のYes)、ステップS401に戻って、上記の処理を繰り返して、新たに出現した測定対象の発見を試みる。
 一方、距離演算部206の演算能力の余力が十分でない場合には(ステップS407のNo)、計画部205は、残った測定対象についての距離演算を諦める。あるいは、演算能力の余力が十分でない場合には、演算精度を諦めて、以降の測定対象についてはFCM方式からFMCW方式に切り替えて、物体の距離及び相対速度の演算を実施するようにしてもよい。そして、主制御部209は、距離演算部206の演算負荷を軽減するために、自車両の車速を低下するように動作制御部135に指示する(ステップS410)。車速が低下すれば、物体認識部201で認識される単位時間当たりの物体数が減少し、又は、シーン認識部202で認識されるシーンの単位時間当たりの変化が減少して、選択部204で選択される測定対象の数も減少するので、演算負荷が軽減することが期待される。
 また、計画部205は、残りの測定対象について距離及び相対速度の測定を行わないことの対処処理として、また、提示部207を使って、測定を省略したことをドライバなど自車両の搭乗者に提示する(ステップS409)。距離演算部206で使用する演算方式を切り替えたときには、その旨を提示するようにしてもよい。その後、ステップS401に戻り、物体認識処理、シーン認識処理、走行状況認識処理を繰り返し実施して、測定対象の発見を試みる。
 図5には、情報処理システム100が実行する処理手順のさらに他の例をフローチャートの形式で示している。図示の処理手順は、主制御部209の制御下で、情報処理システム100内の各部が動作することによって実現される。
 まず、物体認識部201が、カメラ221による撮影画像を画像認識するとともに、LiDAR222の検出信号に基づいて物体認識を行う(ステップS501)。また、シーン認識部202が、カメラ221による撮影画像、LiDAR222の検出信号、あるいは物体認識部201による物体認識結果に基づいて、自車両が遭遇するシーンを認識する(ステップS502)。物体認識並びにシーン認識の各処理において、センサフュージョン処理を適宜取り入れてもよい。
 また、走行状況認識部203は、車体センサ223からのセンサ信号を入力して、自車両の走行状況を認識する(ステップS503)。但し、物体認識部201による物体認識処理、シーン認識部202によるシーン認識処理、並びに走行状況認識部203による走行状況の認識処理は順不同であり、これら3つの処理を同時並行して実施してもよい。
 次いで、選択部204は、物体認識部201による物体認識結果、シーン認識部202によるシーン認識結果、並びに走行状況認識部203による走行状況の認識結果に基づいて、距離演算部206がレーダー224のセンサ信号から距離演算を実施すべき測定対象が存在するか否かをチェックする(ステップS504)。選択部204は、測定対象の選択を行う際に、被写体毎の緊急度データベース211、シーン毎の優先被写体データベース212、並びに走行状況毎の優先被写体データベース213を必要に応じて適宜参照する。また、選択部204は、選択した測定対象について、距離演算を実施する演算精度又は演算方式を併せて選択するようにしてもよい。
 距離演算を実施すべき測定対象が存在しない場合には(ステップS504のNo)、ステップS501に戻って、上記の処理を繰り返して、測定対象の発見を試みる。
 一方、距離演算を実施すべき測定対象が存在する場合には(ステップS504のYes)、計画部205は、検出された各測定対象に対して、距離演算を実施する優先度判定を行う(ステップS505)。以降は、判定された優先度に従って、各測定対象の距離演算が順次試みられる。
 計画部205は、距離演算部206がFCM方式により物体の距離及び相対速度を演算する演算能力と、認識対象に応じた演算負荷の見積りを行い、距離演算部206の演算能力に十分な余力があるかどうかをチェックする(ステップS507)。また、選択部204がその測定対象について距離演算を実施する演算精度又は演算方式を併せて選択している場合には、ステップS507では、その演算精度又は演算方式に応じた演算能力の余力があるかどうかをチェックするようにする。そして、演算能力に十分な余力がある場合には(ステップS507のYes)、距離演算部206は、次の測定対象について、FCM方式により物体の距離及び相対速度を演算する(ステップS508)。距離演算部206は、選択部204で選択した演算領域及び演算精度で、距離演算を実施するものとする。但し、任意の演算方式を選択可能な場合には、選択部204が選択した演算方式により物体の距離及び相対速度を演算する。
 その後、測定対象がまだ残っている場合には(ステップS506のNo)、演算能力の確認(ステップS507)、及び測定対象に対する距離演算(ステップS508)を、繰り返し実施する。また、すべての測定対象について距離及び相対速度の測定を行った場合には(ステップS506のYes)、ステップS501に戻って、上記の処理を繰り返して、新たに出現した測定対象の発見を試みる。
 一方、距離演算部206の演算能力の余力が十分でない場合には(ステップS507のNo)、計画部205は、残った測定対象についての距離演算を諦める。あるいは、演算能力の余力が十分でない場合には、演算精度を諦めて、以降の測定対象についてはFCM方式からFMCW方式に切り替えて、物体の距離及び相対速度の演算を実施するようにしてもよい。そして、主制御部209は、距離演算部206の演算処理のための電力を優先的にしようできるようにするために、ボディ系制御部109などに対して電力確保を指示する(ステップS510)。例えば、ボディ系システム110において、空調装置の稼動を抑制する(冷房温度の設定を上げるなど)ことによって、余剰電力を捻出することができる。また、自車両が電気自動車の場合には、駆動系制御部107が駆動用モータの駆動力の発生を抑制する(車両の速度又は加速度を制限する)ことによって、余剰電力を捻出することができる。
 また、計画部205は、残りの測定対象について距離及び相対速度の測定を行わないことの対処処理として、また、提示部207を使って、測定を省略したことをドライバなど自車両の搭乗者に提示する(ステップS509)。レーダー装置の処理方式を切り替えたときには、その旨を提示するようにしてもよい。その後、ステップS401に戻り、物体認識処理、シーン認識処理、走行状況認識処理を繰り返し実施して、測定対象の発見を試みる。
 図6には、図3に示したフローチャート中のステップS305で実施される、測定対象の優先度判定処理の詳細な処理手順をフローチャートの形式で示している。図4に示したフローチャート中のステップS405、並びに図5に示したフローチャート中のステップS505においても、同様の処理が実施されるものと理解されたい。
 この優先度判定処理は、情報処理システム200内で、例えば計画部205が実行する。また、図6に示す優先度判定処理では、測定対象を優先度順にソートした測定対象リストを使用することを前提とする。
 まず、物体認識、シーン認識、及び走行状況認識S301~S303を通じて検出されたすべての測定対象について、衝突時刻を判定するための以下の処理を実施する(ステップS601のNo)。
 計画部205は、測定対象リスト(上述)を参照して、例えば優先度順に従って測定対象を選定する(ステップS602)。そして、選定した測定対象をトラッキング済みであるかどうかをチェックする(ステップS603)。
 選定した測定対象がトラッキング済みである場合には(ステップS603のYes)、既にトラッキングした結果に基づいて、自車両の進路とその測定対象の軌道とが交差して自車両とその測定対象との衝突時刻を計算する(ステップS604)。また、選定した測定対象をまだトラッキングしていない場合には(ステップS603のNo)、所定の予測アルゴリズムに従ってその測定対象の軌道を予測して、自車両とその測定対象との衝突時刻を推定する(ステップS605)。なお、衝突する可能性がない測定対象の衝突時刻は無限大となる。
 そして、検出されたすべての測定対象について、衝突時刻の判定を終了すると(ステップS601のYes)、計画部205は、ステップS604又はS605で求められた衝突予想時間に基づいて各測定対象をソートして(ステップS606)、測定対象リスト(上述)に書き込んで、本処理を終了する。
 なお、既に衝突時刻が経過した測定対象など、自車両と衝突する可能性が低い測定対象を測定対象リスト(上述)から削除する処理が別途行われるものとする。
 図7には、図3に示したフローチャート中のステップS305で実施される、測定対象の優先度判定処理の詳細な処理手順の他の例をフローチャートの形式で示している。図4に示したフローチャート中のステップS405、並びに図5に示したフローチャート中のステップS505においても、同様の処理が実施されるものと理解されたい。
 まず、物体認識、シーン認識、及び走行状況認識S301~S303を通じて検出されたすべての測定対象について、衝突時刻を判定するための以下の処理を実施する(ステップS701のNo)。
 計画部205は、測定対象リスト(上述)を参照して、例えば優先度順に従って測定対象を選定する(ステップS702)。そして、選定した測定対象をトラッキング済みであるかどうかをチェックする(ステップS703)。選定した測定対象がトラッキング済みである場合には(ステップS703のYes)、自車両とその測定対象との衝突時刻を計算する(ステップS704)。また、選定した測定対象をまだトラッキングしていない場合には(ステップS703のNo)、自車両とその測定対象との衝突時刻を推定する(ステップS705)。なお、衝突する可能性がない測定対象の衝突時刻は無限大となる。
 そして、検出されたすべての測定対象について、衝突時刻の判定を終了すると(ステップS701のYes)、計画部205は、ステップS704又はS705で求められた衝突予想時間に基づいて各測定対象をソートすると(ステップS706)、提示部207を介して測定対象のソート結果を、ドライバなどの自車両の搭乗者に提示する。
 測定対象のソート結果は、例えば表示装置(前述)を使って画面に表示される。搭乗者は、入力部208を使って、測定対象の優先度の変更の指示を入力することができる。入力部208は、タッチパネルなど表示装置の画面のUI(User Interface)や、音声入力などでもよい。計画部205は、優先度の変更指示に従って、各測定対象の優先度を変更して(ステップS707)、測定対象リスト(上述)に書き込んで、本処理を終了する。
 図8には、図6に示したフローチャート中のステップS604で実施される、自車両と測定対象との衝突時刻を計算するための処理手順をフローチャートの形式で示している。図7に示したフローチャート中のステップS704においても、同様の処理が実施されるものと理解されたい。
 計画部205は、過去の測定結果に基づいて、処理中の測定対象をトラッキングする(ステップS801)。そして、トラッキングした結果に基づいて、その測定対象の軌道を計算して(ステップS802)、自車両の進路とその測定対象の軌道とが交差して自車両とその測定対象との衝突時刻を計算して(ステップS803)、本処理を終了する。
 図9には、図6に示したフローチャート中のステップS605で実施される、自車両と測定対象との衝突時刻を推定するための処理手順をフローチャートの形式で示している。図7に示したフローチャート中のステップS605においても、同様の処理が実施されるものと理解されたい。
 まず、計画部205は、シーン認識部202によるシーン認識結果とのマッチング(ステップS901)、並びに測定対象の被写体種別とのマッチング(ステップS902)を行う。これらマッチング処理には、必要に応じて経験則データベースとの照合が適宜行われる。これらマッチング処理は、認識処理ステップS301~303(若しくは、ステップS401~403)を通じて選択部204によって測定対象として選択された物体のうち、明らかに距離演算が不要な物体(例えば、衝突する可能性が極めて低い物体)を除外し、あるいは逆に距離演算が必要な物体(例えば、衝突する可能性が極めて高い物体)を抽出するために実施される。
 次いで、計画部205は、測定対象となっている物体の位置情報及びサイズを算出する(ステップS903)。そして、計画部205は、被写体種別毎の速度情報と、物体の位置及びサイズと距離の関係に基づいて、その物体が自車両と衝突する可能性を検証するとともに、衝突時刻を算出して(ステップS904)、本処理を終了する。
 図10には、図7に示したフローチャート中のステップS706において、表示装置(前述)を使って測定対象のソート結果を表示した画面の構成例を示している。図10に示す例では、自車両の前方の風景を映した画面上にソート結果が表示されている。但し、画面ではなく、自車両のフロントガラスに表示されるヘッドアップディスプレイであってもよい。
 図10中、参照番号1001~1003は、物体認識部201が認識した物体である。図示のように、認識した各物体を四角で囲んだりして、認識されていることを示すようにしてもよい。物体1001は、自車両の前方に飛び出そうとしている歩行者である。また、物体1002は、自車両の前方を走行している先行車両であり、自車両との距離が徐々に短くなってきている。また、物体1003は、歩道で立ち止まっている歩行者である。
 自車両の前方に飛び出そうとしている歩行者1001や、接近している先行車両1002は、近い将来に自車両と衝突する可能性がある。これに対し、静止している歩行者1003は、自車両と衝突する可能性が極めて低い。そこで、選択部204は、認識物体のうち物体1001及び物体1002のみを測定対象に選択している。また、計画部205は、選択部204が選択した物体1001及び物体1002に対してそれぞれ優先度1、2を割り振り、各物体を囲う枠に優先度をそれぞれ表示する。これによって、ドライバなど自車両の搭乗者は、車道に歩き出そうとしている歩行者1001や前方の車両1002が高い優先度で距離測定されていることを知ることができる。ドライバに対し、歩行者1001や前方の車両1002との衝突を回避するために、車速を低下するように促すことにもなる。
 図11には、図3に示したフローチャート中のステップS309において、測定対象について距離及び相対速度の測定を行わないことの対処処理として、表示装置(前述)を使って距離演算を省略した測定対象を表示した画面の構成例を示している。図4に示したフローチャート中のステップS409、並びに図5に示したフローチャート中のステップS509においても、同様の画面表示が実施されるものと理解されたい。また、図11に示す例では、自車両の前方の風景を映した画面上に距離演算を省略した測定対象が表示されている。但し、画面ではなく、自車両のフロントガラスに表示されるヘッドアップディスプレイであってもよい。
 図11中、参照番号1101は、物体認識部201が認識した物体のうち、選択部204が測定対象に選択せず、又は、計画部205が距離測定の対象から除外した物体である。この物体1101は、歩道で立ち止まっている歩行者である。参照番号1102で示す歩行者や、参照番号1103で示す前方車両は、近い将来に自車両と衝突する可能性があるので、距離測定の対象として選択され、且つ、距離演算の計画に組み込まれる。これに対し、静止している歩行者1101は、自車両と衝突する可能性が極めて低いため、距離測定の対象として選択されず、又は、演算能力に余力がない場合には距離演算の計画から除外される。選択部204又は計画部205は、図示の通り、歩行者1103が測距されていないことを画面上に表示する。なお、提示部207は、画面表示と併せて(若しくは、画面表示の代わりに)、歩行者1101が距離測定の対象でないことを、音声メッセージにより提示するようにしてもよい。歩行者1101が急に動き出したときには、ドライバに対し、歩行者1101との衝突を回避するために、車速を低下するように促すことにもなる。
 図12には、測定対象の変更を指示する様子を示している。例えば図11に示した画面上で、ドライバなどの自車両の搭乗者は、タッチパネルなど表示装置の画面のUIを使って、距離及び相対速度の測定を行わない測定対象を指先でタッチすることによって、測定対象とするように計画部205に対して指示することができる。
 例えば、図7に示したフローチャート中のステップS707において、計画部205は、ドライバが測定対象を距離測定の対象に加えたり、測定対象の優先度を上げたりすることを指示したことに応答して、その測定対象を測定対象リストに書き込んだり優先度を変更したりする。また、図3に示したフローチャート中のステップS309や、図4に示したフローチャート中のステップS409や、図5に示したフローチャート中のステップS509においても、ドライバが図12に示したような画面を通じて、測定対象から除外された物体を測定対象に加えるように指示できるようにしてもよい。
 最後に、本実施形態に係る情報処理システム200の効果について言及する。情報処理システム200は、レーダー装置をカメラやLiDARなどの他の物体検出センサと併用して測定を行う装置に好適に適用することができる。この種の装置の具体例は、ADASや自動運転を実現する車両制御システム100である。
 レーダー装置において、FCM方式のレーダー処理を適用することにより、距離分解能や対象物の速度の検知を広げることができる反面、演算量が増加するため、演算回路のコストや消費電力が増大するという問題がある(前述)。本実施形態に係る情報処理システム200を適用することにより、FCM方式のレーダー処理における演算量を削減することができ、あるいは同じ演算量でも複数の用途に対応することができる、というメリットがある。また、時分割により演算方法を切り替えることで、必要な総演算量を低減することもできる。
 すなわち、本実施形態に係る情報処理システム200によれば、測定対象の優先度に応じて、レーダー装置の処理方式を管理することが可能である。したがって、安価な装置構成でも、車両制御システム100におけるADAS若しくは自動運転の安全性を高めることが可能である。
 もちろん、本実施形態に係る情報処理システム200において、演算能力を強化することで、レーダー装置を用いた距離演算の測定対象の数を増やし、安全性をより高めるといったアップグレードを実現することも可能である。
 以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
 本明細書では、車載センサのフュージョンに関する実施形態を中心に説明してきたが、本明細書で開示する技術の適用範囲は車両に限定されない。例えば、ドローンなどの無人航空機、所定の作業空間(家庭、オフィス、工場など)を自律的に移動するロボット、船舶、航空機など、さまざまなタイプの移動体装置に対して、同様に本明細書で開示する技術を適用することができる。もちろん、移動体装置に設置される情報端末や、移動型でないさまざまな装置に対しても、同様に本明細書で開示する技術を適用することができる。
 要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
 なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)FCM方式のレーダーの検出信号を演算処理する処理部と、
 他のセンサの検出結果に基づいて前記処理部における演算処理の方式を制御する制御部と、
を具備する情報処理装置。
(2)前記レーダーは車両に搭載して用いられ、前記他のセンサは同じ車両の車載センサである、
上記(1)に記載の情報処理装置。
(3)前記制御部は、前記他のセンサの検出結果に基づいて、前記処理部における演算処理の演算領域又は演算精度のうち少なくともいずれかを制御する、
上記(1)又は(2)のいずれかに記載の情報処理装置。
(4)前記制御部は、前記他のセンサの検出結果に基づいて、前記処理部により演算処理を実施する対象を選択する、
上記(1)乃至(3)のいずれかに記載の情報処理装置。
(5)前記制御部は、前記他のセンサによる物体認識結果に基づいて、前記処理部により演算処理を実施する対象を選択する、
上記(4)に記載の情報処理装置。
(5-1)前記制御部は、物体毎の緊急度に基づいて、前記対象を選択する、
上記(5)に記載の情報処理装置。
(6)前記情報処理装置は車両に適用され、
 前記制御部は、前記他のセンサにより認識される前記車両が遭遇しているシーンに基づいて、前記処理部により演算処理を実施する対象を選択する、
上記(4)又は(5)のいずれかに記載の情報処理装置。
(6-1)前記制御部は、シーン毎の優先度に基づいて、前記対象を選択する、
上記(6)に記載の情報処理装置。
(7)前記情報処理装置は車両に適用され、
 前記制御部は、前記他のセンサにより認識される前記車両の走行状況に基づいて、前記処理部により演算処理を実施する対象を選択する、
上記(4)乃至(6)のいずれかに記載の情報処理装置。
(7-1)前記制御部は、走行状況毎の優先度に基づいて、前記対象を選択する、
上記(7)に記載の情報処理装置。
(8)前記制御部は、複数の対象を選択したときに、各対象を前記処理部により演算処理を実施する順序を制御する、
上記(4)乃至(7)のいずれかに記載の情報処理装置。
(9)前記制御部は、対象毎の必要演算量に基づいて前記順序を制御する、
上記(8)に記載の情報処理装置。
(10)前記制御部は、必要演算量に対して前記処理部の演算能力に十分な余力がない対象の前記演算処理を省略する、
上記(9)に記載の情報処理装置。
(11)前記情報処理装置は車両に適用され、
 前記制御部は、前記車両と前記複数の対象の各々との衝突予想時刻に基づいて前記順序を制御する。
上記(8)乃至(10)のいずれかに記載の情報処理装置。
(12)前記制御部は、前記処理部により演算処理を実施することを選択した対象に関する情報を提示する、
上記(1)乃至(11)のいずれかに記載の情報処理装置。
(12-1)前記制御部は、各対象の優先度に関する情報を提示する、
上記(12)に記載の情報処理装置。
(13)前記演算部は、前記処理部による演算処理を省略した対象に関する情報を提示する、
上記(10)の記載の情報処理装置。
(14)前記制御部は、外部からの指示に基づいて、前記処理部により演算処理を実施する対象を変更する、
上記(1)乃至(13)のいずれかに記載の情報処理装置。
(15)前記情報処理装置は車両に適用され、
 前記制御部は、前記処理部の演算能力に十分な余力がない場合に、前記車両の車速低下を指示する、
上記(1)乃至(14)のいずれかに記載の情報処理装置。
(16)前記制御部は、前記処理部の演算能力に十分な余力がない場合に、電力確保を指示する、
上記(1)乃至(14)のいずれかに記載の情報処理装置。
(17)FCM方式のレーダーの検出信号を演算処理する処理ステップと、
 他のセンサの検出結果に基づいて前記処理ステップにおける演算処理の方式を制御する制御ステップと、
を有する情報処理方法。
(18)FCM方式のレーダーの検出信号を演算処理する処理部、
 他のセンサの検出結果に基づいて前記処理部における演算処理の方式を制御する制御部、
としてコンピュータを機能させるようにコンピュータ可読形式で記述されたコンピュータプログラム。
(19)車両に搭載されたレーダー及びその他の車載センサと、
 前記車載センサの検出信号に基づいて認識処理を行う認識部と、
 前記レーダーの検出信号をFCM方式により演算処理する処理部と、
 前記認識部による認識結果に基づいて前記処理部における演算処理の方式を制御する制御部と、
を具備する情報処理システム。
(20)移動体と、
 前記移動体に搭載されたレーダー及びその他のセンサと、
 前記他のセンサの検出信号に基づいて認識処理を行う認識部と、
 前記レーダーの検出信号をFCM方式により演算処理する処理部と、
 前記認識部による認識結果に基づいて前記処理部における演算処理の方式を制御する制御部と、
 前記処理部による処理結果に基づいて前記移動体を制御する移動体制御部と、
を具備する移動体装置。
 100…車両制御システム
 101…入力部、102…データ取得部、103…通信部
 104…車内機器、105…出力制御部、106…出力部
 107…駆動系制御部、108…駆動系システム
 109…ボディ系制御部、110…ボディ系システム、111記憶部
 112…自動運転制御部、121…通信ネットワーク
 131…検出部、132…自己位置推定部、133…状況分析部
 134…計画部、135…動作制御部
 141…車外情報検出部、142…車内情報検出部
 143…車両状態検出部
 151…マップ解析部、152…交通ルール認識部
 153…状況認識部、154…状況予測部
 161…ルート計画部、162…行動計画部、163…動作計画部
 171…緊急事態回避部、172…加減速制御部、173…方向制御部
 200…情報処理システム
 201…物体認識部、202…シーン認識部、203…走行状況認識部
 204…選択部、205…計画部、206…演算部、207…提示部
 208…入力部、209…主制御部
 211…被写体毎の緊急度データベース
 212…シーン毎の優先被写体データベース
 213…走行状況毎の優先被写体データベース
 214…測定対象毎の必要演算量データベース
 221…カメラ、222…LiDAR、223…車体センサ
 224…レーダー(ミリ波レーダー)

Claims (20)

  1.  FCM方式のレーダーの検出信号を演算処理する処理部と、
     他のセンサの検出結果に基づいて前記処理部における演算処理の方式を制御する制御部と、
    を具備する情報処理装置。
  2.  前記レーダーは車両に搭載して用いられ、前記他のセンサは同じ車両の車載センサである、
    請求項1に記載の情報処理装置。
  3.  前記制御部は、前記他のセンサの検出結果に基づいて、前記処理部における演算処理の演算領域又は演算精度のうち少なくともいずれかを制御する、
    請求項1に記載の情報処理装置。
  4.  前記制御部は、前記他のセンサの検出結果に基づいて、前記処理部により演算処理を実施する対象を選択する、
    請求項1に記載の情報処理装置。
  5.  前記制御部は、前記他のセンサによる物体認識結果に基づいて、前記処理部により演算処理を実施する対象を選択する、
    請求項4に記載の情報処理装置。
  6.  前記情報処理装置は車両に適用され、
     前記制御部は、前記他のセンサにより認識される前記車両が遭遇しているシーンに基づいて、前記処理部により演算処理を実施する対象を選択する、
    請求項4に記載の情報処理装置。
  7.  前記情報処理装置は車両に適用され、
     前記制御部は、前記他のセンサにより認識される前記車両の走行状況に基づいて、前記処理部により演算処理を実施する対象を選択する、
    請求項4に記載の情報処理装置。
  8.  前記制御部は、複数の対象を選択したときに、各対象を前記処理部により演算処理を実施する順序を制御する、
    請求項4に記載の情報処理装置。
  9.  前記制御部は、対象毎の必要演算量に基づいて前記順序を制御する、
    請求項8に記載の情報処理装置。
  10.  前記制御部は、必要演算量に対して前記処理部の演算能力に十分な余力がない対象の前記演算処理を省略する、
    請求項9に記載の情報処理装置。
  11.  前記情報処理装置は車両に適用され、
     前記制御部は、前記車両と前記複数の対象の各々との衝突予想時刻に基づいて前記順序を制御する。
    請求項8に記載の情報処理装置。
  12.  前記制御部は、前記処理部により演算処理を実施することを選択した対象に関する情報を提示する、
    請求項1に記載の情報処理装置。
  13.  前記演算部は、前記処理部による演算処理を省略した対象に関する情報を提示する、
    請求項10の記載の情報処理装置。
  14.  前記制御部は、外部からの指示に基づいて、前記処理部により演算処理を実施する対象を変更する、
    請求項1に記載の情報処理装置。
  15.  前記情報処理装置は車両に適用され、
     前記制御部は、前記処理部の演算能力に十分な余力がない場合に、前記車両の車速低下を指示する、
    請求項1に記載の情報処理装置。
  16.  前記制御部は、前記処理部の演算能力に十分な余力がない場合に、電力確保を指示する、
    請求項1に記載の情報処理装置。
  17.  FCM方式のレーダーの検出信号を演算処理する処理ステップと、
     他のセンサの検出結果に基づいて前記処理ステップにおける演算処理の方式を制御する制御ステップと、
    を有する情報処理方法。
  18.  FCM方式のレーダーの検出信号を演算処理する処理部、
     他のセンサの検出結果に基づいて前記処理部における演算処理の方式を制御する制御部、
    としてコンピュータを機能させるようにコンピュータ可読形式で記述されたコンピュータプログラム。
  19.  車両に搭載されたレーダー及びその他の車載センサと、
     前記車載センサの検出信号に基づいて認識処理を行う認識部と、
     前記レーダーの検出信号をFCM方式により演算処理する処理部と、
     前記認識部による認識結果に基づいて前記処理部における演算処理の方式を制御する制御部と、
    を具備する情報処理システム。
  20.  移動体と、
     前記移動体に搭載されたレーダー及びその他のセンサと、
     前記他のセンサの検出信号に基づいて認識処理を行う認識部と、
     前記レーダーの検出信号をFCM方式により演算処理する処理部と、
     前記認識部による認識結果に基づいて前記処理部における演算処理の方式を制御する制御部と、
     前記処理部による処理結果に基づいて前記移動体を制御する移動体制御部と、
    を具備する移動体装置。
PCT/JP2019/028923 2018-08-09 2019-07-23 情報処理装置及び情報処理方法、コンピュータプログラム、情報処理システム、並びに移動体装置 WO2020031689A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US17/264,278 US20210302570A1 (en) 2018-08-09 2019-07-23 Information processing device and information processing method, computer program, information processing system, and mobile device
JP2020536439A JP7374098B2 (ja) 2018-08-09 2019-07-23 情報処理装置及び情報処理方法、コンピュータプログラム、情報処理システム、並びに移動体装置
KR1020217002229A KR20210040947A (ko) 2018-08-09 2019-07-23 정보 처리 장치 및 정보 처리 방법, 컴퓨터 프로그램, 정보 처리 시스템, 그리고 이동체 장치
EP19847375.3A EP3835823B1 (en) 2018-08-09 2019-07-23 Information processing device, information processing method, computer program, information processing system, and moving body device
CN201980051429.4A CN112534297A (zh) 2018-08-09 2019-07-23 信息处理设备和信息处理方法、计算机程序、信息处理系统以及移动设备

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-150476 2018-08-09
JP2018150476 2018-08-09

Publications (1)

Publication Number Publication Date
WO2020031689A1 true WO2020031689A1 (ja) 2020-02-13

Family

ID=69413580

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/028923 WO2020031689A1 (ja) 2018-08-09 2019-07-23 情報処理装置及び情報処理方法、コンピュータプログラム、情報処理システム、並びに移動体装置

Country Status (6)

Country Link
US (1) US20210302570A1 (ja)
EP (1) EP3835823B1 (ja)
JP (1) JP7374098B2 (ja)
KR (1) KR20210040947A (ja)
CN (1) CN112534297A (ja)
WO (1) WO2020031689A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020100569A1 (ja) * 2018-11-14 2020-05-22 ソニー株式会社 制御装置、制御方法及びセンサ制御システム
JP7165093B2 (ja) * 2019-03-29 2022-11-02 本田技研工業株式会社 車両制御システム
US11435439B2 (en) * 2019-08-19 2022-09-06 Waymo Llc Multibounce target mitigation
JP7125969B2 (ja) * 2020-10-28 2022-08-25 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
US11754666B2 (en) * 2021-02-12 2023-09-12 Aptiv Technologies Limited Radar detection prioritization based on downstream feedback
US20240103160A1 (en) * 2022-09-28 2024-03-28 DC-001, Inc. dba Spartan Radar Systems and methods for scheduling radar scan patterns in a vehicular radar system

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04315080A (ja) * 1991-04-11 1992-11-06 Fujitsu Ten Ltd 車間距離測定装置
JP2004191131A (ja) * 2002-12-10 2004-07-08 Denso Corp 物標識別方法及び装置、プログラム
JP2008509413A (ja) * 2004-08-07 2008-03-27 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング センサシステムの作動方法および作動装置
JP2009058316A (ja) * 2007-08-31 2009-03-19 Fujitsu Ten Ltd レーダ装置、物体検出方法、及び車両
JP2009181315A (ja) * 2008-01-30 2009-08-13 Toyota Motor Corp 物体検出装置
JP2013195245A (ja) * 2012-03-19 2013-09-30 Fujitsu Ten Ltd レーダ装置
JP2014169922A (ja) * 2013-03-04 2014-09-18 Denso Corp 物標認識装置
JP2016003873A (ja) 2014-06-13 2016-01-12 株式会社デンソー レーダ装置
JP2018115936A (ja) * 2017-01-17 2018-07-26 株式会社デンソーテン レーダ装置および物標検出方法
WO2019008640A1 (ja) * 2017-07-03 2019-01-10 三菱電機株式会社 信号処理装置、信号処理方法、信号処理プログラム及びレーダシステム
JP2019066284A (ja) * 2017-09-29 2019-04-25 株式会社デンソーテン レーダ装置およびレーダ装置の制御方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007002197A1 (de) * 2007-01-16 2008-07-17 Siemens Ag Gemeinsamer Kontroller für verschiedene Fahrerassistenzsysteme
US8629903B2 (en) * 2009-04-02 2014-01-14 GM Global Technology Operations LLC Enhanced vision system full-windshield HUD
US10429503B2 (en) * 2014-07-03 2019-10-01 GM Global Technology Operations LLC Vehicle cognitive radar methods and systems
JP6398689B2 (ja) 2014-12-18 2018-10-03 沖電気工業株式会社 信号処理装置、信号処理方法及びプログラム
JP2018059813A (ja) 2016-10-05 2018-04-12 株式会社デンソーテン レーダ装置および物標検出方法
JP6787842B2 (ja) 2017-07-07 2020-11-18 株式会社Soken レーダ装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04315080A (ja) * 1991-04-11 1992-11-06 Fujitsu Ten Ltd 車間距離測定装置
JP2004191131A (ja) * 2002-12-10 2004-07-08 Denso Corp 物標識別方法及び装置、プログラム
JP2008509413A (ja) * 2004-08-07 2008-03-27 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング センサシステムの作動方法および作動装置
JP2009058316A (ja) * 2007-08-31 2009-03-19 Fujitsu Ten Ltd レーダ装置、物体検出方法、及び車両
JP2009181315A (ja) * 2008-01-30 2009-08-13 Toyota Motor Corp 物体検出装置
JP2013195245A (ja) * 2012-03-19 2013-09-30 Fujitsu Ten Ltd レーダ装置
JP2014169922A (ja) * 2013-03-04 2014-09-18 Denso Corp 物標認識装置
JP2016003873A (ja) 2014-06-13 2016-01-12 株式会社デンソー レーダ装置
JP2018115936A (ja) * 2017-01-17 2018-07-26 株式会社デンソーテン レーダ装置および物標検出方法
WO2019008640A1 (ja) * 2017-07-03 2019-01-10 三菱電機株式会社 信号処理装置、信号処理方法、信号処理プログラム及びレーダシステム
JP2019066284A (ja) * 2017-09-29 2019-04-25 株式会社デンソーテン レーダ装置およびレーダ装置の制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3835823A4

Also Published As

Publication number Publication date
EP3835823A4 (en) 2021-08-11
EP3835823B1 (en) 2024-01-31
JP7374098B2 (ja) 2023-11-06
US20210302570A1 (en) 2021-09-30
KR20210040947A (ko) 2021-04-14
CN112534297A (zh) 2021-03-19
JPWO2020031689A1 (ja) 2021-08-12
EP3835823A1 (en) 2021-06-16

Similar Documents

Publication Publication Date Title
JP7374098B2 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、情報処理システム、並びに移動体装置
US11915452B2 (en) Information processing device and information processing method
US11501461B2 (en) Controller, control method, and program
US11014494B2 (en) Information processing apparatus, information processing method, and mobile body
US11959999B2 (en) Information processing device, information processing method, computer program, and mobile device
CN112119282A (zh) 信息处理装置、移动装置、方法和程序
US11200795B2 (en) Information processing apparatus, information processing method, moving object, and vehicle
US20220017093A1 (en) Vehicle control device, vehicle control method, program, and vehicle
CN113841100A (zh) 自主行驶控制设备、自主行驶控制系统和自主行驶控制方法
WO2020183892A1 (ja) 情報処理装置及び情報処理方法、並びに移動体装置
WO2021070768A1 (ja) 情報処理装置、および情報処理システム、並びに情報処理方法
US20220277556A1 (en) Information processing device, information processing method, and program
US20200357284A1 (en) Information processing apparatus and information processing method
JP2023062484A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2020129656A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
WO2023021756A1 (ja) 情報処理システム、情報処理装置、及び情報処理方法
US20240019539A1 (en) Information processing device, information processing method, and information processing system
US20240012108A1 (en) Information processing apparatus, information processing method, and program
WO2023068116A1 (ja) 車載通信装置、端末装置、通信方法、情報処理方法及び通信システム
WO2023074419A1 (ja) 情報処理装置、情報処理方法、及び、情報処理システム
US20230267746A1 (en) Information processing device, information processing method, and program
WO2023063145A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
WO2020116204A1 (ja) 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体
JP2022189605A (ja) 情報処理装置、情報処理方法、コンピュータプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19847375

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020536439

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019847375

Country of ref document: EP

Effective date: 20210309