WO2020084805A1 - 報知装置及び報知方法 - Google Patents

報知装置及び報知方法 Download PDF

Info

Publication number
WO2020084805A1
WO2020084805A1 PCT/JP2019/009938 JP2019009938W WO2020084805A1 WO 2020084805 A1 WO2020084805 A1 WO 2020084805A1 JP 2019009938 W JP2019009938 W JP 2019009938W WO 2020084805 A1 WO2020084805 A1 WO 2020084805A1
Authority
WO
WIPO (PCT)
Prior art keywords
blind spot
notification
control unit
unit
risk
Prior art date
Application number
PCT/JP2019/009938
Other languages
English (en)
French (fr)
Inventor
宜崇 鶴亀
圭記 松浦
直毅 吉武
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Publication of WO2020084805A1 publication Critical patent/WO2020084805A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R99/00Subject matter not provided for in other groups of this subclass
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V3/00Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation
    • G01V3/12Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation operating with electromagnetic waves
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present disclosure relates to a notification device and a notification method for performing notification based on a detection result of an object existing in the surrounding environment of a moving body.
  • Patent Documents 1 and 2 A technology has been proposed that is mounted on a moving body such as an automobile or an AGV (automatic guided vehicle) and monitors the periphery of the moving body (for example, Patent Documents 1 and 2).
  • Patent Document 1 discloses a parking assist method and a parking assist device capable of prompting the driver's visual attention when a moving object approaches the periphery of the vehicle.
  • image data acquired from an image pickup device provided in a vehicle is accumulated in an image data storage unit, and using the accumulated image data, a recorded image corresponding to a blind spot area of a current image pickup device.
  • the parking assistance method of displaying the parking assistance screen including the above on the display means, when the moving object is detected in the blind spot area of the imaging device, the recorded image of the parking assistance screen is set to a warning state.
  • the “blind spot area” in Patent Document 1 means an area outside the imaging range Z of the camera 25. However, even if the area is within the imaging range of the camera, the area behind the object such as the wall of the building when viewed from the camera cannot be imaged. According to the conventional technique of Patent Document 1, it is difficult to detect an object existing in a blind spot in a surrounding environment from a moving body and make a driver or an occupant of the moving body recognize it.
  • An object of the present disclosure is to provide an informing device and an informing method that provide an alert based on a detection result of an object in a blind spot area existing in the surrounding environment of a moving body.
  • the notification device includes a detection unit, a distance measuring unit, a control unit, and a notification unit.
  • the detection unit radiates a physical signal having a wave characteristic from the moving body to the surrounding environment, and detects a wave signal indicating a reflected wave of the radiated physical signal.
  • the distance measuring unit acquires distance information indicating the distance from the moving body to the surrounding environment.
  • the control unit analyzes the detection result of the detection unit.
  • the control unit based on the distance information, detects a blind spot area indicating a blind spot in the surrounding environment, and in the detection result of the detection unit, based on the wave signal including the component of the wave reaching from the detected blind spot area, the blind spot area.
  • the control unit controls the detecting unit so as to emit a physical signal toward the detected blind spot area, and based on the detection result, indicates the degree of danger related to the blind spot area.
  • the first risk level is determined, and the second risk level indicating the degree of risk related to the area other than the blind spot area is determined based on the distance information.
  • the notification unit gives notification according to the detection result of the control unit.
  • the notification unit provides notification according to the first risk level and the second risk level.
  • the notification method includes a step in which the distance measuring unit obtains distance information indicating a distance from the moving body to the surrounding environment, and a control unit detects the blind spot area indicating the blind spot in the surrounding environment based on the distance information.
  • the detecting unit radiates a physical signal having a wave characteristic from the moving body to the surrounding environment or the blind spot region and detects a wave signal indicating a reflected wave of the radiated physical signal, and the control unit detects In the detection result of the part, the step of detecting an object in the blind spot area based on the wave signal including the component of the wave reaching from the detected blind spot area, and the control unit based on the detection result, A step of determining a first risk level indicating the degree of risk, a step of determining a second risk level indicating a degree of risk regarding a region other than the blind spot region based on the distance information, and a notification unit 1 And performing a notification in accordance with Kendo and second risk.
  • the notification can be performed based on the detection result of the object in the blind spot area existing in the surrounding environment of the moving body.
  • FIG. 3 is a diagram for explaining an application example of the notification device according to the present disclosure.
  • Flowchart for explaining the operation of the notification device according to the first embodiment FIG. 3 is a diagram for explaining the operation of the notification device according to the first embodiment.
  • Diagram for explaining the blind spot detection process experiment The figure which illustrates the case where there is a blind spot object in the experiment of FIG.
  • FIG. 1 Flowchart illustrating a blind spot object detection process by the notification device Flowchart exemplifying risk determination processing by the notification device Diagram for explaining the risk determination process by the notification device Flowchart showing the detailed flow of steps for making notification according to the degree of risk Figure showing an example of warning display contents Figure showing another example of warning display contents Figure showing another example of warning display contents Figure showing another example of warning display contents Figure showing another example of warning display contents Figure showing an example of the display
  • the block diagram which illustrates the composition of the alerting device concerning Embodiment 2 of this indication.
  • Flowchart for explaining the operation of the notification device according to the second embodiment Flowchart exemplifying risk determination processing by the notification device Diagram for explaining the risk determination process by the notification device Flowchart showing the detailed flow of steps for making notification according to the degree of risk The figure for demonstrating the modification of operation
  • FIG. 1 is a diagram for describing an application example of the notification device 100 according to the present disclosure.
  • FIG. 1 illustrates a traveling state of the vehicle 2 equipped with the notification device 100.
  • reporting apparatus 100 monitors the surrounding environment which changes around the own vehicle 2 which is running using the blind spot detection part 1, for example.
  • the surrounding environment includes, for example, structures existing around the vehicle 2 such as buildings and electric poles, and various objects such as moving bodies such as pedestrians and other vehicles.
  • the wall 31 of the structure near the intersection 3 blocks the monitored range from the host vehicle 2 and causes a blind spot.
  • the blind spot indicates a location that cannot be viewed geometrically directly from the moving body such as the vehicle 2 according to the surrounding environment.
  • another vehicle 4 hereinafter sometimes referred to as a “blind spot object” that approaches the intersection 3 from the side road exists in the blind spot region R1 that is a blind spot from the host vehicle 2.
  • FIG. 2 is a diagram for explaining another application example of the notification device 100 according to the present disclosure.
  • the backward traveling state of the vehicle 2 equipped with the notification device 100 is illustrated.
  • a wall 31 of the structure in the vicinity of the host vehicle 2 traveling backward is obstructed from the host vehicle 2 in a observable range, which causes a blind spot.
  • the blind spot area R1 there is a person (blind spot object) 4 approaching the area in the traveling direction of the host vehicle 2.
  • reporting apparatus 100 which concerns on this indication utilizes the propagation characteristic of the wave in the signal physically used by a radar etc., and performs the detection of the object which exists in the blind spot area R1 like the blind spot object 4. To do. Further, the notification device 100 determines the risk level of the intersection 3 or the like based on the detection result of the blind spot object 4, and notifies the driver of the own vehicle 2 according to the risk level. As a result, it is possible to avoid the collision of the encounters.
  • FIG. 3 is a block diagram illustrating the configuration of the notification device 100 according to the first embodiment.
  • the notification device 100 includes a blind spot detection unit 1 and a notification unit 20, as illustrated in FIG.
  • the blind spot detection unit 1 of the present embodiment includes a radar 11, a camera 12, and a control unit 13. Further, for example, the blind spot detection unit 1 includes a storage unit 14, a navigation device 15, and an in-vehicle sensor 16.
  • the notification unit 20 includes various in-vehicle devices mounted on the host vehicle 2, for example, a display unit 21 that performs a notification by video display, a speaker 22 that performs a notification by sound, and the like.
  • the radar 11 of the blind spot detection unit 1 includes, for example, a transmitter 11a, a receiver 11b, and a radar control circuit 11c.
  • the radar 11 is an example of a detection unit in this embodiment.
  • the radar 11 is installed, for example, on the front grill or the windshield of the host vehicle 2 so as to transmit and receive signals forward (see FIG. 1) in the traveling direction of the host vehicle 2.
  • the transmitter 11a includes, for example, an antenna having a variable directivity (phased array antenna or the like), a transmission circuit that causes the antenna to externally transmit the physical signal Sa, and the like.
  • the physical signal Sa includes at least one of a millimeter wave, a microwave, a radio wave, and a terahertz wave, for example.
  • the receiver 11b includes, for example, an antenna having a variable directivity and a receiving circuit that receives the wave signal Sb from the outside by the antenna.
  • the wave signal Sb is set in the same wavelength band as the physical signal Sa so as to include the reflected wave of the physical signal Sa.
  • the transmitter 11a and the receiver 11b may use a common antenna, for example, or may be integrally configured.
  • the radar control circuit 11c controls the transmission and reception of signals by the transmitter 11a and the receiver 11b.
  • the radar control circuit 11c starts signal transmission / reception by the radar 11 and controls the direction in which the physical signal Sa is emitted from the transmitter 11a, for example, according to a control signal from the control unit 13. Further, the radar control circuit 11c causes the transmitter 11a to radiate the physical signal Sa to the surrounding environment, and detects the wave signal Sb indicating the reflected wave of the physical signal Sa in the reception result of the receiver 11b.
  • the radar 11 operates according to a modulation method such as a CW (continuous wave) method or a pulse method, and measures the distance, azimuth and speed of an external object.
  • the CW method includes a two-wave CW method, an FM-CW method, a spread spectrum method, and the like.
  • the pulse system may be a pulse Doppler system, or pulse compression of a chirp signal or PN series pulse compression.
  • the radar 11 uses, for example, coherent phase information control.
  • the radar 11 may use an incoherent method.
  • the camera 12 is installed at a position where, for example, in the host vehicle 2, a range in which the radar 11 can radiate the physical signal Sa and an overlapping range can be imaged.
  • the camera 12 is installed on the windshield or the like of the host vehicle 2 toward the front of the host vehicle 2 (see FIG. 1), for example.
  • the blind spot in the blind spot detector 1 may be based on the installation position of the camera 12 as a geometrical reference or the installation position of the radar 11.
  • the camera 12 captures an external image from the installation position and generates a captured image.
  • the camera 12 outputs image data indicating a captured image to the control unit 13.
  • the camera 12 is, for example, an RGB-D camera, a stereo camera, or a range image sensor.
  • the camera 12 is an example of the distance measuring unit in this embodiment.
  • the control unit 13 includes a CPU, a RAM, a ROM, and the like, and controls each component according to information processing.
  • the control unit 13 is composed of, for example, an ECU (electronic control unit).
  • the control unit 13 expands the program stored in the storage unit 14 into the RAM, and the CPU interprets and executes the program expanded into the RAM.
  • the control unit 13 realizes a blind spot estimation unit 131, a blind spot object measurement unit 132, and a risk degree determination unit 133. Each of the units 131 to 133 will be described later.
  • the storage unit 14 stores programs executed by the control unit 13 and various data.
  • the storage unit 14 stores structure information D1 described below.
  • the storage unit 14 includes, for example, a hard disk drive or a solid state drive.
  • the RAM and the ROM may be included in the storage unit 14.
  • the above programs may be stored in a portable storage medium.
  • the storage medium accumulates information such as a program by an electric, magnetic, optical, mechanical, or chemical action so that a computer or other device or machine can read the information such as a recorded program. It is a medium.
  • the blind spot detection unit 1 may acquire a program or the like from the storage medium.
  • the navigation device 15 is an example of a distance measuring unit including a memory that stores map information and a GPS receiver, for example.
  • the vehicle-mounted sensor 16 is various sensors mounted on the vehicle 2, and includes, for example, a vehicle speed sensor, an acceleration sensor, and a gyro sensor. The vehicle-mounted sensor 16 detects the speed, acceleration, angular velocity, etc. of the vehicle 2.
  • the blind spot detection unit 1 is not limited to the above configuration.
  • the blind spot detection unit 1 may not include the navigation device 15 and the vehicle-mounted sensor 16.
  • the control unit 13 of the blind spot detection unit 1 may be configured by a plurality of hardware resources that separately execute the above units 131 to 133.
  • the control unit 13 may be composed of various semiconductor integrated circuits such as a CPU, MPU, GPU, microcomputer, DSP, FPGA, and ASIC.
  • the notification unit 20 includes, for example, a display unit 21 and a speaker 22.
  • the display unit 21 notifies the user, such as the driver and fellow passengers of the own vehicle 2, of various information by displaying an image.
  • the display unit 21 is a display device such as a liquid crystal panel or an organic EL panel mounted on the vehicle 2.
  • the display unit 21 may be, for example, a head-up display that projects an image on a windshield or a dedicated glass panel.
  • the speaker 22 is a voice output device that informs a user such as a driver of the vehicle 2 and a passenger of the vehicle 2 by voice.
  • the notification unit 20 may be a warning light that emits light to notify the user of certain information.
  • the notification device 100 may further include a vehicle drive unit (not shown) that drives and controls each unit of the vehicle 2.
  • the vehicle drive unit is composed of, for example, an ECU.
  • the vehicle drive unit controls, for example, the brake of the host vehicle 2 to realize automatic braking.
  • the notification device 100 operates the blind spot detection unit 1 so as to monitor the surrounding environment while the host vehicle 2 is driving, for example.
  • the notification unit 20 of the notification device 100 notifies various information to the user such as the driver of the own vehicle 2 and the passengers based on the detection result of the blind spot detection unit 1.
  • the blind spot detection unit 1 monitors the surrounding environment of the own vehicle 2 by capturing an image of the surroundings of the own vehicle 2 with the camera 12, for example.
  • the blind spot estimation unit 131 of the blind spot detection unit 1 sequentially detects the presence or absence of a region where the blind spot is estimated in the current surrounding environment based on, for example, distance information indicating various distances of the monitoring result.
  • the blind spot object measurement unit 132 measures the internal state of the blind spot region R1 using the radar 11. Since the physical signal Sa emitted from the radar 11 of the host vehicle 2 has a wave-like property, it causes multiple reflections or diffractions to reach the blind spot object 4 in the blind spot region R1 and further to the host vehicle 2. It is thought that the propagation of returning to can occur.
  • the detection method of the present embodiment detects the blind spot object 4 by utilizing the wave propagating as described above.
  • the risk degree determination unit 133 determines the risk degree of the blind spot object 4 that may be present in the blind spot area R1 based on the measurement result of the blind spot object measurement unit 132.
  • the degree of risk relates to, for example, the possibility that the blind spot object 4 and the host vehicle 2 may collide with each other.
  • the notification device 100 can notify the driver or the like by the notification unit 20. Details of the operation of the notification device 100 will be described below.
  • FIG. 4 is a flowchart for explaining the operation of the notification device 100 according to the present embodiment. Each process shown in the flowchart of FIG. 4 is executed by the control unit 13 of the blind spot detection unit 1 of the notification device 100. This flowchart is started at a predetermined cycle, for example, while the host vehicle 2 is driving.
  • the control unit 13 acquires a captured image of one or a plurality of frames from the camera 12 (S1).
  • the control unit 13 may acquire a distance image as a captured image, or may generate a distance image based on the acquired captured image.
  • the distance image is an example of distance information indicating various distances for monitoring the surrounding environment.
  • control unit 13 performs image analysis on the acquired captured image (S2) to generate structural information D1 regarding the current surrounding environment of the vehicle 2.
  • the structure information D1 is information indicating various object structures in the surrounding environment, and includes, for example, distances to various structures.
  • the control unit 13 also operates as the blind spot estimating unit 131 in step S2, and also performs image analysis for detecting the blind spot in the acquired captured image.
  • FIG. 5 illustrates an image to be analyzed in step S2.
  • FIG. 5 for example, a distance image is captured from the vehicle 2 (S1), and the walls 31 and 32 formed by a plurality of structures are shown near the intersection 3.
  • the blind spot region R1 exists behind the wall 31.
  • the wall 32 on the inner side of the blind spot region R1 faces the host vehicle 2.
  • the wall 31 is referred to as a “shielding wall” and the wall 32 is referred to as an “opposing wall”.
  • a boundary between the blind spot region R1 and the outside is formed between the shielding wall 31 and the opposing wall 32 (see FIG. 1).
  • step S2 the control unit 13 extracts, for example, the distance values of the various walls 31 and 32 in the distance image for each pixel as the structure information D1, and stores the distance values in the storage unit 14.
  • the distance value in the case of FIG. 5 continuously changes along the direction d1 by the amount of the shielding wall 31 from the vehicle 2 side, and discontinuously changes from the end of the shielding wall 31 to the opposing wall 32. Will be done.
  • the controller 13 can estimate the existence of the blind spot region R1 by analyzing the change in the distance value as described above.
  • control unit 13 as the blind spot estimation unit 131 determines whether or not the blind spot region R1 is detected in the current surrounding environment of the own vehicle 2 according to the estimation result by image analysis (S3).
  • the control unit 13 determines that the blind spot region R1 has not been detected (NO in S3), for example, the processes of steps S1 to S3 are periodically repeated.
  • the control unit 13 determines that the blind spot region R1 is detected (YES in S3), the control unit 13 executes the processing as the blind spot object measuring unit 132 (S4 to S6).
  • the processing as the blind spot object measuring unit 132 S4 to S6.
  • a processing example of the blind spot object measuring unit 132 that measures the blind spot object 4 in the blind spot region R1 by utilizing the multiple reflected waves in the wave signal Sb of the radar 11 will be described below.
  • the control unit 13 as the blind spot object measuring unit 132 first controls the radar 11 so as to emit the physical signal Sa toward the blind spot region R1 (S4).
  • 6A and 6B exemplify the propagation paths of the physical signal Sa in step S4 in the case where the blind spot object 4 is absent and the case where the blind spot object 4 is present.
  • step S4 the control unit 13 causes the radar 11 to emit the physical signal Sa from the radar 11 to the facing wall 32 near the boundary of the blind spot region R1 based on the analysis result of FIG. 5, for example.
  • the physical signal Sa from the radar 11 of the vehicle 2 is repeatedly reflected between the opposing wall 32 and the opposite wall 39 via the blind spot region R1 of the side road, and the multiple reflection wave is generated. Is being propagated as. In the example of FIG. 6A, the multiple reflected waves do not reach the host vehicle 2 in response to the absence of the blind spot object 4.
  • the physical signal Sa from the radar 11 is reflected by the blind spot object 4 in addition to the walls 32 and 33, and is reflected by the host vehicle 2. It can be the multiple reflected wave Sb1 going toward. Therefore, the wave signal Sb received by the radar 11 includes the signal component of the multiple reflected wave Sb1 having the information of the blind spot object 4.
  • step S4 the radar 11 radiates the physical signal Sa, receives the wave signal Sb, and performs various measurements based on the reflected wave of the physical signal Sa.
  • the control unit 13 acquires the measurement result from the radar 11 (S5).
  • the control unit 13 performs a blind spot object detection process based on the measurement result of the radar 11 (S6).
  • the signal component of the multiple reflected wave Sb1 (FIG. 6B) has information according to the velocity of the blind spot object 4 that is the reflection source and the length of the propagation path based on the Doppler shift, the phase, and the propagation time.
  • the blind spot object detection processing (S6) detects the velocity and position of the blind spot object 4 that reflects the multiple reflected wave Sb1 by analyzing such a signal component. Details of the process of step S6 will be described later.
  • the control unit 13 operates as the risk determination unit 133, and performs the risk determination process based on the result of the blind spot object 4 detection process (S6) (S7).
  • the risk determination processing for example, the necessity of warning is determined based on the detected position, speed, and the like, and the risk of the blind spot object 4 approaching the host vehicle 2.
  • the degree of risk may be determined using these information in step S7. Details of the process of step S7 will be described later.
  • control unit 13 causes the notification unit 20 to perform notification according to the risk determination result (S7) (S8).
  • the control unit 13 causes the notification unit 20 to perform notification (S8), and ends the processing illustrated in the flowchart of FIG.
  • the notification device 100 detects the blind spot object 4 (S6) when the blind spot is found (S1 to S3) while monitoring the surroundings of the vehicle 2 (S1 to S3) (S6), and gives the notification. It can be performed (S8).
  • the camera 12 is used for peripheral monitoring, but the navigation device 15 may be used.
  • This modification is shown in FIG.
  • the navigation device 15 calculates various distances to the own vehicle 2 in the map information D2 of the surrounding environment of the own vehicle 2 and monitors the current position of the own vehicle 2.
  • the control unit 13 can use the monitoring result of the navigation device 15 as described above for various processes in FIG. 4.
  • the control unit 13 can acquire the structure information D1 or detect the blind spot region R1 based on the monitoring result of the navigation device 15, for example, based on the structure 30 in the map information D2 (S2). Further, the control unit 13 may appropriately use the detection result of the in-vehicle sensor 16 in the process of FIG.
  • FIG. 8 is a diagram for explaining an experiment of a blind spot detection process.
  • FIG. 8A shows structural information D1 of the experimental environment of this experiment.
  • FIG. 8B shows the measurement result of the radar 11 when there is no blind spot object 4.
  • FIG. 9 is a diagram illustrating a case where there is a blind spot object in the experiment of FIG. 8.
  • FIG. 9A shows the measurement result of the radar 11 when the blind spot object 4 is present.
  • FIG. 9B illustrates a propagation path of multiple reflected waves estimated from the blind spot object 4.
  • a strong peak P1 was confirmed in the vicinity of 4 m as shown in FIG. 8 (b) when the blind spot object 4 was not present.
  • the peak P1 indicates the reflected wave from the facing wall P1 facing the radar 11.
  • peaks P2 and P3 due to reflected waves from the other walls 32 and 33 can be respectively confirmed.
  • a strong peak P4 appeared in the vicinity of 7 m far from the facing wall 32.
  • the azimuth of the same peak P4 is visible from the radar 11 to the back side of the facing wall 32. From the above distance and azimuth, it is found that the peak P4 is mainly the component reflected from the blind spot object 4 through the reflection by the facing wall 32 (see FIG. 9B). That is, it was confirmed that the peak P4 with the blind spot object 4 as the wave source can be detected based on the distance and the direction to the peak P4 in the measurement result of the radar 11.
  • the presence and position of the blind spot object 4 can be detected more accurately by using the structural information of the surrounding environment.
  • an example of blind spot object detection processing according to the present embodiment will be described with reference to FIG. 10.
  • FIG. 10 is a flowchart illustrating the blind spot object detection processing according to the present embodiment. The process according to the flowchart of FIG. 10 is executed by the control unit 13 that operates as the blind spot object measurement unit 132 in step S6 of FIG.
  • control unit 13 extracts an environmental component indicating a reflected wave from the surrounding environment in order to extract a signal component to be an analysis target of a blind spot object from the signal of the measurement result of the radar 11 acquired in step S5 of FIG. It is removed (S11).
  • the process of step S11 is performed using the structure information acquired in step S2, for example.
  • each peak P1, P2, P3 in the example of FIG. 8B is an environmental component indicating a reflected wave from the corresponding wall 31, 32, 33 in the passage structure information D1 (FIG. 8B).
  • the control unit 13 predicts reflected waves from various structures with reference to the structure information D1, and subtracts the environmental component of the prediction result from the measurement result of the radar 11 (for example, FIG. 9A) (S11).
  • the influence of reflected waves due to structures in the environment such as a passage can be reduced, and only the signal component of the blind spot object can be easily emphasized.
  • control unit 13 performs signal analysis for detecting the blind spot object 4 based on the signal component obtained by removing the environmental component (S12).
  • the signal analysis in step S12 may include various analyzes such as frequency analysis, analysis on the time axis, spatial distribution and signal strength.
  • the control unit 13 determines, for example, whether or not a wave source is observed on the other side of the facing wall 32 at the blind spot (S13), and thereby detects the presence or absence of the blind spot object 4. .
  • the peak P4 has a wave source on the back side of the passage with respect to the facing wall 32, and is at a position that is not predicted as an environmental component from the structure of the passage. From this, it can be inferred that the peak P4 is caused by multiple reflection of a wave whose source is in the blind spot. That is, the control unit 13 can determine that the blind spot object 4 is present when the reflected wave is observed at a distance exceeding the facing wall 32 in the direction of the detected blind spot (YES in step S13).
  • the control unit 13 determines that the wave source is observed on the opposite side of the facing wall 32 at the blind spot (YES in S13), the distance to the blind spot object 4 and the distance to the blind spot object 4 are determined according to the propagation path in which the bending due to the multiple reflection is estimated.
  • Various state variables such as speed are measured (S14).
  • the control unit 13 uses the information indicating the road width of the blind spot portion (width of the blind spot region R1) in the structure information D1, so that the blind spot object 4 that is known from the signal component can be obtained as shown in FIG. 9B, for example. By correcting the path length so as to be folded back, the position of the blind spot object 4 closer to the actual position can be calculated.
  • the control unit 13 ends the process of step S6 of FIG. After that, the control unit 13 executes a risk determination process (S7 in FIG. 4) for the detected blind spot object 4.
  • control unit 13 determines that the wave source is not observed on the other side of the facing wall 32 in the blind spot (NO in S13), this process is terminated without performing any particular survey. In this case, the control unit 13 may omit the processing after step S7 in FIG.
  • the blind spot object 4 can be detected using the signal component generated inside the blind spot region R1 based on the property of multiple reflection in the physical signal Sa of the radar 11.
  • the signal component having the information of the blind spot object 4 is weak, and it will be detected in the presence of the reflected wave from the visible object outside the blind spot, so it is considered difficult to detect and estimate. Further, since the actual distance to the blind spot object 4 and the length of the signal propagation path are different, it may be difficult to estimate the actual distance. On the other hand, by using the structure information D1 of the surrounding environment, it is possible to narrow down the preconditions for analyzing the received wave (S11) and improve the estimation accuracy (S14).
  • the control unit 13 refers to the distance to the intersection near the blind spot in the structure information D1 and removes the signal component of the received wave obtained within the round-trip propagation time of the signal with respect to the straight line distance to the intersection.
  • a received wave is a direct reflected wave (that is, a wave of one reflection) and does not include the information of the blind spot object 4, and thus can be excluded from the analysis target.
  • the control unit 13 can also separate the reflected wave coming from the dead angle and the reflected wave coming from other angles based on the azimuth angle of the dead angle seen from the own vehicle 2.
  • step S11 does not necessarily need to use the structural information D1 of the surrounding environment.
  • the control unit 13 may limit the analysis target to the moving body by subtracting the position change of the host vehicle 2 from the signal obtained along the time axis. This process may be performed in the signal analysis of step S12.
  • the control unit 13 has a characteristic that the signal component of the analysis object has a characteristic appearing due to the behavior of a specific object such as Doppler shift due to reflection on a moving body or fluctuation of the behavior peculiar to humans or bicycles. You may analyze whether or not.
  • the control unit 13 has a spatially spread surface distribution signal distribution that is unique to a car, a bicycle, a human being, or includes reflection by a metal body of a car size depending on the reflection intensity. You may analyze whether or not.
  • the above-described analyzes may be performed in an appropriate combination, or may be analyzed as a multidimensional feature amount using machine learning instead of explicitly analyzing each.
  • FIG. 11 is a flowchart showing an example of risk determination processing.
  • FIG. 12 is a diagram for explaining the risk determination processing. The process according to the flowchart of FIG. 11 is executed by the control unit 13 that operates as the risk degree determination unit 133 in step S7 of FIG.
  • the control unit 13 calculates the risk index D based on the detection result of the blind spot object 4 in step S6 (S21).
  • the risk index D is an index for determining the risk of a collision between the detected blind spot object 4 and the vehicle 2. For example, as shown in FIG. 12, the speed v 1 at which the blind spot object 4 approaches the vehicle 2 can be set to the risk index D.
  • the control unit 13 determines whether or not the calculated risk index D exceeds the threshold value Va using, for example, a preset threshold value Va (S22).
  • the control unit 13 sets, for example, a warning flag to "ON" as a risk determination result (S23).
  • the warning flag is a flag that manages the presence or absence of a warning regarding the blind spot object 4 by “ON / OFF”, and is stored in the storage unit 14.
  • control unit 13 determines that the risk index D does not exceed the threshold value Va (NO in S22), it sets the warning flag to "OFF" (S24).
  • control unit 13 ends the risk determination process (S7 in FIG. 4) and proceeds to the process of step S8.
  • the degree of danger that the blind spot object 4 approaches the vehicle 2 or the intersection 3 is determined according to the corresponding risk index D. For example, binary determination is performed according to the warning flag.
  • the risk determination process is not limited to the binary determination, and for example, a ternary determination that determines whether or not a warning is required when a warning is unnecessary may be performed.
  • the threshold value Vb ( ⁇ Va) for alerting may be used, and the control unit 13 may determine whether D> Vb when the process proceeds to “NO” in step S22.
  • the risk index D is not limited to the velocity v 1 , but can be set by various state variables regarding the blind spot object 4, and may be set to the acceleration dv 1 / dt instead of the velocity v 1 , for example.
  • the risk index D may be set by combining various state variables.
  • L 1 is the distance from the reference position P0 to the blind spot object 4 (FIG. 12).
  • the reference position P0 is set to a position such as a center of an intersection where a collision between the blind spot object 4 and the host vehicle 2 is expected.
  • ⁇ t is a predetermined time width and is set, for example, in the vicinity of the time width estimated to be required until the host vehicle 2 reaches the reference position P0.
  • L 0 is the distance from the reference position P 0 to the host vehicle 2.
  • v 0 is the speed of the vehicle 2 and can be acquired from the vehicle-mounted sensor 16 or the like.
  • the risk index D of the above equation (1) is the sum of the distance between the blind spot object 4 and the reference position P0, which is estimated after the passage of the time width ⁇ t, and the distance between the reference position P0 and the host vehicle 2 ( (Fig. 12). According to the above equation (1), it can be estimated that if the risk index D becomes smaller than a predetermined value, the possibility that the host vehicle 2 and the blind spot object 4 simultaneously reach the reference position P0 is sufficiently high.
  • the risk index D may be set as in the following formula (2) or formula (2 ′).
  • D L 1 ⁇ v 1 ⁇ t (2)
  • D
  • ⁇ t L 0 / v 0 is set.
  • the time width ⁇ t may be set within an allowable range in consideration of the fluctuation of the speed v 0 of the host vehicle 2 or the estimation error of the reference position P0.
  • the blind spot object 4 may cross the front of the host vehicle 2 before the host vehicle 2 reaches the reference position P0. It can be estimated to be high. Further, when the risk index D of the formula (2 ′) (absolute value in the case of the formula (2)) is smaller than the predetermined value, the host vehicle 2 and the blind spot object 4 may be present at the reference position P0 at the same time. It can be estimated to be high enough.
  • the control unit 13 uses the risk index D of the formula (2) or the formula (2 ′) to determine the risk as in the case of the formula (1). You can
  • the threshold value Va may be dynamically changed according to the states of the host vehicle 2 and the blind spot object 4. For example, when L 0 described above is small, dv 0 / dt or dv 1 / dt is large, or the blind spot object 4 is estimated to be a human, it is considered that the risk determination should be performed more strictly. Therefore, when such a case is detected, the control unit 13 may increase the threshold value Va with respect to the risk index D of the above equation (1), for example.
  • step S7 for determining the degree of risk of blind spot
  • the process proceeds to notification step S8.
  • FIG. 13 is a flow chart showing the detailed flow of step S8 (FIG. 4) for performing notification according to the degree of risk.
  • the control unit 13 determines whether the warning flag set in step S7 is "ON" (S31). If it is determined to be "ON” (YES in S31), the process proceeds to step S32 for determining the warning mode. Next, a warning is issued according to the determined mode (S33). When it is determined in step S31 that the warning flag is not "ON” (that is, "OFF") (NO in S31), the control unit 13 does not perform warning notification. That is, the control unit 13 continues normal operations such as normal video display and audio output.
  • step S31 determines in step S31 that the warning flag is not “ON” (that is, “OFF”) in the case of performing the three-valued determination that determines whether or not the alert is issued when the above warning is unnecessary ( (NO in S31), it is determined whether or not the alert flag set in step S7 is "ON", and if YES, alert notification may be performed.
  • step S32 the control unit 13 determines which of the devices included in the notification unit 20 (FIG. 3) is used to issue the warning notification. For example, it is determined whether the warning display using the display unit 21 is performed, the warning notification is given by voice using the speaker 22, or the warning notification is given by both display and voice. In addition, when the warning display is performed, the control unit 13 determines the position, the color, the shape of the warning display, the presence or absence of the blinking display, and the like. The control unit 13 selects the position, color, shape, etc. of the warning display from the display patterns stored in advance in the storage unit 14 based on the structure information D1 acquired in step S2, for example.
  • FIG. 14A is a diagram showing an example of warning display contents.
  • the captured image acquired by using the camera 12 in step S1 (FIG. 4) is displayed on the display unit 21 such as a liquid crystal display.
  • the camera 12 is mounted, for example, rearward on the rear part of the host vehicle 2 and images the rear of the host vehicle 2.
  • the control unit 13 superimposes and displays the warning image 35 indicating the presence of the blind spot object 4 on the image showing the shielding wall 31 in the display unit 21 using the result of the image analysis in step S2 (FIG. 4), for example.
  • FIG. 14B is a diagram showing another example of the warning display content.
  • the control unit 13 may display the warning image 35 by blinking it. As a result, the driver can easily recognize the warning image 35 and can effectively notify the danger.
  • the warning image 35 is displayed without blinking as in FIG. 14a.
  • blinking display as shown in FIG. 14b may be performed.
  • FIG. 14c is a diagram showing another example of the warning display content.
  • the control unit 13 may display a warning image 35 in characters on the display unit 21, instead of the image showing the blind spot object 4 as shown in FIGS. 14A and 14B.
  • the warning image 35 in characters includes, for example, sentences such as "the object is approaching from the right side” and "crash caution".
  • FIG. 14d is a diagram showing another example of the warning display content.
  • the warning image 35 may be an arrow indicating the moving direction of the blind spot object 4, which is superimposed and displayed on the image showing the shielding wall 31 in the display unit 21.
  • FIG. 14e is a diagram showing another example of the warning display content.
  • the control unit 13 displays a warning image 35 indicating the existence and the moving direction of the blind spot object 4. You may superimpose it on the overhead view.
  • An image showing a structure may be displayed in the display unit 21, for example, based on the structure information D1 acquired in step S2.
  • FIG. 14f is a diagram showing another example of the warning display content.
  • the control unit 13 may superimpose and display a warning image 35 indicating the presence and the moving direction of the blind spot object 4 on the map information.
  • An image showing a structure may be displayed in the display unit 21, for example, based on the structure information D1 acquired in step S2.
  • FIG. 15 is a diagram showing an example of the display unit 21.
  • FIG. 15 is a diagram showing an example of a place where the warning image 35 is displayed.
  • the image including the warning image 35 as shown in FIGS. 14a to 14f is, for example, as shown in FIG. 15, the rear view of the room mirror 40, the door mirror 44, the head-up display 41, the meter panel 42, the windshield 43, and the like. Is displayed in. Further, the image including the warning image 35 may be displayed on the display of the navigation device 15 (FIG. 3).
  • FIG. 16 is a diagram exemplifying the warning image 35 displayed on the rearview mirror 40 of the vehicle 2.
  • the warning image 35 is displayed on the rearview mirror 40 in such a manner that it can be viewed by a driver or an occupant.
  • the room mirror 40 is entirely configured as the display unit 21.
  • the display unit 21 may be provided inside the room mirror 40.
  • the warning image 35 may be projected on the room mirror 40 by using the display unit 21 such as a projector that projects an image on glass or the like.
  • a warning image 35 indicating that there is a risk of collision between the host vehicle 2 and the blind spot object 4 is displayed.
  • FIG. 17 is a diagram illustrating a warning image 35 displayed on the meter panel 42 of the vehicle 2.
  • the control unit 13 displays the warning image 35 on a part thereof.
  • the display unit 21 may be provided around the meter panel 42 and the warning image 35 may be displayed on the display unit 21.
  • FIG. 18 is a diagram exemplifying the warning image 35 and the warning light 45 displayed on the door mirror 44 of the vehicle 2.
  • the warning image 35 is displayed on the door mirror 44 in such a manner that it can be viewed by a driver or an occupant.
  • the door mirror 44 is entirely configured as the display unit 21.
  • the display unit 21 may be provided inside the door mirror 44.
  • the warning image 35 may be projected on the door mirror 44 by using the display unit 21 such as a projector that projects an image on glass or the like.
  • a warning light 45 may be provided near the door mirror 44.
  • the warning light 45 uses the lighting of a light bulb, similarly to the emergency flashing indicator light and the direction indicator. For example, when the control unit 13 determines that the warning flag set in step S7 (FIGS. 4 and 11) is “ON” (YES in S31 of FIG. 13), the warning lamp 45 is turned on.
  • the warning notification may be any one as long as it allows a driver or an occupant to recognize the danger, and the mode of the warning notification is not limited to the illustrated one.
  • the warning notification may be given by a sound emitted from the speaker 22.
  • the warning notification sound is louder than the warning notification notification.
  • the warning notification may be a combination of the warning image 35 displayed on the display unit 21 and the notification by voice.
  • the notification device 100 performs the notification based on the detection result of the blind spot object 4 existing in the surrounding environment of the vehicle 2, which is an example of a moving body.
  • the notification device 100 includes a radar 11 as a detection unit, a camera 12 as a distance measuring unit, a control unit 13, and a notification unit 20.
  • the radar 11 radiates a physical signal Sa having a wave characteristic from the host vehicle 2 to the surrounding environment, and detects a wave signal Sb indicating a reflected wave of the radiated physical signal Sa.
  • the camera 12 acquires a distance image of the surrounding environment of the vehicle 2.
  • the control unit 13 analyzes the detection result of the radar 11.
  • the control unit 13 detects the blind spot region R1 indicating the blind spot in the surrounding environment based on the distance image (S2, S3), and in the detection result of the radar 11, the component of the multiple reflected wave Rb1 reaching from the detected blind spot region R1.
  • the blind spot object 4 in the blind spot region R1 is detected based on the wave signal including (S6).
  • the notification unit 20 performs notification according to the detection result of the control unit 13.
  • the wave to be used is not limited to the multiple reflected wave, but may include a diffracted wave or a transmitted wave.
  • the notification device 100 can notify the driver or an occupant of a danger such as a collision in advance by giving a notification according to the detection result of the control unit 13, and the collision of the host vehicle 2 and the blind spot object 4 can be performed. The risk can be reduced.
  • the control unit 13 when the control unit 13 detects the blind spot region R1 in the surrounding environment, the control unit 13 controls the radar 11 to emit the physical signal Sa toward the detected blind spot region R1 (S4). .
  • the physical signal Sa can be concentrated near the blind spot region R1 and the multiple reflected waves Sb1 and the like can be easily obtained from the blind spot object 4 in the blind spot region R1.
  • the physical signal Sa from the radar 11 does not necessarily have to be concentrated in the blind spot area Ra, and for example, the physical signal Sa may be radiated in a range detectable by the radar 11 in a timely manner.
  • the control unit 13 determines the degree of risk regarding the blind spot region R1 based on the detection result (S6) of the blind spot object 4 (S7). By determining the degree of risk, it is possible to easily avoid, for example, the collision between the host vehicle 2 and the blind spot object 4 at the meeting point.
  • control unit 13 causes the notification unit 20 to notify according to the degree of risk (S8).
  • the control unit 13 notifies the driver or the occupant.
  • the control unit 13 does not notify.
  • the notification method is a notification method that performs notification based on the detection result of the blind spot object 4 existing in the surrounding environment of the vehicle 2.
  • the camera 12 obtains a distance image of the surrounding environment of the vehicle 2
  • the control unit 13 detects a blind spot region R1 indicating a blind spot in the surrounding environment based on the distance image.
  • the method includes a step S5 in which the radar 11 emits a physical signal Sa from the vehicle 2 to the surrounding environment and detects a wave signal Sb indicating a reflected wave of the emitted physical signal Sa.
  • the control unit 13 detects the blind spot object 4 in the blind spot region R1 based on the wave signal Sb including the component Sb1 of the wave reaching from the detected blind spot region R1 in the detection result of the radar 11. Including S6.
  • the method includes step S ⁇ b> 8 in which the notification unit 20 performs notification according to the detection result of the control unit 13.
  • a program for causing the control unit 13 to execute the above notification method is provided.
  • the notification method of the present embodiment it is possible to detect an object existing in a blind spot in the surrounding environment from a moving body such as the own vehicle 2 and perform notification according to the detection result.
  • FIG. 19 is a block diagram illustrating the configuration of the notification device 200 according to the second embodiment.
  • the control unit 13 of the notification device 200 includes a risk degree determination unit 233 instead of the risk degree determination unit 133 of the first embodiment.
  • FIG. 20 is a flowchart for explaining the operation of the notification device 200 according to the second embodiment.
  • the operation of the notification device 200 according to the second embodiment differs from that of the first embodiment in the content of the risk determination processing (S207) and the notification according to the risk (S208).
  • FIG. 21 is a flowchart showing the detailed flow of step S207 for performing the risk determination processing.
  • FIG. 22 is a diagram for explaining the risk determination processing. The process according to the flowchart of FIG. 21 is executed by the control unit 13 that operates as the risk degree determination unit 233 in step S207 of FIG.
  • the control unit 13 calculates the first risk index D for the blind spot object 4 based on the detection result of the blind spot object 4 in step S6 (S221).
  • the first risk index D is an index for determining the first risk regarding a collision between the detected blind spot object 4 and the vehicle 2, and indicates the degree of danger regarding the blind spot area. For example, as shown in FIG. 22, the speed v 1 at which the blind spot object 4 approaches the vehicle 2 can be set to the first risk index D.
  • the control unit 13 calculates the second risk index E indicating the degree of danger regarding the object existing in the area other than the blind spot area, based on the image analysis result in step S2 (S222).
  • the second risk index E is an index for determining the second risk related to the collision between the vehicle 2 and an object existing in a region other than the blind spot region such as the wall 230 shown in FIG. 22, for example. Indicates. For example, as shown in FIG. 22, the speed v 0 at which the vehicle 2 approaches the wall 230 can be set to the second risk index E.
  • the second risk index E is calculated based on the image analysis result in step S2. Therefore, the step S222 of calculating the second risk index E does not need to be performed as the process in step S207 of performing the risk determination process, and may be performed immediately after step S2 shown in FIG. 20, for example. .
  • control unit 13 determines whether or not the second risk degree regarding the object existing in the area other than the blind spot area exceeds the first risk degree regarding the collision between the blind spot object 4 and the own vehicle 2 ( S223). For example, in the case of the aforementioned example in which the speed is set to the first risk index D and the second risk index E, it is determined whether the second risk index E exceeds the first risk index D.
  • the control unit 13 When determining that the second risk index E exceeds the first risk index D (YES in S223), the control unit 13 sets the first warning flag regarding the blind spot object 4 to "OFF" as the risk determination result. It is set (S224).
  • the first warning flag is a flag that manages the presence / absence of a warning regarding the blind spot object 4 by “ON / OFF”, and is stored in the storage unit 14.
  • control unit 13 determines whether the second risk index E exceeds the threshold value Va using, for example, a preset threshold value Va (S225).
  • the control unit 13 determines that the second risk index E exceeds the threshold value Va (YES in S225), as a determination result of the risk, for example, a second warning flag regarding an object existing in a region other than the blind spot region. Is set to "ON" (S226).
  • the control unit 13 sets the second warning flag to "OFF" (S227).
  • step S223 When determining in step S223 that the second risk index E does not exceed the first risk index D (NO in S223), the control unit 13 sets the second warning flag to "OFF" as the risk determination result. (S228).
  • the control unit 13 determines whether the first risk index D exceeds the threshold value Va (S229). When it is determined that the number exceeds (YES in S229), the control unit 13 sets the first warning flag to “ON” as the risk determination result (S230). On the other hand, when the control unit 13 determines that the first risk index D does not exceed the threshold value Va (NO in S229), it sets the first warning flag to "OFF” (S231).
  • control unit 13 ends the risk determination processing (S207 of FIG. 20) and proceeds to the processing of step S208.
  • the first risk that the blind spot object 4 approaches the host vehicle 2 or the intersection 3 is determined according to the corresponding first risk index D, and the second risk that the host vehicle 2 collides with the wall 230.
  • the degree is determined according to the corresponding second risk index E.
  • a binary determination according to the first and second warning flags is performed.
  • the risk determination process is not limited to the binary determination, and for example, a ternary determination that determines whether or not a warning is required when a warning is unnecessary may be performed.
  • the first risk index D and the second risk index E are not limited to speeds, and can be set by various state variables regarding the blind spot object 4 and the own vehicle 2.
  • FIG. 23 is a flowchart showing the detailed flow of step S208 (FIG. 20) for making a notification according to the degree of risk.
  • the control unit 13 determines whether the first warning flag set in step S207 is "ON" (S240). If it is determined to be "ON” (YES in S240), the process proceeds to step S241 for determining the warning mode. Next, a warning is issued according to the determined mode (S242).
  • step S241 of determining the warning mode the warning mode is determined so as to warn the driver or the occupant of the danger regarding the blind spot object 4.
  • the warning display content is, for example, the same content as that of FIGS. 14a to 14f described in the first embodiment.
  • the warning display is performed, for example, by displaying the warning image 35 at the place described in FIGS. 15 to 18 described in the first embodiment.
  • step S240 When it is determined in step S240 that the first warning flag is not “ON” (that is, "OFF") (NO in S240), the control unit 13 determines whether the second warning flag is "ON”. It is determined (S243). If it is determined to be "ON” (YES in S240), the process proceeds to step S244 for determining the warning mode. Next, a warning is issued according to the determined mode (S245).
  • the warning mode is determined so as to warn the driver or the occupant of the danger related to the object existing in the area other than the blind spot area. For example, on the display unit 21 (FIG. 19), a message indicating that there is a risk of collision with the wall 230 (FIG. 22) is displayed by an image or text. Alternatively, the warning notification may be given by a sound emitted from the speaker 22, lighting or blinking of a warning light, or the like.
  • step S243 When it is determined in step S243 that the second warning flag is not "ON” (that is, "OFF") (NO in S243), the control unit 13 does not issue a warning. That is, the control unit 13 continues normal operations such as normal video display and audio output.
  • the notification device 200 provides the second risk degree regarding the object existing in the area other than the blind spot area and the first risk degree regarding the collision between the blind spot object 4 and the host vehicle 2. Compare and notify the driver or occupant of the greater danger. This allows the driver or occupant to act to avoid the higher hazards. In addition, if both the first risk and the second risk are notified, the driver or the occupant may be confused or frustrated, and the judgment or the driving operation may be erroneous. Does not cause confusion or frustration to the driver or occupant by notifying the driver or occupant of only the greater danger.
  • multiple reflected waves are used for detecting the blind spot object 4, but not limited to multiple reflected waves, diffracted waves may be used, for example. This modification will be described with reference to FIG.
  • the physical signal Sa from the radar 11 is diffracted on the shielding wall 31 and reaches the blind spot object 4.
  • the reflected wave from the blind spot object 4 is diffracted by the shield wall 31 and returns to the host vehicle 2 as a diffracted wave Sb2.
  • the control unit 13 of the present embodiment controls the wavelength and azimuth of the physical signal Sa radiated from the radar 11 so that the shielding wall 31 wraps around in step S4 of FIG.
  • the signal Sa having a wavelength larger than that of visible light
  • the signal is not limited to a completely reflective path, but also to the direction in which the emitted own vehicle 2 exists. reflect.
  • the diffracted wave Sb2 can be received by the radar 11 as a signal component to be analyzed.
  • the signal component of the diffracted wave Sb2 has information on the propagation path to the blind spot object 4 and Doppler information according to the moving speed. Therefore, by analyzing the same signal component, the position and velocity of the blind spot object 4 can be measured from the information of the propagation time, phase and frequency of the signal component as in the first embodiment. At this time, the propagation path of the diffracted wave Sb2 can also be estimated from the distance to the shield wall 31 or various structural information D1. Also, a propagation path in which multiple reflection and diffraction are combined can be appropriately estimated, and the signal component of such a wave may be analyzed.
  • FIG. 25 is a flowchart for explaining a modified example of the notification device 100.
  • reporting apparatus 100 of Embodiment 1 monitored the periphery by the camera 12 (S1-S3 of FIG. 4).
  • the notification device 100 of the present modification uses the radar 11 to perform the same peripheral monitoring as S1 to S3 of FIG. 4 (S1A to S3A).
  • the radar 11 of this modification is an example of an integrated distance measuring unit and detecting unit.
  • the control unit 13 controls switching of the band of the radar 11, for example, and uses a band that is easy to wrap around in the blind spot (S4A). In this case, in step S6, signal analysis utilizing the diffracted wave is performed. On the other hand, in steps S1A to S3A, it is possible to improve the resolution of the surrounding monitoring of the radar 11 by using the band having high linearity.
  • the radar 11 has been described as an example of the detection unit.
  • the detection unit of the present embodiment is not limited to the radar 11, and may be, for example, LIDAR.
  • the physical signal Sa emitted from the detection unit may be infrared rays, for example.
  • the detection unit may be a sonar and may emit ultrasonic waves as the physical signal Sa. In these cases, the wave signal Sb received by the detection unit is set similarly to the corresponding physical signal Sa.
  • the installation position of the radar 11 and the like is not particularly limited.
  • the radar 11 and the like may be arranged toward the rear of the host vehicle 2, and the notification device 100 may be used for parking assistance, for example.
  • an automobile is illustrated as an example of the moving body.
  • the moving body on which the notification device 100 is mounted is not particularly limited to an automobile, and may be, for example, an AGV.
  • the notification device 100 may detect the object in the blind spot by monitoring the surroundings when the AGV is automatically traveling.
  • the second risk degree regarding the object existing in the area other than the blind spot area and the first risk degree regarding the collision between the blind spot object 4 and the host vehicle 2 are compared with each other, and the larger risk is determined.
  • the notification device 200 for notifying the driver or the occupant has been described.
  • the notification device according to the present disclosure is not limited to a device that notifies only one of the dangers.
  • the first risk and the second risk are compared, and when the first risk is higher, the control unit 13 issues a warning notification regarding the first risk and an alert notification regarding the second risk. You can go. Thereby, while notifying the driver or the occupant of both the first risk level and the second risk level, it is possible to emphasize the notification regarding the larger first risk level. The same applies when the second risk level is higher than the first risk level.
  • the first aspect according to the present disclosure is a notification device (100) that performs notification based on a detection result of an object existing in the surrounding environment of the moving body (2).
  • the notification device includes a detection unit (11), a distance measuring unit (12), a control unit (13), and a notification unit (20).
  • the detection unit emits a physical signal (Sa) having a wave characteristic from the moving body to the surrounding environment, and detects a wave signal (Sb) indicating a reflected wave of the emitted physical signal.
  • the distance measuring unit detects distance information indicating a distance from the moving body to the surrounding environment.
  • the control unit analyzes the detection result of the detection unit.
  • the control unit detects a blind spot region (R1) indicating a blind spot in the surrounding environment based on the distance information (S2, S3), and in the detection result of the detecting unit, detects a wave arriving from the detected blind spot region.
  • the object (4) in the blind spot area is detected based on the wave signal including the component (S6).
  • the control unit controls the detector so that the physical signal is emitted toward the detected blind spot region (S4).
  • the control unit determines a first risk degree indicating a degree of danger with respect to the blind spot area based on the detection result (S7).
  • the control unit determines a second risk degree indicating a degree of danger related to a region other than the blind spot region based on the distance information (S207).
  • the notification section gives notification according to the detection result of the control section (S8).
  • the notification unit performs notification according to the first risk level and the second risk level (S208).
  • the notification unit compares the first risk level with the second risk level (S223) and performs notification according to the higher risk level. .
  • the notification unit performs notification by sound, a speaker (22), a display device (21) for notification by image display, and notification by light. At least one of the light sources is included.
  • the distance measuring unit includes at least one of a camera, a radar, a LIDAR, and a navigation device.
  • the physical signal is at least one of infrared rays, terahertz waves, millimeter waves, microwaves, radio waves, and ultrasonic waves. Including.
  • the sixth mode is a notification method for performing notification based on the detection result of an object existing in the surrounding environment of the moving body (2).
  • the method includes a step (S1) in which the distance measuring unit (12) acquires distance information indicating a distance from the moving body to the surrounding environment, and a control unit (13) based on the distance information.
  • a detection unit (11) emits a physical signal (Sa) having a wave characteristic from the moving body to the surrounding environment or the blind spot region, and a wave signal indicating a reflected wave of the emitted physical signal.
  • the step (S5) of detecting (Sb) is included.
  • the control unit detects an object (4) in the blind spot region based on a wave signal including a component of a wave reaching from the detected blind spot region in the detection result of the detection unit ( S6) is included.
  • the method includes a step (S7) in which the control unit determines, based on the detection result, a first risk degree indicating a degree of danger regarding the blind spot area.
  • the method includes a step (S207) in which the control unit determines, based on the distance information, a second risk degree indicating a degree of danger regarding a region other than the blind spot region.
  • the method includes a step (S208) in which the notification unit (20) performs notification according to the first risk level and the second risk level.
  • the seventh aspect is a program for causing the control unit to execute the notification method of the sixth aspect.

Abstract

報知装置(100)は、検出部(11)と、測距部(12)と、制御部(13)と、報知部(20)とを備える。検出部は、移動体から周辺環境に、波の特性を有する物理信号(Sa)を放射して、放射した物理信号の反射波を示す波動信号(Sb)を検出する。測距部は、移動体から周辺環境までの距離を示す距離情報検出する。制御部は、検出部の検出結果を解析する。制御部は、距離情報に基づいて、周辺環境における死角を示す死角領域(R1)を検知し、検出部の検出結果において、検知した死角領域から到達する波の成分を含んだ波動信号に基づいて、死角領域の中の物体(4)を検知する。報知部は、制御部の検知結果に応じた報知を行う。

Description

報知装置及び報知方法
 本開示は、移動体の周辺環境に存在する物体の検知結果に基づいて報知を行う報知装置及び報知方法に関する。
 自動車又はAGV(自動搬送車)などの移動体に搭載され、移動体の周辺を監視する技術が提案されている(例えば特許文献1,2)。
 特許文献1は、車両周辺に移動体が接近した際に、運転者の目視を促すことができる駐車支援方法及び駐車支援装置を開示している。特許文献1の駐車支援方法は、車両に設けられた撮像装置から取得した画像データを画像データ記憶手段に蓄積し、蓄積した画像データを用いて、現在の撮像装置の死角領域に相当する記録画像を含んだ駐車支援画面を表示手段に表示する駐車支援方法において、撮像装置の死角領域で移動体を検出した際に、駐車支援画面の記録画像を警告状態にすることを特徴とする。
特開2007-76425号公報
 特許文献1の「死角領域」は、カメラ25の撮像範囲Zの外側の領域を意味する。しかしながら、カメラの撮像範囲内の領域であっても、カメラから見て建物の壁等の物体の後方は撮像不可能な領域である。特許文献1の従来技術によると、移動体から周辺環境において、死角の中に存在する物体を検知し、移動体の運転者や乗員に認識させることは、困難であった。
 本開示の目的は、移動体の周辺環境に存在する死角領域の中の物体の検知結果に基づいて報知を行う報知装置及び報知方法を提供することにある。
 本開示の一態様は、移動体の周辺環境に存在する物体の検知結果に基づいて報知を行う報知装置を提供する。報知装置は、検出部と、測距部と、制御部と、報知部とを備える。検出部は、移動体から周辺環境に、波の特性を有する物理信号を放射して、放射した物理信号の反射波を示す波動信号を検出する。測距部は、移動体から周辺環境までの距離を示す距離情報を取得する。制御部は、検出部の検出結果を解析する。制御部は、距離情報に基づいて、周辺環境における死角を示す死角領域を検知し、検出部の検出結果において、検知した死角領域から到達する波の成分を含んだ波動信号に基づいて、死角領域の中の物体を検知する。制御部は、周辺環境において死角領域を検知したとき、検知した死角領域に向けて物理信号を放射するように、検出部を制御し、検知結果に基づいて、死角領域に関する危険の程度を示す第1危険度を判定し、かつ、距離情報に基づいて、死角領域以外の領域に関する危険の程度を示す第2危険度を判定する。報知部は、制御部の検知結果に応じた報知を行う。報知部は、第1危険度及び第2危険度に応じた報知を行う。
 本開示の他の態様は、移動体の周辺環境に存在する物体の検知結果に基づいて報知を行う報知方法を提供する。報知方法は、測距部が、移動体から周辺環境までの距離を示す距離情報を取得するステップと、制御部が、距離情報に基づいて、周辺環境における死角を示す死角領域を検知するステップと、検出部が、移動体から周辺環境又は前記死角領域に、波の特性を有する物理信号を放射して、放射した物理信号の反射波を示す波動信号を検出するステップと、制御部が、検出部の検出結果において、検知した死角領域から到達する波の成分を含んだ波動信号に基づいて、死角領域中の物体を検知するステップと、制御部が、検知結果に基づいて、死角領域に関する危険の程度を示す第1危険度を判定するステップと、制御部が、距離情報に基づいて、死角領域以外の領域に関する危険の程度を示す第2危険度を判定するステップと、報知部が、第1危険度及び第2危険度に応じた報知を行うステップとを含む。
 本開示に係る報知装置及び報知方法によると、移動体の周辺環境に存在する死角領域の中の物体の検知結果に基づいて報知を行うことができる。
本開示に係る報知装置の適用例を説明するための図 本開示に係る報知装置の他の適用例を説明するための図 本開示の実施形態1に係る報知装置の構成を例示するブロック図 実施形態1に係る報知装置の動作を説明するためのフローチャート 実施形態1に係る報知装置の動作を説明するための図 報知装置における距離情報の一例を説明するための図 報知装置における距離情報の変形例を説明するための図 死角物体の検知処理の実験を説明するための図 図8の実験において死角物体がある場合を例示する図 報知装置による死角物体の検知処理を例示するフローチャート 報知装置による危険度の判定処理を例示するフローチャート 報知装置による危険度の判定処理を説明するための図 危険度に応じた報知を行うステップの詳細な流れを示すフローチャート 警告表示内容の一例を示す図 警告表示内容の他の例を示す図 警告表示内容の他の例を示す図 警告表示内容の他の例を示す図 警告表示内容の他の例を示す図 警告表示内容の他の例を示す図 表示部の例を示す図 自車両のルームミラーに表示された警告画像を例示する図 自車両のメータパネルに表示された警告画像を例示する図 自車両のドアミラーに表示された警告画像及び警告灯を例示する図 本開示の実施形態2に係る報知装置の構成を例示するブロック図 実施形態2に係る報知装置の動作を説明するためのフローチャート 報知装置による危険度の判定処理を例示するフローチャート 報知装置による危険度の判定処理を説明するための図 危険度に応じた報知を行うステップの詳細な流れを示すフローチャート 報知装置の動作の変形例を説明するための図 報知装置の動作の変形例を説明するためのフローチャート
 以下、添付の図面を参照して本開示に係る報知装置及び報知方法の実施の形態を説明する。なお、以下の各実施形態において、同様の構成要素については同一の符号を付している。
(適用例)
 本開示に係る報知装置及び報知方法が適用可能な一例について、図1を用いて説明する。図1は、本開示に係る報知装置100の適用例を説明するための図である。
 本開示に係る報知装置100は、例えば車載用途に適用可能である。図1では、報知装置100が搭載された自車両2の走行状態を例示している。報知装置100は、例えば、死角検知部1を用いて走行中の自車両2の周りで移り変わる周辺環境を監視する。周辺環境は、例えば自車両2周辺に存在する建物及び電柱などの構造物、並びに歩行者及び他車両などの動体といった各種物体を含む。
 図1の例では、交差点3近傍における構造物の壁31によって、自車両2から監視可能な範囲が遮られ、死角が生じている。死角は、自車両2等の移動体から、周辺環境に応じて幾何学的に直接視できない場所を示す。本例において、自車両2から死角となる領域である死角領域R1には、横道から交差点3に接近する別の車両4(以下「死角物体」という場合がある)が存在している。
 図2は、本開示に係る報知装置100の他の適用例を説明するための図である。図2では、報知装置100が搭載された自車両2の後退走行状態を例示している。図2では、後退走行している自車両2近傍における構造物の壁31によって、自車両2から監視可能な範囲が遮られ、死角が生じている。死角領域R1には、自車両2の進行方向の領域に接近する人(死角物体)4が存在している。
 図1及び図2に示した例のような場合、死角物体4と自車両2とが、出会い頭に衝突するような事態が懸念される。ここで、従来のカメラ或いはレーダ等を用いた周辺監視技術では、自車両2からの死角は検出されたとしても、死角領域R1の中で自車両2に接近中の死角物体4等は、検知することが困難であった。
 これに対して、本開示に係る報知装置100は、レーダ等で物理的に使用する信号における波動の伝搬特性を活用して、死角物体4のように死角領域R1に内在する物体の検知を実行する。さらに、報知装置100は、死角物体4の検知結果に基づき交差点3等の危険度を判定し、危険度に応じて自車両2の運転者に対して報知を行う。これにより、出会い頭の衝突等を回避することが可能となる。
(構成例)
 以下、報知装置の構成例としての実施形態を説明する。
(実施形態1)
 実施形態1に係る報知装置の構成および動作について、以下説明する。
1.構成
 図3は、実施形態1に係る報知装置100の構成を例示するブロック図である。
 報知装置100は、図3に例示するように、死角検知部1と、報知部20とを備える。本実施形態の死角検知部1は、レーダ11と、カメラ12と、制御部13とを備える。また、例えば死角検知部1は、記憶部14と、ナビゲーション機器15と、車載センサ16とを備える。報知部20は、自車両2に搭載された各種の車載機器、例えば映像表示による報知を行う表示部21及び音による報知を行うスピーカ22等を含む。
 死角検知部1のレーダ11は、例えば、送信機11aと、受信機11bと、レーダ制御回路11cとを備える。レーダ11は、本実施形態における検出部の一例である。レーダ11は、例えば自車両2の走行方向における前方(図1参照)に向けて信号の送受信を行うように、自車両2のフロントグリル又はフロントガラス等に設置される。
 送信機11aは、例えば可変指向性を有するアンテナ(フェイズドアレイアンテナ等)、及び当該アンテナに物理信号Saを外部送信させる送信回路などを含む。物理信号Saは、例えばミリ波、マイクロ波、ラジオ波、及びテラヘルツ波のうちの少なくとも1つを含む。
 受信機11bは、例えば可変指向性を有するアンテナ、及び当該アンテナにより外部から波動信号Sbを受信する受信回路などを含む。波動信号Sbは、物理信号Saの反射波を含むように、物理信号Saと同様の波長帯に設定される。なお、送信機11aと受信機11bとは、例えば共用のアンテナを用いてもよく、一体的に構成されてもよい。
 レーダ制御回路11cは、送信機11a及び受信機11bによる信号の送受信を制御する。レーダ制御回路11cは、例えば制御部13からの制御信号により、レーダ11による信号の送受信を開始したり、送信機11aから物理信号Saを放射する方向を制御したりする。また、レーダ制御回路11cは、送信機11aから周辺環境に物理信号Saを放射させ、受信機11bの受信結果において、物理信号Saの反射波を示す波動信号Sbを検出する。
 レーダ11は、例えばCW(連続波)方式またはパルス方式などの変調方式に従って動作し、外部の物体の距離、方位および速度等の計測を行う。CW方式は、2波CW方式、FM-CW方式及びスペクトル拡散方式などを含む。パルス方式は、パルスドップラー方式であってもよいし、チャープ信号のパルス圧縮或いはPN系列のパルス圧縮を用いてもよい。レーダ11は、例えばコヒーレントな位相情報制御を用いる。レーダ11は、インコヒーレントな方式を用いてもよい。
 カメラ12は、例えば自車両2においてレーダ11から物理信号Saを放射可能な範囲と重畳する範囲を撮像可能な位置に設置される。例えば、カメラ12は、例えば自車両2前方(図1参照)に向けて、自車両2のフロントガラス等に設置される。死角検知部1における死角は、カメラ12の設置位置を幾何学的な基準としてもよいし、レーダ11の設置位置を基準としてもよい。
 カメラ12は、設置位置から外部の画像を撮像して、撮像画像を生成する。カメラ12は、撮像画像を示す画像データを制御部13に出力する。カメラ12は、例えばRGB-Dカメラ、ステレオカメラ、又は距離画像センサである。カメラ12は、本実施形態における測距部の一例である。
 制御部13は、CPU、RAM及びROM等を含み、情報処理に応じて各構成要素の制御を行う。制御部13は、例えば、ECU(電子制御ユニット)により構成される。制御部13は、記憶部14に格納されたプログラムをRAMに展開し、RAMに展開されたプログラムをCPUにより解釈及び実行する。このように実現されるソフトウェアモジュールとして、例えば、制御部13は、死角推定部131、死角物体計測部132および危険度判定部133を実現する。各部131~133については後述する。
 記憶部14は、制御部13で実行されるプログラム、及び各種のデータ等を記憶する。例えば、記憶部14は、後述する構造情報D1を記憶する。記憶部14は、例えば、ハードディスクドライブ又はソリッドステートドライブを含む。また、RAM及びROMは、記憶部14に含まれてもよい。
 上記のプログラム等は、可搬性を有する記憶媒体に格納されてもよい。記憶媒体は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。死角検知部1は、当該記憶媒体からプログラム等を取得してもよい。
 ナビゲーション機器15は、例えば地図情報を格納するメモリ、及びGPS受信機を含む測距部の一例である。車載センサ16は、自車両2に搭載された各種センサであり、例えば車速センサ、加速度センサ、及びジャイロセンサなどを含む。車載センサ16は、自車両2の速度、加速度および角速度などを検出する。
 以上のような構成は一例であり、死角検知部1は上記の構成に限られない。例えば、死角検知部1は、ナビゲーション機器15及び車載センサ16を備えなくてもよい。また、死角検知部1の制御部13は、上記各部131~133を別体で実行する複数のハードウェア資源で構成されてもよい。制御部13は、CPU、MPU、GPU、マイコン、DSP、FPGA、ASIC等の種々の半導体集積回路で構成されてもよい。
 報知部20は、例えば、表示部21及びスピーカ22を含む。表示部21は、映像表示によって、自車両2の運転者及び同乗者等のユーザに各種情報を報知する。表示部21は、例えば自車両2に搭載された液晶パネル又は有機ELパネルなどの表示装置である。表示部21は、例えば、フロントガラスや専用のガラスパネルに映像を投影するヘッドアップディスプレイであってもよい。スピーカ22は、音声によって、自車両2の運転者及び同乗者等のユーザに各種情報を報知する音声出力装置である。報知部20は、光を発してユーザに一定の情報を報知する警告灯であってもよい。
 報知装置100は、自車両2の各部を駆動制御する図示しない車両駆動部を更に備えてもよい。車両駆動部は、例えばECUで構成される。車両駆動部は、例えば自車両2のブレーキを制御し、自動ブレーキを実現する。
2.動作
 以上のように構成される報知装置100の動作について、以下説明する。
 本実施形態に係る報知装置100は、例えば自車両2の運転中に、周辺環境を監視するように、死角検知部1を動作させる。報知装置100の報知部20は、死角検知部1による検知結果に基づき、自車両2の運転者及び同乗者等のユーザに各種情報を報知する。
 死角検知部1は、例えばカメラ12において自車両2周辺の画像を撮像して、自車両2の周辺環境を監視する。死角検知部1の死角推定部131は、例えば監視結果の各種距離を示す距離情報などに基づき、現在の周辺環境において死角が推定される領域の有無を逐次、検知する。
 死角検知部1において、死角推定部131により死角が発見されると、死角物体計測部132は、レーダ11を用いて死角領域R1の内部状態を計測する。自車両2のレーダ11から放射される物理信号Saは、波動的な性質を有することから、多重の反射或いは回折等を起こして死角領域R1中の死角物体4に到り、さらに自車両2にまで戻って来るという伝搬を生じ得ると考えられる。本実施形態の検知方法は、上記のように伝搬する波を活用して、死角物体4を検知する。
 危険度判定部133は、死角物体計測部132の計測結果に基づいて、死角領域R1に内在し得る死角物体4についての危険度を判定する。危険度は、例えば死角物体4と自車両2とが、衝突等を起こす可能性に関する。
 例えば、警告又は注意喚起を要すると考えられる危険度があると死角検知部1において判定されると、報知装置100は、運転者等に報知部20による報知を行うことができる。報知装置100の動作の詳細を、以下説明する。
2-1.死角検知部の動作
 本実施形態に係る報知装置100の動作について、図4~6を用いて説明する。
 図4は、本実施形態に係る報知装置100の動作を説明するためのフローチャートである。図4のフローチャートに示す各処理は、報知装置100の死角検知部1の制御部13によって実行される。本フローチャートは、例えば自車両2の運転中に、所定の周期で開始される。
 まず、制御部13は、カメラ12から1又は複数フレームの撮像画像を取得する(S1)。ステップS1において、制御部13は、撮像画像として距離画像を取得してもよいし、取得した撮像画像に基づき距離画像を生成してもよい。距離画像は、周辺環境を監視するための各種距離を示す距離情報の一例である。
 次に、制御部13は、取得した撮像画像に画像解析を行って(S2)、現在の自車両2の周辺環境に関する構造情報D1を生成する。構造情報D1は、周辺環境における種々の物体構造を示す情報であり、例えば、各種構造物までの距離を含む。また、制御部13は、ステップS2において死角推定部131としても動作し、取得した撮像画像において死角を検知するための画像解析も行う。図5に、ステップS2の解析対象の画像を例示する。
 図5は、例えば距離画像として自車両2から撮像されており(S1)、交差点3近傍で複数の構造物による壁31,32を映している。本例では、自車両2近傍の壁31の遮蔽により、当該壁31よりも奥側に死角領域R1が存在している。また、死角領域R1よりも奥側の壁32が、自車両2に対向している。以下、壁31を「遮蔽壁」といい、壁32を「対向壁」という。遮蔽壁31と対向壁32との間には、死角領域R1と外部との境界が形成される(図1参照)。
 ステップS2において、制御部13は、例えば構造情報D1として距離画像における各種壁31,32の距離値を画素毎に抽出し、記憶部14に保持する。図5の場合の距離値は、方向d1に沿って自車両2側から遮蔽壁31の分、連続的に変化しながら、遮蔽壁31の端部から対向壁32に到ると不連続に変化することとなる。制御部13は、上記のような距離値の変化を解析して、死角領域R1の存在を推定できる。
 図4に戻り、死角推定部131としての制御部13は、例えば画像解析による推定結果に従って、現在の自車両2の周辺環境に、死角領域R1が検知されたか否かを判断する(S3)。制御部13は、死角領域R1が検知されなかったと判断すると(S3でNO)、例えば周期的にステップS1~S3の処理を繰り返す。
 制御部13は、死角領域R1が検知されたと判断すると(S3でYES)、死角物体計測部132としての処理を実行する(S4~S6)。本実施形態では、レーダ11の波動信号Sbにおける多重反射波を活用して、死角領域R1中の死角物体4を計測する死角物体計測部132の処理例を以下、説明する。
 死角物体計測部132としての制御部13は、まず、死角領域R1に向けて物理信号Saを放射するように、レーダ11を制御する(S4)。図6(a),(b)に、それぞれ死角物体4がない場合とある場合におけるステップS4の物理信号Saの伝搬経路を例示する。
 ステップS4において、制御部13は、例えば図5の解析結果に基づいて、レーダ11から死角領域R1の境界近傍の対向壁32に物理信号Saを放射させる。図6(a)の例において、自車両2のレーダ11からの物理信号Saは、横道の死角領域R1を介して対向壁32と反対側の壁39との間で反射を繰り返し、多重反射波として伝搬している。図6(a)の例では、死角物体4がないことに対応して、多重反射波は自車両2に向かって来ない。
 一方、図6(b)の例では、死角物体4が存在することから、レーダ11からの物理信号Saは、各々の壁32,33に加えて死角物体4でも反射して、自車両2に向かう多重反射波Sb1となり得る。よって、レーダ11で受信される波動信号Sbには、死角物体4の情報を有する多重反射波Sb1の信号成分が含まれることとなる。
 ステップS4において、レーダ11は、物理信号Saを放射すると共に波動信号Sbを受信して、物理信号Saの反射波に基づく各種計測を行う。制御部13は、レーダ11から計測結果を取得する(S5)。
 制御部13は、レーダ11の計測結果に基づいて、死角物体の検知処理を行う(S6)。多重反射波Sb1(図6(b))の信号成分は、ドップラーシフト、位相及び伝搬時間により、反射元の死角物体4の速度および伝搬経路の長さに応じた情報を有している。死角物体の検知処理(S6)は、このような信号成分を解析することにより、多重反射波Sb1を反射した死角物体4の速度及び位置等を検知する。ステップS6の処理の詳細については後述する。
 次に、制御部13は危険度判定部133として動作し、死角物体4の検知処理(S6)の結果に基づいて危険度の判定処理を行う(S7)。危険度の判定処理は、例えば、検知された位置及び速度等から死角物体4が自車両2に接近することの危険度に応じて、警告の要否を判定する。ステップS6において死角物体4の動き、距離、種類及び形状等の情報が検知される場合、ステップS7ではこれらの情報を用いて危険度が判定されてもよい。ステップS7の処理の詳細については後述する。
 次に、制御部13は、危険度の判定結果(S7)に応じて、報知部20に報知を行わせる(S8)。
 制御部13は、報知部20に報知を行わせる(S8)と、図4のフローチャートに示す処理を終了する。
 以上の処理によると、報知装置100は自車両2の周辺監視を行いながら(S1~S3)、死角が発見されると(S3でYES)、死角物体4の検知を行い(S6)、報知を行うことができる(S8)。
 以上の処理では、周辺監視にカメラ12を用いたが、ナビゲーション機器15を用いてもよい。本変形例を図7に示す。ナビゲーション機器15は、例えば図7に示すように、自車両2の周辺環境の地図情報D2において、自車両2までの各種距離を計算し、自車両2の現在位置を監視する。制御部13は、以上のようなナビゲーション機器15の監視結果を、図4の各種処理に用いることができる。制御部13は、ナビゲーション機器15の監視結果に基づいて、例えば地図情報D2中の構造物30に基づき、構造情報D1を取得したり、死角領域R1を検知したりすることができる(S2)。また、制御部13は、図4の処理において適宜、車載センサ16の検出結果を用いてもよい。
2-2.死角物体の検知処理
 死角物体の検知処理(図4のS6)について、図8~10を用いて説明する。
 図8は、死角物体の検知処理の実験を説明するための図である。図8(a)は、本実験の実験環境の構造情報D1を示す。図8(b)は、死角物体4がない場合のレーダ11の計測結果を示す。図9は、図8の実験において死角物体がある場合を例示する図である。図9(a)は、死角物体4がある場合のレーダ11の計測結果を示す。図9(b)は、死角物体4から推定される多重反射波の伝搬経路を例示する。
 本実験は、図8(a)に示すように、交差点を有する通路において行われた。図8(b),図9(a)における濃淡は、淡いほどレーダ11で得られた信号強度が強いことを示している。
 本実験においては、死角物体4がない状態では、図8(b)に示すように、4m付近に強いピークP1が確認された。ピークP1は、レーダ11に対向する対向壁P1からの反射波を示している。また、図8(b)では、その他各壁32,33からの反射波によるピークP2,P3がそれぞれ確認できる。
 一方、死角物体4を置いた状態では、図9(a)に示すように、対向壁32よりも遠い7m付近に、強いピークP4が現れた。同ピークP4の方位は、レーダ11から対向壁32の奥側に見える。以上の距離と方位から、当該ピークP4が、対向壁32による反射を経て死角物体4から反射した成分が主となっていることが分かる(図9(b)参照)。即ち、レーダ11の計測結果におけるピークP4までの距離と方位に基づいて、死角物体4を波源とするピークP4を検知できることが確認された。
 以上のような死角物体4の信号成分の解析は、周辺環境の構造情報を用いることにより、死角物体4の有無及び位置等をより精度良く検知できる。以下、本実施形態における死角物体の検知処理の一例を、図10を用いて説明する。
 図10は、本実施形態における死角物体の検知処理を例示するフローチャートである。図10のフローチャートによる処理は、図4のステップS6において、死角物体計測部132として動作する制御部13によって実行される。
 まず、制御部13は、図4のステップS5において取得したレーダ11の計測結果の信号から、死角物体の解析対象とする信号成分を抽出するために、周辺環境からの反射波を示す環境成分を除去する(S11)。ステップS11の処理は、例えばステップS2で取得された構造情報を用いて行われる。
 例えば、図8(b)の例の各ピークP1,P2,P3は、通路の構造情報D1(図8(b))において各々対応する壁31,32,33からの反射波を示す環境成分として、予め推定可能である。制御部13は、構造情報D1を参照して各種構造物での反射波を予測して、レーダ11の計測結果(例えば図9(a))から予測結果の環境成分を差し引く(S11)。これにより、通路等の環境下の構造物による反射波の影響を低減し、死角の物体の信号成分のみを強調し易くできる。
 次に、制御部13は、環境成分の除去により得られた信号成分に基づいて、死角物体4を検知するための信号解析を行う(S12)。ステップS12の信号解析は、周波数解析、時間軸上の解析、空間分布および信号強度等の各種の解析を含んでもよい。
 制御部13は、信号解析の解析結果に基づいて、例えば死角の対向壁32の向こう側に波源が観測されるか否かを判断し(S13)、これによって、死角物体4の有無を検知する。例えば、図9(a)の例においてピークP4は、対向壁32よりも通路の奥側を波源としており、通路の構造から環境成分として予測されない位置にある。このことから、当該ピークP4は、死角内を波源とする波が、多重反射したことに起因すると推定できる。つまり、制御部13は、検知済みの死角の方位に、対向壁32を超える距離で反射波が観測される場合、死角物体4があると判定できる(ステップS13でYES)。
 制御部13は、死角の対向壁32の向こう側に波源が観測されると判断した場合(S13でYES)、多重反射による屈曲が推定される伝搬経路に応じて、死角物体4までの距離および速度といった各種の状態変数を計測する(S14)。例えば、制御部13は、構造情報D1において死角部分の道幅(死角領域R1の幅)を示す情報を用いることによって、例えば図9(b)に示すように、信号成分から分かる死角物体4までの経路長を折り返すように補正して、より実際の位置に近い死角物体4の位置を算出することができる。
 制御部13は、死角物体4の測量を行うと(S14)、図4のステップS6の処理を終了する。その後、制御部13は、検知された死角物体4についての危険度の判定処理(図4のS7)を実行する。
 また、制御部13は、死角の対向壁32の向こう側に波源が観測されないと判断した場合(S13でNO)、特に測量を行わずに、本処理を終了する。この場合、制御部13は、図4のステップS7以降の処理を省略してもよい。
 以上の処理によると、レーダ11の物理信号Saにおける多重反射の性質に基づき死角領域R1内部で生じた信号成分を利用して、死角物体4を検知することができる。
 ここで、死角物体4の情報を有する信号成分は微弱であり、死角外の見えている物体からの反射波も存在する中で検出することとなるため、検出及び推定が難しいと考えられる。また、死角物体4までの実際の距離と信号の伝搬経路の長さが異なるため、実際の距離を推定し難いとも考えられる。これに対して、周辺環境の構造情報D1を用いることにより、受信波を解析する前提条件を絞り込んだり(S11)、推定精度を高めたりすることができる(S14)。
 例えば、ステップS11において、制御部13は、構造情報D1における死角近傍の交差点までの距離を参照して、交差点との直線距離に対する信号の往復伝搬時間以下で得られる受信波の信号成分を除去する。このような受信波は直接反射波(即ち反射1回の波)であり、死角物体4の情報を含まないことから、解析対象から除外することができる。また、制御部13は、自車両2から見た死角の方位角に基づいて、死角から到来する反射波と他の角度から到来する反射波とを分離することもできる。
 ステップS11の処理は、必ずしも周辺環境の構造情報D1を用いなくてもよい。例えば、制御部13は、時間軸に沿って得た信号から、自車両2の位置変化を差し引いて、解析対象を動体に制限してもよい。本処理は、ステップS12の信号解析において行われてもよい。
 以上のステップS12において、制御部13は、解析対象の信号成分において、動体に反射したことによるドップラーシフト、或いは人間や自転車など特有の所作の揺らぎといった、特定の物体の所作により現れる特徴があるか否かを解析してもよい。また、制御部13は、空間的に広がりを持った面計測の信号分布が、自動車、自転車、人間などの特有の分布を持っているか、或いは反射強度により自動車大の金属体による反射が含まれるか等を解析してもよい。以上のような解析は、適宜組み合わせて行われてもよいし、個々を明示的に解析する代わりに、機械学習を用いて多次元の特徴量として解析されてもよい。
2-3.危険度の判定処理
 危険度の判定処理(図4のS7)について、図11~12を用いて説明する。
 図11は、危険度の判定処理を例示するフローチャートである。図12は、危険度の判定処理を説明するための図である。図11のフローチャートによる処理は、図4のステップS7において、危険度判定部133として動作する制御部13によって実行される。
 まず、制御部13は、ステップS6における死角物体4の検知結果に基づいて、危険度指数Dを算出する(S21)。危険度指数Dは、検知された死角物体4と自車両2との間の衝突に関する危険度を判定するための指標を示す。例えば図12に示すように、死角物体4が自車両2に近付く速度vが、危険度指数Dに設定できる。
 次に、制御部13は、例えば予め設定されたしきい値Vaを用いて、算出した危険度指数Dが、しきい値Vaを超えるか否かを判断する(S22)。しきい値Vaは、例えば死角物体4に関する警告が必要となる危険度指数Dの大きさを考慮して設定される。例えば、D=vの場合に危険度指数Dがしきい値Vaを上回ると、制御部13は、ステップS22で「YES」に進む。
 制御部13は、危険度指数Dがしきい値Vaを超えると判断したとき(S22でYES)、危険度の判定結果として、例えば警告フラグを「ON」に設定する(S23)。警告フラグは、死角物体4に関する警告の有無を「ON/OFF」で管理するフラグであり、記憶部14に記憶される。
 一方、制御部13は、危険度指数Dがしきい値Vaを超えないと判断したとき(S22でNO)、警告フラグを「OFF」に設定する(S24)。
 制御部13は、以上のように警告フラグを設定すると(S23,S24)、危険度の判定処理(図4のS7)を終了して、ステップS8の処理に進む。
 以上の処理によると、死角物体4が自車両2或いは交差点3に近付く危険度が、対応する危険度指数Dに応じて判定される。例えば、警告フラグに応じた2値判定が行われる。
 なお、危険度の判定処理は2値判定に限らず、例えば警告の不要時に注意喚起の有無を判定する3値判定が行われてもよい。例えば、注意喚起用のしきい値Vb(<Va)を用いて、制御部13が、ステップS22で「NO」に進んだときにD>Vbか否かを判断してもよい。
 以上の処理において、危険度指数Dは速度vに限らず、死角物体4に関する種々の状態変数により設定可能であり、例えば速度vの代わりに加速度dv/dtに設定されてもよい。
 また、危険度指数Dは、自車両2と死角物体4との間の距離Lに設定されてもよい。距離Lは、小さいほど自車両2と死角物体4間の衝突に関する危険度が高いと考えられる。そこで、例えばステップS22において、制御部13は、危険度指数D(=L)がしきい値Vaを下回るときに「YES」に進み、下回らないときには「NO」に進んでもよい。
 また、危険度指数Dは、各種の状態変数の組み合わせによって設定されてもよい。このような一例の危険度指数Dを次式(1)に示す。
D=|(L-vΔt)+(L-vΔt)| …(1)
 上式(1)において、Lは、基準位置P0から死角物体4までの距離である(図12)。基準位置P0は、例えば交差点の中心など、死角物体4と自車両2との衝突が想定される位置に設定される。Δtは、所定の時間幅であり、例えば自車両2が基準位置P0に到達するまでにかかることが予測される時間幅の近傍に設定される。Lは、基準位置P0から自車両2までの距離である。vは、自車両2の速度であり、車載センサ16等から取得可能である。
 上式(1)の危険度指数Dは、時間幅Δtの経過後に推定される、死角物体4と基準位置P0間の距離と、基準位置P0と自車両2間の距離との総和である(図12)。上式(1)によると、危険度指数Dが所定値よりも小さくなると、自車両2と死角物体4とが同時に基準位置P0に到達する可能性が充分に高いといった推定が行える。このような推定に対応する危険度の判定として、上式(1)の場合、制御部13はD=Lの場合と同様に、危険度指数Dがしきい値Vaを下回るときステップS22で「YES」に進み、下回らないとき「NO」に進んでもよい。
 また、危険度指数Dは、以下の式(2)又は式(2’)のように設定されてもよい。
D=L-vΔt              …(2)
D=|L-vΔt|            …(2’)
 上記の各式(2),(2’)では、例えばΔt=L/vに設定される。時間幅Δtは、自車両2の速度vの変動或いは基準位置P0の見積誤差などを考慮した許容範囲内で設定されてもよい。
 式(2)の危険度指数Dが所定値よりも小さいとき(負値を含む)、自車両2が基準位置P0に到達する前に死角物体4が自車両2前方を横切る可能性が充分に高いと推定できる。また、式(2’)の危険度指数D(式(2)の場合の絶対値)が所定値よりも小さいとき、自車両2と死角物体4とが同時に基準位置P0に存在する可能性が充分に高いと推定できる。以上のような推定に対応して、制御部13は、式(2)又は式(2’)の危険度指数Dを用いて、式(1)の場合と同様に危険度の判定を行うことができる。
 以上のような危険度の判定処理において、しきい値Vaは、自車両2及び死角物体4の状態に応じて、動的に変更されてもよい。例えば、上述したLが小さかったり、dv/dt又はdv/dtが大きかったり、或いは死角物体4が人間と推定される場合、危険度の判定をより厳格に行うべきと考えられる。そこで、このような場合が検知されると、制御部13は、例えば上式(1)の危険度指数Dに対して、しきい値Vaを大きくしてもよい。
2-4.報知処理
 死角の危険度を判定するステップS7(図4)を終えると、次に、報知ステップS8に進む。
 図13は、危険度に応じた報知を行うステップS8(図4)の詳細な流れを示すフローチャートである。まず、制御部13は、ステップS7で設定された警告フラグが「ON」であるか否かを判断する(S31)。「ON」であると判断した場合(S31でYES)、警告の態様を決定するステップS32に進む。次に、決定された態様に従って警告報知を行う(S33)。ステップS31において、警告フラグが「ON」でない(すなわち「OFF」である)と判断した場合(S31でNO)、制御部13は、警告報知を行わない。すなわち、制御部13は、通常の映像表示や音声出力等の通常動作を継続する。
 前述の警告の不要時に注意喚起の有無を判定する3値判定を行う場合は、制御部13は、ステップS31において、警告フラグが「ON」でない(すなわち「OFF」である)と判断した場合(S31でNO)、ステップS7で設定された注意喚起フラグが「ON」であるか否かを判断し、YESである場合は注意喚起報知を行ってもよい。
 以下、ステップS32において決定される警告の態様について説明する。ステップS32では、制御部13は、報知部20(図3)に備えられた機器のうちの何れを用いて警告報知を行うかを決定する。例えば、表示部21を用いた警告表示を行うか、スピーカ22を用いた音声による警告報知を行うか、または、表示と音声の両方による警告報知を行うか等を決定する。また、制御部13は、警告表示を行う場合、警告表示の位置、色、形、点滅表示の有無等を決定する。制御部13は、例えばステップS2で取得された構造情報D1に基づいて、予め記憶部14に記憶された表示パターンの中から、警告表示の位置、色、形等を選択する。
 図14aは、警告表示内容の一例を示す図である。例えば、液晶ディスプレイ等の表示部21には、ステップS1(図4)においてカメラ12を用いて取得した撮像画像が表示されている。カメラ12は、例えば自車両2の後部に後ろ向きに搭載され、自車両2の後方を撮像する。制御部13は、例えば、ステップS2(図4)の画像解析の結果を用いて、表示部21中の遮蔽壁31を示す画像に、死角物体4の存在を示す警告画像35を重畳表示する。
 図14bは、警告表示内容の他の例を示す図である。制御部13は、警告画像35を点滅させて表示してもよい。これにより、運転者が警告画像35を認識しやすくなり、効果的に危険を報知することができる。
 前述のように、危険度に応じて警告表示または注意喚起表示を選択して行う3値判定を行う場合、注意喚起表示を行うときは図14aのように警告画像35を点滅させずに表示し、警告表示を行うときは図14bのような点滅表示を行ってもよい。
 図14cは、警告表示内容の他の例を示す図である。制御部13は、図14a、図14bのように死角物体4を示す画像ではなく、文字による警告画像35を表示部21に表示させてもよい。文字による警告画像35は、例えば、「右側から物体が近づいています」、「衝突注意」といった文章を含む。
 図14dは、警告表示内容の他の例を示す図である。図14dに示すように、警告画像35は、表示部21中の遮蔽壁31を示す画像に重畳表示された、死角物体4の移動方向を示す矢印であってもよい。
 図14eは、警告表示内容の他の例を示す図である。図14eに示すように、通常時には表示部21に自車両2を示す画像を含む周辺の俯瞰図を表示する場合において、制御部13は、死角物体4の存在や移動方向を示す警告画像35を俯瞰図に重畳表示してもよい。表示部21中には、例えばステップS2で取得された構造情報D1に基づいて、構造物を示す画像が表示されてもよい。
 図14fは、警告表示内容の他の例を示す図である。図14fに示すように、通常時には表示部21に地図情報を表示する場合において、制御部13は、死角物体4の存在や移動方向を示す警告画像35を地図情報に重畳表示してもよい。表示部21中には、例えばステップS2で取得された構造情報D1に基づいて、構造物を示す画像が表示されてもよい。
 図15は、表示部21の例を示す図である。言い換えれば、図15は、警告画像35が表示される場所の例を示す図である。図14a~14fに示したような警告画像35を含む画像は、図15に示すように、例えばルームミラー40、ドアミラー44等の後写境、ヘッドアップディスプレイ41、メータパネル42及びフロントガラス43等に表示される。また、警告画像35を含む画像は、ナビゲーション機器15(図3)のディスプレイに表示されてもよい。
 図16は、自車両2のルームミラー40に表示された警告画像35を例示する図である。警告画像35は、運転者又は乗員が見ることができるような態様で、ルームミラー40に表示される。例えば、ルームミラー40は、全体が表示部21として構成される。あるいは、ルームミラー40の内部に表示部21が備えられてもよい。また、ガラス等に画像を投影するプロジェクタ等の表示部21を用いて、ルームミラー40に警告画像35が投影されてもよい。ルームミラー40には、例えば図16に示すように、自車両2と死角物体4が衝突する危険を有することを示す警告画像35が表示される。
 図17は、自車両2のメータパネル42に表示された警告画像35を例示する図である。メータパネル42がスピードメータを示す画像等を表示する液晶ディスプレイ等の表示部21で構成されている場合、制御部13は、その一部に警告画像35を表示する。スピードメータ等が機械で構成されている場合、メータパネル42の周辺に表示部21を設け、表示部21に警告画像35を表示してもよい。
 図18は、自車両2のドアミラー44に表示された警告画像35及び警告灯45を例示する図である。警告画像35は、運転者又は乗員が見ることができるような態様で、ドアミラー44に表示される。例えばドアミラー44は、全体が表示部21として構成される。あるいは、ドアミラー44の内部に表示部21が備えられてもよい。
 また、ガラス等に画像を投影するプロジェクタ等の表示部21を用いて、ドアミラー44に警告画像35が投影されてもよい。ドアミラー44付近に、警告灯45が設けられてもよい。警告灯45は、非常点滅表示灯や方向指示器と同様に、電球の点灯を利用するものである。例えば、制御部13は、ステップS7(図4、図11)で設定された警告フラグが「ON」であると判断した場合(図13のS31でYES)、警告灯45を点灯させる。
 以上、警告報知の態様について例示した。警告報知は、運転者又は乗員に危険を認識させるものであればよく、警告報知の態様は例示したものに限定されない。例えば、警告報知は、スピーカ22から発せられる音声によってなされてもよい。前述のように、危険度に応じて警告報知または注意喚起報知を選択して行う3値判定を行う場合、例えば、警告を行う音声による報知は、注意喚起を行う報知よりも大音量でなされる。また、警告報知は、前述の表示部21による警告画像35と、音声による報知とが組み合わされたものであってもよい。
3.まとめ
 以上のように、本実施形態に係る報知装置100は、移動体の一例である自車両2の周辺環境に存在する死角物体4の検知結果に基づいて報知を行う。報知装置100は、検出部としてのレーダ11と、測距部としてのカメラ12と、制御部13と、報知部20とを備える。レーダ11は、自車両2から周辺環境に、波の特性を有する物理信号Saを放射して、放射した物理信号Saの反射波を示す波動信号Sbを検出する。カメラ12は、自車両2の周辺環境の距離画像を取得する。制御部13は、レーダ11の検出結果を解析する。制御部13は、距離画像に基づいて、周辺環境における死角を示す死角領域R1を検知し(S2,S3)、レーダ11の検出結果において、検知した死角領域R1から到達する多重反射波Rb1の成分を含んだ波動信号に基づいて、死角領域R1の中の死角物体4を検知する(S6)。報知部20は、制御部13の検知結果に応じた報知を行う。
 以上の報知装置100によると、レーダ11からの物理信号Saにおける波の特性を活用して、自車両2から周辺環境における死角の中に存在する物体を検知することができる。活用する波は多重反射波に限らず、回折波或いは透過波を含んでもよい。
 また、報知装置100は、制御部13の検知結果に応じた報知を行うことにより、運転者又は乗員に衝突等の危険を事前に知らせることができ、自車両2と死角物体4との衝突の危険を低減させることができる。
 本実施形態の報知装置100において、制御部13は、周辺環境において死角領域R1を検知したとき、検知した死角領域R1に向けて物理信号Saを放射するように、レーダ11を制御する(S4)。これにより、死角領域R1近傍に物理信号Saを集中させ、死角領域R1の中の死角物体4から多重反射波Sb1等を得やすくすることができる。なお、レーダ11からの物理信号Saは必ずしも死角領域Raに集中させなくてもよく、例えば、レーダ11が検出可能な範囲に適時、物理信号Saを放射してもよい。
 本実施形態の報知装置100において、制御部13は、死角物体4の検知結果(S6)に基づいて、死角領域R1に関する危険度を判定する(S7)。危険度の判定により、例えば自車両2と死角物体4との出会い頭の衝突等を回避し易くすることができる。
 また、制御部13は、報知部20によって、危険度に応じた報知を行う(S8)。死角物体4が交差点3或いは自車両2に近づく方向に移動しており、そのため衝突の危険度が高い場合、制御部13は運転者又は乗員に対して報知を行う。これにより、運転者又は乗員は、自車両2と死角物体4との出会い頭の衝突等を回避することができる。一方、死角物体4が交差点3或いは自車両2から遠ざかる方向に移動しており、そのため衝突の危険度が低い場合、制御部13は報知を行わない。このように無用の報知を行わないことにより、運転者又は乗員に報知による混乱や焦燥を生じさせることが防止される。
 本実施形態に係る報知方法は、自車両2の周辺環境に存在する死角物体4の検知結果に基づいて報知を行う報知方法である。本方法は、カメラ12が、自車両2の周辺環境の距離画像を取得するステップS1と、制御部13が、距離画像に基づいて、周辺環境における死角を示す死角領域R1を検知するステップS2,S3とを含む。本方法は、レーダ11が、自車両2から周辺環境に物理信号Saを放射して、放射した物理信号Saの反射波を示す波動信号Sbを検出するステップS5を含む。本方法は、制御部13が、レーダ11の検出結果において、検知した死角領域R1から到達する波の成分Sb1を含んだ波動信号Sbに基づいて、死角領域R1中の死角物体4を検知するステップS6を含む。本方法は、報知部20が、制御部13の検知結果に応じた報知を行うステップS8を含む。
 本実施形態において、以上の報知方法を制御部13に実行させるためのプログラムが提供される。本実施形態の報知方法によると、自車両2等の移動体から周辺環境における死角の中に存在する物体を検知し、検知結果に応じた報知を行うことができる。
(実施形態2)
 図19は、実施形態2に係る報知装置200の構成を例示するブロック図である。報知装置200の制御部13は、実施形態1の危険度判定部133の代わりに、危険度判定部233を備える。
 図20は、実施形態2に係る報知装置200の動作を説明するためのフローチャートである。実施の形態2に係る報知装置200の動作は、危険度の判定処理(S207)及び危険度に応じた報知(S208)の内容が実施形態1と異なる。
 図21及び図22を参照して、実施形態2に係る危険度の判定処理を行うステップS207について説明する。図21は、危険度の判定処理を行うステップS207の詳細な流れを示すフローチャートである。図22は、危険度の判定処理を説明するための図である。図21のフローチャートによる処理は、図20のステップS207において、危険度判定部233として動作する制御部13によって実行される。
 まず、制御部13は、ステップS6における死角物体4の検知結果に基づいて、死角物体4に関する第1危険度指数Dを算出する(S221)。第1危険度指数Dは、検知された死角物体4と自車両2との間の衝突に関する第1危険度を判定するための指標であり、死角領域に関する危険の程度を示す。例えば図22に示すように、死角物体4が自車両2に近付く速度vが、第1危険度指数Dに設定できる。
 次に、制御部13は、ステップS2における画像解析結果に基づいて、死角領域以外の領域に存在する物体に関する危険の程度を示す第2危険度指数Eを算出する(S222)。第2危険度指数Eは、例えば図22に示した壁230のような死角領域以外の領域に存在する物体と、自車両2と、の間の衝突に関する第2危険度を判定するための指標を示す。例えば図22に示すように、自車両2に壁230に近付く速度vが、第2危険度指数Eに設定できる。
 第2危険度指数Eは、ステップS2における画像解析結果に基づいて算出される。したがって、第2危険度指数Eを算出するステップS222は、危険度の判定処理を行うステップS207内の処理として行われる必要はなく、例えば図20に示したステップS2の直後に行われてもよい。
 次に、制御部13は、死角領域以外の領域に存在する物体に関する第2危険度が、死角物体4と自車両2との間の衝突に関する第1危険度を超えるか否かを判断する(S223)。例えば、速度を第1危険度指数D及び第2危険度指数Eに設定した前述の例の場合、第2危険度指数Eが第1危険度指数Dを超えるか否かを判断する。
 制御部13は、第2危険度指数Eが第1危険度指数Dを超えると判断した場合(S223でYES)、危険度の判定結果として、死角物体4に関する第1警告フラグを「OFF」に設定する(S224)。第1警告フラグは、死角物体4に関する警告の有無を「ON/OFF」で管理するフラグであり、記憶部14に記憶される。
 次に、制御部13は、例えば予め設定されたしきい値Vaを用いて、第2危険度指数Eがしきい値Vaを超えるか否かを判断する(S225)。
 制御部13は、第2危険度指数Eがしきい値Vaを超えると判断した場合(S225でYES)、危険度の判定結果として、例えば死角領域以外の領域に存在する物体に関する第2警告フラグを「ON」に設定する(S226)。一方、制御部13は、第2危険度指数Eがしきい値Vaを超えないと判断した場合(S225でNO)、第2警告フラグを「OFF」に設定する(S227)。
 ステップS223において、第2危険度指数Eが第1危険度指数Dを超えないと判断した場合(S223でNO)、制御部13は、危険度の判定結果として、第2警告フラグを「OFF」に設定する(S228)。
 次に、制御部13は、第1危険度指数Dがしきい値Vaを超えるか否かを判断する(S229)。超えると判断した場合(S229でYES)、制御部13は、危険度の判定結果として、第1警告フラグを「ON」に設定する(S230)。一方、制御部13は、第1危険度指数Dがしきい値Vaを超えないと判断した場合(S229でNO)、第1警告フラグを「OFF」に設定する(S231)。
 制御部13は、以上のように第1及び第2警告フラグを設定すると、危険度の判定処理(図20のS207)を終了して、ステップS208の処理に進む。
 以上の処理によると、死角物体4が自車両2或いは交差点3に近付く第1危険度が、対応する第1危険度指数Dに応じて判定され、自車両2が壁230に衝突する第2危険度が、対応する第2危険度指数Eに応じて判定される。これらの判定では、例えば、第1及び第2警告フラグに応じた2値判定が行われる。
 なお、実施形態1と同様に、危険度の判定処理は2値判定に限らず、例えば警告の不要時に注意喚起の有無を判定する3値判定が行われてもよい。また、実施形態1と同様に、第1危険度指数D及び第2危険度指数Eは速度に限らず、死角物体4及び自車両2に関する種々の状態変数により設定可能である。
 図23は、危険度に応じた報知を行うステップS208(図20)の詳細な流れを示すフローチャートである。まず、制御部13は、ステップS207で設定された第1警告フラグが「ON」であるか否かを判断する(S240)。「ON」であると判断した場合(S240でYES)、警告の態様を決定するステップS241に進む。次に、決定された態様に従って警告報知を行う(S242)。
 警告の態様を決定するステップS241では、死角物体4に関する危険を運転者又は乗員に警告するように、警告の態様が決定される。警告表示内容は、例えば、実施形態1で説明した図14a~14fと同様の内容である。警告表示は、例えば、実施形態1で説明した図15~18で説明したような場所に警告画像35を表示することによって行われる。
 ステップS240において、第1警告フラグが「ON」でない(すなわち「OFF」である)と判断した場合(S240でNO)、制御部13は、第2警告フラグが「ON」であるか否かを判断する(S243)。「ON」であると判断した場合(S240でYES)、警告の態様を決定するステップS244に進む。次に、決定された態様に従って警告報知を行う(S245)。
 警告の態様を決定するステップS244では、死角領域以外の領域に存在する物体に関する危険を運転者又は乗員に警告するように、警告の態様が決定される。例えば、表示部21(図19)に、壁230(図22)と衝突する危険がある旨が画像又は文字によって表示される。あるいは、警告報知は、スピーカ22から発せられる音声や、警告灯の灯火若しくは点滅等によってなされてもよい。
 ステップS243において、第2警告フラグが「ON」でない(すなわち「OFF」である)と判断した場合(S243でNO)、制御部13は、警告報知を行わない。すなわち、制御部13は、通常の映像表示や音声出力等の通常動作を継続する。
 以上のように、実施形態2に係る報知装置200は、死角領域以外の領域に存在する物体に関する第2危険度と、死角物体4と自車両2との間の衝突に関する第1危険度とを比較し、大きい方の危険について運転者又は乗員に報知する。これにより、運転者又は乗員は、より程度の高い方の危険を避けるように行動することができる。また、第1危険度と第2危険度の両方を報知すると、運転者又は乗員に混乱や焦燥を生じさせ、判断や運転操作を誤らせたりするおそれがあるところ、実施形態2に係る報知装置は、大きい方の危険のみを運転者又は乗員に報知することにより、運転者又は乗員に混乱や焦燥を生じさせない。
(他の実施形態)
 上記の実施形態1では、死角物体4の検知に多重反射波を活用したが、多重反射波に限らず、例えば回折波が活用されてもよい。本変形例について、図24を用いて説明する。
 図24では、レーダ11からの物理信号Saが遮蔽壁31において回折し、死角物体4に到達している。また、死角物体4における反射波は、遮蔽壁31において回折し、回折波Sb2として自車両2に戻って来ている。例えば、本実施形態の制御部13は、図4のステップS4において、遮蔽壁31で回り込みを生じるように、レーダ11からの放射する物理信号Saの波長および方位を制御する。
 例えば可視光よりも波長が大きい物理信号Saを用いることによって、直進性の高い可視光等では各種の遮蔽物の存在により幾何学的に到達し得ない領域にも、信号を到達させることができる。また、死角物体4となり得る車両や人間などは通常丸みを帯びた形状をしていること等から、当該信号は完全反射的な経路だけではなく、放射された自車両2が存在する方向へも反射する。このような反射波が遮蔽壁31に対して回折現象を起こして伝搬することにより、解析対象の信号成分として回折波Sb2をレーダ11に受信させることができる。
 回折波Sb2の信号成分は死角物体4までの伝搬経路の情報と移動速度に応じたドップラー情報を有している。よって、同信号成分を信号解析することにより、実施形態1と同様に、信号成分の伝搬時間、位相及び周波数の情報から死角物体4の位置及び速度を計測可能である。この際、回折波Sb2の伝搬経路も、遮蔽壁31までの距離或いは各種の構造情報D1により、推定可能である。また、多重反射と回折が組み合わされた伝搬経路も適宜、推定でき、このような波の信号成分が解析されてもよい。
 上記の各実施形態では、レーダ11とカメラ12等とにより検出部及び測距部が別体で構成される例を説明したが、検出部及び測距部は、一体的に構成されてもよい。本変形例について、図25を用いて説明する。
 図25は、報知装置100の変形例を説明するためのフローチャートである。実施形態1の報知装置100は、カメラ12により周辺監視を行った(図4のS1~S3)。本変形例の報知装置100は、レーダ11によって、図4のS1~S3と同様の周辺監視を行う(S1A~S3A)。本変形例のレーダ11は、一体的な測距部及び検出部の一例である。
 また、本変形例において死角が発見されると(S3AでYES)、制御部13は、例えばレーダ11の帯域を切替え制御し、死角で回り込みし易い帯域を用いる(S4A)。この場合、ステップS6では回折波を活用した信号解析が行われる。一方、ステップS1A~S3Aでは、直線性が高い帯域を用いて、レーダ11の周辺監視における解像度を良くすることができる。
 また、上記の各実施形態では、検出部の一例をしてレーダ11を説明した。本実施形態の検出部はレーダ11に限らず、例えばLIDARであってもよい。検出部から放射する物理信号Saは、例えば赤外線であってもよい。また、検出部は、ソナーであってもよく、物理信号Saとして超音波を放射してもよい。これらの場合、検出部が受信する波動信号Sbは、対応する物理信号Saと同様に設定される。
 また、上記の各実施形態では、レーダ11及びカメラ12が自車両2前方に向けて設置される例を説明したが、レーダ11等の設置位置は特に限定されない。例えば、レーダ11等は、自車両2後方に向けて配置されてもよく、例えば報知装置100は駐車支援に用いられてもよい。
 また、上記の各実施形態では、移動体の一例として自動車を例示した。報知装置100が搭載される移動体は、特に自動車に限定されず、例えばAGVであってもよい。例えば、報知装置100は、AGVの自動走行時に周辺監視を行い、死角中の物体を検知してもよい。
 上記の実施形態2では、死角領域以外の領域に存在する物体に関する第2危険度と、死角物体4と自車両2との間の衝突に関する第1危険度とを比較し、大きい方の危険について運転者又は乗員に報知する報知装置200について説明した。しかしながら、本開示に係る報知装置は、いずれか一方の危険のみを報知するものに限定されない。例えば、第1危険度と第2危険度とを比較し、第1危険度の方が大きい場合、制御部13は、第1危険度について警告報知を行い、第2危険度について注意喚起報知を行ってもよい。これにより、第1危険度と第2危険度の両方について運転者又は乗員に報知を行いつつ、より大きい第1危険度に関する報知を際立たせることができる。第2危険度が第1危険度より大きい場合についても同様である。
(付記)
 以上のように、本開示の各種実施形態について説明したが、本開示は上記の内容に限定されるものではなく、技術的思想が実質的に同一の範囲内で種々の変更を行うことができる。以下、本開示に係る各種態様を付記する。
 本開示に係る第1の態様は、移動体(2)の周辺環境に存在する物体の検知結果に基づいて報知を行う報知装置(100)である。前記報知装置は、検出部(11)と、測距部(12)と、制御部(13)と、報知部(20)とを備える。前記検出部は、前記移動体から前記周辺環境に、波の特性を有する物理信号(Sa)を放射して、放射した物理信号の反射波を示す波動信号(Sb)を検出する。前記測距部は、前記移動体から前記周辺環境までの距離を示す距離情報を検出する。前記制御部は、前記検出部の検出結果を解析する。前記制御部は、前記距離情報に基づいて、前記周辺環境における死角を示す死角領域(R1)を検知し(S2,S3)、前記検出部の検出結果において、検知した死角領域から到達する波の成分を含んだ波動信号に基づいて、前記死角領域の中の物体(4)を検知する(S6)。前記制御部は、前記周辺環境において前記死角領域を検知したとき、検知した死角領域に向けて前記物理信号を放射するように、前記検出部を制御する(S4)。前記制御部は、前記検知結果に基づいて、前記死角領域に関する危険の程度を示す第1危険度を判定する(S7)。前記制御部は、前記距離情報に基づいて、前記死角領域以外の領域に関する危険の程度を示す第2危険度を判定する(S207)。前記報知部は、前記制御部の検知結果に応じた報知を行う(S8)。前記報知部は、前記第1危険度及び前記第2危険度に応じた報知を行う(S208)。
 第2の態様では、第1の態様の報知装置において、前記報知部は、前記第1危険度と前記第2危険度とを比較し(S223)、高い方の危険度に応じた報知を行う。
 第3の態様では、第1又は第2の態様の報知装置において、前記報知部は、音による報知を行うスピーカ(22)、映像表示による報知を行う表示装置(21)及び光による報知を行う光源のうちの少なくとも一つを含む。
 第4の態様では、第1~第3のいずれかの態様の報知装置において、前記測距部は、カメラ、レーダ、LIDAR、及びナビゲーション機器のうちの少なくとも一つを含む。
 第5の態様では、第1~第4のいずれかの態様の報知装置において、前記物理信号は、赤外線、テラヘルツ波、ミリ波、マイクロ波、ラジオ波、及び超音波のうちの少なくとも1つを含む。
 第6の態様は、移動体(2)の周辺環境に存在する物体の検知結果に基づいて報知を行う報知方法である。本方法は、測距部(12)が、前記移動体から前記周辺環境までの距離を示す距離情報を取得するステップ(S1)と、制御部(13)が、前記距離情報に基づいて、前記周辺環境における死角を示す死角領域(R1)を検知するステップ(S2,S3)とを含む。本方法は、検出部(11)が、前記移動体から前記周辺環境又は前記死角領域に、波の特性を有する物理信号(Sa)を放射して、放射した物理信号の反射波を示す波動信号(Sb)を検出するステップ(S5)を含む。本方法は、前記制御部が、前記検出部の検出結果において、検知した死角領域から到達する波の成分を含んだ波動信号に基づいて、前記死角領域中の物体(4)を検知するステップ(S6)を含む。本方法は、前記制御部が、前記検知結果に基づいて、前記死角領域に関する危険の程度を示す第1危険度を判定するステップ(S7)を含む。本方法は、前記制御部が、前記距離情報に基づいて、前記死角領域以外の領域に関する危険の程度を示す第2危険度を判定するステップ(S207)を含む。本方法は、報知部(20)が、前記第1危険度及び前記第2危険度に応じた報知を行うステップ(S208)を含む。
 第7の態様は、第6の態様の報知方法を制御部に実行させるためのプログラムである。
  1 死角検知部
  2 自車両
  11 レーダ
  12 カメラ
  13 制御部
  14 記憶部
  15 ナビゲーション機器
  20 報知部
  100 報知装置

Claims (7)

  1.  移動体の周辺環境に存在する物体の検知結果に基づいて報知を行う報知装置であって、
     前記移動体から前記周辺環境に、波の特性を有する物理信号を放射して、放射した物理信号の反射波を示す波動信号を検出する検出部と、
     前記移動体から前記周辺環境までの距離を示す距離情報を取得する測距部と、
     前記距離情報に基づいて、前記周辺環境における死角を示す死角領域を検知し、前記検出部の検出結果において、検知した死角領域から到達する波の成分を含んだ波動信号に基づいて、前記死角領域の中の物体を検知する、制御部と、
     前記制御部の検知結果に応じた報知を行う報知部と
    を備え、
     前記制御部は、
       前記周辺環境において前記死角領域を検知したとき、検知した死角領域に向けて前記物理信号を放射するように、前記検出部を制御し、
       前記検知結果に基づいて、前記死角領域に関する危険の程度を示す第1危険度を判定し、かつ、
       前記距離情報に基づいて、前記死角領域以外の領域に関する危険の程度を示す第2危険度を判定し、
     前記報知部は、前記第1危険度及び前記第2危険度に応じた報知を行う
    報知装置。
  2.  前記報知部は、前記第1危険度と前記第2危険度とを比較し、高い方の危険度に応じた報知を行う
    請求項1に記載の報知装置。
  3.  前記報知部は、音による報知を行うスピーカ、映像表示による報知を行う表示装置及び光による報知を行う光源のうちの少なくとも一つを含む
    請求項1又は2に記載の報知装置。
  4.  前記測距部は、カメラ、レーダ、LIDAR、及びナビゲーション機器のうちの少なくとも一つを含む
    請求項1~3のいずれか1項に記載の報知装置。
  5.  前記物理信号は、赤外線、テラヘルツ波、ミリ波、マイクロ波、ラジオ波、及び超音波のうちの少なくとも1つを含む
    請求項1~4のいずれか1項に記載の報知装置。
  6.  移動体の周辺環境に存在する物体の検知結果に基づいて報知を行う報知方法であって、
     測距部が、前記移動体から前記周辺環境までの距離を示す距離情報を取得するステップと、
     制御部が、前記距離情報に基づいて、前記周辺環境における死角を示す死角領域を検知するステップと、
     検出部が、前記移動体から前記周辺環境又は前記死角領域に、波の特性を有する物理信号を放射して、放射した物理信号の反射波を示す波動信号を検出するステップと、
     前記制御部が、前記検出部の検出結果において、検知した死角領域から到達する波の成分を含んだ波動信号に基づいて、前記死角領域中の物体を検知するステップと、
     前記制御部が、前記検知結果に基づいて、前記死角領域に関する危険の程度を示す第1危険度を判定するステップと、
     前記制御部が、前記距離情報に基づいて、前記死角領域以外の領域に関する危険の程度を示す第2危険度を判定するステップと、
     報知部が、前記第1危険度及び前記第2危険度に応じた報知を行うステップと
    を含む報知方法。
  7.  請求項6の報知方法を制御部に実行させるためのプログラム。
PCT/JP2019/009938 2018-10-25 2019-03-12 報知装置及び報知方法 WO2020084805A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-201142 2018-10-25
JP2018201142A JP7028139B2 (ja) 2018-10-25 2018-10-25 報知装置及び報知方法

Publications (1)

Publication Number Publication Date
WO2020084805A1 true WO2020084805A1 (ja) 2020-04-30

Family

ID=70332212

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/009938 WO2020084805A1 (ja) 2018-10-25 2019-03-12 報知装置及び報知方法

Country Status (2)

Country Link
JP (1) JP7028139B2 (ja)
WO (1) WO2020084805A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115616660A (zh) * 2022-12-20 2023-01-17 广州海洋地质调查局三亚南海地质研究所 利用绕射波监测海域碳封存项目co2泄露情况的方法及装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022065672A (ja) * 2020-10-16 2022-04-28 株式会社システック 距離センサ装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015072636A (ja) * 2013-10-03 2015-04-16 トヨタ自動車株式会社 情報処理装置
JP2015230566A (ja) * 2014-06-04 2015-12-21 トヨタ自動車株式会社 運転支援装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012192878A (ja) 2011-03-17 2012-10-11 Toyota Motor Corp 危険度判定装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015072636A (ja) * 2013-10-03 2015-04-16 トヨタ自動車株式会社 情報処理装置
JP2015230566A (ja) * 2014-06-04 2015-12-21 トヨタ自動車株式会社 運転支援装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115616660A (zh) * 2022-12-20 2023-01-17 广州海洋地质调查局三亚南海地质研究所 利用绕射波监测海域碳封存项目co2泄露情况的方法及装置
CN115616660B (zh) * 2022-12-20 2023-05-19 广州海洋地质调查局三亚南海地质研究所 利用绕射波监测海域碳封存项目二氧化碳泄露情况的方法及装置

Also Published As

Publication number Publication date
JP7028139B2 (ja) 2022-03-02
JP2020067902A (ja) 2020-04-30

Similar Documents

Publication Publication Date Title
US9694736B2 (en) Vehicle state indication system
WO2019044185A1 (ja) 映像出力装置、映像生成プログラム、およびコンピュータ読み出し可能持続的有形記録媒体
JP7067400B2 (ja) 検知装置、移動体システム、及び検知方法
US9878659B2 (en) Vehicle state indication system
US9868389B2 (en) Vehicle state indication system
US20140118130A1 (en) Automobile warning method and automobile warning system utilizing the same
US8946990B1 (en) Vehicle headlight detection system
US20140354450A1 (en) Warning device
WO2020129485A1 (ja) 検知装置、移動体システム、及び検知方法
WO2015151507A1 (ja) レーダーモジュール、輸送機器、及び物体識別方法
CN210199309U (zh) 一种车辆雷达预警装置和车辆
JP7111181B2 (ja) 検知装置、移動体システム、及び検知方法
WO2020084805A1 (ja) 報知装置及び報知方法
JP2005352636A (ja) 車載の警報発生装置
JP7070307B2 (ja) 検知装置、移動体システム、及び検知方法
JP7063208B2 (ja) 検知装置、移動体システム、及び検知方法
CN113525401A (zh) 辅助汽车驾驶的预警方法及毫米波雷达系统
KR101360984B1 (ko) 레이더를 이용한 도로 장애물 탐지 시스템
KR20160132220A (ko) 자동차 사각지대 경보장치 및 그 방법
JP2015054603A (ja) 対象物検知装置
JP2018136713A (ja) ドライバの視界推定装置及び車両用制御装置
JP2001083244A (ja) 車両の側方障害物検出装置
KR101473983B1 (ko) 레이더 검출 장치 및 그 장치에서의 외부 차량 근접 경고음 발생 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19875221

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19875221

Country of ref document: EP

Kind code of ref document: A1