WO2020054108A1 - 検知装置、移動体システム、及び検知方法 - Google Patents

検知装置、移動体システム、及び検知方法 Download PDF

Info

Publication number
WO2020054108A1
WO2020054108A1 PCT/JP2019/009905 JP2019009905W WO2020054108A1 WO 2020054108 A1 WO2020054108 A1 WO 2020054108A1 JP 2019009905 W JP2019009905 W JP 2019009905W WO 2020054108 A1 WO2020054108 A1 WO 2020054108A1
Authority
WO
WIPO (PCT)
Prior art keywords
blind spot
detection
wave
unit
control unit
Prior art date
Application number
PCT/JP2019/009905
Other languages
English (en)
French (fr)
Inventor
圭記 松浦
昌之 小泉
宜崇 鶴亀
直毅 吉武
雄太郎 奥野
正樹 諏訪
知範 積
航一 木下
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Publication of WO2020054108A1 publication Critical patent/WO2020054108A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present disclosure relates to a detection device that detects a nearby object from a moving object, a moving object system including the detection device, and a detection method.
  • Patent Documents 1 and 2 A technology has been proposed that is mounted on a mobile object such as an automobile or an AGV (automatic guided vehicle) and monitors the periphery of the mobile object (for example, Patent Documents 1 and 2).
  • Patent Document 1 discloses an obstacle recognition device that recognizes an obstacle in front of a host vehicle.
  • the obstacle recognition device of Patent Document 1 includes a camera and a radar, detects a blind spot area with respect to the own vehicle, and based on the detected width of the blind spot area, an attribute of an obstacle that may exist in the blind spot area. Is estimated.
  • the obstacle recognition device causes the camera to search for the blind spot area when the attribute of the obstacle that may be present in the blind spot area is estimated to be a pedestrian, and determines that the attribute of the obstacle is another vehicle.
  • the blind spot area is searched by the radar.
  • Patent Document 2 discloses a vehicle environment estimating apparatus for accurately estimating a traveling environment around a host vehicle.
  • the vehicle environment estimating device of Patent Literature 2 detects the behavior of another vehicle in the vicinity of the own vehicle, and estimates the presence of another vehicle traveling in a blind spot area from the own vehicle based on the behavior of the vehicle. .
  • the vehicle traveling environment that cannot be recognized by the host vehicle but can be recognized by other surrounding vehicles is estimated.
  • Patent Literature 1 determines whether an obstacle that may be present in a detected blind spot area is a pedestrian or a vehicle based on each of the existence probabilities set in advance in association with the width of the blind spot area. , Estimates. According to the related arts such as Patent Literatures 1 and 2, it is difficult to detect an object existing in a blind spot from a moving body in a surrounding environment.
  • An object of the present disclosure is to provide a detection device, a detection method, and a moving object system that can detect an object existing in a blind spot in a surrounding environment from a moving object.
  • a detection device is a detection device that detects an object existing in a blind spot in a surrounding environment of a moving object.
  • the detection device includes a detection unit, a distance measurement unit, and a control unit.
  • the detection unit emits a physical signal having wave characteristics from the moving body to the surrounding environment, and detects a wave signal indicating a reflected wave of the emitted physical signal.
  • the distance measuring unit detects distance information indicating a distance from a moving object to a surrounding environment.
  • the control unit analyzes the detection result of the detection unit.
  • the control unit detects a blind spot area indicating a blind spot in the surrounding environment based on the detection result of the distance measuring unit, and based on a wave signal including a component of a wave arriving from the detected blind spot area in the detection result of the detection unit. Then, an object in the blind spot area is detected.
  • a mobile body system includes the above detection device, and a control device that controls the mobile body based on a detection result of the detection device.
  • the detection method is a detection method for detecting an object existing in a blind spot in a surrounding environment of a moving object.
  • the distance measurement unit detects distance information indicating a distance from the moving object to the surrounding environment
  • the control unit determines a blind spot area indicating a blind spot in the surrounding environment based on a detection result of the distance measurement unit.
  • Detecting includes a step in which the detection unit emits a physical signal having wave characteristics from the moving object to the surrounding environment, and detects a wave signal indicating a reflected wave of the emitted physical signal.
  • the method includes a step of the control unit detecting an object in the blind spot area based on a wave signal including a component of a wave arriving from the detected blind spot area in the detection result of the detection unit.
  • the detection device the moving object system, and the detection method according to the present disclosure, it is possible to detect an object existing in a blind spot in the surrounding environment from the moving object.
  • Diagram for explaining an application example of the detection device according to the present disclosure 1 is a block diagram illustrating a configuration of a mobile system according to a first embodiment of the present disclosure.
  • FIG. 4 is a diagram for explaining the operation of the detection device according to the first embodiment.
  • FIG. 7 illustrates a case where there is a blind spot object in the experiment of FIG. 7.
  • 4 is a flowchart illustrating a blind spot object detection process performed by the detection device.
  • the flowchart which illustrates the judgment process of the danger degree by a detection apparatus
  • the figure for explaining the judgment processing of the degree of danger by the detection device Diagram for explaining a modification of the operation of the detection device
  • FIG. 1 is a diagram for describing an application example of the detection device 1 according to the present disclosure.
  • the detection device 1 is applicable to, for example, in-vehicle use, and constitutes a mobile body system in a mobile body such as an automobile.
  • FIG. 1 illustrates a running state of a vehicle 2 on which the detection device 1 is mounted.
  • the mobile system according to the application example monitors, for example, the surrounding environment that changes around the own vehicle 2 that is traveling using the detection device 1.
  • the surrounding environment includes, for example, structures such as buildings and electric poles existing around the vehicle 2 and various objects such as moving objects such as pedestrians and other vehicles.
  • the range that can be monitored from the host vehicle 2 is blocked by the wall 31 of the structure near the intersection 3, and a blind spot occurs.
  • the blind spot indicates a location that cannot be directly viewed geometrically from a moving object such as the host vehicle 2 in accordance with the surrounding environment.
  • another vehicle 4 approaching the intersection 3 from a side road exists in a blind spot region R1 which is a blind spot from the own vehicle 2.
  • the detection device 1 utilizes the propagation characteristics of the wave in the signal physically used in the radar or the like to detect an object (hereinafter, referred to as a “blind spot ) May be detected.
  • a blind spot an object
  • the detection device 1 utilizes the propagation characteristics of the wave in the signal physically used in the radar or the like to detect an object (hereinafter, referred to as a “blind spot ) May be detected.
  • FIG. 2 is a block diagram illustrating the configuration of the present system.
  • This system includes the detection device 1 and the vehicle control device 20 as illustrated in FIG.
  • the detection device 1 of the present embodiment includes a radar 11, a camera 12, and a control unit 13. Further, for example, the detection device 1 includes a storage unit 14, a navigation device 15, and an in-vehicle sensor 16.
  • the vehicle control device 20 includes various in-vehicle devices mounted on the host vehicle 2, and is used for, for example, driving assistance or automatic driving.
  • the radar 11 includes, for example, a transmitter 11a, a receiver 11b, and a radar control circuit 11c.
  • the radar 11 is an example of a detection unit according to the present embodiment.
  • the radar 11 is installed on, for example, a front grill or a windshield of the host vehicle 2 so as to transmit and receive signals forward (see FIG. 1) in the traveling direction of the host vehicle 2.
  • the transmitter 11a includes, for example, an antenna having a variable directivity (a phased array antenna or the like), a transmission circuit that causes the antenna to externally transmit the physical signal Sa, and the like.
  • the physical signal Sa includes, for example, at least one of a millimeter wave, a microwave, a radio wave, and a terahertz wave.
  • the receiver 11b includes, for example, an antenna having variable directivity, and a receiving circuit that receives the wave signal Sb from outside using the antenna.
  • the wave signal Sb is set in the same wavelength band as the physical signal Sa so as to include the reflected wave of the physical signal Sa.
  • the transmitter 11a and the receiver 11b may use a common antenna, for example, or may be configured integrally.
  • the radar control circuit 11c controls transmission and reception of signals by the transmitter 11a and the receiver 11b.
  • the radar control circuit 11c starts transmission and reception of signals by the radar 11 and controls the direction in which the physical signal Sa is emitted from the transmitter 11a, for example, by a control signal from the control unit 13. Further, the radar control circuit 11c causes the transmitter 11a to emit a physical signal Sa to the surrounding environment, and detects a wave signal Sb indicating a reflected wave of the physical signal Sa in the reception result of the receiver 11b.
  • the radar 11 operates according to a modulation method such as a CW (continuous wave) method or a pulse method, and measures the distance, azimuth, speed, and the like of an external object.
  • the CW method includes a two-wave CW method, an FM-CW method, a spread spectrum method, and the like.
  • the pulse method may be a pulse Doppler method, or pulse compression of a chirp signal or pulse compression of a PN sequence may be used.
  • the radar 11 uses, for example, coherent phase information control.
  • the radar 11 may use an incoherent method.
  • the camera 12 is installed at a position where, for example, the range in which the physical signal Sa can be radiated from the radar 11 in the own vehicle 2 can be imaged.
  • the camera 12 is installed on a windshield or the like of the host vehicle 2 toward the front of the host vehicle 2 (see FIG. 1), for example.
  • the blind spot in the detection device 1 may be based on the installation position of the camera 12 as a geometric reference or based on the installation position of the radar 11.
  • the camera 12 captures an external image from the installation position and generates a captured image.
  • the camera 12 outputs image data indicating the captured image to the control unit 13.
  • the camera 12 is, for example, an RGB-D camera, a stereo camera, or a range image sensor.
  • the camera 12 is an example of a distance measuring unit (or a monitoring unit) in the present embodiment.
  • the control unit 13 includes a CPU, a RAM, a ROM, and the like, and controls each component according to information processing.
  • the control unit 13 is configured by, for example, an ECU (electronic control unit).
  • the control unit 13 expands the program stored in the storage unit 14 on the RAM, and interprets and executes the program expanded on the RAM by the CPU.
  • the control unit 13 implements a blind spot estimation unit 131, a blind spot object measurement unit 132, and a risk determination unit 133. Each of the units 131 to 133 will be described later.
  • the storage unit 14 stores programs executed by the control unit 13, various data, and the like.
  • the storage unit 14 stores structure information D1 described below.
  • the storage unit 14 includes, for example, a hard disk drive or a solid state drive. Further, the RAM and the ROM may be included in the storage unit 14.
  • the above-mentioned programs and the like may be stored in a portable storage medium.
  • the storage medium stores the information such as the program by an electrical, magnetic, optical, mechanical or chemical action so that the computer or the like can read the information such as the recorded program by a machine or the like.
  • the detection device 1 may acquire a program or the like from the storage medium.
  • the navigation device 15 is an example of a distance measuring unit (monitoring unit) including a memory for storing map information and a GPS receiver, for example.
  • the in-vehicle sensors 16 are various sensors mounted on the host vehicle 2, and include, for example, a vehicle speed sensor, an acceleration sensor, a gyro sensor, and the like.
  • the on-vehicle sensor 16 detects the speed, acceleration, angular velocity, and the like of the vehicle 2.
  • the detection device 1 is not limited to the above configuration.
  • the detection device 1 may not include the navigation device 15 and the vehicle-mounted sensor 16.
  • the control unit 13 of the detection device 1 may be configured by a plurality of hardware resources that execute the units 131 to 133 separately.
  • the control unit 13 may be configured by various semiconductor integrated circuits such as a CPU, an MPU, a GPU, a microcomputer, a DSP, an FPGA, and an ASIC.
  • the vehicle control device 20 is an example of a control device of the mobile system according to the present embodiment.
  • the vehicle control device 20 includes, for example, a vehicle drive unit 21 and an alarm 22.
  • the vehicle drive unit 21 is configured by, for example, an ECU, and controls driving of each unit of the host vehicle 2.
  • the vehicle drive unit 21 controls the brake of the own vehicle 2 to realize automatic braking.
  • the notifier 22 notifies the user of various kinds of information by images or sounds.
  • the alarm 22 is a display device such as a liquid crystal panel or an organic EL panel mounted on the vehicle 2.
  • the alarm 22 may be an audio output device that outputs an alarm or the like by audio.
  • the mobile system operates the detection device 1 so as to monitor the surrounding environment, for example, while the own vehicle 2 is operating.
  • the vehicle control device 20 of the present system performs various controls for driving support of the own vehicle 2 or automatic driving based on the detection result by the detection device 1.
  • the detection device 1 of the present embodiment captures an image around the own vehicle 2 with the camera 12, for example, and monitors the surrounding environment of the own vehicle 2.
  • the blind spot estimation unit 131 of the detection device 1 sequentially detects, for example, the presence or absence of an area where a blind spot is estimated in the current surrounding environment, based on distance information indicating various distances in the monitoring result.
  • the blind spot object measurement unit 132 uses the radar 11 to measure the internal state of the blind spot region R1. Since the physical signal Sa radiated from the radar 11 of the own vehicle 2 has a wave-like property, the physical signal Sa causes multiple reflections or diffractions to reach the blind spot object 4 in the blind spot area R1, and furthermore, the physical signal Sa is transmitted to the own vehicle 2. It is thought that the propagation of returning to may occur.
  • the detection method of the present embodiment detects the blind spot object 4 by utilizing the wave propagating as described above.
  • the danger determining unit 133 determines the danger of the blind spot object 4 that can be included in the blind spot area R1 based on the measurement result of the blind spot object measurement unit 132.
  • the degree of danger relates to, for example, the possibility that the blind spot object 4 and the vehicle 2 may collide.
  • the present system when the detection device 1 determines the degree of danger that requires a warning, the present system notifies the driver or the like by the annunciator 22 or increases the safety of the automatic braking or the like by the vehicle drive unit 21. Or vehicle control of the vehicle. Details of the operation of the detection device 1 in the present system will be described below.
  • FIG. 3 is a flowchart for explaining the operation of the detection device 1 according to the present embodiment. Each process shown in the flowchart of FIG. 3 is executed by the control unit 13 of the detection device 1. This flowchart is started at a predetermined cycle while the vehicle 2 is operating, for example.
  • the control unit 13 acquires one or more frames of captured images from the camera 12 (S1).
  • the control unit 13 may acquire a distance image as a captured image, or may generate a distance image based on the acquired captured image.
  • the distance image is an example of distance information indicating various distances for monitoring the surrounding environment.
  • control unit 13 performs image analysis on the acquired captured image (S2), and generates structural information D1 relating to the current surrounding environment of the own vehicle 2.
  • the structure information D1 is information indicating various object structures in the surrounding environment, and includes, for example, distances to various structures.
  • the control unit 13 also operates as the blind spot estimation unit 131 in step S2, and performs image analysis for detecting a blind spot in the acquired captured image.
  • FIG. 4 illustrates an image to be analyzed in step S2.
  • FIG. 4 shows, for example, an image taken from the host vehicle 2 as a distance image (S1), and shows walls 31 and 32 formed by a plurality of structures near the intersection 3.
  • a blind spot region R1 is present behind the wall 31 due to the shielding of the wall 31 near the host vehicle 2.
  • a wall 32 on the back side of the blind spot area R1 faces the host vehicle 2.
  • the wall 31 is referred to as a “shielding wall”
  • the wall 32 is referred to as an “opposing wall”.
  • a boundary between the blind spot region R1 and the outside is formed between the shielding wall 31 and the opposing wall 32 (see FIG. 1).
  • step S ⁇ b> 2 the control unit 13 extracts the distance values of the various walls 31 and 32 in the distance image for each pixel as the structure information D ⁇ b> 1 and stores the extracted values in the storage unit 14.
  • the distance value in the case of FIG. 4 changes continuously from the end of the shielding wall 31 to the opposing wall 32 while continuously changing from the own vehicle 2 side by the shielding wall 31 along the direction d1. Will be done.
  • the control unit 13 analyzes the change in the distance value as described above, and can estimate the existence of the blind spot region R1.
  • control unit 13 as the blind spot estimating unit 131 determines whether or not the blind spot region R1 is detected in the current surrounding environment of the own vehicle 2 according to, for example, an estimation result by image analysis (S3).
  • S3 an estimation result by image analysis
  • the control unit 13 determines that the blind spot area R1 has been detected (YES in S3), the control unit 13 executes the processing as the blind spot object measurement unit 132 (S4 to S6).
  • the processing as the blind spot object measurement unit 132 S4 to S6.
  • a processing example of the blind spot object measurement unit 132 that measures the blind spot object 4 in the blind spot region R1 by utilizing the multiple reflected waves in the wave signal Sb of the radar 11 will be described below.
  • FIGS. 5A and 5B illustrate the propagation path of the physical signal Sa in step S4 when there is no blind spot object 4 and when there is a blind spot object 4, respectively.
  • step S4 the control unit 13 causes the radar 11 to emit the physical signal Sa to the opposing wall 32 near the boundary of the blind spot region R1 based on, for example, the analysis result of FIG.
  • the physical signal Sa from the radar 11 of the own vehicle 2 is repeatedly reflected between the opposed wall 32 and the opposite wall 35 via the blind spot region R1 on the side road, and a multiple reflected wave is formed. Propagating as In the example of FIG. 5A, the multiple reflected wave does not come toward the own vehicle 2 in response to the absence of the blind spot object 4.
  • the physical signal Sa from the radar 11 is reflected not only on the walls 32 and 33 but also on the blind spot object 4 to the own vehicle 2. It can be a forward reflected multiple reflected wave Rb1. Therefore, the wave signal Sb received by the radar 11 includes the signal component of the multiple reflection wave Rb1 having information on the blind spot object 4.
  • step S4 the radar 11 emits the physical signal Sa and receives the wave signal Sb, and performs various measurements based on the reflected wave of the physical signal Sa.
  • the control unit 13 acquires a measurement result from the radar 11 (S5).
  • the controller 13 performs a blind spot object detection process based on the measurement result of the radar 11 (S6).
  • the signal component of the multiple reflected wave Rb1 (FIG. 5B) has information according to the velocity of the reflection source blind spot object 4 and the length of the propagation path by Doppler shift, phase and propagation time.
  • the blind spot object detection process (S6), the speed and position of the blind spot object 4 that has reflected the multiple reflected wave Rb1 are detected by analyzing such signal components. Details of the process in step S6 will be described later.
  • the control unit 13 operates as the risk determination unit 133, and performs a risk determination process based on the detection result of the blind spot object 4 (S6) (S7).
  • the risk determination process for example, the necessity of a warning is determined in accordance with the risk of the blind spot object 4 approaching the vehicle 2 based on the detected position and speed.
  • the risk may be determined using the information in step S7. Details of the processing in step S7 will be described later.
  • control unit 13 outputs various control signals to the vehicle control device 20 according to the determination result of the degree of risk (S7) (S8). For example, when it is determined in step S7 that a warning is required, the control unit 13 generates a control signal for causing the alarm unit 22 to notify the warning and controlling the vehicle driving unit 21.
  • the control unit 13 outputs, for example, a control signal (S8), and ends the processing shown in the flowchart of FIG.
  • the detecting device 1 while detecting the surroundings of the vehicle 2 (S1 to S3) and detecting a blind spot (YES in S3), the detecting device 1 detects the blind spot object 4 (S6), and An action can be performed (S8).
  • the camera 12 is used for monitoring the periphery, but the navigation device 15 may be used.
  • This modification is shown in FIG.
  • the navigation device 15 calculates various distances to the host vehicle 2 based on the map information D2 of the surrounding environment of the host vehicle 2 and monitors the current position of the host vehicle 2.
  • the control unit 13 can use the monitoring result of the navigation device 15 as described above for various processes in FIG.
  • the control unit 13 can acquire the structural information D1 or detect the blind spot region R1 based on the monitoring result of the navigation device 15, for example, based on the structure 30 in the map information D2 (S2).
  • the control unit 13 may use the detection result of the vehicle-mounted sensor 16 as appropriate in the processing of FIG.
  • FIG. 7 is a diagram for describing an experiment of a blind spot object detection process.
  • FIG. 7A shows the structure information D1 of the experiment environment of this experiment.
  • FIG. 7B shows a measurement result of the radar 11 when there is no blind spot object 4.
  • FIG. 8 is a diagram illustrating a case where there is a blind spot object in the experiment of FIG.
  • FIG. 8A shows a measurement result of the radar 11 when the blind spot object 4 is present.
  • FIG. 8B illustrates a propagation path of a multiple reflection wave estimated from the blind spot object 4.
  • the peak P4 is mainly a component reflected from the blind spot object 4 through reflection by the opposing wall 32 (see FIG. 8B). That is, it was confirmed that the peak P4 having the blind spot object 4 as a wave source can be detected based on the distance and the azimuth to the peak P4 in the measurement result of the radar 11.
  • the presence / absence, position, and the like of the blind spot object 4 can be detected more accurately by using the structural information of the surrounding environment.
  • an example of a blind spot object detection process according to the present embodiment will be described with reference to FIG.
  • FIG. 9 is a flowchart illustrating a blind spot object detection process according to the present embodiment. The process according to the flowchart in FIG. 9 is executed by the control unit 13 operating as the blind spot object measurement unit 132 in step S6 in FIG.
  • control unit 13 extracts an environmental component indicating a reflected wave from the surrounding environment from the signal of the measurement result of the radar 11 acquired in step S5 of FIG. It is removed (S11).
  • the process in step S11 is performed using, for example, the structure information acquired in step S2.
  • each of the peaks P1, P2, and P3 in the example of FIG. 7B is an environmental component indicating a reflected wave from the corresponding wall 31, 32, or 33 in the passage structure information D1 (FIG. 7B).
  • the control unit 13 predicts reflected waves from various structures with reference to the structure information D1, and subtracts the environmental component of the prediction result from the measurement result (for example, FIG. 8A) of the radar 11 (S11).
  • the measurement result for example, FIG. 8A of the radar 11 (S11).
  • control unit 13 performs signal analysis for detecting the blind spot object 4 based on the signal component obtained by removing the environmental component (S12).
  • the signal analysis in step S12 may include various types of analysis such as frequency analysis, analysis on the time axis, spatial distribution, and signal strength.
  • the control unit 13 determines whether a wave source is observed, for example, beyond the blind spot facing the opposite wall 32 based on the analysis result of the signal analysis (S13), and thereby detects the presence or absence of the blind spot object 4. .
  • the peak P ⁇ b> 4 has a wave source on the far side of the passage than the opposing wall 32 and is located at a position that is not predicted as an environmental component from the structure of the passage. From this, it can be presumed that the peak P4 is caused by multiple reflection of a wave whose source is inside the blind spot. That is, when the reflected wave is observed at a distance exceeding the facing wall 32 in the direction of the detected blind spot, the control unit 13 can determine that the blind spot object 4 is present (YES in step S13).
  • the control unit 13 determines that the wave source is observed beyond the opposite wall 32 in the blind spot (YES in S13), the distance to the blind spot object 4 and the distance to the blind spot object 4 are determined according to the propagation path in which the bending due to the multiple reflection is estimated.
  • Various state variables such as speed are measured (S14).
  • the control unit 13 uses the information indicating the width of the blind spot portion (the width of the blind spot region R1) in the structural information D1, thereby, for example, as shown in FIG. By correcting the path length so as to be folded, the position of the blind spot object 4 closer to the actual position can be calculated.
  • step S6 in FIG. 3 ends. After that, the control unit 13 executes a risk determination process (S7 in FIG. 3) for the detected blind spot object 4.
  • control unit 13 determines that the wave source is not observed beyond the opposite wall 32 in the blind spot (NO in S13), the control unit 13 ends this processing without performing any surveying. In this case, the control unit 13 may omit the processing after step S7 in FIG.
  • the blind spot object 4 can be detected using the signal component generated inside the blind spot area R1 based on the property of the multiple reflection in the physical signal Sa of the radar 11.
  • the signal component having information on the blind spot object 4 is weak, and it is detected in the presence of a reflected wave from a visible object outside the blind spot. Therefore, it is considered that detection and estimation are difficult.
  • the actual distance to the blind spot object 4 is different from the length of the signal propagation path, it may be difficult to estimate the actual distance.
  • the structure information D1 of the surrounding environment it is possible to narrow down the preconditions for analyzing the received wave (S11) and to improve the estimation accuracy (S14).
  • the control unit 13 refers to the distance to the intersection near the blind spot in the structure information D1, and removes the signal component of the received wave obtained within a round trip propagation time of the signal with respect to the linear distance to the intersection. .
  • a received wave is a directly reflected wave (ie, a single reflected wave) and does not include information on the blind spot object 4, and thus can be excluded from the analysis target.
  • the control unit 13 can also separate the reflected wave coming from the blind spot from the reflected wave coming from another angle based on the azimuth angle of the blind spot viewed from the host vehicle 2.
  • step S11 does not necessarily need to use the structure information D1 of the surrounding environment.
  • the control unit 13 may limit the analysis target to a moving object by subtracting the position change of the own vehicle 2 from the signal obtained along the time axis. This processing may be performed in the signal analysis of step S12.
  • the control unit 13 determines whether the signal component to be analyzed has a feature that appears due to the behavior of a specific object, such as Doppler shift due to reflection on a moving object, or fluctuation of a behavior peculiar to a human or a bicycle. Whether or not it may be analyzed. In addition, the control unit 13 determines whether the spatially distributed surface measurement signal distribution has a characteristic distribution of an automobile, a bicycle, a human, or the like, or includes a reflection from a metal object of an automobile size depending on the reflection intensity. Or the like may be analyzed. The above analysis may be performed in combination as appropriate, or may be analyzed as a multidimensional feature using machine learning instead of explicitly analyzing each.
  • FIG. 10 is a flowchart illustrating an example of a risk determination process.
  • FIG. 11 is a diagram for explaining the risk determination process. The process according to the flowchart in FIG. 10 is executed by the control unit 13 that operates as the risk determination unit 133 in step S7 in FIG.
  • the control unit 13 calculates the risk index D based on the detection result of the blind spot object 4 in step S6 (S21).
  • the risk index D indicates an index for determining the risk of a collision between the detected blind spot object 4 and the host vehicle 2. For example, as shown in FIG. 11, the speed v 1 of blind spot object 4 approaches the own vehicle 2 can be set to risk index D.
  • the control unit 13 determines whether the calculated risk index D exceeds the threshold value Va, for example, using a preset threshold value Va (S22).
  • the controller 13 determines that the risk index D exceeds the threshold value Va (YES in S22)
  • the controller 13 sets, for example, a warning flag to “ON” as a risk determination result (S23).
  • the warning flag is a flag that manages the presence / absence of a warning regarding the blind spot object 4 by “ON / OFF”, and is stored in the storage unit 14.
  • control unit 13 determines that the risk index D does not exceed the threshold value Va (NO in S22), it sets the warning flag to “OFF” (S24).
  • control unit 13 ends the risk determination process (S7 in FIG. 3) and proceeds to the process of step S8.
  • the risk of the blind spot object 4 approaching the own vehicle 2 or the intersection 3 is determined according to the corresponding risk index D. For example, a binary determination according to the warning flag is performed.
  • the control unit 13 can cause the alarm 22 to warn or cause the vehicle drive unit 21 to perform specific control (S8 in FIG. 3).
  • the risk determination process is not limited to the binary determination.
  • a ternary determination for determining whether or not a warning is issued when a warning is unnecessary may be performed.
  • the control unit 13 may determine whether D> Vb when proceeding to “NO” in step S22, using the alert threshold value Vb ( ⁇ Va).
  • risk index D is not limited to the speed v 1, can be set by various state variables related to the blind spot object 4, for example, instead of the velocity v 1 may be set to the acceleration dv 1 / dt.
  • the risk index D may be set by a combination of various state variables.
  • An example of such a risk index D is shown in the following equation (1).
  • D
  • L 1 is the distance from the reference position P0 to the blind spot object 4 ( Figure 11).
  • the reference position P0 is set to a position where a collision between the blind spot object 4 and the vehicle 2 is assumed, such as the center of an intersection.
  • ⁇ t is a predetermined time width, and is set, for example, in the vicinity of a time width expected to take until the host vehicle 2 reaches the reference position P0.
  • L 0 is the distance from the reference position P 0 to the host vehicle 2.
  • v 0 is the speed of the vehicle 2 and can be obtained from the on-board sensor 16 or the like.
  • the risk index D in the above equation (1) is the sum of the distance between the blind spot object 4 and the reference position P0 and the distance between the reference position P0 and the host vehicle 2, which are estimated after the elapse of the time width ⁇ t ( (FIG. 11).
  • the risk index D may be set as in the following Expression (2) or Expression (2 ′).
  • D L 1 ⁇ v 1 ⁇ t (2)
  • D
  • ⁇ t L 0 / v 0 is set.
  • the time width ⁇ t may be set within an allowable range in consideration of a change in the speed v 0 of the host vehicle 2 or an estimation error of the reference position P0.
  • the control unit 13 determines the degree of risk in the same manner as in the case of Expression (1) using the risk index D of Expression (2) or Expression (2 ′). Can be.
  • the threshold value Va may be dynamically changed according to the states of the host vehicle 2 and the blind spot object 4. For example, small or is L 0 as described above, large or the dv 0 / dt or dv 1 / dt, or if the blind spot object 4 is presumed to humans, is considered to be a determination of the risk more strictly. Therefore, when such a case is detected, the control unit 13 may increase the threshold value Va with respect to the risk index D of the above equation (1), for example.
  • the detection device 1 detects the blind spot object 4 existing in the blind spot in the surrounding environment of the own vehicle 2 which is an example of the moving object.
  • the detection device 1 includes a radar 11 as a detection unit, a camera 12 as a distance measurement unit, and a control unit 13.
  • the radar 11 emits a physical signal Sa having wave characteristics from the host vehicle 2 to the surrounding environment, and detects a wave signal Sb indicating a reflected wave of the emitted physical signal Sa.
  • the camera 12 detects distance information indicating the distance from the host vehicle 2 to the surrounding environment.
  • the control unit 13 analyzes the detection result of the radar 11.
  • the control unit 13 detects a blind spot region R1 indicating a blind spot in the surrounding environment based on the detection result of the camera 12 (S2, S3), and in the detection result of the radar 11, a multiple reflected wave reaching from the detected blind spot region R1.
  • the blind spot object 4 in the blind spot area R1 is detected based on the wave signal including the component of Rb1 (S6).
  • the object existing in the blind spot in the surrounding environment can be detected from the host vehicle 2 by utilizing the characteristics of the wave in the physical signal Sa from the radar 11.
  • Waves to be used are not limited to multiple reflection waves, and may include diffracted waves or transmitted waves.
  • the control unit 13 controls the radar 11 to emit the physical signal Sa toward the detected blind spot region R1 (S4).
  • the physical signal Sa from the radar 11 does not necessarily need to be concentrated in the blind spot area Ra.
  • the physical signal Sa may be radiated as appropriate within a range that the radar 11 can detect.
  • the detection device 1 of the present embodiment further includes a storage unit 14 that stores structure information D1 indicating the object structure of the surrounding environment.
  • the control unit 13 detects the blind spot object 4 by analyzing the wave signal including the component of the wave arriving from the blind spot region R1 in the detection result of the radar 11 with reference to the structure information D1 (S6). By using the structure information D1, the detection of the blind spot object 4 can be performed with high accuracy.
  • the control unit 13 generates the structure information D1 based on the detection result of the camera 12, and stores it in the storage unit 14 (S2).
  • the blind spot object 4 can be accurately detected by sequentially generating the structure information D1.
  • the control unit 13 determines the degree of risk relating to the blind spot region R1 based on the detection result of the blind spot object 4 (S6) (S7).
  • the degree of danger for example, it is possible to easily avoid a collision or the like at the intersection of the own vehicle 2 and the blind spot object 4.
  • the mobile system includes the detection device 1 and the vehicle control device 20.
  • the vehicle control device 20 executes various controls in the own vehicle 2 such as the annunciator 22 and the vehicle drive unit 21 based on the detection result of the detection device 1.
  • the moving body system can detect an object existing in the blind spot in the surrounding environment from the moving body by the detection device 1.
  • the detection method is a detection method for detecting a blind spot object 4 existing in a blind spot in the surrounding environment of the vehicle 2.
  • the method includes a step S1 in which the camera 12 detects distance information indicating a distance from the host vehicle 2 to the surrounding environment, and a step in which the control unit 13 determines a blind spot in the surrounding environment based on the detection result of the camera 12. Steps S2 and S3 for detecting R1 are included.
  • the method includes a step S5 in which the radar 11 emits a physical signal Sa from the vehicle 2 to the surrounding environment and detects a wave signal Sb indicating a reflected wave of the emitted physical signal Sa.
  • the control unit 13 detects the blind spot object 4 in the blind spot area R1 based on the wave signal Sb including the detected wave component Sb1 arriving from the blind spot area R1 in the detection result of the radar 11.
  • S6 is included.
  • a program for causing the control unit 13 to execute the above detection method is provided.
  • an object existing in a blind spot in the surrounding environment can be detected from a moving object such as the host vehicle 2.
  • the multiple reflected waves are used for detecting the blind spot object 4.
  • the present invention is not limited to the multiple reflected waves, and for example, a diffracted wave may be used. This modification will be described with reference to FIG.
  • the physical signal Sa from the radar 11 is diffracted on the shielding wall 31 and reaches the blind spot object 4.
  • the reflected wave from the blind spot object 4 is diffracted on the shielding wall 31 and returns to the host vehicle 2 as a diffracted wave Sb2.
  • the control unit 13 of the present embodiment controls the wavelength and the azimuth of the physical signal Sa radiated from the radar 11 so that the wraparound occurs at the shielding wall 31 in step S4 of FIG.
  • the signal can reach even a region that cannot be reached geometrically with visible light or the like having high linearity due to the presence of various shields. .
  • the signal is transmitted not only in a completely reflective path but also in a direction in which the radiated own vehicle 2 exists. reflect. Such a reflected wave causes the diffraction phenomenon to propagate to the shielding wall 31, so that the radar 11 can receive the diffracted wave Sb ⁇ b> 2 as a signal component to be analyzed.
  • the signal component of the diffracted wave Sb2 has information on the propagation path to the blind spot object 4 and Doppler information according to the moving speed. Therefore, by analyzing the signal components, the position and velocity of the blind spot object 4 can be measured from the information on the propagation time, phase, and frequency of the signal components, as in the first embodiment. At this time, the propagation path of the diffracted wave Sb2 can also be estimated from the distance to the shielding wall 31 or various types of structural information D1. Further, a propagation path in which multiple reflection and diffraction are combined can be appropriately estimated, and a signal component of such a wave may be analyzed.
  • FIG. 13 is a flowchart for explaining a modification of the detection device 1.
  • the detection device 1 according to the first embodiment monitors the periphery using the camera 12 (S1 to S3 in FIG. 3).
  • the detection device 1 of the present modification performs the same peripheral monitoring by the radar 11 as in S1 to S3 of FIG. 3 (S1A to S3A).
  • the radar 11 of the present modified example is an example of an integrated distance measuring unit and detecting unit.
  • the control unit 13 performs switching control of, for example, the band of the radar 11, and uses a band that easily turns around at the blind spot (S4A). In this case, a signal analysis utilizing the diffracted wave is performed in step S6.
  • steps S1A to S3A the resolution in monitoring the periphery of the radar 11 can be improved by using a band having high linearity.
  • the radar 11 has been described as an example of the detection unit.
  • the detection unit of the present embodiment is not limited to the radar 11, and may be, for example, LIDAR.
  • the physical signal Sa emitted from the detection unit may be, for example, infrared light.
  • the detection unit may be a sonar, and may emit an ultrasonic wave as the physical signal Sa. In these cases, the wave signal Sb received by the detection unit is set in the same manner as the corresponding physical signal Sa.
  • the example in which the radar 11 and the camera 12 are installed toward the front of the vehicle 2 has been described, but the installation positions of the radar 11 and the like are not particularly limited.
  • the radar 11 and the like may be arranged toward the rear of the vehicle 2 and, for example, the mobile system may be used for parking assistance.
  • the moving body on which the detection device 1 is mounted is not particularly limited to an automobile, and may be, for example, an AGV.
  • the detection device 1 may monitor the periphery when the AGV automatically travels, and may detect an object in a blind spot.
  • a first aspect according to the present disclosure is a detection device (1) that detects an object existing in a blind spot in a surrounding environment of a moving object (2).
  • the detection device includes a detection unit (11), a distance measurement unit (12), and a control unit (13).
  • the detection unit emits a physical signal (Sa) having wave characteristics from the moving body to the surrounding environment, and detects a wave signal (Sb) indicating a reflected wave of the emitted physical signal.
  • the distance measuring unit detects distance information indicating a distance from the moving body to a surrounding environment.
  • the control unit analyzes a detection result of the detection unit.
  • the control unit detects a blind spot region (R1) indicating a blind spot in the surrounding environment based on the detection result of the distance measuring unit (S2, S3), and, based on the detection result of the detection unit, The object (4) in the blind spot area is detected based on the wave signal including the component of the arriving wave (S6).
  • the control unit when the control unit detects the blind spot area in the surrounding environment, the control unit emits the physical signal toward the detected blind spot area.
  • the section is controlled (S4).
  • a storage unit (14) for storing structure information (D1) indicating an object structure of the surrounding environment is further provided.
  • the control unit refers to the structure information, analyzes a wave signal including a wave component arriving from the blind spot area in a detection result of the detection unit, and detects an object in the blind spot area (S6). .
  • control unit in the detection device according to the third aspect, the control unit generates the structural information based on a detection result of the distance measuring unit and stores the structural information in the storage unit (S2).
  • the control unit determines a degree of risk related to the blind spot area based on a detection result of an object in the blind spot area (S7). ).
  • the distance measuring unit includes at least one of a camera, a radar, a LIDAR, and a navigation device.
  • the physical signal includes at least one of infrared rays, terahertz waves, millimeter waves, microwaves, radio waves, and ultrasonic waves. Including.
  • An eighth aspect is a mobile system including the detection device according to any one of the first to seventh aspects and a control device (20).
  • the control device controls the moving body based on a detection result of the detection device.
  • a ninth aspect is a detection method for detecting an object existing in a blind spot in a surrounding environment of a moving object (2).
  • a distance measuring unit (12) detects distance information indicating a distance from the moving body to a surrounding environment (S1), and a control unit (13) performs a process based on a detection result of the distance measuring unit.
  • S2, S3 detecting a blind spot area (R1) indicating a blind spot in the surrounding environment.
  • the detection unit (11) radiates a physical signal (Sa) having wave characteristics from the moving body to the surrounding environment, and generates a wave signal (Sb) indicating a reflected wave of the radiated physical signal.
  • the detecting step (S5) is included.
  • the control unit may detect an object (4) in the blind spot area based on a wave signal including a wave component arriving from the detected blind spot area in the detection result of the detection unit ( S6).
  • 10A tenth aspect is a program for causing a control unit to execute the detection method according to the ninth aspect.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

検知装置(1)は、移動体(2)の周辺環境における死角に存在する物体を検知する検知装置である。検知装置は、検出部(11)と、測距部(12)と、制御部(13)とを備える。検出部は、移動体から周辺環境に、波の特性を有する物理信号(Sa)を放射して、放射した物理信号の反射波を示す波動信号(Sb)を検出する。測距部は、移動体から周辺環境までの距離を示す距離情報を検出する。制御部は、検出部の検出結果を解析する。制御部は、測距部の検出結果に基づいて、周辺環境における死角を示す死角領域(R1)を検知し、検出部の検出結果において、検知した死角領域から到達する波の成分を含んだ波動信号に基づいて、死角領域の中の物体(4)を検知する。

Description

検知装置、移動体システム、及び検知方法
 本開示は、移動体から周辺の物体を検知する検知装置、検知装置を備えた移動体システム、及び検知方法に関する。
 自動車又はAGV(自動搬送車)などの移動体に搭載され、移動体の周辺を監視する技術が提案されている(例えば特許文献1,2)。
 特許文献1は、自車両前方の障害物を認識する障害物認識装置を開示している。特許文献1の障害物認識装置は、カメラ及びレーダを含み、自車両に対する死角領域を検出し、検出された死角領域の広さに基づいて、死角領域に存在する可能性のある障害物の属性を推定している。障害物認識装置は、死角領域に存在する可能性のある障害物の属性が歩行者であると推定されたときに当該死角領域をカメラに探索させ、同障害物の属性が他車両であると推定されたときには当該死角領域をレーダに探索させている。
 特許文献2は、自車両周辺の走行環境を的確に推定することを目的とした車両環境推定装置を開示している。特許文献2の車両環境推定装置は、自車両の周辺の他車両の挙動を検出し、当該車両の挙動に基づいて、自車両からの死角領域を走行する別の車両の存在を推定している。このように、自車両では認識できないが周辺の他車両によって認識できる車両走行環境の推定が行われている。
特開2011-242860号公報 特開2010-267211号公報
 特許文献1は、検出された死角領域に存在する可能性のある障害物が歩行者及び車両の何れであるかを、死角領域の広さに対応付けて予め設定された各々の存在確率に基づき、推定している。特許文献1,2等の従来技術によると、移動体から周辺環境において、死角の中に存在する物体を検知することは、困難であった。
 本開示の目的は、移動体から周辺環境における死角の中に存在する物体を検知することができる検知装置、検知方法、及び移動体システムを提供することにある。
 本開示の一態様に係る検知装置は、移動体の周辺環境における死角に存在する物体を検知する検知装置である。検知装置は、検出部と、測距部と、制御部とを備える。検出部は、移動体から周辺環境に、波の特性を有する物理信号を放射して、放射した物理信号の反射波を示す波動信号を検出する。測距部は、移動体から周辺環境までの距離を示す距離情報を検出する。制御部は、検出部の検出結果を解析する。制御部は、測距部の検出結果に基づいて、周辺環境における死角を示す死角領域を検知し、検出部の検出結果において、検知した死角領域から到達する波の成分を含んだ波動信号に基づいて、死角領域の中の物体を検知する。
 本開示の一態様に係る移動体システムは、上記の検知装置と、検知装置の検知結果に基づいて移動体を制御する制御装置とを備える。
 本開示の一態様に係る検知方法は、移動体の周辺環境における死角に存在する物体を検知する検知方法である。本方法は、測距部が、移動体から周辺環境までの距離を示す距離情報を検出するステップと、制御部が、測距部の検出結果に基づいて、周辺環境における死角を示す死角領域を検知するステップとを含む。本方法は、検出部が、移動体から周辺環境に、波の特性を有する物理信号を放射して、放射した物理信号の反射波を示す波動信号を検出するステップを含む。本方法は、制御部が、検出部の検出結果において、検知した死角領域から到達する波の成分を含んだ波動信号に基づいて、死角領域中の物体を検知するステップを含む。
 本開示に係る検知装置、移動体システム、及び検知方法によると、移動体から周辺環境における死角の中に存在する物体を検知することができる。
本開示に係る検知装置の適用例を説明するための図 本開示の実施形態1に係る移動体システムの構成を例示するブロック図 実施形態1に係る検知装置の動作を説明するためのフローチャート 検知装置における距離情報の一例を説明するための図 実施形態1に係る検知装置の動作を説明するための図 検知装置における距離情報の変形例を説明するための図 死角物体の検知処理の実験を説明するための図 図7の実験において死角物体がある場合を例示する図 検知装置による死角物体の検知処理を例示するフローチャート 検知装置による危険度の判定処理を例示するフローチャート 検知装置による危険度の判定処理を説明するための図 検知装置の動作の変形例を説明するための図 検知装置の動作の変形例を説明するためのフローチャート
 以下、添付の図面を参照して本開示に係る検知装置及び方法、並びに移動体システムの実施の形態を説明する。なお、以下の各実施形態において、同様の構成要素については同一の符号を付している。
(適用例)
 本開示に係る検知装置及び方法、並びに移動体システムが適用可能な一例について、図1を用いて説明する。図1は、本開示に係る検知装置1の適用例を説明するための図である。
 本開示に係る検知装置1は、例えば車載用途に適用可能であり、自動車等の移動体において移動体システムを構成する。図1では、検知装置1が搭載された車両2の走行状態を例示している。本適用例に係る移動体システムは、例えば、検知装置1を用いて走行中の自車両2の周りで移り変わる周辺環境を監視する。周辺環境は、例えば自車両2周辺に存在する建物及び電柱などの構造物、並びに歩行者及び他車両などの動体といった各種物体を含む。
 図1の例では、交差点3近傍における構造物の壁31によって、自車両2から監視可能な範囲が遮られ、死角が生じている。死角は、自車両2等の移動体から、周辺環境に応じて幾何学的に直接視できない場所を示す。本例において、自車両2から死角となる領域である死角領域R1には、横道から交差点3に接近する別の車両4が存在している。
 上記のような場合、死角からの車両4と自車両2とが、出会い頭に衝突するような事態が懸念される。ここで、従来のカメラ或いはレーダ等を用いた周辺監視技術では、自車両2からの死角は検出されたとしても、死角領域R1の中で自車両2に接近中の車両4等は、検知することが困難であった。
 これに対して、本実施形態の検知装置1は、レーダ等で物理的に使用する信号における波動の伝搬特性を活用して、車両4のように死角領域R1に内在する物体(以下「死角物体」という場合がある)の検知を実行する。死角物体4の検知結果に基づき交差点3等の危険度を判定し、自車両2における運転支援或いは運転制御などの各種制御に判定結果を反映させることで、出会い頭の衝突等を回避することが可能となる。
(構成例)
 以下、検知装置1を備えた移動体システムの構成例としての実施形態を説明する。
(実施形態1)
 実施形態1に係る移動体システムの構成および動作について、以下説明する。
1.構成
 本実施形態に係る移動体システムの構成を、図2を用いて説明する。図2は、本システムの構成を例示するブロック図である。
 本システムは、図2に例示するように、検知装置1と、車両制御装置20とを備える。本実施形態の検知装置1は、レーダ11と、カメラ12と、制御部13とを備える。また、例えば検知装置1は、記憶部14と、ナビゲーション機器15と、車載センサ16とを備える。車両制御装置20は、自車両2に搭載された各種の車載機器を含み、例えば運転支援又は自動運転に用いられる。
 検知装置1において、レーダ11は、例えば、送信機11aと、受信機11bと、レーダ制御回路11cとを備える。レーダ11は、本実施形態における検出部の一例である。レーダ11は、例えば自車両2の走行方向における前方(図1参照)に向けて信号の送受信を行うように、自車両2のフロントグリル又はフロントガラス等に設置される。
 送信機11aは、例えば可変指向性を有するアンテナ(フェイズドアレイアンテナ等)、及び当該アンテナに物理信号Saを外部送信させる送信回路などを含む。物理信号Saは、例えばミリ波、マイクロ波、ラジオ波、及びテラヘルツ波のうちの少なくとも1つを含む。
 受信機11bは、例えば可変指向性を有するアンテナ、及び当該アンテナにより外部から波動信号Sbを受信する受信回路などを含む。波動信号Sbは、物理信号Saの反射波を含むように、物理信号Saと同様の波長帯に設定される。なお、送信機11aと受信機11bとは、例えば共用のアンテナを用いてもよく、一体的に構成されてもよい。
 レーダ制御回路11cは、送信機11a及び受信機11bによる信号の送受信を制御する。レーダ制御回路11cは、例えば制御部13からの制御信号により、レーダ11による信号の送受信を開始したり、送信機11aから物理信号Saを放射する方向を制御したりする。また、レーダ制御回路11cは、送信機11aから周辺環境に物理信号Saを放射させ、受信機11bの受信結果において、物理信号Saの反射波を示す波動信号Sbを検出する。
 レーダ11は、例えばCW(連続波)方式またはパルス方式などの変調方式に従って動作し、外部の物体の距離、方位および速度等の計測を行う。CW方式は、2波CW方式、FM-CW方式及びスペクトル拡散方式などを含む。パルス方式は、パルスドップラー方式であってもよいし、チャープ信号のパルス圧縮或いはPN系列のパルス圧縮を用いてもよい。レーダ11は、例えばコヒーレントな位相情報制御を用いる。レーダ11は、インコヒーレントな方式を用いてもよい。
 カメラ12は、例えば自車両2においてレーダ11から物理信号Saを放射可能な範囲と重畳する範囲を撮像可能な位置に設置される。例えば、カメラ12は、例えば自車両2前方(図1参照)に向けて、自車両2フロントガラス等に設置される。検知装置1における死角は、カメラ12の設置位置を幾何学的な基準としてもよいし、レーダ11の設置位置を基準としてもよい。
 カメラ12は、設置位置から外部の画像を撮像して、撮像画像を生成する。カメラ12は、撮像画像を示す画像データを制御部13に出力する。カメラ12は、例えばRGB-Dカメラ、ステレオカメラ、又は距離画像センサである。カメラ12は、本実施形態における測距部(或いは監視部)の一例である。
 制御部13は、CPU、RAM及びROM等を含み、情報処理に応じて各構成要素の制御を行う。制御部13は、例えば、ECU(電子制御ユニット)により構成される。制御部13は、記憶部14に格納されたプログラムをRAMに展開し、RAMに展開されたプログラムをCPUにより解釈及び実行する。このように実現されるソフトウェアモジュールとして、例えば、制御部13は、死角推定部131、死角物体計測部132および危険度判定部133を実現する。各部131~133については後述する。
 記憶部14は、制御部13で実行されるプログラム、及び各種のデータ等を記憶する。例えば、記憶部14は、後述する構造情報D1を記憶する。記憶部14は、例えば、ハードディスクドライブ又はソリッドステートドライブを含む。また、RAM及びROMは、記憶部14に含まれてもよい。
 上記のプログラム等は、可搬性を有する記憶媒体に格納されてもよい。記憶媒体は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。検知装置1は、当該記憶媒体からプログラム等を取得してもよい。
 ナビゲーション機器15は、例えば地図情報を格納するメモリ、及びGPS受信機を含む測距部(監視部)の一例である。車載センサ16は、自車両2に搭載された各種センサであり、例えば車速センサ、加速度センサ、及びジャイロセンサなどを含む。車載センサ16は、自車両2の速度、加速度および角速度などを検出する。
 以上のような構成は一例であり、検知装置1は上記の構成に限られない。例えば、検知装置1は、ナビゲーション機器15及び車載センサ16を備えなくてもよい。また、検知装置1の制御部13は、上記各部131~133を別体で実行する複数のハードウェア資源で構成されてもよい。制御部13は、CPU、MPU、GPU、マイコン、DSP、FPGA、ASIC等の種々の半導体集積回路で構成されてもよい。
 車両制御装置20は、本実施形態における移動体システムの制御装置の一例である。車両制御装置20は、例えば、車両駆動部21、及び報知器22を含む。車両駆動部21は、例えばECUで構成され、自車両2の各部を駆動制御する。例えば、車両駆動部21は、自車両2のブレーキを制御し、自動ブレーキを実現する。
 報知器22は、画像又は音などにより、ユーザに各種情報を報知する。報知器22は、例えば自車両2に搭載された液晶パネル又は有機ELパネルなどの表示装置である。報知器22は、警報等を音声出力する音声出力装置であってもよい。
2.動作
 以上のように構成される移動体システム及び検知装置1の動作について、以下説明する。
 本実施形態に係る移動体システムは、例えば自車両2の運転中に、周辺環境を監視するように、検知装置1を動作させる。本システムの車両制御装置20は、検知装置1による検知結果に基づき、自車両2の運転支援又は自動運転等のための各種制御を行う。
 本実施形態の検知装置1は、例えばカメラ12において自車両2周辺の画像を撮像して、自車両2の周辺環境を監視する。検知装置1の死角推定部131は、例えば監視結果の各種距離を示す距離情報などに基づき、現在の周辺環境において死角が推定される領域の有無を逐次、検知する。
 検知装置1において、死角推定部131により死角が発見されると、死角物体計測部132は、レーダ11を用いて死角領域R1の内部状態を計測する。自車両2のレーダ11から放射される物理信号Saは、波動的な性質を有することから、多重の反射或いは回折等を起こして死角領域R1中の死角物体4に到り、さらに自車両2にまで戻って来るという伝搬を生じ得ると考えられる。本実施形態の検知方法は、上記のように伝搬する波を活用して、死角物体4を検知する。
 危険度判定部133は、死角物体計測部132の計測結果に基づいて、死角領域R1に内在し得る死角物体4についての危険度を判定する。危険度は、例えば死角物体4と自車両2とが、衝突等を起こす可能性に関する。
 例えば、警告を要すると考えられる危険度が検知装置1において判定されると、本システムは、報知器22によって運転者等に報知したり、車両駆動部21によって自動ブレーキ等の安全性を高めるための車両制御を実行したりすることができる。本システムにおける検知装置1の動作の詳細を、以下説明する。
2-1.検知装置の動作
 本実施形態に係る検知装置1の動作について、図3~6を用いて説明する。
 図3は、本実施形態に係る検知装置1の動作を説明するためのフローチャートである。図3のフローチャートに示す各処理は、検知装置1の制御部13によって実行される。本フローチャートは、例えば車両2の運転中に、所定の周期で開始される。
 まず、制御部13は、カメラ12から1又は複数フレームの撮像画像を取得する(S1)。ステップS1において、制御部13は、撮像画像として距離画像を取得してもよいし、取得した撮像画像に基づき距離画像を生成してもよい。距離画像は、周辺環境を監視するための各種距離を示す距離情報の一例である。
 次に、制御部13は、取得した撮像画像に画像解析を行って(S2)、現在の自車両2の周辺環境に関する構造情報D1を生成する。構造情報D1は、周辺環境における種々の物体構造を示す情報であり、例えば、各種構造物までの距離を含む。また、制御部13は、ステップS2において死角推定部131としても動作し、取得した撮像画像において死角を検知するための画像解析も行う。図4に、ステップS2の解析対象の画像を例示する。
 図4は、例えば距離画像として自車両2から撮像されており(S1)、交差点3近傍で複数の構造物による壁31,32を映している。本例では、自車両2近傍の壁31の遮蔽により、当該壁31よりも奥側に死角領域R1が存在している。また、死角領域R1よりも奥側の壁32が、自車両2に対向している。以下、壁31を「遮蔽壁」といい、壁32を「対向壁」という。遮蔽壁31と対向壁32との間には、死角領域R1と外部との境界が形成される(図1参照)。
 ステップS2において、制御部13は、例えば構造情報D1として距離画像における各種壁31,32の距離値を画素毎に抽出し、記憶部14に保持する。図4の場合の距離値は、方向d1に沿って自車両2側から遮蔽壁31の分、連続的に変化しながら、遮蔽壁31の端部から対向壁32に到ると不連続に変化することとなる。制御部13は、上記のような距離値の変化を解析して、死角領域R1の存在を推定できる。
 図3に戻り、死角推定部131としての制御部13は、例えば画像解析による推定結果に従って、現在の自車両2の周辺環境に、死角領域R1が検知されたか否かを判断する(S3)。制御部13は、死角領域R1が検知されなかったと判断すると(S3でNO)、例えば周期的にステップS1~S3の処理を繰り返す。
 制御部13は、死角領域R1が検知されたと判断すると(S3でYES)、死角物体計測部132としての処理を実行する(S4~S6)。本実施形態では、レーダ11の波動信号Sbにおける多重反射波を活用して、死角領域R1中の死角物体4を計測する死角物体計測部132の処理例を以下、説明する。
 死角物体計測部132としての制御部13は、まず、死角領域R1に向けて物理信号Saを放射するように、レーダ11を制御する(S4)。図5(a),(b)に、それぞれ死角物体4がない場合とある場合におけるステップS4の物理信号Saの伝搬経路を例示する。
 ステップS4において、制御部13は、例えば図4の解析結果に基づいて、レーダ11から死角領域R1の境界近傍の対向壁32に物理信号Saを放射させる。図5(a)の例において、自車両2のレーダ11からの物理信号Saは、横道の死角領域R1を介して対向壁32と反対側の壁35との間で反射を繰り返し、多重反射波として伝搬している。図5(a)の例では、死角物体4がないことに対応して、多重反射波は自車両2に向かって来ない。
 一方、図5(b)の例では、死角物体4が存在することから、レーダ11からの物理信号Saは、各々の壁32,33に加えて死角物体4でも反射して、自車両2に向かう多重反射波Rb1となり得る。よって、レーダ11で受信される波動信号Sbには、死角物体4の情報を有する多重反射波Rb1の信号成分が含まれることとなる。
 ステップS4において、レーダ11は、物理信号Saを放射すると共に波動信号Sbを受信して、物理信号Saの反射波に基づく各種計測を行う。制御部13は、レーダ11から計測結果を取得する(S5)。
 制御部13は、レーダ11の計測結果に基づいて、死角物体の検知処理を行う(S6)。多重反射波Rb1(図5(b))の信号成分は、ドップラーシフト、位相及び伝搬時間により、反射元の死角物体4の速度および伝搬経路の長さに応じた情報を有している。死角物体の検知処理(S6)は、このような信号成分を解析することにより、多重反射波Rb1を反射した死角物体4の速度及び位置等を検知する。ステップS6の処理の詳細については後述する。
 次に、制御部13は危険度判定部133として動作し、死角物体4の検知結果(S6)に基づいて危険度の判定処理を行う(S7)。危険度の判定処理は、例えば、検知された位置及び速度等から死角物体4が自車両2に接近することの危険度に応じて、警告の要否を判定する。ステップS6において死角物体4の動き、距離、種類及び形状等の情報が検知される場合、ステップS7ではこれらの情報を用いて危険度が判定されてもよい。ステップS7の処理の詳細については後述する。
 次に、制御部13は、危険度の判定結果(S7)に応じて、車両制御装置20に各種の制御信号を出力する(S8)。例えば、ステップS7において警告を要すると判定された場合、制御部13は、報知器22に警告を報知させたり、車両駆動部21を制御したりするための制御信号を生成する。
 制御部13は、例えば制御信号を出力する(S8)と、図3のフローチャートに示す処理を終了する。
 以上の処理によると、検知装置1は自車両2の周辺監視を行いながら(S1~S3)、死角が発見されると(S3でYES)、死角物体4の検知を行い(S6)、各種のアクションを行うことができる(S8)。
 以上の処理では、周辺監視にカメラ12を用いたが、ナビゲーション機器15を用いてもよい。本変形例を図6に示す。ナビゲーション機器15は、例えば図6に示すように、自車両2の周辺環境の地図情報D2において、自車両2までの各種距離を計算し、自車両2の現在位置を監視する。制御部13は、以上のようなナビゲーション機器15の監視結果を、図3の各種処理に用いることができる。制御部13は、ナビゲーション機器15の監視結果に基づいて、例えば地図情報D2中の構造物30に基づき、構造情報D1を取得したり、死角領域R1を検知したりすることができる(S2)。また、制御部13は、図3の処理において適宜、車載センサ16の検出結果を用いてもよい。
2-2.死角物体の検知処理
 死角物体の検知処理(図3のS6)について、図7~9を用いて説明する。
 図7は、死角物体の検知処理の実験を説明するための図である。図7(a)は、本実験の実験環境の構造情報D1を示す。図7(b)は、死角物体4がない場合のレーダ11の計測結果を示す。図8は、図7の実験において死角物体がある場合を例示する図である。図8(a)は、死角物体4がある場合のレーダ11の計測結果を示す。図8(b)は、死角物体4から推定される多重反射波の伝搬経路を例示する。
 本実験は、図7(a)に示すように、交差点を有する通路において行われた。図7(b),8(a)における濃淡は、淡いほどレーダ11で得られた信号強度が強いことを示している。
 本実験においては、死角物体4がない状態では、図7(b)に示すように、4m付近に強いピークP1が確認された。ピークP1は、レーダ11に対向する対向壁P1からの反射波を示している。また、図7(b)では、その他各壁32,33からの反射波によるピークP2,P3がそれぞれ確認できる。
 一方、死角物体4を置いた状態では、図8(a)に示すように、対向壁32よりも遠い7m付近に、強いピークP4が現れた。同ピークP4の方位は、レーダ11から対向壁32の奥側に見える。以上の距離と方位から、当該ピークP4が、対向壁32による反射を経て死角物体4から反射した成分が主となっていることが分かる(図8(b)参照)。即ち、レーダ11の計測結果におけるピークP4までの距離と方位に基づいて、死角物体4を波源とするピークP4を検知できることが確認された。
 以上のような死角物体4の信号成分の解析は、周辺環境の構造情報を用いることにより、死角物体4の有無及び位置等をより精度良く検知できる。以下、本実施形態における死角物体の検知処理の一例を、図9を用いて説明する。
 図9は、本実施形態における死角物体の検知処理を例示するフローチャートである。図9のフローチャートによる処理は、図3のステップS6において、死角物体計測部132として動作する制御部13によって実行される。
 まず、制御部13は、図3のステップS5において取得したレーダ11の計測結果の信号から、死角物体の解析対象とする信号成分を抽出するために、周辺環境からの反射波を示す環境成分を除去する(S11)。ステップS11の処理は、例えばステップS2で取得された構造情報を用いて行われる。
 例えば、図7(b)の例の各ピークP1,P2,P3は、通路の構造情報D1(図7(b))において各々対応する壁31,32,33からの反射波を示す環境成分として、予め推定可能である。制御部13は、構造情報D1を参照して各種構造物での反射波を予測して、レーダ11の計測結果(例えば図8(a))から予測結果の環境成分を差し引く(S11)。これにより、通路等の環境下の構造物による反射波の影響を低減し、死角の物体の信号成分のみを強調し易くできる。
 次に、制御部13は、環境成分の除去により得られた信号成分に基づいて、死角物体4を検知するための信号解析を行う(S12)。ステップS12の信号解析は、周波数解析、時間軸上の解析、空間分布および信号強度等の各種の解析を含んでもよい。
 制御部13は、信号解析の解析結果に基づいて、例えば死角の対向壁32の向こう側に波源が観測されるか否かを判断し(S13)、これによって、死角物体4の有無を検知する。例えば、図8(a)の例においてピークP4は、対向壁32よりも通路の奥側を波源としており、通路の構造から環境成分として予測されない位置にある。このことから、当該ピークP4は、死角内を波源とする波が、多重反射したことに起因すると推定できる。つまり、制御部13は、検知済みの死角の方位に、対向壁32を超える距離で反射波が観測される場合、死角物体4があると判定できる(ステップS13でYES)。
 制御部13は、死角の対向壁32の向こう側に波源が観測されると判断した場合(S13でYES)、多重反射による屈曲が推定される伝搬経路に応じて、死角物体4までの距離および速度といった各種の状態変数を計測する(S14)。例えば、制御部13は、構造情報D1において死角部分の道幅(死角領域R1の幅)を示す情報を用いることによって、例えば図8(b)に示すように、信号成分から分かる死角物体4までの経路長を折り返すように補正して、より実際の位置に近い死角物体4の位置を算出することができる。
 制御部13は、死角物体4の測量を行うと(S14)、図3のステップS6の処理を終了する。その後、制御部13は、検知された死角物体4についての危険度の判定処理(図3のS7)を実行する。
 また、制御部13は、死角の対向壁32の向こう側に波源が観測されないと判断した場合(S13でNO)、特に測量を行わずに、本処理を終了する。この場合、制御部13は、図3のステップS7以降の処理を省略してもよい。
 以上の処理によると、レーダ11の物理信号Saにおける多重反射の性質に基づき死角領域R1内部で生じた信号成分を利用して、死角物体4を検知することができる。
 ここで、死角物体4の情報を有する信号成分は微弱であり、死角外の見えている物体からの反射波も存在する中で検出することとなるため、検出及び推定が難しいと考えられる。また、死角物体4までの実際の距離と信号の伝搬経路の長さが異なるため、実際の距離を推定し難いとも考えられる。これに対して、周辺環境の構造情報D1を用いることにより、受信波を解析する前提条件を絞り込んだり(S11)、推定精度を高めたりすることができる(S14)。
 例えば、ステップS11において、制御部13は、構造情報D1における死角近傍の交差点までの距離を参照して、交差点との直線距離に対する信号の往復伝搬時間以下で得られる受信波の信号成分を除去する。このような受信波は直接反射波(即ち反射1回の波)であり、死角物体4の情報を含まないことから、解析対象から除外することができる。また、制御部13は、自車両2から見た死角の方位角に基づいて、死角から到来する反射波と他の角度から到来する反射波とを分離することもできる。
 ステップS11の処理は、必ずしも周辺環境の構造情報D1を用いなくてもよい。例えば、制御部13は、時間軸に沿って得た信号から、自車両2の位置変化を差し引いて、解析対象を動体に制限してもよい。本処理は、ステップS12の信号解析において行われてもよい。
 以上のステップS12において、制御部13は、解析対象の信号成分において、動体に反射したことによるドップラーシフト、或いは人間や自転車など特有の所作の揺らぎといった、特定の物体の所作により現れる特徴があるか否かを解析してもよい。また、制御部13は、空間的に広がりを持った面計測の信号分布が、自動車、自転車、人間などの特有の分布を持っているか、或いは反射強度により自動車大の金属体による反射が含まれるか等を解析してもよい。以上のような解析は、適宜組み合わせて行われてもよいし、個々を明示的に解析する代わりに、機械学習を用いて多次元の特徴量として解析されてもよい。
2-3.危険度の判定処理
 危険度の判定処理(図3のS7)について、図10~11を用いて説明する。
 図10は、危険度の判定処理を例示するフローチャートである。図11は、危険度の判定処理を説明するための図である。図10のフローチャートによる処理は、図3のステップS7において、危険度判定部133として動作する制御部13によって実行される。
 まず、制御部13は、ステップS6における死角物体4の検知結果に基づいて、危険度指数Dを算出する(S21)。危険度指数Dは、検知された死角物体4と自車両2との間の衝突に関する危険度を判定するための指標を示す。例えば図11に示すように、死角物体4が自車両2に近付く速度vが、危険度指数Dに設定できる。
 次に、制御部13は、例えば予め設定されたしきい値Vaを用いて、算出した危険度指数Dが、しきい値Vaを超えるか否かを判断する(S22)。しきい値Vaは、例えば死角物体4に関する警告が必要となる危険度指数Dの大きさを考慮して設定される。例えば、D=vの場合に危険度指数Dがしきい値Vaを上回ると、制御部13は、ステップS22で「YES」に進む。
 制御部13は、危険度指数Dがしきい値Vaを超えると判断したとき(S22でYES)、危険度の判定結果として、例えば警告フラグを「ON」に設定する(S23)。警告フラグは、死角物体4に関する警告の有無を「ON/OFF」で管理するフラグであり、記憶部14に記憶される。
 一方、制御部13は、危険度指数Dがしきい値Vaを超えないと判断したとき(S22でNO)、警告フラグを「OFF」に設定する(S24)。
 制御部13は、以上のように警告フラグを設定すると(S23,S24)、危険度の判定処理(図3のS7)を終了して、ステップS8の処理に進む。
 以上の処理によると、死角物体4が自車両2或いは交差点3に近付く危険度が、対応する危険度指数Dに応じて判定される。例えば、警告フラグに応じた2値判定が行われる。警告フラグが「ON」のとき、制御部13は、報知器22に警告させたり、車両駆動部21に特定の制御を行わせたりすることができる(図3のS8)。
 なお、危険度の判定処理は2値判定に限らず、例えば警告の不要時に注意喚起の有無を判定する3値判定が行われてもよい。例えば、注意喚起用のしきい値Vb(<Va)を用いて、制御部13が、ステップS22で「NO」に進んだときにD>Vbか否かを判断してもよい。
 以上の処理において、危険度指数Dは速度vに限らず、死角物体4に関する種々の状態変数により設定可能であり、例えば速度vの代わりに加速度dv/dtに設定されてもよい。
 また、危険度指数Dは、自車両2と死角物体4との間の距離Lに設定されてもよい。距離Lは、小さいほど自車両2と死角物体4間の衝突に関する危険度が高いと考えられる。そこで、例えばステップS22において、制御部13は、危険度指数D(=L)がしきい値Vaを下回るときに「YES」に進み、下回らないときには「NO」に進んでもよい。
 また、危険度指数Dは、各種の状態変数の組み合わせによって設定されてもよい。このような一例の危険度指数Dを次式(1)に示す。
D=|(L-vΔt)+(L-vΔt)| …(1)
 上式(1)において、Lは、基準位置P0から死角物体4までの距離である(図11)。基準位置P0は、例えば交差点の中心など、死角物体4と自車両2との衝突が想定される位置に設定される。Δtは、所定の時間幅であり、例えば自車両2が基準位置P0に到達するまでにかかることが予測される時間幅の近傍に設定される。Lは、基準位置P0から自車両2までの距離である。vは、自車両2の速度であり、車載センサ16等から取得可能である。
 上式(1)の危険度指数Dは、時間幅Δtの経過後に推定される、死角物体4と基準位置P0間の距離と、基準位置P0と自車両2間の距離との総和である(図11)。上式(1)によると、危険度指数Dが所定値よりも小さくなると、自車両2と死角物体4とが同時に基準位置P0に到達する可能性が充分に高いといった推定が行える。このような推定に対応する危険度の判定として、上式(1)の場合、制御部13はD=Lの場合と同様に、危険度指数Dがしきい値Vaを下回るときステップS22で「YES」に進み、下回らないとき「NO」に進んでもよい。
 また、危険度指数Dは、以下の式(2)又は式(2’)のように設定されてもよい。
D=L-vΔt              …(2)
D=|L-vΔt|            …(2’)
 上記の各式(2),(2’)では、例えばΔt=L/vに設定される。時間幅Δtは、自車両2の速度vの変動或いは基準位置P0の見積誤差などを考慮した許容範囲内で設定されてもよい。
 式(2)の危険度指数Dが所定値よりも小さいとき(負値を含む)、自車両2が基準位置P0に到達する前に死角物体4が自車両2前方を横切る可能性が充分に高いと推定できる。また、式(2’)の危険度指数D(式(2)の場合の絶対値)が所定値よりも小さいとき、自車両2と死角物体4とが同時に基準位置P0に存在する可能性が充分に高いと推定できる。以上のような推定に対応して、制御部13は、式(2)又は式(2’)の危険度指数Dを用いて、式(1)の場合と同様に危険度の判定を行うことができる。
 以上のような危険度の判定処理において、しきい値Vaは、自車両2及び死角物体4の状態に応じて、動的に変更されてもよい。例えば、上述したLが小さかったり、dv/dt又はdv/dtが大きかったり、或いは死角物体4が人間と推定される場合、危険度の判定をより厳格に行うべきと考えられる。そこで、このような場合が検知されると、制御部13は、例えば上式(1)の危険度指数Dに対して、しきい値Vaを大きくしてもよい。
3.まとめ
 以上のように、本実施形態に係る検知装置1は、移動体の一例である自車両2の周辺環境における死角に存在する死角物体4を検知する。検知装置1は、検出部としてのレーダ11と、測距部としてのカメラ12と、制御部13とを備える。レーダ11は、自車両2から周辺環境に、波の特性を有する物理信号Saを放射して、放射した物理信号Saの反射波を示す波動信号Sbを検出する。カメラ12は、自車両2から周辺環境までの距離を示す距離情報を検出する。制御部13は、レーダ11の検出結果を解析する。制御部13は、カメラ12の検出結果に基づいて、周辺環境における死角を示す死角領域R1を検知し(S2,S3)、レーダ11の検出結果において、検知した死角領域R1から到達する多重反射波Rb1の成分を含んだ波動信号に基づいて、死角領域R1の中の死角物体4を検知する(S6)。
 以上の検知装置1によると、レーダ11からの物理信号Saにおける波の特性を活用して、自車両2から周辺環境における死角の中に存在する物体を検知することができる。活用する波は多重反射波に限らず、回折波或いは透過波を含んでもよい。
 本実施形態の検知装置1において、制御部13は、周辺環境において死角領域R1を検知したとき、検知した死角領域R1に向けて物理信号Saを放射するように、レーダ11を制御する(S4)。これにより、死角領域R1近傍に物理信号Saを集中させ、死角領域R1の中の死角物体4から多重反射波Rb1等を得やすくすることができる。なお、レーダ11からの物理信号Saは必ずしも死角領域Raに集中させなくてもよく、例えば、レーダ11が検出可能な範囲に適時、物理信号Saを放射してもよい。
 本実施形態の検知装置1は、周辺環境の物体構造を示す構造情報D1を記憶する記憶部14をさらに備える。制御部13は、構造情報D1を参照し、レーダ11の検出結果において死角領域R1から到達する波の成分を含んだ波動信号を解析して、死角物体4を検知する(S6)。構造情報D1を用いることにより、死角物体4の検知を精度良くすることができる。
 本実施形態の検知装置1において、制御部13は、カメラ12の検出結果に基づき構造情報D1を生成して、記憶部14に保持する(S2)。構造情報D1を逐次、生成して、死角物体4を精度良く検知することができる。
 本実施形態の検知装置1において、制御部13は、死角物体4の検知結果(S6)に基づいて、死角領域R1に関する危険度を判定する(S7)。危険度の判定により、例えば自車両2と死角物体4との出会い頭の衝突等を回避し易くすることができる。
 本実施形態に係る移動体システムは、検知装置1と、車両制御装置20とを備える。車両制御装置20は、検知装置1の検知結果に基づいて、例えば報知器22及び車両駆動部21など、自車両2において各種の制御を実行する。移動体システムは、検知装置1により、移動体から周辺環境における死角の中に存在する物体を検知することができる。
 本実施形態に係る検知方法は、自車両2の周辺環境における死角に存在する死角物体4を検知する検知方法である。本方法は、カメラ12が、自車両2から周辺環境までの距離を示す距離情報を検出するステップS1と、制御部13が、カメラ12の検出結果に基づいて、周辺環境における死角を示す死角領域R1を検知するステップS2,S3とを含む。本方法は、レーダ11が、自車両2から周辺環境に物理信号Saを放射して、放射した物理信号Saの反射波を示す波動信号Sbを検出するステップS5を含む。本方法は、制御部13が、レーダ11の検出結果において、検知した死角領域R1から到達する波の成分Sb1を含んだ波動信号Sbに基づいて、死角領域R1中の死角物体4を検知するステップS6を含む。
 本実施形態において、以上の検知方法を制御部13に実行させるためのプログラムが提供される。本実施形態の検知方法によると、自車両2等の移動体から周辺環境における死角の中に存在する物体を検知することができる。
(他の実施形態)
 上記の実施形態1では、死角物体4の検知に多重反射波を活用したが、多重反射波に限らず、例えば回折波が活用されてもよい。本変形例について、図12を用いて説明する。
 図12では、レーダ11からの物理信号Saが遮蔽壁31において回折し、死角物体4に到達している。また、死角物体4における反射波は、遮蔽壁31において回折し、回折波Sb2として自車両2に戻って来ている。例えば、本実施形態の制御部13は、図3のステップS4において、遮蔽壁31で回り込みを生じるように、レーダ11からの放射する物理信号Saの波長および方位を制御する。
 例えば可視光よりも波長が大きい物理信号Saを用いることによって、直進性の高い可視光等では各種の遮蔽物の存在により幾何学的に到達し得ない領域にも、信号を到達させることができる。また、死角物体4となり得る車両や人間などは通常丸みを帯びた形状をしていること等から、当該信号は完全反射的な経路だけではなく、放射された自車両2が存在する方向へも反射する。このような反射波が遮蔽壁31に対して回折現象を起こして伝搬することにより、解析対象の信号成分として回折波Sb2をレーダ11に受信させることができる。
 回折波Sb2の信号成分は死角物体4までの伝搬経路の情報と移動速度に応じたドップラー情報を有している。よって、同信号成分を信号解析することにより、実施形態1と同様に、信号成分の伝搬時間、位相及び周波数の情報から死角物体4の位置及び速度を計測可能である。この際、回折波Sb2の伝搬経路も、遮蔽壁31までの距離或いは各種の構造情報D1により、推定可能である。また、多重反射と回折が組み合わされた伝搬経路も適宜、推定でき、このような波の信号成分が解析されてもよい。
 上記の各実施形態では、レーダ11とカメラ12等とにより検出部及び測距部が別体で構成される例を説明したが、検出部及び測距部は、一体的に構成されてもよい。本変形例について、図13を用いて説明する。
 図13は、検知装置1の変形例を説明するためのフローチャートである。実施形態1の検知装置1は、カメラ12により周辺監視を行った(図3のS1~S3)。本変形例の検知装置1は、レーダ11によって、図3のS1~S3と同様の周辺監視を行う(S1A~S3A)。本変形例のレーダ11は、一体的な測距部及び検出部の一例である。
 また、本変形例において死角が発見されると(S3AでYES)、制御部13は、例えばレーダ11の帯域を切替え制御し、死角で回り込みし易い帯域を用いる(S4A)。この場合、ステップS6では回折波を活用した信号解析が行われる。一方、ステップS1A~S3Aでは、直線性が高い帯域を用いて、レーダ11の周辺監視における解像度を良くすることができる。
 また、上記の各実施形態では、検出部の一例をしてレーダ11を説明した。本実施形態の検出部はレーダ11に限らず、例えばLIDARであってもよい。検出部から放射する物理信号Saは、例えば赤外線であってもよい。また、検出部は、ソナーであってもよく、物理信号Saとして超音波を放射してもよい。これらの場合、検出部が受信する波動信号Sbは、対応する物理信号Saと同様に設定される。
 また、上記の各実施形態では、レーダ11及びカメラ12が自車両2前方に向けて設置される例を説明したが、レーダ11等の設置位置は特に限定されない。例えば、レーダ11等は、自車両2後方に向けて配置されてもよく、例えば移動体システムは駐車支援に用いられてもよい。
 また、上記の各実施形態では、移動体の一例として自動車を例示した。検知装置1が搭載される移動体は、特に自動車に限定されず、例えばAGVであってもよい。例えば、検知装置1は、AGVの自動走行時に周辺監視を行い、死角中の物体を検知してもよい。
(付記)
 以上のように、本開示の各種実施形態について説明したが、本開示は上記の内容に限定されるものではなく、技術的思想が実質的に同一の範囲内で種々の変更を行うことができる。以下、本開示に係る各種態様を付記する。
 本開示に係る第1の態様は、移動体(2)の周辺環境における死角に存在する物体を検知する検知装置(1)である。前記検知装置は、検出部(11)と、測距部(12)と、制御部(13)とを備える。前記検出部は、前記移動体から前記周辺環境に、波の特性を有する物理信号(Sa)を放射して、放射した物理信号の反射波を示す波動信号(Sb)を検出する。前記測距部は、前記移動体から周辺環境までの距離を示す距離情報を検出する。前記制御部は、前記検出部の検出結果を解析する。前記制御部は、前記測距部の検出結果に基づいて、前記周辺環境における死角を示す死角領域(R1)を検知し(S2,S3)、前記検出部の検出結果において、検知した死角領域から到達する波の成分を含んだ波動信号に基づいて、前記死角領域の中の物体(4)を検知する(S6)。
 第2の態様では、第1の態様の検知装置において、前記制御部は、前記周辺環境において前記死角領域を検知したとき、検知した死角領域に向けて前記物理信号を放射するように、前記検出部を制御する(S4)。
 第3の態様では、第1又は第2の態様の検知装置において、前記周辺環境の物体構造を示す構造情報(D1)を記憶する記憶部(14)をさらに備える。前記制御部は、前記構造情報を参照し、前記検出部の検出結果において前記死角領域から到達する波の成分を含んだ波動信号を解析して、前記死角領域中の物体を検知する(S6)。
 第4の態様では、第3の態様の検知装置において、前記制御部は、前記測距部の検出結果に基づき前記構造情報を生成して、前記記憶部に保持する(S2)。
 第5の態様では、第1~第4のいずれかの態様の検知装置において、前記制御部は、前記死角領域中の物体の検知結果に基づいて、前記死角領域に関する危険度を判定する(S7)。
 第6の態様では、第1~第5のいずれかの態様の検知装置において、前記測距部は、カメラ、レーダ、LIDAR、及びナビゲーション機器のうちの少なくとも一つを含む。
 第7の態様では、第1~第6のいずれかの態様の検知装置において、前記物理信号は、赤外線、テラヘルツ波、ミリ波、マイクロ波、ラジオ波、及び超音波のうちの少なくとも1つを含む。
 第8の態様は、第1~第7のいずれかの態様の検知装置と、制御装置(20)とを備える移動体システムである。前記制御装置は、前記検知装置の検知結果に基づいて、前記移動体を制御する。
 第9の態様は、移動体(2)の周辺環境における死角に存在する物体を検知する検知方法である。本方法は、測距部(12)が、前記移動体から周辺環境までの距離を示す距離情報を検出するステップ(S1)と、制御部(13)が、前記測距部の検出結果に基づいて、前記周辺環境における死角を示す死角領域(R1)を検知するステップ(S2,S3)とを含む。本方法は、検出部(11)が、前記移動体から前記周辺環境に、波の特性を有する物理信号(Sa)を放射して、放射した物理信号の反射波を示す波動信号(Sb)を検出するステップ(S5)を含む。本方法は、前記制御部が、前記検出部の検出結果において、検知した死角領域から到達する波の成分を含んだ波動信号に基づいて、前記死角領域中の物体(4)を検知するステップ(S6)を含む。
 第10の態様は、第9の態様の検知方法を制御部に実行させるためのプログラムである。
  1  検知装置
  11  レーダ
  12  カメラ
  13  制御部
  14  記憶部
  15ナビゲーション機器
  2  自車両
  20  車両制御装置

Claims (10)

  1.  移動体の周辺環境における死角に存在する物体を検知する検知装置であって、
     前記移動体から前記周辺環境に、波の特性を有する物理信号を放射して、放射した物理信号の反射波を示す波動信号を検出する検出部と、
     前記移動体から前記周辺環境までの距離を示す距離情報を検出する測距部と、
     前記検出部の検出結果を解析する制御部とを備え、
     前記制御部は、
     前記測距部の検出結果に基づいて、前記周辺環境における死角を示す死角領域を検知し、
     前記検出部の検出結果において、検知した死角領域から到達する波の成分を含んだ波動信号に基づいて、前記死角領域の中の物体を検知する
    検知装置。
  2.  前記制御部は、前記周辺環境において前記死角領域を検知したとき、検知した死角領域に向けて前記物理信号を放射するように、前記検出部を制御する
    請求項1に記載の検知装置。
  3.  前記周辺環境の物体構造を示す構造情報を記憶する記憶部をさらに備え、
     前記制御部は、前記構造情報を参照し、前記検出部の検出結果において前記死角領域から到達する波の成分を含んだ波動信号を解析して、前記死角領域中の物体を検知する
    請求項1又は2に記載の検知装置。
  4.  前記制御部は、前記測距部の検出結果に基づき前記構造情報を生成して、前記記憶部に保持する
    請求項3に記載の検知装置。
  5.  前記制御部は、前記死角領域中の物体の検知結果に基づいて、前記死角領域に関する危険度を判定する
    請求項1~4のいずれか1項に記載の検知装置。
  6.  前記測距部は、カメラ、レーダ、LIDAR、及びナビゲーション機器のうちの少なくとも一つを含む
    請求項1~5のいずれか1項に記載の検知装置。
  7.  前記物理信号は、赤外線、テラヘルツ波、ミリ波、マイクロ波、ラジオ波、及び超音波のうちの少なくとも1つを含む
    請求項1~6のいずれか1項に記載の検知装置。
  8.  請求項1~7のいずれか1項に記載の検知装置と、
     前記検知装置の検知結果に基づいて、前記移動体を制御する制御装置と
    を備える移動体システム。
  9.  移動体の周辺環境における死角に存在する物体を検知する検知方法であって、
     測距部が、前記移動体から前記周辺環境までの距離を示す距離情報を検出するステップと、
     制御部が、前記測距部の検出結果に基づいて、前記周辺環境における死角を示す死角領域を検知するステップと、
     検出部が、前記移動体から前記周辺環境に、波の特性を有する物理信号を放射して、放射した物理信号の反射波を示す波動信号を検出するステップと、
     前記制御部が、前記検出部の検出結果において、検知した死角領域から到達する波の成分を含んだ波動信号に基づいて、前記死角領域中の物体を検知するステップとを含む検知方法。
  10.  請求項9に記載の検知方法を制御部に実行させるためのプログラム。
PCT/JP2019/009905 2018-09-14 2019-03-12 検知装置、移動体システム、及び検知方法 WO2020054108A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018172809A JP7063208B2 (ja) 2018-09-14 2018-09-14 検知装置、移動体システム、及び検知方法
JP2018-172809 2018-09-14

Publications (1)

Publication Number Publication Date
WO2020054108A1 true WO2020054108A1 (ja) 2020-03-19

Family

ID=69777750

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/009905 WO2020054108A1 (ja) 2018-09-14 2019-03-12 検知装置、移動体システム、及び検知方法

Country Status (2)

Country Link
JP (1) JP7063208B2 (ja)
WO (1) WO2020054108A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006349456A (ja) * 2005-06-15 2006-12-28 Denso Corp 車載レーダ装置、車両制御システム
WO2012033173A1 (ja) * 2010-09-08 2012-03-15 株式会社豊田中央研究所 移動物予測装置、仮想可動物予測装置、プログラム、移動物予測方法、及び仮想可動物予測方法
JP2013156794A (ja) * 2012-01-30 2013-08-15 Hitachi Consumer Electronics Co Ltd 車両用衝突危険予測装置
JP2015230566A (ja) * 2014-06-04 2015-12-21 トヨタ自動車株式会社 運転支援装置
JP2018101295A (ja) * 2016-12-20 2018-06-28 トヨタ自動車株式会社 物体検知装置
WO2019008716A1 (ja) * 2017-07-06 2019-01-10 マクセル株式会社 可視外計測装置および可視外計測方法
WO2019044185A1 (ja) * 2017-08-28 2019-03-07 株式会社デンソー 映像出力装置、映像生成プログラム、およびコンピュータ読み出し可能持続的有形記録媒体

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006349456A (ja) * 2005-06-15 2006-12-28 Denso Corp 車載レーダ装置、車両制御システム
WO2012033173A1 (ja) * 2010-09-08 2012-03-15 株式会社豊田中央研究所 移動物予測装置、仮想可動物予測装置、プログラム、移動物予測方法、及び仮想可動物予測方法
JP2013156794A (ja) * 2012-01-30 2013-08-15 Hitachi Consumer Electronics Co Ltd 車両用衝突危険予測装置
JP2015230566A (ja) * 2014-06-04 2015-12-21 トヨタ自動車株式会社 運転支援装置
JP2018101295A (ja) * 2016-12-20 2018-06-28 トヨタ自動車株式会社 物体検知装置
WO2019008716A1 (ja) * 2017-07-06 2019-01-10 マクセル株式会社 可視外計測装置および可視外計測方法
WO2019044185A1 (ja) * 2017-08-28 2019-03-07 株式会社デンソー 映像出力装置、映像生成プログラム、およびコンピュータ読み出し可能持続的有形記録媒体

Also Published As

Publication number Publication date
JP2020046755A (ja) 2020-03-26
JP7063208B2 (ja) 2022-05-09

Similar Documents

Publication Publication Date Title
US11027653B2 (en) Apparatus, system and method for preventing collision
WO2020070909A1 (ja) 検知装置、移動体システム、及び検知方法
JP6531903B2 (ja) 物体検出装置
JP6958537B2 (ja) 検知装置、移動体システム、及び検知方法
JP7111181B2 (ja) 検知装置、移動体システム、及び検知方法
JP2014227000A (ja) 車両制御装置、その方法およびそのプログラム
US10444341B2 (en) Road clutter mitigation
US7119734B2 (en) Target determination apparatus, target judgment apparatus, and determination aid apparatus
JP6668472B2 (ja) 物体分類を有する動力車両の周辺領域をキャプチャーする方法、制御装置、運転者支援システム、及び動力車両
JP7028139B2 (ja) 報知装置及び報知方法
JP7063208B2 (ja) 検知装置、移動体システム、及び検知方法
JP7070307B2 (ja) 検知装置、移動体システム、及び検知方法
JP2011220780A (ja) 障害物検出装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19859395

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19859395

Country of ref document: EP

Kind code of ref document: A1