WO2018105842A1 - 레이더 기반 고 정밀 돌발상황 검지 시스템 - Google Patents

레이더 기반 고 정밀 돌발상황 검지 시스템 Download PDF

Info

Publication number
WO2018105842A1
WO2018105842A1 PCT/KR2017/007709 KR2017007709W WO2018105842A1 WO 2018105842 A1 WO2018105842 A1 WO 2018105842A1 KR 2017007709 W KR2017007709 W KR 2017007709W WO 2018105842 A1 WO2018105842 A1 WO 2018105842A1
Authority
WO
WIPO (PCT)
Prior art keywords
radar
detection
target object
road
vehicle
Prior art date
Application number
PCT/KR2017/007709
Other languages
English (en)
French (fr)
Inventor
박재형
이재균
김정대
Original Assignee
메타빌드(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 메타빌드(주) filed Critical 메타빌드(주)
Publication of WO2018105842A1 publication Critical patent/WO2018105842A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/52Discriminating between fixed and moving objects or between objects moving at different speeds
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/52Discriminating between fixed and moving objects or between objects moving at different speeds
    • G01S13/56Discriminating between fixed and moving objects or between objects moving at different speeds for presence detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Definitions

  • the present invention relates to a radar-based high-precision incident detection system, and more particularly, to a radar-based high-precision incident detection system that can detect a sudden situation that can occur on the road using a radar sensor.
  • An object of the present invention is to provide a radar-based high-precision incident detection system that can more accurately detect an accident on the road.
  • the radar sensor unit is installed around the road to send a radio signal on the road, and receives a radio signal reflected from the target object on the road;
  • a control unit for receiving a radio signal from the radar sensor unit and generating sensing information about an accident situation according to the received radio signal;
  • the sensing information generated by the controller is transmitted to an external terminal including at least one of a terminal of a driver or a pedestrian, a terminal provided in a vehicle, a traffic situation control center for managing road conditions, and a display member installed on a road through wired or wireless communication.
  • a communication unit And a tracking unit that tracks the target object according to the sensing information generated by the controller.
  • the present invention can identify the vehicle and the pedestrian more quickly and accurately by analyzing the pattern of the speed data of the target object while assigning an identification ID to the target object on the road and tracking the target object.
  • the detection error occurring at the edge portion where the detection area of the radar pulse ends is minimized, and the accuracy can be improved.
  • the XY axis coordinate system is set based on the distance value and the velocity value of several signals received from one target, and the detection target data is represented in each cell on the XY axis coordinate system, and then the target clustering process is performed.
  • FIG. 1 is a block diagram showing the configuration of a radar-based high precision accident detection system according to the present invention.
  • FIG. 2 is a block diagram illustrating a configuration of the radar sensor unit illustrated in FIG. 1.
  • FIG. 3 is a block diagram illustrating a configuration of the controller illustrated in FIG. 1.
  • FIG. 4 is a flowchart illustrating a radar-based high-precision sudden situation detection method according to an exemplary embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating an example of a method for detecting a sudden situation using multiple radar pulses according to an exemplary embodiment of the present invention.
  • FIG. 6 is a diagram illustrating an example of a transmission state of multiple radar pulses according to the present invention.
  • FIG. 7 is a diagram illustrating an example in which an accident situation is detected in detection areas for multiple radar pulses according to an exemplary embodiment of the present invention.
  • FIG. 8 is a diagram illustrating another example in which an accident situation is detected in detection areas for multiple radar pulses according to an embodiment of the present invention.
  • FIG. 9 is a flowchart illustrating another example of a method for detecting a sudden situation using multiple radar pulses according to an exemplary embodiment of the present invention.
  • FIG. 10 is a diagram illustrating another example of a transmission state of multiple radar pulses according to the present invention.
  • FIG. 11 is a flowchart illustrating a signal processing method according to an embodiment of the present invention.
  • FIG. 12 is a diagram illustrating a clustering map in a state in which a target clustering process is performed in the signal processing method illustrated in FIG. 11.
  • FIG. 13 is a diagram illustrating a clustering map of a state in which a representative target data extraction process is performed in the signal processing method illustrated in FIG. 11.
  • FIG. 14 is a view showing a method for detecting a fixed obstacle in the radar-based high precision accident detection method according to another embodiment of the present invention.
  • FIG. 1 is a block diagram showing a control configuration of a radar-based high precision accident detection system according to the present invention.
  • FIG. 2 is a block diagram illustrating a configuration of the radar sensor unit illustrated in FIG. 1.
  • 3 is a block diagram illustrating a configuration of the controller illustrated in FIG. 1.
  • the radar-based accident detection system includes a radar sensor unit 10, a control unit 20, a communication unit 40, a tracking unit 50, and a terminal 60. do.
  • the radar sensor unit 10 is a sensor which is installed around the road, transmits a radio signal on the road, and receives a radio signal reflected from a target object on the road.
  • the radar sensor unit 10 may be installed in a plurality of locations spaced apart from each other by a predetermined distance around a road.
  • the radar sensor unit 10 includes a transmission antenna 12, a reception antenna 13, a transceiver 11, a waveform generator 14, and a signal processor 15.
  • Each of the plurality of radar sensor units 10 receives only a reflection signal for a signal transmitted by each of the plurality of radar sensor units 10, and does not receive the reflected signal by other sensor units 10 in the vicinity.
  • the control unit 20 receives a radio signal from the radar sensor unit 10 and generates detection information regarding a sudden situation according to the received radio signal.
  • the controller 20 may detect the incident situation and classify the incident detection type for the incident situation.
  • the sudden detection type may include a stationary vehicle, a slowing vehicle, a speeding vehicle, a reverse driving vehicle, a delayed or stagnant vehicle, a falling object, a pedestrian, and the like.
  • the control unit 20 referring to Figure 3, radar interface 21, collection information analysis module 22, unexpected situation determination module 23, storage module 70, tracking unit control module 28, tracking The sub interface 29, the external terminal interface 30, and the external system link module 31 are included.
  • the radar interface 21 is a module that links the radar sensor unit 10 and the control unit 20.
  • the radar interface 21 receives a signal from the radar sensor unit 10 and transmits a control command to the radar sensor unit 10.
  • the collection information analysis module 22 converts the signal received through the radar interface 21 into data, classifies the converted data and generates detection information.
  • the collection information analysis module 22 assigns a unique identification ID to the target object according to the radio signal received by the radar sensor unit 10, and the detection information is a position, speed and Contains data about size. By assigning a unique identification ID to the target object, the target object can be tracked based on the assigned identification ID.
  • the plurality of radar sensor units 10 may exchange the identification IDs with each other to enable tracking in a wide area for a single target object.
  • the sudden situation determination module 23 determines a sudden situation or tracking of the target object or extracts traffic information according to the detection information generated by the collection information analysis module 22. The sudden situation determination module 23 determines whether there is a sudden situation from the data on the position, speed, and size collected by the collection information analysis module 22.
  • the storage module 70 is a module for storing the detection information generated by the collection information analysis module 22 or the information processed by the unexpected situation determination module 23.
  • the storage module 70 includes an unexpected situation storage module 24, an unexpected image database 25, an unexpected information collecting module 26, and an unexpected information database 27.
  • the unexpected situation storage module 24 is a module for storing an unexpected image. In the present embodiment, for example, but described as storing the accidental image and the incident information in a separate storage space, but is not limited to this, of course, it is also possible to store in one storage space.
  • the tracking unit control module 28 is a module for controlling the tracking unit 50 to track the target object according to the information determined by the sudden situation determination module 23.
  • the tracking unit interface 29 transmits and receives a signal to and from the tracking unit 50.
  • the external terminal interface 30 transmits and receives a signal with an external terminal 60.
  • the terminal 60 includes at least one of a terminal of a driver or a pedestrian, a terminal provided in a vehicle, a traffic situation control center for managing road conditions, and a display member installed on a road.
  • the display member provided on the road includes a variable sign board, a delineator and the like.
  • the external system linkage module 31 is a module for linking data with a system of a police station or a road traffic management department in addition to the terminal.
  • the communication unit 40 transmits the sensing information generated by the control unit 20 to the terminal 60 through wired or wireless communication.
  • the communication unit 40 and the terminal 60 may be connected by an external communication network.
  • the tracking unit 50 tracks the target object according to the detection information generated by the control unit 20.
  • the tracking unit 50 will be described by way of example as being a camera (not shown) capable of capturing the sudden situation or the like.
  • a plurality of cameras may be installed around a road, and photograph the situation on the road according to a control signal of the tracker control module 28, and transmit the photographed image to the controller 20. have. That is, when the tracking unit 50 determines that an accident occurs in the control unit 20, the tracking unit 50 may photograph and track the target object to which the corresponding identification ID is assigned according to the control signal of the control unit 20.
  • the radar sensor unit 10 transmits a radio signal to the detection area, if there is a target object including a vehicle or a pedestrian on the road, The wireless signal reflected from the target object is received (S1) (S2).
  • the collection information analysis module 22 generates detection target data for position, speed, and size from the movement information of the target object, and analyzes the data pattern (S3).
  • the detection target data is composed of a plurality of data for one target object.
  • the plurality of detection target data are processed as it is, since one target may be displayed as multiple targets, a target clustering process for classifying the same targets is required.
  • the method of processing the detection target data will be described in detail later with reference to FIGS. 11 to 13.
  • the collection information analysis module 22 processes the detection target data and gives a unique identification ID to the recognized target object (S4).
  • the sudden situation determination module 23 analyzes the pattern of the velocity data generated above.
  • the method of analyzing the pattern of the speed data is to distinguish the increase and decrease of the speed, and to compare the speed with a preset speed.
  • the sudden situation determination module determines whether the speed is within a preset stop threshold value range (S5).
  • the stop threshold range is set in advance to a speed range in which the target object can be determined to be at a standstill.
  • the magnitude is compared with the preset vehicle threshold.
  • the vehicle threshold is set in consideration of general vehicle sizes.
  • the target object is a stationary vehicle (S7).
  • the target object when the speed is within the range of the stop threshold and the size is larger than the vehicle threshold, the target object may be determined to be a stop vehicle.
  • the target object is smaller than the vehicle, whether it is a pedestrian or a falling object.
  • the secondary identification ID is assigned to each of the separated objects, and the distance, size, and speed change between the separated objects are compared to thereby detect the target object. It can be determined whether the falling object has fallen from the object. That is, it may be determined that one of the separation objects is a vehicle and the other is a falling object. Therefore, the occurrence of the falling object can be determined.
  • the continuously moving target object whose speed of the target object is higher than the absolute value range of the stop threshold and whose size is smaller than the vehicle threshold may be determined as a pedestrian (S10).
  • the sudden situation determination module determines whether the speed is a positive value or a negative value.
  • the speed increases to show a positive value.
  • the speed indicates a negative value.
  • the magnitude is compared with the vehicle threshold (S12).
  • the target object is a reverse driving vehicle (S13).
  • the accident situation determination module 23 determines that the target object is one of a stationary vehicle, a pedestrian, a falling object, and a reverse driving vehicle, an alarm corresponding thereto is generated, and the storage module 70 and the external terminal interface 30 are generated. To pass).
  • the storage module 70 stores position information and an alarm of the target object.
  • the external terminal interface 30 transmits the location information of the target object and the alarm to the terminal 60. (S6)
  • the terminal 60 is described as an example of the traffic condition control center.
  • the traffic condition control center may receive the location information and the alarm information from the controller and take measures to process the location information.
  • the present invention is not limited to the above embodiment, and the tracking unit 50 captures the target object, and the control unit 20 may transmit a captured image of the target object to the terminal 60.
  • the terminal 60 includes a display member such as a variable sign board or a delegator installed on a road.
  • 5 is a flowchart illustrating an example of a method for detecting a sudden situation using multiple radar pulses according to an exemplary embodiment of the present invention.
  • 6 is a diagram illustrating a transmission state of a multiple radar pulse according to an embodiment of the present invention.
  • the radar interface 21 of the control unit 20 may set the radar pulses transmitted from the radar sensor unit 10 to multiple radar pulses (S21).
  • the multiple radar pulses mean that the radar sensor unit 10 transmits a plurality of radar pulses in one transmission period.
  • the radar sensor unit 10 transmits n radar pulses P in one transmission period.
  • the n radar pulses are transmitted at predetermined time intervals within the one transmission period.
  • the number of the radar pulses is set differently according to the length of the road to detect the sudden situation and the respective widths W1, W2, W3, ... Wn of the radar pulses. That is, the number of the radar pulses is set in proportion to the length of the road.
  • the radar interface 21 sets the widths W1, W2, W3,... Wn of the n radar pulses P differently.
  • the widths W1, W2, W3, ... Wn of the radar pulses are set such that the width of the transmitted radar pulses increases with time. That is, the n radar pulses transmit radio signals sequentially from the time point S at which one transmission period T1 starts, but the width of the radar pulse is gradually increased with time.
  • the width of the radar pulse is proportional to the output and the intensity of the radio signal, so that the greater the width of the radar pulse can be transmitted farther.
  • the widths (W1, W2, W3, ... Wn) of the radar pulses are set differently according to the linearity of the road.
  • the linearity of the road means the shape of the road.
  • the radar interface 21 is set such that the width of the radar pulses is proportional to the length of the straight section included in the road. That is, when the length of the straight section included in the road is greater than or equal to a preset ratio, it is determined that the road is a straight road, and the widths W1, W2, W3,... W1) up to the Nth width, which is the maximum value, and set to Wn.
  • the upper limit width is set in proportion to the length of the straight line section without increasing the width to the Nth width Wn. In other words, as the length of the straight section is smaller, the maximum width of the radar pulse is reduced.
  • the radar sensor unit 10 transmits three first, second, and third radar pulses P1, P2, and P3 in one transmission period.
  • the first radar pulse P1 is set to the first width W1 which is the minimum value
  • the second radar pulse P2 is the second width W2 that is larger than the first width W1.
  • the third radar pulse P3 is set to a third width W3 that is larger than the second width W2. The larger the pulse, the greater the intensity of the radio signal, so that transmission can be performed at a greater distance, and thus a wider detection area can be detected.
  • the first radar pulse P1 is a short pulse that can be transmitted in a range of about 0 to 200 m
  • the second radar pulse P2 is a middle that can be transmitted in a range of about 200 to 600 m
  • the third radar pulse P3 is a long pulse capable of transmitting in the range of about 600 to 1000 m. That is, if the road is a straight road, even if it transmits at about 600m or more, since the reception is smooth, all of the short pulse to the long pulse can be used.
  • the radar sensor unit 10 transmits three first, second, third radar pulses P1, P2, P3 in one transmission period, but if the road is a curved road, only short pulses are used or Only short pulse and middle pulse can be selected and used. That is, if the road is a curved road, when transmitting at a distance of about 600m or more from the radar sensor unit, since it is impossible to transmit to the correct position and a reception error may occur accordingly, only a short pulse is used without using a long pulse. Only short pulses and middle pulses can be used.
  • the method of dividing the road into a straight road and a curved road may be divided according to a ratio of the length of the straight sections included in the road to the total length of the road, and may be stored in advance in the database through a preliminary investigation. .
  • the total length of the road corresponds to a detection area that the radar sensor unit 10 can detect.
  • the radar interface 21 sets detection areas of two radar pulses sequentially transmitted among the detection areas of the plurality of radar pulses to overlap each other.
  • the radar interface 21 may set the detection areas of the radar pulses to overlap when setting the width of the radar pulses.
  • the radar sensor unit transmits a radio signal for the n radar pulses on the road according to the width set in the above.
  • the radar sensor unit 10 receives a plurality of reflected signals reflected from the detection area of the radio signal according to the n radar pulses on the road (S22).
  • the collection information analysis module 22 and the sudden situation determination module 23 detect the presence or absence of a sudden situation from the received plurality of reflected signals.
  • the sudden situation determination module 23 may analyze the received plurality of reflected signals to determine whether there is a sudden situation.
  • the accident situation determination module 23 determines whether the detection area in which the accident situation is detected is the overlapping area.
  • the overlapping area is an area in which detection areas of two radar pulses sequentially transmitted among the plurality of radar pulses overlap.
  • FIG. 7 is a diagram illustrating an example in which an accident situation is detected in detection areas for multiple radar pulses.
  • a detection error often occurs in the area corresponding to the edge of the detection area of the radar pulse.
  • the detection areas of the two radar pulses overlap, a phenomenon in which a detection error appears at the edge of the detection area of the radar pulse can be reduced.
  • the abrupt situation determination module 23 When it is determined that the detection area in which the accidental state is detected is not an overlapping area, the abrupt situation determination module 23 generates abrupt information about the incidental situation (S25).
  • the sudden situation determination module 23 the sudden situation from the data about the position, speed and size for the target object collected by the collection information analysis module 22, the sudden situation of any of the vehicle, stationary vehicles, pedestrians and falling objects Can be determined.
  • the sudden situation determination module 23 analyzes the pattern of the velocity data generated above.
  • the method of analyzing the pattern of the speed data is to distinguish the increase and decrease of the speed, and to compare the speed with a preset speed.
  • the sudden situation determination module 23 determines whether the speed is within a preset stop threshold value range. If the speed is within a preset stop threshold range, the magnitude is compared with a preset vehicle threshold. If the size is larger than the vehicle threshold, it is determined that the target object is a stationary vehicle. That is, when the speed is within the range of the stop threshold and the size is larger than the vehicle threshold, the target object may be determined to be a stop vehicle.
  • the size is less than the vehicle threshold, it is determined that the target object is smaller than the vehicle, it can be determined as a pedestrian or falling object.
  • the pattern of the generated speed data appears to alternately increase and decrease the speed. That is, since the speed increases when the pedestrian's arm moves forward and the speed decreases when the arm goes backward, if the arm continues to move back and forth while the pedestrian walks, the number of times of alternately increasing and decreasing the speed exceeds the threshold number of times. Appears.
  • the threshold number of times may be set in advance by a test or the like, through which pedestrians and falling objects can be distinguished.
  • the increase or decrease of the speed is determined to determine whether the target object is reverse driving or forward driving.
  • the sudden situation determination module determines whether the speed is increased or decreased. When the target object approaches the radar sensor unit in constant driving, the speed increases to show a positive value. When the target object is in reverse driving away from the radar sensor unit, the speed decreases to show a negative value. If it is determined that the speed decreases, the magnitude is compared with the vehicle threshold. When the speed decreases and the size is larger than the vehicle threshold, it may be determined that the target object is a reverse driving vehicle.
  • the sudden situation determination module 23 generates the target object according to the unexpected information when it is determined that the target object is any one of a stationary vehicle, a pedestrian, a falling object, and a reverse driving vehicle.
  • the controller 20 transmits the generated accidental information to a terminal of a driver or a pedestrian, a communicable electronic device provided in a vehicle, and a traffic condition control center for managing road conditions through wired or wireless communication (S25).
  • controller 20 may capture the incident situation by using the tracking unit 50 and transmit the captured image together.
  • the sudden situation determination module 23 determines whether all of the radar pulses are detected in the detection area (S27).
  • Fig. 7 shows a case where the sudden situation I1 is detected in both detection regions of the first and second radar pulses.
  • the controller 100 determines that the incident situation I1 is detected in both detection regions of the first and second radar pulses, the controller generates the incident information regarding the incident situation. (S26)
  • the control unit 20 may transmit the generated accidental information through a wired or wireless communication to a terminal of a driver or a pedestrian, a communicable electronic device provided in a vehicle, a traffic condition control center for managing road conditions, a variable signboard or a deli installed on a road. It transmits to the display member such as Naator and the like.
  • the control section said that the sudden situation I2 is detected only in the detection area of the second radar pulse P2 and not in the detection area of the first radar pulse P1. If it is determined, a preset weight is applied (S28).
  • FIG. 8 is a diagram illustrating another example in which an accident situation is detected in detection areas for multiple radar pulses according to an embodiment of the present invention.
  • FIG. 8 shows a case where it is determined that the above-mentioned sudden situation I2 is not detected in all of the detection areas of the first and second radar pulses, but only in the detection area of the second radar pulse P2.
  • the abrupt situation determination module 23 determines the abrupt situation according to whether the radar pulse is detected in the detection region of the high weight among the two first and second radar pulses P1 and P2. )
  • the weight is preset based on the accuracy of the plurality of radar pulses and stored in advance in a database or the like. Since the signal end of the radar pulse is weak, the detection accuracy of the portion where the detection region of the radar pulse starts is higher than the portion where the detection region of the radar pulse ends. Therefore, in the present embodiment, an example will be described in which the weight of the radar pulse of the portion where the detection region starts is high among the two detection regions constituting the overlap region. That is, since the detection area of the second radar pulse P2 includes the start portion of the overlap area O1, the weight of the second radar pulse P2 is greater than the weight of the first radar pulse P1. Since it is high, a sudden situation is determined according to the result detected in the detection area of the said 2nd radar pulse P2. However, the present invention is not limited thereto, and of course, the weights may be set and reflected in various ways through experiments.
  • the sudden situation determination module 23 determines that the sudden situation I2 is detected in the detection area of the second radar pulse, the sudden situation determination module 23 generates the sudden information on the sudden situation (S25).
  • the accident detection system transmits a plurality of radar pulses in one transmission period, and sets the pulse widths of the plurality of radar pulses differently according to the linearity of the road, so that the linearity of the road is not affected. There is an effect that can accurately detect the situation.
  • the detection error occurring at the edge portion where the detection area of the radar pulse ends is minimized, and the accuracy can be improved.
  • FIG. 9 is a flowchart illustrating another example of a method for detecting a sudden situation using multiple radar pulses according to an exemplary embodiment of the present invention.
  • the sudden detection is detected by tracking a camera image.
  • the radar interface 21 sets the radar pulses transmitted by the radar device to multiple radar pulses (S31).
  • the radar interface 21 is set such that the radar device transmits n radar pulses in one transmission period.
  • the widths W1, W2, W3, ... Wn of the n radar pulses are set differently.
  • the widths (W1, W2, W3, ... Wn) of the radar pulses are set differently according to the linearity of the road.
  • the radar device transmits a radio signal for the n radar pulses over the road according to the width set in the above.
  • the radar device receives a plurality of reflected signals reflected from the detection area of the radio signal according to the n radar pulses on the road (S32).
  • the sudden situation determination module 23 detects the presence or absence of a sudden situation from the received plurality of reflected signals (S33).
  • the sudden situation determination module 23 determines whether the detection area in which the sudden situation is detected is the overlapping area (S34).
  • the accident situation determination module 23 If it is determined that the detection area in which the accident situation is detected is not an overlapping area, the accident situation determination module 23 generates the accident information for the accident situation (S35).
  • the abrupt information includes the distance, speed and type of abruptness of the object that caused the abrupt situation.
  • the abrupt type includes a stationary vehicle, a slowing vehicle, a speeding vehicle, a reverse driving vehicle, a falling object, a pedestrian, a ground of a vehicle, a traffic jam, and the like.
  • the sudden situation determination module 23 the sudden situation from the data about the position, speed and size for the target object collected by the collection information analysis module 22, the sudden situation of any of the vehicle, stationary vehicles, pedestrians and falling objects Can be determined.
  • the sudden situation determination module 23 analyzes the pattern of the velocity data generated above.
  • the method of analyzing the pattern of the speed data is to distinguish the increase and decrease of the speed, and to compare the speed with a preset speed.
  • the sudden situation determination module 23 determines whether the speed is within a preset stop threshold value range. If the speed is within a preset stop threshold range, the magnitude is compared with a preset vehicle threshold. If the size is larger than the vehicle threshold, it is determined that the target object is a stationary vehicle. That is, when the speed is within the range of the stop threshold and the size is larger than the vehicle threshold, the target object may be determined to be a stop vehicle.
  • the target object is smaller than the vehicle, it can be determined as a pedestrian or falling object. If it is detected that the radio signal for the target object is separated while tracking the target object, the secondary identification ID is assigned to each of the separated objects, and the distance, size, and speed change between the separated objects are compared to thereby detect the target object. It can be determined whether the falling object has fallen from the object. That is, it may be determined that one of the separation objects is a vehicle and the other is a falling object. Therefore, the occurrence of the falling object can be determined. Meanwhile, the continuously moving target object whose speed is higher than the absolute value range of the stop threshold and whose size is smaller than the vehicle threshold may be determined as a pedestrian.
  • the increase or decrease of the speed is determined to determine whether the target object is reverse driving or forward driving.
  • the sudden situation determination module determines whether the speed is increased or decreased. When the target object approaches the radar sensor unit in constant driving, the speed increases to show a positive value. When the target object is in reverse driving away from the radar sensor unit, the speed decreases to show a negative value. If it is determined that the speed decreases, the magnitude is compared with the vehicle threshold. When the speed decreases and the size is larger than the vehicle threshold, it may be determined that the target object is a reverse driving vehicle.
  • the sudden situation determination module 23 generates the target object according to the unexpected information when it is determined that the target object is any one of a stationary vehicle, a pedestrian, a falling object, and a reverse driving vehicle.
  • the controller 20 may generate the generated accidental information through the external terminal interface 30, a terminal of a driver or a pedestrian, a communicable electronic device provided in a vehicle, a traffic situation control center for managing road conditions, and a variable signboard installed on a road. Or a display member such as a delegate or the like (S36).
  • controller 20 may capture the incident situation by using the camera, which is the tracking unit 50, and may also transmit the captured image.
  • the sudden situation determination module 23 determines whether or not both detection in the detection area of the two radar pulses (S37).
  • the sudden situation determination module 23 generates the sudden information on the sudden situation when it is determined that the sudden situation has been detected in both detection areas of the two radar pulses (S35).
  • the controller 20 transmits the generated accidental information to a terminal of a driver or a pedestrian, a communicable electronic device provided in a vehicle, and a traffic condition control center for managing road conditions through wired or wireless communication (S36).
  • the tracking unit control module 28 And the image captured by the camera through the tracker interface 29 (S38).
  • the controller 20 checks the image captured by the camera, and finally determines whether there is an accident situation (S39).
  • the sudden situation determination module 23 may determine an unexpected situation or a sudden detection type by checking an image captured by the camera and determining a motion, a size, etc. of an object captured by the image.
  • the present disclosure is not limited thereto, and a person such as an administrator may check an image captured by the camera to directly determine an accident situation or an accident type.
  • the sudden situation determination module 23 If it is determined that the sudden situation exists, the sudden situation determination module 23 generates the sudden information on the sudden situation (S35).
  • the control unit 20 may transmit the generated accidental information through a wired or wireless communication to a terminal of a driver or a pedestrian, a communicable electronic device provided in a vehicle, a traffic condition control center for managing road conditions, a variable signboard or a deli installed on a road. And transmits to a display member such as a nater or the like (S36).
  • the tracker control module 28 and the tracker interface 29 By tracking the image taken by the camera through), it is possible to detect more accurately by minimizing an error when detected only in the detection area of one radar pulse.
  • FIG. 10 is a diagram illustrating another example of a transmission state of multiple radar pulses according to an embodiment of the present invention.
  • the radar sensor unit 10 transmits a plurality of multiple radar pulses in one transmission period, but outputs of the plurality of radar pulses are different from each other.
  • the radar sensor unit 10 transmits n radar pulses P in one transmission period.
  • the n radar pulses are transmitted at predetermined time intervals within the one transmission period.
  • the number of the radar pulses is set differently according to the length of the road to detect the sudden situation and the respective outputs (O1, O2, O3, ...) of the radar pulses.
  • the radar interface 21 sets outputs O1, O2, O3, .. On of the n radar pulses P differently.
  • the outputs of the radar pulses (O1, O2, O3, ...) are set such that the output of the radar pulses is gradually increased as time passes within one transmission period. That is, the n radar pulses transmit radio signals sequentially from the time point S at which one transmission period T1 starts, but the output of the radar pulse gradually increases with time.
  • the present invention is not limited thereto, and the output (O1, O2, O3, ..On) of the radar pulses may gradually increase and decrease with time, and gradually increase during the one transmission period T1. It is of course also possible to reduce the number of times.
  • the widths (W1, W2, W3, ... Wn) of the radar pulses are described as an example. However, the present invention is not limited thereto, and the radar pulses may have different widths.
  • the output of the radar pulse is proportional to the intensity of the radio signal, the greater the output of the radar pulse, the farther the radio signal can be transmitted.
  • the output of the radar pulse returns to the initial output at the time S at which the transmission period T1 begins.
  • the intensity of the reflected signal reflected by the target object is inversely proportional to the distance to the target object. Therefore, when the distance is far, accurate detection is difficult because the strength of the reflected signal is weak. In addition, the smaller the size of the target object, the weaker the intensity of the reflected signal reflected from the target object.
  • the present embodiment by controlling to transmit the radar pulses of different outputs within one transmission period, the distance between the radar sensor unit 10 and the target object, the size of the target object without affecting the Detection of the target object can be more accurate.
  • the output of the radar pulses is constant, when the distance between the radar sensor unit 10 and the target object is too far, and the size of the target object is very small, the intensity of the reflected signal reflected from the target object Since P is weaker than the preset minimum threshold, the target signal may not be detected because the reflection signal is not received.
  • the output of the radar pulses are set differently, when the distance between the radar sensor unit 10 and the target object is too far, and the size of the target object is very small, Since the intensity of the reflected signal is greater than the minimum threshold, the reflected signal can be received, thereby detecting the target object. That is, even when the distance between the radar sensor unit 10 and the target object is too long and the size of the target object is very small, the target object can be detected at a relatively large output of the radar pulses.
  • the output of the radar pulses is constant, if the distance between the radar sensor unit 10 and the target object is too close, and the size of the target object is very large, the intensity of the reflected signal reflected from the target object in advance Since it is stronger than the set maximum threshold, it may cause malfunction of the system, such as failing to recognize the reflected signal or failing to detect the target object by recognizing it as an error.
  • the output of the radar pulses is set differently, when the distance between the radar sensor unit 10 and the target object is too close, and the size of the target object is very large, for the relatively small output of the output of the radar pulses Since the reflected signal is received because the intensity of the reflected signal is smaller than the maximum threshold, the target object can be detected. That is, even when the distance between the radar sensor unit 10 and the target object is too close and the size of the target object is very large, the target object can be detected at a relatively small output of the radar pulses.
  • the target object is not affected by the distance between the radar sensor unit 10 and the target object and the size of the target object. It can be detected accurately.
  • FIG. 11 is a flowchart illustrating a method of processing detection target data according to an embodiment of the present invention.
  • the radar sensor unit 10 transmits a signal to the target object and receives radio signals (hereinafter, referred to as “signals”) reflected by the vehicle (S41).
  • the collection information analysis module 22 calculates signals received from the radar sensor unit 10 as detection target data using constant false alarm rate detection.
  • the detection target data is calculated in plural for one target object.
  • the plurality of detection target data includes a speed index, a range index, a speed value, a distance value, and the like, respectively.
  • the plurality of detection target data are represented as cells in a clustering map (S42).
  • the clustering map is a map configured to display the speed index and the distance index in a cell by displaying X-Y axis coordinates.
  • the horizontal axis (X axis) is a distance cell indicating a distance index
  • the vertical axis (Y axis) is a speed cell indicating a speed index in the clustering map.
  • FIG. 12 illustrates a state in which the plurality of detection target data are displayed on the clustering map and target clustering is performed.
  • a target clustering process is performed to classify the same target objects by assigning the same target number to cells having a value continuously in the up, down, left, and right directions among the plurality of cells.
  • the same target number is assigned to cells among which the difference in cell values is one or less.
  • a total of five target objects 1 to 5 are clustered, for example.
  • FIG. 13 illustrates a state in which representative target data is extracted from a clustering map according to an embodiment of the present invention.
  • a value of a cell having the largest signal strength among cells having the same target numbers 1 to 5 is extracted as the representative target data B.
  • the method of extracting the representative target data B is as follows.
  • a comparison center is selected for a cell located at the center among the plurality of cells.
  • the total number of cells having the first target number 1 is eight
  • the total number of cells having the second target number 2 is seven
  • the total number of cells having the third target number 3 is eight.
  • the center of gravity is found in a range of distance indexes occupied by a plurality of cells having the same target number, the center of gravity is found in a range of speed indexes, and a comparison center is selected.
  • the range of distance indices occupied by eight cells having the first target number 1 ranges from r3 to r6.
  • the center position in the range r3 to r6 corresponds to the line between r4 and r5.
  • the speed index range occupied by the cells having the first target number 1 is d2 to d4.
  • the central position in the range of d2 to d4 corresponds to d3.
  • the center of comparison among the cells having the first target number 1 may be selected as a line between r4 and r5 and d3.
  • comparison cells adjacent to the comparison center are selected as comparison cells A for comparing signal strength.
  • the comparison target cells A include r4, which is the front cell of the line between r4 and r5, and r5, which is the rear cell.
  • the cells to be compared are included in the comparison cells A from the front cell d2 to the back cell d4.
  • Cells may be selected as the cells to be compared. That is, by selecting the cells to be compared to compare the signal strength, the number of cells to be compared with the signal strength is reduced, thereby reducing the data processing time.
  • S1 to S5 represent the strength of the signal. Since the highest signal strength is S4 among the comparison target cells A to which the first target number 1 is assigned, the cell having the signal strength of S4 is extracted as the representative target data B.
  • FIG. 13 S1 to S5 represent the strength of the signal. Since the highest signal strength is S4 among the comparison target cells A to which the first target number 1 is assigned, the cell having the signal strength of S4 is extracted as the representative target data B.
  • the sudden situation determination module may determine the unexpected situation using the representative target data B.
  • the cells to be compared are found among the detection target data, and the signal strength is compared only with respect to the cells to be compared. Can be reduced.
  • Figure 14 is a view showing a method for detecting a fixed obstacle in the radar-based high-precision accident detection method according to another embodiment of the present invention.
  • the fixed obstacle includes a stationary vehicle and a falling object. Since there is no change in speed in the case of the fixed obstacle, it is not possible to obtain a speed value from the radio signal.
  • the radar sensor unit 10 transmits a radio signal in real time and receives a radio signal reflected from a target object on a road (S41).
  • the unexpected situation determination module 23 compares the received signal with a preset reference signal (S42).
  • the reference signal is set to an average value of the received signals received by the radar sensor unit 10 for a predetermined time.
  • the received signal is a signal received in real time.
  • the sudden situation determination module 23 determines that there is a fixed obstacle on the road when the difference between the received signal and the reference signal exceeds a preset threshold.
  • the level of the reference signal is 3 and the level of the received signal is 5, it may be determined that the difference between the level of the reference signal and the received signal is 2 and the threshold is exceeded. When the difference between the level of the reference signal and the level of the received signal exceeds the threshold, it may be determined that the fixed obstacle exists.
  • the size of the fixed obstacle is compared with a preset vehicle threshold.
  • the fixed obstacle is determined as a stationary vehicle (S45).
  • the fixed obstacle is a falling object (S46).
  • the fixed obstacle in the case of the fixed obstacle which cannot sense the speed value, the fixed obstacle can be recognized by comparing the preset reference signal with the received signal.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

본 발명은, 도로 위 타겟 물체에 식별 아이디를 부여하고 타겟 물체를 추적하는 동안, 타겟 물체의 속도 데이터의 패턴을 분석하여, 차량과 보행자를 보다 신속하고 정확하게 파악할 수 있다. 또한, 한 번의 송신 주기에 복수의 레이더 펄스들을 송신하고, 복수의 레이더 펄스들의 펄스 폭을 도로의 선형에 따라 다르게 설정함으로써, 도로의 선형에 관계없이 보다 정확하게 돌발 상황을 검지할 수 있는 효과가 있다. 또한, 차량 1대의 하나의 타겟에 대한 정밀한 타겟탐지를 이룰 수 있도록 하여 정확한 타겟처리를 할 수 있으며, 레이더 신호의 신호처리 성능을 향상시킬 수 있다.

Description

레이더 기반 고 정밀 돌발상황 검지 시스템
본 발명은 레이더 기반 고 정밀 돌발상황 검지 시스템에 관한 것으로서, 보다 상세하게는 레이더 센서를 이용하여 도로 위에서 발생할 수 있는 돌발 상황을 감지할 수 있는 레이더 기반 고 정밀 돌발상황 검지 시스템에 관한 것이다.
차량 및 사람이 이용하는 도로 교통에서는 항상 사고 가능성이 잠재되어 있으며, 실제로 전국적으로 하루에도 수많은 교통 사고 및 위험 상황이 발생한다. 특히 고속도로와 같은 초고속 주행 환경 또는 야간에는 운전자의 주변 상황 인지능력이 현저히 저하될 가능성이 크고, 이는 곧 대형 교통 사고로 이어질 수 있다. 도로 상의 상황을 감지하기 위한 다양한 기술들이 제안되고 있지만, 종래에는 도로 또는 차량에 설치된 적외선 카메라를 이용하여 전방의 물체를 감지하고 이를 통보하는 기술에 국한되어 있고, 이러한 방식은 감지 효율이 떨어지는 단점이 있다.
최근에는, 도로의 노면 상태를 파악하거나, 도로 위의 사고, 정지 차량, 보행자, 역주행, 낙하물 등의 돌발 상황을 감지하기 기술에 대한 관심이 증대되고 있다.
본 발명의 목적은, 도로 위에서 돌발 상황을 보다 정확하게 검지할 수 있는 레이더 기반 고 정밀 돌발상황 검지 시스템을 제공하는 데 있다.
본 발명에 따른 레이더 기반 고 정밀 돌발상황 검지 시스템은, 도로 주변에 설치되어 도로 위에 무선 신호를 송출하고, 도로 위의 타겟물체로부터 반사되는 무선 신호를 수신하는 레이더 센서부와; 상기 레이더 센서부로부터 무선 신호를 수신하고, 수신된 무선 신호에 따라 돌발상황에 대한 감지 정보를 생성하는 제어부와; 상기 제어부에서 생성된 감지 정보를 유,무선 통신을 통해 운전자 또는 보행자의 단말기, 차량에 마련된 단말기, 도로 상황을 관리하는 교통상황 관제센터 및 도로에 설치된 디스플레이 부재 중 적어도 하나를 포함하는 외부 단말기에 전송하는 통신부와; 상기 제어부에서 생성된 감지 정보에 따라 상기 타겟물체를 추적하는 추적부를 포함한다.
본 발명은, 도로 위 타겟 물체에 식별 아이디를 부여하고 타겟 물체를 추적하는 동안, 타겟 물체의 속도 데이터의 패턴을 분석하여, 차량과 보행자를 보다 신속하고 정확하게 파악할 수 있다.
또한, 한 번의 송신 주기에 복수의 레이더 펄스들을 송신하고, 복수의 레이더 펄스들의 펄스 폭을 도로의 선형에 따라 다르게 설정함으로써, 도로의 선형에 관계없이 보다 정확하게 돌발 상황을 검지할 수 있는 효과가 있다.
또한, 연속적으로 송신되는 두 개의 레이더 펄스들의 검지 영역 중 일부를 중첩되게 설정함으로써, 레이더 펄스의 검지 영역이 끝나는 가장자리부분에서 발생되는 검지 오류가 최소화되어, 정확도가 향상될 수 있다.
또한, 하나의 타겟으로부터 수신되는 여러개의 신호를 거리값과 속도값을 기준으로 X-Y축 좌표계를 설정하고, 이러한 X-Y축 좌표계 상으로 검출 타겟데이터를 각 셀로 나타낸 다음 이를 클러스터링(Target clustering)과정을 거쳐서 연속적인 거리 및 속도 셀에 걸쳐 표시되는 타겟 정보를 하나의 타겟으로 처리함으로써, 정밀하고 정확한 타겟탐지가 이루어질 수 있도록 할 수 있다.
또한, 차량 1대의 하나의 타겟에 대한 정밀한 타겟탐지를 이룰 수 있도록 하여 정확한 타겟처리를 할 수 있으며, 레이더 신호의 신호처리 성능을 향상시킬 수 있다.
도 1은 본 발명에 따른 레이더 기반 고 정밀 돌발상황 검지 시스템의 구성이 도시된 블록도이다.
도 2는 도 1에 도시된 레이더 센서부의 구성이 도시된 블록도이다.
도 3은 도 1에 도시된 제어부의 구성이 도시된 블록도이다.
도 4는 본 발명의 실시예에 따른 레이더 기반 고 정밀 돌발상황 검지방법이 도시된 순서도이다.
도 5는 본 발명의 실시예에 따른 다중 레이더 펄스를 이용한 돌발 상황 감지방법의 일 예가 도시된 순서도이다.
도 6은 본 발명에 따른 다중 레이더 펄스의 송신 상태의 일 예가 도시된 도면이다.
도 7은 본 발명의 실시예에 따른 다중 레이더 펄스들에 대한 검지 영역들에서 돌발 상황이 검출되는 일 예가 도시된 도면이다.
도 8은 본 발명의 실시예에 따른 다중 레이더 펄스들에 대한 검지 영역들에서 돌발 상황이 검출되는 다른 예가 도시된 도면이다.
도 9는 본 발명의 실시예에 따른 다중 레이더 펄스를 이용한 돌발 상황 감지방법의 다른 예가 도시된 순서도이다.
도 10은 본 발명에 따른 다중 레이더 펄스들의 송신 상태의 다른 예가 도시된 도면이다.
도 11은 본 발명의 실시예에 따른 신호처리방법을 나타내는 순서도이다.
도 12는 도 11에 도시된 신호처리방법에서 타겟 클러스터링 과정이 수행된 상태의 클러스터링 맵을 나타낸 도면이다.
도 13은 도 11에 도시된 신호처리방법에서 대표타겟데이터 추출과정이 수행된 상태의 클러스터링 맵을 나타낸 도면이다.
도 14는 본 발명의 다른 실시예에 따른 레이더 기반 고 정밀 돌발상황 검지방법에서 고정 장애물을 탐지하는 방법을 나타낸 도면이다.
이하, 첨부된 도면을 참조하여, 본 발명의 실시예에 대해 설명하면, 다음과 같다.
도 1은 본 발명에 따른 레이더 기반 고 정밀 돌발상황 검지 시스템의 제어 구성이 도시된 블록도이다. 도 2는 도 1에 도시된 레이더 센서부의 구성이 도시된 블록도이다. 도 3은 도 1에 도시된 제어부의 구성이 도시된 블록도이다.
도 1 내지 도 3을 참조하면, 본 발명에 따른 레이더 기반 돌발상황 검지 시스템은, 레이더 센서부(10), 제어부(20), 통신부(40), 추적부(50) 및 단말기(60)를 포함한다.
상기 레이더 센서부(10)는, 도로 주변에 설치되어, 도로 위에 무선 신호를 송출하고, 도로 위의 타겟물체로부터 반사되는 무선 신호를 수신하는 센서이다.
상기 레이더 센서부(10)는, 도 2를 참조하면, 도로 주변에서 서로 소정간격 이격된 위치에 복수개가 설치될 수 있다. 상기 레이더 센서부(10)는, 송신 안테나(12), 수신 안테나(13), 송수신부(11), 파형 발생부(14) 및 신호처리부(15)를 포함한다. 상기 복수의 레이더 센서부들(10)은 각자 자신이 송출한 신호에 대한 반사 신호만을 수신하며, 주변의 다른 센서부들(10)에 의한 반사 신호는 필터링하여 수신하지 않는다.
상기 제어부(20)는, 상기 레이더 센서부(10)로부터 무선 신호를 수신하고, 수신된 무선 신호에 따라 돌발상황에 대한 감지 정보를 생성한다. 상기 제어부(20)는, 상기 돌발 상황을 검출하고, 돌발 상황에 대한 돌발 검지 유형을 분류할 수 있다. 상기 돌발 검지 유형은, 정지차량, 서행차량, 과속차량, 역주행 차량, 지체 또는 정체 차량, 낙하물 및 보행자 등을 포함할 수 있다.
상기 제어부(20)는, 도 3을 참조하면, 레이더 인터페이스(21), 수집정보 분석모듈(22), 돌발상황 판단모듈(23), 저장모듈(70), 추적부 제어모듈(28), 추적부 인터페이스(29), 외부 단말기 인터페이스(30) 및 외부 시스템 연계모듈(31)을 포함한다.
상기 레이더 인터페이스(21)는, 상기 레이더 센서부(10)와 상기 제어부(20)를 연계시키는 모듈이다. 상기 레이더 인터페이스(21)는, 상기 레이더 센서부(10)로부터 신호를 수신하고, 상기 레이더 센서부(10)에 제어 명령을 송신한다.
상기 수집정보 분석모듈(22)은, 상기 레이더 인터페이스(21)를 통해 받은 신호를 데이터로 변환하여, 변환된 데이터를 분류하고 감지정보를 생성한다. 상기 수집정보 분석모듈(22)은, 상기 레이더 센서부(10)가 수신한 무선신호에 따라 상기 타겟물체에 대해 고유의 식별 아이디를 부여하고, 상기 감지정보는 상기 식별 아이디에 대한 위치, 속도 및 크기에 대한 데이터를 포함한다. 상기 타겟물체에 대해 고유의 식별 아이디를 부여함으로써, 부여한 식별 아이디에 기초하여 상기 타겟물체를 추적할 수 있다. 상기 복수의 레이더 센서부들(10)이 서로 상기 식별 아이디를 주고받아 하나의 타겟물체에 대한 광범위한 지역에서의 추적이 가능해질 수 있다.
상기 돌발상황 판단모듈(23)은, 상기 수집정보 분석모듈(22)에서 생성된 감지정보에 따라 돌발상황이나 상기 타겟물체의 추적을 판단하거나 교통 정보를 추출한다. 상기 돌발상황 판단모듈(23)은, 상기 수집정보 분석모듈(22)에서 수집된 위치, 속도 및 크기에 대한 데이터로부터 돌발상황 여부를 판단한다.
상기 저장모듈(70)은, 상기 수집정보 분석모듈(22)에서 생성된 감지정보나 상기 돌발상황 판단모듈(23)에서 처리된 정보를 저장하는 모듈이다.
상기 저장모듈(70)은, 돌발상황 저장모듈(24), 돌발영상 데이터베이스(25), 돌발정보 수집모듈(26), 돌발정보 데이터베이스(27)를 포함한다. 상기 돌발상황 저장모듈(24)은, 돌발 영상을 저장하는 모듈이다. 본 실시예에서는, 돌발영상과 돌발정보를 별도의 저장공간에 저장하는 것으로 예를 들어 설명하나, 이에 한정되지 않고 하나의 저장공간에 저장하는 것도 물론 가능하다.
상기 추적부 제어모듈(28)은, 상기 돌발상황 판단모듈(23)에서 판단된 정보에 따라 상기 타겟물체를 추적하도록 상기 추적부(50)를 제어하는 모듈이다.
상기 추적부 인터페이스(29)는, 상기 추적부(50)와 신호를 송수신한다.
상기 외부 단말기 인터페이스(30)는, 외부의 단말기(60)와 신호를 송수신한다. 상기 단말기(60)는, 운전자 또는 보행자의 단말기, 차량에 마련된 단말기, 도로 상황을 관리하는 교통상황 관제센터, 도로에 설치된 디스플레이 부재 중 적어도 하나를 포함한다. 상기 도로에 설치된 디스플레이 부재는, 가변 전광판이나 델리네이터 등을 포함한다.
상기 외부 시스템 연계모듈(31)은, 상기 단말기 이외에 경찰청이나 도로교통관리부처의 시스템과 데이터를 연계하기 위한 모듈이다.
한편, 상기 통신부(40)는, 상기 제어부(20)에서 생성된 감지 정보를 유,무선 통신을 통해 상기 단말기(60)로 전송한다. 상기 통신부(40)와 상기 단말기(60)는 외부 통신망에 의해 연결될 수 있다.
상기 추적부(50)는, 상기 제어부(20)에서 생성된 감지정보에 따라 상기 타겟물체를 추적한다. 본 실시예에서는, 상기 추적부(50)는, 상기 돌발상황 등을 촬영할 수 있는 카메라(미도시)인 것으로 예를 들어 설명한다. 상기 카메라(미도시)는 도로 주변에 복수개가 설치될 수 있으며, 상기 추적부 제어모듈(28)의 제어 신호에 따라 상기 도로 위 상황을 촬영하고, 촬영된 영상을 상기 제어부(20)로 전송할 수 있다. 즉, 상기 추적부(50)는, 상기 제어부(20)에서 돌발상황이 발생하였다고 판단되면, 상기 제어부(20)의 제어신호에 따라 해당 식별 아이디가 부여된 타겟물체를 촬영하여 추적할 수 있다.
도 4를 참조하여, 본 발명의 실시예에 따른 레이더 기반 돌발상황 검지방법에서 보행자를 감지하는 방법을 설명하면, 다음과 같다.
먼저, 상기 레이더 센서부(10)의 검지 영역이 설정되면, 상기 레이더 센서부(10)가 상기 검지 영역으로 무선 신호를 송출하여, 도로 위에 차량이나 보행자 등을 포함하는 타겟물체가 있을 경우, 상기 타겟물체로부터 반사되는 무선 신호를 수신한다.(S1)(S2)
상기 수집정보 분석모듈(22)은, 상기 타겟물체의 이동정보로부터 위치, 속도 및 크기에 대한 검출 타겟데이터들을 생성하고, 상기 데이터 패턴을 분석한다.(S3)
이 때, 상기 검출 타겟데이터들은 1개의 타겟물체에 대해서 복수의 데이터들로 이루어진다. 상기 복수의 검출 타겟데이터들을 그대로 처리하게 되면, 1개의 타겟이 여러개의 타겟으로 표시될 수 있으므로, 동일한 타겟끼리 분류하는 타겟 클러스터링 과정이 필요하다. 상기 검출 타겟데이터들을 처리하는 방법은, 도 11 내지 도 13을 참조하여 뒤에서 상세히 설명한다.
상기 수집정보 분석모듈(22)은, 상기 검출 타겟데이터들을 처리하여 인식된 타겟물체에 대해 고유의 식별 아이디를 부여한다.(S4)
상기 돌발상황 판단모듈(23)은, 상기에서 생성된 속도 데이터의 패턴을 분석한다. 상기 속도 데이터의 패턴을 분석하는 방법은, 상기 속도의 증감을 구분하고, 상기 속도를 미리 설정된 속도와 비교하는 것이다.
상기 돌발상황 판단모듈은, 상기 속도가 미리 설정된 정지임계치 범위 이내인지를 판단한다.(S5)
상기 정지임계치 범위는 상기 타겟물체가 정지상태라고 판단할 수 있는 속도범위로 미리 설정된다.
상기 속도가 미리 설정된 정지임계치의 절대값 범위 이내이면, 상기 크기를 미리 설정된 차량 임계치와 비교한다.
상기 차량 임계치는 일반적인 차량들의 크기를 고려하여 설정된다.
상기 크기가 상기 차량 임계치보다 크면, 상기 타겟물체는 정지차량이라고 판단한다.(S7)
즉, 상기 속도가 상기 정지임계치 범위 이내이고, 상기 크기가 상기 차량 임계치보다 크면, 상기 타겟물체는 정지차량이라고 판단할 수 있다.
한편, 상기 크기가 상기 차량 임계치 이하이면, 상기 타겟물체는 차량보다 작으므로 보행자인지 낙하물인지 판단한다.(S8)
상기 타겟물체를 추적하는 동안 상기 타겟물체에 대한 무선신호가 분리되는 것이 감지되면, 분리 물체들에 대해 각각 보조 식별 아이디를 부여하고, 분리 물체들 간의 거리, 크기, 속도 변화를 비교함으로써, 상기 타겟물체에서 낙하물이 떨어진 것인지 판단할 수 있다. (S9) 즉, 상기 분리물체들 중에서 하나는 차량이고, 나머지 하나는 낙하물이라고 판단할 수 있다. 따라서, 낙하물의 발생을 판단할 수 있다.
한편, 상기 타겟물체의 속도가 정지 임계치의 절대값 범위 보다 높고, 크기가 차량 임계치보다 작은 연속적으로 이동하는 타겟 물체는 보행자라고 판단할 수 있다.(S10)
상기 돌발상황 판단모듈은, 상기 속도가 플러스값인지 마이너스값인지를 판단한다.(S11)
상기 타겟물체가 상기 레이더 센서부에 다가오는 정주행시에는 상기 속도는 증가하여 플러스값을 나타낸다. 상기 타겟물체가 상기 레이더 센서부로부터 멀어지는 역주행시에는 상기 속도는 마이너스값을 나타낸다.
상기 속도가 마이너스값이라고 판단되면, 상기 크기를 상기 차량 임계치와 비교한다.(S12)
상기 속도가 마이너스값이고, 상기 크기가 상기 차량 임계치보다 크면, 상기 타겟물체는 역주행 차량이라고 판단할 수 있다.(S13)
상기 돌발상황 판단모듈(23)은, 상기 타겟물체를 정지차량, 보행자, 낙하물, 역주행 차량 중 어느 하나라고 판단되면, 그에 따른 경보를 생성하고, 상기 저장 모듈(70)과 상기 외부 단말기 인터페이스(30)에 전달한다.
상기 저장 모듈(70)은, 상기 타겟물체의 위치 정보와 경보를 저장한다.
상기 외부 단말기 인터페이스(30)는, 상기 타겟물체의 위치 정보와 상기 경보를 상기 단말기(60)에 전송한다.(S6)
본 실시예에서는, 상기 단말기(60)는 상기 교통 상황 관제센터인 것으로 예를 들어 설명한다. 상기 교통 상황 관제센터에서는 상기 제어부로부터 상기 위치 정보와 상기 보경보를 전송받고, 이를 처리하기 위한 조치를 취할 수 있다.
또한, 상기 실시예에 한정되지 않고, 상기 추적부(50)가 상기 타겟물체를 촬영하여, 상기 제어부(20)는 상기 타겟물체에 대한 촬영 영상을 상기 단말기(60)로 전송할 수 있다. 상기 단말기(60)는, 도로에 설치된 가변 전광판이나 델리네이터 등과 같은 디스플레이 부재 등을 포함한다.
도 5는 본 발명의 실시예에 따른 다중 레이더 펄스를 이용한 돌발 상황 감지방법의 일 예가 도시된 순서도이다. 도 6은 본 발명의 실시예에 따른 다중 레이더 펄스의 송신 상태가 도시된 도면이다.
도 5를 참조하면, 상기 제어부(20)의 레이더 인터페이스(21)는, 상기 레이더 센서부(10)에서 송출하는 레이더 펄스를 다중 레이더 펄스로 설정할 수 있다.(S21)
상기 다중 레이더 펄스는, 상기 레이더 센서부(10)가 한 번의 송신 주기에 복수회의 레이더 펄스들을 송신하는 것을 의미한다.
도 6을 참조하면, 상기 레이더 센서부(10)는, 한 번의 송신 주기에 n개의 레이더 펄스들(P)을 송신한다. 상기 n개의 레이더 펄스들은 상기 한 번의 송신 주기 내에서 소정의 시간 간격을 두고 송신된다. 상기 레이더 펄스들의 개수는, 돌발 상황을 검지하고자 하는 도로의 길이와 상기 레이더 펄스들의 각 폭(W1,W2,W3,..Wn)에 따라 다르게 설정된다. 즉, 상기 레이더 펄스들의 개수는 상기 도로의 길이에 비례하게 설정된다.
상기 레이더 인터페이스(21)는, 상기 n개의 레이더 펄스들(P)의 폭(W1,W2,W3,...Wn)은 서로 다르게 설정한다. 상기 레이더 펄스들의 폭(W1,W2,W3,...Wn)은 시간이 경과함에 따라 송신되는 레이더 펄스의 폭이 증가하도록 설정된다. 즉, 한 번의 송신 주기(T1)가 시작되는 시점(S)부터 상기 n개의 레이더 펄스들이 차례로 무선 신호를 송신하되, 시간에 따라 점차 레이더 펄스의 폭이 증가하도록 설정된다. 여기서, 상기 레이더 펄스의 폭은 출력과 무선 신호의 세기에 비례하므로, 상기 레이더 펄스의 폭이 클수록 무선 신호가 멀리 송출될 수 있다.
상기 레이더 인터페이스(21)는, 상기 레이더 펄스들의 폭(W1,W2,W3,...Wn)은 상기 도로의 선형에 따라 각각 다르게 설정된다. 상기 도로의 선형은 도로의 형상을 의미한다. 상기 레이더 인터페이스(21)는, 상기 레이더 펄스들의 폭이 상기 도로에 포함된 직선 구간의 길이에 따라 비례하도록 설정한다. 즉, 상기 도로에 포함된 직선 구간의 길이가 미리 설정된 설정 비율 이상일 경우 직선 도로라고 판단하고, 상기 n개의 레이더 펄스들의 폭(W1,W2,W3,...Wn)을 최소값인 제1폭(W1)부터 최대값인 제N폭까지(Wn)로 증가하여 설정한다. 한편, 상기 도로에 포함된 직선 구간의 길이가 미리 설정된 설정 비율 미만일 경우 곡선 도로라고 판단하고, 상기 n개의 레이더 펄스들의 폭(W1,W2,W3,...Wn)을 상기 제1폭(W1)부터 증가시키되 상기 제N폭(Wn)까지 증가시키지 않고 상기 직선 구간의 길이에 비례하게 상한폭을 설정한다. 즉, 상기 직선 구간의 길이가 작을수록 상기 레이더 펄스의 최대폭이 감소된다.
예를 들어, 상기 레이더 센서부(10)에서 한 번의 송신 주기에 3개의 제1,2,3레이더 펄스(P1)(P2)(P3)를 송신하는 경우에 대해 설명한다. 상기 도로가 직선 도로이면, 제1레이더 펄스(P1)는 최소값인 제1폭(W1)으로 설정하고, 제2레이더 펄스(P2)는 상기 제1폭(W1)보다 큰 제2폭(W2)으로 설정하고, 제3레이더 펄스(P3)는 상기 제2폭(W2)보다 큰 제3폭(W3)으로 설정한다. 상기 펄스가 클수록 무선 신호의 세기가 커지기 때문에 보다 먼 거리로 송신이 가능하여, 보다 넓은 검지영역을 검지할 수 있다. 상기 제1레이더 펄스(P1)는 약 0 내지 200m 범위로 송출이 가능한 숏(Short) 펄스이고, 상기 제2레이더 펄스(P2)는 약 200 내지 600m범위로 송출이 가능한 미들(Middle)이고, 상기 제3레이더 펄스(P3)는 약 600 내지 1000m범위로 송출이 가능한 롱(Long) 펄스이다. 즉, 상기 도로가 직선 도로이면, 약 600m 이상으로 송출하여도 수신이 원활하기 떄문에, 숏 펄스부터 롱 펄스까지 모두 사용할 수 있다.
한편, 상기 레이더 센서부(10)에서 한 번의 송신 주기에 3개의 제1,2,3레이더 펄스(P1)(P2)(P3)를 송신하되, 상기 도로가 곡선 도로이면, 숏 펄스만 사용하거나 숏 펄스와 미들 펄스만을 선택하여 사용할 수 있다. 즉, 상기 도로가 곡선 도로이면, 상기 레이더 센서부로부터 약 600m 이상의 먼 거리로 송신할 경우 정확한 위치로 송신이 불가능하고 그에 따라 수신 오류도 발생할 수 있으므로, 롱 펄스를 사용하지 않고 숏 펄스만 사용하거나 숏 펄스와 미들 펄스만을 사용할 수 있다.
상기 도로를 직선 도로와 곡선 도로로 구분하는 방법은, 상기 도로의 총 길이에 대해 상기 도로에 포함된 직선 구간의 길이가 차지하는 비율에 따라 구분할 수 있으며, 사전 조사를 통해 상기 데이터베이스 등에 미리 저장될 수 있다. 상기 도로의 총 길이는 상기 레이더 센서부(10)가 검지할 수 있는 검지 영역에 해당하는 길이이다.
또한, 상기 레이더 인터페이스(21)는, 도 7을 참조하면, 상기 복수의 레이더 펄스들의 검지 영역 중에서 순차적으로 송신되는 두 개의 레이더 펄스들의 검지 영역들은 서로 중첩되게 설정한다. 상기 레이더 인터페이스(21)는, 상기 레이더 펄스들의 폭을 설정시 상기 레이더 펄스들의 검지 영역들이 중첩되게 설정할 수 있다.
상기와 같은 방법으로, 상기 레이더 펄스의 개수와 폭이 설정되면, 상기 레이더 센서부가 상기에서 설정된 폭에 따라 상기 n개의 레이더 펄스들에 대한 무선 신호를 상기 도로 위로 송신한다.
또한, 상기 레이더 센서부(10)는 상기 도로 위에서 상기 n개의 레이더 펄스들에 따른 무선 신호의 검지 영역으로부터 반사되는 복수의 반사 신호들을 수신한다.(S22)
상기 수집정보 분석모듈(22)과 상기 돌발상황 판단모듈(23)은, 수신한 복수의 반사 신호들로부터 돌발 상황의 유무를 검출한다.(S23)
상기 돌발상황 판단모듈(23)은, 상기 수신한 복수의 반사 신호들을 분석하여, 돌발 상황의 유무를 판단할 수 있다.
상기 돌발상황 판단모듈(23)은, 상기 돌발 상황이 검출되면, 상기 돌발 상황이 검출된 검지 영역이 상기 중첩 영역인지를 판단한다.(S24)
상기 중첩 영역은, 상기 복수의 레이더 펄스들 중에서 순차적으로 송출된 두 개의 레이더 펄스들의 검지 영역이 중첩된 영역이다.
도 7은 다중 레이더 펄스들에 대한 검지 영역들에서 돌발 상황이 검출되는 일 예가 도시된 도면이다.
도 7을 참조하면, 제1레이더 펄스(P1)의 검지 영역과 제2레이더 펄스(P2)의 검지 영역은 적어도 일부분이 중첩되어 중첩 영역(O1)을 형성한다. 또한, 제2레이더 펄스(P2)의 검지 영역과 제3레이더 펄스(P3)의 검지 영역도 적어도 일부분이 중첩되어 중첩 영역(O2)을 형성한다. 일반적으로 레이더 펄스의 검지 영역 중에서 가장자리에 해당하는 영역에서는 검출 오류가 나타나는 경우가 종종 있다. 상기와 같이, 두 개의 레이더 펄스들의 검지 영역이 중첩됨으로써, 레이더 펄스의 검지 영역 가장자리에서 검출 오류가 나타나는 현상을 줄일 수 있다.
상기 돌발상황 판단모듈(23)은, 상기 돌발 상황이 검출된 검지 영역이 중첩 영역이 아니라고 판단되면, 상기 돌발 상황에 대한 돌발 정보를 생성한다.(S25)
상기 돌발상황 판단모듈(23)은, 상기 수집정보 분석모듈(22)에서 수집한 상기 타겟물체에 대한 위치, 속도 및 크기에 대한 데이터로부터 상기 돌발상황이 역주행 차량, 정지차량, 보행자 및 낙하물 중 어느 것인지 판단할 수 있다.
상기 돌발상황 판단모듈(23)은, 상기에서 생성된 속도 데이터의 패턴을 분석한다. 상기 속도 데이터의 패턴을 분석하는 방법은, 상기 속도의 증감을 구분하고, 상기 속도를 미리 설정된 속도와 비교하는 것이다.
상기 돌발상황 판단모듈(23)은, 상기 속도가 미리 설정된 정지임계치 범위 이내인지를 판단한다. 상기 속도가 미리 설정된 정지임계치 범위 이내이면, 상기 크기를 미리 설정된 차량 임계치와 비교한다. 상기 크기가 상기 차량 임계치보다 크면, 상기 타겟물체는 정지차량이라고 판단한다. 즉, 상기 속도가 상기 정지임계치 범위 이내이고, 상기 크기가 상기 차량 임계치보다 크면, 상기 타겟물체는 정지차량이라고 판단할 수 있다.
한편, 상기 크기가 상기 차량 임계치 이하이면, 상기 타겟물체는 차량보다 작다고 판단하므로, 보행자 또는 낙하물이라고 판단할 수 있다. 여기서, 보행자의 경우, 생성된 속도 데이터의 패턴은 속도의 증가와 감소가 번갈아 반복되는 것으로 나타난다. 즉, 보행자의 팔이 앞으로 가는 경우 속도가 증가하다가 팔이 뒤로 가는 경우 속도가 감소하기 때문에, 보행자가 걷는 동안 계속해서 팔이 앞뒤로 움직이면 속도의 증가와 감소를 번갈아 반복하는 횟수가 상기 임계 횟수를 초과하여 나타난다. 상기 임계 횟수는 시험 등에 의해 미리 설정될 수 있으며, 이를 통해 보행자와 낙하물의 구분이 가능하다.
한편, 상기 속도가 상기 정지임계치 범위를 벗어나면, 상기 타겟물체는 주행상태라고 판단할 수 있다. 따라서, 상기 타겟물체가 역주행인지 정주행인지를 판단하기 위해 상기 속도의 증감을 판단한다. 상기 돌발상황 판단모듈은, 상기 속도가 증가되는지 감소되는지를 판단한다. 상기 타겟물체가 상기 레이더 센서부에 다가오는 정주행시에는 상기 속도는 증가하여 플러스값을 나타낸다. 상기 타겟물체가 상기 레이더 센서부로부터 멀어지는 역주행시에는 상기 속도는 감소하여 마이너스값을 나타낸다. 상기 속도가 감소한다고 판단되면, 상기 크기를 상기 차량 임계치와 비교한다. 상기 속도가 감소하고, 상기 크기가 상기 차량 임계치보다 크면, 상기 타겟물체는 역주행 차량이라고 판단할 수 있다.
상기 돌발상황 판단모듈(23)은, 상기 타겟물체를 정지차량, 보행자, 낙하물, 역주행 차량 중 어느 하나라고 판단되면, 돌발 정보에 따른 생성한다.
상기 제어부(20)는, 생성된 돌발 정보를 유,무선 통신을 통해 운전자 또는 보행자의 단말기, 차량에 마련된 통신 가능한 전자 기기, 도로 상황을 관리하는 교통 상황 관제센터 등으로 전송한다.(S25)
또한, 상기 제어부(20)는, 상기 추적부(50)를 이용해 상기 돌발 상황을 촬영하고, 촬영된 영상도 함께 전송할 수 있다.
한편, 상기 돌발상황 판단모듈(23)은, 상기 돌발 상황이 상기 중첩 영역에서 검출되었다고 판단되면, 두 개의 레이더 펄스의 검지 영역에서 모두 검출되었는지 여부를 판단한다.(S27)
도 7은, 돌발 상황(I1)이 제1,2레이더 펄스의 검지 영역들에서 모두 검출되는 경우를 나타낸다. 도 7에 도시된 바와 같이, 상기 제어부는, 상기 돌발 상황(I1)이 2개의 제1,2레이더 펄스의 검지 영역들에서 모두 검출되었다고 판단하면, 상기 돌발 상황에 대한 돌발 정보를 생성한다. (S26)
상기 제어부(20)는, 상기 생성된 돌발 정보를 유,무선 통신을 통해 운전자 또는 보행자의 단말기, 차량에 마련된 통신 가능한 전자 기기, 도로 상황을 관리하는 교통 상황 관제센터, 도로에 설치된 가변 전광판이나 델리네이터 등과 같은 디스플레이 부재 중 등으로 전송한다.
한편, 상기 돌발상황 판단모듈(23)은, 상기 제어부가 상기 돌발 상황(I2)이 제2레이더 펄스(P2)의 검지 영역에서만 검출되고, 제1레이더 펄스(P1)의 검지 영역에서는 검출되지 않았다고 판단되면, 미리 설정된 가중치를 적용한다.(S28)
도 8은 본 발명의 실시예에 따른 다중 레이더 펄스들에 대한 검지 영역들에서 돌발 상황이 검출되는 다른 예가 도시된 도면이다.
도 8은, 상기 돌발 상황(I2)이 제1,2레이더 펄스의 검지 영역에서 모두 검출되지 않고, 제2레이더 펄스(P2)의 검지 영역에서만 검출되었다고 판단하는 경우를 나타낸다.
상기 돌발상황 판단모듈(23)은, 상기 두 개의 제1,2레이더 펄스(P1)(P2) 중에서 상기 가중치가 높은 레이더 펄스의 검지 영역에서의 검출 여부에 따라 상기 돌발 상황을 판단한다.(S29)
상기 가중치는, 복수의 레이더 펄스들의 정확도를 기준으로 미리 설정되어 데이터 베이스 등에 미리 저장된다. 레이더 펄스의 신호 끝은 약하기 때문에, 레이더 펄스의 검지 영역이 끝나는 부분보다 레이더 펄스의 검지 영역이 시작되는 부분의 검지 정확도가 높다. 따라서, 본 실시예에서는, 중첩 영역을 이루는 두 개의 검지 영역들 중 검지 영역이 시작되는 부분의 레이더 펄스의 가중치가 높게 설정되는 것으로 예를 들어 설명한다. 즉, 상기 중첩 영역(O1)은 상기 제2레이더 펄스(P2)의 검지 영역이 시작 부분을 포함하고 있으므로, 상기 제2레이더 펄스(P2)의 가중치가 상기 제1레이더 펄스(P1)의 가중치보다 높으므로, 상기 제2레이더 펄스(P2)의 검지 영역에서 검출된 결과에 따라 돌발 상황을 판단한다. 다만, 이에 한정되지 않고, 실험 등을 통해 가중치를 보다 다양하게 설정하여 반영하는 것도 물론 가능하다.
상기 돌발상황 판단모듈(23)은, 상기 돌발 상황(I2)이 제2레이더 펄스의 검지 영역에서 검출되었다고 판단하면, 상기 돌발 상황에 대한 돌발 정보를 생성한다.(S25)
본 발명의 실시예에 따른 돌발상황 검지 시스템은, 한 번의 송신 주기에 복수의 레이더 펄스들을 송신하고, 복수의 레이더 펄스들의 펄스 폭을 도로의 선형에 따라 다르게 설정함으로써, 도로의 선형에 관계없이 보다 정확하게 돌발 상황을 검지할 수 있는 효과가 있다. 또한, 연속적으로 송신되는 두 개의 레이더 펄스들의 검지 영역 중 일부를 중첩되게 설정함으로써, 레이더 펄스의 검지 영역이 끝나는 가장자리부분에서 발생되는 검지 오류가 최소화되어, 정확도가 향상될 수 있다.
도 9는 본 발명의 실시예에 따른 다중 레이더 펄스를 이용한 돌발 상황 감지방법의 다른 예가 도시된 순서도이다.
도 9를 참조하면, 중첩 영역에서 돌발 상황이 감지되고, 중첩 영역을 이루는 2개의 레이더 펄스의 검지 영역 중에서 하나의 검지 영역에서만 돌발 상황이 감지되는 경우 카메라 영상을 추적하여 돌발 상황을 판단하는 것이다.
먼저, 상기 레이더 인터페이스(21)는, 상기 레이더 장치에서 송출하는 레이더 펄스를 다중 레이더 펄스로 설정한다.(S31)
상기 레이더 인터페이스(21)는, 상기 레이더 장치가 한 번의 송신 주기에 n개의 레이더 펄스들을 송신하도록 설정된다. 또한, 상기 n개의 레이더 펄스들의 폭(W1,W2,W3,...Wn)은 서로 다르게 설정한다. 또한, 상기 레이더 펄스들의 폭(W1,W2,W3,...Wn)은 상기 도로의 선형에 따라 각각 다르게 설정된다.
상기와 같은 방법으로, 상기 레이더 펄스의 개수와 폭이 설정되면, 상기 레이더 장치가 상기에서 설정된 폭에 따라 상기 n개의 레이더 펄스들에 대한 무선 신호를 상기 도로 위로 송신한다. 또한, 상기 레이더 장치는 상기 도로 위에서 상기 n개의 레이더 펄스들에 따른 무선 신호의 검지 영역으로부터 반사되는 복수의 반사 신호들을 수신한다.(S32)
상기 돌발상황 판단모듈(23)은, 수신한 복수의 반사 신호들로부터 돌발 상황의 유무를 검출한다.(S33)
상기 돌발상황 판단모듈(23)은, 상기 돌발 상황이 검출되면, 상기 돌발 상황이 검출된 검지 영역이 상기 중첩 영역인지를 판단한다.(S34)
상기 돌발상황 판단모듈(23)은, 상기 돌발 상황이 검출된 검지 영역이 중첩 영역이 아니라고 판단되면, 상기 돌발 상황에 대한 돌발 정보를 생성한다.(S35)
상기 돌발 정보는, 상기 돌발 상황을 발생시킨 물체의 거리, 속도 및 돌발 유형을 포함한다. 상기 돌발 유형은, 정지차량, 서행차량, 과속차량, 역주행차량, 낙하물, 보행자, 차량의 지,정체 등을 포함한다.
상기 돌발상황 판단모듈(23)은, 상기 수집정보 분석모듈(22)에서 수집한 상기 타겟물체에 대한 위치, 속도 및 크기에 대한 데이터로부터 상기 돌발상황이 역주행 차량, 정지차량, 보행자 및 낙하물 중 어느 것인지 판단할 수 있다.
상기 돌발상황 판단모듈(23)은, 상기에서 생성된 속도 데이터의 패턴을 분석한다. 상기 속도 데이터의 패턴을 분석하는 방법은, 상기 속도의 증감을 구분하고, 상기 속도를 미리 설정된 속도와 비교하는 것이다.
상기 돌발상황 판단모듈(23)은, 상기 속도가 미리 설정된 정지임계치 범위 이내인지를 판단한다. 상기 속도가 미리 설정된 정지임계치 범위 이내이면, 상기 크기를 미리 설정된 차량 임계치와 비교한다. 상기 크기가 상기 차량 임계치보다 크면, 상기 타겟물체는 정지차량이라고 판단한다. 즉, 상기 속도가 상기 정지임계치 범위 이내이고, 상기 크기가 상기 차량 임계치보다 크면, 상기 타겟물체는 정지차량이라고 판단할 수 있다.
한편, 상기 크기가 상기 차량 임계치 이하이면, 상기 타겟물체는 차량보다 작다고 판단하므로, 보행자 또는 낙하물이라고 판단할 수 있다. 상기 타겟물체를 추적하는 동안 상기 타겟물체에 대한 무선신호가 분리되는 것이 감지되면, 분리 물체들에 대해 각각 보조 식별 아이디를 부여하고, 분리 물체들 간의 거리, 크기, 속도 변화를 비교함으로써, 상기 타겟물체에서 낙하물이 떨어진 것인지 판단할 수 있다. 즉, 상기 분리물체들 중에서 하나는 차량이고, 나머지 하나는 낙하물이라고 판단할 수 있다. 따라서, 낙하물의 발생을 판단할 수 있다. 한편, 상기 타겟물체의 속도가 정지 임계치의 절대값 범위 보다 높고, 크기가 차량 임계치 보다 작은 연속적으로 이동하는 타겟물체는 보행자라고 판단할 수 있다.
한편, 상기 속도가 상기 정지임계치 범위를 벗어나면, 상기 타겟물체는 주행상태라고 판단할 수 있다. 따라서, 상기 타겟물체가 역주행인지 정주행인지를 판단하기 위해 상기 속도의 증감을 판단한다. 상기 돌발상황 판단모듈은, 상기 속도가 증가되는지 감소되는지를 판단한다. 상기 타겟물체가 상기 레이더 센서부에 다가오는 정주행시에는 상기 속도는 증가하여 플러스값을 나타낸다. 상기 타겟물체가 상기 레이더 센서부로부터 멀어지는 역주행시에는 상기 속도는 감소하여 마이너스값을 나타낸다. 상기 속도가 감소한다고 판단되면, 상기 크기를 상기 차량 임계치와 비교한다. 상기 속도가 감소하고, 상기 크기가 상기 차량 임계치보다 크면, 상기 타겟물체는 역주행 차량이라고 판단할 수 있다.
상기 돌발상황 판단모듈(23)은, 상기 타겟물체를 정지차량, 보행자, 낙하물, 역주행 차량 중 어느 하나라고 판단되면, 돌발 정보에 따른 생성한다.
상기 제어부(20)는, 생성된 돌발 정보를 상기 외부 단말기 인터페이스(30)를 통해 운전자 또는 보행자의 단말기, 차량에 마련된 통신 가능한 전자 기기, 도로 상황을 관리하는 교통 상황 관제센터, 도로에 설치된 가변 전광판이나 델리네이터 등과 같은 디스플레이 부재 등 등으로 전송한다.(S36)
또한, 상기 제어부(20)는, 상기 추적부(50)인 카메라를 이용해 상기 돌발 상황을 촬영하고, 촬영된 영상도 함께 전송할 수 있다.
한편, 상기 돌발상황 판단모듈(23)은, 상기 돌발상황이 상기 중첩 영역에서 검출되면, 두 개의 레이더 펄스의 검지 영역에서 모두 검출되었는지 여부를 판단한다.(S37)
상기 돌발상황 판단모듈(23)은, 상기 돌발상황이 두 개의 레이더 펄스의 검지 영역들에서 모두 검출되었다고 판단하면, 상기 돌발상황에 대한 돌발 정보를 생성한다.(S35)
상기 제어부(20)는, 상기 생성된 돌발 정보를 유,무선 통신을 통해 운전자 또는 보행자의 단말기, 차량에 마련된 통신 가능한 전자 기기, 도로 상황을 관리하는 교통 상황 관제센터 등으로 전송한다.(S36)
한편, 상기 돌발상황 판단모듈(23)은, 상기 돌발 상황이 두 개의 레이더 펄스의 검지 영역들에서 모두 검출되지 않고, 한 개의 레이더 펄스의 검지 영역에서만 검출되었다고 판단되면, 상기 추적부 제어모듈(28)과 상기 추적부 인터페이스(29)를 통해 상기 카메라에 찍힌 영상을 추적한다.(S38)
따라서, 상기 제어부(20)는 상기 카메라에 찍힌 영상을 확인하고, 그에 따라 돌발 상황의 유무를 최종 판단한다.(S39)
상기 돌발상황 판단모듈(23)은, 상기 카메라에 찍힌 영상을 확인하여, 영상에 찍힌 대상물의 움직임, 크기 등을 판단하여 돌발상황이나 돌발 검지 유형을 판단할 수 있다. 다만, 이에 한정되지 않고, 상기 카메라에 찍힌 영상을 관리자 등의 사람이 확인하여 돌발 상황이나 돌발 유형을 직접 판단하는 것도 가능하다.
상기 돌발상황 판단모듈(23)은, 상기 돌발 상황이 있다고 판단되면, 상기 돌발 상황에 대한 돌발 정보를 생성한다.(S35)
상기 제어부(20)는, 상기 생성된 돌발 정보를 유,무선 통신을 통해 운전자 또는 보행자의 단말기, 차량에 마련된 통신 가능한 전자 기기, 도로 상황을 관리하는 교통 상황 관제센터, 도로에 설치된 가변 전광판이나 델리네이터 등과 같은 디스플레이 부재 등 등으로 전송한다.(S36)
상기와 같이, 상기 돌발 상황이 두 개의 레이더 펄스의 검지 영역들에서 모두 검출되지 않고, 한 개의 레이더 펄스의 검지 영역에서만 검출되었다고 판단되면, 상기 추적부 제어모듈(28)과 상기 추적부 인터페이스(29)를 통해 상기 카메라에 찍힌 영상을 추적함으로써, 한 개의 레이더 펄스의 검지 영역에서만 검출된 경우 오류를 최소화시켜 보다 정확한 검지가 가능하다.
도 10은 본 발명의 실시예에 따른 다중 레이더 펄스들의 송신 상태의 다른 예가 도시된 도면이다.
도 10을 참조하면, 상기 레이더 센서부(10)가 한 번의 송신 주기에 복수회의 다중 레이더 펄스들을 송신하되, 복수의 레이더 펄스들의 출력이 서로 다르게 설정된다.
상기 레이더 센서부(10)는, 한 번의 송신 주기에 n개의 레이더 펄스들(P)을 송신한다. 상기 n개의 레이더 펄스들은 상기 한 번의 송신 주기 내에서 소정의 시간 간격을 두고 송신된다. 상기 레이더 펄스들의 개수는, 돌발 상황을 검지하고자 하는 도로의 길이와 상기 레이더 펄스들의 각 출력(O1,O2,O3,..On)에 따라 다르게 설정된다.
상기 레이더 인터페이스(21)는, 상기 n개의 레이더 펄스들(P)의 출력(O1,O2,O3,..On)을 서로 다르게 설정한다. 상기 레이더 펄스들의 출력(O1,O2,O3,..On)은 한번의 송신주기 안에서 시간이 경과함에 따라 송신되는 레이더 펄스의 출력이 점차 증가하도록 설정된다. 즉, 한 번의 송신 주기(T1)가 시작되는 시점(S)부터 상기 n개의 레이더 펄스들이 차례로 무선 신호를 송신하되, 시간에 따라 점차 레이더 펄스의 출력이 점차 증가하도록 설정된다. 다만, 이에 한정되지 않고, 상기 한 번의 송신 주기(T1) 동안 상기 레이더 펄스들의 출력(O1,O2,O3,..On)이 시간이 경과함에 따라 점차 증가하다가 감소하는 것도 가능하고, 점차 증가하다가 감소하는 것이 복수회 반복하는 것도 물론 가능하다. 이 때, 상기 레이더 펄스들의 폭(W1,W2,W3,..Wn)은 일정한 것으로 예를 들어 설명한다. 다만, 이에 한정되지 않고, 상기 레이더 펄스들의 폭도 다르게 설정하는 것도 물론 가능하다.
여기서, 상기 레이더 펄스의 출력은 무선 신호의 세기에 비례하므로, 상기 레이더 펄스의 출력이 클수록 무선 신호가 멀리 송출될 수 있다. 상기 한 번의 송신 주기(T1)가 끝나고, 이어지는 다음 송신 주기(T2)가 시작되는 시점에서는 상기 레이더 펄스의 출력은 상기 송신 주기(T1)가 시작되는 시점(S)의 초기 출력으로 다시 돌아간다.
일반적으로 동일한 출력으로 레이더 펄스를 송신할 경우, 상기 타겟 물체에 반사되는 반사신호의 세기는 상기 타겟 물체까지의 거리에 반비례한다. 따라서, 거리가 멀면 반사신호의 세기가 약하기 때문에 정확한 검지가 어렵다. 또한, 상기 타겟 물체의 크기가 작을수록 상기 타겟 물체에서 반사되어 나온 반사신호의 세기가 약하다. 그러나, 본 실시예에서는, 한번의 송신 주기내에서 서로 다른 출력의 레이더 펄스들을 송신하도록 제어함으로써, 상기 레이더 센서부(10)와 상기 타겟 물체간의 거리, 상기 타겟 물체의 크기에 영향을 받지 않고 상기 타겟 물체의 검지가 보다 정확해질 수 있다.
예를 들어, 상기 레이더 펄스들의 출력이 일정하면, 상기 레이더 센서부(10)와 상기 타겟 물체간의 거리가 너무 멀고, 상기 타겟 물체의 크기가 매우 작을 경우, 상기 타겟 물체로부터 반사되는 반사신호의 세기가 미리 설정된 최소 임계치보다 약하기 때문에 반사신호를 수신하지 못하여 상기 타겟 물체를 감지하지 못하는 경우가 있다.
그러나, 상기 레이더 펄스들의 출력을 다르게 설정하면, 상기 레이더 센서부(10)와 상기 타겟 물체간의 거리가 너무 멀고, 상기 타겟 물체의 크기가 매우 작을 경우, 상기 레이더 펄스들의 출력 중 비교적 큰 출력에 대한 반사신호의 세기가 상기 최소 임계치보다 크기 때문에 반사신호를 수신할 수 있으므로 상기 타겟 물체의 감지가 가능하다. 즉, 상기 레이더 센서부(10)와 상기 타겟 물체간의 거리가 너무 멀고, 상기 타겟 물체의 크기가 매우 작을 경우에도, 상기 레이더 펄스들의 출력 중 비교적 큰 출력에서 상기 타겟 물체의 검출이 가능하다.
또한, 상기 레이더 펄스들의 출력이 일정하면, 상기 레이더 센서부(10)와 상기 타겟 물체간의 거리가 너무 가깝고, 상기 타겟 물체의 크기가 매우 큰 경우, 상기 타겟 물체로부터 반사되는 반사신호의 세기가 미리 설정된 최대 임계치보다 강하기 때문에 반사신호를 인식하지 못하거나 오류로 인식하여 상기 타겟 물체를 감지하지 못하는 등 시스템의 오작동의 원인이 되는 경우가 있다.
그러나, 상기 레이더 펄스들의 출력을 다르게 설정하면, 상기 레이더 센서부(10)와 상기 타겟 물체간의 거리가 너무 가깝고, 상기 타겟 물체의 크기가 매우 큰 경우, 상기 레이더 펄스들의 출력 중 비교적 작은 출력에 대한 반사신호의 세기가 상기 최대 임계치보다 작기 때문에 반사신호를 수신할 수 있으므로, 상기 타겟 물체의 감지가 가능하다. 즉, 상기 레이더 센서부(10)와 상기 타겟 물체간의 거리가 너무 가깝고, 상기 타겟 물체의 크기가 매우 큰 경우에도 상기 레이더 펄스들의 출력 중 비교적 작은 출력에서 상기 타겟 물체의 검출이 가능하다.
따라서, 한번의 송신 주기내에서 서로 다른 출력의 레이더 펄스들을 송신하도록 제어함으로써, 상기 레이더 센서부(10)와 상기 타겟 물체간의 거리, 상기 타겟 물체의 크기에 영향을 받지 않고, 상기 타겟 물체를 보다 정확하게 감지할 수 있다.
도 11은 본 발명의 실시예에 따른 검출 타겟데이터의 처리방법을 나타내는 순서도이다.
도 11을 참조하면, 상기 레이더 센서부(10)가 상기 타겟물체로 신호를 송신하여 상기 차량에 부딪혀 반사되는 무선 신호(이하,‘신호’라 칭함)들을 수신한다.(S41)
상기 수집정보 분석모듈(22)은, 상기 레이더 센서부(10)로부터 수신된 신호들을 CFAR 탐지(Constant false alarm rate detection)를 이용하여 검출 타겟데이터들로 산출한다.
상기 검출 타겟데이터들은, 1개의 타겟물체에 대해 복수개로 산출된다. 상기 복수의 검출 타겟데이터들은, 각각 속도 인덱스(Doppler Index), 거리 인덱스(Range Index), 속도값, 거리값 등을 포함한다. 상기 복수의 검출 타겟데이터들을 그대로 처리하게 되면, 1개의 타겟물체가 여러개의 타겟물체로 표시될 수 있으므로, 동일한 타겟끼리 분류하는 타겟 클러스터링 과정이 필요하다.
상기 타겟 클러스터링을 하기 위해 먼저, 상기 복수의 검출 타겟데이터들을 클러스터링 맵에서 셀들로 나타낸다.(S42)
상기 클러스터링 맵은, 상기 속도 인덱스와 상기 거리 인덱스를 X-Y축 좌표로 표시하여 셀로 나타내도록 설정된 맵이다. 본 실시예에서는, 상기 클러스터링 맵에서 가로축(X축)은 거리 인덱스를 나타내는 거리셀이고, 세로축(Y축)은 속도 인덱스를 나타내는 속도셀인 것으로 예를 들어 설명한다.
도 12는, 상기 복수의 검출 타겟데이터들을 상기 클러스터링 맵에 표시하고, 타겟 클러스터링을 수행한 상태를 나타낸다.
상기 속도 인덱스와 상기 거리 인덱스에 대한 값이 있는 셀에는 “1”을 표시하고, 상기 속도 인덱스와 상기 거리 인덱스에 대한 값이 없는 셀에는 “0”을 표시한다.
상기 클러스터링 맵에 상기 복수의 검출 타겟데이터들을 표시한 후, 상기 복수의 셀들 중에서 상하좌우방향으로 연속적으로 값이 있는 셀들에 대해 동일한 타겟번호를 부여하여 동일한 타겟물체끼리 분류하는 타겟 클러스터링 과정을 수행한다.(S43)
예를 들어, 상기 복수의 셀들 중에서 셀들의 값의 차이가 1이하인 셀들에 대해 동일한 타겟번호를 부여한다.
도 12를 참조하면, 본 실시예에서는, 총 5개의 타겟물체(1~5)로 클러스터링된 것으로 예를 들어 표시하였다.
상기와 같은 방법으로 전체 검출 타겟데이터들에 대하여 타겟 클러스터링 과정을 수행하여, 동일한 타겟번호가 부여된 셀들끼리 묶고, 동일한 타겟물체끼리 분류할 수 있다.
한편, 상기와 같이 타겟 클러스터링이 수행되면, 1개의 타겟에 대한 복수의 검출 타겟데이터들을 포함하므로, 1개의 타겟물체에 대한 복수의 검출 타겟데이터들 중에서 1개의 대표타겟 데이터로 추출하는 과정을 실시한다.(S44)
도 13은, 본 발명의 실시예에 따른 클러스터링 맵에서 대표타겟 데이터 추출한 상태를 나타낸다.
도 13을 참조하면, 상기 대표타겟 데이터 추출과정에서는, 동일한 타겟번호(1~5)를 갖는 셀들 중에서 신호세기가 가장 큰 셀의 값을 대표타겟 데이터(B)로 추출한다.
상기 대표타겟 데이터(B)를 추출하는 방법은 다음과 같다.
상기 동일한 타겟번호(1~5)를 갖는 셀들이 복수개이기 때문에, 상기 복수의 셀들 중에서 중심에 위치한 셀을 비교중심을 선정한다. 예를 들어, 제1타겟번호(1)을 갖는 셀들은 총 8개이고, 제2타겟번호(2)를 갖는 셀들은 총 7개이고, 제3타겟번호(3)를 갖는 셀들은 총 8개이다.
상기 비교중심을 선정하는 방법은, 동일한 타겟번호를 갖는 복수의 셀들이 차지하는 거리 인덱스 범위에서 중심 위치를 찾고, 속도 인덱스 범위에서 중심 위치를 찾아서, 비교중심을 선정한다.
예를 들어, 상기 제1타겟번호(1)를 갖는 셀들 중에서 비교중심을 선정하는 방법을 설명한다.
상기 제1타겟번호(1)를 갖는 총 8개의 셀들이 차지하는 거리 인덱스 범위는 r3 내지 r6이다. 따라서, 상기 r3 내지 r6 범위에서의 중심 위치는 r4와 r5 사이의 선에 해당한다.
또한, 상기 제1타겟번호(1)를 갖는 셀들이 차지하는 속도 인덱스 범위는 d2 내지 d4이다. 따라서, 상기 d2 내지 d4 범위에서의 중심 위치는 d3에 해당한다.
따라서, 상기 제1타겟번호(1)를 갖는 셀들 중에서 비교중심은 r4와 r5사이의 선과, d3로 선정할 수 있다.
상기 비교중심이 선정되면, 상기 비교중심에 인접한 셀들을 신호세기를 비교하기 위한 비교대상 셀들(A)로 선정한다.
상기 비교중심에 인접한 셀들의 전방 1개, 후방 1개의 셀까지 비교대상 셀들(A)로 선정한다.
즉, 상기 r4와 r5사이의 선의 전방 셀인 r4와 후방 셀인 r5가 비교대상 셀들(A)에 포함된다. 또한, 상기 d3의 전방 셀인 d2부터 후방 셀인 d4까지 비교대상 셀들(A)에 포함된다.
따라서, 상기 제1타겟번호(1)를 갖는 총 8 개의 셀들 중에서 (r4,d2),(r5,d2),(r4,d3),(r5,d3),(r5,d4)에 해당하는 5개의 셀들을 비교대상 셀들(A)로 선정할 수 있다. 즉, 신호세기를 비교하는 비교대상 셀들을 선정함으로써, 신호세기를 비교해야하는 셀들의 개수가 줄어들게 되므로 데이터처리 시간을 줄일 수 있다.
상기 비교대상 셀들(A)이 선정되면, 상기 비교대상 셀들(A) 중에서 신호세기가 가장 큰 셀의 값을 대표타겟 데이터(B)로 추출한다.
도 13에서, S1 내지 S5는 신호의 세기를 나타낸다. 상기 제1타겟번호(1)가 부여된 상기 비교대상 셀들(A) 중에서 신호의 세기가 가장 큰 값은 S4이므로, S4의 신호세기를 갖는 셀을 대표타겟 데이터(B)로 추출한다.
따라서, 상기 돌발상황 판단모듈은, 상기 대표타겟 데이터(B)를 사용하여, 돌발상황을 판단할 수 있다.
본 발명에서는, 모든 검출 타겟데이터들의 신호세기를 비교해서 가장 큰 값을 찾지 않고, 상기 검출 타겟데이터들 중에서 비교대상 셀들을 찾고, 상기 비교대상 셀들에 대해서만 신호세기를 비교하기 때문에, 데이터처리 시간을 줄일 수 있다.
한편, 도 14는 본 발명의 다른 실시예에 따른 레이더 기반 고 정밀 돌발상황 검지방법에서 고정 장애물을 탐지하는 방법을 나타낸 도면이다.
도 14를 참조하면, 고정 장애물을 탐지하는 방법을 나타낸다. 여기서, 상기 고정 장애물은 정지차량과 낙하물을 포함한다. 상기 고정 장애물의 경우 속도에 대한 변화가 없으므로, 무선신호로부터 속도값을 얻을 수 없으므로 후술하는 기준신호와 수신신호를 비교하여 판단한다.
먼저, 상기 레이더 센서부(10)는 실시간으로 무선 신호를 송출하고 도로 위의 타겟물체로부터 반사되는 무선 신호를 수신한다.(S41)
상기 돌발상황 판단모듈(23)은, 상기 수신 신호를 미리 설정된 기준 신호와 비교한다.(S42)
상기 기준(Reference) 신호는, 상기 레이더 센서부(10)가 일정시간동안 수신된 수신 신호들의 평균값으로 설정된다. 상기 수신 신호는 실시간으로 수신한 신호이다.
상기 돌발상황 판단모듈(23)은, 상기 수신 신호와 상기 기준 신호의 차이가 미리 설정된 임계치를 초과하면, 상기 도로 위에 고정 장애물이 있다고 판단한다.(S43)
예를 들어, 상기 기준 신호의 레벨이 3인 상태이고, 상기 수신 신호의 레벨이 5이면, 상기 기준 신호와 상기 수신 신호의 레벨의 차이가 2가 되어 상기 임계치를 초과하였다고 판단할 수 있다. 상기 기준 신호의 레벨과 상기 수신 신호의 레벨의 차이가 상기 임계치를 초과하면, 상기 고정 장애물이 있다고 판단할 수 있다.
상기 고정 장애물로 인식되면, 상기 고정 장애물의 크기를 미리 설정된 차량 임계치와 비교한다.(S44)
상기 고정 장애물의 크기가 상기 차량 임계치를 초과하면, 상기 고정 장애물은 정지차량으로 판단한다.(S45)
한편, 상기 고정 장애물의 크기가 상기 차량 임계치 이하이면, 상기 고정 장애물은 낙하물이라고 판단한다.(S46)
상기와 같은 방법으로, 속도값을 감지할 수 없는 고정 장애물의 경우에는 미리 설정된 기준 신호와 수신 신호를 비교함으로써, 고정 장애물을 인식할 수 있다.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.
본 발명에 따르면, 도로 위 차량과 보행자를 보다 신속하고 정확하게 파악할 수 있는 돌발상황 검지 시스템을 제조할 수 있다.

Claims (16)

  1. 도로 주변에 설치되어 도로 위에 무선 신호를 송출하고, 도로 위의 타겟물체로부터 반사되는 무선 신호를 수신하는 레이더 센서부와;
    상기 레이더 센서부로부터 무선 신호를 수신하고, 수신된 무선 신호에 따라 돌발상황에 대한 감지 정보를 생성하는 제어부와;
    상기 제어부에서 생성된 감지 정보를 유,무선 통신을 통해 운전자 또는 보행자의 단말기, 차량에 마련된 단말기, 도로 상황을 관리하는 교통상황 관제센터 중 적어도 하나를 포함하는 외부 단말기에 전송하는 통신부와;
    상기 제어부에서 생성된 감지 정보에 따라 상기 타겟물체를 추적하는 추적부를 포함하는 것을 특징으로 하는 레이더 기반 고 정밀 돌발상황 검지 시스템.
  2. 청구항 1에 있어서,
    상기 제어부는,
    상기 레이더 센서부로부터 신호를 수신하고, 상기 레이더 센서부에 제어 명령을 송신하는 레이더 인터페이스와,
    상기 레이더 센서부로부터 받은 신호를 데이터로 변환하거나 상기 레이더 센서부에서 변환된 데이터를 수신하고, 상기 데이터를 분류하여 감지정보를 생성하는 수집정보 분석 모듈과,
    상기 수집정보 분석모듈에서 생성된 감지정보에 따라 돌발상황이나 상기 타겟물체의 추적을 판단하거나 교통 정보를 추출하는 돌발상황 판단모듈과,
    상기 외부 단말기와 신호를 송수신하는 외부 단말기 인터페이스와,
    상기 수집정보 분석모듈에서 생성된 감지정보나 상기 돌발상황 판단모듈에서 처리된 정보를 저장하는 저장모듈과,
    상기 돌발상황 판단모듈에서 판단된 정보에 따라 상기 타겟물체를 추적하도록 제어하는 추적부 제어모듈을 포함하는 것을 특징으로 하는 레이더 기반 고 정밀 돌발상황 검지 시스템.
  3. 청구항 2에 있어서,
    상기 수집정보 분석모듈은,
    상기 레이더 센서부가 수신한 무선 신호에 따라 상기 타겟물체에 대해 고유의 식별 아이디를 부여하고, 상기 식별 아이디에 대한 위치, 속도 및 크기에 대한 데이터를 생성하는 것을 특징으로 하는 레이더 기반 고 정밀 돌발상황 검지 시스템.
  4. 청구항 3에 있어서,
    상기 돌발상황 판단모듈은,
    상기 수집정보 분석 모듈에서 생성된 위치, 속도 및 크기에 대한 데이터를 분석하여,
    상기 속도가 미리 설정된 정지 임계치의 절대값 범위내이고, 상기 크기가 상기 차량 임계치보다 크면, 상기 타겟물체를 정지차량이라고 판단하고,
    상기 속도가 미리 설정된 정지 임계치의 절대값 범위내이고, 상기 크기가 상기 차량 임계치 이하이면, 상기 타겟물체를 보행자라고 판단하는 레이더 기반 고 정밀 돌발상황 검지 시스템.
  5. 청구항 4에 있어서,
    상기 속도가 상기 정지 임계치의 절대값 범위를 벗어나고, 상기 속도가 마이너스이고, 상기 크기가 미리 설정된 차량 임계치보다 크면, 상기 타겟물체를 역주행 차량이라고 판단하는 레이더 기반 고 정밀 돌발상황 검지 시스템.
  6. 청구항 2에 있어서,
    상기 레이더 인터페이스는,
    상기 레이더 센서부에서 한 번의 송신주기에 송신하는 무선 신호의 레이더 펄스들을 복수개로 설정하고,
    상기 복수의 레이더 펄스들의 폭의 차이는 상기 도로에 포함된 직선 구간의 길이에 따라 비례하도록 설정하는 것을 특징으로 하는 레이더 기반 고 정밀 돌발상황 검지 시스템.
  7. 청구항 6에 있어서,
    상기 레이더 인터페이스는,
    상기 송신주기에서 시간이 경과함에 따라 송신되는 레이더 펄스의 폭이 증가하도록 설정하는 것을 특징으로 하는 레이더 기반 고 정밀 돌발상황 검지 시스템.
  8. 청구항 6에 있어서,
    상기 레이더 인터페이스는,
    상기 복수의 레이더 펄스들 중 두 개의 레이더 펄스들에 따른 무선 신호의 검지 영역이 적어도 일부분이 중첩되어 중첩 영역을 형성하도록 상기 레이더 펄스들의 폭을 설정하는 것을 특징으로 하는 레이더 기반 고 정밀 돌발상황 검지 시스템.
  9. 청구항 8에 있어서,
    상기 돌발상황 판단모듈은,
    상기 돌발상황이 검출되면, 상기 돌발상황이 검출된 검지 영역이 상기 중첩 영역인지를 판단하고,
    상기 중첩 영역이라고 판단되면, 상기 돌발상황이 상기 중첩 영역을 포함하는 상기 두 개의 레이더 펄스들에 따른 무선 신호의 검지 영역들에서 모두 검출되었는지를 판단하고,
    상기 돌발상황이 상기 두 개의 레이더 펄스들에 따른 무선 신호들의 검지 영역들에서 모두 검출되었다고 판단하면, 상기 돌발상황이라고 판단하고 상기 돌발 정보를 생성하고,
    상기 돌발상황이 상기 두 개의 레이더 펄스들에 따른 무선 신호의 검지 영역들 중 하나의 검지 영역에서만 검출되면, 상기 두 개의 레이더 펄스들 중에서 미리 설정된 가중치가 높은 레이더 펄스에 따른 무선 신호의 검지 영역에서의 검출 여부에 따라 상기 돌발상황의 유무를 판단하는 것을 특징으로 하는 레이더 기반 고 정밀 돌발상황 검지 시스템.
  10. 청구항 9에 있어서,
    상기 추적부는, 상기 도로 위에 설치되어 상기 도로 위를 실시간으로 촬영하는 카메라를 포함하고,
    상기 돌발상황 판단 모듈은,
    상기 돌발상황이 상기 중첩 영역을 포함하는 상기 두 개의 레이더 펄스들에 따른 무선 신호의 검지 영역들 중 하나의 검지 영역에서만 검출되었다고 판단하면,
    상기 카메라의 영상을 확인하고, 상기 카메라의 영상에 따라 상기 돌발 상황의 유무를 판단하는 것을 특징으로 하는 레이더 기반 고 정밀 돌발상황 검지 시스템.
  11. 청구항 2에 있어서,
    상기 레이더 인터페이스는,
    상기 레이더 센서부에서 한 번의 송신주기에 송신하는 무선 신호의 레이더 펄스들을 복수개로 설정하고,
    상기 한 번의 송신주기 동안 시간이 경과함에 따라 송신되는 레이더 펄스들의 출력이 서로 다르게 설정하는 것을 특징으로 하는 레이더 기반 고 정밀 돌발상황 검지 시스템.
  12. 청구항 2에 있어서,
    상기 수집정보 분석모듈은,
    상기 레이더 센서부로부터 수신된 무선 신호들을 CFAR 탐지(Constant false alarm rate detection)를 이용하여 속도 인덱스와 거리 인덱스를 포함하는 검출 타겟데이터들로 산출하고,
    상기 복수의 검출 타겟데이터들을 상기 거리 인덱스와 상기 속도 인덱스를 X-Y축 좌표로 하는 클러스터링 맵에서 셀들로 나타내고,
    상기 복수의 셀들 중에서 상하좌우방향으로 연속적으로 값이 있는 셀들에 대해 동일한 타겟번호를 부여하여,
    상기 클러스터링 맵에 표시된 상기 복수의 검출 타겟데이터들을 동일한 타겟물체끼리 클러스터링하는 레이더 기반 고 정밀 돌발상황 검지 시스템.
  13. 청구항 12에 있어서,
    상기 수집정보 분석모듈은,
    상기 동일한 타겟번호를 갖는 복수의 셀들 중에서 신호 세기가 가장 큰 셀의데이터를 대표 타겟데이터로 추출하고,
    상기 돌발상황 판단모듈은,
    상기 대표 타겟데이터에 따라 돌발상황을 판단하는 레이더 기반 고 정밀 돌발상황 검지 시스템.
  14. 청구항 13에 있어서,
    상기 수집정보 분석모듈은,
    상기 동일한 타겟번호를 갖는 복수의 셀들 중에서 중심에 해당하는 위치를 비교중심으로 선정하고,
    상기 복수의 셀들 중에서 상기 비교중심에 인접한 셀들을 신호세기를 비교하는 비교대상 셀들로 선정하고,
    상기 비교대상 셀들 중에서 신호 세기가 가장 셀의 데이터를 대표 타겟데이터로 추출하는 레이더 기반 고 정밀 돌발상황 검지 시스템.
  15. 청구항 3에 있어서,
    상기 돌발상황 판단모듈은,
    상기 레이더 센서부가 실시간으로 수신한 수신 신호를 미리 설정된 기준 신호와 비교하고,
    상기 수신 신호와 상기 기준 신호의 차이가 미리 설정된 임계치를 초과하면, 고정장애물이라고 판단하는 레이더 기반 고 정밀 돌발상황 검지 시스템.
  16. 청구항 15에 있어서,
    상기 돌발상황 판단모듈은,
    상기 고정장애물이라고 판단되면, 상기 고정 장애물의 크기를 미리 설정된 차량 임계치와 비교하고,
    상기 고정 장애물의 크기가 상기 차량 임계치를 초과하면, 상기 고정 장애물은 정지차량으로 판단하고,
    상기 고정 장애물의 크기가 상기 차량 임계치 이하이면, 상기 고정 장애물은 낙하물이라고 판단하는 레이더 기반 고 정밀 돌발상황 검지 시스템.
PCT/KR2017/007709 2016-12-09 2017-07-18 레이더 기반 고 정밀 돌발상황 검지 시스템 WO2018105842A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0167709 2016-12-09
KR1020160167709A KR101752858B1 (ko) 2016-12-09 2016-12-09 레이더 기반 고 정밀 돌발상황 검지 시스템

Publications (1)

Publication Number Publication Date
WO2018105842A1 true WO2018105842A1 (ko) 2018-06-14

Family

ID=59427484

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/007709 WO2018105842A1 (ko) 2016-12-09 2017-07-18 레이더 기반 고 정밀 돌발상황 검지 시스템

Country Status (3)

Country Link
KR (1) KR101752858B1 (ko)
CN (1) CN108226917B (ko)
WO (1) WO2018105842A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110045345A (zh) * 2019-03-12 2019-07-23 广东工业大学 一种毫米波雷达自适应分析方法
CN110146865A (zh) * 2019-05-31 2019-08-20 阿里巴巴集团控股有限公司 用于雷达图像的目标识别方法及装置
CN112346046A (zh) * 2020-10-30 2021-02-09 合肥中科智驰科技有限公司 基于车载毫米波雷达的单目标跟踪方法及其系统

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102438461B1 (ko) * 2018-02-22 2022-09-01 렉스젠(주) 차량 정보 표출 장치와 이를 이용한 교통 감시 시스템
KR102151195B1 (ko) * 2018-12-28 2020-10-26 주식회사 유라코퍼레이션 Ultra-Wide Band 레이더를 이용한 차량내 승객 감지 시스템 및 방법
CN109884601B (zh) * 2018-12-28 2023-05-05 中国航天科工集团八五一一研究所 基于等阶跳转技术的雷达脉冲快速搜索方法
CN110501684B (zh) * 2019-08-23 2022-12-23 北京航天朗智科技有限公司 雷达数据处理装置及雷达数据处理方法
CN111273268B (zh) * 2020-01-19 2022-07-19 北京百度网讯科技有限公司 自动驾驶障碍物类型的识别方法、装置及电子设备
KR102271138B1 (ko) * 2021-04-22 2021-06-30 메타빌드(주) 레이더 센서를 이용한 교통정보 수집 정확도 향상 장치 및 그 방법
KR102275280B1 (ko) * 2021-04-22 2021-07-09 메타빌드(주) 레이더 센서를 이용한 다중 객체 추적 기반 교통정보 수집 장치 및 그 방법
KR102598250B1 (ko) * 2023-07-11 2023-11-06 메타빌드주식회사 레이더 신호를 이용한 표적 탐지 방법, 표적 탐지 시스템및 이를 위한 컴퓨터 프로그램

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100902560B1 (ko) * 2008-11-04 2009-06-11 국방과학연구소 탐색중 추적 레이더의 위협경보 발생장치 및 방법
KR20110003023A (ko) * 2009-07-03 2011-01-11 중앙대학교 산학협력단 과속차량 탐지장치 및 방법
KR20130138392A (ko) * 2012-06-11 2013-12-19 휴앤에스(주) 돌발검지 시스템
KR20140123435A (ko) * 2013-04-12 2014-10-22 메타빌드주식회사 레이더 장치의 안테나들 사이의 핸드 오버를 이용한 물체 감지 장치, 방법 및 시스템
KR101652798B1 (ko) * 2015-04-27 2016-09-01 메타빌드주식회사 돌발상황 감지 방법

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5115243A (en) * 1991-04-16 1992-05-19 General Electric Co. Radar system with active array antenna, beam multiplex control and pulse integration control responsive to azimuth angle
US7474257B2 (en) * 2004-11-08 2009-01-06 The United States Of America As Represented By The Secretary Of The Navy Multistatic adaptive pulse compression method and system
JP5673568B2 (ja) * 2012-01-16 2015-02-18 トヨタ自動車株式会社 物体検出装置
DE102012107445B8 (de) * 2012-08-14 2016-04-28 Jenoptik Robot Gmbh Verfahren zur Klassifizierung von fahrenden Fahrzeugen
DE102013113054B4 (de) * 2012-12-03 2022-01-27 Denso Corporation Zielerfassungsvorrichtung zum Vermeiden einer Kollision zwischen einem Fahrzeug und einem durch einen an dem Fahrzeug montierten Sensor erfassten Ziel
JP6593588B2 (ja) * 2015-02-16 2019-10-23 パナソニックIpマネジメント株式会社 物体検出装置および物体検出方法
CN104865568B (zh) * 2015-06-02 2017-05-24 西安电子科技大学 基于稀疏重构的宽带雷达高速群目标分辨方法
CN105372659A (zh) * 2015-11-20 2016-03-02 上海无线电设备研究所 道路交通监控多目标探测跟踪方法及跟踪系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100902560B1 (ko) * 2008-11-04 2009-06-11 국방과학연구소 탐색중 추적 레이더의 위협경보 발생장치 및 방법
KR20110003023A (ko) * 2009-07-03 2011-01-11 중앙대학교 산학협력단 과속차량 탐지장치 및 방법
KR20130138392A (ko) * 2012-06-11 2013-12-19 휴앤에스(주) 돌발검지 시스템
KR20140123435A (ko) * 2013-04-12 2014-10-22 메타빌드주식회사 레이더 장치의 안테나들 사이의 핸드 오버를 이용한 물체 감지 장치, 방법 및 시스템
KR101652798B1 (ko) * 2015-04-27 2016-09-01 메타빌드주식회사 돌발상황 감지 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110045345A (zh) * 2019-03-12 2019-07-23 广东工业大学 一种毫米波雷达自适应分析方法
CN110045345B (zh) * 2019-03-12 2023-01-20 广东工业大学 一种毫米波雷达自适应分析方法
CN110146865A (zh) * 2019-05-31 2019-08-20 阿里巴巴集团控股有限公司 用于雷达图像的目标识别方法及装置
CN112346046A (zh) * 2020-10-30 2021-02-09 合肥中科智驰科技有限公司 基于车载毫米波雷达的单目标跟踪方法及其系统

Also Published As

Publication number Publication date
CN108226917B (zh) 2021-09-28
KR101752858B1 (ko) 2017-07-19
CN108226917A (zh) 2018-06-29

Similar Documents

Publication Publication Date Title
WO2018105842A1 (ko) 레이더 기반 고 정밀 돌발상황 검지 시스템
WO2018110964A1 (en) Electronic device and method for recognizing object by using plurality of sensors
WO2018230852A1 (ko) 3차원 공간의 이동 객체를 식별하는 방법 및 이를 구현하는 로봇
WO2017008224A1 (zh) 一种移动物体的距离检测方法、装置及飞行器
WO2018186583A1 (ko) 주행 지면의 장애물을 식별하는 방법 및 이를 구현하는 로봇
WO2020004817A1 (ko) 차선 정보 검출 장치, 방법 및 이러한 방법을 수행하도록 프로그램된 컴퓨 프로그램을 저장하는 컴퓨터 판독가능한 기록매체
WO2015072621A1 (ko) 모바일 gps 정보를 이용하여 차량의 충돌을 방지하기 위한 시스템 및 그 방법
WO2014163307A1 (ko) 자동차 자동 운행 시스템
WO2022005053A1 (ko) Adas를 이용한 운전자 평가 방법 및 장치
WO2014175502A2 (ko) 광 신호를 이용한 거리 측정 방법 및 장치
WO2017116134A1 (ko) 레이더 및 영상 융합 차량 단속시스템
WO2014051362A1 (ko) 이벤트 기반 비전 센서를 이용한 근접 센서 및 근접 센싱 방법
WO2019182355A1 (ko) 열화상센서를 갖는 스마트폰, 차량, 카메라 및 이를 이용한 디스플레이 및 감지 방법
WO2014051262A1 (ko) 이벤트 룰 설정방법 및 이를 이용한 이벤트 감시장치
WO2019135437A1 (ko) 안내 로봇 및 그의 동작 방법
WO2020122300A1 (ko) 딥러닝 기반 번호 인식 시스템
WO2019107782A1 (ko) 정보 제공을 위한 시스템, 서버 및 방법
EP3676147A1 (en) Autonomous driving apparatus and method for autonomous driving of a vehicle
WO2022255677A1 (ko) 다중 관측정보를 이용한 고정객체의 위치 결정 방법
WO2020171605A1 (ko) 주행 정보 제공 방법, 차량맵 제공 서버 및 방법
WO2020230931A1 (ko) 다중 센서 및 인공지능에 기반하여 맵을 생성하고 노드들의 상관 관계를 설정하며 맵을 이용하여 주행하는 로봇 및 맵을 생성하는 방법
WO2020189831A1 (ko) 자율주행 차량의 모니터링 및 제어 방법
WO2022196883A1 (ko) 카메라와 레이더를 이용한 구간 단속 방법 및 구간 단속 시스템
WO2021251562A1 (ko) 보행신호등 주변의 위반차량 무인단속시스템
WO2018135745A1 (ko) 차량 주변의 객체를 나타내는 영상을 생성하는 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17878237

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17878237

Country of ref document: EP

Kind code of ref document: A1