WO2016208914A1 - 차량 사고 감지장치 및 이를 이용한 긴급 콜 시스템 - Google Patents

차량 사고 감지장치 및 이를 이용한 긴급 콜 시스템 Download PDF

Info

Publication number
WO2016208914A1
WO2016208914A1 PCT/KR2016/006446 KR2016006446W WO2016208914A1 WO 2016208914 A1 WO2016208914 A1 WO 2016208914A1 KR 2016006446 W KR2016006446 W KR 2016006446W WO 2016208914 A1 WO2016208914 A1 WO 2016208914A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
accident
dimensional motion
time
information
Prior art date
Application number
PCT/KR2016/006446
Other languages
English (en)
French (fr)
Inventor
김영기
Original Assignee
주식회사 엔알피시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엔알피시스템 filed Critical 주식회사 엔알피시스템
Publication of WO2016208914A1 publication Critical patent/WO2016208914A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Definitions

  • the present invention relates to a vehicle accident detection device and an emergency call system for automatically requesting a rescue request or an accident from a control center when a traffic accident occurs using the device.
  • the emergency call system determines that an accident has occurred when the driver presses the rescue button directly or, for example, the airbag is deployed, and transmits the current location of the vehicle along with information necessary to receive the accident to the control center.
  • the driver may not be able to press the rescue button or the airbag may not be deployed normally, for example, because the driver may lose consciousness. There is a problem that can not be.
  • the present invention is based on the recognition of the prior art as described above, an object of the present invention to accurately determine the occurrence of the accident to provide a vehicle accident detection device and emergency call system for providing assistance to the driver in the event of a traffic accident.
  • Incident determination is easy when the instantaneous rate of change is very large above a threshold.
  • the types of traffic accidents are so diverse that it is not easy to determine whether there is an accident with uniform or several criteria.
  • a number of accident situations can be assumed and a decision algorithm can be derived that can be applied in those situations, but there are too many cases to consider and cannot cover all situations.
  • the accident detection apparatus for accurate and rapid vehicle accident determination It may also be partially employed.
  • One of the main features of the present invention is to track the three-dimensional behavior of the vehicle and determine it as an accident when showing the expected and abnormal behavior. More specifically, the present invention tracks the three-dimensional motion of the vehicle to calculate the three-dimensional motion prediction range of the vehicle for a predetermined time from the current time point, and determines that the accident if the actual three-dimensional motion tracking value is out of the prediction range can do.
  • Predicting the three-dimensional motion of a vehicle based on the past three-dimensional motion and judging that the accident is out of the prediction provides an opportunity for learning various vehicle accident situations and upgrading the prediction model.
  • This predictive model can be strictly set so that the accident risk is determined in the past behavior of the vehicle, so that the accident can be judged even in the case of the slightest abnormal behavior of the vehicle.
  • the above prediction model predicts vehicle behavior for a certain time period including the error. Therefore, the probability of misjudgment is less than judging all accident situations based on the instantaneous rate of change.
  • the above-mentioned special event the case where the instantaneous rate of change is equal to or greater than the threshold value can also be partly employed in the accident detecting apparatus according to the present invention, so there is no risk that the apparent accident situation will not be judged as an accident.
  • the determination data of the vehicle abnormal behavior described above is transmitted to the Ecall control center.
  • the control center can generate three-dimensional simulation images to reconfirm the abnormal behavior of the vehicle, and deploy the Ecall service according to the degree of emergency.
  • the image information around the vehicle before and after the notice time is also transmitted to the Ecall control center.
  • the monitoring personnel of the control center can check the received image information to accurately determine the accident and the situation, and can respond to the incident immediately and most appropriately.
  • Vehicle accident detection device GPS receiving unit for receiving position information of the vehicle; A collecting unit for collecting vehicle state information propagated through the in-vehicle network; Sensor unit for detecting the three-dimensional motion of the vehicle; An image generator for generating image information around the vehicle; An accident analysis unit for determining whether or not a vehicle accident is performed using the information on the position, state, and three-dimensional motion of the vehicle; And a wireless communication unit for communicating with an external vehicle device.
  • the 3D motion information may include values capable of 3D simulation including x, y, z, roll, pitch, and yaw angles.
  • x, y, z correspond to the Cartesian coordinate axis associated with the direction of travel of the vehicle, and roll, pitch and yaw are related to the tilted attitude of the vehicle.
  • a 9-axis sensor including acceleration, angular velocity and geomagnetic sensors can be used for the detection of three-dimensional motion information.
  • the accident analysis unit tracks the three-dimensional motion of the vehicle at every first period, and at some point in the future, T + ⁇ t ( ⁇ t is the first time) from the first prediction time T based on past three-dimensional motion tracking data every second period.
  • the first prediction range of the three-dimensional motion of the vehicle (up to a positive value greater than the period) is calculated, and if the actual three-dimensional motion tracking value is out of the first prediction range, it can be determined as an accident.
  • the second period is synchronized to the location information receiving period of the GPS receiver, and the accident analyzer may correct the vehicle position at the time T arriving at every second period by using the location information from the GPS receiver.
  • the accident analysis unit 3D motion tracking values of the previous vehicle at the second prediction time T '(T' is a point in time between the subsequent second period coming from the time point T), for example, the view point Vehicle from the second prediction time T 'to some future point T' + ⁇ t '( ⁇ t' is greater than the first period and less than or equal to the second period) based on the three-dimensional motion tracking values from T
  • the second prediction range of the 3D motion is calculated, and if the actual 3D motion tracking value is out of the second prediction range, it may be determined as an accident.
  • calculating the second prediction range as described above prevents the accident of the vehicle accident from being judged by the instantaneous vehicle state value change. Frequent misjudgment is a problem for the operation of an emergency call system with many vehicles connected.
  • the first prediction range includes three-dimensional spatial values set based on a vector starting from a position at a first prediction time T as a starting point at a future point in time T + ⁇ t, and the direction of the vector. Is the shortest moving direction of the vehicle for ⁇ t and the magnitude of the vector is the shortest moving distance of the vehicle for ⁇ t, and the spatial values may converge at the start and end points, respectively.
  • the vehicle accident detection device having the above characteristics; And a control center server which holds information on at least one of a vehicle equipped with a vehicle accident detection device or a driver of the vehicle.
  • the vehicle accident detection device transmits the accident data for a predetermined time before and after the accident time to the control center server when the accident is determined, the accident data includes the vehicle position information, three-dimensional motion information and image information, the position information
  • the 3D motion information and the image information may include visual information synchronized or synchronizable.
  • the vehicle accident detection apparatus can use the vehicle state information propagated through the vehicle's internal network as well as independent incident determination thereof, so that it can cope with various accident situations.
  • the vehicle accident detection device and the emergency call system in the daily operation of the vehicle, the driver or company, to provide information for safe driving or reducing fuel costs by analyzing the driving pattern or vehicle location for logistics management It can be used to provide information.
  • FIG. 1 is a schematic configuration diagram of a vehicle accident detection apparatus according to an embodiment of the present invention
  • FIG. 2 is a schematic structural diagram of an emergency call system according to an embodiment of the present invention.
  • 3 to 5 is a view showing an accident analysis model of the vehicle accident detection apparatus according to an embodiment of the present invention
  • FIG. 6 is a diagram schematically showing an example of a 3D simulation image generated using three-dimensional motion information of a vehicle according to an embodiment of the present invention.
  • the emergency call system includes an accident sensing device 10 and a control center server 200 installed in the vehicle 100.
  • the monitor agent of the control center checks the accident data to register the emergency call service suitable for the accident situation in the control center server 200 Provide to the driver 100.
  • the control center server 200 has registration information including at least one of a vehicle 100 equipped with an accident sensing device 10 and a driver of the vehicle 100.
  • the accident data includes an identification code for identifying the vehicle or driver, for example, a unique number of the accident detection device 10.
  • the vehicle accident detecting apparatus 10 includes an accident analyzer 11, a collector 12, a sensor 13, a GPS receiver 15, an image generator 14, and the like.
  • the wireless communication unit 16 is provided.
  • the accident analysis unit 11 includes a control unit 11a and a storage unit 11b for processing data.
  • the storage unit 11b may include a system memory and storage for storing data.
  • the storage stores various raw data or processed data received by the accident analysis unit 11.
  • the collection unit 12 is connected to an in-vehicle network, such as CAN communication, to collect OBD (On Board Diagnosis) information of the vehicle.
  • OBD On Board Diagnosis
  • Most recently released domestic and foreign vehicles are equipped with OBD-II port, which can be connected to collect various vehicle status information such as vehicle speed, RPM, steering wheel angle, acceleration and deceleration information, and airbag deployment.
  • the sensor unit 13 uses a 9-axis sensor having acceleration, angular velocity, and geomagnetic sensors for more accurate three-dimensional motion tracking of the vehicle.
  • a 9-axis sensor having acceleration, angular velocity, and geomagnetic sensors for more accurate three-dimensional motion tracking of the vehicle.
  • the use of a six-axis gyro sensor with a three-axis acceleration sensor and a three-axis geomagnetic sensor is not excluded, and nine-axis sensors are preferred to ensure accuracy.
  • the three-dimensional motion information of the vehicle generated by the sensor unit 13 includes x, y, z, roll, pitch, yaw angle to enable 3D simulation.
  • the x, y, z can be used to know the direction and size of the vehicle.
  • the roll, pitch, and yaw angles can be used to determine the tilt and rotation angle of the vehicle.
  • Vehicle state information collected by the collection unit 12 may be used to track the 3D motion of the vehicle.
  • the GPS receiver 15 may be a universal geolocation navigation system. Receives a signal from at least three GPS satellites, calculates the position, speed, and direction of the vehicle to generate accurate position information of the vehicle.
  • the information detected by the collecting unit 12, the sensor unit 13, and the GPS receiving unit 15 is transmitted to the accident analyzing unit 11 together with visual information for analyzing the accident.
  • the visual information generated in each module may not coincide. Different visual information may be synchronized in the accident analysis unit 11.
  • the image generating unit 14 is for generating image information around the vehicle, and includes a front camera, a rear camera, and left and right side cameras. Some of these cameras, for example, front and rear cameras, may be built in the accident sensing device 10, and another part may be separately installed in the vehicle.
  • the image information generated by the image generator 14 is stored in a time sequence in the storage unit 11b of the accident analyzer 11.
  • the accident analysis unit 11 transmits the image information along with other accident data to the control center server 200.
  • the control center can grasp the accident situation through video information.
  • the vehicle accident detecting apparatus 10 may be utilized as a black box. Like the vehicle black box, it can be mounted on the interior side of the windshield, the front camera generates an image of the front of the vehicle, and the rear camera can be used for video calls. In case of an emergency, the control center can quickly and accurately identify the accident through video calls with the driver.
  • the vehicle accident detecting apparatus 10 may include a display 17, a microphone 18, and a speaker 19.
  • the wireless communication unit 16 may be a communication module capable of 3G and LTE communication, and may be configured as a module integrated with a GPS receiver.
  • the accident analysis unit 11 tracks the three-dimensional motion of the vehicle using the information received from the sensor unit 13, and the vehicle for a predetermined time (T + 1) from the current time T.
  • the 3D motion prediction range 20 is calculated to determine that the actual 3D motion tracking value R1 is outside the prediction range 20 as an accident.
  • the position, direction of movement and distance of the vehicle must be known.
  • the location information may be obtained from the GPS receiver 15, the traveling direction of the vehicle may be obtained from the geomagnetic sensor of the sensor unit 13, and the moving distance may be obtained from the acceleration sensor or the collection unit 12 of the sensor unit 13.
  • the positional information reception period of a typical GPS receiver is about 1 second (sec).
  • the sensor unit 13 having an update period of about 100 ms may be used to track the 3D motion of the vehicle for every 1 second until the position information is received from the GPS receiver 15. Using the position information from the GPS receiver 15, the current position of the vehicle is updated or corrected every second.
  • the three-dimensional motion prediction range 20 sets the three-dimensional motion of the vehicle that is predictable based on the current viewpoint T based on past three-dimensional motion tracking data, and includes an allowable error. . 3 to 5, the prediction ranges 20, 30 and 40 are simplified to cuboids.
  • the position 22 of the vehicle at the future time point T + 1 is calculated, for example, one second later, using past three-dimensional motion tracking values at the vehicle position 21 at the current time point T.
  • a vector P1 is obtained which uses the current position 21 of the vehicle as a starting point and the future position 22 as an end point.
  • the direction of the vector P1 is the shortest moving distance of the vehicle for 1 second
  • the magnitude of the vector P2 represents the shortest moving distance of the vehicle for 1 second.
  • the three-dimensional motion prediction range 20 of the vehicle may be expressed as a spatial model from the start point to the end point of the vector P1. The spatial values converge at the start and end points, respectively.
  • the distance from the vector P1 to the boundary of the prediction range 20 is an error range.
  • the 3D motion prediction range 20 may be set in a form in which the error range is further reduced based on the vector P1.
  • the error range varies depending on the speed of the vehicle and the degree of risk of an accident.
  • the error range is not necessarily reduced or expanded symmetrically with respect to the vector P1.
  • the accident analysis unit 11 tracks the three-dimensional motion of the vehicle every 100 ms, and determines that the three-dimensional motion tracking values R1 are out of the prediction range 20 as the accident. Naturally, the accident analysis unit 11 tracks changes in the roll, pitch, and yaw angle of the vehicle as well as x, y, and z values.
  • the prediction range 20 may include a three-dimensional attitude value of the vehicle that is acceptable within the error range.
  • FIG. 4 shows the second three-dimensional motion prediction range 30 generated at the current position 31 at time T + 0.5 after 0.5 seconds from the current position 21 at time T in FIG. have.
  • the first three-dimensional motion prediction range 20 shown in FIG. 3 is generated every second according to the GPS reception period. Vehicle behavior prediction of one second period may cause the error range to be incorrect.
  • the accident analysis unit 11 generates the second three-dimensional motion prediction range 30 in one second intervals between the generation periods of the first three-dimensional motion prediction range 20.
  • the second 3D motion prediction range 30 is also derived in the same manner as the first 3D motion prediction range 20.
  • the accident analysis unit 11 uses the past three-dimensional motion tracking values R1 at the current time point T + 0.5 to determine the three-dimensional motion prediction range 30 from one second to the future time point T + 1.5.
  • a vector P2 is derived from the vehicle position 31 at the current point in time T + 0.5 as the starting point and the position 32 as the end point in the future point in time T + 1.5, and a three-dimensional motion at both ends of the vector P2 is obtained.
  • the spatial value of the prediction range 30 converges.
  • the prediction range 30 may include a three-dimensional attitude value of the vehicle that is acceptable within the error range.
  • the accident analysis unit 11 tracks the three-dimensional motion of the vehicle every 100ms, and determines that the tracking values P2 are out of the prediction range 30 as the accident.
  • a third three-dimensional motion prediction range 40 generated at the current position 31 at time T + 1 after 0.5 seconds has passed from the current position 21 at time T + 0.5 in FIG. 4.
  • the third three-dimensional motion prediction range 40 is also derived in the same manner as the first three-dimensional motion prediction range 20.
  • the accident analysis unit 11 uses the past three-dimensional motion tracking values R2 at the current time point T + 1 to determine the three-dimensional motion prediction range 30 from one second to the future time point T + 1.5. Create
  • a vector P3 is derived from the vehicle position at the current point in time T + 1 as the starting point and the position at the future point in time T + 2 as the end point, and the three-dimensional motion prediction range 40 of the vector P3 is derived. Spatial values converge.
  • the prediction range 40 may include a three-dimensional attitude value of the vehicle that is acceptable within the error range.
  • the accident analysis unit 11 tracks the three-dimensional motion of the vehicle every 100ms, and determines that the tracking values R3 are out of the prediction range 40 as the accident.
  • the vehicle accident detecting apparatus 10 transmits the accident data for a predetermined time before and after the accident time to the control center server 200 when the accident is determined.
  • the accident data includes location information of the vehicle, 3D motion information, and image information, and the location information, 3D motion information, and image information includes visual information that can be synchronized or synchronized.
  • the vehicle accident situation can be easily identified using the image information, and whether or not the cause of occurrence, the cause of occurrence, by outputting the 3D simulation image using the 3D motion information You can get a better picture of the accident.
  • FIG. 6 illustrates a 3D simulation image generated using the 3D motion information of the vehicle described above.
  • the three-dimensional attitude or behavior of the vehicle may be detected through the simulation image.
  • the cause of the accident can be more easily analyzed, and the dispute between the parties due to the traffic accident can be reduced.
  • the vehicle accident detecting device 10 may be graded according to the risk level of the situation in which the accident is determined to notify the control center of the accident situation.
  • the control center can provide an emergency call service with a predetermined process depending on the risk class of the incident received. For example, in an emergency situation where an overturn occurred, a report can be immediately received and requested for immediate response by the relevant organization. In the case of a general contact accident, the driver can be called directly.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Traffic Control Systems (AREA)
  • Alarm Systems (AREA)
  • Operations Research (AREA)

Abstract

차량에 장착된 사고 감지장치가 교통사고를 인지하면 자동으로 긴급 콜 서비스 관제센터에 사고 데이터를 전송한다. 사고 감지장치는 차량의 3차원 모션을 추적하여 현재 시점으로부터 일정시간 동안의 차량의 3차원 모션 예측범위를 산출하고, 실제의 3차원 모션 추적 값이 예측 범위를 벗어난 경우 사고로 판정한다. 사고 데이터는 상기된 차량의 위치정보, 3차원 모션정보 및 영상정보를 포함한다.

Description

차량 사고 감지장치 및 이를 이용한 긴급 콜 시스템
본 발명은 차량 사고 감지장치 및 이 장치를 이용하여 교통사고 발생 시 자동으로 관제센터에 구조 요청이나 사고 접수를 하기 위한 긴급 콜 시스템과 관련된다.
유럽에서는 Ecall로 불리는 긴급 콜(Emergency Call) 시스템에 관한 법규화가 추진되어 2018년 3월부터 생산되는 차량에는 긴급 콜 시스템의 장착이 의무화될 예정에 있다.
긴급 콜 시스템은 운전자가 직접 구난 버튼을 누르거나 예로서 에어백이 전개되면, 사고 발생으로 판단하고, 차량의 현재 위치와 함께 사고 접수에 필요한 정보를 관제센터로 전송하도록 하고 있다.
운전자가 의식을 잃는 등의 이유로 구난 버튼을 누를 수 없거나 에어백이 정상적으로 전개되지 않는 등의 이상 상황이 발생될 수 있는데, 이러한 상황은 운전자 구난이 필요성이 매우 높은 긴급사건임에도 긴급 콜 시스템의 도움을 받을 수 없다는 문제가 있다.
본 발명은 위와 같은 종래기술에 대한 인식에 기초한 것으로, 사고의 발생을 정확히 판단하여 교통사고 발생 시 운전자에게 도움을 제공하기 위한 차량 사고 감지장치 및 긴급 콜 시스템을 제공함을 목적으로 한다.
본 발명의 또 다른 목적들은 이하의 기재내용으로부터 이해될 수 있을 것이다.
앞서 배경기술에서 언급되었듯이, 운전자에게 긴급 상황에 필요한 도움을 신속하게 제공하기 위해서는 사고의 발생이 정확히 판단될 필요가 있다. 에어백이 전개되거나 과도한 충격 감지되는 등의 특별한 이벤트가 있는 상황은 쉽게 사고 판정이 가능하다. 그러나 이러한 이벤트가 없는 경우 사고 여부의 판정이 쉽지 않다.
교통사고 발생 시, 통상적으로 급정거, 급회전 등이 수반되고 이에 따라 각종의 차량 상태값들, 예를 들어 가속도, 조향각, 롤(roll), 피치(pitch), 요(yaw) 각도 등이 급격하게 변한다. 따라서 이러한 차량 상태값의 순간 변화율에 근거해서 차량 사고 여부의 판정이 가능할 수 있다.
상기 순간 변화율이 임계치 이상으로 매우 큰 경우 사고 판정이 쉽다. 그러나 교통사고의 유형은 매우 다양해서 일률적인 혹은 몇 가지의 기준을 가지고 사고 여부를 판정하기가 쉽지 않다. 여러 사고 상황들을 가정하고 해당 상황들에서 적용될 수 있는 사고판정 알고리즘을 도출할 수 있으나, 고려해야 할 경우의 수가 너무 많고 모든 상황을 커버할 수 없다.
위에서 언급된 특별한 이벤트, 순간 변화율이 임계치 이상으로 매우 큰 상황, 통상적인 차량 사고 시나리오에 대응할 수 있는 사고판정 알고리즘 등은 완전하지는 않지만, 정확하고 신속한 차량 사고의 판단을 위해 본 발명에 따른 사고 감지장치에서도 부분적으로 채용될 수 있다.
본 발명의 주요한 특징들 중 하나는 차량의 3차원 거동을 추적하여 예상되는 거동과 이상 거동을 보일 때 사고로 판단하는 것이다. 조금 더 구체적으로, 본 발명은 차량의 3차원 모션을 추적하여 현재 시점으로부터 일정시간 동안의 차량의 3차원 모션 예측범위를 산출하고, 실제의 3차원 모션 추적 값이 예측 범위를 벗어난 경우 사고로 판정할 수 있다.
과거의 3차원 모션을 기반으로 차량의 3차원 모션을 예측하고 그 예측을 벗어날 경우 사고로 판단하는 방식은, 다양한 차량 사고 상황의 학습과 이를 통한 예측모형의 업그레이드 기회를 제공한다. 이 예측모형은 차량의 과거 거동에서 사고 위험이 크다고 판단될수록, 조금 더 사소한 차량의 이상 거동에도 사고 판정될 수 있도록, 엄격하게 설정될 수 있다.
위 예측모형은 오차를 포함하여 일정시간 동안의 차량 거동을 예측한다. 따라서 상기 순간 변화율에 기초하여 모든 사고 상황을 판단하는 것보다, 오판단의 확률이 적다. 앞서 언급되었듯이, 상기된 특별한 이벤트, 순간 변화율이 임계치 이상인 경우 등은 본 발명에 따른 사고 감지장치에도 부분적으로 채용될 수 있으므로, 명백한 사고 상황이 사고로 판단되지 않을 위험은 없다.
상기된 차량 이상 거동의 판단 데이터는 Ecall 관제센터로 전송된다. 이 데이터를 이용하여 관제센터에서는 3차원 시뮬레이션 영상을 생성하여 차량의 이상 거동을 재차 확인할 수 있으며, 발생된 사고의 위급 정도에 따라 Ecall 서비스를 전개할 수 있다.
바람직하게는 시고 시점 전후의 차량 주변 영상정보도 Ecall 관제센터로 전송된다. 관제센터의 모니터 요원은 수신된 영상정보를 확인하여 사고 여부 및 상황을 정확히 판단할 수 있으며, 즉각적으로 또 가장 적절하게 사고에 대응할 수 있다.
본 발명에 따른 차량 사고 감지장치는 차량의 위치정보를 수신하기 위한 GPS 수신부; 차량 내 네트워크를 통해 전파되는 차량 상태정보를 수집하기 위한 수집부; 차량의 3차원 모션을 감지하기 위한 센서부; 차량 주변의 영상 정보를 생성하는 영상생성부; 상기된 차량의 위치, 상태 및 3차원 모션에 관한 정보를 이용하여 차량 사고 여부를 판단하기 위한 사고 분석부; 및 차량 외부 기기와의 통신을 위한 무선통신부;를 포함한다.
위의 3차원 모션 정보는 x, y, z, 롤(roll), 피치(pitch), 요(yaw) 각도를 포함하는 3D 시뮬레이션이 가능한 값들을 포함할 수 있다. 잘 알려진 바와 같이, x, y, z는 차량의 진행방향과 관련된 직교 좌표축에 해당하며, 롤, 피치, 요는 차량의 기울어진 자세와 관련된다. 3 차원 모션 정보의 검출을 위해 가속도, 각속도, 지자기 센서를 포함하는 9축 센서가 사용될 수 있다.
상기 사고 분석부는, 제1 주기마다 차량의 3차원 모션을 추적하며, 제2 주기마다 과거의 3차원 모션 추적 데이터를 기초로 제1 예측시점 T로부터 미래의 어느 시점 T+Δt(Δt는 제1 주기보다 큰 양의 값)까지의 차량의 3차원 모션의 제1 예측범위를 산출하고, 실제의 상기 3차원 모션 추적 값이 제1 예측범위를 벗어난 경우 사고로 판정할 수 있다.
또한, 제2 주기는 GPS 수신부의 위치정보 수신 주기에 동기화되며, 상기 사고 분석부는, GPS 수신부로부터의 위치정보를 이용하여 제2 주기마다 도래하는 시점 T에서의 차량 위치를 보정할 수 있다.
또한, 상기 사고 분석부는, 제2 예측시점 T'(T'는 시점 T로부터 이어서 도래하는 제2 주기 사이의 어느 시점임)에 그 이전의 차량의 3차원 모션 추적값들, 예를 들어 상기 시점 T로부터의 3차원 모션 추적 값들을 기초로 제2 예측시점 T'로부터 미래의 어느 시점 T'+Δt'(Δt'는 제1 주기보다는 크고 제2 주기보다는 작거나 같은 양의 값)까지의 차량의 3차원 모션의 제2 예측범위를 산출하고, 실제의 상기 3차원 모션 추적 값이 제2 예측범위를 벗어난 경우 사고로 판정할 수 있다.
위와 같이 제1 예측범위를 기초로 차량 거동을 감시할 수 있는 제1 예측범위의 중간 어느 시점에 제2 예측범위를 산출함으로써, 차량 내 네트워크에서의 신호전달 지연이나 알고리즘 처리의 지연 등으로 인해, 제1 예측범위가 끝나는 T+Δt 시점에 예측모형이 준비되지 못하는 상황이 방지될 수 있다.
또한 위와 같이 제2 예측범위를 산출하는 것은, 순간적인 차량 상태값 변화에 의해 차량 사고를 오판단하게 되는 것을 방지한다. 수많은 차량이 연결된 긴급 콜 시스템의 운영을 위해서는 잦은 사고 오판단은 문제가 된다.
또한, 상기 제1 예측범위는, 제1 예측시점 T에서의 위치를 시작점으로 미래의 어느 시점 T+Δt에서의 위치를 끝점으로 하는 벡터를 기준으로 설정된 3차원 공간값들을 포함하며, 벡터의 방향은 Δt 동안의 차량의 최단거리 이동방향이며 벡터의 크기는 Δt 동안의 차량의 최단이동거리이고, 시작점 및 끝점에서 각각 공간값들이 수렴될 수 있다.
본 발명에 따른 긴급 콜 시스템은, 상기된 특징들을 갖는 차량 사고 감지장치; 및 차량 사고 감지장치가 장착된 차량 또는 해당 차량의 운전자 중 적어도 어느 하나에 관한 정보를 보유하는 관제센터서버;를 포함한다.
상기 차량 사고 감지장치는 사고 판단 시, 사고 시점 전후 일정시간 동안의 사고 데이터를 관제센터서버로 전송하며, 사고 데이터는 상기된 차량의 위치정보, 3차원 모션정보 및 영상정보를 포함하며, 위치정보, 3차원 모션정보, 영상정보는 동기화 되거나 또는 동기화 가능한 시각 정보를 포함할 수 있다.
상술한 바와 같은 본 발명에 따른 차량 사고를 정확히 판단할 수 있고, 또한 발생된 사고 상황에 따라 신속하고 적절하게 운전자에게 도움을 제공할 수 있다.
또한 본 발명에 따른 차량 사고 감지장치는 차량 내부 네트워크를 통해 전파되는 차량 상태 정보를 이용함은 물론 이와 별도의 독자적인 사고 판단이 가능하므로, 다양한 사고 상황에 대응할 수 있다.
또한, 본 발명에 따른 차량 사고 감지장치 및 긴급 콜 시스템은, 일상적인 차량 운영 시에는, 운전자나 기업에, 운전 패턴을 분석하여 안전운전이나 유류비 절감을 위한 정보를 제공하거나 물류관리를 위한 차량 위치정보를 제공하는 등의 용도로 활용될 수 있다.
도 1은 본 발명의 실시예에 따른 차량 사고 감지장치의 개략적인 구성도,
도 2는 본 발명의 실시예에 따른 긴급 콜 시스템의 개략적인 구성도,
도 3 내지 도 5는 본 발명의 실시예에 따른 차량 사고 감지장치의 사고 분석 모형을 보인 도면,
도 6은 본 발명의 실시예에 따라 차량의 3차원 모션정보를 이용하여 생성된 3D 시뮬레이션 영상의 예를 모식적으로 보인 도면이다.
이하 본 발명에 첨부된 도면을 참조하여 본 발명을 상세히 설명하기로 한다. 도면들에서 동일한 구성요소 또는 부품들은 설명의 편의를 위해 가능한 한 동일한 참조부호로 표시된다.
도 1을 참조하면, 실시예에 따른 긴급 콜 시스템은 차량(100)에 설치된 사고 감지장치(10)와 관제센터서버(200)를 포함한다.
사고 감지장치(10)로부터 관제센터서버(200)에 사고 데이터가 수신되면, 관제센터의 모니터 요원이 해당 사고 데이터를 확인하여 사고 상황에 적합한 긴급 콜 서비스를 관제센터서버(200)에 등록된 차량(100) 운전자에게 제공한다.
관제센터서버(200)에는 사고 감지장치(10)가 장착된 차량(100), 해당 차량(100)의 운전자 중 적어도 어느 하나를 포함하는 등록정보가 보유된다. 사고 데이터에는 차량 혹은 운전자의 식별을 위한 식별코드, 예를 들면 사고 감지장치(10)의 고유번호가 포함된다.
도 2를 참조하면, 실시예에 따른 차량 사고 감지장치(10)는 사고분석부(11), 수집부(12), 센서부(13), GPS 수신부(15), 영상생성부(14) 및 무선통신부(16)를 구비한다.
사고분석부(11)는 데이터의 처리를 위한 제어부(11a)와 저장부(11b)를 구비한다. 저장부(11b)는 시스템 메모리와 데이터의 저장을 위한 스토리지를 포함할 수 있다. 스토리지에는 사고분석부(11)로 수신된 각종 로(Raw) 데이터나 가공된 데이터가 저장된다.
수집부(12)는 차량 내 네트워크, 이를테면 CAN 통신에 연결되어 차량의 OBD(On Board Diagnosis) 정보를 수집한다. 최근 출시되는 대부분의 국내외 차량에는 OBD-II 포트가 장착되며, 이 포트에 연결하여 차량의 속도, RPM, 핸들 조향각, 가속 및 감속 정보, 에어백의 전개 등 다양한 차량 상태정보를 수집할 수 있다.
센서부(13)는 보다 정확한 차량의 3차원 모션 추적을 위해 가속도, 각속도, 지자기 센서를 갖는 9축 센서가 사용된다. 물론 3축 가속도 센서와 3축 지자기 센서를 갖는 6축 자이로센서 등의 사용을 배제하는 것은 아니며, 정밀성 보장을 위해 9축 센서가 선호된다.
센서부(13)에서 생성된 차량의 3차원 모션 정보는 3D 시뮬레이션이 가능하도록 x, y, z, 롤, 피치, 요 각도를 포함한다. x, y, z를 통해 차량의 진행방향과 크기를, 롤, 피치, 요 각도를 통해 차량의 기울어짐 및 회전각을 알 수 있다. 차량의 3차원 모션 추적에 수집부(12)에서 수집된 차량 상태정보가 활용될 수 있다.
GPS 수신부(15)는 통용되고 있는 범지구위치항법시스템일 수 있다. 적어도 3개의 GPS 위성으로부터 신호를 수신 받아, 차량의 위치, 속도, 방향을 계산하여 차량의 정확한 위치정보를 생성한다.
수집부(12), 센서부(13), 및 GPS 수신부(15)에서 검출된 정보는 사고분석을 위해 시각 정보와 함께 사고분석부(11)로 전송된다. 각 모듈에서 생성된 시각 정보는 일치하지 않을 수 있는데, 서로 다른 시각 정보는 사고분석부(11)에서 동기화 처리될 수 있다.
영상생성부(14)는 차량 주변의 영상 정보를 생성하기 위한 것으로, 전방카메라, 후방카메라 및 차량 좌우의 측방 카메라를 포함한다. 이들 카메라의 일부, 예를 들면 전후방 카메라는 사고 감지장치(10)에 내장될 수 있고, 또 다른 일부는 차량에 별도로 설치될 수 있다.
영상생성부(14)에서 생성된 영상정보는 사고분석부(11)의 저장부(11b)에 시간순서대로 저장된다. 사고 판단 시 사고분석부(11)는 영상정보를 다른 사고 데이터와 함께 관제센터서버(200)로 전송한다. 관제센터에서는 영상정보를 통해 사고 상황을 정확하게 파악할 수 있다.
차량 사고 감지장치(10)는 블랙박스로 활용될 수 있다. 차량 블랙박스 처럼 전면유리의 실내 측에 장착될 수 있으며, 전방카메라는 차량 전방의 영상을 생성하며, 후방카메라는 화상통화용으로 사용될 수 있다. 긴급 상황 시, 관제센터는 운전자와의 화상통화를 통해 사고 상황을 신속하고 정확하게 파악할 수 있다.
실시예에 의하면 차량 사고 감지장치(10)에는 디스플레이(17), 마이크(18), 스피커(19)가 포함될 수 있다.
무선통신부(16)는 3G, LTE 통신이 가능한 통신모듈일 수 있으며, GPS 수신부와 통합된 모듈로 구성될 수 있다.
도 3 내지 도 5를 참조하여 실시예에 따른 사고분석 모형 또는 방법에 대해 살펴본다.
도 3을 참조하면, 사고분석부(11)는 센서부(13)로부터 수신된 정보를 이용하여 차량의 3차원 모션을 추적하며, 현재 시점(T)으로부터 일정시간 동안(T+1)의 차량의 3차원 모션 예측범위(20)를 산출하여 실제의 3차원 모션 추적 값(R1)이 예측 범위(20)를 벗어난 경우 사고로 판정한다.
차량의 3차원 모션, 예를 들어 x,y,z 값을 추적하기 위해서는 차량의 위치, 이동방향 및 이동거리가 파악되어야 한다. 위치 정보는 GPS 수신부(15)로부터, 차량의 진행방향은 센서부(13)의 지자기 센서로부터, 그리고 이동거리는 센서부(13)의 가속도 센서나 수집부(12)로부터 얻어질 수 있다.
통상적인 GPS 수신기의 위치정보 수신 주기는 1초(sec) 정도이다. GPS 수신부(15)로부터 위치정보가 수신되기 전까지의 매 1초 사이 시간 동안의 차량의 3차원 모션 추적에는 약 100ms의 갱신 주기를 갖는 센서부(13)가 이용될 수 있다. GPS 수신부(15)로부터의 위치정보를 이용하여 매 1초마다 차량의 현재 위치는 갱신 또는 보정된다.
3차원 모션 예측범위(20)는 과거의 3차원 모션 추적 데이터에 기초하여 현재 시점(T)을 기준으로 예측 가능한 차량의 3차원 모션을 범위 혹은 공간값들로 설정한 것으로 허용 가능한 오차를 포함한다. 도 3 내지 도 5에서, 예측 범위(20,30,40)은 직육면체로 단순화되어 있다.
도 3에서 보듯이, 현재 시점(T)의 차량 위치(21)에서 과거의 3차원 모션 추적값들을 이용하여 예를 들면 1초 후 미래 시점(T+1)의 차량의 위치(22)를 산출하여, 차량의 현재 위치(21)를 시작점으로 하고 미래 위치(22)를 끝점으로 하는 벡터(P1)가 얻어진다.
벡터(P1)의 방향은 1초 동안의 차량의 최단거리 이동방향, 벡터(P2)의 크기는 1초 동안의 차량의 최단이동거리를 나타낸다. 차량의 3차원 모션 예측범위(20)는 위 벡터(P1)의 시작점으로부터 끝점까지의 공간모형으로 표현될 수 있다. 시작점 및 끝점에서 각각 공간값들이 수렴된다. 벡터(P1)로부터 예측범위(20) 경계까지의 거리가 오차범위이다.
차량 상태값의 순간 변화율이 클 경우, 3차원 모션 예측범위(20)는 벡터(P1)를 기준으로 오차범위가 보다 축소된 형태로 설정될 것이다. 차량의 속도, 사고 위험 정도에 따라 오차범위가 변한다. 반드시 벡터(P1)를 기준으로 대칭적으로 오차범위가 축소, 확장되는 것은 아니다.
사고분석부(11)는 차량의 3차원 모션을 100ms 마다 추적하여, 3차원 모션 추적값들(R1)이 예측범위(20)로부터 벗어나면 사고로 판정한다. 당연하게도 사고분석부(11)는 x,y,z 값은 물론 차량의 롤, 피치, 요 각도의 변화(rate)도 추적한다. 예측범위(20)는 오차범위 내에서 허용 가능한 차량의 3차원 자세값을 포함할 수 있다.
도 4에는 도 3에서 시간 T의 현재 위치(21)로부터 0.5초(sec)가 지난 후 시간 T+0.5의 현재 위치(31)에서 생성된 두 번째의 3차원 모션 예측범위(30)가 도시되어 있다.
앞서 도 3에 도시된 첫 번째의 3차원 모션 예측범위(20)는 GPS 수신 주기에 맞추어 1초마다 생성된다. 1초 주기의 차량 거동 예측은 오차범위가 오판단을 야기할 수 있다. 사고분석부(11)는 첫 번째의 3차원 모션 예측범위(20)의 생성 주기 사이에 두 번째의 3차원 모션 예측범위(30)를 1초 주기로 생성한다.
도 4를 참조하면, 두 번째의 3차원 모션 예측범위(30)도 첫 번째의 3차원 모션 예측범위(20)와 마찬가지의 방법으로 도출된다. 사고분석부(11)는 현재 시점(T+0.5)에서의 과거 3차원 모션 추적값들(R1)을 이용하여 1초 후 미래 시점(T+1.5)까지의 3차원 모션 예측범위(30)를 생성한다.
현재 시점 T+0.5에서의 차량 위치(31)를 시작점으로 하고 미래 시점 T+1.5에서의 위치(32)를 끝점으로 하는 벡터(P2)가 도출되며, 벡터(P2)의 양 단에서 3차원 모션 예측범위(30)의 공간값이 수렴한다. 예측범위(30)는 오차범위 내에서 허용 가능한 차량의 3차원 자세값을 포함할 수 있다.
사고 분석부(11)는 매 100ms 마다 차량의 3차원 모션을 추적하여, 추적값들(P2)이 예측범위(30)를 벗어나면 사고로 판정한다.
도 5에는 도 4에서 시간 T+0.5의 현재 위치(21)로부터 0.5초(sec)가 지난 후 시간 T+1의 현재 위치(31)에서 생성된 세 번째의 3차원 모션 예측범위(40)가, 첫 번째, 두 번째의 예측범위(20,30)와 함께 도시되어 있다.
도 5를 참조하면, 세 번째의 3차원 모션 예측범위(40)도 첫 번째의 3차원 모션 예측범위(20)와 마찬가지의 방법으로 도출된다. 사고분석부(11)는 현재 시점(T+1)에서의 과거 3차원 모션 추적값들(R2)을 이용하여 1초 후 미래 시점(T+1.5)까지의 3차원 모션 예측범위(30)를 생성한다.
현재 시점 T+1에서의 차량 위치를 시작점으로 하고 미래 시점 T+2에서의 위치를 끝점으로 하는 벡터(P3)가 도출되며, 벡터(P3)의 양 단에서 3차원 모션 예측범위(40)의 공간값이 수렴한다. 예측범위(40)는 오차범위 내에서 허용 가능한 차량의 3차원 자세값을 포함할 수 있다.
또한 사고 분석부(11)는 매 100ms 마다 차량의 3차원 모션을 추적하여, 추적값들(R3)이 예측범위(40)를 벗어나면 사고로 판정한다.
차량 사고 감지장치(10)는 사고 판단 시, 사고 시점 전후 일정시간 동안의 사고 데이터를 관제센터서버(200)로 전송한다. 사고 데이터는 차량의 위치정보, 3차원 모션정보 및 영상정보를 포함하며, 위치정보, 3차원 모션정보, 영상정보는 동기화 되거나 또는 동기화 가능한 시각 정보를 포함한다.
차량 사고 감지장치(10)로부터 사고 데이터를 전송받은 관제센터에서는 영상정보를 이용하여 차량 사고 상황을 손쉽게 확인할 수 있으며, 3차원 모션정보를 이용하여 3D 시뮬레이션 영상으로 출력함으로써 사고 발생 여부, 발생원인, 사고 상황을 보다 정확히 파악할 수 있다.
도 6에는 위에서 설명된 차량의 3차원 모션정보를 이용하여 생성된 3D 시뮬레이션 영상이 예시되어 있다.
도 6에 도시되어 있듯이, 시뮬레이션 영상을 통해 차량의 3차원적 자세나 거동을 파악될 수 있다. 위치 정보와 주변 영상정보가 3D 시뮬레이션 영상화 데이터에 포함되는 경우, 사고의 원인 분석이 보다 용이해지며, 교통 사고로 인한 당사자 간의 분쟁 소지도 낮출 수 있다.
차량 사고 감지장치(10)는 사고 판정된 상황의 위험 수준에 따라 등급을 매겨 사고 상황을 관제센터에 알릴 수 있다. 관제센터에서는 접수된 사고의 위험 등급에 따라 미리 정해진 프로세스의 긴급 콜 서비스를 제공할 수 있다. 예로서 전복이 발생된 초 긴급상황에서는 즉시 신고접수하여 관련기관의 즉각 대응을 요청하며, 일반 접촉사고의 경우, 운전자에게 직접 콜 문의를 할 수 있다.
이상 본 발명의 특정 실시예에 관하여 도시하고 설명하였지만, 하기의 특허청구범위에 기재된 발명의 기술적 사상으로부터 벗어나지 않는 범위 내에서 본 발명은 다양하게 수정 또는 변형될 수 있다는 것이 이해될 필요가 있다.

Claims (8)

  1. 차량의 위치정보를 수신하기 위한 GPS 수신부;
    차량 내 네트워크를 통해 전파되는 차량 상태정보를 수집하기 위한 수집부;
    차량의 3차원 모션을 감지하기 위한 센서부;
    차량 주변의 영상 정보를 생성하는 영상생성부;
    상기된 차량의 위치, 상태 및 3차원 모션에 관한 정보를 이용하여 차량 사고 여부를 판단하기 위한 사고 분석부; 및
    차량 외부 기기와의 통신을 위한 무선통신부;를 포함하며,
    3차원 모션 정보는 x, y, z, 롤(roll), 피치(pitch), 요(yaw) 각도를 포함하는 3D 시뮬레이션이 가능한 값들을 포함하는 것을 특징으로 하는 차량 사고 감지장치.
  2. 청구항 1에 있어서, 상기 사고 분석부는,
    제1 주기마다 차량의 3차원 모션을 추적하며, 제2 주기마다 과거의 3차원 모션 추적 데이터를 기초로 제1 예측시점 T로부터 미래의 어느 시점 T+Δt(여기서, Δt는 제1 주기보다 큰 양의 값)까지의 차량의 3차원 모션의 제1 예측범위를 산출하고, 실제의 상기 3차원 모션 추적 값이 제1 예측범위를 벗어난 경우 사고로 판정하는 것을 특징으로 하는 차량 사고 감지장치.
  3. 청구항 2에 있어서, 제2 주기는 GPS 수신부의 위치정보 수신 주기에 동기화되며,
    상기 사고 분석부는, GPS 수신부로부터의 위치정보를 이용하여 제2 주기마다 도래하는 시점 T에서의 차량 위치를 보정하는 것을 특징으로 하는 차량 사고 감지장치.
  4. 청구항 2에 있어서, 상기 사고 분석부는,
    제2 예측시점 T'(여기서, T'는 시점 T로부터 이어서 도래하는 제2 주기 사이의 어느 시점임)에 그 이전의 차량의 3차원 모션 추적값들 기초로 제2 예측시점 T'로부터 미래의 어느 시점 T'+Δt'(Δt'는 제1 주기보다는 크고 제2 주기보다는 작거나 같은 양의 값)까지의 차량의 3차원 모션의 제2 예측범위를 산출하고, 실제의 상기 3차원 모션 추적 값이 제2 예측범위를 벗어난 경우 사고로 판정하는 것을 특징으로 하는 차량 사고 감지장치.
  5. 청구항 2에 있어서, 상기 제1 예측범위는,
    제1 예측시점 T에서의 위치를 시작점으로 미래의 어느 시점 T+Δt에서의 위치를 끝점으로 하는 벡터를 기준으로 설정된 3차원 공간값들을 포함하며, 벡터의 방향은 Δt 동안의 차량의 최단거리 이동방향이며 벡터의 크기는 Δt 동안의 차량의 최단이동거리이고, 시작점 및 끝점에서 각각 공간값들이 수렴되는 것을 특징으로 하는 차량 사고 감지장치.
  6. 청구항 1에 따른 차량 사고 감지장치; 및
    차량 사고 감지장치가 장착된 차량, 해당 차량의 운전자 중 적어도 어느 하나에 관한 정보를 보유하는 관제센터서버;를 포함하며,
    차량 사고 감지장치는 사고 판단 시, 사고 시점 전후 일정시간 동안의 사고 데이터를 관제센터서버로 전송하며,
    사고 데이터는 상기된 차량의 위치정보, 3차원 모션정보 및 영상정보를 포함하며, 위치정보, 3차원 모션정보, 영상정보는 동기화 되거나 또는 동기화 가능한 시각 정보를 포함하는 것을 특징으로 하는 긴급 콜 시스템.
  7. 청구항 6에 있어서, 상기 사고 분석부는,
    차량의 3차원 모션을 추적하여 현재 시점으로부터 일정시간 동안의 차량의 3차원 모션 예측범위를 산출하고, 실제의 3차원 모션 추적 값이 예측 범위를 벗어난 경우 사고로 판정하는 것을 특징으로 긴급 콜 시스템.
  8. 청구항 6에 있어서,
    상기 사고 분석부는, 제1 주기마다 차량의 3차원 모션을 추적하며, 제2 주기마다 과거의 3차원 모션 추적 데이터를 기초로 제1 예측시점 T로부터 미래의 어느 시점 T+Δt(여기서 Δt는 제1 주기보다 큰 양의 값임)까지의 차량의 3차원 모션의 제1 예측범위를 산출하고, 실제의 상기 3차원 모션 추적 값이 제1 예측범위를 벗어난 경우 사고로 판정하며,
    상기 제1 예측범위는, 제1 예측시점 T에서의 위치를 시작점으로 미래의 어느 시점 T+Δt에서의 위치를 끝점으로 하는 벡터를 기준으로 설정된 3차원 공간값들을 포함하며, 벡터의 방향은 Δt 동안의 차량의 최단거리 이동방향이며 벡터의 크기는 Δt 동안의 차량의 최단이동거리이고, 시작점 및 끝점에서 각각 공간값들이 수렴되는 것을 특징으로 하는 긴급 콜 시스템.
PCT/KR2016/006446 2015-06-24 2016-06-17 차량 사고 감지장치 및 이를 이용한 긴급 콜 시스템 WO2016208914A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20150089975 2015-06-24
KR10-2015-0089975 2015-06-24

Publications (1)

Publication Number Publication Date
WO2016208914A1 true WO2016208914A1 (ko) 2016-12-29

Family

ID=57585262

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/006446 WO2016208914A1 (ko) 2015-06-24 2016-06-17 차량 사고 감지장치 및 이를 이용한 긴급 콜 시스템

Country Status (2)

Country Link
KR (1) KR101738414B1 (ko)
WO (1) WO2016208914A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11462096B1 (en) 2021-04-28 2022-10-04 Qualcomm Incorporated High capability switch movement for automotive modems
CN115426354A (zh) * 2022-08-30 2022-12-02 星软集团有限公司 一种长途物流车辆严重事故判断的方法及系统

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102030583B1 (ko) * 2017-11-23 2019-10-11 (주)에이텍티앤 인공지능 기반의 교통사고 예측시스템 및 그 방법
WO2019164035A1 (ko) * 2018-02-23 2019-08-29 주식회사 알티스트 스마트폰을 이용한 사고 자동 구조 요청 방법 및 시스템
KR101994686B1 (ko) * 2018-07-27 2019-07-01 (주)로프 차량용 사고 알림 장치 및 이를 이용한 차량 사고 알림 방법
KR102110191B1 (ko) * 2018-08-22 2020-05-13 주식회사텔러스 확장 사고 정보를 전송하는 차량 긴급 구난 장치 및 그 방법
KR102111596B1 (ko) * 2018-11-12 2020-05-15 김영훈 실시간 상대 차량 속도와 거리를 분석 및 저장하는 이벤트 검지 시스템
CN113537170A (zh) * 2021-09-16 2021-10-22 北京理工大学深圳汽车研究院(电动车辆国家工程实验室深圳研究院) 一种交通路况智能监测方法和计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990071703A (ko) * 1996-03-11 1999-09-27 클라우스 포스, 게오르그 뮐러 자동차의 전복을 검출하기 위한 방법 및 장치
KR20070005143A (ko) * 2005-07-05 2007-01-10 삼성테크윈 주식회사 차량사고 자동 녹화 장치 및 방법
KR20080036435A (ko) * 2006-10-23 2008-04-28 김억섭 차량운행기록장치
KR20100081706A (ko) * 2009-01-07 2010-07-15 아진산업(주) 차량용 사고기록 시스템
KR20110084483A (ko) * 2011-06-27 2011-07-25 대덕위즈주식회사 차량운행 상태 정보처리 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990071703A (ko) * 1996-03-11 1999-09-27 클라우스 포스, 게오르그 뮐러 자동차의 전복을 검출하기 위한 방법 및 장치
KR20070005143A (ko) * 2005-07-05 2007-01-10 삼성테크윈 주식회사 차량사고 자동 녹화 장치 및 방법
KR20080036435A (ko) * 2006-10-23 2008-04-28 김억섭 차량운행기록장치
KR20100081706A (ko) * 2009-01-07 2010-07-15 아진산업(주) 차량용 사고기록 시스템
KR20110084483A (ko) * 2011-06-27 2011-07-25 대덕위즈주식회사 차량운행 상태 정보처리 장치

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11462096B1 (en) 2021-04-28 2022-10-04 Qualcomm Incorporated High capability switch movement for automotive modems
WO2022232718A1 (en) * 2021-04-28 2022-11-03 Qualcomm Incorporated Subscription switching for vehicle emergency calls based on a predicted probability of an accident
CN115426354A (zh) * 2022-08-30 2022-12-02 星软集团有限公司 一种长途物流车辆严重事故判断的方法及系统

Also Published As

Publication number Publication date
KR20170000778A (ko) 2017-01-03
KR101738414B1 (ko) 2017-05-22

Similar Documents

Publication Publication Date Title
WO2016208914A1 (ko) 차량 사고 감지장치 및 이를 이용한 긴급 콜 시스템
CN105976450A (zh) 无人驾驶车辆的数据处理方法和装置、黑匣子系统
WO2017155165A1 (ko) 차량용 블랙박스 제어 장치 및 방법
KR100836073B1 (ko) 캔통신을 이용한 차량용 영상블랙박스 시스템
JP2008102762A (ja) 画像収集システム、記録装置
WO2015102275A1 (ko) 차선변경 경보 장치
KR20160111173A (ko) 차량 사고정보 제공장치 및 방법
JP4154335B2 (ja) ロールオーバー識別用装置
WO2021118304A1 (ko) 이동형 iot 통합 기반 안전 운행 지원 시스템 및 그의 처리 방법
KR20160087277A (ko) 클라우드 플랫폼에 기반한 교통안전 정보 제공 시스템 및 그것을 이용한 교통안전 정보 제공 방법
JP2007334574A (ja) 緊急通報装置および緊急通報システムならびに緊急車両案内システム
CN113436423B (zh) 通报装置
JP7099338B2 (ja) サーバ、サーバ制御方法、サーバ制御プログラム、車両、車両制御方法、及び車両制御プログラム
CN109671244A (zh) 一种基于公交站的危险提示方法及装置
WO2020241971A1 (ko) 교통 사고 처리 장치 및 교통 사고 처리 방법
JP7112255B2 (ja) 車両データの時刻同期装置及び方法
KR101555051B1 (ko) 후방차량 충돌사고 방지장치
KR102374563B1 (ko) 차량의 사고 정보 자동 처리 시스템
WO2014073779A1 (ko) 운송 차량의 사고 인식 시스템
WO2020085223A1 (ja) 情報処理方法、情報処理装置、情報処理プログラム及び情報処理システム
US20230171381A1 (en) Communication system
JP2020154375A (ja) 車両の危険状況判別装置、車両の危険状況判別方法、及びプログラム
KR101311112B1 (ko) 차량 사고 판단 장치 및 그 방법
KR20140130080A (ko) 운송 차량의 사고 인식 시스템
WO2019164035A1 (ko) 스마트폰을 이용한 사고 자동 구조 요청 방법 및 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16814627

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16814627

Country of ref document: EP

Kind code of ref document: A1