KR102338661B1 - Accident handling system and accident handling method - Google Patents
Accident handling system and accident handling method Download PDFInfo
- Publication number
- KR102338661B1 KR102338661B1 KR1020190176540A KR20190176540A KR102338661B1 KR 102338661 B1 KR102338661 B1 KR 102338661B1 KR 1020190176540 A KR1020190176540 A KR 1020190176540A KR 20190176540 A KR20190176540 A KR 20190176540A KR 102338661 B1 KR102338661 B1 KR 102338661B1
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- accident
- image data
- drone
- data
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 28
- 238000001514 detection method Methods 0.000 claims abstract description 34
- 238000002347 injection Methods 0.000 claims abstract description 33
- 239000007924 injection Substances 0.000 claims abstract description 33
- 238000012545 processing Methods 0.000 claims abstract description 24
- 238000004891 communication Methods 0.000 claims abstract description 22
- 230000004044 response Effects 0.000 claims abstract description 8
- 238000012544 monitoring process Methods 0.000 claims description 31
- 230000004397 blinking Effects 0.000 claims description 2
- 238000003672 processing method Methods 0.000 claims description 2
- 230000003213 activating effect Effects 0.000 claims 1
- 230000015654 memory Effects 0.000 description 12
- 230000000694 effects Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G06Q50/30—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/02—Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
- B60R11/0211—Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for record carriers apparatus, e.g. video recorders, tape players or CD players
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
- B60R21/01—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
- B60R21/013—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
- B60R21/0134—Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/02—Arrangements or adaptations of signal or lighting devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U80/00—Transport or storage specially adapted for UAVs
- B64U80/80—Transport or storage specially adapted for UAVs by vehicles
- B64U80/86—Land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/40—Business processes related to the transportation industry
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0841—Registering performance data
- G07C5/085—Registering performance data using electronic data carriers
- G07C5/0866—Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/30—Sensors
- B60Y2400/303—Speed sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2400/00—Special features of vehicle units
- B60Y2400/30—Sensors
- B60Y2400/304—Acceleration sensors
- B60Y2400/3042—Collision sensors
-
- B64C2201/141—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Transportation (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Remote Sensing (AREA)
- Business, Economics & Management (AREA)
- Life Sciences & Earth Sciences (AREA)
- Tourism & Hospitality (AREA)
- Atmospheric Sciences (AREA)
- Radar, Positioning & Navigation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- Operations Research (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
Abstract
사고 처리 시스템이 개시된다. 사고 처리 시스템은, 차량에 마련되고, 사고 감지 데이터를 수신받는 통신부; 차량에 마련되고, 사고 감지 데이터를 처리하는 프로세서를 포함하고, 사고 감지 데이터를 처리한 것에 응답하여, 사고가 발생한 것으로 판단하면, 차량에 장착된 사출 장치에 의하여 드론을 사출하여 이미 정해진 고도를 유지하는 호버링(hovering) 동작을 수행하도록 사출 장치와 드론을 제어하는 제어부를 포함하고, 드론은 차량에 장착된 블랙박스로부터 주행 영상 데이터를 수신받고, 위성 항법 시스템으로부터 차량의 위치 데이터를 수신받고, 차량의 사고 현장 영상 데이터를 획득하고, 수신된 주행 영상 데이터와 수신된 차량의 위치 데이터 및 획득한 차량의 사고 현장 영상 데이터를 사고 처리 기관 단말기 로 전송할 수 있다.An incident handling system is disclosed. The accident handling system includes: a communication unit provided in the vehicle and receiving accident detection data; Provided in the vehicle, including a processor for processing accident detection data, and in response to processing the accident detection data, if it is determined that an accident has occurred, the drone is ejected by the injection device mounted on the vehicle to maintain a predetermined altitude and a controller for controlling the injection device and the drone to perform a hovering operation, wherein the drone receives driving image data from a black box mounted on the vehicle, receives vehicle location data from a satellite navigation system, and the vehicle of the accident scene image data, and the received driving image data, the received vehicle position data, and the acquired accident scene image data of the vehicle can be transmitted to the terminal of the accident processing agency.
Description
개시된 발명은 사고 처리 시스템 및 사고 처리 방법에 관한 것으로써, 더욱 상세하게는 사고 발생시에 신속하게 구조 활동을 할 수 있고, 2차 사고를 방지할 수 있는 사고 처리 시스템 및 사고 처리 방법에 관한 것이다.The disclosed invention relates to an accident handling system and an accident handling method, and more particularly, to an accident handling system and an accident handling method capable of quickly performing rescue activities in the event of an accident and preventing secondary accidents.
일반적으로, 종래 사고 처리 방법은 사람의 신고, CCTV 등으로 누군가가 파악해야 교통 사고를 인지하고 사고 처리 기관이 그에 따른 대처를 하였다.In general, in the conventional accident handling method, a traffic accident must be recognized by someone through a person's report, CCTV, etc., and the accident handling agency responds accordingly.
그러나, 종래 사고 처리 방법은 정확한 위치와 사고 상황등이 전달되지 않아 신속하고 정확한 인명 구조 활동이 이루어지지 못했다. However, in the conventional accident handling method, the precise location and accident situation are not transmitted, so that rapid and accurate lifesaving activities have not been performed.
최근에는, 차량의 통신 기술을 이용하여 사고를 처리하기 위한 사고 처리 시스템에 대한 연구가 활발히 진행되고 있다.Recently, research on an accident handling system for handling an accident using a communication technology of a vehicle is being actively conducted.
일예로, 차량에 긴급 콜 기능이 탑재되어 응급 상황 시에, 사고 처리 기관에 원격으로 연락할 수 있는 사고 처리 시스템이 개발되고 있다.As an example, an accident handling system capable of remotely contacting an accident handling agency in case of an emergency by having an emergency call function installed in a vehicle is being developed.
그러나, 종래 사고 처리 시스템은 차량 자체에 무선 통신 시스템이 탑재 되어야 하고, 사고 발생 시에 차체에 내장된 시스템의 충격으로 인한 시스템 손상 및 재사용성이 낮으며, 특히 고속으로 후미에서 주행중인 타차량과 먼 거리에서 구조 활동을 위해 다가오는 구조 차량에게 정확한 위험 상황 및 위치를 알리기가 어려웠다.However, in the conventional accident handling system, a wireless communication system must be mounted on the vehicle itself, and when an accident occurs, the system damage and reusability due to the impact of the system built into the vehicle body are low, especially with other vehicles driving in the rear at high speed. It was difficult to inform the precise danger situation and location to oncoming rescue vehicles for rescue operations from a distance.
이상의 이유로, 개시된 발명의 일 측면은 사고 발생시에 신속하게 구조 활동을 할 수 있는 사고 처리 시스템 및 사고 처리 방법을 제공하고자 한다.For the above reasons, an aspect of the disclosed invention is to provide an accident handling system and an accident handling method capable of promptly carrying out rescue activities in the event of an accident.
개시된 발명의 일 측면은 2차 사고를 방지할 수 있는 사고 처리 시스템 및 사고 처리 방법을 제공하고자 한다.An aspect of the disclosed invention is to provide an accident handling system and an accident handling method capable of preventing secondary accidents.
개시된 발명의 일 측면에 따른 사고 처리 시스템은, 차량에 마련되어 탑승자 모니터링 정보를 출력하는 탑승자 모니터링 시스템; 상기 차량에 마련되어 주행 영상 데이터를 획득하는 블랙 박스; 상기 차량에 마련되고, 상기 차량의 충돌 센서에 의해 감지된 충돌 정보 및 차속 센서에 의해 감지된 차속 정보가 포함된 사고 감지 데이터를 수신받는 통신부; 및 상기 차량에 마련되고, 상기 사고 감지 데이터를 처리하는 프로세서를 포함하고, 상기 사고 감지 데이터를 처리한 것에 응답하여, 사고가 발생한 것으로 판단하면, 상기 차량에 장착된 사출 장치에 의하여 드론을 사출하여 이미 정해진 고도를 유지하는 호버링(hovering) 동작을 수행하도록 상기 사출 장치와 상기 드론을 제어하는 제어부를 포함하고, 상기 드론은 상기 탑승자 모니터링 시스템으로부터 탑승자 모니터링 정보를 수신하고, 상기 차량에 장착된 블랙 박스로부터 주행 영상 데이터를 수신하고, 위성 항법 시스템으로부터 차량의 위치 데이터를 수신하고, 상기 차량의 사고 현장 영상 데이터를 획득하고, 상기 탑승자 모니터링 정보, 상기 주행 영상 데이터, 상기 차량의 위치 데이터 및 상기 차량의 사고 현장 영상 데이터를 사고 처리 기관 단말기로 전송하고, 상기 사고 처리 기관 단말기의 사고 처리자가 원격 제어하기 전까지, 호버링 동작을 지속적으로 수행하면서 조명등을 깜빡일 수 있다.An accident handling system according to an aspect of the disclosed invention includes: an occupant monitoring system provided in a vehicle and outputting occupant monitoring information; a black box provided in the vehicle to acquire driving image data; a communication unit provided in the vehicle and receiving accident detection data including collision information detected by a collision sensor of the vehicle and vehicle speed information detected by a vehicle speed sensor; and a processor provided in the vehicle and processing the accident detection data, and in response to processing the accident detection data, when it is determined that an accident has occurred, the drone is ejected by the injection device mounted on the vehicle and a controller for controlling the injection device and the drone to perform a hovering operation that maintains a predetermined altitude, wherein the drone receives occupant monitoring information from the occupant monitoring system, and a black box mounted on the vehicle Receive driving image data from, receive vehicle position data from a satellite navigation system, obtain accident scene image data of the vehicle, and obtain the occupant monitoring information, the driving image data, the vehicle position data, and the vehicle Until the accident scene image data is transmitted to the terminal of the accident processing agency and the accident handler of the terminal of the accident processing agency remotely controls the accident scene, the hovering operation may be continuously performed and the lighting lamp may be blinked.
삭제delete
상기 드론은, 상기 주행 영상 데이터, 상기 차량의 위치 데이터 및 상기 차량의 사고 현장 영상 데이터를 저전력 모드에서 특정 시간 동안 지속적으로 저장할 수 있다.The drone may continuously store the driving image data, the location data of the vehicle, and the accident scene image data of the vehicle for a specific time in a low power mode.
상기 드론은, 상기 주행 영상 데이터, 상기 차량의 위치 데이터 및 상기 차량의 사고 현장 영상 데이터를 저장할 시에, 순서적으로 기존의 가장 오래된 주행 영상 데이터, 차량의 위치 데이터 및 차량의 사고 현장 영상 데이터를 삭제할 수 있다.When storing the driving image data, the vehicle location data, and the vehicle accident scene image data, the drone sequentially stores the oldest driving image data, the vehicle position data, and the vehicle accident scene image data. can be deleted.
상기 사출 장치는, 상기 사고가 발생한 것으로 판단하면, 상기 드론을 웨이크-업시켜 급속 사출하고; 상기 드론은, 상기 급속 사출중 스타트-업을 통해 동작 기능을 활성화시킬 수 있다.When it is determined that the accident has occurred, the injection device wakes up the drone to rapidly eject; The drone may activate an operation function through start-up during the rapid injection.
삭제delete
삭제delete
삭제delete
개시된 발명의 일 측면에 따른 사고 처리 방법은, 차량에 마련된 통신부에 의하여, 상기 차량의 충돌 센서에 의해 감지된 충돌 정보 및 차속 센서에 의해 감지된 차속 정보가 포함된 사고 감지 데이터를 수신받고, 상기 사고 감지 데이터를 처리한 것에 응답하는 상기 차량에 마련된 프로세서에 의하여, 사고가 발생한 것인지를 판단하고, 상기 사고가 발생한 것으로 판단하면, 상기 프로세서에 의하여, 상기 차량에 장착된 사출 장치를 동작시켜 드론을 사출하고, 상기 드론에 의하여, 이미 정해진 고도를 유지하는 호버링(hovering) 동작을 수행하여 상기 차량의 사고 현장 영상 데이터를 획득하고, 상기 차량에 장착된 탑승자 모니터링 시스템의 탑승자 모니터링 정보, 상기 차량에 장착된 블랙 박스의 주행 영상 데이터 및 위성 항법 시스템의 차량의 위치 데이터를 수신하고, 상기 드론에 의하여, 상기 탑승자 모니터링 정보, 상기 주행 영상 데이터, 상기 차량의 위치 데이터 및 상기 차량의 사고 현장 영상 데이터를 사고 처리 기관 단말기로 전송하고, 상기 사고 처리 기관 단말기의 사고 처리자가 원격 제어하기 전까지, 상기 드론에 의하여, 상기 호버링 동작을 지속적으로 수행하면서 조명등을 깜빡이는 것을 포함할 수 있다.In an accident handling method according to an aspect of the disclosed invention, by a communication unit provided in a vehicle, accident detection data including collision information detected by a collision sensor of the vehicle and vehicle speed information detected by a vehicle speed sensor is received, and the The processor provided in the vehicle in response to processing the accident detection data determines whether an accident has occurred, and when it is determined that the accident has occurred, the processor operates the injection device mounted on the vehicle to operate the drone Accident scene image data of the vehicle is obtained by performing a hovering operation that maintains a predetermined altitude by the drone, and occupant monitoring information of an occupant monitoring system mounted on the vehicle is mounted on the vehicle The driving image data of the black box and the position data of the vehicle of the satellite navigation system are received, and the occupant monitoring information, the driving image data, the position data of the vehicle and the accident scene image data of the vehicle are received by the drone. It may include blinking a lighting lamp while continuously performing the hovering operation by the drone until the terminal is transmitted to the terminal and the accident handler of the terminal is remotely controlled.
삭제delete
상기 사고 처리 방법은, 상기 드론에 의하여, 상기 주행 영상 데이터, 상기 차량의 위치 데이터 및 상기 차량의 사고 현장 영상 데이터를 저전력 모드에서 특정 시간 동안 지속적으로 저장하는 것을 포함할 수 있다.The accident handling method may include continuously storing, by the drone, the driving image data, the location data of the vehicle, and the accident scene image data of the vehicle for a specific time in a low power mode.
상기 사고 처리 방법은, 상기 드론에 의하여, 상기 주행 영상 데이터, 상기 차량의 위치 데이터 및 상기 차량의 사고 현장 영상 데이터를 저장할 시에, 순서적으로 기존의 가장 오래된 주행 영상 데이터, 차량의 위치 데이터 및 차량의 사고 현장 영상 데이터를 삭제하는 것을 포함할 수 있다.In the accident processing method, when storing the driving image data, the location data of the vehicle, and the accident scene image data of the vehicle by the drone, the oldest existing driving image data, the location data of the vehicle, and It may include deleting the accident scene image data of the vehicle.
상기 사고 처리 방법은, 상기 사고가 발생한 것으로 판단하면 상기 사출 장치에 의하여, 상기 드론을 웨이크-업시켜 급속 사출하고, 상기 드론에 의하여 상기 급속 사출중 스타트-업을 통해 동작 기능을 활성화시키는 것을 포함할 수 있다.The accident handling method includes, when it is determined that the accident has occurred, wake-up the drone by the injection device to rapidly eject the drone, and activate an operation function through start-up during the rapid injection by the drone can do.
삭제delete
삭제delete
삭제delete
개시된 발명의 일 측면에 따르면, 사고 발생시에 신속하게 구조 활동을 할 수 있는 사고 처리 시스템 및 사고 처리 방법을 제공할 수 있다.According to an aspect of the disclosed invention, it is possible to provide an accident handling system and an accident handling method capable of promptly carrying out rescue activities in the event of an accident.
개시된 발명의 일 측면에 따르면, 2차 사고를 방지할 수 있는 사고 처리 시스템 및 사고 처리 방법을 제공할 수 있다.According to one aspect of the disclosed invention, it is possible to provide an accident handling system and an accident handling method capable of preventing secondary accidents.
도 1은 일 실시예에 의한 사고 처리 시스템을 도시한다.
도 2는 차량과 드론의 구성을 도시한다.
도 3은 일 실시예에 의한 사고 처리 시스템의 사고 처리 방법의 일예를 도시한다.
도 4는 사고 발생시에 사고 처리하는 과정을 도시한다.1 illustrates an incident handling system according to an embodiment.
2 shows the configuration of a vehicle and a drone.
3 shows an example of an accident handling method of the accident handling system according to an embodiment.
4 shows a process of handling an accident when an accident occurs.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 개시된 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.Like reference numerals refer to like elements throughout. This specification does not describe all elements of the embodiments, and general content in the technical field to which the disclosed invention pertains or content overlapping between the embodiments is omitted. The term 'part, module, member, block' used in this specification may be implemented in software or hardware, and according to embodiments, a plurality of 'part, module, member, block' may be implemented as one component, It is also possible for one 'part, module, member, block' to include a plurality of components.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.Throughout the specification, when a part is "connected" to another part, it includes not only direct connection but also indirect connection, and indirect connection includes connection through a wireless communication network. do.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Also, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.
명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout the specification, when a member is said to be located "on" another member, this includes not only a case in which a member is in contact with another member but also a case in which another member exists between the two members.
제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.Terms such as first, second, etc. are used to distinguish one component from another, and the component is not limited by the above-mentioned terms.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.The singular expression includes the plural expression unless the context clearly dictates otherwise.
각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.In each step, the identification code is used for convenience of description, and the identification code does not describe the order of each step, and each step may be performed differently from the specified order unless the specific order is clearly stated in the context. have.
이하 첨부된 도면들을 참고하여 개시된 발명의 작용 원리 및 실시예들에 대해 설명한다.Hereinafter, the working principle and embodiments of the disclosed invention will be described with reference to the accompanying drawings.
도 1은 일 실시예에 의한 사고 처리 시스템을 도시한다. 도 2는 차량과 드론의 구성을 도시한다.1 illustrates an incident handling system according to an embodiment. 2 shows the configuration of a vehicle and a drone.
도 1에 도시된 바와 같이, 사고 처리 시스템(100)은 드론(150)이 블랙 박스(120)로부터 수신된 주행 영상 데이터와 위성 항법 시스템(130)으로부터 수신된 차량(110)의 위치 데이터 및 획득한 차량(110)의 사고 현장 영상 데이터를 사고 처리 기관 단말기(160)에 전송하여 사고 발생시에 신속하게 구조 활동을 하면서, 2차 사고를 방지한다.As shown in FIG. 1 , the
이하에서는, 사고 처리 시스템(100)을 자세하게 살펴보기로 한다.Hereinafter, the
사고 처리 시스템(100)은 차량(110)과, 블랙 박스(120)와, 위성 항법 시스템(130)과, 사출 장치(140)와, 드론(150)과, 사고 처리 기관 단말기(160)를 포함한다.The
도 2를 참조하면, 차량(110)은 통신부(111)를 포함한다.Referring to FIG. 2 , the
통신부(111)는 사고 감지 데이터를 수신받는다. 차량(110)은 충돌 센서 및/또는 차속 센서 및/또는 탑승자 모니터링 시스템을 포함할 수 있다. 충돌 센서는 타차량(V, 도 4 참조)과의 충돌시에 동작하여 사고 감지 데이터를 획득할 수 있다. 사고 감지 데이터는 충돌값일 수 있다. 차속 센서는 타차량(V, 도 4 참조)과의 충돌시에 동작하여 사고 감지 데이터를 획득할 수 있다. 사고 감지 데이터는 차속값일 수 있다. 탑승자 모니터링 시스템은 사고 원인 분석을 돕기 위하여 사고 시점부터 일정 시간 전까지의 탑승자 모니터링 정보를 획득할 수 있다. 탑승자 모니터링 정보는 운전자 상태 데이터를 포함할 수 있고, 구조 활동을 돕기 위하여 동승자를 포함한 탑승 인원 상태 데이터를 포함할 수 있다.The
통신부(111)는 충돌 센서의 동작에 기초하여 사고 감지 데이터에 해당하는 충돌 정보(111a)를 수신받을 수 있다. 통신부(111)는 차속 센서의 동작에 기초하여 사고 감지 데이터에 해당하는 차속 정보(111b)를 수신받을 수 있다. 통신부(111)는 탑승자 모니터링 시스템의 동작에 기초하여 탑승자 모니터링 정보(111c)를 더 수신받을 수 있다. 통신부(111)는 탑승자 모니터링 정보(111c)를 드론(150)으로 전송할 수 있다.The
블랙 박스(120)는 차량(110)에 장착되고, 주행 영상 데이터를 획득한다. 블랙 박스(120)는 주행 자료 자동 기록 장치로써, 사고 발생시에 원인을 밝히는 중요한 장치이다.The
위성 항법 시스템(130)은 인공 위성(S, 도 4 참조)과 위성 통신하여 차량(110)의 위치 데이터를 수집한다. 위성 항법 시스템(130)은 인공 위성(S)을 이용한 위치 및 시각 결정 시스템이다. 위성 항법 시스템(130)은 위치 정확도 방식에 따라 보정 위성항법시스템(Differential GPS : DGPS)과, 반송파 보정 위성항법시스템(Carrier phase Differental GPS : CDGPS)으로 분류될 수 있다.The
도 2를 참조하면, 차량(110)은 제어부(112)를 포함한다. 제어부(112)는 프로세서(112a)와 메모리(112b)를 포함한다.Referring to FIG. 2 , the
프로세서(112a)는 차량(110)에 마련되고, 사고 감지 데이터를 처리하고, 사고 감지 데이터를 처리한 것에 응답하여, 사고가 발생한 것인지를 판단한다. 프로세서(112a)는 충돌 센서에 의하여 획득된 사고 감지 데이터인 충돌값이 이미 정해진 기준값보다 크면, 사고가 발생한 것으로 판단할 수 있다. 프로세서(112a)는 차속 센서에 의하여 획득된 사고 감지 데이터인 차속값이 이미 정해진 기준값이면, 사고가 발생한 것으로 판단할 수 있다. 예를 들어, 차속값이 0이면 사고가 발생한 것으로 판단할 수 있다.The
프로세서(112a)는 사고 감지 데이터를 처리한 것에 응답하여, 사고가 발생한 것으로 판단하면, 차량(110)에 장착된 사출 장치(140)에 의하여 드론(150)을 사출하여 이미 정해진 고도를 유지하는 호버링(hovering) 동작을 수행하도록 사출 장치(140)와 드론(150)을 제어한다. 고도는 네비게이션 지도 정보를 주기적으로 업데이트하여 차량(110)의 주행 도로 환경상 적절하게 설정하도록 할 수 있다. 사출 장치(140)는 드론(150)을 이미 정해진 고도로 사출시킬 수 있다. 사출 장치(140)는 차량(110)의 루프에 장착될 수 있다. 드론(150)은 사출 장치(140)에 장착되고, 사출 장치(140)에 의하여 사출될 수 있다. 사출 장치(140)는 사고가 발생한 것으로 판단하면, 드론(150)을 웨이크-업시켜 급속 사출할 수 있다. 드론(150)은 급속 사출중 스타트-업을 통해 동작 기능을 활성화시킬 수 있다.When the
프로세서(112a)는 사고 감지 데이터를 처리하는 디지털 시그널 프로세서 및/또는 사출 장치(140) 및/또는 드론(150)을 제어하기 위한 신호를 생성하는 마이크로 컨트롤 유닛(Micro Control Unit, MCU)을 포함할 수 있다.The
메모리(112b)는 프로세서(112a)가 사고 감지 데이터를 처리하기 위한 프로그램 및/또는 데이터를 저장할 수 있다.The
메모리(112b)는 프로세서(112a)의 사고 감지 데이터의 처리 결과를 임시로 기억할 수 있다.The
메모리(112b)는 S램(S-RAM), D램(D-RAM) 등의 휘발성 메모리뿐만 아니라 플래시 메모리, 롬(Read Only Memory, ROM), 이피롬(Erasable Programmable Read Only Memory: EPROM) 등의 비휘발성 메모리를 포함할 수 있다.The
도 1에 도시된 바와 같이, 드론(150)은 블랙박스(120)로부터 주행 영상 데이터를 수신받고, 위성 항법 시스템(130)으로부터 차량(110)의 위치 데이터를 수신받고, 차량(110)의 사고 현장 영상 데이터를 획득한다. 드론(150)은 카메라를 포함할 수 있고, 카메라는 차량(110)의 사고 현장 영상 데이터를 획득할 수 있다. 예를 들어, 카메라는 CCD 카메라 또는 CMOS 카메라일 수 있고, 도시된 바에 한정되지 아니하며 고화질의 영상 데이터를 획득할 수 있는 수단으로 제공될 수 있다.As shown in FIG. 1 , the
드론(150)은 주행 영상 데이터 및/또는 차량(110)의 위치 데이터 및/또는 차량(110)의 사고 현장 영상 데이터를 저전력 모드에서 특정 시간 동안 지속적으로 저장할 수 있다. 드론(150)은 주행 영상 데이터 및/또는 차량(110)의 위치 데이터 및/또는 차량(110)의 사고 현장 영상 데이터를 저장할 시에, 순서적으로 기존의 가장 오래된 주행 영상 데이터 및/또는 차량(110)의 위치 데이터 및/또는 차량(110)의 사고 현장 영상 데이터를 삭제할 수 있다.The
드론(150)은 수신된 주행 영상 데이터와 수신된 차량(110)의 위치 데이터 및 획득한 차량(110)의 사고 현장 영상 데이터를 사고 처리 기관 단말기(160)에 전송한다. 드론(150)은 수신된 탑승자 모니터링 정보(111c)를 사고 처리 기관 단말기(160)로 더 전송할 수 있다. 사고 처리 기관 단말기(160)는 드론(150)으로부터 주행 영상 데이터와 차량(110)의 위치 데이터 및 차량(110)의 사고 현장 영상 데이터를 수신받아 화면으로 표시할 수 있다. 사고 처리 기관 단말기(160)는 탑승자 모니터링 정보(111c)를 수신받아 화면으로 표시할 수 있다. 사고 처리자는 사고 처리 기관 단말기(160)의 화면을 확인하고, 차량(110)의 사고 현장으로 출동할 수 있다. 예를 들어, 사고 처리 기관 단말기(160)는 소방서 및/또는 경찰서 및/또는 보험사 및/또는 병원에서 사용하는 단말기일 수 있다. 사고 처리 기관 단말기(160)는 PC 및/또는 태블릿 PC 및/또는 노트북 및/또는 스마트폰일 수 있다.The
드론(150)은 사고 처리 기관 단말기(160)의 사고 처리자가 원격 제어하기 전까지, 호버링 동작을 지속적으로 수행하면서 조명등을 깜빡일 수 있다. 드론(150)은 조명등을 포함할 수 있고, 조명등은 깜빡일 수 있다. 예를 들어, 조명등은 고휘도 LED일 수 있고, 도시된 바에 한정되지 아니하며 고휘도의 불빛을 점멸할 수 있는 수단으로 제공될 수 있다.The
도 3은 일 실시예에 의한 사고 처리 시스템의 사고 처리 방법의 일예를 도시한다. 도 4는 사고 발생시에 사고 처리하는 과정을 도시한다.3 shows an example of an accident handling method of the accident handling system according to an embodiment. 4 shows a process of handling an accident when an accident occurs.
도 3을 참조하면, 통신부(111, 도 2 참조)는 사고 감지 데이터를 수신받는다(310). 통신부(111, 도 2 참조)는 충돌 센서의 동작에 기초하여 사고 감지 데이터에 해당하는 충돌 정보(111a, 도 2 참조)를 수신받을 수 있다. 통신부(111, 도 2 참조)는 차속 센서의 동작에 기초하여 사고 감지 데이터에 해당하는 차속 정보(111b, 도 2 참조)를 수신받을 수 있다. 통신부(111, 도 2 참조)는 탑승자 모니터링 시스템의 동작에 기초하여 탑승자 모니터링 정보(111c, 도 2 참조)를 더 수신받을 수 있다. 통신부(111, 도 2 참조)는 탑승자 모니터링 정보(111c, 도 2 참조)를 드론(150, 도 2 참조)으로 전송할 수 있다.Referring to FIG. 3 , the communication unit 111 (refer to FIG. 2 ) receives accident detection data ( 310 ). The communication unit 111 (refer to FIG. 2 ) may receive
프로세서(112a, 도 2 참조)는 사고 감지 데이터를 처리한 것에 응답하여, 사고가 발생한 것인지를 판단한다(320). 프로세서(112a, 도 2 참조)는 충돌 센서에 의하여 획득된 사고 감지 데이터인 충돌값이 이미 정해진 기준값보다 크면, 사고가 발생한 것으로 판단할 수 있다. 프로세서(112a, 도 2 참조)는 차속 센서에 의하여 획득된 사고 감지 데이터인 차속값이 이미 정해진 기준값이면, 사고가 발생한 것으로 판단할 수 있다. 예를 들어, 차속값이 0이면 사고가 발생한 것으로 판단할 수 있다.In response to processing the accident detection data, the
프로세서(112a, 도 2 참조)는 사고가 발생한 것으로 판단하면(320의 예), 사출 장치(140, 도 2 참조)를 동작시켜 드론(150, 도 2 참조)을 사출한다(330). 사출 장치(140, 도 2 참조)는 드론(150, 도 2 참조)을 이미 정해진 고도로 사출시킬 수 있다. 사출 장치(140, 도 2 참조)는 사고가 발생한 것으로 판단하면, 드론(150, 도 2 참조)을 웨이크-업시켜 급속 사출할 수 있다. 드론(150, 도 2 참조)은 급속 사출중 스타트-업을 통해 동작 기능을 활성화시킬 수 있다.When the
프로세서(112a, 도 2 참조)는 사고가 발생하지 않은 것으로 판단하면(320의 아니오), 사출 장치(140, 도 2 참조)를 비동작시켜 드론(150, 도 2 참조)을 비사출한다(331).When it is determined that an accident has not occurred (No in 320), the
드론(150, 도 1 참조)은 이미 정해진 고도를 유지하는 호버링(hovering) 동작을 수행하여 차량(110, 도 1 참조)의 사고 현장 영상 데이터를 획득하고, 블랙 박스(120, 도 1 참조)의 주행 영상 데이터와 위성 항법 시스템(130, 도 1 참조)의 차량(110, 도 1 참조)의 위치 데이터를 수신한다(340).The drone 150 (refer to FIG. 1) acquires accident scene image data of the vehicle 110 (refer to FIG. 1) by performing a hovering operation that maintains a predetermined altitude, and the black box 120 (refer to FIG. 1) Driving image data and location data of the vehicle 110 (refer to FIG. 1 ) of the satellite navigation system 130 (refer to FIG. 1 ) are received ( 340 ).
드론(150, 도 1 참조)은 주행 영상 데이터 및/또는 차량(110, 도 1 참조)의 위치 데이터 및/또는 차량(110, 도 1 참조)의 사고 현장 영상 데이터를 저전력 모드에서 특정 시간 동안 지속적으로 저장할 수 있다. 드론(150, 도 1 참조)은 주행 영상 데이터 및/또는 차량(110, 도 1 참조)의 위치 데이터 및/또는 차량(110, 도 1 참조)의 사고 현장 영상 데이터를 저장할 시에, 순서적으로 기존의 가장 오래된 주행 영상 데이터 및/또는 차량(110, 도 1 참조)의 위치 데이터 및/또는 차량(110, 도 1 참조)의 사고 현장 영상 데이터를 삭제할 수 있다.The drone 150 (see FIG. 1 ) maintains driving image data and/or location data of the vehicle 110 (see FIG. 1 ) and/or accident scene image data of the vehicle 110 (see FIG. 1 ) in a low-power mode for a specific time can be saved as When the drone 150 (see FIG. 1 ) stores driving image data and/or location data of the vehicle 110 (see FIG. 1 ) and/or accident scene image data of the vehicle 110 (see FIG. 1 ), sequentially Existing oldest driving image data and/or location data of the vehicle 110 (refer to FIG. 1 ) and/or accident scene image data of the vehicle 110 (refer to FIG. 1 ) may be deleted.
도 4에 도시된 바와 같이, 드론(150)은 수신된 주행 영상 데이터와 수신된 차량(110)의 위치 데이터 및 획득한 차량(110)의 사고 현장 영상 데이터를 사고 처리 기관 단말기(160)에 전송한다(350). 드론(150)은 수신된 탑승자 모니터링 정보(111c)를 사고 처리 기관 단말기(160)로 더 전송할 수 있다.As shown in FIG. 4 , the
사고 처리 기관 단말기(160)는 드론(150)으로부터 주행 영상 데이터와 차량(110)의 위치 데이터 및 차량(110)의 사고 현장 영상 데이터를 수신받아 화면으로 표시할 수 있다. 사고 처리 기관 단말기(160)는 탑승자 모니터링 정보(111c)를 수신받아 화면으로 표시할 수 있다. 사고 처리자는 사고 처리 기관 단말기(160)의 화면을 확인하고, 차량(110)의 사고 현장으로 출동할 수 있다. The accident
드론(150)은 사고 처리 기관 단말기(160)의 사고 처리자가 원격 제어하기 전까지, 호버링 동작을 지속적으로 수행하면서 조명등을 깜빡일 수 있다.The
이러한, 사고 처리 시스템(100)은 대중화된 드론(150)의 탑재를 통해 기술적 어려움 없이 구현 가능성을 높이고, 차량(110)의 외부 데이터 통신 기능을 탑재하지 않고 드론(150)에 탑재함으로써 기존 차량의 손쉬운 개조가 가능하다.Such an
드론(150)은 차량(110)의 사고 발생시에, 공중으로 사출됨으로써 안전하게 회수 및 재사용이 가능하고, 차량(110)의 부분 및 완전한 침수 사고 시에도 즉시 대응하도록 함으로써, 내부의 전자 장비 고장과는 무관하게 신속하게 사고 발생을 알릴 수 있다.When an accident of the
드론(150)은 일정 상공에서 호버링 동작을 수행하면서 사고 알림 조명등을 점멸하면서, 비교적 먼거리에서도 육안으로 사고 현장을 식별할 수 있게 함으로써, 2차 사고를 방지하고 신속한 사고 처리 기관의 구조 활동을 도울 수 있다.The
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록 매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록 매체는 컴퓨터로 읽을 수 있는 기록 매체로 구현될 수 있다.Meanwhile, the disclosed embodiments may be implemented in the form of a recording medium storing instructions executable by a computer. Instructions may be stored in the form of program code, and when executed by a processor, may create a program module to perform the operations of the disclosed embodiments. The recording medium may be implemented as a computer-readable recording medium.
컴퓨터가 읽을 수 있는 기록 매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다.The computer-readable recording medium includes all types of recording media in which computer-readable instructions are stored. For example, there may be a read only memory (ROM), a random access memory (RAM), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device, and the like.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.The disclosed embodiments have been described with reference to the accompanying drawings as described above. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention may be practiced in other forms than the disclosed embodiments without changing the technical spirit or essential features of the present invention. The disclosed embodiments are illustrative and should not be construed as limiting.
100: 사고 처리 시스템 110: 차량
111: 통신부 111a: 충돌 정보
111b: 차속 정보 111c: 탑승자 모니터링 정보
112: 제어부 112a: 프로세서
112b: 메모리 120: 블랙 박스
130: 위성 항법 시스템 140: 사출 장치
150: 드론 160: 사고 처리 기관 단말기100: accident handling system 110: vehicle
111:
111b:
112:
112b: memory 120: black box
130: satellite navigation system 140: injection device
150: drone 160: accident handling agency terminal
Claims (16)
상기 차량에 마련되어 주행 영상 데이터를 획득하는 블랙 박스;
상기 차량에 마련되고, 상기 차량의 충돌 센서에 의해 감지된 충돌 정보 및 차속 센서에 의해 감지된 차속 정보가 포함된 사고 감지 데이터를 수신받는 통신부; 및
상기 차량에 마련되고, 상기 사고 감지 데이터를 처리하는 프로세서를 포함하고, 상기 사고 감지 데이터를 처리한 것에 응답하여, 사고가 발생한 것으로 판단하면, 상기 차량에 장착된 사출 장치에 의하여 드론을 사출하여 이미 정해진 고도를 유지하는 호버링(hovering) 동작을 수행하도록 상기 사출 장치와 상기 드론을 제어하는 제어부를 포함하고,
상기 드론은 상기 탑승자 모니터링 시스템으로부터 탑승자 모니터링 정보를 수신하고, 상기 차량에 장착된 블랙 박스로부터 주행 영상 데이터를 수신하고, 위성 항법 시스템으로부터 차량의 위치 데이터를 수신하고, 상기 차량의 사고 현장 영상 데이터를 획득하고, 상기 탑승자 모니터링 정보, 상기 주행 영상 데이터, 상기 차량의 위치 데이터 및 상기 차량의 사고 현장 영상 데이터를 사고 처리 기관 단말기로 전송하고, 상기 사고 처리 기관 단말기의 사고 처리자가 원격 제어하기 전까지, 호버링 동작을 지속적으로 수행하면서 조명등을 깜빡이는 사고 처리 시스템.an occupant monitoring system provided in the vehicle and outputting occupant monitoring information;
a black box provided in the vehicle to acquire driving image data;
a communication unit provided in the vehicle and receiving accident detection data including collision information detected by a collision sensor of the vehicle and vehicle speed information detected by a vehicle speed sensor; and
It is provided in the vehicle and includes a processor for processing the accident detection data, and in response to processing the accident detection data, if it is determined that an accident has occurred, the drone is ejected by the injection device mounted on the vehicle and already A control unit for controlling the injection device and the drone to perform a hovering operation maintaining a predetermined altitude,
The drone receives occupant monitoring information from the occupant monitoring system, receives driving image data from a black box mounted on the vehicle, receives vehicle location data from a satellite navigation system, and receives accident scene image data of the vehicle. and transmits the occupant monitoring information, the driving image data, the location data of the vehicle, and the accident scene image data of the vehicle to the accident handling agency terminal, and hovering until the accident handler of the accident handling agency terminal remotely controls it Incident handling system that flashes lights while performing a continuous motion.
상기 드론은, 상기 주행 영상 데이터, 상기 차량의 위치 데이터 및 상기 차량의 사고 현장 영상 데이터를 저전력 모드에서 특정 시간 동안 지속적으로 저장하는 사고 처리 시스템.According to claim 1,
The drone is an accident processing system that continuously stores the driving image data, the location data of the vehicle, and the accident scene image data of the vehicle for a specific time in a low power mode.
상기 드론은, 상기 주행 영상 데이터, 상기 차량의 위치 데이터 및 상기 차량의 사고 현장 영상 데이터를 저장할 시에, 순서적으로 기존의 가장 오래된 주행 영상 데이터, 차량의 위치 데이터 및 차량의 사고 현장 영상 데이터를 삭제하는 사고 처리 시스템.4. The method of claim 3,
When storing the driving image data, the vehicle location data, and the vehicle accident scene image data, the drone sequentially stores the oldest driving image data, the vehicle position data, and the vehicle accident scene image data. Accident handling system that deletes.
상기 사출 장치는, 상기 사고가 발생한 것으로 판단하면, 상기 드론을 웨이크-업시켜 급속 사출하고;
상기 드론은, 상기 급속 사출중 스타트-업을 통해 동작 기능을 활성화시키는 사고 처리 시스템.According to claim 1,
When it is determined that the accident has occurred, the injection device wakes up the drone to rapidly eject;
The drone is an accident handling system that activates an operation function through start-up during the rapid injection.
상기 사고 감지 데이터를 처리한 것에 응답하는 상기 차량에 마련된 프로세서에 의하여, 사고가 발생한 것인지를 판단하고,
상기 사고가 발생한 것으로 판단하면, 상기 프로세서에 의하여, 상기 차량에 장착된 사출 장치를 동작시켜 드론을 사출하고,
상기 드론에 의하여, 이미 정해진 고도를 유지하는 호버링(hovering) 동작을 수행하여 상기 차량의 사고 현장 영상 데이터를 획득하고, 상기 차량에 장착된 탑승자 모니터링 시스템의 탑승자 모니터링 정보, 상기 차량에 장착된 블랙 박스의 주행 영상 데이터 및 위성 항법 시스템의 차량의 위치 데이터를 수신하고,
상기 드론에 의하여, 상기 탑승자 모니터링 정보, 상기 주행 영상 데이터, 상기 차량의 위치 데이터 및 상기 차량의 사고 현장 영상 데이터를 사고 처리 기관 단말기로 전송하고,
상기 사고 처리 기관 단말기의 사고 처리자가 원격 제어하기 전까지, 상기 드론에 의하여, 상기 호버링 동작을 지속적으로 수행하면서 조명등을 깜빡이는 것을 포함하는 사고 처리 방법.Accident detection data including collision information detected by the collision sensor of the vehicle and vehicle speed information detected by the vehicle speed sensor is received by the communication unit provided in the vehicle;
By the processor provided in the vehicle in response to processing the accident detection data, it is determined whether an accident has occurred,
When it is determined that the accident has occurred, the processor operates the injection device mounted on the vehicle to inject the drone,
The drone performs a hovering operation that maintains a predetermined altitude to obtain accident scene image data of the vehicle, and includes occupant monitoring information of an occupant monitoring system mounted on the vehicle, and a black box mounted on the vehicle. receiving the driving image data of the vehicle and the vehicle position data of the satellite navigation system;
Transmitting, by the drone, the occupant monitoring information, the driving image data, the location data of the vehicle, and the accident scene image data of the vehicle to an accident processing agency terminal,
and blinking a lighting lamp while continuously performing the hovering operation by the drone until the accident handler of the accident handling agency terminal remotely controls it.
상기 사고 처리 방법은, 상기 드론에 의하여, 상기 주행 영상 데이터, 상기 차량의 위치 데이터 및 상기 차량의 사고 현장 영상 데이터를 저전력 모드에서 특정 시간 동안 지속적으로 저장하는 것을 포함하는 사고 처리 방법.10. The method of claim 9,
The accident handling method includes continuously storing, by the drone, the driving image data, the location data of the vehicle, and the accident scene image data of the vehicle for a specific time in a low power mode.
상기 사고 처리 방법은, 상기 드론에 의하여, 상기 주행 영상 데이터, 상기 차량의 위치 데이터 및 상기 차량의 사고 현장 영상 데이터를 저장할 시에, 순서적으로 기존의 가장 오래된 주행 영상 데이터, 차량의 위치 데이터 및 차량의 사고 현장 영상 데이터를 삭제하는 것을 포함하는 사고 처리 방법.12. The method of claim 11,
The accident processing method, when storing the driving image data, the location data of the vehicle, and the accident scene image data of the vehicle by the drone, sequentially includes the oldest existing driving image data, the vehicle location data, and A method of handling an accident comprising deleting image data of an accident scene of a vehicle.
상기 사고 처리 방법은,
상기 사고가 발생한 것으로 판단하면, 상기 사출 장치에 의하여, 상기 드론을 웨이크-업시켜 급속 사출하고,
상기 드론에 의하여, 상기 급속 사출중 스타트-업을 통해 동작 기능을 활성화시키는 것을 포함하는 사고 처리 방법.10. The method of claim 9,
The accident handling method is,
If it is determined that the accident has occurred, the drone is woken up by the injection device and rapidly injected,
Accident handling method comprising, by the drone, activating an operation function through a start-up during the rapid injection.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190176540A KR102338661B1 (en) | 2019-12-27 | 2019-12-27 | Accident handling system and accident handling method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190176540A KR102338661B1 (en) | 2019-12-27 | 2019-12-27 | Accident handling system and accident handling method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210086731A KR20210086731A (en) | 2021-07-09 |
KR102338661B1 true KR102338661B1 (en) | 2021-12-16 |
Family
ID=76864975
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190176540A KR102338661B1 (en) | 2019-12-27 | 2019-12-27 | Accident handling system and accident handling method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102338661B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101689772B1 (en) * | 2015-05-08 | 2016-12-26 | 경희대학교 산학협력단 | The warning on rear approaching and the method of accident warning using that |
KR101746579B1 (en) | 2016-01-29 | 2017-06-13 | 동서대학교 산학협력단 | Car black box system using the drones |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190007277A (en) * | 2017-07-12 | 2019-01-22 | 한국전자통신연구원 | Apparatus for recording vehicle black box image using unmanned aerial vehicle and method for the same |
KR20190019644A (en) * | 2017-08-18 | 2019-02-27 | 롯데정보통신 주식회사 | Artificial intelligence type drone and operating method of thereof |
KR102029883B1 (en) * | 2018-01-15 | 2019-10-10 | 동국대학교 산학협력단 | Method for blackbox service of using drone, apparatus and system for executing the method |
-
2019
- 2019-12-27 KR KR1020190176540A patent/KR102338661B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101689772B1 (en) * | 2015-05-08 | 2016-12-26 | 경희대학교 산학협력단 | The warning on rear approaching and the method of accident warning using that |
KR101746579B1 (en) | 2016-01-29 | 2017-06-13 | 동서대학교 산학협력단 | Car black box system using the drones |
Also Published As
Publication number | Publication date |
---|---|
KR20210086731A (en) | 2021-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107608388B (en) | Autonomous police vehicle | |
US10139827B2 (en) | Detecting physical threats approaching a vehicle | |
US11265508B2 (en) | Recording control device, recording control system, recording control method, and recording control program | |
CN103568945B (en) | Vehicle collision accident notification system and method | |
US20180215344A1 (en) | Information processing system, method, apparatus, computer readable medium, and computer readable program for information exchange in vehicles | |
US11483514B2 (en) | Vehicular vision system with incident recording function | |
CA2935344C (en) | Vehicle control system | |
US10232823B1 (en) | Apparatus and method for pairing smartphone with vehicle tracking device | |
KR101748273B1 (en) | Vehicle head unit, user terminal, and method of notificating emergency of vehicle | |
US20200050874A1 (en) | Car interior surveillance system with e-call functionality | |
JP2020166541A (en) | Accident responsibility identifying method, operation assisting method, accident responsibility identifying device, and computer program | |
CN111369708A (en) | Vehicle driving information recording method and device | |
KR102113766B1 (en) | System and Method for Providing Black Box Function Using Wire and Wireless Gateway | |
CN108932833A (en) | Hit-and-run detection | |
CN104318641A (en) | Automobile data recorder and vehicle alarming method | |
US11579633B1 (en) | Automatically deployable drone for vehicle accidents | |
KR102338661B1 (en) | Accident handling system and accident handling method | |
KR101533814B1 (en) | Apparatus and Method of recording event based image data | |
KR101746579B1 (en) | Car black box system using the drones | |
CN109591724A (en) | A kind of car crass alarm method and warning device | |
US11697372B1 (en) | System and method for enhancing situational awareness in a transportation vehicle | |
KR20210012104A (en) | Vehicle accident notification device | |
JP7057074B2 (en) | On-board unit and driving support device | |
KR102506131B1 (en) | Safety system of personal mobility | |
WO2017082388A1 (en) | Security device, security control method, program, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |