KR102338661B1 - Accident handling system and accident handling method - Google Patents

Accident handling system and accident handling method Download PDF

Info

Publication number
KR102338661B1
KR102338661B1 KR1020190176540A KR20190176540A KR102338661B1 KR 102338661 B1 KR102338661 B1 KR 102338661B1 KR 1020190176540 A KR1020190176540 A KR 1020190176540A KR 20190176540 A KR20190176540 A KR 20190176540A KR 102338661 B1 KR102338661 B1 KR 102338661B1
Authority
KR
South Korea
Prior art keywords
vehicle
accident
image data
drone
data
Prior art date
Application number
KR1020190176540A
Other languages
Korean (ko)
Other versions
KR20210086731A (en
Inventor
이동환
박민규
정재봉
Original Assignee
주식회사 에이치엘클레무브
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이치엘클레무브 filed Critical 주식회사 에이치엘클레무브
Priority to KR1020190176540A priority Critical patent/KR102338661B1/en
Publication of KR20210086731A publication Critical patent/KR20210086731A/en
Application granted granted Critical
Publication of KR102338661B1 publication Critical patent/KR102338661B1/en

Links

Images

Classifications

    • G06Q50/30
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0211Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for record carriers apparatus, e.g. video recorders, tape players or CD players
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/02Arrangements or adaptations of signal or lighting devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U80/00Transport or storage specially adapted for UAVs
    • B64U80/80Transport or storage specially adapted for UAVs by vehicles
    • B64U80/86Land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • B60Y2400/303Speed sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • B60Y2400/304Acceleration sensors
    • B60Y2400/3042Collision sensors
    • B64C2201/141
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Atmospheric Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Operations Research (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

사고 처리 시스템이 개시된다. 사고 처리 시스템은, 차량에 마련되고, 사고 감지 데이터를 수신받는 통신부; 차량에 마련되고, 사고 감지 데이터를 처리하는 프로세서를 포함하고, 사고 감지 데이터를 처리한 것에 응답하여, 사고가 발생한 것으로 판단하면, 차량에 장착된 사출 장치에 의하여 드론을 사출하여 이미 정해진 고도를 유지하는 호버링(hovering) 동작을 수행하도록 사출 장치와 드론을 제어하는 제어부를 포함하고, 드론은 차량에 장착된 블랙박스로부터 주행 영상 데이터를 수신받고, 위성 항법 시스템으로부터 차량의 위치 데이터를 수신받고, 차량의 사고 현장 영상 데이터를 획득하고, 수신된 주행 영상 데이터와 수신된 차량의 위치 데이터 및 획득한 차량의 사고 현장 영상 데이터를 사고 처리 기관 단말기 전송할 수 있다.An incident handling system is disclosed. The accident handling system includes: a communication unit provided in the vehicle and receiving accident detection data; Provided in the vehicle, including a processor for processing accident detection data, and in response to processing the accident detection data, if it is determined that an accident has occurred, the drone is ejected by the injection device mounted on the vehicle to maintain a predetermined altitude and a controller for controlling the injection device and the drone to perform a hovering operation, wherein the drone receives driving image data from a black box mounted on the vehicle, receives vehicle location data from a satellite navigation system, and the vehicle of the accident scene image data, and the received driving image data, the received vehicle position data, and the acquired accident scene image data of the vehicle can be transmitted to the terminal of the accident processing agency.

Description

사고 처리 시스템 및 사고 처리 방법{ACCIDENT HANDLING SYSTEM AND ACCIDENT HANDLING METHOD}Incident handling system and incident handling method

개시된 발명은 사고 처리 시스템 및 사고 처리 방법에 관한 것으로써, 더욱 상세하게는 사고 발생시에 신속하게 구조 활동을 할 수 있고, 2차 사고를 방지할 수 있는 사고 처리 시스템 및 사고 처리 방법에 관한 것이다.The disclosed invention relates to an accident handling system and an accident handling method, and more particularly, to an accident handling system and an accident handling method capable of quickly performing rescue activities in the event of an accident and preventing secondary accidents.

일반적으로, 종래 사고 처리 방법은 사람의 신고, CCTV 등으로 누군가가 파악해야 교통 사고를 인지하고 사고 처리 기관이 그에 따른 대처를 하였다.In general, in the conventional accident handling method, a traffic accident must be recognized by someone through a person's report, CCTV, etc., and the accident handling agency responds accordingly.

그러나, 종래 사고 처리 방법은 정확한 위치와 사고 상황등이 전달되지 않아 신속하고 정확한 인명 구조 활동이 이루어지지 못했다. However, in the conventional accident handling method, the precise location and accident situation are not transmitted, so that rapid and accurate lifesaving activities have not been performed.

최근에는, 차량의 통신 기술을 이용하여 사고를 처리하기 위한 사고 처리 시스템에 대한 연구가 활발히 진행되고 있다.Recently, research on an accident handling system for handling an accident using a communication technology of a vehicle is being actively conducted.

일예로, 차량에 긴급 콜 기능이 탑재되어 응급 상황 시에, 사고 처리 기관에 원격으로 연락할 수 있는 사고 처리 시스템이 개발되고 있다.As an example, an accident handling system capable of remotely contacting an accident handling agency in case of an emergency by having an emergency call function installed in a vehicle is being developed.

그러나, 종래 사고 처리 시스템은 차량 자체에 무선 통신 시스템이 탑재 되어야 하고, 사고 발생 시에 차체에 내장된 시스템의 충격으로 인한 시스템 손상 및 재사용성이 낮으며, 특히 고속으로 후미에서 주행중인 타차량과 먼 거리에서 구조 활동을 위해 다가오는 구조 차량에게 정확한 위험 상황 및 위치를 알리기가 어려웠다.However, in the conventional accident handling system, a wireless communication system must be mounted on the vehicle itself, and when an accident occurs, the system damage and reusability due to the impact of the system built into the vehicle body are low, especially with other vehicles driving in the rear at high speed. It was difficult to inform the precise danger situation and location to oncoming rescue vehicles for rescue operations from a distance.

이상의 이유로, 개시된 발명의 일 측면은 사고 발생시에 신속하게 구조 활동을 할 수 있는 사고 처리 시스템 및 사고 처리 방법을 제공하고자 한다.For the above reasons, an aspect of the disclosed invention is to provide an accident handling system and an accident handling method capable of promptly carrying out rescue activities in the event of an accident.

개시된 발명의 일 측면은 2차 사고를 방지할 수 있는 사고 처리 시스템 및 사고 처리 방법을 제공하고자 한다.An aspect of the disclosed invention is to provide an accident handling system and an accident handling method capable of preventing secondary accidents.

개시된 발명의 일 측면에 따른 사고 처리 시스템은, 차량에 마련되어 탑승자 모니터링 정보를 출력하는 탑승자 모니터링 시스템; 상기 차량에 마련되어 주행 영상 데이터를 획득하는 블랙 박스; 상기 차량에 마련되고, 상기 차량의 충돌 센서에 의해 감지된 충돌 정보 및 차속 센서에 의해 감지된 차속 정보가 포함된 사고 감지 데이터를 수신받는 통신부; 및 상기 차량에 마련되고, 상기 사고 감지 데이터를 처리하는 프로세서를 포함하고, 상기 사고 감지 데이터를 처리한 것에 응답하여, 사고가 발생한 것으로 판단하면, 상기 차량에 장착된 사출 장치에 의하여 드론을 사출하여 이미 정해진 고도를 유지하는 호버링(hovering) 동작을 수행하도록 상기 사출 장치와 상기 드론을 제어하는 제어부를 포함하고, 상기 드론은 상기 탑승자 모니터링 시스템으로부터 탑승자 모니터링 정보를 수신하고, 상기 차량에 장착된 블랙 박스로부터 주행 영상 데이터를 수신하고, 위성 항법 시스템으로부터 차량의 위치 데이터를 수신하고, 상기 차량의 사고 현장 영상 데이터를 획득하고, 상기 탑승자 모니터링 정보, 상기 주행 영상 데이터, 상기 차량의 위치 데이터 및 상기 차량의 사고 현장 영상 데이터를 사고 처리 기관 단말기로 전송하고, 상기 사고 처리 기관 단말기의 사고 처리자가 원격 제어하기 전까지, 호버링 동작을 지속적으로 수행하면서 조명등을 깜빡일 수 있다.An accident handling system according to an aspect of the disclosed invention includes: an occupant monitoring system provided in a vehicle and outputting occupant monitoring information; a black box provided in the vehicle to acquire driving image data; a communication unit provided in the vehicle and receiving accident detection data including collision information detected by a collision sensor of the vehicle and vehicle speed information detected by a vehicle speed sensor; and a processor provided in the vehicle and processing the accident detection data, and in response to processing the accident detection data, when it is determined that an accident has occurred, the drone is ejected by the injection device mounted on the vehicle and a controller for controlling the injection device and the drone to perform a hovering operation that maintains a predetermined altitude, wherein the drone receives occupant monitoring information from the occupant monitoring system, and a black box mounted on the vehicle Receive driving image data from, receive vehicle position data from a satellite navigation system, obtain accident scene image data of the vehicle, and obtain the occupant monitoring information, the driving image data, the vehicle position data, and the vehicle Until the accident scene image data is transmitted to the terminal of the accident processing agency and the accident handler of the terminal of the accident processing agency remotely controls the accident scene, the hovering operation may be continuously performed and the lighting lamp may be blinked.

삭제delete

상기 드론은, 상기 주행 영상 데이터, 상기 차량의 위치 데이터 및 상기 차량의 사고 현장 영상 데이터를 저전력 모드에서 특정 시간 동안 지속적으로 저장할 수 있다.The drone may continuously store the driving image data, the location data of the vehicle, and the accident scene image data of the vehicle for a specific time in a low power mode.

상기 드론은, 상기 주행 영상 데이터, 상기 차량의 위치 데이터 및 상기 차량의 사고 현장 영상 데이터를 저장할 시에, 순서적으로 기존의 가장 오래된 주행 영상 데이터, 차량의 위치 데이터 및 차량의 사고 현장 영상 데이터를 삭제할 수 있다.When storing the driving image data, the vehicle location data, and the vehicle accident scene image data, the drone sequentially stores the oldest driving image data, the vehicle position data, and the vehicle accident scene image data. can be deleted.

상기 사출 장치는, 상기 사고가 발생한 것으로 판단하면, 상기 드론을 웨이크-업시켜 급속 사출하고; 상기 드론은, 상기 급속 사출중 스타트-업을 통해 동작 기능을 활성화시킬 수 있다.When it is determined that the accident has occurred, the injection device wakes up the drone to rapidly eject; The drone may activate an operation function through start-up during the rapid injection.

삭제delete

삭제delete

삭제delete

개시된 발명의 일 측면에 따른 사고 처리 방법은, 차량에 마련된 통신부에 의하여, 상기 차량의 충돌 센서에 의해 감지된 충돌 정보 및 차속 센서에 의해 감지된 차속 정보가 포함된 사고 감지 데이터를 수신받고, 상기 사고 감지 데이터를 처리한 것에 응답하는 상기 차량에 마련된 프로세서에 의하여, 사고가 발생한 것인지를 판단하고, 상기 사고가 발생한 것으로 판단하면, 상기 프로세서에 의하여, 상기 차량에 장착된 사출 장치를 동작시켜 드론을 사출하고, 상기 드론에 의하여, 이미 정해진 고도를 유지하는 호버링(hovering) 동작을 수행하여 상기 차량의 사고 현장 영상 데이터를 획득하고, 상기 차량에 장착된 탑승자 모니터링 시스템의 탑승자 모니터링 정보, 상기 차량에 장착된 블랙 박스의 주행 영상 데이터 및 위성 항법 시스템의 차량의 위치 데이터를 수신하고, 상기 드론에 의하여, 상기 탑승자 모니터링 정보, 상기 주행 영상 데이터, 상기 차량의 위치 데이터 및 상기 차량의 사고 현장 영상 데이터를 사고 처리 기관 단말기로 전송하고, 상기 사고 처리 기관 단말기의 사고 처리자가 원격 제어하기 전까지, 상기 드론에 의하여, 상기 호버링 동작을 지속적으로 수행하면서 조명등을 깜빡이는 것을 포함할 수 있다.In an accident handling method according to an aspect of the disclosed invention, by a communication unit provided in a vehicle, accident detection data including collision information detected by a collision sensor of the vehicle and vehicle speed information detected by a vehicle speed sensor is received, and the The processor provided in the vehicle in response to processing the accident detection data determines whether an accident has occurred, and when it is determined that the accident has occurred, the processor operates the injection device mounted on the vehicle to operate the drone Accident scene image data of the vehicle is obtained by performing a hovering operation that maintains a predetermined altitude by the drone, and occupant monitoring information of an occupant monitoring system mounted on the vehicle is mounted on the vehicle The driving image data of the black box and the position data of the vehicle of the satellite navigation system are received, and the occupant monitoring information, the driving image data, the position data of the vehicle and the accident scene image data of the vehicle are received by the drone. It may include blinking a lighting lamp while continuously performing the hovering operation by the drone until the terminal is transmitted to the terminal and the accident handler of the terminal is remotely controlled.

삭제delete

상기 사고 처리 방법은, 상기 드론에 의하여, 상기 주행 영상 데이터, 상기 차량의 위치 데이터 및 상기 차량의 사고 현장 영상 데이터를 저전력 모드에서 특정 시간 동안 지속적으로 저장하는 것을 포함할 수 있다.The accident handling method may include continuously storing, by the drone, the driving image data, the location data of the vehicle, and the accident scene image data of the vehicle for a specific time in a low power mode.

상기 사고 처리 방법은, 상기 드론에 의하여, 상기 주행 영상 데이터, 상기 차량의 위치 데이터 및 상기 차량의 사고 현장 영상 데이터를 저장할 시에, 순서적으로 기존의 가장 오래된 주행 영상 데이터, 차량의 위치 데이터 및 차량의 사고 현장 영상 데이터를 삭제하는 것을 포함할 수 있다.In the accident processing method, when storing the driving image data, the location data of the vehicle, and the accident scene image data of the vehicle by the drone, the oldest existing driving image data, the location data of the vehicle, and It may include deleting the accident scene image data of the vehicle.

상기 사고 처리 방법은, 상기 사고가 발생한 것으로 판단하면 상기 사출 장치에 의하여, 상기 드론을 웨이크-업시켜 급속 사출하고, 상기 드론에 의하여 상기 급속 사출중 스타트-업을 통해 동작 기능을 활성화시키는 것을 포함할 수 있다.The accident handling method includes, when it is determined that the accident has occurred, wake-up the drone by the injection device to rapidly eject the drone, and activate an operation function through start-up during the rapid injection by the drone can do.

삭제delete

삭제delete

삭제delete

개시된 발명의 일 측면에 따르면, 사고 발생시에 신속하게 구조 활동을 할 수 있는 사고 처리 시스템 및 사고 처리 방법을 제공할 수 있다.According to an aspect of the disclosed invention, it is possible to provide an accident handling system and an accident handling method capable of promptly carrying out rescue activities in the event of an accident.

개시된 발명의 일 측면에 따르면, 2차 사고를 방지할 수 있는 사고 처리 시스템 및 사고 처리 방법을 제공할 수 있다.According to one aspect of the disclosed invention, it is possible to provide an accident handling system and an accident handling method capable of preventing secondary accidents.

도 1은 일 실시예에 의한 사고 처리 시스템을 도시한다.
도 2는 차량과 드론의 구성을 도시한다.
도 3은 일 실시예에 의한 사고 처리 시스템의 사고 처리 방법의 일예를 도시한다.
도 4는 사고 발생시에 사고 처리하는 과정을 도시한다.
1 illustrates an incident handling system according to an embodiment.
2 shows the configuration of a vehicle and a drone.
3 shows an example of an accident handling method of the accident handling system according to an embodiment.
4 shows a process of handling an accident when an accident occurs.

명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 개시된 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.Like reference numerals refer to like elements throughout. This specification does not describe all elements of the embodiments, and general content in the technical field to which the disclosed invention pertains or content overlapping between the embodiments is omitted. The term 'part, module, member, block' used in this specification may be implemented in software or hardware, and according to embodiments, a plurality of 'part, module, member, block' may be implemented as one component, It is also possible for one 'part, module, member, block' to include a plurality of components.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.Throughout the specification, when a part is "connected" to another part, it includes not only direct connection but also indirect connection, and indirect connection includes connection through a wireless communication network. do.

또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Also, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.

명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout the specification, when a member is said to be located "on" another member, this includes not only a case in which a member is in contact with another member but also a case in which another member exists between the two members.

제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.Terms such as first, second, etc. are used to distinguish one component from another, and the component is not limited by the above-mentioned terms.

단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.The singular expression includes the plural expression unless the context clearly dictates otherwise.

각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.In each step, the identification code is used for convenience of description, and the identification code does not describe the order of each step, and each step may be performed differently from the specified order unless the specific order is clearly stated in the context. have.

이하 첨부된 도면들을 참고하여 개시된 발명의 작용 원리 및 실시예들에 대해 설명한다.Hereinafter, the working principle and embodiments of the disclosed invention will be described with reference to the accompanying drawings.

도 1은 일 실시예에 의한 사고 처리 시스템을 도시한다. 도 2는 차량과 드론의 구성을 도시한다.1 illustrates an incident handling system according to an embodiment. 2 shows the configuration of a vehicle and a drone.

도 1에 도시된 바와 같이, 사고 처리 시스템(100)은 드론(150)이 블랙 박스(120)로부터 수신된 주행 영상 데이터와 위성 항법 시스템(130)으로부터 수신된 차량(110)의 위치 데이터 및 획득한 차량(110)의 사고 현장 영상 데이터를 사고 처리 기관 단말기(160)에 전송하여 사고 발생시에 신속하게 구조 활동을 하면서, 2차 사고를 방지한다.As shown in FIG. 1 , the accident handling system 100 obtains the driving image data received by the drone 150 from the black box 120 and the location data and acquisition of the vehicle 110 received from the satellite navigation system 130 . By transmitting the accident scene image data of one vehicle 110 to the accident processing agency terminal 160, a second accident is prevented while promptly carrying out rescue activities in the event of an accident.

이하에서는, 사고 처리 시스템(100)을 자세하게 살펴보기로 한다.Hereinafter, the accident handling system 100 will be described in detail.

사고 처리 시스템(100)은 차량(110)과, 블랙 박스(120)와, 위성 항법 시스템(130)과, 사출 장치(140)와, 드론(150)과, 사고 처리 기관 단말기(160)를 포함한다.The accident handling system 100 includes a vehicle 110 , a black box 120 , a satellite navigation system 130 , an injection device 140 , a drone 150 , and an accident handling agency terminal 160 . do.

도 2를 참조하면, 차량(110)은 통신부(111)를 포함한다.Referring to FIG. 2 , the vehicle 110 includes a communication unit 111 .

통신부(111)는 사고 감지 데이터를 수신받는다. 차량(110)은 충돌 센서 및/또는 차속 센서 및/또는 탑승자 모니터링 시스템을 포함할 수 있다. 충돌 센서는 타차량(V, 도 4 참조)과의 충돌시에 동작하여 사고 감지 데이터를 획득할 수 있다. 사고 감지 데이터는 충돌값일 수 있다. 차속 센서는 타차량(V, 도 4 참조)과의 충돌시에 동작하여 사고 감지 데이터를 획득할 수 있다. 사고 감지 데이터는 차속값일 수 있다. 탑승자 모니터링 시스템은 사고 원인 분석을 돕기 위하여 사고 시점부터 일정 시간 전까지의 탑승자 모니터링 정보를 획득할 수 있다. 탑승자 모니터링 정보는 운전자 상태 데이터를 포함할 수 있고, 구조 활동을 돕기 위하여 동승자를 포함한 탑승 인원 상태 데이터를 포함할 수 있다.The communication unit 111 receives accident detection data. Vehicle 110 may include a crash sensor and/or a vehicle speed sensor and/or an occupant monitoring system. The collision sensor may obtain accident detection data by operating in a collision with another vehicle (V, see FIG. 4 ). The accident detection data may be a collision value. The vehicle speed sensor may obtain accident detection data by operating when a vehicle collides with another vehicle (V, see FIG. 4 ). The accident detection data may be a vehicle speed value. The occupant monitoring system may acquire occupant monitoring information from the time of the accident to a predetermined time before the accident to help analyze the cause of the accident. The occupant monitoring information may include driver status data, and may include occupant status data including passengers to assist with rescue operations.

통신부(111)는 충돌 센서의 동작에 기초하여 사고 감지 데이터에 해당하는 충돌 정보(111a)를 수신받을 수 있다. 통신부(111)는 차속 센서의 동작에 기초하여 사고 감지 데이터에 해당하는 차속 정보(111b)를 수신받을 수 있다. 통신부(111)는 탑승자 모니터링 시스템의 동작에 기초하여 탑승자 모니터링 정보(111c)를 더 수신받을 수 있다. 통신부(111)는 탑승자 모니터링 정보(111c)를 드론(150)으로 전송할 수 있다.The communication unit 111 may receive collision information 111a corresponding to accident detection data based on the operation of the collision sensor. The communication unit 111 may receive vehicle speed information 111b corresponding to accident detection data based on the operation of the vehicle speed sensor. The communication unit 111 may further receive the occupant monitoring information 111c based on the operation of the occupant monitoring system. The communication unit 111 may transmit the occupant monitoring information 111c to the drone 150 .

블랙 박스(120)는 차량(110)에 장착되고, 주행 영상 데이터를 획득한다. 블랙 박스(120)는 주행 자료 자동 기록 장치로써, 사고 발생시에 원인을 밝히는 중요한 장치이다.The black box 120 is mounted on the vehicle 110 and acquires driving image data. The black box 120 is an automatic driving data recording device, and is an important device for identifying a cause when an accident occurs.

위성 항법 시스템(130)은 인공 위성(S, 도 4 참조)과 위성 통신하여 차량(110)의 위치 데이터를 수집한다. 위성 항법 시스템(130)은 인공 위성(S)을 이용한 위치 및 시각 결정 시스템이다. 위성 항법 시스템(130)은 위치 정확도 방식에 따라 보정 위성항법시스템(Differential GPS : DGPS)과, 반송파 보정 위성항법시스템(Carrier phase Differental GPS : CDGPS)으로 분류될 수 있다.The satellite navigation system 130 collects position data of the vehicle 110 through satellite communication with an artificial satellite S (refer to FIG. 4 ). The satellite navigation system 130 is a position and time determination system using an artificial satellite (S). The satellite navigation system 130 may be classified into a differential GPS (DGPS) and a carrier phase differential GPS (CDGPS) according to a location accuracy method.

도 2를 참조하면, 차량(110)은 제어부(112)를 포함한다. 제어부(112)는 프로세서(112a)와 메모리(112b)를 포함한다.Referring to FIG. 2 , the vehicle 110 includes a control unit 112 . The control unit 112 includes a processor 112a and a memory 112b.

프로세서(112a)는 차량(110)에 마련되고, 사고 감지 데이터를 처리하고, 사고 감지 데이터를 처리한 것에 응답하여, 사고가 발생한 것인지를 판단한다. 프로세서(112a)는 충돌 센서에 의하여 획득된 사고 감지 데이터인 충돌값이 이미 정해진 기준값보다 크면, 사고가 발생한 것으로 판단할 수 있다. 프로세서(112a)는 차속 센서에 의하여 획득된 사고 감지 데이터인 차속값이 이미 정해진 기준값이면, 사고가 발생한 것으로 판단할 수 있다. 예를 들어, 차속값이 0이면 사고가 발생한 것으로 판단할 수 있다.The processor 112a is provided in the vehicle 110, processes the accident detection data, and in response to processing the accident detection data, determines whether an accident has occurred. The processor 112a may determine that an accident has occurred when a collision value, which is accident detection data obtained by the collision sensor, is greater than a predetermined reference value. The processor 112a may determine that an accident has occurred when the vehicle speed value, which is accident detection data obtained by the vehicle speed sensor, is a predetermined reference value. For example, if the vehicle speed value is 0, it may be determined that an accident has occurred.

프로세서(112a)는 사고 감지 데이터를 처리한 것에 응답하여, 사고가 발생한 것으로 판단하면, 차량(110)에 장착된 사출 장치(140)에 의하여 드론(150)을 사출하여 이미 정해진 고도를 유지하는 호버링(hovering) 동작을 수행하도록 사출 장치(140)와 드론(150)을 제어한다. 고도는 네비게이션 지도 정보를 주기적으로 업데이트하여 차량(110)의 주행 도로 환경상 적절하게 설정하도록 할 수 있다. 사출 장치(140)는 드론(150)을 이미 정해진 고도로 사출시킬 수 있다. 사출 장치(140)는 차량(110)의 루프에 장착될 수 있다. 드론(150)은 사출 장치(140)에 장착되고, 사출 장치(140)에 의하여 사출될 수 있다. 사출 장치(140)는 사고가 발생한 것으로 판단하면, 드론(150)을 웨이크-업시켜 급속 사출할 수 있다. 드론(150)은 급속 사출중 스타트-업을 통해 동작 기능을 활성화시킬 수 있다.When the processor 112a determines that an accident has occurred in response to processing the accident detection data, the drone 150 is ejected by the injection device 140 mounted on the vehicle 110 to maintain a predetermined altitude. The injection device 140 and the drone 150 are controlled to perform a (hovering) operation. The altitude may be set appropriately in the driving road environment of the vehicle 110 by periodically updating the navigation map information. The injection device 140 may eject the drone 150 at a predetermined altitude. The injection device 140 may be mounted on the roof of the vehicle 110 . The drone 150 may be mounted on the injection device 140 and may be injected by the injection device 140 . When it is determined that an accident has occurred, the injection device 140 may wake-up the drone 150 to rapidly eject the drone 150 . The drone 150 may activate the operation function through start-up during rapid injection.

프로세서(112a)는 사고 감지 데이터를 처리하는 디지털 시그널 프로세서 및/또는 사출 장치(140) 및/또는 드론(150)을 제어하기 위한 신호를 생성하는 마이크로 컨트롤 유닛(Micro Control Unit, MCU)을 포함할 수 있다.The processor 112a may include a digital signal processor that processes accident detection data and/or a micro control unit (MCU) that generates a signal for controlling the injection device 140 and/or the drone 150. can

메모리(112b)는 프로세서(112a)가 사고 감지 데이터를 처리하기 위한 프로그램 및/또는 데이터를 저장할 수 있다.The memory 112b may store a program and/or data for the processor 112a to process the accident detection data.

메모리(112b)는 프로세서(112a)의 사고 감지 데이터의 처리 결과를 임시로 기억할 수 있다.The memory 112b may temporarily store the processing result of the accident detection data of the processor 112a.

메모리(112b)는 S램(S-RAM), D램(D-RAM) 등의 휘발성 메모리뿐만 아니라 플래시 메모리, 롬(Read Only Memory, ROM), 이피롬(Erasable Programmable Read Only Memory: EPROM) 등의 비휘발성 메모리를 포함할 수 있다.The memory 112b includes not only volatile memories such as S-RAM and D-RAM, but also flash memory, read-only memory (ROM), erasable programmable read-only memory (EPROM), etc. of non-volatile memory.

도 1에 도시된 바와 같이, 드론(150)은 블랙박스(120)로부터 주행 영상 데이터를 수신받고, 위성 항법 시스템(130)으로부터 차량(110)의 위치 데이터를 수신받고, 차량(110)의 사고 현장 영상 데이터를 획득한다. 드론(150)은 카메라를 포함할 수 있고, 카메라는 차량(110)의 사고 현장 영상 데이터를 획득할 수 있다. 예를 들어, 카메라는 CCD 카메라 또는 CMOS 카메라일 수 있고, 도시된 바에 한정되지 아니하며 고화질의 영상 데이터를 획득할 수 있는 수단으로 제공될 수 있다.As shown in FIG. 1 , the drone 150 receives driving image data from the black box 120 , receives location data of the vehicle 110 from the satellite navigation system 130 , and causes an accident of the vehicle 110 . Acquire field image data. The drone 150 may include a camera, and the camera may acquire accident scene image data of the vehicle 110 . For example, the camera may be a CCD camera or a CMOS camera, and is not limited thereto and may be provided as a means for acquiring high-quality image data.

드론(150)은 주행 영상 데이터 및/또는 차량(110)의 위치 데이터 및/또는 차량(110)의 사고 현장 영상 데이터를 저전력 모드에서 특정 시간 동안 지속적으로 저장할 수 있다. 드론(150)은 주행 영상 데이터 및/또는 차량(110)의 위치 데이터 및/또는 차량(110)의 사고 현장 영상 데이터를 저장할 시에, 순서적으로 기존의 가장 오래된 주행 영상 데이터 및/또는 차량(110)의 위치 데이터 및/또는 차량(110)의 사고 현장 영상 데이터를 삭제할 수 있다.The drone 150 may continuously store driving image data and/or location data of the vehicle 110 and/or accident scene image data of the vehicle 110 for a specific time in the low power mode. When the drone 150 stores driving image data and/or location data of the vehicle 110 and/or accident scene image data of the vehicle 110, the existing oldest driving image data and/or vehicle ( The location data of 110 and/or the accident scene image data of the vehicle 110 may be deleted.

드론(150)은 수신된 주행 영상 데이터와 수신된 차량(110)의 위치 데이터 및 획득한 차량(110)의 사고 현장 영상 데이터를 사고 처리 기관 단말기(160)에 전송한다. 드론(150)은 수신된 탑승자 모니터링 정보(111c)를 사고 처리 기관 단말기(160)로 더 전송할 수 있다. 사고 처리 기관 단말기(160)는 드론(150)으로부터 주행 영상 데이터와 차량(110)의 위치 데이터 및 차량(110)의 사고 현장 영상 데이터를 수신받아 화면으로 표시할 수 있다. 사고 처리 기관 단말기(160)는 탑승자 모니터링 정보(111c)를 수신받아 화면으로 표시할 수 있다. 사고 처리자는 사고 처리 기관 단말기(160)의 화면을 확인하고, 차량(110)의 사고 현장으로 출동할 수 있다. 예를 들어, 사고 처리 기관 단말기(160)는 소방서 및/또는 경찰서 및/또는 보험사 및/또는 병원에서 사용하는 단말기일 수 있다. 사고 처리 기관 단말기(160)는 PC 및/또는 태블릿 PC 및/또는 노트북 및/또는 스마트폰일 수 있다.The drone 150 transmits the received driving image data, the received location data of the vehicle 110 , and the acquired accident scene image data of the vehicle 110 to the accident processing agency terminal 160 . The drone 150 may further transmit the received occupant monitoring information 111c to the accident handling agency terminal 160 . The accident processing agency terminal 160 may receive driving image data, location data of the vehicle 110 and accident scene image data of the vehicle 110 from the drone 150 and display the received image data on the screen. The accident handling agency terminal 160 may receive and display the occupant monitoring information 111c on a screen. The accident handler may check the screen of the accident processing agency terminal 160 and go to the accident site of the vehicle 110 . For example, the accident handling agency terminal 160 may be a terminal used by a fire department and/or a police station and/or an insurance company and/or a hospital. The incident handling agency terminal 160 may be a PC and/or a tablet PC and/or a laptop and/or a smart phone.

드론(150)은 사고 처리 기관 단말기(160)의 사고 처리자가 원격 제어하기 전까지, 호버링 동작을 지속적으로 수행하면서 조명등을 깜빡일 수 있다. 드론(150)은 조명등을 포함할 수 있고, 조명등은 깜빡일 수 있다. 예를 들어, 조명등은 고휘도 LED일 수 있고, 도시된 바에 한정되지 아니하며 고휘도의 불빛을 점멸할 수 있는 수단으로 제공될 수 있다.The drone 150 may blink a lighting lamp while continuously performing a hovering operation until the accident handler of the accident handling agency terminal 160 remotely controls the drone 150 . The drone 150 may include a lighting lamp, and the lighting lamp may blink. For example, the lighting lamp may be a high-brightness LED, not limited to the illustrated bar, and may be provided as a means for flickering the high-brightness light.

도 3은 일 실시예에 의한 사고 처리 시스템의 사고 처리 방법의 일예를 도시한다. 도 4는 사고 발생시에 사고 처리하는 과정을 도시한다.3 shows an example of an accident handling method of the accident handling system according to an embodiment. 4 shows a process of handling an accident when an accident occurs.

도 3을 참조하면, 통신부(111, 도 2 참조)는 사고 감지 데이터를 수신받는다(310). 통신부(111, 도 2 참조)는 충돌 센서의 동작에 기초하여 사고 감지 데이터에 해당하는 충돌 정보(111a, 도 2 참조)를 수신받을 수 있다. 통신부(111, 도 2 참조)는 차속 센서의 동작에 기초하여 사고 감지 데이터에 해당하는 차속 정보(111b, 도 2 참조)를 수신받을 수 있다. 통신부(111, 도 2 참조)는 탑승자 모니터링 시스템의 동작에 기초하여 탑승자 모니터링 정보(111c, 도 2 참조)를 더 수신받을 수 있다. 통신부(111, 도 2 참조)는 탑승자 모니터링 정보(111c, 도 2 참조)를 드론(150, 도 2 참조)으로 전송할 수 있다.Referring to FIG. 3 , the communication unit 111 (refer to FIG. 2 ) receives accident detection data ( 310 ). The communication unit 111 (refer to FIG. 2 ) may receive collision information 111a (refer to FIG. 2 ) corresponding to accident detection data based on the operation of the collision sensor. The communication unit 111 (refer to FIG. 2 ) may receive vehicle speed information 111b (refer to FIG. 2 ) corresponding to accident detection data based on the operation of the vehicle speed sensor. The communication unit 111 (refer to FIG. 2 ) may further receive the occupant monitoring information 111c (refer to FIG. 2 ) based on the operation of the occupant monitoring system. The communication unit 111 (refer to FIG. 2 ) may transmit the occupant monitoring information 111c (refer to FIG. 2 ) to the drone 150 (refer to FIG. 2 ).

프로세서(112a, 도 2 참조)는 사고 감지 데이터를 처리한 것에 응답하여, 사고가 발생한 것인지를 판단한다(320). 프로세서(112a, 도 2 참조)는 충돌 센서에 의하여 획득된 사고 감지 데이터인 충돌값이 이미 정해진 기준값보다 크면, 사고가 발생한 것으로 판단할 수 있다. 프로세서(112a, 도 2 참조)는 차속 센서에 의하여 획득된 사고 감지 데이터인 차속값이 이미 정해진 기준값이면, 사고가 발생한 것으로 판단할 수 있다. 예를 들어, 차속값이 0이면 사고가 발생한 것으로 판단할 수 있다.In response to processing the accident detection data, the processor 112a (refer to FIG. 2 ) determines whether an accident has occurred ( 320 ). The processor 112a (refer to FIG. 2 ) may determine that an accident has occurred when a collision value, which is accident detection data obtained by the collision sensor, is greater than a predetermined reference value. The processor 112a (refer to FIG. 2 ) may determine that an accident has occurred when the vehicle speed value, which is accident detection data obtained by the vehicle speed sensor, is a predetermined reference value. For example, if the vehicle speed value is 0, it may be determined that an accident has occurred.

프로세서(112a, 도 2 참조)는 사고가 발생한 것으로 판단하면(320의 예), 사출 장치(140, 도 2 참조)를 동작시켜 드론(150, 도 2 참조)을 사출한다(330). 사출 장치(140, 도 2 참조)는 드론(150, 도 2 참조)을 이미 정해진 고도로 사출시킬 수 있다. 사출 장치(140, 도 2 참조)는 사고가 발생한 것으로 판단하면, 드론(150, 도 2 참조)을 웨이크-업시켜 급속 사출할 수 있다. 드론(150, 도 2 참조)은 급속 사출중 스타트-업을 통해 동작 기능을 활성화시킬 수 있다.When the processor 112a (refer to FIG. 2) determines that an accident has occurred (YES in S320), the processor 112a (refer to FIG. 2) operates the injection device 140 (refer to FIG. 2) to eject the drone 150 (refer to FIG. 2) (S330). The injection device 140 (refer to FIG. 2 ) may eject the drone 150 (refer to FIG. 2 ) to a predetermined altitude. When it is determined that an accident has occurred, the injection device 140 (refer to FIG. 2 ) may wake-up the drone 150 (refer to FIG. 2 ) to perform rapid injection. The drone 150 (refer to FIG. 2 ) may activate an operation function through start-up during rapid injection.

프로세서(112a, 도 2 참조)는 사고가 발생하지 않은 것으로 판단하면(320의 아니오), 사출 장치(140, 도 2 참조)를 비동작시켜 드론(150, 도 2 참조)을 비사출한다(331).When it is determined that an accident has not occurred (No in 320), the processor 112a (refer to FIG. 2) deactivates the injection device 140 (refer to FIG. 2) to non-inject the drone 150 (refer to FIG. 2) (331). ).

드론(150, 도 1 참조)은 이미 정해진 고도를 유지하는 호버링(hovering) 동작을 수행하여 차량(110, 도 1 참조)의 사고 현장 영상 데이터를 획득하고, 블랙 박스(120, 도 1 참조)의 주행 영상 데이터와 위성 항법 시스템(130, 도 1 참조)의 차량(110, 도 1 참조)의 위치 데이터를 수신한다(340).The drone 150 (refer to FIG. 1) acquires accident scene image data of the vehicle 110 (refer to FIG. 1) by performing a hovering operation that maintains a predetermined altitude, and the black box 120 (refer to FIG. 1) Driving image data and location data of the vehicle 110 (refer to FIG. 1 ) of the satellite navigation system 130 (refer to FIG. 1 ) are received ( 340 ).

드론(150, 도 1 참조)은 주행 영상 데이터 및/또는 차량(110, 도 1 참조)의 위치 데이터 및/또는 차량(110, 도 1 참조)의 사고 현장 영상 데이터를 저전력 모드에서 특정 시간 동안 지속적으로 저장할 수 있다. 드론(150, 도 1 참조)은 주행 영상 데이터 및/또는 차량(110, 도 1 참조)의 위치 데이터 및/또는 차량(110, 도 1 참조)의 사고 현장 영상 데이터를 저장할 시에, 순서적으로 기존의 가장 오래된 주행 영상 데이터 및/또는 차량(110, 도 1 참조)의 위치 데이터 및/또는 차량(110, 도 1 참조)의 사고 현장 영상 데이터를 삭제할 수 있다.The drone 150 (see FIG. 1 ) maintains driving image data and/or location data of the vehicle 110 (see FIG. 1 ) and/or accident scene image data of the vehicle 110 (see FIG. 1 ) in a low-power mode for a specific time can be saved as When the drone 150 (see FIG. 1 ) stores driving image data and/or location data of the vehicle 110 (see FIG. 1 ) and/or accident scene image data of the vehicle 110 (see FIG. 1 ), sequentially Existing oldest driving image data and/or location data of the vehicle 110 (refer to FIG. 1 ) and/or accident scene image data of the vehicle 110 (refer to FIG. 1 ) may be deleted.

도 4에 도시된 바와 같이, 드론(150)은 수신된 주행 영상 데이터와 수신된 차량(110)의 위치 데이터 및 획득한 차량(110)의 사고 현장 영상 데이터를 사고 처리 기관 단말기(160)에 전송한다(350). 드론(150)은 수신된 탑승자 모니터링 정보(111c)를 사고 처리 기관 단말기(160)로 더 전송할 수 있다.As shown in FIG. 4 , the drone 150 transmits the received driving image data, the received location data of the vehicle 110 and the acquired accident scene image data of the vehicle 110 to the accident processing agency terminal 160 . do (350). The drone 150 may further transmit the received occupant monitoring information 111c to the accident handling agency terminal 160 .

사고 처리 기관 단말기(160)는 드론(150)으로부터 주행 영상 데이터와 차량(110)의 위치 데이터 및 차량(110)의 사고 현장 영상 데이터를 수신받아 화면으로 표시할 수 있다. 사고 처리 기관 단말기(160)는 탑승자 모니터링 정보(111c)를 수신받아 화면으로 표시할 수 있다. 사고 처리자는 사고 처리 기관 단말기(160)의 화면을 확인하고, 차량(110)의 사고 현장으로 출동할 수 있다. The accident processing agency terminal 160 may receive driving image data, location data of the vehicle 110 and accident scene image data of the vehicle 110 from the drone 150 and display the received image data on the screen. The accident handling agency terminal 160 may receive and display the occupant monitoring information 111c on a screen. The accident handler may check the screen of the accident processing agency terminal 160 and go to the accident site of the vehicle 110 .

드론(150)은 사고 처리 기관 단말기(160)의 사고 처리자가 원격 제어하기 전까지, 호버링 동작을 지속적으로 수행하면서 조명등을 깜빡일 수 있다.The drone 150 may blink a lighting lamp while continuously performing a hovering operation until the accident handler of the accident handling agency terminal 160 remotely controls the drone 150 .

이러한, 사고 처리 시스템(100)은 대중화된 드론(150)의 탑재를 통해 기술적 어려움 없이 구현 가능성을 높이고, 차량(110)의 외부 데이터 통신 기능을 탑재하지 않고 드론(150)에 탑재함으로써 기존 차량의 손쉬운 개조가 가능하다.Such an accident handling system 100 increases the possibility of implementation without technical difficulties through the mounting of the popular drone 150, and by mounting it on the drone 150 without mounting the external data communication function of the vehicle 110, Easy modification is possible.

드론(150)은 차량(110)의 사고 발생시에, 공중으로 사출됨으로써 안전하게 회수 및 재사용이 가능하고, 차량(110)의 부분 및 완전한 침수 사고 시에도 즉시 대응하도록 함으로써, 내부의 전자 장비 고장과는 무관하게 신속하게 사고 발생을 알릴 수 있다.When an accident of the vehicle 110 occurs, the drone 150 can be safely retrieved and reused by being ejected into the air, and by making it possible to respond immediately even in a partial or complete immersion accident of the vehicle 110, it is different from internal electronic equipment failure. It is possible to notify the occurrence of an accident quickly regardless of the circumstances.

드론(150)은 일정 상공에서 호버링 동작을 수행하면서 사고 알림 조명등을 점멸하면서, 비교적 먼거리에서도 육안으로 사고 현장을 식별할 수 있게 함으로써, 2차 사고를 방지하고 신속한 사고 처리 기관의 구조 활동을 도울 수 있다.The drone 150 performs a hovering operation in a certain sky while flickering the accident notification light, and allows the accident scene to be identified with the naked eye even from a relatively long distance, thereby preventing a secondary accident and helping the rescue activity of an accident handling organization quickly. have.

한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록 매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록 매체는 컴퓨터로 읽을 수 있는 기록 매체로 구현될 수 있다.Meanwhile, the disclosed embodiments may be implemented in the form of a recording medium storing instructions executable by a computer. Instructions may be stored in the form of program code, and when executed by a processor, may create a program module to perform the operations of the disclosed embodiments. The recording medium may be implemented as a computer-readable recording medium.

컴퓨터가 읽을 수 있는 기록 매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다.The computer-readable recording medium includes all types of recording media in which computer-readable instructions are stored. For example, there may be a read only memory (ROM), a random access memory (RAM), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device, and the like.

이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.The disclosed embodiments have been described with reference to the accompanying drawings as described above. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention may be practiced in other forms than the disclosed embodiments without changing the technical spirit or essential features of the present invention. The disclosed embodiments are illustrative and should not be construed as limiting.

100: 사고 처리 시스템 110: 차량
111: 통신부 111a: 충돌 정보
111b: 차속 정보 111c: 탑승자 모니터링 정보
112: 제어부 112a: 프로세서
112b: 메모리 120: 블랙 박스
130: 위성 항법 시스템 140: 사출 장치
150: 드론 160: 사고 처리 기관 단말기
100: accident handling system 110: vehicle
111: communication unit 111a: collision information
111b: vehicle speed information 111c: occupant monitoring information
112: control unit 112a: processor
112b: memory 120: black box
130: satellite navigation system 140: injection device
150: drone 160: accident handling agency terminal

Claims (16)

차량에 마련되어 탑승자 모니터링 정보를 출력하는 탑승자 모니터링 시스템;
상기 차량에 마련되어 주행 영상 데이터를 획득하는 블랙 박스;
상기 차량에 마련되고, 상기 차량의 충돌 센서에 의해 감지된 충돌 정보 및 차속 센서에 의해 감지된 차속 정보가 포함된 사고 감지 데이터를 수신받는 통신부; 및
상기 차량에 마련되고, 상기 사고 감지 데이터를 처리하는 프로세서를 포함하고, 상기 사고 감지 데이터를 처리한 것에 응답하여, 사고가 발생한 것으로 판단하면, 상기 차량에 장착된 사출 장치에 의하여 드론을 사출하여 이미 정해진 고도를 유지하는 호버링(hovering) 동작을 수행하도록 상기 사출 장치와 상기 드론을 제어하는 제어부를 포함하고,
상기 드론은 상기 탑승자 모니터링 시스템으로부터 탑승자 모니터링 정보를 수신하고, 상기 차량에 장착된 블랙 박스로부터 주행 영상 데이터를 수신하고, 위성 항법 시스템으로부터 차량의 위치 데이터를 수신하고, 상기 차량의 사고 현장 영상 데이터를 획득하고, 상기 탑승자 모니터링 정보, 상기 주행 영상 데이터, 상기 차량의 위치 데이터 및 상기 차량의 사고 현장 영상 데이터를 사고 처리 기관 단말기로 전송하고, 상기 사고 처리 기관 단말기의 사고 처리자가 원격 제어하기 전까지, 호버링 동작을 지속적으로 수행하면서 조명등을 깜빡이는 사고 처리 시스템.
an occupant monitoring system provided in the vehicle and outputting occupant monitoring information;
a black box provided in the vehicle to acquire driving image data;
a communication unit provided in the vehicle and receiving accident detection data including collision information detected by a collision sensor of the vehicle and vehicle speed information detected by a vehicle speed sensor; and
It is provided in the vehicle and includes a processor for processing the accident detection data, and in response to processing the accident detection data, if it is determined that an accident has occurred, the drone is ejected by the injection device mounted on the vehicle and already A control unit for controlling the injection device and the drone to perform a hovering operation maintaining a predetermined altitude,
The drone receives occupant monitoring information from the occupant monitoring system, receives driving image data from a black box mounted on the vehicle, receives vehicle location data from a satellite navigation system, and receives accident scene image data of the vehicle. and transmits the occupant monitoring information, the driving image data, the location data of the vehicle, and the accident scene image data of the vehicle to the accident handling agency terminal, and hovering until the accident handler of the accident handling agency terminal remotely controls it Incident handling system that flashes lights while performing a continuous motion.
삭제delete 제1항에 있어서,
상기 드론은, 상기 주행 영상 데이터, 상기 차량의 위치 데이터 및 상기 차량의 사고 현장 영상 데이터를 저전력 모드에서 특정 시간 동안 지속적으로 저장하는 사고 처리 시스템.
According to claim 1,
The drone is an accident processing system that continuously stores the driving image data, the location data of the vehicle, and the accident scene image data of the vehicle for a specific time in a low power mode.
제3항에 있어서,
상기 드론은, 상기 주행 영상 데이터, 상기 차량의 위치 데이터 및 상기 차량의 사고 현장 영상 데이터를 저장할 시에, 순서적으로 기존의 가장 오래된 주행 영상 데이터, 차량의 위치 데이터 및 차량의 사고 현장 영상 데이터를 삭제하는 사고 처리 시스템.
4. The method of claim 3,
When storing the driving image data, the vehicle location data, and the vehicle accident scene image data, the drone sequentially stores the oldest driving image data, the vehicle position data, and the vehicle accident scene image data. Accident handling system that deletes.
제1항에 있어서,
상기 사출 장치는, 상기 사고가 발생한 것으로 판단하면, 상기 드론을 웨이크-업시켜 급속 사출하고;
상기 드론은, 상기 급속 사출중 스타트-업을 통해 동작 기능을 활성화시키는 사고 처리 시스템.
According to claim 1,
When it is determined that the accident has occurred, the injection device wakes up the drone to rapidly eject;
The drone is an accident handling system that activates an operation function through start-up during the rapid injection.
삭제delete 삭제delete 삭제delete 차량에 마련된 통신부에 의하여, 상기 차량의 충돌 센서에 의해 감지된 충돌 정보 및 차속 센서에 의해 감지된 차속 정보가 포함된 사고 감지 데이터를 수신받고,
상기 사고 감지 데이터를 처리한 것에 응답하는 상기 차량에 마련된 프로세서에 의하여, 사고가 발생한 것인지를 판단하고,
상기 사고가 발생한 것으로 판단하면, 상기 프로세서에 의하여, 상기 차량에 장착된 사출 장치를 동작시켜 드론을 사출하고,
상기 드론에 의하여, 이미 정해진 고도를 유지하는 호버링(hovering) 동작을 수행하여 상기 차량의 사고 현장 영상 데이터를 획득하고, 상기 차량에 장착된 탑승자 모니터링 시스템의 탑승자 모니터링 정보, 상기 차량에 장착된 블랙 박스의 주행 영상 데이터 및 위성 항법 시스템의 차량의 위치 데이터를 수신하고,
상기 드론에 의하여, 상기 탑승자 모니터링 정보, 상기 주행 영상 데이터, 상기 차량의 위치 데이터 및 상기 차량의 사고 현장 영상 데이터를 사고 처리 기관 단말기로 전송하고,
상기 사고 처리 기관 단말기의 사고 처리자가 원격 제어하기 전까지, 상기 드론에 의하여, 상기 호버링 동작을 지속적으로 수행하면서 조명등을 깜빡이는 것을 포함하는 사고 처리 방법.
Accident detection data including collision information detected by the collision sensor of the vehicle and vehicle speed information detected by the vehicle speed sensor is received by the communication unit provided in the vehicle;
By the processor provided in the vehicle in response to processing the accident detection data, it is determined whether an accident has occurred,
When it is determined that the accident has occurred, the processor operates the injection device mounted on the vehicle to inject the drone,
The drone performs a hovering operation that maintains a predetermined altitude to obtain accident scene image data of the vehicle, and includes occupant monitoring information of an occupant monitoring system mounted on the vehicle, and a black box mounted on the vehicle. receiving the driving image data of the vehicle and the vehicle position data of the satellite navigation system;
Transmitting, by the drone, the occupant monitoring information, the driving image data, the location data of the vehicle, and the accident scene image data of the vehicle to an accident processing agency terminal,
and blinking a lighting lamp while continuously performing the hovering operation by the drone until the accident handler of the accident handling agency terminal remotely controls it.
삭제delete 제9항에 있어서,
상기 사고 처리 방법은, 상기 드론에 의하여, 상기 주행 영상 데이터, 상기 차량의 위치 데이터 및 상기 차량의 사고 현장 영상 데이터를 저전력 모드에서 특정 시간 동안 지속적으로 저장하는 것을 포함하는 사고 처리 방법.
10. The method of claim 9,
The accident handling method includes continuously storing, by the drone, the driving image data, the location data of the vehicle, and the accident scene image data of the vehicle for a specific time in a low power mode.
제11항에 있어서,
상기 사고 처리 방법은, 상기 드론에 의하여, 상기 주행 영상 데이터, 상기 차량의 위치 데이터 및 상기 차량의 사고 현장 영상 데이터를 저장할 시에, 순서적으로 기존의 가장 오래된 주행 영상 데이터, 차량의 위치 데이터 및 차량의 사고 현장 영상 데이터를 삭제하는 것을 포함하는 사고 처리 방법.
12. The method of claim 11,
The accident processing method, when storing the driving image data, the location data of the vehicle, and the accident scene image data of the vehicle by the drone, sequentially includes the oldest existing driving image data, the vehicle location data, and A method of handling an accident comprising deleting image data of an accident scene of a vehicle.
제9항에 있어서,
상기 사고 처리 방법은,
상기 사고가 발생한 것으로 판단하면, 상기 사출 장치에 의하여, 상기 드론을 웨이크-업시켜 급속 사출하고,
상기 드론에 의하여, 상기 급속 사출중 스타트-업을 통해 동작 기능을 활성화시키는 것을 포함하는 사고 처리 방법.
10. The method of claim 9,
The accident handling method is,
If it is determined that the accident has occurred, the drone is woken up by the injection device and rapidly injected,
Accident handling method comprising, by the drone, activating an operation function through a start-up during the rapid injection.
삭제delete 삭제delete 삭제delete
KR1020190176540A 2019-12-27 2019-12-27 Accident handling system and accident handling method KR102338661B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190176540A KR102338661B1 (en) 2019-12-27 2019-12-27 Accident handling system and accident handling method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190176540A KR102338661B1 (en) 2019-12-27 2019-12-27 Accident handling system and accident handling method

Publications (2)

Publication Number Publication Date
KR20210086731A KR20210086731A (en) 2021-07-09
KR102338661B1 true KR102338661B1 (en) 2021-12-16

Family

ID=76864975

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190176540A KR102338661B1 (en) 2019-12-27 2019-12-27 Accident handling system and accident handling method

Country Status (1)

Country Link
KR (1) KR102338661B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101689772B1 (en) * 2015-05-08 2016-12-26 경희대학교 산학협력단 The warning on rear approaching and the method of accident warning using that
KR101746579B1 (en) 2016-01-29 2017-06-13 동서대학교 산학협력단 Car black box system using the drones

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190007277A (en) * 2017-07-12 2019-01-22 한국전자통신연구원 Apparatus for recording vehicle black box image using unmanned aerial vehicle and method for the same
KR20190019644A (en) * 2017-08-18 2019-02-27 롯데정보통신 주식회사 Artificial intelligence type drone and operating method of thereof
KR102029883B1 (en) * 2018-01-15 2019-10-10 동국대학교 산학협력단 Method for blackbox service of using drone, apparatus and system for executing the method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101689772B1 (en) * 2015-05-08 2016-12-26 경희대학교 산학협력단 The warning on rear approaching and the method of accident warning using that
KR101746579B1 (en) 2016-01-29 2017-06-13 동서대학교 산학협력단 Car black box system using the drones

Also Published As

Publication number Publication date
KR20210086731A (en) 2021-07-09

Similar Documents

Publication Publication Date Title
CN107608388B (en) Autonomous police vehicle
US10139827B2 (en) Detecting physical threats approaching a vehicle
US11265508B2 (en) Recording control device, recording control system, recording control method, and recording control program
CN103568945B (en) Vehicle collision accident notification system and method
US20180215344A1 (en) Information processing system, method, apparatus, computer readable medium, and computer readable program for information exchange in vehicles
US11483514B2 (en) Vehicular vision system with incident recording function
CA2935344C (en) Vehicle control system
US10232823B1 (en) Apparatus and method for pairing smartphone with vehicle tracking device
KR101748273B1 (en) Vehicle head unit, user terminal, and method of notificating emergency of vehicle
US20200050874A1 (en) Car interior surveillance system with e-call functionality
JP2020166541A (en) Accident responsibility identifying method, operation assisting method, accident responsibility identifying device, and computer program
CN111369708A (en) Vehicle driving information recording method and device
KR102113766B1 (en) System and Method for Providing Black Box Function Using Wire and Wireless Gateway
CN108932833A (en) Hit-and-run detection
CN104318641A (en) Automobile data recorder and vehicle alarming method
US11579633B1 (en) Automatically deployable drone for vehicle accidents
KR102338661B1 (en) Accident handling system and accident handling method
KR101533814B1 (en) Apparatus and Method of recording event based image data
KR101746579B1 (en) Car black box system using the drones
CN109591724A (en) A kind of car crass alarm method and warning device
US11697372B1 (en) System and method for enhancing situational awareness in a transportation vehicle
KR20210012104A (en) Vehicle accident notification device
JP7057074B2 (en) On-board unit and driving support device
KR102506131B1 (en) Safety system of personal mobility
WO2017082388A1 (en) Security device, security control method, program, and storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant