KR102477416B1 - Accident Site Monitoring System - Google Patents

Accident Site Monitoring System Download PDF

Info

Publication number
KR102477416B1
KR102477416B1 KR1020220018023A KR20220018023A KR102477416B1 KR 102477416 B1 KR102477416 B1 KR 102477416B1 KR 1020220018023 A KR1020220018023 A KR 1020220018023A KR 20220018023 A KR20220018023 A KR 20220018023A KR 102477416 B1 KR102477416 B1 KR 102477416B1
Authority
KR
South Korea
Prior art keywords
accident
tunnel
sound
collection unit
unit
Prior art date
Application number
KR1020220018023A
Other languages
Korean (ko)
Inventor
김준현
Original Assignee
주식회사 에이엔제이솔루션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이엔제이솔루션 filed Critical 주식회사 에이엔제이솔루션
Priority to KR1020220018023A priority Critical patent/KR102477416B1/en
Application granted granted Critical
Publication of KR102477416B1 publication Critical patent/KR102477416B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06N3/0472
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Alarm Systems (AREA)

Abstract

The embodiment of the present invention relates to a system for monitoring the scene of an accident. According to one aspect of the present invention, the system for monitoring the scene of an accident comprises: a sound collection unit which collects sound information within a tunnel; an accident analysis unit which determines whether there is an accident in the tunnel through the sound information; and a video collection unit for photographing an accident area in the tunnel based on the information detected by the accident analysis unit. The video collection unit includes a rail and a camera moving along the rail. Accordingly, a response to the accident can be made immediately.

Description

사고 현장 모니터링 시스템{Accident Site Monitoring System}Accident site monitoring system {Accident Site Monitoring System}

본 실시예는 사고 현장 모니터링 시스템에 관한 것이다.This embodiment relates to an accident scene monitoring system.

현재 도로터널 방재시설 설치 및 관리지침(국토교통부예규, 제308호)에 따르면 모든 방재등급 3등급 이상의 도로터널은 CCTV(감시용 텔레비전 설비)와 유고감지설비를 설치하도록 규정하고 있다.According to the current road tunnel disaster prevention facility installation and management guidelines (Ministry of Land, Infrastructure and Transport Regulations, No. 308), all road tunnels with a disaster prevention level of 3 or higher are required to install CCTVs (TV equipment for monitoring) and accident detection equipment.

터널 내 CCTV(감시용 텔레비전 설비)의 설치 목적은 터널 내 재해 발생 시 상황을 파악하고 사고발생 유무를 감시하기 위함이다.The purpose of installing CCTV (TV equipment for monitoring) in the tunnel is to grasp the situation in the event of a disaster in the tunnel and to monitor the occurrence of an accident.

또한, 터널 내 유고감지설비의 설치 목적은 터널에 설치된 CCTV 영상정보 또는 주파수를 이용하여 수신된 검지데이터를 실시간으로 분석하여 설정된 유고상황 발생시 자동으로 관리시스템으로 알리기 위함이다.In addition, the purpose of installing the accident detection equipment in the tunnel is to analyze the received detection data in real time using the CCTV image information or frequency installed in the tunnel and automatically inform the management system when a set accident situation occurs.

터널 내 CCTV(감시용 텔레비전 설비)의 설치간격은 200m 내지 400m를 표준으로 하며, 터널 입·출구부의 교통흐름 또한 확인될 수 있도록 터널 입·출구부로부터 500m 이내의 지점에도 CCTV가 설치된다.The installation interval of CCTVs (monitoring television equipment) in the tunnel is 200m to 400m as a standard, and CCTVs are also installed at points within 500m from the entrance and exit of the tunnel so that the traffic flow at the entrance and exit of the tunnel can also be checked.

그러나, CCTV는 도로상의 차량의 흐름을 파악하기에 용이할 뿐, 유고 발생여부의 확인을 위한 CCTV의 촬영 거리가 충분히 길지 않아, 유고 발생 지점과, 유고 발생 상황을 명확하게 파악하는 것이 어려운 문제점이 있다. However, CCTV is easy to grasp the flow of vehicles on the road, but the shooting distance of CCTV is not long enough to confirm the occurrence of an accident, so it is difficult to clearly identify the location of the accident and the situation where the accident occurred. there is.

또한 CCTV는 설치지점에 고정되어 있으므로, 터널의 선형 및 종단경사와 같은 지형적 요인과, 도로 상의 장애물이나 통행차량에 같은 요인에 의해 촬영을 위한 시야가 가려지는 상황이 발생될 수 있다.In addition, since the CCTV is fixed at the installation point, a situation in which the view for filming may be blocked by topographical factors such as the linear and longitudinal slopes of the tunnel and factors such as obstacles or passing vehicles on the road may occur.

그럴 경우 실제 터널 관리자가 현장에 직접 출동해야하는 상황이 발생할 수 있으며 그에 걸리는 시간만큼 사고처리가 늦어져 후속차량에 의한 2차사고의 위험성과, 사고 피해자의 응급구조가 늦어져 사망사고로 발생할 여지가 있다.In this case, a situation may arise in which the tunnel manager has to be dispatched directly to the site, and the accident handling is delayed by the amount of time it takes, resulting in a risk of a secondary accident by a follow-up vehicle and a delay in the emergency rescue of the accident victim, resulting in a fatal accident. .

나아가, 터널 내에서 일정한 간격을 두고 CCTV(감시용 텔레비전 설비)를 복수개 설치해야 하므로, 실제 사고가 발생하지 않는 지역에도 불필요한 장비 설치가 의무적으로 이루어져야 하는 문제로 인해 설치, 유지 및 보수에 많은 비용이 발생된다. Furthermore, since a plurality of CCTVs (surveillance television equipment) must be installed at regular intervals in the tunnel, installation, maintenance, and repair are costly due to the problem that unnecessary equipment must be installed even in areas where actual accidents do not occur. occurs

본 발명은 상기와 같은 문제점을 개선하기 위하여 제안된 것으로서, 상황 발생 시 신속한 파악이 가능하여, 사고에 대한 대응이 즉각적으로 이루어질 수 있는 사고 현장 모니터링 시스템에 관한 것이다. The present invention has been proposed to improve the above problems, and relates to an accident site monitoring system capable of promptly grasping a situation and responding to an accident immediately.

본 실시예에 따른 사고 현장 모니터링 시스템은, 터널 내 음향 정보를 수집하는 음향수집부; 상기 음향 정보를 통해 터널 내 사고 여부를 판별하는 사고분석부; 및 상기 사고분석부에서 감지된 정보에 기초하여, 터널 내 사고 발생 영역을 촬영하는 영상수집부를 포함하며, 상기 영상수집부는, 레일과, 상기 레일을 따라 이동하는 카메라를 포함한다. The accident site monitoring system according to the present embodiment includes a sound collection unit for collecting sound information in a tunnel; an accident analysis unit that determines whether or not there is an accident in the tunnel through the sound information; And based on the information detected by the accident analysis unit, a video collection unit for photographing an accident area in the tunnel, wherein the video collection unit includes a rail and a camera moving along the rail.

본 실시예를 통해 사고 발생 지점을 신속하게 촬영하여 관리자가 모니터링할 수 있으므로, 사고 발생 시 즉각적인 대응이 가능한 장점이 있다. Since the accident occurrence point can be rapidly photographed and monitored by the manager through this embodiment, there is an advantage in that an immediate response can be made in the event of an accident.

또한 종래 대비 다수의 CCTV를 구비하지 않더라도, 카메라의 이동에 의해 터널 내 전 영역을 근접 촬영할 수 있으므로, 설치 및 유지에 필요한 경제적 비용을 절감할 수 있는 장점이 있다. In addition, even if a plurality of CCTVs are not provided compared to the prior art, since the entire area in the tunnel can be closely photographed by moving the camera, there is an advantage in that the economic cost required for installation and maintenance can be reduced.

도 1은 본 발명의 실시예에 따른 사고 현장 모니터링 시스템의 블록도.
도 2는 본 발명의 실시예에 따른 사고 현장 모니터링 시스템의 데이터 흐름을 도시한 도면.
도 3은 본 발명의 실시예에 따른 메모리 내 데이터 처리 과정을 보인 도면.
도 4는 본 발명의 실시예에 따른 Input 데이터의 분류 과정을 보인 도면.
도 5는 본 발명의 실시예에 따른 입력값의 구성을 설명하기 위한 도면.
도 6은 본 발명의 실시예에 따른 CNN 알고리즘의 구조도.
도 7은 본 발명의 실시예에 따른 CNN 알고리즘을 통한 사고 검지 테스트의 결과표.
도 8은 본 발명의 실시예에 따른 CNN 알고리즘을 통한 사고 오검지 테스트의 결과표.
도 9는 본 발명의 실시예에 따른 CNN 알고리즘을 통한 사고 테스트의 실험표.
도 10은 본 발명의 실시예에 따른 RNN 알고리즘 내 행렬 데이터의 예시도.
도 11은 본 발명의 실시예에 따른 신경망 구조를 도식화한 도면.
도 12는 본 발명의 실시예에 따른 터널 내 영상수집부의 설치 모습을 도시한 단면도.
도 13은 본 발명의 실시예에 따른 터널 내 영상수집부의 설치 모습을 도시한 측면도.
1 is a block diagram of an accident site monitoring system according to an embodiment of the present invention;
Figure 2 is a diagram showing the data flow of the accident site monitoring system according to an embodiment of the present invention.
3 is a diagram showing a process of processing data in a memory according to an embodiment of the present invention;
4 is a diagram showing a process of classifying input data according to an embodiment of the present invention.
5 is a diagram for explaining the configuration of input values according to an embodiment of the present invention;
6 is a structural diagram of a CNN algorithm according to an embodiment of the present invention.
7 is a result table of an accident detection test through a CNN algorithm according to an embodiment of the present invention.
8 is a result table of an accident false detection test through a CNN algorithm according to an embodiment of the present invention.
9 is an experimental table of a thought test through a CNN algorithm according to an embodiment of the present invention.
10 is an exemplary diagram of matrix data in the RNN algorithm according to an embodiment of the present invention.
11 is a schematic diagram of a neural network structure according to an embodiment of the present invention.
12 is a cross-sectional view showing the installation of an image collection unit in a tunnel according to an embodiment of the present invention.
13 is a side view illustrating installation of an image collection unit in a tunnel according to an embodiment of the present invention.

이하, 본 발명의 일부 실시 예들을 예시적인 도면을 통해 설명한다. 각 도면의 구성요소들에 참조부호를 기재함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호로 표시한다.Hereinafter, some embodiments of the present invention will be described through exemplary drawings. In describing the reference numerals for the components of each drawing, the same numerals indicate the same components as much as possible, even if they are displayed on different drawings.

또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결, 결합 또는 접속될 수 있지만, 그 구성 요소와 그 다른 구성요소 사이에 또 다른 구성 요소가 '연결', '결합' 또는 '접속'될 수도 있다고 이해되어야 할 것이다.Also, terms such as first, second, A, B, (a), and (b) may be used to describe components of an embodiment of the present invention. These terms are only used to distinguish the component from other components, and the nature, order, or order of the corresponding component is not limited by the term. When an element is described as being 'connected', 'coupled' or 'connected' to another element, the element may be directly connected, coupled or connected to the other element, but not between the element and the other element. It should be understood that another component may be 'connected', 'coupled' or 'connected' between elements.

도 1은 본 발명의 실시예에 따른 사고 현장 모니터링 시스템의 블록도 이고, 도 2는 본 발명의 실시예에 따른 사고 현장 모니터링 시스템의 데이터 흐름을 도시한 도면이다. 1 is a block diagram of an accident site monitoring system according to an embodiment of the present invention, and FIG. 2 is a diagram showing a data flow of the accident site monitoring system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 사고 현장 모니터링 시스템(100)은, 도로 상의 음향정보를 수집하는 음향수집부(110)와, 수집한 음향정보를 통해 도로 상의 사고 여부를 판별하는 사고분석부(120)와, 사고 발생 시 처리 방안을 제공하고 수행하는 사고 처리부(130)와, 상기 사고 분석부(120)에서 감지된 결과에 기초하여 활성화되는 수화부(140) 및 영상 수집부(150)를 포함할 수 있다. Referring to FIG. 1 , an accident scene monitoring system 100 according to an embodiment of the present invention includes a sound collection unit 110 that collects sound information on a road and a device that determines whether an accident on the road has occurred through the collected sound information. An accident analysis unit 120, an accident processing unit 130 that provides and performs a handling plan when an accident occurs, a receiver 140 activated based on the result detected by the accident analysis unit 120, and an image collection unit ( 150) may be included.

상기 음향수집부(110)는, 도로 상의 음향 정보를 수집할 수 있다. 상기 음향수집부(110)는 마이크로폰, 오디오 코덱, 마이크로프로세서, 이더넷을 포함할 수 있다. The sound collection unit 110 may collect sound information on the road. The sound collecting unit 110 may include a microphone, an audio codec, a microprocessor, and Ethernet.

상기 마이크로폰은 도로에서 들리는 음향을 전기적 신호로 변환할 수 있다. 상기 마이크로폰은 상기 사고 현장 모니터링 시스템(100)의 외형을 이루는 함체의 상호 대향하는 일면과 타면에 각각 배치될 수 있다. The microphone may convert sound heard from the road into an electrical signal. The microphones may be disposed on one side and the other side of the body that forms the outer shape of the accident site monitoring system 100 and faces each other.

상기 오디오 코덱은 상기 마이크로폰에서 수집한 아날로그 신호를 상기 사고분석부(120)에 전달 및 이를 통해 상기 사고분석부(120)에서 분석이 용이하도록 디지털 정보로 변환시킬 수 있다. The audio codec can transfer the analog signal collected by the microphone to the accident analysis unit 120 and convert it into digital information so that the accident analysis unit 120 can easily analyze it.

상기 마이크로폰 및 상기 오디오 코덱을 통해 수집된 음향 정보는 16bit, 2 channel, 48000sample size로 저장될 수 있다. Acoustic information collected through the microphone and the audio codec may be stored in a 16-bit, 2-channel, 48000 sample size.

상기 마이크로프로세서는 주변칩을 제어하며 데이터 수집하고, 계산을 수행하며, 상기 오디오 코덱으로부터 받은 음향 디지털 데이터를 수신, 메모리에 저장할 수 있다. 또한, 상기 마이크로프로세서는 이더넷을 컨트롤하도록 상기 음향수집부(110)의 CPU 역할을 수행할 수 있다. The microprocessor controls peripheral chips, collects data, performs calculations, and receives and stores sound digital data received from the audio codec in a memory. In addition, the microprocessor may perform a CPU role of the sound collecting unit 110 to control Ethernet.

상기 이더넷은 TCP/IP로 상기 음향수집부(110)와 상기 사고분석부(120), 상기 음향수집부(110)와 외부서버의 통신을 가능하게 한다. The Ethernet enables communication between the sound collecting unit 110 and the accident analysis unit 120, and between the sound collecting unit 110 and an external server through TCP/IP.

상기 음향수집부(110)에는 실시간으로 수집되는 음향을 통해 음압을 측정할 수 있는 기능이 포함될 수 있다. The sound collecting unit 110 may include a function capable of measuring sound pressure through sounds collected in real time.

상기 사고분석부(120)는, 수집, 가공, 분석, 외부 연계인터페이스의 과정을 통해 사고를 분석한다. The accident analysis unit 120 analyzes accidents through processes of collection, processing, analysis, and external linkage interface.

도 2에 도시된 바와 같이, 상기 수집 과정에서는, 상기 음향수집부(110)로부터 수신한 음향 데이터를 MsgManager(210)로 송신할 수 있다. 이로 인해, 상기 MsgManager(210)에서 데이터 가공을 위해 음향 데이터를 필요로 하는 각 프로세스로 음향 데이터를 전달할 수 있다. As shown in FIG. 2 , in the collection process, the sound data received from the sound collection unit 110 may be transmitted to the MsgManager 210 . Accordingly, the MsgManager 210 can transmit audio data to each process requiring audio data for data processing.

상기 각 프로세스는, DBSAVE(220), StreamGW(230), ADSS(240)를 포함할 수 있다. Each of the above processes may include DBSAVE 220, StreamGW 230, and ADSS 240.

상기 DBSAVE(220)에서는 음향 데이터 정보를 1분 단위로 데이터 베이스(260)와 음향 파일로 저장한다.In the DBSAVE 220, sound data information is stored as a database 260 and a sound file every minute.

상기 StreamGW(230)는, 자체 서버로서, 관리자(Client)에게 수집된 실시간 음향 정보를 전달할 수 있다. The StreamGW 230, as its own server, can deliver collected real-time sound information to a manager (Client).

상기 ADSS(240)는 수신한 음향 데이터를 분석하여 사고를 감지하고, 감지된 데이터를 후술할 GWIF(250)로 송신하여 데이터 베이스(260)에 저장할 수 있다. The ADSS 240 analyzes the received acoustic data to detect an accident, transmits the detected data to the GWIF 250 to be described later, and stores the detected data in the database 260.

상기 GWIF(250)는 외부서버로부터 입력된 제어정보와, 트랜잭션의 모든 인터페이스를 담당하여, 제어기 설정 및 데이터 저장 기능을 수행할 수 있다. The GWIF 250 is in charge of control information input from an external server and all interfaces of transactions, and can perform controller setting and data storage functions.

요약하면, 상기 음향수집부(110)로부터 받은 음향 데이터를 각 프로세스로 전달하게 되면, 각 프로세스는 수신한 음향 데이터를 통해 저장, 실시간 스트리밍, 사고 감지의 기능을 수행할 수 있다. 또한, 사고 감지된 데이터는 외부연계 인터페이스를 통해 데이터 베이스(260)에 저장되며, 관리 서버는 저장된 데이터를 데이터 베이스(260)에서 추출하여 관리자에게 전달할 수 있다. In summary, when the acoustic data received from the sound collection unit 110 is transmitted to each process, each process can perform functions of storage, real-time streaming, and accident detection through the received acoustic data. In addition, the accident-detected data is stored in the database 260 through an external interface, and the management server extracts the stored data from the database 260 and delivers it to the manager.

상기 사고분석부(120)의 딥러닝 알고리즘에 대해 설명하기로 한다. The deep learning algorithm of the accident analysis unit 120 will be described.

상기 사고분석부(120)는 CNN(Convolution Neural Network) 또는 RNN(Recurrent Neural Network)의 알고리즘을 통해 사고를 분석할 수 있다. The accident analysis unit 120 may analyze the accident through an algorithm of a convolution neural network (CNN) or a recurrent neural network (RNN).

도 3은 본 발명의 실시예에 따른 메모리 내 데이터 처리 과정을 보인 도면이고, 도 4는 본 발명의 실시예에 따른 Input 데이터의 분류 과정을 보인 도면이며, 도 5는 본 발명의 실시예에 따른 입력값의 구성을 설명하기 위한 도면이고, 도 6은 본 발명의 실시예에 따른 CNN 알고리즘의 구조도 이며, 도 7은 본 발명의 실시예에 따른 CNN 알고리즘을 통한 사고 검지 테스트의 결과표이고, 도 8은 본 발명의 실시예에 따른 CNN 알고리즘을 통한 사고 오검지 테스트의 결과표이며, 도 9는 본 발명의 실시예에 따른 CNN 알고리즘을 통한 사고 테스트의 실험표이다. 3 is a diagram showing a process of processing data in a memory according to an embodiment of the present invention, FIG. 4 is a diagram showing a process of classifying input data according to an embodiment of the present invention, and FIG. 5 is a diagram showing a process of classifying input data according to an embodiment of the present invention. 6 is a structure diagram of a CNN algorithm according to an embodiment of the present invention, and FIG. 7 is a result table of an accident detection test through a CNN algorithm according to an embodiment of the present invention. 8 is a result table of the accident detection test through the CNN algorithm according to an embodiment of the present invention, and FIG. 9 is an experimental table of the accident test through the CNN algorithm according to an embodiment of the present invention.

도 3 내지 9를 참조하여 CNN에 대해 설명하면, 상기 사고분석부(120)에서는 상기 음향수집부(110)에서 전달받은 데이터를 메모리에 저장한다. 그리고, 상기 메모리 내 저장 용량이 0.05초(4800byte)가 되면 이를 분석 프로그램으로 전달한다. 메모리 내 데이터 중 앞 0.05초(2400byte)의 데이터는 제거되고 뒷부분 데이터는 다음 절차를 위하여 보존될 수 있다. Referring to FIGS. 3 to 9, the accident analysis unit 120 stores data received from the sound collection unit 110 in memory. And, when the storage capacity in the memory reaches 0.05 seconds (4800 bytes), it is transferred to the analysis program. Among the data in the memory, the data of the first 0.05 seconds (2400 bytes) is removed, and the latter data can be preserved for the next procedure.

상기 분석 프로그램으로 전달된 데이터는 FFT(Fast Fourier Transform)을 통해 주파수 성분으로 변환될 수 있다. 이 때, 주파수 대역은 300Hz ~ 7kHz일 수 있다. 이로 인해, 약 650 내지 700개의 배열이 생성될 수 있다. 또한, 변경된 데이터는 n*1 사이즈의 벡터로 전환된다. FET 수식은 아래와 같다. Data transmitted to the analysis program may be converted into frequency components through Fast Fourier Transform (FFT). In this case, the frequency band may be 300 Hz to 7 kHz. Due to this, about 650 to 700 arrays can be created. Also, the changed data is converted into a vector of size n*1. The formula for FET is:

FFT 수식 :

Figure 112022015504306-pat00001
, (수식 1)FFT formula:
Figure 112022015504306-pat00001
, (Equation 1)

여기서, n은 수집 음향의 사전분석을 통해 사용할 주파수 대역에 따라 정해지며, 일반적으로 7KHz 내외의 주파수 대역을 사용할 수 있다. 그리고, 0.05초 단위로 묶여있는 데이터를 총 3초간 누적하게 되면 n*1 벡터가 60개 만들어지고 이를 합쳐 n*60 행렬 데이터가 생성될 수 있다.Here, n is determined according to the frequency band to be used through preliminary analysis of the collected sound, and in general, a frequency band of around 7 KHz can be used. In addition, when data bundled in units of 0.05 seconds is accumulated for a total of 3 seconds, 60 n*1 vectors are created, and n*60 matrix data can be generated by combining them.

따라서, 상기 과정을 거쳐 나온 행렬에 대해 딥러닝 기법 중 합성곱 신경망 (CNN, Convolution Neural Network) 기법을 활용하여 사고에 대한 행렬의 패턴을 분석할 수 있다. 여기서, 합성곱 신경망 (CNN, Convolution Neural Network)은 이미지 인식에 활용되는 기법으로 합성곱(Convolution)을 이용하는 인공 신경망의 한 종류이다.Therefore, for the matrix obtained through the above process, the convolutional neural network (CNN) technique among deep learning techniques can be used to analyze the pattern of the matrix for thinking. Here, a Convolution Neural Network (CNN) is a technique used for image recognition and is a type of artificial neural network using convolution.

도 4에서와 같이, 실시간으로 들어온 입력값(3초 데이터, 670*30 행렬)을 딥러닝 학습에서 만들어진 모델에 투입하여 label값(사고 여부 및 종류), 데이터 강도, 확률을 도출한다. 또한 시간의 연속성도 활용하여 라벨값들의 순서를 설정 하고 최종 사고로 판단한다.As shown in FIG. 4, input values (3-second data, 670*30 matrix) input in real time are put into a model created in deep learning learning to derive label values (accident status and type), data intensity, and probability. Also, by utilizing the continuity of time, the order of label values is set and determined as the final accident.

한편, 입력값의 경우, 도 5에 도시된 바와 같이, 최초의 1초의 데이터가 삭제되고 다음의 1초를 덧붙여 다음 3초의 입력값을 구성할 수 있다. 즉, 첫 번째 입력값이 t초부터 t+3초까지의 음향 데이터로 구성이 되었다면 다음 프레임은 t+1초부터 t+4초까지의 음향 데이터로 구성될 수 있다. On the other hand, in the case of an input value, as shown in FIG. 5 , the first 1 second of data is deleted and the next 1 second is added to configure the input value of the next 3 seconds. That is, if the first input value consists of sound data from t seconds to t+3 seconds, the next frame may consist of sound data from t+1 seconds to t+4 seconds.

도 6을 참조하면, Input이 입력값이며, 각각의 선은 노드들이 계산되는 weight와 Activation Function(Sigmoid, Relu 등), 그리고 마지막에 softmax() 함수를 거쳐서 나오는 값으로 어떤 음향의 데이터인지를 예측하게 된다.Referring to FIG. 6, Input is an input value, and each line predicts what kind of sound data it is with the value that comes out through the weight and activation function (Sigmoid, Relu, etc.) for which nodes are calculated, and the softmax() function at the end. will do

도 7은 30초의 사고(스키드 또는 충돌) 음향을 수집기에 입력값으로 투입하였을 때, 알고리즘이 예측하는 출력값과 실제 음향의 값을 나타내고 있다. 7 shows the output value predicted by the algorithm and the actual sound value when 30 seconds of accident (skid or collision) sound is input to the collector as an input value.

도 8은 특정날짜(2019.8.21)의 24시간 음향데이터를 입력값으로 투입했을 때, 알고리즘이 예측하는 출력값과 실제 음향의 값을 비교하고 있다. 8 compares the output value predicted by the algorithm with the actual sound value when 24-hour sound data on a specific date (2019.8.21) is input as an input value.

한편, 사고 위치를 감지하는 알고리즘의 경우, 동일 사고에 대한 최소 두 개 이상의 음향수집부(110)에서 수집한 음향을 통해 이루어질 수 있다. On the other hand, in the case of an algorithm for detecting the location of an accident, sound collected by at least two or more sound collection units 110 for the same accident may be used.

구체적으로, 음향 신호의 경우 전파의 일종으로 최초 발생한 음향에서 거리가 멀어질수록 신호의 세기가 감쇠가 되며, 이는 감쇠율로 표현될 수 있다. Specifically, in the case of a sound signal, as a type of radio wave, the intensity of the signal attenuates as the distance from the initially generated sound increases, which can be expressed as an attenuation rate.

Lp(R2) = Lp(R1) - 20·Log 10 (R2/R1), (여기서, Lp(R1)은 1지점에서의 음압이고, Lp(R2) : 2지점에서의 음압이며, R1 : 발생지점에서 1지점까지의 거리이고, R2 : 발생지점에서 2지점까지의 거리이다.)Lp(R2) = Lp(R1) - 20 Log 10 (R2/R1), (Where Lp(R1) is the sound pressure at point 1, Lp(R2) is the sound pressure at point 2, R1: occurs It is the distance from the point to point 1, and R2: is the distance from the point of occurrence to point 2.)

전파의 경우, 양 방향으로 전달되므로, 음원(Sound source)을 중심으로 양쪽에 각각 하나씩 위치한 음향수집기를 활용할 경우 거리의 절대값을 이용하면 위 식을 활용할 수 있다. In the case of radio waves, since they are transmitted in both directions, the above equation can be used by using the absolute value of the distance when using sound collectors located one on each side with the sound source as the center.

구체적으로, 두 음향수집부(110) 간 거리를 T라고 하고 음원이 두 거리 사이에 위치한다면 R1+R2 = T 또는 R1 = T - R2로 정의할 수 있다.Specifically, if T is the distance between the two sound collection units 110 and the sound source is located between the two distances, it can be defined as R1+R2 = T or R1 = T - R2.

따라서, 두 음향 수깁부(110) 간 거리 T와 각 수집기에서의 음압 (Lp(R1), Lp(R2))을 측정할 수 있다면 하기 식을 이용하여, R1과 R2를 구함으로써 음원 발생 지점, 즉 사고 발생 지점을 특정해낼 수 있다.Therefore, if the distance T between the two sound receivers 110 and the sound pressure (Lp(R1), Lp(R2)) in each collector can be measured, R1 and R2 are calculated using the following equation, In other words, it is possible to specify the point where the accident occurred.

Lp(R2) = Lp(R1) - 20·Log 10 (T-R1/R1) Lp(R2) = Lp(R1) - 20 Log 10 (T-R1/R1)

이에 따라, 상기 사고분석부(120)는 위 알고리즘을 통하여 파악한 사고 내용과, 사고 발생 지점을 상기 영상수집부(150) 또는 상기 사고처리부(130)로 송신할 수 있다. Accordingly, the accident analysis unit 120 may transmit the contents of the accident identified through the above algorithm and the accident occurrence point to the image collection unit 150 or the accident processing unit 130 .

이하에서는 RNN 알고리즘을 통하여 사고를 감지하는 과정에 대해 설명하기로 한다. Hereinafter, the process of detecting accidents through the RNN algorithm will be described.

도 10는 본 발명의 실시예에 따른 RNN 알고리즘 내 행렬 데이터의 예시도 이고, 도 11은 본 발명의 실시예에 따른 신경망 구조를 도식화한 도면이다. 10 is an exemplary diagram of matrix data in the RNN algorithm according to an embodiment of the present invention, and FIG. 11 is a schematic diagram of a neural network structure according to an embodiment of the present invention.

도 10 및 11을 참조하여 RNN에 대해 설명하면, 입력값이 시간과 같이 순차적인 성질을 가진 경우, 이전 입력값은 다음 입력값에 영향을 미친다. 기존 DNN은 이러한 시간적 의존성을 반영하지 못하는 것에 비해 순환 신경망(RNN)은 순환 레이어를 통해 이전 입력값의 상태를 고려하여 사고 여부를 판단할 수 있다. Referring to FIGS. 10 and 11, when an input value has a sequential property such as time, the previous input value affects the next input value. Conventional DNNs do not reflect this temporal dependence, but recurrent neural networks (RNNs) can determine whether there is an accident by considering the state of previous input values through a recurrent layer.

먼저, 고속 푸리에 변환(FFT)을 통해 시간 도메인에 있던 음향 데이터를 주파수 도메인의 값으로 변환하고 이 때, 주파수 대역은 300Hz ~ 7kHz일 수 있다. 이로 인해, 약 650 내지 700개의 배열이 생성될 수 있다. 이를 이용하여 길이가 3초인 음향 데이터를 변환한다. First, acoustic data in the time domain is converted into values in the frequency domain through fast Fourier transform (FFT), and at this time, the frequency band may be 300 Hz to 7 kHz. Due to this, about 650 to 700 arrays can be created. Using this, sound data with a length of 3 seconds is converted.

이를 행렬로 표현하여 입력값으로 사용될 수 있다. 즉, 길이가 30초인 하나의 음향 데이터로부터 670x30의 행렬 데이터를 2초씩 중복하여 28개 생성될 수 있다. This can be expressed as a matrix and used as an input value. That is, 28 pieces of 670x30 matrix data of 2 seconds each may be generated from one piece of sound data having a length of 30 seconds.

순환 신경망(RNN, Recurrent Neural Network)은 입력값으로부터 가중치를 곱하고 편향을 더하여 계산된 히든 스테이트(hidden state)와 이전 히든 스테이트에 가중치를 곱하여 더한 것에 활성 함수로 쌍곡탄젠트(hyperbolic tangent)를 사용하여 나온 결과가 다음 히든 스테이트가 됨으로써, 시간적 의존성을 고려할 수 있다.A Recurrent Neural Network (RNN) uses the hyperbolic tangent as an activation function to the hidden state calculated by multiplying the weights from the input values and adding the bias, and the previous hidden state by multiplying the weights and adding them. As the result becomes the next hidden state, temporal dependence can be considered.

따라서, 임의의 시점 t의 히든 스테이트를 식으로 나타내면 다음과 같다. Therefore, the expression of the hidden state at an arbitrary point in time t is as follows.

Figure 112022015504306-pat00002
)
Figure 112022015504306-pat00002
)

활성함수로 ReLU를 사용하는 CNN과 달리 RNN는 쌍곡탄젠트 함수를 사용한다. 이 때, 쌍곡탄젠트 함수의 식은 다음과 같다. Unlike CNN, which uses ReLU as an activation function, RNN uses hyperbolic tangent function. At this time, the expression of the hyperbolic tangent function is as follows.

f(x)=tanh(x)f(x)=tanh(x)

이를 전체 입력값에 대하여 도식화한 신경망 구조는 도 11에 도시되어 있다. The neural network structure schematized for all input values is shown in FIG. 11 .

따라서, 도 10의 최후 출력값 y28에 따라 사고 여부를 예측할 수 있다. Therefore, it is possible to predict whether or not an accident occurs according to the last output value y28 of FIG. 10 .

상기 사고분석부(120)에서 감지된 결과에 기초하여, 도로(터널) 내 사고 발생이 감지될 경우, 수화부(140)가 활성화될 수 있다. Based on the result detected by the accident analysis unit 120, when an accident in the road (tunnel) is detected, the receiver 140 may be activated.

상기 수화부(140)는 스피커, 카메라 및 제어버튼을 포함할 수 있다. The receiver 140 may include a speaker, a camera, and control buttons.

상기 수화부(140)가 활성화되면, 사용자는 상기 음향수집부(110)를 통해 관리자에게 사고 알림을 포함한 도로 상황을 구체적으로 전달할 수 있다. 본 실시예에 따르면, 터널 내 사용자 음성을 수신하기 위한 별도 마이크가 필요한 것이 아닌, 상기 음향수집부(110)만으로 사용자 음성을 수신할 수 있어, 부품수를 감소시킬 수 있는 장점이 있다. When the receiver 140 is activated, the user can specifically deliver road conditions including accident notifications to the manager through the sound collection unit 110 . According to the present embodiment, a separate microphone for receiving a user's voice in a tunnel is not required, and the user's voice can be received only by the sound collecting unit 110, so the number of parts can be reduced.

따라서, 상기 수화부(140)의 활성화 시, 상기 음향수집부(110)가 마이크 기능을 하여 사고 당사자 또는 사고 발견자의 음성 및 현장 소리를 관리자에게 전달할 수 있다. Accordingly, when the receiver 140 is activated, the sound collection unit 110 can function as a microphone to deliver the voice of the person involved in the accident or the discoverer of the accident and the sound of the scene to the manager.

또한, 사고 당사자 또는 사고 발견자는 상기 스피커를 통해 관리자의 음성을 수신할 수 있다. In addition, an accident party or an accident finder may receive a manager's voice through the speaker.

나아가, 상기 음향기반 도로 사고 자동 검지 시스템(100)의 외면에는 전방 촬영을 위한 카메라가 배치될 수 있으며, 카메라를 통해 사고 당사자 또는 사고 발견자, 사고 현장이 촬영될 수 있다. Furthermore, a camera for forward shooting may be disposed on the outer surface of the sound-based automatic road accident detection system 100, and the accident party, the accident finder, and the scene of the accident may be photographed through the camera.

또한, 상기 음향기반 도로 사고 자동 검지 시스템(100)은 제어버튼을 포함하며, 사용자는 상기 제어버튼의 조작을 통해 상기 수화부(140)를 활성화하거나, 상기 스피커의 음량, 상기 음향수집부(110)로의 입력 음량을 조절할 수 있다. In addition, the sound-based automatic road accident detection system 100 includes a control button, and the user activates the receiver 140 through manipulation of the control button, or controls the volume of the speaker and the sound collection unit 110. You can adjust the volume of the input to Rho.

한편, 원활한 양 방향 음성 통신을 위해, 상기 수화부(140)의 활성화 시, 상기 음향수집부(110)의 수신 감도는 사고 감지 모드일 때 보다 높게 형성될 수 있다. Meanwhile, for smooth two-way voice communication, when the receiver 140 is activated, the reception sensitivity of the sound collection unit 110 may be higher than that in the accident detection mode.

상기 사고분석부(120)에서 감지된 결과에 기초하여, 도로(터널) 내 사고 발생이 감지될 경우, 사고 현장의 모니터링을 위한 영상수집부(150)가 활성화될 수 있다. Based on the result detected by the accident analysis unit 120, when an accident in the road (tunnel) is detected, the image collection unit 150 for monitoring the accident site may be activated.

도 12는 본 발명의 실시예에 따른 터널 내 영상수집부의 설치 모습을 도시한 단면도 이고, 도 13은 본 발명의 실시예에 따른 터널 내 영상수집부의 설치 모습을 도시한 측면도 이다. 12 is a cross-sectional view showing installation of an image collection unit in a tunnel according to an embodiment of the present invention, and FIG. 13 is a side view showing installation of an image collection unit in a tunnel according to an embodiment of the present invention.

도 12 및 도 13을 참조하면, 상기 영상수집부(150)는 터널 내 배치될 수 있다. 상기 영상수집부(150)는 상기 터널의 벽면에 설치될 수 있다. Referring to FIGS. 12 and 13 , the image collecting unit 150 may be disposed in a tunnel. The image collection unit 150 may be installed on the wall of the tunnel.

상기 영상수집부(150)는 레일(152), 암(arm)(154), 카메라(156)를 포함할 수 있다. The image collection unit 150 may include a rail 152 , an arm 154 , and a camera 156 .

상기 레일(152)은 상기 터널의 벽면에 설치될 수 있다. 상기 레일(152)은 상기 터널의 천정면 또는 측벽의 내면에 설치될 수 있다. 일 예로, 상기 터널이 반원형의 단면 형상을 가진다 할 때, 상기 레일(152)을 포함한 상기 영상수집부(150) 내 구성들은 상기 터널 내부로 광을 조사하는 광원(160) 보다는 하측에 배치되고, 상기 음향수집부(110) 보다는 상측에 배치될 수 있다. 상기 레일(152)의 표면에는 상기 암(154) 및 상기 카메라(156)가 슬라이드 이동될 수 있도록, 홈 또는 돌기가 형성될 수 있다. The rail 152 may be installed on a wall surface of the tunnel. The rail 152 may be installed on the ceiling surface of the tunnel or the inner surface of the side wall. For example, when the tunnel has a semicircular cross-sectional shape, components in the image collecting unit 150 including the rail 152 are disposed below the light source 160 for radiating light into the tunnel, It may be disposed above the sound collecting unit 110 . Grooves or protrusions may be formed on the surface of the rail 152 so that the arm 154 and the camera 156 can slide.

상기 레일(152)은 상기 터널의 입구부로부터 출구부까지로 정의되는 구간 내 단일 라인으로 형성될 수 있다. 그러나, 이는 예시적인 것이며, 상기 레일(152)은 복수로 구비되어, 상호 이웃하게 배치될 수 있다. 이 경우, 복수의 레일(152) 각각에 상기 암(154) 및 카메라(156)가 구비될 수 있다. The rail 152 may be formed as a single line within a section defined from the entrance to the exit of the tunnel. However, this is exemplary, and the rails 152 may be provided in plural and disposed adjacent to each other. In this case, the arm 154 and the camera 156 may be provided on each of the plurality of rails 152 .

상기 레일(152)에는 상기 카메라(156)와 전기적으로 연결되는 전원부(미도시)가 구비될 수 있다. 이에 따라, 상기 전원부를 통해 상기 카메라(156)로 전원이 제공되거나, 상기 카메라(156)가 충전될 수 있다. 상기 카메라(156)의 충전은 사고가 발생되지 않은 평상시에 이루어질 수 있다. A power supply unit (not shown) electrically connected to the camera 156 may be provided on the rail 152 . Accordingly, power may be supplied to the camera 156 through the power supply unit or the camera 156 may be charged. Charging of the camera 156 may be performed at normal times when an accident does not occur.

상기 암(154)은 일단이 상기 레일(152)과 결합되고, 타단이 상기 카메라(156)와 결합될 수 있다. 상기 암(154)은 상기 레일(152)을 따라 슬라이드 이동될 수 있다. The arm 154 may have one end coupled to the rail 152 and the other end coupled to the camera 156 . The arm 154 may slide along the rail 152 .

상기 카메라(156)는 상기 암(154)의 타단에 배치되며, 상기 터널 내 공간을 촬영할 수 있다. 상기 카메라(156)는 상기 암(154)과 함께 상기 레일(152)을 따라 이동될 수 있다. 상기 카메라(156)는 열화상 카메라, 적외선 카메라 등을 포함할 수 있으며, 외면 상에 연기의 발생 여부를 감지할 수 있는 연기 검지기가 구비될 수 있다. The camera 156 is disposed at the other end of the arm 154 and can photograph the space within the tunnel. The camera 156 may be moved along the rail 152 together with the arm 154 . The camera 156 may include a thermal imaging camera, an infrared camera, and the like, and a smoke detector capable of detecting whether or not smoke is generated may be provided on the outer surface.

상기 카메라(156)는 지면에 대해 수평 방향으로 상기 암(154)에 대하여 회전할 수 있다.The camera 156 may rotate with respect to the arm 154 in a horizontal direction with respect to the ground.

따라서, 상기 음향수집부(110)에서 수집된 음향 정보에 기초하여 상기 사고분석부(120)에서 특정 지점에 사고 발생이 감지된 경우라고 판단되면, 상기 암(154) 및 상기 카메라(156)가 상기 레일(152)을 따라 사고가 발생된 특정 지점으로 이동하여 사고 영역을 촬영할 수 있다. Therefore, when it is determined that an accident is detected at a specific point in the accident analysis unit 120 based on the acoustic information collected by the sound collection unit 110, the arm 154 and the camera 156 The accident area can be photographed by moving to a specific point where an accident occurred along the rail 152 .

한편, 관리자의 편의를 위해, 상기 암(154) 및 상기 카메라(156)는 유선 또는 무선으로 상기 레일(152)에서의 이동이 제어될 수 있다. Meanwhile, for the convenience of a manager, the movement of the arm 154 and the camera 156 on the rail 152 may be controlled wired or wirelessly.

상기와 같은 구조에 따르면, 사고 발생 지점을 신속하게 촬영하여 관리자가 모니터링할 수 있으므로, 사고 발생 시 즉각적인 대응이 가능한 장점이 있다. According to the structure as described above, since the accident occurrence point can be rapidly photographed and monitored by a manager, there is an advantage in that an immediate response is possible in the event of an accident.

또한 종래 대비 다수의 CCTV를 구비하지 않더라도, 카메라의 이동에 의해 터널 내 전 영역을 근접 촬영할 수 있으므로, 설치 및 유지에 필요한 경제적 비용을 절감할 수 있는 장점이 있다. In addition, even if a plurality of CCTVs are not provided compared to the prior art, since the entire area in the tunnel can be closely photographed by moving the camera, there is an advantage in that the economic cost required for installation and maintenance can be reduced.

이상에서, 본 발명의 실시 예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 이상에서 기재된 '포함하다', '구성하다' 또는 '가지다' 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재할 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. In the above, even though all the components constituting the embodiment of the present invention have been described as being combined or operated as one, the present invention is not necessarily limited to these embodiments. That is, within the scope of the object of the present invention, all of the components may be selectively combined with one or more to operate. In addition, terms such as 'include', 'comprise' or 'having' described above mean that the corresponding component may be present unless otherwise stated, and thus exclude other components. It should be construed as being able to further include other components. All terms, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the art to which the present invention belongs, unless defined otherwise. Commonly used terms, such as terms defined in a dictionary, should be interpreted as being consistent with the contextual meaning of the related art, and unless explicitly defined in the present invention, they are not interpreted in an ideal or excessively formal meaning.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an example of the technical idea of the present invention, and various modifications and variations can be made to those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed according to the claims below, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.

Claims (5)

터널 내 음향 정보를 수집하는 음향수집부;
상기 터널 내 광을 조사하는 광원;
상기 음향 정보를 통해 터널 내 사고 여부를 판별하는 사고분석부;
상기 사고분석부에서 감지된 결과에 기초하여 활성화되는 수화부; 및
상기 사고분석부에서 감지된 정보에 기초하여, 터널 내 사고 발생 영역을 촬영하는 영상수집부를 포함하며,
상기 영상수집부는, 레일과, 상기 레일을 따라 이동하는 카메라를 포함하고,
상기 레일은, 상기 터널의 입구부로부터 출구부까지 정의되는 구간 내에서 상기 터널의 벽면에 라인을 형성하도록 배치되고,
상기 영상수집부는 상기 광원 보다 하측에 배치되고, 상기 음향수집부 보다 상측에 배치되고,
상기 사고분석부를 통하여 사고 발생이 감지될 경우, 상기 수화부가 활성화되어, 상기 음향수집부를 통한 상기 터널 내 사용자의 음성이 수신되고,
상기 수화부의 활성화 시, 상기 음향수집부의 수신 감도는 상기 수화부의 비활성화일 때 보다 높게 형성되는 사고 현장 모니터링 시스템.
a sound collection unit that collects sound information within the tunnel;
a light source radiating light within the tunnel;
an accident analysis unit that determines whether or not there is an accident in the tunnel through the sound information;
a receiving unit activated based on the result detected by the accident analysis unit; and
Based on the information detected by the accident analysis unit, it includes an image collection unit for photographing an accident area in the tunnel,
The image collection unit includes a rail and a camera moving along the rail,
The rail is arranged to form a line on the wall surface of the tunnel within a section defined from the entrance to the exit of the tunnel,
The image collection unit is disposed below the light source and above the sound collection unit,
When an accident occurrence is detected through the accident analysis unit, the receiver unit is activated and the user's voice in the tunnel is received through the sound collection unit,
When the receiver is activated, the reception sensitivity of the sound collector is higher than when the receiver is deactivated.
삭제delete 삭제delete 삭제delete 제 1 항에 있어서,
상기 사고분석부는,
상기 음향 정보를 1분 단위로 데이터 베이스에 저장하는 DBSAVE;
실시간 음향 정보를 전달하는 StreamGW; 및
상기 음향 정보를 분석하여 사고를 감지하는 ADSS를 포함하며,
상기 ADSS 내 사고 분석 알고리즘은 CNN(Convolution Neural Network) 또는 RNN(Recurrent Neural Network)을 통해 이루어지는 사고 현장 모니터링 시스템.
According to claim 1,
The accident analysis department,
DBSAVE for storing the sound information in a database in units of 1 minute;
StreamGW delivering real-time sound information; and
Includes an ADSS that analyzes the acoustic information to detect an accident,
The accident analysis algorithm in the ADSS is an accident site monitoring system performed through a convolution neural network (CNN) or a recurrent neural network (RNN).
KR1020220018023A 2022-02-11 2022-02-11 Accident Site Monitoring System KR102477416B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220018023A KR102477416B1 (en) 2022-02-11 2022-02-11 Accident Site Monitoring System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220018023A KR102477416B1 (en) 2022-02-11 2022-02-11 Accident Site Monitoring System

Publications (1)

Publication Number Publication Date
KR102477416B1 true KR102477416B1 (en) 2022-12-15

Family

ID=84439699

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220018023A KR102477416B1 (en) 2022-02-11 2022-02-11 Accident Site Monitoring System

Country Status (1)

Country Link
KR (1) KR102477416B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001078058A (en) * 1999-09-03 2001-03-23 Mitsubishi Electric Corp Mobile camera apparatus
JP2006217546A (en) * 2005-02-07 2006-08-17 Seiko Instruments Inc Surveillance camera
KR20190046569A (en) * 2017-10-26 2019-05-07 광주과학기술원 Acoustic Tunnel Accident Detection System

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001078058A (en) * 1999-09-03 2001-03-23 Mitsubishi Electric Corp Mobile camera apparatus
JP2006217546A (en) * 2005-02-07 2006-08-17 Seiko Instruments Inc Surveillance camera
KR20190046569A (en) * 2017-10-26 2019-05-07 광주과학기술원 Acoustic Tunnel Accident Detection System

Similar Documents

Publication Publication Date Title
CN108615321B (en) Security pre-warning system and method based on radar detecting and video image behavioural analysis
CN109686109B (en) Parking lot safety monitoring management system and method based on artificial intelligence
KR101895811B1 (en) A high performance large coverage surveillance system
KR102138342B1 (en) IoT-based tunnel accident monitoring and facility autonomous inspection system using intelligent remote terminal device
CN110085029B (en) Highway inspection system and method based on rail type inspection robot
CN106656310B (en) Unmanned aerial vehicle task execution method and system
US11377210B2 (en) Monitoring system and mobile robot device
WO1997008896A1 (en) Open area security system
KR102335994B1 (en) Integrated control apparatus of surveillance devices for drone surveillance
JP2006525589A (en) Event detection system
US8854218B1 (en) Detection system
KR101283965B1 (en) Adaptive Accident Detecting System And Method thereof
KR101687296B1 (en) Object tracking system for hybrid pattern analysis based on sounds and behavior patterns cognition, and method thereof
WO2020139206A1 (en) System and method of live human detection for disaster emergency search and rescue
KR102276633B1 (en) Rail-based unmaned intelligent autonomous vehicle apparatus with multiple cameras and multiple composite sensors and method thereof
CN112330930A (en) Urban tunnel traffic monitoring method, system and platform
CN110164071B (en) Security protection system
CN211630273U (en) Intelligent image recognition device for railway environment
CN113990018A (en) Safety risk prediction system
CN112263803A (en) Unmanned vehicle intelligent security system based on real-time scene inspection and automatic detection fire extinguishing and control method
JP2016066312A (en) Security system and security method
KR102477416B1 (en) Accident Site Monitoring System
KR101792427B1 (en) Emergency Bell System
KR20200069464A (en) Disaster response robot and control device and methods thereof for first response
Suliman et al. Detection of impulsive sounds in stream of audio signals

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant