KR102477416B1 - Accident Site Monitoring System - Google Patents
Accident Site Monitoring System Download PDFInfo
- Publication number
- KR102477416B1 KR102477416B1 KR1020220018023A KR20220018023A KR102477416B1 KR 102477416 B1 KR102477416 B1 KR 102477416B1 KR 1020220018023 A KR1020220018023 A KR 1020220018023A KR 20220018023 A KR20220018023 A KR 20220018023A KR 102477416 B1 KR102477416 B1 KR 102477416B1
- Authority
- KR
- South Korea
- Prior art keywords
- accident
- tunnel
- sound
- collection unit
- unit
- Prior art date
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 17
- 238000004458 analytical method Methods 0.000 claims abstract description 25
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 230000000306 recurrent effect Effects 0.000 claims description 5
- 102100020786 Adenylosuccinate synthetase isozyme 2 Human genes 0.000 claims description 4
- 230000035945 sensitivity Effects 0.000 claims description 2
- 230000004044 response Effects 0.000 abstract description 3
- 238000000034 method Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 13
- 238000001514 detection method Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 238000009434 installation Methods 0.000 description 10
- 239000011159 matrix material Substances 0.000 description 8
- 238000012545 processing Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 239000000779 smoke Substances 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G06N3/0472—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
- H04N7/185—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Signal Processing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Tourism & Hospitality (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Alarm Systems (AREA)
Abstract
Description
본 실시예는 사고 현장 모니터링 시스템에 관한 것이다.This embodiment relates to an accident scene monitoring system.
현재 도로터널 방재시설 설치 및 관리지침(국토교통부예규, 제308호)에 따르면 모든 방재등급 3등급 이상의 도로터널은 CCTV(감시용 텔레비전 설비)와 유고감지설비를 설치하도록 규정하고 있다.According to the current road tunnel disaster prevention facility installation and management guidelines (Ministry of Land, Infrastructure and Transport Regulations, No. 308), all road tunnels with a disaster prevention level of 3 or higher are required to install CCTVs (TV equipment for monitoring) and accident detection equipment.
터널 내 CCTV(감시용 텔레비전 설비)의 설치 목적은 터널 내 재해 발생 시 상황을 파악하고 사고발생 유무를 감시하기 위함이다.The purpose of installing CCTV (TV equipment for monitoring) in the tunnel is to grasp the situation in the event of a disaster in the tunnel and to monitor the occurrence of an accident.
또한, 터널 내 유고감지설비의 설치 목적은 터널에 설치된 CCTV 영상정보 또는 주파수를 이용하여 수신된 검지데이터를 실시간으로 분석하여 설정된 유고상황 발생시 자동으로 관리시스템으로 알리기 위함이다.In addition, the purpose of installing the accident detection equipment in the tunnel is to analyze the received detection data in real time using the CCTV image information or frequency installed in the tunnel and automatically inform the management system when a set accident situation occurs.
터널 내 CCTV(감시용 텔레비전 설비)의 설치간격은 200m 내지 400m를 표준으로 하며, 터널 입·출구부의 교통흐름 또한 확인될 수 있도록 터널 입·출구부로부터 500m 이내의 지점에도 CCTV가 설치된다.The installation interval of CCTVs (monitoring television equipment) in the tunnel is 200m to 400m as a standard, and CCTVs are also installed at points within 500m from the entrance and exit of the tunnel so that the traffic flow at the entrance and exit of the tunnel can also be checked.
그러나, CCTV는 도로상의 차량의 흐름을 파악하기에 용이할 뿐, 유고 발생여부의 확인을 위한 CCTV의 촬영 거리가 충분히 길지 않아, 유고 발생 지점과, 유고 발생 상황을 명확하게 파악하는 것이 어려운 문제점이 있다. However, CCTV is easy to grasp the flow of vehicles on the road, but the shooting distance of CCTV is not long enough to confirm the occurrence of an accident, so it is difficult to clearly identify the location of the accident and the situation where the accident occurred. there is.
또한 CCTV는 설치지점에 고정되어 있으므로, 터널의 선형 및 종단경사와 같은 지형적 요인과, 도로 상의 장애물이나 통행차량에 같은 요인에 의해 촬영을 위한 시야가 가려지는 상황이 발생될 수 있다.In addition, since the CCTV is fixed at the installation point, a situation in which the view for filming may be blocked by topographical factors such as the linear and longitudinal slopes of the tunnel and factors such as obstacles or passing vehicles on the road may occur.
그럴 경우 실제 터널 관리자가 현장에 직접 출동해야하는 상황이 발생할 수 있으며 그에 걸리는 시간만큼 사고처리가 늦어져 후속차량에 의한 2차사고의 위험성과, 사고 피해자의 응급구조가 늦어져 사망사고로 발생할 여지가 있다.In this case, a situation may arise in which the tunnel manager has to be dispatched directly to the site, and the accident handling is delayed by the amount of time it takes, resulting in a risk of a secondary accident by a follow-up vehicle and a delay in the emergency rescue of the accident victim, resulting in a fatal accident. .
나아가, 터널 내에서 일정한 간격을 두고 CCTV(감시용 텔레비전 설비)를 복수개 설치해야 하므로, 실제 사고가 발생하지 않는 지역에도 불필요한 장비 설치가 의무적으로 이루어져야 하는 문제로 인해 설치, 유지 및 보수에 많은 비용이 발생된다. Furthermore, since a plurality of CCTVs (surveillance television equipment) must be installed at regular intervals in the tunnel, installation, maintenance, and repair are costly due to the problem that unnecessary equipment must be installed even in areas where actual accidents do not occur. occurs
본 발명은 상기와 같은 문제점을 개선하기 위하여 제안된 것으로서, 상황 발생 시 신속한 파악이 가능하여, 사고에 대한 대응이 즉각적으로 이루어질 수 있는 사고 현장 모니터링 시스템에 관한 것이다. The present invention has been proposed to improve the above problems, and relates to an accident site monitoring system capable of promptly grasping a situation and responding to an accident immediately.
본 실시예에 따른 사고 현장 모니터링 시스템은, 터널 내 음향 정보를 수집하는 음향수집부; 상기 음향 정보를 통해 터널 내 사고 여부를 판별하는 사고분석부; 및 상기 사고분석부에서 감지된 정보에 기초하여, 터널 내 사고 발생 영역을 촬영하는 영상수집부를 포함하며, 상기 영상수집부는, 레일과, 상기 레일을 따라 이동하는 카메라를 포함한다. The accident site monitoring system according to the present embodiment includes a sound collection unit for collecting sound information in a tunnel; an accident analysis unit that determines whether or not there is an accident in the tunnel through the sound information; And based on the information detected by the accident analysis unit, a video collection unit for photographing an accident area in the tunnel, wherein the video collection unit includes a rail and a camera moving along the rail.
본 실시예를 통해 사고 발생 지점을 신속하게 촬영하여 관리자가 모니터링할 수 있으므로, 사고 발생 시 즉각적인 대응이 가능한 장점이 있다. Since the accident occurrence point can be rapidly photographed and monitored by the manager through this embodiment, there is an advantage in that an immediate response can be made in the event of an accident.
또한 종래 대비 다수의 CCTV를 구비하지 않더라도, 카메라의 이동에 의해 터널 내 전 영역을 근접 촬영할 수 있으므로, 설치 및 유지에 필요한 경제적 비용을 절감할 수 있는 장점이 있다. In addition, even if a plurality of CCTVs are not provided compared to the prior art, since the entire area in the tunnel can be closely photographed by moving the camera, there is an advantage in that the economic cost required for installation and maintenance can be reduced.
도 1은 본 발명의 실시예에 따른 사고 현장 모니터링 시스템의 블록도.
도 2는 본 발명의 실시예에 따른 사고 현장 모니터링 시스템의 데이터 흐름을 도시한 도면.
도 3은 본 발명의 실시예에 따른 메모리 내 데이터 처리 과정을 보인 도면.
도 4는 본 발명의 실시예에 따른 Input 데이터의 분류 과정을 보인 도면.
도 5는 본 발명의 실시예에 따른 입력값의 구성을 설명하기 위한 도면.
도 6은 본 발명의 실시예에 따른 CNN 알고리즘의 구조도.
도 7은 본 발명의 실시예에 따른 CNN 알고리즘을 통한 사고 검지 테스트의 결과표.
도 8은 본 발명의 실시예에 따른 CNN 알고리즘을 통한 사고 오검지 테스트의 결과표.
도 9는 본 발명의 실시예에 따른 CNN 알고리즘을 통한 사고 테스트의 실험표.
도 10은 본 발명의 실시예에 따른 RNN 알고리즘 내 행렬 데이터의 예시도.
도 11은 본 발명의 실시예에 따른 신경망 구조를 도식화한 도면.
도 12는 본 발명의 실시예에 따른 터널 내 영상수집부의 설치 모습을 도시한 단면도.
도 13은 본 발명의 실시예에 따른 터널 내 영상수집부의 설치 모습을 도시한 측면도.1 is a block diagram of an accident site monitoring system according to an embodiment of the present invention;
Figure 2 is a diagram showing the data flow of the accident site monitoring system according to an embodiment of the present invention.
3 is a diagram showing a process of processing data in a memory according to an embodiment of the present invention;
4 is a diagram showing a process of classifying input data according to an embodiment of the present invention.
5 is a diagram for explaining the configuration of input values according to an embodiment of the present invention;
6 is a structural diagram of a CNN algorithm according to an embodiment of the present invention.
7 is a result table of an accident detection test through a CNN algorithm according to an embodiment of the present invention.
8 is a result table of an accident false detection test through a CNN algorithm according to an embodiment of the present invention.
9 is an experimental table of a thought test through a CNN algorithm according to an embodiment of the present invention.
10 is an exemplary diagram of matrix data in the RNN algorithm according to an embodiment of the present invention.
11 is a schematic diagram of a neural network structure according to an embodiment of the present invention.
12 is a cross-sectional view showing the installation of an image collection unit in a tunnel according to an embodiment of the present invention.
13 is a side view illustrating installation of an image collection unit in a tunnel according to an embodiment of the present invention.
이하, 본 발명의 일부 실시 예들을 예시적인 도면을 통해 설명한다. 각 도면의 구성요소들에 참조부호를 기재함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호로 표시한다.Hereinafter, some embodiments of the present invention will be described through exemplary drawings. In describing the reference numerals for the components of each drawing, the same numerals indicate the same components as much as possible, even if they are displayed on different drawings.
또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결, 결합 또는 접속될 수 있지만, 그 구성 요소와 그 다른 구성요소 사이에 또 다른 구성 요소가 '연결', '결합' 또는 '접속'될 수도 있다고 이해되어야 할 것이다.Also, terms such as first, second, A, B, (a), and (b) may be used to describe components of an embodiment of the present invention. These terms are only used to distinguish the component from other components, and the nature, order, or order of the corresponding component is not limited by the term. When an element is described as being 'connected', 'coupled' or 'connected' to another element, the element may be directly connected, coupled or connected to the other element, but not between the element and the other element. It should be understood that another component may be 'connected', 'coupled' or 'connected' between elements.
도 1은 본 발명의 실시예에 따른 사고 현장 모니터링 시스템의 블록도 이고, 도 2는 본 발명의 실시예에 따른 사고 현장 모니터링 시스템의 데이터 흐름을 도시한 도면이다. 1 is a block diagram of an accident site monitoring system according to an embodiment of the present invention, and FIG. 2 is a diagram showing a data flow of the accident site monitoring system according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시예에 따른 사고 현장 모니터링 시스템(100)은, 도로 상의 음향정보를 수집하는 음향수집부(110)와, 수집한 음향정보를 통해 도로 상의 사고 여부를 판별하는 사고분석부(120)와, 사고 발생 시 처리 방안을 제공하고 수행하는 사고 처리부(130)와, 상기 사고 분석부(120)에서 감지된 결과에 기초하여 활성화되는 수화부(140) 및 영상 수집부(150)를 포함할 수 있다. Referring to FIG. 1 , an accident
상기 음향수집부(110)는, 도로 상의 음향 정보를 수집할 수 있다. 상기 음향수집부(110)는 마이크로폰, 오디오 코덱, 마이크로프로세서, 이더넷을 포함할 수 있다. The
상기 마이크로폰은 도로에서 들리는 음향을 전기적 신호로 변환할 수 있다. 상기 마이크로폰은 상기 사고 현장 모니터링 시스템(100)의 외형을 이루는 함체의 상호 대향하는 일면과 타면에 각각 배치될 수 있다. The microphone may convert sound heard from the road into an electrical signal. The microphones may be disposed on one side and the other side of the body that forms the outer shape of the accident
상기 오디오 코덱은 상기 마이크로폰에서 수집한 아날로그 신호를 상기 사고분석부(120)에 전달 및 이를 통해 상기 사고분석부(120)에서 분석이 용이하도록 디지털 정보로 변환시킬 수 있다. The audio codec can transfer the analog signal collected by the microphone to the
상기 마이크로폰 및 상기 오디오 코덱을 통해 수집된 음향 정보는 16bit, 2 channel, 48000sample size로 저장될 수 있다. Acoustic information collected through the microphone and the audio codec may be stored in a 16-bit, 2-channel, 48000 sample size.
상기 마이크로프로세서는 주변칩을 제어하며 데이터 수집하고, 계산을 수행하며, 상기 오디오 코덱으로부터 받은 음향 디지털 데이터를 수신, 메모리에 저장할 수 있다. 또한, 상기 마이크로프로세서는 이더넷을 컨트롤하도록 상기 음향수집부(110)의 CPU 역할을 수행할 수 있다. The microprocessor controls peripheral chips, collects data, performs calculations, and receives and stores sound digital data received from the audio codec in a memory. In addition, the microprocessor may perform a CPU role of the
상기 이더넷은 TCP/IP로 상기 음향수집부(110)와 상기 사고분석부(120), 상기 음향수집부(110)와 외부서버의 통신을 가능하게 한다. The Ethernet enables communication between the
상기 음향수집부(110)에는 실시간으로 수집되는 음향을 통해 음압을 측정할 수 있는 기능이 포함될 수 있다. The
상기 사고분석부(120)는, 수집, 가공, 분석, 외부 연계인터페이스의 과정을 통해 사고를 분석한다. The accident analysis unit 120 analyzes accidents through processes of collection, processing, analysis, and external linkage interface.
도 2에 도시된 바와 같이, 상기 수집 과정에서는, 상기 음향수집부(110)로부터 수신한 음향 데이터를 MsgManager(210)로 송신할 수 있다. 이로 인해, 상기 MsgManager(210)에서 데이터 가공을 위해 음향 데이터를 필요로 하는 각 프로세스로 음향 데이터를 전달할 수 있다. As shown in FIG. 2 , in the collection process, the sound data received from the
상기 각 프로세스는, DBSAVE(220), StreamGW(230), ADSS(240)를 포함할 수 있다. Each of the above processes may include DBSAVE 220, StreamGW 230, and ADSS 240.
상기 DBSAVE(220)에서는 음향 데이터 정보를 1분 단위로 데이터 베이스(260)와 음향 파일로 저장한다.In the DBSAVE 220, sound data information is stored as a
상기 StreamGW(230)는, 자체 서버로서, 관리자(Client)에게 수집된 실시간 음향 정보를 전달할 수 있다. The StreamGW 230, as its own server, can deliver collected real-time sound information to a manager (Client).
상기 ADSS(240)는 수신한 음향 데이터를 분석하여 사고를 감지하고, 감지된 데이터를 후술할 GWIF(250)로 송신하여 데이터 베이스(260)에 저장할 수 있다. The ADSS 240 analyzes the received acoustic data to detect an accident, transmits the detected data to the GWIF 250 to be described later, and stores the detected data in the
상기 GWIF(250)는 외부서버로부터 입력된 제어정보와, 트랜잭션의 모든 인터페이스를 담당하여, 제어기 설정 및 데이터 저장 기능을 수행할 수 있다. The GWIF 250 is in charge of control information input from an external server and all interfaces of transactions, and can perform controller setting and data storage functions.
요약하면, 상기 음향수집부(110)로부터 받은 음향 데이터를 각 프로세스로 전달하게 되면, 각 프로세스는 수신한 음향 데이터를 통해 저장, 실시간 스트리밍, 사고 감지의 기능을 수행할 수 있다. 또한, 사고 감지된 데이터는 외부연계 인터페이스를 통해 데이터 베이스(260)에 저장되며, 관리 서버는 저장된 데이터를 데이터 베이스(260)에서 추출하여 관리자에게 전달할 수 있다. In summary, when the acoustic data received from the
상기 사고분석부(120)의 딥러닝 알고리즘에 대해 설명하기로 한다. The deep learning algorithm of the
상기 사고분석부(120)는 CNN(Convolution Neural Network) 또는 RNN(Recurrent Neural Network)의 알고리즘을 통해 사고를 분석할 수 있다. The
도 3은 본 발명의 실시예에 따른 메모리 내 데이터 처리 과정을 보인 도면이고, 도 4는 본 발명의 실시예에 따른 Input 데이터의 분류 과정을 보인 도면이며, 도 5는 본 발명의 실시예에 따른 입력값의 구성을 설명하기 위한 도면이고, 도 6은 본 발명의 실시예에 따른 CNN 알고리즘의 구조도 이며, 도 7은 본 발명의 실시예에 따른 CNN 알고리즘을 통한 사고 검지 테스트의 결과표이고, 도 8은 본 발명의 실시예에 따른 CNN 알고리즘을 통한 사고 오검지 테스트의 결과표이며, 도 9는 본 발명의 실시예에 따른 CNN 알고리즘을 통한 사고 테스트의 실험표이다. 3 is a diagram showing a process of processing data in a memory according to an embodiment of the present invention, FIG. 4 is a diagram showing a process of classifying input data according to an embodiment of the present invention, and FIG. 5 is a diagram showing a process of classifying input data according to an embodiment of the present invention. 6 is a structure diagram of a CNN algorithm according to an embodiment of the present invention, and FIG. 7 is a result table of an accident detection test through a CNN algorithm according to an embodiment of the present invention. 8 is a result table of the accident detection test through the CNN algorithm according to an embodiment of the present invention, and FIG. 9 is an experimental table of the accident test through the CNN algorithm according to an embodiment of the present invention.
도 3 내지 9를 참조하여 CNN에 대해 설명하면, 상기 사고분석부(120)에서는 상기 음향수집부(110)에서 전달받은 데이터를 메모리에 저장한다. 그리고, 상기 메모리 내 저장 용량이 0.05초(4800byte)가 되면 이를 분석 프로그램으로 전달한다. 메모리 내 데이터 중 앞 0.05초(2400byte)의 데이터는 제거되고 뒷부분 데이터는 다음 절차를 위하여 보존될 수 있다. Referring to FIGS. 3 to 9, the
상기 분석 프로그램으로 전달된 데이터는 FFT(Fast Fourier Transform)을 통해 주파수 성분으로 변환될 수 있다. 이 때, 주파수 대역은 300Hz ~ 7kHz일 수 있다. 이로 인해, 약 650 내지 700개의 배열이 생성될 수 있다. 또한, 변경된 데이터는 n*1 사이즈의 벡터로 전환된다. FET 수식은 아래와 같다. Data transmitted to the analysis program may be converted into frequency components through Fast Fourier Transform (FFT). In this case, the frequency band may be 300 Hz to 7 kHz. Due to this, about 650 to 700 arrays can be created. Also, the changed data is converted into a vector of size n*1. The formula for FET is:
FFT 수식 : , (수식 1)FFT formula: , (Equation 1)
여기서, n은 수집 음향의 사전분석을 통해 사용할 주파수 대역에 따라 정해지며, 일반적으로 7KHz 내외의 주파수 대역을 사용할 수 있다. 그리고, 0.05초 단위로 묶여있는 데이터를 총 3초간 누적하게 되면 n*1 벡터가 60개 만들어지고 이를 합쳐 n*60 행렬 데이터가 생성될 수 있다.Here, n is determined according to the frequency band to be used through preliminary analysis of the collected sound, and in general, a frequency band of around 7 KHz can be used. In addition, when data bundled in units of 0.05 seconds is accumulated for a total of 3 seconds, 60 n*1 vectors are created, and n*60 matrix data can be generated by combining them.
따라서, 상기 과정을 거쳐 나온 행렬에 대해 딥러닝 기법 중 합성곱 신경망 (CNN, Convolution Neural Network) 기법을 활용하여 사고에 대한 행렬의 패턴을 분석할 수 있다. 여기서, 합성곱 신경망 (CNN, Convolution Neural Network)은 이미지 인식에 활용되는 기법으로 합성곱(Convolution)을 이용하는 인공 신경망의 한 종류이다.Therefore, for the matrix obtained through the above process, the convolutional neural network (CNN) technique among deep learning techniques can be used to analyze the pattern of the matrix for thinking. Here, a Convolution Neural Network (CNN) is a technique used for image recognition and is a type of artificial neural network using convolution.
도 4에서와 같이, 실시간으로 들어온 입력값(3초 데이터, 670*30 행렬)을 딥러닝 학습에서 만들어진 모델에 투입하여 label값(사고 여부 및 종류), 데이터 강도, 확률을 도출한다. 또한 시간의 연속성도 활용하여 라벨값들의 순서를 설정 하고 최종 사고로 판단한다.As shown in FIG. 4, input values (3-second data, 670*30 matrix) input in real time are put into a model created in deep learning learning to derive label values (accident status and type), data intensity, and probability. Also, by utilizing the continuity of time, the order of label values is set and determined as the final accident.
한편, 입력값의 경우, 도 5에 도시된 바와 같이, 최초의 1초의 데이터가 삭제되고 다음의 1초를 덧붙여 다음 3초의 입력값을 구성할 수 있다. 즉, 첫 번째 입력값이 t초부터 t+3초까지의 음향 데이터로 구성이 되었다면 다음 프레임은 t+1초부터 t+4초까지의 음향 데이터로 구성될 수 있다. On the other hand, in the case of an input value, as shown in FIG. 5 , the first 1 second of data is deleted and the next 1 second is added to configure the input value of the next 3 seconds. That is, if the first input value consists of sound data from t seconds to t+3 seconds, the next frame may consist of sound data from t+1 seconds to t+4 seconds.
도 6을 참조하면, Input이 입력값이며, 각각의 선은 노드들이 계산되는 weight와 Activation Function(Sigmoid, Relu 등), 그리고 마지막에 softmax() 함수를 거쳐서 나오는 값으로 어떤 음향의 데이터인지를 예측하게 된다.Referring to FIG. 6, Input is an input value, and each line predicts what kind of sound data it is with the value that comes out through the weight and activation function (Sigmoid, Relu, etc.) for which nodes are calculated, and the softmax() function at the end. will do
도 7은 30초의 사고(스키드 또는 충돌) 음향을 수집기에 입력값으로 투입하였을 때, 알고리즘이 예측하는 출력값과 실제 음향의 값을 나타내고 있다. 7 shows the output value predicted by the algorithm and the actual sound value when 30 seconds of accident (skid or collision) sound is input to the collector as an input value.
도 8은 특정날짜(2019.8.21)의 24시간 음향데이터를 입력값으로 투입했을 때, 알고리즘이 예측하는 출력값과 실제 음향의 값을 비교하고 있다. 8 compares the output value predicted by the algorithm with the actual sound value when 24-hour sound data on a specific date (2019.8.21) is input as an input value.
한편, 사고 위치를 감지하는 알고리즘의 경우, 동일 사고에 대한 최소 두 개 이상의 음향수집부(110)에서 수집한 음향을 통해 이루어질 수 있다. On the other hand, in the case of an algorithm for detecting the location of an accident, sound collected by at least two or more
구체적으로, 음향 신호의 경우 전파의 일종으로 최초 발생한 음향에서 거리가 멀어질수록 신호의 세기가 감쇠가 되며, 이는 감쇠율로 표현될 수 있다. Specifically, in the case of a sound signal, as a type of radio wave, the intensity of the signal attenuates as the distance from the initially generated sound increases, which can be expressed as an attenuation rate.
Lp(R2) = Lp(R1) - 20·Log 10 (R2/R1), (여기서, Lp(R1)은 1지점에서의 음압이고, Lp(R2) : 2지점에서의 음압이며, R1 : 발생지점에서 1지점까지의 거리이고, R2 : 발생지점에서 2지점까지의 거리이다.)Lp(R2) = Lp(R1) - 20 Log 10 (R2/R1), (Where Lp(R1) is the sound pressure at
전파의 경우, 양 방향으로 전달되므로, 음원(Sound source)을 중심으로 양쪽에 각각 하나씩 위치한 음향수집기를 활용할 경우 거리의 절대값을 이용하면 위 식을 활용할 수 있다. In the case of radio waves, since they are transmitted in both directions, the above equation can be used by using the absolute value of the distance when using sound collectors located one on each side with the sound source as the center.
구체적으로, 두 음향수집부(110) 간 거리를 T라고 하고 음원이 두 거리 사이에 위치한다면 R1+R2 = T 또는 R1 = T - R2로 정의할 수 있다.Specifically, if T is the distance between the two
따라서, 두 음향 수깁부(110) 간 거리 T와 각 수집기에서의 음압 (Lp(R1), Lp(R2))을 측정할 수 있다면 하기 식을 이용하여, R1과 R2를 구함으로써 음원 발생 지점, 즉 사고 발생 지점을 특정해낼 수 있다.Therefore, if the distance T between the two
Lp(R2) = Lp(R1) - 20·Log 10 (T-R1/R1) Lp(R2) = Lp(R1) - 20 Log 10 (T-R1/R1)
이에 따라, 상기 사고분석부(120)는 위 알고리즘을 통하여 파악한 사고 내용과, 사고 발생 지점을 상기 영상수집부(150) 또는 상기 사고처리부(130)로 송신할 수 있다. Accordingly, the
이하에서는 RNN 알고리즘을 통하여 사고를 감지하는 과정에 대해 설명하기로 한다. Hereinafter, the process of detecting accidents through the RNN algorithm will be described.
도 10는 본 발명의 실시예에 따른 RNN 알고리즘 내 행렬 데이터의 예시도 이고, 도 11은 본 발명의 실시예에 따른 신경망 구조를 도식화한 도면이다. 10 is an exemplary diagram of matrix data in the RNN algorithm according to an embodiment of the present invention, and FIG. 11 is a schematic diagram of a neural network structure according to an embodiment of the present invention.
도 10 및 11을 참조하여 RNN에 대해 설명하면, 입력값이 시간과 같이 순차적인 성질을 가진 경우, 이전 입력값은 다음 입력값에 영향을 미친다. 기존 DNN은 이러한 시간적 의존성을 반영하지 못하는 것에 비해 순환 신경망(RNN)은 순환 레이어를 통해 이전 입력값의 상태를 고려하여 사고 여부를 판단할 수 있다. Referring to FIGS. 10 and 11, when an input value has a sequential property such as time, the previous input value affects the next input value. Conventional DNNs do not reflect this temporal dependence, but recurrent neural networks (RNNs) can determine whether there is an accident by considering the state of previous input values through a recurrent layer.
먼저, 고속 푸리에 변환(FFT)을 통해 시간 도메인에 있던 음향 데이터를 주파수 도메인의 값으로 변환하고 이 때, 주파수 대역은 300Hz ~ 7kHz일 수 있다. 이로 인해, 약 650 내지 700개의 배열이 생성될 수 있다. 이를 이용하여 길이가 3초인 음향 데이터를 변환한다. First, acoustic data in the time domain is converted into values in the frequency domain through fast Fourier transform (FFT), and at this time, the frequency band may be 300 Hz to 7 kHz. Due to this, about 650 to 700 arrays can be created. Using this, sound data with a length of 3 seconds is converted.
이를 행렬로 표현하여 입력값으로 사용될 수 있다. 즉, 길이가 30초인 하나의 음향 데이터로부터 670x30의 행렬 데이터를 2초씩 중복하여 28개 생성될 수 있다. This can be expressed as a matrix and used as an input value. That is, 28 pieces of 670x30 matrix data of 2 seconds each may be generated from one piece of sound data having a length of 30 seconds.
순환 신경망(RNN, Recurrent Neural Network)은 입력값으로부터 가중치를 곱하고 편향을 더하여 계산된 히든 스테이트(hidden state)와 이전 히든 스테이트에 가중치를 곱하여 더한 것에 활성 함수로 쌍곡탄젠트(hyperbolic tangent)를 사용하여 나온 결과가 다음 히든 스테이트가 됨으로써, 시간적 의존성을 고려할 수 있다.A Recurrent Neural Network (RNN) uses the hyperbolic tangent as an activation function to the hidden state calculated by multiplying the weights from the input values and adding the bias, and the previous hidden state by multiplying the weights and adding them. As the result becomes the next hidden state, temporal dependence can be considered.
따라서, 임의의 시점 t의 히든 스테이트를 식으로 나타내면 다음과 같다. Therefore, the expression of the hidden state at an arbitrary point in time t is as follows.
) )
활성함수로 ReLU를 사용하는 CNN과 달리 RNN는 쌍곡탄젠트 함수를 사용한다. 이 때, 쌍곡탄젠트 함수의 식은 다음과 같다. Unlike CNN, which uses ReLU as an activation function, RNN uses hyperbolic tangent function. At this time, the expression of the hyperbolic tangent function is as follows.
f(x)=tanh(x)f(x)=tanh(x)
이를 전체 입력값에 대하여 도식화한 신경망 구조는 도 11에 도시되어 있다. The neural network structure schematized for all input values is shown in FIG. 11 .
따라서, 도 10의 최후 출력값 y28에 따라 사고 여부를 예측할 수 있다. Therefore, it is possible to predict whether or not an accident occurs according to the last output value y28 of FIG. 10 .
상기 사고분석부(120)에서 감지된 결과에 기초하여, 도로(터널) 내 사고 발생이 감지될 경우, 수화부(140)가 활성화될 수 있다. Based on the result detected by the
상기 수화부(140)는 스피커, 카메라 및 제어버튼을 포함할 수 있다. The
상기 수화부(140)가 활성화되면, 사용자는 상기 음향수집부(110)를 통해 관리자에게 사고 알림을 포함한 도로 상황을 구체적으로 전달할 수 있다. 본 실시예에 따르면, 터널 내 사용자 음성을 수신하기 위한 별도 마이크가 필요한 것이 아닌, 상기 음향수집부(110)만으로 사용자 음성을 수신할 수 있어, 부품수를 감소시킬 수 있는 장점이 있다. When the
따라서, 상기 수화부(140)의 활성화 시, 상기 음향수집부(110)가 마이크 기능을 하여 사고 당사자 또는 사고 발견자의 음성 및 현장 소리를 관리자에게 전달할 수 있다. Accordingly, when the
또한, 사고 당사자 또는 사고 발견자는 상기 스피커를 통해 관리자의 음성을 수신할 수 있다. In addition, an accident party or an accident finder may receive a manager's voice through the speaker.
나아가, 상기 음향기반 도로 사고 자동 검지 시스템(100)의 외면에는 전방 촬영을 위한 카메라가 배치될 수 있으며, 카메라를 통해 사고 당사자 또는 사고 발견자, 사고 현장이 촬영될 수 있다. Furthermore, a camera for forward shooting may be disposed on the outer surface of the sound-based automatic road
또한, 상기 음향기반 도로 사고 자동 검지 시스템(100)은 제어버튼을 포함하며, 사용자는 상기 제어버튼의 조작을 통해 상기 수화부(140)를 활성화하거나, 상기 스피커의 음량, 상기 음향수집부(110)로의 입력 음량을 조절할 수 있다. In addition, the sound-based automatic road
한편, 원활한 양 방향 음성 통신을 위해, 상기 수화부(140)의 활성화 시, 상기 음향수집부(110)의 수신 감도는 사고 감지 모드일 때 보다 높게 형성될 수 있다. Meanwhile, for smooth two-way voice communication, when the
상기 사고분석부(120)에서 감지된 결과에 기초하여, 도로(터널) 내 사고 발생이 감지될 경우, 사고 현장의 모니터링을 위한 영상수집부(150)가 활성화될 수 있다. Based on the result detected by the
도 12는 본 발명의 실시예에 따른 터널 내 영상수집부의 설치 모습을 도시한 단면도 이고, 도 13은 본 발명의 실시예에 따른 터널 내 영상수집부의 설치 모습을 도시한 측면도 이다. 12 is a cross-sectional view showing installation of an image collection unit in a tunnel according to an embodiment of the present invention, and FIG. 13 is a side view showing installation of an image collection unit in a tunnel according to an embodiment of the present invention.
도 12 및 도 13을 참조하면, 상기 영상수집부(150)는 터널 내 배치될 수 있다. 상기 영상수집부(150)는 상기 터널의 벽면에 설치될 수 있다. Referring to FIGS. 12 and 13 , the
상기 영상수집부(150)는 레일(152), 암(arm)(154), 카메라(156)를 포함할 수 있다. The
상기 레일(152)은 상기 터널의 벽면에 설치될 수 있다. 상기 레일(152)은 상기 터널의 천정면 또는 측벽의 내면에 설치될 수 있다. 일 예로, 상기 터널이 반원형의 단면 형상을 가진다 할 때, 상기 레일(152)을 포함한 상기 영상수집부(150) 내 구성들은 상기 터널 내부로 광을 조사하는 광원(160) 보다는 하측에 배치되고, 상기 음향수집부(110) 보다는 상측에 배치될 수 있다. 상기 레일(152)의 표면에는 상기 암(154) 및 상기 카메라(156)가 슬라이드 이동될 수 있도록, 홈 또는 돌기가 형성될 수 있다. The
상기 레일(152)은 상기 터널의 입구부로부터 출구부까지로 정의되는 구간 내 단일 라인으로 형성될 수 있다. 그러나, 이는 예시적인 것이며, 상기 레일(152)은 복수로 구비되어, 상호 이웃하게 배치될 수 있다. 이 경우, 복수의 레일(152) 각각에 상기 암(154) 및 카메라(156)가 구비될 수 있다. The
상기 레일(152)에는 상기 카메라(156)와 전기적으로 연결되는 전원부(미도시)가 구비될 수 있다. 이에 따라, 상기 전원부를 통해 상기 카메라(156)로 전원이 제공되거나, 상기 카메라(156)가 충전될 수 있다. 상기 카메라(156)의 충전은 사고가 발생되지 않은 평상시에 이루어질 수 있다. A power supply unit (not shown) electrically connected to the
상기 암(154)은 일단이 상기 레일(152)과 결합되고, 타단이 상기 카메라(156)와 결합될 수 있다. 상기 암(154)은 상기 레일(152)을 따라 슬라이드 이동될 수 있다. The
상기 카메라(156)는 상기 암(154)의 타단에 배치되며, 상기 터널 내 공간을 촬영할 수 있다. 상기 카메라(156)는 상기 암(154)과 함께 상기 레일(152)을 따라 이동될 수 있다. 상기 카메라(156)는 열화상 카메라, 적외선 카메라 등을 포함할 수 있으며, 외면 상에 연기의 발생 여부를 감지할 수 있는 연기 검지기가 구비될 수 있다. The
상기 카메라(156)는 지면에 대해 수평 방향으로 상기 암(154)에 대하여 회전할 수 있다.The
따라서, 상기 음향수집부(110)에서 수집된 음향 정보에 기초하여 상기 사고분석부(120)에서 특정 지점에 사고 발생이 감지된 경우라고 판단되면, 상기 암(154) 및 상기 카메라(156)가 상기 레일(152)을 따라 사고가 발생된 특정 지점으로 이동하여 사고 영역을 촬영할 수 있다. Therefore, when it is determined that an accident is detected at a specific point in the
한편, 관리자의 편의를 위해, 상기 암(154) 및 상기 카메라(156)는 유선 또는 무선으로 상기 레일(152)에서의 이동이 제어될 수 있다. Meanwhile, for the convenience of a manager, the movement of the
상기와 같은 구조에 따르면, 사고 발생 지점을 신속하게 촬영하여 관리자가 모니터링할 수 있으므로, 사고 발생 시 즉각적인 대응이 가능한 장점이 있다. According to the structure as described above, since the accident occurrence point can be rapidly photographed and monitored by a manager, there is an advantage in that an immediate response is possible in the event of an accident.
또한 종래 대비 다수의 CCTV를 구비하지 않더라도, 카메라의 이동에 의해 터널 내 전 영역을 근접 촬영할 수 있으므로, 설치 및 유지에 필요한 경제적 비용을 절감할 수 있는 장점이 있다. In addition, even if a plurality of CCTVs are not provided compared to the prior art, since the entire area in the tunnel can be closely photographed by moving the camera, there is an advantage in that the economic cost required for installation and maintenance can be reduced.
이상에서, 본 발명의 실시 예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 이상에서 기재된 '포함하다', '구성하다' 또는 '가지다' 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재할 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. In the above, even though all the components constituting the embodiment of the present invention have been described as being combined or operated as one, the present invention is not necessarily limited to these embodiments. That is, within the scope of the object of the present invention, all of the components may be selectively combined with one or more to operate. In addition, terms such as 'include', 'comprise' or 'having' described above mean that the corresponding component may be present unless otherwise stated, and thus exclude other components. It should be construed as being able to further include other components. All terms, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the art to which the present invention belongs, unless defined otherwise. Commonly used terms, such as terms defined in a dictionary, should be interpreted as being consistent with the contextual meaning of the related art, and unless explicitly defined in the present invention, they are not interpreted in an ideal or excessively formal meaning.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an example of the technical idea of the present invention, and various modifications and variations can be made to those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed according to the claims below, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.
Claims (5)
상기 터널 내 광을 조사하는 광원;
상기 음향 정보를 통해 터널 내 사고 여부를 판별하는 사고분석부;
상기 사고분석부에서 감지된 결과에 기초하여 활성화되는 수화부; 및
상기 사고분석부에서 감지된 정보에 기초하여, 터널 내 사고 발생 영역을 촬영하는 영상수집부를 포함하며,
상기 영상수집부는, 레일과, 상기 레일을 따라 이동하는 카메라를 포함하고,
상기 레일은, 상기 터널의 입구부로부터 출구부까지 정의되는 구간 내에서 상기 터널의 벽면에 라인을 형성하도록 배치되고,
상기 영상수집부는 상기 광원 보다 하측에 배치되고, 상기 음향수집부 보다 상측에 배치되고,
상기 사고분석부를 통하여 사고 발생이 감지될 경우, 상기 수화부가 활성화되어, 상기 음향수집부를 통한 상기 터널 내 사용자의 음성이 수신되고,
상기 수화부의 활성화 시, 상기 음향수집부의 수신 감도는 상기 수화부의 비활성화일 때 보다 높게 형성되는 사고 현장 모니터링 시스템.
a sound collection unit that collects sound information within the tunnel;
a light source radiating light within the tunnel;
an accident analysis unit that determines whether or not there is an accident in the tunnel through the sound information;
a receiving unit activated based on the result detected by the accident analysis unit; and
Based on the information detected by the accident analysis unit, it includes an image collection unit for photographing an accident area in the tunnel,
The image collection unit includes a rail and a camera moving along the rail,
The rail is arranged to form a line on the wall surface of the tunnel within a section defined from the entrance to the exit of the tunnel,
The image collection unit is disposed below the light source and above the sound collection unit,
When an accident occurrence is detected through the accident analysis unit, the receiver unit is activated and the user's voice in the tunnel is received through the sound collection unit,
When the receiver is activated, the reception sensitivity of the sound collector is higher than when the receiver is deactivated.
상기 사고분석부는,
상기 음향 정보를 1분 단위로 데이터 베이스에 저장하는 DBSAVE;
실시간 음향 정보를 전달하는 StreamGW; 및
상기 음향 정보를 분석하여 사고를 감지하는 ADSS를 포함하며,
상기 ADSS 내 사고 분석 알고리즘은 CNN(Convolution Neural Network) 또는 RNN(Recurrent Neural Network)을 통해 이루어지는 사고 현장 모니터링 시스템.
According to claim 1,
The accident analysis department,
DBSAVE for storing the sound information in a database in units of 1 minute;
StreamGW delivering real-time sound information; and
Includes an ADSS that analyzes the acoustic information to detect an accident,
The accident analysis algorithm in the ADSS is an accident site monitoring system performed through a convolution neural network (CNN) or a recurrent neural network (RNN).
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220018023A KR102477416B1 (en) | 2022-02-11 | 2022-02-11 | Accident Site Monitoring System |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220018023A KR102477416B1 (en) | 2022-02-11 | 2022-02-11 | Accident Site Monitoring System |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102477416B1 true KR102477416B1 (en) | 2022-12-15 |
Family
ID=84439699
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220018023A KR102477416B1 (en) | 2022-02-11 | 2022-02-11 | Accident Site Monitoring System |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102477416B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001078058A (en) * | 1999-09-03 | 2001-03-23 | Mitsubishi Electric Corp | Mobile camera apparatus |
JP2006217546A (en) * | 2005-02-07 | 2006-08-17 | Seiko Instruments Inc | Surveillance camera |
KR20190046569A (en) * | 2017-10-26 | 2019-05-07 | 광주과학기술원 | Acoustic Tunnel Accident Detection System |
-
2022
- 2022-02-11 KR KR1020220018023A patent/KR102477416B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001078058A (en) * | 1999-09-03 | 2001-03-23 | Mitsubishi Electric Corp | Mobile camera apparatus |
JP2006217546A (en) * | 2005-02-07 | 2006-08-17 | Seiko Instruments Inc | Surveillance camera |
KR20190046569A (en) * | 2017-10-26 | 2019-05-07 | 광주과학기술원 | Acoustic Tunnel Accident Detection System |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108615321B (en) | Security pre-warning system and method based on radar detecting and video image behavioural analysis | |
CN109686109B (en) | Parking lot safety monitoring management system and method based on artificial intelligence | |
KR101895811B1 (en) | A high performance large coverage surveillance system | |
KR102138342B1 (en) | IoT-based tunnel accident monitoring and facility autonomous inspection system using intelligent remote terminal device | |
CN110085029B (en) | Highway inspection system and method based on rail type inspection robot | |
CN106656310B (en) | Unmanned aerial vehicle task execution method and system | |
US11377210B2 (en) | Monitoring system and mobile robot device | |
WO1997008896A1 (en) | Open area security system | |
KR102335994B1 (en) | Integrated control apparatus of surveillance devices for drone surveillance | |
JP2006525589A (en) | Event detection system | |
US8854218B1 (en) | Detection system | |
KR101283965B1 (en) | Adaptive Accident Detecting System And Method thereof | |
KR101687296B1 (en) | Object tracking system for hybrid pattern analysis based on sounds and behavior patterns cognition, and method thereof | |
WO2020139206A1 (en) | System and method of live human detection for disaster emergency search and rescue | |
KR102276633B1 (en) | Rail-based unmaned intelligent autonomous vehicle apparatus with multiple cameras and multiple composite sensors and method thereof | |
CN112330930A (en) | Urban tunnel traffic monitoring method, system and platform | |
CN110164071B (en) | Security protection system | |
CN211630273U (en) | Intelligent image recognition device for railway environment | |
CN113990018A (en) | Safety risk prediction system | |
CN112263803A (en) | Unmanned vehicle intelligent security system based on real-time scene inspection and automatic detection fire extinguishing and control method | |
JP2016066312A (en) | Security system and security method | |
KR102477416B1 (en) | Accident Site Monitoring System | |
KR101792427B1 (en) | Emergency Bell System | |
KR20200069464A (en) | Disaster response robot and control device and methods thereof for first response | |
Suliman et al. | Detection of impulsive sounds in stream of audio signals |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |