KR102628542B1 - Artificial intelligence-based marine rescue signal automatic identification system and method - Google Patents

Artificial intelligence-based marine rescue signal automatic identification system and method Download PDF

Info

Publication number
KR102628542B1
KR102628542B1 KR1020220128181A KR20220128181A KR102628542B1 KR 102628542 B1 KR102628542 B1 KR 102628542B1 KR 1020220128181 A KR1020220128181 A KR 1020220128181A KR 20220128181 A KR20220128181 A KR 20220128181A KR 102628542 B1 KR102628542 B1 KR 102628542B1
Authority
KR
South Korea
Prior art keywords
rescue
signal
rescue signal
data
artificial intelligence
Prior art date
Application number
KR1020220128181A
Other languages
Korean (ko)
Inventor
김영태
Original Assignee
대한민국
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국 filed Critical 대한민국
Priority to KR1020220128181A priority Critical patent/KR102628542B1/en
Application granted granted Critical
Publication of KR102628542B1 publication Critical patent/KR102628542B1/en

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B3/00Audible signalling systems; Audible personal calling systems
    • G08B3/10Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission
    • G08B3/1008Personal calling arrangements or devices, i.e. paging systems
    • G08B3/1016Personal calling arrangements or devices, i.e. paging systems using wireless transmission
    • G08B3/1025Paging receivers with audible signalling details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/08Alarms for ensuring the safety of persons responsive to the presence of persons in a body of water, e.g. a swimming pool; responsive to an abnormal condition of a body of water
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/006Alarm destination chosen according to type of event, e.g. in case of fire phone the fire service, in case of medical emergency phone the ambulance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum

Abstract

인공지능 기반 해양 구조 신호 자동 식별 시스템 및 방법은, 조난신호 수신기 내부 구조에서 청각을 활용해야 했던 복잡한 절차 없이, 전파분류를 활용한 인공지능 분석으로 구조신호를 빠르고 정확하게 구조기관에 알릴 수 있다. 실시예에서는 수신기로 입력되는 전기신호를 스펙토그램(Spectrogram)으로 변형시켜 잡음을 제거함으로써, 구조신호의 청취율 극대화할 수 있다. 또한, 실시예에서는 구조신호 발생부터 구조기관의 구조신호 인지까지 구조 개시 과정에 필요한 절차를 절감시켜, 재난 사고 발생시 신속한 구조활동을 가능하게 한다. 또한, 실시예에서는 수신기 설치를 통해, 다수의 채널을 동시 청취 가능하게 하여 다양한 주파수와 채널에서 발생할 수 있는 구조신호를 놓치지 않고 구조기관에 전달할 수 있도록 한다.The artificial intelligence-based automatic identification system and method for marine rescue signals can quickly and accurately notify rescue organizations of rescue signals through artificial intelligence analysis using radio wave classification without the complicated process of using hearing in the internal structure of the distress signal receiver. In an embodiment, the audibility of the rescue signal can be maximized by transforming the electrical signal input to the receiver into a spectrogram to remove noise. In addition, in the embodiment, the procedures required for the rescue initiation process, from generating a rescue signal to recognizing the rescue signal from a rescue organization, are reduced, thereby enabling rapid rescue activities in the event of a disaster. In addition, in the embodiment, through the installation of a receiver, multiple channels can be listened to simultaneously, so that rescue signals that may occur at various frequencies and channels can be transmitted to rescue organizations without being missed.

Description

인공지능 기반 해양 구조신호 자동 식별 시스템 및 방법 {ARTIFICIAL INTELLIGENCE-BASED MARINE RESCUE SIGNAL AUTOMATIC IDENTIFICATION SYSTEM AND METHOD}Artificial intelligence-based marine rescue signal automatic identification system and method {ARTIFICIAL INTELLIGENCE-BASED MARINE RESCUE SIGNAL AUTOMATIC IDENTIFICATION SYSTEM AND METHOD}

본 개시는 인공지능 기반 해양 구조 신호 자동 식별 시스템 및 방법에 관한 것으로 구체적으로, 수신기에 구조 신호가 입력되면, 전파분류를 활용하여 구조신호를 자동식별 하는 시스템 및 방법에 관한 것이다. This disclosure relates to an artificial intelligence-based automatic identification system and method for marine rescue signals. Specifically, when a rescue signal is input to a receiver, it relates to a system and method for automatically identifying the rescue signal using radio wave classification.

본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.Unless otherwise indicated herein, the material described in this section is not prior art to the claims of this application, and is not admitted to be prior art by inclusion in this section.

해양 구조신호를 구조기관에서 빠르게 인지하는 것은 구조과정에서 가장 중요하다. 구조신호 청취에 대한 국제사회의 노력 중 하나로, UN 산하 IMO 국제해사기구는 국제전기통신연합을 통해 VHF16번을 조난안전 청취 채널로 지정하고, 전세계 각 구조기관 해양에서 발생하는 구조신호를 무휴청취를 의무화하고 있다. 우리나라에서는 해양경찰청에서 구조신호를 24시간 청취하고 있다.It is most important in the rescue process for rescue organizations to quickly recognize marine rescue signals. As one of the international community's efforts to listen to rescue signals, the International Maritime Organization (IMO) under the UN designated VHF 16 as a distress safety listening channel through the International Telecommunication Union, and each rescue organization around the world listens to rescue signals generated at sea 24/7. It is mandatory. In Korea, the Coast Guard listens to rescue signals 24 hours a day.

종래 조난 및 구조체계를 나타낸 도 1을 참조하면, 종래에는 해양에서 조난선박이 발생하면 선박에 비치된 송신기를 통해 구조신호를 발신하고 주변선박을 통해 구조신호가 전달된다. 이후, 해양경찰청에서 구조신호를 인지후 구조활동을 시작한다. 구조 신호는 구조 활동을 시작하게 하는 최초 신호로서, 구조신호를 제대로 청취하는 것은 구조 골든타임 확보와 매우 관련이 깊다. Referring to Figure 1, which shows a conventional distress and rescue system, conventionally, when a ship in distress occurs in the ocean, a rescue signal is transmitted through a transmitter provided on the ship and the rescue signal is transmitted through surrounding ships. Afterwards, the Coast Guard recognizes the rescue signal and begins rescue operations. The rescue signal is the first signal that initiates rescue activities, and listening to the rescue signal properly is very related to securing the golden time for rescue.

선박과 해상 물동을 지도에 표시한 도 2에 도시된 바와 같이, 대한민국 인근에는 10만여척이 넘는 수많은 선박이 등록되어 있고, 주변 중국, 일본 등 세계에서 해상물동량이 가장 많은 곳 이기 때문에, 다양한 주파수와 채널이 존재한다. 하지만, 현재 구조신호 청취 방식은 한 사람이 하나의 채널밖에 들을 수 없다. 또한, 하루 단 3명이 전 해역을 파악해야 하는 아날로그 방식의 구조신호 청취의 한계가 있다. 아울러, 365일 24시간 휴식시간 없이 청취하는 환경에서 피로누적으로 인한 집중력 저하로 구조신호 사각지대에 노출될 수 있고, 무선통신은 천재지변에 위한 기상악화나 장비 및 스피커의 노후화로 인한 수신거리 및 감도가 급감하는 구조신호 청취방식의 문제가 있다. As shown in Figure 2, which shows ships and marine traffic on a map, there are over 100,000 registered vessels near Korea, and since it is the place with the largest maritime traffic volume in the world, including neighboring China and Japan, various frequencies are used. and channels exist. However, the current method of listening to rescue signals allows one person to listen to only one channel. Additionally, there are limitations to listening to analog rescue signals, as only three people per day need to monitor the entire sea area. In addition, in an environment where listening is performed 24 hours a day, 365 days a year without a break, you may be exposed to blind spots in rescue signals due to decreased concentration due to accumulated fatigue, and wireless communication may have problems with reception distance and/or problems due to bad weather due to natural disasters or aging of equipment and speakers. There is a problem with the method of listening to rescue signals, which drastically reduces sensitivity.

국제안전통신센터 조난통신 수신처리 현황을 나타낸 도 3을 참조하면, 20년, 21년, 22년 상반기에 실제조난을 청취한 수보다 확인불가 건수가 5-7배가 많은 것을 확인할 수 있다. 확인 불가 확인 건수에 실제구조신호가 포함되어 있었다면, 이는 안전사고로 이어질 수 있다. Referring to Figure 3, which shows the status of distress communication reception and processing at the International Safety Communication Center, it can be seen that the number of unconfirmed cases is 5-7 times higher than the number of actual distress calls in the first half of 2020, 21, and 22. If the number of unconfirmed confirmations included actual rescue signals, this could lead to a safety accident.

1. 한국 특허등록 제10-1998521호 (2019.07.03)1. Korean Patent Registration No. 10-1998521 (2019.07.03) 2. 한국 특허등록 제10-1764816호 (2017.07.28)2. Korean Patent Registration No. 10-1764816 (2017.07.28)

실시예에 따른 인공지능 기반 해양 구조 신호 자동 식별 시스템 및 방법은 수신기에 구조 신호가 입력되면, 전파분류를 활용하여 구조신호를 자동 식별한다. 실시예에서는 메이데이, 살려주세요, 화재, 침몰 등 음성구조신호 키워드를 수집하고, 음성구조신호를 전기신호 단계에서 파장으로 데이터 가공한다. 이후, 인공지능 알고리즘으로 수신기에 구조신호가 들어오면 전기신호 단계에서 구조신호를 인지하여 구조기관에 알릴 수 있도록 한다. The artificial intelligence-based marine rescue signal automatic identification system and method according to the embodiment automatically identifies the rescue signal using radio wave classification when the rescue signal is input to the receiver. In the embodiment, voice rescue signal keywords such as mayday, please help me, fire, and sinking are collected, and the voice rescue signal is data processed into wavelengths at the electrical signal stage. Afterwards, when a rescue signal comes into the receiver using an artificial intelligence algorithm, the rescue signal is recognized at the electrical signal stage and notified to the rescue organization.

또한, 실시예에서는 스펙토그램(Spectrogram)을 통해 노이즈 제거(denoising) 효과를 증가시키고, 수신기에 입력되는 전기신호를 스펙토그램으로 변형하여 잡음을 제거할 수 있도록 한다.Additionally, in the embodiment, the noise removal (denoising) effect is increased through a spectrogram, and noise can be removed by transforming the electrical signal input to the receiver into a spectrogram.

실시예에 따른 인공지능 기반 해양 구조 신호 자동 식별 시스템은 구조요청자의 음성을 포함하는 구조 신호가 입력되면, 상기 구조 신호를 전자신호로 변환하고, 변환된 전자신호를 전송하는 구조신호 전송 장치; 및 구조신호 전송 장치로부터 전송된 전자신호를 수신하여, 전기신호로 변환 후, 전기신호를 스펙토그램(spectogram)을 통해 비전 및 사운드 형태로 시각화 하는 구조신호 자동 식별 장치; 를 포함한다. An artificial intelligence-based marine rescue signal automatic identification system according to an embodiment includes: a rescue signal transmission device that converts the rescue signal into an electronic signal when a rescue signal including the voice of a rescue requester is input, and transmits the converted electronic signal; and an automatic rescue signal identification device that receives the electronic signal transmitted from the rescue signal transmission device, converts it into an electric signal, and visualizes the electric signal in the form of vision and sound through a spectogram. Includes.

실시예에서 구조신호 자동 식별 장치; 는 메이데이, 살려주세요, 화재, 침몰을 포함하는 음성구조신호 키워드를 수집하고, 수집된 음성구조신호를 전기신호 단계에서 파장 데이터로 가공하고 가공된 파장 데이터를 아카이빙 하여 인공지능 알고리즘으로 수신기에 구조신호가 입력되면, 아카이빙 된 파장 데이터를 통해 전기신호 단계에서 구조신호를 인지하여 구조기관에 알린다.In an embodiment, a rescue signal automatic identification device; Collects voice rescue signal keywords including mayday, please help me, fire, and sinking, processes the collected voice rescue signals into wavelength data at the electrical signal stage, archives the processed wavelength data, and sends the rescue signal to the receiver using an artificial intelligence algorithm. When input, the rescue signal is recognized at the electrical signal stage through the archived wavelength data and notified to the rescue agency.

실시예에서 구조신호 자동 식별 장치; 는 변환된 전기신호의 시간, 주파수, 진폭을 포함하는 분석요소를 파악하고, 파악된 분석요소를 그래프로 시각화한 스펙토그램(Spectrogram)을 생성하고, 생성된 스펙토그램을 일정시간 간격으로 분할하는 전처리모듈; 분할된 일정 시간간격의 스펙토그램 이미지를 포함하는 입력 데이터를 분류(classification)하고, 분류 값의 정확도를 확률로 산출하고, 구조요청 시 사용하는 키워드를 선별하여 선별된 키워드를 인식하도록 학습하는 딥러닝 모듈; 및 산출된 확률값에 따른 디스플레이 객체 및 알림음을 추출하여 출력하는 후처리 모듈; 을 포함한다.In an embodiment, a rescue signal automatic identification device; Identify analysis elements including time, frequency, and amplitude of the converted electrical signal, create a spectrogram visualizing the identified analysis elements as a graph, and divide the generated spectogram into regular time intervals. preprocessing module; Deep classifies input data containing segmented spectogram images at regular time intervals, calculates the accuracy of the classification value as a probability, selects keywords used when requesting rescue, and learns to recognize the selected keywords. running module; and a post-processing module that extracts and outputs display objects and notification sounds according to the calculated probability value. Includes.

이상에서와 같은 인공지능 기반 해양 구조 신호 자동 식별 시스템 및 방법은, 조난신호 수신기 내부 구조에서 청각을 활용해야 했던 복잡한 절차 없이, 전파분류를 활용한 인공지능 분석으로 구조신호를 빠르고 정확하게 구조기관에 알릴 수 있다. The artificial intelligence-based marine rescue signal automatic identification system and method as described above can quickly and accurately report rescue signals to rescue organizations through artificial intelligence analysis using radio wave classification without the complicated procedure of using hearing in the internal structure of the distress signal receiver. You can.

실시예에서는 수신기로 입력되는 전기신호를 스펙토그램(Spectrogram)으로 변형시켜 잡음을 제거함으로써, 구조신호의 청취율 극대화할 수 있다.In an embodiment, the audibility of the rescue signal can be maximized by transforming the electrical signal input to the receiver into a spectrogram to remove noise.

또한, 실시예에서는 구조신호 발생부터 구조기관의 구조신호 인지까지 구조 개시 과정에 필요한 절차를 절감시켜, 재난 사고 발생시 신속한 구조활동을 가능하게 한다. In addition, in the embodiment, the procedures required for the rescue initiation process, from generating a rescue signal to recognizing the rescue signal from a rescue organization, are reduced, thereby enabling rapid rescue activities in the event of a disaster.

또한, 실시예에서는 수신기 설치를 통해, 다수의 채널을 동시 청취 가능하게 하여 다양한 주파수와 채널에서 발생할 수 있는 구조신호를 놓치지 않고 구조기관에 전달할 수 있도록 한다.In addition, in the embodiment, through the installation of a receiver, multiple channels can be listened to simultaneously, so that rescue signals that may occur at various frequencies and channels can be transmitted to rescue organizations without being missed.

본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.The effects of the present invention are not limited to the effects described above, and should be understood to include all effects that can be inferred from the configuration of the invention described in the detailed description or claims of the present invention.

도 1은 종래 조난 및 구조체계를 나타낸 도면
도 2는 선박과 해상 물동을 나타낸 지도
도 3은 국제안전통신센터의 조난통신 수신처리 현황을 나타낸 도면
도 4는 실시예에 따른 인공지능 기반 해양 구조 신호 자동 식별 시스템 구성을 나타낸 도면
도 5는 실시예에 따른 구조신호 자동 식별 장치를 종래 기술과 비교하기 위한 도면
도 6은 실시예에 따른 인공지능 기반 해양 구조 신호 자동 식별 장치의 데이터 처리 구성을 나타낸 도면
도 7은 실시예에 따른 스펙토그램을 나타낸 도면
도 8은 실시예에 따른 데이터 아카이빙 과정을 설명하기 위한 도면
도 9는 실시예에 따른 인공지능 기반 해양 구조 신호 자동 식별 시스템의 신호 흐름을 나타낸 도면
도 10은 실시예에 따른 구조신호 자동 식별 장치의 데이터 처리과정을 나타낸 도면
도 11은 실시예에 따른 인공지능 기반 해양 구조 신호 자동 식별의 데이터 처리 흐름을 나타낸 도면
도 12는 실시예에 구조신호 자동 식별 장치에서 생성한 파장 데이터를 나타낸 도면
Figure 1 is a diagram showing a conventional distress and rescue system.
Figure 2 is a map showing ships and maritime traffic
Figure 3 is a diagram showing the status of distress communication reception and processing at the International Safety Communication Center
Figure 4 is a diagram showing the configuration of an artificial intelligence-based marine rescue signal automatic identification system according to an embodiment.
Figure 5 is a diagram for comparing the automatic identification device for rescue signals according to an embodiment with the prior art.
Figure 6 is a diagram showing the data processing configuration of an artificial intelligence-based automatic marine rescue signal identification device according to an embodiment.
Figure 7 is a diagram showing a spectogram according to an embodiment
Figure 8 is a diagram for explaining the data archiving process according to an embodiment
Figure 9 is a diagram showing the signal flow of an artificial intelligence-based marine rescue signal automatic identification system according to an embodiment.
Figure 10 is a diagram showing the data processing process of the automatic rescue signal identification device according to an embodiment
Figure 11 is a diagram showing the data processing flow of automatic identification of artificial intelligence-based marine rescue signals according to an embodiment
Figure 12 is a diagram showing wavelength data generated by an automatic rescue signal identification device in an embodiment

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 도면부호는 동일 구성 요소를 지칭한다.The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure of the present invention is complete and to provide common knowledge in the technical field to which the present invention pertains. It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing embodiments of the present invention, if it is determined that a detailed description of a known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. The terms described below are terms defined in consideration of functions in embodiments of the present invention, and may vary depending on the intention or custom of the user or operator. Therefore, the definition should be made based on the contents throughout this specification.

도 4는 실시예에 따른 인공지능 기반 해양 구조 신호 자동 식별 시스템 구성을 나타낸 도면이다. 도 4를 참조하면, 실시예에 따른 인공지능 기반 해양 구조 신호 자동 식별 시스템은 구조신호 자동 식별 장치(200) 및 구조신호 전송 장치(100)를 포함하여 구성될 수 있다.Figure 4 is a diagram showing the configuration of an artificial intelligence-based marine rescue signal automatic identification system according to an embodiment. Referring to FIG. 4, an artificial intelligence-based marine rescue signal automatic identification system according to an embodiment may be configured to include a rescue signal automatic identification device 200 and a rescue signal transmission device 100.

구조신호 전송 장치(100)는 응급 구조가 필요한 구조요청자 신호를 수집하는 장치로서, 구조요청자의 음성을 포함하는 구조신호가 입력되면, 구조신호를 전자신호로 변환하고, 변환된 전자신호를 구조신호 자동 식별 장치(200)로 전송한다.The rescue signal transmission device 100 is a device that collects signals from rescue seekers in need of emergency rescue. When a rescue signal including the rescue seeker's voice is input, the rescue signal transmission device 100 converts the rescue signal into an electronic signal, and converts the converted electronic signal into a rescue signal. Transmitted to the automatic identification device 200.

구조신호 자동 식별 장치(200)는 구조신호 전송 장치(100)로부터 전송된 전자신호를 수신하여, 전기신호로 변환 후, 전기신호를 비전 및 사운드 형태로 시각화 한다. 여기서 전기신호는 각 단계의 전달 과정 사이에서 증폭될 수도 있다. 실시예에서 구조신호 자동 식별 장치(200)는 메이데이, 살려주세요, 화재, 침몰 등의 음성구조신호 키워드를 수집하고, 수집된 음성구조신호를 전기신호 단계에서 파장 데이터로 가공한다. 실시예에서는 가공된 파장 데이터를 아카이빙 하여 수신기에 구조신호가 입력되면, 인공지능 알고리즘으로 전기신호 단계에서 구조신호를 인지하여 구조기관에 알릴 수 있도록 한다. 실시예에서는 저장된 파장 데이터와 구조신호의 파장 데이터를 비교하여 비교 결과에 따라 구조 신호를 인지할 수 있다. The rescue signal automatic identification device 200 receives the electronic signal transmitted from the rescue signal transmission device 100, converts it into an electric signal, and visualizes the electric signal in the form of vision and sound. Here, the electrical signal may be amplified between each stage of the transmission process. In an embodiment, the automatic rescue signal identification device 200 collects voice rescue signal keywords such as mayday, please help me, fire, and sinking, and processes the collected voice rescue signals into wavelength data at the electrical signal stage. In the embodiment, when a rescue signal is input to the receiver by archiving the processed wavelength data, the artificial intelligence algorithm recognizes the rescue signal at the electrical signal stage and informs the rescue organization. In an embodiment, the saved wavelength data is compared with the wavelength data of the rescue signal, and the rescue signal can be recognized according to the comparison result.

도 5는 실시예에 따른 구조신호 자동 식별 장치를 종래 기술과 비교하기 위한 도면이다. 도 5의 (a)는 종래 구조신호 식별 장치를 나타낸 도면이고, 도 5의 (b)는 실시예에 따른 구조신호 식별 장치를 나타낸 도면이다.Figure 5 is a diagram for comparing an automatic rescue signal identification device according to an embodiment with the prior art. Figure 5(a) is a diagram showing a conventional distress signal identification device, and Figure 5(b) is a diagram showing a distress signal identification device according to an embodiment.

도 5를 참조하면, 실시예에 따른 구조신호 자동 식별 장치는 주파수 증폭, 복조 과정 없이, 인공지능을 통해 전파신호를 분석하여 구조신호를 빠르고 정확하게 파악하고, 이를 구조기관에 알릴 수 있도록 한다. Referring to FIG. 5, the automatic rescue signal identification device according to the embodiment analyzes radio signals through artificial intelligence without frequency amplification or demodulation to quickly and accurately identify rescue signals and inform rescue organizations of them.

실시예에 따른 인공지능 기반 해양 구조 신호 자동 식별 장치는 수신기에 구조 신호가 입력되면, 전파분류를 활용하여 구조신호를 자동 식별한다. 실시예에서는 메이데이, 살려주세요, 화재, 침몰 등 음성구조신호 키워드를 수집하고, 음성구조신호를 전기신호 단계에서 파장으로 데이터 가공한다. 이후, 인공지능 알고리즘으로 수신기에 구조신호가 들어오면 전기신호 단계에서 구조신호를 인지하여 구조기관에 알릴 수 있도록 한다. 또한, 실시예에서는 스펙토그램(Spectrogram)을 통해 노이즈 절감(denoising) 효과를 증가시키고, 수신기에 입력되는 전기신호를 스펙토그램으로 변형하여 잡음을 제거할 수 있도록 한다.The artificial intelligence-based marine rescue signal automatic identification device according to the embodiment automatically identifies the rescue signal using radio wave classification when the rescue signal is input to the receiver. In the embodiment, voice rescue signal keywords such as mayday, please help me, fire, and sinking are collected, and the voice rescue signal is data processed into wavelengths at the electrical signal stage. Afterwards, when a rescue signal comes into the receiver using an artificial intelligence algorithm, the rescue signal is recognized at the electrical signal stage and notified to the rescue organization. Additionally, in the embodiment, the noise denoising effect is increased through a spectrogram, and the electrical signal input to the receiver is transformed into a spectogram to remove noise.

도 6은 실시예에 따른 인공지능 기반 해양 구조 신호 자동 식별 장치의 데이터 처리 구성을 나타낸 도면이다.Figure 6 is a diagram showing the data processing configuration of an artificial intelligence-based automatic marine rescue signal identification device according to an embodiment.

도 6을 참조하면, 실시예에 따른 구조신호 자동 식별 장치(200)는 전처리 모듈(210), 딥러닝 모듈(220) 및 후처리 모듈(230)포함하여 구성될 수 있다. 본 명세서에서 사용되는 '모듈' 이라는 용어는 용어가 사용된 문맥에 따라서, 소프트웨어, 하드웨어 또는 그 조합을 포함할 수 있는 것으로 해석되어야 한다. 예를 들어, 소프트웨어는 기계어, 펌웨어(firmware), 임베디드코드(embedded code), 및 애플리케이션 소프트웨어일 수 있다. 또 다른 예로, 하드웨어는 회로, 프로세서, 컴퓨터, 집적 회로, 집적 회로 코어, 센서, 멤스(MEMS; Micro-Electro-Mechanical System), 수동 디바이스, 또는 그 조합일 수 있다.Referring to FIG. 6, the automatic rescue signal identification device 200 according to the embodiment may be configured to include a pre-processing module 210, a deep learning module 220, and a post-processing module 230. The term 'module' used in this specification should be interpreted to include software, hardware, or a combination thereof, depending on the context in which the term is used. For example, software may be machine language, firmware, embedded code, and application software. As another example, hardware may be a circuit, processor, computer, integrated circuit, integrated circuit core, sensor, Micro-Electro-Mechanical System (MEMS), passive device, or a combination thereof.

실시예에서 전처리 모듈(210)은 메이데이, 살려주세요, 화재, 침몰을 포함하는 음성구조신호 키워드를 수집하고, 수집된 음성구조신호를 전기신호 단계에서 파장 데이터로 가공한다. 해양 사고의 경우 악천후 등으로 인해 발생하는 경우가 많으며 이 때 요구조자의 구조 신호에는 파도, 바람 및 풍랑 등의 다양한 노이즈가 개입되므로 이러한 구조 신호에 대한 사전 필터링은 구조 신호의 자동 인식율에 큰 영향을 미칠 수 있다. 사전 필터링을 통해 구조 신호가 구조 신호 인식 단계에 입력될 때 인식율을 향상시킬 수 있다. 이후, 딥러닝 모듈(220)은 가공된 파장 데이터를 아카이빙 한다. 아카이빙 이란, 특정 기간 동안 필요한 기록을 파일로 저장 매체에 보관하는 것으로, 도 8에 도시된 바와 같이, 실시예에서는 인공지능 알고리즘으로 수신기에 구조신호가 입력되면, 저장된 파장 데이터를 통해, 전기신호 단계에서 구조신호를 인지하여 구조기관에 알릴 수 있도록 한다. 도 12는 실시예에 구조신호 자동 식별 장치(200)에서 생성한 파장 데이터를 나타낸 것으로, 실시예에서는 음성 구조신호를 전기신호 단계에서 파장 데이터로 가공한다. 실시예에서는 저장된 파장 데이터와 구조신호의 파장 데이터를 비교하여 비교 결과에 따라 구조 신호를 인지할 수 있다. 실시예에서는 저장된 파장 데이터와 구조 신호의 파장 일치율을 구조신호 발생 확률 값으로 변환하여 산출된 확률값에 따라 알림음 또는 시각 객체를 출력하여 구조기관에 구조신호를 알릴 수 있도록 한다. In an embodiment, the preprocessing module 210 collects voice rescue signal keywords including mayday, please help me, fire, and sinking, and processes the collected voice rescue signal into wavelength data at the electrical signal stage. In the case of marine accidents, they are often caused by bad weather, etc., and at this time, various noises such as waves, wind, and tempest are involved in the rescue signal of the rescuer. Therefore, pre-filtering of these rescue signals will have a significant impact on the automatic recognition rate of the rescue signal. You can. Through pre-filtering, the recognition rate can be improved when a rescue signal is input to the rescue signal recognition stage. Afterwards, the deep learning module 220 archives the processed wavelength data. Archiving refers to storing necessary records in a file format on a storage medium for a specific period of time. As shown in FIG. 8, in the embodiment, when a rescue signal is input to the receiver using an artificial intelligence algorithm, the electrical signal stage is generated through the stored wavelength data. recognizes rescue signals and informs rescue organizations. Figure 12 shows wavelength data generated by the automatic rescue signal identification device 200 in an embodiment. In the embodiment, the voice rescue signal is processed into wavelength data at the electrical signal stage. In an embodiment, the saved wavelength data is compared with the wavelength data of the rescue signal, and the rescue signal can be recognized according to the comparison result. In an embodiment, the wavelength coincidence rate between the stored wavelength data and the rescue signal is converted into a rescue signal occurrence probability value, and a warning sound or visual object is output according to the calculated probability value to notify the rescue organization of the rescue signal.

또한, 전처리 모듈(210)은 변환된 전기신호의 시간, 주파수, 진폭을 포함하는 분석요소를 파악하고, 파악된 분석요소를 그래프로 시각화한 스펙토그램(Spectrogram)을 생성하고, 생성된 스펙토그램을 일정시간 간격으로 분할한다. 스펙토그램은 소리의 스펙트럼을 시각화 하여 시각화 객체 중 하나인 그래프로 나타내는 것이다. 도 7은 실시예에 따른 스펙토그램을 나타낸 도면으로, 도 7을 참조하면, 스펙토그램의 x축은 시간, y축은 주파수, z축은 진폭을 나타낸다.In addition, the preprocessing module 210 identifies analysis elements including time, frequency, and amplitude of the converted electrical signal, generates a spectrogram visualizing the identified analysis elements in a graph, and generates a spectrogram that visualizes the identified analysis elements in a graph. Grams are divided into regular time intervals. A spectogram visualizes the spectrum of sound and represents it as a graph, one of the visualization objects. FIG. 7 is a diagram showing a spectogram according to an embodiment. Referring to FIG. 7, the x-axis of the spectogram represents time, the y-axis represents frequency, and the z-axis represents amplitude.

실시예에서 전처리 모듈(210)은 음성데이터를 푸리에 변환(Fourier Transform, FT)를 통해서 시간 영역에서(time domain)에서 주파수 영역(frequency domain)으로 변경하고, 소음제거(denoising) 과정을 수행한 후 딥러닝 모듈로 입력한다. In an embodiment, the preprocessing module 210 changes the voice data from the time domain to the frequency domain through Fourier Transform (FT), performs a denoising process, and then performs a denoising process. Enter into the deep learning module.

구체적으로, 전처리 모듈(210)은 주파수 영역(frequency domain)으로 변환되기 전의 데이터를 지정된 윈도우(window) 사이즈에 맞춰서 분할하고, 분할된 데이터를 DFT(Discrete Fourier Transform)을 통해서 변환하고, 변환된 정보를 연결하여 엔코더-디코더 네트워크(Encoder-Decoder network)를 기반으로 한 딥러닝 네트워크(DL network)에 입력하여 노이즈 제거(denoising)를 진행한다. 또한, 실시예에서 전처리 모듈(210)은 전기신호의 원시파형(raw wave form)을 입력할 수 있다. 실시예에서는 노이즈가 없는 스피치(clean speech)와 노이즈(noise)를 조합하여 데이터 증폭(data augmentation)을 수행할 수 있다. 실시예에서는 증폭된 데이터를 LSTM(Long Short-Term Memory)이 가미된 U-net 기반에 엔코더-디코더 네트워크(Encoder-Decoder network)를 통해서 노이즈 제거(denoising)를 수행할 수 있다.Specifically, the preprocessing module 210 divides the data before being converted to the frequency domain according to the specified window size, transforms the divided data through DFT (Discrete Fourier Transform), and converts the converted information. is connected and input into a deep learning network (DL network) based on an encoder-decoder network to perform denoising. Additionally, in the embodiment, the preprocessing module 210 may input a raw wave form of an electrical signal. In an embodiment, data augmentation may be performed by combining clean speech and noise. In an embodiment, denoising can be performed on the amplified data through an encoder-decoder network based on U-net with Long Short-Term Memory (LSTM).

딥러닝 모듈(220)은 분할된 일정 시간간격의 스펙토그램 이미지를 포함하는 입력 데이터를 분류(classification)하고, 분류 값의 정확도를 확률로 산출하고, 구조요청 시 사용하는 키워드를 선별하여 선별된 키워드를 인식하도록 학습한다. 실시예에서는 구조신호 키워드 정보 파악에 최적화된 맞춤형 트레이닝 데이터 셋(Training Data Set)을 기반으로 딥러닝 뉴럴 네트워크에 기초한 기계학습을 수행하여 구조신호 인식 모델을 구현할 수 있다. 실시예에서 딥러닝 모듈(220)은 DNN(Deep Neural Network), CNN(Convolutional Neural Network) RNN(Recurrent Neural Network) 및 BRDNN(Bidirectional Recurrent Deep Neural Network) 중 적어도 하나를 포함하는 딥러닝 뉴럴 네트워크를 트레이닝 데이터 셋으로 학습시켜 키워드 인식 모델 및 정확도 산출 모델을 구현할 수 있다. The deep learning module 220 classifies input data including segmented spectogram images at regular time intervals, calculates the accuracy of the classification value as a probability, and selects keywords used when requesting rescue. Learn to recognize keywords. In an embodiment, a rescue signal recognition model can be implemented by performing machine learning based on a deep learning neural network based on a customized training data set optimized for identifying rescue signal keyword information. In an embodiment, the deep learning module 220 trains a deep learning neural network including at least one of a Deep Neural Network (DNN), a Convolutional Neural Network (CNN), a Recurrent Neural Network (RNN), and a Bidirectional Recurrent Deep Neural Network (BRDNN). By training with a data set, a keyword recognition model and accuracy calculation model can be implemented.

또한, 실시예에서 딥러닝 모듈(220)은 분할된 일정 시간간격의 스펙토그램 이미지를 분류하는 과정에서 인공지능 머신러닝을 통한 이미지 인식(image recognition)을 이미지 입력데이터를 분류할 수 있다. 인공지능 이미지 인식은 기계가 마치 사람처럼 사진으로부터 사물을 인식하고 장면을 이해하는 것으로, 컴퓨터 비전 기술 중 하나에 해당한다. 실시예에서는 이미지 인식을 위해, 이미지에 포함된 객체를 분류(classification), 검출(detection)하고, 개체를 픽셀 단위로 식별하여 분할(segmentation)하는 데이터 처리 과정을 수행할 수 있다. 또한, 실시예에서 딥러닝 모듈(220)은 노이즈 대응 외 학습하지 못한 패턴 처리를 위해 학습 외 분포 데이터 탐지(out of distribution detection)과정을 수행한다. 학습 외 분포 데이터 탐지는 인공지능에 입력된 이미지가 학습된 확률분포 데이터 인지 아닌지 식별하는 것이다. 실시예에서는 학습 외 분포 데이터 탐지를 통해 인공 신경망이 판단하기 어려운 이미지를 걸러내거나 예외 처리하여 안정성과 신뢰성을 높일 수 있도록 한다. 실시예에서는 학습 외 분포 데이터 탐지를 위해서 딥러닝 판정에 대해 얼마나 확신(confidence)하는지를 나타내는 확률 값을 보정(calibration)하거나 학습 외 분포 데이터를 생성적 대립 신경망(GAN, Generative Adversarial Network)으로 생성하고 학습하여 탐지 정확도를 향상시킬 수 있도록 한다. Additionally, in the embodiment, the deep learning module 220 may classify image input data using image recognition through artificial intelligence machine learning in the process of classifying divided spectogram images at regular time intervals. Artificial intelligence image recognition is a type of computer vision technology in which a machine recognizes objects and understands scenes from photos just like a human. In an embodiment, for image recognition, a data processing process may be performed to classify and detect objects included in the image, and to identify and segment the objects in pixel units. Additionally, in the embodiment, the deep learning module 220 performs an out of distribution detection process other than learning to process unlearned patterns in addition to noise response. Non-learning distribution data detection is to identify whether the image input to artificial intelligence is learned probability distribution data. In the embodiment, stability and reliability can be increased by filtering out or exception processing images that are difficult for the artificial neural network to judge through detection of distribution data other than learning. In the embodiment, in order to detect non-learning distribution data, a probability value indicating how confident one is in the deep learning decision is calibrated or non-learning distribution data is generated and learned using a generative adversarial network (GAN). This helps improve detection accuracy.

또한, 실시예에서는 이미지 인식 정확도를 유지하면서 모델의 크기를 줄이기 위해, 연산을 간소화하는 경량 딥러닝 기술을 이용하여 이미지 입력값을 분류할 수 있도록 한다. 실시예에서는 이미지 인식을 위해 콘볼루션 신경망(CNN, Convolution Neural Network)에서 콘볼루션 필터를 변형하여 연산 차원을 축소(Reduction)하거나 큰 영향이 없는 신경망의 가중치(weight)를 삭제하는 가지치기, 가중치 값의 부동 소수점을 줄여 연산을 간소화하는 양자화 과정을 수행하여 데이터 경량화를 가능하도록 한다. 또한, 실시예에서는 미리 학습시킨 큰 신경망의 출력을 작은 신경망에서 모방 학습하도록 하여 연산을 간소화하며 정확도를 유지할 수 있도록 한다.Additionally, in the embodiment, in order to reduce the size of the model while maintaining image recognition accuracy, image input values can be classified using lightweight deep learning technology that simplifies computation. In the embodiment, for image recognition, a convolutional filter is modified in a convolutional neural network (CNN) to reduce the operation dimension, or pruning and weight values to delete weights of a neural network that do not have a significant impact are performed. A quantization process is performed to simplify calculations by reducing the number of floating point numbers, enabling data lightweighting. Additionally, in the embodiment, the output of a pre-trained large neural network is imitated and learned by a small neural network to simplify computation and maintain accuracy.

후처리 모듈(230)은 산출된 확률값에 따른 디스플레이 객체 및 알림음을 추출하여 출력한다. 실시예에서 후처리 모듈(230)은 산출된 확률 값에 따라 복수개의 임계값을 설정하고, 설정된 임계 값으로 디스플레이 객체 및 알림음이 매칭되는 범위를 생성할 수 있다. 실시예에서는 확률값이 제1임계값인 0 퍼센트 미만으로 산출되는 경우 반응이 없도록 하고, 제1임계값인 50퍼센트 이상 제 2 임계값인 60 퍼센트 미만으로 산출되는 경우, 파란색을 출력하도록 하고, 제2임계값인 60퍼센트 이상 제3임계값인 70 퍼센트 미만인 경우 초록색을 출력하도록 한다. 산출된 확률값이 제3 임계값인 70 퍼센트 이상 제4임계값인 80 퍼센트 미만인 경우 노란색이 출력되도록 하고, 제4 임계값인 80 퍼센트 이상 제5임계값인 90 퍼센트 미만인 경우 주황색이 출력되도록 설정할 수 있다. 산출된 확률값이 제 5임계값인 90 퍼센트를 초과하는 경우 실시예에서는 빨강색을 출력하고 일정 확률(예컨대, 80 퍼센트)를 초과하는 경우, 알람음이 출력되도록 설정할 수 있다. 실시예에서 산출되는 확률값은 선형(linear)적으로 산출되지 않을 수 있으므로, 시청각 객체와의 매칭 범위를 결정하는 제1 임계값 내지 제5임계값은 구조 신호에 따라 다르게 설정될 수 있다. 이러한 후처리는 임계값에 따라 구조 신호 청취 근무자의 피로도를 증가시키지 않으면서 확인불가 (미상 불명)의 신호 중 청취 근무자의 주의를 환기시킬 필요가 있는 신호를 잡아낼 수 있도록 돕는다. 이러한 임계값은 임의적으로 설정되는 것이 아니라 도 3에서 표시되듯 특정 기간의 '실제 조난' 대비 '확인불가 신호'의 비율이 증가하는 경우 각 임계값을 낮추어 조금 더 낮은 확률값에도 청취 근무자의 주의를 환기하도록 설정될 수 있다. 이 경우 조금 더 높은 빈도로 구조 신호의 발생 여부를 청취 근무자에게 전달하게 될 것이다. 이러한 후처리를 통해 컴퓨터를 통한 인공지능 해양 구조 신호의 자동적 인식과 청취 근무자를 통한 육성 인식이 협업 관계를 이룰 수 있게 된다.The post-processing module 230 extracts and outputs display objects and notification sounds according to the calculated probability value. In an embodiment, the post-processing module 230 may set a plurality of thresholds according to the calculated probability value and create a range in which the display object and the notification sound match with the set threshold. In the embodiment, if the probability value is calculated to be less than 0 percent, which is the first threshold, there is no response, and if the probability value is calculated to be more than 50 percent, which is the first threshold, but less than 60 percent, which is the second threshold, blue is output, and If it is more than 60 percent, which is the second threshold, but less than 70 percent, which is the third threshold, green is output. If the calculated probability value is more than 70 percent, which is the third threshold, but less than 80 percent, which is the fourth threshold, yellow is output, and if the calculated probability value is more than 80 percent, which is the fourth threshold, but less than 90 percent, which is the fifth threshold, orange is output. there is. If the calculated probability value exceeds 90 percent, which is the fifth threshold, in the embodiment, a red color may be output, and if the calculated probability value exceeds a certain probability (e.g., 80 percent), an alarm sound may be output. Since the probability value calculated in the embodiment may not be calculated linearly, the first to fifth thresholds that determine the matching range with the audiovisual object may be set differently depending on the rescue signal. Depending on the threshold, this post-processing helps to catch signals that need to be brought to the attention of the listening worker among unidentifiable (unknown) signals without increasing the fatigue of the rescue signal listening worker. These thresholds are not set arbitrarily, but as shown in Figure 3, when the ratio of 'unidentifiable signals' to 'actual distress' in a certain period increases, each threshold is lowered to draw the attention of listening workers even at slightly lower probability values. It can be set to do so. In this case, the occurrence of a rescue signal will be communicated to the listening worker at a slightly higher frequency. Through this post-processing, automatic recognition of artificial intelligence marine rescue signals through computers and foster recognition through listening workers can form a collaborative relationship.

이하에서는 인공지능 기반 해양 구조 신호 자동 식별 방법에 대해서 차례로 설명한다. 실시예에 따른 인공지능 기반 해양 구조 신호 자동 식별 방법의 작용(기능)은 인공지능 기반 해양 구조 신호 자동 식별 시스템의 기능과 본질적으로 같은 것이므로 도 4 내지 도 8과 중복되는 설명은 생략하도록 한다. Below, we will sequentially explain the artificial intelligence-based automatic identification method for marine rescue signals. Since the operation (function) of the artificial intelligence-based marine rescue signal automatic identification method according to the embodiment is essentially the same as the function of the artificial intelligence-based marine rescue signal automatic identification system, descriptions overlapping with FIGS. 4 to 8 will be omitted.

도 9는 실시예에 따른 인공지능 기반 해양 구조 신호 자동 식별 시스템의 신호 흐름을 나타낸 도면이다.Figure 9 is a diagram showing the signal flow of an artificial intelligence-based marine rescue signal automatic identification system according to an embodiment.

도 9를 참조하면, S100 단계에서는 구조신호 전송장치에서 구조요청자의 음성을 포함하는 구조 신호가 입력되면, S200 단계에서 구조 신호를 전자신호로 변환하고, 변환된 전자신호를 구조신호 자동 식별 장치로 전송한다. S300 단계에서는 구조신호 자동 식별 장치에서 구조신호 전송 장치로부터 전송된 전자신호를 수신하고, S400 단계에서 전기신호로 변환 후 증폭할 수 있다. S500 단계에서는 전기신호(증폭된 경우, 증폭된 전기신호)를 스펙토그램(spectogram)을 통해 비전 및 사운드 형태로 시각화 한다. Referring to FIG. 9, in step S100, when a rescue signal including the voice of a rescue requester is input from the rescue signal transmission device, the rescue signal is converted into an electronic signal in step S200, and the converted electronic signal is transmitted to an automatic rescue signal identification device. send. In step S300, the automatic rescue signal identification device receives the electronic signal transmitted from the rescue signal transmission device, and in step S400, it can be converted to an electric signal and amplified. In the S500 stage, the electrical signal (if amplified, the amplified electrical signal) is visualized in the form of vision and sound through a spectogram.

도 10은 실시예에 따른 구조신호 자동 식별 장치의 데이터 처리과정을 나타낸 도면이다.Figure 10 is a diagram showing the data processing process of the automatic rescue signal identification device according to an embodiment.

도 10을 참조하면, S910 단계에서는 전처리모듈에서 메이데이, 살려주세요, 화재, 침몰을 포함하는 음성구조신호 키워드를 수집하고, S920 단계에서는 수집된 음성구조신호를 전기신호 단계에서 파장 데이터로 가공한다. S930 단계에서는 딥러닝 모듈에서 가공된 파장 데이터를 아카이빙 하고, S940 단계에서는 수신기에 구조신호가 입력되면, 아카이빙 된 파장 데이터와 입력된 구조신호를 비교하여 구조신호를 인지하는 인공지능 알고리즘을 통해 전기신호에서 구조신호를 인지한다. S950 단계에서는 인지된 구조신호를 구조기관으로 전달한다.Referring to Figure 10, in step S910, voice rescue signal keywords including mayday, please help me, fire, and sinking are collected in the preprocessing module, and in step S920, the collected voice rescue signal is processed into wavelength data in the electrical signal step. In the S930 step, the wavelength data processed by the deep learning module is archived, and in the S940 step, when a rescue signal is input to the receiver, the electrical signal is generated through an artificial intelligence algorithm that recognizes the rescue signal by comparing the archived wavelength data and the input rescue signal. Recognizes a rescue signal. In step S950, the recognized rescue signal is transmitted to the rescue organization.

도 11은 실시예에 따른 인공지능 기반 해양 구조 신호 자동 식별의 데이터 처리 흐름을 나타낸 도면이다.Figure 11 is a diagram showing the data processing flow of artificial intelligence-based automatic identification of marine rescue signals according to an embodiment.

도 11을 참조하면, S941 단계에서는 변환된 전기신호의 시간, 주파수, 진폭을 포함하는 분석요소를 파악하고, S942 단계에서는 파악된 분석요소를 그래프로 시각화한 스펙토그램(Spectrogram)을 생성한다. S943 단계에서는 생성된 스펙토그램을 일정시간 간격으로 분할한다. S944 단계에서는 분할된 일정 시간간격의 스펙토그램 이미지를 포함하는 입력 데이터를 분류(classification)하고, 분류 값의 정확도를 확률로 산출한다. S945 단계에서는 구조요청 시 사용하는 키워드를 선별하여 선별된 키워드를 인식하도록 학습한다. S946 단계에서는 산출된 확률값에 따른 디스플레이 객체 및 알림음을 추출하여 출력한다. Referring to FIG. 11, in step S941, analysis elements including time, frequency, and amplitude of the converted electrical signal are identified, and in step S942, a spectrogram visualizing the identified analysis elements in a graph is generated. In step S943, the generated spectogram is divided into regular time intervals. In step S944, input data including segmented spectogram images at regular time intervals are classified, and the accuracy of the classification value is calculated as a probability. In step S945, keywords used when requesting rescue are selected and learned to recognize the selected keywords. In step S946, the display object and notification sound are extracted and output according to the calculated probability value.

실시예에서 S942 단계에서는 변환된 전기신호의 시간, 주파수, 진폭을 포함하는 분석요소를 파악하고, 파악된 분석요소를 그래프로 시각화한 스펙토그램(Spectrogram)을 생성하고, 생성된 스펙토그램을 일정시간 간격으로 분할한다. 스펙토그램은 소리의 스펙트럼을 시각화 하여 시각화 객체 중 하나인 그래프로 나타내는 것이다. 도 7은 실시예에 따른 스펙토그램을 나타낸 도면으로, 도 7을 참조하면, 스펙토그램의 x축은 시간, y축은 주파수, z축은 진폭을 나타낸다.In the embodiment, in step S942, analysis elements including time, frequency, and amplitude of the converted electrical signal are identified, a spectrogram visualizing the identified analysis elements as a graph is generated, and the generated spectogram is Divide at regular time intervals. A spectogram visualizes the spectrum of sound and represents it as a graph, one of the visualization objects. FIG. 7 is a diagram showing a spectogram according to an embodiment. Referring to FIG. 7, the x-axis of the spectogram represents time, the y-axis represents frequency, and the z-axis represents amplitude.

S944 단계에서는 음성데이터를 푸리에 변환(Fourier Transform, FT)를 통해서 시간 영역에서(time domain)에서 주파수 영역(frequency domain)으로 변경하고, 소음제거(denoising) 과정을 수행한 후 딥러닝 모듈로 입력할 수 있다. In step S944, the voice data is changed from the time domain to the frequency domain through Fourier Transform (FT), a denoising process is performed, and then input into the deep learning module. You can.

구체적으로, 실시예에서는 주파수 영역(frequency domain)으로 변환되기 전의 데이터를 지정된 윈도우(window) 사이즈에 맞춰서 분할하고, 분할된 데이터를 DFT(Discrete Fourier Transform)을 통해서 변환하고, 변환된 정보를 연결하여 엔코더-디코더 네트워크(Encoder-Decoder network)를 기반으로 한 딥러닝 네트워크(DL network)에 입력하여 노이즈 제거(denoising)를 진행한다. 또한, 실시예에서는 전기신호의 원시파형(raw wave form)을 입력할 수 있다. 실시예에서는 노이즈가 없는 스피치(clean speech)와 노이즈(noise)를 조합하여 데이터 증폭(data augmentation)을 수행할 수 있다. 실시예에서는 증폭된 데이터를 LSTM(Long Short-Term Memory)이 가미된 U-net 기반에 엔코더-디코더 네트워크(Encoder-Decoder network)를 통해서 노이즈 제거(denoising)를 수행할 수 있다.Specifically, in the embodiment, the data before being converted to the frequency domain is divided according to the specified window size, the divided data is transformed through DFT (Discrete Fourier Transform), and the transformed information is connected. Denoising is performed by inputting it into a deep learning network (DL network) based on an encoder-decoder network. Additionally, in the embodiment, the raw wave form of the electrical signal may be input. In an embodiment, data augmentation may be performed by combining clean speech and noise. In an embodiment, denoising can be performed on the amplified data through an encoder-decoder network based on U-net with Long Short-Term Memory (LSTM).

S945 단계에서는 분할된 일정 시간간격의 스펙토그램 이미지를 포함하는 입력 데이터를 분류(classification)하고, 분류 값의 정확도를 확률로 산출하고, 구조요청 시 사용하는 키워드를 선별하여 선별된 키워드를 인식하도록 학습한다. 실시예에서는 구조신호 키워드 정보 파악에 최적화된 맞춤형 트레이닝 데이터 셋(Training Data Set)을 기반으로 딥러닝 뉴럴 네트워크에 기초한 기계학습을 수행하여 구조신호 인식 모델을 구현할 수 있다. 실시예에서 딥러닝 모듈(220)은 DNN(Deep Neural Network), CNN(Convolutional Neural Network) RNN(Recurrent Neural Network) 및 BRDNN(Bidirectional Recurrent Deep Neural Network) 중 적어도 하나를 포함하는 딥러닝 뉴럴 네트워크를 트레이닝 데이터 셋으로 학습시켜 키워드 인식 모델 및 정확도 산출 모델을 구현할 수 있다.In step S945, input data including segmented spectogram images at regular time intervals are classified, the accuracy of the classification value is calculated as a probability, and keywords used when requesting rescue are selected to recognize the selected keywords. learn In an embodiment, a rescue signal recognition model can be implemented by performing machine learning based on a deep learning neural network based on a customized training data set optimized for identifying rescue signal keyword information. In an embodiment, the deep learning module 220 trains a deep learning neural network including at least one of a Deep Neural Network (DNN), a Convolutional Neural Network (CNN), a Recurrent Neural Network (RNN), and a Bidirectional Recurrent Deep Neural Network (BRDNN). By training with a data set, a keyword recognition model and accuracy calculation model can be implemented.

S946 단계에서는 산출된 확률 값에 따라 복수개의 임계값을 설정하고, 설정된 임계 값으로 디스플레이 객체 및 알림음이 매칭되는 범위를 생성할 수 있다. 실시예에서는 확률값이 제1임계값인 0 퍼센트 미만으로 산출되는 경우 반응이 없도록 하고, 제1임계값인 50퍼센트 이상 제 2 임계값인 60 퍼센트 미만으로 산출되는 경우, 파란색을 출력하도록 하고, 제2임계값인 60퍼센트 이상 제3임계값인 70 퍼센트 미만인 경우 초록색을 출력하도록 한다. 산출된 확률값이 제3 임계값인 70 퍼센트 이상 제4임계값인 80 퍼센트 미만인 경우 노란색이 출력되도록 하고, 제4 임계값인 80 퍼센트 이상 제5임계값인 90 퍼센트 미만인 경우 주황색이 출력되도록 설정할 수 있다. 산출된 확률값이 제 5임계값인 90 퍼센트를 초과하는 경우 실시예에서는 빨강색을 출력하고 일정 확률(예컨대, 80 퍼센트)를 초과하는 경우, 알람음이 출력되도록 설정할 수 있다. 실시예에서 산출되는 확률값은 선형(linear)적으로 산출되지 않을 수 있으므로, 시청각 객체와의 매칭 범위를 결정하는 제1 임계값 내지 제5임계값은 구조 신호에 따라 다르게 설정될 수 있다. In step S946, a plurality of threshold values are set according to the calculated probability value, and a range in which the display object and the notification sound are matched can be created using the set threshold values. In the embodiment, if the probability value is calculated to be less than 0 percent, which is the first threshold, there is no response, and if the probability value is calculated to be more than 50 percent, which is the first threshold, but less than 60 percent, which is the second threshold, blue is output, and If it is more than 60 percent, which is the second threshold, but less than 70 percent, which is the third threshold, green is output. If the calculated probability value is more than 70 percent, which is the third threshold, but less than 80 percent, which is the fourth threshold, yellow is output, and if the calculated probability value is more than 80 percent, which is the fourth threshold, but less than 90 percent, which is the fifth threshold, orange is output. there is. If the calculated probability value exceeds 90 percent, which is the fifth threshold, in the embodiment, a red color may be output, and if the calculated probability value exceeds a certain probability (e.g., 80 percent), an alarm sound may be output. Since the probability value calculated in the embodiment may not be calculated linearly, the first to fifth thresholds that determine the matching range with the audiovisual object may be set differently depending on the rescue signal.

이상에서와 같은 인공지능 기반 해양 구조 신호 자동 식별 시스템 및 방법은, 조난신호 수신기 내부 구조에서 청각을 활용해야 했던 복잡한 절차 없이, 전파분류를 활용한 인공지능 분석으로 구조신호를 빠르고 정확하게 구조기관에 알릴 수 있도록 한다. The artificial intelligence-based marine rescue signal automatic identification system and method as described above can quickly and accurately report rescue signals to rescue organizations through artificial intelligence analysis using radio wave classification without the complicated procedure of using hearing in the internal structure of the distress signal receiver. make it possible

실시예에서는 수신기로 입력되는 전기신호를 스펙토그램(Spectrogram)으로 변형시켜 잡음을 제거함으로써, 구조신호의 청취율 극대화할 수 있다.In an embodiment, the audibility of the rescue signal can be maximized by transforming the electrical signal input to the receiver into a spectrogram to remove noise.

또한, 실시예에서는 구조신호 발생부터 구조기관의 구조신호 인지까지 구조 개시 과정에 필요한 절차를 절감시켜, 재난 사고 발생시 신속한 구조활동을 가능하게 한다. In addition, in the embodiment, the procedures required for the rescue initiation process, from generating a rescue signal to recognizing the rescue signal from a rescue organization, are reduced, thereby enabling rapid rescue activities in the event of a disaster.

또한, 실시예에서는 수신기 설치를 통해, 다수의 채널을 동시 청취 가능하게 하여 다양한 주파수와 채널에서 발생할 수 있는 구조신호를 놓치지 않고 구조기관에 전달할 수 있도록 한다.In addition, in the embodiment, through the installation of a receiver, multiple channels can be listened to simultaneously, so that rescue signals that may occur at various frequencies and channels can be transmitted to rescue organizations without being missed.

개시된 내용은 예시에 불과하며, 특허청구범위에서 청구하는 청구의 요지를 벗어나지 않고 당해 기술분야에서 통상의 지식을 가진 자에 의하여 다양하게 변경 실시될 수 있으므로, 개시된 내용의 보호범위는 상술한 특정의 실시예에 한정되지 않는다.The disclosed content is merely an example, and various modifications and implementations may be made by those skilled in the art without departing from the gist of the claims, so the scope of protection of the disclosed content is limited to the above-mentioned specific scope. It is not limited to the examples.

Claims (10)

인공지능 기반 해양 구조 신호 자동 식별 시스템에 있어서,
구조요청자의 음성을 포함하는 구조 신호가 입력되면, 상기 구조 신호를 전자신호로 변환하고, 변환된 전자신호를 전송하는 구조신호 전송 장치; 및
상기 구조신호 전송 장치로부터 전송된 전자신호를 수신하여, 전기신호로 변환하고, 전기신호를 스펙토그램(spectogram)을 통해 비전 및 사운드 형태로 시각화 하는 구조신호 자동 식별 장치; 를 포함하고
상기 구조신호 자동 식별 장치; 는
메이데이, 살려주세요, 화재, 침몰을 포함하는 음성구조신호 키워드를 수집하고, 수집된 음성구조신호를 전기신호 단계에서 파장 데이터로 가공하고
가공된 파장 데이터를 아카이빙 하여 인공지능 알고리즘으로 수신기에 구조신호가 입력되면, 아카이빙 된 파장 데이터를 통해 전기신호 단계에서 구조신호를 인지하여 구조기관에 알리고
상기 구조신호 자동 식별 장치; 는
변환된 전기신호의 시간, 주파수, 진폭을 포함하는 분석요소를 파악하고, 파악된 분석요소를 그래프로 시각화한 스펙토그램(Spectrogram)을 생성하고, 생성된 스펙토그램을 일정시간 간격으로 분할하는 전처리모듈;
상기 분할된 일정 시간간격의 스펙토그램 이미지를 포함하는 입력 데이터를 분류(classification)하고, 분류 값의 정확도를 확률로 산출하고, 구조요청 시 사용하는 키워드를 선별하여 선별된 키워드를 인식하도록 학습하는 딥러닝 모듈; 및
산출된 확률값에 따른 디스플레이 객체 및 알림음을 추출하여 출력하는 후처리 모듈; 을 포함하고,
상기 후처리 모듈; 은
산출된 확률 값에 따라 복수개의 임계값을 설정하고, 설정된 임계 값으로 디스플레이 객체 및 알림음이 매칭되는 범위를 생성하고
상기 전처리 모듈; 은
음성데이터를 푸리에 변환(Fourier Transform, FT)를 통해서 시간 영역에서(time domain)에서 주파수 영역(frequency domain)으로 변경하고, 소음제거(denoising) 과정을 수행한 후 딥러닝 모듈로 입력하고,
주파수 영역(frequency domain)으로 변환되기 전의 데이터를 지정된 윈도우(window) 사이즈에 맞춰서 분할하고, 분할된 데이터를 DFT(Discrete Fourier Transform)를 통해 변환하고, 변환된 정보를 연결하여 엔코더-디코더 네트워크(Encoder-Decoder network)를 기반으로 한 딥러닝 네트워크(DL network)에 입력하여 노이즈 제거(denoising)를 진행하고,
노이즈가 없는 스피치(clean speech)와 노이즈(noise)를 조합하여 데이터 증폭(data augmentation)후, 증폭된 데이터를 LSTM(Long Short-Term Memory)이 가미된 U-net 기반에 엔코더-디코더 네트워크(Encoder-Decoder network)를 통해서 노이즈 제거(denoising)를 수행하고,
상기 딥러닝 모듈; 은
분할된 일정 시간간격의 스펙토그램 이미지를 포함하는 입력 데이터를 분류(classification)하고, 분류 값의 정확도를 확률로 산출하고, 구조요청 시 사용하는 키워드를 선별하여 선별된 키워드를 인식하도록 키워드 인식 모델 및 정확도 산출 모델을 학습시키고,
구조신호 키워드 정보 파악에 최적화된 맞춤형 트레이닝 데이터 셋(Training Data Set)을 기반으로 딥러닝 뉴럴 네트워크에 기초한 기계학습을 수행하여 구조신호 인식 모델을 구현하고,
분할된 일정 시간간격의 스펙토그램 이미지를 분류하는 과정에서 인공지능 머신러닝을 통한 이미지 인식(image recognition)을 통해, 이미지 입력데이터를 분류하고,
상기 구조신호 자동 식별 장치; 는
저장된 파장 데이터와 구조신호의 파장 데이터를 비교하여 비교 결과에 따라 구조 신호를 인지하고, 저장된 파장 데이터와 구조 신호의 파장 일치율을 구조신호 발생 확률 값으로 변환하여 산출된 확률값에 따라 알림음 또는 시각 객체를 출력하여 구조기관에 구조신호를 전달하는 인공지능 기반 해양 구조 신호 자동 식별 시스템.
In the artificial intelligence-based automatic identification system for marine rescue signals,
When a rescue signal including the voice of a rescue requester is input, a rescue signal transmission device that converts the rescue signal into an electronic signal and transmits the converted electronic signal; and
An automatic rescue signal identification device that receives the electronic signal transmitted from the rescue signal transmission device, converts it into an electric signal, and visualizes the electric signal in the form of vision and sound through a spectogram; includes
The rescue signal automatic identification device; Is
We collect voice rescue signal keywords including mayday, please help me, fire, and sinking, and process the collected voice rescue signals into wavelength data at the electrical signal stage.
By archiving the processed wavelength data, when a rescue signal is input to the receiver using an artificial intelligence algorithm, the rescue signal is recognized at the electrical signal stage through the archived wavelength data and notified to the rescue agency.
The rescue signal automatic identification device; Is
Identify analysis elements including time, frequency, and amplitude of the converted electrical signal, create a spectrogram visualizing the identified analysis elements in a graph, and divide the generated spectogram into regular time intervals. Preprocessing module;
Classifies input data including the divided spectogram images at regular time intervals, calculates the accuracy of the classification value as a probability, selects keywords used when requesting rescue, and learns to recognize the selected keywords. Deep learning module; and
A post-processing module that extracts and outputs display objects and notification sounds according to the calculated probability value; Including,
The post-processing module; silver
Set a plurality of thresholds according to the calculated probability value, create a range in which the display object and notification sound match with the set threshold, and
The preprocessing module; silver
Voice data is changed from the time domain to the frequency domain through Fourier Transform (FT), a denoising process is performed, and then input into the deep learning module.
The data before being converted to the frequency domain is divided according to the specified window size, the divided data is converted through DFT (Discrete Fourier Transform), and the converted information is connected to create an encoder-decoder network. Denoising is performed by inputting it into a deep learning network (DL network) based on -Decoder network.
After data augmentation by combining clean speech and noise, the amplified data is connected to an encoder-decoder network based on U-net with LSTM (Long Short-Term Memory). -Decoder network) performs noise removal (denoising),
The deep learning module; silver
A keyword recognition model that classifies input data containing segmented spectogram images at regular time intervals, calculates the accuracy of the classification value as a probability, and selects keywords used when requesting rescue to recognize the selected keywords. and train an accuracy calculation model,
A rescue signal recognition model is implemented by performing machine learning based on a deep learning neural network based on a customized training data set optimized for identifying rescue signal keyword information.
In the process of classifying segmented spectogram images at regular time intervals, image input data is classified through image recognition using artificial intelligence machine learning,
The rescue signal automatic identification device; Is
By comparing the saved wavelength data and the rescue signal wavelength data, the rescue signal is recognized according to the comparison result, and the wavelength matching rate between the saved wavelength data and the rescue signal is converted into a rescue signal occurrence probability value, and a notification sound or visual object is generated according to the calculated probability value. An artificial intelligence-based automatic marine rescue signal identification system that outputs and transmits rescue signals to rescue organizations.
삭제delete 삭제delete 삭제delete 삭제delete 인공지능 기반 해양 구조 신호 자동 식별 방법에 있어서,
(A) 구조신호 전송장치에서 구조요청자의 음성을 포함하는 구조 신호가 입력되면, 상기 구조 신호를 전자신호로 변환하고, 변환된 전자신호를 전송하는 단계;
(B) 구조신호 자동 식별 장치에서 상기 구조신호 전송 장치로부터 전송된 전자신호를 수신하여, 전기신호로 변환하고, 전기신호를 스펙토그램(spectogram)을 통해 비전 및 사운드 형태로 시각화 하는 단계; 를 포함하고
상기 (B)의 단계; 는
(B-1) 메이데이, 살려주세요, 화재, 침몰을 포함하는 음성구조신호 키워드를 수집하고, 수집된 음성구조신호를 전기신호 단계에서 파장 데이터로 가공하는 단계;
(B-2) 가공된 파장 데이터를 아카이빙 하여 인공지능 알고리즘으로 수신기에 구조신호가 입력되면, 아카이빙 된 파장 데이터를 통해 전기신호에서 구조신호를 인지하는 단계; 및
(B-3) 인지된 구조신호를 구조기관으로 전달하는 단계; 를 포함하고
상기 (B-1)의 단계; 는
변환된 전기신호의 시간, 주파수, 진폭을 포함하는 분석요소를 파악하고, 파악된 분석요소를 그래프로 시각화한 스펙토그램(Spectrogram)을 생성하고, 생성된 스펙토그램을 일정시간 간격으로 분할하는 단계; 를 포함하고,
상기 (B-2)의 단계; 는
상기 분할된 일정 시간간격의 스펙토그램 이미지를 포함하는 입력 데이터를 분류(classification)하고, 분류 값의 정확도를 확률로 산출하고, 구조요청 시 사용하는 키워드를 선별하여 선별된 키워드를 인식하도록 학습하는 단계; 및
산출된 확률값에 따른 디스플레이 객체 및 알림음을 추출하여 출력하는 단계; 를 포함하고
상기 산출된 확률값에 따른 디스플레이 객체 및 알림음을 추출하여 출력하는 단계; 는
산출된 확률 값에 따라 복수개의 임계값을 설정하고, 설정된 임계 값으로 디스플레이 객체 및 알림음이 매칭되는 범위를 생성하고
상기 변환된 전기신호의 시간, 주파수, 진폭을 포함하는 분석요소를 파악하고, 파악된 분석요소를 그래프로 시각화한 스펙토그램(Spectrogram)을 생성하고, 생성된 스펙토그램을 일정시간 간격으로 분할하는 단계; 는
음성데이터를 푸리에 변환(Fourier Transform, FT)를 통해서 시간 영역에서(time domain)에서 주파수 영역(frequency domain)으로 변경하고, 소음제거(denoising) 과정을 수행한 입력 데이터를 생성하고
상기 (B-1)의 단계; 는
주파수 영역(frequency domain)으로 변환되기 전의 데이터를 지정된 윈도우(window) 사이즈에 맞춰서 분할하고, 분할된 데이터를 DFT(Discrete Fourier Transform)를 통해 변환하고, 변환된 정보를 연결하여 엔코더-디코더 네트워크(Encoder-Decoder network)를 기반으로 한 딥러닝 네트워크(DL network)에 입력하여 노이즈 제거(denoising)를 진행하고,
노이즈가 없는 스피치(clean speech)와 노이즈(noise)를 조합하여 데이터 증폭(data augmentation)후, 증폭된 데이터를 LSTM(Long Short-Term Memory)이 가미된 U-net 기반에 엔코더-디코더 네트워크(Encoder-Decoder network)를 통해서 노이즈 제거(denoising)를 수행하고,
상기 (B-2)의 단계; 는
구조신호 키워드 정보 파악에 최적화된 맞춤형 트레이닝 데이터 셋(Training Data Set)을 기반으로 딥러닝 뉴럴 네트워크에 기초한 기계학습을 수행하여 구조신호 인식 모델을 구현하고,
분할된 일정 시간간격의 스펙토그램 이미지를 분류하는 과정에서 인공지능 머신러닝을 통한 이미지 인식(image recognition)을 통해, 이미지 입력데이터를 분류하고,
상기 (B-3)의 단계; 는
저장된 파장 데이터와 구조신호의 파장 데이터를 비교하여 비교 결과에 따라 구조 신호를 인지하고, 저장된 파장 데이터와 구조 신호의 파장 일치율을 구조신호 발생 확률 값으로 변환하여 산출된 확률값에 따라 알림음 또는 시각 객체를 출력하여 구조기관에 구조신호를 전달하는 인공지능 기반 해양 구조 신호 자동 식별 방법.
In the artificial intelligence-based automatic identification method of marine rescue signals,
(A) When a rescue signal including the voice of a rescue requester is input from the rescue signal transmission device, converting the rescue signal into an electronic signal and transmitting the converted electronic signal;
(B) receiving the electronic signal transmitted from the rescue signal transmission device in an automatic rescue signal identification device, converting it into an electric signal, and visualizing the electric signal in the form of vision and sound through a spectogram; includes
Step (B) above; Is
(B-1) Collecting voice rescue signal keywords including mayday, please help me, fire, and sinking, and processing the collected voice rescue signals into wavelength data at the electrical signal stage;
(B-2) archiving the processed wavelength data and, when the rescue signal is input to the receiver using an artificial intelligence algorithm, recognizing the rescue signal from the electrical signal through the archived wavelength data; and
(B-3) transmitting the recognized rescue signal to the rescue organization; includes
Step (B-1) above; Is
Identify analysis elements including time, frequency, and amplitude of the converted electrical signal, create a spectrogram visualizing the identified analysis elements in a graph, and divide the generated spectogram into regular time intervals. step; Including,
Step (B-2) above; Is
Classifies input data including the divided spectogram images at regular time intervals, calculates the accuracy of the classification value as a probability, selects keywords used when requesting rescue, and learns to recognize the selected keywords. step; and
Extracting and outputting a display object and a notification sound according to the calculated probability value; includes
Extracting and outputting a display object and a notification sound according to the calculated probability value; Is
Set a plurality of thresholds according to the calculated probability value, create a range in which the display object and notification sound match with the set threshold, and
Identify analysis elements including time, frequency, and amplitude of the converted electrical signal, generate a spectrogram visualizing the identified analysis elements as a graph, and divide the generated spectogram into regular time intervals. steps; Is
Voice data is changed from the time domain to the frequency domain through Fourier Transform (FT), and input data is generated by performing a denoising process.
Step (B-1) above; Is
The data before being converted to the frequency domain is divided according to the specified window size, the divided data is converted through DFT (Discrete Fourier Transform), and the converted information is connected to create an encoder-decoder network. Denoising is performed by inputting it into a deep learning network (DL network) based on -Decoder network.
After data augmentation by combining clean speech and noise, the amplified data is connected to an encoder-decoder network based on U-net with LSTM (Long Short-Term Memory). -Decoder network) performs noise removal (denoising),
Step (B-2) above; Is
A rescue signal recognition model is implemented by performing machine learning based on a deep learning neural network based on a customized training data set optimized for identifying rescue signal keyword information.
In the process of classifying segmented spectogram images at regular time intervals, image input data is classified through image recognition using artificial intelligence machine learning,
Step (B-3) above; Is
By comparing the saved wavelength data and the rescue signal wavelength data, the rescue signal is recognized according to the comparison result, and the wavelength matching rate between the saved wavelength data and the rescue signal is converted into a rescue signal occurrence probability value, and a notification sound or visual object is generated according to the calculated probability value. An artificial intelligence-based automatic identification method for marine rescue signals that outputs and transmits rescue signals to rescue organizations.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020220128181A 2022-10-06 2022-10-06 Artificial intelligence-based marine rescue signal automatic identification system and method KR102628542B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220128181A KR102628542B1 (en) 2022-10-06 2022-10-06 Artificial intelligence-based marine rescue signal automatic identification system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220128181A KR102628542B1 (en) 2022-10-06 2022-10-06 Artificial intelligence-based marine rescue signal automatic identification system and method

Publications (1)

Publication Number Publication Date
KR102628542B1 true KR102628542B1 (en) 2024-01-23

Family

ID=89713500

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220128181A KR102628542B1 (en) 2022-10-06 2022-10-06 Artificial intelligence-based marine rescue signal automatic identification system and method

Country Status (1)

Country Link
KR (1) KR102628542B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120130371A (en) * 2011-05-23 2012-12-03 수원대학교산학협력단 Method for recogning emergency speech using gmm
KR20130124083A (en) * 2012-05-04 2013-11-13 (주)지엠티 Inner-sea maritime security system and its security method by using ais
KR101764816B1 (en) 2015-09-07 2017-08-14 주식회사 오경컴텍 The apparatus of smart wearable of auto emergency rescue signal transfer and a customizable module
KR101998521B1 (en) 2018-07-05 2019-10-01 이옥홍 Control method of underwater participants using rescue signal generation device
KR102191736B1 (en) * 2020-07-28 2020-12-16 주식회사 수퍼톤 Method and apparatus for speech enhancement with artificial neural network

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120130371A (en) * 2011-05-23 2012-12-03 수원대학교산학협력단 Method for recogning emergency speech using gmm
KR20130124083A (en) * 2012-05-04 2013-11-13 (주)지엠티 Inner-sea maritime security system and its security method by using ais
KR101764816B1 (en) 2015-09-07 2017-08-14 주식회사 오경컴텍 The apparatus of smart wearable of auto emergency rescue signal transfer and a customizable module
KR101998521B1 (en) 2018-07-05 2019-10-01 이옥홍 Control method of underwater participants using rescue signal generation device
KR102191736B1 (en) * 2020-07-28 2020-12-16 주식회사 수퍼톤 Method and apparatus for speech enhancement with artificial neural network

Similar Documents

Publication Publication Date Title
CN109616140B (en) Abnormal sound analysis system
JP5697803B2 (en) Object detection apparatus and object detection method
US20190377325A1 (en) System and methods of novelty detection using non-parametric machine learning
CN111222526B (en) Method, device, equipment and storage medium for identifying real-time fishing behavior of fishing vessel
Schroeder et al. Detection and classification of acoustic events for in-home care
Carmel et al. Detection of alarm sounds in noisy environments
CN114596879B (en) False voice detection method and device, electronic equipment and storage medium
CN111223261A (en) Composite intelligent production security system and security method thereof
KR20190019713A (en) System and method for classifying based on support vector machine for uav sound identification
KR101250668B1 (en) Method for recogning emergency speech using gmm
KR102628542B1 (en) Artificial intelligence-based marine rescue signal automatic identification system and method
KR101749254B1 (en) Deep learning based integrated acoustic sound cognition system
Babalola et al. Detection of Bryde's whale short pulse calls using time domain features with hidden Markov models
Colonna et al. A framework for chainsaw detection using one-class kernel and wireless acoustic sensor networks into the amazon rainforest
CN110600007B (en) Ship recognition and positioning system and method based on voice
Park et al. Identifying tonal frequencies in a Lofargram with convolutional neural networks
CN111934800B (en) Broadcast content monitoring method and system
JP7000963B2 (en) Sonar equipment, acoustic signal discrimination method, and program
CN111445926B (en) Rural road traffic accident warning condition identification method based on sound
KR101655397B1 (en) Terminal apparatus and system for reporting circumstances
JP5907487B2 (en) Information transmission system, transmission device, reception device, information transmission method, and program
Rahuman et al. Flying insect identification based on wing-beat frequency using modified SVM classifier
Vogelbacher et al. Deep learning for recognizing bat species and bat behavior in audio recordings
Feng et al. Underwater acoustic target recognition method based on WA-DS decision fusion
Takeuchi et al. A smart-phone based system to detect warning sound for hearing impaired people

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant