KR102054153B1 - Artificial intelligence automatic identification system by fusion of deep run based submarine sonar data and periscope image data - Google Patents

Artificial intelligence automatic identification system by fusion of deep run based submarine sonar data and periscope image data Download PDF

Info

Publication number
KR102054153B1
KR102054153B1 KR1020190083911A KR20190083911A KR102054153B1 KR 102054153 B1 KR102054153 B1 KR 102054153B1 KR 1020190083911 A KR1020190083911 A KR 1020190083911A KR 20190083911 A KR20190083911 A KR 20190083911A KR 102054153 B1 KR102054153 B1 KR 102054153B1
Authority
KR
South Korea
Prior art keywords
sound wave
data
target
image data
sonar
Prior art date
Application number
KR1020190083911A
Other languages
Korean (ko)
Inventor
조만영
Original Assignee
가온플랫폼 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가온플랫폼 주식회사 filed Critical 가온플랫폼 주식회사
Priority to KR1020190083911A priority Critical patent/KR102054153B1/en
Application granted granted Critical
Publication of KR102054153B1 publication Critical patent/KR102054153B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63GOFFENSIVE OR DEFENSIVE ARRANGEMENTS ON VESSELS; MINE-LAYING; MINE-SWEEPING; SUBMARINES; AIRCRAFT CARRIERS
    • B63G8/00Underwater vessels, e.g. submarines; Equipment specially adapted therefor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G06K9/20
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition

Abstract

The present invention relates to an artificial intelligence automatic identification system by fusion with deep learning-based submarine sonar sound wave data and periscope image data and, more specifically, to an artificial intelligence automatic identification system by fusion with deep learning-based submarine sonar sound wave data and periscope image data, capable of performing rapid and accurate targeting as target identification information is extracted by learning based on the deep learning in periscope image analysis and sonar sound wave analysis performed depending on a skill level of an existing sonar listener. To achieve the purpose of the present invention, the artificial intelligence automatic identification system by fusion with deep learning-based submarine sonar sound wave data and periscope image data includes: a sonar sensor identifying the kind of a target by receiving noise or reflection sound wave data in which a sound wave is radiated and returned by being reflected; a periscope generating the image data by photographing an object on the water; a platform server extracting the sound wave on the target by analysis of the image data and the sound wave data by receiving the image data and the sound wave data from the sonar sensor and the periscope and determining a first target model by comparing the sound wave extracted with the learned sound wave model data, wherein the platform server also determines a final target model by receiving confirmation information of the sonar listener and confirming the first target model predetermined and generates the identification information on the target by matching the image data of the telescope and the sound wave data of the final target model; and a client terminal connected to communicate with the platform server by data and receiving the target information and a result of the image data and the sound wave data to an administrator by receiving the target information and the result of the image data and the sound wave data identified by the platform server, wherein the client terminal displays warning data in accordance with event occurrence in accordance with the setting.

Description

딥러닝 기반 잠수함 소나 음파데이터와 잠망경 영상데이터와의 융합을 통한 인공지능 자동식별시스템{Artificial intelligence automatic identification system by fusion of deep run based submarine sonar data and periscope image data}Artificial intelligence automatic identification system by fusion of deep run based submarine sonar data and periscope image data}

본 발명은 딥러닝 기반 잠수함 소나 음파데이터와 잠망경 영상데이터와의 융합을 통한 인공지능 자동식별시스템에 관한 것으로서 더욱 상세하게는 기존 소나청취사의 숙련도에 의존하여 수행된 소나 음파 분석 및 잠망경 영상 분석이 딥러닝 기반의 학습을 통하여 표적 식별정보 추출이 이루어짐에 따라 신속하고 정확한 표적 특정이 수행될 수 있는 딥러닝 기반 잠수함 소나 음파데이터와 잠망경 영상데이터와의 융합을 통한 인공지능 자동식별시스템에 관한 것이다. The present invention relates to an artificial intelligence automatic identification system through the convergence of deep learning submarine sonar sound wave data and periscope image data. More specifically, the sonar sound wave analysis and periscope image analysis performed in dependence on the proficiency of a conventional sonar listener are performed. The present invention relates to an artificial intelligence automatic identification system through the convergence of deep learning-based submarine sonar or sound wave data and periscope image data, which can be performed quickly and accurately as target identification information is extracted through learning based learning.

소나(SONAR)란 Sound Navigation and Ranging의 약어로서 음파에 의해 목표의 방위 및 거리를 알아내는 장비를 의미하며 음향탐지장비 혹은 음탐기로도 불리 운다. SONAR is an abbreviation of Sound Navigation and Ranging. It is a device that finds the direction and distance of a target by sound waves. It is also called a sound detection device or sound detector.

공기 중에서는 음파보다 전자파(Electromagnetic Wave)가 보다 빠르고 멀리 전달되기 때문에 이를 이용하여 공중, 지상 및 해상의 물표를 탐지할 수 있는 것이 레이더(RADAR)이며 이에 대응되는 수중용 장비가 바로 소나이다. In the air, electromagnetic waves are transmitted faster and farther than sound waves, so it is possible to detect air, ground and sea targets using radar, and the corresponding underwater equipment is sonar.

소나에 적용되는 음파는 초속 약 1천5백m 되는 압력파로서 수중에서 잘 전달되는 성질을 갖고 있다. 그러므로 현재까지 수중에 존재하는 여러 가지 목표를 능동 및 수동 방식으로 탐지하는 유일한 수단으로 활용되며 목적 및 용도에 따라 여러 가지 형태의 소나들이 개발되어 운용되고 있다.The sound wave applied to the sonar is a pressure wave that is about 1,500m per second and has a good propagation in water. Therefore, it is used as the only means of detecting active and passive targets in water until now, and various types of sonars have been developed and operated according to the purpose and use.

이러한 잠수함의 소나(Sonar)는 물속에서 운항하는 특성을 고려하여 적을 식별할 수 가장 중요한 수단이다. 또 한 잠수함의 소나(Sonar)는 탐지 특성 및 운용 특성을 고려하여 수동소나(Passive Sonar), 방수소나(Intercept Sonar), 수동측거소나(Passive Ranging Sonar), 선측배열소나(Flank Array Sonar), 선배열예인소나(Towed Array Sonar), 능동소나(Active Sonar), 기뢰탐지소나(Mine Avoidance Sonar) 로 분류할 수 있다. The sonar of these submarines is the most important means of identifying enemies, taking into account the nature of their navigation in the water. In addition, the sonar of the submarine may be passive sonar, intercept sonar, passive ranging sonar, flank array sonar, or ship in consideration of detection and operational characteristics. It can be classified into Towed Array Sonar, Active Sonar, and Mine Avoidance Sonar.

이러한 소나들을 운용하여 잠수함에서 표적에 대한 수평 방위 및 거리를 도출할 수 있다. 표적의 방위는 함수수동소나, 방수소나, 선측배열소나, 선배열예인소나 등을 통해서 탐지하게 되며, 표적의 거리는 잠수함의 길이 방향으로 설치된 PRS를 운용하거나 TMA(Target Motion Analysis, 함기동분석)를 통해서 식별할 수 있다. These sonars can be used to derive the horizontal orientation and distance to the target from the submarine. The target's orientation is detected through a water bath, a waterproof station, a side array station, or an array of towing units, and the distance of the target is controlled by the PRS installed in the longitudinal direction of the submarine or by TMA (Target Motion Analysis). Can be identified.

잠수함은 수상항해, 수중(잠항)항해, 스노클항해(잠망경항해)의 3가지의 항해 운전을 한다. 수상항해는 기존 선박, 상선과 같이 일반 항해를 의미하며, 잠항을 할 수 없는 저심도 구역 항해 및 연안항법 기준 협수로 항해 시 운전을 한다.Submarines operate three types of navigational operations: water navigation, underwater navigation and snorkel navigation. Sea navigation refers to general voyages, such as existing ships and merchant ships, and operates when sailing with low-depth voyages and coastal navigation standards.

수중(잠항)항해란 잠수함이 수상항해이후 수중(잠항)항해 가능 구역에 도달 시 잠수함 작전, 훈련, 경비 등을 위한 특수 목적으로 물속 수중(잠항)항해를 하며, 수중항해 심도는 잠망경심도, 안전 심도, 작전 심도, 시험 심도로 구분 할 수 있다. 마지막 스노클(잠망경)항해는 잠수함이 수중(잠항)항해이후 디젤엔진 가동을 위한 스노클(잠망경)항해, 통신교신, 물체식별 및 정보취득, 부상(수상항해)를 하기 위한 전 절차 등 특수 목적 항해이다. Underwater voyage means that when a submarine reaches a submarine navigable area after the sea voyage, the ship voyages under water for special purposes for submarine operations, training, and security. It can be divided into depth, operation depth, and test depth. The final snorkel is a special purpose voyage, including the submarine's snorkel navigation for the operation of a diesel engine after submarine navigation, communication, object identification and information, and the entire procedure for injury (sea navigation). .

스노클(잠망경)항해의 목적은 디젤잠수함은 수중항해 시 전투체계 및 기관체계를 기동할 전원을 잠수함 하부에 장착되어 있는 배터리를 활용하여 기동된다. 디젤잠수함의 주전원이 배터리이기에 일정 사용시간 이후 주기적 배터리 충전은 디젤엔진 가동을 통해 수행 된다. The purpose of snorkel navigation is that diesel submarines are powered by batteries mounted underneath the submarine to power the combat system and engine system during underwater navigation. Since the main power of the diesel submarine is the battery, periodic battery charging after a certain period of time is performed by operating the diesel engine.

이때 디젤엔진 가동시 유입될 외부공기를 스노클 마스트를 통해서 공급받는다. 통신교신의 목적은 잠수함이 수중항해 중 상부의 지시사항이나 수중경비 중 특수 경비를 통한 정보를 상부에 보고를 하기 위해 통신마스트를 올려 정보를 주고 받는다. At this time, the external air to be introduced during the operation of the diesel engine is supplied through the snorkel mast. The purpose of the correspondence communication is to raise the communication master to send information to the upper part of the submarine in order to report the information from the upper part of the navigation or special information during the underwater guard.

물체식별 및 정보취득의 목적은 수중(잠항)항해 시 잠수함의 눈과 귀의 역할을 하는 SONAR를 통해서 들어온 음파를 통해 소나청취사(음탐사)가 실시간 청취 및 분석을 통한 정보를 잠망경을 통해 2차 확인식별(Confirm) 및 촬영을 위해 잠망경 항해를 한다. The purpose of object identification and information acquisition is to use the sonar auditor (sound exploration) to listen to information through real-time listening and analysis through periscope through sound waves coming in through SONAR, which acts as the eyes and ears of the submarine during underwater navigation. Periscope sails for confirmation and filming.

마지막 부상(수상항해)을 하기 위해 꼭 수행하는 절차로 잠수함은 평소 작전심도에서 작전수행을 하다가 안전심도로 심도변경 후 SONAR를 통해 식별되는 정보를 청취, 분석 후 부상예상구역(Zone)에 부상 시 충돌을 예방하기 위한 수상항해 중인 물체가 없는지를 잠망경을 통해 시각적 식별을 하고 안전하다고 판단되면 절차에 의거 부상(수상)항해를 한다.In order to perform the last injury (sea navigation), the submarine performs the operation at the normal operation depth, changes the depth to the safety depth, listens to the information identified through SONAR, and analyzes the injury in the zone of injury. A visual periscope is used to identify whether there is a sea object in order to prevent a collision.

잠수함이 안전심도에서 잠망경 심도로 올라가는 순간이 항해 중 가장 위험한 순간이다. 소나청취 및 분석이 잘못되어, 표적의 종류(상선/어선/군함), 방위, 거리의 분석 및 판단의 오차로 발생되는 잠수함의 전술적 위치 노출이 작전상 매우 치명적이며, 또한, 잠망경심도 진입 예상 위치에 움직이는 표적이 있다면 충돌로 인한 잠수함의 파공 등 승조원 안전에 매우 위험한 상황이 발생하기에 잠망경 심도 진입 시 모든 당직자는 만약의 사태를 대비한 긴급잠항 준비태세를 갖추어 진입한다.The most dangerous moment of the voyage is when the submarine rises from the depth of safety to the periscope. Inadequate sonar listening and analysis results in tactical exposure of the submarine resulting from errors in the analysis and judgment of target types (ships, fishing vessels, warships), bearings, and distances. If there is a moving target, all officers are prepared to enter emergency preparedness in case of periphery, since the situation is very dangerous to the crew safety, such as the submarine break through due to collision.

1차 소나청취사(음탐사)에 의하여 청취 및 판단된 식별된 정보를 기반으로 표적의 종류(상선/어선/군함),방위, 거리를 확인 후 잠수함의 작전상 전술 및 안전이 확보되었다고 판단되면 함장은 잠망경심도진입을 결정하고, 심도변경을 명령한다. 잠망경심도 진입 후 함장은 잠망경을 통해 10초 이내 수면위의 상황을 보고 잠수함의 은밀성과 안정성 유지가 가능함을 판단 후 문제가 없다면, 잠망경을 통한 2차 시각적인 확인식별(Confirm)을 통해 잠망경항해의 목적을 수행한다. If it is determined that the submarine's operational tactics and safety have been secured after checking the type of target (merchandise / fishing boat / ship), bearing, and distance based on the identified information listened and judged by the primary sonar auditor (sound probe). The captain decides to enter the periscope and orders a change in depth. After entering the periscope, the captain should see the situation on the water surface within 10 seconds through the periscope, and if there is no problem after judging that the submarine's confidentiality and stability can be maintained, the second visual confirmation through the periscope will confirm the periscope Perform the purpose.

만약, 잠망경심도로 진입 후 1차 소나청취사(음탐사)가 청취 판단을 통해 식별된 상황과 다를 시 표적의 종류(상선/어선/군함), 방위, 거리에 따라 피탐 및 충돌을 예방하기 위해 긴급잠항을 한다. 이처럼 잠수함의 작전상의 목적 및 함 운영을 위해 잠망경항해는 필수적이다. 이런 필수적인 잠망경항해는 상황에 따라 다르지만 24시간 이내 기본적 2~3회, 물체 식별 및 정보 취득을 하기 위해서는 5 내지 6회 이상 잠망경 심도를 진입하여, 그 특수 목적을 달성한다.If the first sonar auditorium (sound probe) is different from the situation identified through the listening judgment after entering the periscope, it is necessary to prevent the tom and collision depending on the type of target (ship, fishing vessel, warship), bearing, and distance. Make an emergency dive. As such, periscope navigation is essential for the operational purpose of the submarine and for the operation of the ship. These essential periscopes vary depending on the situation, but enter the periscope depths more than five to six times to achieve object identification and information within two to three basic periods within 24 hours, to achieve that special purpose.

이런 중요한 특수 목적을 수행하기 위해 1차 수중에서의 귀의 역할을 하는 소나(SONAR)를 통해 청취된 정보와 2차 눈의 역할을 하는 잠망경을 통해 들어오는 시각적 정보를 정확하게 식별 및 판단을 해야만 잠수함의 최대 장점인 은밀성을 바탕으로 성공적 작전과 잠수함의 안전항해를 보장 할 수 있다. In order to perform this important special purpose, the submarine must be identified and judged accurately by the information received through the sonar, which acts as the ear in the primary water, and the visual information coming through the periscope, which acts as the secondary eye. The advantage of confidentiality can ensure successful operations and safe navigation of the submarine.

하지만 이처럼 필수적이고 전술상 중요도, 안전상 가장 취약한 잠망경심도 기동절차를 아직까지 소나청취사(음탐사)를 통한 사람의 경험과 판단에 의해서만 분석이 되고있는 상황이다. 이로 인해 숙력된 소나청취사(음탐사)의 의존도가 매우 높다. However, the mandatory, tactical importance, and the most vulnerable periscope for safety are still analyzed only by human experience and judgment through sonar audit. Because of this, the dependence of the experienced sonar auditor (sound exploration) is very high.

또한 각 잠수함별 승조하고 있는 소나청취사(음탐사)의 개인별 경력 및 숙련도가 다르기에 잠수함별 전술적 효율이 다르다. 소나청취사(음탐사)가 경험과 숙력도가 높다고 하더라도, 청취되는 소음의 경험이 없거나 음파의 강도나 주변 소음으로 영향에 따라, 분석된 결과의 정확성 또한 차이가 난다. In addition, the submarines have different tactical efficiencies because of their different experiences and proficiency. Although sonar auditing (sound exploration) has high experience and proficiency, the accuracy of the analyzed results also differs depending on the experience of noisy noise or the impact of sound waves or ambient noise.

한국공개특허 10-2015-0059191호Korean Patent Publication No. 10-2015-0059191

본 발명은 상기의 문제점을 해결하기 위해 안출된 것으로서 기존 소나청취사의 숙련도에 의존하여 수행된 소나 음파 분석 및 잠망경 영상 분석이 딥러닝 기반의 학습을 통하여 표적 식별정보 추출이 이루어짐으로써 신속하고 정확한 표적 특정이 수행될 수 있는 딥러닝 기반 잠수함 소나 음파데이터와 잠망경 영상데이터와의 융합을 통한 인공지능 자동식별시스템을 제공함에 그 목적이 있다. The present invention has been made in order to solve the above problems, the sonar sound wave analysis and periscope image analysis performed in accordance with the existing sonar auditor's proficiency extract the target identification information through deep learning based fast and accurate target specification The purpose is to provide an artificial intelligence automatic identification system through the convergence of deep learning-based submarine sonar sound wave data and periscope image data that can be performed.

본 발명은 상기의 목적을 달성하기 위해 아래와 같은 특징을 갖는다.The present invention has the following features to achieve the above object.

본 발명은 음파를 발신하여 반사되어 돌아오는 반사 음파데이터를 수신하거나 소음을 수신하여 표적의 종류를 식별하는 소나센서와; 수상의 물체를 촬영하여 영상데이터를 생성하는 잠망경과; 상기 소나센서 및 잠망경으로부터 음파데이터와 영상데이터를 전달받아 음파데이터 및 영상데이터의 분석을 통해 표적에 대한 음파 추출, 학습된 음파모델데이터와 비교를 통해 1차 표적모델을 특정하고, 소나청취사의 확인정보를 입력받아 특정된 1차 표적모델을 확인하여 최종 표적모델을 특정하고, 상기 최종 표적모델의 음파데이터와 잠망경의 영상데이터를 매칭하여 해당 표적의 식별정보를 생성하는 플랫폼서버와; 상기 플랫폼서버와 데이터 통신가능하도록 연결되어 상기 플랫폼서버로부터 식별된 음파데이터와 영상데이터의 결과 및 표적 정보를 전달받아 이를 관리자에게 제공하며 설정에 따른 이벤트 발생에 따라 경보데이터를 표시하는 클라이언트 단말기;를 포함한다. The present invention includes a sonar sensor for transmitting the sound wave and receiving the reflected sound wave data returned or reflected and identifying the type of target by receiving noise; A periscope for photographing objects in the water and generating image data; Receives sound wave data and image data from the sonar sensor and periscope, and analyzes the sound wave data and image data to identify the primary target model through sound wave extraction for the target and comparison with the learned sound wave model data. A platform server configured to receive the information, identify a specific primary target model, identify a final target model, and generate identification information of a corresponding target by matching sound wave data of the final target model with image data of a periscope; A client terminal connected to communicate with the platform server to receive sound wave data and image data identified from the platform server and provide target information to the administrator, and display the alarm data according to an event occurrence according to a setting; Include.

여기서 상기 소나센서는 음파데이터를 수신하는 음파데이터수신부가 포함되며, 상기 잠망경은 촬영한 영상데이터를 수신하는 영상데이터수신부가 포함된다. The sonar sensor includes a sound wave data receiver for receiving sound wave data, and the periscope includes an image data receiver for receiving captured image data.

아울러 상기 플랫폼서버는 상기 소나센서의 음파데이터수신부 및 잠망경의 영상데이터수신부로부터 각각 음파데이터와 영상데이터를 전달받아 저장하는 데이터저장부와, 상기 데이터저장부에 저장된 음파데이터를 호출하여 표적에 대한 음파 추출, 딥러닝 기반의 학습된 음파모델데이터와 비교를 통해 1차 표적모델을 특정하고, 소나청취사의 확인정보를 입력받아 특정된 1차 표적모델을 확인하여 최종 표적모델을 특정하는 음파분석부와, 상기 데이터저장부에 저장된 영상데이터를 호출하여 해당 영상데이터에서 씬을 분리하고, 대표샷, 객체, 행위 동사, 키프레임 및 시각지식을 생성하는 영상분석부와, 상기 음파분석부의 최종 표적모델과 상기 영상분석부의 시각지식을 매칭하여 표적의 식별정보를 생성하고 플랫폼서버 내 데이터베이스에 저장하며 상기 클라이언트 단말기로 식별된 음파데이터와 영상데이터의 결과, 최종 표적모델 또는 표적의 식별정보를 전송하는 매칭식별부를 포함한다. In addition, the platform server is a data storage unit for receiving and storing the sound wave data and the image data from the sound wave data receiver and the periscope image data receiver of the sonar sensor, and the sound wave data stored in the data storage unit to call the sound wave to the target A sound wave analysis unit for identifying the final target model by identifying the primary target model by inputting the confirmation information of the sonar auditor, by identifying the primary target model through the comparison with the extracted acoustic wave model data based on extraction and deep learning. And an image analyzer which separates a scene from the image data by calling the image data stored in the data storage unit, and generates a representative shot, an object, an action verb, a key frame and visual knowledge, and a final target model of the sound wave analyzer. Match the visual knowledge of the image analyzer to generate identification information of the target and store it in the database in the platform server It said matching includes identification unit for transmitting the sound wave data and the result of the image data, the final target or a target model identification information for identifying to the client terminal.

또한 상기 음파분석부는 상기 데이터저장부에 저장된 음파데이터를 호출하여 표적에 대한 객체 음파를 추출하여 표적추출 음파데이터를 생성하는 표적음파추출부와, 상기 표적음파추출부에서 추출된 표적추출 음파데이터와 딥러닝 기반의 표적별 특징 음파데이터가 학습된 음파모델데이터와 비교하여 설정치 이상으로 일치도를 가지는 음파모델데이터를 추출하는 음파학습모델부와, 상기 추출된 음파모델데이터에 따른 표적정보를 1차 표적모델로 특정하는 표적모델진단부와, 상기 특정된 1차 표적모델에 대해 소나청취사의 확인정보를 입력받아 최종 표적모델을 특정하는 표적모델확인부를 포함한다. In addition, the sound wave analysis unit extracts the object sound wave for the target by calling the sound wave data stored in the data storage unit to generate a target sound wave data, and the target sound wave data extracted from the target sound wave extraction unit and Deep learning-based feature-specific sound wave data is compared with the trained sound wave model data, the sound wave learning model unit for extracting the sound wave model data having a consistency above the set value, and the target information according to the extracted sound wave model data primary target A target model diagnosis unit for specifying the model, and a target model confirmation unit for receiving the confirmation information of the sonar auditor for the specified primary target model to specify the final target model.

아울러 상기 영상분석부는 상기 데이터저장부에 저장된 영상데이터를 호출하여 씬(Scene)을 분리하는 단계와, 상기 분리된 각 씬에서 대표샷(shot)을 추출하는 단계와, 상기 대표샷을 구성하는 프레임에서 객체를 추출하는 단계와, 상기 추출된 객체 간 상호 관계를 기반으로 행위 동사를 추출하는 단계와, 상기 행위 동사를 추출한 근거가 되는 객체와 상호 관계가 가장 잘 표현된 것으로 판단되는 프레임을 키프레임으로 선정하는 단계와, 상기 선정된 키프레임을 기반으로 시각지식을 생성하는 단계를 포함하여 분석이 이루어진다.The image analyzer may further include: separating a scene by calling image data stored in the data storage unit, extracting a representative shot from each of the separated scenes, and a frame constituting the representative shot. Extracting an object from the object; extracting an action verb based on the mutual relationship between the extracted objects; and keyframes a frame that is determined to have the best relationship with the object on which the action verb is extracted. Analyzing is performed including the step of selecting and generating the visual knowledge based on the selected keyframe.

또한 상기 클라이언트 단말기는 플랫폼서버의 매칭식별부로부터 식별된 음파데이터의 결과를 전달받아 이와 설정치 이상으로 일치도를 가지는 표적모델의 음파데이터와 함께 표시하는 음파데이터표시부와, 플랫폼서버의 매칭식별부로부터 식별된 영상데이터의 결과와 이와 설정치 이상으로 일치도를 가지는 표적모델의 영상데이터를 표시하는 영상데이터표시부와, 플랫폼서버의 매칭식별부로부터 최종 표적모델 또는 표적의 식별정보를 전달받아 이를 표시하는 표적정보표시부와, 표적이 잠수함과 일정 거리 접근 또는 일정 각도 방향 변경시 설정에 따라 경보데이터를 생성하여 표시하는 경보표시부를 포함한다. In addition, the client terminal receives the results of the sound wave data identified from the matching identification unit of the platform server and the sound wave data display unit for displaying along with the sound wave data of the target model having a matching degree above the set value, and identification from the matching identification unit of the platform server Image data display unit for displaying the result of the image data and the image data of the target model having a matching degree above the set value and the target information display unit for receiving the identification information of the final target model or target from the matching identifier of the platform server and display it And an alarm display unit for generating and displaying alarm data according to a setting when the target approaches a certain distance from the submarine or changes a certain angle direction.

아울러 상기 매칭식별부는 음파분석부의 최종 표적모델과 영상분석부의 시각지식 매칭시에 매칭 조건이 맞지 않거나 학습하지 못한 새로운 정보가 취득되면 상황에 따른 추가 학습이나 표적 재분석 명령정보를 입력받도록 경고메시지를 발생시킨다. In addition, the matching identification unit generates a warning message to receive additional learning or target reanalysis command information according to the situation when new information that does not match the matching condition or is acquired when the final target model of the sound wave analysis unit and the visual analysis unit of the image analysis unit is acquired. Let's do it.

본 발명에 따르면 1차 소나청취사(음탐사)와 2차 잠망경 항해사의 숙련도에 의존하여 표적의 식별을 수행하던 기존 기술에 비해 딥러닝 기반의 학습을 활용하여 소나 음파데이터와 잠망경 영상데이터를 학습함에 따라 보다 신속하고 정확하게 표적의 자동식별 및 분석이 이루어질 수 있어 전투체계 성능 향상은 물론 안전 항해를 보장할 수 있으며 잠수함 승조원 시뮬레이션 훈련 시에도 활용될 수 있는 효과가 있다. According to the present invention, the sonar sound wave data and the periscope image data are learned by utilizing deep learning based learning, compared to the existing technology of performing target identification depending on the proficiency of the primary sonar auditory sound (sound exploration) and the secondary periscope navigator. As a result, the automatic identification and analysis of the target can be performed more quickly and accurately, thereby improving the performance of the combat system as well as ensuring safe navigation, and it can be used in the training of the submarine crew simulation.

도 1은 본 발명의 일실시예에 따른 인공지능 자동식별시스템의 내부 구성을 나타내는 블럭도이다.
도 2는 본 발명의 일실시예에 따른 음파데이터 및 영상데이터 취득과정을 나타내는 도면이다.
도 3은 본 발명의 일실시예에 따라 취득된 음파데이터 및 영상데이터를 나타내는 도면이다.
도 4는 본 발명의 일실시예에 따른 영상분석부의 분석과정을 나타내는 도면이다.
도 5는 씬(scene)의 구조를 나타낸 개념도이다.
도 6은 본 발명의 일실시예에 따른 클라이언트 단말기의 출력화면을 나타내는 도면이다.
1 is a block diagram showing the internal configuration of an artificial intelligence automatic identification system according to an embodiment of the present invention.
2 is a diagram illustrating a sound wave data and image data acquisition process according to an embodiment of the present invention.
3 is a diagram illustrating sound wave data and image data acquired according to an embodiment of the present invention.
4 is a diagram illustrating an analysis process of an image analyzer according to an exemplary embodiment of the present invention.
5 is a conceptual diagram illustrating a structure of a scene.
6 is a view showing an output screen of the client terminal according to an embodiment of the present invention.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 설명하기 위하여 이하에서는 본 발명의 바람직한 실시예를 예시하고 이를 참조하여 살펴본다.In order to explain the present invention, the operational advantages of the present invention, and the objects achieved by the practice of the present invention, the following describes exemplary embodiments of the present invention and looks at it with reference.

먼저, 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로서, 본 발명을 한정하려는 의도가 아니며, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 또한 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.First, the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention, and singular forms may include plural forms unless the context clearly indicates otherwise. Also in this application, terms such as "comprise" or "have" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described on the specification, one or more other It is to be understood that the present invention does not exclude the possibility of the presence or the addition of features, numbers, steps, operations, components, parts, or a combination thereof.

본 발명을 설명함에 있어서, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In describing the present invention, when it is determined that the detailed description of the related well-known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.

도 1은 본 발명의 일실시예에 따른 인공지능 자동식별시스템의 내부 구성을 나타내는 블럭도이며, 도 2는 본 발명의 일실시예에 따른 음파데이터 및 영상데이터 취득과정을 나타내는 도면이고, 도 3은 본 발명의 일실시예에 따라 취득된 음파데이터 및 영상데이터를 나타내는 도면이다.1 is a block diagram showing the internal configuration of an artificial intelligence automatic identification system according to an embodiment of the present invention, Figure 2 is a view showing a sound wave data and image data acquisition process according to an embodiment of the present invention, Figure 3 Is a diagram showing sound wave data and image data acquired according to an embodiment of the present invention.

도면을 참조하면 본 발명의 일실시예에 따른 인공지능 자동식별시스템(100)은 음파를 발신하여 반사되어 돌아오는 반사 음파데이터를 수신하거나 소음을 수신하여 표적의 종류를 식별하는 소나센서(110)와, 수상의 물체를 촬영하여 영상데이터를 생성하는 잠망경(120)과, 상기 소나센서(110) 및 잠망경(120)으로부터 음파데이터와 영상데이터를 전달받아 음파데이터 및 영상데이터의 분석을 통해 표적에 대한 음파 추출, 학습된 음파모델데이터와 비교를 통해 1차 표적모델을 특정하고, 소나청취사의 확인정보를 입력받아 특정된 1차 표적모델을 확인하여 최종 표적모델을 특정하고, 상기 최종 표적모델의 음파데이터와 잠망경의 영상데이터를 매칭하여 해당 표적의 식별정보를 생성하는 플랫폼서버(130)와, 상기 플랫폼서버(130)와 데이터 통신가능하도록 연결되어 상기 플랫폼서버(130)로부터 식별된 음파데이터와 영상데이터의 결과 및 표적 정보를 전달받아 이를 관리자에게 제공하며 설정에 따른 이벤트 발생에 따라 경보데이터를 표시하는 클라이언트 단말기(140)로 이루어진다. Referring to the drawings, the artificial intelligence automatic identification system 100 according to an embodiment of the present invention transmits sound waves to receive the reflected sound wave data returned or reflected or sonar sensor 110 to identify the type of the target by receiving noise And a periscope 120 for generating image data by photographing an object of the water, and receiving sound wave data and image data from the sonar sensor 110 and periscope 120 and analyzing the sound wave data and image data to a target. Specify the primary target model through sound wave extraction, and compared with the sound wave model data learned, and confirm the specific primary target model by receiving the confirmation information of the sonar auditor to specify the final target model, and the final target model of the A platform server 130 for matching the sound wave data with the image data of the periscope to generate identification information of the target, and connecting the platform server 130 to enable data communication. It is composed of a client terminal 140 to display the warning data based on the event data in accordance with the sound waves and by receiving the results, and the target information of the video data providing them to the administrator sets identified from the server platform 130.

여기서 상기 소나센서(110)는 수신되는 음파데이터를 통해 표적의 거리, 위치, 종류 등을 식별하도록 구비되는데, 이러한 소나센서(110)로는 크게 수동소나, 능동소나, 선측배열소나, 방수소나, 측거소나 또는 예인소나 등이 하나 또는 조합으로 구성될 수 있다. Here, the sonar sensor 110 is provided to identify the distance, position, type, etc. of the target through the received sound wave data, such sonar sensor 110 is largely passive sonar, active sonar, side array, water, or the like Sonar or tow sonar and the like may be composed of one or a combination.

수동소나는 잠수함이 항해할 때 엔진이나 프로펠러에서 내는 소음을 먼 거리에서 수신하여 표적의 종류를 식별할 수 있는데, 잠수함이 핵심 해역이나 길목에 저속으로 조용히 항해하면서 마치 청진기로 뱃 속의 소리를 듣듯이 수중에서 들려 오는 모든 소리를 듣기만 하는 소나이다. 이 수동소나로 군함인지 상선인지 어선인지, 추진축이 몇 개인지 스크류 날개가 몇 개인지, 침로와 속력까지도 분석해 낸다.Passive sonar can identify the type of target by receiving noise from engines or propellers from a distance when the submarine is sailing, as if the submarine sailed quietly at low speed in the core waters or on the street, listening to the sound of the stomach with a stethoscope. The sonar only listens to all the sounds coming from underwater. The manual sonar analyzes whether it is a warship, a merchant ship or a fishing boat, how many propulsion shafts, how many screw blades, course and speed.

상기 능동소나는 수상함정에서 발사시킨 음파가 표적에서 반사되어 되돌아 오신 신호로서 적 잠수함이나 기뢰 등을 탐지하여 표적의 방향과 거리를 알 수 있다. 마치 산 꼭대기에서 "야호"하고 외치면 메아리가 되어 돌아오는 것처럼 잠수함에서 음파를 송신하여 표적에 부딪친 후 되돌아오는 원리를 이용한 것이다. 그러나 잠수함이 음파를 송신하면 위치가 바로 노출되므로 안전해역에서 수중 장애물 확인이나 어뢰공격을 하기 직전 정확한 거리를 알기 위해 순간적으로 송신하는 것 외에는 거의 사용하지 않는다.The active sonar is a signal returned from the target by the sound waves emitted from the water vessel can detect the enemy submarine or mine, and can know the direction and distance of the target. As if yelling "yay" at the top of the mountain, it returns to echo, the submarine transmits sound waves and hits the target and then returns. However, when a submarine transmits sound waves, its location is immediately exposed, and it is rarely used except for instantaneous transmission to find the exact distance just before underwater obstacle check or torpedo attack in safe waters.

상기 선측배열소나는 잠수함의 좌우현에 2개의 긴 수동 어레이를 장착하여 저주파대의 음향을 탐지하는 소나 체계이며, 방수소나는 잠수함을 탐색하기 위하여 발신하는 상대측 잠수함의 소나 음파를 차단하여 분석함으로써 소나의 유형을 확인하고 해당소나를 탑재한 함정을 알아낼 수 있다.The side array sonar is a sonar system equipped with two long passive arrays on the left and right sides of the submarine to detect sound of a low frequency band, and the waterproof sonar analyzes the sonar sound waves of the opposing submarine to detect the submarine. You can check the type and find out which trap is equipped with the sonar.

측거소나는 잠수함의 현측에 3개의 수동 어레이가 배열되어 표적으로부터 수신되는 음향의 시간차에 의해서 표적 거리를 측정할 수 있는 소나이며, 예인소나는 잠수함의 자체 소음으로부터 방해를 받지 않도록 Passive Array를 예인하는 저주파대의 소나이다. The geostationary sonar is a sonar that has three passive arrays arranged on the side of the submarine and can measure the target distance by the time difference of the sound received from the target, and the towing sonar tows the passive array so as not to be disturbed by the submarine's own noise. Low frequency sonar.

잠수함은 자체가 조용하게 건조되었으므로 추진 소음이 작아 탐지가 어렵다. 그러나 각종 펌프나 기계에서 나는 저주파 소음은 원거리까지 전달이 되므로 측면 배열소나(FAS)나 예인소나(TAS)는 조용한 잠수함을 탐지하는 데 가장 유용한 소나 체계이다.The submarine itself is quietly built, so the propulsion noise is small and difficult to detect. However, low frequency noise from various pumps and machines can be transmitted over long distances, making the side array sonar (FAS) or towing sonar (TAS) the most useful sonar system for detecting quiet submarines.

예인소나는 케이블을 포함하여 최소 수백 미터가 넘기 때문에 소형 잠수함에서는 부착식(Clip on System)으로 출항시 보조정이 잠수함에 걸어 주지만 대형 잠수함에서는 함내로 감아들이는 방식(Winding System)을 사용하고 있다.The tow son is at least a few hundred meters including cable, so on small submarines it's a Clip on System, and the submarines hang on the submarine at departure, but on larger submarines the Winding System is used.

이와 같은 다양한 소나 중 어느 하나이상으로 이루어지는 소나센서(110)에는 수신되는 음파데이터를 수신하는 음파데이터수신부(111)가 포함되며, 이러한 음파데이터수신부(111)는 플랫폼서버(130)와 데이터통신가능하도록 연결되어 수신된 음파데이터를 전송하도록 구성된다. The sonar sensor 110 formed of any one or more of these various sonars includes a sound wave data receiver 111 for receiving sound wave data, and the sound wave data receiver 111 is capable of data communication with the platform server 130. And to transmit the received sound wave data.

한편 상기 잠망경(120)은 잠수함이 잠망경 항해를 할때 수상에 특정 구역 또는 특정 물체를 촬영하도록 구비되며, 잠망경(120)에 의해 촬영한 영상데이터는 영상데이터수신부(121)에 의해 수신되고, 이는 플랫폼서버(130)와 데이터통신가능하도록 연결되어 수신된 영상데이터를 전송하도록 구성된다. Meanwhile, the periscope 120 is provided to photograph a specific area or a specific object in the water when the submarine sails the periscope, and the image data photographed by the periscope 120 is received by the image data receiver 121, which is Is connected to the platform server 130 so as to enable data communication is configured to transmit the received image data.

또한 상기 플랫폼서버(130)는 상기 소나센서(110) 및 잠망경(120)으로부터 음파데이터와 영상데이터를 전달받아 음파데이터 및 영상데이터의 분석을 통해 표적의 식별정보를 생성하도록 구비되는데, 이러한 상기 플랫폼서버(130)는 상기 소나센서(110)의 음파데이터수신부(111) 및 잠망경(120)의 영상데이터수신부(121)로부터 각각 음파데이터와 영상데이터를 전달받아 저장하는 데이터저장부(131)와, 상기 데이터저장부(131)에 저장된 음파데이터를 호출하여 표적에 대한 음파 추출, 딥러닝 기반의 학습된 음파모델데이터와 비교를 통해 1차 표적모델을 특정하고, 소나청취사의 확인정보를 입력받아 특정된 1차 표적모델을 확인하여 최종 표적모델을 특정하는 음파분석부(132)와, 상기 데이터저장부(131)에 저장된 영상데이터를 호출하여 해당 영상데이터에서 씬을 분리하고, 대표샷, 객체, 행위 동사, 키프레임 및 시각지식을 생성하는 영상분석부(133)와, 상기 음파분석부(132)의 최종 표적모델과 상기 영상분석부(133)의 시각지식을 매칭하여 표적의 식별정보를 생성하고 플랫폼서버(130) 내 데이터베이스(130a)에 저장하며 상기 클라이언트 단말기(140)로 식별된 음파데이터와 영상데이터의 결과, 최종 표적모델 또는 표적의 식별정보를 전송하는 매칭식별부(134)로 이루어진다. In addition, the platform server 130 receives sound wave data and image data from the sonar sensor 110 and the periscope 120 to generate identification information of the target through analysis of the sound wave data and the image data, the platform The server 130 is a data storage unit 131 for receiving and storing the sound wave data and image data from the sound wave data receiver 111 of the sonar sensor 110 and the image data receiver 121 of the periscope 120, respectively; Call the sound wave data stored in the data storage unit 131 to specify the primary target model through the sound wave extraction, deep learning-based learning sound wave model data for the target, receiving the confirmation information of the sonar auditor A sound wave analysis unit 132 for identifying the final target model to identify the final target model and the image data stored in the data storage unit 131 to call a scene from the image data. The image analysis unit 133 generates a representative shot, an object, an action verb, a key frame, and a visual knowledge, and a final target model of the sound wave analysis unit 132 and the visual knowledge of the image analysis unit 133. Generating the identification information of the target by matching and storing in the database 130a in the platform server 130 and transmitting the result of the sound wave data and image data identified by the client terminal 140, the final target model or identification information of the target Matching identification unit 134 is made.

여기서 상기 음파분석부(132)는 상기 데이터저장부(131)에 저장된 음파데이터를 호출하여 표적에 대한 객체 음파를 추출하여 표적추출 음파데이터를 생성하는 표적음파추출부(132a)와, 상기 표적음파추출부(132a)에서 추출된 표적추출 음파데이터와 딥러닝 기반의 표적별 특징 음파데이터가 학습된 음파모델데이터와 비교하여 설정치 이상으로 일치도를 가지는 음파모델데이터를 추출하는 음파학습모델부(132b)와, 상기 추출된 음파모델데이터에 따른 표적정보를 1차 표적모델로 특정하는 표적모델진단부(132c)와, 상기 특정된 1차 표적모델에 대해 소나청취사의 확인정보를 입력받아 최종 표적모델을 특정하는 표적모델확인부(132d)로 이루어진다. Here, the sound wave analyzing unit 132 calls the sound wave data stored in the data storage unit 131, extracts the object sound wave for the target, and generates a target sound wave data to generate the target sound wave data, and the target sound wave. Acoustic wave learning model unit 132b for extracting sound wave model data having a matching degree above a predetermined value by comparing the target sound wave data extracted from the extractor 132a and the target sound wave data for each target based on deep learning with the learned sound wave model data. And a target model diagnosis unit 132c for specifying target information according to the extracted sound wave model data as a primary target model, and receiving confirmation information of the sonar acheiver for the specified primary target model. It consists of a target model identification part 132d which specifies.

상기 표적음파추출부(132a)는 도 3에 예시된 바와 같이 수집된 음파데이터에서 객체로 판단되는 객체 음파를 추출하여 표적추출 음파데이터를 생성하여 음파학습모델부(132b)로 전달하며, 음파학습모델부(132b)는 전달받은 표적추출 음파데이터의 패턴과 설정치 이상의 일치도를 가지는 음파모델데이터를 추출한다. The target sound wave extracting unit 132a extracts the object sound wave that is determined as an object from the collected sound wave data as illustrated in FIG. 3, generates a target extraction sound wave data, and transmits the extracted sound wave data to the sound wave learning model unit 132b. The model unit 132b extracts sound wave model data having a matching degree or more than a set value of the received target extraction sound wave data.

여기서 음파모델데이터는 딥러닝 기반으로 하여 학습된 모델데이터로 기존 다양한 객체별로 저장된 음파모델데이터 중에서 해당 환경 변수를 고려하여 가장 일치도가 높거나 설정치 이상의 일치도를 가지는 음파모델데이터를 비교하여 찾은 후 이를 표적모델진단부(132c)로 전달한다. Here, the acoustic wave model data is a model data trained based on deep learning, and it is found by comparing the acoustic wave model data having the highest coincidence or having a higher coincidence or higher than the set value among the sound wave model data stored for various existing objects in consideration of the environment variables. Transfer to model diagnosis unit 132c.

물론 상황에 따라 추출된 음파모델데이터가 없거나 둘 이상의 복수개로 음파모델데이터가 추출될 수 있는데, 이 경우에도 설정에 따라 둘 이상의 음파모델데이터 중 일치도가 높은 것으로 판단되는 음파모델데이터를 표적모델진단부(132c)로 전달하거나 추출된 둘 이상의 음파모델데이터 모두를 표적모델진단부(132c)로 전달할 수 있다. Of course, depending on the situation, there is no extracted sound wave model data, or two or more sound wave model data may be extracted. In this case, the target model diagnosis unit may use the sound wave model data determined to have high agreement among two or more sound wave model data depending on the setting. The two or more sound wave model data transmitted to or extracted from 132c may be delivered to the target model diagnosis unit 132c.

이에 따라 표적모델진단부(132c)는 전달받은 음파모델데이터의 객체 정보 즉, 표적정보를 1차 표적모델로 특정한 다음 이를 표적모델확인부(132d)로 전달하며 표적모델확인부(132d)에서는 소나청취사(음탐사)에게 해당 표적추출 음파데이터, 이와 일치도가 높은 것으로 추출된 음파모델데이터 및 1차 표적모델을 제공하여 소나청취사의 확인 정보를 입력받도록 이루어진다. Accordingly, the target model diagnosis unit 132c specifies the object information of the received acoustic wave model data, that is, the target information as the primary target model, and then transfers it to the target model confirmation unit 132d, and the sonar model confirmation unit 132d transmits the sonar. It provides the listener (sound exploration) with the target extraction sound wave data, the sound wave model data extracted as having high concordance, and the primary target model to receive the confirmation information of the sonar auditor.

즉, 소나청취사가 해당 데이터 및 모델을 검토하여 표적모델진단부(132c)에서 특정한 1차 표적모델과 자신의 의견이 동일한지 동일하지 않은지, 동일하지 않다면 일치하는 것으로 판단되는 다른 특정 표적모델이 있는지 등에 대한 확인정보를 별도의 입력수단을 통해 입력받게 된다. That is, the sonar auditor examines the data and the model to see if the target model diagnosis unit 132c has his or her opinions that are the same as the first target model, or if there are other specific target models that are judged to be identical. Confirmation information about the input is received through a separate input means.

물론 필요에 따라 소나청취사의 의견이 다른 경우 별도의 비교, 판단, 분석 프로세스를 추가 수행하도록 구성될 수 있다. Of course, if the opinion of the sonar auditor is different, it can be configured to perform a separate comparison, judgment, analysis process.

이와 같이 표적모델진단부(132c)가 특정한 1차 표적모델을 소나청취사의 확인 정보를 통해 최종 표적모델로 특정함으로써 두 차례에 걸친 판단 과정을 통해 신속성 및 정확성을 동시에 충족시킬 수 있게 된다. As such, the target model diagnosis unit 132c identifies the specific primary target model as the final target model through the confirmation information of the sonar auditor, thereby simultaneously meeting the promptness and accuracy through two decision processes.

기존의 경우 소나청취사의 숙련도에 의존하여 많은 양의 객체별 음파데이터를 숙지하고, 소나센서로부터 취득된 음파데이터에서 하나의 특정 표적모델을 찾아야 함에 따라 특정하는 시간이 장시간 소요될 수 밖에 없었으나, 본 발명에서는 표적모델진단부(132c)에서 단시간으로 1차 표적모델을 소나청취사에게 제공하고, 수집된 음파데이터와 1차 표적모델의 음파모델데이터를 단순 비교하도록 환경 제공을 함으로써 소나청취사의 판단 과정에 소요되는 시간 또한 짧을 수 밖에 없는 것이다. In the conventional case, it was necessary to take a long time to understand the sound wave data of a large amount of objects depending on the skill of the sonar listener and to find one specific target model from the sound wave data acquired from the sonar sensor. In the present invention, the target model diagnosis unit 132c provides the primary target model to the sonar hearing cooker in a short time, and provides the environment to simply compare the collected acoustic wave data with the acoustic wave model data of the primary target model. The time required for this is also short.

따라서 판단 과정의 신속성을 가지면서도 두 차례에 걸친 비교, 분석 및 판단 과정을 거침에 따라 정확성까지 담보될 수 있음은 물론 소나청취사의 숙련도에 의존하지 않아 전반적인 결과값의 균일성도 유지할 수 있다. Therefore, it is possible to ensure the accuracy through the two comparison, analysis, and judgment processes as well as the speed of the judgment process, and to maintain the uniformity of the overall result value without depending on the skill of the sonar auditor.

한편 상기 영상분석부(133)는 잠망경 항해 시 잠망경으로부터 전달받는 영상데이터를 분석하도록 구비되는데, 이러한 상기 영상분석부(133)의 분석 프로세스는 상기 데이터저장부(131)에 저장된 영상데이터를 호출하여 씬(Scene)을 분리하는 단계(S100)와, 상기 분리된 각 씬에서 대표샷(shot)을 추출하는 단계(S110)와, 상기 대표샷을 구성하는 프레임에서 객체를 추출하는 단계(S120)와, 상기 추출된 객체 간 상호 관계를 기반으로 행위 동사를 추출하는 단계(S130)와, 상기 행위 동사를 추출한 근거가 되는 객체와 상호 관계가 가장 잘 표현된 것으로 판단되는 프레임을 키프레임으로 선정하는 단계(S140)와, 상기 선정된 키프레임을 기반으로 시각지식을 생성하는 단계(S150)로 이루어진다. On the other hand, the image analyzer 133 is provided to analyze the image data received from the periscope during periscope, the analysis process of the image analyzer 133 by calling the image data stored in the data storage unit 131 Separating the scene (S100), extracting a representative shot from each of the separated scenes (S110), extracting an object from a frame constituting the representative shot (S120); And extracting an action verb based on the extracted relations between the objects (S130), and selecting a keyframe as a keyframe that is determined to have the best correlation with the object on which the behavior verbs are extracted. In operation S140, a visual knowledge is generated based on the selected keyframe.

도 4는 본 발명의 일실시예에 따른 영상분석부의 분석과정을 나타내는 도면이며, 도 5는 씬(scene)의 구조를 나타낸 개념도이다.4 is a diagram illustrating an analysis process of an image analyzer according to an exemplary embodiment of the present invention, and FIG. 5 is a conceptual diagram illustrating a structure of a scene.

우선 도 5를 참조하여 씬(Scene), 샷(Shot), 대표샷, 키 프레임(Key Frame), 시각지식(Primitive Visual Knowledge)의 용어에 대하여 간단히 설명하기로 한다.First, the terms scene, shot, representative shot, key frame, and primitive visual knowledge will be briefly described with reference to FIG. 5.

시각지식을 구축하기 위한 시각지식 제공 장치의 입력은 디지털 이미지 시퀀스(예를 들어, 동영상, 디지털 모션 픽쳐 등)을 대상으로 한다. 디지털 이미지 시퀀스는 디지털 이미지가 단위 시간에 대해 연속적으로 존재하는 것으로, 통상적으로, 초당 몇 프레임(예를 들어, 초당 10프레임, 초당 20프레임)이라는 측도로 디지털 이미지 시퀀스의 밀도가 표현된다.The input of the visual knowledge providing apparatus for constructing the visual knowledge targets a digital image sequence (for example, a moving image, a digital motion picture, etc.). Digital image sequences are those in which digital images exist continuously per unit time. Typically, the density of a digital image sequence is expressed in terms of a few frames per second (eg, 10 frames per second, 20 frames per second).

이해와 설명의 편의를 위하여, 대표적인 디지털 이미지 시퀀스인 영화로 예를 들어 설명한다. 씬(scene)은 영화 시나리오에서의 최소 장면 단위로, 영화에서의 씬은 하나의 장소에서 동일한 시간대에 일어난 연속된 사건을 말하며, 장소나 시간 중 하나라도 바뀌면, 이는 다른 씬이 된다. 씬은 하나 이상의 샷(shot)으로 구성되고, 하나의 샷이 씬이 될 수도 있다. 샷은 장면을 컷으로 나눌 때의 최하의 단위이며, 일반적으로, 샷은 연출가가 "액션"이라고 말할 때 시작해서 "컷"이라고 말할 때 끝나는, 중단되지 않은 촬영 또는 녹화를 뜻한다. For convenience of understanding and explanation, an example is described as a movie, which is a typical digital image sequence. A scene is the smallest scene unit in a movie scenario, where a scene in a movie refers to a series of events that occur at the same time zone in one place, and if any of the places or times change, it becomes a different scene. A scene is composed of one or more shots, and one shot may be a scene. Shot is the lowest unit when dividing a scene into cuts, and generally, shots are uninterrupted shooting or recording that begins when the director says "action" and ends when he says "cut".

이러한 샷이 모여 씬을 이루고, 일련의 씬이 모여 시퀀스(sequence)를 만든다. 달리 말하면, 일반적인 디지털 이미지 시퀀스는 씬 단위로 특정한 이벤트가 나타나고, 특정한 이벤트는 하나 이상의 샷으로 구성된다. 씬을 구성하는 하나 이상의 샷에서 씬을 대표하는 이벤트를 포함하는 샷을 대표 샷이라고 정의하면, 대표샷은 씬을 대표하는 이벤트를 포함하고 있는 프레임으로 구성된다. 좀 더 세분화하여, 이러한 대표샷에서 씬을 대표하는 이벤트를 포함하는 하나의 프레임이 선정되면, 이 프레임이 키 프레임(key frame)이 될 수 있다.These shots combine to form a scene, and a series of scenes combine to create a sequence. In other words, a typical digital image sequence is a scene-specific event, and a particular event consists of one or more shots. When a shot including an event representing a scene is defined as a representative shot in one or more shots constituting the scene, the representative shot includes a frame including an event representing a scene. More specifically, when one frame including an event representing the scene is selected in this representative shot, the frame may be a key frame.

디지털 이미지 시퀀스의 특별한 예로 본 발명의 잠망경 영상데이터와 유사한 CCTV 영상이 있다. CCTV 영상은 연속적으로 계속 저장되는 영상이라 씬, 샷 등의 구분이 모호하다. 따라서, CCTV 영상과 같이 연속적으로 기록된 디지털 이미지 시퀀스의 경우는 관리자가 설정하는 특정 임계치 정보를 기준으로 정상 상황(특이한 이벤트가 발생하지 않는 상황) 또는 비정상 상황(특이한 이벤트가 예상되는 상황)으로 구분되고, 각각의 비정상 상황이 하나의 씬으로 취급된다. CCTV 영상의 경우, 분리된 하나의 씬이 하나의 샷(대표샷)이 되고, 이 샷에서 비정상 이벤트를 대표하는 하나의 프레임이 추출되어 키프레임으로 이용된다.A special example of the digital image sequence is a CCTV image similar to the periscope image data of the present invention. CCTV images are continuously stored, so it is difficult to distinguish between scenes and shots. Therefore, in case of digital image sequence recorded continuously such as CCTV image, it is classified into normal situation (the situation where no special event occurs) or abnormal condition (the situation where special event is expected) based on specific threshold information set by the administrator. Each abnormal situation is treated as one scene. In the case of a CCTV image, a separate scene becomes one shot (representative shot), and one frame representing an abnormal event is extracted from the shot and used as a key frame.

시각지식은 씬에 내재된 정보를 정형화된 메타데이터 형식으로 표현한 것으로, CCTV 영상과 같은 디지털 이미지 시퀀스를 이벤트 기반으로 분할한 씬으로부터 대표샷을 추출하고, 전통적인 비젼 기술을 이용하여 대표샷으로부터 객체를 추출(씬의 syntactic 정보)하고, 추출된 객체간의 상관 관계를 기반으로 이벤트 정보(씬의 semantic 정보)를 추론하고, 이 두 정보를 정형화된 메타데이터 형식으로 표현한 것이다.Visual knowledge expresses the information inherent in the scene in the form of a standardized metadata. It extracts representative shots from scenes that divide digital image sequences, such as CCTV images, based on events, and extracts objects from representative shots using traditional vision techniques. It extracts (syntactic information of the scene), infers event information (semantic information of the scene) based on the correlation between the extracted objects, and expresses these two information in the form of standardized metadata.

이에 따라 본 발명에 따른 영상분석부(133)는 데이터저장부(131)로부터 전달받은 영상데이터를 추출하여 씬(Scene)을 분리한다(S100).Accordingly, the image analysis unit 133 according to the present invention extracts the image data received from the data storage unit 131 to separate the scene (Scene) (S100).

이때 영상분석부(133)는 영상데이터의 이미지 변화량을 모니터링하여 변화량이 임계치를 초과하는 시점을 씬의 시작으로 태깅하고 변화량이 임계치 이하로 떨어지는 시점을 씬의 종료점으로 태깅하여 씬의 시작점과 종료점의 구간 영상을 분리하고 분리한 영상을 분석용 씬으로 저장한다. At this time, the image analyzer 133 monitors the amount of change in the image data and tags the time when the amount of change exceeds the threshold as the start of the scene, and the time when the amount of change falls below the threshold as the end point of the scene. The interval image is separated and the separated image is saved as an analysis scene.

이러한 임계치는 관리자에 의해 설정될 수 있으며 객체에 따라 변화량이 많은 경우 임계치를 높게 설정하고 변화량이 적은 경우 임계치를 낮게 설정함이 바람직하다. Such a threshold may be set by an administrator, and it is preferable to set the threshold high when the amount of change is large and set the threshold low when the amount of change is small according to the object.

그런 다음 영상분석부(133)는 분리된 각 씬에서 대표샷(shot)을 추출하는데(S110), 예를 들어, 슬라이딩 윈도우 기법을 이용하여 분리된 씬을 따라 구간 영역을 이동하면서 구간 영역 내의 엔트로피를 계산하고, 엔트로피가 가장 높은 구간을 대표샷으로 추출할 수 있다.Then, the image analyzer 133 extracts a representative shot from each of the separated scenes (S110), for example, by moving the interval region along the separated scene using a sliding window technique, entropy in the interval region. , And a section having the highest entropy can be extracted as a representative shot.

대표샷이 추출되면, 영상분석부(133)는 대표샷을 구성하는 프레임에서 객체를 추출하는데(S120), 예를 들어, 추출된 대표샷을 구성하는 이미지 프레임에 대하여 전통적인 비전 기술을 이용하여 객체를 추출 및 인식하고, 객체의 이미지 상에서의 좌표를 계산한다.When the representative shot is extracted, the image analyzer 133 extracts an object from a frame constituting the representative shot (S120), for example, an object using a conventional vision technique for the image frame constituting the extracted representative shot. Extract and recognize and calculate the coordinates on the image of the object.

이에 따라 객체 추출이 완료되면 상기 추출된 객체 간 상호 관계를 기반으로 행위 동사를 추출한다(S130). Accordingly, when object extraction is completed, an action verb is extracted based on the relationship between the extracted objects (S130).

예를 들어, 온톨로지와 같은 정형화된 형식으로 관심 이벤트에 대한 행위가 정의되고 정의된 행위를 구성하는 단위 행동들의 합성 규칙이 사전에 구축될 수 있다. 영상분석부(133)는 추출된 객체의 시간적 및/또는 공간적 변화 관계(예를 들어, 이동속도, 이동방향, 상호 관계를 형성하는 객체들간의 조합 등)를 기반으로 사전 구축된 합성 규칙을 만족시키는 다수의 행위 동사를 추론할 수 있다. For example, the behavior for the event of interest is defined in a formal format such as ontology, and a composition rule of unit actions constituting the defined behavior may be built in advance. The image analyzer 133 satisfies the pre-composite composition rule based on the temporal and / or spatial change relations of the extracted objects (for example, the moving speed, the moving direction, and the combination of the objects forming the mutual relationship). Can infer multiple behavioral verbs

통상적으로, 객체들 간의 다양한 관계정보에서 다수의 행위 동사가 추론될 수 있고, 추론된 행위 동사에 랭킹이 부여될 수 있다. 행위 정의 및 합성 규칙은 행동을 모델링한 것으로, 신체 일부의 움직임, 한 사람의 다양한 액션, 두 객체 사이에서 발생하는 행동, 다수 객체로 구성된 그룹에서 발생되는 그룹 행동들의 특성을 조사하고 조사된 특성을 기반으로 정형화된 온톨로지로 구축될 수 있다.Typically, a plurality of behavior verbs may be inferred from various relationship information between objects, and ranking may be assigned to the inferred behavior verbs. Behavior definition and composition rules model behavior and examine the characteristics of the movements of body parts, the various actions of one person, the actions that occur between two objects, and the group actions that occur in groups of multiple objects. It can be built as a formal ontology based on that.

이에 따라 영상분석부(133)는 행위 동사를 추출한 근거가 되는 객체와 상호 관계가 가장 잘 표현된것으로 판단되는 프레임을 키프레임으로 선정하게 되는데(S140), 예를 들면 대표샷을 구성하는 복수의 이미지 프레임에서 가장 높은 랭킹의 행위 동사를 가지고 있는 이미지 프레임을 키프레임으로 선정할 수 있다.Accordingly, the image analyzing unit 133 selects a frame that is determined to be the best representation of the object on which the behavior verb is extracted and the correlation (S140), for example, a plurality of constituent representative shots. An image frame that has the highest ranking behavior verb in the image frame may be selected as a keyframe.

이를 통해 상기 선정된 키프레임을 기반으로 시각지식을 생성한다(S150). 예를 들어, 선정된 키프레임의 이미지, 키프레임에 포함된 객체들의 MBR(Minimum Bounding Rectangle) 영역에 대한 시각 단어(Visual Word), 객체 속성 및 객체들의 화면상 위치, 추론된 행위 동사 및 행위 동사의 추출에 사용된 합성 규칙을 구성적 항목(syntactic element)과 의미적 항목(semantic element)으로 구분하여, XML과 같은 정형화된 형식으로 시각지식을 생성할 수 있다. 부가적으로, 시각지식은 키프레임 선정 과정에서 사용된 영상 소스의 기본 정보, 예를 들어, 잠망경 카메라의 종류, 잠망경 카메라의 위치, 잠망경 카메라의 관리 아이디, 원시영상이 저장된 경로, 원시영상의 이름, 씬의 시작 및 종료 프레임 넘버, 대표샷의 시작 및 종료 프레임 넘버, 키 프레임의 프레임 넘버 등을 포함할 수 있다.Through this, visual knowledge is generated based on the selected key frame (S150). For example, an image of a selected keyframe, a visual word for the area of the minimum bounding rectangle (MBR) of the objects contained in the keyframe, an object property and an on-screen position of the objects, an inferred behavior verb, and an action verb. By synthesizing the syntactic rules used in the extraction of the syntactic and semantic elements, visual knowledge can be generated in a formal format such as XML. In addition, the visual knowledge may include basic information of the image source used in the keyframe selection process, for example, the type of periscope camera, the position of the periscope camera, the management ID of the periscope camera, the path where the raw image is stored, and the name of the raw image. , A start and end frame number of a scene, a start and end frame number of a representative shot, a frame number of a key frame, and the like.

이에 따라 생성된 시각지식은 후술할 매칭식별부(134)로 전송되는데, 여기서 상기 매칭식별부(134)는 상기 음파분석부(132)의 최종 표적모델과 상기 영상분석부(133)의 시각지식을 전달받아 이들을 매칭하여 표적의 식별정보를 생성하도록 구비된다. The generated visual knowledge is transmitted to the matching identifier 134, which will be described later, wherein the matching identifier 134 is the final target model of the sound wave analyzer 132 and the visual knowledge of the image analyzer 133. It is provided to receive the matching to generate identification information of the target by matching them.

아울러 매칭식별부(134)는 플랫폼서버(130) 내 데이터베이스(130a)에 해당 음파데이터와 음파모델데이터 및 최종 표적모델, 시각지식 등의 정보와 표적의 식별정보 등을 저장하며 표적의 식별정보 저장시 표적의 종류, 제원, 방위, 거리, 일시, 탐지된 위치 등의 정보를 순차적으로 저장한다. In addition, the matching identification unit 134 stores corresponding sound wave data, sound wave model data, final target model, visual knowledge, and identification information of the target in the database 130a in the platform server 130, and stores identification information of the target. It stores information such as the type, specification, direction, distance, date and time, and location detected in order.

또한 상기 최종 표적의 식별정보를 해당 표적의 음파데이터와 음파모델데이터 및 최종 표적모델, 시각지식 등의 정보와 함께 클라이언트 단말기(140)로 전송한다. In addition, the identification information of the final target is transmitted to the client terminal 140 together with information such as sound wave data, sound wave model data and the final target model, visual knowledge of the target.

한편 상기 매칭식별부(134)는 음파분석부(132)의 최종 표적모델과 영상분석부(133)의 시각지식 매칭시에 매칭 조건이 맞지 않거나 학습하지 못한 새로운 정보가 취득되면 상황에 따른 추가 학습이나 표적 재분석 명령정보를 입력받도록 경고메시지를 발생시킬 수 있다. On the other hand, the matching identifier 134 further learns according to the situation when new information that does not match the matching condition or is not acquired when the final target model of the sound wave analyzing unit 132 and the visual knowledge matching of the image analyzer 133 are acquired. Alternatively, a warning message may be generated to receive target reanalysis command information.

이러한 경고메시지에 따라 관리자 또는 소나청취사, 항해사 등이 재분석 명령정보를 입력할 수 있고, 이에 따라 전술한 음파분석부(132) 및 영상분석부(133)의 재수행이 이루어지도록 구성되게 된다. According to the warning message, the administrator or the sonar auditor, the navigator, etc. can input the reanalysis command information, so that the re-execution of the sound wave analysis unit 132 and the image analysis unit 133 described above is performed.

도 6은 본 발명의 일실시예에 따른 클라이언트 단말기의 출력화면을 나타내는 도면이다. 6 is a view showing an output screen of the client terminal according to an embodiment of the present invention.

한편 상기 클라이언트 단말기(140)는 전술한 바와 같이 플랫폼서버(130)의 매칭식별부(134)로부터 식별된 음파데이터, 영상데이터, 최종 표적모델, 시각지식 및 표적 식별정보 등을 전달받아 이를 관리자에게 제공하도록 구비되는데, 이러한 클라이언트 단말기(140)는 플랫폼서버(130)의 매칭식별부(134)로부터 식별된 음파데이터의 결과를 전달받아 이와 설정치 이상으로 일치도를 가지는 표적모델의 음파데이터와 함께 표시하는 음파데이터표시부(141)와, 플랫폼서버(130)의 매칭식별부(134)로부터 식별된 영상데이터의 결과와 이와 설정치 이상으로 일치도를 가지는 표적모델의 영상데이터를 표시하는 영상데이터표시부(142)와, 플랫폼서버(130)의 매칭식별부(134)로부터 최종 표적모델 또는 표적의 식별정보를 전달받아 이를 표시하는 표적정보표시부(143)와, 표적이 잠수함과 일정 거리 접근 또는 일정 각도 방향 변경시 설정에 따라 경보데이터를 생성하여 표시하는 경보표시부(144)로 이루어진다. Meanwhile, as described above, the client terminal 140 receives sound wave data, image data, final target model, visual knowledge, and target identification information, etc. identified from the matching identification unit 134 of the platform server 130 and transmits the same to the manager. The client terminal 140 receives the result of the sound wave data identified from the matching identification unit 134 of the platform server 130 and displays the sound wave data of the target model having a matching degree above the set value. The sound wave data display unit 141 and the image data display unit 142 for displaying the result of the image data identified from the matching identification unit 134 of the platform server 130 and the image data of the target model having a matching degree above the set value. The target information display unit 143 receives the final target model or identification information of the target from the matching identification unit 134 of the platform server 130, and displays the table. It comprises a warning display unit 144 to display the generated alert data in accordance with a submarine and a distance or an angle approaching direction to change the setting.

설정에 따라 클라이언트 단말기(140)에서 관리자의 명령정보를 입력받아 플랫폼서버(130)로 재분석을 수행하도록 제어신호를 전송하도록 구성할 수 있고, 과거 이력 정보 등을 요청하여 해당 데이터를 전송받아 열람할 수도 있다. The client terminal 140 may be configured to transmit a control signal to receive the administrator's command information according to the setting and perform reanalysis to the platform server 130, and to receive and read the corresponding data by requesting the past history information. It may be.

이와 같이 본 발명은 도면에 도시된 일실시예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. As described above, the present invention has been described with reference to one embodiment shown in the drawings, but this is merely an example, and those skilled in the art may realize various modifications and other equivalent embodiments therefrom. I will understand.

따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

110 : 소나센서 111 : 음파데이터수신부
120 : 잠망경 121 : 영상데이터수신부
130 : 플랫폼서버 130a : 데이터베이스
131 : 데이터저장부 132 : 음파분석부
132a : 표적음파추출부 132b : 음파학습모델부
132c : 표적모델진단부 132d : 표적모델확인부
133 : 영상분석부 134 : 매칭식별부
140 : 클라이언트 단말기 141 : 음파데이터표시부
142 : 영상데이터표시부 143 : 표적정보표시부
144 : 경보표시부 100 : 인공지능 자동식별시스템
110: sonar sensor 111: sound wave data receiver
120: periscope 121: image data receiver
130: platform server 130a: database
131: data storage unit 132: sound wave analysis unit
132a: target sound wave extraction unit 132b: sound wave learning model unit
132c: target model diagnosis unit 132d: target model diagnosis unit
133: image analysis unit 134: matching identification unit
140: client terminal 141: sound wave data display unit
142: image data display unit 143: target information display unit
144: alarm display unit 100: AI automatic identification system

Claims (7)

음파를 발신하여 반사되어 돌아오는 반사 음파데이터를 수신하거나 소음을 수신하여 표적의 종류를 식별하는 소나센서(110)와;
수상의 물체를 촬영하여 영상데이터를 생성하는 잠망경(120)과;
상기 소나센서(110) 및 잠망경(120)으로부터 음파데이터와 영상데이터를 전달받아 음파데이터 및 영상데이터의 분석을 통해 표적에 대한 음파 추출, 학습된 음파모델데이터와 비교를 통해 1차 표적모델을 특정하고, 소나청취사의 확인정보를 입력받아 특정된 1차 표적모델을 확인하여 최종 표적모델을 특정하고, 상기 최종 표적모델의 음파데이터와 잠망경의 영상데이터를 매칭하여 해당 표적의 식별정보를 생성하는 플랫폼서버(130)와;
상기 플랫폼서버(130)와 데이터 통신가능하도록 연결되어 상기 플랫폼서버(130)로부터 식별된 음파데이터와 영상데이터의 결과 및 표적 정보를 전달받아 이를 관리자에게 제공하며 설정에 따른 이벤트 발생에 따라 경보데이터를 표시하는 클라이언트 단말기(140);를 포함하는 것을 특징으로 하는 딥러닝 기반 잠수함 소나 음파데이터와 잠망경 영상데이터와의 융합을 통한 인공지능 자동식별시스템.
A sonar sensor (110) for identifying the type of the target by receiving the sound wave data that is reflected by returning the sound wave and returning;
A periscope 120 for photographing an object of water and generating image data;
Receives sound wave data and image data from the sonar sensor 110 and periscope 120, and analyzes the sound wave data and image data to identify the primary target model through sound wave extraction for the target and comparison with the learned sound wave model data. A platform for identifying the final target model by receiving the confirmation information of the sonar auditor, identifying the final target model, and generating identification information of the target by matching the acoustic data of the final target model with the image data of the periscope. Server 130;
It is connected to the platform server 130 so as to communicate data, and receives the result and target information of the sound wave data and image data identified from the platform server 130 to provide it to the administrator and alarm data in accordance with the event occurrence according to the setting Displaying the client terminal 140; artificial intelligence automatic identification system through the deep learning based submarine sonar sound wave data and periscope image data fusion.
제1항에 있어서,
상기 소나센서(110)는 음파데이터를 수신하는 음파데이터수신부(111)가 포함되며, 상기 잠망경(120)은 촬영한 영상데이터를 수신하는 영상데이터수신부(121)가 포함되는 것을 특징으로 하는 딥러닝 기반 잠수함 소나 음파데이터와 잠망경 영상데이터와의 융합을 통한 인공지능 자동식별시스템.
The method of claim 1,
The sonar sensor 110 includes a sound wave data receiver 111 for receiving sound wave data, and the periscope 120 includes a deep data learning unit 121 for receiving the captured image data. Artificial intelligence automatic identification system by combining submarine sonar sound wave data and periscope image data.
제2항에 있어서,
상기 플랫폼서버(130)는
상기 소나센서(110)의 음파데이터수신부(111) 및 잠망경(120)의 영상데이터수신부(121)로부터 각각 음파데이터와 영상데이터를 전달받아 저장하는 데이터저장부(131)와,
상기 데이터저장부(131)에 저장된 음파데이터를 호출하여 표적에 대한 음파 추출, 딥러닝 기반의 학습된 음파모델데이터와 비교를 통해 1차 표적모델을 특정하고, 소나청취사의 확인정보를 입력받아 특정된 1차 표적모델을 확인하여 최종 표적모델을 특정하는 음파분석부(132)와,
상기 데이터저장부(131)에 저장된 영상데이터를 호출하여 해당 영상데이터에서 씬을 분리하고, 대표샷, 객체, 행위 동사, 키프레임 및 시각지식을 생성하는 영상분석부(133)와,
상기 음파분석부(132)의 최종 표적모델과 상기 영상분석부(133)의 시각지식을 매칭하여 표적의 식별정보를 생성하고 플랫폼서버(130) 내 데이터베이스(130a)에 저장하며 상기 클라이언트 단말기(140)로 식별된 음파데이터와 영상데이터의 결과, 최종 표적모델 또는 표적의 식별정보를 전송하는 매칭식별부(134)를 포함하는 것을 특징으로 하는 딥러닝 기반 잠수함 소나 음파데이터와 잠망경 영상데이터와의 융합을 통한 인공지능 자동식별시스템.
The method of claim 2,
The platform server 130 is
A data storage unit 131 for receiving and storing sound wave data and image data from the sound wave data receiver 111 of the sonar sensor 110 and the image data receiver 121 of the periscope 120, respectively;
Call the sound wave data stored in the data storage unit 131 to specify the primary target model through the sound wave extraction, deep learning-based learning sound wave model data for the target, receiving the confirmation information of the sonar auditor A sound wave analysis unit 132 for identifying the final target model by identifying the primary target model;
An image analyzer 133 for calling the image data stored in the data storage unit 131 to separate a scene from the image data, and generating a representative shot, an object, an action verb, a key frame and visual knowledge;
The final target model of the sound wave analyzer 132 and the visual knowledge of the image analyzer 133 are matched to generate identification information of the target, stored in the database 130a in the platform server 130, and the client terminal 140. Deep learning-based submarine sonar sound wave data and periscope image data, characterized in that it comprises a matching identification unit 134 for transmitting the result of the sound wave data and image data identified by the), the final target model or target identification information AI automatic identification system.
제3항에 있어서,
상기 음파분석부(132)는
상기 데이터저장부(131)에 저장된 음파데이터를 호출하여 표적에 대한 객체 음파를 추출하여 표적추출 음파데이터를 생성하는 표적음파추출부(132a)와,
상기 표적음파추출부(132a)에서 추출된 표적추출 음파데이터와 딥러닝 기반의 표적별 특징 음파데이터가 학습된 음파모델데이터와 비교하여 설정치 이상으로 일치도를 가지는 음파모델데이터를 추출하는 음파학습모델부(132b)와,
상기 추출된 음파모델데이터에 따른 표적정보를 1차 표적모델로 특정하는 표적모델진단부(132c)와,
상기 특정된 1차 표적모델에 대해 소나청취사의 확인정보를 입력받아 최종 표적모델을 특정하는 표적모델확인부(132d)를 포함하는 것을 특징으로 하는 딥러닝 기반 잠수함 소나 음파데이터와 잠망경 영상데이터와의 융합을 통한 인공지능 자동식별시스템.
The method of claim 3,
The sound wave analyzer 132 is
A target sound extraction unit 132a for calling the sound data stored in the data storage unit 131 to extract object sound waves for a target to generate target extraction sound wave data;
A sound wave learning model unit for extracting the sound wave model data having a matching degree higher than the set value by comparing the target sound wave data extracted from the target sound wave extracting unit 132a and the target sound wave data based on deep learning with the learned sound wave model data With 132b,
A target model diagnosis unit 132c for specifying target information according to the extracted sound wave model data as a primary target model;
The deep learning-based submarine sonar sound wave data and periscope image data, characterized in that it comprises a target model confirmation unit 132d for receiving the confirmation information of the sonar auditor for the specified primary target model to specify the final target model. Artificial intelligence automatic identification system through convergence.
제3항에 있어서,
상기 영상분석부(133)는
상기 데이터저장부(131)에 저장된 영상데이터를 호출하여 씬(Scene)을 분리하는 단계(S100)와,
상기 분리된 각 씬에서 대표샷(shot)을 추출하는 단계(S110)와,
상기 대표샷을 구성하는 프레임에서 객체를 추출하는 단계(S120)와,
상기 추출된 객체 간 상호 관계를 기반으로 행위 동사를 추출하는 단계(S130)와,
상기 행위 동사를 추출한 근거가 되는 객체와 상호 관계가 가장 잘 표현된 것으로 판단되는 프레임을 키프레임으로 선정하는 단계(S140)와,
상기 선정된 키프레임을 기반으로 시각지식을 생성하는 단계(S150)를 포함하여 분석이 이루어지는 것을 특징으로 하는 딥러닝 기반 잠수함 소나 음파데이터와 잠망경 영상데이터와의 융합을 통한 인공지능 자동식별시스템.
The method of claim 3,
The image analyzer 133 is
Separating a scene (Scene) by calling the image data stored in the data storage unit 131 (S100),
Extracting a representative shot from each of the separated scenes (S110);
Extracting an object from a frame constituting the representative shot (S120);
Extracting an action verb based on the mutual relationship between the extracted objects (S130);
Selecting as a key frame a frame that is determined to best express the relationship between the object on which the behavior verb is extracted (S140);
Deep learning-based submarine sonar or sound wave data and periscope image data, characterized in that the analysis comprises the step of generating the visual knowledge based on the selected key frame.
제3항에 있어서,
상기 클라이언트 단말기(140)는
플랫폼서버(130)의 매칭식별부(134)로부터 식별된 음파데이터의 결과를 전달받아 이와 설정치 이상으로 일치도를 가지는 표적모델의 음파데이터와 함께 표시하는 음파데이터표시부(141)와,
플랫폼서버(130)의 매칭식별부(134)로부터 식별된 영상데이터의 결과와 이와 설정치 이상으로 일치도를 가지는 표적모델의 영상데이터를 표시하는 영상데이터표시부(142)와,
플랫폼서버(130)의 매칭식별부(134)로부터 최종 표적모델 또는 표적의 식별정보를 전달받아 이를 표시하는 표적정보표시부(143)와,
표적이 잠수함과 일정 거리 접근 또는 일정 각도 방향 변경시 설정에 따라 경보데이터를 생성하여 표시하는 경보표시부(144)를 포함하는 것을 특징으로 하는 딥러닝 기반 잠수함 소나 음파데이터와 잠망경 영상데이터와의 융합을 통한 인공지능 자동식별시스템.
The method of claim 3,
The client terminal 140 is
A sound wave data display unit 141 which receives the sound wave data result identified from the matching identification unit 134 of the platform server 130 and displays the sound wave data of the target model having a matching degree higher than the set value;
An image data display unit 142 for displaying the image data of the target model having a degree of agreement with the result of the image data identified from the matching identification unit 134 of the platform server 130 and above the set value;
A target information display unit 143 which receives the final target model or identification information of the target from the matching identification unit 134 of the platform server 130 and displays it;
Deep learning-based submarine sonar sound wave data and periscope image data, characterized in that it comprises an alarm display unit 144 to generate and display the alarm data according to the setting when the target is a certain distance approach or change the angle direction with the submarine AI automatic identification system.
제3항에 있어서,
상기 매칭식별부(134)는 음파분석부(132)의 최종 표적모델과 영상분석부(133)의 시각지식 매칭시에 매칭 조건이 맞지 않거나 학습하지 못한 새로운 정보가 취득되면 상황에 따른 추가 학습이나 표적 재분석 명령정보를 입력받도록 경고메시지를 발생시키는 것을 특징으로 하는 딥러닝 기반 잠수함 소나 음파데이터와 잠망경 영상데이터와의 융합을 통한 인공지능 자동식별시스템.
The method of claim 3,
The matching identification unit 134 may be further learning depending on the situation when new information is not matched or the matching condition is acquired when the final target model of the sound wave analysis unit 132 and the visual analysis of the image analysis unit 133 are acquired. Deep learning-based submarine sonar sound waves and periscope image data, characterized in that generating a warning message to receive the target re-analysis command information artificial intelligence automatic identification system.
KR1020190083911A 2019-07-11 2019-07-11 Artificial intelligence automatic identification system by fusion of deep run based submarine sonar data and periscope image data KR102054153B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190083911A KR102054153B1 (en) 2019-07-11 2019-07-11 Artificial intelligence automatic identification system by fusion of deep run based submarine sonar data and periscope image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190083911A KR102054153B1 (en) 2019-07-11 2019-07-11 Artificial intelligence automatic identification system by fusion of deep run based submarine sonar data and periscope image data

Publications (1)

Publication Number Publication Date
KR102054153B1 true KR102054153B1 (en) 2019-12-12

Family

ID=69003985

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190083911A KR102054153B1 (en) 2019-07-11 2019-07-11 Artificial intelligence automatic identification system by fusion of deep run based submarine sonar data and periscope image data

Country Status (1)

Country Link
KR (1) KR102054153B1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102157857B1 (en) * 2020-07-07 2020-09-18 한화시스템 주식회사 Unmanned submercible with naval identification function using sonar
KR102201995B1 (en) * 2020-08-26 2021-01-12 한화시스템(주) Information recording and reproducing apparatus and method for combat Management systems
KR102228621B1 (en) * 2020-04-29 2021-03-16 엘아이지넥스원 주식회사 Method and Apparatus for Ship Combat System Based on Artificial Intelligence
CN112508901A (en) * 2020-12-01 2021-03-16 广州大学 Underwater structure disease identification method, system and device and storage medium
KR102238280B1 (en) * 2020-12-09 2021-04-08 박지현 Underwater target detection system and method of thereof
KR102261665B1 (en) * 2020-09-08 2021-06-07 한화시스템 주식회사 Apparatus for automatic navigation, method for automatic navigation and midget submarine using the same
WO2021154861A1 (en) * 2020-01-27 2021-08-05 Schlumberger Technology Corporation Key frame extraction for underwater telemetry and anomaly detection
GB2607318A (en) * 2021-06-02 2022-12-07 Bae Systems Plc Method and apparatus for control
KR102483341B1 (en) 2022-06-22 2022-12-30 한화시스템 주식회사 Apparatus and method for detecting underwater target
KR20230040617A (en) * 2021-09-16 2023-03-23 엘아이지넥스원 주식회사 Integrated intercepted signal processing apparatus, system with the same and integrated intercepted signal processing method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150059191A (en) 2013-11-21 2015-06-01 한국해양과학기술원 Method of real-time recognizing and tracking for underwater objects using sonar images
KR101740157B1 (en) * 2015-12-16 2017-05-24 한양대학교 에리카산학협력단 Optimal Search Position/Depth Determination Method using SONOBUOY
KR101927364B1 (en) * 2017-12-13 2018-12-10 주식회사 에스원 Outside Intruding and Monitering Radar Syatem Based on Deep -Learning and Method thereof
KR101934776B1 (en) * 2017-01-12 2019-01-03 신동명 Missile early detection system using under-water drone
KR20190061631A (en) * 2017-11-28 2019-06-05 삼성전자주식회사 Server and the control method thereof
KR101987241B1 (en) * 2017-02-24 2019-06-11 주식회사 케이티 Complexed event processing base smart monitoring platform and smart monitoring method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150059191A (en) 2013-11-21 2015-06-01 한국해양과학기술원 Method of real-time recognizing and tracking for underwater objects using sonar images
KR101740157B1 (en) * 2015-12-16 2017-05-24 한양대학교 에리카산학협력단 Optimal Search Position/Depth Determination Method using SONOBUOY
KR101934776B1 (en) * 2017-01-12 2019-01-03 신동명 Missile early detection system using under-water drone
KR101987241B1 (en) * 2017-02-24 2019-06-11 주식회사 케이티 Complexed event processing base smart monitoring platform and smart monitoring method
KR20190061631A (en) * 2017-11-28 2019-06-05 삼성전자주식회사 Server and the control method thereof
KR101927364B1 (en) * 2017-12-13 2018-12-10 주식회사 에스원 Outside Intruding and Monitering Radar Syatem Based on Deep -Learning and Method thereof

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021154861A1 (en) * 2020-01-27 2021-08-05 Schlumberger Technology Corporation Key frame extraction for underwater telemetry and anomaly detection
KR102228621B1 (en) * 2020-04-29 2021-03-16 엘아이지넥스원 주식회사 Method and Apparatus for Ship Combat System Based on Artificial Intelligence
KR102157857B1 (en) * 2020-07-07 2020-09-18 한화시스템 주식회사 Unmanned submercible with naval identification function using sonar
KR102339165B1 (en) * 2020-07-07 2021-12-14 한화시스템 주식회사 Unmanned submercible with naval identification function using sonar
KR102201995B1 (en) * 2020-08-26 2021-01-12 한화시스템(주) Information recording and reproducing apparatus and method for combat Management systems
KR102261665B1 (en) * 2020-09-08 2021-06-07 한화시스템 주식회사 Apparatus for automatic navigation, method for automatic navigation and midget submarine using the same
CN112508901A (en) * 2020-12-01 2021-03-16 广州大学 Underwater structure disease identification method, system and device and storage medium
CN112508901B (en) * 2020-12-01 2024-04-05 广州大学 Underwater structure disease identification method, system, device and storage medium
KR102238280B1 (en) * 2020-12-09 2021-04-08 박지현 Underwater target detection system and method of thereof
GB2607318A (en) * 2021-06-02 2022-12-07 Bae Systems Plc Method and apparatus for control
KR20230040617A (en) * 2021-09-16 2023-03-23 엘아이지넥스원 주식회사 Integrated intercepted signal processing apparatus, system with the same and integrated intercepted signal processing method
KR102641322B1 (en) 2021-09-16 2024-02-27 엘아이지넥스원 주식회사 Integrated intercepted signal processing apparatus, system with the same and integrated intercepted signal processing method
KR102483341B1 (en) 2022-06-22 2022-12-30 한화시스템 주식회사 Apparatus and method for detecting underwater target

Similar Documents

Publication Publication Date Title
KR102054153B1 (en) Artificial intelligence automatic identification system by fusion of deep run based submarine sonar data and periscope image data
JP5241720B2 (en) Steering and safety systems for vehicles or equipment
KR101594044B1 (en) Method and apparatus for detection and classification of a swimming object
US10486787B2 (en) Shipboard auditory sensor
WO2022172103A1 (en) Radar system device and method for corroborating human reports on high-risk, search & response incidents
CN109029122B (en) Sea defense command control system and control method
Fillinger et al. Passive acoustic detection of closed-circuit underwater breathing apparatus in an operational port environment
Soldi et al. Monitoring of Critical Undersea Infrastructures: The Nord Stream and Other Recent Case Studies
KR20240021671A (en) Suspicious object monitoring device based on false image probability
WO2023011925A1 (en) Underwater vehicle and method for improving the positional image of an underwater vehicle
Arrabito et al. Recommendations for enhancing the role of the auditory modality for processing sonar data
Kumar et al. requirements analysis of an Integrated sonar suite for surface ships: systems engineering perspective
TWM603177U (en) Deep-learning-based ship classification edge computing device
George et al. System of systems architecture for generic torpedo defence system for surface ships
Lovik et al. Underwater protection system
Kajiwara Maritime Security and Underwater Surveillance Technology: Lessons from the Cold War
US20230010941A1 (en) Detecting an in-field event
Cote et al. Antisubmarine Warfare after the Cold War
Percival et al. CUwPS: An integrated system for the detection, localization, and classification of underwater threats
Hines Experimental comparison of high duty cycle and pulsed active sonars in a littoral environment
Goldrick Part 2: History
Lillbacka A Critical Assessment of Alleged Evidence of Western Submarine Intrusions in Swedish Territorial Waters
JP2024046913A (en) Drone device, surveillance method and program
CN111512179A (en) Underwater detection system and method
Cox et al. Unmanned surface combatant considerations for concept exploration

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant