KR102567618B1 - Apparatus for operating context information and method thereof - Google Patents

Apparatus for operating context information and method thereof Download PDF

Info

Publication number
KR102567618B1
KR102567618B1 KR1020220182904A KR20220182904A KR102567618B1 KR 102567618 B1 KR102567618 B1 KR 102567618B1 KR 1020220182904 A KR1020220182904 A KR 1020220182904A KR 20220182904 A KR20220182904 A KR 20220182904A KR 102567618 B1 KR102567618 B1 KR 102567618B1
Authority
KR
South Korea
Prior art keywords
data
metadata
context information
information
generating
Prior art date
Application number
KR1020220182904A
Other languages
Korean (ko)
Inventor
도규석
Original Assignee
한화시스템 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화시스템 주식회사 filed Critical 한화시스템 주식회사
Priority to KR1020220182904A priority Critical patent/KR102567618B1/en
Application granted granted Critical
Publication of KR102567618B1 publication Critical patent/KR102567618B1/en

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41HARMOUR; ARMOURED TURRETS; ARMOURED OR ARMED VEHICLES; MEANS OF ATTACK OR DEFENCE, e.g. CAMOUFLAGE, IN GENERAL
    • F41H11/00Defence installations; Defence devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63GOFFENSIVE OR DEFENSIVE ARRANGEMENTS ON VESSELS; MINE-LAYING; MINE-SWEEPING; SUBMARINES; AIRCRAFT CARRIERS
    • B63G13/00Other offensive or defensive arrangements on vessels; Vessels characterised thereby
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41AFUNCTIONAL FEATURES OR DETAILS COMMON TO BOTH SMALLARMS AND ORDNANCE, e.g. CANNONS; MOUNTINGS FOR SMALLARMS OR ORDNANCE
    • F41A33/00Adaptations for training; Gun simulators
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41HARMOUR; ARMOURED TURRETS; ARMOURED OR ARMED VEHICLES; MEANS OF ATTACK OR DEFENCE, e.g. CAMOUFLAGE, IN GENERAL
    • F41H13/00Means of attack or defence not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/632Query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/64Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/904Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/908Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content

Abstract

본 발명은, 함정으로부터 상황정보 데이터를 수집하기 위한 수집부와, 상황정보 데이터에서 제1형태를 가지는 제1데이터를 추출하기 위한 제1데이터 처리부와, 제1데이터를 제1형태와 다른 제2형태로 변환하여 제2데이터를 생성하기 위한 데이터 변환부와, 제2데이터를 이용하여 메타데이터를 생성하기 위한 메타데이터 생성부, 및 상황정보 데이터를 재생할 수 있고, 메타데이터를 기반으로 상황정보 데이터의 재생 시점을 선정할 수 있는 상황정보 전시부를 포함하는 상황정보 운용 장치와, 이에 적용되는 상황정보 운용 방법으로서, 함정으로부터 수집되는 상황정보 데이터를 효율적으로 활용할 수 있는 상황정보 운용 장치 및 방법이 제시된다.The present invention includes a collection unit for collecting context information data from traps, a first data processing unit for extracting first data having a first form from context information data, and a second form different from the first form for the first data. A data conversion unit for generating second data by converting into a form, a metadata generation unit for generating metadata using the second data, and reproducing contextual information data, and reproducing contextual information data based on the metadata. Presenting a situation information operation device including a situation information display unit capable of selecting the playback time of the game, and a situation information operation method applied thereto, which can efficiently utilize situation information data collected from ships. do.

Description

상황정보 운용 장치 및 방법{APPARATUS FOR OPERATING CONTEXT INFORMATION AND METHOD THEREOF}Apparatus and method for operating context information {APPARATUS FOR OPERATING CONTEXT INFORMATION AND METHOD THEREOF}

본 발명은 상황정보 운용 장치 및 방법에 관한 것으로서, 더욱 상세하게는 함정으로부터 수집되는 상황정보 데이터를 효율적으로 활용할 수 있는 상황정보 운용 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for operating situation information, and more particularly, to an apparatus and method for operating situation information capable of efficiently utilizing situation information data collected from a ship.

함정을 운용하는 동안, 함정에 탑재된 전투체계에는 함정이 운용과 관련되는 모든 정보 즉, 전투체계를 운용하면서 발생한 전술정보, 전투체계가 수신한 영상정보 등의 상황정보가 영상 파일 및 음성 파일로 기록된다. 이때, 전투체계에 기록된 내용은 예컨대 함정 승무원 평가, 함정 수리 등 다양한 작업에서 기초 데이터로서 상당히 중요하게 활용될 수 있다.During the operation of the ship, the combat system mounted on the ship transmits all information related to the operation of the ship, such as tactical information generated while operating the combat system and situational information such as video information received by the combat system, as video files and audio files. It is recorded. At this time, the contents recorded in the combat system can be used as very important basic data in various tasks such as ship crew evaluation and ship repair.

그런데, 종래에는 특정한 이벤트를 분석하기 위해서는, 전투체계에서 기록된 파일들을 재생할 때, 사용자가 재생 화면의 시간 바를 조작하여 해당 이벤트가 기록된 재생 위치까지 직접 스크롤을 이동시켜 재생 시점을 조절하거나, 해당 이벤트가 기록된 재생 위치가 나올때까지 파일의 재생속도를 높이는 방식을 사용하였다. 따라서, 함정을 장시간 운용할수록, 분석할 이벤트가 최근의 이벤트일수록, 분석을 시작하기까지 재생 시점을 조절하는 것에 많은 시간이 소모되는 문제점이 있었다.However, in the prior art, in order to analyze a specific event, when playing files recorded in a combat system, the user manipulates the time bar on the playback screen to directly scroll to the playback position where the event is recorded to adjust the playback time, or A method of increasing the playback speed of the file until the playback position where the event is recorded appears. Therefore, the longer the trap is operated, the more recent the event to be analyzed, the more time is consumed in adjusting the playback time until the analysis starts.

또한, 종래에는 전투체계에서는 기록된 파일을 재생할 때 되감기 기능이 지원되지 않아서 조작 실수로 해당 이벤트가 기록된 재생 위치를 넘어가면 다시 처음부터 조작해야 하는 어려움이 있었다.In addition, conventional combat systems do not support a rewind function when replaying a recorded file, so if an operation mistake goes beyond the recorded playback position, it is difficult to operate again from the beginning.

이러한 종래의 방식은 특정한 이벤트를 기반으로 전투체계 정보를 분석해야 하는 사용자에게 불편함을 초래하고, 정보 분석에 들어가는 시간을 증가시키는 문제점이 있다.This conventional method causes inconvenience to a user who has to analyze combat system information based on a specific event, and has a problem of increasing the time required for information analysis.

본 발명의 배경이 되는 기술은 하기의 특허문헌에 게재되어 있다.The background technology of the present invention is published in the following patent documents.

KRKR 10-152326110-1523261 B1B1 KRKR 10-177919910-1779199 B1B1

본 발명은 함정으로부터 수집되는 상황정보 데이터를 효율적으로 활용할 수 있는 상황정보 운용 장치 및 방법을 제공한다.The present invention provides an apparatus and method for operating contextual information capable of efficiently utilizing contextual information data collected from a ship.

본 발명의 실시 형태에 따른 상황정보 운용 장치는, 함정으로부터 상황정보 데이터를 수집하기 위한 수집부; 상기 상황정보 데이터에서 제1형태를 가지는 제1데이터를 추출하기 위한 제1데이터 처리부; 상기 제1데이터를 상기 제1형태와 다른 제2형태로 변환하여 제2데이터를 생성하기 위한 데이터 변환부; 상기 제2데이터를 이용하여 메타데이터를 생성하기 위한 메타데이터 생성부; 및 상기 상황정보 데이터를 재생할 수 있고, 상기 메타데이터를 기반으로 상기 상황정보 데이터의 재생 시점을 선정할 수 있는 상황정보 전시부;를 포함한다.A situation information operating apparatus according to an embodiment of the present invention includes a collection unit for collecting situation information data from a trap; a first data processing unit for extracting first data having a first form from the context information data; a data conversion unit configured to generate second data by converting the first data into a second form different from the first form; a metadata generator for generating metadata using the second data; and a context information display unit capable of reproducing the context information data and selecting a reproduction time of the context information data based on the metadata.

상기 수집부는 상기 함정의 전투체계와 연결되고, 상기 전투체계에 기록되는 영상(video) 데이터 및 음향(sound) 데이터를 상기 상황정보 데이터로서 수집하며, 상기 제1데이터 처리부는 상기 영상 데이터 및 상기 음향 데이터 중 어느 하나를 선택하여 상기 제1데이터로 추출할 수 있다.The collection unit is connected to the combat system of the ship and collects video data and sound data recorded in the combat system as the situation information data, and the first data processing unit collects the video data and the sound data. Any one of the data may be selected and extracted as the first data.

상기 데이터 변환부는 제1데이터 인식 모델을 이용하여 상기 제1데이터를 인식하여 텍스트 형태로 변환하고, 상기 제2데이터로서 텍스트 데이터를 생성할 수 있다.The data conversion unit may recognize the first data using a first data recognition model, convert the first data into a text format, and generate text data as the second data.

상기 메타데이터 생성부는 상기 제2데이터의 의미를 분석하고, 상기 제2데이터를 의미를 갖는 최소 단위로 분할하여 이벤트를 생성하고, 상기 이벤트를 시간에 따라 색인하여 상기 메타데이터로 생성할 수 있다.The metadata generator may analyze the meaning of the second data, divide the second data into meaningful units to generate an event, index the event according to time, and generate the metadata.

상기 상황정보 전시부는 상기 함정의 운용상황에 대한 이벤트를 검색하기 위한 검색어를 입력받고, 상기 메타데이터에 포함된 이벤트들 중 상기 검색어와 매칭되는 이벤트를 요청 이벤트로 추출하고, 상기 요청 이벤트에 색인된 시간부터 상기 상황정보 데이터를 재생할 수 있다.The situation information display unit receives a search word for searching for an event on the operation status of the trap, extracts an event matching the search word among events included in the metadata as a request event, and indexes the requested event. The situation information data can be reproduced from time.

본 발명의 실시 형태에 따른 상황정보 운용 방법은, 함정으로부터 상황정보 데이터를 수집하는 과정; 상기 상황정보 데이터에서 제1형태를 가지는 제1데이터를 추출하는 과정; 상기 제1데이터를 상기 제1형태와 다른 제2형태로 변환하여 제2데이터를 생성하는 과정; 상기 제2데이터를 이용하여 메타데이터를 생성하는 과정; 상기 메타데이터를 기반으로 상기 상황정보 데이터의 재생 시점을 선정하고, 선정된 재생 시점부터 상기 상황정보 데이터를 재생하는 과정;을 포함한다.A situation information management method according to an embodiment of the present invention includes a process of collecting situation information data from a trap; extracting first data having a first shape from the situation information data; generating second data by converting the first data into a second form different from the first form; generating metadata using the second data; and selecting a reproduction time point of the context information data based on the metadata and reproducing the context information data from the selected reproduction time point.

상기 상황정보 데이터를 수집하는 과정은, 상기 함정의 전투체계를 이용하여 상기 함정을 운용하는 과정; 상기 함정의 운용상황을 복수의 형태로 상기 전투체계에 기록하는 과정; 상기 전투체계에 기록된 데이터를 상기 상황정보 데이터로 수집하는 과정;을 포함할 수 있다.The process of collecting the situation information data may include: operating the ship using the combat system of the ship; Recording the operation status of the ship in the combat system in a plurality of forms; A process of collecting the data recorded in the combat system as the situation information data; may include.

상기 전투체계에 기록하는 과정은, 상기 전투체계의 하위 체계들 중, 전술지휘체계 및 센서체계에서 입출력되는 전술정보, 레이더 탐지정보, 가시광선 탐지정보 및 적외선 탐지정보를 영상 데이터로 기록하는 과정; 상기 전투체계의 하위 체계들 중, 통신체계에서 입출력되는 통신정보를 음향 데이터로 기록하는 과정;을 포함할 수 있다.The process of recording in the combat system may include: recording tactical information, radar detection information, visible light detection information, and infrared light detection information input and output from a tactical command system and a sensor system among subsystems of the combat system as image data; Among the subsystems of the combat system, a process of recording communication information input and output from the communication system as sound data; may be included.

상기 제1데이터를 추출하는 과정은, 상기 상황정보 데이터 중 상기 영상 데이터 또는 상기 음향 데이터를 선택하여 상기 제1데이터로 추출하는 과정;을 포함할 수 있다.The process of extracting the first data may include a process of selecting the image data or the sound data from among the context information data and extracting the first data.

상기 제2데이터를 생성하는 과정은, 미리 입력된 제1데이터 인식 모델을 이용하여 상기 제1데이터를 인식하여 텍스트 형태로 변환하여 변환된 텍스트 데이터를 상기 제2데이터로 생성하는 과정;을 포함할 수 있다.The process of generating the second data may include recognizing the first data using a first data recognition model input in advance, converting the first data into text form, and generating the converted text data as the second data. can

상기 제1데이터는 음향 데이터를 포함하고, 상기 제1데이터 인식 모델은 음향 인식 모델을 포함하고, 상기 제2데이터로 생성하는 과정은, 상기 음향 데이터 중 미리 설정된 기준 음량 이상의 음량을 갖는 음향 데이터를 선택하는 과정; 상기 음향 인식 모델을 이용하여, 선택한 음향 데이터 중에서 함정 승무원의 음성에 대응되는 음향 데이터를 식별하고, 음성 인식을 수행하여 음성 인식 텍스트들을 생성하는 과정; 생성된 음성 인식 텍스트들을 순서대로 나열하여 텍스트 데이터를 생성하는 과정;을 포함할 수 있다.The first data includes sound data, the first data recognition model includes a sound recognition model, and the process of generating the second data includes sound data having a volume equal to or greater than a preset reference volume among the sound data. selection process; identifying acoustic data corresponding to a crew member's voice from among the selected acoustic data using the acoustic recognition model, and generating voice-recognized texts by performing voice recognition; It may include a process of generating text data by arranging the generated voice recognition texts in order.

상기 메타데이터를 생성하는 과정은, 순서대로 나열된 음성 인식 텍스트들의 의미를 분석하고, 분석된 의미에 따라 상기 순서대로 나열된 음성 인식 텍스트들을 의미를 갖는 최소 단위로 분할하여 이벤트를 생성하는 과정; 생성된 이벤트를 시간에 따라 색인하여 상기 메타데이터로 생성하는 과정;을 포함할 수 있다.The process of generating the metadata may include analyzing the meaning of the voice recognition texts listed in order, and generating an event by dividing the voice recognition texts listed in the order into minimum units having meaning according to the analyzed meaning; Indexing the generated event according to time and generating the metadata; may include.

상기 상황정보 데이터를 재생하는 과정은, 검색어를 입력받는 과정; 상기 메타데이터 중 상기 검색어와 유사 혹은 동일한 이벤트를 요청 이벤트로 추출하는 과정; 추출된 요청 이벤트에 색인된 시간부터 상기 상황정보 데이터를 재생하는 과정;을 포함할 수 있다.The process of reproducing the situation information data may include receiving a search word; extracting an event similar or identical to the search word from among the metadata as a request event; and reproducing the context data from the time indexed to the extracted request event.

본 발명의 실시 형태에 따르면, 상황정보 데이터에서 제1데이터를 추출하고, 이로부터 제2데이터를 생성할 수 있고, 생성된 제2데이터를 이용하여 메타데이터를 생성하고, 메타데이터를 기반으로 상황정보 데이터의 재생 시점을 선정할 수 있다. 따라서, 선정된 재생 시점부터 상기 상황정보 데이터를 재생할 수 있다.According to an embodiment of the present invention, first data may be extracted from context information data, second data may be generated therefrom, metadata may be generated using the generated second data, and situation information may be extracted based on the metadata. The reproduction point of the information data can be selected. Accordingly, the situation information data can be reproduced from the selected reproduction time point.

또한, 본 발명의 실시 형태에 따르면, 상황정보 데이터 중의 음향(sound) 데이터로부터 텍스트 형태의 메타데이터를 생성함으로써, 사용자에게 익숙한 형태인 단어 검색을 통해 재생 시점을 원활하게 선정할 수 있다. 나아가, 함정 승무원이 의사소통 시에 익숙하고 빈번하게 사용하는 단어를 검색어로 활용하여 단어 검색을 통해 재생 시점을 정확하게 선정할 수 있다. 이에, 사용자가 원하는 이벤트를 정확하게 검색할 수 있고, 검색한 이벤트에 해당하는 재생 시점부터 즉시 재생함으로써, 특정한 이벤트를 기반으로 전투체계 정보를 분석해야 하는 사용자에게 편리함을 제공할 수 있다. 또한, 정보 분석에 들어가는 시간을 효과적으로 감소시킬 수 있다. 이로부터 함정으로부터 수집되는 상황정보 데이터를 사용자가 효율적으로 활용하도록 할 수 있다.In addition, according to an embodiment of the present invention, by generating text-type metadata from sound data among context information data, it is possible to smoothly select a playback time point through word search, which is a form familiar to users. Furthermore, it is possible to accurately select a playback time point through word search by using a word familiar and frequently used by ship crew members in communication as a search term. Accordingly, it is possible to accurately search for an event desired by the user, and immediately reproduce the searched event from the playback time, thereby providing convenience to a user who needs to analyze combat system information based on a specific event. In addition, the time required for information analysis can be effectively reduced. From this, the situation information data collected from the trap can be efficiently utilized by the user.

도 1은 본 발명의 실시 예에 따른 상황정보 운용 장치의 블록도이다.
도 2는 본 발명의 실시 예에 따른 상황정보 운용 장치의 모식도이다.
도 3은 본 발명의 실시 예에 따른 상황정보 운용 장치가 메타데이터를 생성하는 방식을 예시적으로 보여주는 도면이다.
도 4는 본 발명의 실시 예에 따른 상황정보 운용 방법의 순서도이다.
1 is a block diagram of a situation information operating device according to an embodiment of the present invention.
2 is a schematic diagram of a situation information operating device according to an embodiment of the present invention.
3 is a diagram exemplarily illustrating a method of generating metadata by a context information operating apparatus according to an embodiment of the present invention.
4 is a flowchart of a context information operating method according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여, 본 발명의 실시 예를 상세히 설명한다. 그러나 본 발명은 이하에서 개시되는 실시 예에 한정되는 것이 아니고, 서로 다른 다양한 형태로 구현될 것이다. 단지 본 발명의 실시 예는 본 발명의 개시가 완전하도록 하고, 해당 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 본 발명의 실시 예를 설명하기 위하여 도면은 과장될 수 있고, 도면상의 동일한 부호는 동일한 요소를 지칭한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, and will be implemented in a variety of different forms. Only the embodiments of the present invention are provided to complete the disclosure of the present invention and to fully inform those skilled in the art of the scope of the invention. In order to explain an embodiment of the present invention, the drawings may be exaggerated, and the same reference numerals in the drawings refer to the same elements.

본 발명은 함정으로부터 수집되는 상황정보 데이터를 효율적으로 활용할 수 있는 상황정보 운용 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for managing contextual information capable of efficiently utilizing contextual information data collected from a ship.

이하에서는 전투체계가 탑재된 함정에 적용되는 경우를 예시하여, 본 발명의 실시 예를 상세하게 설명한다. 물론, 이하에서 설명되는 본 발명의 실시 예에 따른 상황정보 운용 장치 및 방법은, 전차, 항공기 등에도 다양하게 적용될 수 있다.Hereinafter, an embodiment of the present invention will be described in detail by exemplifying a case in which a combat system is applied to a ship equipped with a combat system. Of course, the apparatus and method for operating situation information according to an embodiment of the present invention described below may be variously applied to trains, aircraft, and the like.

1. 본 발명의 실시 예에 따른 상황정보 운용 장치1. Context information operating device according to an embodiment of the present invention

도 1은 본 발명의 실시 예에 따른 상황정보 운용 장치의 블록도이고, 도 2는 본 발명의 실시 예에 따른 상황정보 운용 장치의 모식도이며, 도 3은 본 발명의 실시 예에 따른 상황정보 운용 장치가 메타데이터를 생성하는 방식을 예시적으로 보여주는 도면이다.1 is a block diagram of a context information operating device according to an embodiment of the present invention, FIG. 2 is a schematic diagram of a context information operating device according to an embodiment of the present invention, and FIG. 3 is a context information management device according to an embodiment of the present invention. It is a diagram exemplarily showing how the device generates metadata.

도 1 내지 도 3을 참조하여, 본 발명의 실시 예에 따른 상황정보 운용 장치를 설명한다.Referring to FIGS. 1 to 3 , a context information operating apparatus according to an embodiment of the present invention will be described.

본 발명의 실시 예에 따른 상황정보 운용 장치(1000)는, 수집부(100), 제1데이터 처리부(200), 데이터 변환부(300), 메타데이터 생성부(400), 상황정보 전시부(500)를 포함한다.The context information operating device 1000 according to an embodiment of the present invention includes a collection unit 100, a first data processing unit 200, a data conversion unit 300, a metadata generation unit 400, and a situation information display unit 500. ).

1.1. 함정(1)1.1. Trap(1)

상황정보 운용 장치(1000)는 함정(1)에 설치될 수 있다. 이때, 함정(1)은 해양에서 운용되는 군함을 포함할 수 있다. 함정(1)에는 전투체계(10)가 탑재될 수 있다. 함정(1)은 탑재된 전투체계(10)를 작동시켜 해상에서 항해할 수 있고, 부여된 임무를 수행할 수 있다. 상황정보 운용 장치(1000)가 함정(1)에 설치되는 경우, 전투체계(10)에 탑재되거나, 각종 콘솔 혹은 단말의 형태로 함정(1)의 내외부에 배치될 수 있다. 한편, 상황정보 운용 장치(1000)는 함정(1)의 외부에 배치되고, 함정(1)과 전술데이터링크를 통해 연결될 수도 있다.The situation information operating device 1000 may be installed in the trap 1. At this time, the ship 1 may include a warship operated in the sea. The battle system 10 may be mounted on the ship 1. The vessel 1 can operate the mounted combat system 10 to navigate on the sea and perform assigned missions. When the situation information operating device 1000 is installed in the ship 1, it can be mounted in the combat system 10 or placed inside and outside the ship 1 in the form of various consoles or terminals. Meanwhile, the situation information operating device 1000 may be disposed outside the trap 1 and connected to the trap 1 through a tactical data link.

1.2. 전투체계(10)1.2. combat system (10)

전투체계(10)는 전술지휘체계(11), 센서체계(12), 통신체계(13) 등을 포함할 수 있다. 이때, 전술지휘체계(11), 센서체계(12), 통신체계(13) 등을 전투체계(10)의 하위 체계라고 지칭할 수 있다. 또한, 전투체계(10)가 포함하는 하위 체계의 종류는 다양할 수 있다. 즉, 전투체계(10)는 하위 체계로서 무장체계, 항해체계 등을 더 포함할 수 있다. 한편, 전투체계(10)는 전술데이터링크를 통해 해상, 지상 혹은 공중의 합동통제소와 연결될 수 있다. 전술지휘체계(11), 센서체계(12) 및 통신체계(13)의 구성은 다양할 수 있다.The combat system 10 may include a tactical command system 11, a sensor system 12, a communication system 13, and the like. At this time, the tactical command system 11, the sensor system 12, the communication system 13, and the like may be referred to as sub-systems of the combat system 10. In addition, the types of subsystems included in the combat system 10 may vary. That is, the combat system 10 may further include an armed system, a navigation system, and the like as sub-systems. Meanwhile, the combat system 10 may be connected to a maritime, ground, or air joint control center through a tactical data link. Configurations of the tactical command system 11, the sensor system 12, and the communication system 13 may vary.

한편, 함정(1)의 전투체계(10)를 이용하여 함정(1)을 운용하는 과정에서, 전술지휘체계(11), 센서체계(12) 및 통신체계(13)에서 다양한 메시지 및 다양한 신호가 생성 및 출력될 수 있다. 전술지휘체계(11)는 내부 토픽메시지를 생성할 수 있다. 센서체계(12)는 ICD(Interface Control Document) 메시지를 생성할 수 있다. 이때, 내부 토픽메시지 및 ICD 메시지는 함정(1)의 운용상황에 대한 전술정보를 포함할 수 있다. 센서체계(12)는 레이더 신호, TV 신호 및 IR 신호를 생성할 수 있고, 이때, TV 신호는 탐색 결과를 가시광선 영상으로 생성하기 위한 것일 수 있고, IR 신호는 탐색 결과를 적외선(IR) 영상으로 생성하기 위한 것일 수 있으며, 레이더 신호는 탐색 결과를 레이더 영상으로 생성하기 위한 것일 수 있다. 한편, 레이더 신호는 함정(1)의 운용상황에 대한 레이더 탐지정보를 포함할 수 있고, TV 신호는 함정(1)의 운용상황에 대한 가시광선 탐지정보를 포함할 수 있고, IR 신호는 함정(1)의 운용상황에 대한 적외선 탐지정보를 포함할 수 있다. 통신체계(13)는 오디오 신호를 생성할 수 있다. 이때, 오디오 신호는 함정(1)의 운용상황에 대한 통신정보를 포함할 수 있다.Meanwhile, in the process of operating the ship 1 using the battle system 10 of the ship 1, various messages and various signals are generated from the tactical command system 11, sensor system 12, and communication system 13. can be created and output. The tactical command system 11 may generate an internal topic message. The sensor system 12 may generate an Interface Control Document (ICD) message. At this time, the internal topic message and the ICD message may include tactical information about the operating situation of the trap 1. The sensor system 12 may generate a radar signal, a TV signal, and an IR signal. At this time, the TV signal may be for generating a search result as a visible ray image, and the IR signal may generate a search result as an infrared (IR) image. It may be for generating, and the radar signal may be for generating a search result as a radar image. On the other hand, the radar signal may include radar detection information about the operation situation of the ship 1, the TV signal may include visible light detection information about the operation situation of the ship 1, and the IR signal may include the ship (1). 1) may include infrared detection information about the operation situation. The communication system 13 can generate an audio signal. At this time, the audio signal may include communication information about the operating situation of the trap 1.

1.3. 수집부(100)1.3. Collecting unit (100)

수집부(100)는 함정으로부터 상황정보 데이터를 수집하는 역할을 한다. 수집부(100)는 함정(1)의 전투체계(10)와 연결될 수 있다. 수집부(100)는 전투체계(10)와 데이터를 주고받을 수 있다. 또한, 수집부(100)는 전투체계(10)에 기록되는 영상(video) 데이터 및 음향(sound) 데이터를 상황정보 데이터로서 수집할 수 있다.The collection unit 100 serves to collect situational information data from traps. The collection unit 100 may be connected to the combat system 10 of the trap 1. The collection unit 100 may exchange data with the combat system 10 . In addition, the collection unit 100 may collect video data and sound data recorded in the combat system 10 as situation information data.

1.4. 제1데이터 처리부(200)1.4. First data processor 200

제1데이터 처리부(200)는 상황정보 데이터에서 제1형태를 가지는 제1데이터를 추출하는 역할을 한다. 제1데이터 처리부(200)는 수집부(100)와 연결되며, 수집부(100)와 데이터를 주고받을 수 있다. 또한, 제1데이터 처리부(200)는 영상 데이터 및 음향 데이터 중 어느 하나를 선택하여 제1데이터로 추출할 수 있다. 즉, 제1데이터 처리부(200)는 음향 데이터를 선택하여 제1데이터로 추출하거나, 영상 데이터를 선택하여 제1데이터로 추출할 수 있다.The first data processing unit 200 serves to extract first data having a first form from context information data. The first data processing unit 200 is connected to the collecting unit 100 and can exchange data with the collecting unit 100 . In addition, the first data processing unit 200 may select any one of image data and sound data and extract it as first data. That is, the first data processing unit 200 may select sound data and extract it as first data, or select image data and extract it as first data.

1.5. 데이터 변환부(300)1.5. Data conversion unit 300

데이터 변환부(300)는 제1데이터를 제1형태와 다른 제2형태로 변환하여 제2데이터를 생성하는 역할을 한다. 데이터 변환부(300)는 제1데이터 처리부(200)와 데이터를 주고받을 수 있게 연결될 수 있다. 이에, 데이터 변환부(300)는 제1데이터 처리부(200)로부터 제1데이터를 입력받을 수 있다. 또한, 데이터 변환부(300)는 제1데이터 인식 모델을 이용하여 제1데이터를 인식하여 텍스트 형태로 변환하고, 제2데이터로서 텍스트 데이터를 생성할 수 있다. 또한, 데이터 변환부(300)는 텍스트 데이터를 메타데이터 생성부(400)로 출력할 수 있다.The data conversion unit 300 serves to convert the first data into a second form different from the first form to generate second data. The data converter 300 may be connected to the first data processor 200 to exchange data. Accordingly, the data conversion unit 300 may receive the first data from the first data processing unit 200 . In addition, the data conversion unit 300 may recognize the first data using the first data recognition model, convert it into text form, and generate text data as the second data. Also, the data converter 300 may output text data to the metadata generator 400 .

1.6. 메타데이터 생성부(400)1.6. Metadata generator 400

메타데이터 생성부(400)는 제2데이터를 이용하여 메타데이터를 생성하는 역할을 한다. 메타데이터 생성부(400)는 데이터 변환부(300)로부터 제2데이터를 입력받을 수 있다. 이때, 제2데이터는 음향 데이터로부터 생성된 텍스트 데이터일 수 있다. 또한, 제2데이터는 영상 데이터로부터 생성된 텍스트 데이터일 수 있다. 또한, 메타데이터 생성부(400)는 제2데이터의 의미를 분석하고, 제2데이터를 의미를 갖는 최소 단위로 분할하여 이벤트를 생성하고, 이벤트를 시간에 따라 색인하여 메타데이터로 생성할 수 있다. 즉, 음향 데이터 혹은 영상 데이터로부터 테스트 형태로 생성되는 이벤트를 각 데이터의 시간정보와 함께 연관지어 메타데이터로서 함께 저장할 수 있다.The metadata generating unit 400 serves to generate metadata using the second data. The metadata generation unit 400 may receive second data from the data conversion unit 300 . In this case, the second data may be text data generated from sound data. Also, the second data may be text data generated from image data. In addition, the metadata generator 400 analyzes the meaning of the second data, divides the second data into meaningful units to generate events, and indexes the events according to time to generate metadata. . That is, an event generated in a test form from sound data or video data may be associated with time information of each data and stored as metadata.

1.7. 상황정보 전시부(500)1.7. Situation information display unit (500)

상황정보 전시부(500)는 상황정보 데이터를 재생하는 역할을 하고, 메타데이터를 기반으로 상황정보 데이터의 재생 시점을 선정하는 역할을 한다. 상황정보 전시부(500)는 전투체계(10)와 연결되어 상황정보 데이터를 입력받을 수 있고, 메타데이터 생성부(400)와 연결되어 메타데이터를 입력받을 수 있다. 또한, 상황정보 전시부(500)는 입력 장치 및 데이터 처리기와 전시 화면을 구비할 수 있다. 입력 장치는 함정(1)의 운용상황에 대한 이벤트를 검색하기 위한 검색어를 입력받을 수 있다. 데이터 처리기는 메타데이터에 포함된 이벤트들 중 검색어와 매칭되는 이벤트를 요청 이벤트로 추출하고, 요청 이벤트에 색인된 시간부터 상황정보 데이터를 재생하도록 전시 화면을 조작할 수 있다. 이에, 전시 화면에서는 요청 이벤트에 색인된 시간부터 상황정보 데이터를 재생할 수 있다.The context information display unit 500 plays a role of reproducing context information data and selects a playback time of context information data based on metadata. The situation information display unit 500 is connected to the combat system 10 to receive situation information data, and is connected to the metadata generation unit 400 to receive metadata. In addition, the situation information display unit 500 may include an input device, a data processor, and a display screen. The input device may receive an input of a search word for searching for an event related to the operating situation of the trap 1. The data processor extracts an event matching a search term from among events included in the metadata as a request event, and manipulates the display screen to reproduce context data from the time indexed in the request event. Thus, on the display screen, context information data can be reproduced from the time indexed to the requested event.

2. 본 발명의 실시 예에 따른 상황정보 운용 방법2. Context information operating method according to an embodiment of the present invention

도 4는 본 발명의 실시 예에 따른 상황정보 운용 방법의 순서도이다.4 is a flowchart of a context information operating method according to an embodiment of the present invention.

이하, 도 1 내지 도 4를 참조하여, 본 발명의 실시 예에 따른 상황정보 운용 방법을 상세하게 설명한다.Hereinafter, a context information operating method according to an embodiment of the present invention will be described in detail with reference to FIGS. 1 to 4 .

본 발명의 실시 예에 따른 상황정보 운용 방법은, 함정(1)으로부터 상황정보 데이터를 수집하는 과정(S110)과, 상황정보 데이터에서 제1형태를 가지는 제1데이터를 추출하는 과정(S120)과, 제1데이터를 제1형태와 다른 제2형태로 변환하여 제2데이터를 생성하는 과정(S130)과, 제2데이터를 이용하여 메타데이터를 생성하는 과정(S140), 및 메타데이터를 기반으로 상황정보 데이터의 재생 시점을 선정하고, 선정된 재생 시점부터 상황정보 데이터를 재생하는 과정(S150)을 포함한다.The method for operating contextual information according to an embodiment of the present invention includes a process of collecting contextual information data from a trap 1 (S110), a process of extracting first data having a first form from contextual information data (S120), , The process of converting the first data into a second form different from the first form to generate second data (S130), the process of generating metadata using the second data (S140), and based on the metadata A process of selecting a reproduction time point of context information data and reproducing context information data from the selected reproduction time point (S150) is included.

2.1. 함정(1)으로부터 상황정보 데이터를 수집하는 과정(S110)2.1. Process of collecting situation information data from trap (1) (S110)

우선, 함정(1)으로부터 상황정보 데이터를 수집하는 과정(S110)을 수행한다. 이때, 함정(1)으로부터 상황정보 데이터를 수집하는 과정(S110)은, 함정(1)의 전투체계(10)를 이용하여 함정(1)을 운용하는 과정, 함정(1)의 운용상황을 복수의 형태로 전투체계(10)에 기록하는 과정, 전투체계(10)에 기록된 데이터를 상황정보 데이터로 수집하는 과정을 포함할 수 있다.First, a process of collecting situation information data from the trap 1 (S110) is performed. At this time, in the process of collecting situation information data from the trap 1 (S110), the process of operating the trap 1 using the combat system 10 of the trap 1 and the operating situation of the trap 1 are described in multiple numbers. It may include a process of recording in the combat system 10 in the form of, and a process of collecting the data recorded in the combat system 10 as situation information data.

2.1.A. 함정(1)을 운용하는 과정2.1.A. The process of operating the trap (1)

함정(1)의 전투체계(10)를 이용하여 함정(1)을 운용하는 과정에서는 함정(1)에 탑재된 전투체계(10)를 작동시켜 함정(1)을 해상에서 항해시키며, 함정(1)에 부여된 임무를 수행할 수 있다. 여기서, 임무는 훈련, 지원, 정찰, 수송, 경계, 교전 및 방어 등 다양할 수 있다.In the process of operating the ship (1) using the battle system (10) of the ship (1), the battle system (10) mounted on the ship (1) is operated to navigate the ship (1) at sea, and the ship (1) ) can perform the assigned tasks. Here, missions may vary, such as training, support, reconnaissance, transport, security, engagement and defense.

전투체계(10)는 전술지휘체계(11), 센서체계(12), 통신체계(13) 등을 포함할 수 있다. 이때, 전술지휘체계(11), 센서체계(12), 통신체계(13) 등을 전투체계(10)의 하위 체계라고 지칭할 수 있다. 또한, 전투체계(10)가 포함하는 하위 체계의 종류는 다양할 수 있다. 즉, 전투체계(10)는 하위 체계로서 무장체계, 항해체계 등을 더 포함할 수 있다. 한편, 전투체계(10)는 전술데이터링크를 통해 해상, 지상 혹은 공중의 합동통제소와 연결될 수 있다.The combat system 10 may include a tactical command system 11, a sensor system 12, a communication system 13, and the like. At this time, the tactical command system 11, the sensor system 12, the communication system 13, and the like may be referred to as sub-systems of the combat system 10. In addition, the types of subsystems included in the combat system 10 may vary. That is, the combat system 10 may further include an armed system, a navigation system, and the like as sub-systems. Meanwhile, the combat system 10 may be connected to a maritime, ground, or air joint control center through a tactical data link.

전술지휘체계(11)는 함정(1)의 관제실에 구비되는 다기능콘솔(MFC)을 포함할 수 있다. 센서체계(12)는 함정(10)의 복수의 위치에 설치되는 탐색레이더(SRS), 추적레이더(TRS), 전자광학추적장비(EOTS) 및 적외선탐지추적장비(IRST)와 복수의 연동단(SRS ICU, TRS ICU, EOTS ICU,IRST ICU)을 포함할 수 있다. 통신체계(13)는 통합통신체계(ICS)를 포함할 수 있다. 물론, 그 외에도 전술지휘체계(11), 센서체계(12) 및 통신체계(13)의 구성은 다양할 수 있다.The tactical command system 11 may include a multifunction console (MFC) provided in the control room of the ship 1. The sensor system 12 is a search radar (SRS), tracking radar (TRS), electro-optical tracking equipment (EOTS) and infrared detection and tracking equipment (IRST) installed in a plurality of locations of the ship 10 and a plurality of interlocking stages ( SRS ICU, TRS ICU, EOTS ICU, IRST ICU). The communication system 13 may include an integrated communication system (ICS). Of course, other configurations of the tactical command system 11, the sensor system 12, and the communication system 13 may vary.

한편, 함정(1)의 전투체계(10)를 이용하여 함정(1)을 운용하는 과정에서, 전술지휘체계(11), 센서체계(12) 및 통신체계(13)에서 다양한 메시지 및 다양한 신호가 생성 및 출력될 수 있다.Meanwhile, in the process of operating the ship 1 using the battle system 10 of the ship 1, various messages and various signals are generated from the tactical command system 11, sensor system 12, and communication system 13. can be created and output.

예컨대 전술지휘체계(11)의 다기능콘솔(MFC)은 내부 토픽메시지를 생성할 수 있다. 센서체계(12)의 탐색레이더(SRS), 추적레이더(TRS), 전자광학추적장비(EOTS) 및 적외선탐지추적장비(IRST)는 ICD(Interface Control Document) 메시지를 생성할 수 있다. 이때, 내부 토픽메시지 및 ICD 메시지는 함정(1)의 운용상황에 대한 전술정보를 포함할 수 있다.For example, the multifunction console (MFC) of the tactical command system 11 may generate an internal topic message. Search radar (SRS), tracking radar (TRS), electro-optical tracking equipment (EOTS) and infrared detection and tracking equipment (IRST) of the sensor system 12 may generate an Interface Control Document (ICD) message. At this time, the internal topic message and the ICD message may include tactical information about the operating situation of the trap 1.

또한, 센서체계(12)의 탐색레이더(SRS)는 레이더 신호를 생성할 수 있고, 추적레이더(TRS)는 TV 신호를 생성할 수 있고, 전자광학추적장비(EOTS)는 TV 신호 및 IR 신호를 생성할 수 있고, 또한, 적외선탐지추적장비(IRST)는 TV 신호 및 IR 신호를 생성할 수 있다. 이때, TV 신호는 탐색 결과를 가시광선 영상으로 생성하기 위한 것일 수 있고, IR 신호는 탐색 결과를 적외선(IR) 영상으로 생성하기 위한 것일 수 있으며, 레이더 신호는 탐색 결과를 레이더 영상으로 생성하기 위한 것일 수 있다. 한편, 레이더 신호는 함정(1)의 운용상황에 대한 레이더 탐지정보를 포함할 수 있고, TV 신호는 함정(1)의 운용상황에 대한 가시광선 탐지정보를 포함할 수 있고, IR 신호는 함정(1)의 운용상황에 대한 적외선 탐지정보를 포함할 수 있다.In addition, the search radar (SRS) of the sensor system 12 can generate a radar signal, the tracking radar (TRS) can generate a TV signal, and the electro-optical tracking equipment (EOTS) can generate a TV signal and an IR signal. In addition, infrared detection and tracking equipment (IRST) can generate TV signals and IR signals. In this case, the TV signal may be for generating a search result as a visible ray image, the IR signal may be for generating a search result as an infrared (IR) image, and the radar signal may be for generating a search result as a radar image. it could be On the other hand, the radar signal may include radar detection information about the operation situation of the ship 1, the TV signal may include visible light detection information about the operation situation of the ship 1, and the IR signal may include the ship (1). 1) may include infrared detection information about the operation situation.

또한, 통신체계(13)의 통합통신체계(ICS)는 오디오 신호를 생성할 수 있다. 이때, 오디오 신호는 함정(1)의 운용상황에 대한 통신정보를 포함할 수 있다.In addition, the integrated communication system (ICS) of the communication system 13 may generate an audio signal. At this time, the audio signal may include communication information about the operating situation of the trap 1.

2.1.B. 전투체계(10)에 기록하는 과정2.1.B. The process of recording in the combat system (10)

함정(1)의 운용상황을 복수의 형태로 전투체계(10)에 기록하는 과정에서, 전투체계(10)의 하위 체계들 중의 전술지휘체계(11)에서 입출력되는 전술정보를 영상 데이터로 전투체계(10)에 기록할 수 있다. 또한, 전투체계(10)의 하위 체계들 중의 센서체계(12)에서 입출력되는 레이더 탐지정보, 가시광선 탐지정보 및 적외선 탐지정보를 영상 데이터로 전투체계(10)에 기록할 수 있다. 또한, 전투체계(10)의 하위 체계들 중의 통신체계(13)에서 입출력되는 통신정보를 음향 데이터로 전투체계(10)에 기록할 수 있다. 이때, 이들 데이터는 전투체계(10)의 서버에 기록될 수 있다.In the process of recording the operational status of the ship (1) in the combat system (10) in a plurality of forms, the tactical information input and output from the tactical command system (11) among sub-systems of the combat system (10) is converted into image data for the combat system (10) can be recorded. In addition, radar detection information, visible light detection information, and infrared detection information input and output from the sensor system 12 among subsystems of the combat system 10 may be recorded in the combat system 10 as image data. In addition, communication information input and output from the communication system 13 among subsystems of the combat system 10 may be recorded in the combat system 10 as sound data. At this time, these data may be recorded in the server of the combat system 10.

2.1.C. 상황정보 데이터로 수집하는 과정2.1.C. The process of collecting situational information data

전투체계(10)에 기록된 데이터를 상황정보 데이터로 수집하는 과정에서, 전투체계(10)에 기록되는 전술한 영상 데이터 및 음향 데이터와 동일한 영상 데이터 및 음향 데이터를 전술체계(10)와 연결된 수집부(100)의 정보저장장치 및 영상처리장치에 동일하게 기록할 수 있다. 이때, 정보저장장치에 전술정보를 영상 데이터로 기록할 수 있다. 또한, 영상처리장치에 레이더 탐지정보, 가시광선 탐지정보 및 적외선 탐지정보를 영상 데이터로 기록할 수 있고, 통신정보를 음향 데이터로 기록할 수 있다. 이에, 상황정보 데이터가 전술정보, 레이더 탐지정보, 가시광선 탐지정보 및 적외선 탐지정보를 영상 형태로 가질 수 있고, 통신정보를 음향 형태로 가질 수 있다. 한편, 그 외에도 전투체계(10)에 기록된 데이터를 상황정보 데이터로 수집하는 과정은 다양한 방식으로 수행될 수 있다.In the process of collecting the data recorded in the combat system 10 as situation information data, the same video data and sound data as the above-mentioned video data and sound data recorded in the combat system 10 are collected connected to the tactical system 10. It can be recorded in the information storage device and image processing device of the unit 100 in the same way. At this time, tactical information may be recorded as video data in the information storage device. In addition, radar detection information, visible light detection information, and infrared detection information may be recorded as image data in the image processing device, and communication information may be recorded as sound data. Thus, the situation information data may have tactical information, radar detection information, visible light detection information, and infrared light detection information in the form of images, and may have communication information in the form of sound. Meanwhile, a process of collecting data recorded in the combat system 10 as situation information data may be performed in various ways.

2.2. 제1형태를 가지는 제1데이터를 추출하는 과정(S120)2.2. Process of extracting first data having a first form (S120)

이후, 상황정보 데이터에서 제1형태를 가지는 제1데이터를 추출하는 과정(S120)을 수행한다. 여기서, 상황정보 데이터에서 제1형태를 가지는 제1데이터를 추출하는 과정(S120)은, 상황정보 데이터 중 영상 데이터 또는 음향 데이터를 선택하여 제1데이터로 추출하는 과정을 포함할 수 있다. Thereafter, a process of extracting first data having a first form from context information data (S120) is performed. Here, the process of extracting the first data having the first form from the context information data (S120) may include a process of selecting video data or audio data from the context information data and extracting the first data.

2.2.A. 음향 데이터를 선택하여 제1데이터로 추출하는 과정2.2.A. Process of selecting sound data and extracting it as first data

상황정보 데이터 중 음향 데이터를 선택하여 제1데이터로 추출하는 과정에서는, 제1데이터 처리부(200)가 수집부(100)의 영상처리장치에 기록된 데이터들 중에서 음향 데이터를 선택하고 추출할 수 있다. 즉, 제1데이터가 음향 데이터가 될 수 있다.In the process of selecting sound data from context information data and extracting it as first data, the first data processor 200 may select and extract sound data from data recorded in the image processing device of the collection unit 100. . That is, the first data may be sound data.

2.2.B. 영상 데이터를 선택하여 제1데이터로 추출하는 과정2.2.B. Process of selecting image data and extracting it as first data

상황정보 데이터 중 영상 데이터를 선택하여 제1데이터로 추출하는 과정에서는, 제1데이터 처리부(200)가 수집부(100)의 정보처리장치에 기록된 데이터들 중에서 영상 데이터를 선택하고 추출할 수 있다. 즉, 제1데이터가 영상 데이터가 될 수 있다. 이때, 구체적으로, 선택 및 추출되는 영상 데이터는 전술정보의 영상 데이터이거나, 레이더 탐지정보의 영상 데이터이거나, 가시광선 탐지정보의 영상 데이터이거나, 적외선 탐지정보의 영상 데이터일 수 있다.In the process of selecting image data from context information data and extracting it as first data, the first data processing unit 200 may select and extract image data from data recorded in the information processing device of the collection unit 100. . That is, the first data may be image data. In this case, specifically, the image data to be selected and extracted may be tactical information image data, radar detection information image data, visible light detection information image data, or infrared detection information image data.

2.3. 제2데이터를 생성하는 과정(S130)2.3. Process of generating second data (S130)

이후, 제1데이터를 제1형태와 다른 제2형태로 변환하여 제2데이터를 생성하는 과정(S130)을 수행한다. 제1데이터는 음향 데이터일 수 있고, 제1형태는 음향 형태일 수 있다. 물론, 제1데이터는 영상 데이터일 수 있고, 제1형태는 영상 형태일 수 있다. 제2형태는 텍스트 형태일 수 있으며, 제2데이터는 텍스트 데이터일 수 있다. 제1데이터가 음향 데이터이고, 제1형태가 음향 형태일 경우, 제1데이터를 제1형태와 다른 제2형태로 변환하여 제2데이터를 생성하는 과정(S130)은, 미리 입력된 음향 인식 모델을 이용하여 음향 데이터를 인식하여 텍스트 형태로 변환하여 변환된 텍스트 데이터를 제2데이터로 생성하는 과정을 포함할 수 있다. 또한, 제1데이터가 영상 데이터이고, 제1형태가 영상 형태일 경우, 제1데이터를 제1형태와 다른 제2형태로 변환하여 제2데이터를 생성하는 과정(S130)은, 미리 입력된 영상 인식 모델을 이용하여 영상 데이터를 인식하여 텍스트 형태로 변환하여 변환된 텍스트 데이터를 제2데이터로 생성하는 과정을 포함할 수 있다.Thereafter, a process of generating second data by converting the first data into a second form different from the first form (S130) is performed. The first data may be sound data, and the first form may be a sound form. Of course, the first data may be image data, and the first form may be an image form. The second form may be a text form, and the second data may be text data. When the first data is sound data and the first form is the sound form, the process of converting the first data into a second form different from the first form to generate second data (S130) is a pre-input sound recognition model. It may include a process of recognizing sound data and converting it into a text form using , and generating the converted text data as second data. In addition, when the first data is image data and the first form is an image form, the process of converting the first data into a second form different from the first form to generate second data (S130) is a pre-input image The method may include recognizing image data using a recognition model, converting the image data into text form, and generating the converted text data as second data.

2.3.A. 음향 데이터를 텍스트 형태로 변환하여 제2데이터로 생성하는 과정2.3.A. Process of converting sound data into text form and generating second data

데이터 변환부(300)로, 음향 데이터를 텍스트 형태로 변환하여 제2데이터로 생성하는 과정에서, 음향 데이터 중 미리 설정된 기준 음량 이상의 음량을 갖는 음향 데이터를 선택할 수 있다. 이때, 미리 설정된 기준 음량은 함정 승무원의 음성과 이를 제외한 노이즈를 구분할 수 있도록 하는 소정 크기 범위의 음량일 수 있다. 즉, 통합통신체계(ICS)를 이용하여 함정 승무원이 통신을 수행할 때, 함정 승무원의 음성과 함께 각종 노이즈가 입력되어 기록될 수 있다. 이때, 노이즈는 장비의 전자구동음, 관제실의 소음, 함정(1)의 진동음 등 다양할 수 있다. 따라서, 음향 데이터 중 기준 음량 이상의 음량을 갖는 음향 데이터를 선택함으로써 함정 승무원의 음성이 기록된 음향 데이터를 선택할 수 있다.In the process of converting the sound data into text form and generating the second data by the data conversion unit 300, sound data having a volume equal to or greater than a preset reference volume may be selected from among the sound data. In this case, the preset reference volume may be a volume within a predetermined range for distinguishing between the voice of the ship crew and the noise excluding it. That is, when the ship crew communicates using the integrated communication system (ICS), various noises may be input and recorded together with the ship crew's voice. At this time, the noise may be various, such as the electronic driving sound of the equipment, the noise of the control room, the vibration sound of the trap 1, and the like. Therefore, by selecting sound data having a volume equal to or higher than the reference volume among the sound data, it is possible to select sound data in which the voice of the ship's crew is recorded.

또한, 데이터 변환부(300)에서, 음향 인식 모델을 이용하여, 선택한 음향 데이터 중에서 함정 승무원의 음성에 대응되는 음향 데이터를 식별하고, 음성 인식을 수행하여 음성 인식 텍스트들을 생성할 수 있다. 여기서, 음향 인식 모델은 상용 기술 즉, 공지의 기술을 활용하여 다양한 구성으로 구현될 수 있다. 본 발명의 실시 예에서는 이 구성을 특별히 한정하지 않는다. 마찬가지로, 음성 인식을 수행하여 음성 인식 텍스트들을 생성할 때에도 공지의 기술을 활용하여 다양한 방식으로 음성 인식을 수행하고, 음성 인식 텍스트들을 생성할 수 있다. 한편, 음향 인식 모델의 구성과 음성 인식을 수행하고 음성 인식 텍스트들을 생성하는 방식은 딥러닝과 같은 인공지능 분야에서 널리 알려져 있으므로, 이에 대한 상세한 설명을 생략한다.In addition, the data conversion unit 300 may use the acoustic recognition model to identify acoustic data corresponding to the crew member's voice among the selected acoustic data, perform voice recognition, and generate voice recognition texts. Here, the acoustic recognition model may be implemented in various configurations using commercial technologies, that is, known technologies. In the embodiment of the present invention, this configuration is not particularly limited. Similarly, when voice recognition is performed to generate voice recognition texts, voice recognition may be performed in various ways and voice recognition texts may be generated using known technologies. Meanwhile, since the construction of a sound recognition model, a method of performing voice recognition, and generating voice recognition texts are widely known in the field of artificial intelligence such as deep learning, a detailed description thereof will be omitted.

또한, 데이터 변환부(300)를 이용하여, 음향 데이터로부터 생성된 음성 인식 텍스트들을 순서대로 나열하여 텍스트 데이터를 생성할 수 있다. 이때, 음향 데이터의 재생 시간에 따라, 음향 데이터로부터 생성되는 음성 인식 텍스트들을 순서대로 나열하여 텍스트 데이터를 생성할 수 있다. 이때, 텍스트 데이터는 함정 승무원별로 구분될 수 있도록 생성될 수도 있다. 즉, 함정 승무원이 다수일 경우, 이들의 음성을 구분하여, 함정 승무원별로 구분된 음성 인식 텍스트들을 시간에 따라 순서대로 나열하여 텍스트 데이터를 생성할 수 있다.In addition, text data may be generated by sequentially arranging voice recognition texts generated from sound data using the data converter 300 . In this case, text data may be generated by sequentially arranging speech recognition texts generated from the sound data according to a reproduction time of the sound data. In this case, the text data may be generated to be classified for each crew member of the ship. That is, when there are a plurality of ship crew members, their voices may be classified and voice recognition texts classified for each ship crew member may be sequentially arranged according to time to generate text data.

2.3.B. 영상 데이터를 텍스트 형태로 변환하여 제2데이터로 생성하는 과정2.3.B. The process of converting image data into text form and generating second data

데이터 변환부(300)로, 영상 데이터를 텍스트 형태로 변환하여 제2데이터로 생성하는 과정에서, 소정의 시간 간격으로 영상 데이터로부터 영상프레임을 선택할 수 있다. 또한, 시간순으로 나열된 영상프레임들 중, 이전 영상프레임과 다음 영상프레임을 대비하였을 때, 영상 변화가 감지되거나, 영상 변화가 두드러진 영상프레임을 선택할 수 있다. 이처럼, 시간을 기준으로 영상프레임의 개수를 줄이거나, 의미를 가지는 영상프레임을 선택함으로써 영상프레임의 개수를 줄여서, 이하의 과정에서 데이터의 처리량을 효과적으로 줄여줄 수 있다.The data conversion unit 300 may select an image frame from the image data at predetermined time intervals in the process of converting the image data into text form and generating the second data. Also, among the video frames listed in chronological order, when the previous video frame and the next video frame are compared, an image frame in which an image change is detected or a significant image change can be selected. In this way, by reducing the number of video frames based on time or by selecting meaningful video frames, the amount of data processing can be effectively reduced in the following process.

또한, 데이터 변환부(300)에서, 영상 인식 모델을 이용하여, 선택한 영상프레임별로, 영상프레임 내에서 객체를 식별하고, 객체 인식을 수행하여 객체 인식 텍스트들을 생성할 수 있다. 여기서, 객체 인식 텍스트는 인식된 객체의 종류를 설명하기 위한 텍스트들일 수 있고, 예컨대 객체의 이름, 객체에 대한 설명, 객체의 개수 등을 표현하는 텍스트들일 수 있다. 또한, 객체 인식 텍스트는 인식된 객체의 종류에 따라 판단되는 영상프레임의 상황을 설명하기 위한 텍스트들일 수도 있다. 예컨대 레이더 정보의 영상 데이터로부터 선택된 영상프레임에서 아군이 아닌 타겟 예컨대 적성의 타겟이 객체로 감지되었을 때, 객체 인식 텍스트는 타겟의 식별코드가 텍스트로 생성될 수도 있고, "적성의 타겟 최초 감지", "교전 개시", "무장채널 1 작동" 등과 같이 영상프레임에 대한 상황을 설명할 수 있는 소정의 문장 형태로 생성될 수도 있다.In addition, the data conversion unit 300 may use an image recognition model to identify objects within each selected image frame, perform object recognition, and generate object recognition texts. Here, the object recognition text may be texts for explaining the type of recognized object, and may be, for example, texts expressing the name of an object, a description of the object, and the number of objects. In addition, the object recognition text may be texts for explaining the situation of the image frame determined according to the type of the recognized object. For example, when a non-friend target, such as an aptitude target, is detected as an object in an image frame selected from image data of radar information, the object recognition text may be generated as text with an identification code of the target, "first detection of aptitude target", It may be generated in the form of a predetermined sentence that can explain the situation with respect to the video frame, such as "engagement start", "armed channel 1 operation", and the like.

한편, 음향 인식의 경우와 마찬가지로, 영상 인식 모델은 상용 기술 즉, 공지의 기술을 활용하여 다양한 구성으로 구현될 수 있다. 본 발명의 실시 예에서는 이 구성을 특별히 한정하지 않는다. 또한, 객체 인식을 수행하여 객체 인식 텍스트들을 생성할 때에도 공지의 기술을 활용하여 다양한 방식으로 객체 인식을 수행하고, 객체 인식 텍스트들을 생성할 수 있다. 영상 인식 모델의 구성과 객체 인식을 수행하고 객체 인식 텍스트들을 생성하는 방식은 딥러닝과 같은 인공지능 분야에서 널리 알려져 있으므로, 이에 대한 상세한 설명을 생략한다.Meanwhile, as in the case of sound recognition, the image recognition model may be implemented in various configurations using commercial technologies, that is, known technologies. In the embodiment of the present invention, this configuration is not particularly limited. Also, when object recognition is performed to generate object recognition texts, object recognition may be performed and object recognition texts may be generated in various ways using known technologies. Since the configuration of the image recognition model, the method of performing object recognition, and generating object recognition texts are widely known in the field of artificial intelligence such as deep learning, a detailed description thereof will be omitted.

또한, 데이터 변환부(300)를 이용하여, 영상 데이터로부터 생성된 객체 인식 텍스트들을 순서대로 나열하여 텍스트 데이터를 생성할 수 있다. 이때, 영상 데이터의 재생 시간에 따라, 영상 데이터로부터 생성되는 객체 인식 텍스트들을 순서대로 나열하여 텍스트 데이터를 생성할 수 있다. 한편, 객체 인식 텍스트를 영상 인식 텍스트라고 지칭할 수도 있다.In addition, text data may be generated by sequentially arranging object recognition texts generated from image data using the data conversion unit 300 . In this case, text data may be generated by sequentially arranging object recognition texts generated from the image data according to the reproduction time of the image data. Meanwhile, object recognition text may also be referred to as image recognition text.

2.4. 메타데이터를 생성하는 과정(S140)2.4. Process of generating metadata (S140)

이후, 제2데이터를 이용하여 메타데이터를 생성하는 과정(S140)을 수행한다. 이때, 제2데이터를 이용하여 메타데이터를 생성하는 과정(S140)은, 순서대로 나열된 음성 인식 텍스트들의 의미를 분석하고, 분석된 의미에 따라 상기 순서대로 나열된 음성 인식 텍스트들을 의미를 갖는 최소 단위로 분할하여 이벤트를 생성하는 과정, 및 생성된 이벤트를 시간에 따라 색인하여 메타데이터로 생성하는 과정을 포함할 수 있다. 이 과정들은 메타데이터 생성부(400)에서 수행될 수 있다.Thereafter, a process of generating metadata using the second data (S140) is performed. At this time, in the process of generating metadata using the second data (S140), the meaning of the voice recognition texts listed in order is analyzed, and according to the analyzed meaning, the voice recognition texts listed in the order are divided into minimum units having meaning. It may include a process of generating an event by dividing it, and a process of generating metadata by indexing the generated event according to time. These processes may be performed in the metadata generator 400.

2.4.A. 이벤트를 생성하는 과정2.4.A. The process of creating an event

이벤트를 생성하는 과정에서는, 순서대로 나열된 음성 인식 텍스트들의 의미를 분석할 수 있다. 예컨대 순서대로 나열된 음성 인식 텍스트들로부터 단어, 어절(word segment), 구(phrase)를 인식할 수 있고, 인식되는 단어, 어절, 구에 대해 의미를 분석할 수 있다. 한편, 의미를 분석하기 위해서 자연어에 대한 방대한 양의 기초 데이터가 메타데이터 생성부(400)에 학습될 수 있다. 물론, 학습되지 않은 새로운 형태의 단어가 있을 경우, 이에 대한 특징을 부여받도록 사용자에게 요청할 수도 있다. 한편, 의미를 분석한 후, 분석된 의미들 간의 연관성을 분석할 수 있고, 그 결과를 토대로, 인식된 단어들로부터 문장을 생성할 수 있고, 나아가 문단을 생성할 수도 있다. 또한, 분석된 의미에 따라 순서대로 나열된 음성 인식 텍스트들을 의미를 갖는 최소 단위로 분할하여 이벤트를 생성할 수 있다. 예컨대 "통제 하나"라는 어절이 인식되면, 그 의미를 분석하여 "호출 명령" 이벤트를 생성할 수 있고, "318노트"라는 어절이 인식되면 "행해 명령" 이벤트를 생성할 수 있다. 물론, "통제 하나"의 어절 그대로 "통제 하나"의 이벤트를 생성할 수도 있다. 마찬가지로, 인식된 어절 그대로를 이벤트로 생성할 수도 있다. 이러한 과정은 예컨대 시맨틱 웹에서 사용되는 방식과 동일 혹은 유사한 방식이 적용될 수 있다. 물론, 음성 인식 텍스트들의 의미를 분석하고, 의미를 갖는 최소 단위로 분할하여 이벤트를 생성하는 방식은 다양할 수 있다.In the process of generating an event, the meaning of voice recognition texts listed in order may be analyzed. For example, words, word segments, and phrases may be recognized from voice recognition texts arranged in order, and the meaning of the recognized words, word segments, and phrases may be analyzed. Meanwhile, in order to analyze the meaning, a vast amount of basic data for natural language may be learned by the metadata generating unit 400 . Of course, if there is a new type of word that has not been learned, the user may be requested to be given a characteristic for it. Meanwhile, after analyzing the meaning, it is possible to analyze the correlation between the analyzed meanings, and based on the result, a sentence may be generated from the recognized words, and a paragraph may also be created. In addition, an event may be generated by dividing voice recognition texts arranged in order according to the analyzed meaning into minimum units having meaning. For example, when the word “control one” is recognized, the meaning is analyzed to generate a “call command” event, and when the word “318 notes” is recognized, a “do command” event can be generated. Of course, an event of "one control" can be generated as the word "one control" is. Similarly, a recognized word may be generated as an event. For this process, the same or similar method to that used in the semantic web, for example, may be applied. Of course, there may be various methods of generating an event by analyzing the meaning of voice recognition texts and dividing them into minimum meaningful units.

2.4.B. 메타데이터로 생성하는 과정2.4.B. The process of creating metadata

생성된 이벤트를 시간에 따라 색인하여 메타데이터로 생성하는 과정은, 제2데이터를 생성하는 것에 사용된 음향 데이터(혹은, 영상 데이터)에 포함된 시간 정보를 이용하여, 순서대로 나열된 음성 인식 텍스트들마다 해당 음석 인식 텍스트들이 기록된 시간을 색인하여 메타데이터로 생성할 수 있다.The process of indexing generated events according to time and generating metadata includes voice recognition texts arranged in order using time information included in audio data (or video data) used to generate second data. Each time, corresponding speech recognition texts may be indexed and generated as metadata.

2.5. 재생 시점을 선정하고, 선정된 재생 시점부터 상황정보 데이터를 재생하는 과정(S150)2.5. A process of selecting a playback time point and reproducing situation information data from the selected playback time point (S150)

이후, 메타데이터를 기반으로 상황정보 데이터의 재생 시점을 선정하고, 선정된 재생 시점부터 상황정보 데이터를 재생하는 과정(S150)을 수행한다. 이때, 메타데이터를 기반으로 상황정보 데이터의 재생 시점을 선정하고, 선정된 재생 시점부터 상황정보 데이터를 재생하는 과정은, 검색어를 입력받는 과정, 메타데이터 중 검색어와 유사 혹은 동일한 이벤트를 요청 이벤트로 추출하는 과정, 추출된 요청 이벤트에 색인된 시간부터 상황정보 데이터를 재생하는 과정을 포함할 수 있다.Thereafter, a playback time of context information data is selected based on metadata, and a process of reproducing context data from the selected playback time (S150) is performed. At this time, the process of selecting the reproduction time of the context information data based on the metadata and reproducing the context information data from the selected reproduction time is the process of receiving a search word, and an event similar or identical to the search word among the metadata as a request event. It may include a process of extracting, and a process of reproducing context data from the time indexed to the extracted request event.

2.5.A. 검색어를 입력받는 과정2.5.A. The process of entering a search term

검색어를 입력받는 과정에서는, 상황정보 전시부(500)에 구비된 입력 장치를 통하여, 검색어를 입력받을 수 있다. 이때, 검색어는 자연어일 수 있다. 또한, 검색어는 사용자가 함정(1)의 운용상황에 대한 이벤트를 검색하기 위해 생성한 검색어일 수 있다.In the process of inputting a search word, the search word may be input through an input device provided in the context information display unit 500 . In this case, the search word may be a natural language. In addition, the search word may be a search word generated by the user to search for an event related to the operating situation of the trap 1.

2.5.B. 메타데이터 중 검색어와 유사 혹은 동일한 이벤트를 요청 이벤트로 추출하는 과정2.5.B. The process of extracting events similar or identical to the search term among metadata as request events

메타데이터 중 검색어와 유사 혹은 동일한 이벤트를 요청 이벤트로 추출하는 과정에서는, 상황정보 전시부(500)가 소정의 알고리즘을 이용하여 메타데이터의 이벤트 목록과 입력받은 검색어를 대비하여, 입력받은 검색어와 유사한 이벤트, 혹은 입력받은 검색어와 동일한 이벤트를 선택하고, 선택한 이벤트를 요청 이벤트로 추출할 수 있다.In the process of extracting an event similar or identical to a search word from among metadata as a request event, the context information display unit 500 compares the event list of metadata and the entered search word using a predetermined algorithm, so that an event similar to the entered search word is displayed. , or select the same event as the entered search term, and extract the selected event as a request event.

2.5.C. 추출된 요청 이벤트에 색인된 시간부터 상황정보 데이터를 재생하는 과정2.5.C. The process of reproducing context data from the time indexed in the extracted request event

추출된 요청 이벤트에 색인된 시간부터 상황정보 데이터를 재생하는 과정에서는, 상황정보 전시부(500)가 추출된 요청 이벤트에 색인된 시간을 확인하고, 확인된 시간부터 상황정보 데이터를 재생하도록 재생 플롯을 생성하고, 생성된 재생 플롯에 따라 상황정보 데이터를 재생할 수 있다. 예컨대 입력된 검색어가 "함정 방위 확인"이고, 그에 따라 추출된 요청 이벤트가 "방위"이면, "방위" 이벤트에 색인된 재생 시간부터 상황정보 데이터를 재생할 수 있다.In the process of reproducing context data from the time indexed to the extracted request event, the context information display unit 500 checks the time indexed to the extracted request event, and creates a playback plot to reproduce the context data from the checked time. It is created, and contextual information data can be reproduced according to the created playback plot. For example, if the input search term is "checking the direction of a trap" and the requested event extracted accordingly is "direction", situational information data may be reproduced from the playback time indexed to the "direction" event.

전술한 바와 같이, 본 발명의 실시 예에 따르면, 상황정보 데이터 중의 영상 데이터 혹은 음향 데이터를 이용하여 시간에 따라 색인된 텍스트 형태의 메타데이터를 생성하고, 이로부터 상황정보 데이터를 재생할 때 재생 시점을 검색하여 검색된 재생 시점부터 즉시 상황정보 데이터를 재생할 수 있다. 이에, 재생을 원하는 이벤트 시점을 검색하여 간편하게 재생할 수 있으므로, 상황정보 데이터를 처음부터 재생하지 않아도 되고, 반복하여 원하는 시점부터 다시 재생시킬 수 있다.As described above, according to an embodiment of the present invention, metadata in the form of text indexed according to time is generated using video data or sound data among context information data, and from this, when context information data is reproduced, reproduction time is determined. Context information data can be reproduced immediately from the searched reproduction point. Accordingly, since an event point in time desired to be reproduced can be retrieved and reproduced easily, the situation information data does not need to be reproduced from the beginning, and can be repeatedly reproduced from a desired point in time.

본 발명의 상기 실시 예는 본 발명의 설명을 위한 것이고, 본 발명의 제한을 위한 것이 아니다. 본 발명의 상기 실시 예에 개시된 구성과 방식은 서로 결합하거나 교차하여 다양한 형태로 조합 및 변형될 것이고, 이에 의한 변형 예들도 본 발명의 범주로 볼 수 있음을 주지해야 한다. 즉, 본 발명은 청구범위 및 이와 균등한 기술적 사상의 범위 내에서 서로 다른 다양한 형태로 구현될 것이며, 본 발명이 해당하는 기술 분야에서의 업자는 본 발명의 기술적 사상의 범위 내에서 다양한 실시 예가 가능함을 이해할 수 있을 것이다.The above embodiments of the present invention are for explanation of the present invention and are not intended to limit the present invention. It should be noted that the configurations and methods disclosed in the above embodiments of the present invention may be combined and modified in various forms by combining or crossing each other, and variations thereof may also be considered within the scope of the present invention. That is, the present invention will be implemented in a variety of different forms within the scope of the claims and equivalent technical ideas, and various embodiments are possible within the scope of the technical idea of the present invention by those skilled in the art to which the present invention pertains. will be able to understand

1: 함정 10: 전투체계
11: 전술지휘체계 12: 센서체계
13: 통신체계 100: 수집부
200: 제1데이터 처리부 300: 데이터 변환부
400: 메타데이터 생성부 500: 상황정보 전시부
1: Trap 10: Combat System
11: tactical command system 12: sensor system
13: communication system 100: collection unit
200: first data processing unit 300: data conversion unit
400: metadata generation unit 500: situation information display unit

Claims (13)

함정으로부터 상황정보 데이터를 수집하기 위한 수집부;
상기 상황정보 데이터에서 제1형태를 가지는 제1데이터를 추출하기 위한 제1데이터 처리부;
상기 제1데이터를 상기 제1형태와 다른 제2형태로 변환하여 제2데이터를 생성하기 위한 데이터 변환부;
상기 제2데이터를 이용하여 메타데이터를 생성하기 위한 메타데이터 생성부; 및
상기 상황정보 데이터를 재생할 수 있고, 상기 메타데이터를 기반으로 상기 상황정보 데이터의 재생 시점을 선정할 수 있는 상황정보 전시부;를 포함하고,
상기 메타데이터 생성부는 상기 제2데이터의 의미를 분석하고, 상기 제2데이터를 의미를 갖는 최소 단위로 분할하여 이벤트를 생성하고, 상기 이벤트를 시간에 따라 색인하여 상기 메타데이터로 생성하는 상황정보 운용 장치.
a collection unit for collecting context information data from traps;
a first data processing unit for extracting first data having a first form from the context information data;
a data conversion unit configured to generate second data by converting the first data into a second form different from the first form;
a metadata generator for generating metadata using the second data; and
a context information display unit capable of reproducing the context information data and selecting a playback time of the context information data based on the metadata;
The metadata generation unit analyzes the meaning of the second data, divides the second data into meaningful units to generate events, indexes the events according to time, and operates contextual information to generate the metadata. Device.
청구항 1에 있어서,
상기 수집부는 상기 함정의 전투체계와 연결되고, 상기 전투체계에 기록되는 영상(video) 데이터 및 음향(sound) 데이터를 상기 상황정보 데이터로서 수집하며,
상기 제1데이터 처리부는 상기 영상 데이터 및 상기 음향 데이터 중 어느 하나를 선택하여 상기 제1데이터로 추출하는 상황정보 운용 장치.
The method of claim 1,
The collection unit is connected to the combat system of the ship and collects video data and sound data recorded in the combat system as the situation information data,
The first data processing unit selects one of the image data and the sound data and extracts it as the first data.
청구항 1에 있어서,
상기 데이터 변환부는 제1데이터 인식 모델을 이용하여 상기 제1데이터를 인식하여 텍스트 형태로 변환하고, 상기 제2데이터로서 텍스트 데이터를 생성하는 상황정보 운용 장치.
The method of claim 1,
The data conversion unit recognizes the first data using a first data recognition model, converts the first data into text form, and generates text data as the second data.
삭제delete 함정으로부터 상황정보 데이터를 수집하기 위한 수집부;
상기 상황정보 데이터에서 제1형태를 가지는 제1데이터를 추출하기 위한 제1데이터 처리부;
상기 제1데이터를 상기 제1형태와 다른 제2형태로 변환하여 제2데이터를 생성하기 위한 데이터 변환부;
상기 제2데이터를 이용하여 메타데이터를 생성하기 위한 메타데이터 생성부; 및
상기 상황정보 데이터를 재생할 수 있고, 상기 메타데이터를 기반으로 상기 상황정보 데이터의 재생 시점을 선정할 수 있는 상황정보 전시부;를 포함하고,
상기 상황정보 전시부는 상기 함정의 운용상황에 대한 이벤트를 검색하기 위한 검색어를 입력받고, 상기 메타데이터에 포함된 이벤트들 중 상기 검색어와 매칭되는 이벤트를 요청 이벤트로 추출하고, 상기 요청 이벤트에 색인된 시간부터 상기 상황정보 데이터를 재생하는 상황정보 운용 장치.
a collection unit for collecting context information data from traps;
a first data processing unit for extracting first data having a first form from the context information data;
a data conversion unit configured to generate second data by converting the first data into a second form different from the first form;
a metadata generator for generating metadata using the second data; and
a context information display unit capable of reproducing the context information data and selecting a playback time of the context information data based on the metadata;
The situation information display unit receives a search word for searching for an event on the operation status of the trap, extracts an event matching the search word among events included in the metadata as a request event, and indexes the requested event. A context information operating device for reproducing the context information data from time.
함정으로부터 상황정보 데이터를 수집하는 과정;
상기 상황정보 데이터에서 제1형태를 가지는 제1데이터를 추출하는 과정;
상기 제1데이터를 상기 제1형태와 다른 제2형태로 변환하여 제2데이터를 생성하는 과정;
상기 제2데이터를 이용하여 메타데이터를 생성하는 과정;
상기 메타데이터를 기반으로 상기 상황정보 데이터의 재생 시점을 선정하고, 선정된 재생 시점부터 상기 상황정보 데이터를 재생하는 과정;을 포함하고,
상기 상황정보 데이터를 수집하는 과정은,
상기 함정의 전투체계를 이용하여 상기 함정을 운용하는 과정;
상기 함정의 운용상황을 복수의 형태로 상기 전투체계에 기록하는 과정;
상기 전투체계에 기록된 데이터를 상기 상황정보 데이터로 수집하는 과정;을 포함하는 상황정보 운용 방법.
The process of collecting situational information data from traps;
extracting first data having a first shape from the situation information data;
generating second data by converting the first data into a second form different from the first form;
generating metadata using the second data;
Selecting a reproduction time point of the context information data based on the metadata and reproducing the context information data from the selected reproduction time point;
The process of collecting the context information data,
A process of operating the ship using the combat system of the ship;
Recording the operation status of the ship in the combat system in a plurality of forms;
and collecting the data recorded in the combat system as the situation information data.
삭제delete 청구항 6에 있어서,
상기 전투체계에 기록하는 과정은,
상기 전투체계의 하위 체계들 중, 전술지휘체계 및 센서체계에서 입출력되는 전술정보, 레이더 탐지정보, 가시광선 탐지정보 및 적외선 탐지정보를 영상 데이터로 기록하는 과정;
상기 전투체계의 하위 체계들 중, 통신체계에서 입출력되는 통신정보를 음향 데이터로 기록하는 과정;을 포함하는 상황정보 운용 방법.
The method of claim 6,
The process of recording in the combat system,
Recording tactical information, radar detection information, visible light detection information, and infrared light detection information input and output from a tactical command system and a sensor system among subsystems of the combat system as image data;
Among the subsystems of the combat system, a process of recording communication information input and output from the communication system as sound data;
청구항 8에 있어서,
상기 제1데이터를 추출하는 과정은,
상기 상황정보 데이터 중 상기 영상 데이터 또는 상기 음향 데이터를 선택하여 상기 제1데이터로 추출하는 과정;을 포함하는 상황정보 운용 방법.
The method of claim 8,
The process of extracting the first data,
and selecting the video data or the sound data from among the context information data and extracting the first data.
청구항 6, 청구항 8 내지 청구항 9 중 어느 하나의 항에 있어서,
상기 제2데이터를 생성하는 과정은,
미리 입력된 제1데이터 인식 모델을 이용하여 상기 제1데이터를 인식하여 텍스트 형태로 변환하여 변환된 텍스트 데이터를 상기 제2데이터로 생성하는 과정;을 포함하는 상황정보 운용 방법.
The method of any one of claims 6 and 8 to 9,
The process of generating the second data,
and recognizing the first data using a first data recognition model input in advance, converting the first data into text form, and generating the converted text data as the second data.
청구항 10에 있어서,
상기 제1데이터는 음향 데이터를 포함하고, 상기 제1데이터 인식 모델은 음향 인식 모델을 포함하고,
상기 제2데이터로 생성하는 과정은,
상기 음향 데이터 중 미리 설정된 기준 음량 이상의 음량을 갖는 음향 데이터를 선택하는 과정;
상기 음향 인식 모델을 이용하여, 선택한 음향 데이터 중에서 함정 승무원의 음성에 대응되는 음향 데이터를 식별하고, 음성 인식을 수행하여 음성 인식 텍스트들을 생성하는 과정;
생성된 음성 인식 텍스트들을 순서대로 나열하여 텍스트 데이터를 생성하는 과정;을 포함하는 상황정보 운용 방법.
The method of claim 10,
The first data includes sound data, the first data recognition model includes a sound recognition model,
The process of generating the second data,
selecting sound data having a volume greater than or equal to a preset reference volume among the sound data;
identifying acoustic data corresponding to a crew member's voice from among the selected acoustic data using the acoustic recognition model, and generating voice-recognized texts by performing voice recognition;
A method of operating contextual information, comprising: generating text data by arranging the generated voice recognition texts in order.
청구항 11에 있어서,
상기 메타데이터를 생성하는 과정은,
순서대로 나열된 음성 인식 텍스트들의 의미를 분석하고, 분석된 의미에 따라 상기 순서대로 나열된 음성 인식 텍스트들을 의미를 갖는 최소 단위로 분할하여 이벤트를 생성하는 과정;
생성된 이벤트를 시간에 따라 색인하여 상기 메타데이터로 생성하는 과정;을 포함하는 상황정보 운용 방법.
The method of claim 11,
The process of generating the metadata,
analyzing the meaning of the voice recognition texts listed in order, and generating an event by dividing the voice recognition texts listed in the order into minimum units having meaning according to the analyzed meaning;
A method of managing contextual information that includes indexing generated events according to time and generating the metadata.
청구항 11에 있어서,
상기 상황정보 데이터를 재생하는 과정은,
검색어를 입력받는 과정;
상기 메타데이터 중 상기 검색어와 유사 혹은 동일한 이벤트를 요청 이벤트로 추출하는 과정;
추출된 요청 이벤트에 색인된 시간부터 상기 상황정보 데이터를 재생하는 과정;을 포함하는 상황정보 운용 방법.
The method of claim 11,
The process of reproducing the situation information data,
The process of receiving a search term input;
extracting an event similar or identical to the search word from among the metadata as a request event;
and reproducing the context data from the time indexed to the extracted request event.
KR1020220182904A 2022-12-23 2022-12-23 Apparatus for operating context information and method thereof KR102567618B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220182904A KR102567618B1 (en) 2022-12-23 2022-12-23 Apparatus for operating context information and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220182904A KR102567618B1 (en) 2022-12-23 2022-12-23 Apparatus for operating context information and method thereof

Publications (1)

Publication Number Publication Date
KR102567618B1 true KR102567618B1 (en) 2023-08-17

Family

ID=87800105

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220182904A KR102567618B1 (en) 2022-12-23 2022-12-23 Apparatus for operating context information and method thereof

Country Status (1)

Country Link
KR (1) KR102567618B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101523261B1 (en) 2014-02-14 2015-05-27 국방과학연구소 The simulator design and interworking method for onboard EO-IR training
KR101779199B1 (en) 2017-01-10 2017-09-15 김경규 Apparatus for recording security video
KR20180004182A (en) * 2015-05-28 2018-01-10 현대중공업 주식회사 Method and apparatus for integrated management of ship data
KR20200132265A (en) * 2019-05-16 2020-11-25 김창영 Buoy monitoring terminal and method based on augmented reality
KR20210086068A (en) * 2019-12-31 2021-07-08 주식회사 포스코아이씨티 Speech Recognition Model Management System for Training Speech Recognition Model
KR102298406B1 (en) * 2020-11-27 2021-09-08 (주)지엠티 Method and apparatus for providing navigation guidance

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101523261B1 (en) 2014-02-14 2015-05-27 국방과학연구소 The simulator design and interworking method for onboard EO-IR training
KR20180004182A (en) * 2015-05-28 2018-01-10 현대중공업 주식회사 Method and apparatus for integrated management of ship data
KR101779199B1 (en) 2017-01-10 2017-09-15 김경규 Apparatus for recording security video
KR20200132265A (en) * 2019-05-16 2020-11-25 김창영 Buoy monitoring terminal and method based on augmented reality
KR20210086068A (en) * 2019-12-31 2021-07-08 주식회사 포스코아이씨티 Speech Recognition Model Management System for Training Speech Recognition Model
KR102298406B1 (en) * 2020-11-27 2021-09-08 (주)지엠티 Method and apparatus for providing navigation guidance

Similar Documents

Publication Publication Date Title
US9542604B2 (en) Method and apparatus for providing combined-summary in imaging apparatus
KR102085908B1 (en) Content providing server, content providing terminal and content providing method
CN108305632A (en) A kind of the voice abstract forming method and system of meeting
KR20120038000A (en) Method and system for determining the topic of a conversation and obtaining and presenting related content
KR20180136265A (en) Apparatus, method and computer-readable medium for searching and providing sectional video
US10978077B1 (en) Knowledge point mark generation system and method thereof
JP2004533756A (en) Automatic content analysis and display of multimedia presentations
CN114465737B (en) Data processing method and device, computer equipment and storage medium
JP2007519987A (en) Integrated analysis system and method for internal and external audiovisual data
US20110153327A1 (en) Systems and methods for identity matching based on phonetic and edit distance matching
US8406606B2 (en) Playback apparatus and playback method
US20190371300A1 (en) Electronic device and control method
CN114996506A (en) Corpus generation method and device, electronic equipment and computer-readable storage medium
KR102567618B1 (en) Apparatus for operating context information and method thereof
CN116508315A (en) Multimode game video summary
US20170098449A1 (en) Control device for recording system, and recording system
US11010562B2 (en) Visual storyline generation from text story
WO2022180860A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
KR102148021B1 (en) Information search method and apparatus in incidental images incorporating deep learning scene text detection and recognition
KR20200071996A (en) Language study method using user terminal and central server
EP4354887A1 (en) Artificial intelligence device, and method for operating artificial intelligence device
CN112241462B (en) Knowledge point mark generation system and method thereof
WO2022180862A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
WO2022180853A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
WO2022180824A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant