KR102567618B1 - Apparatus for operating context information and method thereof - Google Patents
Apparatus for operating context information and method thereof Download PDFInfo
- Publication number
- KR102567618B1 KR102567618B1 KR1020220182904A KR20220182904A KR102567618B1 KR 102567618 B1 KR102567618 B1 KR 102567618B1 KR 1020220182904 A KR1020220182904 A KR 1020220182904A KR 20220182904 A KR20220182904 A KR 20220182904A KR 102567618 B1 KR102567618 B1 KR 102567618B1
- Authority
- KR
- South Korea
- Prior art keywords
- data
- metadata
- context information
- information
- generating
- Prior art date
Links
Images
Classifications
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41H—ARMOUR; ARMOURED TURRETS; ARMOURED OR ARMED VEHICLES; MEANS OF ATTACK OR DEFENCE, e.g. CAMOUFLAGE, IN GENERAL
- F41H11/00—Defence installations; Defence devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B63—SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
- B63G—OFFENSIVE OR DEFENSIVE ARRANGEMENTS ON VESSELS; MINE-LAYING; MINE-SWEEPING; SUBMARINES; AIRCRAFT CARRIERS
- B63G13/00—Other offensive or defensive arrangements on vessels; Vessels characterised thereby
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41A—FUNCTIONAL FEATURES OR DETAILS COMMON TO BOTH SMALLARMS AND ORDNANCE, e.g. CANNONS; MOUNTINGS FOR SMALLARMS OR ORDNANCE
- F41A33/00—Adaptations for training; Gun simulators
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41H—ARMOUR; ARMOURED TURRETS; ARMOURED OR ARMED VEHICLES; MEANS OF ATTACK OR DEFENCE, e.g. CAMOUFLAGE, IN GENERAL
- F41H13/00—Means of attack or defence not otherwise provided for
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/632—Query formulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/64—Browsing; Visualisation therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9032—Query formulation
- G06F16/90332—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/904—Browsing; Visualisation therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/907—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/908—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
Abstract
본 발명은, 함정으로부터 상황정보 데이터를 수집하기 위한 수집부와, 상황정보 데이터에서 제1형태를 가지는 제1데이터를 추출하기 위한 제1데이터 처리부와, 제1데이터를 제1형태와 다른 제2형태로 변환하여 제2데이터를 생성하기 위한 데이터 변환부와, 제2데이터를 이용하여 메타데이터를 생성하기 위한 메타데이터 생성부, 및 상황정보 데이터를 재생할 수 있고, 메타데이터를 기반으로 상황정보 데이터의 재생 시점을 선정할 수 있는 상황정보 전시부를 포함하는 상황정보 운용 장치와, 이에 적용되는 상황정보 운용 방법으로서, 함정으로부터 수집되는 상황정보 데이터를 효율적으로 활용할 수 있는 상황정보 운용 장치 및 방법이 제시된다.The present invention includes a collection unit for collecting context information data from traps, a first data processing unit for extracting first data having a first form from context information data, and a second form different from the first form for the first data. A data conversion unit for generating second data by converting into a form, a metadata generation unit for generating metadata using the second data, and reproducing contextual information data, and reproducing contextual information data based on the metadata. Presenting a situation information operation device including a situation information display unit capable of selecting the playback time of the game, and a situation information operation method applied thereto, which can efficiently utilize situation information data collected from ships. do.
Description
본 발명은 상황정보 운용 장치 및 방법에 관한 것으로서, 더욱 상세하게는 함정으로부터 수집되는 상황정보 데이터를 효율적으로 활용할 수 있는 상황정보 운용 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for operating situation information, and more particularly, to an apparatus and method for operating situation information capable of efficiently utilizing situation information data collected from a ship.
함정을 운용하는 동안, 함정에 탑재된 전투체계에는 함정이 운용과 관련되는 모든 정보 즉, 전투체계를 운용하면서 발생한 전술정보, 전투체계가 수신한 영상정보 등의 상황정보가 영상 파일 및 음성 파일로 기록된다. 이때, 전투체계에 기록된 내용은 예컨대 함정 승무원 평가, 함정 수리 등 다양한 작업에서 기초 데이터로서 상당히 중요하게 활용될 수 있다.During the operation of the ship, the combat system mounted on the ship transmits all information related to the operation of the ship, such as tactical information generated while operating the combat system and situational information such as video information received by the combat system, as video files and audio files. It is recorded. At this time, the contents recorded in the combat system can be used as very important basic data in various tasks such as ship crew evaluation and ship repair.
그런데, 종래에는 특정한 이벤트를 분석하기 위해서는, 전투체계에서 기록된 파일들을 재생할 때, 사용자가 재생 화면의 시간 바를 조작하여 해당 이벤트가 기록된 재생 위치까지 직접 스크롤을 이동시켜 재생 시점을 조절하거나, 해당 이벤트가 기록된 재생 위치가 나올때까지 파일의 재생속도를 높이는 방식을 사용하였다. 따라서, 함정을 장시간 운용할수록, 분석할 이벤트가 최근의 이벤트일수록, 분석을 시작하기까지 재생 시점을 조절하는 것에 많은 시간이 소모되는 문제점이 있었다.However, in the prior art, in order to analyze a specific event, when playing files recorded in a combat system, the user manipulates the time bar on the playback screen to directly scroll to the playback position where the event is recorded to adjust the playback time, or A method of increasing the playback speed of the file until the playback position where the event is recorded appears. Therefore, the longer the trap is operated, the more recent the event to be analyzed, the more time is consumed in adjusting the playback time until the analysis starts.
또한, 종래에는 전투체계에서는 기록된 파일을 재생할 때 되감기 기능이 지원되지 않아서 조작 실수로 해당 이벤트가 기록된 재생 위치를 넘어가면 다시 처음부터 조작해야 하는 어려움이 있었다.In addition, conventional combat systems do not support a rewind function when replaying a recorded file, so if an operation mistake goes beyond the recorded playback position, it is difficult to operate again from the beginning.
이러한 종래의 방식은 특정한 이벤트를 기반으로 전투체계 정보를 분석해야 하는 사용자에게 불편함을 초래하고, 정보 분석에 들어가는 시간을 증가시키는 문제점이 있다.This conventional method causes inconvenience to a user who has to analyze combat system information based on a specific event, and has a problem of increasing the time required for information analysis.
본 발명의 배경이 되는 기술은 하기의 특허문헌에 게재되어 있다.The background technology of the present invention is published in the following patent documents.
본 발명은 함정으로부터 수집되는 상황정보 데이터를 효율적으로 활용할 수 있는 상황정보 운용 장치 및 방법을 제공한다.The present invention provides an apparatus and method for operating contextual information capable of efficiently utilizing contextual information data collected from a ship.
본 발명의 실시 형태에 따른 상황정보 운용 장치는, 함정으로부터 상황정보 데이터를 수집하기 위한 수집부; 상기 상황정보 데이터에서 제1형태를 가지는 제1데이터를 추출하기 위한 제1데이터 처리부; 상기 제1데이터를 상기 제1형태와 다른 제2형태로 변환하여 제2데이터를 생성하기 위한 데이터 변환부; 상기 제2데이터를 이용하여 메타데이터를 생성하기 위한 메타데이터 생성부; 및 상기 상황정보 데이터를 재생할 수 있고, 상기 메타데이터를 기반으로 상기 상황정보 데이터의 재생 시점을 선정할 수 있는 상황정보 전시부;를 포함한다.A situation information operating apparatus according to an embodiment of the present invention includes a collection unit for collecting situation information data from a trap; a first data processing unit for extracting first data having a first form from the context information data; a data conversion unit configured to generate second data by converting the first data into a second form different from the first form; a metadata generator for generating metadata using the second data; and a context information display unit capable of reproducing the context information data and selecting a reproduction time of the context information data based on the metadata.
상기 수집부는 상기 함정의 전투체계와 연결되고, 상기 전투체계에 기록되는 영상(video) 데이터 및 음향(sound) 데이터를 상기 상황정보 데이터로서 수집하며, 상기 제1데이터 처리부는 상기 영상 데이터 및 상기 음향 데이터 중 어느 하나를 선택하여 상기 제1데이터로 추출할 수 있다.The collection unit is connected to the combat system of the ship and collects video data and sound data recorded in the combat system as the situation information data, and the first data processing unit collects the video data and the sound data. Any one of the data may be selected and extracted as the first data.
상기 데이터 변환부는 제1데이터 인식 모델을 이용하여 상기 제1데이터를 인식하여 텍스트 형태로 변환하고, 상기 제2데이터로서 텍스트 데이터를 생성할 수 있다.The data conversion unit may recognize the first data using a first data recognition model, convert the first data into a text format, and generate text data as the second data.
상기 메타데이터 생성부는 상기 제2데이터의 의미를 분석하고, 상기 제2데이터를 의미를 갖는 최소 단위로 분할하여 이벤트를 생성하고, 상기 이벤트를 시간에 따라 색인하여 상기 메타데이터로 생성할 수 있다.The metadata generator may analyze the meaning of the second data, divide the second data into meaningful units to generate an event, index the event according to time, and generate the metadata.
상기 상황정보 전시부는 상기 함정의 운용상황에 대한 이벤트를 검색하기 위한 검색어를 입력받고, 상기 메타데이터에 포함된 이벤트들 중 상기 검색어와 매칭되는 이벤트를 요청 이벤트로 추출하고, 상기 요청 이벤트에 색인된 시간부터 상기 상황정보 데이터를 재생할 수 있다.The situation information display unit receives a search word for searching for an event on the operation status of the trap, extracts an event matching the search word among events included in the metadata as a request event, and indexes the requested event. The situation information data can be reproduced from time.
본 발명의 실시 형태에 따른 상황정보 운용 방법은, 함정으로부터 상황정보 데이터를 수집하는 과정; 상기 상황정보 데이터에서 제1형태를 가지는 제1데이터를 추출하는 과정; 상기 제1데이터를 상기 제1형태와 다른 제2형태로 변환하여 제2데이터를 생성하는 과정; 상기 제2데이터를 이용하여 메타데이터를 생성하는 과정; 상기 메타데이터를 기반으로 상기 상황정보 데이터의 재생 시점을 선정하고, 선정된 재생 시점부터 상기 상황정보 데이터를 재생하는 과정;을 포함한다.A situation information management method according to an embodiment of the present invention includes a process of collecting situation information data from a trap; extracting first data having a first shape from the situation information data; generating second data by converting the first data into a second form different from the first form; generating metadata using the second data; and selecting a reproduction time point of the context information data based on the metadata and reproducing the context information data from the selected reproduction time point.
상기 상황정보 데이터를 수집하는 과정은, 상기 함정의 전투체계를 이용하여 상기 함정을 운용하는 과정; 상기 함정의 운용상황을 복수의 형태로 상기 전투체계에 기록하는 과정; 상기 전투체계에 기록된 데이터를 상기 상황정보 데이터로 수집하는 과정;을 포함할 수 있다.The process of collecting the situation information data may include: operating the ship using the combat system of the ship; Recording the operation status of the ship in the combat system in a plurality of forms; A process of collecting the data recorded in the combat system as the situation information data; may include.
상기 전투체계에 기록하는 과정은, 상기 전투체계의 하위 체계들 중, 전술지휘체계 및 센서체계에서 입출력되는 전술정보, 레이더 탐지정보, 가시광선 탐지정보 및 적외선 탐지정보를 영상 데이터로 기록하는 과정; 상기 전투체계의 하위 체계들 중, 통신체계에서 입출력되는 통신정보를 음향 데이터로 기록하는 과정;을 포함할 수 있다.The process of recording in the combat system may include: recording tactical information, radar detection information, visible light detection information, and infrared light detection information input and output from a tactical command system and a sensor system among subsystems of the combat system as image data; Among the subsystems of the combat system, a process of recording communication information input and output from the communication system as sound data; may be included.
상기 제1데이터를 추출하는 과정은, 상기 상황정보 데이터 중 상기 영상 데이터 또는 상기 음향 데이터를 선택하여 상기 제1데이터로 추출하는 과정;을 포함할 수 있다.The process of extracting the first data may include a process of selecting the image data or the sound data from among the context information data and extracting the first data.
상기 제2데이터를 생성하는 과정은, 미리 입력된 제1데이터 인식 모델을 이용하여 상기 제1데이터를 인식하여 텍스트 형태로 변환하여 변환된 텍스트 데이터를 상기 제2데이터로 생성하는 과정;을 포함할 수 있다.The process of generating the second data may include recognizing the first data using a first data recognition model input in advance, converting the first data into text form, and generating the converted text data as the second data. can
상기 제1데이터는 음향 데이터를 포함하고, 상기 제1데이터 인식 모델은 음향 인식 모델을 포함하고, 상기 제2데이터로 생성하는 과정은, 상기 음향 데이터 중 미리 설정된 기준 음량 이상의 음량을 갖는 음향 데이터를 선택하는 과정; 상기 음향 인식 모델을 이용하여, 선택한 음향 데이터 중에서 함정 승무원의 음성에 대응되는 음향 데이터를 식별하고, 음성 인식을 수행하여 음성 인식 텍스트들을 생성하는 과정; 생성된 음성 인식 텍스트들을 순서대로 나열하여 텍스트 데이터를 생성하는 과정;을 포함할 수 있다.The first data includes sound data, the first data recognition model includes a sound recognition model, and the process of generating the second data includes sound data having a volume equal to or greater than a preset reference volume among the sound data. selection process; identifying acoustic data corresponding to a crew member's voice from among the selected acoustic data using the acoustic recognition model, and generating voice-recognized texts by performing voice recognition; It may include a process of generating text data by arranging the generated voice recognition texts in order.
상기 메타데이터를 생성하는 과정은, 순서대로 나열된 음성 인식 텍스트들의 의미를 분석하고, 분석된 의미에 따라 상기 순서대로 나열된 음성 인식 텍스트들을 의미를 갖는 최소 단위로 분할하여 이벤트를 생성하는 과정; 생성된 이벤트를 시간에 따라 색인하여 상기 메타데이터로 생성하는 과정;을 포함할 수 있다.The process of generating the metadata may include analyzing the meaning of the voice recognition texts listed in order, and generating an event by dividing the voice recognition texts listed in the order into minimum units having meaning according to the analyzed meaning; Indexing the generated event according to time and generating the metadata; may include.
상기 상황정보 데이터를 재생하는 과정은, 검색어를 입력받는 과정; 상기 메타데이터 중 상기 검색어와 유사 혹은 동일한 이벤트를 요청 이벤트로 추출하는 과정; 추출된 요청 이벤트에 색인된 시간부터 상기 상황정보 데이터를 재생하는 과정;을 포함할 수 있다.The process of reproducing the situation information data may include receiving a search word; extracting an event similar or identical to the search word from among the metadata as a request event; and reproducing the context data from the time indexed to the extracted request event.
본 발명의 실시 형태에 따르면, 상황정보 데이터에서 제1데이터를 추출하고, 이로부터 제2데이터를 생성할 수 있고, 생성된 제2데이터를 이용하여 메타데이터를 생성하고, 메타데이터를 기반으로 상황정보 데이터의 재생 시점을 선정할 수 있다. 따라서, 선정된 재생 시점부터 상기 상황정보 데이터를 재생할 수 있다.According to an embodiment of the present invention, first data may be extracted from context information data, second data may be generated therefrom, metadata may be generated using the generated second data, and situation information may be extracted based on the metadata. The reproduction point of the information data can be selected. Accordingly, the situation information data can be reproduced from the selected reproduction time point.
또한, 본 발명의 실시 형태에 따르면, 상황정보 데이터 중의 음향(sound) 데이터로부터 텍스트 형태의 메타데이터를 생성함으로써, 사용자에게 익숙한 형태인 단어 검색을 통해 재생 시점을 원활하게 선정할 수 있다. 나아가, 함정 승무원이 의사소통 시에 익숙하고 빈번하게 사용하는 단어를 검색어로 활용하여 단어 검색을 통해 재생 시점을 정확하게 선정할 수 있다. 이에, 사용자가 원하는 이벤트를 정확하게 검색할 수 있고, 검색한 이벤트에 해당하는 재생 시점부터 즉시 재생함으로써, 특정한 이벤트를 기반으로 전투체계 정보를 분석해야 하는 사용자에게 편리함을 제공할 수 있다. 또한, 정보 분석에 들어가는 시간을 효과적으로 감소시킬 수 있다. 이로부터 함정으로부터 수집되는 상황정보 데이터를 사용자가 효율적으로 활용하도록 할 수 있다.In addition, according to an embodiment of the present invention, by generating text-type metadata from sound data among context information data, it is possible to smoothly select a playback time point through word search, which is a form familiar to users. Furthermore, it is possible to accurately select a playback time point through word search by using a word familiar and frequently used by ship crew members in communication as a search term. Accordingly, it is possible to accurately search for an event desired by the user, and immediately reproduce the searched event from the playback time, thereby providing convenience to a user who needs to analyze combat system information based on a specific event. In addition, the time required for information analysis can be effectively reduced. From this, the situation information data collected from the trap can be efficiently utilized by the user.
도 1은 본 발명의 실시 예에 따른 상황정보 운용 장치의 블록도이다.
도 2는 본 발명의 실시 예에 따른 상황정보 운용 장치의 모식도이다.
도 3은 본 발명의 실시 예에 따른 상황정보 운용 장치가 메타데이터를 생성하는 방식을 예시적으로 보여주는 도면이다.
도 4는 본 발명의 실시 예에 따른 상황정보 운용 방법의 순서도이다.1 is a block diagram of a situation information operating device according to an embodiment of the present invention.
2 is a schematic diagram of a situation information operating device according to an embodiment of the present invention.
3 is a diagram exemplarily illustrating a method of generating metadata by a context information operating apparatus according to an embodiment of the present invention.
4 is a flowchart of a context information operating method according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여, 본 발명의 실시 예를 상세히 설명한다. 그러나 본 발명은 이하에서 개시되는 실시 예에 한정되는 것이 아니고, 서로 다른 다양한 형태로 구현될 것이다. 단지 본 발명의 실시 예는 본 발명의 개시가 완전하도록 하고, 해당 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 본 발명의 실시 예를 설명하기 위하여 도면은 과장될 수 있고, 도면상의 동일한 부호는 동일한 요소를 지칭한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, and will be implemented in a variety of different forms. Only the embodiments of the present invention are provided to complete the disclosure of the present invention and to fully inform those skilled in the art of the scope of the invention. In order to explain an embodiment of the present invention, the drawings may be exaggerated, and the same reference numerals in the drawings refer to the same elements.
본 발명은 함정으로부터 수집되는 상황정보 데이터를 효율적으로 활용할 수 있는 상황정보 운용 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for managing contextual information capable of efficiently utilizing contextual information data collected from a ship.
이하에서는 전투체계가 탑재된 함정에 적용되는 경우를 예시하여, 본 발명의 실시 예를 상세하게 설명한다. 물론, 이하에서 설명되는 본 발명의 실시 예에 따른 상황정보 운용 장치 및 방법은, 전차, 항공기 등에도 다양하게 적용될 수 있다.Hereinafter, an embodiment of the present invention will be described in detail by exemplifying a case in which a combat system is applied to a ship equipped with a combat system. Of course, the apparatus and method for operating situation information according to an embodiment of the present invention described below may be variously applied to trains, aircraft, and the like.
1. 본 발명의 실시 예에 따른 상황정보 운용 장치1. Context information operating device according to an embodiment of the present invention
도 1은 본 발명의 실시 예에 따른 상황정보 운용 장치의 블록도이고, 도 2는 본 발명의 실시 예에 따른 상황정보 운용 장치의 모식도이며, 도 3은 본 발명의 실시 예에 따른 상황정보 운용 장치가 메타데이터를 생성하는 방식을 예시적으로 보여주는 도면이다.1 is a block diagram of a context information operating device according to an embodiment of the present invention, FIG. 2 is a schematic diagram of a context information operating device according to an embodiment of the present invention, and FIG. 3 is a context information management device according to an embodiment of the present invention. It is a diagram exemplarily showing how the device generates metadata.
도 1 내지 도 3을 참조하여, 본 발명의 실시 예에 따른 상황정보 운용 장치를 설명한다.Referring to FIGS. 1 to 3 , a context information operating apparatus according to an embodiment of the present invention will be described.
본 발명의 실시 예에 따른 상황정보 운용 장치(1000)는, 수집부(100), 제1데이터 처리부(200), 데이터 변환부(300), 메타데이터 생성부(400), 상황정보 전시부(500)를 포함한다.The context
1.1. 함정(1)1.1. Trap(1)
상황정보 운용 장치(1000)는 함정(1)에 설치될 수 있다. 이때, 함정(1)은 해양에서 운용되는 군함을 포함할 수 있다. 함정(1)에는 전투체계(10)가 탑재될 수 있다. 함정(1)은 탑재된 전투체계(10)를 작동시켜 해상에서 항해할 수 있고, 부여된 임무를 수행할 수 있다. 상황정보 운용 장치(1000)가 함정(1)에 설치되는 경우, 전투체계(10)에 탑재되거나, 각종 콘솔 혹은 단말의 형태로 함정(1)의 내외부에 배치될 수 있다. 한편, 상황정보 운용 장치(1000)는 함정(1)의 외부에 배치되고, 함정(1)과 전술데이터링크를 통해 연결될 수도 있다.The situation
1.2. 전투체계(10)1.2. combat system (10)
전투체계(10)는 전술지휘체계(11), 센서체계(12), 통신체계(13) 등을 포함할 수 있다. 이때, 전술지휘체계(11), 센서체계(12), 통신체계(13) 등을 전투체계(10)의 하위 체계라고 지칭할 수 있다. 또한, 전투체계(10)가 포함하는 하위 체계의 종류는 다양할 수 있다. 즉, 전투체계(10)는 하위 체계로서 무장체계, 항해체계 등을 더 포함할 수 있다. 한편, 전투체계(10)는 전술데이터링크를 통해 해상, 지상 혹은 공중의 합동통제소와 연결될 수 있다. 전술지휘체계(11), 센서체계(12) 및 통신체계(13)의 구성은 다양할 수 있다.The
한편, 함정(1)의 전투체계(10)를 이용하여 함정(1)을 운용하는 과정에서, 전술지휘체계(11), 센서체계(12) 및 통신체계(13)에서 다양한 메시지 및 다양한 신호가 생성 및 출력될 수 있다. 전술지휘체계(11)는 내부 토픽메시지를 생성할 수 있다. 센서체계(12)는 ICD(Interface Control Document) 메시지를 생성할 수 있다. 이때, 내부 토픽메시지 및 ICD 메시지는 함정(1)의 운용상황에 대한 전술정보를 포함할 수 있다. 센서체계(12)는 레이더 신호, TV 신호 및 IR 신호를 생성할 수 있고, 이때, TV 신호는 탐색 결과를 가시광선 영상으로 생성하기 위한 것일 수 있고, IR 신호는 탐색 결과를 적외선(IR) 영상으로 생성하기 위한 것일 수 있으며, 레이더 신호는 탐색 결과를 레이더 영상으로 생성하기 위한 것일 수 있다. 한편, 레이더 신호는 함정(1)의 운용상황에 대한 레이더 탐지정보를 포함할 수 있고, TV 신호는 함정(1)의 운용상황에 대한 가시광선 탐지정보를 포함할 수 있고, IR 신호는 함정(1)의 운용상황에 대한 적외선 탐지정보를 포함할 수 있다. 통신체계(13)는 오디오 신호를 생성할 수 있다. 이때, 오디오 신호는 함정(1)의 운용상황에 대한 통신정보를 포함할 수 있다.Meanwhile, in the process of operating the
1.3. 수집부(100)1.3. Collecting unit (100)
수집부(100)는 함정으로부터 상황정보 데이터를 수집하는 역할을 한다. 수집부(100)는 함정(1)의 전투체계(10)와 연결될 수 있다. 수집부(100)는 전투체계(10)와 데이터를 주고받을 수 있다. 또한, 수집부(100)는 전투체계(10)에 기록되는 영상(video) 데이터 및 음향(sound) 데이터를 상황정보 데이터로서 수집할 수 있다.The
1.4. 제1데이터 처리부(200)1.4.
제1데이터 처리부(200)는 상황정보 데이터에서 제1형태를 가지는 제1데이터를 추출하는 역할을 한다. 제1데이터 처리부(200)는 수집부(100)와 연결되며, 수집부(100)와 데이터를 주고받을 수 있다. 또한, 제1데이터 처리부(200)는 영상 데이터 및 음향 데이터 중 어느 하나를 선택하여 제1데이터로 추출할 수 있다. 즉, 제1데이터 처리부(200)는 음향 데이터를 선택하여 제1데이터로 추출하거나, 영상 데이터를 선택하여 제1데이터로 추출할 수 있다.The first
1.5. 데이터 변환부(300)1.5.
데이터 변환부(300)는 제1데이터를 제1형태와 다른 제2형태로 변환하여 제2데이터를 생성하는 역할을 한다. 데이터 변환부(300)는 제1데이터 처리부(200)와 데이터를 주고받을 수 있게 연결될 수 있다. 이에, 데이터 변환부(300)는 제1데이터 처리부(200)로부터 제1데이터를 입력받을 수 있다. 또한, 데이터 변환부(300)는 제1데이터 인식 모델을 이용하여 제1데이터를 인식하여 텍스트 형태로 변환하고, 제2데이터로서 텍스트 데이터를 생성할 수 있다. 또한, 데이터 변환부(300)는 텍스트 데이터를 메타데이터 생성부(400)로 출력할 수 있다.The
1.6. 메타데이터 생성부(400)1.6.
메타데이터 생성부(400)는 제2데이터를 이용하여 메타데이터를 생성하는 역할을 한다. 메타데이터 생성부(400)는 데이터 변환부(300)로부터 제2데이터를 입력받을 수 있다. 이때, 제2데이터는 음향 데이터로부터 생성된 텍스트 데이터일 수 있다. 또한, 제2데이터는 영상 데이터로부터 생성된 텍스트 데이터일 수 있다. 또한, 메타데이터 생성부(400)는 제2데이터의 의미를 분석하고, 제2데이터를 의미를 갖는 최소 단위로 분할하여 이벤트를 생성하고, 이벤트를 시간에 따라 색인하여 메타데이터로 생성할 수 있다. 즉, 음향 데이터 혹은 영상 데이터로부터 테스트 형태로 생성되는 이벤트를 각 데이터의 시간정보와 함께 연관지어 메타데이터로서 함께 저장할 수 있다.The
1.7. 상황정보 전시부(500)1.7. Situation information display unit (500)
상황정보 전시부(500)는 상황정보 데이터를 재생하는 역할을 하고, 메타데이터를 기반으로 상황정보 데이터의 재생 시점을 선정하는 역할을 한다. 상황정보 전시부(500)는 전투체계(10)와 연결되어 상황정보 데이터를 입력받을 수 있고, 메타데이터 생성부(400)와 연결되어 메타데이터를 입력받을 수 있다. 또한, 상황정보 전시부(500)는 입력 장치 및 데이터 처리기와 전시 화면을 구비할 수 있다. 입력 장치는 함정(1)의 운용상황에 대한 이벤트를 검색하기 위한 검색어를 입력받을 수 있다. 데이터 처리기는 메타데이터에 포함된 이벤트들 중 검색어와 매칭되는 이벤트를 요청 이벤트로 추출하고, 요청 이벤트에 색인된 시간부터 상황정보 데이터를 재생하도록 전시 화면을 조작할 수 있다. 이에, 전시 화면에서는 요청 이벤트에 색인된 시간부터 상황정보 데이터를 재생할 수 있다.The context
2. 본 발명의 실시 예에 따른 상황정보 운용 방법2. Context information operating method according to an embodiment of the present invention
도 4는 본 발명의 실시 예에 따른 상황정보 운용 방법의 순서도이다.4 is a flowchart of a context information operating method according to an embodiment of the present invention.
이하, 도 1 내지 도 4를 참조하여, 본 발명의 실시 예에 따른 상황정보 운용 방법을 상세하게 설명한다.Hereinafter, a context information operating method according to an embodiment of the present invention will be described in detail with reference to FIGS. 1 to 4 .
본 발명의 실시 예에 따른 상황정보 운용 방법은, 함정(1)으로부터 상황정보 데이터를 수집하는 과정(S110)과, 상황정보 데이터에서 제1형태를 가지는 제1데이터를 추출하는 과정(S120)과, 제1데이터를 제1형태와 다른 제2형태로 변환하여 제2데이터를 생성하는 과정(S130)과, 제2데이터를 이용하여 메타데이터를 생성하는 과정(S140), 및 메타데이터를 기반으로 상황정보 데이터의 재생 시점을 선정하고, 선정된 재생 시점부터 상황정보 데이터를 재생하는 과정(S150)을 포함한다.The method for operating contextual information according to an embodiment of the present invention includes a process of collecting contextual information data from a trap 1 (S110), a process of extracting first data having a first form from contextual information data (S120), , The process of converting the first data into a second form different from the first form to generate second data (S130), the process of generating metadata using the second data (S140), and based on the metadata A process of selecting a reproduction time point of context information data and reproducing context information data from the selected reproduction time point (S150) is included.
2.1. 함정(1)으로부터 상황정보 데이터를 수집하는 과정(S110)2.1. Process of collecting situation information data from trap (1) (S110)
우선, 함정(1)으로부터 상황정보 데이터를 수집하는 과정(S110)을 수행한다. 이때, 함정(1)으로부터 상황정보 데이터를 수집하는 과정(S110)은, 함정(1)의 전투체계(10)를 이용하여 함정(1)을 운용하는 과정, 함정(1)의 운용상황을 복수의 형태로 전투체계(10)에 기록하는 과정, 전투체계(10)에 기록된 데이터를 상황정보 데이터로 수집하는 과정을 포함할 수 있다.First, a process of collecting situation information data from the trap 1 (S110) is performed. At this time, in the process of collecting situation information data from the trap 1 (S110), the process of operating the
2.1.A. 함정(1)을 운용하는 과정2.1.A. The process of operating the trap (1)
함정(1)의 전투체계(10)를 이용하여 함정(1)을 운용하는 과정에서는 함정(1)에 탑재된 전투체계(10)를 작동시켜 함정(1)을 해상에서 항해시키며, 함정(1)에 부여된 임무를 수행할 수 있다. 여기서, 임무는 훈련, 지원, 정찰, 수송, 경계, 교전 및 방어 등 다양할 수 있다.In the process of operating the ship (1) using the battle system (10) of the ship (1), the battle system (10) mounted on the ship (1) is operated to navigate the ship (1) at sea, and the ship (1) ) can perform the assigned tasks. Here, missions may vary, such as training, support, reconnaissance, transport, security, engagement and defense.
전투체계(10)는 전술지휘체계(11), 센서체계(12), 통신체계(13) 등을 포함할 수 있다. 이때, 전술지휘체계(11), 센서체계(12), 통신체계(13) 등을 전투체계(10)의 하위 체계라고 지칭할 수 있다. 또한, 전투체계(10)가 포함하는 하위 체계의 종류는 다양할 수 있다. 즉, 전투체계(10)는 하위 체계로서 무장체계, 항해체계 등을 더 포함할 수 있다. 한편, 전투체계(10)는 전술데이터링크를 통해 해상, 지상 혹은 공중의 합동통제소와 연결될 수 있다.The
전술지휘체계(11)는 함정(1)의 관제실에 구비되는 다기능콘솔(MFC)을 포함할 수 있다. 센서체계(12)는 함정(10)의 복수의 위치에 설치되는 탐색레이더(SRS), 추적레이더(TRS), 전자광학추적장비(EOTS) 및 적외선탐지추적장비(IRST)와 복수의 연동단(SRS ICU, TRS ICU, EOTS ICU,IRST ICU)을 포함할 수 있다. 통신체계(13)는 통합통신체계(ICS)를 포함할 수 있다. 물론, 그 외에도 전술지휘체계(11), 센서체계(12) 및 통신체계(13)의 구성은 다양할 수 있다.The tactical command system 11 may include a multifunction console (MFC) provided in the control room of the
한편, 함정(1)의 전투체계(10)를 이용하여 함정(1)을 운용하는 과정에서, 전술지휘체계(11), 센서체계(12) 및 통신체계(13)에서 다양한 메시지 및 다양한 신호가 생성 및 출력될 수 있다.Meanwhile, in the process of operating the
예컨대 전술지휘체계(11)의 다기능콘솔(MFC)은 내부 토픽메시지를 생성할 수 있다. 센서체계(12)의 탐색레이더(SRS), 추적레이더(TRS), 전자광학추적장비(EOTS) 및 적외선탐지추적장비(IRST)는 ICD(Interface Control Document) 메시지를 생성할 수 있다. 이때, 내부 토픽메시지 및 ICD 메시지는 함정(1)의 운용상황에 대한 전술정보를 포함할 수 있다.For example, the multifunction console (MFC) of the tactical command system 11 may generate an internal topic message. Search radar (SRS), tracking radar (TRS), electro-optical tracking equipment (EOTS) and infrared detection and tracking equipment (IRST) of the sensor system 12 may generate an Interface Control Document (ICD) message. At this time, the internal topic message and the ICD message may include tactical information about the operating situation of the
또한, 센서체계(12)의 탐색레이더(SRS)는 레이더 신호를 생성할 수 있고, 추적레이더(TRS)는 TV 신호를 생성할 수 있고, 전자광학추적장비(EOTS)는 TV 신호 및 IR 신호를 생성할 수 있고, 또한, 적외선탐지추적장비(IRST)는 TV 신호 및 IR 신호를 생성할 수 있다. 이때, TV 신호는 탐색 결과를 가시광선 영상으로 생성하기 위한 것일 수 있고, IR 신호는 탐색 결과를 적외선(IR) 영상으로 생성하기 위한 것일 수 있으며, 레이더 신호는 탐색 결과를 레이더 영상으로 생성하기 위한 것일 수 있다. 한편, 레이더 신호는 함정(1)의 운용상황에 대한 레이더 탐지정보를 포함할 수 있고, TV 신호는 함정(1)의 운용상황에 대한 가시광선 탐지정보를 포함할 수 있고, IR 신호는 함정(1)의 운용상황에 대한 적외선 탐지정보를 포함할 수 있다.In addition, the search radar (SRS) of the sensor system 12 can generate a radar signal, the tracking radar (TRS) can generate a TV signal, and the electro-optical tracking equipment (EOTS) can generate a TV signal and an IR signal. In addition, infrared detection and tracking equipment (IRST) can generate TV signals and IR signals. In this case, the TV signal may be for generating a search result as a visible ray image, the IR signal may be for generating a search result as an infrared (IR) image, and the radar signal may be for generating a search result as a radar image. it could be On the other hand, the radar signal may include radar detection information about the operation situation of the
또한, 통신체계(13)의 통합통신체계(ICS)는 오디오 신호를 생성할 수 있다. 이때, 오디오 신호는 함정(1)의 운용상황에 대한 통신정보를 포함할 수 있다.In addition, the integrated communication system (ICS) of the communication system 13 may generate an audio signal. At this time, the audio signal may include communication information about the operating situation of the
2.1.B. 전투체계(10)에 기록하는 과정2.1.B. The process of recording in the combat system (10)
함정(1)의 운용상황을 복수의 형태로 전투체계(10)에 기록하는 과정에서, 전투체계(10)의 하위 체계들 중의 전술지휘체계(11)에서 입출력되는 전술정보를 영상 데이터로 전투체계(10)에 기록할 수 있다. 또한, 전투체계(10)의 하위 체계들 중의 센서체계(12)에서 입출력되는 레이더 탐지정보, 가시광선 탐지정보 및 적외선 탐지정보를 영상 데이터로 전투체계(10)에 기록할 수 있다. 또한, 전투체계(10)의 하위 체계들 중의 통신체계(13)에서 입출력되는 통신정보를 음향 데이터로 전투체계(10)에 기록할 수 있다. 이때, 이들 데이터는 전투체계(10)의 서버에 기록될 수 있다.In the process of recording the operational status of the ship (1) in the combat system (10) in a plurality of forms, the tactical information input and output from the tactical command system (11) among sub-systems of the combat system (10) is converted into image data for the combat system (10) can be recorded. In addition, radar detection information, visible light detection information, and infrared detection information input and output from the sensor system 12 among subsystems of the
2.1.C. 상황정보 데이터로 수집하는 과정2.1.C. The process of collecting situational information data
전투체계(10)에 기록된 데이터를 상황정보 데이터로 수집하는 과정에서, 전투체계(10)에 기록되는 전술한 영상 데이터 및 음향 데이터와 동일한 영상 데이터 및 음향 데이터를 전술체계(10)와 연결된 수집부(100)의 정보저장장치 및 영상처리장치에 동일하게 기록할 수 있다. 이때, 정보저장장치에 전술정보를 영상 데이터로 기록할 수 있다. 또한, 영상처리장치에 레이더 탐지정보, 가시광선 탐지정보 및 적외선 탐지정보를 영상 데이터로 기록할 수 있고, 통신정보를 음향 데이터로 기록할 수 있다. 이에, 상황정보 데이터가 전술정보, 레이더 탐지정보, 가시광선 탐지정보 및 적외선 탐지정보를 영상 형태로 가질 수 있고, 통신정보를 음향 형태로 가질 수 있다. 한편, 그 외에도 전투체계(10)에 기록된 데이터를 상황정보 데이터로 수집하는 과정은 다양한 방식으로 수행될 수 있다.In the process of collecting the data recorded in the
2.2. 제1형태를 가지는 제1데이터를 추출하는 과정(S120)2.2. Process of extracting first data having a first form (S120)
이후, 상황정보 데이터에서 제1형태를 가지는 제1데이터를 추출하는 과정(S120)을 수행한다. 여기서, 상황정보 데이터에서 제1형태를 가지는 제1데이터를 추출하는 과정(S120)은, 상황정보 데이터 중 영상 데이터 또는 음향 데이터를 선택하여 제1데이터로 추출하는 과정을 포함할 수 있다. Thereafter, a process of extracting first data having a first form from context information data (S120) is performed. Here, the process of extracting the first data having the first form from the context information data (S120) may include a process of selecting video data or audio data from the context information data and extracting the first data.
2.2.A. 음향 데이터를 선택하여 제1데이터로 추출하는 과정2.2.A. Process of selecting sound data and extracting it as first data
상황정보 데이터 중 음향 데이터를 선택하여 제1데이터로 추출하는 과정에서는, 제1데이터 처리부(200)가 수집부(100)의 영상처리장치에 기록된 데이터들 중에서 음향 데이터를 선택하고 추출할 수 있다. 즉, 제1데이터가 음향 데이터가 될 수 있다.In the process of selecting sound data from context information data and extracting it as first data, the
2.2.B. 영상 데이터를 선택하여 제1데이터로 추출하는 과정2.2.B. Process of selecting image data and extracting it as first data
상황정보 데이터 중 영상 데이터를 선택하여 제1데이터로 추출하는 과정에서는, 제1데이터 처리부(200)가 수집부(100)의 정보처리장치에 기록된 데이터들 중에서 영상 데이터를 선택하고 추출할 수 있다. 즉, 제1데이터가 영상 데이터가 될 수 있다. 이때, 구체적으로, 선택 및 추출되는 영상 데이터는 전술정보의 영상 데이터이거나, 레이더 탐지정보의 영상 데이터이거나, 가시광선 탐지정보의 영상 데이터이거나, 적외선 탐지정보의 영상 데이터일 수 있다.In the process of selecting image data from context information data and extracting it as first data, the first
2.3. 제2데이터를 생성하는 과정(S130)2.3. Process of generating second data (S130)
이후, 제1데이터를 제1형태와 다른 제2형태로 변환하여 제2데이터를 생성하는 과정(S130)을 수행한다. 제1데이터는 음향 데이터일 수 있고, 제1형태는 음향 형태일 수 있다. 물론, 제1데이터는 영상 데이터일 수 있고, 제1형태는 영상 형태일 수 있다. 제2형태는 텍스트 형태일 수 있으며, 제2데이터는 텍스트 데이터일 수 있다. 제1데이터가 음향 데이터이고, 제1형태가 음향 형태일 경우, 제1데이터를 제1형태와 다른 제2형태로 변환하여 제2데이터를 생성하는 과정(S130)은, 미리 입력된 음향 인식 모델을 이용하여 음향 데이터를 인식하여 텍스트 형태로 변환하여 변환된 텍스트 데이터를 제2데이터로 생성하는 과정을 포함할 수 있다. 또한, 제1데이터가 영상 데이터이고, 제1형태가 영상 형태일 경우, 제1데이터를 제1형태와 다른 제2형태로 변환하여 제2데이터를 생성하는 과정(S130)은, 미리 입력된 영상 인식 모델을 이용하여 영상 데이터를 인식하여 텍스트 형태로 변환하여 변환된 텍스트 데이터를 제2데이터로 생성하는 과정을 포함할 수 있다.Thereafter, a process of generating second data by converting the first data into a second form different from the first form (S130) is performed. The first data may be sound data, and the first form may be a sound form. Of course, the first data may be image data, and the first form may be an image form. The second form may be a text form, and the second data may be text data. When the first data is sound data and the first form is the sound form, the process of converting the first data into a second form different from the first form to generate second data (S130) is a pre-input sound recognition model. It may include a process of recognizing sound data and converting it into a text form using , and generating the converted text data as second data. In addition, when the first data is image data and the first form is an image form, the process of converting the first data into a second form different from the first form to generate second data (S130) is a pre-input image The method may include recognizing image data using a recognition model, converting the image data into text form, and generating the converted text data as second data.
2.3.A. 음향 데이터를 텍스트 형태로 변환하여 제2데이터로 생성하는 과정2.3.A. Process of converting sound data into text form and generating second data
데이터 변환부(300)로, 음향 데이터를 텍스트 형태로 변환하여 제2데이터로 생성하는 과정에서, 음향 데이터 중 미리 설정된 기준 음량 이상의 음량을 갖는 음향 데이터를 선택할 수 있다. 이때, 미리 설정된 기준 음량은 함정 승무원의 음성과 이를 제외한 노이즈를 구분할 수 있도록 하는 소정 크기 범위의 음량일 수 있다. 즉, 통합통신체계(ICS)를 이용하여 함정 승무원이 통신을 수행할 때, 함정 승무원의 음성과 함께 각종 노이즈가 입력되어 기록될 수 있다. 이때, 노이즈는 장비의 전자구동음, 관제실의 소음, 함정(1)의 진동음 등 다양할 수 있다. 따라서, 음향 데이터 중 기준 음량 이상의 음량을 갖는 음향 데이터를 선택함으로써 함정 승무원의 음성이 기록된 음향 데이터를 선택할 수 있다.In the process of converting the sound data into text form and generating the second data by the
또한, 데이터 변환부(300)에서, 음향 인식 모델을 이용하여, 선택한 음향 데이터 중에서 함정 승무원의 음성에 대응되는 음향 데이터를 식별하고, 음성 인식을 수행하여 음성 인식 텍스트들을 생성할 수 있다. 여기서, 음향 인식 모델은 상용 기술 즉, 공지의 기술을 활용하여 다양한 구성으로 구현될 수 있다. 본 발명의 실시 예에서는 이 구성을 특별히 한정하지 않는다. 마찬가지로, 음성 인식을 수행하여 음성 인식 텍스트들을 생성할 때에도 공지의 기술을 활용하여 다양한 방식으로 음성 인식을 수행하고, 음성 인식 텍스트들을 생성할 수 있다. 한편, 음향 인식 모델의 구성과 음성 인식을 수행하고 음성 인식 텍스트들을 생성하는 방식은 딥러닝과 같은 인공지능 분야에서 널리 알려져 있으므로, 이에 대한 상세한 설명을 생략한다.In addition, the
또한, 데이터 변환부(300)를 이용하여, 음향 데이터로부터 생성된 음성 인식 텍스트들을 순서대로 나열하여 텍스트 데이터를 생성할 수 있다. 이때, 음향 데이터의 재생 시간에 따라, 음향 데이터로부터 생성되는 음성 인식 텍스트들을 순서대로 나열하여 텍스트 데이터를 생성할 수 있다. 이때, 텍스트 데이터는 함정 승무원별로 구분될 수 있도록 생성될 수도 있다. 즉, 함정 승무원이 다수일 경우, 이들의 음성을 구분하여, 함정 승무원별로 구분된 음성 인식 텍스트들을 시간에 따라 순서대로 나열하여 텍스트 데이터를 생성할 수 있다.In addition, text data may be generated by sequentially arranging voice recognition texts generated from sound data using the
2.3.B. 영상 데이터를 텍스트 형태로 변환하여 제2데이터로 생성하는 과정2.3.B. The process of converting image data into text form and generating second data
데이터 변환부(300)로, 영상 데이터를 텍스트 형태로 변환하여 제2데이터로 생성하는 과정에서, 소정의 시간 간격으로 영상 데이터로부터 영상프레임을 선택할 수 있다. 또한, 시간순으로 나열된 영상프레임들 중, 이전 영상프레임과 다음 영상프레임을 대비하였을 때, 영상 변화가 감지되거나, 영상 변화가 두드러진 영상프레임을 선택할 수 있다. 이처럼, 시간을 기준으로 영상프레임의 개수를 줄이거나, 의미를 가지는 영상프레임을 선택함으로써 영상프레임의 개수를 줄여서, 이하의 과정에서 데이터의 처리량을 효과적으로 줄여줄 수 있다.The
또한, 데이터 변환부(300)에서, 영상 인식 모델을 이용하여, 선택한 영상프레임별로, 영상프레임 내에서 객체를 식별하고, 객체 인식을 수행하여 객체 인식 텍스트들을 생성할 수 있다. 여기서, 객체 인식 텍스트는 인식된 객체의 종류를 설명하기 위한 텍스트들일 수 있고, 예컨대 객체의 이름, 객체에 대한 설명, 객체의 개수 등을 표현하는 텍스트들일 수 있다. 또한, 객체 인식 텍스트는 인식된 객체의 종류에 따라 판단되는 영상프레임의 상황을 설명하기 위한 텍스트들일 수도 있다. 예컨대 레이더 정보의 영상 데이터로부터 선택된 영상프레임에서 아군이 아닌 타겟 예컨대 적성의 타겟이 객체로 감지되었을 때, 객체 인식 텍스트는 타겟의 식별코드가 텍스트로 생성될 수도 있고, "적성의 타겟 최초 감지", "교전 개시", "무장채널 1 작동" 등과 같이 영상프레임에 대한 상황을 설명할 수 있는 소정의 문장 형태로 생성될 수도 있다.In addition, the
한편, 음향 인식의 경우와 마찬가지로, 영상 인식 모델은 상용 기술 즉, 공지의 기술을 활용하여 다양한 구성으로 구현될 수 있다. 본 발명의 실시 예에서는 이 구성을 특별히 한정하지 않는다. 또한, 객체 인식을 수행하여 객체 인식 텍스트들을 생성할 때에도 공지의 기술을 활용하여 다양한 방식으로 객체 인식을 수행하고, 객체 인식 텍스트들을 생성할 수 있다. 영상 인식 모델의 구성과 객체 인식을 수행하고 객체 인식 텍스트들을 생성하는 방식은 딥러닝과 같은 인공지능 분야에서 널리 알려져 있으므로, 이에 대한 상세한 설명을 생략한다.Meanwhile, as in the case of sound recognition, the image recognition model may be implemented in various configurations using commercial technologies, that is, known technologies. In the embodiment of the present invention, this configuration is not particularly limited. Also, when object recognition is performed to generate object recognition texts, object recognition may be performed and object recognition texts may be generated in various ways using known technologies. Since the configuration of the image recognition model, the method of performing object recognition, and generating object recognition texts are widely known in the field of artificial intelligence such as deep learning, a detailed description thereof will be omitted.
또한, 데이터 변환부(300)를 이용하여, 영상 데이터로부터 생성된 객체 인식 텍스트들을 순서대로 나열하여 텍스트 데이터를 생성할 수 있다. 이때, 영상 데이터의 재생 시간에 따라, 영상 데이터로부터 생성되는 객체 인식 텍스트들을 순서대로 나열하여 텍스트 데이터를 생성할 수 있다. 한편, 객체 인식 텍스트를 영상 인식 텍스트라고 지칭할 수도 있다.In addition, text data may be generated by sequentially arranging object recognition texts generated from image data using the
2.4. 메타데이터를 생성하는 과정(S140)2.4. Process of generating metadata (S140)
이후, 제2데이터를 이용하여 메타데이터를 생성하는 과정(S140)을 수행한다. 이때, 제2데이터를 이용하여 메타데이터를 생성하는 과정(S140)은, 순서대로 나열된 음성 인식 텍스트들의 의미를 분석하고, 분석된 의미에 따라 상기 순서대로 나열된 음성 인식 텍스트들을 의미를 갖는 최소 단위로 분할하여 이벤트를 생성하는 과정, 및 생성된 이벤트를 시간에 따라 색인하여 메타데이터로 생성하는 과정을 포함할 수 있다. 이 과정들은 메타데이터 생성부(400)에서 수행될 수 있다.Thereafter, a process of generating metadata using the second data (S140) is performed. At this time, in the process of generating metadata using the second data (S140), the meaning of the voice recognition texts listed in order is analyzed, and according to the analyzed meaning, the voice recognition texts listed in the order are divided into minimum units having meaning. It may include a process of generating an event by dividing it, and a process of generating metadata by indexing the generated event according to time. These processes may be performed in the
2.4.A. 이벤트를 생성하는 과정2.4.A. The process of creating an event
이벤트를 생성하는 과정에서는, 순서대로 나열된 음성 인식 텍스트들의 의미를 분석할 수 있다. 예컨대 순서대로 나열된 음성 인식 텍스트들로부터 단어, 어절(word segment), 구(phrase)를 인식할 수 있고, 인식되는 단어, 어절, 구에 대해 의미를 분석할 수 있다. 한편, 의미를 분석하기 위해서 자연어에 대한 방대한 양의 기초 데이터가 메타데이터 생성부(400)에 학습될 수 있다. 물론, 학습되지 않은 새로운 형태의 단어가 있을 경우, 이에 대한 특징을 부여받도록 사용자에게 요청할 수도 있다. 한편, 의미를 분석한 후, 분석된 의미들 간의 연관성을 분석할 수 있고, 그 결과를 토대로, 인식된 단어들로부터 문장을 생성할 수 있고, 나아가 문단을 생성할 수도 있다. 또한, 분석된 의미에 따라 순서대로 나열된 음성 인식 텍스트들을 의미를 갖는 최소 단위로 분할하여 이벤트를 생성할 수 있다. 예컨대 "통제 하나"라는 어절이 인식되면, 그 의미를 분석하여 "호출 명령" 이벤트를 생성할 수 있고, "318노트"라는 어절이 인식되면 "행해 명령" 이벤트를 생성할 수 있다. 물론, "통제 하나"의 어절 그대로 "통제 하나"의 이벤트를 생성할 수도 있다. 마찬가지로, 인식된 어절 그대로를 이벤트로 생성할 수도 있다. 이러한 과정은 예컨대 시맨틱 웹에서 사용되는 방식과 동일 혹은 유사한 방식이 적용될 수 있다. 물론, 음성 인식 텍스트들의 의미를 분석하고, 의미를 갖는 최소 단위로 분할하여 이벤트를 생성하는 방식은 다양할 수 있다.In the process of generating an event, the meaning of voice recognition texts listed in order may be analyzed. For example, words, word segments, and phrases may be recognized from voice recognition texts arranged in order, and the meaning of the recognized words, word segments, and phrases may be analyzed. Meanwhile, in order to analyze the meaning, a vast amount of basic data for natural language may be learned by the
2.4.B. 메타데이터로 생성하는 과정2.4.B. The process of creating metadata
생성된 이벤트를 시간에 따라 색인하여 메타데이터로 생성하는 과정은, 제2데이터를 생성하는 것에 사용된 음향 데이터(혹은, 영상 데이터)에 포함된 시간 정보를 이용하여, 순서대로 나열된 음성 인식 텍스트들마다 해당 음석 인식 텍스트들이 기록된 시간을 색인하여 메타데이터로 생성할 수 있다.The process of indexing generated events according to time and generating metadata includes voice recognition texts arranged in order using time information included in audio data (or video data) used to generate second data. Each time, corresponding speech recognition texts may be indexed and generated as metadata.
2.5. 재생 시점을 선정하고, 선정된 재생 시점부터 상황정보 데이터를 재생하는 과정(S150)2.5. A process of selecting a playback time point and reproducing situation information data from the selected playback time point (S150)
이후, 메타데이터를 기반으로 상황정보 데이터의 재생 시점을 선정하고, 선정된 재생 시점부터 상황정보 데이터를 재생하는 과정(S150)을 수행한다. 이때, 메타데이터를 기반으로 상황정보 데이터의 재생 시점을 선정하고, 선정된 재생 시점부터 상황정보 데이터를 재생하는 과정은, 검색어를 입력받는 과정, 메타데이터 중 검색어와 유사 혹은 동일한 이벤트를 요청 이벤트로 추출하는 과정, 추출된 요청 이벤트에 색인된 시간부터 상황정보 데이터를 재생하는 과정을 포함할 수 있다.Thereafter, a playback time of context information data is selected based on metadata, and a process of reproducing context data from the selected playback time (S150) is performed. At this time, the process of selecting the reproduction time of the context information data based on the metadata and reproducing the context information data from the selected reproduction time is the process of receiving a search word, and an event similar or identical to the search word among the metadata as a request event. It may include a process of extracting, and a process of reproducing context data from the time indexed to the extracted request event.
2.5.A. 검색어를 입력받는 과정2.5.A. The process of entering a search term
검색어를 입력받는 과정에서는, 상황정보 전시부(500)에 구비된 입력 장치를 통하여, 검색어를 입력받을 수 있다. 이때, 검색어는 자연어일 수 있다. 또한, 검색어는 사용자가 함정(1)의 운용상황에 대한 이벤트를 검색하기 위해 생성한 검색어일 수 있다.In the process of inputting a search word, the search word may be input through an input device provided in the context
2.5.B. 메타데이터 중 검색어와 유사 혹은 동일한 이벤트를 요청 이벤트로 추출하는 과정2.5.B. The process of extracting events similar or identical to the search term among metadata as request events
메타데이터 중 검색어와 유사 혹은 동일한 이벤트를 요청 이벤트로 추출하는 과정에서는, 상황정보 전시부(500)가 소정의 알고리즘을 이용하여 메타데이터의 이벤트 목록과 입력받은 검색어를 대비하여, 입력받은 검색어와 유사한 이벤트, 혹은 입력받은 검색어와 동일한 이벤트를 선택하고, 선택한 이벤트를 요청 이벤트로 추출할 수 있다.In the process of extracting an event similar or identical to a search word from among metadata as a request event, the context
2.5.C. 추출된 요청 이벤트에 색인된 시간부터 상황정보 데이터를 재생하는 과정2.5.C. The process of reproducing context data from the time indexed in the extracted request event
추출된 요청 이벤트에 색인된 시간부터 상황정보 데이터를 재생하는 과정에서는, 상황정보 전시부(500)가 추출된 요청 이벤트에 색인된 시간을 확인하고, 확인된 시간부터 상황정보 데이터를 재생하도록 재생 플롯을 생성하고, 생성된 재생 플롯에 따라 상황정보 데이터를 재생할 수 있다. 예컨대 입력된 검색어가 "함정 방위 확인"이고, 그에 따라 추출된 요청 이벤트가 "방위"이면, "방위" 이벤트에 색인된 재생 시간부터 상황정보 데이터를 재생할 수 있다.In the process of reproducing context data from the time indexed to the extracted request event, the context
전술한 바와 같이, 본 발명의 실시 예에 따르면, 상황정보 데이터 중의 영상 데이터 혹은 음향 데이터를 이용하여 시간에 따라 색인된 텍스트 형태의 메타데이터를 생성하고, 이로부터 상황정보 데이터를 재생할 때 재생 시점을 검색하여 검색된 재생 시점부터 즉시 상황정보 데이터를 재생할 수 있다. 이에, 재생을 원하는 이벤트 시점을 검색하여 간편하게 재생할 수 있으므로, 상황정보 데이터를 처음부터 재생하지 않아도 되고, 반복하여 원하는 시점부터 다시 재생시킬 수 있다.As described above, according to an embodiment of the present invention, metadata in the form of text indexed according to time is generated using video data or sound data among context information data, and from this, when context information data is reproduced, reproduction time is determined. Context information data can be reproduced immediately from the searched reproduction point. Accordingly, since an event point in time desired to be reproduced can be retrieved and reproduced easily, the situation information data does not need to be reproduced from the beginning, and can be repeatedly reproduced from a desired point in time.
본 발명의 상기 실시 예는 본 발명의 설명을 위한 것이고, 본 발명의 제한을 위한 것이 아니다. 본 발명의 상기 실시 예에 개시된 구성과 방식은 서로 결합하거나 교차하여 다양한 형태로 조합 및 변형될 것이고, 이에 의한 변형 예들도 본 발명의 범주로 볼 수 있음을 주지해야 한다. 즉, 본 발명은 청구범위 및 이와 균등한 기술적 사상의 범위 내에서 서로 다른 다양한 형태로 구현될 것이며, 본 발명이 해당하는 기술 분야에서의 업자는 본 발명의 기술적 사상의 범위 내에서 다양한 실시 예가 가능함을 이해할 수 있을 것이다.The above embodiments of the present invention are for explanation of the present invention and are not intended to limit the present invention. It should be noted that the configurations and methods disclosed in the above embodiments of the present invention may be combined and modified in various forms by combining or crossing each other, and variations thereof may also be considered within the scope of the present invention. That is, the present invention will be implemented in a variety of different forms within the scope of the claims and equivalent technical ideas, and various embodiments are possible within the scope of the technical idea of the present invention by those skilled in the art to which the present invention pertains. will be able to understand
1: 함정 10: 전투체계
11: 전술지휘체계 12: 센서체계
13: 통신체계 100: 수집부
200: 제1데이터 처리부 300: 데이터 변환부
400: 메타데이터 생성부 500: 상황정보 전시부1: Trap 10: Combat System
11: tactical command system 12: sensor system
13: communication system 100: collection unit
200: first data processing unit 300: data conversion unit
400: metadata generation unit 500: situation information display unit
Claims (13)
상기 상황정보 데이터에서 제1형태를 가지는 제1데이터를 추출하기 위한 제1데이터 처리부;
상기 제1데이터를 상기 제1형태와 다른 제2형태로 변환하여 제2데이터를 생성하기 위한 데이터 변환부;
상기 제2데이터를 이용하여 메타데이터를 생성하기 위한 메타데이터 생성부; 및
상기 상황정보 데이터를 재생할 수 있고, 상기 메타데이터를 기반으로 상기 상황정보 데이터의 재생 시점을 선정할 수 있는 상황정보 전시부;를 포함하고,
상기 메타데이터 생성부는 상기 제2데이터의 의미를 분석하고, 상기 제2데이터를 의미를 갖는 최소 단위로 분할하여 이벤트를 생성하고, 상기 이벤트를 시간에 따라 색인하여 상기 메타데이터로 생성하는 상황정보 운용 장치.a collection unit for collecting context information data from traps;
a first data processing unit for extracting first data having a first form from the context information data;
a data conversion unit configured to generate second data by converting the first data into a second form different from the first form;
a metadata generator for generating metadata using the second data; and
a context information display unit capable of reproducing the context information data and selecting a playback time of the context information data based on the metadata;
The metadata generation unit analyzes the meaning of the second data, divides the second data into meaningful units to generate events, indexes the events according to time, and operates contextual information to generate the metadata. Device.
상기 수집부는 상기 함정의 전투체계와 연결되고, 상기 전투체계에 기록되는 영상(video) 데이터 및 음향(sound) 데이터를 상기 상황정보 데이터로서 수집하며,
상기 제1데이터 처리부는 상기 영상 데이터 및 상기 음향 데이터 중 어느 하나를 선택하여 상기 제1데이터로 추출하는 상황정보 운용 장치.The method of claim 1,
The collection unit is connected to the combat system of the ship and collects video data and sound data recorded in the combat system as the situation information data,
The first data processing unit selects one of the image data and the sound data and extracts it as the first data.
상기 데이터 변환부는 제1데이터 인식 모델을 이용하여 상기 제1데이터를 인식하여 텍스트 형태로 변환하고, 상기 제2데이터로서 텍스트 데이터를 생성하는 상황정보 운용 장치.The method of claim 1,
The data conversion unit recognizes the first data using a first data recognition model, converts the first data into text form, and generates text data as the second data.
상기 상황정보 데이터에서 제1형태를 가지는 제1데이터를 추출하기 위한 제1데이터 처리부;
상기 제1데이터를 상기 제1형태와 다른 제2형태로 변환하여 제2데이터를 생성하기 위한 데이터 변환부;
상기 제2데이터를 이용하여 메타데이터를 생성하기 위한 메타데이터 생성부; 및
상기 상황정보 데이터를 재생할 수 있고, 상기 메타데이터를 기반으로 상기 상황정보 데이터의 재생 시점을 선정할 수 있는 상황정보 전시부;를 포함하고,
상기 상황정보 전시부는 상기 함정의 운용상황에 대한 이벤트를 검색하기 위한 검색어를 입력받고, 상기 메타데이터에 포함된 이벤트들 중 상기 검색어와 매칭되는 이벤트를 요청 이벤트로 추출하고, 상기 요청 이벤트에 색인된 시간부터 상기 상황정보 데이터를 재생하는 상황정보 운용 장치.a collection unit for collecting context information data from traps;
a first data processing unit for extracting first data having a first form from the context information data;
a data conversion unit configured to generate second data by converting the first data into a second form different from the first form;
a metadata generator for generating metadata using the second data; and
a context information display unit capable of reproducing the context information data and selecting a playback time of the context information data based on the metadata;
The situation information display unit receives a search word for searching for an event on the operation status of the trap, extracts an event matching the search word among events included in the metadata as a request event, and indexes the requested event. A context information operating device for reproducing the context information data from time.
상기 상황정보 데이터에서 제1형태를 가지는 제1데이터를 추출하는 과정;
상기 제1데이터를 상기 제1형태와 다른 제2형태로 변환하여 제2데이터를 생성하는 과정;
상기 제2데이터를 이용하여 메타데이터를 생성하는 과정;
상기 메타데이터를 기반으로 상기 상황정보 데이터의 재생 시점을 선정하고, 선정된 재생 시점부터 상기 상황정보 데이터를 재생하는 과정;을 포함하고,
상기 상황정보 데이터를 수집하는 과정은,
상기 함정의 전투체계를 이용하여 상기 함정을 운용하는 과정;
상기 함정의 운용상황을 복수의 형태로 상기 전투체계에 기록하는 과정;
상기 전투체계에 기록된 데이터를 상기 상황정보 데이터로 수집하는 과정;을 포함하는 상황정보 운용 방법.The process of collecting situational information data from traps;
extracting first data having a first shape from the situation information data;
generating second data by converting the first data into a second form different from the first form;
generating metadata using the second data;
Selecting a reproduction time point of the context information data based on the metadata and reproducing the context information data from the selected reproduction time point;
The process of collecting the context information data,
A process of operating the ship using the combat system of the ship;
Recording the operation status of the ship in the combat system in a plurality of forms;
and collecting the data recorded in the combat system as the situation information data.
상기 전투체계에 기록하는 과정은,
상기 전투체계의 하위 체계들 중, 전술지휘체계 및 센서체계에서 입출력되는 전술정보, 레이더 탐지정보, 가시광선 탐지정보 및 적외선 탐지정보를 영상 데이터로 기록하는 과정;
상기 전투체계의 하위 체계들 중, 통신체계에서 입출력되는 통신정보를 음향 데이터로 기록하는 과정;을 포함하는 상황정보 운용 방법.The method of claim 6,
The process of recording in the combat system,
Recording tactical information, radar detection information, visible light detection information, and infrared light detection information input and output from a tactical command system and a sensor system among subsystems of the combat system as image data;
Among the subsystems of the combat system, a process of recording communication information input and output from the communication system as sound data;
상기 제1데이터를 추출하는 과정은,
상기 상황정보 데이터 중 상기 영상 데이터 또는 상기 음향 데이터를 선택하여 상기 제1데이터로 추출하는 과정;을 포함하는 상황정보 운용 방법.The method of claim 8,
The process of extracting the first data,
and selecting the video data or the sound data from among the context information data and extracting the first data.
상기 제2데이터를 생성하는 과정은,
미리 입력된 제1데이터 인식 모델을 이용하여 상기 제1데이터를 인식하여 텍스트 형태로 변환하여 변환된 텍스트 데이터를 상기 제2데이터로 생성하는 과정;을 포함하는 상황정보 운용 방법.The method of any one of claims 6 and 8 to 9,
The process of generating the second data,
and recognizing the first data using a first data recognition model input in advance, converting the first data into text form, and generating the converted text data as the second data.
상기 제1데이터는 음향 데이터를 포함하고, 상기 제1데이터 인식 모델은 음향 인식 모델을 포함하고,
상기 제2데이터로 생성하는 과정은,
상기 음향 데이터 중 미리 설정된 기준 음량 이상의 음량을 갖는 음향 데이터를 선택하는 과정;
상기 음향 인식 모델을 이용하여, 선택한 음향 데이터 중에서 함정 승무원의 음성에 대응되는 음향 데이터를 식별하고, 음성 인식을 수행하여 음성 인식 텍스트들을 생성하는 과정;
생성된 음성 인식 텍스트들을 순서대로 나열하여 텍스트 데이터를 생성하는 과정;을 포함하는 상황정보 운용 방법.The method of claim 10,
The first data includes sound data, the first data recognition model includes a sound recognition model,
The process of generating the second data,
selecting sound data having a volume greater than or equal to a preset reference volume among the sound data;
identifying acoustic data corresponding to a crew member's voice from among the selected acoustic data using the acoustic recognition model, and generating voice-recognized texts by performing voice recognition;
A method of operating contextual information, comprising: generating text data by arranging the generated voice recognition texts in order.
상기 메타데이터를 생성하는 과정은,
순서대로 나열된 음성 인식 텍스트들의 의미를 분석하고, 분석된 의미에 따라 상기 순서대로 나열된 음성 인식 텍스트들을 의미를 갖는 최소 단위로 분할하여 이벤트를 생성하는 과정;
생성된 이벤트를 시간에 따라 색인하여 상기 메타데이터로 생성하는 과정;을 포함하는 상황정보 운용 방법.The method of claim 11,
The process of generating the metadata,
analyzing the meaning of the voice recognition texts listed in order, and generating an event by dividing the voice recognition texts listed in the order into minimum units having meaning according to the analyzed meaning;
A method of managing contextual information that includes indexing generated events according to time and generating the metadata.
상기 상황정보 데이터를 재생하는 과정은,
검색어를 입력받는 과정;
상기 메타데이터 중 상기 검색어와 유사 혹은 동일한 이벤트를 요청 이벤트로 추출하는 과정;
추출된 요청 이벤트에 색인된 시간부터 상기 상황정보 데이터를 재생하는 과정;을 포함하는 상황정보 운용 방법.The method of claim 11,
The process of reproducing the situation information data,
The process of receiving a search term input;
extracting an event similar or identical to the search word from among the metadata as a request event;
and reproducing the context data from the time indexed to the extracted request event.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220182904A KR102567618B1 (en) | 2022-12-23 | 2022-12-23 | Apparatus for operating context information and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220182904A KR102567618B1 (en) | 2022-12-23 | 2022-12-23 | Apparatus for operating context information and method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102567618B1 true KR102567618B1 (en) | 2023-08-17 |
Family
ID=87800105
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220182904A KR102567618B1 (en) | 2022-12-23 | 2022-12-23 | Apparatus for operating context information and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102567618B1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101523261B1 (en) | 2014-02-14 | 2015-05-27 | 국방과학연구소 | The simulator design and interworking method for onboard EO-IR training |
KR101779199B1 (en) | 2017-01-10 | 2017-09-15 | 김경규 | Apparatus for recording security video |
KR20180004182A (en) * | 2015-05-28 | 2018-01-10 | 현대중공업 주식회사 | Method and apparatus for integrated management of ship data |
KR20200132265A (en) * | 2019-05-16 | 2020-11-25 | 김창영 | Buoy monitoring terminal and method based on augmented reality |
KR20210086068A (en) * | 2019-12-31 | 2021-07-08 | 주식회사 포스코아이씨티 | Speech Recognition Model Management System for Training Speech Recognition Model |
KR102298406B1 (en) * | 2020-11-27 | 2021-09-08 | (주)지엠티 | Method and apparatus for providing navigation guidance |
-
2022
- 2022-12-23 KR KR1020220182904A patent/KR102567618B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101523261B1 (en) | 2014-02-14 | 2015-05-27 | 국방과학연구소 | The simulator design and interworking method for onboard EO-IR training |
KR20180004182A (en) * | 2015-05-28 | 2018-01-10 | 현대중공업 주식회사 | Method and apparatus for integrated management of ship data |
KR101779199B1 (en) | 2017-01-10 | 2017-09-15 | 김경규 | Apparatus for recording security video |
KR20200132265A (en) * | 2019-05-16 | 2020-11-25 | 김창영 | Buoy monitoring terminal and method based on augmented reality |
KR20210086068A (en) * | 2019-12-31 | 2021-07-08 | 주식회사 포스코아이씨티 | Speech Recognition Model Management System for Training Speech Recognition Model |
KR102298406B1 (en) * | 2020-11-27 | 2021-09-08 | (주)지엠티 | Method and apparatus for providing navigation guidance |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9542604B2 (en) | Method and apparatus for providing combined-summary in imaging apparatus | |
KR102085908B1 (en) | Content providing server, content providing terminal and content providing method | |
CN108305632A (en) | A kind of the voice abstract forming method and system of meeting | |
KR20120038000A (en) | Method and system for determining the topic of a conversation and obtaining and presenting related content | |
KR20180136265A (en) | Apparatus, method and computer-readable medium for searching and providing sectional video | |
US10978077B1 (en) | Knowledge point mark generation system and method thereof | |
JP2004533756A (en) | Automatic content analysis and display of multimedia presentations | |
CN114465737B (en) | Data processing method and device, computer equipment and storage medium | |
JP2007519987A (en) | Integrated analysis system and method for internal and external audiovisual data | |
US20110153327A1 (en) | Systems and methods for identity matching based on phonetic and edit distance matching | |
US8406606B2 (en) | Playback apparatus and playback method | |
US20190371300A1 (en) | Electronic device and control method | |
CN114996506A (en) | Corpus generation method and device, electronic equipment and computer-readable storage medium | |
KR102567618B1 (en) | Apparatus for operating context information and method thereof | |
CN116508315A (en) | Multimode game video summary | |
US20170098449A1 (en) | Control device for recording system, and recording system | |
US11010562B2 (en) | Visual storyline generation from text story | |
WO2022180860A1 (en) | Video session evaluation terminal, video session evaluation system, and video session evaluation program | |
KR102148021B1 (en) | Information search method and apparatus in incidental images incorporating deep learning scene text detection and recognition | |
KR20200071996A (en) | Language study method using user terminal and central server | |
EP4354887A1 (en) | Artificial intelligence device, and method for operating artificial intelligence device | |
CN112241462B (en) | Knowledge point mark generation system and method thereof | |
WO2022180862A1 (en) | Video session evaluation terminal, video session evaluation system, and video session evaluation program | |
WO2022180853A1 (en) | Video session evaluation terminal, video session evaluation system, and video session evaluation program | |
WO2022180824A1 (en) | Video session evaluation terminal, video session evaluation system, and video session evaluation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |