KR102339782B1 - Apparatus for sharing information and method for sharing information - Google Patents

Apparatus for sharing information and method for sharing information Download PDF

Info

Publication number
KR102339782B1
KR102339782B1 KR1020210014877A KR20210014877A KR102339782B1 KR 102339782 B1 KR102339782 B1 KR 102339782B1 KR 1020210014877 A KR1020210014877 A KR 1020210014877A KR 20210014877 A KR20210014877 A KR 20210014877A KR 102339782 B1 KR102339782 B1 KR 102339782B1
Authority
KR
South Korea
Prior art keywords
target
information
image data
unit
signal
Prior art date
Application number
KR1020210014877A
Other languages
Korean (ko)
Inventor
김세훈
김규목
Original Assignee
한화시스템 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화시스템 주식회사 filed Critical 한화시스템 주식회사
Priority to KR1020210014877A priority Critical patent/KR102339782B1/en
Application granted granted Critical
Publication of KR102339782B1 publication Critical patent/KR102339782B1/en

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41HARMOUR; ARMOURED TURRETS; ARMOURED OR ARMED VEHICLES; MEANS OF ATTACK OR DEFENCE, e.g. CAMOUFLAGE, IN GENERAL
    • F41H11/00Defence installations; Defence devices
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41HARMOUR; ARMOURED TURRETS; ARMOURED OR ARMED VEHICLES; MEANS OF ATTACK OR DEFENCE, e.g. CAMOUFLAGE, IN GENERAL
    • F41H13/00Means of attack or defence not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0635Risk analysis of enterprise or organisation activities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Development Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • Remote Sensing (AREA)
  • Game Theory and Decision Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

The present invention relates to an information providing apparatus and an information sharing method. According to the present invention, the information providing apparatus comprises: a signal receiving unit for receiving a signal transmitted from a target; an information acquisition unit for acquiring information on whether the target is a friend or foe from the signal received by the signal receiving unit using artificial intelligence; and an information sharing unit for sharing information on the target acquired by the information acquisition unit to a plurality of users.

Description

정보 제공 장치 및 정보 공유 방법{Apparatus for sharing information and method for sharing information}Apparatus for sharing information and method for sharing information

본 발명은 정보 제공 장치 및 정보 제공 방법에 관한 것으로, 인공지능을 기반의 학습을 통해 표적을 감지하고, 복수의 사용자에게 표적에 대한 정보를 공유할할 수 있는 정보 제공 장치 및 정보 공유 방법에 관한 것이다.The present invention relates to an information providing apparatus and information providing method, and to an information providing apparatus and information sharing method capable of detecting a target through artificial intelligence-based learning and sharing information about the target to a plurality of users will be.

미래의 전장은 단위 무기체계별 플랫폼 중심의 전장에서 모든 무기체계가 기술적 연결성과 상호 운용성을 통하여 관련 부대 및 요원들이 필요한 정보를 공유하는 네트워크 중심의 작전환경으로 변화하고 있다. 즉, 네트워크를 통하여 전장의 상황을 인식하거나 전장 상황을 공유할 수 있다. 이에, 전장 상황에서 전력력을 극대화할 수 있다. The battlefield of the future is changing from a platform-oriented battlefield for each unit weapon system to a network-oriented operational environment where all weapon systems share necessary information through technical connectivity and interoperability. That is, the battlefield situation can be recognized or the battlefield situation can be shared through the network. Accordingly, it is possible to maximize the power in the battlefield situation.

일반적으로, 네트워크 중심의 작전환경에서, 전장 상황의 감시하기 위한 수단으로 센서노드를 사용하였다. 즉, 센서노드가 수집하는 1차원 정보를 통해 전장 상황을 감시 혹은 정찰할 수 있다. 이를 위해, 센서노드가 전장 상황이 발생될 수 있는 지역에 미리 배치되어, 전장 상황이 발생했을 때 해당 지역의 정보를 수집 및 전송하였다. In general, in a network-centric operational environment, sensor nodes are used as a means to monitor the battlefield situation. In other words, it is possible to monitor or reconnaissance the battlefield situation through the one-dimensional information collected by the sensor node. To this end, sensor nodes were pre-arranged in an area where a battlefield situation could occur, and when a battlefield situation occurred, information about the area was collected and transmitted.

하지만, 네트워크 중심의 작전환경을 수행함에 있어서, 센서노드가 배치되지 않은 지역에서의 전장 상황 정보를 수집하지 못하는 문제가 발생하였다. 또한, 센서노드로 정보를 수집함으로 주변 방해물이 정보 수집을 방해할 경우, 해당 지역의 정보를 원활하게 수집하지 못하는 문제가 발생하였다. 이에 더하여, 센서노드를 통해 수집되는 1차원적 정보만으로는 전력원들 사이에 정보를 원활하게 공유하지 못하는 문제가 있었다. 이에, 센서노드가 설치되지 않은 지역에서도 네트워크 중심의 작전환경을 수행할 수 있고, 전력원들 사이에 정보 공유가 원활할 수 있는 장치 혹은 방법이 필요한 실정이다.However, in performing a network-oriented operational environment, there was a problem in that it was not possible to collect battlefield situation information in an area where a sensor node was not deployed. In addition, since information is collected by sensor nodes, when nearby obstacles interfere with information collection, there is a problem in that information in the relevant area cannot be smoothly collected. In addition, there is a problem in that information cannot be smoothly shared between power sources only with one-dimensional information collected through the sensor node. Accordingly, there is a need for a device or method capable of performing a network-oriented operation environment even in an area where a sensor node is not installed, and enabling smooth information sharing between power sources.

KRKR 10-0660025 10-0660025 B1B1

본 발명은 인공지능으로 표적에 대해 미리 학습하여 전장 상황에 위치한 표적을 감지 및 식별할 수 있는 정보 제공 장치 및 정보 공유 방법에 관한 것이다. The present invention relates to an information providing apparatus and information sharing method capable of detecting and identifying a target located in a battlefield situation by learning about a target in advance with artificial intelligence.

본 발명은 전장 상황의 표적에 대한 정보를 복수의 사용자들에게 공유할 수 있는 정보 제공 장치 및 정보 공유 방법에 관한 것이다.The present invention relates to an information providing apparatus and an information sharing method capable of sharing information on a target in a battlefield situation to a plurality of users.

본 발명은 표적으로부터 전달되는 신호를 수신하기 위한 신호 수신부; 인공지능을 이용하여 상기 신호 수신부에서 수신된 신호로부터 표적의 피아 정보를 획득하기 위한 정보 획득부; 및 상기 정보 획득부가 획득한 표적에 대한 정보를 복수의 사용자에게 공유하기 위한 정보 공유부;를 포함한다.The present invention is a signal receiving unit for receiving a signal transmitted from the target; an information acquisition unit for acquiring information about a peer of a target from a signal received by the signal reception unit using artificial intelligence; and an information sharing unit for sharing the information on the target acquired by the information acquisition unit to a plurality of users.

본 발명은 표적으로부터 전달되는 신호를 수신하기 위한 신호 수신부; 인공지능을 이용하여 상기 표적의 피아 정보에 관하여 미리 학습하고, 학습된 정보를 통해 상기 신호 수신부에서 수신된 신호로부터 표적의 피아 정보를 획득하기 위한 정보 획득부; 및 상기 정보 획득부가 획득한 표적에 대한 정보를 복수의 사용자에게 공유하기 위한 정보 공유부;를 포함한다.The present invention is a signal receiving unit for receiving a signal transmitted from the target; an information acquiring unit for learning in advance about the peer information of the target using artificial intelligence, and acquiring information about the peer of the target from the signal received by the signal receiving unit through the learned information; and an information sharing unit for sharing the information on the target acquired by the information acquisition unit to a plurality of users.

상기 정보 획득부는, 상기 표적이 적군 표적인지 아군인지 여부를 감지할 수 있고, 상기 표적이 적군 표적일 경우, 상기 적군 표적의 종류을 판단할 수 있으며, 상기 정보 공유부는, 상기 정보 획득부의 정보를 이용하여, 상기 표적으로부터 전달된 신호를 수신하지 못한 미수신 사용자에게 상기 표적의 정보를 공유한다.The information obtaining unit may detect whether the target is an enemy target or a friendly target, and when the target is an enemy target, determine the type of the enemy target, and the information sharing unit may use the information of the information obtaining unit Thus, information on the target is shared with non-received users who have not received the signal transmitted from the target.

상기 정보 획득부는, 인공지능 기반의 심층 신경망을 이용하여 저장된 이미지데이터 및 상기 신호 수신부에서 수신된 신호로부터 변환된 이미지데이터 집합을 저장 및 추출하고, 상기 심층 신경망은, 중첩 과정과 통합 과정을 통해 상기 저장된 이미지데이터 및 상기 변환된 이미지데이터의 특징을 추출하여 분류한다.The information acquisition unit stores and extracts the image data stored using the artificial intelligence-based deep neural network and the image data set converted from the signal received by the signal receiving unit, and the deep neural network, through the superposition process and the integration process, The stored image data and features of the converted image data are extracted and classified.

상기 정보 획득부는, 설정된 적군 표적에 대한 상기 저장된 이미지데이터를 미리 저장하거나 혹은 상기 변환된 이미지데이터를 미리 저장하기 위한 이미지저장부; 상기 신호 수신부로부터 수신된 신호를 이미지데이터로 변환하기 위한 이미지변환부; 및 상기 이미지저장부에서 상기 저장된 이미지데이터를 추출하고, 상기 변환된 이미지데이터와 매칭하여 적군 표적의 종류를 식별하기 위한 이미지식별부;를 포함한다.The information acquisition unit may include: an image storage unit configured to pre-store the stored image data for a set enemy target or to pre-store the converted image data; an image conversion unit for converting the signal received from the signal receiving unit into image data; and an image identification unit for extracting the stored image data from the image storage unit and matching the converted image data to identify a type of an enemy target.

상기 이미지저장부는, 상기 아군에 대한 상기 변환이미지데이터의 이미지와 상기 적군 표적에 대한 상기 변환된 이미지데이터의 이미지를 각각 나누어 저장한다.The image storage unit separately stores the image of the converted image data for the friendly team and the converted image data image for the enemy target.

상기 이미지식별부는, 아군과 상기 적군 표적에 관한 각각의 상기 저장된 이미지데이터의 이미지와 상기 변환된 이미지데이터의 이미지를 비교하여 표적의 피아 정보 및 종류를 판단한다.The image identification unit compares the images of each of the stored image data for the friendly and the enemy targets with the images of the converted image data to determine the target's peer information and types.

상기 정보 공유부는, 상기 미수신 사용자 중 우선순위를 설정하고, 설정된 우선순위에 따라 상기 표적의 정보를 공유한다.The information sharing unit sets a priority among the non-received users, and shares the target information according to the set priority.

상기 정보 공유부는, 상기 복수의 사용자 중 미수신 사용자를 판단하기 위한 수신판단부; 상기 표적을 감지한 사용자를 기준으로 상기 미수신 사용자들 각각의 위치를 측정하기 위한 아군위치측정부; 및 상기 미수신 사용자들의 통신망에 우선순위를 설정하고, 데이터링크를 통해 정보를 전송하는 아군전송부;를 포함한다.The information sharing unit may include: a reception determination unit for determining a non-received user among the plurality of users; a friendly position measuring unit for measuring the positions of each of the non-received users based on the user who sensed the target; and a friendly transmission unit that sets priorities in the communication network of the non-received users and transmits information through a data link.

상기 신호 수신부는, 상기 복수의 사용자 각각의 전장 상황에서 적외선 신호를 수신하기 위한 광학측정부; 상기 광학측정부의 정보를 이미지데이터로 변환하여 상기 정보 획득부로 송신하는 송신부;를 포함한다.The signal receiving unit may include: an optical measuring unit for receiving an infrared signal in a battlefield situation of each of the plurality of users; and a transmitting unit that converts the information of the optical measuring unit into image data and transmits the converted information to the information obtaining unit.

본 발명은 복수의 사용자에게 각각 제공되어, 표적에 대한 정보를 제공하는 방법으로서, 일 사용자가 표적으로부터 전달된 신호를 수신하는 과정; 인공지능을 기반으로, 실시간으로 획득된 신호를 이용하여, 상기 표적의 피아 정보에 대한 정보를 획득하는 과정; 및 상기 표적에 관한 정보를 복수의 사용자에게 공유하는 과정;을 포함한다.The present invention provides a method for providing information on a target by being provided to a plurality of users, respectively, the process comprising: one user receiving a signal transmitted from the target; a process of acquiring information about the peer information of the target using a signal acquired in real time based on artificial intelligence; and a process of sharing information about the target to a plurality of users.

상기 표적에 대한 정보를 획득하는 과정은, 기 설정된 적군 표적의 정보 및 획득된 신호를 이용하여 적군 표적에 관한 정보를 미리 저장하는 과정; 인공지능 기반의 심층 신경망을 기반으로, 적군 표적에 대한 미리 저장된 이미지데이터와 수신된 신호에서 변환된 이미지데이터를 비교하는 과정; 및 상기 신호의 획득방향을 이용하여 상기 일 사용자를 기준으로 적군 표적의 상대적인 위치를 판단하는 과정;을 포함한다.The process of acquiring the information on the target may include: storing information on the enemy target in advance using preset information on the enemy target and the acquired signal; A process of comparing pre-stored image data for an enemy target with image data converted from a received signal based on an artificial intelligence-based deep neural network; and determining the relative position of the enemy target with respect to the one user by using the signal acquisition direction.

상기 저저장된 이미지데이터와 수신된 신호에서 변환된 이미지데이터를 비교하는 과정은, 수신된 신호를 상기 변환된 이미지데이터로 변환하는 과정; 및 상기 변환된 이미지데이터와 상기 저장된 이미지데이터를 서로 매칭시키는 과정; 매칭된 이미지데이터에 해당하는 적군 표적의 종류을 판단하는 과정;을 포함한다.The process of comparing the stored image data and the image data converted from the received signal may include: converting the received signal into the converted image data; and matching the converted image data with the stored image data. and determining the type of the enemy target corresponding to the matched image data.

상기 적군 표적의 종류을 판단하는 과정은, 상기 저장된 이미지데이터에서 상기 표적에 대한 이미지를 추출하는 과정; 및 추출된 이미지에 해당하는 적군 표적의 종류을 대응시키는 과정;을 포함한다.The determining of the type of the enemy target may include: extracting an image of the target from the stored image data; and a process of matching the type of the enemy target corresponding to the extracted image.

상기 표적에 관한 정보를 복수의 사용자에게 공유하는 과정은, 상기 복수의 사용자 중 우선순위를 설정하고, 설정된 우선순위에 따라 상기 적군 표적의 종류에 관한 정보를 순차적으로 공유한다.In the process of sharing the information on the target to a plurality of users, a priority is set among the plurality of users, and information on the type of the enemy target is sequentially shared according to the set priority.

상기 표적에 관한 정보를 상기 일 사용자에게 전시하는 과정;을 더 포함하고, 상기 표적에 관한 정보를 상기 일 사용자에게 전시하는 과정은, 상기 일 사용자에게 표적의 위치 및 상기 표적의 종류를 이미지데이터 및 텍스트데이터로 전시하는 과정;을 포함한다.The process of displaying the information on the target to the one user; further comprising, the process of displaying the information on the target to the one user includes, to the one user, the location of the target and the type of the target image data and This includes the process of displaying text data.

본 발명의 실시 예에 따르면, 인공지능을 기반으로 아군 및 적군 표적에 대해 미리 학습하여 전장 상황에서의 표적을 감지 및 식별할 수 있다.According to an embodiment of the present invention, it is possible to detect and identify a target in a battlefield situation by learning in advance about friendly and enemy targets based on artificial intelligence.

또한, 전장 상황에 위치한 복수의 사용자 중 일 사용자의 시선이 향하는 가시영역 및 가시영역 이외의 영역에서 자동으로 표적에 대한 정보를 획득할 수 있다. In addition, information on a target may be automatically acquired in a visible region to which one user's gaze is directed and a region other than the visible region among a plurality of users located in the battlefield situation.

또한, 획득된 표적에 대한 정보를 일 사용자 및 다른 사용자들에게 전시할 수 있다. 이에, 전장 상황에 위치한 표적에 대한 정보를 효과적으로 공유할 수 있다. In addition, information on the acquired target may be displayed to one user and other users. Accordingly, information on a target located in a battlefield situation can be effectively shared.

또한, 획득된 표적에 대한 정보를 이미지데이터 혹은 텍스트데이터로 전시하여 복수의 사용자들이 효과적으로 표적에 대한 정보를 파악할 수 있다.In addition, by displaying the acquired information on the target as image data or text data, a plurality of users can effectively grasp information on the target.

도 1은 본 발명의 실시 예에 따른 정보 제공 장치와 사용자의 관계를 도시한 도면.
도 2는 본 발명의 실시 예에 따른 정보 제공 장치의 구조를 도시한 도면.
도 3은 전장 상황에서 표적의 정보를 획득하는 모습을 도시한 도면.
도 4는 표적의 정보를 식별하고 정보를 공유하는 모습을 나타내는 도면.
도 5는 인공지능으로 표적의 정보를 학습하는 모습을 나타내는 도면.
도 6은 본 발명의 실시 예에 따른 정보 공유 방법을 나타내는 플로우차트.
1 is a diagram illustrating a relationship between an information providing apparatus and a user according to an embodiment of the present invention.
2 is a diagram illustrating a structure of an information providing apparatus according to an embodiment of the present invention.
3 is a diagram illustrating a state in which target information is acquired in a battlefield situation.
4 is a view showing a state of identifying information on a target and sharing information.
5 is a diagram illustrating a state in which information on a target is learned by artificial intelligence.
6 is a flowchart illustrating an information sharing method according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 실시 예를 더욱 상세히 설명하기로 한다. 그러나 본 발명은 이하에서 개시되는 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하며, 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 발명을 상세하게 설명하기 위해 도면은 과장될 수 있고, 도면상에서 동일 부호는 동일한 요소를 지칭한다.Hereinafter, embodiments of the present invention will be described in more detail with reference to the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and the scope of the invention to those of ordinary skill in the art completely It is provided to inform you. In order to explain the invention in detail, the drawings may be exaggerated, and like reference numerals refer to like elements in the drawings.

도 1은 본 발명의 실시 예에 따른 정보 제공 장치와 사용자의 관계를 도시한 도면이고, 도 2는 본 발명의 실시 예에 따른 정보 제공 장치의 구조를 도시한 도면이다.1 is a diagram illustrating a relationship between an information providing apparatus and a user according to an embodiment of the present invention, and FIG. 2 is a diagram illustrating a structure of an information providing apparatus according to an embodiment of the present invention.

본 발명의 실시 예에 따른 정보 제공 장치(100)는 표적(P)으로부터 전달되는 신호를 수신하기 위한 신호 수신부(110), 인공지능을 이용하여 상기 신호 수신부에서 수신된 신호로부터 표적의 피아 정보를 획득하기 위한 정보 획득부(120) 및 정보 획득부(120)가 획득한 표적에 대한 정보를 복수의 사용자(사용자1,사용자2,사용자3,사용자4)에게 공유하기 위한 정보 공유부(130)를 포함할 수 있다. The information providing apparatus 100 according to an embodiment of the present invention uses the signal receiving unit 110 for receiving a signal transmitted from the target P, and artificial intelligence to receive information about the target peer from the signal received from the signal receiving unit. The information acquisition unit 120 for acquiring and the information sharing unit 130 for sharing the information on the target acquired by the information acquisition unit 120 to a plurality of users (User 1, User 2, User 3, User 4) may include

복수의 사용자에게 제공되어 전장 상황의 정보를 공유하는 장치로서, 전장 상황의 정보를 획득하는 신호 수신부(110), 인공지능을 기반으로 표적에 대해 미리 학습하며 학습된 정보를 이용하여 표적을 감지하고, 감지한 표적의 피아 정보를 식별하기 위한 정보 획득부(120) 및 정보 획득부(120)의 식별 결과를 데이터링크를 통해 복수의 사용자에게 공유하는 정보 공유부(130)를 포함할 수 있다. 또한, 정보 제공 장치(100)는 표적에 대한 정보를 이미지데이터 혹은 텍스트데이터로 변환하여 정보를 획득한 사용자(예컨데, 사용자2) 및 복수의 사용자(사용자1,사용자2,사용자3,사용자4)에게 전시하는 디스플레이부(140)를 더 포함할 수 있다. A device that is provided to a plurality of users to share information on the battlefield situation, the signal receiver 110 for acquiring information on the battlefield situation, learns in advance about the target based on artificial intelligence, detects the target using the learned information, , the information acquisition unit 120 for identifying the peer information of the detected target, and the information sharing unit 130 for sharing the identification result of the information acquisition unit 120 to a plurality of users through a data link. In addition, the information providing apparatus 100 converts information about the target into image data or text data to obtain information by a user (eg, user 2) and a plurality of users (user 1, user 2, user 3, user 4) It may further include a display unit 140 to display to.

또한, 정보 제공 장치(100)는 판단된 적군 표적(P)에 대한 정보를 이미지데이터 혹은 텍스트데이터로 변환하여 신호를 획득한 일 사용자(사용자2)에게 전시하는 디스플레이부(140)를 더 포함할 수도 있다. In addition, the information providing apparatus 100 may further include a display unit 140 that converts information on the determined enemy target P into image data or text data and displays it to a user (user 2) who obtains a signal. may be

한편, 상술한 적군 표적(P)은 사용자가 인식할 수 있는 대상체, 예컨데 군용차 혹은 탱크일 수 있다.Meanwhile, the aforementioned enemy target P may be an object recognizable by a user, for example, a military vehicle or a tank.

한편, 정보 제공 장치(100)는 복수의 사용자(사용자1,사용자2,사용자3,사용자4)에게 각각 제공될 수 있다. 즉, 복수의 사용자가 각각 신호 수신부(110), 정보 획득부(120), 정보 공유부(130) 및 디스플레이부(140)를 가질 수 있다. 또는, 신호 수신부(110), 디스플레이부(140)만 복수의 사용자(사용자1,사용자2,사용자3,사용자4)에게 각각 제공되고, 정보 획득부(120) 및 정보 공유부(130)가 중앙 통제시스템으로 마련될 수도 있다. 즉, 복수의 사용자가 정보 획득부(120) 및 정보 공유부(130)를 공유할 수 있다. 본 발명의 실시 예에서는 신호 수신부(110), 정보 획득부(120), 정보 공유부(130) 및 디스플레이부(140)가 복수의 사용자(사용자1,사용자2,사용자3,사용자4)에게 각각 제공되는 경우를 예시적으로 설명한다.Meanwhile, the information providing apparatus 100 may be provided to a plurality of users (User 1 , User 2 , User 3 , and User 4 ), respectively. That is, a plurality of users may each have the signal receiving unit 110 , the information obtaining unit 120 , the information sharing unit 130 , and the display unit 140 . Alternatively, only the signal receiving unit 110 and the display unit 140 are provided to a plurality of users (User 1, User 2, User 3, and User 4), respectively, and the information obtaining unit 120 and the information sharing unit 130 are centrally located. It can also be provided as a control system. That is, a plurality of users may share the information obtaining unit 120 and the information sharing unit 130 . In an embodiment of the present invention, the signal receiving unit 110, the information obtaining unit 120, the information sharing unit 130, and the display unit 140 are provided to a plurality of users (User 1, User 2, User 3, User 4), respectively. A case in which it is provided will be described as an example.

도 1 및 도 2를 참조하면, 신호 수신부(110)는 전장 상황에 관한 신호를 획득할 수 있다. 즉, 신호 수신부(110)는 전장 상황에서 적군 표적(P)에 대한 정보가 담긴 신호를 획득할 수 있다. 신호 수신부(110)는 광학측정부(111) 및 송신부(114)를 포함할 수 있다. 즉, 신호 수신부(110)는 광학측정부(111)를 통해 사용자의 시선이 향하는 가시 영역의 실제 영상을 촬영하여 신호를 획득하므로 적군 표적(P)의 존재 여부 및 위치 정보를 획득할 수 있다.1 and 2 , the signal receiver 110 may acquire a signal related to a battlefield situation. That is, the signal receiver 110 may acquire a signal containing information about the enemy target P in a battlefield situation. The signal receiving unit 110 may include an optical measuring unit 111 and a transmitting unit 114 . That is, the signal receiving unit 110 acquires a signal by capturing an actual image of the visible region to which the user's gaze is directed through the optical measuring unit 111 , so that it is possible to obtain information about the presence or location of the enemy target P.

하기에서, 복수의 사용자 중 적군 표적(P)에 관한 신호를 획득한 사용자를 감지 사용자(사용자2)라 하고, 적군 표적(P)에 관한 신호를 획득하지 못한 사용자를 미수신 사용자(사용자1,사용자3,사용자4)라 한다. 즉, 감지 사용자는 가시 영역 내에 적군 표적(P)이 보이거나, 혹은 가시 영역 내에 적군 표적(P)이 보이지는 않지만 신호 수신부(110)를 통해 적군 표적(P)의 존재 여부 및 위치의 정보엔 관한 신호를 획득한 사용자일 수 있다. 반면, 미수신 사용자는 가시 영역 내에 적군 표적(P)이 존재하지 않고, 적군 표적(P)에 관한 신호를 획득하지 못한 사용자일 수 있다. Hereinafter, a user who has obtained a signal regarding the enemy target P among a plurality of users is referred to as a sensing user (user 2), and a user who has not obtained a signal regarding the enemy target P is referred to as a non-received user (user 1, user). 3, User 4). That is, the sensing user sees the enemy target P in the visible area, or does not see the enemy target P in the visible area, but through the signal receiving unit 110, information on the presence and location of the enemy target P It may be a user who has obtained a signal related to the On the other hand, the non-received user may be a user in which the enemy target P does not exist in the visible region and does not acquire a signal related to the enemy target P.

보다 구체적으로, 광학측정부(111)는 사용자의 시선이 향하는 가시 영역의 실제 영상을 촬영하여 적군 표적(P)에 관한 신호를 획득할 수 있다. 즉, 광학측정부(111)는 시각화된 신호를 획득할 수 있다. 여기서, 가시 영역은 각각의 사용자의 시선이 향하는 진북방향을 기준으로 사용자가 눈으로 확인할 수 있는 영역일 수 있다. 즉, 가시 영역은 사용자를 기준으로 진북방향을 따라서 방사형으로 확장되는 소정의 공간일 수 있다. 한편, 하기에서는 사용자의 시선이 향하는 방향을 진북방향이라고 한다. 이에, 광학측정부(111)를 통해 사용자가 실제 영상을 통해 적군 표적(P)의 존재 여부 및 위치 정보를 획득할 수 있다.More specifically, the optical measurement unit 111 may acquire a signal regarding the enemy target P by photographing an actual image of the visible region toward which the user's gaze is directed. That is, the optical measurement unit 111 may acquire a visualized signal. Here, the visible area may be an area that the user can see with his or her eyes based on the true north direction to which each user's gaze is directed. That is, the visible area may be a predetermined space radially extending along the true north direction with respect to the user. Meanwhile, in the following description, a direction in which the user's gaze is directed is referred to as a true north direction. Accordingly, through the optical measurement unit 111, the user can acquire the presence or absence of the enemy target P and the location information through the actual image.

또한, 신호 수신부(110)는 전자기측정부(112) 및 음파측정부(113)를 더 포함할 수 있다. 또한, 신호 수신부(110)는 전자기측정부(112) 및 음파측정부(113)를 통해 가시 영역 이외의 영역을 감지하여 적군 표적(P)의 신호를 획득하므로, 적군 표적(P)의 존재 여부 및 위치 정보를 획득할 수 있다.In addition, the signal receiving unit 110 may further include an electromagnetic measuring unit 112 and a sound wave measuring unit 113 . In addition, since the signal receiver 110 detects a region other than the visible region through the electromagnetic measurement unit 112 and the sound wave measurement unit 113 to obtain a signal of the enemy target P, the presence of the enemy target P and location information.

전자기측정부(112)는 전파의 직진성을 통해 적군 표적(P)에 관한 신호를 획득할 수 있다. 즉, 전자기측정부(112)는 전자기화된 신호를 획득할 수 있다. 예를 들어, 전자기측정부(112)는 전파를 주기적으로 방출하고, 분출된 전파가 반사된 반사파를 수신한 시각까지의 시간을 측정하여 적군 표적(P)의 존재 여부 및 적군 표적의 방향과 거리를 측정할 수 있다. 예컨데, 전자기측정부(112)는 레이더를 포함할 수 있다. 이에, 전자기측정부(112)를 통해 사용자가 가시 영역 이외의 영역에서 적군 표적(P)의 정보를 획득할 수 있다. 즉, 특정 영역만 감시하는 것이 아닌, 가시 영역의 인근 지역에 대한 정보를 획득하여 사용자에게 적합한 정보를 제공할 수 있다.The electromagnetic measurement unit 112 may acquire a signal regarding the enemy target P through the straightness of the radio wave. That is, the electromagnetic measurement unit 112 may acquire an electromagnetic signal. For example, the electromagnetic measuring unit 112 periodically emits radio waves and measures the time until the time when the ejected radio waves receive the reflected reflected wave to determine the presence of the enemy target P and the direction and distance of the enemy target. can be measured. For example, the electromagnetic measurement unit 112 may include a radar. Accordingly, the user may acquire information on the enemy target P in a region other than the visible region through the electromagnetic measurement unit 112 . That is, it is possible to provide suitable information to the user by acquiring information on a nearby area of the visible area, rather than monitoring only a specific area.

음파측정부(113)는 초음파를 방출하여 적군 표적(P)에 관한 신호를 획득할 수 있다. 즉, 음파측정부(113)는 청각화된 신호를 획득할 수 있다. 예를 들어, 음파측정부(113)는 고주파 음의 진동을 만들어내고, 그 울림이 포착되는 원리로 적군 표적(P)의 정보를 획득할 수 있다. 예컨데, 음파측정부(113)는 소나센서를 포함할 수 있다. 이에, 음파측정부(113)를 통해 사용자가 가시 영역 이외의 영역에서 적군 표적(P)의 정보를 획득할 수 있다. The sound wave measurement unit 113 may acquire a signal regarding the enemy target P by emitting ultrasonic waves. That is, the sound wave measurement unit 113 may obtain an audio signal. For example, the sound wave measurement unit 113 may generate high-frequency sound vibrations and acquire information on the enemy target P based on a principle in which the resonance is captured. For example, the sound wave measurement unit 113 may include a sonar sensor. Accordingly, the user may acquire information on the enemy target P in an area other than the visible area through the sound wave measurement unit 113 .

송신부(114)는 광학측정부(111), 전자기측정부(112), 음파측정부(113)에 각각 연결되며, 광학측정부(111), 전자기측정부(112), 음파측정부(113)를 통해 획득된 신호를 정보 획득부(120)로 전송할 수 있다. 한편, 송신부(114)는 획득된 신호를 이미지데이터로 변환하지 않고 정보 획득부(120)로 전송하거나, 혹은 획득된 신호를 이미지데이터로 변환한 후 정보 획득부(120)로 전송할 수 있다. 하기에서는, 송신부(114)가 획득된 신호를 이미지데이터로 변환하지 않고 정보 획득부(120)로 전송하는 경우를 예시적으로 설명한다. The transmitter 114 is connected to the optical measurement unit 111, the electromagnetic measurement unit 112, and the sound wave measurement unit 113, respectively, and the optical measurement unit 111, the electromagnetic measurement unit 112, and the sound wave measurement unit 113. A signal obtained through , may be transmitted to the information obtaining unit 120 . Meanwhile, the transmitter 114 may transmit the acquired signal to the information acquisition unit 120 without converting it into image data, or may convert the acquired signal into image data and then transmit it to the information acquisition unit 120 . Hereinafter, a case in which the transmitter 114 transmits the acquired signal to the information acquirer 120 without converting it into image data will be exemplarily described.

한편, 신호 수신부(110)는 복수의 사용자의 상태 정보를 획득할 수 있는 보조 정보획득기(미도시)를 더 포함할 수 있다. 상술한 바와 같이, 보조 정보획득기는 복수의 사용자(사용자1,사용자2,사용자3,사용자4)에게 각각 제공되며, 서로 네트워크 통신망 상으로 연결될 수 있다. 예를 들어, 보조 정보획득기는 사물인터넷(Iot : Internet of things)를 이용하여, 복수의 사용자(사용자1,사용자2,사용자3,사용자4)의 상태 정보를 획득할 수 있다. 여기서, 보조 정보획득기는 복수의 사용자 각각의 병기 유무, 탄약 보유량, 병기의 구동 상태에 대한 정보를 사물인터넷 방식을 통해 전력데이터로 변환하고, 변환된 전력데이터를 설정된 구간 별로 구분할 수 있다. 여기서, 보조 정보획득기는 복수의 사용자들 각각의 전력데이터를 예컨데, 1등급 내지 4등급으로 나누어 구분지을 수 있다. 이에, 보조 정보획득기가 복수의 사용자 각각의 전력 정보를 구간별로 구분짓고 각각의 전력데이터를 획득할 수 있다. Meanwhile, the signal receiver 110 may further include an auxiliary information acquirer (not shown) capable of acquiring status information of a plurality of users. As described above, the auxiliary information obtainer is provided to a plurality of users (User 1, User 2, User 3, User 4), respectively, and may be connected to each other over a network communication network. For example, the auxiliary information obtainer may obtain status information of a plurality of users (User 1, User 2, User 3, and User 4) by using the Internet of Things (Iot). Here, the auxiliary information acquirer converts information on the presence or absence of each of the plurality of users, the amount of ammunition, and the driving state of the weapon into power data through the Internet of Things (IoT) method, and can classify the converted power data for each set section. Here, the auxiliary information acquirer may divide the power data of each of the plurality of users into, for example, grades 1 to 4 and classify them. Accordingly, the auxiliary information obtainer may divide the power information of each of the plurality of users for each section and obtain each power data.

도 3은 전장 상황에서 표적의 정보를 획득하는 모습을 도시한 도면이고, 도 4는 표적의 정보를 식별하고 정보를 공유하는 모습을 나타내는 도면이고, 도 5는 인공지능으로 표적의 정보를 학습하는 모습을 나타내는 도면이다. 3 is a view showing a state of acquiring information on a target in a battlefield situation, FIG. 4 is a diagram showing a state of identifying information on a target and sharing information, and FIG. 5 is a diagram illustrating information on a target with artificial intelligence It is a drawing showing the appearance.

도 1 내지 도 5를 참조하면, 정보 획득부(120)는 인공지능을 기반으로 적군 표적(P) 및 아군에 대해 미리 학습하고, 학습된 정보를 이용하여 적군 표적(P)을 감지하며, 감지된 적군 표적(P)의 피아를 식별할 수 있다. 여기서, 적군 표적(P)의 피아는 적군 표적(P)의 신원이 아군인지 혹은 적군인지에 관한 것일 수 있다. 1 to 5 , the information acquisition unit 120 learns in advance about the enemy target P and the ally based on artificial intelligence, and detects the enemy target P using the learned information, and detects It is possible to identify the enemy of the enemy target (P). Here, the peer of the enemy target P may relate to whether the identity of the enemy target P is a friend or an enemy.

도 5를 참조하면, 정보 획득부(120)는 인공지능 기반의 심층 신경망을 이용하여, 이미지데이터를 집합화하고, 집화한 이미지데이터를 저장 및 추출하여 학습할 수 있다 또한, 정보 획득부(120)는 적군 표적(P)을 감지하여 적군 표적(P)에 대한 피아를 판단할 수 있다. Referring to FIG. 5 , the information acquisition unit 120 can learn by collecting image data and storing and extracting the collected image data using an artificial intelligence-based deep neural network. In addition, the information acquisition unit 120 ) can detect the enemy target (P) to determine the enemy to the enemy target (P).

여기서, 인공지능은 이미지데이터를 군집화하거나 분류하는 딥러닝을 포함할 수 있다. 또한, 심층 신경망은 중첩 과정과 통합 과정을 통해 이미지데이터의 특징을 추출하고 특징들의 패턴을 학습하는 콘볼루션 신경망을 포함할 수 있다. 이를 위해, 정보 획득부(120)는 이미지저장부(121), 이미지변환부(122), 이미지식별부(123) 및 이미지판별부(124)를 포함할 수 있다. Here, artificial intelligence may include deep learning to cluster or classify image data. In addition, the deep neural network may include a convolutional neural network that extracts features of image data and learns patterns of features through an overlapping process and an integration process. To this end, the information acquisition unit 120 may include an image storage unit 121 , an image conversion unit 122 , an image identification unit 123 , and an image identification unit 124 .

이미지저장부(121)는 기 설정된 적군 표적(P)의 정보에 대한 이미지데이터를 미리 저장하거나, 혹은 이미지변환부(122)를 통해 신호가 이미지데이터로 변환된 것을 미리 저장할 수 있다. 즉, 이미지저장부(121)는 미리 적군 표적(P)에 관한 이미지데이터를 통해 적군 표적(P)에 대한 일반적인 형상 및 구조를 알고 있을 수 있다. The image storage unit 121 may pre-store image data for information of the enemy target P, or may store in advance a signal converted into image data through the image conversion unit 122 . That is, the image storage unit 121 may know in advance the general shape and structure of the enemy target P through image data regarding the enemy target P.

또한, 이미지저장부(121)는 신호 수신부(110)에서 실시간으로 송신되어 이미지변환부(122)를 통해 신호가 이미지데이터로 변환된 이미지데이터를 추가로 저장할 수 있다. 즉, 기 설정된 적군 표적(P)에 대한 이미지데이터에 더하여 추가로 부유평 표적(P)에 대한 이미지데이터를 업데이트하여 저장할 수 있다.In addition, the image storage unit 121 may additionally store image data transmitted in real time from the signal receiving unit 110 , in which the signal is converted into image data through the image converting unit 122 . That is, in addition to the preset image data for the enemy target P, the image data for the floating target P may be updated and stored.

이에 더하여, 이미지저장부(121)는 이미지식별부(123)를 통해 적군 표적(P)에 대한 식별이 끝난 후, 식별 과정에서 사용한 이미지데이터를 추가로 저장할 수 있다. 즉, 식별 과정에서 사용한 이미지데이터를 이용하여 식별과정이 끝난 후 학습할 수 있다. 따라서, 이미지저장부(121)는 신호 수신부(110)에서 전송되는 이미지데이터를 통해 적군 표적에 대한 더 명확한 이미지데이터를 갖을 수 있다.In addition, the image storage unit 121 may additionally store image data used in the identification process after the identification of the enemy target P through the image identification unit 123 is finished. That is, the image data used in the identification process can be used to learn after the identification process is completed. Accordingly, the image storage unit 121 may have clearer image data of the enemy target through the image data transmitted from the signal receiving unit 110 .

한편, 이미지저장부(121)는 아군에 대한 이미지데이터를 저장하면서, 적군 표적(P)의 이미지데이터에 이미지를 포함시켜 저장할 수 있다. 즉, 이미지저장부(121)는 적군 표적(P)에 대한 이미지데이터에 아군의 적군 표적의 이미지 혹은 적군의 적군 표적의 이미지를 각각 나누어 집합화하여 저장할 수도 있다.On the other hand, the image storage unit 121 may store the image data for the ally while including the image in the image data of the enemy target (P). That is, the image storage unit 121 may divide and store the image data of the enemy target P by dividing the image of the friendly target or the image of the enemy target in the image data of the enemy target P.

또한, 이미지저장부(121)는 아군 및 적군 표적(P)에 대한 이미지데이터와 함께 전력데이터도 저장할 수 있다. 즉, 이미지저장부(121)는 아군 및 적군 표적의 이미지데이터에 각각 전력데이터를 포함시켜 저장할 수 있다. 여기서, 전력데이터는 병기 유무, 탄약 보유량, 병기의 구동 상태에 대한 정보를 의미할 수 있다. 이에, 저장부재가 아군 및 적군 표적(P)을 전력데이터에 따라, 설정된 구간별로 구분할 수 있다. 여기서, 설정된 구간은 예컨데 1등급 내지 4등급일 수 있다. Also, the image storage unit 121 may store power data together with image data for friendly and enemy targets P. That is, the image storage unit 121 may store power data by including power data in the image data of friendly and enemy targets, respectively. Here, the power data may refer to information on the presence or absence of weapons, the amount of ammunition held, and the driving state of the weapon. Accordingly, the storage member can classify the friendly and enemy targets P according to the power data, for each set section. Here, the set section may be, for example, grades 1 to 4.

이미지변환부(122)는 상술한 바와 같이, 신호 수신부(110)에서 전송된 신호를 이미지데이터로 상호 변환시킬 수 있다. 여기서, 이미지변환부(122)는 시각화된 신호, 청각화된 신호 및 전자기화된 신호 중 적어도 어느 하나의 신호를 이미지데이터로 변환시킬 수 있다. 이에, 송신부(114)를 통해 시각화된 신호, 청각화된 신호 및 전자기화된 신호 중 어떠한 신호가 송신되어도 이미지데이터로 용이하게 변환시킬 수 있다.As described above, the image converter 122 may convert the signal transmitted from the signal receiver 110 into image data. Here, the image conversion unit 122 may convert at least one of a visualized signal, an audio signal, and an electromagnetic signal into image data. Accordingly, even if any signal among the visualized signal, the auditory signal, and the electromagnetic signal is transmitted through the transmitter 114, it can be easily converted into image data.

이미지식별부(123)는 이미지저장부(121)에 미리 저장된 이미지데이터와 신호 수신부(110)에서 실시간으로 전송되는 이미지데이터를 비교하여 전장상황에 표적이 있는지 여부(즉, 표적의 유무)를 감지할 수 있다. 보다 구체적으로, 이미지식별부(123)는 이미지저장부(121)에 미리 저장된 이미지데이터를 추출하여 아군 및 적군 표적(P)에 대해 학습할 수 있다. 상술한 바와 같이, 인공지능을 기반으로, 이미지저장부(121)에 미리 저장된 이미지데이터들을 군집화시킬 수 있다. 이후, 군집화된 이미지데이터를 중첩시키는 과정과 통합시키는 과정을 반복하며, 아군 및 적군 표적(P)에 대해 학습할 수 있다. 이후, 신호 수신부(110)에서 실시간으로 전송되는 이미지데이터를 미리 학습한 아군 및 적군 표적(P)에 대한 이미지데이터와 비교할 수 있다. 이때, 이미지식별부(123)는 신호 수신부(110)에서 실시간으로 전송되는 이미지데이터의 패턴을 인식하고, 학습한 이미지데이터 사이에 중복되는 패턴이 있다고 판단할 경우, 전장 상황에 표적이 존재한다고 감지할 수 있다.The image identification unit 123 compares the image data previously stored in the image storage unit 121 with the image data transmitted in real time from the signal receiving unit 110 to detect whether there is a target in the battlefield situation (ie, the presence of a target). can do. More specifically, the image identification unit 123 may extract image data previously stored in the image storage unit 121 to learn about the friendly and enemy targets P. As described above, based on artificial intelligence, image data previously stored in the image storage unit 121 may be grouped. Thereafter, the process of overlapping and integrating the clustered image data is repeated, and the friendly and enemy targets P can be learned. Thereafter, the image data transmitted in real time from the signal receiver 110 may be compared with image data for the friendly and enemy targets P learned in advance. At this time, the image identification unit 123 recognizes the pattern of the image data transmitted in real time from the signal receiving unit 110, and if it is determined that there is an overlapping pattern between the learned image data, it is detected that the target exists in the battlefield situation. can do.

이미지식별부(123)는 표적을 감지할 경우, 작동할 수 있다. 즉, 이미지식별부(123)는 감지되는 정보를 이용하여 표적의 피아를 판단할 수 있다. 여기서, 피아는 표적의 신원이 아군인지 혹은 적군 표적(P)인지에 대한 것일 수 있다. The image identification unit 123 may operate when detecting a target. That is, the image identification unit 123 may determine the target peer using the sensed information. Here, the pia may relate to whether the identity of the target is a friendly target or an enemy target (P).

보다 구체적으로, 이미지식별부(123)는 인공지능을 기반으로, 이미지저장부(121)로부터 표적에 대한 이미지데이터를 전송받고, 이미지데이터를 아군 및 적군 표적(P)에 대한 이미지로 각각 나누어 군집화시킬 수 있다. 이후, 군집화된 이미지데이터를 중첩시키는 과정과 통합시키는 과정을 반복하며, 아군 및 적군 표적(P)에 대한 각각의 이미지를 일정한 형태나 양식 또는 유형에 따라 학습할 수 있다. 즉, 아군 및 적군에 대한 각각의 이미지를 패턴화하여 학습할 수 있다. More specifically, the image identification unit 123 receives image data for the target from the image storage unit 121 based on artificial intelligence, and divides the image data into images for friendly and enemy targets P, respectively, and clusters them. can do it Thereafter, the process of overlapping and integrating the clustered image data is repeated, and each image of the friendly and enemy targets P can be learned according to a certain shape, form, or type. That is, it is possible to learn by patterning each image of an ally and an enemy.

여기서, 이미지데이터에는 표적에 대한 이미지가 포함되어 있을 수 있다. 이미지식별부(123)는 학습한 아군 및 적군 표적(P)에 관한 각각의 이미지와 이미지식별부(123)에서 전송된 이미지데이터의 이미지를 비교하여 표적의 피아를 식별할 수 있다. 즉, 이미지식별부(123)에서 입력된 이미지데이터의 이미지 패턴을 인식하고, 군집화된 아군 및 적군 표적(P)에 관한 각각의 이미지 패턴 중 일치하는 패턴을 찾아 아군인지 적군 표적(P)인지 판단할 수 있다.Here, the image data may include an image of the target. The image identification unit 123 may identify the target peer by comparing each image of the learned target P and the image data transmitted from the image identification unit 123 . That is, the image identification unit 123 recognizes the image pattern of the input image data, finds a matching pattern among the respective image patterns for the grouped friendly and enemy targets (P), and determines whether it is a friendly or an enemy target (P). can do.

또한, 정보 획득부(120)는 이미지판별부(124)를 더 포함할 수 있다. 이미지판별부(124)는 식별된 적군 표적(P)의 전력데이터와 미수신 사용자(즉, 아군)들의 전력데이터를 비교하여 전력데이터가 우위에 있는 미수신 사용자를 판단할 수 있다. 예컨데, 이미지판별부(124)는 식별된 적군 표적(P)의 전력데이터가 2등급일 경우, 전력데이터가 1등급인 미수신 사용자(즉, 아군)를 판단할 수 있다.Also, the information obtaining unit 120 may further include an image determining unit 124 . The image discrimination unit 124 may compare the power data of the identified enemy target P with the power data of the non-received users (ie, allies) to determine the non-received user having superior power data. For example, when the power data of the identified enemy target P is level 2, the image discrimination unit 124 may determine a non-received user (ie, friend) whose power data is level 1.

정보 공유부(130)는 정보 획득부(120)에서 판단한 정보를 이용하여, 적군 표적(P)을 인지하지 못한 다른 사용자(사용자1,사용자3,사용자4)에게 적군 표적(P)에 대한 정보를 공유할 수 있다. 즉, 또한, 정보 제공 장치(100)는 적군 표적(P)을 인지하지 못한 다른 사용자(예컨데, 사용자1,사용자3,사용자4)에게 적군 표적(P)에 대한 정보를 공유할 수 있도록, 정보 공유부(130)를 더 포함할 수 있다 즉, 정보 제공 장치(100)는 적군 표적(P)을 감지한 사용자가 정보 공유부(130)를 이용하여 복수의 사용자(사용자1,사용자2,사용자3,사용자4) 중 전장 상황 내의 위치에 위치한 사용자 혹은 전장 상황 외의 위치에 위치한 사용자에게 적군 표적(P)에 관한 정보를 제공할 수도 있다.The information sharing unit 130 uses the information determined by the information acquisition unit 120 to provide information on the enemy target P to other users (User 1, User 3, and User 4) who did not recognize the enemy target P. can be shared That is, in addition, the information providing device 100 can share information on the enemy target P to other users (eg, user 1, user 3, user 4) who do not recognize the enemy target P, so that information on the enemy target P can be shared. It may further include a sharing unit 130 , that is, the information providing apparatus 100 allows a user who senses the enemy target P to use the information sharing unit 130 to allow a plurality of users (User 1, User 2, and User). It is also possible to provide information about the enemy target P to a user located in a position within the battlefield situation among users 4) or a user located outside the battlefield situation.

정보 공유부(130)는 정보 획득부(120)에서 판단한 정보를 이용하여, 적군 표적(P)을 인지하지 못한 다른 사용자(예컨데, 사용자1,사용자3,사용자4)에게 적군 표적(P)에 대한 정보를 공유할 수 있다. 정보 공유부(130)는 수신판단부(131), 아군위치측정부(132) 및 아군전송부(133)를 포함할 수 있다.The information sharing unit 130 uses the information determined by the information acquisition unit 120 to give other users (eg, user 1, user 3, user 4) that do not recognize the enemy target P to the enemy target P. information can be shared. The information sharing unit 130 may include a reception determination unit 131 , an ally position measurement unit 132 , and an ally transmission unit 133 .

수신판단부(131)는 복수의 사용자(사용자1,사용자2,사용자3,사용자4) 중 미수신 사용자를 판단할 수 있다. 상술한 바와 같이, 수신판단부(131)는 복수의 사용자(사용자1,사용자2,사용자3,사용자4)에게 각각 제공되며, 서로 네트워크 통신망 상으로 연결될 수 있다. 이에, 수신판단부(131)를 신호 수신부(110)에 적군 표적(P)에 관한 정보가 획득되었는지 여부를 판단하여, 복수의 사용자(사용자1,사용자2,사용자3,사용자4) 중 미수신 사용자를 판단할 수 있다. The reception determination unit 131 may determine a non-received user among a plurality of users (User 1 , User 2 , User 3 , and User 4 ). As described above, the reception determination unit 131 is provided to a plurality of users (User 1, User 2, User 3, User 4), respectively, and may be connected to each other over a network communication network. Accordingly, the reception determination unit 131 determines whether the information on the enemy target P has been acquired by the signal reception unit 110, and a non-received user among a plurality of users (User 1, User 2, User 3, User 4). can be judged

아군위치측정부(132)는 적군 표적(P)에 관한 정보를 획득한 감지 사용자(즉, 사용자2)를 기준으로 미수신 사용자(예컨데, 사용자1,사용자3,사용자4)들의 위치를 확인할 수 있다. 즉, 아군위치측정부(132)는 감지 사용자(즉, 사용자2)를 기준으로 미수신 사용자(예컨데, 사용자1,사용자3,사용자4)들의 상대적인 각도 및 상대적인 거리를 측정할 수 있다. 여기서, 아군위치측정부(132)는 예컨데, GPS 위성 정보를 활용하여 미수신 사용자들의 상대적인 위치 정보를 산출할 수 있다. 또한, 아군위치측정부(132)는 블루투스 또는 와이파이 비콘 방식을 이용하여 실외에서 복수의 사용자 각각의 위치를 측정할 수 있도록, GNSS 혹은 자이로 센서를 더 포함할 수도 있다.The friendly position measurement unit 132 may check the positions of non-received users (eg, user 1, user 3, and user 4) based on the detected user (ie, user 2) who has obtained information about the enemy target P. . That is, the friendly position measuring unit 132 may measure the relative angles and relative distances of the non-received users (eg, user 1, user 3, and user 4) with respect to the sensing user (ie, user 2). Here, the friendly position measuring unit 132 may calculate the relative position information of the non-received users by using, for example, GPS satellite information. In addition, the friendly location measurement unit 132 may further include a GNSS or gyro sensor to measure the location of each of a plurality of users outdoors using a Bluetooth or Wi-Fi beacon method.

아군전송부(133)는 미수신 사용자들의 통신망 중 각 통신망에 우선순위를 설정하고, 데이터링크를 통해 식별된 적군 표적(P)에 관한 정보를 전송할 수 있다. 여기서, 아군전송부(133)가 설정하는 우선순위의 기준은 기 설정된 우선순위를 따를 수 있다. 즉, 아군전송부(133)는 미리 복수의 사용자(사용자1,사용자2,사용자3,사용자4) 중 우선순위를 설정할 수 있다. The friendly transmission unit 133 may set a priority for each communication network among the communication networks of non-received users, and transmit information about the identified enemy target P through the data link. Here, the priority criterion set by the friendly transmission unit 133 may follow a preset priority. That is, the friendly transmission unit 133 may set priorities among a plurality of users (User 1, User 2, User 3, User 4) in advance.

또한, 아군전송부(133)는 설정된 우선순위를 기반으로 미수신 사용자들의 통신망을 우선순위에 따라 순차적으로 나열하고, 나열된 순서에 따라 식별된 적군 표적(P)에 관한 정보를 전송할 수 있다. 여기서, 아군전송부(133)는 상위 지휘체계에 있는 사용자의 통신망을 더 우위에 설정하는 방식으로 순위를 설정할 수 있다. 이에, 아군전송부(133)가 상위 지휘체계에 있는 사용자부터 적군 표적에 관한 정보를 전송하므로, 적군 표적(P)보다 전력데이터 등급이 높은 미수신 사용자를 해당 위치에 신속하게 위치시킬 수 있다.Also, the friendly transmission unit 133 may sequentially list the communication networks of non-received users according to the priority based on the set priority, and transmit information about the identified enemy target P according to the listed order. Here, the friendly transmission unit 133 may set the order in a way that sets the communication network of the user in the upper command system more superior. Accordingly, since the friendly transmission unit 133 transmits information about the enemy target from the user in the upper command system, it is possible to quickly locate a non-received user whose power data level is higher than that of the enemy target P at the corresponding location.

아군정보변환부(134)는 KVMF 형식의 데이터를 C4I 형식의 데이터로 변환할 수 있다. 상술한 바와 같이, 아군전송부(133)는 이미지판별부(124)로부터, 미수신 사용자(즉, 아군)의 전력데이터와 적군 표적(P)의 전력데이터를 비교한 비교 결과를 KVMF 형식의 데이터로 전송 받을 수 있다. 이에, 아군정보변환부(134)를 통해 KVMF 형식의 데이터를 C4I 형식의 데이터로 변환할 수 있다. 여기서, C4I는 지휘(command)ㆍ통제(control)ㆍ통신(communication)ㆍ컴퓨터(computer)ㆍ정보(intelligence)를 자동화하여 전장 상황을 입체적으로 확인할 수 있는 전술지휘자동화체계일 수 있다. 이에, C4I를 활용할 경우, 전장 상황에서 복수의 사용자 각각의 전력데이터가 하나의 정보 네트워크로 통합되며, 복수의 사용자들 사이에 유선 통신 혹은 무선 통신을 통해 주요 전장 상황의 정보를 실시간 공유할 수 있다. 한편, 아군정보변환부(134)는 C4I 형식의 데이터를 KVMF 형식의 데이터로 변환할 수도 있다. The friendly information conversion unit 134 may convert the data in the KVMF format into data in the C4I format. As described above, the friendly transmission unit 133 compares the power data of the non-received user (ie, friendly) with the power data of the enemy target (P) from the image discrimination unit 124 as data in KVMF format. can be sent Accordingly, the data in the KVMF format may be converted into data in the C4I format through the friendly information conversion unit 134 . Here, C4I may be a tactical command automation system that can three-dimensionally check the battlefield situation by automating command, control, communication, computer, and intelligence. Accordingly, when using C4I, power data of each of a plurality of users is integrated into one information network in a battlefield situation, and information on major battlefield situations can be shared between a plurality of users in real time through wired or wireless communication. . Meanwhile, the ally information conversion unit 134 may convert C4I format data into KVMF format data.

디스플레이부(140)는 판단된 적군 표적(P)에 대한 정보를 이미지데이터 혹은 텍스트데이터로 변환하여 신호를 획득한 일 사용자(예컨데, 사용자2)에게 전시할 수 있다. 디스플레이부(140)는 제1 변환부(141), 제2 변환부(142), 및 전시부(143)를 포함할 수 있다. The display unit 140 may convert information on the determined enemy target P into image data or text data and display it to a user (eg, user 2) who has obtained a signal. The display unit 140 may include a first conversion unit 141 , a second conversion unit 142 , and a display unit 143 .

제1 변환부(141)는 적군 표적(P)에 대한 정보를 그림 카테고리로 변환시킬 수 있다. 즉, 제1 변환부(141)는 정보 획득부(120)에서 판단한 적군 표적(P)에 대한 정보, 즉 적군 표적(P)의 종류(즉, 종류)를 그림 카테고리로 변환할 수 있다. 이에, 식별된 적군 표적(P)에 해당하는 정보가 그림 이미지, 즉 적군 표적(P)의 사진으로 변환될 수 있고, 사용자가 적군 표적(P)의 정보를 사진으로 확인할 수 있다. The first conversion unit 141 may convert information about the enemy target P into a picture category. That is, the first conversion unit 141 may convert the information on the enemy target P determined by the information acquisition unit 120 , that is, the type (ie, type) of the enemy target P into a picture category. Accordingly, information corresponding to the identified enemy target P may be converted into a picture image, that is, a photo of the enemy target P, and the user may check information of the enemy target P as a photograph.

제2 변환부(142)는 적군 표적(P)에 대한 정보를 문자 카테고리 및 숫자 카테고리로 변환할 수 있다. 즉, 제2 변환부(142)는 정보 획득부(120)에서 판단한 적군 표적에 대한 정보, 즉 적군 표적(P)의 상대적인 위치(즉, 상대적인 각도 및 상대적인 거리)를 문자 카테고리 및 숫자 카테고리로 변환할 수 있다. 이에, 식별된 적군 표적(P)에 해당하는 정보가 문자 및 숫자로 변환될 수 있고, 사용자가 적군 표적의 정보, 즉 상대적인 각도 및 상대적인 거리를 문자 및 숫자 형태로 확인할 수 있다.The second conversion unit 142 may convert the information on the enemy target P into a text category and a number category. That is, the second conversion unit 142 converts the information on the enemy target determined by the information acquisition unit 120 , that is, the relative position (ie, relative angle and relative distance) of the enemy target P, into a text category and a number category. can do. Accordingly, information corresponding to the identified enemy target P may be converted into letters and numbers, and the user may check information on the enemy target, ie, relative angles and relative distances, in letters and numbers.

전시부(143)는 그림 카테고리, 문자 카테고리 및 숫자 카테고리로 변환된 적군 표적(P)에 대한 정보를 사용자에게 전시할 수 있다. 예를 들어, 전시부(143)는 디스플레이로 마련될 수 있다. 즉, 전시부(143)는 사용자가 시각으로 정보를 확인할 수 있도록, 전시할 수 있다. 이에, 전시부(143)가 적군 표적(P)의 사진을 전시하고, 적군 표적(P)의 상대적인 각도 및 상대적인 거리 정보를 문자 및 숫자 형태로 전시하므로, 사용자가 적군 표적(P)에 관한 정보를 더 효과적으로 확인할 수 있다.The display unit 143 may display information about the enemy target P converted into a picture category, a text category, and a number category to the user. For example, the display unit 143 may be provided as a display. That is, the display unit 143 may display the information so that the user can visually check the information. Accordingly, since the display unit 143 displays a photo of the enemy target P and displays the relative angle and relative distance information of the enemy target P in the form of letters and numbers, the user can display information about the enemy target P can be checked more effectively.

한편, 정보 제공 장치(100)를 이용하여, 적군 표적(P)을 탐색하고 탐색한 정보를 공유하는 방법은 정보 공유 방법을 설명하면서 그 과정을 함께 설명한다.On the other hand, a method of using the information providing device 100 to search for the enemy target P and to share the searched information will be described while explaining the information sharing method.

도 6은 본 발명의 실시 예에 따른 정보 공유 방법을 나타내는 플로우차트이다.6 is a flowchart illustrating an information sharing method according to an embodiment of the present invention.

본 발명의 실시 예에 따른 복수의 사용자(사용자1,사용자2,사용자3,사용자4)에게 제공되어, 표적에 대한 정보를 제공하는 방법으로서, 일 사용자가 표적으로부터 전달된 신호를 수신하는 과정(S110), 인공지능을 기반으로, 실시간으로 획득된 신호를 이용하여, 표적의 피아 정보에 대한 정보를 획득하는 과정(S120) 및 표적에 관한 정보를 복수의 사용자에게 공유하는 과정(S130)을 포함할 수 있다. A method of providing information on a target by being provided to a plurality of users (User 1, User 2, User 3, and User 4) according to an embodiment of the present invention, wherein one user receives a signal transmitted from the target ( S110), using a signal acquired in real time based on artificial intelligence, includes a process (S120) of acquiring information about the peer information of a target and a process of sharing information about the target to a plurality of users (S130) can do.

또한, 정보 제공 방법은 적군 표적(P)에 관한 정보를 일 사용자(예컨데, 사용자2)에게 전시하는 과정(S140)을 포함할 수 있다. Also, the information providing method may include a process ( S140 ) of displaying information about the enemy target P to one user (eg, user 2 ).

우선, 전장 상황에서 일 사용자(예컨데,사용자2)가 신호를 획득할 수 있다(S110). 즉, 신호 수신부(110)의 광학측정부(111), 전자기측정부(112), 음파측정부(113)가 각각 시각화된 신호, 전자기화된 신호, 청각화된 신호를 획득할 수 있다. 이후, 획득된 신호를 송신부(114)를 이용하여 광학측정부(111), 전자기측정부(112), 음파측정부(113)를 통해 획득된 신호를 정보 획득부(120)로 전송할 수 있다. First, in a battlefield situation, one user (eg, user 2) may acquire a signal (S110). That is, the optical measuring unit 111 , the electromagnetic measuring unit 112 , and the sound wave measuring unit 113 of the signal receiving unit 110 may obtain a visualized signal, an electromagneticized signal, and an auditory signal, respectively. Thereafter, the signal obtained through the optical measurement unit 111 , the electromagnetic measurement unit 112 , and the sound wave measurement unit 113 may be transmitted to the information acquisition unit 120 by using the acquired signal transmission unit 114 .

이후, 정보 획득부(120)는 인공지능을 기반으로 기 설정된 적군 표적(P)의 정보 및 신호 수신부(110)로부터 촬영된 영상 정보를 이용하여 아군 및 적군 표적(P)에 대해 미리 학습할 수 있다(S120). 즉, 정보 획득부(120)를 통해 아군 및 적군 표적(P)에 대해 각가 나누어 학습할 수 있다. 여기서, 정보 획득부(120)는 기 설정된 아군 및 적군 표적(P)의 정보와 촬영된 영상 정보를 중첩시키는 과정과 통합시키는 과정을 반복하며 영상데이터의 패턴을 추출하고, 추출한 패턴을 학습할 수 있다. Thereafter, the information acquisition unit 120 can learn in advance about the friendly target and the enemy target P by using the information of the preset enemy target P and the image information photographed from the signal receiving unit 110 based on artificial intelligence. There is (S120). That is, through the information acquisition unit 120 , each of the friendly target and the enemy target P may be separately learned. Here, the information acquisition unit 120 extracts a pattern of image data by repeating the process of overlapping the preset information of the friendly and enemy target P and the captured image information, and extracting the pattern of the image data, and can learn the extracted pattern. have.

이후, 실시간으로 획득된 정보를 이용하여 전장 상황의 표적을 감지하고, 감지결과에 따라 표적의 피아를 식별할 수 있다. 즉, 이미지식별부(123)를 이용하여 미리 저장된 적군 표적(P) 정보와 획득된 표적 정보를 비교할 수 있다. 여기서, 이미지식별부(123)를 통해 실시간으로 전송된 이미지데이터의 이미지 패턴을 인식하고, 군집화된 아군 및 적군 표적(P)에 관한 각각의 이미지 패턴 중 일치하는 패턴을 찾아 아군인지 혹은 적군 표적인지 식별할 수 있다. Thereafter, a target in a battlefield situation may be detected using the information obtained in real time, and a foe of the target may be identified according to the detection result. That is, the image identification unit 123 may be used to compare the pre-stored enemy target P information with the acquired target information. Here, the image pattern of the image data transmitted in real time through the image identification unit 123 is recognized, and the matching pattern is found among the image patterns of the grouped friendly and enemy targets P to determine whether the target is a friendly or an enemy target. can be identified.

이후, 표적이 적군 표적(P)일 경우, 적군 표적(P)을 감지하지 못한 미수신 사용자(예컨데,사용자1,사용자3,사용자4)에게 적군 표적(P)의 정보를 공유할 수 있다(S140). 이때, 정보 공유부(130)는 설정된 우선순위를 기반으로 미수신 사용자들의 통신망을 우선순위에 따라 순차적으로 나열하고, 나열된 순서에 따라 식별된 적군 표적(P)에 관한 정보를 전송할 수 있다. 여기서, 정보 공유부(130)는 상위 지휘체계에 있는 사용자의 통신망을 더 우위에 설정하는 방식으로 순위를 설정할 수 있다. 이에, 정보 공유부(130)가 상위 지휘체계에 있는 사용자부터 적군 표적에 관한 정보를 전송하므로, 적군 표적(P)보다 전력데이터 등급이 높은 미수신 사용자를 해당 위치에 신속하게 위치시킬 수 있다.Thereafter, when the target is the enemy target P, information on the enemy target P may be shared with non-received users (eg, User 1, User 3, and User 4) who do not detect the enemy target P (S140). ). In this case, the information sharing unit 130 may sequentially list the communication networks of non-received users according to the priority based on the set priority, and transmit information about the identified enemy target P according to the listed order. Here, the information sharing unit 130 may set the ranking in such a way that the communication network of the user in the upper command system has a higher priority. Accordingly, since the information sharing unit 130 transmits information about the enemy target from the user in the upper command system, it is possible to quickly locate a non-received user whose power data level is higher than that of the enemy target P at the corresponding location.

또한, 디스플레이부(140)를 이용하여, 식별된 적군 표적(P)에 관한 정보를 전시할 수 있다. 즉, 감지 사용자에게 적군 표적(P)의 위치 및 적군 표적의 종류(즉, 종류)를 이미지데이터 및 텍스트데이터로 변환하여 디스플레이에 전시할 수 있다. 이에, 감지 사용자가 식별된 적군 표적(P)의 종류를 사진으로 확인하고, 위치를 문자 및 숫자 형태로 확인할 수 있다. In addition, information about the identified enemy target P may be displayed using the display unit 140 . That is, it is possible to convert the position of the enemy target P and the type (ie, type) of the enemy target P into image data and text data to be displayed on the display to the sensing user. Accordingly, the sensing user can confirm the type of the identified enemy target P as a photo, and confirm the position in the form of letters and numbers.

이처럼, 인공지능을 기반으로 아군 및 적군 표적에 대해 미리 학습하여 전장 상황에서의 표적을 감지 및 식별할 수 있다. 또한, 전장 상황에 위치한 복수의 사용자 중 일 사용자의 시선이 향하는 가시영역 및 가시영역 이외의 영역에서 자동으로 표적에 대한 정보를 획득할 수 있다. 또한, 획득된 표적에 대한 정보를 일 사용자 및 다른 사용자들에게 전시할 수 있다. 이에, 전장 상황에 위치한 표적에 대한 정보를 효과적으로 공유할 수 있다. 또한, 획득된 표적에 대한 정보를 이미지데이터 혹은 텍스트데이터로 전시하여 복수의 사용자들이 효과적으로 표적에 대한 정보를 파악할 수 있다.In this way, it is possible to detect and identify targets in battlefield situations by learning in advance about friendly and enemy targets based on artificial intelligence. In addition, information on a target may be automatically acquired in a visible region to which one user's gaze is directed and a region other than the visible region among a plurality of users located in the battlefield situation. In addition, information on the acquired target may be displayed to one user and other users. Accordingly, information on a target located in a battlefield situation can be effectively shared. In addition, by displaying the acquired information on the target as image data or text data, a plurality of users can effectively grasp information on the target.

이와 같이,본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범주에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능하다. 그러므로, 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 안 되며, 아래에 기재될 특허청구범위뿐만 아니라 이 청구범위와 균등한 것들에 의해 정해져야 한다.As such, although specific embodiments have been described in the detailed description of the present invention, various modifications are possible without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined by the claims to be described below as well as the claims and equivalents.

100: 정보 제공 장치 110: 신호 수신부
120: 정보 획득부 130: 정보 공유부
140: 디스플레이부 P: 적군 표적
100: information providing device 110: signal receiving unit
120: information acquisition unit 130: information sharing unit
140: display unit P: enemy target

Claims (16)

표적으로부터 전달되는 신호를 수신하기 위한 신호 수신부;
인공지능을 이용하여 상기 신호 수신부에서 수신된 신호로부터 표적의 피아 정보를 획득하며, 상기 표적이 적군 표적인지 아군인지 여부를 감지할 수 있고, 상기 표적이 적군 표적일 경우, 상기 적군 표적의 종류을 판단할 수 있는 정보 획득부; 및
상기 정보 획득부가 획득한 표적에 대한 정보를, 복수의 사용자 중 상기 표적으로부터 전달된 신호를 수신하지 못한 미수신 사용자에게 공유하기 위한 정보 공유부;를 포함하고,
상기 정보 획득부는, 인공지능 기반의 심층 신경망을 이용하여 저장된 이미지데이터 및 상기 신호 수신부에서 수신된 신호로부터 변환된 이미지데이터 집합을 저장 및 추출하고,
상기 심층 신경망은, 중첩 과정과 통합 과정을 통해 상기 저장된 이미지데이터 및 상기 변환된 이미지데이터의 특징을 추출하여 분류하고,
상기 정보 획득부는,
설정된 적군 표적에 대한 상기 저장된 이미지데이터를 미리 저장하거나 혹은 상기 변환된 이미지데이터를 미리 저장하기 위한 이미지저장부;
상기 신호 수신부로부터 수신된 신호를 이미지데이터로 변환하기 위한 이미지변환부; 및
상기 이미지저장부에서 상기 저장된 이미지데이터를 추출하고, 상기 변환된 이미지데이터와 매칭하여 적군 표적의 종류를 식별하기 위한 이미지식별부;를 포함하는 정보 제공 장치.
a signal receiving unit for receiving a signal transmitted from the target;
Using artificial intelligence, the target friend information is obtained from the signal received by the signal receiving unit, and it is possible to detect whether the target is an enemy target or a friendly target. If the target is an enemy target, the type of the enemy target is determined capable information acquisition unit; and
and an information sharing unit for sharing the information on the target acquired by the information acquisition unit to non-received users who have not received the signal transmitted from the target among a plurality of users; and
The information acquisition unit stores and extracts the image data stored using the deep neural network based on artificial intelligence and the image data set converted from the signal received by the signal receiving unit,
The deep neural network extracts and classifies features of the stored image data and the converted image data through an overlapping process and an integration process,
The information acquisition unit,
an image storage unit configured to pre-store the stored image data for a set enemy target or to pre-store the converted image data;
an image conversion unit for converting the signal received from the signal receiving unit into image data; and
and an image identification unit for extracting the stored image data from the image storage unit and matching the converted image data to identify a type of an enemy target.
표적으로부터 전달되는 신호를 수신하기 위한 신호 수신부;
인공지능을 이용하여 상기 표적의 피아 정보에 관하여 미리 학습하고, 학습된 정보를 통해 상기 신호 수신부에서 수신된 신호로부터 표적의 피아 정보를 획득하며, 상기 표적이 적군 표적인지 아군인지 여부를 감지할 수 있고, 상기 표적이 적군 표적일 경우, 상기 적군 표적의 종류을 판단할 수 있는 정보 획득부; 및
상기 정보 획득부가 획득한 표적에 대한 정보를 복수의 사용자 중 상기 표적으로부터 전달된 신호를 수신하지 못한 미수신 사용자에게 상기 표적의 정보를 공유하기 위한 정보 공유부;를 포함하고,
상기 정보 획득부는, 인공지능 기반의 심층 신경망을 이용하여 저장된 이미지데이터 및 상기 신호 수신부에서 수신된 신호로부터 변환된 이미지데이터 집합을 저장 및 추출하고,
상기 심층 신경망은, 중첩 과정과 통합 과정을 통해 상기 저장된 이미지데이터 및 상기 변환된 이미지데이터의 특징을 추출하여 분류하고,
상기 정보 획득부는,
설정된 적군 표적에 대한 상기 저장된 이미지데이터를 미리 저장하거나 혹은 상기 변환된 이미지데이터를 미리 저장하기 위한 이미지저장부;
상기 신호 수신부로부터 수신된 신호를 이미지데이터로 변환하기 위한 이미지변환부; 및
상기 이미지저장부에서 상기 저장된 이미지데이터를 추출하고, 상기 변환된 이미지데이터와 매칭하여 적군 표적의 종류를 식별하기 위한 이미지식별부;를 포함하는 정보 제공 장치.
a signal receiving unit for receiving a signal transmitted from the target;
It is possible to learn in advance about the enemy information of the target by using artificial intelligence, obtain information about the enemy of the target from the signal received from the signal receiving unit through the learned information, and detect whether the target is an enemy target or a friend an information acquisition unit capable of determining a type of the enemy target when the target is an enemy target; and
Including; an information sharing unit for sharing the information on the target acquired by the information acquisition unit to the non-received users who have not received the signal transmitted from the target among a plurality of users,
The information acquisition unit stores and extracts the image data stored using the deep neural network based on artificial intelligence and the image data set converted from the signal received by the signal receiving unit,
The deep neural network extracts and classifies features of the stored image data and the converted image data through an overlapping process and an integration process,
The information acquisition unit,
an image storage unit configured to pre-store the stored image data for a set enemy target or to pre-store the converted image data;
an image conversion unit for converting the signal received from the signal receiving unit into image data; and
and an image identification unit for extracting the stored image data from the image storage unit and matching the converted image data to identify a type of an enemy target.
삭제delete 삭제delete 삭제delete 청구항 1에 있어서,
상기 이미지저장부는, 상기 아군에 대한 상기 변환된 이미지데이터의 이미지와 상기 적군 표적에 대한 상기 변환된 이미지데이터의 이미지를 각각 나누어 저장하는 정보 제공 장치.
The method according to claim 1,
The image storage unit is an information providing device for storing the image of the converted image data for the friendly force and the image of the converted image data for the enemy target, respectively.
청구항 1에 있어서,
상기 이미지식별부는, 아군과 상기 적군 표적에 관한 각각의 상기 저장된 이미지데이터의 이미지와 상기 변환된 이미지데이터의 이미지를 비교하여 표적의 피아 정보 및 종류를 판단하는 정보 제공 장치.
The method according to claim 1,
The image identification unit is configured to compare the images of each of the stored image data for the friendly and the enemy targets with the images of the converted image data to determine peer information and types of targets.
표적으로부터 전달되는 신호를 수신하기 위한 신호 수신부;
인공지능을 이용하여 상기 신호 수신부에서 수신된 신호로부터 표적의 피아 정보를 획득하며, 상기 표적이 적군 표적인지 아군인지 여부를 감지할 수 있고, 상기 표적이 적군 표적일 경우, 상기 적군 표적의 종류을 판단할 수 있는 정보 획득부; 및
상기 정보 획득부가 획득한 표적에 대한 정보를, 복수의 사용자 중 상기 표적으로부터 전달된 신호를 수신하지 못한 미수신 사용자에게 공유하기 위한 정보 공유부;를 포함하고,
상기 정보 획득부는, 인공지능 기반의 심층 신경망을 이용하여 저장된 이미지데이터 및 상기 신호 수신부에서 수신된 신호로부터 변환된 이미지데이터 집합을 저장 및 추출하고,
상기 심층 신경망은, 중첩 과정과 통합 과정을 통해 상기 저장된 이미지데이터 및 상기 변환된 이미지데이터의 특징을 추출하여 분류하고,
상기 정보 공유부는, 상기 미수신 사용자 중 우선순위를 설정하고, 설정된 우선순위에 따라 상기 표적의 정보를 공유하기 위한 정보 제공 장치.
a signal receiver for receiving a signal transmitted from the target;
Using artificial intelligence, the target friend information is obtained from the signal received from the signal receiver, and it is possible to detect whether the target is an enemy target or a friendly target, and when the target is an enemy target, the type of the enemy target is determined capable information acquisition unit; and
and an information sharing unit for sharing the information on the target acquired by the information acquisition unit to non-received users who have not received the signal transmitted from the target among a plurality of users; and
The information acquisition unit stores and extracts the image data stored using the deep neural network based on artificial intelligence and the image data set converted from the signal received by the signal receiving unit,
The deep neural network extracts and classifies features of the stored image data and the converted image data through an overlapping process and an integration process,
The information sharing unit, an information providing apparatus for setting a priority among the non-received users, and sharing the information of the target according to the set priority.
청구항 8에 있어서,
상기 정보 공유부는,
상기 복수의 사용자 중 미수신 사용자를 판단하기 위한 수신판단부;
상기 표적을 감지한 사용자를 기준으로 상기 미수신 사용자들 각각의 위치를 측정하기 위한 아군위치측정부; 및
상기 미수신 사용자들의 통신망에 우선순위를 설정하고, 데이터링크를 통해 정보를 전송하는 아군전송부;를 포함하는 정보 제공 장치.
9. The method of claim 8,
The information sharing unit,
a reception determination unit for determining a non-received user among the plurality of users;
a friendly position measuring unit for measuring the positions of each of the non-received users based on the user who sensed the target; and
An information providing device including a; a friendly transmission unit that sets priorities in the communication network of the non-received users and transmits information through a data link.
표적으로부터 전달되는 신호를 수신하기 위한 신호 수신부;
인공지능을 이용하여 상기 신호 수신부에서 수신된 신호로부터 표적의 피아 정보를 획득하며, 상기 표적이 적군 표적인지 아군인지 여부를 감지할 수 있고, 상기 표적이 적군 표적일 경우, 상기 적군 표적의 종류을 판단할 수 있는 정보 획득부; 및
상기 정보 획득부가 획득한 표적에 대한 정보를, 복수의 사용자 중 상기 표적으로부터 전달된 신호를 수신하지 못한 미수신 사용자에게 공유하기 위한 정보 공유부;를 포함하고,
상기 정보 획득부는, 인공지능 기반의 심층 신경망을 이용하여 저장된 이미지데이터 및 상기 신호 수신부에서 수신된 신호로부터 변환된 이미지데이터 집합을 저장 및 추출하고,
상기 심층 신경망은, 중첩 과정과 통합 과정을 통해 상기 저장된 이미지데이터 및 상기 변환된 이미지데이터의 특징을 추출하여 분류하고,
상기 신호 수신부는,
상기 복수의 사용자 각각의 전장 상황에서 적외선 신호를 수신하기 위한 광학측정부;
상기 광학측정부의 정보를 이미지데이터로 변환하여 상기 정보 획득부로 송신하는 송신부;를 포함하는 정보 제공 장치.
a signal receiving unit for receiving a signal transmitted from the target;
Using artificial intelligence, the target friend information is obtained from the signal received from the signal receiver, and it is possible to detect whether the target is an enemy target or a friendly target, and when the target is an enemy target, the type of the enemy target is determined capable information acquisition unit; and
and an information sharing unit for sharing the information on the target acquired by the information acquisition unit to non-received users who have not received the signal transmitted from the target among a plurality of users; and
The information acquisition unit stores and extracts the image data stored using the deep neural network based on artificial intelligence and the image data set converted from the signal received by the signal receiving unit,
The deep neural network extracts and classifies features of the stored image data and the converted image data through an overlapping process and an integration process,
The signal receiving unit,
an optical measurement unit for receiving an infrared signal in the battlefield situation of each of the plurality of users;
and a transmitting unit that converts the information of the optical measuring unit into image data and transmits the converted information to the information obtaining unit.
복수의 사용자에게 각각 제공되어, 표적에 대한 정보를 제공하는 방법으로서,
일 사용자가 표적으로부터 전달된 신호를 수신하는 과정;
인공지능을 기반으로, 실시간으로 획득된 신호를 이용하여, 상기 표적의 피아 정보에 대한 정보를 획득하는 과정; 및
상기 표적에 관한 정보를 복수의 사용자에게 공유하는 과정;을 포함하고,
상기 표적에 대한 정보를 획득하는 과정은, 기 설정된 적군 표적의 정보 및 획득된 신호를 이용하여 적군 표적에 관한 정보를 미리 저장하는 과정, 인공지능 기반의 심층 신경망을 기반으로 적군 표적에 대한 미리 저장된 이미지데이터와 수신된 신호에서 변환된 이미지데이터를 비교하는 과정 및 상기 신호의 획득방향을 이용하여 상기 일 사용자를 기준으로 적군 표적의 상대적인 위치를 판단하는 과정을 포함하며,
상기 저장된 이미지데이터와 수신된 신호에서 변환된 이미지데이터를 비교하는 과정은,
수신된 신호를 상기 변환된 이미지데이터로 변환하는 과정; 및
상기 변환된 이미지데이터와 상기 저장된 이미지데이터를 서로 매칭시키는 과정;
매칭된 이미지데이터에 해당하는 적군 표적의 종류을 판단하는 과정;을 포함하는 정보 공유 방법.
A method for providing information about a target by being provided to a plurality of users, respectively,
a process in which a user receives a signal transmitted from a target;
a process of acquiring information about the peer information of the target using a signal acquired in real time based on artificial intelligence; and
Including; sharing information about the target to a plurality of users;
The process of acquiring information on the target includes pre-stored information on the enemy target using preset enemy target information and the acquired signal, and a process of pre-stored information on the enemy target based on an artificial intelligence-based deep neural network. Comprising the process of comparing the image data and the image data converted from the received signal and the process of determining the relative position of the enemy target with respect to the one user by using the acquisition direction of the signal,
The process of comparing the stored image data and the image data converted from the received signal,
converting the received signal into the converted image data; and
matching the converted image data and the stored image data with each other;
Information sharing method comprising a; the process of determining the type of the enemy target corresponding to the matched image data.
삭제delete 삭제delete 청구항 11에 있어서,
상기 적군 표적의 종류을 판단하는 과정은,
상기 저장된 이미지데이터에서 상기 표적에 대한 이미지를 추출하는 과정; 및
추출된 이미지에 해당하는 적군 표적의 해당 종류를 대응시키는 과정;을 포함하는 정보 공유 방법.
12. The method of claim 11,
The process of determining the type of the enemy target is
extracting an image of the target from the stored image data; and
An information sharing method comprising a process of matching a corresponding type of an enemy target corresponding to the extracted image.
복수의 사용자에게 각각 제공되어, 표적에 대한 정보를 제공하는 방법으로서,
일 사용자가 표적으로부터 전달된 신호를 수신하는 과정;
인공지능을 기반으로, 실시간으로 획득된 신호를 이용하여, 상기 표적의 피아 정보에 대한 정보를 획득하는 과정; 및
상기 표적에 관한 정보를 복수의 사용자에게 공유하는 과정;을 포함하고,
상기 표적에 대한 정보를 획득하는 과정은, 기 설정된 적군 표적의 정보 및 획득된 신호를 이용하여 적군 표적에 관한 정보를 미리 저장하는 과정, 인공지능 기반의 심층 신경망을 기반으로 적군 표적에 대한 미리 저장된 이미지데이터와 수신된 신호에서 변환된 이미지데이터를 비교하는 과정 및 상기 신호의 획득방향을 이용하여 상기 일 사용자를 기준으로 적군 표적의 상대적인 위치를 판단하는 과정을 포함하며,
상기 표적에 관한 정보를 복수의 사용자에게 공유하는 과정은,
상기 복수의 사용자 중 우선순위를 설정하고, 설정된 우선순위에 따라 상기 적군 표적의 종류에 관한 정보를 순차적으로 공유하는 정보 공유 방법.
A method for providing information about a target by being provided to a plurality of users, respectively,
a process in which a user receives a signal transmitted from a target;
a process of acquiring information about the peer information of the target using a signal acquired in real time based on artificial intelligence; and
Including; sharing information about the target to a plurality of users;
The process of acquiring information on the target includes pre-stored information on the enemy target using preset enemy target information and the acquired signal, and a process of pre-stored information on the enemy target based on an artificial intelligence-based deep neural network. Comprising the process of comparing the image data and the image data converted from the received signal and the process of determining the relative position of the enemy target with respect to the one user by using the acquisition direction of the signal,
The process of sharing information about the target to a plurality of users,
An information sharing method of setting priorities among the plurality of users, and sequentially sharing information on types of enemy targets according to the set priorities.
청구항 11에 있어서,
상기 표적에 관한 정보를 상기 일 사용자에게 전시하는 과정;을 더 포함하고,
상기 표적에 관한 정보를 상기 일 사용자에게 전시하는 과정은, 상기 일 사용자에게 표적의 위치 및 상기 표적의 종류를 이미지데이터 및 텍스트데이터로 전시하는 과정;을 포함하는 정보 공유 방법.

12. The method of claim 11,
Displaying the information about the target to the one user; further comprising,
The step of displaying the information on the target to the one user includes displaying the location of the target and the type of the target as image data and text data to the one user.

KR1020210014877A 2021-02-02 2021-02-02 Apparatus for sharing information and method for sharing information KR102339782B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210014877A KR102339782B1 (en) 2021-02-02 2021-02-02 Apparatus for sharing information and method for sharing information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210014877A KR102339782B1 (en) 2021-02-02 2021-02-02 Apparatus for sharing information and method for sharing information

Publications (1)

Publication Number Publication Date
KR102339782B1 true KR102339782B1 (en) 2021-12-16

Family

ID=79033142

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210014877A KR102339782B1 (en) 2021-02-02 2021-02-02 Apparatus for sharing information and method for sharing information

Country Status (1)

Country Link
KR (1) KR102339782B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100660025B1 (en) 2004-11-10 2006-12-20 한국전자통신연구원 System and method of location awareness with ultrasonic
KR101041856B1 (en) * 2010-11-29 2011-06-15 엘아이지넥스원 주식회사 Method for controlling target detected from different system
KR101262229B1 (en) * 2012-05-04 2013-05-15 삼성탈레스 주식회사 Apparatus for sharing lockon target and method for sharing lockon target
KR20200049783A (en) * 2017-08-11 2020-05-08 더글라스 퍼그니스 Devices with scopes connected to the network so that multiple devices can simultaneously track targets
KR102134580B1 (en) * 2020-04-16 2020-07-16 한화시스템 주식회사 Target information database management system for each layer of the next generation naval combat system
KR102136273B1 (en) * 2020-02-25 2020-07-21 국방과학연구소 Object Recognition Apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100660025B1 (en) 2004-11-10 2006-12-20 한국전자통신연구원 System and method of location awareness with ultrasonic
KR101041856B1 (en) * 2010-11-29 2011-06-15 엘아이지넥스원 주식회사 Method for controlling target detected from different system
KR101262229B1 (en) * 2012-05-04 2013-05-15 삼성탈레스 주식회사 Apparatus for sharing lockon target and method for sharing lockon target
KR20200049783A (en) * 2017-08-11 2020-05-08 더글라스 퍼그니스 Devices with scopes connected to the network so that multiple devices can simultaneously track targets
KR102136273B1 (en) * 2020-02-25 2020-07-21 국방과학연구소 Object Recognition Apparatus
KR102134580B1 (en) * 2020-04-16 2020-07-16 한화시스템 주식회사 Target information database management system for each layer of the next generation naval combat system

Similar Documents

Publication Publication Date Title
US11783712B1 (en) Unmanned vehicle recognition and threat management
US10203695B2 (en) Autonomous vehicle re-tasking during performance of a programmed task based on detection of a task interruption scenario
CN111417952A (en) Device with network-connected sighting telescope to allow multiple devices to track target simultaneously
US10368392B2 (en) Wireless sensor network architecture based on multifunctional and compound sensors
US10408574B2 (en) Compact laser and geolocating targeting system
JP2017529616A (en) Mobile platform control method and system
EP3005238B1 (en) Method and system for coordinating between image sensors
Domozi et al. Real time object detection for aerial search and rescue missions for missing persons
EP2177863B1 (en) Method for target geo-referencing using video analytics
KR102298341B1 (en) Apparatus for providing information and method for providing information
CN112823321A (en) Position positioning system and method for mixing position identification results based on multiple types of sensors
KR102339782B1 (en) Apparatus for sharing information and method for sharing information
KR102261665B1 (en) Apparatus for automatic navigation, method for automatic navigation and midget submarine using the same
KR102339783B1 (en) Apparatus for automatic navigating and method for automatic navigating
US11842452B2 (en) Portable display device with overlaid virtual information
JP7345153B2 (en) Geographical coordinate estimation device, geographic coordinate estimation system, geographic coordinate estimation method, and computer program for flying objects
US20230022049A1 (en) Vessel field of awareness apparatus and method
WO2018010169A1 (en) Device and method for virtualizing driving environment, and vehicle
JP2024152706A (en) Detection Networks Based on Embedding Distance Models
KR20240041448A (en) Electric device, system with the same, and method of estimating pose
EP4168818A1 (en) Client-server approach for indoor-outdoor detection of an electronic device, and associated systems and methods

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant