KR102339783B1 - Apparatus for automatic navigating and method for automatic navigating - Google Patents

Apparatus for automatic navigating and method for automatic navigating Download PDF

Info

Publication number
KR102339783B1
KR102339783B1 KR1020210014876A KR20210014876A KR102339783B1 KR 102339783 B1 KR102339783 B1 KR 102339783B1 KR 1020210014876 A KR1020210014876 A KR 1020210014876A KR 20210014876 A KR20210014876 A KR 20210014876A KR 102339783 B1 KR102339783 B1 KR 102339783B1
Authority
KR
South Korea
Prior art keywords
information
target
unit
image data
signal
Prior art date
Application number
KR1020210014876A
Other languages
Korean (ko)
Inventor
김세훈
김규목
Original Assignee
한화시스템 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화시스템 주식회사 filed Critical 한화시스템 주식회사
Priority to KR1020210014876A priority Critical patent/KR102339783B1/en
Application granted granted Critical
Publication of KR102339783B1 publication Critical patent/KR102339783B1/en

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41HARMOUR; ARMOURED TURRETS; ARMOURED OR ARMED VEHICLES; MEANS OF ATTACK OR DEFENCE, e.g. CAMOUFLAGE, IN GENERAL
    • F41H11/00Defence installations; Defence devices
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41HARMOUR; ARMOURED TURRETS; ARMOURED OR ARMED VEHICLES; MEANS OF ATTACK OR DEFENCE, e.g. CAMOUFLAGE, IN GENERAL
    • F41H13/00Means of attack or defence not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G06K9/6201
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0635Risk analysis of enterprise or organisation activities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Abstract

The present invention relates to an information providing apparatus and an information providing method, wherein the information providing apparatus comprises: a signal receiving unit for receiving a signal transmitted from a target; an information acquisition unit for acquiring information on a target from a signal received by the signal receiving unit using artificial intelligence; and an information sharing unit for sharing the information on the target acquired by the information acquisition unit to a plurality of users, thereby capable of displaying information about the target in a battlefield situation to the user located in the battlefield situation.

Description

정보 제공 장치 및 정보 제공 방법{Apparatus for automatic navigating and method for automatic navigating}Information providing device and information providing method {Apparatus for automatic navigating and method for automatic navigating}

본 발명은 정보 제공 장치 및 정보 제공 방법에 관한 것으로, 사용자에게 전장 상황에서 감지된 표적을 전시할 수 있는 정보 제공 장치 및 정보 제공 방법에 관한 것이다. The present invention relates to an information providing apparatus and information providing method, and to an information providing apparatus and information providing method capable of displaying a target detected in a battlefield situation to a user.

미래의 전장은 단위 무기체계별 플랫폼 중심의 전장에서 모든 무기체계가 기술적 연결성과 상호 운용성을 통하여 관련 부대 및 요원들이 필요한 정보를 공유하는 네트워크 중심의 작전환경으로 변화하고 있다. 즉, 네트워크를 통하여 전장의 상황을 인식하거나 전장 상황을 공유할 수 있다. 이에, 전장 상황에서 전투력을 극대화할 수 있다. The battlefield of the future is changing from a platform-oriented battlefield for each unit weapon system to a network-oriented operational environment where all weapon systems share necessary information through technical connectivity and interoperability. That is, the battlefield situation can be recognized or the battlefield situation can be shared through the network. Accordingly, it is possible to maximize combat power in a battlefield situation.

일반적으로, 네트워크 중심의 작전환경에서, 전장 상황의 감시하기 위한 수단으로 센서노드를 사용하였다. 즉, 센서노드가 수집하는 1차원 정보를 통해 전장 상황을 감시 혹은 정찰할 수 있다. 이를 위해, 센서노드가 전장 상황이 발생될 수 있는 지역에 미리 배치되어, 전장 상황이 발생했을 때 해당 지역의 정보를 수집 및 전송하였다. In general, in a network-centric operational environment, sensor nodes are used as a means to monitor the battlefield situation. In other words, it is possible to monitor or reconnaissance the battlefield situation through the one-dimensional information collected by the sensor node. To this end, sensor nodes were pre-arranged in an area where a battlefield situation could occur, and when a battlefield situation occurred, information about the area was collected and transmitted.

하지만, 네트워크 중심의 작전환경을 수행함에 있어서, 센서노드가 배치되지 않은 지역에서의 전장 상황 정보를 수집하지 못하는 문제가 발생하였다. 또한, 센서노드로 정보를 수집함으로 주변 방해물이 정보 수집을 방해할 경우, 해당 지역의 정보를 원활하게 수집하지 못하는 문제가 발생하였다. 이에 더하여, 센서노드를 통해 수집되는 1차원적 정보만으로는 전투원들 사이에 정보를 원활하게 공유하지 못하는 문제가 있었다. 이에, 센서노드가 설치되지 않은 지역에서도 네트워크 중심의 작전환경을 수행할 수 있고, 전투원들 사이에 정보 공유가 원활할 수 있는 장치 혹은 방법이 필요한 실정이다.However, in performing a network-oriented operational environment, there was a problem in that it was not possible to collect battlefield situation information in an area where a sensor node was not deployed. In addition, since information is collected by sensor nodes, when nearby obstacles interfere with information collection, there is a problem in that information in the relevant area cannot be smoothly collected. In addition, there was a problem in that information could not be smoothly shared among combatants only with one-dimensional information collected through the sensor node. Accordingly, there is a need for a device or method that can perform a network-oriented operation environment even in an area where a sensor node is not installed and can facilitate information sharing among combatants.

KRKR 10-0660025 10-0660025 B1B1

본 발명은 전장 상황에 위치한 사용자에게 전장 상황의 표적에 대한 정보를 전시할 수 있는 정보 제공 장치 및 정보 제공 방법에 관한 것이다.The present invention relates to an information providing apparatus and an information providing method capable of displaying information on a target in a battlefield situation to a user located in a battlefield situation.

본 발명은 전장 상황의 표적에 대한 정보를 복수의 사용자들에게 공유할 수 있는 정보 제공 장치 및 정보 제공 방법에 관한 것이다.The present invention relates to an information providing apparatus and an information providing method capable of sharing information on a target in a battlefield situation to a plurality of users.

본 발명은 표적으로부터 전달되는 신호를 수신하기 위한 신호 수신부; 인공지능을 이용하여 상기 신호 수신부에서 수신된 신호로부터 표적에 대한 정보를 획득하기 위한 정보 획득부; 및 상기 정보 획득부가 획득한 표적에 대한 정보를 복수의 사용자에게 공유하기 위한 정보 공유부;를 포함한다.The present invention is a signal receiving unit for receiving a signal transmitted from the target; an information acquisition unit for acquiring information on a target from a signal received by the signal reception unit using artificial intelligence; and an information sharing unit for sharing the information on the target acquired by the information acquisition unit to a plurality of users.

본 발명은 표적으로부터 전달되는 신호를 수신하기 위한 신호 수신부; 인공지능을 이용하여 상기 신호 수신부에서 수신된 신호를 이미지데이터로 변환하고, 변환된 이미지데이터로부터 표적에 대한 정보를 획득하기 위한 정보 획득부; 및 상기 정보 획득부가 획득한 표적에 대한 정보를 복수의 사용자에게 공유하기 위한 정보 공유부;를 포함한다.The present invention is a signal receiving unit for receiving a signal transmitted from the target; an information obtaining unit for converting the signal received by the signal receiving unit into image data using artificial intelligence, and obtaining information about a target from the converted image data; and an information sharing unit for sharing the information on the target acquired by the information acquisition unit to a plurality of users.

상기 정보 획득부는, 상기 신호 수신부에서 수신된 신호를 이미지데이터로 변환하고 미리 저장된 이미지데이터 중 상기 변환된 이미지데이터와 동일한 이미지데이터를 판단한다.The information obtaining unit converts the signal received by the signal receiving unit into image data, and determines image data identical to the converted image data among previously stored image data.

상기 정보 획득부는, The information acquisition unit,

상기 저장된 이미지데이터를 이용하여 기 설정된 적군 표적들 중 전장 상황의 적군 표적을 식별하기 위한 적군식별부; 및 상기 신호의 획득방향을 이용하여 신호를 획득한 사용자를 기준으로 적군 표적의 상대적인 위치를 판단하기 위한 위치확인부;를 포함한다.an enemy identification unit for identifying an enemy target in a battlefield situation from among preset enemy targets by using the stored image data; and a positioning unit for determining the relative position of the enemy target based on the user who has acquired the signal using the signal acquisition direction.

상기 적군식별부는, 설정된 적군 표적에 대한 상기 저장된 이미지데이터를 미리 저장하거나 혹은 상기 변환된 이미지데이터를 미리 저장하기 위한 이미지저장부; 상기 신호 수신부로부터 수신된 신호를 이미지데이터로 변환하기 위한 이미지변환부; 및 상기 이미지저장부에서 상기 저장된 이미지데이터를 추출하고, 상기 변환된 이미지데이터와 매칭하여 적군 표적의 종류를 식별하기 위한 이미지식별부;를 포함한다.The enemy identification unit may include: an image storage unit configured to pre-store the stored image data for a set enemy target or to store the converted image data in advance; an image conversion unit for converting the signal received from the signal receiving unit into image data; and an image identification unit for extracting the stored image data from the image storage unit and matching the converted image data to identify a type of an enemy target.

상기 위치확인부는, GPS 위성 정보를 활용하여 진북방향을 기준으로 상기 신호의 획득방향까지의 각도를 측정하기 위한 각도측정부; 및 상기 신호의 손실률을 계산하여, 신호를 획득한 사용자와 상기 적군 표적 사이의 거리를 측정하기 위한 거리측정부;를 포함한다.The positioning unit may include: an angle measuring unit for measuring an angle from the true north direction to the acquisition direction of the signal using GPS satellite information; and a distance measuring unit for calculating the signal loss rate and measuring the distance between the user who obtained the signal and the enemy target.

상기 정보 획득부로부터 전송된 표적에 대한 정보를 이미지데이터 혹은 텍스트데이터로 변환하여 복수의 사용자 중 어느 하나의 사용자에게 전시하는 디스플레이부;를 포함한다.and a display unit that converts the target information transmitted from the information acquisition unit into image data or text data and displays the information to any one of a plurality of users.

상기 디스플레이부는, 상기 표적에 대한 정보를 이미지 심볼로 변환하기 위한 제1 변환부; 상기 적군 표적에 대한 정보를 문자 심볼 및 숫자 심볼로 변환하기 위한 제2 변환부; 및 이미지 심볼, 문자 심볼 및 숫자 심볼로 변환된 상기 적군 표적에 대한 정보를 전시하기 위한 전시부;를 포함한다.The display unit may include: a first converting unit for converting the information on the target into an image symbol; a second conversion unit for converting the information on the enemy target into character symbols and numeric symbols; and a display unit for displaying information on the enemy target converted into image symbols, text symbols, and numeric symbols.

상기 신호 수신부는, 상기 복수의 사용자의 가시영역 및 상기 가시영역 이외의 방향에서 시각화된 신호, 청각화된 신호 및 전자기화된 신호 중 어느 하나의 신호를 자동으로 수신한다.The signal receiving unit automatically receives any one of a visualized signal, an audible signal, and an electromagnetic signal in a visible region of the plurality of users and in a direction other than the visible region.

상기 정보 획득부는, 인공지능 기반의 심층 신경망을 이용하여 상기 저장된 이미지데이터 및 상기 변환된 이미지데이터 집합을 저장 및 추출하고, 상기 심층 신경망은, 중첩 과정과 통합 과정을 통해 상기 저장된 이미지데이터 및 상기 변환된 이미지데이터의 특징을 추출하여 분류한다.The information acquisition unit stores and extracts the stored image data and the converted image data set by using an artificial intelligence-based deep neural network, and the deep neural network, the stored image data and the transformation through an overlapping process and an integration process The features of the image data are extracted and classified.

본 발명은 복수의 사용자에게 각각 제공되어, 표적에 대한 정보를 제공하는 방법으로서, 일 사용자가 표적으로부터 전달된 신호를 수신하는 과정; 인공지능을 기반으로, 실시간으로 획득된 신호를 이용하여, 상기 표적에 대한 정보를 획득하는 과정; 및 상기 표적에 관한 정보를 복수의 사용자에게 공유하는 과정;을 포함한다.The present invention provides a method for providing information on a target by being provided to a plurality of users, respectively, the process comprising: one user receiving a signal transmitted from the target; A process of acquiring information about the target by using a signal acquired in real time based on artificial intelligence; and a process of sharing information about the target to a plurality of users.

상기 표적에 대한 정보를 획득하는 과정은, 기 설정된 적군 표적의 정보 및 획득된 신호를 이용하여 적군 표적에 관한 정보를 미리 저장하는 과정; 인공지능 기반의 심층 신경망을 기반으로, 미리 저장된 적군 표적 정보와 획득된 적군 표적 정보를 비교하는 과정; 및 상기 신호의 획득방향을 이용하여 상기 일 사용자를 기준으로 적군 표적의 상대적인 위치를 판단하는 과정;을 포함한다.The process of acquiring the information on the target may include: storing information on the enemy target in advance using preset information on the enemy target and the acquired signal; A process of comparing pre-stored enemy target information with acquired enemy target information based on an artificial intelligence-based deep neural network; and determining the relative position of the enemy target with respect to the one user by using the signal acquisition direction.

상기 적군 표적에 관한 정보를 미리 저장하는 과정은, 상기 기 설정된 적군 표적의 미리 저장된 이미지데이터 및 획득된 신호로부터 변환된 이미지데이터를 중첩 및 통합시켜 특징을 추출하고, 추출한 특징들의 패턴을 저장하는 과정;을 포함한다.The process of pre-storing the information on the enemy target is a process of extracting features by overlapping and integrating image data converted from the acquired signal and pre-stored image data of the preset enemy target, and storing the pattern of the extracted features. includes ;

상기 저장된 적군 표적 정보와 획득된 적군 표적 정보를 비교하는 과정은, 획득된 신호를 상기 변환된 이미지데이터로 변환하는 과정; 및 상기 변환된 이미지데이터와 상기 저장된 이미지데이터를 서로 매칭시키는 과정;을 포함한다.The comparing of the stored enemy target information with the acquired enemy target information may include converting the acquired signal into the converted image data; and matching the converted image data and the stored image data with each other.

상기 일 사용자를 기준으로 적군 표적의 상대적인 위치를 판단하는 과정은, 진북방향을 기준으로 상기 신호의 획득방향까지의 각도를 측정하는 과정; 및 상기 신호의 손실률을 통해, 상기 일 사용자와 상기 적군 표적 사이의 거리를 측정하는 과정;을 포함한다.The process of determining the relative position of the enemy target with respect to the one user may include: measuring an angle from the true north direction to the signal acquisition direction; and measuring a distance between the one user and the enemy target through the signal loss rate.

상기 표적에 관한 정보를 상기 일 사용자에게 전시하는 과정;을 더 포함하고, 상기 표적에 관한 정보를 상기 일 사용자에게 전시하는 과정은, 상기 일 사용자에게 표적의 위치 및 상기 표적의 종류를 이미지데이터 및 텍스트데이터로 전시하는 과정;을 포함한다.The process of displaying the information on the target to the one user; further comprising, the process of displaying the information on the target to the one user includes, to the one user, the location of the target and the type of the target image data and This includes the process of displaying text data.

본 발명의 실시 예에 따르면, 전장 상황에 위치한 복수의 사용자 중 일 사용자의 시선이 향하는 가시영역 및 가시영역 이외의 영역에서 자동으로 표적에 대한 정보를 획득할 수 있다. According to an embodiment of the present invention, information on a target may be automatically acquired in a visible region to which one user's gaze is directed and a region other than the visible region among a plurality of users located in a battlefield situation.

또한, 획득된 표적에 대한 정보를 일 사용자 및 다른 사용자들에게 전시할 수 있다. 이에, 전장 상황에 위치한 표적에 대한 정보를 효과적으로 공유할 수 있다. In addition, information on the acquired target may be displayed to one user and other users. Accordingly, information on a target located in a battlefield situation can be effectively shared.

또한, 획득된 표적에 대한 정보를 이미지데이터 혹은 텍스트데이터로 전시하여 복수의 사용자들이 효과적으로 표적에 대한 정보를 파악할 수 있다.In addition, by displaying the acquired information on the target as image data or text data, a plurality of users can effectively grasp information on the target.

도 1은 본 발명의 실시 예에 따른 정보 제공 장치와 사용자의 관계를 도시한 도면.
도 2는 본 발명의 실시 예에 따른 정보 제공 장치의 구조를 도시한 도면.
도 3은 전장 상황에서 표적의 정보를 획득하는 모습을 도시한 도면.
도 4는 표적의 정보를 식별하고 표적의 위치를 판단하는 모습을 나타내는 도면.
도 5는 인공지능으로 표적의 정보를 학습하는 모습을 나타내는 도면.
도 6은 본 발명의 실시 예에 따른 정보 제공 방법을 나타내는 플로우차트.
1 is a diagram illustrating a relationship between an information providing apparatus and a user according to an embodiment of the present invention.
2 is a diagram illustrating a structure of an information providing apparatus according to an embodiment of the present invention.
3 is a diagram illustrating a state in which target information is acquired in a battlefield situation.
Figure 4 is a view showing a state of identifying information on the target and determining the location of the target.
5 is a diagram illustrating a state in which information on a target is learned by artificial intelligence.
6 is a flowchart illustrating an information providing method according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 실시 예를 더욱 상세히 설명하기로 한다. 그러나 본 발명은 이하에서 개시되는 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하며, 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 발명을 상세하게 설명하기 위해 도면은 과장될 수 있고, 도면상에서 동일 부호는 동일한 요소를 지칭한다.Hereinafter, embodiments of the present invention will be described in more detail with reference to the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and the scope of the invention to those of ordinary skill in the art completely It is provided to inform you. In order to explain the invention in detail, the drawings may be exaggerated, and like reference numerals refer to like elements in the drawings.

도 1은 본 발명의 실시 예에 따른 정보 제공 장치와 사용자의 관계를 도시한 도면이고, 도 2는 본 발명의 실시 예에 따른 정보 제공 장치의 구조를 도시한 도면이다.1 is a diagram illustrating a relationship between an information providing apparatus and a user according to an embodiment of the present invention, and FIG. 2 is a diagram illustrating a structure of an information providing apparatus according to an embodiment of the present invention.

본 발명의 실시 예에 따른 정보 제공 장치(100)는 표적(P)으로부터 전달되는 신호를 수신하기 위한 신호 수신부(110), 인공지능을 이용하여 신호 수신부(110)에서 수신된 신호로부터 표적에 대한 정보를 획득하기 위한 정보 획득부(120) 및 정보 획득부(120)가 획득한 표적에 대한 정보를 복수의 사용자(사용자1,사용자2,사용자3,사용자4)에게 공유하기 위한 정보 공유부(130)를 포함할 수 있다. The information providing apparatus 100 according to an embodiment of the present invention uses a signal receiving unit 110 for receiving a signal transmitted from a target P, and artificial intelligence from a signal received in the signal receiving unit 110 for a target. An information sharing unit ( 130) may be included.

또한, 정보 제공 장치(100)는 판단된 적군 표적(P)에 대한 정보를 이미지데이터 혹은 텍스트데이터로 변환하여 신호를 획득한 일 사용자(사용자2)에게 전시하는 디스플레이부(140)를 더 포함할 수도 있다. In addition, the information providing apparatus 100 may further include a display unit 140 that converts information on the determined enemy target P into image data or text data and displays it to a user (user 2) who obtains a signal. may be

한편, 상술한 적군 표적(P)은 사용자가 인식할 수 있는 대상체, 예컨데 군용차 혹은 탱크일 수 있다.Meanwhile, the aforementioned enemy target P may be an object recognizable by a user, for example, a military vehicle or a tank.

한편, 정보 제공 장치(100)는 복수의 사용자(사용자1,사용자2,사용자3,사용자4)에게 각각 제공될 수 있다. 즉, 복수의 사용자가 각각 신호 수신부(110), 정보 획득부(120), 정보 공유부(130) 및 디스플레이부(140)를 가질 수 있다. 또는, 신호 수신부(110), 디스플레이부(140)만 복수의 사용자(사용자1,사용자2,사용자3,사용자4)에게 각각 제공되고, 정보 획득부(120) 및 정보 공유부(130)가 중앙 통제시스템으로 마련될 수도 있다. 즉, 복수의 사용자가 정보 획득부(120) 및 정보 공유부(130)를 공유할 수 있다. 본 발명의 실시 예에서는 신호 수신부(110), 정보 획득부(120), 정보 공유부(130) 및 디스플레이부(140)가 복수의 사용자(사용자1,사용자2,사용자3,사용자4)에게 각각 제공되는 경우를 예시적으로 설명한다.Meanwhile, the information providing apparatus 100 may be provided to a plurality of users (User 1 , User 2 , User 3 , and User 4 ), respectively. That is, a plurality of users may each have the signal receiving unit 110 , the information obtaining unit 120 , the information sharing unit 130 , and the display unit 140 . Alternatively, only the signal receiving unit 110 and the display unit 140 are provided to a plurality of users (User 1, User 2, User 3, and User 4), respectively, and the information obtaining unit 120 and the information sharing unit 130 are centrally located. It can also be provided as a control system. That is, a plurality of users may share the information obtaining unit 120 and the information sharing unit 130 . In an embodiment of the present invention, the signal receiving unit 110, the information obtaining unit 120, the information sharing unit 130, and the display unit 140 are provided to a plurality of users (User 1, User 2, User 3, User 4), respectively. A case in which it is provided will be exemplarily described.

도 1 및 도 2를 참조하면, 신호 수신부(110)는 전장 상황에 관한 신호를 획득할 수 있다. 즉, 신호 수신부(110)는 전장 상황에서 적군 표적(P)에 대한 정보가 담긴 신호를 획득할 수 있다. 신호 수신부(110)는 광학측정부(111), 전자기측정부(112), 음파측정부(113) 및 송신부(114)를 포함할 수 있다. 즉, 신호 수신부(110)는 광학측정부(111)를 통해 사용자의 시선이 향하는 가시 영역의 실제 영상을 촬영하여 신호를 획득하므로 적군 표적(P)의 존재 여부 및 위치 정보를 획득할 수 있다. 또한, 신호 수신부(110)는 전자기측정부(112) 및 음파측정부(113)를 통해 가시 영역 이외의 영역을 감지하여 적군 표적(P)의 신호를 획득하므로, 적군 표적(P)의 존재 여부 및 위치 정보를 획득할 수 있다.1 and 2 , the signal receiver 110 may acquire a signal related to a battlefield situation. That is, the signal receiver 110 may acquire a signal containing information about the enemy target P in a battlefield situation. The signal receiving unit 110 may include an optical measuring unit 111 , an electromagnetic measuring unit 112 , a sound wave measuring unit 113 , and a transmitting unit 114 . That is, the signal receiving unit 110 acquires a signal by capturing an actual image of the visible region to which the user's gaze is directed through the optical measuring unit 111 , so that it is possible to obtain information about the presence or location of the enemy target P. In addition, since the signal receiver 110 detects a region other than the visible region through the electromagnetic measurement unit 112 and the sound wave measurement unit 113 to obtain a signal of the enemy target P, the presence of the enemy target P and location information.

하기에서, 복수의 사용자 중 적군 표적(P)에 관한 신호를 획득한 사용자를 감지 사용자(사용자2)라 하고, 적군 표적(P)에 관한 신호를 획득하지 못한 사용자를 미감지 사용자(사용자1,사용자3,사용자4)라 한다. 즉, 감지 사용자는 가시 영역 내에 적군 표적(P)이 보이거나, 혹은 가시 영역 내에 적군 표적(P)이 보이지는 않지만 신호 수신부(110)를 통해 적군 표적(P)의 존재 여부 및 위치의 정보엔 관한 신호를 획득한 사용자일 수 있다. 반면, 미감지 사용자는 가시 영역 내에 적군 표적(P)이 존재하지 않고, 적군 표적(P)에 관한 신호를 획득하지 못한 사용자일 수 있다. Hereinafter, a user who has obtained a signal regarding the enemy target P among a plurality of users is referred to as a sensing user (User 2), and a user who has not obtained a signal regarding the enemy target P is referred to as an undetected user (User 1, User 3, User 4). That is, the sensing user sees the enemy target P in the visible area, or does not see the enemy target P in the visible area, but through the signal receiving unit 110, information on the presence and location of the enemy target P It may be a user who has obtained a signal related to the On the other hand, the undetected user may be a user in which the enemy target P does not exist in the visible region and does not acquire a signal related to the enemy target P.

보다 구체적으로, 광학측정부(111)는 사용자의 시선이 향하는 가시 영역의 실제 영상을 촬영하여 적군 표적(P)에 관한 신호를 획득할 수 있다. 즉, 광학측정부(111)는 시각화된 신호를 획득할 수 있다. 여기서, 가시 영역은 각각의 사용자의 시선이 향하는 진북방향을 기준으로 사용자가 눈으로 확인할 수 있는 영역일 수 있다. 즉, 가시 영역은 사용자를 기준으로 진북방향을 따라서 방사형으로 확장되는 소정의 공간일 수 있다. 한편, 하기에서는 사용자의 시선이 향하는 방향을 진북방향이라고 한다. 이에, 광학측정부(111)를 통해 사용자가 실제 영상을 통해 적군 표적(P)의 존재 여부 및 위치 정보를 획득할 수 있다.More specifically, the optical measurement unit 111 may acquire a signal regarding the enemy target P by photographing an actual image of the visible region toward which the user's gaze is directed. That is, the optical measurement unit 111 may acquire a visualized signal. Here, the visible area may be an area that the user can see with his/her eyes based on the true north direction to which each user's gaze is directed. That is, the visible area may be a predetermined space radially extending along the true north direction with respect to the user. Meanwhile, in the following description, the direction in which the user's gaze is directed is referred to as a true north direction. Accordingly, through the optical measurement unit 111, the user may acquire the presence or absence of the enemy target P and the location information through the actual image.

전자기측정부(112)는 전파의 직진성을 통해 적군 표적(P)에 관한 신호를 획득할 수 있다. 즉, 전자기측정부(112)는 전자기화된 신호를 획득할 수 있다. 예를 들어, 전자기측정부(112)는 전파를 주기적으로 방출하고, 분출된 전파가 반사된 반사파를 수신한 시각까지의 시간을 측정하여 적군 표적(P)의 존재 여부 및 적군 표적의 방향과 거리를 측정할 수 있다. 예컨데, 전자기측정부(112)는 레이더를 포함할 수 있다. 이에, 전자기측정부(112)를 통해 사용자가 가시 영역 이외의 영역에서 적군 표적(P)의 정보를 획득할 수 있다. 즉, 특정 영역만 감시하는 것이 아닌, 가시 영역의 인근 지역에 대한 정보를 획득하여 사용자에게 적합한 정보를 제공할 수 있다.The electromagnetic measurement unit 112 may acquire a signal regarding the enemy target P through the straightness of the radio wave. That is, the electromagnetic measurement unit 112 may acquire an electromagnetic signal. For example, the electromagnetic measuring unit 112 periodically emits radio waves and measures the time until the time when the ejected radio waves receive the reflected reflected wave to determine the presence of the enemy target P and the direction and distance of the enemy target. can be measured. For example, the electromagnetic measurement unit 112 may include a radar. Accordingly, the user may acquire information on the enemy target P in a region other than the visible region through the electromagnetic measurement unit 112 . That is, it is possible to provide suitable information to the user by acquiring information on a nearby area of the visible area, rather than monitoring only a specific area.

음파측정부(113)는 초음파를 방출하여 적군 표적(P)에 관한 신호를 획득할 수 있다. 즉, 음파측정부(113)는 청각화된 신호를 획득할 수 있다. 예를 들어, 음파측정부(113)는 고주파 음의 진동을 만들어내고, 그 울림이 포착되는 원리로 적군 표적(P)의 정보를 획득할 수 있다. 예컨데, 음파측정부(113)는 소나센서를 포함할 수 있다. 이에, 음파측정부(113)를 통해 사용자가 가시 영역 이외의 영역에서 적군 표적(P)의 정보를 획득할 수 있다. The sound wave measurement unit 113 may acquire a signal regarding the enemy target P by emitting ultrasonic waves. That is, the sound wave measurement unit 113 may obtain an audio signal. For example, the sound wave measurement unit 113 may generate high-frequency sound vibrations and acquire information on the enemy target P based on a principle in which the resonance is captured. For example, the sound wave measurement unit 113 may include a sonar sensor. Accordingly, the user may acquire information on the enemy target P in an area other than the visible area through the sound wave measurement unit 113 .

송신부(114)는 광학측정부(111), 전자기측정부(112), 음파측정부(113)에 각각 연결되며, 광학측정부(111), 전자기측정부(112), 음파측정부(113)를 통해 획득된 신호를 정보 획득부(120)로 전송할 수 있다. 한편, 송신부(114)는 획득된 신호를 이미지데이터로 변환하지 않고 정보 획득부(120)로 전송하거나, 혹은 획득된 신호를 이미지데이터로 변환한 후 정보 획득부(120)로 전송할 수 있다. 하기에서는, 송신부(114)가 획득된 신호를 이미지데이터로 변환하지 않고 정보 획득부(120)로 전송하는 경우를 예시적으로 설명한다. The transmitter 114 is connected to the optical measurement unit 111, the electromagnetic measurement unit 112, and the sound wave measurement unit 113, respectively, and the optical measurement unit 111, the electromagnetic measurement unit 112, and the sound wave measurement unit 113. A signal obtained through , may be transmitted to the information obtaining unit 120 . Meanwhile, the transmitter 114 may transmit the acquired signal to the information acquisition unit 120 without converting it into image data, or may convert the acquired signal into image data and then transmit it to the information acquisition unit 120 . Hereinafter, a case in which the transmitter 114 transmits the acquired signal to the information acquirer 120 without converting it into image data will be exemplarily described.

한편, 신호 수신부(110)는 복수의 사용자의 상태 정보를 획득할 수 있는 보조 정보획득부(미도시)를 더 포함할 수 있다. 상술한 바와 같이, 보조 정보획득부는 복수의 사용자(사용자1,사용자2,사용자3,사용자4)에게 각각 제공되며, 서로 네트워크 통신망 상으로 연결될 수 있다. 예를 들어, 보조 정보획득부는 사물인터넷(Iot : Internet of things)를 이용하여, 복수의 사용자(사용자1,사용자2,사용자3,사용자4)의 상태 정보를 획득할 수 있다. 여기서, 보조 정보획득부는 복수의 사용자 각각의 병기 유무, 탄약 보유량, 병기의 구동 상태에 대한 정보를 사물인터넷 방식을 통해 전력데이터로 변환하고, 변환된 전력데이터를 설정된 구간 별로 구분할 수 있다. 여기서, 보조 정보획득부는 복수의 사용자들 각각의 전력데이터를 예컨데, 1등급 내지 4등급으로 나누어 구분지을 수 있다. 이에, 보조 정보획득부가 복수의 사용자 각각의 전투 정보를 구간별로 구분짓고 각각의 전력데이터를 획득할 수 있다. Meanwhile, the signal receiving unit 110 may further include an auxiliary information obtaining unit (not shown) capable of obtaining status information of a plurality of users. As described above, the auxiliary information acquisition unit is provided to a plurality of users (User 1, User 2, User 3, User 4), respectively, and may be connected to each other over a network communication network. For example, the auxiliary information acquisition unit may acquire status information of a plurality of users (User 1, User 2, User 3, and User 4) by using the Internet of Things (Iot). Here, the auxiliary information acquisition unit converts information on the presence or absence of weapons, the amount of ammunition, and the driving state of each of the plurality of users into power data through the Internet of Things (IoT) method, and can classify the converted power data for each set section. Here, the auxiliary information acquisition unit may divide the power data of each of the plurality of users into, for example, grades 1 to 4 and classify them. Accordingly, the auxiliary information acquisition unit may divide the battle information of each of the plurality of users by section and acquire each power data.

도 3은 전장 상황에서 표적의 정보를 획득하는 모습을 도시한 도면이고, 도 4는 표적의 정보를 식별하고 표적의 위치를 판단하는 모습을 나타내는 도면이고, 도 5는 인공지능으로 표적의 정보를 학습하는 모습을 나타내는 도면이다. 3 is a view showing a state of acquiring information of a target in a battlefield situation, FIG. 4 is a view showing a state of identifying information on a target and determining a position of a target, and FIG. 5 is a view showing information of a target with artificial intelligence It is a drawing showing the state of learning.

도 1 내지 도 5를 참조하면, 정보 획득부(120)는 인공지능을 기반으로 적군 표적(P) 및 아군에 대해 미리 학습하고, 학습된 정보를 이용하여 적군 표적(P)을 감지하며, 감지된 적군 표적(P)의 피아를 식별할 수 있다. 여기서, 적군 표적(P)의 피아는 적군 표적(P)의 신원이 아군인지 혹은 적군인지에 관한 것일 수 있다. 1 to 5 , the information acquisition unit 120 learns in advance about the enemy target P and the ally based on artificial intelligence, and detects the enemy target P using the learned information, and detects It is possible to identify the enemy of the enemy target (P). Here, the peer of the enemy target P may relate to whether the identity of the enemy target P is a friend or an enemy.

도 5를 참조하면, 정보 획득부(120)는 인공지능 기반의 심층 신경망을 이용하여, 이미지데이터를 집합화하고, 집화한 이미지데이터를 저장 및 추출하여 학습할 수 있다 또한, 정보 획득부(120)는 적군 표적(P)을 감지하여 적군 표적(P)에 대한 피아를 판단할 수 있다. Referring to FIG. 5 , the information acquisition unit 120 can learn by collecting image data and storing and extracting the collected image data using an artificial intelligence-based deep neural network. In addition, the information acquisition unit 120 ) can detect the enemy target (P) to determine the enemy to the enemy target (P).

여기서, 인공지능은 이미지데이터를 군집화하거나 분류하는 딥러닝을 포함할 수 있다. 또한, 심층 신경망은 중첩 과정과 통합 과정을 통해 이미지데이터의 특징을 추출하고 특징들의 패턴을 학습하는 콘볼루션 신경망을 포함할 수 있다. 이를 위해, 정보 획득부(120)는 적군식별부(121) 및 위치확인부(122)를 포함할 수 있다. Here, artificial intelligence may include deep learning to cluster or classify image data. In addition, the deep neural network may include a convolutional neural network that extracts features of image data and learns patterns of features through an overlapping process and an integration process. To this end, the information acquisition unit 120 may include an enemy identification unit 121 and a location check unit 122 .

적군식별부(121)는 송신부(114)에서 전송된 신호를 이미지데이터로 변환하고, 변환된 이미지데이터를 이용하여 기 설정된 적군 표적(P)들 중 전장 상황의 적군 표적을 식별할 수 있다. 적군식별부(121)는 이미지저장부(121a), 이미지변환부(121b) 및 이미지식별부(121c)를 포함할 수 있다. The enemy identification unit 121 may convert the signal transmitted from the transmitter 114 into image data, and use the converted image data to identify an enemy target in a battlefield situation among preset enemy targets P. The enemy identification unit 121 may include an image storage unit 121a, an image conversion unit 121b, and an image identification unit 121c.

이미지저장부(121a)는 기 설정된 적군 표적(P)의 정보에 대한 이미지데이터를 미리 저장하거나, 혹은 이미지변환부(121b)를 통해 신호가 이미지데이터로 변환된 것을 미리 저장할 수 있다. 즉, 이미지저장부(121a)는 미리 적군 표적(P)에 관한 이미지데이터를 통해 적군 표적(P)에 대한 일반적인 형상 및 구조를 알고 있을 수 있다. The image storage unit 121a may pre-store image data for information of the enemy target P, or may pre-store a signal converted into image data through the image conversion unit 121b. That is, the image storage unit 121a may know in advance the general shape and structure of the enemy target P through image data regarding the enemy target P.

또한, 이미지저장부(121a)는 신호 수신부(110)에서 실시간으로 송신되어 이미지변환부(121b)를 통해 신호가 이미지데이터로 변환된 이미지데이터를 추가로 저장할 수 있다. 즉, 기 설정된 적군 표적(P)에 대한 이미지데이터에 더하여 추가로 부유평 표적(P)에 대한 이미지데이터를 업데이트하여 저장할 수 있다.Also, the image storage unit 121a may additionally store image data that is transmitted in real time from the signal receiving unit 110 and the signal is converted into image data through the image converting unit 121b. That is, in addition to the preset image data for the enemy target P, the image data for the floating target P may be updated and stored.

이에 더하여, 이미지저장부(121a)는 이미지식별부(121c)를 통해 적군 표적(P)에 대한 식별이 끝난 후, 식별 과정에서 사용한 이미지데이터를 추가로 저장할 수 있다. 즉, 식별 과정에서 사용한 이미지데이터를 이용하여 식별과정이 끝난 후 학습할 수 있다. 따라서, 이미지저장부(121a)는 신호 수신부(110)에서 전송되는 이미지데이터를 통해 적군 표적에 대한 더 명확한 이미지데이터를 가질 수 있다.In addition, the image storage unit 121a may additionally store image data used in the identification process after identification of the enemy target P through the image identification unit 121c is finished. That is, the image data used in the identification process can be used to learn after the identification process is completed. Accordingly, the image storage unit 121a may have clearer image data for the enemy target through the image data transmitted from the signal receiving unit 110 .

한편, 이미지저장부(121a)는 아군에 대한 이미지데이터를 저장하면서, 적군 표적(P)의 이미지데이터에 이미지를 포함시켜 저장할 수 있다. 즉, 이미지저장부(121a)는 적군 표적(P)에 대한 이미지데이터에 아군의 적군 표적의 이미지 혹은 적군의 적군 표적의 이미지를 각각 나누어 집합화하여 저장할 수도 있다.On the other hand, the image storage unit 121a may store the image data of the ally while including the image in the image data of the enemy target P. That is, the image storage unit 121a may divide and store the image data of the enemy target P by dividing the image of the friendly target or the image of the enemy target in the image data of the enemy target P.

또한, 이미지저장부(121a)는 아군 및 적군 표적(P)에 대한 이미지데이터와 함께 전력데이터도 저장할 수 있다. 즉, 이미지저장부(121a)는 아군 및 적군 표적의 이미지데이터에 각각 전력데이터를 포함시켜 저장할 수 있다. 여기서, 전력데이터는 병기 유무, 탄약 보유량, 병기의 구동 상태에 대한 정보를 의미할 수 있다. 이에, 이미지저장부가 아군 및 적군 표적(P)을 전력데이터에 따라, 설정된 구간별로 구분할 수 있다. 여기서, 설정된 구간은 예컨데 1등급 내지 4등급일 수 있다. Also, the image storage unit 121a may store power data together with image data for friendly and enemy targets P. That is, the image storage unit 121a may store power data by including power data in image data of friendly and enemy targets, respectively. Here, the power data may refer to information on the presence or absence of weapons, the amount of ammunition held, and the driving state of the weapon. Accordingly, the image storage unit may classify the friendly and enemy targets P according to the power data for each set section. Here, the set section may be, for example, grades 1 to 4.

이미지변환부(121b)는 신호 수신부(110)에서 전송된 신호를 이미지데이터(즉, 변환된 이미지데이터)로 상호 변환시킬 수 있다. 여기서, 이미지변환부(121b)는 시각화된 신호, 청각화된 신호 및 전자기화된 신호 중 적어도 어느 하나의 신호를 이미지데이터로 변환시킬 수 있다. 이에, 송신부(114)를 통해 시각화된 신호, 청각화된 신호 및 전자기화된 신호 중 어떠한 신호가 송신되어도 이미지데이터로 용이하게 변환시킬 수 있다.The image converter 121b may convert the signal transmitted from the signal receiver 110 into image data (ie, converted image data). Here, the image conversion unit 121b may convert at least one of a visualized signal, an auditory signal, and an electromagnetic signal into image data. Accordingly, even if any signal among the visualized signal, the auditory signal, and the electromagnetic signal is transmitted through the transmitter 114, it can be easily converted into image data.

이미지식별부(121c)는 인공지능을 기반으로 이미지저장부(121a)에 미리 저장된 이미지데이터를 추출하고, 신호 수신부(110)에서 실시간으로 전송되는 이미지데이터와 매칭하여 적군 표적(P)의 피아를 식별할 수 있다. 보다 구체적으로, 이미지식별부(121c)는 신호 수신부(110)에서 실시간으로 전송된 이미지데이터의 이미지 패턴을 인식하고, 군집화된 아군 및 적군 표적(P)에 관한 각각의 이미지 패턴 중 일치하는 패턴을 찾아 아군인지 혹은 적군 표적인지 식별할 수 있다.The image identification unit 121c extracts image data stored in advance in the image storage unit 121a based on artificial intelligence and matches the image data transmitted in real time from the signal receiving unit 110 to identify the enemy of the target P. can be identified. More specifically, the image identification unit 121c recognizes an image pattern of the image data transmitted in real time from the signal receiving unit 110, and selects a matching pattern among the respective image patterns for the grouped friendly and enemy targets P. You can find out if they are friendly or enemy targets.

또한, 이미지식별부(121c)는 인공지능을 기반으로, 적군 표적(P)의 종류(즉, 기종)를 확인할 수도 있다. 즉, 이미지식별부(121c)는 이미지저장부(121a)에 기 설정된 적군 표적(P)의 종류(즉, 기종)에 관한 이미지데이터 중 식별된 이미지데이터와 일치하는 이미지데이터를 찾아 식별된 적군 표적(P)의 종류(즉, 기종)를 확인할 수 있다. 예컨데, 도 4(a)에 도시된 바와 같이, 다양한 종류의 적군 표적(P) 중 식별된 적군 표적(P)이 해당하는 종류(즉, 기종)를 확인할 수 있다. 여기서, 이미지식별부(121c)는 식별된 이미지데이터의 패턴을 인식한 후, 기 설정된 적군 표적(P)의 군집화된 이미지데이터 중 패턴이 일치하는 이미지데이터를 매칭시켜 식별된 적군 표적(P)의 종류(즉, 기종)를 확인할 수 있다. 이에, 이미지식별부(121c)를 통해 감지된 적군 표적(P)의 피아를 식별한 후, 식별된 표적의 종류(즉, 기종)를 확인할 수 있다. Also, the image identification unit 121c may identify the type (ie, type) of the enemy target P based on artificial intelligence. That is, the image identification unit 121c searches for image data matching the identified image data among the image data related to the type (ie, model) of the enemy target P preset in the image storage unit 121a to find the identified enemy target. (P) type (ie, type) can be confirmed. For example, as shown in FIG. 4A , a type (ie, a model) to which the identified enemy target P is identified among various types of enemy targets P may be identified. Here, after recognizing the pattern of the identified image data, the image identification unit 121c matches the image data with the matching pattern among the grouped image data of the preset enemy target P to determine the identified enemy target P. You can check the type (ie, type). Accordingly, after the peer of the enemy target P detected through the image identification unit 121c is identified, the type of the identified target (ie, the model) may be confirmed.

한편, 적군식별부(121)는 이미지판별부(121d)를 더 포함할 수 있다. 이미지판별부(121d)는 이미지식별부를 통해 식별된 적군 표적(P)의 전력데이터와 미감지 사용자(즉, 아군)들의 전력데이터를 비교하여 전력데이터가 우위에 있는 미감지 사용자를 판단할 수 있다. 예컨데, 이미지판별부(121d)는 식별된 적군 표적(P)의 전력데이터가 2등급일 경우, 전력데이터가 1등급인 미감지 사용자(즉, 아군)를 판단할 수 있다.Meanwhile, the enemy identification unit 121 may further include an image identification unit 121d. The image discrimination unit 121d compares the power data of the enemy target P identified through the image identification unit with the power data of the undetected users (ie, allies) to determine the undetected user in which the power data is superior. . For example, when the power data of the identified enemy target P is level 2, the image discrimination unit 121d may determine an undetected user (ie, friend) whose power data is level 1.

도 4(b)를 참고하면, 위치확인부(122)는 신호의 획득방향을 이용하여 감지 사용자를 기준으로 적군 표적(P)의 상대적인 위치를 판단할 수 있다. 상술한 바와 같이, 신호 수신부(110)로 획득되는 시각화된 신호, 청각화된 신호 및 전자기화된 신호는 각각 방향성을 갖을 수 있다. 이에, 위치확인부(122)는 진북방향을 기준으로 각 신호들의 방향성을 통해 상대적인 위치를 판단할 수 있고, 획득된 신호의 손실률을 통해 상대적인 거리를 판단할 수 있다. 위치확인부(122)는 각도측정부(122a) 및 거리측정부(122b)를 포함할 수 있다. Referring to FIG. 4B , the positioning unit 122 may determine the relative position of the enemy target P with respect to the sensing user by using the signal acquisition direction. As described above, the visualized signal, the auditory signal, and the electromagnetic signal obtained by the signal receiver 110 may each have a directionality. Accordingly, the positioning unit 122 may determine the relative position through the directionality of each signal with respect to the true north direction, and may determine the relative distance through the obtained signal loss rate. The positioning unit 122 may include an angle measuring unit 122a and a distance measuring unit 122b.

각도측정부(122a)는 진북방향을 기준으로 신호의 수신방향까지의 각도를 측정할 수 있다. 여기서, 진북방향은 진북(眞北, true north)을 가리키는 방향으로서, 각각의 사용자의 머리를 원점으로 하고, 북극성, 즉 북쪽을 종점으로 하는 방향일 수 있다. 즉, 도 4(b)에 도시된 바와 같이, 진북방향은 각각의 사용자를 기준으로 도면상 수직하게 상측을 향하는 방향일 수 있다. The angle measuring unit 122a may measure the angle from the true north direction to the signal reception direction. Here, the true north direction is a direction pointing to true north, and may be a direction with the head of each user as the origin and the North Star, that is, the North as the end point. That is, as shown in FIG. 4B , the true north direction may be a direction vertically upward in the drawing with respect to each user.

예를 들어, 각도측정부(122a)는 진북방향과 수신방향을 벡터 값으로 변환한 후, 두 벡터 값의 내적으로 두 방향 사이의 각도를 계산할 수 있다. 한편, 각도측정부(122a)는 방위각을 기준으로 3차원 좌표를 변수하는 방향벡터를 통해 각도를 연산할 수도 있다. 하지만, 각도측정부(122a)가 각도를 연산하는 방법은 이에 한정되지 않고 다양할 수 있다. 이에, 감지 사용자를 기준으로 수신방향까지의 각도를 α로 측정할 수 있다. For example, the angle measuring unit 122a may convert the true north direction and the receiving direction into vector values, and then calculate the angle between the two directions as a dot product of the two vector values. On the other hand, the angle measuring unit 122a may calculate the angle through a direction vector that changes the three-dimensional coordinates based on the azimuth. However, the method of calculating the angle by the angle measuring unit 122a is not limited thereto, and may vary. Accordingly, the angle from the sensing user to the receiving direction can be measured as α.

한편, 각도측정부(122a)가 각도를 연산함에 있어서, 감지 사용자(사용자2)의 진북방향을 기준으로 표적방향까지의 각도를 양각 혹은 음각으로 측정할 수 있다. 예를 들어, 도 4(b)에 도시된 바와 같이, 감지 사용자(사용자2)의 진북방향을 기준으로 수신방향까지의 각도(α)는 반시계방향을 따라 각도가 형성되므로 양각으로 측정된 경우를 예시적으로 나타내는 것일 수 있다. Meanwhile, when the angle measuring unit 122a calculates the angle, the angle to the target direction with respect to the true north direction of the sensing user (user 2 ) may be measured as a positive or negative angle. For example, as shown in Fig. 4(b), the angle α to the reception direction from the true north direction of the sensing user (user 2) is measured in both directions because the angle is formed along the counterclockwise direction. may be exemplarily shown.

거리측정부(122b)는 신호의 손실률을 통해, 감지 사용자와 적군 표적(P) 사이의 거리를 측정할 수 있다. 일반적으로, 신호는 이동하는 과정에서 손실이 발생할 수 있다. 즉, 신호는 손실률을 가질 수 있다. 이때, 획득되는 신호는 이동한 거리에 비례하여 손실률이 발생할 수 있다. 따라서, 획득된 신호의 손실률를 측정하여 적군 표적(P)과 감지 사용자 사이의 거리를 A로 측정할 수 있다. 하지만, 거리측정부(122b)가 거리를 연산하는 방법은 이에 한정되지 않고 다양할 수 있다. The distance measuring unit 122b may measure the distance between the sensing user and the enemy target P through the signal loss rate. In general, a signal may be lost in the course of its movement. That is, the signal may have a loss rate. In this case, a loss rate may occur in the obtained signal in proportion to the moved distance. Accordingly, by measuring the loss rate of the acquired signal, the distance between the enemy target P and the sensing user may be measured as A. However, the method of calculating the distance by the distance measuring unit 122b is not limited thereto, and may vary.

정보 공유부(130)는 정보 획득부(120)에서 판단한 정보를 이용하여, 적군 표적(P)을 인지하지 못한 다른 사용자(사용자1,사용자3,사용자4)에게 적군 표적(P)에 대한 정보를 공유할 수 있다. 즉, 또한, 정보 제공 장치(100)는 적군 표적(P)을 인지하지 못한 다른 사용자(예컨데, 사용자1,사용자3,사용자4)에게 적군 표적(P)에 대한 정보를 공유할 수 있도록, 정보 공유부(130)를 더 포함할 수 있다 즉, 정보 제공 장치(100)는 적군 표적(P)을 감지한 사용자가 정보 공유부(130)를 이용하여 복수의 사용자(사용자1,사용자2,사용자3,사용자4) 중 전장 상황 내의 위치에 위치한 사용자 혹은 전장 상황 외의 위치에 위치한 사용자에게 적군 표적(P)에 관한 정보를 제공할 수도 있다.The information sharing unit 130 uses the information determined by the information acquisition unit 120 to provide information on the enemy target P to other users (User 1, User 3, and User 4) who did not recognize the enemy target P. can be shared That is, in addition, the information providing device 100 can share information on the enemy target P to other users (eg, user 1, user 3, user 4) who do not recognize the enemy target P, so that information on the enemy target P can be shared. It may further include a sharing unit 130 , that is, the information providing apparatus 100 allows a user who senses the enemy target P to use the information sharing unit 130 to allow a plurality of users (User 1, User 2, and User). It is also possible to provide information about the enemy target P to a user located in a position within the battlefield situation among users 4) or a user located outside the battlefield situation.

정보 공유부(130)는 수신판단부(131), 아군위치측정부(132), 정보전송부(133) 및 아군정보변환부(134)를 포함할 수 있다.The information sharing unit 130 may include a reception determining unit 131 , an ally position measuring unit 132 , an information transmitting unit 133 , and an ally information converting unit 134 .

수신판단부(131)는 복수의 사용자(사용자1,사용자2,사용자3,사용자4) 중 미감지 사용자를 판단할 수 있다. 상술한 바와 같이, 수신판단부(131)는 복수의 사용자(사용자1,사용자2,사용자3,사용자4)에게 각각 제공되며, 서로 네트워크 통신망 상으로 연결될 수 있다. 이에, 수신판단부(131)를 신호 수신부(110)에 적군 표적(P)에 관한 정보가 획득되었는지 여부를 판단하여, 복수의 사용자(사용자1,사용자2,사용자3,사용자4) 중 미감지 사용자를 판단할 수 있다. The reception determination unit 131 may determine an undetected user among a plurality of users (User 1, User 2, User 3, User 4). As described above, the reception determination unit 131 is provided to a plurality of users (User 1, User 2, User 3, User 4), respectively, and may be connected to each other over a network communication network. Accordingly, the reception determination unit 131 determines whether information about the enemy target P has been acquired by the signal reception unit 110, and does not detect any of the plurality of users (User 1, User 2, User 3, User 4). user can be judged.

아군위치측정부(132)는 적군 표적(P)에 관한 정보를 획득한 감지 사용자(즉, 사용자2)를 기준으로 미감지 사용자(예컨데,사용자1,사용자3,사용자4)들의 위치를 확인할 수 있다. 즉, 아군위치측정부(132)는 감지 사용자(즉, 사용자2)를 기준으로 미감지 사용자(예컨데, 사용자1,사용자3,사용자4)들의 상대적인 각도 및 상대적인 거리를 측정할 수 있다. 여기서, 아군위치측정부(132)는 예컨데, GPS 위성 정보를 활용하여 미감지 사용자들의 상대적인 위치 정보를 산출할 수 있다. The friendly position measurement unit 132 can determine the positions of undetected users (eg, user 1, user 3, user 4) based on the detected user (ie, user 2) who has obtained information about the enemy target P. have. That is, the friendly position measuring unit 132 may measure the relative angles and relative distances of the undetected users (eg, user 1, user 3, and user 4) with respect to the sensed user (ie, user 2). Here, the friendly position measuring unit 132 may calculate relative position information of undetected users by using, for example, GPS satellite information.

정보전송부(133)는 미감지 사용자들의 통신망 중 각 통신망에 우선순위를 설정하고, 데이터링크를 통해 식별된 적군 표적(P)에 관한 정보를 전송할 수 있다. 여기서, 정보전송부(133)가 설정하는 우선순위의 기준은 기 설정된 우선순위를 따를 수 있다. 즉, 정보전송부(133)는 미리 복수의 사용자(사용자1,사용자2,사용자3,사용자4) 중 우선순위를 설정할 수 있다. The information transmission unit 133 may set a priority for each communication network among the communication networks of undetected users, and transmit information about the identified enemy target P through the data link. Here, the criterion of the priority set by the information transmission unit 133 may follow the preset priority. That is, the information transmitter 133 may set priorities among a plurality of users (User 1, User 2, User 3, and User 4) in advance.

또한, 정보전송부(133)는 설정된 우선순위를 기반으로 미감지 사용자들의 통신망을 우선순위에 따라 순차적으로 나열하고, 나열된 순서에 따라 식별된 적군 표적(P)에 관한 정보를 전송할 수 있다. 여기서, 정보전송부(133)는 상위 지휘체계에 있는 사용자의 통신망을 더 우위에 설정하는 방식으로 순위를 설정할 수 있다. 이에, 정보전송부(133)가 상위 지휘체계에 있는 사용자부터 적군 표적에 관한 정보를 전송하므로, 적군 표적(P)보다 전력데이터 등급이 높은 미감지 사용자를 해당 위치에 신속하게 위치시킬 수 있다.Also, the information transmitter 133 may sequentially list the communication networks of undetected users according to the priority based on the set priority, and transmit information about the identified enemy target P according to the listed order. Here, the information transmission unit 133 may set the order in a way that sets the communication network of the user in the upper command system more superior. Accordingly, since the information transmission unit 133 transmits information about the enemy target from the user in the upper command system, it is possible to quickly locate an undetected user having a higher power data level than the enemy target P at the corresponding location.

아군정보변환부(134)는 KVMF 형식의 데이터를 C4I 형식의 데이터로 변환할 수 있다. 상술한 바와 같이, 정보전송부(133)는 이미지판별부(121d)로부터, 미감지 사용자(즉, 아군)의 전력데이터와 적군 표적(P)의 전력데이터를 비교한 비교 결과를 KVMF 형식의 데이터로 전송 받을 수 있다. 이에, 아군정보변환부(134)를 통해 KVMF 형식의 데이터를 C4I 형식의 데이터로 변환할 수 있다. 여기서, C4I는 지휘(command)ㆍ통제(control)ㆍ통신(communication)ㆍ컴퓨터(computer)ㆍ정보(intelligence)를 자동화하여 전장 상황을 입체적으로 확인할 수 있는 전술지휘자동화체계일 수 있다. 이에, C4I를 활용할 경우, 전장 상황에서 복수의 사용자 각각의 전력데이터가 하나의 정보 네트워크로 통합되며, 복수의 사용자들 사이에 유선 통신 혹은 무선 통신을 통해 주요 전장 상황의 정보를 실시간 공유할 수 있다. 한편, 아군정보변환부(134)는 C4I 형식의 데이터를 KVMF 형식의 데이터로 변환할 수도 있다. The friendly information conversion unit 134 may convert the data in the KVMF format into data in the C4I format. As described above, the information transmission unit 133 compares the power data of the undetected user (ie, friendly force) with the power data of the enemy target (P) from the image discrimination unit 121d to KVMF format data. can be sent to Accordingly, the data in the KVMF format may be converted into data in the C4I format through the friendly information conversion unit 134 . Here, C4I may be a tactical command automation system that can three-dimensionally check the battlefield situation by automating command, control, communication, computer, and intelligence. Accordingly, when using C4I, power data of each of a plurality of users is integrated into one information network in a battlefield situation, and information on major battlefield situations can be shared between a plurality of users in real time through wired or wireless communication. . Meanwhile, the ally information conversion unit 134 may convert C4I format data into KVMF format data.

디스플레이부(140)는 판단된 적군 표적(P)에 대한 정보를 이미지데이터 혹은 텍스트데이터로 변환하여 신호를 획득한 일 사용자(예컨데, 사용자2)에게 전시할 수 있다. 디스플레이부(140)는 제1 변환부(141), 제2 변환부(142), 및 전시부(143)를 포함할 수 있다. The display unit 140 may convert information on the determined enemy target P into image data or text data and display it to a user (eg, user 2) who has obtained a signal. The display unit 140 may include a first conversion unit 141 , a second conversion unit 142 , and a display unit 143 .

제1 변환부(141)는 적군 표적(P)에 대한 정보를 이미지 심볼로 변환시킬 수 있다. 즉, 제1 변환부(141)는 정보 획득부(120)에서 판단한 적군 표적(P)에 대한 정보, 즉 적군 표적(P)의 종류(즉, 기종)를 이미지 심볼로 변환할 수 있다. 이에, 식별된 적군 표적(P)에 해당하는 정보가 그림 이미지, 즉 적군 표적(P)의 사진으로 변환될 수 있고, 사용자가 적군 표적(P)의 정보를 사진으로 확인할 수 있다. The first conversion unit 141 may convert information about the enemy target P into an image symbol. That is, the first conversion unit 141 may convert the information on the enemy target P determined by the information acquisition unit 120 , that is, the type (ie, model) of the enemy target P into an image symbol. Accordingly, information corresponding to the identified enemy target P may be converted into a picture image, that is, a photo of the enemy target P, and the user may check information of the enemy target P as a photograph.

제2 변환부(142)는 적군 표적(P)에 대한 정보를 문자 심볼 및 숫자 심볼로 변환할 수 있다. 즉, 제2 변환부(142)는 정보 획득부(120)에서 판단한 적군 표적에 대한 정보, 즉 적군 표적(P)의 상대적인 위치(즉, 상대적인 각도 및 상대적인 거리)를 문자 심볼 및 숫자 심볼로 변환할 수 있다. 이에, 식별된 적군 표적(P)에 해당하는 정보가 문자 및 숫자로 변환될 수 있고, 사용자가 적군 표적의 정보, 즉 상대적인 각도 및 상대적인 거리를 문자 및 숫자 형태로 확인할 수 있다.The second conversion unit 142 may convert information on the enemy target P into character symbols and numeric symbols. That is, the second conversion unit 142 converts the information on the enemy target determined by the information acquisition unit 120 , that is, the relative position (ie, relative angle and relative distance) of the enemy target P into character symbols and numeric symbols. can do. Accordingly, information corresponding to the identified enemy target P may be converted into letters and numbers, and the user may check information on the enemy target, ie, relative angles and relative distances, in letters and numbers.

전시부(143)는 이미지 심볼, 문자 심볼 및 숫자 심볼로 변환된 적군 표적(P)에 대한 정보를 사용자에게 전시할 수 있다. 예를 들어, 전시부(143)는 디스플레이로 마련될 수 있다. 즉, 전시부(143)는 사용자가 시각으로 정보를 확인할 수 있도록, 전시할 수 있다. 이에, 전시부(143)가 적군 표적(P)의 사진을 전시하고, 적군 표적(P)의 상대적인 각도 및 상대적인 거리 정보를 문자 및 숫자 형태로 전시하므로, 사용자가 적군 표적(P)에 관한 정보를 더 효과적으로 확인할 수 있다.The display unit 143 may display information about the enemy target P converted into an image symbol, a character symbol, and a numeric symbol to the user. For example, the display unit 143 may be provided as a display. That is, the display unit 143 may display the information so that the user can visually check the information. Accordingly, since the display unit 143 displays a photo of the enemy target P and displays the relative angle and relative distance information of the enemy target P in the form of letters and numbers, the user can display information about the enemy target P can be checked more effectively.

한편, 정보 제공 장치(100)를 이용하여, 적군 표적(P)을 탐색하는 방법은 정보 제공 방법을 설명하면서 그 과정을 함께 설명한다.On the other hand, a method of using the information providing apparatus 100 to search for the enemy target P will be described while explaining the information providing method.

도 6은 본 발명의 실시 예에 따른 정보 제공 방법을 나타내는 플로우차트이다. 본 발명의 실시 예에 따른 정보 제공 방법은, 복수의 사용자(사용자1,사용자2,사용자3,사용자4)에게 각각 제공되어, 표적(P)에 대한 정보를 제공하는 방법으로서, 일 사용자가 표적으로부터 전달된 신호를 수신하는 과정(S110), 인공지능을 기반으로, 실시간으로 획득된 신호를 이용하여, 상기 표적에 대한 정보를 획득하는 과정(S120) 및 표적에 관한 정보를 복수의 사용자에게 공유하는 과정(S130)을 포함할 수 있다. 또한, 정보 제공 방법은 적군 표적(P)에 관한 정보를 일 사용자(예컨데, 사용자2)에게 전시하는 과정(S140)을 포함할 수 있다. 6 is a flowchart illustrating an information providing method according to an embodiment of the present invention. The information providing method according to an embodiment of the present invention is a method of providing information on a target P by being provided to a plurality of users (User 1, User 2, User 3, User 4), respectively, and one user A process of receiving a signal transmitted from (S110), a process of acquiring information about the target using a signal acquired in real time based on artificial intelligence (S120), and sharing information about the target to a plurality of users It may include a process (S130). Also, the information providing method may include a process ( S140 ) of displaying information about the enemy target P to one user (eg, user 2 ).

우선, 전장 상황에서 일 사용자가 신호를 획득할 수 있다(S110). 즉, 신호 수신부(110)의 광학측정부(111), 전자기측정부(112), 음파측정부(113)가 각각 시각화된 신호, 전자기화된 신호, 청각화된 신호를 획득할 수 있다. 이후, 획득된 신호를 송신부(114)를 이용하여 광학측정부(111), 전자기측정부(112), 음파측정부(113)를 통해 획득된 신호를 정보 획득부(120)로 전송할 수 있다.First, a user may acquire a signal in a battlefield situation (S110). That is, the optical measuring unit 111 , the electromagnetic measuring unit 112 , and the sound wave measuring unit 113 of the signal receiving unit 110 may obtain a visualized signal, an electromagneticized signal, and an auditory signal, respectively. Thereafter, the signal obtained through the optical measurement unit 111 , the electromagnetic measurement unit 112 , and the sound wave measurement unit 113 may be transmitted to the information acquisition unit 120 by using the acquired signal transmission unit 114 .

이후, 인공지능을 기반으로 실시간으로 획득된 신호를 이용하여 전장 상황 중 일 사용자의 가시영역 외에 위치한 적군 표적(P)을 감지하고 감지 결과에 따라 적군 표적(P)을 식별할 수 있다(S120). 먼저, 이미지저장부(121a)를 이용하여 기 설정된 적군 표적(P)의 정보 및 획득된 신호를 이용하여 적군 표적(P)에 관한 정보를 미리 저장할 수 있다. 한편, 이미지저장부가 적군 표적(P)에 관한 정보를 저장하기에 앞서 이미지변환부(121b)가 신호 수신부(110)에서 전송된 신호를 이미지데이터로 변환시킬 수 있다. Thereafter, an enemy target (P) located outside the visible area of a user during a battlefield situation can be detected using a signal obtained in real time based on artificial intelligence, and the enemy target (P) can be identified according to the detection result (S120) . First, using the image storage unit 121a, preset information on the enemy target P and information on the enemy target P may be stored in advance using the acquired signal. Meanwhile, before the image storage unit stores information about the enemy target P, the image conversion unit 121b may convert the signal transmitted from the signal receiver 110 into image data.

이후, 이미지식별부(121c)를 이용하여 미리 저장된 적군 표적(P) 정보와 획득된 표적 정보를 비교할 수 있다. 여기서, 이미지식별부(121c)를 통해 실시간으로 전송된 이미지데이터의 이미지 패턴을 인식하고, 군집화된 아군 및 적군 표적(P)에 관한 각각의 이미지 패턴 중 일치하는 패턴을 찾아 아군인지 혹은 적군 표적인지 식별할 수 있다. Thereafter, the pre-stored enemy target P information and the acquired target information may be compared using the image identification unit 121c. Here, the image pattern of the image data transmitted in real time through the image identification unit 121c is recognized, and the matching pattern is found among the image patterns of the grouped friendly and enemy targets P to determine whether the target is a friendly or an enemy target. can be identified.

이후, 위치확인부(122)를 이용하여, 감지 사용자(예컨데, 사용자2)를 기준으로 식별된 적군 표적(P)까지의 상대적인 각도 및 상대적인 거리를 측정할 수 있다. 즉, 진북방향을 기준으로 신호의 획득방향까지의 각도를 측정하여 상대적인 각도를 측정할 수 있다. 또한, 수신되는 신호의 손실률을 확인하여, 상대적인 거리를 측정할 수 있다. Thereafter, using the positioning unit 122 , a relative angle and a relative distance to the identified enemy target P with respect to the sensing user (eg, user 2 ) may be measured. That is, the relative angle can be measured by measuring the angle from the true north direction to the signal acquisition direction. In addition, the relative distance can be measured by checking the loss rate of the received signal.

이후, 정보 공유부(130)를 이용하여, 식별된 적군 표적(P)에 관한 정보를 획득하지 못한 미감지 사용자들에게 식별된 적군 표적(P)에 관한 정보를 공유할 수 있다. Thereafter, using the information sharing unit 130 , information regarding the identified enemy target P may be shared with undetected users who have not obtained information regarding the identified enemy target P.

또한, 디스플레이부(140)를 이용하여, 식별된 적군 표적(P)에 관한 정보를 전시할 수 있다. 즉, 감지 사용자에게 적군 표적(P)의 위치 및 적군 표적의 종류(즉, 기종)를 이미지데이터 및 텍스트데이터로 변환하여 디스플레이에 전시할 수 있다. 이에, 감지 사용자가 식별된 적군 표적(P)의 종류를 사진으로 확인하고, 위치를 문자 및 숫자 형태로 확인할 수 있다. In addition, information about the identified enemy target P may be displayed using the display unit 140 . That is, it is possible to convert the position of the enemy target P and the type (ie, model) of the enemy target P into image data and text data to be displayed on the display to the sensing user. Accordingly, the sensing user can confirm the type of the identified enemy target P as a photo, and confirm the position in the form of letters and numbers.

이처럼, 전장 상황에 위치한 복수의 사용자 중 일 사용자의 시선이 향하는 가시영역 이외의 영역에서 자동으로 표적에 대한 정보를 획득할 수 있다. 또한, 획득된 표적에 대한 정보를 일 사용자 및 다른 사용자들에게 전시할 수 있다. 이에, 전장 상황에 위치한 표적에 대한 정보를 효과적으로 공유할 수 있다. 또한, 획득된 표적에 대한 정보를 이미지데이터 혹은 텍스트데이터로 전시하여 복수의 사용자들이 효과적으로 표적에 대한 정보를 파악할 수 있다.As such, it is possible to automatically acquire information about the target in a region other than the visible region to which one user's gaze is directed among a plurality of users located in the battlefield situation. In addition, information on the acquired target may be displayed to one user and other users. Accordingly, information on a target located in a battlefield situation can be effectively shared. In addition, by displaying the acquired information on the target as image data or text data, a plurality of users can effectively grasp information on the target.

이와 같이, 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범주에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능하다. 그러므로, 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 안 되며, 아래에 기재될 특허청구범위뿐만 아니라 이 청구범위와 균등한 것들에 의해 정해져야 한다.As such, although specific embodiments have been described in the detailed description of the present invention, various modifications are possible without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined by the claims to be described below as well as the claims and equivalents.

100: 정보 제공 장치 110: 신호 수신부
120: 정보 획득부 130: 정보 공유부
140: 디스플레이부 P: 적군 표적
100: information providing device 110: signal receiving unit
120: information acquisition unit 130: information sharing unit
140: display unit P: enemy target

Claims (16)

표적으로부터 전달되는 신호를 수신하기 위한 신호 수신부;
인공지능을 이용하여 상기 신호 수신부에서 수신된 신호로부터 표적에 대한 정보를 획득하기 위한 정보 획득부; 및
상기 정보 획득부가 획득한 표적에 대한 정보를 복수의 사용자에게 공유하기 위한 정보 공유부;를 포함하고,
상기 정보 획득부는, 상기 신호 수신부에서 수신된 신호를 이미지데이터로 변환하고 미리 저장된 이미지데이터 중 상기 변환된 이미지데이터와 동일한 이미지데이터를 판단하며,
상기 정보 획득부는, 인공지능 기반의 심층 신경망을 이용하여 상기 저장된 이미지데이터 및 상기 변환된 이미지데이터 집합을 저장 및 추출하고,
상기 심층 신경망은, 중첩 과정과 통합 과정을 통해 상기 저장된 이미지데이터 및 상기 변환된 이미지데이터의 특징을 추출하여 분류하는 정보 제공 장치.
a signal receiving unit for receiving a signal transmitted from the target;
an information acquisition unit for acquiring information on a target from a signal received by the signal reception unit using artificial intelligence; and
Including; an information sharing unit for sharing the information on the target acquired by the information acquisition unit to a plurality of users;
The information obtaining unit converts the signal received by the signal receiving unit into image data and determines the same image data as the converted image data among the previously stored image data,
The information acquisition unit stores and extracts the stored image data and the converted image data set using an artificial intelligence-based deep neural network,
The deep neural network is an information providing apparatus for extracting and classifying features of the stored image data and the converted image data through an overlapping process and an integration process.
표적으로부터 전달되는 신호를 수신하기 위한 신호 수신부;
인공지능을 이용하여 상기 신호 수신부에서 수신된 신호를 이미지데이터로 변환하고, 변환된 이미지데이터로부터 표적에 대한 정보를 획득하기 위한 정보 획득부; 및
상기 정보 획득부가 획득한 표적에 대한 정보를 복수의 사용자에게 공유하기 위한 정보 공유부;를 포함하고,
상기 정보 획득부는, 미리 저장된 이미지데이터 중 상기 변환된 이미지데이터와 동일한 이미지데이터를 판단하며,
상기 정보 획득부는, 인공지능 기반의 심층 신경망을 이용하여 상기 저장된 이미지데이터 및 상기 변환된 이미지데이터 집합을 저장 및 추출하고,
상기 심층 신경망은, 중첩 과정과 통합 과정을 통해 상기 저장된 이미지데이터 및 상기 변환된 이미지데이터의 특징을 추출하여 분류하는 정보 제공 장치.
a signal receiver for receiving a signal transmitted from the target;
an information obtaining unit for converting the signal received by the signal receiving unit into image data using artificial intelligence, and obtaining information about a target from the converted image data; and
Including; an information sharing unit for sharing the information on the target acquired by the information acquisition unit to a plurality of users;
The information acquisition unit determines the same image data as the converted image data among the image data stored in advance,
The information acquisition unit stores and extracts the stored image data and the converted image data set using an artificial intelligence-based deep neural network,
The deep neural network is an information providing apparatus for extracting and classifying features of the stored image data and the converted image data through an overlapping process and an integration process.
삭제delete 청구항 1에 있어서,
상기 정보 획득부는,
상기 저장된 이미지데이터를 이용하여 기 설정된 적군 표적들 중 전장 상황의 적군 표적을 식별하기 위한 적군식별부; 및
상기 신호의 획득방향을 이용하여 신호를 획득한 사용자를 기준으로 적군 표적의 상대적인 위치를 판단하기 위한 위치확인부;를 포함하는 정보 제공 장치.
The method according to claim 1,
The information acquisition unit,
an enemy identification unit for identifying an enemy target in a battlefield situation from among preset enemy targets by using the stored image data; and
and a positioning unit for determining the relative position of the enemy target based on the user who acquired the signal using the signal acquisition direction.
표적으로부터 전달되는 신호를 수신하기 위한 신호 수신부;
인공지능을 이용하여 상기 신호 수신부에서 수신된 신호로부터 표적에 대한 정보를 획득하기 위한 정보 획득부; 및
상기 정보 획득부가 획득한 표적에 대한 정보를 복수의 사용자에게 공유하기 위한 정보 공유부;를 포함하고,
상기 정보 획득부는, 상기 신호 수신부에서 수신된 신호를 이미지데이터로 변환하고 미리 저장된 이미지데이터 중 상기 변환된 이미지데이터와 동일한 이미지데이터를 판단하며,
상기 정보 획득부는,
상기 저장된 이미지데이터를 이용하여 기 설정된 적군 표적들 중 전장 상황의 적군 표적을 식별하기 위한 적군식별부; 및
상기 신호의 획득방향을 이용하여 신호를 획득한 사용자를 기준으로 적군 표적의 상대적인 위치를 판단하기 위한 위치확인부;를 포함하고,
상기 적군식별부는,
설정된 적군 표적에 대한 상기 저장된 이미지데이터를 미리 저장하거나 혹은 상기 변환된 이미지데이터를 미리 저장하기 위한 이미지저장부;
상기 신호 수신부로부터 수신된 신호를 이미지데이터로 변환하기 위한 이미지변환부; 및
상기 이미지저장부에서 상기 저장된 이미지데이터를 추출하고, 상기 변환된 이미지데이터와 매칭하여 적군 표적의 종류를 식별하기 위한 이미지식별부;를 포함하는 정보 제공 장치.
a signal receiving unit for receiving a signal transmitted from the target;
an information acquisition unit for acquiring information on a target from a signal received by the signal reception unit using artificial intelligence; and
Including; an information sharing unit for sharing the information on the target acquired by the information acquisition unit to a plurality of users;
The information obtaining unit converts the signal received by the signal receiving unit into image data and determines the same image data as the converted image data among the previously stored image data,
The information acquisition unit,
an enemy identification unit for identifying an enemy target in a battlefield situation from among preset enemy targets by using the stored image data; and
a positioning unit for determining the relative position of the enemy target based on the user who has acquired the signal using the signal acquisition direction;
The enemy identification unit,
an image storage unit configured to pre-store the stored image data for a set enemy target or to pre-store the converted image data;
an image conversion unit for converting the signal received from the signal receiving unit into image data; and
and an image identification unit for extracting the stored image data from the image storage unit and matching the converted image data to identify a type of an enemy target.
표적으로부터 전달되는 신호를 수신하기 위한 신호 수신부;
인공지능을 이용하여 상기 신호 수신부에서 수신된 신호로부터 표적에 대한 정보를 획득하기 위한 정보 획득부; 및
상기 정보 획득부가 획득한 표적에 대한 정보를 복수의 사용자에게 공유하기 위한 정보 공유부;를 포함하고,
상기 정보 획득부는, 상기 신호 수신부에서 수신된 신호를 이미지데이터로 변환하고 미리 저장된 이미지데이터 중 상기 변환된 이미지데이터와 동일한 이미지데이터를 판단하며,
상기 정보 획득부는,
상기 저장된 이미지데이터를 이용하여 기 설정된 적군 표적들 중 전장 상황의 적군 표적을 식별하기 위한 적군식별부; 및
상기 신호의 획득방향을 이용하여 신호를 획득한 사용자를 기준으로 적군 표적의 상대적인 위치를 판단하기 위한 위치확인부;를 포함하고,
상기 위치확인부는,
GPS 위성 정보를 활용하여 진북방향을 기준으로 상기 신호의 획득방향까지의 각도를 측정하기 위한 각도측정부; 및
상기 신호의 손실률을 계산하여, 신호를 획득한 사용자와 상기 적군 표적 사이의 거리를 측정하기 위한 거리측정부;를 포함하는 정보 제공 장치.
a signal receiving unit for receiving a signal transmitted from the target;
an information acquisition unit for acquiring information on a target from a signal received by the signal reception unit using artificial intelligence; and
Including; an information sharing unit for sharing the information on the target acquired by the information acquisition unit to a plurality of users;
The information obtaining unit converts the signal received by the signal receiving unit into image data and determines the same image data as the converted image data among the previously stored image data,
The information acquisition unit,
an enemy identification unit for identifying an enemy target in a battlefield situation from among preset enemy targets by using the stored image data; and
a positioning unit for determining the relative position of the enemy target based on the user who has acquired the signal using the signal acquisition direction;
The positioning unit,
an angle measuring unit for measuring an angle from the true north direction to the acquisition direction of the signal by using GPS satellite information; and
and a distance measuring unit for calculating the signal loss rate and measuring the distance between the user who obtained the signal and the enemy target.
청구항 4에 있어서,
상기 정보 획득부로부터 전송된 표적에 대한 정보를 이미지데이터 혹은 텍스트데이터로 변환하여 복수의 사용자 중 어느 하나의 사용자에게 전시하는 디스플레이부;를 포함하는 정보 제공 장치.
5. The method according to claim 4,
and a display unit that converts the target information transmitted from the information acquisition unit into image data or text data and displays the information to any one of a plurality of users.
표적으로부터 전달되는 신호를 수신하기 위한 신호 수신부;
인공지능을 이용하여 상기 신호 수신부에서 수신된 신호로부터 표적에 대한 정보를 획득하기 위한 정보 획득부;
상기 정보 획득부가 획득한 표적에 대한 정보를 복수의 사용자에게 공유하기 위한 정보 공유부; 및
상기 정보 획득부로부터 전송된 표적에 대한 정보를 이미지데이터 혹은 텍스트데이터로 변환하여 복수의 사용자 중 어느 하나의 사용자에게 전시하는 디스플레이부;를 포함하고,
상기 정보 획득부는, 상기 신호 수신부에서 수신된 신호를 이미지데이터로 변환하고 미리 저장된 이미지데이터 중 상기 변환된 이미지데이터와 동일한 이미지데이터를 판단하며,
상기 정보 획득부는,
상기 저장된 이미지데이터를 이용하여 기 설정된 적군 표적들 중 전장 상황의 적군 표적을 식별하기 위한 적군식별부; 및
상기 신호의 획득방향을 이용하여 신호를 획득한 사용자를 기준으로 적군 표적의 상대적인 위치를 판단하기 위한 위치확인부;를 포함하고,
상기 디스플레이부는,
상기 표적에 대한 정보를 이미지 심볼로 변환하기 위한 제1 변환부;
상기 적군 표적에 대한 정보를 문자 심볼 및 숫자 심볼로 변환하기 위한 제2 변환부; 및
이미지 심볼, 문자 심볼 및 숫자 심볼로 변환된 상기 적군 표적에 대한 정보를 전시하기 위한 전시부;를 포함하는 정보 제공 장치.
a signal receiver for receiving a signal transmitted from the target;
an information acquisition unit for acquiring information on a target from a signal received by the signal reception unit using artificial intelligence;
an information sharing unit for sharing information about the target acquired by the information acquisition unit to a plurality of users; and
and a display unit that converts the information on the target transmitted from the information acquisition unit into image data or text data and displays it to any one user among a plurality of users; and
The information obtaining unit converts the signal received by the signal receiving unit into image data and determines the same image data as the converted image data among the previously stored image data,
The information acquisition unit,
an enemy identification unit for identifying an enemy target in a battlefield situation from among preset enemy targets by using the stored image data; and
a positioning unit for determining the relative position of the enemy target based on the user who has acquired the signal using the signal acquisition direction;
The display unit,
a first conversion unit for converting the information on the target into an image symbol;
a second conversion unit for converting the information on the enemy target into character symbols and numeric symbols; and
An information providing device comprising a; a display unit for displaying information on the enemy target converted into image symbols, text symbols, and numeric symbols.
표적으로부터 전달되는 신호를 수신하기 위한 신호 수신부;
인공지능을 이용하여 상기 신호 수신부에서 수신된 신호로부터 표적에 대한 정보를 획득하기 위한 정보 획득부; 및
상기 정보 획득부가 획득한 표적에 대한 정보를 복수의 사용자에게 공유하기 위한 정보 공유부;를 포함하고,
상기 정보 획득부는, 상기 신호 수신부에서 수신된 신호를 이미지데이터로 변환하고 미리 저장된 이미지데이터 중 상기 변환된 이미지데이터와 동일한 이미지데이터를 판단하며,
상기 신호 수신부는, 상기 복수의 사용자의 가시영역 및 상기 가시영역 이외의 방향에서 시각화된 신호, 청각화된 신호 및 전자기화된 신호 중 어느 하나의 신호를 자동으로 수신하기 위한 정보 제공 장치.
a signal receiving unit for receiving a signal transmitted from the target;
an information acquisition unit for acquiring information on a target from a signal received by the signal reception unit using artificial intelligence; and
Including; an information sharing unit for sharing the information on the target acquired by the information acquisition unit to a plurality of users;
The information obtaining unit converts the signal received by the signal receiving unit into image data and determines the same image data as the converted image data among the previously stored image data,
The signal receiving unit, an information providing apparatus for automatically receiving any one of a signal visualized in a visible region of the plurality of users and a direction other than the visible region, an audio signal, and an electromagnetic signal.
삭제delete 복수의 사용자에게 각각 제공되어, 표적에 대한 정보를 제공하는 방법으로서,
일 사용자가 표적으로부터 전달된 신호를 수신하는 과정;
인공지능을 기반으로, 실시간으로 획득된 신호를 이용하여, 상기 표적에 대한 정보를 획득하는 과정; 및
상기 표적에 관한 정보를 복수의 사용자에게 공유하는 과정;을 포함하고,
상기 표적에 대한 정보를 획득하는 과정은, 기 설정된 적군 표적의 정보 및 획득된 신호를 이용하여 적군 표적에 관한 정보를 미리 저장하는 과정, 인공지능 기반의 심층 신경망을 기반으로, 미리 저장된 적군 표적 정보와 획득된 적군 표적 정보를 비교하는 과정 및 상기 신호의 획득방향을 이용하여 상기 일 사용자를 기준으로 적군 표적의 상대적인 위치를 판단하는 과정을 포함하며,
상기 적군 표적에 관한 정보를 미리 저장하는 과정은,
상기 기 설정된 적군 표적의 미리 저장된 이미지데이터 및 획득된 신호로부터 변환된 이미지데이터를 중첩 및 통합시켜 특징을 추출하고, 추출한 특징들의 패턴을 저장하는 과정;을 포함하는 정보 제공 방법.
A method for providing information about a target by being provided to a plurality of users, respectively,
a process in which a user receives a signal transmitted from a target;
A process of acquiring information about the target by using a signal acquired in real time based on artificial intelligence; and
Including; sharing information about the target to a plurality of users;
The process of acquiring information on the target includes pre-stored information on the enemy target using preset enemy target information and the acquired signal, and the process of pre-stored enemy target information based on artificial intelligence-based deep neural network. and comparing the acquired enemy target information and determining the relative position of the enemy target with respect to the one user by using the signal acquisition direction,
The process of storing information about the enemy target in advance includes:
and extracting features by superimposing and integrating image data converted from the pre-stored image data of the preset enemy target and the acquired signal, and storing a pattern of the extracted features.
삭제delete 삭제delete 청구항 11에 있어서,
상기 저장된 적군 표적 정보와 획득된 적군 표적 정보를 비교하는 과정은,
획득된 신호를 상기 변환된 이미지데이터로 변환하는 과정; 및
상기 변환된 이미지데이터와 상기 저장된 이미지데이터를 서로 매칭시키는 과정;을 포함하는 정보 제공 방법.
12. The method of claim 11,
The process of comparing the stored enemy target information with the acquired enemy target information includes:
converting the acquired signal into the converted image data; and
and matching the converted image data and the stored image data with each other.
청구항 11에 있어서,
상기 일 사용자를 기준으로 적군 표적의 상대적인 위치를 판단하는 과정은,
진북방향을 기준으로 상기 신호의 획득방향까지의 각도를 측정하는 과정; 및
상기 신호의 손실률을 통해, 상기 일 사용자와 상기 적군 표적 사이의 거리를 측정하는 과정;을 포함하는 정보 제공 방법.
12. The method of claim 11,
The process of determining the relative position of the enemy target based on the one user is,
measuring an angle from the true north direction to the signal acquisition direction; and
and measuring a distance between the one user and the enemy target based on the signal loss rate.
청구항 11에 있어서,
상기 표적에 관한 정보를 상기 일 사용자에게 전시하는 과정;을 더 포함하고,
상기 표적에 관한 정보를 상기 일 사용자에게 전시하는 과정은, 상기 일 사용자에게 표적의 위치 및 상기 표적의 종류를 이미지데이터 및 텍스트데이터로 전시하는 과정;을 포함하는 정보 제공 방법.


12. The method of claim 11,
Displaying the information about the target to the one user; further comprising,
The process of displaying the information about the target to the one user includes displaying the position of the target and the type of the target to the one user as image data and text data.


KR1020210014876A 2021-02-02 2021-02-02 Apparatus for automatic navigating and method for automatic navigating KR102339783B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210014876A KR102339783B1 (en) 2021-02-02 2021-02-02 Apparatus for automatic navigating and method for automatic navigating

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210014876A KR102339783B1 (en) 2021-02-02 2021-02-02 Apparatus for automatic navigating and method for automatic navigating

Publications (1)

Publication Number Publication Date
KR102339783B1 true KR102339783B1 (en) 2021-12-16

Family

ID=79033104

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210014876A KR102339783B1 (en) 2021-02-02 2021-02-02 Apparatus for automatic navigating and method for automatic navigating

Country Status (1)

Country Link
KR (1) KR102339783B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100660025B1 (en) 2004-11-10 2006-12-20 한국전자통신연구원 System and method of location awareness with ultrasonic
KR101262229B1 (en) * 2012-05-04 2013-05-15 삼성탈레스 주식회사 Apparatus for sharing lockon target and method for sharing lockon target
KR20200049783A (en) * 2017-08-11 2020-05-08 더글라스 퍼그니스 Devices with scopes connected to the network so that multiple devices can simultaneously track targets
KR102134580B1 (en) * 2020-04-16 2020-07-16 한화시스템 주식회사 Target information database management system for each layer of the next generation naval combat system
KR102136273B1 (en) * 2020-02-25 2020-07-21 국방과학연구소 Object Recognition Apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100660025B1 (en) 2004-11-10 2006-12-20 한국전자통신연구원 System and method of location awareness with ultrasonic
KR101262229B1 (en) * 2012-05-04 2013-05-15 삼성탈레스 주식회사 Apparatus for sharing lockon target and method for sharing lockon target
KR20200049783A (en) * 2017-08-11 2020-05-08 더글라스 퍼그니스 Devices with scopes connected to the network so that multiple devices can simultaneously track targets
KR102136273B1 (en) * 2020-02-25 2020-07-21 국방과학연구소 Object Recognition Apparatus
KR102134580B1 (en) * 2020-04-16 2020-07-16 한화시스템 주식회사 Target information database management system for each layer of the next generation naval combat system

Similar Documents

Publication Publication Date Title
US11783712B1 (en) Unmanned vehicle recognition and threat management
CN111417952B (en) Device with network-connected scope to allow multiple devices to track a target simultaneously
CN110691990B (en) Obstacle detection method and equipment
EP2363731A1 (en) Location estimation system
US10368392B2 (en) Wireless sensor network architecture based on multifunctional and compound sensors
KR20180133745A (en) Flying object identification system using lidar sensors and pan/tilt zoom cameras and method for controlling the same
EP2177863A1 (en) Method for target geo-referencing using video analytics
CN112823321A (en) Position positioning system and method for mixing position identification results based on multiple types of sensors
KR102298341B1 (en) Apparatus for providing information and method for providing information
EP3005238B1 (en) Method and system for coordinating between image sensors
KR102261665B1 (en) Apparatus for automatic navigation, method for automatic navigation and midget submarine using the same
KR102339783B1 (en) Apparatus for automatic navigating and method for automatic navigating
KR102339782B1 (en) Apparatus for sharing information and method for sharing information
KR101990482B1 (en) Apparatus and method for estimating location of target object
US11842452B2 (en) Portable display device with overlaid virtual information
JP6894356B2 (en) Ship tracking system
KR20200112421A (en) Augmented reality military training system based on position recognition using FMCW radar equipped on ship
JP2020190427A (en) Information terminal device and program
US20230022049A1 (en) Vessel field of awareness apparatus and method
JP7345153B2 (en) Geographical coordinate estimation device, geographic coordinate estimation system, geographic coordinate estimation method, and computer program for flying objects
CN110730898A (en) Method, processing unit and surveying instrument for improving target tracking
KR20240041448A (en) Electric device, system with the same, and method of estimating pose
KR20230001842A (en) Method for learning device, apparatus for learning device and apparatus for target detcting device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant