KR20230083130A - Apparatus and method for identifying weapon objects in military-related images and videos - Google Patents

Apparatus and method for identifying weapon objects in military-related images and videos Download PDF

Info

Publication number
KR20230083130A
KR20230083130A KR1020210171255A KR20210171255A KR20230083130A KR 20230083130 A KR20230083130 A KR 20230083130A KR 1020210171255 A KR1020210171255 A KR 1020210171255A KR 20210171255 A KR20210171255 A KR 20210171255A KR 20230083130 A KR20230083130 A KR 20230083130A
Authority
KR
South Korea
Prior art keywords
model
learning
military
images
weapon
Prior art date
Application number
KR1020210171255A
Other languages
Korean (ko)
Inventor
강현수
Original Assignee
주식회사 코난테크놀로지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 코난테크놀로지 filed Critical 주식회사 코난테크놀로지
Priority to KR1020210171255A priority Critical patent/KR20230083130A/en
Publication of KR20230083130A publication Critical patent/KR20230083130A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/05Recognition of patterns representing particular kinds of hidden objects, e.g. weapons, explosives, drugs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to an object recognition technique using artificial intelligence technology, wherein disclosed are an apparatus and a method for identifying a weapon object included in an image and a video related to military. In accordance with one embodiment, the apparatus for identifying a weapon object included in an image and a video related to military, includes: a deep learning model generation unit labeling a military image including weapon objects, and a representative image selected from a military video, generating a plurality of models for learning the objects included in the images, and performing learning on a model, to which the objects belong, among the plurality of models to generate a deep learning model; and an identification unit, when an image or video to be identified is inputted, identifying a weapon object included in the image or video to be identified, by referring to the generated deep learning model. Therefore, the present invention is capable of efficiently improving the recognition performance of the whole system even in a limited GPU learning resource situation.

Description

군사 관련 이미지 및 동영상에서의 무기객체 식별장치 및 방법 {Apparatus and method for identifying weapon objects in military-related images and videos}Apparatus and method for identifying weapon objects in military-related images and videos}

본 발명은 인공지능기술을 이용한 객체 인식 기술에 관한 것으로, 군사 관련 이미지 및 동영상에 포함되어 있는 무기 객체를 식별하는 장치 및 방법에 관한 것이다.The present invention relates to object recognition technology using artificial intelligence technology, and relates to an apparatus and method for identifying weapon objects included in military-related images and videos.

인공지능 및 기계학습, 딥러닝 기술이 다양한 분야에 활용되고 있으며, 이에 따라 이미지 처리분야에서도 폭 넓게 활용되어 높은 인식 정확도를 보여 주고 있다. 예를 들어, 이미지넷의 ILSVRC(Large Scale Visual Recognition Challenge) 대회에서는 이미 인간의 인식 정확도 이상의 정확도를 보여주는 기술이 소개되고 있으며, 자율 주행 자동차, 위성 영상 판독, 식물 질병 탐지 등 다양한 응용 분야에서 유용하게 활용되고 있다.Artificial intelligence, machine learning, and deep learning technologies are used in various fields, and accordingly, they are widely used in the image processing field, showing high recognition accuracy. For example, in ImageNet's ILSVRC (Large Scale Visual Recognition Challenge) competition, technologies that show accuracy that exceeds human recognition accuracy have already been introduced, and are useful in various application fields such as autonomous vehicles, satellite image reading, and plant disease detection. It is being utilized.

한편 이러한 이미지 처리 기술은 군사 관련 이미지나 동영상에도 적용되어, 이미지나 동영상에 포함되어 있는 무기 객체의 인식에도 활용될 수 있다. 그러나 이러한 군사 관련 이미지나 동영상은 일반적인 객체에 비해 인식 정확도가 높지 않고, 보안 문제로 인하여 학습 데이터가 부족한 경우가 많아, 충분한 양의 데이터를 가지고 학습을 통해 학습모델의 정확도를 높이는 것이 용이하지 않다. Meanwhile, this image processing technology can also be applied to military-related images or videos, and can be used to recognize weapon objects included in images or videos. However, these military-related images or videos do not have high recognition accuracy compared to general objects, and often lack learning data due to security issues, so it is not easy to increase the accuracy of the learning model through learning with a sufficient amount of data.

일 실시 예에 따라, 딥러닝 기술을 군사 관련 이미지 인식 분야에 적용함으로써, 이에 최적화된 군사 관련 이미지 및 동영상에서의 무기객체 식별장치 및 방법을 제안한다.According to an embodiment, by applying deep learning technology to the field of military-related image recognition, an apparatus and method for identifying weapons objects in military-related images and videos optimized therefor are proposed.

또한, 수집된 데이터를 레이블링하고, 각 객체의 특성에 따라 객체들을 분류하여 복수의 학습 모델을 생성하고, 이를 검증할 수 있는 시스템을 제안한다. In addition, we propose a system capable of labeling the collected data, classifying objects according to the characteristics of each object, generating a plurality of learning models, and verifying them.

일 실시 예에 따른 군사 관련 이미지 및 동영상에서의 무기객체 식별장치는, 무기 객체가 포함된 군사 관련(military) 이미지와, 군사 관련 동영상에서 선정된 대표 이미지에 관해 레이블링을 수행하고, 레이블링된 이미지에 포함된 객체의 학습을 위해 다수의 모델을 생성하며, 상기 다수의 모델 중에서 상기 객체가 속한 모델에서 학습을 수행하여 딥러닝 모델을 생성하는 딥러닝 모델 생성부; 및 식별 대상 이미지 또는 동영상이 입력되면, 상기 생성된 딥러닝 모델을 참조하여, 상기 식별 대상 이미지 또는 동영상에 포함된 무기 객체를 식별하는 식별부를 포함한다.An apparatus for identifying weapons objects in military-related images and videos according to an embodiment performs labeling on military images including weapon objects and representative images selected from military-related videos, and assigns labels to the labeled images. a deep learning model generation unit that generates a plurality of models for learning included objects, and performs learning on a model to which the object belongs among the plurality of models to generate a deep learning model; and an identification unit for identifying an inorganic object included in the identification target image or video by referring to the generated deep learning model when an identification target image or video is input.

딥러닝 모델 생성부는, 무기 객체가 포함된 군사 관련(military) 이미지를 수집하거나, 무기 객체가 포함된 군사 관련 동영상에서 상기 동영상의 레이블링을 위한 대표 이미지를 선정하여 이를 수집하는 데이터 수집부; 상기 수집된 이미지에 포함된 객체를 검출하고, 소정의 다수 분류 항목에 따라 레이블링을 수행하는 레이블링 수행부; 및 상기 레이블링된 객체의 학습을 위해 다수의 모델을 생성하고, 각 모델에서 학습을 수행하는 멀티모델 학습수행부를 포함할 수 있다. The deep learning model generation unit may include a data collection unit that collects military images including weapon objects or selects and collects representative images for labeling of the videos from military-related videos including weapon objects; a labeling performing unit that detects objects included in the collected images and performs labeling according to a plurality of predetermined classification items; and a multi-model learning performing unit generating a plurality of models for learning of the labeled object and performing learning in each model.

그리고, 추가된 이미지를 가지고 상기 모델에서 학습을 수행하여 모델을 갱신한 후, 그 결과를 검증하는 모델 검증부를 더 포함할 수 있다.And, after performing learning on the model with the added image to update the model, it may further include a model verification unit for verifying the result.

데이터 수집부는, 상기 동영상을 샷 단위로 분할하고, 각 샷에 포함된 객체의 대표 특성을 갖는 이미지를 대표 이미지 선정할 수 있다.The data collection unit may divide the video into shot units and select an image having a representative characteristic of an object included in each shot as a representative image.

멀티모델 학습수행부는 상기 레이블링된 객체의 분류 항목에 기초하여 다수의 모델을 생성하는 멀티모델 생성부; 및 상기 다수의 모델중에서 상기 객체가 속한 해당 모델에서 학습을 수행하는 학습수행부를 포함할 수 있다.a multi-model learning unit generating a plurality of models based on the classification items of the labeled object; and a learning performing unit that performs learning in a corresponding model to which the object belongs among the plurality of models.

또한, 데이터 수집부는 상기 수집된 데이터에 변화를 주어 다양한 이미지를 생성하여 학습 데이터를 추가로 확보할 수 있다.In addition, the data collection unit may generate various images by changing the collected data to additionally secure learning data.

한편 다른 실시 예에 따른 군사 관련 이미지 및 동영상에서의 무기객체 식별방법은, 무기 객체가 포함된 군사 관련(military) 이미지와, 군사 관련 동영상에서 선정된 대표 이미지에 관해 레이블링을 수행하고, 레이블링된 이미지에 포함된 객체의 학습을 위해 다수의 모델을 생성하며, 상기 다수의 모델 중에서 상기 객체가 속한 모델에서 학습을 수행하여 딥러닝 모델을 생성하는 딥러닝 모델 생성단계; 및 식별 대상 이미지 또는 동영상이 입력되면, 상기 생성된 딥러닝 모델을 참조하여, 상기 식별 대상 이미지 또는 동영상에 포함된 무기 객체를 식별하는 무기 객체 식별단계를 포함한다.Meanwhile, a method for identifying a weapon object in a military-related image and video according to another embodiment performs labeling on a military image including a weapon object and a representative image selected from the military-related video, and labels the labeled image. A deep learning model generation step of generating a plurality of models for learning of an object included in, and generating a deep learning model by performing learning in a model to which the object belongs among the plurality of models; and an weapon object identification step of identifying an weapon object included in the identification target image or video by referring to the generated deep learning model when an identification target image or video is input.

딥러닝 모델 생성단계는, 무기 객체가 포함된 군사 관련(military) 이미지를 수집하거나, 무기 객체가 포함된 군사 관련 동영상에서 상기 동영상의 레이블링을 위한 대표 이미지를 선정하여 이를 수집하는 데이터 수집단계; 상기 수집된 이미지에 포함된 객체를 검출하고, 소정의 다수 분류 항목에 따라 레이블링을 수행하는 레이블링 수행단계; 및 상기 레이블링된 객체의 학습을 위해 다수의 모델을 생성하고, 각 모델에서 학습을 수행하는 멀티모델 학습수행단계를 포함할 수 있다.The deep learning model generation step may include a data collection step of collecting military images including weapon objects or selecting and collecting representative images for labeling of the videos from military-related videos including weapon objects; A labeling step of detecting objects included in the collected images and performing labeling according to a plurality of predetermined classification items; and a multi-model learning execution step of generating a plurality of models for learning the labeled object and performing learning in each model.

일 실시 예에 따라, 단일 학습 모델 대신 여러 개의 학습 모델을 생성하고 학습함으로써 새로운 학습 데이터의 추가 시 좀 더 효율적으로 학습 모델의 성능을 개선할 수 있고, 제한된 GPU 학습 자원 상황에서 효율적으로 시스템 전체의 인식 성능을 향상시킬 수 있다. According to an embodiment, by creating and learning multiple learning models instead of a single learning model, the performance of the learning model can be improved more efficiently when new training data is added, and the entire system can be efficiently implemented in a limited GPU learning resource situation. Recognition performance can be improved.

그리고 군사 관련 이미지와 같이 보안 문제로 인하여 학습 데이터가 부족한 경우에도, 학습 데이터를 다양하게 변화시켜 그 수를 증가시키고 이를 학습에 활용함으로써 데이터 수의 한계를 극복할 수 있다. In addition, even when training data is insufficient due to security issues, such as military-related images, the limit of the number of data can be overcome by increasing the number by changing the training data in various ways and using it for learning.

도 1은 본 발명의 일 실시 예에 따른 군사 관련 이미지 및 동영상에서의 무기객체 식별장치의 구성도,
도 2는 본 발명의 일 실시 예에 따른 딥러닝 모델 생성부의 상세 구성도,
도 3은 본 발명의 일 실시 예에 따른 동영상 데이터에서의 대표 이미지 선정과정을 설명하기 위한 도면,
도 4는 레이블링을 수행하기 위한 무기 객체의 분류 예시표,
도 5는 일 실시 예에 따른 이미지에서의 객체별 레이블링 수행의 결과 예를 도시한 도면,
도 6은 도 4의 분류 예시표에서 멀티 학습모델을 생성하는 기준 및 예를 설명하기 위한 도면,
도 7은 본 발명의 일 실시 예에 따른 전이학습을 설명하기 위한 도면,
도 8은 데이터 수집부에서 수집된 데이터에 변화를 주어 데이터의 수를 늘리는 예를 도시한 도면,
도 9는 식별부에서 입력 이미지에서의 무기 객체를 식별하는 것을 설명하기 위한 도면,
도 10은 식별부에서 입력 동영상에서의 무기 객체를 식별하는 것을 설명하기 위한 도면,
도 11은 본 발명의 일 실시 예에 따른 군사 관련 이미지 및 동영상에서의 무기객체 식별방법의 흐름도이다.
1 is a configuration diagram of a weapon object identification device in military-related images and videos according to an embodiment of the present invention;
2 is a detailed configuration diagram of a deep learning model generation unit according to an embodiment of the present invention;
3 is a diagram for explaining a process of selecting a representative image from video data according to an embodiment of the present invention;
4 is an exemplary table of classification of weapon objects for labeling;
5 is a diagram illustrating an example of a result of performing labeling for each object in an image according to an embodiment;
6 is a diagram for explaining criteria and examples for generating multi-learning models in the classification example table of FIG. 4;
7 is a diagram for explaining transfer learning according to an embodiment of the present invention;
8 is a diagram showing an example of increasing the number of data by changing the data collected by the data collection unit;
9 is a diagram for explaining identification of an inorganic object in an input image by an identification unit;
10 is a diagram for explaining that an identification unit identifies an inorganic object in an input video;
11 is a flowchart of a weapon object identification method in military-related images and videos according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and methods for achieving them, will become clear with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments make the disclosure of the present invention complete, and common knowledge in the art to which the present invention belongs It is provided to fully inform the holder of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numbers designate like elements throughout the specification.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이며, 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, if it is determined that a detailed description of a known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted, and the terms described later will be used in the embodiments of the present invention. These terms are defined in consideration of the functions of and may vary depending on the user's or operator's intention or custom. Therefore, the definition should be made based on the contents throughout this specification.

첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램인스트럭션들(실행 엔진)에 의해 수행될 수도 있으며, 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다.Combinations of each block of the accompanying block diagram and each step of the flowchart may be executed by computer program instructions (execution engine), and these computer program instructions are executed by a processor of a general-purpose computer, special-purpose computer, or other programmable data processing device. Since it can be mounted, the instructions executed through the processor of a computer or other programmable data processing device create means for performing the functions described in each block of the block diagram or each step of the flowchart.

이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치를 지향할 수 있는 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.These computer program instructions may also be stored in a computer usable or computer readable memory that can be directed to a computer or other programmable data processing device to implement functionality in a particular way, such that the computer usable or computer readable memory The instructions stored in are also capable of producing an article of manufacture containing instruction means for performing the functions described in each block of the block diagram or each step of the flow chart.

그리고 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명되는 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.And since the computer program instructions can also be loaded on a computer or other programmable data processing device, a series of operational steps are performed on the computer or other programmable data processing device to create a computer-executed process to create a computer or other programmable data processing device. It is also possible that the instructions for performing the data processing apparatus provide steps for executing the functions described in each block of the block diagram and each step of the flowchart.

또한, 각 블록 또는 각 단계는 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있으며, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하며, 또한 그 블록들 또는 단계들이 필요에 따라 해당하는 기능의 역순으로 수행되는 것도 가능하다.In addition, each block or each step may represent a module, segment, or portion of code that includes one or more executable instructions for executing specified logical functions, and in some alternative embodiments may refer to blocks or steps. It should be noted that it is also possible for functions to occur out of order. For example, two blocks or steps shown in succession may in fact be performed substantially concurrently, or the blocks or steps may be performed in the reverse order of their corresponding functions, if necessary.

이하, 첨부 도면을 참조하여 본 발명의 실시 예를 상세하게 설명한다. 그러나 다음에 예시하는 본 발명의 실시 예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 다음에 상술하는 실시 예에 한정되는 것은 아니다. 본 발명의 실시 예는 이 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공된다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the embodiments of the present invention exemplified below may be modified in many different forms, and the scope of the present invention is not limited to the embodiments described below. The embodiments of the present invention are provided to more completely explain the present invention to those skilled in the art.

도 1은 본 발명의 일 실시 예에 따른 군사 관련 이미지 및 동영상에서의 무기객체 식별장치의 구성도이다.1 is a block diagram of an apparatus for identifying weapons objects in military-related images and videos according to an embodiment of the present invention.

무기객체 식별장치는 딥러닝 모델 생성부(110) 및 이에 의해 생성된 딥러닝 모델(120), 그리고 식별부(130)를 포함한다. 딥러닝 모델 생성부(110)는 무기 객체가 포함된 군사 관련(military) 이미지와, 군사 관련 동영상에서 선정된 대표 이미지에 관해 레이블링을 수행하고, 레이블링된 이미지에 포함된 객체의 학습을 위해 다수의 모델을 생성하며, 이 다수의 모델 중에서 객체가 속한 모델에서 학습을 수행하여 딥러닝 모델(120)을 생성한다.The inorganic object identification device includes a deep learning model generator 110, a deep learning model 120 generated by the deep learning model 110, and an identification unit 130. The deep learning model generation unit 110 performs labeling on a military image including a weapon object and a representative image selected from a military-related video, and performs labeling on a number of objects included in the labeled image for learning. A model is created, and the deep learning model 120 is created by performing learning in a model to which the object belongs among the plurality of models.

식별부(130)는 식별 대상 이미지 또는 동영상이 입력되면, 딥러닝 모델(120)을 참조하여, 식별 대상 이미지 또는 동영상에 포함된 무기 객체를 식별한다. 식별부(130)의 상세 동작에 관해서는 도 9 및 도 10을 참조하여 후술한다.When an identification target image or video is input, the identification unit 130 refers to the deep learning model 120 to identify the weapon object included in the identification target image or video. A detailed operation of the identification unit 130 will be described later with reference to FIGS. 9 and 10 .

도 2는 본 발명의 일 실시 예에 따른 딥러닝 모델 생성부의 상세 구성도이다.2 is a detailed configuration diagram of a deep learning model generation unit according to an embodiment of the present invention.

딥러닝 모델 생성부(110)는 데이터 수집부(210), 레이블링 수행부(220) 및 멀티모델 학습수행부(230)를 포함하며, 모델 검증부(240)를 더 포함할 수 있다.The deep learning model generator 110 includes a data collection unit 210, a labeling unit 220, and a multi-model learning unit 230, and may further include a model verification unit 240.

데이터 수집부(210)는 무기 객체가 포함된 군사 관련(military) 이미지를 수집하거나, 무기 객체가 포함된 군사 관련 동영상에서 동영상의 레이블링을 위한 대표 이미지를 선정하여 이를 수집한다. The data collection unit 210 collects military images including weapon objects or selects and collects representative images for labeling of videos from military videos including weapon objects.

무기 객체 식별에 사용되는 군사 관련 데이터는 이미지 데이터와 비디오 데이터가 될 수 있다. 이러한 이미지 데이터 및 비디오 데이터는 인터넷에서 수집되거나 또는 직접 촬영 장비를 이용하여 촬영되거나 드론 등을 이용한 항공 촬영을 통해 수집될 수 있다. 이미지의 경우, 레이블링 단계에 바로 사용될 수 있지만, 동영상의 경우에는 동영상에서 대표 이미지를 추출하여 레이블링 단계에서 사용한다.Military-related data used for weapon object identification may be image data and video data. Such image data and video data may be collected from the Internet, photographed directly using photographing equipment, or collected through aerial photographing using a drone or the like. In the case of an image, it can be used immediately in the labeling step, but in the case of a video, a representative image is extracted from the video and used in the labeling step.

동영상의 경우 데이터 수집부(210)는 동영상을 샷 단위로 분할하고, 각 샷에 포함된 객체의 대표 특성을 갖는 이미지를 대표 이미지 선정할 수 있다. 동영상에서 대표 이미지를 선정하는 구체적인 예에 관해서는 도 3을 참조하여 상세히 후술한다.In the case of a video, the data collection unit 210 may divide the video into shot units and select an image having a representative characteristic of an object included in each shot as a representative image. A specific example of selecting a representative image from a video will be described later in detail with reference to FIG. 3 .

레이블링 수행부(220)는 이렇게 수집된 이미지에 포함된 객체를 검출하고, 소정의 다수 분류 항목에 따라 레이블링을 수행한다. 분류 항목의 예에 관해서는 도 4를 참조하여 상세히 후술한다.The labeling performer 220 detects objects included in the collected images and performs labeling according to a plurality of predetermined classification items. Examples of classification items will be described later in detail with reference to FIG. 4 .

멀티모델 학습수행부(230)는 레이블링된 객체의 학습을 위해 다수의 모델을 생성하고, 각 모델에서 학습을 수행한다. 분류 항목의 예에 관해서는 도 6을 참조하여 상세히 후술한다. 멀티모델 학습수행부(230)는 레이블링된 객체의 분류 항목에 기초하여 다수의 모델을 생성하는 멀티모델 생성부와, 다수의 모델중에서 어느 객체가 속한 해당 모델에서 학습을 수행하는 학습수행부를 포함할 수 있다.The multi-model learning unit 230 generates a plurality of models for learning of labeled objects and performs learning on each model. Examples of classification items will be described later in detail with reference to FIG. 6 . The multi-model learning unit 230 may include a multi-model generation unit that generates a plurality of models based on classification items of labeled objects, and a learning unit that performs learning on a corresponding model to which an object belongs among a plurality of models. can

모델 검증부(240)는 추가된 이미지를 가지고 위의 모델에서 학습을 수행하여 모델을 갱신한 후, 그 결과를 검증한다. 검증의 상세 절차에 관해서는 도 7을 참조하여 상세히 후술한다.The model verification unit 240 performs learning on the above model with the added image, updates the model, and verifies the result. A detailed procedure of verification will be described later in detail with reference to FIG. 7 .

도 3은 본 발명의 일 실시 예에 따른 동영상 데이터에서의 대표 이미지 선정과정을 설명하기 위한 도면이다.3 is a diagram for explaining a process of selecting a representative image from video data according to an embodiment of the present invention.

동영상 데이터(310)가 입력되면, 대표 이미지를 선정하기 위하여 동영상 데이터(310)를 샷(shot) 단위로 분할한 후, 이 샷(shot) 단위로 분할된 이미지들 중에서 대표 이미지를 정해 무기(weapon) 객체의 대표 이미지로 선정한다.When the video data 310 is input, the video data 310 is divided into shot units to select a representative image, and then a representative image is determined from among the divided images in each shot unit to form a weapon. ) is selected as the representative image of the object.

보다 구체적으로 설명하면, 입력된 동영상 데이터(310)가 예를 들어 총 171개의 샷(shot)으로 구성되어 있고, 이를 자동 분할된 스토리보드로 만들어 사용자에게 보여주고, 사용자가 이 중에서 5번째 샷(shot)(320)을 선택한 예를 도시한다. 사용자가 선택한 샷(320)을 더블 클릭하면, 샷을 구성하는 이미지 리스트들을 볼 수 있으며, 이 중에서 해당 객체의 대표 특성을 보이는 이미지(330)를 대표 이미지로 선정할 수 있다.More specifically, the input video data 310 is composed of, for example, a total of 171 shots, and it is made into an automatically divided storyboard and shown to the user, and the user selects the 5th shot ( shot) 320 is selected. When the user double-clicks the selected shot 320, a list of images constituting the shot can be viewed, and among them, an image 330 showing representative characteristics of the corresponding object can be selected as the representative image.

도 4는 레이블링을 수행하기 위한 무기 객체의 분류 예시표이다.4 is an exemplary table of classification of inorganic objects for labeling.

레이블링을 수행하기 위하여 먼저 분류 항목을 정의하여야 한다. 본 실시 예에서는 군사 관련 이미지 객체를 일 예로, 국가명, 대분류, 중분류로 분류하였다. 그리고 K1전차 계열과 T55 계열의 경우에는 소분류까지 세분화하였고, 최종적으로 소분류 코드까지 인식하는 것을 목표로 하여 분류한 것을 도시하고 있다.To perform labeling, classification items must be defined first. In this embodiment, for example, military-related image objects are classified into country names, major classifications, and intermediate classifications. In addition, in the case of the K1 tank series and the T55 series, subclassification was subdivided, and finally, classification with the goal of recognizing even the subclass code is shown.

도 5는 일 실시 예에 따른 이미지에서의 객체별 레이블링 수행의 결과 예를 도시한 도면이다.5 is a diagram illustrating an example of a result of labeling per object in an image according to an exemplary embodiment.

일 예로, 도 4에 도시된 바와 같이 정의된 분류 항목에 따라 대표 이미지에 객체를 찾아서 바운딩 박스를 그리고 해당 정보들이 입력된다. 그러면 주어진 대표 이미지에서 객체의 바운딩 박스(bounding box)(510, 520, 530)가 표시되고, 각각의 객체에 관해 레이블링된 정보가 도시된다. For example, as shown in FIG. 4 , an object is found in a representative image according to a defined classification item, a bounding box is drawn, and corresponding information is input. Then, bounding boxes 510, 520, and 530 of objects in the given representative image are displayed, and labeled information about each object is shown.

도 6은 도 4의 분류 예시표에서 멀티 학습모델을 생성하는 기준 및 예를 설명하기 위한 도면이다.6 is a diagram for explaining criteria and examples for generating multi-learning models in the classification example table of FIG. 4 .

일반적으로 딥러닝 모델은 하나의 모델을 기준으로 한다. 그런데, 본 발명의 실시 예에서의 분류에 따르면 19개의 소분류 항목을 가진다. 따라서 이 분류에 의해 생성된 학습 데이터를 이용하여 만들어지는 학습 모델은 주어진 입력에 대하여 이 19개의 분류 코드 중 하나를 출력한다. 한편, 학습 모델을 단일 모델로 생성하여 사용할 때, 분류 코드의 수가 적고 이미지 개수도 적을 경우에는 크게 문제가 되지 않는다. 그러나 GPU 리소스 자원에 한계가 있는 경우에 분류 코드의 수가 많아지고 이미지 개수도 늘어날 경우 단일 모델로 구성하면 전체 학습 데이터를 학습하는 시간이 늘어나 시스템 전체의 성능을 감소시킬 수 있다.In general, deep learning models are based on one model. However, according to the classification in the embodiment of the present invention, it has 19 sub-category items. Therefore, a learning model built using the training data generated by this classification outputs one of these 19 classification codes for a given input. On the other hand, when the learning model is created and used as a single model, it is not a big problem when the number of classification codes is small and the number of images is also small. However, if the number of classification codes increases and the number of images increases when GPU resource resources are limited, configuring a single model increases the time required to learn the entire training data, which can reduce the performance of the entire system.

한편, 본 발명에서 식별하고자 하는 군사 관련 이미지 및 동영상의 특성 상 대분류가 같은 유사 이미지(K1, K1A1, K1A2, K1E1, K2 전차 또는 T55, T59, 천마호 등) 들에 의해 학습 데이터 량이 늘어나는 경우가 많다. 이 때, 전체 학습 데이터를 학습하는 것보다는 모델을 여러 개의 의미적인 단위로 분할하여 개별적인 모델을 학습하는 것이 모델들의 품질 관리 측면에서 더 효과적이다. K1, K1A1, K1A2, K1E1, K2 전차들의 이미지가 추가될 경우, 전차 모델을 다시 구성하는 것보다, 전차 학습 모델만 갱신하는 것이 더 효율적이다. 이렇게 군사 관련 이미지에서 유사 이미지들이 많은 이유는 한국군의 경우 K1전차를 기반으로 점진적으로 성능을 개선한 전차가 실전에 배치되었고, 북한군의 경우 T55를 기반하여 점진적으로 성능을 개선한 전차가 실전에 배치되었기 때문이다.On the other hand, in view of the characteristics of military-related images and videos to be identified in the present invention, the amount of training data increases due to similar images (K1, K1A1, K1A2, K1E1, K2 tank or T55, T59, Cheonma, etc.) of the same major classification. many. At this time, it is more effective in terms of quality control of models to learn individual models by dividing the model into several semantic units rather than learning the entire training data. When images of K1, K1A1, K1A2, K1E1, and K2 tanks are added, it is more efficient to update only the tank learning model than to reconstruct the tank model. The reason why there are so many similar images in military-related images is that in the case of the South Korean Army, a tank with gradually improved performance based on the K1 tank was deployed in actual combat, and in the case of the North Korean Army, a tank with gradually improved performance based on the T55 was deployed in actual combat. because it has been

따라서 본 발명의 실시 예에서는 GPU 자원이 부족한 상황에서 대분류가 같은 유사 이미지들이 추가되는 경우가 많은 경우, 부분적으로 성능을 개선할 수 있는 멀티모델 학습을 사용한다. 종래와 같이 단일 모델로 학습을 할 경우, 학습 모델은 대분류, 중분류, 소분류 모두를 대상으로 한 개의 학습모델만 만들어지게 된다. 그러나 본 발명의 실시 예에서는 전차와 장갑차라는 대분류(610), 그리고 전차에 해당하는 중분류 및 소분류(620), 장갑차에 해당하는 중분류 및 소분류(630)로 구분하여 다수의 모델을 생성한다. 이렇게 하여 생성한 다수의 모델(610, 620, 630)은 각각 대분류 항목을 식별하는 사용되거나, 대분류 내의 중분류(또는 소분류 코드)를 식별하는데 사용될 수 있다.Therefore, in an embodiment of the present invention, when similar images with the same major classification are often added in a situation where GPU resources are insufficient, multi-model learning that can partially improve performance is used. In the case of learning with a single model as in the prior art, only one learning model is created for all of the major classification, intermediate classification, and small classification. However, in the embodiment of the present invention, multiple models are created by dividing into a large category 610 of tanks and armored vehicles, a middle category and small category 620 corresponding to tanks, and a middle category and small category 630 corresponding to armored vehicles. Each of the plurality of models 610, 620, and 630 generated in this way may be used to identify a large category item or may be used to identify a middle category (or small category code) within a large category.

도 7은 본 발명의 일 실시 예에 따른 전이학습을 설명하기 위한 도면이다.7 is a diagram for explaining transfer learning according to an embodiment of the present invention.

일반적인 모델 학습의 경우, 초기 학습 단계에서는 전체를 대상으로 하나의 베이스 모델을 만든다. 예를 들어 전차 이미지 100장이 새로 추가되었을 때, 베이스 모델에 이 이미지들을 사용하여 전이 학습을 수행하여 기존 베이스 모델을 갱신한다. 경우에 따라서는 추가 데이터를 원본 학습데이터에 포함하여 새로운 베이스 모델을 만드는 것도 가능하다. In the case of general model training, one base model is created for the entire model in the initial training stage. For example, when 100 tank images are newly added, the existing base model is updated by performing transfer learning using these images in the base model. In some cases, it is also possible to create a new base model by including additional data in the original training data.

반면 본 발명의 실시 예에 다른 멀티모델 학습에서는 초기 학습 수행부(710)에서 학습을 수행하여 3개의 모델, 예를 들어 베이스 모델(720), 전차 모델(721), 장갑차 모델(722)을 만든다. 이 때 생성되는 베이스 모델(720)은 대분류 항목(전차, 장갑차)을 식별하는 모델로 이용되며, 전차 모델(721)과 장갑차 모델(722)이 실제 전차의 소분류 코드와 장갑차의 소분류 코드를 식별하는 데 사용된다. 만약 추가적으로 전차 이미지 100장이 추가되면, 이 이미지들은 베이스 모델(720)에 적용되어 전이 학습 수행부#1(730)에서 새로운 베이스 모델(740)을 만들고, 또한 전차 모델(721)에도 적용되어 전이 학습 수행부#2(731)에서 새로운 전차 모델(741)을 만든다. 경우에 따라서는 추가 데이터를 원본 학습 데이터에 포함하여 새로운 베이스 모델과 전차 모델을 만들 수도 있다. On the other hand, in the multi-model learning according to the embodiment of the present invention, the initial learning unit 710 performs learning to create three models, for example, a base model 720, a tank model 721, and an armored vehicle model 722. . The base model 720 generated at this time is used as a model for identifying major category items (tank, armored vehicle), and the tank model 721 and the armored vehicle model 722 identify the subclass code of the actual tank and the subclass code of the armored vehicle. used to If 100 additional tank images are added, these images are applied to the base model 720 to create a new base model 740 in the transfer learning performing unit #1 730, and are also applied to the tank model 721 for transfer learning. Performer #2 (731) creates a new tank model (741). In some cases, additional data may be included in the original training data to create new base models and tank models.

한편, 전이 학습 수행부#1(730)를 통하여 베이스 모델(720)에서 신규 베이스 모델(740)을 만들거나, 기존 전차 모델(721)에서 신규 전차 모델(741)을 만들었을 때, 신규 모델의 사용 여부를 결정하기 위해 일 예로 mAP(mean Average Precision) 값을 이용할 수 있다. mAP은 전체 클래스에 대한 평균 정밀도(precision)를 말하는 것으로, 모델 간의 성능 평가를 비교하는 척도이다. 예를 들어 기존 베이스 모델의 mAP 값이 0.85이고 신규 베이스 모델의 mAP 값이 0.90이라면 mAP 값이 상승했기 때문에 신규 베이스 모델의 성능이 기존 베이스 모델보다 우수하다고 볼 수 있어 신규 베이스 모델을 사용할 수 있다. 그러나, 신규 베이스 모델의 mAP 값이 더 떨어질 경우, 학습 데이터에 가비지(garbage)가 있거나 다른 환경 상의 문제가 있기 때문에 원인을 찾아서 해결해야 하며, 따라서 신규 베이스 모델을 사용하지 않는다. Meanwhile, when a new base model 740 is created from the base model 720 through the transfer learning performing unit #1 730 or a new tank model 741 is created from the existing tank model 721, the new model To determine whether to use, for example, a mean average precision (mAP) value may be used. mAP refers to the average precision for all classes, and is a measure for comparing performance evaluations between models. For example, if the mAP value of the old base model is 0.85 and the mAP value of the new base model is 0.90, since the mAP value has increased, the performance of the new base model can be considered to be superior to that of the old base model, so the new base model can be used. However, if the mAP value of the new base model drops further, since there is garbage in the training data or other environmental problems, the cause must be found and resolved, and therefore the new base model is not used.

신규 모델 사용여부를 결정하는데 있어서 mAP가 주요한 판단 기준이기도 하지만, 이와 더불어서 같이 고려할 수 있는 정보들이 있다. 이러한 정보들은 예를 들어, 모델버전명, 학습 관련 시간, 평가 척도 정보, 물리적인 학습 데이터, 생성된 학습 모델 파일, 설정 및 관련 파일, 프리트레인드(pre-trained) 파일 등의 정보가 있다. 그래서, 한번 만들어진 모델은 다시 생성하고, 모델의 성능이 저하될 경우 어디에서부터 문제가 있었는지 파악할 수 있도록 딥러닝 모델의 버전 관리가 필요하다. 다음 표 1은 이러한 정보들의 예를 나타낸 표이다.In determining whether to use a new model, mAP is also a major criterion, but there are other information that can be considered along with it. Such information includes, for example, model version name, learning related time, evaluation scale information, physical learning data, created learning model file, settings and related files, pre-trained file, and the like. Therefore, it is necessary to manage the version of the deep learning model so that the model once created can be recreated and the problem can be identified when the model's performance deteriorates. Table 1 below is an example of such information.

항목item 설명explanation 예시example 모델 버전명model version name 생성된 모델의 버전Version of generated model T-TANK-v1.0T-TANK-v1.0 학습 시작 시간learning start time 학습을 시작한 시간 정보 Start time information 2021:11:18 20:002021:11:18 20:00 학습 종료 시간learning end time 학습을 종료한 시간 정보Information on the time when learning ended 2021:11:19 20:002021:11:19 20:00 학습 시간class 학습 수행 시간training time 24h24h 학습 데이터learning data 학습에 사용된 데이터 Data used for training TANK-20211118-LEARN.txtTANK-20211118-VAL.txt
TANK-20211118-TEST.txt
TANK-20211118-LEARN.txtTANK-20211118-VAL.txt
TANK-20211118-TEST.txt
평가 척도rating scale AP, mAP 등등AP, mAP, etc. 클래스별 AP, mAP 정보AP, mAP information by class 학습 모델 파일training model file 물리적인 학습 모델 이름Physical learning model name T-TANK-V10.weightsT-TANK-V10.weights 설정 및 관련 파일Settings and related files 학습할 때 사용된 환경 정보Environment information used when learning T-TANK-V10.cfgT-TANK-V10.dataT-TANK-V10.cfg T-TANK-V10.data 프리트레인드(pre-trained) 파일pre-trained files 전이학습을 할 경우, 사용된 weight 파일 In case of transfer learning, used weight file T-TANK-V09.weightsT-TANK-V09.weights

도 8은 데이터 수집부에서 수집된 데이터에 변화를 주어 데이터의 수를 늘리는 예를 도시한 도면이다.8 is a diagram illustrating an example of increasing the number of data by changing the data collected by the data collection unit.

일반적으로 인공지능 학습의 성능은 양질의 데이터를 얼마나 많이 확보하느냐에 좌우된다. 그러나 현실적으로 군사 관련 이미지는 보안 상의 제약이 있기 때문에 양질의 학습 이미지 확보가 용이하지 않다. 따라서 인위적으로 원본 데이터를 가공하여 데이터를 증강한 후 이 데이터들을 학습에 사용할 수 있다. In general, the performance of artificial intelligence learning depends on how much quality data is obtained. However, in reality, it is not easy to secure high-quality training images because military-related images have security restrictions. Therefore, after augmenting the data by artificially processing the original data, these data can be used for learning.

즉, 데이터 수집부(210)는 수집된 데이터에 변화를 주어 다양한 이미지를 생성하여 학습 데이터를 추가로 확보할 수 있다. 도 8을 참조하여 도시한 바와 같이, 원본 이미지에 안개, 눈, 비와 같은 다양한 필터를 사용하여 날씨의 변화 효과를 준 이미지(820, 821)를 만들거나, 원본 이미지의 밝고 어둡기를 조정하거나 또는 다양한 엄폐물을 원본 이미지에 삽입한 이미지(822)를 만들 수도 있다. 이 외에도 저화질의 이미지인 경우 감마 필터를 적용하여 고화질 이미지로 변환한 이미지(823)를 만들어 학습 데이터를 증강할 수 있다.That is, the data collection unit 210 may generate various images by changing the collected data to additionally secure learning data. As illustrated with reference to FIG. 8 , images 820 and 821 to which weather effects have been applied are created by using various filters such as fog, snow, and rain on an original image, brightness and darkness of the original image are adjusted, or An image 822 in which various cover objects are inserted into the original image may be created. In addition to this, in the case of a low-quality image, a gamma filter is applied to convert the image 823 into a high-quality image, and training data may be augmented.

도 9는 식별부에서 입력 이미지에서의 무기 객체를 식별하는 것을 설명하기 위한 도면이다.9 is a diagram for explaining identification of an inorganic object in an input image by an identification unit.

일 예로 이미지가 입력되면, 식별부(130)는 베이스 모델을 이용하여 대분류 항목을 먼저 결정하고 이 결과를 이용하여 상세 분류 모델을 이용하여 최종 분류 코드를 얻는다. 도 9에 도시한 예와 같이 입력 이미지는 베이스 모델을 통하여 대분류 항목 전차, 신뢰도 0.99를 얻었다. 이 결과에 소분류 항목을 얻기 위해 전차모델이 선택되었고, 최종 소분류 코드는 K2 전차, 신뢰도는 0.91을 얻을 수 있음을 알 수 있다For example, when an image is input, the identification unit 130 first determines a large classification item using a base model and obtains a final classification code using a detailed classification model using the result. As shown in the example shown in FIG. 9, the input image obtained a total of major classification items and a reliability of 0.99 through the base model. From this result, it can be seen that the tank model was selected to obtain the subclass item, the final subclass code was K2 tank, and the reliability was 0.91.

도 10은 식별부에서 입력 동영상에서의 무기 객체를 식별하는 것을 설명하기 위한 도면이다.10 is a diagram for explaining identification of an inorganic object in an input video by an identification unit.

일 예로 동영상이 입력되면, 식별부(130)는 동영상을 샷(shot) 단위로 분할하고 각 샷(shot) 안의 모든 이미지들에 대하여 객체 식별을 수행하여 동영상을 플레이할 때, 식별된 객체들을 디스플레이한다. For example, when a video is input, the identification unit 130 divides the video into shot units, performs object identification on all images in each shot, and displays the identified objects when playing the video. do.

또한 동영상 내에 출현하는 객체들은 클래스 별 출현 타임 스탬프 그래프를 통하여 클래스 별로 동영상 내에서 어떤 시간 대역에 출현했는지 손쉽게 알아볼 수 있다. 타임 스탬프 그래프는 동영상 객체 플레이어와 연계되어 있어, 타임 스탬프 그래프의 특정 객체명을 클릭하면 동영상 객체 플레이어는 해당 객체가 처음 출현하는 위치로 이동하여 플레이 된다. 또 타임 스탬프 내의 임의의 구간을 클릭할 경우, 동영상 객체 플레이어는 해당 시간으로 이동하여 플레이 된다. In addition, objects appearing in the video can be easily identified in which time band they appeared in the video for each class through the appearance timestamp graph for each class. The timestamp graph is linked with the video object player, and when a specific object name in the timestamp graph is clicked, the video object player moves to the first appearing position of the corresponding object and is played. Also, if a random section within the time stamp is clicked, the video object player moves to the corresponding time and is played.

도 11은 본 발명의 일 실시 예에 따른 군사 관련 이미지 및 동영상에서의 무기객체 식별방법의 흐름도이다.11 is a flowchart of a weapon object identification method in military-related images and videos according to an embodiment of the present invention.

무기객체 식별방법은, 무기 객체가 포함된 군사 관련(military) 이미지와, 군사 관련 동영상에서 선정된 대표 이미지에 관해 레이블링을 수행하고, 레이블링된 이미지에 포함된 객체의 학습을 위해 다수의 모델을 생성하며, 이러한 다수의 모델 중에서 특정 객체가 속한 모델에서 학습을 수행하여 딥러닝 모델을 생성하는 딥러닝 모델 생성단계와, 식별 대상 이미지 또는 동영상이 입력되면, 딥러닝 모델을 참조하여, 식별 대상 이미지 또는 동영상에 포함된 무기 객체를 식별하는 무기 객체 식별단계를 포함한다. The weapon object identification method performs labeling on military images containing weapon objects and representative images selected from military-related videos, and generates multiple models for learning objects included in the labeled images. In addition, a deep learning model creation step of generating a deep learning model by performing learning in a model to which a specific object belongs among a plurality of models, and when an image or video to be identified is input, referring to the deep learning model, and a weapon object identification step of identifying weapon objects included in the video.

보다 구체적으로는, 무기 객체가 포함된 군사 관련(military) 이미지를 수집하거나, 무기 객체가 포함된 군사 관련 동영상에서 그 레이블링을 위한 대표 이미지를 선정하여 이를 수집한다(1110). 여기서 데이터 수집단계는 동영상을 샷 단위로 분할하고, 각 샷에 포함된 객체의 대표 특성을 갖는 이미지를 대표 이미지 선정할 수 있다. 그리고 수집된 데이터에 변화를 주어 다양한 이미지를 생성하여 학습 데이터를 추가로 확보할 수 있다.More specifically, military images including weapon objects are collected, or representative images for labeling are selected and collected from military-related videos including weapon objects (1110). Here, in the data collection step, the video may be divided into shot units, and an image having a representative characteristic of an object included in each shot may be selected as a representative image. Further, learning data may be additionally secured by generating various images by changing the collected data.

그리고, 이렇게 수집된 이미지에 포함된 객체를 검출하고, 소정의 다수 분류 항목에 따라 레이블링을 수행한다(1120).Then, objects included in the collected images are detected, and labeling is performed according to a plurality of predetermined classification items (1120).

다음으로, 레이블링된 객체의 학습을 위해 다수의 모델을 생성하고, 각 모델에서 학습을 수행한다(1130). 이러한 멀티모델 학습수행단계는 레이블링된 객체의 분류 항목에 기초하여 다수의 모델을 생성하는 멀티모델 생성단계와, 다수의 모델중에서 특정 객체가 속한 해당 모델에서 학습을 수행하는 학습수행단계를 포함할 수 있다. Next, multiple models are generated for learning of the labeled object, and learning is performed on each model (1130). This multi-model learning step may include a multi-model creation step of generating a plurality of models based on the classification of labeled objects, and a learning step of performing learning on a corresponding model to which a specific object belongs among a plurality of models. there is.

추가된 이미지를 가지고 상기 모델에서 학습을 수행하여 모델을 갱신한 후, 그 결과를 검증한다(1140).After updating the model by performing learning on the model with the added image, the result is verified (1140).

한편, 본 실시 예에서는 예를 들어 육군에서 사용하는 무기(weapon)에 관해서만 설명하였으나, 비행기, 전함 등 해군, 공군의 다양한 무기 체계에 관해서도 동일하게 적용될 수 있다.Meanwhile, in this embodiment, for example, only weapons used in the army have been described, but the same can be applied to various weapon systems of the navy and air force, such as airplanes and battleships.

이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been looked at mainly by its embodiments. Those skilled in the art to which the present invention pertains will be able to understand that the present invention may be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered from a descriptive point of view rather than a limiting point of view. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the equivalent scope will be construed as being included in the present invention.

Claims (12)

무기 객체가 포함된 군사 관련(military) 이미지와, 군사 관련 동영상에서 선정된 대표 이미지에 관해 레이블링을 수행하고, 레이블링된 이미지에 포함된 객체의 학습을 위해 다수의 모델을 생성하며, 상기 다수의 모델 중에서 상기 객체가 속한 모델에서 학습을 수행하여 딥러닝 모델을 생성하는 딥러닝 모델 생성부; 및
식별 대상 이미지 또는 동영상이 입력되면, 상기 생성된 딥러닝 모델을 참조하여, 상기 식별 대상 이미지 또는 동영상에 포함된 무기 객체를 식별하는 식별부를 포함하는 군사 관련 이미지 및 동영상에서의 무기객체 식별장치.
Labeling is performed on military images including weapon objects and representative images selected from military-related videos, and multiple models are created for learning objects included in the labeled images. a deep learning model generation unit for generating a deep learning model by performing learning on a model to which the object belongs; and
An apparatus for identifying weapon objects in military-related images and videos, comprising an identification unit for identifying a weapon object included in the image or video to be identified by referring to the generated deep learning model when an image or video to be identified is input.
제 1 항에 있어서, 딥러닝 모델 생성부는,
무기 객체가 포함된 군사 관련(military) 이미지를 수집하거나, 무기 객체가 포함된 군사 관련 동영상에서 상기 동영상의 레이블링을 위한 대표 이미지를 선정하여 이를 수집하는 데이터 수집부;
상기 수집된 이미지에 포함된 객체를 검출하고, 소정의 다수 분류 항목에 따라 레이블링을 수행하는 레이블링 수행부; 및
상기 레이블링된 객체의 학습을 위해 다수의 모델을 생성하고, 각 모델에서 학습을 수행하는 멀티모델 학습수행부를 포함하는 군사 관련 이미지 및 동영상에서의 무기객체 식별장치.
The method of claim 1, wherein the deep learning model generator,
a data collection unit that collects military images including weapon objects or selects and collects representative images for labeling of the videos from military-related videos including weapon objects;
a labeling performing unit that detects objects included in the collected images and performs labeling according to a plurality of predetermined classification items; and
An apparatus for identifying weapons objects in military-related images and videos, including a multi-model learning unit for generating a plurality of models for learning of the labeled objects and performing learning in each model.
제 2 항에 있어서,
추가된 이미지를 가지고 상기 모델에서 학습을 수행하여 모델을 갱신한 후, 그 결과를 검증하는 모델 검증부를 더 포함하는 군사 관련 이미지 및 동영상에서의 무기객체 식별장치.
According to claim 2,
Weapon object identification device in military-related images and videos, further comprising a model verification unit that performs learning on the model with the added image to update the model and then verifies the result.
제 2 항에 있어서, 상기 데이터 수집부는,
상기 동영상을 샷 단위로 분할하고, 각 샷에 포함된 객체의 대표 특성을 갖는 이미지를 대표 이미지 선정하는 군사 관련 이미지 및 동영상에서의 무기객체 식별장치.
The method of claim 2, wherein the data collection unit,
An apparatus for identifying weapon objects in military-related images and videos that divides the video into shot units and selects an image having a representative characteristic of an object included in each shot as a representative image.
제 2 항에 있어서, 상기 멀티모델 학습수행부는
상기 레이블링된 객체의 분류 항목에 기초하여 다수의 모델을 생성하는 멀티모델 생성부; 및
상기 다수의 모델중에서 상기 객체가 속한 해당 모델에서 학습을 수행하는 학습수행부를 포함하는 군사 관련 이미지 및 동영상에서의 무기객체 식별장치.
The method of claim 2, wherein the multi-model learning unit
a multi-model generating unit generating a plurality of models based on the classification items of the labeled object; and
A device for identifying weapon objects in military-related images and videos, including a learning unit for performing learning in a corresponding model to which the object belongs, among the plurality of models.
제 2 항에 있어서, 상기 데이터 수집부는
상기 수집된 데이터에 변화를 주어 다양한 이미지를 생성하여 학습 데이터를 추가로 확보하는 군사 관련 이미지 및 동영상에서의 무기객체 식별장치.
The method of claim 2, wherein the data collection unit
A weapon object identification device in military-related images and videos that creates various images by changing the collected data to additionally secure learning data.
무기 객체가 포함된 군사 관련(military) 이미지와, 군사 관련 동영상에서 선정된 대표 이미지에 관해 레이블링을 수행하고, 레이블링된 이미지에 포함된 객체의 학습을 위해 다수의 모델을 생성하며, 상기 다수의 모델 중에서 상기 객체가 속한 모델에서 학습을 수행하여 딥러닝 모델을 생성하는 딥러닝 모델 생성단계; 및
식별 대상 이미지 또는 동영상이 입력되면, 상기 생성된 딥러닝 모델을 참조하여, 상기 식별 대상 이미지 또는 동영상에 포함된 무기 객체를 식별하는 무기 객체 식별단계를 포함하는 군사 관련 이미지 및 동영상에서의 무기객체 식별방법.
Labeling is performed on military images including weapon objects and representative images selected from military-related videos, and multiple models are created for learning objects included in the labeled images. a deep learning model generation step of generating a deep learning model by performing learning in a model to which the object belongs; and
Weapon object identification in military-related images and videos including a weapon object identification step of identifying a weapon object included in the identification target image or video by referring to the generated deep learning model when an identification target image or video is input method.
제 7 항에 있어서, 딥러닝 모델 생성단계는,
무기 객체가 포함된 군사 관련(military) 이미지를 수집하거나, 무기 객체가 포함된 군사 관련 동영상에서 상기 동영상의 레이블링을 위한 대표 이미지를 선정하여 이를 수집하는 데이터 수집단계;
상기 수집된 이미지에 포함된 객체를 검출하고, 소정의 다수 분류 항목에 따라 레이블링을 수행하는 레이블링 수행단계; 및
상기 레이블링된 객체의 학습을 위해 다수의 모델을 생성하고, 각 모델에서 학습을 수행하는 멀티모델 학습수행단계를 포함하는 군사 관련 이미지 및 동영상에서의 무기객체 식별방법.
The method of claim 7, wherein the deep learning model generation step,
A data collection step of collecting military images including weapon objects or selecting and collecting representative images for labeling of the videos from military-related videos including weapon objects;
A labeling step of detecting objects included in the collected images and performing labeling according to a plurality of predetermined classification items; and
A method for identifying weapon objects in military-related images and videos, comprising a multi-model learning step of generating a plurality of models for learning of the labeled object and performing learning on each model.
제 8 항에 있어서,
추가된 이미지를 가지고 상기 모델에서 학습을 수행하여 모델을 갱신한 후, 그 결과를 검증하는 모델 검증단계를 더 포함하는 군사 관련 이미지 및 동영상에서의 무기객체 식별방법.
According to claim 8,
A method for identifying weapon objects in military-related images and videos, further comprising a model verification step of performing learning on the model with the added image, updating the model, and verifying the result.
제 8 항에 있어서, 상기 데이터 수집단계는,
상기 동영상을 샷 단위로 분할하고, 각 샷에 포함된 객체의 대표 특성을 갖는 이미지를 대표 이미지 선정하는 군사 관련 이미지 및 동영상에서의 무기객체 식별방법.
The method of claim 8, wherein the data collection step,
A method for identifying weapon objects in military-related images and videos by dividing the video into shot units and selecting an image having a representative characteristic of an object included in each shot as a representative image.
제 8 항에 있어서, 상기 멀티모델 학습수행단계는
상기 레이블링된 객체의 분류 항목에 기초하여 다수의 모델을 생성하는 멀티모델 생성단계; 및
상기 다수의 모델중에서 상기 객체가 속한 해당 모델에서 학습을 수행하는 학습수행단계를 포함하는 군사 관련 이미지 및 동영상에서의 무기객체 식별방법.
The method of claim 8, wherein the multi-model learning step
a multi-model generation step of generating a plurality of models based on the classification items of the labeled object; and
A weapon object identification method in military-related images and videos comprising a learning execution step of performing learning in a corresponding model to which the object belongs among the plurality of models.
제 8 항에 있어서, 상기 데이터 수집단계는
상기 수집된 데이터에 변화를 주어 다양한 이미지를 생성하여 학습 데이터를 추가로 확보하는 군사 관련 이미지 및 동영상에서의 무기객체 식별방법.
The method of claim 8, wherein the data collection step
A weapon object identification method in military-related images and videos that creates various images by changing the collected data to additionally secure learning data.
KR1020210171255A 2021-12-02 2021-12-02 Apparatus and method for identifying weapon objects in military-related images and videos KR20230083130A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210171255A KR20230083130A (en) 2021-12-02 2021-12-02 Apparatus and method for identifying weapon objects in military-related images and videos

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210171255A KR20230083130A (en) 2021-12-02 2021-12-02 Apparatus and method for identifying weapon objects in military-related images and videos

Publications (1)

Publication Number Publication Date
KR20230083130A true KR20230083130A (en) 2023-06-09

Family

ID=86765244

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210171255A KR20230083130A (en) 2021-12-02 2021-12-02 Apparatus and method for identifying weapon objects in military-related images and videos

Country Status (1)

Country Link
KR (1) KR20230083130A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102618066B1 (en) 2023-07-11 2023-12-27 같다커뮤니케이션 주식회사 Method, device and system for strengthening military security based on natural language process and image compare in soldier based community application

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102618066B1 (en) 2023-07-11 2023-12-27 같다커뮤니케이션 주식회사 Method, device and system for strengthening military security based on natural language process and image compare in soldier based community application

Similar Documents

Publication Publication Date Title
CN109376603A (en) A kind of video frequency identifying method, device, computer equipment and storage medium
CN110084093B (en) Method and device for detecting and identifying target in remote sensing image based on deep learning
CN110443862B (en) Lithologic map filling method and system based on unmanned aerial vehicle and electronic equipment
CN112528862B (en) Remote sensing image target detection method based on improved cross entropy loss function
KR102349854B1 (en) System and method for tracking target
CN110059807A (en) Image processing method, device and storage medium
CN109344878B (en) Eagle brain-like feature integration small target recognition method based on ResNet
CN108537115B (en) Image recognition method and device and electronic equipment
CN109190631A (en) The target object mask method and device of picture
CN113988179A (en) Target segmentation method, system and equipment based on improved attention and loss function
US20170076629A1 (en) Apparatus and method for supporting choreography
CN114170532A (en) Multi-target classification method and device based on difficult sample transfer learning
CN109409201A (en) A kind of pedestrian's recognition methods again based on shared and peculiar dictionary to combination learning
KR20230083130A (en) Apparatus and method for identifying weapon objects in military-related images and videos
CN110020669A (en) A kind of license plate classification method, system, terminal device and computer program
Tutzauer et al. Semantic urban mesh enhancement utilizing a hybrid model
CN114170531A (en) Infrared image target detection method and device based on difficult sample transfer learning
US20220237908A1 (en) Flight mission learning using synthetic three-dimensional (3d) modeling and simulation
CN116824345A (en) Bullet hole detection method and device based on computer vision
CN111881839A (en) Small sample remote sensing image target identification method based on metric learning
CN112257638A (en) Image comparison method, system, equipment and computer readable storage medium
CN112395952A (en) A unmanned aerial vehicle for rail defect detection
CN114494893B (en) Remote sensing image feature extraction method based on semantic reuse context feature pyramid
CN103473562B (en) Automatic training and identifying system for specific human body action
CN112001380B (en) Recognition method and system for Chinese meaning phrase based on artificial intelligence reality scene

Legal Events

Date Code Title Description
E902 Notification of reason for refusal