KR102127657B1 - 디지털 트윈을 이용한 차세대 함정용 인공 지능 표적 학습 및 표적 식별 방법 - Google Patents

디지털 트윈을 이용한 차세대 함정용 인공 지능 표적 학습 및 표적 식별 방법 Download PDF

Info

Publication number
KR102127657B1
KR102127657B1 KR1020200050005A KR20200050005A KR102127657B1 KR 102127657 B1 KR102127657 B1 KR 102127657B1 KR 1020200050005 A KR1020200050005 A KR 1020200050005A KR 20200050005 A KR20200050005 A KR 20200050005A KR 102127657 B1 KR102127657 B1 KR 102127657B1
Authority
KR
South Korea
Prior art keywords
target
module
environment
target image
maritime
Prior art date
Application number
KR1020200050005A
Other languages
English (en)
Inventor
김범준
Original Assignee
한화시스템 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화시스템 주식회사 filed Critical 한화시스템 주식회사
Priority to KR1020200050005A priority Critical patent/KR102127657B1/ko
Application granted granted Critical
Publication of KR102127657B1 publication Critical patent/KR102127657B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63GOFFENSIVE OR DEFENSIVE ARRANGEMENTS ON VESSELS; MINE-LAYING; MINE-SWEEPING; SUBMARINES; AIRCRAFT CARRIERS
    • B63G13/00Other offensive or defensive arrangements on vessels; Vessels characterised thereby
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41JTARGETS; TARGET RANGES; BULLET CATCHERS
    • F41J5/00Target indicating systems; Target-hit or score detecting systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30212Military

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Processing Or Creating Images (AREA)

Abstract

디지털 트윈을 이용한 차세대 함정용 인공 지능 표적 학습 및 표적 식별 방법이 개시된다. 대상 표적 이미지 입력 모듈이 대상 표적 이미지를 입력받는 단계; 대상 표적 3D 렌더링 모듈이 상기 대상 표적 이미지 입력 모듈에서 입력받은 대상 표적 이미지에 대해 모의 해상 환경을 적용하여 3D 렌더링(3-dimensional rendering)을 수행하는 단계; 상기 대상 표적 3D 렌더링 모듈이 3D 렌더링이 수행된 3D 표적 이미지를 출력하는 단계를 구성한다. 상술한 디지털 트윈을 이용한 차세대 함정용 인공 지능 표적 학습 및 표적 식별 방법에 의하면, 대상 표적에 대한 몇 장이 이미지에 다양한 모의 해상 환경을 적용하여 3D 렌더링을 수행하여 3D 표적 이미지에 관한 데이터베이스를 구축하도록 구성됨으로써, 대상 함정에 대한 AI 기반 인식을 하기 위해 필요한 다양한 해상 환경 하의 수 천 장의 이미지를 보다 쉽게 확보할 수 있는 효과가 있다. 또한, 이러한 3D 표적 이미지들을 이용하여 AI 기반 학습을 수행하고 이를 통해 센서 체계 이미지의 표적을 AI 기반 하에 정확하게 인식하도록 구성됨으로써, 적의 표적을 자동으로 인식하여 보다 빨리 지휘관의 대응 판단이 이루어질 수 있는 효과가 있다.

Description

디지털 트윈을 이용한 차세대 함정용 인공 지능 표적 학습 및 표적 식별 방법{METHOD OF ARTIFICAL INTELLIGENCE TARGET LEARNING AND TARGET IDENTIFICATION FOR NEXT GENERATION NAVAL SHIP USING DIGITAL TWIN}
본 발명은 표적 학습 및 표적 식별 방법에 관한 것으로서, 구체적으로는 차세대 함정용 인공 지능 표적 학습 및 표적 식별 방법에 관한 것이며, 좀 더 구체적으로는 디지털 트윈(digital twin)을 이용한 차세대 함정용 인공 지능 표적 학습 및 표적 식별 방법이다.
해군비전 2045에서 제시된 스마트 배틀 쉽(SMART BATTLE SHIP)에서는 EOTS(electro-optical tracking system) 등의 센서 체계에서 표적을 자동으로 인식하는 요구 사항이 많아지고 있다.
하지만, 해상 환경 자체가 파도, 연무, 비 등의 다양한 조건을 갖고 있고, 햇빛 반사면, 주간, 야간 등에 따라서도 표적이 다르게 보이는 문제점이 있다.
해상 환경의 어떠한 조건에서나 적의 함정이 포착되었는지 그리고 더 나아가 적의 함정이 어떠한 함정인지를 정확하게 자동으로 판단하기란 쉽지 않다.
이에, 다양한 해상 환경에서 적의 표적을 자동으로 정확하게 인식하여 전투 체계 상에 전시할 수 있는 수단이 요구된다.
등록특허공보 10-2081218 등록특허공보 10-2067095
본 발명의 목적은 디지털 트윈을 이용한 차세대 함정용 인공 지능 표적 학습 및 표적 식별 방법을 제공하는 데 있다.
상술한 본 발명의 목적에 따른 디지털 트윈을 이용한 차세대 함정용 인공 지능 표적 학습 및 표적 식별 방법은, 대상 표적 이미지 입력 모듈이 대상 표적 이미지를 입력받는 단계; 대상 표적 3D 렌더링 모듈이 상기 대상 표적 이미지 입력 모듈에서 입력받은 대상 표적 이미지에 대해 모의 해상 환경을 적용하여 3D 렌더링(3-dimensional rendering)을 수행하는 단계; 상기 대상 표적 3D 렌더링 모듈이 3D 렌더링이 수행된 3D 표적 이미지를 출력하는 단계를 포함하도록 구성될 수 있다.
여기서, 상기 대상 표적 이미지는, 함정 이미지로 구성될 수 있다.
그리고 상기 대상 표적 3D 렌더링 모듈이 상기 대상 표적 이미지 입력 모듈에서 입력받은 대상 표적 이미지에 대해 모의 해상 환경을 적용하여 3D 렌더링(3-dimensional rendering)을 수행하는 단계는, 적어도 3,000 개 이상의 모의 해상 환경을 적용하여 3D 렌더링을 수행하고 해당 3D 표적 이미지를 출력하도록 구성될 수 있다.
상술한 본 발명의 목적에 따른 디지털 트윈을 이용한 차세대 함정용 인공 지능 표적 학습 및 표적 식별 방법은, 대상 표적 이미지 입력 모듈이 함정의 대상 표적 이미지를 입력받는 단계; 해상 환경 자동 모의 생성 모듈이 상기 대상 표적 이미지 입력 모듈에서 입력받은 대상 표적 이미지에 대해 적용할 다수의 해상 환경 및 다수의 복합 해상 환경을 자동으로 모의 생성하는 단계; 대상 표적 3D 렌더링 모듈이 상기 대상 표적 이미지 입력 모듈에서 입력받은 대상 표적에 대해 3D 렌더링(3-dimensional rendering)을 수행하여 3D 표적 이미지를 출력하는 단계; 해상 환경 적용 제어 모듈의 제어에 따라 모의 해상 환경 적용 모듈이 상기 해상 환경 자동 모의 생성 모듈에서 생성된 다수의 해상 환경을 상기 대상 표적 3D 렌더링 모듈의 3D 렌더링에 적용하고, 복합 모의 해상 환경 적용 모듈이 상기 해상 환경 자동 모의 생성 모듈에서 생성된 다수의 복합 해상 환경을 상기 대상 표적 3D 렌더링 모듈의 3D 렌더링에 적용하는 단계; 카메라 렌즈 필터 자동 적용 모듈이 상기 대상 표적 3D 렌더링 모듈에서 출력되는 3D 표적 이미지에 대해 적어도 하나 이상의 카메라 렌즈 필터(camera lense filter)를 자동 적용하여 각각의 디지털 트윈(digital twin) 표적 이미지를 출력하는 단계; 자동 라벨링 모듈이 상기 카메라 렌즈 필터 자동 적용 모듈에서 출력되는 디지털 트윈 표적 이미지에 대해 자동으로 라벨링(labeling)을 수행하고 속성 및 형태를 추출하여 출력하는 단계; 디지털 트윈 표적 이미지 저장 모듈에 상기 자동 라벨링 모듈에서 라벨링이 수행된 디지털 트윈 표적 이미지가 저장되는 단계; 디지털 트윈 표적 이미지 AI 학습 모듈이 상기 디지털 트윈 표적 이미지 저장 모듈에 저장된 디지털 트윈 표적 이미지에 대해 AI(artificial intelligence) 학습을 수행하는 단계; EOTS 표적 이미지 입력 모듈이 EOTS(electro-optical tracking system)로부터 EOTS 표적 이미지를 입력받거나, IRST 표적 이미지 입력 모듈이 IRST(Infrared search and track)로부터 IRST 표적 이미지를 입력받는 단계; 전시 모듈이 상기 EOTS 표적 이미지 입력 모듈로부터 입력받은 EOTS 표적 이미지 및 상기 IRST 표적 이미지 입력 모듈로부터 입력받은 IRST 표적 이미지를 전시하는 단계; AI 기반 표적 인식 모듈이 상기 EOTS 표적 이미지 입력 모듈에서 입력받은 EOTS 표적 이미지 및 상기 IRST 표적 이미지 입력 모듈에서 입력받은 IRST 표적 이미지에 대해 상기 디지털 트윈 표적 이미지 AI 학습 모듈에서 수행된 AI 학습 결과를 기반으로 해당 표적을 인식하고, 인식 결과를 상기 전시 모듈을 통해 전시하는 단계; 표적 인식 확인 모듈이 운용자 입력에 따라 상기 AI 기반 표적 인식 모듈에서 인식된 표적에 대한 확인을 수행하는 단계; 실환경 정보 자동 획득 모듈이 상기 표적 인식 확인 모듈의 확인 결과 해당 표적에 대한 인식에 오류가 있는 경우, 해당 EOTS 표적 이미지 또는 해당 IRST 표적 이미지의 획득 시점의 실환경 정보를 자동 획득하는 단계; AI 인식 오류 실환경 이미지 피드백 모듈이 상기 표적 인식 확인 모듈의 확인 결과 해당 표적에 대한 인식에 오류가 있는 경우, 해당 EOTS 표적 이미지 또는 해당 IRST 표적 이미지를 AI 인식 오류 실환경 이미지로서 피드백하는 단계를 포함하도록 구성될 수 있다.
여기서, 상기 해상 환경 자동 모의 생성 모듈이 상기 대상 표적 이미지 입력 모듈에서 입력받은 대상 표적 이미지에 대해 적용할 다수의 해상 환경 및 다수의 복합 해상 환경을 자동으로 모의 생성하는 단계는, 주간 해상 환경 모의 생성부가 다수의 주간 해상 환경을 모의 생성하고, 야간 해상 환경 모의 생성부가 다수의 야간 해상 환경을 모의 생성하고, 새벽 해상 환경 모의 생성부가 다수의 새벽 해상 환경을 모의 생성하고, 파도 해상 환경 모의 생성부가 다수의 파도 해상 환경을 모의 생성하고, 연무 해상 환경 모의 생성부가 다수의 연무 해상 환경을 모의 생성하고, 해면 반사 해상 환경 모의 생성부가 다수의 해면 반사 해상 환경을 모의 생성하고, 복합 해상 환경 모의 생성부가 상기 주간 해상 환경, 야간 해상 환경, 새벽 해상 환경, 파도 해상 환경, 연무 해상 환경, 해면 반사 해상 환경을 적어도 둘 이상 조합하여 다수의 복합 해상 환경을 모의 생성하고, AI 인식 오류 실환경 이미지 기반 해상 환경 모의 생성부가 상기 AI 인식 오류 실환경 이미지 피드백 모듈에서 피드백되는 AI 인식 오류 실환경 이미지를 기반으로 AI 인식 오류 실환경 이미지 기반 해상 환경을 모의 생성하도록 구성될 수 있다.
그리고 상기 해상 환경 적용 제어 모듈의 제어에 따라 모의 해상 환경 적용 모듈이 상기 해상 환경 자동 모의 생성 모듈에서 생성된 다수의 해상 환경을 상기 대상 표적 3D 렌더링 모듈의 3D 렌더링에 적용하고, 복합 모의 해상 환경 적용 모듈이 상기 해상 환경 자동 모의 생성 모듈에서 생성된 다수의 복합 해상 환경을 상기 대상 표적 3D 렌더링 모듈의 3D 렌더링에 적용하는 단계는, 상기 모의 해상 환경 적용 모듈이 상기 AI 인식 오류 실환경 이미지 기반 해상 환경 모의 생성부에서 모의 생성된 AI 인식 오류 실환경 이미지 기반 해상 환경을 상기 대상 표적 3D 렌더링 모듈의 3D 렌더링에 적용하도록 구성될 수 있다.
상술한 디지털 트윈을 이용한 차세대 함정용 인공 지능 표적 학습 및 표적 식별 방법에 의하면, 대상 표적에 대한 몇 장이 이미지에 다양한 모의 해상 환경을 적용하여 3D 렌더링을 수행하여 3D 표적 이미지에 관한 데이터베이스를 구축하도록 구성됨으로써, 대상 함정에 대한 AI 기반 인식을 하기 위해 필요한 다양한 해상 환경 하의 수 천 장의 이미지를 보다 쉽게 확보할 수 있는 효과가 있다.
또한, 이러한 3D 표적 이미지들을 이용하여 AI 기반 학습을 수행하고 이를 통해 센서 체계 이미지의 표적을 AI 기반 하에 정확하게 인식하도록 구성됨으로써, 적의 표적을 자동으로 인식하여 보다 빨리 지휘관의 대응 판단이 이루어질 수 있는 효과가 있다.
또한, AI 기반 인식에 오류가 있는 경우 해당 센서 체계 이미지의 해상 환경을 그대로 모사하여 해당 대상 표적의 3D 표적 이미지를 확보하도록 구성됨으로써, AI 기반 인식률을 높일 수 있는 효과가 있다.
그리고 IRST 이미지에 대해서는 실제 IRST 이미지에서 실표적을 추출하고 이를 이용하여 3D 표적 이미지를 생성하도록 구성됨으로써, IRST 이미지의 특수성에 따른 인식률 저하를 방지하고, 높은 인식률을 유지할 수 있다.
도 1은 본 발명의 일 실시예에 따른 디지털 트윈을 이용한 차세대 함정용 인공 지능 표적 학습 및 표적 식별 시스템의 블록 구성도이다.
도 2는 본 발명의 일 실시예에 따른 디지털 트윈 환경에서 대상 표적과 다양한 모의 해상 환경을 이용하여 3D 표적 이미지를 생성하는 동작의 예시 화면이다.
도 3은 본 발명의 일 실시예에 따른 실제 센서 체계 이미지에서 실표적을 추출하여 AI 인식을 수행하는 동작을 나타내는 예시 화면이다.
도 4 내지 도 6은 본 발명의 일 실시예에 따른 디지털 트윈을 이용한 차세대 함정용 인공 지능 표적 학습 및 표적 식별 방법의 블록 구성도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 발명을 실시하기 위한 구체적인 내용에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 디지털 트윈을 이용한 차세대 함정용 인공 지능 표적 학습 및 표적 식별 시스템의 블록 구성도이다. 그리고 도 2는 본 발명의 일 실시예에 따른 디지털 트윈 환경에서 대상 표적과 다양한 모의 해상 환경을 이용하여 3D 표적 이미지를 생성하는 동작의 예시 화면이고, 도 3은 본 발명의 일 실시예에 따른 실제 센서 체계 이미지에서 실표적을 추출하여 AI 인식을 수행하는 동작을 나타내는 예시 화면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 디지털 트윈을 이용한 차세대 함정용 인공 지능 표적 학습 및 표적 식별 시스템(100)은 대상 표적 이미지 입력 모듈(101), 해상 환경 자동 모의 생성 모듈(102), 대상 표적 3D 렌더링 모듈(103), 모의 해상 환경 적용 모듈(104), 복합 모의 해상 환경 적용 모듈(105), 해상 환경 적용 제어 모듈(106), 카메라 렌즈 필터 자동 적용 모듈(107), 자동 라벨링 모듈(108), 디지털 트윈 표적 이미지 저장 모듈(109), 디지털 트윈 표적 이미지 AI 학습 모듈(110), EOTS 표적 이미지 입력 모듈(111), IRST 표적 이미지 입력 모듈(112), 전시 모듈(113), AI 기반 표적 인식 모듈(114), 표적 인식 확인 모듈(115), 실환경 정보 자동 획득 모듈(116), AI 인식 오류 실환경 이미지 피드백 모듈(117), IRST 실표적 추출 모듈(118), IRST용 해상 환경 자동 모의 생성 모듈(119), IRST 실표적 렌더링 모듈(120), IRST용 모의 해상 환경 적용 모듈(121)을 포함하도록 구성될 수 있다.
이하, 세부적인 구성에 대하여 설명한다.
대상 표적 이미지 입력 모듈(101)은 함정의 대상 표적 이미지를 입력받도록 구성될 수 있다. 함정은 적군이나 아군의 함정이 될 수 있고, 함정 별로 입력받을 수 있다. 대상 표적 이미지 입력 모듈(101)은 함정 별로 많은 이미지를 확보하기가 쉽지 않기 때문에, 함정 별로 여러 각도에서 보여지는 몇 장의 이미지를 입력받을 수 있도록 구성될 수 있다.
AI 기반 학습이나 AI 기반 인식을 위해서는 함정별로 대략 3,000 여개의 다양한 각도와 다양한 배경의 이미지가 필요하지만, 본 발명에서는 이를 디지털 트윈 기술을 이용하여 확보하고 극복하는 점에 주안점이 있다.
해상 환경 자동 모의 생성 모듈(102)은 대상 표적 이미지 입력 모듈(101)에서 입력받은 대상 표적 이미지에 대해 적용할 다수의 해상 환경 및 다수의 복합 해상 환경을 자동으로 모의 생성하도록 구성될 수 있다.
해상 환경 자동 모의 생성 모듈(102)은 주간 해상 환경 모의 생성부(102a), 야간 해상 환경 모의 생성부(102b), 새벽 해상 환경 모의 생성부(102c), 파도 해상 환경 모의 생성부(102d), 연무 해상 환경 모의 생성부(102e), 해면 반사 해상 환경 모의 생성부(102f), 복합 해상 환경 모의 생성부(102g), AI 인식 오류 실환경 이미지 기반 해상 환경 모의 생성부(102h)를 포함하도록 구성될 수 있다.
이하, 세부적인 구성에 대하여 설명한다.
주간 해상 환경 모의 생성부(102a)는 다수의 주간 해상 환경을 모의 생성하도록 구성될 수 있다. 해의 위치에 따라 햇빛의 입사 방향이 달라질 수 있으므로 다양한 햇빛 입사 각도와 햇빛의 양에 따라 다양한 주간 해상 환경이 생성될 수 있다.
야간 해상 환경 모의 생성부(102b)는 다수의 야간 해상 환경을 모의 생성하도록 구성될 수 있다. 야간이더라도 초저녁, 저녁 노을, 햇빛이 전혀 없는 야간, 달빛이 다양한 방향에서 입사되는 야간 등 다양한 야간 해상 환경이 생성될 수 있다. 그리고 야간의 어둠의 정도가 다양하게 조절될 수 있다.
새벽 해상 환경 모의 생성부(102c)는 다수의 새벽 해상 환경을 모의 생성하도록 구성될 수 있다.
파도 해상 환경 모의 생성부(102d)는 다수의 파도 해상 환경을 모의 생성하도록 구성될 수 있다. 파도가 많거나 적은 경우, 파고가 높은 경우 등과 같이 다양한 파도 해상 환경이 생성될 수 있다.
연무 해상 환경 모의 생성부(102e)는 다수의 연무 해상 환경을 모의 생성하도록 구성될 수 있다. 연무의 짙음의 정도에 따라 다양한 연출이 가능하다.
해면 반사 해상 환경 모의 생성부(102f)는 다수의 해면 반사 해상 환경을 모의 생성하도록 구성될 수 있다. 해면 반사량, 해면 반사면의 위치 등에 따른 해상 환경이 생성될 수 있다.
복합 해상 환경 모의 생성부(102g)는 주간 해상 환경, 야간 해상 환경, 새벽 해상 환경, 파도 해상 환경, 연무 해상 환경, 해면 반사 해상 환경을 적어도 둘 이상 조합하여 다수의 복합 해상 환경을 모의 생성하도록 구성될 수 있다. 여러 해상 환경을 조합하여 복합적인 환경이 생성될 수 있는데, 주간, 야간, 새벽은 상호 조합될 수 없다.
AI 인식 오류 실환경 이미지 기반 해상 환경 모의 생성부(102h)는 AI 인식 오류 실환경 이미지 피드백 모듈(117)에서 피드백되는 AI 인식 오류 실환경 이미지를 기반으로 AI 인식 오류 실환경 이미지 기반 해상 환경을 모의 생성하도록 구성될 수 있다.
대상 표적 3D 렌더링 모듈(103)은 대상 표적 이미지 입력 모듈(101)에서 입력받은 대상 표적에 대해 3D 렌더링(3-dimensional rendering)을 수행하여 3D 표적 이미지를 출력하도록 구성될 수 있다.
여기서, 모의 해상 환경 적용 모듈(104)은 해상 환경 자동 모의 생성 모듈(102)에서 생성된 다수의 해상 환경을 대상 표적 3D 렌더링 모듈(103)의 3D 렌더링에 적용하도록 구성될 수 있다.
그리고 복합 모의 해상 환경 적용 모듈(105)은 해상 환경 자동 모의 생성 모듈(102)에서 생성된 다수의 복합 해상 환경을 대상 표적 3D 렌더링 모듈(103)의 3D 렌더링에 적용하도록 구성될 수 있다.
해상 환경 적용 제어 모듈(106)은 모의 해상 환경 적용 모듈(104) 및 복합 모의 해상 환경 적용 모듈(105)이 다수의 해상 환경 및 다수의 복합 해상 환경을 대상 표적 이미지의 3D 렌더링에 적용하도록 순차 제어하도록 구성될 수 있다.
해상 환경 적용 제어 모듈(106)은 하나의 대상 표적 즉, 함정에 대하여 대략 3,000여 장의 3D 표적 이미지를 출력하도록 제어할 수 있다. 하나의 함정에 대하여 3,000여 장의 다양한 환경의 이미지가 확보되어야 AI 기반 학습과 AI 기반 인식이 가능하기 때문이다.
카메라 렌즈 필터 자동 적용 모듈(107)은 대상 표적 3D 렌더링 모듈(103)에서 출력되는 3D 표적 이미지에 대해 적어도 하나 이상의 카메라 렌즈 필터(camera lense filter)를 자동 적용하여 각각의 디지털 트윈(digital twin) 표적 이미지를 출력하도록 구성될 수 있다. 다양한 카메라 렌즈 필터에 따라서도 확보되는 디지털 트윈 표적 이미지의 수가 더 늘어날 수 있다.
자동 라벨링 모듈(108)은 카메라 렌즈 필터 자동 적용 모듈(107)에서 출력되는 디지털 트윈 표적 이미지에 대해 자동으로 라벨링(labeling)을 수행하고 속성 및 형태를 추출하여 출력하도록 구성될 수 있다.
디지털 트윈 표적 이미지 저장 모듈(109)은 자동 라벨링 모듈(108)에서 라벨링이 수행된 디지털 트윈 표적 이미지가 저장되도록 구성될 수 있다. 대상 표적 함정별로 라벨링되어 저장될 수 있다. 한편, 디지털 트윈 표적 이미지 저장 모듈(109)은 인공위성망을 통해 디지털 트윈 표적 이미지 클라우드 서버(200)로 업로드되고, 디지털 트윈 표적 이미지 클라우드 서버(200)로부터 다운로드하여 동기화될 수 있다. 다른 함정들에서 운용 중 누적 생성되는 디지털 트윈 표적 이미지까지 합하여 그 수가 매우 많아질 수 있다.
디지털 트윈 표적 이미지 AI 학습 모듈(110)은 디지털 트윈 표적 이미지 저장 모듈(109)에 저장된 디지털 트윈 표적 이미지에 대해 AI(artificial intelligence) 학습을 수행하도록 구성될 수 있다. 함정별로 수 천 개의 디지털 트윈 표적 이미지를 이용하여 AI 학습을 수행할 수 있다.
EOTS 표적 이미지 입력 모듈(111)은 EOTS(electro-optical tracking system)(10)로부터 EOTS 표적 이미지를 입력받도록 구성될 수 있다.
IRST 표적 이미지 입력 모듈(112)은 IRST(Infrared search and track)(20)로부터 IRST 표적 이미지를 입력받도록 구성될 수 있다.
전시 모듈(113)은 EOTS 표적 이미지 입력 모듈(111)로부터 입력받은 EOTS 표적 이미지 및 IRST 표적 이미지 입력 모듈(112)로부터 입력받은 IRST 표적 이미지를 전시하도록 구성될 수 있다.
AI 기반 표적 인식 모듈(114)은 EOTS 표적 이미지 입력 모듈(111)에서 입력받은 EOTS 표적 이미지 및 IRST 표적 이미지 입력 모듈(112)에서 입력받은 IRST 표적 이미지에 대해 디지털 트윈 표적 이미지 AI 학습 모듈(110)에서 수행된 AI 학습 결과를 기반으로 해당 표적을 자동 인식하고, 인식 결과를 전시 모듈(113)을 통해 전시하도록 구성될 수 있다. 즉, 운용자가 직접 식별하지 않아도 자동으로 인식되어 대상 함정 표적의 식별 결과가 전시될 수 있다. 다양한 환경에서 운용자가 식별하기 어려운 상황이 더 많기 때문에 AI 기반 학습이 제대로 이루어지면 AI 기반 인식의 정확도와 속도가 훨씬 더 높고 빠를 수밖에 없다.
표적 인식 확인 모듈(115)은 운용자 입력에 따라 AI 기반 표적 인식 모듈(114)에서 인식된 표적에 대한 확인을 수행하도록 구성될 수 있다. 이는 다른 센서 체계를 통해서 확인되거나 다른 아군 함정을 통해서 근거리에서 확인되거나, 운용자가 육안으로 직접 확인하는 경우 등과 같이 다양한 방식으로 표적 인식이 확인되는 경우, 그 확인 결과를 운용자로부터 입력받아 대상 표적의 확인 결과를 설정하는 구성이다.
실환경 정보 자동 획득 모듈(116)은 표적 인식 확인 모듈(115)의 확인 결과 해당 표적에 대한 인식에 오류가 있는 경우, 해당 EOTS 표적 이미지 또는 해당 IRST 표적 이미지의 획득 시점의 실환경 정보를 자동 획득하도록 구성될 수 있다.
AI 기반 인식 결과가 운용자에 의해 최종 확인된 결과와 다른 경우 AI 기반 인식 오류가 있는 것으로 판단되며, 그 이미지의 획득 시점의 실환경 정보 예를 들어, 온도, 습도, 해의 위치, 주간, 야간, 파도, 비, 연무 등의 정보를 자동 획득하도록 구성될 수 있다. 이에 더하여 함정의 촬영 각도 등도 파악하여 자동 획득할 수 있다.
AI 인식 오류 실환경 이미지 피드백 모듈(117)은 표적 인식 확인 모듈(115)의 확인 결과 해당 표적에 대한 인식에 오류가 있는 경우, 해당 EOTS 표적 이미지 또는 해당 IRST 표적 이미지를 AI 인식 오류 실환경 이미지로서 AI 인식 오류 실환경 이미지 기반 해상 환경 모의 생성부(102h)로 피드백하도록 구성될 수 있다. 이를 통해 AI 인식 오류가 발생한 실제 해상 환경을 그대로 모의하여 디지털 트윈 표적 이미지를 생성하여 추가 확보하기 위한 것이다. 추후에는 이와 동일한 환경에서는 AI 기반 인식의 오류가 줄어들 것이다.
IRST 실표적 추출 모듈(118)은 IRST 표적 이미지 입력 모듈(112)에서 입력받은 IRST 표적 이미지에 대해 표적 인식 확인 모듈(115)에서 해당 표적에 대해 확인이 된 경우, IRST 표적 이미지 상에서 주변 환경을 제외한 IRST 실표적을 추출하도록 구성될 수 있다. IRST 표적 이미지의 경우 온도에 따라 다르게 이미지가 나타나므로, 해상 환경 자체나 실표적의 형상이 다르게 나타날 수 있는 특징이 있다. 이에, 실제의 IRST 표적 이미지에서 실표적을 추출하여 IRST 표적 형상 그 자체를 대상 표적으로 삼아 디지털 트윈 표적 이미지를 확보하면 IRST 상에서의 인식률이 높아질 수 있다.
IRST용 해상 환경 자동 모의 생성 모듈(119)은 IRST용 해상 환경을 자동으로 모의 생성하도록 구성될 수 있다. 이는 IRST용 해상 환경을 실제의 IRST 표적 이미지에서 나타나는 다양한 해상 환경에 대해서 별도로 모의 생성하여 IRST 표적 이미지의 AI 기반 인식률을 제고하기 위한 것이다.
IRST 실표적 렌더링 모듈(120)은 IRST 실표적 추출 모듈(118)에서 추출된 IRST 실표적에 대해 3D 렌더링을 수행하여 3D 표적 이미지를 카메라 렌즈 필터 자동 적용 모듈(107)로 출력하도록 구성될 수 있다. 즉, IRST 실표적의 형상이 대상 표적 이미지가 되기 때문에 IRST에서의 인식률은 매우 높아질 수 있다.
IRST용 모의 해상 환경 적용 모듈(121)은 IRST용 해상 환경 자동 모의 생성 모듈(119)에서 생성된 다수의 IRST용 해상 환경을 IRST 실표적 렌더링 모듈(120)의 3D 렌더링에 적용하도록 구성될 수 있다.
도 4 내지 도 6은 본 발명의 일 실시예에 따른 디지털 트윈을 이용한 차세대 함정용 인공 지능 표적 학습 및 표적 식별 방법의 블록 구성도이다.
도 4 내지 도 6을 참조하면, 대상 표적 이미지 입력 모듈(101)이 함정의 대상 표적 이미지를 입력받는다(S101).
다음으로, 해상 환경 자동 모의 생성 모듈(102)이 대상 표적 이미지 입력 모듈(101)에서 입력받은 대상 표적 이미지에 대해 적용할 다수의 해상 환경 및 다수의 복합 해상 환경을 자동으로 모의 생성한다(S102).
여기서, 주간 해상 환경 모의 생성부(102a)가 다수의 주간 해상 환경을 모의 생성하고, 야간 해상 환경 모의 생성부(102b)가 다수의 야간 해상 환경을 모의 생성하고, 새벽 해상 환경 모의 생성부(102c)가 다수의 새벽 해상 환경을 모의 생성하고, 파도 해상 환경 모의 생성부(102d)가 다수의 파도 해상 환경을 모의 생성하고, 연무 해상 환경 모의 생성부(102e)가 다수의 연무 해상 환경을 모의 생성하고, 해면 반사 해상 환경 모의 생성부(102f)가 다수의 해면 반사 해상 환경을 모의 생성하고, 복합 해상 환경 모의 생성부(102g)가 주간 해상 환경, 야간 해상 환경, 새벽 해상 환경, 파도 해상 환경, 연무 해상 환경, 해면 반사 해상 환경을 적어도 둘 이상 조합하여 다수의 복합 해상 환경을 모의 생성하고, AI 인식 오류 실환경 이미지 기반 해상 환경 모의 생성부(102h)가 AI 인식 오류 실환경 이미지 피드백 모듈(117)에서 피드백되는 AI 인식 오류 실환경 이미지를 기반으로 AI 인식 오류 실환경 이미지 기반 해상 환경을 모의 생성하도록 구성될 수 있다.
다음으로, 대상 표적 3D 렌더링 모듈(103)이 대상 표적 이미지 입력 모듈(101)에서 입력받은 대상 표적에 대해 3D 렌더링(3-dimensional rendering)을 수행하여 3D 표적 이미지를 출력한다(S103).
해상 환경 적용 제어 모듈(106)의 제어에 따라 모의 해상 환경 적용 모듈(104)이 해상 환경 자동 모의 생성 모듈(102)에서 생성된 다수의 해상 환경을 대상 표적 3D 렌더링 모듈(103)의 3D 렌더링에 적용하고, 복합 모의 해상 환경 적용 모듈(105)이 해상 환경 자동 모의 생성 모듈(102)에서 생성된 다수의 복합 해상 환경을 대상 표적 3D 렌더링 모듈(103)의 3D 렌더링에 적용한다(S104).
여기에서, 모의 해상 환경 적용 모듈(104)이 AI 인식 오류 실환경 이미지 기반 해상 환경 모의 생성부(102h)에서 모의 생성된 AI 인식 오류 실환경 이미지 기반 해상 환경을 대상 표적 3D 렌더링 모듈(103)의 3D 렌더링에 적용하도록 구성될 수 있다.
카메라 렌즈 필터 자동 적용 모듈(107)이 대상 표적 3D 렌더링 모듈(103)에서 출력되는 3D 표적 이미지에 대해 적어도 하나 이상의 카메라 렌즈 필터(camera lense filter)를 자동 적용하여 각각의 디지털 트윈(digital twin) 표적 이미지를 출력한다(S105).
자동 라벨링 모듈(108)이 카메라 렌즈 필터 자동 적용 모듈(107)에서 출력되는 디지털 트윈 표적 이미지에 대해 자동으로 라벨링(labeling)을 수행하고 속성 및 형태를 추출하여 출력한다(S106).
디지털 트윈 표적 이미지 저장 모듈(109)에 자동 라벨링 모듈(108)에서 라벨링이 수행된 디지털 트윈 표적 이미지가 저장된다(S107).
디지털 트윈 표적 이미지 AI 학습 모듈(110)이 디지털 트윈 표적 이미지 저장 모듈(109)에 저장된 디지털 트윈 표적 이미지에 대해 AI(artificial intelligence) 학습을 수행한다(S108).
EOTS 표적 이미지 입력 모듈(111)이 EOTS(electro-optical tracking system)(10)로부터 EOTS 표적 이미지를 입력받거나, IRST 표적 이미지 입력 모듈(112)이 IRST(Infrared search and track)(20)로부터 IRST 표적 이미지를 입력받는다(S109).
전시 모듈(113)이 EOTS 표적 이미지 입력 모듈(111)로부터 입력받은 EOTS 표적 이미지 및 IRST 표적 이미지 입력 모듈(112)로부터 입력받은 IRST 표적 이미지를 전시한다(S110).
AI 기반 표적 인식 모듈(114)이 EOTS 표적 이미지 입력 모듈(111)에서 입력받은 EOTS 표적 이미지 및 IRST 표적 이미지 입력 모듈(112)에서 입력받은 IRST 표적 이미지에 대해 디지털 트윈 표적 이미지 AI 학습 모듈(110)에서 수행된 AI 학습 결과를 기반으로 해당 표적을 인식하고, 인식 결과를 전시 모듈(113)을 통해 전시한다(S111).
표적 인식 확인 모듈(115)이 운용자 입력에 따라 AI 기반 표적 인식 모듈(114)에서 인식된 표적에 대한 확인을 수행한다(S112).
실환경 정보 자동 획득 모듈(116)이 표적 인식 확인 모듈(115)의 확인 결과 해당 표적에 대한 인식에 오류가 있는 경우, 해당 EOTS 표적 이미지 또는 해당 IRST 표적 이미지의 획득 시점의 실환경 정보를 자동 획득한다(S113).
AI 인식 오류 실환경 이미지 피드백 모듈(117)이 표적 인식 확인 모듈(115)의 확인 결과 해당 표적에 대한 인식에 오류가 있는 경우, 해당 EOTS 표적 이미지 또는 해당 IRST 표적 이미지를 AI 인식 오류 실환경 이미지로서 피드백한다(S114).
IRST 실표적 추출 모듈(118)이 IRST 표적 이미지 입력 모듈(112)에서 입력받은 IRST 표적 이미지에 대해 표적 인식 확인 모듈(115)에서 해당 표적에 대해 확인이 된 경우, IRST 표적 이미지 상에서 주변 환경을 제외한 IRST 실표적을 추출한다(S115).
IRST용 해상 환경 자동 모의 생성 모듈(119)이 IRST용 해상 환경을 자동으로 모의 생성한다(S116).
IRST 실표적 렌더링 모듈(120)이 IRST 실표적 추출 모듈(118)에서 추출된 IRST 실표적에 대해 3D 렌더링을 수행하여 3D 표적 이미지를 카메라 렌즈 필터 자동 적용 모듈(107)로 출력한다(S117).
IRST용 모의 해상 환경 적용 모듈(121)이 IRST용 해상 환경 자동 모의 생성 모듈(119)에서 생성된 다수의 IRST용 해상 환경을 IRST 실표적 렌더링 모듈(120)의 3D 렌더링에 적용한다(S118).
이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
101: 대상 표적 이미지 입력 모듈
102: 해상 환경 자동 모의 생성 모듈
102a: 주간 해상 환경 모의 생성부
102b: 야간 해상 환경 모의 생성부
102c: 새벽 해상 환경 모의 생성부
102d: 파도 해상 환경 모의 생성부
102e: 연무 해상 환경 모의 생성부
102f: 해면 반사 해상 환경 모의 생성부
102g: 복합 해상 환경 모의 생성부
102h: AI 인식 오류 실환경 이미지 기반 해상 환경 모의 생성부
103: 대상 표적 3D 렌더링 모듈
104: 모의 해상 환경 적용 모듈
105: 복합 모의 해상 환경 적용 모듈
106: 해상 환경 적용 제어 모듈
107: 카메라 렌즈 필터 자동 적용 모듈
108: 자동 라벨링 모듈
109: 디지털 트윈 표적 이미지 저장 모듈
110: 디지털 트윈 표적 이미지 AI 학습 모듈
111: EOTS 표적 이미지 입력 모듈
112: IRST 표적 이미지 입력 모듈
113: 전시 모듈
114: AI 기반 표적 인식 모듈
115: 표적 인식 확인 모듈
116: 실환경 정보 자동 획득 모듈
117: AI 인식 오류 실환경 이미지 피드백 모듈
118: IRST 실표적 추출 모듈
119: IRST용 해상 환경 자동 모의 생성 모듈
120: IRST 실표적 렌더링 모듈
121: IRST용 모의 해상 환경 적용 모듈

Claims (4)

  1. 삭제
  2. 삭제
  3. 삭제
  4. 대상 표적 이미지 입력 모듈이 함정의 대상 표적 이미지를 입력받는 단계;
    해상 환경 자동 모의 생성 모듈이 상기 대상 표적 이미지 입력 모듈에서 입력받은 대상 표적 이미지에 대해 적용할 다수의 해상 환경 및 다수의 복합 해상 환경을 자동으로 모의 생성하는 단계;
    대상 표적 3D 렌더링 모듈이 상기 대상 표적 이미지 입력 모듈에서 입력받은 대상 표적 이미지에 대해 3D 렌더링(3-dimensional rendering)을 수행하여 3D 표적 이미지를 출력하는 단계;
    해상 환경 적용 제어 모듈의 제어에 따라 모의 해상 환경 적용 모듈이 상기 해상 환경 자동 모의 생성 모듈에서 생성된 다수의 해상 환경을 상기 대상 표적 3D 렌더링 모듈의 3D 렌더링에 적용하고, 복합 모의 해상 환경 적용 모듈이 상기 해상 환경 자동 모의 생성 모듈에서 생성된 다수의 복합 해상 환경을 상기 대상 표적 3D 렌더링 모듈의 3D 렌더링에 적용하는 단계;
    카메라 렌즈 필터 자동 적용 모듈이 상기 대상 표적 3D 렌더링 모듈에서 출력되는 3D 표적 이미지에 대해 적어도 하나 이상의 카메라 렌즈 필터(camera lense filter)를 자동 적용하여 각각의 디지털 트윈(digital twin) 표적 이미지를 출력하는 단계;
    자동 라벨링 모듈이 상기 카메라 렌즈 필터 자동 적용 모듈에서 출력되는 디지털 트윈 표적 이미지에 대해 자동으로 라벨링(labeling)을 수행하고 속성 및 형태를 추출하여 출력하는 단계;
    디지털 트윈 표적 이미지 저장 모듈에 상기 자동 라벨링 모듈에서 라벨링이 수행된 디지털 트윈 표적 이미지가 저장되는 단계;
    디지털 트윈 표적 이미지 AI 학습 모듈이 상기 디지털 트윈 표적 이미지 저장 모듈에 저장된 디지털 트윈 표적 이미지에 대해 AI(artificial intelligence) 학습을 수행하는 단계;
    EOTS 표적 이미지 입력 모듈이 EOTS(electro-optical tracking system)로부터 EOTS 표적 이미지를 입력받거나, IRST 표적 이미지 입력 모듈이 IRST(Infrared search and track)로부터 IRST 표적 이미지를 입력받는 단계;
    전시 모듈이 상기 EOTS 표적 이미지 입력 모듈로부터 입력받은 EOTS 표적 이미지 및 상기 IRST 표적 이미지 입력 모듈로부터 입력받은 IRST 표적 이미지를 전시하는 단계;
    AI 기반 표적 인식 모듈이 상기 EOTS 표적 이미지 입력 모듈에서 입력받은 EOTS 표적 이미지 및 상기 IRST 표적 이미지 입력 모듈에서 입력받은 IRST 표적 이미지에 대해 상기 디지털 트윈 표적 이미지 AI 학습 모듈에서 수행된 AI 학습 결과를 기반으로 해당 표적을 인식하고, 인식 결과를 상기 전시 모듈을 통해 전시하는 단계;
    표적 인식 확인 모듈이 운용자 입력에 따라 상기 AI 기반 표적 인식 모듈에서 인식된 표적에 대한 확인을 수행하는 단계;
    실환경 정보 자동 획득 모듈이 상기 표적 인식 확인 모듈의 확인 결과 해당 표적에 대한 인식에 오류가 있는 경우, 해당 EOTS 표적 이미지 또는 해당 IRST 표적 이미지의 획득 시점의 실환경 정보를 자동 획득하는 단계;
    AI 인식 오류 실환경 이미지 피드백 모듈이 상기 표적 인식 확인 모듈의 확인 결과 해당 표적에 대한 인식에 오류가 있는 경우, 해당 EOTS 표적 이미지 또는 해당 IRST 표적 이미지를 AI 인식 오류 실환경 이미지로서 피드백하는 단계를 포함하고,
    상기 해상 환경 자동 모의 생성 모듈이 상기 대상 표적 이미지 입력 모듈에서 입력받은 대상 표적 이미지에 대해 적용할 다수의 해상 환경 및 다수의 복합 해상 환경을 자동으로 모의 생성하는 단계는,
    주간 해상 환경 모의 생성부가 다수의 주간 해상 환경을 모의 생성하고, 야간 해상 환경 모의 생성부가 다수의 야간 해상 환경을 모의 생성하고, 새벽 해상 환경 모의 생성부가 다수의 새벽 해상 환경을 모의 생성하고, 파도 해상 환경 모의 생성부가 다수의 파도 해상 환경을 모의 생성하고, 연무 해상 환경 모의 생성부가 다수의 연무 해상 환경을 모의 생성하고, 해면 반사 해상 환경 모의 생성부가 다수의 해면 반사 해상 환경을 모의 생성하고, 복합 해상 환경 모의 생성부가 상기 주간 해상 환경, 야간 해상 환경, 새벽 해상 환경, 파도 해상 환경, 연무 해상 환경, 해면 반사 해상 환경을 적어도 둘 이상 조합하여 다수의 복합 해상 환경을 모의 생성하고, AI 인식 오류 실환경 이미지 기반 해상 환경 모의 생성부가 상기 AI 인식 오류 실환경 이미지 피드백 모듈에서 피드백되는 AI 인식 오류 실환경 이미지를 기반으로 AI 인식 오류 실환경 이미지 기반 해상 환경을 모의 생성하도록 구성되고,
    상기 해상 환경 적용 제어 모듈의 제어에 따라 모의 해상 환경 적용 모듈이 상기 해상 환경 자동 모의 생성 모듈에서 생성된 다수의 해상 환경을 상기 대상 표적 3D 렌더링 모듈의 3D 렌더링에 적용하고, 복합 모의 해상 환경 적용 모듈이 상기 해상 환경 자동 모의 생성 모듈에서 생성된 다수의 복합 해상 환경을 상기 대상 표적 3D 렌더링 모듈의 3D 렌더링에 적용하는 단계는,
    상기 모의 해상 환경 적용 모듈이 상기 AI 인식 오류 실환경 이미지 기반 해상 환경 모의 생성부에서 모의 생성된 AI 인식 오류 실환경 이미지 기반 해상 환경을 상기 대상 표적 3D 렌더링 모듈의 3D 렌더링에 적용하도록 구성되는 것을 특징으로 하는 디지털 트윈을 이용한 차세대 함정용 인공 지능 표적 학습 및 표적 식별 방법.
KR1020200050005A 2020-04-24 2020-04-24 디지털 트윈을 이용한 차세대 함정용 인공 지능 표적 학습 및 표적 식별 방법 KR102127657B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200050005A KR102127657B1 (ko) 2020-04-24 2020-04-24 디지털 트윈을 이용한 차세대 함정용 인공 지능 표적 학습 및 표적 식별 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200050005A KR102127657B1 (ko) 2020-04-24 2020-04-24 디지털 트윈을 이용한 차세대 함정용 인공 지능 표적 학습 및 표적 식별 방법

Publications (1)

Publication Number Publication Date
KR102127657B1 true KR102127657B1 (ko) 2020-06-29

Family

ID=71400950

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200050005A KR102127657B1 (ko) 2020-04-24 2020-04-24 디지털 트윈을 이용한 차세대 함정용 인공 지능 표적 학습 및 표적 식별 방법

Country Status (1)

Country Link
KR (1) KR102127657B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113022813A (zh) * 2021-05-31 2021-06-25 天津大学 一种基于数字孪生的船舶分段建造方法
CN113592390A (zh) * 2021-07-12 2021-11-02 嘉兴恒创电力集团有限公司博创物资分公司 一种基于多传感器融合的仓储数字孪生的方法与系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140118389A (ko) * 2013-03-29 2014-10-08 한국해양과학기술원 항로표지 시뮬레이터 시스템
KR102067095B1 (ko) 2018-03-16 2020-01-16 주식회사 그리드위즈 디지털 트윈 장치
KR102081218B1 (ko) 2018-03-16 2020-02-25 주식회사 그리드위즈 디지털 트윈 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140118389A (ko) * 2013-03-29 2014-10-08 한국해양과학기술원 항로표지 시뮬레이터 시스템
KR102067095B1 (ko) 2018-03-16 2020-01-16 주식회사 그리드위즈 디지털 트윈 장치
KR102081218B1 (ko) 2018-03-16 2020-02-25 주식회사 그리드위즈 디지털 트윈 장치

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113022813A (zh) * 2021-05-31 2021-06-25 天津大学 一种基于数字孪生的船舶分段建造方法
CN113022813B (zh) * 2021-05-31 2021-08-06 天津大学 一种基于数字孪生的船舶分段建造方法
CN113592390A (zh) * 2021-07-12 2021-11-02 嘉兴恒创电力集团有限公司博创物资分公司 一种基于多传感器融合的仓储数字孪生的方法与系统

Similar Documents

Publication Publication Date Title
US20180012411A1 (en) Augmented Reality Methods and Devices
CN104115074B (zh) 全息图处理方法和系统
KR102127657B1 (ko) 디지털 트윈을 이용한 차세대 함정용 인공 지능 표적 학습 및 표적 식별 방법
CN110070572A (zh) 使用稀疏深度数据生成距离图像的方法和系统
CN106650723A (zh) 用于确定相机姿态以及用于识别真实环境的对象的方法
FR2639127A1 (fr) Appareil de traitement electronique d'images pour determiner la distance ou la taille d'un objet
EP3591621A1 (en) Methods for generating a dataset of corresponding images for machine vision learning
US11094074B2 (en) Identification of transparent objects from image discrepancies
JP5833507B2 (ja) 画像処理装置
JPH0868967A (ja) 画像処理方法及び画像処理装置
Elibol et al. Fast topology estimation for image mosaicing using adaptive information thresholding
WO2019089049A1 (en) Systems and methods for improved feature extraction using polarization information
KR102127655B1 (ko) 디지털 트윈을 이용한 차세대 함정용 인공 지능 표적 학습 및 표적 식별 시스템
Arifitama et al. Mobile augmented reality for learning traditional culture using marker based tracking
CN111310567A (zh) 一种多人场景下的人脸识别方法及装置
CN113298177B (zh) 夜间图像着色方法、装置、介质和设备
Viggh et al. Training deep learning spacecraft component detection algorithms using synthetic image data
Koizumi et al. Development of attitude sensor using deep learning
Mebtouche et al. Robust UAV detection based on saliency cues and magnified features on thermal images
Miravet et al. An image-based sensor system for autonomous rendez-vous with uncooperative satellites
EP2342892B1 (en) Image recognition
Correia et al. Survey on Augmented Reality technologies for naval training
Larson Stereo Camera Calibrations with Optical Flow
EP4167563A1 (en) Method and device for generating machine learning training data and method for training a machine learning system
KR20240056065A (ko) 현실세계 기반의 메타버스 공간을 생성하는 장치 및 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant