KR102573263B1 - 영상 정보 통합 방법 및 이를 위한 전자 장치 - Google Patents

영상 정보 통합 방법 및 이를 위한 전자 장치 Download PDF

Info

Publication number
KR102573263B1
KR102573263B1 KR1020230018254A KR20230018254A KR102573263B1 KR 102573263 B1 KR102573263 B1 KR 102573263B1 KR 1020230018254 A KR1020230018254 A KR 1020230018254A KR 20230018254 A KR20230018254 A KR 20230018254A KR 102573263 B1 KR102573263 B1 KR 102573263B1
Authority
KR
South Korea
Prior art keywords
image
information
meta information
integration
meta
Prior art date
Application number
KR1020230018254A
Other languages
English (en)
Inventor
김용민
장충수
최선용
성현승
김태현
이승근
고진우
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020230018254A priority Critical patent/KR102573263B1/ko
Application granted granted Critical
Publication of KR102573263B1 publication Critical patent/KR102573263B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/71Indexing; Data structures therefor; Storage structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/02Diagnosis, testing or measuring for television systems or their details for colour television signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Abstract

본 개시에 따르면, 전자 장치의 영상 정보 통합 방법은, 복수의 정찰 장치로부터, 각 정찰 장치에 대응하는 파일 포맷으로 생성된 제1 영상 및 상기 제1 영상의 메타 정보를 획득하는 단계; 상기 제1 영상 및 상기 제1 영상의 메타 정보에 기초하여, 상기 제1 영상 중에서 통합 대상 영상을 결정하는 단계; 상기 통합 대상 영상의 메타 정보에 기초하여, 상기 통합 대상 영상의 좌표 관련 정보를 생성하는 단계; 표준 파일 포맷에 따라, 상기 통합 대상 영상을 제2 영상으로 가공하고, 상기 통합 대상 영상의 메타 정보 및 좌표 관련 정보를 상기 제2 영상의 메타 정보로 가공하는 단계; 및 영상 판독을 위해 상기 제2 영상 및 상기 제2 영상의 메타 정보를 저장하는 단계를 포함할 수 있다.

Description

영상 정보 통합 방법 및 이를 위한 전자 장치{IMAGERY INFORMATION INTEGRATION METHOD AND ELECTRONIC DEVICE THEREFOR}
본 개시는 영상 정보 통합 방법 및 이를 위한 전자 장치에 관한 것이다.
현 감시 정찰 체계는 각 체계의 임무 목적과 운영 특성에 따라 여러 장소에서 운용되고 있으며, 각 체계마다 임수 수행에 적합한 고유 영상 포맷을 사용하고 독립적인 영상 획득·관리 및 판독 체계들을 운용하고 있다(즉, 스토브파이프(stove-piped) 방식).
우리 정부는 최근 비접근 지역에서 확인되는 미사일 발사 등의 위협을 다양한 방법으로 대응하기 위한 노력을 하고 있다. 이러한 방법 중에서 킬-체인(Kill-Chain)은 적이 핵을 탑재한 유도탄을 우리나라를 향해 발사하려는 위협을 사전에 감지하고 이러한 징후가 있을 경우 발사 원점을 선제 타격하는 작전 개념이다. 이와 같은 킬-체인을 성공적으로 수행하기 위해서는 적 위협에 대한 사전 징후를 판단하는 것이 필요하고, 이를 위해서는 무엇보다도 적시에 관련 영상 정보를 신속하게 획득하고 정확하게 판독하는 것이 중요하다. 따라서 감시 정찰 체계에서 다양한 종류의 센서에 의해 촬영되는 영상을 확보하고, 보다 높은 빈도로 영상을 촬영하여 최신의, 다수의, 다종의 영상을 종합적으로 분석함으로써 발사 징후 판단의 정확성을 향상시키는 기술이 요구된다.
또한 최근 기술이 발전하고 다양한 종류의 영상이 대량으로 생산됨에 따라 영상 융합, 빅 데이터, 인공 지능 등의 기술을 적용하여 정보 활용을 극대화하는 것이 가능하게 되었다. 이에 따라, 감시 정찰 체계의 경우에도 정찰 자산들로부터 전송되는 방대한 양의 영상을 판독 및 분석하기 위해 위와 같은 기술을 이용하는 것이 요구되며, 이를 위해 각 영상을 신속하게 통합하여 판독 및 분석을 수행할 수 있도록 하는 감시 정찰 체계의 운용 방식에 대한 필요성이 대두되고 있다.
본 개시의 실시예는 상술한 문제점을 해결하기 위하여 제안된 것으로, 다양한 정찰 자산에 의해 촬영된 영상을 효율적으로 관리하고 신속하게 판독 및 분석할 수 있도록, 통합 대상 영상을 선별하여 품질 저하 없이 영상과 메타 정보를 표준 포맷의 파일로 생성하고 신속 위치 결정이 가능한 정보를 제공하며, 현재 운용 중인 감시 정찰 체계에 영향을 미치지 않으면서 새로운 정찰 자산에도 용이하게 적용 가능한 멀티 소스 영상 정보 통합에 관한 것이다.
본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 이하의 실시예들로부터 또 다른 기술적 과제들이 유추될 수 있다.
일 실시예에 따르면, 전자 장치의 영상 정보 통합 방법은, 복수의 정찰 장치로부터, 각 정찰 장치에 대응하는 파일 포맷으로 생성된 제1 영상 및 상기 제1 영상의 메타 정보를 획득하는 단계; 상기 제1 영상 및 상기 제1 영상의 메타 정보에 기초하여, 상기 제1 영상 중에서 통합 대상 영상을 결정하는 단계; 상기 통합 대상 영상의 메타 정보에 기초하여, 상기 통합 대상 영상의 좌표 관련 정보를 생성하는 단계; 표준 파일 포맷에 따라, 상기 통합 대상 영상을 제2 영상으로 가공하고, 상기 통합 대상 영상의 메타 정보 및 좌표 관련 정보를 상기 제2 영상의 메타 정보로 가공하는 단계; 및 영상 판독을 위해 상기 제2 영상 및 상기 제2 영상의 메타 정보를 저장하는 단계를 포함할 수 있다.
일 실시예에 따르면, 상기 제1 영상 및 상기 제1 영상의 메타 정보는, 상기 복수의 정찰 장치 각각의 우선순위에 기초하여 획득될 수 있다.
일 실시예에 따르면, 상기 제1 영상 중에서 통합 대상 영상을 결정하는 단계는, 상기 제1 영상 및 상기 제1 영상의 메타 정보에 포함된 영상 보조 정보를 분석하여, 상기 좌표 관련 정보의 생성에 오류를 발생시키는 영상을 부적합 영상으로 식별하는 단계; 및 상기 제1 영상 중에서 상기 부적합 영상을 제외한 나머지 영상을 상기 통합 대상 영상으로 결정하는 단계를 포함할 수 있고, 상기 영상 보조 정보는, 상기 제1 영상의 촬영 고도, 촬영 방향, 및 상기 제1 영상을 촬영한 정찰 장치의 기체 속도를 포함할 수 있다.
일 실시예에 따르면, 상기 통합 대상 영상의 좌표 관련 정보를 생성하는 단계는, 상기 통합 대상 영상의 영상 좌표를 지상 좌표에 맵핑하는 함수를 생성하는 단계를 포함할 수 있다.
일 실시예에 따르면, 상기 통합 대상 영상의 메타 정보에 상기 함수의 계수에 관한 정보가 포함된 경우, 상기 함수는 상기 계수를 이용하여 생성될 수 있다.
일 실시예에 따르면, 상기 통합 대상 영상의 메타 정보에 상기 계수에 관한 정보가 포함되지 않은 경우, 상기 함수는 상기 통합 대상 영상의 메타 정보에 포함된 외부 표정 요소에 기초하여 생성될 수 있다.
일 실시예에 따르면, 상기 함수에 기초하여, 상기 제2 영상에 포함된 정찰 목표의 위치가 상기 영상 판독을 위한 제1 장치에 의해 결정될 수 있다.
일 실시예에 따르면, 전자 장치의 영상 정보 통합 방법은, 상기 통합 대상 영상의 파일 포맷이 상기 표준 파일 포맷과 상이한 경우, 상기 통합 대상 영상의 메타 정보를 상기 표준 파일 포맷에서 사용되는 메타 정보 형식으로 변환하는 단계를 더 포함할 수 있다.
일 실시예에 따르면, 영상 정보 통합 방법을 수행하기 위한 전자 장치는, 트랜시버; 적어도 하나의 프로그램이 저장된 메모리; 및 상기 트랜시버 및 상기 메모리와 연결되는 프로세서를 포함할 수 있고, 상기 프로세서는 상기 적어도 하나의 프로그램을 실행함으로써, 복수의 정찰 장치로부터, 각 정찰 장치에 대응하는 파일 포맷으로 생성된 제1 영상 및 상기 제1 영상의 메타 정보를 획득하고, 상기 제1 영상 및 상기 제1 영상의 메타 정보에 기초하여, 상기 제1 영상 중에서 통합 대상 영상을 결정하고, 상기 통합 대상 영상의 메타 정보에 기초하여, 상기 통합 대상 영상의 좌표 관련 정보를 생성하고, 표준 파일 포맷에 따라, 상기 통합 대상 영상을 제2 영상으로 가공하고, 상기 통합 대상 영상의 메타 정보 및 좌표 관련 정보를 상기 제2 영상의 메타 정보로 가공하고, 영상 판독을 위해 상기 제2 영상 및 상기 제2 영상의 메타 정보를 저장하도록 구성될 수 있다.
일 실시예에 따르면, 비일시적 컴퓨터 판독 가능 저장 매체는, 전자 장치의 프로세서에 의해 실행되는 경우, 상기 전자 장치로 하여금 영상 정보 통합 방법을 수행하도록 하는 적어도 하나의 프로그램을 저장할 수 있고, 상기 영상 정보 통합 방법은, 복수의 정찰 장치로부터, 각 정찰 장치에 대응하는 파일 포맷으로 생성된 제1 영상 및 상기 제1 영상의 메타 정보를 획득하는 단계; 상기 제1 영상 및 상기 제1 영상의 메타 정보에 기초하여, 상기 제1 영상 중에서 통합 대상 영상을 결정하는 단계; 상기 통합 대상 영상의 메타 정보에 기초하여, 상기 통합 대상 영상의 좌표 관련 정보를 생성하는 단계; 표준 파일 포맷에 따라, 상기 통합 대상 영상을 제2 영상으로 가공하고, 상기 통합 대상 영상의 메타 정보 및 좌표 관련 정보를 상기 제2 영상의 메타 정보로 가공하는 단계; 및 영상 판독을 위해 상기 제2 영상 및 상기 제2 영상의 메타 정보를 저장하는 단계를 포함할 수 있다.
기타 실시예들의 구체적인 사항은 상세한 설명 및 도면들에 포함된다.
본 개시에 따르면, 영상 정보와 신속 위치 결정에 관한 정보를 표준 포맷으로 통합하는 것에 의해, 서로 다른 고유 포맷을 사용하는 다양한 정찰 자산 체계에 의해 획득되는 영상 자료가 신속하게 분석 및 판독될 수 있다.
본 개시에 따르면, 통합 연동 장치에 의해 각 정찰 자산으로부터의 영상 자료가 표준 포맷으로 통합되어 판독 및 분석 장치에 전송되므로, 새로운 감시 정찰 체계가 도입되더라도 현재 다른 감시 정찰 체계가 수행 중인 임무에 영향을 미치지 않고 즉각적인 영상 정보 통합이 가능하다.
본 개시에 따르면, 다양한 센서로부터 획득된 영상 정보를 신속하게 통합할 수 있으므로, 적 위협에 대한 사전 징후를 적시에 그리고 신뢰성 있게 판단하는 것이 가능하다.
발명의 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당해 기술 분야의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 일 실시예에 따른 영상 정보 통합 시스템을 나타낸다.
도 2는 일 실시예에 따른 체계 연동 장치의 내부 구성을 나타낸다.
도 3은 일 실시예에 따른 통합 연동 장치의 영상 수신 모듈을 나타낸다.
도 4는 일 실시예에 따른 통합 연동 장치의 신속 위치 결정 모듈을 나타낸다.
도 5는 일 실시예에 따른 통합 연동 장치의 포맷 변환 모듈을 나타낸다.
도 6은 일 실시예에 따른 통합 연동 장치의 처리 결과 전송 모듈을 나타낸다.
도 7은 일 실시예에 따른 전자 장치에 의해 수행되는 영상 정보 통합 방법의 흐름도를 나타낸다.
도 8은 일 실시예에 따른 전자 장치의 블록도를 나타낸다.
실시 예들에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "..부", "..모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
명세서 전체에서 기재된 "a, b, 및 c 중 적어도 하나"의 표현은, 'a 단독', 'b 단독', 'c 단독', 'a 및 b', 'a 및 c', 'b 및 c', 또는 'a,b,c 모두'를 포괄할 수 있다.
이하에서 언급되는 "단말", "장치" 및 "전자 장치"는 네트워크를 통해 서버나 타 단말에 접속할 수 있는 컴퓨터나 휴대용 단말로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등을 포함하고, 휴대용 단말은 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, IMT(International Mobile Telecommunication), CDMA(Code Division Multiple Access), W-CDMA(W-Code Division Multiple Access), LTE(Long Term Evolution) 등의 통신 기반 단말, 스마트폰, 태블릿 PC 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.
아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.
기존 감시 정찰 체계의 운용 방법에 따르면, 각 출처(즉, 정찰 자산)마다 고유 포맷으로 영상이 생성되고, 이러한 다양한 포맷의 영상을 통합하여 처리 및 분석하기 위해 별도의 수단(예: 이메일, HDD(Hard Disk Drive) 등)을 이용하여 이들 각 출처의 영상이 통합 분석이 가능한 부대에 전달되며, 해당 부서의 판독관 또는 분석관이 다양한 포맷의 영상을 도시하고 판독할 수 있는 고가의 전문 소프트웨어를 사용할 수 있어야 한다. 이러한 과정으로 인해 영상을 수집하고 분석하는 데 많은 시간이 소요되므로, 미사일 위협에 즉각적으로 대응해야 하는 킬-체인 작전의 성공을 위해 영상 통합 및 분석에 소요되는 시간을 단축하는 것이 요구된다.
또한, 기존 감시 정찰 체계는 단일 출처, 즉 단일 종류의 센서로부터 획득한 영상을 이용하여 영상의 판독 및 분석을 수행하므로, 센서 재방문 일정에 따라 영상 획득 빈도가 제한될 수 있으며, 이용되는 영상의 특성으로 인한 한계가 존재할 수 있다. 예를 들어, EO/IR(Electro-Optical/Infrared) 영상과 같은 광학 영상의 경우에는 기상 및 구름 차폐로 인한 영상 획득의 한계가 존재할 수 있고, SAR(Synthetic Aperture Radar) 등) 영상의 경우에는 신호의 특성에 따라 특정한 표적의 식별 및 판독이 어려울 수 있다는 한계가 존재할 수 있다.
위와 같은 점을 고려하면, 독립적으로 계획된 임무를 수행하는 감시 정찰 체계에서 촬영한 영상을 모두 통합하면 특정 표적에 대한 영상 촬영 빈도를 높이는 효과를 나타낼 수 있고, 전천후 영상 획득이 가능한 SAR 영상은 구름 및 안개가 포함된 광학 영상을 대체할 수 있으며, 광학 영상은 SAR 영상의 표적 식별의 신뢰도를 향상시키기 위해 의사 결정을 위한 유용한 정보로서 활용될 수 있다.
따라서, 본 개시에서는 감시 정찰을 위한 다양한 영상 정보를 통합 판독할 수 있도록, 각 정찰 자산으로부터의 영상 정보를 신속하게 통합하는 멀티 소스 영상 정보 통합 시스템이 제안된다. 구체적으로, 본 개시에 따른 멀티 소스 영상 정보 통합 시스템은 각 정찰 자산으로부터 획득된 개별 영상을 품질 저하 없이 신속하게 통합, 판독 및 분석할 수 있도록, 영상 선별, 표준 포맷으로의 변환 및 신속 위치 결정을 지원할 수 있으며, 현재 운용되는 감시 정찰 체계에 대한 영향을 최소화하면서 새로운 정찰 자산에도 용이하게 확장 가능한 구조를 가질 수 있다.
도 1은 일 실시예에 따른 영상 정보 통합 시스템을 나타낸다. 일 실시예에 따르면, 영상 정보 통합 시스템은 통합 연동 장치(100), 체계 연동 장치(110a, 110b, ... , 110n), 정찰 자산(120a, 120b, ... , 120n) 및 통합 영상 저장 관리 및 판독 장치(130)를 포함할 수 있다.
체계 연동 장치(110a, 110b, ... , 110n)는 각 정찰 자산(120a, 120b, ... , 120n)이 운용되고 있는 정찰 자산 체계 운용 장소에 설치되고, 해당 정찰 자산(120a, 120b, ... , 120n)과 연계되어 동작할 수 있다. 구체적으로, 체계 연동 장치(110a, 110b, ... , 110n)는 정찰 자산에 의해 신규 영상이 촬영 및 저장되었는지 여부를 확인하고(신규 영상 확인 모듈), 신규 영상이 있을 경우 해당 영상을 통합 연동 장치(100)에 전송할 수 있다(영상 전송 모듈). 여기서, 정찰 자산은 항공기, 위성 등과 같이 탑재된 센서를 통해 영상을 촬영함으로써 감시 정찰 임무를 수행하는 기기를 의미할 수 있다.
통합 연동 장치(100)는 각 정찰 자산(120a, 120b, ... , 120n)으로부터 전송되는 영상의 통합 분석을 수행하는 부대가 위치하는 장소에 설치되어 운용될 수 있다. 구체적으로, 통합 연동 장치(100)는 체계 연동 장치(110a, 110b, ... , 110n)로부터 영상을 수신하고(영상 수신 모듈), 수신된 영상의 메타 정보를 확인하여 판독이 가능한 통합 대상 영상을 선별할 수 있다(메타 확인 모듈). 또한, 통합 연동 장치(100)는 통합 대상 영상을 선별하면, 해당 통합 대상 영상의 좌표 관련 정보를 생성하고(신속 위치 결정 모듈), 통합 대상 영상과 영상의 메타 정보 및 생성된 좌표 관련 정보를 표준 포맷으로 가공함으로써 영상 정보를 통합할 수 있다(포맷 변환 모듈). 일 실시예에 따르면, 통합 대상 영상의 좌표 관련 정보를 생성하는 것은 신속 위치 결정을 가능하게 하는 RPC(Rational Polynomial Coefficients) 모델을 생성하는 것을 포함할 수 있다. 또한, 통합 연동 장치(100)는 영상 정보 통합이 정상적으로 수행되었는지 여부에 관한 결과 정보를 생성하고 통합이 정상적으로 수행된 영상을 저장할 수 있다(처리 결과 전송 모듈). 이러한 결과 정보는 통합 영상 저장 관리 및 판독 장치(130)에 전송될 수 있고, 통합이 수행된 영상 및 영상에 관한 정보가 저장됨으로써 통합 영상 저장 관리 및 판독 장치(130)에 의해 영상의 분석 및 판독이 수행될 수 있다.
도 2는 일 실시예에 따른 체계 연동 장치(200)의 내부 구성을 나타낸다. 도 2는 도 1에 도시된 체계 연동 장치(110a, 110b, ... , 110n) 중 적어도 하나의 구성을 예시할 수 있다.
도 2를 참조하면, 체계 연동 장치(200)는 신규 영상 확인 모듈(210) 및 영상 전송 모듈(220)을 포함할 수 있다. 구체적으로, 신규 영상 확인 모듈(210)은 대응하는 정찰 자산 체계 내의 데이터베이스(database, DB) 또는 파일 서버를 주기적으로 확인하고(DB 폴링(212)), 새로운 영상이 확인되면 영상 파일을 읽고(영상 파일 읽기(214)), 영상 파일을 체계 연동 장치(200)의 저장소에 기록할 수 있다(영상 파일 기록(216)). 또한, 영상 전송 모듈(220)은 영상 전송을 위해 기록된 영상 파일의 영상 데이터 및 영상 보조 정보를 확인하고(영상 자료 확인(222)), 해당 영상 파일에 대해 무기 체계 간 연동을 위한 연동 메시지인 KMTF(Korea Message Text Format) 메시지를 생성하며(KMTF 생성(224)), 이기종 시스템 간의 메시지 교환을 지원하는 통합 연동 모듈(Integrated Interoperability Module, IIM)의 자료 송신 기능을 이용하여 해당 메시지를 통합 연동 장치(예: 도 1의 통합 연동 장치(100))에 전송할 수 있다(영상 전송 (IIM)(226)). 이때, 영상 데이터는 촬영된 영상 자체의 데이터를 의미할 수 있고, 영상 보조 정보는 촬영 고도, 촬영 방향, 기체 속도 등과 같은 해당 영상이 촬영된 시점의 환경 정보를 포함할 수 있다.
도 3은 일 실시예에 따른 통합 연동 장치의 영상 수신 모듈(300)을 나타낸다. 도 3은 도 1에 도시된 통합 연동 장치(100)에 관한 구성을 예시할 수 있다.
도 3을 참조하면, 영상 수신 모듈(300)은 각 정찰 자산에 의해 촬영된 영상 파일을 체계 연동 장치(예: 도 1의 체계 연동 장치(110a, 110b, ... , 110n))로부터 수신할 수 있다(영상 수신(IIM)(310)). 이때, 영상 파일은 IIM의 자료 수신 기능을 이용하여 수신될 수 있다. 또한 영상 수신 모듈(300)은 정찰 자산 또는 정찰 자산에 탑재된 센서의 우선순위를 설정함으로써, 특정 시기에 특정한 영상을 우선적으로 수신하도록 설정할 수 있다. 이 경우, 통합 연동 장치(100)는 영상이 도달하면, 해당 영상을 촬영한 정찰 자산의 식별자를 확인할 수 있고, 미리 설정된 우선순위에 기초하여 영상의 수신 순서를 제어할 수 있다. 이와 같은 우선순위는 통합 연동 장치의 운용자에 의해 GUI(Graphic User Interface)를 이용하여 우선순위 입력부(320)와 우선순위 스케줄러(330)를 통해 설정될 수 있다. 예를 들어, 정찰기, 위성 등과 같이 상이한 종류의 정찰 자산에 대하여 우선적으로 영상을 수신할 정찰 자산의 유형이 요일 별로 설정될 수 있다. 다른 예로서, EO/IR 영상과 SAR 영상에 대해 우선순위를 다르게 할당하여 우선적으로 영상을 수신할 센서 유형이 설정될 수도 있다. 또 다른 예로서, 긴급 영상임을 나타내는 식별 정보가 포함된 영상에 높은 우선순위를 할당하여, 긴급 영상이 전송되면 다른 영상이 수신되고 있더라도 수신 동작을 중지하고 긴급 영상을 우선적으로 수신하도록 설정될 수도 있다.
위 설명한 바와 같이 각 정찰 자산으로부터 영상이 수신되면, 도 1의 통합 연동 장치(100)의 메타 확인 모듈에 의해, 수신된 영상 중에서 통합 대상 영상이 선별될 수 있다. 이하에서는 통합 대상 영상의 결정이 보다 자세히 설명된다.
다시 도 1을 참조하면, 통합 연동 장치(100)의 메타 확인 모듈은 수신된 영상 및 영상의 메타 정보에 포함된 영상 보조 정보에 기초하여, 표준 포맷으로 통합할 통합 대상 영상을 선별할 수 있다. 여기서, 메타 정보는 영상 보조 정보, 외부 표정 요소와 같이 영상에 관한 다양한 메타 정보를 포함할 수 있다. 또한, 영상 보조 정보는 촬영 고도, 촬영 방향, 기체 속도 등과 같은 해당 영상이 촬영된 시점의 환경 정보를 포함할 수 있다. 통합 연동 장치(100)는 영상 및 영상 보조 정보를 분석하여 영상 판독 및 분석에 부적합한 영상을 사전에 식별할 수 있다. 구체적으로, 통합 연동 장치(100)는 영상 데이터를 세그먼트화하여 분석함으로써 영상 자체에 포함된 객체를 식별할 수 있고, 영상 보조 정보에 기초하여 정찰 자산의 자세나 좌표 정보를 확인할 수 있다. 이와 같은 영상 및 영상 보조 정보의 분석에 기초하여 영상 판독 및 분석에 부적합한 영상이 식별될 수 있다.
예를 들어, 항공기 점검을 위해 활주로를 대상으로 촬영된 영상, 촬영 목표가 포함되지 않은 센서 점검용 영상, 배면 비행으로 인해 하늘이 과도하게 포함된 영상, 흐릿해지는 현상(Blur)이 과도하게 나타난 고기동 항공 영상 등이 판독에 부적합한 영상으로서 통합 대상에서 제외될 수 있다. 위 예시에 따른 영상은 감시 정찰 목적으로 표적을 대상으로 하는 판독에 적합하지 않으며, 신속 위치 결정을 위해 RPC 모델을 생성하는 과정에서 영상 좌표와 지상 좌표 간의 관계 정보 생성에 오류를 유발할 수 있기 때문이다. 위와 같이 통합 대상 영상을 선별함으로써, 영상 정보 통합 과정에서 발생할 수 있는 오류 또는 불필요한 영상에 대한 판독 작업이 수행될 우려가 사전에 방지될 수 있다.
도 4는 일 실시예에 따른 통합 연동 장치의 신속 위치 결정 모듈(400)을 나타낸다. 도 4는 도 1에 도시된 통합 연동 장치(100)에 관한 구성을 예시할 수 있다.
도 4를 참조하면, 신속 위치 결정 모듈(400)은 통합 대상 영상이 결정되면, 통합 대상 영상의 좌표 관련 정보를 생성할 수 있다. 일 실시예에 따르면, 좌표 관련 정보는 통합 대상 영상의 영상 좌표를 지상 좌표에 맵핑하기 위한 관계 함수인 RPC 모델을 포함할 수 있으며, RPC 모델은 아래의 수학식 1과 같이 표현될 수 있다.
<수학식 1>
먼저, 통합 연동 장치(100)는 통합 대상 영상의 메타 정보에 RPC 모델을 생성하는 데 필요한 계수(a, b, c, d)가 포함되었는지 여부를 확인할 수 있다. 계수에 관한 정보가 메타 정보에 포함되어 영상과 함께 제공되었을 경우, 통합 연동 장치(100)는 제공된 계수에 기초하여 통합 대상 영상에 대한 RPC 모델을 생성할 수 있다. 이러한 RPC 모델은 영상 정보의 통합 및 정찰 목표의 신속한 위치 결정에 반드시 필요한 정보이므로, 계수에 관한 정보가 영상과 함께 제공되지 않았을 경우, 신속 위치 결정 모듈(400)이 RPC 모델을 생성하기 위한 계수를 생성할 수 있다.
구체적으로, 통합 연동 장치(100)는 통합 대상 영상의 메타 정보에 포함된 영상 촬영 시점의 외부 표정 요소(Exterior Orientation Parameters, EOPs)를 확인할 수 있다(영상 메타 정보 확인(410)). 통합 연동 장치(100)는 확인된 외부 표정 요소에 기초하여, 영상의 각 픽셀의 영상 좌표와 이미 알려져 있는 지상의 특정 물체의 절대 좌표 사이의 관계를 설정할 수 있다(영상과 지상 좌표 관계 설정(420)). 설정된 관계에 기초하여, 통합 연동 장치(100)는 영상의 영상 좌표와 지상 좌표 간의 관계식인 RPC 모델을 생성할 수 있다(영상과 지상 좌표 관계식 생성(430)). RPC 모델을 생성하면, 통합 연동 장치(100)는 생성된 RPC 모델의 정확도 검증을 통해 계수(a, b, c, d)의 값을 조정함으로써 관계식을 조정할 수 있고, 관계식이 미리 결정된 정확도 수준을 만족하게 되면 해당 관계식을 최종적인 RPC 모델로서 결정할 수 있다(RPC 정확도 검증(440)).
도 5는 일 실시예에 따른 통합 연동 장치의 포맷 변환 모듈(500)을 나타낸다. 도 5는 도 1에 도시된 통합 연동 장치(100)에 관한 구성을 예시할 수 있다.
도 5를 참조하면, 포맷 변환 모듈(500)은 통합 대상 영상 및 좌표 관련 정보를 포함하는 통합 대상 영상의 메타 정보를 표준 포맷의 파일로 생성할 수 있다. 일 실시예에 따르면, 표준 포맷은 NITF(National Imagery Transmission Format) 2.1 형식일 수 있다.
표준 포맷이 아닌 다른 포맷을 사용하는 정찰 자산 체계로부터 수신된 영상과 메타 정보는, 영상 정보 통합을 위해 표준 포맷으로의 변환이 요구될 수 있다. 이에 따라, 통합 연동 장치(100)는 통합 대상 영상의 메타 정보를 확인하고, 확인된 메타 정보에 기초하여 표준 포맷을 준용하는 포맷의 메타 정보를 생성할 수 있다(메타 정보 확인 및 TRE 생성(510)). 이때, 생성되는 메타 정보는 새로운 정보를 포함하는 것이 아니라, 제공 받은 통합 대상 영상의 메타 정보가 표준 포맷의 파일에 포함될 수 있도록 가공된 것일 수 있다. 일 실시예에 따르면, 표준 포맷이 NITF 2.1 형식일 경우, 통합 대상 영상의 메타 정보는 표준 포맷을 준용하는 포맷인 TRE(Tagged Registered Extension) 정보로서 가공될 수 있다. 또한, 통합 대상 영상은 영상 품질을 유지하면서 저장 공간을 최소화할 수 있도록 무손실 압축(예: J2K 형식)될 수 있다(영상 무손실 압축(J2K)(520)). 이후, 통합 연동 장치(100)는 통합 대상 영상을 무손실 압축한 영상, 표준 포맷을 준용하는 포맷으로 가공된 메타 정보, 및 생성된 RPC 모델 정보를 표준 포맷에 따라 구성함으로써 표준 포맷에 따른 파일을 생성할 수 있다(NITF 2.1 구조화(530)).
한편, 특정 정찰 자산 체계에서 사용되는 포맷이 표준 포맷인 경우, 해당 정찰 자산으로부터 수신된 영상과 메타 정보를 포함하는 파일은 표준 포맷으로 생성된 상태이므로, 포맷을 변환하지 않고 수신된 메타 정보가 직접 활용될 수 있다. 이 경우, 통합 연동 장치(100)는 통합 대상 영상을 무손실 압축한 영상, 제공 받은 통합 대상 영상의 메타 정보, 및 생성된 RPC 모델 정보를 표준 포맷에 따라 구조화함으로써 표준 포맷에 따른 파일을 생성할 수 있다.
이와 같이 영상 정보와 신속 위치 결정에 관한 정보를 표준 포맷으로 통합하는 것에 의해, 서로 다른 고유 포맷을 사용하는 다양한 정찰 자산 체계에 의해 획득되는 영상 자료가 신속하게 분석 및 판독될 수 있다. 또한 통합 연동 장치에 의해 각 정찰 자산으로부터의 영상 자료가 표준 포맷으로 통합되어 판독 및 분석 장치에 전송되므로, 새로운 감시 정찰 체계가 도입되더라도 현재 다른 감시 정찰 체계가 수행 중인 임무에 영향을 미치지 않고 즉각적인 영상 정보 통합이 가능할 수 있다.
도 6은 일 실시예에 따른 통합 연동 장치의 처리 결과 전송 모듈(600)을 나타낸다. 도 6은 도 1에 도시된 통합 연동 장치(100)에 관한 구성을 예시할 수 있다.
도 6을 참조하면, 처리 결과 전송 모듈(600)은 영상 정보 통합의 정상 수행 또는 비정상 수행을 확인하여 확인된 결과 정보를 시스템 관리자에 의해 운용되는 장치(예: 도 1의 통합 영상 저장 관리 및 판독 장치(130))에 전송할 수 있다. 구체적으로, 앞서 설명한 바와 같이 표준 포맷으로의 변환까지 포함하는 영상 정보 통합이 정상적으로 수행된 경우, 통합 연동 장치(100)는 "정상 수행"을 나타내는 결과 정보를 시스템 관리자에게 통지하고 영상 정보 통합이 완료된 영상을 저장할 수 있다. 저장된 영상은 영상 판독 및 분석을 수행하는 장치에 의해(예: 도 1의 통합 영상 저장 관리 및 판독 장치(130)) 판독 및 분석될 수 있다.
한편, 영상 수신 모듈(예: 도 3의 영상 수신 모듈(300))에 의해 영상이 정상적으로 수신되지 않았을 경우, 메타 정보 모듈(예: 도 1의 통합 연동 장치(100)의 메타 확인 모듈)에 의해 영상의 메타 정보에 오류가 있다고 확인되거나, 통합 대상 영상을 선별하는 과정에서 판독 및 분석에 부적합한 영상으로 식별된 경우, 신속 위치 결정 모듈(예: 도 4의 신속 위치 결정 모듈(400))에 의해 RPC 모델을 생성하는 과정에서 오류가 발생하는 경우, 포맷 변환 모듈(예: 도 5의 포맷 변환 모듈(500))에 의해 표준 포맷으로 변환 시 오류가 발생하는 경우는 영상 정보 통합이 정상적으로 수행되지 않는 경우에 해당할 수 있다. 이 경우, 통합 연동 장치(100)는 "비정상 수행"를 나타내는 결과 정보를 시스템 관리자에게 통지할 수 있다.
도 7은 일 실시예에 따른 전자 장치에 의해 수행되는 영상 정보 통합 방법의 흐름도를 나타낸다. 도 7은 도 8에 도시된 전자 장치(100)의 동작 방법을 예시할 수 있다.
도 7을 참조하면, 단계 S701에서, 전자 장치는 복수의 정찰 장치로부터, 각 정찰 장치에 대응하는 파일 포맷으로 생성된 제1 영상 및 제1 영상의 메타 정보를 획득할 수 있다. 보다 구체적으로, 전자 장치는 복수의 정찰 장치에 의해 촬영된 제1 영상과 제1 영상의 메타 정보를 체계 연동 장치(예: 도 1의 체계 연동 장치(110a, 110b, ... ,110n))으로부터 수신할 수 있다. 메타 정보는 영상 보조 정보, 외부 표정 요소와 같이 영상에 관한 다양한 메타 정보를 포함할 수 있다. 또한, 제1 영상 및 상기 제1 영상의 메타 정보는, 복수의 정찰 장치 각각의 우선순위에 기초하여 획득될 수 있으며, 우선순위를 설정하여 영상을 수신하는 것은 도 3을 참조하여 상세히 설명된다. 한편, 정찰 장치는 본 개시 전반에서 정찰 자산이라고 지칭되는 감시 정찰 임무를 수행하는 기기를 의미할 수 있다. 또한, 제1 영상은 표준 포맷으로의 영상 정보 통합이 수행되기 전의 영상으로서, 통합 이후의 영상 정보와 구별하기 위한 목적으로 사용될 수 있다.
단계 S702에서, 전자 장치는 제1 영상 및 제1 영상의 메타 정보에 기초하여, 제1 영상 중에서 통합 대상 영상을 결정할 수 있다. 일 실시예에 따르면, 전자 장치는 제1 영상 및 제1 영상의 메타 정보에 포함된 영상 보조 정보를 분석하여, 좌표 관련 정보의 생성에 오류를 발생시키는 영상을 부적합 영상으로 식별하고, 제1 영상 중에서 부적합 영상을 제외한 나머지 영상을 통합 대상 영상으로 결정함으로써, 제1 영상 중에서 통합 대상 영상을 결정할 수 있다. 여기서, 영상 보조 정보는, 제1 영상의 촬영 고도, 촬영 방향, 및 제1 영상을 촬영한 정찰 장치의 기체 속도를 포함할 수 있다. 보다 구체적으로, 전자 장치는 영상 데이터를 세그먼트화하여 분석함으로써 제1 영상 자체에 포함된 객체를 식별할 수 있고, 영상 보조 정보에 기초하여 정찰 장치의 자세나 좌표 정보를 확인할 수 있다. 이와 같은 제1 영상 및 영상 보조 정보의 분석에 기초하여 영상 판독 및 분석에 부적합한 영상이 식별될 수 있다.
단계 S703에서, 전자 장치는 통합 대상 영상의 메타 정보에 기초하여, 통합 대상 영상의 좌표 관련 정보를 생성할 수 있다. 일 실시예에 따르면, 통합 대상 영상의 좌표 관련 정보를 생성하는 것은, 통합 대상 영상의 영상 좌표를 지상 좌표에 맵핑하는 함수를 생성하는 것을 포함할 수 있다. 여기서 통합 대상 영상의 영상 좌표를 지상 좌표에 맵핑하는 함수는 수학식 1에 나타난 바와 같은 RPC 모델을 포함할 수 있다.
보다 구체적으로, 전자 장치는 통합 대상 영상의 메타 정보에 함수의 계수에 관한 정보가 포함되었는지 여부를 확인할 수 있다. 즉, 전자 장치는 RPC 모델을 생성하는 데 필요한 계수(예: 수학식 1의 a, b, c, d)가 통합 대상 영상의 메타 정보에 포함되어 있는지 여부를 확인할 수 있다. 통합 대상 영상의 메타 정보에 함수의 계수에 관한 정보가 포함된 경우, 함수는 메타 정보에 포함된 계수를 이용하여 생성될 수 있다. 한편, 통합 대상 영상의 메타 정보에 계수에 관한 정보가 포함되지 않은 경우, 함수는 통합 대상 영상의 메타 정보에 포함된 외부 표정 요소에 기초하여 생성될 수 있다. 구체적으로, 전자 장치는 외부 표정 요소에 기초하여, 통합 대상 영상의 각 픽셀의 영상 좌표와 이미 알려져 있는 지상의 특정 물체의 절대 좌표 사이의 관계를 설정하고, 설정된 관계에 기초하여 영상 좌표와 지상 좌표 간의 관계식인 RPC 모델을 생성할 수 있으며, RPC 모델의 정확도 검증을 통해 계수 값을 조정해 나갈 수 있다. RPC 모델의 생성은 도 4에서 보다 상세히 설명된다. 이와 같이 생성된 함수는 이후 영상을 판독하여 정찰 목표의 위치를 신속하게 결정하기 위해 이용될 수 있다.
단계 S704에서, 전자 장치는 표준 파일 포맷에 따라, 통합 대상 영상을 제2 영상으로 가공하고, 통합 대상 영상의 메타 정보 및 좌표 관련 정보를 제2 영상의 메타 정보로 가공할 수 있다. 보다 구체적으로, 통합 대상 영상은 복수의 정찰 장치가 각각 사용하는 고유 포맷으로 생성된 제1 영상 중에서 결정된 것이므로, 표준 포맷이 아닌 다른 파일 포맷으로 생성된 것일 수 있다. 따라서, 표준 포맷이 아닌 다른 포맷을 사용하는 정찰 자산 체계로부터 수신된 영상과 메타 정보는, 영상 정보 통합을 위해 표준 포맷으로의 변환이 요구될 수 있다. 이에 따라, 전자 장치는 통합 대상 영상을 무손실 압축 처리된 제2 영상으로 가공함으로써, 통합 대상 영상이 표준 포맷에 따른 파일에 포함될 수 있도록 처리할 수 있다. 또한, 전자 장치는 통합 대상 영상의 메타 정보를 확인하고, 확인된 메타 정보에 기초하여 표준 포맷을 준용하는 포맷의 메타 정보를 생성할 수 있다. 전자 장치는 표준 포맷을 준용하는 포맷으로 가공된 메타 정보 및 통합 대상 영상에 대해 생성된 좌표 관련 정보를 표준 포맷에 따라 구성함으로써 이들 정보를 제2 영상의 메타 정보로 가공할 수 있다. 즉 제2 영상의 메타 정보는 기존의 메타 정보와 좌표 관련 정보를 모두 포함하도록 생성된 것일 수 있다. 결과적으로, 전자 장치는 제2 영상 및 제2 영상의 메타 정보를 포함하는 표준 포맷에 따른 파일을 생성할 수 있다.
한편, 특정 정찰 자산 체계에서 사용되는 포맷이 표준 포맷인 경우, 전자 장치는 표준 포맷을 준용하는 포맷으로의 가공 없이 통합 대상 영상의 메타 정보를 직접 활용할 수 있다. 이 경우, 전자 장치는 통합 대상 영상을 무손실 압축 처리된 제2 영상으로 가공하고, 통합 대상 영상의 메타 정보 및 통합 대상 영상에 대해 생성된 좌표 관련 정보를 표준 포맷에 따라 구조화함으로써 이들 정보를 제2 영상의 메타 정보로 가공할 수 있다. 이 경우에도 제2 영상의 메타 정보는 기존의 메타 정보와 좌표 관련 정보를 모두 포함하도록 생성된 것일 수 있다. 결과적으로, 전자 장치는 제2 영상 및 제2 영상의 메타 정보를 포함하는 표준 포맷에 따른 파일을 생성할 수 있다.
단계 S705에서, 전자 장치는 영상 판독을 위해 제2 영상 및 제2 영상의 메타 정보를 저장할 수 있다. 구체적으로, 단계 S704까지의 모든 처리가 정상적으로 수행된 경우, 전자 장치는 “정상 수행"을 나타내는 결과 정보를 시스템 관리자에 의해 운용되는 장치에 전송할 수 있고, 통합 처리가 완료된 제2 영상 및 제2 영상의 메타 정보를 저장할 수 있다. 한편, 영상 정보 통합이 정상적으로 수행되지 않는 경우, 전자 장치는 “비정상 수행"를 나타내는 결과 정보를 시스템 관리자에게 통지할 수 있다. 통합 처리가 정상적으로 수행됨에 따라 저장된 제2 영상 및 제2 영상의 메타 정보는 영상 판독 및 분석을 위한 장치(예: (예: 도 1의 통합 영상 저장 관리 및 판독 장치(130))에 의해 판독 및 분석될 수 있다. 예를 들어, 영상 판독 및 분석을 위한 장치는 제2 영상의 좌표 관련 정보에 기초하여 제2 영상에 포함된 정찰 목표의 위치를 신속하게 결정할 수 있다.
이와 같이 영상 정보와 신속 위치 결정에 관한 정보를 표준 포맷으로 통합하는 것에 의해, 서로 다른 고유 포맷을 사용하는 다양한 정찰 자산 체계에 의해 획득되는 영상 자료가 신속하게 분석 및 판독될 수 있다. 따라서 적 위협에 대한 사전 징후를 신속하면서 정확하게 파악하는 것이 가능하다. 또한 통합 연동 장치에 의해 각 정찰 자산으로부터의 영상 자료가 표준 포맷으로 통합되어 판독 및 분석 장치에 전송되므로, 새로운 감시 정찰 체계가 도입되더라도 현재 다른 감시 정찰 체계가 수행 중인 임무에 영향을 미치지 않고 즉각적인 영상 정보 통합이 가능할 수 있다.
도 8은 일 실시예에 따른 전자 장치(800)의 블록도를 나타낸다. 도 8의 전자 장치(800)는 도 1에 도시된 통합 연동 장치(100)에 포함되거나, 통합 연동 장치(100)을 포함할 수 있다.
도 8을 참조하면, 전자 장치(800)는 트랜시버(transceiver)(810), 프로세서(820) 및 메모리(830)를 포함할 수 있다. 도 8에는 본 개시의 실시예와 관련된 전자 장치(800)의 구성요소들만이 도시되어 있다. 따라서, 도 8에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 전자 장치에 더 포함될 수 있음을 본 실시 예와 관련된 기술분야에서 통상의 지식을 가진 자라면 이해할 수 있다.
트랜시버(810)는 유/무선 통신을 수행하여 관련 정보를 송수신할 수 있다. 트랜시버(810)가 이용하는 통신 기술에는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등이 있을 수 있다.
프로세서(820)는 전자 장치(800)의 전반적인 동작을 제어하고 데이터 및 신호를 처리할 수 있다. 프로세서(820)는 적어도 하나의 하드웨어 유닛으로 구성될 수 있다. 또한, 프로세서(820)는 메모리(830)에 저장된 프로그램 코드를 실행하여 생성되는 하나 이상의 소프트웨어 모듈에 의해 동작할 수 있다. 프로세서(820)는 메모리(830)에 저장된 프로그램 코드를 실행하여 전자 장치(800)의 전반적인 동작을 제어하고 데이터 및 신호를 처리할 수 있다. 프로세서(820)는 본 개시 전반에서 설명되는 영상 정보 통합에 관한 방법에 관한 내용을 수행하도록 구성될 수 있다.
메모리(830)는 본 개시 전반에서 설명되는 영상 정보 통합에 관한 방법을 수행하기 위한 프로그램을 실행하는 데 필요한 프로그램 코드 및 정보를 저장할 수 있다. 메모리(830)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.
전술한 실시예들에 따른 전자 장치 또는 단말은, 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-Access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다.
본 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.
전술한 실시예들은 일 예시일 뿐 후술하는 청구항들의 범위 내에서 다른 실시예들이 구현될 수 있다.

Claims (10)

  1. 전자 장치의 영상 정보 통합 방법에 있어서,
    복수의 정찰 장치로부터, 각 정찰 장치에 대응하는 파일 포맷으로 생성된 제1 영상 및 상기 제1 영상의 메타 정보를 획득하는 단계;
    상기 제1 영상 및 상기 제1 영상의 메타 정보에 기초하여, 상기 제1 영상 중에서 통합 대상 영상을 결정하는 단계;
    상기 통합 대상 영상의 메타 정보에 기초하여, 상기 통합 대상 영상의 좌표 관련 정보를 생성하는 단계;
    표준 파일 포맷에 따라, 상기 통합 대상 영상을 제2 영상으로 가공하고, 상기 통합 대상 영상의 메타 정보 및 좌표 관련 정보를 상기 제2 영상의 메타 정보로 가공하는 단계; 및
    영상 판독을 위해 상기 제2 영상 및 상기 제2 영상의 메타 정보를 저장하는 단계를 포함하고,
    상기 통합 대상 영상의 좌표 관련 정보를 생성하는 단계는,
    상기 통합 대상 영상의 메타 정보에 기초하여, 상기 통합 대상 영상의 2차원 영상 좌표를 3차원 지상 좌표에 맵핑하는 함수를 생성하는 단계를 포함하는, 영상 정보 통합 방법.
  2. 제1항에 있어서,
    상기 제1 영상 및 상기 제1 영상의 메타 정보는, 상기 복수의 정찰 장치 각각의 우선순위에 기초하여 획득되는, 영상 정보 통합 방법.
  3. 제1항에 있어서,
    상기 제1 영상 중에서 통합 대상 영상을 결정하는 단계는,
    상기 제1 영상 및 상기 제1 영상의 메타 정보에 포함된 영상 보조 정보를 분석하여, 상기 좌표 관련 정보의 생성에 오류를 발생시키는 영상을 부적합 영상으로 식별하는 단계; 및
    상기 제1 영상 중에서 상기 부적합 영상을 제외한 나머지 영상을 상기 통합 대상 영상으로 결정하는 단계를 포함하고,
    상기 영상 보조 정보는, 상기 제1 영상의 촬영 고도, 촬영 방향, 및 상기 제1 영상을 촬영한 정찰 장치의 기체 속도를 포함하는, 영상 정보 통합 방법.
  4. 삭제
  5. 제1항에 있어서,
    상기 통합 대상 영상의 메타 정보에 상기 함수의 계수에 관한 정보가 포함된 경우, 상기 함수는 상기 계수를 이용하여 생성되는, 영상 정보 통합 방법.
  6. 제5항에 있어서,
    상기 통합 대상 영상의 메타 정보에 상기 계수에 관한 정보가 포함되지 않은 경우, 상기 함수는 상기 통합 대상 영상의 메타 정보에 포함된 외부 표정 요소에 기초하여 생성되는, 영상 정보 통합 방법.
  7. 제1항에 있어서,
    상기 함수에 기초하여, 상기 제2 영상에 포함된 정찰 목표의 위치가 상기 영상 판독을 위한 제1 장치에 의해 결정되는, 영상 정보 통합 방법.
  8. 제1항에 있어서,
    상기 통합 대상 영상의 파일 포맷이 상기 표준 파일 포맷과 상이한 경우, 상기 통합 대상 영상의 메타 정보를 상기 표준 파일 포맷에서 사용되는 메타 정보 형식으로 변환하는 단계를 더 포함하는, 영상 정보 통합 방법.
  9. 영상 정보 통합 방법을 수행하기 위한 전자 장치에 있어서,
    트랜시버;
    적어도 하나의 프로그램이 저장된 메모리; 및
    상기 트랜시버 및 상기 메모리와 연결되는 프로세서를 포함하고, 상기 프로세서는 상기 적어도 하나의 프로그램을 실행함으로써,
    복수의 정찰 장치로부터, 각 정찰 장치에 대응하는 파일 포맷으로 생성된 제1 영상 및 상기 제1 영상의 메타 정보를 획득하고,
    상기 제1 영상 및 상기 제1 영상의 메타 정보에 기초하여, 상기 제1 영상 중에서 통합 대상 영상을 결정하고,
    상기 통합 대상 영상의 메타 정보에 기초하여, 상기 통합 대상 영상의 좌표 관련 정보를 생성하고,
    표준 파일 포맷에 따라, 상기 통합 대상 영상을 제2 영상으로 가공하고, 상기 통합 대상 영상의 메타 정보 및 좌표 관련 정보를 상기 제2 영상의 메타 정보로 가공하고,
    영상 판독을 위해 상기 제2 영상 및 상기 제2 영상의 메타 정보를 저장하도록 구성되고,
    상기 프로세서는 상기 통합 대상 영상의 좌표 관련 정보를 생성하기 위해,
    상기 통합 대상 영상의 메타 정보에 기초하여, 상기 통합 대상 영상의 2차원 영상 좌표를 3차원 지상 좌표에 맵핑하는 함수를 생성하도록 더 구성되는, 전자 장치.
  10. 비일시적 컴퓨터 판독 가능 저장 매체로서,
    상기 비일시적 컴퓨터 판독 가능 저장 매체는, 전자 장치의 프로세서에 의해 실행되는 경우, 상기 전자 장치로 하여금 영상 정보 통합 방법을 수행하도록 하는 적어도 하나의 프로그램을 저장하고, 상기 영상 정보 통합 방법은,
    복수의 정찰 장치로부터, 각 정찰 장치에 대응하는 파일 포맷으로 생성된 제1 영상 및 상기 제1 영상의 메타 정보를 획득하는 단계;
    상기 제1 영상 및 상기 제1 영상의 메타 정보에 기초하여, 상기 제1 영상 중에서 통합 대상 영상을 결정하는 단계;
    상기 통합 대상 영상의 메타 정보에 기초하여, 상기 통합 대상 영상의 좌표 관련 정보를 생성하는 단계;
    표준 파일 포맷에 따라, 상기 통합 대상 영상을 제2 영상으로 가공하고, 상기 통합 대상 영상의 메타 정보 및 좌표 관련 정보를 상기 제2 영상의 메타 정보로 가공하는 단계; 및
    영상 판독을 위해 상기 제2 영상 및 상기 제2 영상의 메타 정보를 저장하는 단계를 포함하고,
    상기 통합 대상 영상의 좌표 관련 정보를 생성하는 단계는,
    상기 통합 대상 영상의 메타 정보에 기초하여, 상기 통합 대상 영상의 2차원 영상 좌표를 3차원 지상 좌표에 맵핑하는 함수를 생성하는 단계를 포함하는, 비일시적 컴퓨터 판독 가능 저장 매체.
KR1020230018254A 2023-02-10 2023-02-10 영상 정보 통합 방법 및 이를 위한 전자 장치 KR102573263B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230018254A KR102573263B1 (ko) 2023-02-10 2023-02-10 영상 정보 통합 방법 및 이를 위한 전자 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230018254A KR102573263B1 (ko) 2023-02-10 2023-02-10 영상 정보 통합 방법 및 이를 위한 전자 장치

Publications (1)

Publication Number Publication Date
KR102573263B1 true KR102573263B1 (ko) 2023-08-31

Family

ID=87847351

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230018254A KR102573263B1 (ko) 2023-02-10 2023-02-10 영상 정보 통합 방법 및 이를 위한 전자 장치

Country Status (1)

Country Link
KR (1) KR102573263B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080093847A (ko) * 2007-04-18 2008-10-22 한국정보통신대학교 산학협력단 멀티비디오 및 메타데이터로 구성된 통합 파일 포맷 구조및 이를 기반으로 하는 멀티비디오 관리 시스템 및 그 방법
KR20090115618A (ko) * 2008-05-02 2009-11-05 원광대학교산학협력단 관심정보 관리 및 통합 방법과 이를 수행하는 시스템
KR20190051175A (ko) * 2017-11-06 2019-05-15 전자부품연구원 지능형 협업 서버, 시스템 및 이의 협업 기반 분석 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080093847A (ko) * 2007-04-18 2008-10-22 한국정보통신대학교 산학협력단 멀티비디오 및 메타데이터로 구성된 통합 파일 포맷 구조및 이를 기반으로 하는 멀티비디오 관리 시스템 및 그 방법
KR20090115618A (ko) * 2008-05-02 2009-11-05 원광대학교산학협력단 관심정보 관리 및 통합 방법과 이를 수행하는 시스템
KR20190051175A (ko) * 2017-11-06 2019-05-15 전자부품연구원 지능형 협업 서버, 시스템 및 이의 협업 기반 분석 방법

Similar Documents

Publication Publication Date Title
US11506795B2 (en) Accounting for atmospheric and terrestrial obstacles in geographic positioning
EP2780862B1 (en) Mobile and one-touch tasking and visualization of sensor data
US20150269258A1 (en) Automated Self-Censoring of Remotely-Sensed Data Based on Automated ROI Awareness and People Detection Using a Prioritized Contact Transport Stream
US20140362107A1 (en) Generating a composite field of view using a plurality of oblique panoramic images of a geographic area
US20110137547A1 (en) System and method for generating spatial information
US8953890B2 (en) Usage of visual reader as an input provider in portals
US11113567B1 (en) Producing training data for machine learning
US20190362456A1 (en) Handheld photo enforcement systems and methods
KR102573263B1 (ko) 영상 정보 통합 방법 및 이를 위한 전자 장치
KR102267764B1 (ko) 군집 드론 기반 광대역 정찰 감시 시스템 및 이를 이용한 광대역 정찰 감시 방법
US9047537B2 (en) Prioritized contact transport stream
CN116805397A (zh) 用于使用机器学习算法检测和识别图像中的小对象的系统和方法
US20220414362A1 (en) Method and system for optimizing image data for generating orthorectified image
US8811756B2 (en) Image compression
CN110771183B (zh) 一种信息处理方法、飞行器、系统及存储介质
Percivall et al. Common approach to geoprocessing of UAV data across application domains
KR102212452B1 (ko) 항공영상 처리방법 및 처리시스템
US20230306715A1 (en) System and method for detecting and recognizing small objects in images using a machine learning algorithm
US20230385702A1 (en) Data fabric for intelligent weather data selection
KR102568698B1 (ko) 무인비행장치 기반 이미지 파일/전송 유효성 검증 시스템 및 방법
CN117788302B (zh) 一种测绘图形处理系统
US11195012B1 (en) System and method for assessing damage from aerial imagery
US20210209955A1 (en) Information processing method, aircraft, system, and storage medium
US20240103532A1 (en) Aeronautical obstacle knowledge network
US11960954B1 (en) Dynamic communication methods for smart tag systems

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant