KR20060017759A - 주문형 비디오를 위한 방법 및 장치 - Google Patents

주문형 비디오를 위한 방법 및 장치 Download PDF

Info

Publication number
KR20060017759A
KR20060017759A KR1020057020198A KR20057020198A KR20060017759A KR 20060017759 A KR20060017759 A KR 20060017759A KR 1020057020198 A KR1020057020198 A KR 1020057020198A KR 20057020198 A KR20057020198 A KR 20057020198A KR 20060017759 A KR20060017759 A KR 20060017759A
Authority
KR
South Korea
Prior art keywords
data
geo
aircraft
video frame
location data
Prior art date
Application number
KR1020057020198A
Other languages
English (en)
Inventor
리차드 에이. 러쎌
마이클 에스. 오미라
Original Assignee
록히드 마틴 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 록히드 마틴 코포레이션 filed Critical 록히드 마틴 코포레이션
Publication of KR20060017759A publication Critical patent/KR20060017759A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/14Relay systems
    • H04B7/15Active relay systems
    • H04B7/185Space-based or airborne stations; Stations for satellite systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/14Relay systems
    • H04B7/15Active relay systems
    • H04B7/185Space-based or airborne stations; Stations for satellite systems
    • H04B7/18502Airborne stations
    • H04B7/18506Communications with or from aircraft, i.e. aeronautical mobile service
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3253Position information, e.g. geographical position at time of capture, GPS data

Abstract

비디오 프레임들을 처리하고 출력하기 위한 예시적인 일 방법은 비디오 프레임들의 스트림을 수신하는 단계, 변경된 비디오 프레임을 생성하도록 비디오 프레임 내로 지리-위치 데이터(geo-location data)를 삽입하는 단계, 및 변경된 비디오 프레임을 출력하는 단계를 포함한다. 예시적인 일 시스템은 비디오 프레임들의 스트림을 수신하는 안테나, 변경된 비디오 프레임을 생성하도록 비디오 프레임 내로 지리-위치 데이터를 삽입하는 프로세서, 및 변경된 비디오 프레임을 출력하기 위한 출력 장치(output)를 포함한다.
주문형 비디오, 비디오 프레임, 지리-위치 데이터, 무인 항공체, 통신국, 항공기.

Description

주문형 비디오를 위한 방법 및 장치{METHOD AND APPARATUS FOR VIDEO ON DEMAND}
본 발명은 주문형 비디오를 위한 방법 및 장치에 관한 것이며, 보다 구체적으로는, 전술상의(tactical) 주문형 비디오를 위한 방법 및 장치에 관한 것이다.
본 정규출원은 미국 특허청에 2003년 4월 25일 출원된 미국 가출원 제60/465,227호에 기반한 우선권을 주장한다. 미국 가출원 제60/465,227호는 본 명세서에 참조로서 통합된다.
미국 특허 제6,377,875호는 원격으로 제어되는 무인 항공체(unmanned air vehicle; UAV)를 제어하는 방법을 개시한다. 제어국(6)과 UAV(1) 간의 무선 접속이 끊길 때는, UAV(1)는 미리 프로그램된 안전 경로(safety route; 3)를 비행한다. 요구된 바와 같이, UAV는 제어국(6)으로부터 원격-제어되는 비행 경로(2)로 인도되며, 무선 접속이 중단되는 경우에는, UAV는, 원격 제어국의 개입 없이, 내장된 장치로 계산된 대체 경로 상을 비행한다.
미국 특허 제6,130,705호는 자동적으로, 그리고 자율적으로(autonomously) 뷰 객체들(view objectives)의 해상도(resolution) 및 필드를 충족하는 장면(scene)의 이미지들(imagery)을 생성하는 항공 정찰 시스템(aerial reconnaissance system)을 개시한다. 일 실시예에서, 항공기 정찰 카메라 이미지들(airbourne reconnaissance camera images)의 시퀀스로부터 타겟으로의 거리를 자동적으로 계산하는 수동적인 방법이 사용된다. 거리 정보는, 항공기의 고도(altitude) 및 자세(attitude) 변화가 빠르고 상당히 큼에도 불구하고, 예를 들어, 바람직한 콘트라스트, 지상 해상도(ground resolution), 또는 이미지의 중심에서의 뷰 필드(field of view)를 갖는 프레임 단위 타겟 이미지(frame-to-frame target imagery)를 생성하도록 줌 렌즈의 조절(adjustment)을 제어하는데 사용된다. 이미지 단위 디지털 상관(image-to-image digital correlation)은 초점 평면에서의 타겟의 변위(displacement)를 결정하는데 사용된다. 카메라 프레임 속도(frame rate) 및 항공기 INS/GPS 정보는 프레임 단위 거리(기준선(baseline))를 정확하게 결정하는데 사용된다. 계산된 타겟까지의 거리는 그 후, 다음 이미지를 위한 바람직한 해상도 또는 뷰 필드를 산출하도록 적절한 초점 거리로 줌 렌즈 서보 메커니즘을 구동하는데 사용됩니다. 이 방법은 거리가 아닌 다른 파라미터들, 이를테면, 항공기 높이 및 원격 거리(stand off distance)에 기초하여 수행될 수도 있다.
미국 특허 제6,056,237호는 소노튜브-호환가능(sonotube-compatible) 무인 항공체(UAV), 및 UAV의 발사(launch) 및 제어를 위한 시스템을 개시한다. UAV는 일반적으로 노즈 섹션(nose section), 페이로드 섹션(payload section), 날개(wing) 및 연료 탱크 섹션, 및 파워플랜트 섹션을 포함하는 모듈 섹션(modular section)들을 포함한다. 모듈 섹션들은 균일한 락 실링 링들(uniform lock sealing rings) 및 관련 컴포넌트들에 의해 인접한 섹션들에 부착된다. 본 발명 은, 매우 작고, 사람에 의해 휴대 가능하며, 탄도학적으로(ballistically) 발사되고, 자율적으로, 또는 반자율적으로(semi-autonomously) 제어되는 수송체(vehicle)가, 미리 프로그램되며, 통신되거나, 원격 측정되는(telemetry) 미션 프로그래밍을 통해 전개(deploy)될 수 있게 하는 장치를 포함한다. 응급 지급품, 센서, 및 안테나 어셈블리를 포함하는 광범위한 페이로드 패키지들이 비행중에 운반되고, 사용되거나 전개될 수 있다. UAV는 비디오, 데이터, 오디오 신호들을 전송하도록 장비될 수 있다. 사람에 의해 휴대가능한 조작(man-portable operation)은 발사 캐니스터 장치(launch canister appratus)의 사용에 의해 이루어진다. 발사 캐니스터는 인입식 발사 안정화 다리(retractable launch stabilizing leg), 터빈 엔진 배기구(turbine engine exhaust orifice), 및 다양한 안테나를 포함한다. 발사 캐니스터 장치는 대안적으로 변경된 유형 "A", "B", 또는 "C"의 소노튜브 발사 캐니스터를 포함한다. 본 발명의 시스템은 또한, 휴대형 지휘(Command), 통제(Control), 통신(Communication), 컴퓨터(Computer), 및 지능(Intelligence) (C4I) 제어 및 감지 분석 콘솔을 포함한다. 콘솔은 바람직하게는, 러기다이즈드(ruggedized)이고, 방수가 되며, 충격에 견디고(shockproof), 수송체 및 미션 제어를 위한 제어 및 분석 컴퓨터, 입출력 장치, 안테나, 및 관련 하드웨어 및 소프트웨어를 포함한다. C4I 콘솔 및/또는 발사 캐니스터는 사람에 의해 휴대 가능할 수 있게 된 배낭에 의해 수송될 수 있다. UAV는 광센서 또는 비-광센서(non-optical sensor)를 포함할 수 있다. 센서는 "LOCUSP(Low Cost Uncooled Sensor Prototype; 저비용 비냉각 센서 프로토타입)" 열 화상 시스템(thermal vision system), 또는 미국의 Fairchild Systems에 의해 제조된 Lockheed-Martin "MICRO-FLIR", 또는 미국의 Raytheon 또는 Hughes Electro Optics에 의해 제조된 전형적인 다른 기존의 마이크로 FLIR(Forward Looking InfraRed; 전방 관측 적외선) 시스템이 될 수 있다. 센서(13)로 사용될 수 있는 다른 광 센서들은 미국의 ITT Electronics에 의해 개발된 전형적인 데이라이트 비디오(daylight video), 4세대 LLTV(Low-light Television), ALLTV(all light television) 나이트 화상 시스템을 포함한다. 센서들은 또한, Lockheed-Martin AN/AAQ-13/14 LANTIRN Sharpshooter 형 시스템으로부터 개조된 종래 디자인을 갖는 레이저 조준(ranging) 및 타겟팅(targeting) 시스템, 또는 다른 원거리 레이저 조준 시스템을 포함할 수 있다.
비디오 프레임들을 처리하고 출력하기 위한 예시적인 일 방법은 비디오 프레임들의 스트림을 수신하는 단계, 변경된 비디오 프레임을 생성하도록 비디오 프레임 내로 지리-위치 데이터(geo-location data)를 삽입하는 단계, 및 변경된 비디오 프레임을 출력하는 단계를 포함한다.
예시적인 일 시스템은 비디오 프레임들의 스트림을 수신하는 안테나, 변경된 비디오 프레임을 생성하도록 비디오 프레임 내로 지리-위치 데이터를 삽입하는 프로세서, 및 변경된 비디오 프레임을 출력하기 위한 출력 장치(output)를 포함한다.
예시적인 일 시스템은 적어도 하나의 센서를 포함하는 제1 항공기, 적어도 하나의 센서를 포함하는 제2 항공기, 통신국, 및 제1 항공기, 제2 항공기, 및 통신국 각각에 있는 노드를 갖는 데이터 링크를 포함하며, 데이터 링크는 제1 항공기로부터 제2 항공기 상의 노드로 데이터를 운송하고, 데이터 링크는 제1 및 제2 항공기 중 적어도 하나에 의해 생성된 데이터를 저장하도록 배치된 데이터 저장 장치(data storage)를 포함하며, 데이터 저장 장치는 제2 항공기 상에 위치하고, 데이터 링크는 통신국으로부터 수신된 명령문에 기초하여 데이터 저장 장치 내에 저장된 데이터를 처리하고 송신하도록 배치된 제2 항공기 상의 검색 엔진을 포함하며, 데이터는 이미지들, 그 이미지들과 연관된 지리-위치 데이터, 및 그 이미지들과 연관된 시간 태크들(time tags)을 포함한다.
예시적인 일 방법은 원격 사용자로부터의 요구시에, 그 원격 사용자가 시간 및 공간적으로 보고자 하는 감지 플랫폼(sensing platform)으로부터 풀 모션 비디오(full motion video)를 제공한다. 원격지로부터 사용자는 주어진 시간 및 공간으로부터, 또는 그에 관련된, 비디오를 불러올 수 있고(call up), 검색 엔진을 이용하여 어떤 비디오 및 데이터 제품들이 그 원격 사용자에게 이용가능한지를 결정할 수 있다. 이러한 예시적인 방법은 비디오 프레임들의 스트림을 수신하는 단계, 변경된 비디오 프레임을 생성하도록 비디오 프레임 내로 지리-위치 데이터를 삽입하는 단계, 및 변경된 비디오 프레임을 출력하는 단계를 포함할 수 있다. 예시적인 일 시스템은 비디오 프레임들의 스트림을 수신하는 안테나, 변경된 비디오 프레임을 생성하도록 비디오 프레임 내로 지리-위치 데이터를 삽입하는 프로세서, 및 변경된 비디오 프레임을 출력하기 위한 출력 장치를 포함한다.
도 1은 무인 항공기 및 회전날개 항공기(rotary-winged aircraft)를 포함하 는 예시적인 배치를 도시하는 도면.
도 2는 도 1의 배치에서 사용될 수 있는 전자 박스(electronics box)를 도시하는 도면.
도 3은 도 l에서 도시된 예시적인 배치의 회전날개 항공기 상에서 사용하기에 적합한 MMA(mast-mounted assembly; 매스트 장착 어셈블리)를 도시하는 도면.
도 4는 도 1의 회전날개 항공기와 통신하는 부가적인 엔티티들을 포함하는 예시적인 배치를 나타내는 도면.
도 5는 예시적인 일 시스템의 블록도.
도 6은 도 1의 회전날개 항공기의 예시적인 일 시스템의 블록도.
도 7은 예시적인 일 방법에 다른 흐름도.
도 8은 예시적인 일 방법에 다른 흐름도.
도 9 및 도 10은 매스트 장착 어셈블리가 장착된 회전날개 항공기의 주 회전블레이드들(main rotor blades)에 의해 도 3의 매스트 장착 어셈블리에 장착된 안테나의 예시적인 감쇠(attenuation)를 도시하는 도면.
예시적인 실시예들은 주문형 비디오에 관한 것이며, 보다 구체적으로는, 전술상의(tactical) 주문형 비디오에 관한 것이다. 도 7은 비디오 프레임들을 처리하고 출력하기 위한 예시적인 방법을 나타내는데, 이는 첫 번째 블록(702)에서 비디오 프레임들의 스트림을 수신하는 단계, 다음 블록(704)에서 변경된 비디오 프레임을 생성하도록 비디오 프레임 내로 지리-위치 데이터를 삽입하는 단계, 그리고 그 후 블록(706)에서 변경된 비디오 프레임을 출력하는 단계를 포함한다. 블록(704)에서의 삽입은 예를 들어 TCDL 전자장치(220, 605, 533)에 의해 수행될 수 있다. 도 7에 도시된 프로세스는, 예를 들어, 비디오 프레임들의 하나의 스트림에 대해, 그리고/또는 비디오 프레임들의 복수의 스트림에 대해 블록들(704 및 706)을 반복함으로써 반복될 수 있다.
도 8은 다른 예시적인 방법을 나타낸다. 첫 번째 블록(802)에서, 제1 항공체(aerial vehicle)는 비디오 프레임들의 스트립을 캡쳐한다. 다음 블록(804)에서, 제1 항공체로부터 비디오 프레임들의 스트림이 수신된다. 블록(804)로부터 진행된 블록(806)에서, 비디오 프레임들의 스트림이 저장된다. 블록(806)으로부터 진행된 블록(808)에서, 제2 항공체는 비디오 프레임들의 스트림의 특정 비디오 프레임에 있는 장면의 지리-위치 데이터 및 그 특정 비디오 프레임에 대한 시간 태그를 결정한다. 지리-위치 데이터는, 예를 들어, 특정 비디오 프레임에 있는 장면과 제2 항공체 사이의 거리를 결정하고, 제2 항공체의 방위(azimuth), 고도(elevation), 방향(orientation), 및 위치(position)을 결정함으로써 결정될 수 있고, 그 지리-위치 데이터를 결정하기 위해 거리, 방위, 고도, 방향, 및 위치와 함께 지구 위치측정 위성(Global Positioning Satellite; GPS) 신호들이 이용된다. 지리-위치 데이터는 또한, 예를 들어, 항공체의 실제 관성 공간 위치(true inertial space position)를 기준(reference)으로, 비디오 프레임 내의 타겟 또는 관심 객체(object of interest)까지의 거리와 조합된 짐벌/센서(gimbals/sensor) 방위 및 고도 각들을 사용함으로써 결정될 수도 있다. 지리-위치 데이터는 또한, 예를 들어, 상이한 항공체 위치들 및 측면각들(aspect angles)로부터 비디오 프레임들을 형성하도록 짐벌 스캐닝(gimbal scanning)에 의해 결정될 수도 있다.
블록(808)으로부터 진행된 블록(810)에서, 지리-위치 데이터 및 시간 태그가 수신된다. 블록(810)으로부터 진행된 블록(812)에서, 제1 및 제2 항공체들로부터의 센서 데이터와 함께 지리-위치 데이터 및 시간 태그가 저장되며, 센서 데이터는 특정 비디오 프레임 내의 객체들을 식별한다. 식별된 객체들은, 예를 들어, 수송체들이나, 또는 다른 타겟들이나 관심 객체들일 수 있다. 블록(812)로부터 진행된 블록(814)에서, 변경된 비디오 프레임을 생성하도록 특정 비디오 프레임 내로 지리-위치 데이터 및 시간 태그가 삽입된다. 이러한 삽입은 예를 들어 TCDL 전자장치(220, 605, 533)에 의해 수행될 수 있다. 지리-위치 데이터는, 예를 들어, 비디오 프레임의 가시 부분(visible portion) 내로 삽입될 수도 있고, 비디오 프레임의 비가시 부분(non-visible portion) 내로 삽입될 수도 있다.
블록(814)로부터 진행된 블록(816)에서, 지리-위치 데이터 및 시간 태그를 사용하여 비디오 프레임들의 스트림의 인덱스가 생성된다. 블록(816)로부터 진행된 블록(818)에서, 지리-위치 데이터 및 시간 태그 중 적어도 하나에 기초하여 인덱스가 검색된다. 블록(818)로부터 진행된 블록(820)에서, 지리-위치 데이터 및/또는 시간 태그에 대하여 검색된 결과와 연관된 하나 이상의 변경된 비디오 프레임이 출력된다. 예를 들어, 표시된 지형 지도(displayed terrain map) 내의 적절한 지리-위치 내에 변경된 비디오 프레임 및 임의의 타겟들 또는 관심 객체들이 위치하도록, 변경된 비디오 프레임들은 관심 영역의 컴퓨터 생성 지형 지도(computer generated terrain map) 상에 출력될 수 있다. 블록(820)로부터 진행된 블록(822)에서 발사 제어 레이더 시스템(fire control radar system)에 대한 명령들이 수신된다. 블록(822)로부터 진행된 블록(824)에서, 명령들이 제1 항공체로 송신된다.
도 7 및 도 8에 도시된 방법들은 도 1 내지 도 6에 도시된 장치들을 사용하여 구현될 수 있다. 도 1에서 도시된 바와 같이, 무인 항공체(UAV; 110)과 같은 제1 항공체는 그 상태 정보, 위치 정보, 센서 및 무기 관리 정보, 및 고대역폭 비디오를 제2 항공체(120), 예를 들면, 헬리콥터로 송신할 수 있다. 제2 항공체(120)는 UAV(110)를 제어하기 위한 제어 정보, 제2 항공체의 위치, 및 센서 및 무기 관리 정보를 UAV(110)로 송신할 수 있다.
도 2는 제2 항공체(120)에 설치될 수 있는 전자 박스를 도시한다. 전자 박스는 항공기 인터페이스 프로세서들(210), 전술 일반 데이터 링크(Tactical Common Data Link; TCDL) 전자장치(220), 비디오 대용량 메모리(video mass memory; 230), 및 서보 전자장치(240)를 포함한다. TCDL 전자장치(220)는, 발사 통제 레이더(Fire Control Rader; FCR) 명령들이 전자 박스에 의해 인터셉트되어 UAV(110)의 제어를 위해 UAV(110)으로 송신되도록, 항공체(120)의 FCR 시스템과 인터페이싱한다. TCDL 전자장치(220)는 또한, FCR 시스템용으로 통상적으로 이용되는 스크린 상으로 비디오 대용량 메모리(230)에 저장된 비디오가 출력될 수 있게 한다. 서보 전자장치(240)는 TVODTM(Tactical Video On Demand) 시스템의 안테나를 제어한다.
도 3은 예시적인 실시예들에 따른 매스트 장착 어셈블리(mast mounted assembly; MMA)를 도시한다. 특히, MMA는 종래의 FCR MMA를 사용하여 구축될 수 있다. 따라서, 디플렉서(diplexer; 305), 도파관 스위치(wave guide switch; 310), 및 TCDL 안테나(315)는 FCR MMA 내의 레이더를 대체하여 그것을 TVODTM 서브 시스템으로 변환하는 요소들이다. 안테나(315)는 선형 테이퍼 안테나(linear taper antenna)이다. 예시적인 실시예에서, 안테나(315)의 크기, 예를 들어, 안테나(315)의 길이 및 폭은, 회전 블레이드의 폭 또는 시위(chord)보다 크다. 이는 안테나(315)가 장착된 회전날개 플랫폼의 회전 블레이드의 호(rotor blade arc) 또는 회전 디스크를 통해 수신 및 송신할 수 있는 안테나의 능력을 향상시킨다. 디플렉서(305)는 밀접한 간격을 갖는 무선 또는 레이더 주파수(RF) 신호들의 동시적인 송신 및 수신을 가능하게 하고, 스위치(310)는 송신 및 수신 대역들의 스위칭 방법을 제공하며, TCDL 안테나(315)는 RF 에너지를 송신 및 수신을 위한 좁은 빔(narrow beam)으로 집중시킨다. 다른 예시적인 실시예들에서는 FCR MMA 내의 레이더와 같은 MMA 내의 컴포넌트들을 대체하는 대신에, MMA로부터 기존의 컴포넌트들을 제거하지 않고 본 발명의 실시예들을 구현하는데 필요한 컴포넌트들이 기존의 MMA 내로 배치될 수 있다. 당업자들은 임의의 호환가능한 디자인 또는 구성을 갖는 MMA들이 사용될 수 있으며, 본 발명의 특정 애플리케이션들을 위해 디자인되고 해석(construe)될 수 있음을 인식할 것이다.
도 3에 도시된 바와 같이, TVODTM 서브 시스템은 또한 MMA 전력 공급 제어기(MMA power supply controller; 320), 고도 짐벌(325), 되돌림장치(derotator; 330), 및 레이더 주파수 간섭계(radar frequency interferometer; 335)를 포함할 수 있으며, 이것들은 모두 FCR MMA에도 공통된다. MMA 전력 공급 제어기는 모든 MMA 하드웨어를 구동하는 필요한 모든 전력 및 제어 신호들을 제공할 수 있다. 고도 짐벌(325)은 안테나 및 고도 모터를 보유하며, 고도 축(elevation axis)에서의 위치지정(pointing)을 용이하게 한다. 되돌림장치(330)는 헬리콥터 회전날개 시스템(rotor system)의 컴포넌트이며, MMA는 되돌림장치(330)에 단단히 맞물린다(mate). 레이더 주파수 간섭계(335)는 레이더 에미터들에 대해 방위각 데이터(bearing data) 및 분류 정보를 제공한다.
본 발명의 예시적인 일 실시예에 따라, FCR MMA는 UAV와의 통신을 위한 TCDL 송수신기(340)(이는 종래의 또는 상용화된 기성품(conventional or commercial off-the-shelf; COTS) 컴포넌트일 수 있음)를 포함하도록 변경될 수 있다. 특히, TCDL 송수신기(340)는 송신 및 수신을 위한, 변조된 파형들을 증폭한다.
도 9 및 도 10은 매스트 장착 어셈블리가 장착된 회전날개 항공기의 주 회전 블레이드들에 의해 도 3의 매스트 장착 어셈블리 내에 장착된 안테나의 예시적인 감쇠를 도시한다. 특히, 도 9는 0%의 인덱스를 갖는 안테나 빔 상의 AH-64 아파치 헬리콥터의 블레이드의 효과를 나타내며, 도 10은 64%의 인덱스를 갖는 경우의 효과를 나타낸다.
도 4는 본 발명의 예시적인 실시예들에 따른 주문형 비디오를 제공하기 위한 예시적인 배치를 나타낸다. 도 4에서 도시된 바와 같이, 비디오 정보를 제공하는 항공체, 즉, 항공체(410)는 유인 항공체일 수 있다. 도 2의 전자 박스와 도 3의 MMA를 종래의 항공체 내로 통합함으로써, 항공체(410)은 주문형 비디오를 다른 유인 항공체(420), 배(430), 또는 지상 수송체들(440)로 제공할 수 있다. 도시되지는 않았으나, 주문형 비디오는 지상국(ground station), 예를 들면, 건물로 제공될 수도 있다. 또한, 주문형 비디오가 제공될 수 있는 거리를 증가시키기 위해, 도 2의 전자 박스와 도 3의 MMA를 구비한 항공체(420)는, 항공체(410)의 송신 거리(transmission range) 내에는 있지 않으나 항공체(420)의 송신 거리 내에 있는 장소들로 주문형 비디오를 제공하기 위한 중계기(relay)로 동작할 수 있다.
도 5는 본 발명의 예시적인 실시예들에 따른 시스템의 기능 블록도이다. 도 5에서, 파선으로 표시된 박스(505)내의 요소들은 하나의 항공체, 예를 들면, 회전날개 플랫폼(120, 410, 420) 상에, 그리고/또는 그 내부에 위치한다. 따라서, 항공체는 MMA(507; 도 3에 도시됨), EFAB(Extended Forward Avionics Bay)(509; 도 2에 이 전자 박스가 도시됨), 조종사 인터페이스(511), TEDAC(TADS Electronic Display And Control; 513), M-TADS(515), 라디오(517), RFI(Radar Frequency Interference) 측정 유닛(519), 및 CLOE(Common. Logistics Operating Environment) 진단 모듈(521)을 포함할 수 있다. 조종사 인터페이스(511)는 항공체, 예를 들면, 회전날개 플랫폼 상의 사용자-기계 인터페이스(man-machine interface)이다. TEDAC(513)는 회전날개 플랫폼 상의 사용자-기계 인터페이스를 위한 디스플레이이다. M-TADS(515)는 전자-광 센서들(electro-optic sensors)을 포함하는 현대화된 타겟팅 및 지시 시스템(Modernized Targeting and Designation System)이다. 라디오(517)는 플랫폼들 간의, 예를 들면, 항공기에서 항공기로, 항 공기에서 지상국으로, 그리고 항공기에서 SATCOM(Satellite Communications) 및/또는 항공기에서 JSTAR(Joint Surveillance Target Attack Radar System)로의 오디오 및 제한된 데이터 통신을 제공한다. RFI 측정 유닛(519)은 레이더 에미터들을 위한 분류 정보 및 베어링 데이터를 제공한다. CLOE 진단 모듈(521)은 항공기에 대한 건강 모니터(health monitor)로서 기능한다.
MMA는 송수신기(523), 안테나 제어 모듈(525), 서보(527) 및 슬립 링(slip ring; 529)을 포함한다. 송수신기(523)는 송신 및 수신을 위해 변조된 파형들을 증폭한다. 안테나 제어 모듈(525)은 안테나가 정확하게 위치지정(point)되도록 유지하는데 필요한 모든 신호들을 수행한다. 서보(527)는 안테나 안정화(stabilization)를 가능케 하는 메커니즘을 제공한다. 슬립 링(529)은 계속해서 회전하는 기계적 인터페이스를 통해 전기 및 RF 신호들이 연속성(continuity)을 유지할 수 있도록 한다. EFAB 전자 모듈(509)은 서보 제어 및 대용량 저장 유닛(531) 및 TCDL 제어 및 레이더 주파수 전자장치(533)를 포함한다. 서보 제어 및 대용량 저장 유닛(531)은 안테나가 정확하게 위치지정되도록 유지하는데 필요한 모든 계산을 수행하며, MTADS(Modernized Targeting and Designation System) 및 UAV 센서 데이터를 저장하고 꺼내오는(retrieve) 방법 및 인터페이스를 제공한다. TCDL 제어 및 RF 전자장치(533)는 비디오 압축/압축해제, 데이터 다중화/역다중화(multiplexing/demultiplexing), 압축/압축해제, 및 변조/복조를 수행한다. 또한, 항공체가 다른 유사하게 장비된 항공체들로부터의 비디오 및 다른 정보의 중계기(repeater)로서 동작할 수 있도록, 선택적인 옴니 안테나(omni antenna; 535)가 그 항공체 내에 설치될 수 있다. 예를 들어, 안테나(535)는 TCDL이 지상국에 대하여 중계기 모드로 동작할 수 있도록 한다. 그러나, 옴니 안테나(535)는 중계 기능을 위하여만 사용되며, 항공체가 중계기로 사용되지 않을 경우에는, 그러한 항공체가 여전히 그 비디오 및 다른 정보를 옴니 안테나를 통해 다른 항공체에 의해 중계되게 할 수 있더라도, 생략될 수 있다.
도 6은 아파치 헬리콥터와 같은 헬리콥터에 설치되기 위한 예시적인 TVODTM 서브 시스템의 블록도이다. TCDL 시스템의 종래의 컴포넌트들은 전자 모듈(605) 및 TCDL 송수신기(610)를 포함한다. TCDL 전자 장치(605)는 비디오 압축/압축해제, 데이터 다중화/역다중화, 압축/압축해제, 및 변조/복조를 수행한다.
도 6에서 도시된 항공체의 종래의 요소들은 짐벌 안정화 모듈(615), MMA PS 제어기(620), 슬립 링/회전날개 이음부(slip ring/rotary joint; 625), IMU(Inertial Measurement Unit; 630), MMA 블라인드 메이트(MMA blind mate; 635), RFI 모듈(640), 방위 전력 증폭기(azimuth power amplifier; 645), 방위 모터(650), 속도 모듈(rate module; 655), 디플렉서/스위치(660), 및 구조물(structure; 665)을 포함한다. 짐벌 안정화 모듈(615)은 안테나가 정확하게 위치지정되도록 유지하는데 필요한 모든 계산을 수행할 수 있다. 슬립 링/회전날개 이음부(625)는 계속해서 회전하는 기계적 인터페이스를 통해 전기 및 RF 신호들이 연속성을 유지할 수 있도록 한다. IMU(630)는 안테나 안정화 및 제어에 필요한 가속 및 방향 데이터를 제공하는 관성 측정 유닛이다. MMA 블라인드 메이트(635)는 모 든 입력 및 출력 신호들을 매스트 장착 어셈블리로 가져오는 자체 정렬 전기 커넥터(self aligning electrical connector)이다. RFI 모듈(640)은 레이더 에미터들을 위한 분류 정보 및 베어링 데이터를 제공한다. 방위 전력 증폭기(645)는 안테나를 안정화하는데 필요한 신호 증폭을 제공한다. 방위 모터(650)는 방위 축에 있는 매스트 장착 안테나를 구동한다. 속도 모듈(655)은 안테나를 안정화하는데 필요한 데이터를 제공하는 속도 센서이다. 디플렉서/스위치(660)는 밀접한 간격을 갖는 RF 신호들의 동시적인 송신 및 수신을 가능하게 하고, 송신 및 수신 대역들의 스위칭 방법을 제공한다. 구조물(665)은 열거된 컴포넌트들을 회전날개 환경에서 수용할 수 있는 복합재/알루미늄 메커니즘(composite/aluminum mechanism)이다.
주문형 비디오 시스템을 구현하기 위한 기존의 하드웨어의 변형들(modifications)은 항공기 인터페이스 모듈(667), M-TADS 인터페이스/비디오 메모리 모듈(670), 전방향 안테나(omni-directional antenna; 675), TCDL 고이득 안테나(TCDL high-gain antenna; 680), 및 고도 모터/짐벌(685)을 포함한다. 항공기 인터페이스 모듈(667)은 호스트 항공기와 통신하는데 필요한 모든 입력 및 출력 기능들을 제공한다. M-TADS 인터페이스/비디오 메모리 모듈(670)은 MTADS 및 UAV 센서 데이터를 저장하고 꺼내오는 방법 및 인터페이스를 제공한다. 전방향 안테나(675)는 제한된 거리에서 360도의 도달범위(coverage)를 제공한다. 고이득 안테나(680)는 RF 에너지를 송신 및 수신을 위한 좁은 빔으로 집중시킨다. EL(elevation) 모터/짐벌(685)은 고도 축에 있는 안테나를 구동한다.
본 발명의 예시적인 실시예들에 따라, 대용량 비디오 저장 메모리(예를 들 면, 블록(531)에 있는 것)는 비디오 프레임들의 스트림과 각각의 비디오 프레임과 연관된 데이터를 저장한다. 연관된 데이터는 지리-위치 데이터, 시간 태그, 및 대용량 비디오 저장 메모리를 구비한 수송체 상의 센서들 및/또는 비디오 프레임들의 스트림을 캡쳐하는 수송체 상의 센서들로부터의 센서 데이터를 포함할 수 있다. 연관된 데이터는, 종래의 인덱싱 및 검색 기법에 따라, 연관된 데이터를 검색 파라미터로 사용하여 비디오 프레임들을 검색할 수 있게 하기 위해, 저장된 비디오 프레임들에 대해 인덱싱된다. 따라서, (예컨대, 고대역폭 데이터 링크, 이를테면, 전자, 라디오, 또는 광 데이터 링크를 통해) 대용량 비디오 저장 메모리에 액세스할 수 있는 지상 유닛, 다른 항공체, 또는 수상 유닛(water-borne unit)은 특정 비디오 프레임들 또는 하나 이상의 연장된 스트림들 또는 특정 지리-위치들에 대한 일련의 풀모션 비디오 프레임들을 선택하여 꺼내올 수 있으며, 그리고/또는 과거 및 현재의 타겟 이미지들을 탐색할 수 있다(page through). 또한, 비디오 프레임들이 대용량 비디오 저장 메모리로부터 꺼내져서 그 비디오 프레임들의 요청자에게 송신될 때에, 연관된 데이터가 그 비디오 프레임 내로 삽입될 수 있고, 그 결과 요청자는 비디오 및 그에 연관된 데이터를 동시에 볼 수 있게 된다.
본 발명의 예시적인 실시예들은, 센서 데이터를 송신, 저장, 분배, 및 조작(manipulate)하기 위한 다른 여러 전자 및 소프트웨어 기법들 및 기능들과 함께 표준화된 전술 일반 데이터 링크(Tactical Common Data Link; TCDL) 하드웨어 및 파형(들)을 사용할 수 있는 시스템들 및 방법들을 제공한다. 물론, 본 명세서에서 기술된 다양한 기능들 및 능력들을 제공할 수 있는 본 발명의 다양한 실시예들을 구현하기 위해 다른 통신 프로토콜들 및 하드웨어들이 사용될 수 있다. 이러한 센서 데이터는 지리-위치 및 다른 특징 데이터가 중첩된 고해상도 디지털 비디오(high resolution digital video)의 스트리밍을 포함한다. 이는 공중수송(airborne) 정찰(reconnaissance), 감시(surveillance), 및 네트워크 중심 무기 발사 제어(network-centric weapon fire control)에 유용한 고유한 일련의 능력들을 제공한다. 예시적인 일 방법은 비디오 프레임들의 스트림을 수신하는 단계, 변경된 비디오 프레임을 생성하도록 비디오 프레임 내로 지리-위치 데이터를 삽입하는 단계, 및 변경된 비디오 프레임을 출력하는 단계를 포함한다.
예시적인 실시예들에 따르면, 헬리콥터 플랫폼의 전자-광 조준 시스템(electro-optical sighting system)으로부터의 지리-위치 데이터는 TVODTM 아키텍처의 일부로서 다음과 같은 방식으로 생성될 수 있는데, 항공기의 실제 관성 공간 위치가 기준점(reference)으로 사용될 수 있으며, 관심 타겟으로의 거리와 함께 짐벌/센서 방위각 및 고도 각들이, 관심 원격 타겟의 관성 공간 내의 위치를 고정밀도로 결정하기 위한 연산(computation)의 기초를 이룰 수 있다. 이러한 연산들은 원하는 만큼의 비디오 프레임들에 지리-위치 데이터를 더하도록 하는 오퍼레이터의 선택 시에 반복적으로 수행될 수 있다. 상이한 항공체 위치 및 측면 각들로부터 이미지들을 형성하기 위한 짐벌 스캐닝은 TVODTM 시스템에서 지리-위치 데이터를 계산하는 대안적인 방법이 될 수 있다. 조준 시스템은 예를 들어, 현대화된 타겟팅 및 지시 시스템(M-TADS) 또는 다른 전자-광 이미지 감지 시스템들을 통해 구현되거 나 이것들을 포함할 수 있다.
복합 비디오(예를 들면, 지리-위치 데이터를 포함하도록 변경된 비디오 프레임들을 포함하는 비디오 프레임들의 스트림)는, 표시된 지형 지도 내의 정확한 지리-위치 상에 이미지와 그 관심 타겟들이 그려지도록(portray), 관심 영역의 컴퓨터 생성 지형 지도 상에 선택적으로 중첩될 수 있다.
본 명세서에서 기술된 예시적인 실시예들 및 방법들은 여러 장점들을 얻게 한다. 예를 들어, 회전날개 플랫폼의 통신 능력들은, 네트워크 중심 전장에서 그 회전날개 플랫폼이 데이트 소스(date source)로서 효과적으로 동작할 수 있도록, 이를테면, 공대공(air-to-air) 및/또는 공대지(air-to-ground) 비디오 스트리밍을 포함하는, 지상 및 공중 수송 송수신기들과의 고대역폭 통신을 수용하도록 향상될 수 있다. 회전날개 플랫폼으로, 그리고/또는 그로부터 송신되는 정보는, 지리-위치 데이터와 시간-태그들과 함께 이미지들을 포함할 수 있고, 연속적인 스트림 또는 분리된(discrete) 요소들이나 블록들로 송신될 수 있으며, 실시간으로 또는 시간 지연을 가지고 송신될 수 있다. 이미지들은 비디오/텔레비전 이미지, 적외선 이미지, 레이더 이미지, 또는 UAV로부터 수신되거나 회전날개 플랫폼에 의해 직접 캡쳐된 센서 데이터에 기초하여 생성된 임의의 다른 종류의 이미지 중 하나 이상을 포함할 수 있다. 이미지들은 또한, 회전날개 플랫폼과 통신하는 UAV, 회전날개 플랫폼에 탑재된 센서들, 및/또는 다른 공중 또는 지상 기반 소스들, 이를테면 도 4에 도시된 소스들(420, 430, 440) 또는 건물과 같은 지상국 중 하나 이상으로부터 수신된, 한 종류의 센서로부터의 데이터 또는 상이한 종류의 센서들로부터의 데이 터에 기초하여 회전날개 플랫폼에 탑재된 프로세서에 의해 생성된, 종합적인(synthetic) 또는 종합된(synthesized) 이미지들을 포함할 수 있다. 프로세서는, 예를 들어, TCDL 전자장치들(220, 533, 605) 내에 위치할 수 있다.
예시적인 일 방법은, 지상 터미널 또는 다른 공중 터미널에 위치할 수 있는 표준 그래픽 사용자 인터페이스를 사용하여, 원격 UAV 또는 항공기 탑재 센서들(on-board aircraft sensors)로부터 발산(emanate)되고 있는 시간 및 지리-위치 태그 이미지들(time and geo-location tagged imagery)의 원격 비디오 및 데이터 검색을 허용하도록 양방향 데이터 링크(two-way data link)를 사용하는 단계를 포함한다. 데이터 링크의 노드들은 예를 들어 항공기(110, 120, 410, 420) 및 통신국들(430, 440) 상에 위치할 수 있다. 이 방법은 센서의 위치, 각도, 및 내부 설정들(뷰 필드, 모드, 이득, 레벨 등)을 포함하는 주석 데이터(annotation data)와 함께 압축된 비디오 데이터를 저장하는 단계에서 시작할 수 있다. 이러한 데이터는 또한, 센서와 연관된 신호 프로세서, 예를 들면, 센서에 의해 출력된 신호들(예컨대, 원 신호들을 포함함)을 처리하는 신호 프로세서로부터의 정보를 포함할 수 있고, 호스트 플랫폼으로부터의 정보를 포함할 수 있으며, 타겟 검출 추적 파일들(target detection track files), 항공기 페이로드 상태, 및 특정 미션 세부사항(mission details)과 같은 다른 센서들로부터의 정보를 포함할 수 있다. 신호 프로세서는 센서에 위치하거나 센서로부터 원격에 위치할 수 있다. 양방향 데이터 링크는 사용자로부터 TVOD 소프트웨어를 실행하는 프로세서로 검색 명령들을 전달하는데 사용될 수 있다. TVOD 소프트웨어는 예를 들어 전자장치(220), 프로세서 (210), 전자장치(533) 중 하나 이상을 통해, 그리고/또는 데이터 링크의 하나 이상의 노드에 위치하는 하나 이상의 프로세서 또는 컴퓨터 상에서 구현될 수 있다. 데이터 링크의 하나 이상의 노드에 위치하는 프로세서들 또는 컴퓨터들 상에서 실행되는 소프트웨어, 예를 들어, 항공기(120, 410)에 탑재되어 실행되는 TVOD 소프트웨어는 검색 명령을 해석하고 압축된 비디오에 수반된 데이터 세트 상에서 그 검색 명령에 따라 검색을 수행하는 검색 엔진으로 기능할 수 있다. 검색 기준(search criteria)이 충족된 경우에 소프트웨어는 양방향 데이터 링크를 통해 사용자에게 개시 정보(cueing information)를 보낼 것이다. 그러므로 TVOD 소프트웨어는 검색 엔진 능력 및 기능을 포함할 수 있다. 사용자는 개시 정보를 가지고 TVOD 소프트웨어로 하여금, 표시를 위해 양방향 데이터 링크를 통해, 압축된 비디오 및 데이터, 예를 들면, 검색에 의해 발견되거나 식별된 데이터를 송신하기 시작하라고 지시할 수 있을 것이다.
예시적인 일 방법은, 모든 센서 비디오 및 데이터를 그에 연관된 지리-위치 및 시간-태그 디지털 데이터와 함께 기록(record)하도록, 데이터 링크 내로 데이터 저장장치 또는 저장 매체를 통합하는 단계를 포함한다. 저장 매체 및 검색 엔진은 UAV, 항공기, 또는 지상국 데이터 링크, 예를 들면, 항공기(110, 120, 410, 420) 및 통신국들(430, 440) 중 하나 이상을 포함하는 데이터 링크의 노드들에 위치할 수 있다. 이러한 배치 또는 프로시져는, UAV 제어 및 비디오 송신 데이터 링크(이는 항공기(110, 120, 410, 420) 상의 노드들을 갖는 데이터 링크의 일부일 수 있음)가 그것의 미션을 수행하기 위해서는, 디지털 방식으로 압축된 비디오 및 연관 된 데이터 제품들이 그 링크에서 이용 가능해야 한다는 사실을 이용한 것이다. 데이터 저장장치 또는 저장 매체를 링크 내에, 또는 링크의 노드에 두는 것은, 저장된 데이터가 링크로 쉽게 액세스할 수 있게 하며, 원격 데이터 사용자, 예를 들면, 항공기(420) 또는 통신국들(430, 440)에 위치하거나, 그리고/또는 그러한 위치들 중 하나에 있는 노드를 통해 데이터 링크에 액세스하는 사용자로 하여금, 다른 중요한 항공기 프로세스들, 예를 들면, 항공기(410, 120, 및/또는 110)의 비행 제어, 무기 제어, 및 센서 제어와 같은 항공기 프로세스와 상호작용하거나(interact) 그것을 방해하지 않고도, 저장된 제품들에 액세스할 수 있도록 한다. 특히, 데이터 링크 내에 (예들 들면, 항공기(410, 120)에 탑재하여) 데이터 저장 매체를 위치시키는 것은, 항공기의 비행 운용 프로그램(Operational Flight Program) 상에 해로운 영향 없이 주문형 비디오 기능들이 발생할 수 있도록 한다. 데이터 저장장치는 예를 들어 비디오 대용량 메모리(230), 모듈(531)을 포함할 수 있으며, 그리고/또는 데이터 링크의 노드들 상에, 예를 들어, 항공기(110, 120, 410, 420) 및/또는 통신국들(430, 440) 상에 다양하게 위치하는 하나 이상의 분리되거나 분산된(distributed) 저장장치들을 포함할 수 있다.
데이터 검색(data retrieval)의 예시적인 일 방법은, 기존의 지상국들과 호환가능한 그래픽 사용자 인터페이스(Graphical User Interface; GUI)를 생성하거나, 지상국들에서 구현된 GUI와 호환가능하거나 그에 유용한 정보를 제공하는 프로그램, 예를 들면, 데이터 링크에 탑재되며 데이터 링크의 노드들 중 하나 상에서 동작하거나 데이터 링크의 복수의 노드들 간에서 분산된 방식으로 동작하는 프로그 램의 사용을 포함할 수 있다. GUI들은, 예를 들어 그러한 지상국들에서의 데이터 링크의 노드들 상에 구현되거나, 데이터 링크의 노드와 통신하는 컴퓨터 또는 통신 시스템 상에 구현될 수 있다. GUI는 예를 들어 컨트롤들(controls) 및 이미지들을 포함하는 디스플레이에 의해 형성될 수 있다. 예를 들어, 포인팅 장치, 마우스, 키보드, 조이스틱, 마이크로폰, 광 센서, 또는 (예컨대, 소리, 움직임, 압력/힘, 빛 또는 사용자로부터의 다른 입력들의 형태로) 사용자로부터 입력 또는 명령을 수신하는 다른 장치 중 하나 이상을 포함하는 사용자-조작(user-manipulated) 또는 사용자-상호작용(user-interactive) 입력 장치가, 사용자의 위치, 예를 들어 UAV 제어 지상국에서, 사용자로 하여금 디스플레이 상에 나타난 이미지들을 조작하고 컨트롤을 구동(actuate)하도록 제공될 수 있다. 예를 들어, GUI 이미지는 압축되어 다른 국(station) 또는 엔티티, 예를 들면, 지상국으로 데이터 링크를 사용하여 보내질 수 있다. 국은 수신된 GUI 이미지를 자동적으로 압축해제하여 그것을 사용자에게 표시할 수 있다. 사용자는 수신된 GUI 이미지에 대한 응답으로 입력 장치를 조작하여, 검토하거나 다운로드할 비디오 및 데이터 제품들을 선택할 수 있다.
데이터 링크의 하나 이상의 링크에서 데이터 링크 내로 저장 매체를 통합하는 것은 비디오 및 데이터 제품들의 비실시간 중계(non-real time relay)를 촉진시킬 수 있다. 예를 들어, 하나의 양방향 데이터 링크는 두 개의 양방향 데이터 링크의 기능들을 수행하기 위해 시차적 기법들(time-phased techniques)을 사용할 수 있다. 이는 기체(airframe)상의 무게 및 비용을 절감하면서 중계 기능들이 발생할 수 있게 한다.
예시적인 일 실시예에서, 검출된 타겟들의 지리-위치의 정확도(accuracy)는, 프레임 단위 통합(frame-to-frame integration) 및 센서 융합(sensor fusion), 즉, 이미지 데이터, 지리-위치 데이터, 및 이미지 데이터와 연관된 시간 태그들 중 하나 이상의 품질을 (특정적으로(specifically) 또는 집합적으로(collectively)) 향상하도록 상이한 센서 및/또는 센서 종류들의 출력들을 통합 또는 융합하는 것을 통해 향상될 수 있다. 비디오 및 다른 센서 타겟 검출 보고들(sensor target detection reports)의 복수의 프레임들은, 예를 들어, 데이터 저장 요소들(230, 551) 내에, 그리고/또는 본 명세서에서 설명된 데이터 저장 모듈 또는 시스템들에서 수집되고 저장될 수 있으며, 그 데이터 저장 장치와 동일한 데이터 링크의 노드 또는 상이한 노드(들)에 위치한 컴퓨터들 또는 프로세서들에 의해 그러한 데이터 상에서 알고리즘들이 수행될 수 있다. 특히, 복수의 프레임들로부터의 검출결과들, 또는 상이한 프레임들에서 검출된 타겟들이 연관된 후에, 타겟 위치(들), 예컨대 타겟 이미지의 중심을 결정하거나 상세히 식별(refine)할 뿐만 아니라 그 타겟(들)과 연관된 불확실성 영역(uncertainty region)을 결정하는 알고리즘들을 사용하여 처리될 수 있다. 주어진 타겟에 대하여 보다 많은 데이터가 수집되기 때문에, 불확실성 영역의 크기가 감소할 수 있고, 그 결과 검출 위치가 더 정확해진다. TVOD 시스템이 양방향 데이터 링크를 사용하여 타겟 검출 보고들을 사용자에게 전달하게 때문에, 보고들은 그러한 다중-프레임 처리(multiple-frame processing)에 의해 생성된 보다 정확한 지리-위치 데이터를 수반할 수 있다.
예시적인 일 실시예에서는, 헬리콥터 블레이드 암흑화(helicopter blade obscuration) 동안 마이크로파의 연속파 동작(continuous wave (CW) operation)을 가능하게 하도록 선형 테이퍼 안테나가 회전날개 플랫폼 상의 TCDL 안테나로서 사용된다. 이는 회전 블레이드들이 부분적으로 안테나를 어둡게 할 때 데이터의 손실 없이 헬리콥터 환경에서 마이크로파(X-대역 이상) 주파수 데이터 링크 시스템들을 사용할 수 있게 한다. 전형적인 파라볼라 마이크로파 안테나(parabolic microwave antenna)는 빔의 중심에 대부분의 RF(무선 주파수) 에너지를 집중시키는 테이퍼를 갖는다. 그러한 전형적인 안테나는, 어둡게 하는 회전 블레이드들보다 훨씬 큰 크기를 가져야 할 것이다. 선형 테이퍼를 가지고 디자인된 안테나는 RF 에너지를 그 안테나의 표면에 걸쳐 고르게 분산시킨다. 헬리콥터 환경 또는 헬리콥터 상에서 사용될 때, 헬리콥터의 회전 블레이드 시위의 2배의 크기인 개구부(aperture)를 갖는 선형 테이퍼 안테나는 신호 전력에서 3dB만이 손실된 데이터 링크를 유지할 수 있다. 따라서, 안테나(315)는 선형 테이퍼 안테나를 사용하여 구현될 수 있다.
예시적인 일 실시예에 따르면, 시스템을 통한 데이터 흐름을 위한 압축 보드들, 예를 들면, 데이터 링크를 통해 (예컨대, 회전날개 플랫폼과 UAV 사이에서, 그리고/또는 항공기로부터 표면-기반 통신국(surface-based communication station)으로 흐르는 센서 데이터에 대한 압축 모드들은, 사용자의 제어 입력들에 기초하여 이미지 품질에 대해 이미지 지연시간(image latency)을 희생(trade)하도록 자동적으로 선택될 수 있다. 압축은, 예를 들어, 항공기로부터의 송신 전에, 및/또는 데이터 저장 전에 실행될 수 있다. 제어 입력들은, 예를 들어, 사용자로부터 센서 패키지 또는 페이로드로의 명령으로서, 센서들이 감지하거나 탐색하고 있는 환경에 대하여, 그리고/또는 페이로드가 장착되거나 수송되는 UAV 또는 회전날개 플랫폼와 같은 플랫폼에 대하여, 센서들의 방향(orientation)에 영향을 주는 명령이다. 예를 들어, 페이로드 및/또는 그 페이로드가 수송되는 플랫폼은, 페이로드가 감지하거나 측정하고 있는 환경에 대한 페이로드의 신속한 슬루잉(slewing)을 요구하는 명령을 수신할 수 있다. 신속한 슬루잉은 비디오 프레임으로부터 비디오 프레임으로의 급격한 이미지 변화들을 초래하며(translate into), 이러한 상태에서는 저-지연기간 압축 기법(low-latency compression technique)이 선택될 수 있다. 데이터 링크는, 수신된 명령들이, 예를 들어, 다음 비디오 프레임 상에 저-지연시간 압축을 개시함으로써, 빠른 슬루잉을 초래할 것이라고, 또는 그러할 개연성이 있다고 판단한 후에, 저 지연시간 모드(Low Latency Mode)로 비디오를 압축할 수 있다. 데이터 링크는 또한 사용자 또는 사용자의 데이터 링크로, 그 사용자에게 보내지고 있는 압축된 데이터의 비디오 압축해제를 위하여는 저-지연시간 CODEC이 사용되어야 한다는 점을 알리도록, 메시지 또는 정보, 예를 들면, 데이터 스트림 내의 제어 비트들을 보낼 수 있다. 적은 슬루잉이 명령되거나 슬루잉이 명령되지 않는 경우, 또는 페이로드가 자동적으로 타겟을 추적하도록 명령된 경우에는, 고품질 이미지 압축 기법(high-quality image compression technique)이 자동적으로 선택될 수 있다. 고품질 이미지 압축 기법의 선택 시에는, 다음 비디오 프레임 상에서, 데이터 링크가 그 비디오를 고품질 모드로 압축하기 시작할 것이다. 데이터 링크는, 예를 들어 데이터 스트림 내의 제어 비트들을 통해, 비디오 압축해제를 위하여는 고품질 모드 CODEC이 사용되어야 한다는 것을 사용자의 데이터 링크에 알릴 수 있다. 중간의, 또는 높지도 낮지도 않은 슬루 레이트들(slew rates)이 명령된 경우에는, 최적의(optimal) 비디오 압축 기법들이 자동적으로 선택되어 상술된 바와 유사한 방식으로 사용될 수 있다. 이러한 방법은 비디오 해석(video interpretation)을 강화하는 고품질 비디오 압축 기법들의 사용과, 제어기와 페이로드 간의 사용자 기계 인터페이스를 최적화하는 저-지연시간 기법들의 사용을 조화시키거나 균형을 맞출 수 있다. 압축 및 압축해제는, 예를 들어, 도 1, 도 2, 및 도 4에 도시된 항공기 및 통신국들에 탑재된 데이터 링크의 노드들에 위치하는 컴퓨터들 또는 프로세서들, 예를 들면, 전자장치(220, 530) 및/또는 데이터 링크 노드에서 제공되는 다른 프로세서들이나 컴퓨터들에 의해 수행될 수 있다.
예시적인 일 실시예에 따르면, 공간적으로 인접한 비디오 프레임들이 서로 스티칭될 수 있고(stitch), 프레임 단위 이미지 개선(frame-to-frame image enhancement)이 이루어질 수 있으며, 무기 발사 데이터, 수동 RF 데이터, 및 레이더 감지 데이터와 같은 복수의 소스로부터의 데이터가 그 데이터의 품질 및/또는 유용성을 향상시키도록 융합되거나 통합될 수 있다. 이는 데이터 링크에 탑재된 저장 매체, 예를 들어, 유닛(531) 내의 대용량 저장장치 또는 비디오 대용량 메모리(230) 및/또는 데이터 링크 내의 다른 데이터 저장장치 내에 비디오의 복수의 프레임들 및 데이터를 먼저 저장함으로써 달성될 수 있다. 저장된 비디오 프레임들 및 데이터는 이어서, 센서의 시선(line of sight)으로부터, 각각의 픽셀의 공간적 위치를 결정하도록 처리될 수 있다. 그 후 비디오 프레임들이 서로 스티칭되고, 동일한 공간적 위치를 차지하는 픽셀들이 병합(merge)된다. 이어서 이미지 처리 알고리즘들이 그 이미지의, 또는 그 내부의 왜곡(distortion)을 최소화하는데 사용된다. 저장된 타겟 데이터 및 다른 항공기상의(on-aircraft), 그리고 항공기 외부(off-aircraft)의 데이터는 융합 또는 통합되어, 그 후, 비디오 프레임들을 보는 사용자 및/또는 비디오 프레임들의 내용을 분석하는 기기에 추가적인 정보를 제공하도록 비디오 프레임들의 이미지들 상에 겹쳐질 수 있는(overlay) 기호 오버레이(symbology overlay), 예를 들면, 상이한 모양 또는 색을 갖는 기호들 및 아이콘, 텍스트 라벨 등을 생성하는데 사용될 수 있다. 이러한 프로세스들은, 데이터 링크의 종점(end), 예를 들면, UAV 또는 회전날개 플랫폼과 같은 센서들의 위치에서, 또는 중간 위치(intermediate location ), 이를테면 UAV 및 다른 공중, 지상, 또는 수중의 국(station)들과 통신하는 회전날개 플랫폼에서, 또는 종점 위치, 예를 들면, 데이터 링크를 제어하거나 그로부터 정보를 수신하는 사용자가 위치한 곳에서, 수행될 수 있다.
예시적인 일 방법은, 다중-모드 레이더 기능(multi-mode radar function)을 수행하도록, 데이터 링크 송수신기 및 이에 대응하는 변조기/복조기(modulator/demodulator), 예를 들면, 항공기(120, 410)에 탑재되며 안테나(315)에 접속된 송수신기를 사용하는 단계를 포함한다. 회전날개 플랫폼 상에서, 이러한 레이더 모드는 회전 블레이드들을 통해 작동할 수 있다. 레이더 모드는 데이터 링크의 파형 발생기(waveform generator)가 레이더 파형들을 생성할 수 있도록 데이터 링크에 소프트웨어 능력을 추가함으로써 이루어질 수 있다. 데이터 링크의 디 지털 수신기는 이어서, 레이더 산출물(radar returns)의 수신 및 처리를 수행하도록 재프로그램되어(reprogrammed), 움직이는 타겟들의 검출 및 분류, 지형 및 장애물들의 검출, 및 종합적인 개구부 레이더 이미지들(synthetic aperture radar images)의 생성을 가능케 한다. 데이터의 RF 섹션은, 송신 및 수신 주파수들이 의도적으로 상이하게 되는 전이중 통신방식 데이터 링크 모드(full duplex data link mode)의 선택, 그리고/또는 송신 및 수신 주파수들이 동일할 것이 요구되는 레이더 모드를 허용하도록 변경 또는 구성될 수 있다.
당업자는 본 명세서에서 기술된 데이터 링크(들)이, 본 명세서에서 기술된 데이터 링크들의 기능을 수행하는데 필요하거나 바람직한 모든 송수신기, 컴퓨터, 마이크로프로세서, 전기 컴포넌트, 장치 또는 서브 시스템, 안테나, 소프트웨어 등을 포함할 수 있고, 다양하게 위치할 수 있으며 독립적으로, 협력하여(in concert), 분산된 방식으로(distributed fashion), 또는 이의 임의의 조합으로 동작할 수 있음을 인식할 것이다. 또한, 본 발명의 다양한 실시예들 및 방법들이 본 발명과 일관된 임의의 통신, 데이터 분석, 및 데이터 처리 기법들(압축, 압축해제, 암호화, 암호 해독, 스티칭(stitching) 등)과 함께 실시될 수 있다.
본 발명은 그 기술적 사상 및 필수적인 특성들로부터 벗어나지 않고도 다른 특정 형태들로 구현될 수 있으며, 본 발명은 본 명세서에 설명된 특정 실시예들로 한정되지 않는다. 현재 개시된 실시예들은 예시적인 것이며 제한적인 것이 아니다. 본 발명의 범위는 앞의 설명보다는 첨부된 청구항들에 의해 지정되며, 그 의미 및 범위 및 균등물들 내의 모든 변경들은 본 명세서에 의해 포함되도록 의도된 다.

Claims (43)

  1. 비디오 프레임들을 처리하고 출력하기 위한 방법으로서,
    비디오 프레임들의 스트림을 수신하는 단계;
    변경된 비디오 프레임을 생성하도록 비디오 프레임 내로 지리-위치 데이터(geo-location data)를 삽입하는 단계; 및
    상기 변경된 비디오 프레임을 출력하는 단계
    를 포함하는 방법.
  2. 제1항에 있어서,
    상기 지리-위치 데이터를 수신하는 단계를 포함하며,
    특정 비디오 프레임 내로 삽입된 상기 지리-위치 데이터가 상기 특정 비디오 프레임 내의 장면(scene)의 상기 지리-위치 데이터에 기초하는 방법.
  3. 제1항에 있어서, 상기 비디오 프레임 내로 시간 태그(time tag)도 삽입되는 방법.
  4. 제1항에 있어서, 상기 비디오 프레임들의 스트림이 무인 항공체(unmanned aerial vehicle)로부터 수신되는 방법.
  5. 제1항에 있어서,
    발사 제어 레이더 시스템(fire control radar system)에 대한 명령들을 수신하는 단계; 및
    무인 항공체로 상기 명령들을 송신하는 단계
    를 포함하는 방법.
  6. 제1항에 있어서, 상기 비디오 프레임들의 스트림을 상기 연관된 지리-위치 데이터와 함께 저장하는 단계를 포함하는 방법.
  7. 제6항에 있어서,
    적어도 하나의 검색 명령에서 규정된 기준(criteria)을 충족하는 지리-위치 데이터를 식별하도록 상기 저장된 지리-위치 데이터를 검색하는 단계; 및
    상기 식별된 지리-위치 데이터 및 상기 식별된 지리-위치 데이터에 대응하는 비디오 프레임들을 송신하는 단계
    를 포함하는 방법.
  8. 제6항에 있어서, 상기 비디오 프레임들과 연관된 상기 시간 태그들이 상기 지리-위치 데이터와 함께 저장되는 방법.
  9. 제8항에 있어서, 상기 비디오 프레임들의 스트림이 제1 항공체에 의해 캡쳐 되고, 상기 지리-위치 데이터 및 상기 시간 태그들이 제2 항공체에 의해 결정되며, 상기 제1 및 제2 항공체들로부터의 센서 데이터가 상기 지리-위치 데이터 및 상기 시간 태그들과 함께 저장되는 방법.
  10. 제9항에 있어서, 상기 센서 데이터는 특정 비디오 프레임 내의 객체들(objects)을 식별하는 방법.
  11. 제10항에 있어서, 상기 식별된 객체들은 수송체들(vehicles) 또는 건물들인 방법.
  12. 제8항에 있어서,
    상기 지리-위치 데이터 및 상기 시간 태그들을 사용하여 인덱스를 생성하는 단계; 및
    상기 지리-위치 데이터 또는 상기 시간 태그들에 기초하여 상기 인덱스를 검색하는 단계를 포함하며,
    상기 출력된 변경된 비디오 프레임들은 상기 지리-위치 데이터 또는 상기 시간 태그들에 대하여 검색된 결과(searched)와 연관된 비디오 프레임들인 방법.
  13. 제1항에 있어서, 상기 비디오 프레임들의 스트림은 제1 항공체에 의해 캡쳐되고, 상기 지리-위치 데이터는 제2 항공체에 의해 결정되는 방법.
  14. 제13항에 있어서, 상기 지리-위치 데이터의 상기 결정은,
    특정 비디오 프레임 내의 장면과 상기 제2 항공체 간의 거리를 결정하는 단계; 및
    상기 제2 항공체의 방위(azimuth), 고도(elevation), 방향(orientation), 및 위치(position)를 결정하는 단계를 포함하며,
    상기 거리, 방위, 고도, 방향, 및 위치와 함께 지구 위치측정 위성(Global Positioning Satellite; GPS) 신호들이 상기 지리-위치 데이터를 결정하기 위해 이용되는 방법.
  15. 제1항에 있어서, 상기 지리-위치 데이터는 상기 비디오 프레임의 가시 부분(visible portion) 내로 삽입되는 방법.
  16. 제1항에 있어서, 상기 지리-위치 데이터는 상기 비디오 프레임의 비가시 부분(non-visible portion) 내로 삽입되는 방법.
  17. 제1항에 있어서, 상기 지리-위치 데이터는, 항공체의 실제 관성 공간 위치(true inertial space position)를 기준(reference)으로 사용하고, 상기 비디오 프레임 내의 관심 타겟(target of interest)까지의 거리(range)와 조합된 짐벌/센서 방위 및 고도 각들(gimbals/sensor azimuth and elevation angles)을 사용함으로써 결정되는 방법.
  18. 제1항에 있어서, 상기 지리-위치 데이터는, 상이한 항공체 위치들 및 측면각들(aspect angles)로부터 비디오 프레임들을 형성하도록 짐벌 스캐닝(gimbal scanning)에 의해 결정되는 방법.
  19. 제1항에 있어서, 표시된 지형 지도(displayed terrain map) 내의 적절한 지리-위치 내에 상기 변경된 비디오 프레임 및 임의의 관심 타겟들이 위치하도록, 상기 변경된 비디오 프레임이 관심 영역의 컴퓨터 생성 지형 지도(computer generated terrain map) 상에 출력되는 방법.
  20. 비디오 프레임들의 스트림을 수신하는 안테나;
    변경된 비디오 프레임을 생성하도록 비디오 프레임 내로 지리-위치 데이터를 삽입하는 프로세서; 및
    상기 변경된 비디오 프레임을 출력하기 위한 출력 장치(output)
    를 포함하는 시스템.
  21. 제20항에 있어서, 상기 안테나는 선형 테이퍼 안테나(linear taper antenna)인 시스템.
  22. 제21항에 있어서, 상기 안테나는 레이더 신호들을 송신 및 수신하도록 배치되는 시스템.
  23. 제20항에 있어서, 상기 변경된 비디오 프레임을 송신하기 위한, 상기 출력 장치에 접속된 송신기를 포함하는 시스템.
  24. 제20항에 있어서, 상기 비디오 프레임들을 연관된 지리-위치 데이터와 함께 저장하기 위한 메모리를 포함하는 시스템.
  25. 제24항에 있어서, 상기 프로세서는 상기 지리-위치 데이터를 인덱싱하고(index), 검색 입력에 기초하여 상기 지리-위치 데이터를 검색하며, 상기 출력된 변경된 비디오 프레임은 상기 검색 입력에 대응하는 비디오 프레임인 시스템.
  26. 제24항에 있어서, 상기 메모리는 또한 각각의 상기 비디오 프레임과 연관된 센서 데이터 및 시간 태그들을 저장하며, 상기 프로세서는 상기 지리-위치 데이터를 인덱싱하고, 검색 입력에 기초하여 상기 지리-위치 데이터, 상기 시간 태그들, 및/또는 상기 센서 데이터를 검색하며, 상기 출력된 변경된 비디오 프레임은 상기 검색 입력에 대응하는 비디오 프레임인 시스템.
  27. 적어도 하나의 센서를 포함하는 제1 항공기(aircraft);
    적어도 하나의 센서를 포함하는 제2 항공기;
    통신국(communication station); 및
    상기 제1 항공기, 상기 제2 항공기, 및 상기 통신국 각각에 있는 노드를 갖는 데이터 링크
    를 포함하며,
    상기 데이터 링크는 상기 제1 항공기로부터, 상기 제2 항공기 상의 상기 노드로 데이터를 운송하고,
    상기 데이터 링크는 상기 제1 및 제2 항공기 중 적어도 하나에 의해 생성된 데이터를 저장하도록 배치된 데이터 저장 장치(data storage)를 포함하며, 상기 데이터 저장 장치는 상기 제2 항공기 상에 위치하고,
    상기 데이터 링크는, 상기 통신국으로부터 수신된 명령문(instruction)에 기초하여 상기 데이터 저장 장치 내에 저장된 데이터를 처리하고 송신하도록 배치된, 상기 제2 항공기 상의 검색 엔진을 포함하며,
    상기 데이터는 이미지들(imagery), 상기 이미지들과 연관된 지리-위치 데이터, 및 상기 이미지들과 연관된 시간 태그들을 포함하는,
    시스템.
  28. 제27항에 있어서,
    상기 명령문은 검색 기준(search criteria), 및 상기 데이터를 검색하여 상기 검색 기준을 충족하는 상기 데이터의 부분들을 상기 통신국으로 송신하라는 요 구(request)를 포함하며,
    상기 통신국에 있는 상기 데이터 링크는 상기 명령문 및 상기 송신된 데이터를 표시하도록 배치된 그래픽 사용자 인터페이스(graphical user interface)를 포함하는 시스템.
  29. 제28항에 있어서, 상기 데이터의 상기 부분은 비-실시간(non-real time)으로 상기 통신국으로 송신되는 시스템.
  30. 제27항에 있어서, 상기 이미지들은 상기 제1 및 제2 항공기 센서들 중 적어도 하나로부터의 출력들을 포함하는 시스템.
  31. 제27항에 있어서, 상기 제1 항공기로부터의 데이터는 실시간으로 상기 데이터 링크를 통해 상기 통신국으로 송신되는 시스템.
  32. 제27항에 있어서, 통신국은 행성의 표면(planetary surface)에 기초가 이루어진 시스템.
  33. 제27항에 있어서, 상기 데이터 링크는, 상기 이미지들의 상이한 이미지 프레임들로부터의 데이터를 통합함으로써 상기 지리-위치 데이터를 향상시키도록 배치된 적어도 하나의 프로세서를 포함하는 시스템.
  34. 제33항에 있어서, 상이한 프레임들로부터의 데이터에 대한 상기 통합은 공간적으로 인접한 이미지 프레임들을 서로 스티칭(stitching)하는 것을 포함하는 시스템.
  35. 제33항에 있어서, 상기 프로세서는 상기 제1 및 제2 항공기 상의 상이한 센서들의 출력들을 통합함으로써 상기 지리-위치 데이터 및/또는 상기 이미지들을 항상시키도록 배치되는 시스템.
  36. 제35항에 있어서, 상기 센서 출력들은, 무기 발사 데이터(weapon firing data), 수동적으로 검출된 무선 주파수 송신들(passively detected radio frequency transmissions), 및 레이더 감지 데이터(radar sensing data) 중 하나 이상을 포함하는 시스템.
  37. 제27항에 있어서, 상기 데이터 링크는, 상기 제1 및 제2 항공기 중 적어도 하나 상의 상기 적어도 하나의 센서에 의한 데이터 캡쳐를 제어하는 사용자 제어 입력들에 기초하여 상기 데이터에 대한 압축 모드들을 선택하도록 배치되는 적어도 하나의 프로세서를 포함하는 시스템.
  38. 제37항에 있어서, 상기 선택된 압축 모드를 사용하는 상기 캡쳐된 데이터의 압축은, 상기 제1 및 제2 항공기 중 하나로부터의 상기 캡쳐된 데이터의 송신 전에 수행되는 시스템.
  39. 제37항에 있어서, 상기 선택된 압축 모드를 사용하는 상기 캡쳐된 데이터의 압축은, 상기 데이터 저장 장치 내로의 상기 캡쳐된 데이터의 저장 이전에 수행되는 시스템.
  40. 제37항에 있어서, 상기 적어도 하나의 센서에 의한 데이터 캡쳐를 제어하는 상기 사용자 제어 입력들이, 제1 임계치(first threshold value)를 초과하는, 시퀀스 이미지들 간의 이미지 변화(image variance)에 대응하는 때에 저 지연시간 압축 모드(low latency compression mode)가 선택되는 시스템.
  41. 제37항에 있어서, 상기 적어도 하나의 센서에 의한 데이터 캡쳐를 제어하는 상기 사용자 제어 입력들이, 제2 임계치보다 작은, 시퀀스 이미지들 간의 이미지 변화에 대응하는 때에 고품질 압축 모드(high quality compression mode)가 선택되는 시스템.
  42. 제41항에 있어서, 상기 제1 및 제2 임계치들은 동일한 시스템.
  43. 제27항에 있어서, 상기 제2 항공기 상의 상기 데이터 링크 노드는, 상기 데 이터 링크 상의 다른 노드들과 데이터를 교환하며 레이더 신호들을 송신, 수신, 및 처리하도록 구성된 송수신기를 포함하는 시스템.
KR1020057020198A 2003-04-25 2004-04-26 주문형 비디오를 위한 방법 및 장치 KR20060017759A (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US46522703P 2003-04-25 2003-04-25
US60/465,227 2003-04-25
US10/830,222 US7911497B2 (en) 2003-04-25 2004-04-23 Method and apparatus for video on demand
US10/830,222 2004-04-23

Publications (1)

Publication Number Publication Date
KR20060017759A true KR20060017759A (ko) 2006-02-27

Family

ID=34083046

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020057020198A KR20060017759A (ko) 2003-04-25 2004-04-26 주문형 비디오를 위한 방법 및 장치

Country Status (6)

Country Link
US (1) US7911497B2 (ko)
EP (1) EP1618738A4 (ko)
JP (1) JP4763610B2 (ko)
KR (1) KR20060017759A (ko)
AU (1) AU2004301360B2 (ko)
WO (1) WO2005009022A2 (ko)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7091930B2 (en) * 2003-08-02 2006-08-15 Litton Systems, Inc. Centerline mounted sensor fusion device
US7668403B2 (en) * 2005-06-28 2010-02-23 Lockheed Martin Corporation Frame grabber
JP2009508238A (ja) * 2005-09-17 2009-02-26 テレズィゴロジー インク. 位置感知文書
US10488860B1 (en) * 2006-02-21 2019-11-26 Automodality, Inc. Geocoding data for an automated vehicle
US7813888B2 (en) * 2006-07-24 2010-10-12 The Boeing Company Autonomous vehicle rapid development testbed systems and methods
US20090112387A1 (en) * 2007-10-30 2009-04-30 Kabalkin Darin G Unmanned Vehicle Control Station
US8676001B2 (en) * 2008-05-12 2014-03-18 Google Inc. Automatic discovery of popular landmarks
EP2353122A4 (en) 2008-11-12 2013-05-29 Level 3 Communications Llc USER AUTHENTICATION IN A CONTENT BROADCAST NETWORK
US20100228418A1 (en) * 2009-03-04 2010-09-09 Honeywell International Inc. System and methods for displaying video with improved spatial awareness
US20100259614A1 (en) * 2009-04-14 2010-10-14 Honeywell International Inc. Delay Compensated Feature Target System
US8396287B2 (en) 2009-05-15 2013-03-12 Google Inc. Landmarks from digital photo collections
US8869203B2 (en) * 2009-10-08 2014-10-21 Marshall Communications Multimedia content fusion
US9317598B2 (en) 2010-09-08 2016-04-19 Nokia Technologies Oy Method and apparatus for generating a compilation of media items
KR101852818B1 (ko) * 2011-04-29 2018-06-07 엘지전자 주식회사 디지털 수신기 및 디지털 수신기의 제어 방법
US8749580B1 (en) * 2011-08-12 2014-06-10 Google Inc. System and method of texturing a 3D model from video
US9197926B2 (en) 2013-06-05 2015-11-24 International Business Machines Corporation Location based determination of related content
ES2680938T3 (es) * 2013-07-04 2018-09-11 Bae Systems Plc Recepción y transmisión de señales de radiofrecuencia
EP2879012A1 (en) * 2013-11-29 2015-06-03 The Boeing Company System and method for commanding a payload of an aircraft
CN103822615B (zh) * 2014-02-25 2016-01-20 北京航空航天大学 一种多控制点自动提取与聚合的无人机地面目标实时定位方法
CN104363041B (zh) * 2014-11-26 2017-12-05 成都中远信电子科技有限公司 一种用于无人机遥测、遥控和数传系统及其方法
CN104501779A (zh) * 2015-01-09 2015-04-08 中国人民解放军63961部队 基于多站测量的无人机高精度目标定位方法
DK3274660T3 (da) 2015-03-25 2021-08-23 Aerovironment Inc Maskine-til-maskine-målsøgningsopretholdelse af positiv identifikation
IL238318B (en) 2015-04-16 2020-09-30 Israel Aerospace Ind Ltd Aircraft control interface without a pilot
US10147000B2 (en) 2015-09-15 2018-12-04 Sikorsky Aircraft Corporation Manned unmanned teaming (MUM-T) system to transform image data based on geographic orientation
GB2544089B (en) 2015-11-06 2020-02-12 Veracity Uk Ltd Network switch
US11947354B2 (en) * 2016-06-07 2024-04-02 FarmX Inc. Geocoding data for an automated vehicle
IT201600101219A1 (it) * 2016-11-03 2018-05-03 Srsd Srl Sistema di trasmissione dati/video da stazione di terra fissa o mobile per sistema mobile terrestre o navale a comando e controllo remoto con ponte di collegamento su drone
CN106878651B (zh) * 2016-12-31 2020-10-27 歌尔科技有限公司 一种基于无人机的三维视频通信方法、通信设备和无人机
US10769466B2 (en) * 2018-02-20 2020-09-08 International Business Machines Corporation Precision aware drone-based object mapping based on spatial pattern recognition
CN111382774A (zh) * 2018-12-31 2020-07-07 华为技术有限公司 一种数据处理方法及装置
GB2583728B (en) * 2019-05-06 2021-06-16 Wildgate Consultancy Solutions Ltd An imaging system for superimposing at least two images and a related method
US20220222851A1 (en) * 2019-06-05 2022-07-14 Sony Group Corporation Moving body, position estimation method, and program
IL267211A (en) 2019-06-10 2019-08-29 Elbit Systems Ltd System and method for video display
CN112565693B (zh) * 2020-11-30 2023-05-16 广东荣文科技集团有限公司 监控视频点播方法、系统及设备
US20230316754A1 (en) * 2022-03-31 2023-10-05 Bae Systems Information And Electronic Systems Integration Inc. System and method for content based video organization, prioritization, and retrieval
US11893464B1 (en) * 2023-03-16 2024-02-06 edYou Apparatus and methods for training an educational machine-learning model

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4782346A (en) * 1986-03-11 1988-11-01 General Electric Company Finline antennas
US5508736A (en) 1993-05-14 1996-04-16 Cooper; Roger D. Video signal processing apparatus for producing a composite signal for simultaneous display of data and video information
US6195122B1 (en) 1995-01-31 2001-02-27 Robert Vincent Spatial referenced photography
JP3658659B2 (ja) * 1995-11-15 2005-06-08 カシオ計算機株式会社 画像処理装置
US5883586A (en) 1996-07-25 1999-03-16 Honeywell Inc. Embedded mission avionics data link system
US5890079A (en) * 1996-12-17 1999-03-30 Levine; Seymour Remote aircraft flight recorder and advisory system
US6056237A (en) 1997-06-25 2000-05-02 Woodland; Richard L. K. Sonotube compatible unmanned aerial vehicle and system
US6360234B2 (en) * 1997-08-14 2002-03-19 Virage, Inc. Video cataloger system with synchronized encoders
US6504571B1 (en) 1998-05-18 2003-01-07 International Business Machines Corporation System and methods for querying digital image archives using recorded parameters
US6130705A (en) 1998-07-10 2000-10-10 Recon/Optical, Inc. Autonomous electro-optical framing camera system with constant ground resolution, unmanned airborne vehicle therefor, and methods of use
DE19849857C2 (de) 1998-10-29 2003-08-21 Eads Deutschland Gmbh Fernlenkverfahren für ein unbemanntes Luftfahrzeug
JP3537689B2 (ja) 1998-11-30 2004-06-14 三菱電機株式会社 危機管理システム
JP2001188800A (ja) * 1999-12-27 2001-07-10 Tadashi Kawakami 地上写真画像情報提供システム。
US6898492B2 (en) * 2000-03-15 2005-05-24 De Leon Hilary Laing Self-contained flight data recorder with wireless data retrieval
US6288686B1 (en) * 2000-06-23 2001-09-11 The United States Of America As Represented By The Secretary Of The Navy Tapered direct fed quadrifilar helix antenna
US7035585B2 (en) 2000-12-11 2006-04-25 Lockheed Martin Corporation System and method for interfacing satellite communications with aircraft
US7061510B2 (en) * 2001-03-05 2006-06-13 Digimarc Corporation Geo-referencing of aerial imagery using embedded image identifiers and cross-referenced data sets
US6664976B2 (en) * 2001-04-18 2003-12-16 Digimarc Corporation Image management system and methods using digital watermarks
US6840480B2 (en) 2001-09-27 2005-01-11 Ernest A. Carroll Miniature, unmanned aircraft with interchangeable data module
US7096428B2 (en) * 2001-09-28 2006-08-22 Fuji Xerox Co., Ltd. Systems and methods for providing a spatially indexed panoramic video
US7027612B2 (en) * 2001-10-05 2006-04-11 Digimarc Corporation Marking physical objects and related systems and methods
US20030152145A1 (en) * 2001-11-15 2003-08-14 Kevin Kawakita Crash prevention recorder (CPR)/video-flight data recorder (V-FDR)/cockpit-cabin voice recorder for light aircraft with an add-on option for large commercial jets
US7091851B2 (en) * 2002-07-02 2006-08-15 Tri-Sentinel, Inc. Geolocation system-enabled speaker-microphone accessory for radio communication devices

Also Published As

Publication number Publication date
EP1618738A2 (en) 2006-01-25
US20050021202A1 (en) 2005-01-27
WO2005009022A9 (en) 2005-03-24
US7911497B2 (en) 2011-03-22
WO2005009022A2 (en) 2005-01-27
JP4763610B2 (ja) 2011-08-31
AU2004301360A1 (en) 2005-01-27
EP1618738A4 (en) 2008-05-28
JP2007515847A (ja) 2007-06-14
AU2004301360B2 (en) 2010-04-22
WO2005009022A3 (en) 2006-05-11

Similar Documents

Publication Publication Date Title
US7911497B2 (en) Method and apparatus for video on demand
CN109460066B (zh) 用于航空器的虚拟现实系统
CN109425265B (zh) 飞行器成像与瞄准系统
US5310134A (en) Tethered vehicle positioning system
CA2928840C (en) Interactive weapon targeting system displaying remote sensed image of target area
US8855846B2 (en) System and method for onboard vision processing
KR100954500B1 (ko) 무인항공기 통제 시스템
US20080158256A1 (en) Method and system for providing a perspective view image by intelligent fusion of a plurality of sensor data
CN110579741A (zh) 使用飞行器反射雷达的系统和方法
US10557718B2 (en) Auxiliary control method and system for unmanned aerial vehicle
US8610776B2 (en) System for target designation and/or illumination and for air reconnaissance
KR101547927B1 (ko) 정찰 영상 공유 시스템
Kostrzewa et al. Infrared microsensor payload for miniature unmanned aerial vehicles
KR102181809B1 (ko) 시설물 점검 장치 및 방법
Vigliotti Demonstration of submarine control of an unmanned aerial vehicle
RU2791341C1 (ru) Способ управления вооружением многофункциональных самолетов тактического назначения и система для его осуществления
KR102268551B1 (ko) 추적 알고리즘을 이용하는 통신 시스템
Bakırcı et al. Avionics System Development for a Rotary Wing Unmanned Combat Aerial Vehicle
Bakirci et al. Avionics System Development for a Rotary Wing Unmanned Combat Aerial Vehicle
Hansen et al. ARGUS: real-time UAV imaging system
Marquet et al. Sensor systems for the digital battlefield
Mate et al. Onboard Processing for Improvement of Payloads Performance on LTA Platform
Lanzagorta et al. Remote battlefield observer technology (REBOT)
Daniel et al. Autonomous collection of dynamically-cued multi-sensor imagery
CN117890310A (zh) 一种基于多传感器及高光谱成像仪的多模式低空遥感观测系统

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid