KR20210133972A - 타겟을 여러 다른 디바이스에서 동시에 추적할 수 있도록 네트워크로 연결된 스코프가 있는 차량 탑재 장치 - Google Patents

타겟을 여러 다른 디바이스에서 동시에 추적할 수 있도록 네트워크로 연결된 스코프가 있는 차량 탑재 장치 Download PDF

Info

Publication number
KR20210133972A
KR20210133972A KR1020217028143A KR20217028143A KR20210133972A KR 20210133972 A KR20210133972 A KR 20210133972A KR 1020217028143 A KR1020217028143 A KR 1020217028143A KR 20217028143 A KR20217028143 A KR 20217028143A KR 20210133972 A KR20210133972 A KR 20210133972A
Authority
KR
South Korea
Prior art keywords
scope
target
target position
current target
estimated
Prior art date
Application number
KR1020217028143A
Other languages
English (en)
Inventor
더글라스 퍼그니스
로버트 에이 프레스만
래리 엘. 데이
테일러 제이. 카펜터
마크 제이. 하웰
Original Assignee
더글라스 퍼그니스
로버트 에이 프레스만
래리 엘. 데이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/272,733 external-priority patent/US10408573B1/en
Application filed by 더글라스 퍼그니스, 로버트 에이 프레스만, 래리 엘. 데이 filed Critical 더글라스 퍼그니스
Publication of KR20210133972A publication Critical patent/KR20210133972A/ko

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/02Aiming or laying means using an independent line of sight
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G1/00Sighting devices
    • F41G1/38Telescopic sights specially adapted for smallarms or ordnance; Supports or mountings therefor
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/04Aiming or laying means for dispersing fire from a battery ; for controlling spread of shots; for coordinating fire from spaced weapons
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/06Aiming or laying means with rangefinder
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/145Indirect aiming means using a target illuminator
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/16Sighting devices adapted for indirect laying of fire
    • F41G3/165Sighting devices adapted for indirect laying of fire using a TV-monitor
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G9/00Systems for controlling missiles or projectiles, not provided for elsewhere
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41HARMOUR; ARMOURED TURRETS; ARMOURED OR ARMED VEHICLES; MEANS OF ATTACK OR DEFENCE, e.g. CAMOUFLAGE, IN GENERAL
    • F41H7/00Armoured or armed vehicles
    • F41H7/005Unmanned ground vehicles, i.e. robotic, remote controlled or autonomous, mobile platforms carrying equipment for performing a military or police role, e.g. weapon systems or reconnaissance sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/49Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an inertial position system, e.g. loosely-coupled
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/53Determining attitude
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/0009Transmission of position information to remote stations
    • G01S5/0018Transmission from mobile station to base station
    • G01S5/0027Transmission from mobile station to base station of actual mobile position, i.e. position determined on mobile
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/0009Transmission of position information to remote stations
    • G01S5/0045Transmission from base station to mobile station
    • G01S5/0054Transmission from base station to mobile station of actual mobile position, i.e. position calculation on base station

Abstract

하나 이상의 리드 스코프 및 하나 이상의 팔로워 스코프를 포함하는 스코프의 네트워크는, 각각의 스코프가 동일한 추정 타겟을 추적할 수 있도록 제공된다. 리드 스코프는 타겟을 찾고 추정 타겟의 타겟 위치 데이터를 팔로워 스코프에게 전달한다. 팔로워 스코프는 목표 위치 데이터와 자체 위치 데이터를 사용하여 인디케이터를 전자적으로 생성하여, 팔로워 스코프가 위치를 이동하여 현재의 타겟 위치에서 리드 스코프로부터 수신된 타겟 위치 데이터에 의해 정의된 타겟 위치로 이동하기 위해 팔로워 스코프의 위치를 재배치하는데 사용한다. 적어도 제2스코프는 제2스코프가 타겟을 더 잘 확인할 수 있는 새로운 위치로 이동하기 위해 타겟 위치 데이터를 사용하는 차량에 장착되거나 차량에 통합된다.

Description

타겟을 여러 다른 디바이스에서 동시에 추적할 수 있도록 네트워크로 연결된 스코프가 있는 차량 탑재 장치
본 출원은 복수의 디바이스에서 타겟을 동시에 추적할 수 있도록 네트워크에 연결된 스코프가 있는 디바이스에 관한 것이다.
본 출원은 미국 특허 출원 번호 제16/057,247호(출원일: 2018년 8월 7일)의 일부 계속출원인 미국 출원 특허 제16/272,733호(출원일: 2019년 2월 11일)로서, 2019년 9월 10일에 발행된 미국 등록 특허 제10,408,573호에 대한 우선권을 주장하며, 그 개시 내용은 그 전체가 참조로 여기에 통합된다.
또한, 본 출원은 2017년 8월 11일에 출원된 미국 특허 출원 번호 제62/544,124호의 우선권의 이익을 주장하며, 그 개시 내용은 그 전체가 여기에 참조로 포함된다.
"스코프"라고도 하는 이미지를 확대하거나 확대하지 않고 단순히 빛을 통과하기 위해 렌즈를 통합한 시력 또는 광학 뷰어는 광학 굴절 망원경 또는 다른 광학적 시각 디바이스를 기반으로 하는 시력 디바이스다. 정확한 조준점을 제공하기 위해 광학 시스템에서 광학적으로 적절한 위치에 장착된 그래픽 이미지 패턴(레티클 또는 십자선)의 일부 형태를 포함한다. 망원 조준기는 정확한 조준이 필요하지만 총기, 특히 소총에서 가장 일반적으로 발견되는 모든 유형의 시스템에 사용된다. 망원 조준기에는 관찰자의 조준 디바이스에서 타겟까지의 거리를 측정하는 통합 거리계 (일반적으로 레이저 거리계)가 포함될 수 있다.
나침반은 탐색 및 방향에 사용되는 도구로서 지리적인 "기본 방위" 또는 "점"과 관련된 방향을 보여준다. “방위표시판”다이어그램은 북쪽, 남쪽, 동쪽 및 서쪽 방향을 나침반에 표시된 약자로 표시한다. 나침반을 사용하면 표시판을 해당 지리적 방향에 맞출 수 있다. 예를 들어 표시판의 "N"표시는 실제로 북쪽을 가리킨다. 표시판뿐만 아니라 때로는 표시판 대신 각도 표시가 나침반에 표시될 수 있다. 북쪽은 0도에 해당하고 시계 방향으로 각도가 증가하므로 동쪽은 90도, 남쪽은 180, 서쪽은 270이다. 이 숫자를 사용하여 나침반에 방위각 또는 방위가 이 표기법에 일반적으로 표시되다.
GPS 데이터는 일반적으로 3 차원 위치 (위도, 경도 및 고도(경사))를 제공한다. 예를 들어, 필라델피아에서 GPS의 샘플 위치는 다음과 같다:
위도: 39.90130859
경도: -75.15197754
해수면에 대한 고도(경사): 5m
GPS 위치 데이터를 제공하기 위한 GPS 수신기 및 자세 데이터를 제공하기 위한 방향 센서를 포함하는 소형 GPS 디바이스가 공지되어 있다. 방위 센서는 가속도계 및 지자기장 센서, 또는 센서의 다른 조합으로부터 데이터를 도출 할 수 있다. 본 발명에 사용하기에 적합한 소형화 된 GPS 디바이스 중 하나는 유타 세일럼에 위치한 Inertial Sense, LLC로부터 상업적으로 입수 가능한 디바이스다. 이 디바이스는 "μINS"및 "μINS-2"로 출시되어 있다. "INS"는 "관성 항법 시스템"의 산업 약자이다. μINS 및 μINS-2는 GPS 지원 관성 항법 시스템(GPS / INS)이다. GPS / INS는 GPS 위성 신호를 사용하여 관성 항법 시스템(INS)의 솔루션을 수정하거나 교정한다.
본 발명에 사용하기에 적합한 공지의 다른 소형 GPS / INS는 텍사스 달라스에 위치한 VectorNav Technologies, LLC로부터 상업적으로 입수 할 수 있는 디바이스다. 이 디바이스는 "VN-300"으로 출시되고 있으며 이중 안테나 GPS / INS이다. VN-300의 듀얼 안테나 기능을 통해 정확한 나침반 데이터를 제공 할 수 있다.
네트워크 기술은 당 업계에 잘 알려져 있다. 네트워크의 각 디바이스는 종종 노드라고하며 노드는 허브, 스포크 및 메쉬를 포함한 다양한 네트워크 토폴로지를 사용하여 네트워크로 구성 될 수 있다. 셀룰러 기반 통신 시스템에서, 노드는 하나 이상의 기지국을 통해 통신하며, 이는 차례로 이동 교환 센터(MSC)에 직접 또는 간접적으로 연결된다. MSC는 셀룰러 네트워크의 노드가 다른 기반 스테이션에 연결된 다른 노드와 통신 할 수 있도록 하는 산업 표준에 따라 상호 연결된다. GSM, LTE 및 CDMA와 같은 수많은 셀룰러 표준이 있으며, 셀룰러 네트워크의 공통 기능은 노드가 인터넷에 연결할 수 있게 하는 기능이다.
광대역 위성 통신 시스템은 별자리에 구성된 하나 이상의 통신 위성을 사용한다. Globalstar, Iridium 및 Inmarsat에서 운영하는 시스템을 포함하여 수많은 상용 위성 시스템이 있다. 셀룰러와 마찬가지로 광대역 위성 통신 시스템을 사용하면 노드를 인터넷에 연결할 수 있다. 셀룰러 용어로, 별자리의 각 위성은 기지국의 역할을 하며 시스템의 노드는 범위에 있는 위성에 연결된다. 위성 시스템의 장점 중 하나는 원격 지역에서 적용 범위가 더 우수하다는 것이다.
무선근거리 통신망(WLAN, Wireless Local Area Network) 기술을 통해 노드는 네트워크를 설정할 수 있다. 802.11a, b, g, n및 802.11s를 포함한 일반적인 WLAN 표준은 WIFI 기반 메쉬 네트워킹 표준이다. Bluetooth®는 네트워크에서 노드를 연결하는 또 다른 표준이며 최근 Bluetooth Special Interest Group에 의해 메쉬 네트워킹 기능이 Bluetooth LE 표준에 추가되었다. 따라서, 다양한 표준을 통해, 포인트 투 포인트, 포인트 투 멀티 포인트 및 메쉬 WLAN을 구현할 수 있으며, 이들 모두는 본 발명에 사용하기에 적합하다.
메쉬 네트워크 토폴로지는 모바일 디바이스, 특히 각 노드가 여러 개의 다른 노드에 연결될 수 있고 네트워크의 노드에서 다른 노드로의 필수 경로가 없기 때문에 셀룰러 서비스가 제한된 원격 영역에서 중요한 이점을 제공한다. 메쉬 네트워크의 다른 장점은 메쉬 네트워크의 임의의 하나의 노드가 셀룰러 또는 위성 연결을 통해 인터넷에 액세스 할 수 있는 한, 메쉬 네트워크의 모든 노드가 액세스 할 수 있다는 것이다.
본 발명에 사용하기에 적합한 대표적인 무선 메쉬 네트워킹 칩셋은 RC17xx(HP)TM(TinymeshTM RF 트랜시버 모듈)이며, 노르웨이에 위치한 Radiocrafts AS 및 Tinymesh로부터 시판되고 있다. 칩셋은 메쉬 네트워크 생성을 위해 Tinymesh 응용 프로그램을 통합한다. 본 발명에 대한 이상적인 메쉬 네트워크 칩셋은 작고, 고출력 및 장거리를 가지며, 비허가 스펙트럼에서 동작해야 한다.
일실시예에 따르면, 하나 이상의 리드 스코프 및 하나 이상의 팔로워 스코프를 포함하는 스코프 네트워크가 제공되어, 각 스코프의 스코프 오퍼레이터가 동일한 추정 타겟을 추적할 수 있도록 한다. 리드 스코프는 타겟을 찾아 추정된 타겟의 타겟 위치 데이터를 팔로워 스코프에게 전달한다. 팔로워 스코프는 타겟 위치 데이터 및 자체 위치 데이터를 사용하여 팔로워 스코프의 오퍼레이터에게 위치 이동을 촉구하며, 팔로워 스코프를 현재 타겟 위치에서 리드 스코프로부터 수신한 타겟 위치 데이터에 의해 정의된 타겟위치로 이동하도록 위치를 재지정하는데 사용할 인디케이터를 전자적으로 생성한다.
다른 바람직한 실시예에서, 하나 이상의 리드 스코프 및 하나 이상의 팔로워 스코프를 포함하는 스코프의 네트워크는, 각각의 스코프가 동일한 추정 타겟을 추적할 수 있도록 제공된다. 리드 스코프는 타겟을 찾고 추정 타겟의 타겟 위치 데이터를 팔로워 스코프에게 전달한다. 팔로워 스코프는 목표 위치 데이터와 자체 위치 데이터를 사용하여 인디케이터를 전자적으로 생성하여, 팔로워 스코프가 위치를 이동하여 현재의 타겟 위치에서 리드 스코프로부터 수신된 타겟 위치 데이터에 의해 정의된 타겟 위치로 이동하기 위해 팔로워 스코프의 위치를 재배치하는데 사용한다. 적어도 제2스코프는 제2스코프가 타겟을 더 잘 확인할 수 있는 새로운 위치로 이동하기 위해 타겟 위치 데이터를 사용하는 차량에 장착되거나 차량에 통합된다.
상기 요약 및 본 발명의 바람직한 실시 예에 대한 다음의 상세한 설명은 첨부 도면과 함께 읽을 때 더 잘 이해 될 것이다. 본 발명을 설명하기 위해, 도면은 현재 바람직한 실시 예를 도시한다. 그러나, 본 발명은 도시된 정확한 배열 및 수단으로 제한되지는 않는다.
도 1a, 1b, 2 및 3은 본 발명의 바람직한 실시 예에 따른 시스템 구성 요소의 개략도이다.
도 4a-4c는 본 발명의 바람직한 실시 예에 따른 광학 시야(sights)이다.
도 5는 본 발명의 바람직한 일 실시 예에 따라 스코프의 디스플레이 상에 디스플레이 될 수 있는 샘플 프리셋 리스트를 도시한다.
도 6 내지 8은 본 발명의 바람직한 실시예에 따른 플로우 차트를 도시한다.
도 9a는 복수의 스코프를 갖는 감시 환경의 개략도이며, 그 중 일부는 차량 기반이다.
도 9b는 도 9a의 감시 환경에서 차량 기반 디바이스를 갖는 차량의 개략도이다.
도 10은 본 발명의 다른 바람직한 실시예에 따른 흐름도이다.
도 11a 내지 도 11d는 본 발명의 바람직한 실시예에 따른 복수의 스코프 및 추정된 타겟을 갖는 감시 환경을 도시한다.
도 12a 및 도 12b는 본 발명의 바람직한 실시예에 따른 스코프 이동을 위한 오퍼레이터 보조 및 완전 자동화 된 실시예의 개략도이다.
본 명세서에서 특정 용어는 편의상 사용되는 것이며 본 발명을 제한하는 것으로 해석되어서는 안된다.
본 발명의 바람직한 실시 예는 동일한 타겟상에 적용하도록 설계된 네트워크에 연결된 스코프를 갖는 디바이스를 제공하는데, 이는 정적이거나 또는 동적인 타겟 일 수 있다. 2 개의 스코프를 포함하는 제 1 실시 예에서, "리드 스코프"는 타겟을 식별하고, 타겟에 관한 위치 데이터를 리드 스코프로부터의 위치 데이터 및 그 자신의 위치 및 방향 데이터를 사용하여 타겟에 적용하는 "팔로워 스코프"로 전달한다. 두 가지 스코프 구성에서 리드 스코프 및 팔로워 스코프는 셀룰러, 위성 또는 하나 이상의 WLAN 기술을 포함하여 사용 가능한 무선 데이터 통신 기술을 통해 통신한다.
복수의 스코프를 포함하는 제 2 실시 예에서, 제 1 스코프는 타겟을 식별하고, 타겟에 관한 위치 데이터를 제 1 스코프로부터의 위치 데이터 및 그 자신의 위치 및 방향 데이터를 사용하여 타겟에 적용하는 복수의 타 스코프로 전달한다. 이 실시 예에서, 추가적인 스코프가 타겟을 탐지할 때, 타겟의 위치 데이터를 타겟으로 식별된 각각의 스코프로부터 누적된 위치 데이터를 합산하여 타겟의 연속적이고 보다 정확한 위치 데이터를 정의하는 네트워크 서버에 타겟에 관한 그들의 위치 데이터를 통신하고(즉, 더 많은 데이터 포인트는 위치의 정확도를 증가시킨다), 타겟을 아직 찾지 못한 스코프로 전달한다. 이전에 타겟의 위치를 보고한 스코프는 타겟 추적을 지원하기 위해 타겟의 최신 위치 데이터를 수신 할 수도 있다. 이 실시 예에서의 스코프는 임의의 이용 가능한 WLAN 기술을 사용하여 연결될 수 있지만, 바람직한 실시 예에서, 메쉬 네트워킹 기술은 복수의 스코프가 서로 통신 할 수 있게하는데 사용된다. 스코프 중 어느 하나가 네트워크 서버의 기능을 수행할 수 있거나, 네트워크 서버의 기능이 스코프 중 하나가 WLAN에 대한 연결을 잃는 경우 중복성을 위해 복수의 스코프 사이에 분배 될 수 있음을 이해해야 한다. 이상적으로, 스코프 중 하나 이상이 인터넷에 연결되어 있고 네트워크의 다른 스코프가 메쉬 네트워크를 통해 연결된 스코프를 통해 인터넷에 액세스 할 수 있다.
타겟은 이동하는 객체 일 수 있으므로, 타겟을 식별한 스코프에 대한 타겟의 위치 데이터는 아직 타겟을 찾지 못한 스코프에 지속적으로 스트리밍 된다. 또는 리드 스코프가 타겟을 지정하는 스위치를 활성화 할 때만 타겟 위치가 전송된다. 시스템의 보다 진보된 버전에서, 타겟이 이동하는 경우, 스코프 및 / 또는 네트워크 서버는 공지된 기술을 이용하여 동일한 방향으로 계속 이동한다고 가정하여 타겟의 미래 위치를 예측할 것이다.
I. 정의
본 발명의 이해를 돕기 위해 다음의 정의가 제공된다.
디바이스 - 디바이스는 스코프가 통합된 개체이다. 이러한 디바이스의 예로는 소총, 총, 쌍안경, 스마트 안경 또는 고글, 헬멧 바이저 및 드론이 있다. 특정 유형의 디바이스는 쌍안경, 망원경 및 관측 범위와 같은 "스코프"이다. 디바이스는 휴대용(handheld)이거나 육상, 공중 또는 수성 차량에 장착 될 수 있다.
타겟 - 타겟은 관심 타겟이다. 사람, 동물 또는 물건 일 수 있으며 움직이지 않거나 움직일 수 있다.
리드 스코프 - 리드 스코프는 타겟을 식별하는 첫 번째 스코프이다. 제 1 실시 예에서, 단 하나의 리드 스코프가 존재한다. 제 2 실시 예에서, 리드 스코프는 타겟을 찾은 제 1 스코프일 뿐이다. 타겟을 식별하는 팔로워 스코프는 본 명세서에서 간단히 "스코프"로 지칭된다. 바람직한 일 실시 예에서, 네트워크 내의 임의의 스코프는 리드 스코프로서 기능 할 수 있다.
팔로워 스코프 - 팔로워 스코프는 리드 스코프가 식별한 것과 동일한 타겟에서 연마(hone)하려고 시도하는 스코프이다. 제 1 실시 예에서, 하나 이상의 팔로워 스코프가 있을 수 있다. 제 2 실시 예에서, 팔로워 스코프는 이전의 스코프 세트(리드 스코프 포함)가 식별한 타겟에 아직 연마되지 않은 모든 스코프를 포함한다. 바람직한 일 실시 예에서, 네트워크의 임의의 스코프는 팔로워 스코프로서 기능 할 수 있다.
II. 상세 기술
아래 설명에서는 각 기기의 스코프가 유사한 기능을 가지고 있으며, 리드 또는 팔로워 스코프로 기능 할 수 있다고 가정한다. 그러나, 대안적인 실시 예에서, 특정 스코프는 리드 또는 팔로어 역할에 전념할 수 있으며, 특정 스코프는 다른 스코프보다 기능이 많거나 적을 수 있다.
스코프가 있는 디바이스에는 다음과 같은 각 측정 디바이스(또는 그와 동등한 디바이스)가 포함된다:
1. GPS / INS 디바이스(디바이스의 위치 데이터 제공) (GPS 수신기, 자이로 스코프 및 가속도계와 같은 둘 이상의 개별 디바이스로 구현 될 수 있음)
2. 거리계(디바이스의 스코프에서 타겟까지의 거리 제공). 바람직한 실시 예에서, 레이저 기술은 거리를 검출하기 위해 거리계에 의해 사용되지만, 광학 거리 측정과 같은 다른 기술도 사용될 수 있다. 광학 거리 측정 시스템의 한 예는 일련의 렌즈와 거울을 사용하여 이중 이미지를 생성하고 거리 표시가 있는 다이얼 또는 다른 컨트롤러를 조정하여 두 이미지를 정렬시킨다.
3. 나침반(스코프의 위치를 기준으로 타겟의 방향(북쪽, 남쪽, 동쪽 및 서쪽)을 제공한다). 나침반은 독립형 디바이스거나 GPS / INS에 통합되어 GPS 나침반을 사용하여 방향을 결정할 수 있다. GPS 나침반에는 종종 두 개의 안테나가 있으며 디바이스가 쌍안경인 경우 한 가지 옵션은 각 배럴에 안테나를 배치하는 것이다. 하나 이상의 접힘 암, 붐, 에어 벌룬 보다 가볍거나 다른 기계적 수단을 사용하여 분리하거나 RF 또는 광학 연결을 통해 두 번째 안테나를 연결하는 등 GPS 나침반에 사용되는 안테나의 분리를 증가시켜 정확도를 높일 수 있다.
4. 방향 센서(고정 레벨 평면에 대한 디바이스의 포인팅 각도를 제공함(예를 들어 직진 포인팅시 0도, 하늘의 조류 또는 평면을 포인팅하면 30도, 또는 아래의 계곡을 포인팅하면 -10도))
5. 고도 센서(선택 사항)(해발 또는 기타 기준점 위의 절대 고도 제공). 이것은 일반적으로 GPS / INS에 의해 결정된 고도의 정확도를 보완하는 기압 센서 일 수 있으며, 특정 경우에는 정확하지 않을 수 있다. 대안적으로, GPS / INS가 네트워크에 연결된 스코프를 통해 지형도에 통합되거나 지형도에 접근할 수 있는 경우 초음파 또는 다른 근접 센서를 사용하여 지면까지의 거리를 결정할 수 있다. 예를 들어 GPS 위치가 해발 500 피트인 지형도의 위치에 해당하고, 근접 센서가 스코프에서 지면까지의 거리가 5 피트라고 판단하면 스코프에 의하여 505 피트의 정확한 고도를 알 수 있다.
이들 측정 디바이스로부터의 데이터는 GPS 좌표 등으로 표현 될 수 있는 타겟의 위치를 계산하는데 사용된다.
아래에서 상세히 논의되는 바와 같이, 상기 식별된 각각의 측정 디바이스에 대해, 다양한 정도의 정확도 및 예상되는 오류 범위가 존재한다. 측정 디바이스와 관련된 기술이 향상됨에 따라 보다 정확한 측정 디바이스를 사용하여 스코프의 작동을 개선하고 보다 정확한 위치 예측을 제공 할 수 있다.
A. 제1실시예를 위한 예시적 단계
1. 리드 스코프를 포함하는 디바이스의 오퍼레이터는 추정 타겟을 식별한다.
2. 디바이스의 오퍼레이터가 십자선 또는 기타 타겟 표시를 타겟의 중심에 놓거나 터치 패드 또는 눈 추적 센서와 같은 포인팅 디바이스를 사용하여 십자선을 타겟의 중심으로 이동시킨다. .
3. 오퍼레이터가 선택적으로 버튼을 눌러 타겟을 지정한다.
4. 십자선의 위치에 따라 연속적으로 작동하지 않으면 거리계가 활성화되고 측정 디바이스의 데이터가 메모리에 저장된다.
5. 리드 스코프는 저장된 방향 및 범위 측정 데이터를 기반으로 타겟의 로컬 AER(방위, 고도, 범위) 위치를 계산한다. 그런 다음 저장된 위치 측정 데이터를 사용하여 로컬 AER 위치를 전역 위치로 변환하여 계산한다. 바람직한 실시 예에서, 전체 위치는 GPS 좌표로 지정된다. 경우에 따라 타겟 위치와 관련된 정확도 또는 추정 오차가 리드 스코프에 의해 결정된다. 동일한 결과를 얻는 대안적인 구현은 팔로워 스코프 또는 네트워크 서버와 같은 네트워크에 연결된 다른 디바이스에 대한 위치 데이터와 달리 저장된 측정 데이터의 무선 전송을 포함한다. 이 대안적인 실시 예에서, 팔로워 스코프 또는 네트워크 서버는 측정 데이터로부터 타겟 위치 및 경우에 따라 추정된 오차 또는 정확도를 계산한다. 결정된 위치 데이터 및 에러 또는 정확도 데이터 (수집 또는 결정된 경우) 또는 측정 데이터는 팔로워 스코프로 전송된다. 상기 동작을 통해, 하나 이상의 팔로워 스코프는 무선으로 위치 데이터를 수신하거나 리드 스코프에 의해 전송되어 수신한 측정 데이터로부터 위치 데이터를 계산할 것이다.
6. 시스템이 네트워크 서버를 포함하고 네트워크 서버가 리드 스코프에 의해 전송된 측정 디바이스로부터 로우 데이터를 수신하면, 타겟 위치를 계산하고 데이터를 저장한다. 네트워크 서버는 계산된 타겟 위치를 받으면, 이 데이터를 저장하고 다른 스코프에게 전달한다. 시스템은 네트워크 서버없이 동작될 수 있고, 네트워크 서버에 의해 수행되는 것으로 기술된 특징은 네트워크의 임의의 스코프 또는 디바이스에 의해 또는 인터넷을 통하여 스코프에 연결된 원격 네트워크 서버에 의하여 수행될 수 있음을 이해해야 한다.
7. 다른 디바이스의 팔로워 스코프는 리드 스코프 또는 네트워크 서버로부터 리드 스코프에 의해 계산 된 타겟 위치를 무선으로 수신한다.
8. 팔로워 스코프를 포함하는 디바이스는 또한 동일한 측정 디바이스 세트 (또는 그와 동등한 것)를 포함한다. 팔로워 스코프는 자체 위치 데이터와 타겟 위치를 사용하여 팔로워 스코프가 리드 스코프와 동일한 타겟 위치를 가리 키도록 조준하도록 위치와 자세를 계산한다. 대안적으로, 팔로워 스코프는 감소된 측정 디바이스 세트를 포함하고 제한된 기능으로 동작 할 수 있다. 예를 들어 거리계가 팔로워 스코프에 포함되어 있지 않으면 리드 스코프로서 기능이 제한된다.
9. 시각적 (안내)인디케이터는 팔로워 스코프의 디바이스에 표시되어 팔로워 스코프의 오퍼레이터에게 스코프가 이동해야 하는 위치를 타겟 위치에 고정하도록 지시 (안내)한다. 예를 들어, 팔로워 스코프의 접안경은 시각적 표시기를 포함할 수 있다. 대안적으로, 디바이스 또는 스코프 장착형 디스플레이는 시각적 인디케이터를 제공 할 수 있다. 시각적 인디케이터는 방향 화살표, LED 조명, 문자 메쉬지 (예를 들어, 왼쪽으로 이동, 위로 이동) 등 일 수 있다. 오디오 표시기도 사용할 수 있다.
10. 리드 스코프가 물리적 위치 또는 조준 위치를 이동하고 타겟이 재배치 되었음을 나타내는 경우, 팔로워 스코프가 계속해서 타겟을 검색할 수 있도록 계산이 자동으로 다시 실행되어 팔로워 스코프에게 전송된다. 마찬가지로 팔로워 스코프가 초기 위치에서 이동하는 경우 리드 스코프의 물리적 위치나 조준 위치를 변경하지 않아도 벡터의 팔로워 스코프에서 타겟으로 계산을 다시 수행하여, 안내 인디케이터가 팔로워 스코프 내에 표시되도록 해야한다.
대안적인 실시 예에서, 리드 스코프로부터의 로우 측정 데이터만이 네트워크 서버 또는 다른 스코프로 전달되고, 각각의 팔로워 스코프는 리드 스코프로부터의 로우 측정 데이터를 사용하여 리드 스코프의 타겟 위치를 계산한다. 즉, 팔로워 스코프가 로우 측정 데이터를 수신하면 리드 스코프의 타겟 위치 계산을 수행해야 타겟에 대한 자체 디바이스의 상대 위치를 결정할 수 있다.
추가 옵션에는 리드 스코프가 스코프에 내장되거나 부착된 디지털 이미지 센서를 사용하여 타겟의 디지털 이미지를 캡처하고, 팔로워 스코프의 오퍼레이터가 무엇을 찾고 있는지 알 수 있도록 디지털 이미지를 팔로워 스코프에 전송하는 기능이 포함된다. 다른 옵션은 팔로워 스코프가 타겟을 보고 있다는 것을 리드 스코프로 다시 보내고 타겟의 시야에 대한 디지털 이미지를 전송하는 것이다. 타겟의 디지털 이미지를 캡처하는 것은 군사 및 법 집행 기관에 고유한 응용 프로그램이 있을 수 있다. 예를 들어, 스코프 중 적어도 하나가 인터넷에 연결되어 있고 디지털 이미지가 사람의 얼굴인 경우, 디지털 이미지는 인터넷을 통해 얼굴 인식을 사용하여 얼굴을 일치 시키고자 하는 데이터베이스로 전송 될 수 있다. 일치하는 것이 확인되면, 타겟에 대한 추가 정보가 각 스코프에 제공될 수 있다. 종래의 안면 인식에 대한 대안으로서, 열 화상 디바이스와 함께 사용될 때 사람의 얼굴에 대한 디지털 지문을 형성 할 수 상기 설명에서, 종래의 광학 시스템이 이미지를 캡처하는데 사용되는 것으로 가정된다. 그러나, 나이트 비전 및 전방을 향한 적외선과 같은 대안이 또한 사용될 수 있다.
B. 제 2 실시예를 위한 예시적 단계
제 2 실시 예의 단계는 제 1 실시 예와 유사하지만, 네트워크 서버 (상기에서 언급된 바와 같이 네트워크상의 하나 이상의 스코프 일 수 있음)는 추정된 위치 데이터를 합산시키기 위해 전술한 바와 같이 추가 계산을 수행한다는 점을 제외하고는 제 1 실시 예와 유사하다. 타겟을 식별한 각각의 스코프로부터 누적되어 타겟의 연속적인 보다 정확한 위치 데이터를 정의하고(즉, 더 많은 데이터 포인트는 위치의 정밀도를 증가시킴), 이는 타겟을 아직 탐지하지 못한 스코프에게 전달된다. 또한 네트워크 서버는 여러 타겟(예: 여러 리드 스코프로부터의)을 저장하고 네트워크의 각 팔로워 스코프와 통신 할 수 있다.
C. 네트워크에 연결된 스코프의 사용 예시
연결된 라이플 스코프: 두 명의 사냥꾼이 사냥하고 있다. 한 사냥꾼은 먹이를 발견하고, 다른 사냥꾼에게 같은 먹이에 스코프를 고정 시키라고 신호한다. 스코프에 이미지 캡처 및 디스플레이 디바이스가 장착된 경우, 먹이의 이미지는 첫 번째 헌터에서 두 번째 헌터로 전송될 수 있고, 두 번째 헌터는 연결된 스코프를 사용하여 첫 번째 헌터에게 타겟을 보았다는 신호와 함께 잠재적으로 본 이미지를 첫 번째 헌터에게 다시 전송한다. 첫 번째 헌터가 타겟을 잃어버린 경우 두 번째 헌터는 리드 스코프가 되어 타겟의 위치(또는 로우 측정 데이터)를 타겟을 다시 획득하고자 하는 첫 번째 헌터에게 전송한다.
연결된 쌍안경: 두 명의 조류 관찰자가 들새 관찰을 하고 있다. 한 조류 관찰자는 새를 발견하고 다른 조류 관찰자에게 신호를 보내 조류에 쌍안경을 고정시킨다.
연결된 드론 및 라이플 스코프: 법 집행 기관이 운영하는 드론은 현장에서 의심되는 사수의 위치를 식별한다. 연결된 소총 스코프로 무장한 경찰은 드론에 의해 초기에 결정된 바와 같이 연결된 소총 스코프에서 사수를 식별하는 경찰로부터 수집된 후속 위치 데이터에 의해 더 정밀화되는 것으로 의심되는 사수 위치 데이터로 향하여진다.
D. 시스템 아키텍처
도 1a는 복수의 디바이스(10)(디바이스1-디바이스n) 및 비 디바이스/비 스코프 노드(12)(노드1-노드n)가 무선 통신 및 전자 네트워크(18)를 통해 네트워크 서버(16)와 통신하는 시스템 뷰를 도시한다. 전자 네트워크(18)는 디바이스(10)를 네트워크 서버(16)에 연결하는 실선으로 표현된다. 전자 네트워크(18)는 임의의 적합한 유형의 무선 전자 네트워크(예를 들어, 근거리 통신망, 광역 통신망(인터넷))를 통해 구현 될 수 있다. 하나 이상의 비-디바이스/비 스코프 노드(12)((노드 1- 노드n)의 기능이 아래에 설명되어 있다. 도 1a에서, 적어도 네트워크 서버(16)는 인터넷(20)에 연결된다.
도 1b는 본 발명의 바람직한 실시 예에서 사용하기에 적합한 메쉬 네트워크(22)의 토폴로지를 도시한다. 바람직하게는, 복수의 디바이스(10) 및 네트워크 서버(16)는 메쉬 네트워크(22)의 노드(24)이므로, 이들 요소는 도 1a에서 노드(24)로 표시된다. 이러한 방식으로, 각각의 노드(24)는 메쉬 네트워크(22)를 통해 서로 통신 할 수 있다. 이 구성에서, 네트워크 서버(16)는 메쉬 네트워크(22)에서 다른 노드(24)가 되거나, 또는 네트워크 서버 16)가 없거나, 또는 하나 이상의 디바이스 스코프가 여기에서 네트워크 서버(16)에 의해 수행되는 것으로 기술된 기능을 수행한다. 도 1b에서, 노드(24) 중 적어도 하나는 인터넷(20)에 연결된다. 또한, 메쉬 네트워크(22) 외부에 있지만 메쉬 네트워크(22)에서 인터넷(20)을 통하여 노드(24)와 통신 할 수 있는 하나 이상의 노드(26)가 있을 수 있다.
본 발명의 스코프는 다른 유형의 네트워크 토폴로지를 포함하며, 허브 및 허브에 서버를 갖는 스포크 네트워크(spoke network) 아키텍처로 제한되지 않는다. 디바이스 / 노드는 무선으로 서로 직접 연결될 수 있다(예를 들어, 애드혹 네트워크 일 수 있는 점 대 점 연결을 통해). 각 디바이스 / 노드는 셀룰러 또는 위성 연결을 가지고 있으며 클라우드(예: 인터넷)를 통해 서로 연결될 수 있다. 각각의 디바이스 / 노드는 테더링 된 열기구 또는 고정된 공중 위치에 머무르도록 프로그래밍 된 드론과 같이 지상 또는 공중에 있을 수 있는 무선 라우터를 통해 서로 연결될 수 있다.
또한, 제 2 실시 예에서, 디바이스 / 노드는 다른 방식으로 네트워크에 연결될 수 있다. 예를 들어, 6 개의 노드 네트워크에서, 5 개의 노드는 메쉬 네트워크(22)의 범위 내에 있을 수 있다. 그러나, 제 6 노드는 인터넷(20)을 통해 셀룰러 또는 네트워크 신호에 의해 범위를 벗어나 네트워크에 연결될 수 있다.
도 2는 리드 스코프 또는 팔로워 스코프를 포함할 수 있는 샘플 디바이스(10)의 요소를 도시한다. 디바이스(10)는 적어도 다음 요소들에 연결된 프로세서(30)를 포함한다:
1. GPS / INS(32)
2. 나침반(독립형 또는 GPS / INS에 통합 가능)(34)
3. 거리계(36)
4. 방위 센서(자세)(38)
5. 정확도 향상을 위한 고도 센서(옵션)(40)
6. 스코프(스코프의 구조는 디바이스의 유형에 따라 다름)(42)
7. 시청각 디스플레이 디바이스(독립형이거나 스코프에 통합 될 수 있음)(44)
8. 유선 또는 무선 통신 송수신기(48)와 통신하는 네트워크 인터페이스(46)
9. 메모리(50)
시청각 디스플레이 디바이스(44)는 프롬프트 / 메쉬지 및 인디케이터를 사용자에게 제공하는 요소이다. 팔로워 스코프에서, 시청각 디스플레이 디바이스(44)에 의해 제공된 정보는 사용자가 타겟을 연마하는 것을 돕는다. 디바이스(10)의 유형 및 디바이스(10)가 사용되는 환경에 따라, 시청각 디스플레이 디바이스(44)에 의해 제공되는 비디오, 오디오, 또는 오디오 및 비디오 모두가 있을 수 있다.
도 3은 프로세서(52), 메모리(54), 인공 지능 소프트웨어를 사용하여 구현 될 수 있는 이미지 및 분석 및 조작 소프트웨어(IAMS)(56) 및 유선 또는 무선 통신 송수신기(60)와 통신하는 네트워크 인터페이스(58)를 포함하는 네트워크 서버(16)의 요소를 도시한다..
개별 디바이스들(10) 및 네트워크 서버(16)의 프로세서 기능들은 시스템 아키텍처 및 컴퓨팅 기능들의 분포에 의존한다. 본 명세서에 기술된 바와 같이, 이들 기능 중 일부는 프로세서(30 또는 52)에서 수행될 수 있는 반면, 다른 기능은 네트워크 서버의 프로세서(52)에 의해 수행 될 수 있다.
도 4a-4c는 각각 통합 시청각 디스플레이 디바이스를 갖는 소총에 대한 광학 시야(스코프)를 도시한다. 도 4a에서, 디스플레이 디바이스는 0도 위치에 있으며 현재 "MOVE LEFT"를 판독한다. 도 4b에서, 디스플레이 디바이스는 0, 90, 180 및 270도에서 4 개의 개별 영역을 갖는다. 도 4b의 디스플레이 디바이스는 현재 왼쪽으로 움직이고 있음을 나타내고 있다(270도에서 왼쪽 화살표는 실선으로 표시되어 있고, 위, 오른쪽 및 아래로의 다른 3 개의 화살표는 점선으로 표시되어 있음). 도 4C는 사용자가 찾으려고 하는 이미지를 나타내는 추가 디스플레이 요소를 포함한다는 점을 제외하고는 도 4a와 유사하다. 이 그림의 방향 프롬프트는 이 소총이 현재 팔로윙 스코프로 작동하고 있음을 나타낸다.
III. 추가 고려 사항
A. 타겟 위치 가중치
GPS 데이터 및 다른 측정 디바이스로부터 추정된 타겟 위치를 계산할 때, 리드 스코프 및 팔로워 스코프(들)에 의해 도입된 정량화 가능한 오차가 존재하며, 이는 이산값(예를 들어, +/- 20 cm)으로 나타낼 수 있다. 특정 유형의 에러값은 측정 디바이스의 고유한 한계에 따라 스코프에서 스코프까지 일관될 수 있다. 다른 유형의 에러는 GPS 신호의 강도 또는 리드의 위치를 계산하는데 사용되는 위성 수와 같은 신호 강도에 따라 달라질 수 있다. 계산된 각 타겟 위치에 대해 리드 스코프, 팔로워 스코프 및 / 또는 네트워크 서버가 에러값을 식별한다. 업데이트 된 타겟 위치를 계산하기 위해 다수의 스코프로부터 타겟 위치를 합산하고 누적할 때, 에러값은 각각의 타겟 위치에 주어진 강도를 가중시키기 위해 사용될 수 있다.
타겟 위치를 처리하기 위해 다양한 알고리즘이 사용될 수 있다. 예를 들어, 에러값이 가장 낮은 타겟 위치에 가중치가 더 높을 수 있다. 대안적으로, 다른 타겟 위치 에러값과 비교하여 매우 높은 에러값을 갖는 타겟 위치가 계산에서 삭제될 수 있다. 타겟의 위치를 보다 정확하게 예측하기 위해 추가 데이터를 사용하는 한 가지 방법은 각각의 추정 타겟 위치를 나타내는 점을 3 차원 그리드에 배치하고, 추정된 타겟을 나타내는 데이터의 중심점 또는 평균 위치를 추정하는 것이다. 중심점은 위에서 설명한 가중치에 따라 조정할 수 있다.
타겟 위치 가중치에 대한 에러값을 사용하는 것 외에도 일시적인 요소가 사용될 수 있다. 예를 들어, 가장 최근에 관찰된 타겟 위치는 더 큰 가중치를 부여받을 수 있다. 특정 타겟 위치는 관측 시간으로부터 소정의 시간이 경과한 후에 가중 연산으로부터 완전히 제거 될 수 있다.
일시적인 요소는 또한 IAMS 및 / 또는 스코프에 의해 타겟의 유형(예를 들어, 자동차, 사람, 사슴) 이 결정되는 실시 예에서, 타겟의 특성에 의해 영향을 받을 수있다. 일시적인 요인은 느리게 움직이는 타겟과 비교하여 빠르게 움직이는 타겟에서 더 중요하다. 따라서, 빠른 이동 타겟(예를 들어, 자동차)의 경우, 가장 최근에 관찰된 타겟 위치는 상당히 큰 가중치를 부여받을 수 있으며, 오래된 타겟 위치는 느린 타겟 이동에 비해 가중치에서 더 빨리 제거 될 수 있다.
정상적으로 빠르게 움직이는 타겟은 실제로 움직이지 않을 수 있고(예를 들어, 정지 차량), 정상적으로 느리게 움직이는 표적은 실제로 빠르게 움직일 수 있기 때문에(예를 들어, 달리는 사람 또는 사슴), IAMS는 다양한 알고리즘을 사용하여 타겟은 실제로 움직이고 있으며, 그렇다면 어떤 속도로 움직이는지를 결정한다. 이 계산은 일시적인 요인에 사용될 수 있다. 예를 들어, 타겟이 정지해 있는 것처럼 보이는 경우에는 가중치에 시간적 요인이 적용되지 않는다. 알고리즘은 다수의 관측된 타겟 위치를 볼 수 있고, 각각의 에러값을 고려한 후에 상대적으로 유사하고 상당히 다른 시간 간격으로 관찰된 경우(즉, 매우 근접하지 않은 경우), 타겟은 정지된 것으로 결론 지을 수 있다. 반대로, 복수의 관측된 타겟 위치가 각각의 에러값을 고려한 후 유의미하게 상이하고 매우 가까운 시간에 관찰된 경우, 타겟이 이동하고 있다는 결론을 내릴 수 있으며 시간 계수는 가중치에 사용되어야 한다.
B. 에러 인디케이터
바람직한 일 실시 예에서, 시각적 인디케이터는 디바이스 오퍼레이터에게 유용한 형태로 에러 정보를 시각적으로 전달한다. 예를 들어, 추정된 타겟 위치가 디바이스의 디스플레이 스크린상의 점으로 표시되는 경우, 디바이스의 오퍼레이터가 타겟이 디바이스 내의 임의의 영역에 있을 수 있음을 알도록 에러 박스가 점 주위에 겹쳐 질 수 있으며, 점이 표시되는 정확한 위치가 반드시 필요하지는 않다. 제 2 실시 예에서, 더 많은 타겟 위치가 연속적인 팔로워 스코프에 의해 식별됨에 따라 에러 박스는 더 작아질 수 있다.
에러 정보가 전달되는 정확한 방식은 추정된 타겟 위치가 팔로어 디바이스에 표시되는 방법에 따라 다르다.
측정 센서, 특히 GPS 기술의 발전으로 정확도가 향상되고 오류가 줄어들 수 있다. 어느 시점에서, 에러 인디케이터가 사용자 경험을 향상시키지 않을 정도로 에러가 충분히 작아질 수 있다.
C. 이미지 디스플레이 및 시뮬레이션
일 실시 예에서, 타겟은 디스플레이 스크린상의 점과 같은 1 차원 객체로 표현된다. 대안적인 실시 예에서, 타겟은 디스플레이 스크린상에서 시뮬레이션 된 2 차원 또는 3 차원 이미지로 표현된다. 디지털 이미지를 캡처하여 전송하면 실제 타겟 이미지가 화면에 표시 될 수 있다. 신경망과 같은 인공지능(AI) 기술을 사용하여 구현 될 수 있는 이미지 분석 및 조작 소프트웨어(IAMS)를 사용하여, 시뮬레이션 프로세스는 타겟이 팔로워 스코프에 대해 적절하게 위치하도록 회전될 수 있게 한다. 다음 예제를 고려하기로 한다:
1. 리드 스코프는 1/4 마일 떨어져 있고 디바이스를 정면으로 향하고 있는 사슴(타겟)을 식별한다.
2. 사슴의 타겟 위치와 사슴의 실제 이미지는 스코프에 의해 캡처되어 네트워크 서버와 통신한다.
3. 네트워크 서버에서 또는 인터넷을 통해 원격으로 액세스 한 IAMS는 이미지 내의 주요 시각적 특징을 식별하고, 이러한 특징을 알려진 객체와 비교하여 타겟을 사슴의 전면 뷰로 분류하여, 데이터베이스에서 사슴의 시뮬레이션 이미지를 검색한다.
4. 팔로워 스코프는 사슴에 대한 타겟 위치 데이터를 수신하여, 사슴으로부터 약 1/4 마일 떨어져 있고, 리드 스코프와 비교하여 90도 기울어져 있다고 판단한다. 그런 다음 IAMS는 시뮬레이션 사슴을 90도 회전하고, 팔로워 스코프에 표시하기 위해 사슴의 측면 뷰를 전달하여, 팔로워 스코프가 사슴의 모습을 알 수 있도록 한다.
5. 물리적 이미지 데이터가 복수의 스코프로부터 캡처 된 후에, IAMS는 타겟의 3 차원 이미지를 구축 할 수 있어, 타겟의 보다 현실적인 뷰가 타겟을 여전히 찾고 있는 팔로워 스코프에 디스플레이 될 수 있게 한다. IAMS는 렌더링을 수행하기 위해 리드 스코프와 팔로워 스코프의 위치를 모두 알아야 한다. 두 위치 모두 타겟의 3D 이미지를 회전하는 방법을 알기 위하여 필요하기 때문이다. 실제 이미지가 캡처되는 경우 IAMS가 이미지를 시뮬레이션 하지 않고 실제 이미지 데이터를 결합하는 옵션이 있다.
6. 법 집행 응용 프로그램에서 IAMS는 얼굴 인식 또는 기타 생체 인식 기술을 사용하여 타겟 이미지를 사람과 일치 시키려고 시도 할 수 있다. 일치하는 경우 타겟에 대한 정보가 스코프에 리턴될 수 있다.
7. 스코프에 통합된 이미지 디스플레이 시스템의 추가 응용은 팔로워 스코프가 고해상도 항공 이미지 또는 지형도를 검색하고 타겟의 대략적인 위치에 대한 표시와 함께 팔로워 스코프의 디스플레이 상에 공중 이미지 또는 지도를 표시하는 능력이다. 에러 정보가 알려진 경우, 타겟이 위치 할 수 있는 영역을 나타내는 항공 이미지 또는 지형도에 박스가 표시될 수 있다. 스코프를 타겟으로 향하게 하는 특징을 결합하고, 리드 스코프에서 보여지는 타겟의 이미지를 제공하고, 타겟 박스의 대략적인 위치를 에러 박스와 함께 조감도 또는 지형도상에 제공함으로써, 타겟을 탐지하는 프로세스가 크게 가속된다.
제 3 실시 예에서, 타겟은 스코프의 시야에 존재할 때 디스플레이 상에 경계 박스 또는 강조된 이미지 세그먼트로 표현된다. 타겟의 디지털 이미지가 캡처되면, IAMS는 향후 수집된 이미지에서 타겟 객체의 인식을 허용하는 이미지 내의 주요 시각적 특징을 식별하는데 사용될 수 있다. 팔로워 스코프의 FOV(field-of-view)가 타겟에 가까워지면, IAMS가 팔로워 스코프 FOV의 디지털 이미지 버퍼를 처리하여 이전에 식별된 타겟의 주요 시각적 특징과 현재 시야 내의 특징 사이에 패턴 일치가 있는지 확인한다. 타겟 이미지 특징을 찾으면 타겟이 시각적으로 표시된다. 팔로워 스코프가 광학 디스플레이를 갖는 경우, 일 실시 예는 특정 컬러로 타겟을 강조하거나 타겟 주위에 박스를 그리도록 활성화되는 투명 디스플레이 오버레이를 포함한다. 팔로워 스코프가 시각적 디스플레이를 갖는 경우, 매칭 된 타겟은 전술한 바와 같이 지정된다. 다음 예제를 고려하기로 한다:
1. 리드 스코프는 1/4 마일 떨어져 있고 디바이스를 정면으로 향하고 있는 사슴(타겟)을 식별한다.
2. 사슴의 타겟 위치와 사슴의 실제 이미지는 스코프에 의해 캡처되어 네트워크 서버와 통신한다.
3. 네트워크 서버의 IAMS 또는 인터넷을 통해 원격으로 액세스 한 IAMS는 컴퓨터 비전 기술을 사용하여 이미지를 분할하여 타겟을 배경 이미지와 분리한다.
4. IAMS는 이미지 세그먼트 내에서 사슴 뿔의 점 및 측면의 흰색 패치와 같은 식별 가능한 주요 특징 세트를 생성한다.
5. 팔로워 스코프는 사슴에 대한 타겟 위치 데이터를 수신하여, 사슴으로부터 약 1/4 마일이 떨어져 있으며, 리드 스코프와 비교하여 45도 기울어져 있다고 판단한다. 그런 다음 IAMS는 타겟에 해당하는 시각적 특징 세트를 45도 회전하여 팔로워 스코프의 FOV에서 어떠한 특징이 표시되는지 확인할 수 있다.
6. 팔로워 스코프는 타겟의 위치에 관한 지시에 따라 타겟의 일반적인 방향을 조준한다. 팔로워 스코프의 현재 FOV는 팔로워 스코프가 프로세스를 위해 이동함에 따라 IAMS로 전송된다.
7. IAMS는 수신 팔로워 스코프 이미지에서 패턴 매칭을 수행하여 이미지 내의 주요 특징을 타겟 스코프에서 생성되고 팔로워 스코프의 시야각에 맞게 조정된 타겟 특징 세트와 비교한다. 패턴 매칭이 발생하면 팔로워 스코프의 FOV내에서 타겟의 위치가 팔로워 스코프로 전송된다.
8. 팔로워 스코프는 디스플레이 내에서 타겟의 위치를 강조하는 경계 박스 오버레이를 제공한다.
9. 물리적 이미지 데이터가 복수의 스코프로부터 캡처 된 후, IAMS는 다수의 주요 식별 특징 세트를 다수의 각도로부터 구축할 수 있다.
D. 타겟 위치 계산
측정 데이터로부터 타겟 위치의 계산은 GPS 데이터를 사용하는 공지 기술 중 임의의 하나에 의해 수행 될 수 있다. 본 명세서에 참고로 포함된 미국 특허 제 5,568,152호(Janky 등)는 타겟과 이격된 상태로 뷰어 / 거리계를 통해 타겟을 보는 관찰자에 의해 타겟의 위치를 결정하는 방법을 개시하고 있다. 본원에 참고로 포함된 미국 특허 제 4,949,089호(Ruszkowski, Jr.)는 유사한 방법을 개시하고 있다. 이러한 방법론은 타겟 위치를 계산하는데 사용될 수 있다.
타겟에 대한 팔로워 스코프의 위치를 계산하려면 리드 스코프의 계산을 반대로 수행해야 한다. 팔로워 스코프는 GPS 좌표를 알고 있으며 리드 스코프 또는 네트워크 서버로부터 타겟의 대략적인 GPS 좌표를 수신하였다(또는 리드 스코프로부터 로우 측정 데이터를 직접 또는 간접적으로 무선으로 수신하여 타겟 위치를 계산하였다). 팔로워 스코프(또는 네트워크 서버 또는 네트워크의 다른 노드)는 두 GPS 좌표 사이의 경로를 계산한다. A 지점에서 B 지점까지의 2 차원 방향만 효과적으로 결정하는 차량 경로와 달리, 팔로워 스코프는 정확한 벡터와 그 위치에서 타겟 위치까지의 범위를 결정한다. 팔로워 스코프는 또한 GPS / INS 디바이스를 가지고 있기 때문에, 계산된 벡터에 관한 정보를 타겟에 사용하여 사용자가 타겟을 향한 벡터로 팔로워 스코프를 정렬하도록 지시한다.
다음 예시를 고려하기로 한다: 팔로워 스코프는 디바이스 사용자가 현재 수평면에서 서쪽(270도)을 보고 있고, 타겟에 대한 벡터가 북쪽(0도)이라고 판단한다고 가정한다. 팔로워 스코프는 오른쪽 화살표를 표시하거나 시계 방향 회전이 필요함을 나타내며 사용자가 0도를 가리킬 때 포인트를 표시하거나 구두로 표시한다. 이 시점에서 팔로워 스코프는 수직면의 벡터를 결정한다. 예를 들어, 팔로워 스코프가 수평이지만 타겟에 대한 벡터가 10도 더 낮은 경우, 팔로워 스코프는 사용자가 팔로워 스코프의 각도를 벡터가 수직 평면의 타겟에 일치할 때까지 낮추도록 지시한다. 위의 예시는 사용자가 먼저 수평면에서 타겟으로 향한 다음 수직면으로 향한다고 가정한다. 그러나 오른쪽 화살표와 아래쪽 화살표를 동시에 표시하여 가로 및 세로 평면에서 팔로워 스코프를 동시에 지정할 수 있다. 또한 GPS / INS 디바이스로 인해 팔로워 스코프는 항상 GPS 나침반을 사용하여 방위와 방향을 알고 있다.
E. 적외선 센서 / 히트 시그니쳐(Heat signature)
전술한 일반적인 광학 모드 실시 예에 더하여, 스코프의 대안적인 실시 예는 타겟의 히트 시그니쳐를 검출하기 위해 전향 적외선 센서를 통합한다. 시스템은 거리계를 사용하여 선택된 히트 시그니쳐에 해당하는 타겟의 위치를 감지한 다음, 관심 타겟의 이미지를 추가하거나 전송하는 대신 히트 시그니쳐를 전송한다.
F. 비 시각적 디스플레이
바람직한 실시 예는 이미지 및 / 또는 히트 시그니쳐를 시스템의 다른 디바이스로 전송하지만, 디바이스의 적어도 일부는 시각적 디스플레이를 포함하지 않을 수 있다. 이 경우, 팔로워 스코프는 단순히 방향 화살표 또는 다른 표시에 의존하여 팔로워 스코프의 사용자를 타겟으로 향하게 할 수 있다.
G. 음성 프롬프트
팔로워 스코프를 지시하는 방향 화살표 또는 다른 표시 대신에, 팔로워 스코프와 블루투스와 같은 유선 또는 무선으로 연결된 헤드폰 쌍 사이의 연결을 사용하여 디바이스를 움직이도록 지시 할 수 있다(예 : 위로 , 아래, 왼쪽, 오른쪽).
H. 범위 정보의 직접적인 사용
전술한 실시 예에서, 거리계로부터의 범위 정보는 팔로워 스코프에서 타겟을 식별하기 위해 사용되지 않는다. 광학 스코프 및 쌍안경은 가변 거리에 초점을 맞추기 때문에, 타겟 정보에 대한 안내는 또한 사용자가 보거나 초점을 맞출 정확한 거리를 알 수 있게하는 표시를 포함 할 수 있다. 오디오 실시 예에서, 명령은 더 가까이 또는 더 초점을 맞추거나 더 가까이 보이도록 명령을 제공 할 수 있다. 달리 말하면, 사용자는 이미 알려진 타겟 위치 및 팔로워 스코프의 알려진 위치에 기초하여 계산된 벡터를 보고 있다. 거리계는 당신이 타겟에 너무 멀리 있는지 또는 너무 가까이 있는지에 대한 아이디어를 얻는데 사용될 수 있다. 예를 들어, 타겟은 1 마일 떨어져 있지만 사용자는 현재 1.5 마일 떨어져서 보고 있을 수 있다.
I. 타겟 마킹
리드 스코프는 십자선 또는 타겟을 표시하기 위한 레티클과 같은 다른 타겟 선택 표시를 포함 할 수 있다. 일단 표시되면, 거리계는 타겟까지의 거리를 감지하고 시스템은 목타겟표의 좌표를 결정하여, 전술한 대로 타겟 위치의 팔로우 스코프에게 통지하거나 사용 가능한 네트워크 서버와 통신하여 타겟의 좌표를 저장한다.
J. 트리거 스위치
소총 또는 총기 응용에서, 리드 스코프는 스위치를 포함하여 정보를 팔로워 스코프에게 트리거 위 또는 근처의 센서로 전송한다.
K. 디스플레이 오버레이
보다 복잡한 팔로워 스코프는 고해상도 디스플레이를 포함 할 수 있고, 증강 현실 기술을 이용하여 리드 스코프로부터 수신된 시각 정보를 오버레이하고, 팔로워 스코프를 팔로워 스코프의 광학 시야에서 타겟으로 향하게 하는 표시를 오버레이 한다. 오버레이는 헤드 업 디스플레이 또는 이와 동등한 것 또는 완전한 디지털 디스플레이로 전환함으로써 구현 될 수 있다.
L. 타겟 이미지 캡처
타겟의 이미지는 디지털 카메라에 사용되는 다양한 기술과 실질적으로 동일한 방식으로 캡처 될 수 있다. 예를 들어, 리드 스코프의 사용자가 타겟을 지정하는 시점에서, 미러는 폴딩되어 디지털 SLR의 동작과 유사한 이미지 센서로 이미지를 향하게 할 수 있다. 리드 스코프는 미러를 사용하지 않는 미러리스 또는 컴팩트 카메라와 유사하게 작동 할 수도 있다.
M. 손동작 조정
사용자에 의한 디바이스(예를 들어, 소총 / 총, 쌍안경)의 손 움직임으로 인한 리드 스코프의 위치 이동은 시스템에 불안정성을 야기 할 수 있다. 이 문제를 해결하기 위해 터치 패드 또는 기타 포인팅 디바이스를 디바이스에 장착하고 십자선 또는 다른 타겟 표시를 타겟 위로 이동하는 데 사용할 수 있다. 타겟에 태그가 지정되면 거리계를 사용하여 십자선 중심까지의 범위를 기준으로 범위가 결정된다. 경우에 따라서는 사용된 거리 측정 기술에 따라 소음을 최소화하는 선형 또는 기타 무소음 모터를 사용하여 거리계를 기계적으로 타겟을 가리 키도록 방향 전환해야 할 수도 있다. 범위가 결정되면, 타겟 위치 계산은 십자선이 중심을 벗어나 이동한 양에 따라 결정된 리드 스코프 방향과 오프셋 방향의 오프셋에 대해 수행되고 조정된다.
N. 지형 장애물
경우에 따라 지형 특성(예: 언덕, 산)이 팔로워 스코프와 타겟 사이의 벡터 경로에 있을 수 있다. 예를 들어, 리드 스코프가 타겟에서 북쪽으로 1 마일 떨어져 있고, 팔로워 스코프가 남쪽으로 2 마일 떨어져 있으면 팔로워 스코프와 타겟 사이에 언덕이 있을 수 있다. 상세한 지형도 및 탐색 도구가 사용될 수 있다. 예를 들어, Montana의 Billings에 있는 Trimble®의 자회사 MyTopo™에서 시판되는 Terrain Navigator Pro와 같은 소프트웨어 제품은 미국과 캐나다 전체의 상세한 지형도를 제공하며 다양한 규모의 미국 지질 조사 맵을 통합한다. 당업자에게 공지된 종래의 GPS 라우팅 기술을 사용하여, 리드 스코프의 컴퓨터 또는 연결된 스코프의 네트워크에 있는 지능형 노드의 컴퓨터는 팔로워 스코프와 타겟 사이의 벡터를 해당 지역의 지형도에 오버레이 하고, 팔로워 스코프가 타겟을 볼 수 없도록 지형 지물을 통과하는 벡터인지 확인한다. 방해물이 존재하면, 타겟이 시야에서 차단된다는 표시가 팔로워 스코프의 사용자에게 제시 될 수 있다. 일부 실시 예에서, 지형도로부터의 데이터 및 타겟과 팔로워 스코프의 위치를 사용하여, 팔로워 스코프는 사용자에게 다른 위치, 바람직하게는 가장 근접한 위치로 이동하도록 지시 할 수 있는데, 여기서 타겟에 대한 시야가 방해 받지 않을 것이다.
벡터가 제 2 스코프로 하여금 추정 타겟을 보지 못하게 하는 지형 특징을 통과한다고 결정될 때, 리드 스코프의 컴퓨터 또는 연결된 스코프 네트워크의 지능형 노드의 컴퓨터는 다음 정보 항목(즉, 제2 스코프에 의해 추정된 타겟이 시야에서 차단되었다는 표시, 및 상기 제 2 스코프의 오퍼레이터가 추정된 타겟의 시야를 방해하지 않는 다른 위치로 이동하도록 촉진하기 위해 제 2 스코프에 의해 사용되는 전자적으로 생성된 인디케이터) 중 하나 이상을 출력한다.
O. 리드 스코프로 동작하는 다수의 스코프
제 2 실시 예에서, 다수의 스코프가 동시에 타겟을 전송하는 상황이 있을 수있다. 제 2 실시 예에서, 각각의 스코프는 임의의 주어진 시간에 리드 스코프 또는 팔로워 스코프가 될 수 있는 능력을 가지므로, 다수의 스코프가 서로 다른 타겟과 관련된 위치 정보를 동시에 전송할 가능성이 있다. 스코프가 리드 스코프에 의해 전송된 타겟의 이미지를 수신 할 수 있는 실시 예에서, 다수의 타겟 이미지가 리스트에 표시되고 선택기 버튼, 포인팅 디바이스를 사용하거나 눈을 추적하고 초점 포인트를 결정함으로써 관심은 팔로워 스코프에 의해 선택 될 수 있으며, 그 후에 팔로워 스코프는 전술한 바와 같이 타겟으로 향하게 될 것이다. 팔로워 스코프가 여러 리드 스코프로부터 수신된 타겟 이미지를 표시 할 수 있는 능력이 없다면, 팔로워 스코프의 사용자는 사용 가능한 타겟 목록과 타겟까지의 거리, 생성 시간 또는 스코프의 원점과 같은 관련 주석 정보를 제공받을 수 있으며, 선택기 버튼, 포인팅 디바이스 또는 시선 추적을 사용하여 관심있는 타겟을 선택할 수 있다. 팔로워 스코프가 사용자에게 타겟 목록을 제시하는 능력이 없다면, 프로세서는 미리 결정된 기준 또는 다양한 요인을 사용하여 최상의 타겟을 선택하는 알고리즘에 기초하여 타겟을 선택할 것이다. 이러한 요인에는 가장 가까운 타겟, 오류율이 가장 낮은 타겟, IAMS가 얼굴 인식으로 식별한 특정 동물 또는 사람과 같은 선호하는 타겟 유형에 일치하는 타겟이 포함될 수 있다.
스코프가 디지털 오버레이를 제공 할 수 있는 실시 예에서, 팔로워 스코프는 다수의 관심 타겟의 동시 추적을 지원할 수 있다. 사용 가능한 타겟 목록에서 관심있는 단일 타겟을 선택하는 대신, 팔로워 스코프의 사용자는 표시되거나 숨겨져 있는대로 사용 가능한 각 타겟을 토글 할 수 있다. 사용 가능한 타겟이 표시되도록 설정되면 표시는 팔로워 스코프 오버레이에 추가되며, 어떤 타겟을 향하고 있는지를 나타내는 레이블이 붙게 된다.
일부 실시 예들에서, 스코프가 리드 스코프에 의해 이전에 선택된 타겟을 식별하고 지시했거나 또는 리드 스코프로서 행동하고 새로운 타겟을 전송한다는 확인을 전송하고 있는지 확실하지 않을 수 있다. 이 문제를 제거하기 위해, 사용자 인터페이스는 스코프의 사용자가 새로운 타겟과 관련된 위치 정보를 전송하고 있는지 또는 다른 타겟에 의해 이전에 지정된 타겟을 보았음을 확인하는 것을 표시할 수 있도록 포함될 수 있다. 대안적으로, 이미지가 위치 데이터와 함께 전송되고 시스템이 IAMS를 포함하는 경우, IAMS는 타겟의 이미지를 비교하고 수신된 위치 데이터를 이전에 지정된 타겟 또는 새로운 타겟과 연관되는 것으로 취급 할지를 결정할 수 있다.
스코프 사용자가 실수를 하여 실제로 스코프가 다른 타겟을 지정하고 있음에도, 이전에 리드 스코프에 의해 지정된 타겟을 선택하고 있다고 잘못 표시될 수도 있다. 한 가지 예가 동일한 유형의 동물이 에러 박스 내에 있는 경우 등 여러 가지 이유로 발생할 수 있다. 이상적으로, 다른 타겟이 이전에 리드 스코프에 의해 지정된 경우, 스코프에 의해 타겟이 지정될 때, IAMS는 두 이미지를 비교하고 타겟 이미지가 동일한 타겟일 가능성이 낮은 것으로 결정하는 능력을 가짐으로써, 스코프가 리드 스코프의 역할을 하여 새로운 타겟과 관련된 데이터를 보내게 된다.
P. 게임 모드
네트워크로 연결된 스코프는 스코프 중 하나 또는 네트워크 서버에 의해 유지되는 스코어링으로 게임을 하는데 사용될 수 있다. 게임은 고정된 시간 간격으로 작동 할 수 있다. 일 실시 예에서, 리드 스코프는 타겟을 설정하고 각각의 팔로워 스코프는 타겟을 검색한다. 팔로워 스코프가 타겟을 식별하는 순서 및 / 또는 팔로워 스코프가 타겟을 찾는 데 걸리는 시간에 따라 포인트가 부여된다. 팔로워 스코프가 타겟을 찾는 데 최대 시간이 제공되며, 그 시점에서 라운드가 끝나게 된다. 순차적 또는 무작위로, 새로운 리드 스코프가 타겟을 찾기 위해 지정되고 다음 라운드가 진행된다. 게임의 승자는 게임에 대한 사전 설정 시간이 끝날 때 최대 점수를 가진 스코프이다. 또는 목표 점수에 도달하면, 점수에 기반하여 플레이어들에게 랭크가 부여되면서 게임이 종료된다.
Q. 자동 타겟 탐지
IAMS는 객체 분류를 통해 현재 FOV 내에서 잠재적인 타겟을 식별함으로써 리드 스코프 오퍼레이터를 지원하는데 사용될 수 있다. 이미지 프레임을 분석하고 이미지 프레임에서 객체를 식별하기 위한 종래의 프로세스가 존재한다. 예를 들어 GOOGLE® Cloud Vision API는 애플리케이션이 이미지 내 콘텐츠를 보고 이해할 수 있도록 이미지 분석 기능을 제공한다. 이 서비스를 통해 고객은 일상적인 물체(예: "범선", "사자", "에펠탑")에서 얼굴 및 제품 로고에 이르기까지 이미지 내의 광범위한 개체를 감지 할 수 있다. 이 유형의 소프트웨어 응용 프로그램은 객체 분류를 통해 현재 시야 내에서 잠재적인 타겟을 식별하는 데 사용될 수 있다.
오퍼레이터는 객체 분류 기능이 있는 IAMS 지원 리드 스코프를 사용하여, 사전 설정 목록(예: 자동차, 사람, 사슴)에서 원하는 타겟 유형을 선택할 수 있다. 이 시점에서 이미지가 리드 스코프부터 캡처되고, IAMS는 경계 박스 또는 강조 표시된 이미지 세그먼트와 같이 지정된 객체 유형과 일치하는 보기 내의 객체를 강조 표시한다. 그러면 리드 스코프가 강조 표시된 잠재적 타겟 중 하나를 가리키고 활성화되어 타겟 지정할 수 있다.
대안적인 실시 예에서, 이미지 처리는 연속적 일 수 있으며, 리드 스코프가 이동함에 따라, 지정된 객체 유형과 일치하는 것으로 발견된 임의의 객체가 강조될 수 있다.
다른 실시 예에서, 자동 타겟 검출은 상기 섹션 C의 이미지 시뮬레이션 및 디스플레이에 설명된 특징을 사용하여 하나 이상의 팔로워 스코프로 확장된다. 다음 예시를 고려하기로 한다:
1. 전술한 바와 같이 리드 스코프를 사용하여 자동 타겟 검출이 수행된다.
2. IAMS는 전술한 섹션 C에 설명된 프로세스를 사용하여, 리드 스코프와 관련하여 특정 팔로워 스코프의 위치를 기반으로 타겟 이미지가 표시되는 방법을 각도에 따른 외관 특성(예: 동일한 각도(헤드 온), +/- 90도 회전(왼쪽 또는 오른쪽보기), 180도 회전(버트 뷰(butt view)) 및 거리(예: 타겟까지의 거리에 따른 크기)에 따라 계산한다.
3. 팔로워 스코프의 시야에서 이미지가 캡처되고, 팔로워 스코프에 의해 계산되는 것으로 나타나는 리드 스코프로부터의 예상 타겟 이미지가 실제로 팔로워 스코프의 시야에 있는지를 결정하기 위해 자동 패턴 식별이 수행된다. 예를 들어 사슴이 +90도 회전한 것으로 보이면 자동 패턴 인식에서 결정된 팔로워 스코프 헤드 온을 향하고 있는 사슴은 올바른 타겟이 아닐 수 있다. 그러나 사슴이 +90도 회전한 것으로 보일 때, 사슴이 팔로워 스코프의 시야에 있는 것으로 판단되고 자동 패턴 인식에서 결정된대로 +90도 회전된 것으로 판단되면, 사슴은 올바른 타겟 일 가능성이 높다.
4. 예상 타겟 이미지가 팔로워 스코프의 시야에 있는 경우, 유사한 유형의 경계 박스 또는 강조 표시된 이미지 세그먼트가 팔로워 스코프에 나타나고, 경계 박스 또는 강조된 이미지 세그먼트에서 타겟 이미지를 향해 현재 타겟 위치로부터 팔로워 스코프를 재배치하기 위한 적절한 프롬프트가 팔로워 스코프의 오퍼레이터에게 제공된다.
도5는 스코프 디스플레이에 표시 될 수 있는 샘플 사전 리스트 목록을 보여준다. 이 예시에서 나열된 개체에는 사람, 사슴 및 차량이 포함된다. 스코프 운영자는“사슴”을 선택하였다. 스코프의 시야는 객체 감지를 위해 분석되고, 시야에 나타나는 유일한 객체는 대략 1시 위치에 하나의 사슴이라고 가정한다. 이로 인해 스코프 오퍼레이터에게 스코프를 현재 타겟 위치에서 사슴의 타겟 위치로 이동하도록 지시하는 해당 지시 사항과 함께 도 4c에 표시된 것과 유사한 시야가 도출된다.
R. 스코프의 초점 길이
전술한 실시 예에서, 스코프는 모두 유사한 초점 길이를 갖는 것으로 추정된다. 그러나 스코프의 초점 거리가 다른 경우, IAMS는 시야에서 분석되는 객체의 크기와 팔로워 스코프에서 이미지로 표시되는 객체의 크기를 결정할 때 적절하게 조정되어야 한다. 바람직하게, IAMS는 그러한 조정이 이루어질 수 있도록 각각의 스코프의 초점 길이에 관한 데이터를 수신한다.본 발명의 바람직한 실시 예는 방법으로서 구현될 수 있으며, 그 예가 제공된다. 방법의 일부로서 수행되는 동작은 임의의 적절한 방식으로 요구될 수 있다. 따라서, 예시된 실시 예에서 순차적으로 수행되는 것으로 도시되어 있지만, 일부 동작을 동시에 수행하는 것을 포함 할 수 있는, 도시된 것과 다른 순서로 동작이 수행되는 실시 예가 구성 될 수 있다.
S. 플로우 차트
도 6은 상호간 이격되어 각각의 스코프 오퍼레이터에 의하여 이동하는 제1스코프 및 제2스코프에 의하여 추정되는 단일 타겟을 추적하는 프로세스의 플로우 차트이며, 여기서 각각의 스코프는 현재 타겟 위치 데이터를 제공하도록 구성된 복수의 측정 디바이스를 포함한다. 바람직한 일 실시 예에서, 프로세스는 적어도 다음 단계들에 의해 구현된다:
600: 제 1 스코프의 복수의 측정 디바이스를 사용하여, 제 1 스코프의 오퍼레이터에 의해 탐지된 추정 타겟에 관한 현재 타겟 위치 데이터를 식별한다.
602: 제 1 스코프는 제 1 스코프의 오퍼레이터에 의해 식별된 추정 타겟에 관한 현재 타겟 위치 데이터를 제 2 스코프와 전자적으로 통신한다.
604: 제 2 스코프는 복수의 측정 디바이스를 사용하여 제 2 스코프의 현재 타겟 위치의 현재 타겟 위치 데이터를 식별한다.
606: 제 2 스코프의 프로세서가 제2스코프의 현재 타겟 위치 데이터 및 제 1 스코프로부터 수신된 현재 타겟 위치 데이터를 사용하여 제 2 스코프를 제2스코프의 현재 타겟 위치로부터 제 1 스코프에 의해 식별된 추정 타겟의 타겟 위치로 이동시키는데 필요한 위치 이동을 계산한다.
608: 제 2 스코프의 프로세서가 제 2 스코프에 의해 사용되기 위해 전자적으로 생성된 인디케이터를 제 2 스코프의 오퍼레이터에게 출력하여 위치 이동을 촉구한다. 제 2 스코프의 오퍼레이터는 인디케이터를 사용하여 제 1 스코프로부터 수신된 현재 타겟 위치 데이터에 의해 정의되는 타겟 위치를 향해 이동하도록 현재 타겟 위치로부터 스코프를 재배치한다.
도 7은 상호간 이격되어 각각의 오퍼레이터에 의해 이동하는 복수의 스코프에 의하여 추정되는 단일 타겟을 추적하는 프로세스의 플로우 차트이며, 여기서 각각의 스코프는 현재 타겟 위치 데이터를 제공하도록 구성된 복수의 측정 디바이스를 포함한다. 위치 데이터 및 각각의 스코프는 네트워크 서버와 전자 통신하되, 현재 타겟 위치 데이터는 에러값을 갖는다. 바람직한 일 실시 예에서, 프로세스는 적어도 다음 단계들에 의해 구현된다:
700: 제 1 스코프의 복수의 측정 디바이스를 사용하여 제 1 스코프의 오퍼레이터에 의해 탐지된 추정 타겟에 대한 현재 타겟 위치 데이터를 식별한다.
702: 제1스코프가 제 1 스코프의 오퍼레이터에 의해 식별된 추정 타겟에 관한 현재 타겟 위치 데이터를 전자 네트워크를 통해 네트워크 서버와 전자적으로 통신한다.
704: 네트워크 서버가 제 1 스코프의 오퍼레이터에 의해 식별된 추정 타겟에 관한 현재 타겟 위치 데이터를 전자 네트워크를 통해 나머지 스코프와 통신한다.
706: 각각의 나머지 스코프가 추정 타겟을 탐지하기 위해 제 1 스코프의 오퍼레이터에 의해 식별된 추정 타겟에 관한 현재 타겟 위치 데이터를 사용한다.
708: 추정 타겟의 위치를 탐지시, 각각의 나머지 스코프는 전자 네트워크를 통해 추정 타겟에 관한 현재 타겟 위치 데이터를 네트워크 서버와 전자적으로 통신하고, 현재 타겟 위치 데이터는 각각의 나머지 스코프에서 복수의 측정 디바이스를 사용하여 각각의 나머지 스코프에 의해 식별된다.
710: 네트워크 서버는 나머지 스코프 중 어느 하나로부터 현재 타겟 위치 데이터를 수신하면 추정 타겟을 탐지한 각 스코프로부터 현재 타겟 위치 데이터를 합산함으로써 제 1 스코프에 의해 식별된 현재 타겟 위치 데이터의 에러 값과 비교하여 에러값이 감소된 업데이트 된 현재 타겟 위치 데이터를 계산한다.
712: 네트워크 서버가 전자 네트워크를 통해 추정 타겟을 아직 탐지하지 않은 나머지 스코프들과 추정 타겟에 관하여 업데이트 된 현재 타겟 위치 데이터를 전자적으로 통신한다.
714: 추정 타겟을 아직 탐지하지 않은 나머지 스코프가 추정 타겟을 찾기 위해 이전에 수신된 현재 타겟 위치 데이터 대신에 업데이트 된 현재 타겟 위치 데이터를 사용한다.
도 8은 상호간 이격되어 각각의 오퍼레이터에 의해 이동하는 복수의 리드 스코프 및 하나 이상의 팔로워 스코프에 의하여 추정되는 복수개의 타겟을 추적하는 프로세스의 흐름도이며, 여기서 각각의 스코프는 현재 타겟 위치 데이터를 제공하도록 구성된 복수의 측정 디바이스를 포함하고, 각각의 스코프는 네트워크 서버와 전자 통신한다. 바람직한 일 실시 예에서, 프로세스는 적어도 다음 단계들에 의해 구현된다:
800: 복수의 리드 스코프는 각각의 리드 스코프의 오퍼레이터에 의해 탐지된 추정 타겟에 관한 현재 타겟 위치 데이터를 식별하는 단계로써, 현재 타겟 위치 데이터는 각각의 리드 스코프에서 복수의 측정 디바이스를 사용하여 식별된다.
802: 복수의 리드 스코프가 전자 네트워크를 통해 (i) 각각의 리드 스코프의 오퍼레이터가 식별한 추정 타겟에 대한 현재 타겟 위치 데이터 및 (ii) 추정 타겟 각각에 관한 정보를 네트워크 서버와 전자적으로 통신한다.
804: 네트워크 서버가 전자 네트워크를 통해 (i) 리드 스코프의 오퍼레이터에 의해 식별된 추정 타겟에 대한 현재 타겟 위치 데이터 및 (ii) 추정 타겟 각각에 관한 정보를 하나 이상의 팔로워 스코프와 통신한다.
806: 하나 이상의 팔로워 스코프 각각이 추정 타겟 각각에 관한 정보를 사용하여 리드 스코프의 추정 타겟 중 하나를 전자적으로 선택한다.
808: 팔로워 스코프가 (i) 복수의 측정 디바이스를 사용하여 현재 타겟 위치에 대한 현재 타겟 위치 데이터를 식별하는 단계, (ii) 해당 스코프의 프로세서가 현재 타겟 위치 데이터 및 선택된 추정 타겟 위치의 현재 타겟 위치 데이터를 사용하여 팔로워 스코프를 현재 타겟 위치에서 선택된 추정 타겟의 타겟 위치로 이동시키는데 필요한 움직임을 계산하는 단계, (iii) 팔로워 스코프의 프로세서가 팔로워 스코프의 오퍼레이터에게 위치 이동을 지시하기 위해 전자적으로 생성된 인디케이터를 출력하는 단계를 통하여 선택된 추정 타겟을 탐지한다. 팔로워 스코프의 오퍼레이터는 인디케이터를 사용하여 선택된 추정 타겟의 현재 타겟 위치 데이터에 의해 정의되는 타겟 위치를 향해 이동하도록 현재 타겟 위치로부터 스코프를 재배치한다.
T. GPS 나침반에 대한 추가 세부 사항
전술한 바와 같이 VectorNav Technologies, LLC는 GPS 나침반을 제공하기 위하여 이중 안테나 기능이 포함된 디바이스를 판매한다. Inertial Sense, LLC는 유사한 GPS-나침반 기능을 제공하는 "μINS-Dual Compass"라는 이름의 디바이스를 판매한다. μINS-2-Dual 나침반에는 감지된 위치 데이터(실시간 운동학 또는 RTK)를 개선하는 추가 기능과 두 개의 수신기가 두 개의 정확하게 배치된 안테나에서 GPS 데이터를 동시에 수신하여 정적인 위치에서 정확한 GPS 방향을 결정할 수 있는 기능이 포함되어 있다. 이들 디바이스 모두는 본 발명에서 사용하기에 적합하다.
U. 노드 통신에 대한 추가 세부 사항
도 1a 및 1b의 장치/노드는 인터넷 연결을 통해 또는 기지국 또는 MSC에 연결된 개인 데이터 통신 기능을 통해 공용 및 개인 데이터베이스, 애플리케이션 서버, 기타 음성 및 데이터 네트워크에 연결될 수 있다.
V. 타겟 정보에 관한 추가 세부 사항
전술한 연결된 소총 스코프의 사용 사례와 관련하여 특정 관심 대상(여기서는 먹이)이 사냥에 대한 법적 제한 내에 있는지 확인하는 것과 같이, 사냥꾼이 추가 음성 및 데이터 정보를 교환할 수 있다.
W. 에러 인디케이터의 추가 세부사항
전술한 바와 같이, 에러 박스는 디바이스의 디스플레이 스크린 상의 추정된 타겟 위치 주위에 오버레이될 수 있다. 에러 박스는 리드 스코프에 의해 도입된 에러와 팔로워 스코프에 의해 도입된 추가 에러의 조합을 기반으로 한다. 리드 스코프와 팔로워 스코프에 의해 발생하는 에러는 무엇보다도 위치, 범위 및 방향, 타겟까지의 범위, 각스코프의 광학적 특성에 대한 센서의 정확도의 함수이다.
X. 이미지 디스플레이 및 시뮬레이션을 위한 추가 세부 사항
전술한 바와 같이, IAMS는 타겟이 팔로워 스코프에 대해 적절하게 위치된 것처럼 보이도록 회전하는데 사용될 수 있다. 전술한 예시에서 IAMS는 시뮬레이션 된 사슴을 90도 회전하고 팔로워 스코프에 표시하기 위해 사슴의 측면도를 전달하여 팔로워가 사슴이 어떻게 생겼는지 확인할 수 있다. 또한, 증강 현실 기술을 사용하여, 팔로워 스코프의 프로세서는 팔로워 스코프가 목표 영역을 가리키고 있을 때, 팔로워 스코프에 의해 캡처된 실제 이미지와 사슴의 시뮬레이션 된 회전 이미지를 오버레이할 수 있다.
Y. 타겟 마킹을 위한 추가 세부 사항
타겟 마킹 프로세스의 추가 개선으로 야간 투시경 가시(viewable) 레이저를 사용하여 타겟을 마킹할 수 있다. 팔로워 스코프에 야간 투시 기능이 있는 경우, 팔로워 스코프가 올바른 관심 영역을 가리킴으로써, 타겟의 레이저를 관찰하여 올바른 타겟을 보고 있는지 확인할 수 있다.
Z. 스마트폰 기기/모바일 기기
정의 섹션에 설명한 바와 같이 디바이스는 "휴대용"일 수 있으며, 특정 유형의 디바이스는 자체적으로 "스코프"일 수 있다. 바람직한 실시예에서, 휴대용 디바이스는 내부에 설치된 애플리케이션(앱), 모바일 디바이스 내에 미리 설치된 센서로부터의 데이터, 및 모바일 디바이스의 프로세서 및 네트워킹 구성 요소를 사용하여 모바일 디바이스를 스코프로 작동시킬 수 있다.
예를 들어, 모바일 디바이스가 스코프로 기능하도록 하는 거리 측정기 앱은 당업계에 잘 알려져 있다. 적합한 거리 측정기 앱 중 하나는 GuideHunting L.L.C.사의 상업적으로 이용 가능한 "Whitetail Deer Hunting Range Finder for Hunting Deer"이다.
AA. 차량 장착 및 공중 장착 디바이스 및 고정 위치 디바이스
정의 섹션에 설명된 바와 같이 디바이스는 휴대형일 수도 있고 지상, 공중 또는 수상 기반 차량에 장착될 수도 있다. 장착될 때 디바이스 마운트는 일반적으로 팬-틸트 메커니즘(아래에서 더 자세히 설명됨)을 가지며, 디바이스와 관련된 스코프의 정확한 위치를 지정할 수 있다. 차량 기반 디바이스는 본질적으로 이동성이 있다. 다른 디바이스는 고정된 위치에 있을 수 있다. 도 9a는 다수의 디바이스를 가지는 감시 환경의 바람직한 일 실시예를 도시하며, 그 중 일부는 휴대형이고 일부는 고정 위치에 있으며 일부는 항공 또는 차량 기반일 수 있다. 도 9b는 도 9a의 차량 중 하나에 탑재되거나 통합된 차량 기반 디바이스를 갖는 차량을 도시한다. 도 9a 및 9b를 참조하면 다음 유형의 디바이스가 표시된다:
1. 차량 탑재 디바이스(101-106). 3개의 차량(90)이 도시되어 있고(도 9b는 차량 중 하나를 도시함) 도 9a에 도시된 차량 탑재 디바이스가 최대 6개 있으며, 차량의 바람직한 일 실시예에는 최대 2개의 디바이스(10)가 탑재될 수 있다. 이러한 유형의 차량은 다음과 같은 구조를 갖는 트럭 등의 차량(91)일 수 있다:
i. 플랫베드(92).
ii. 접이식 선루프/문루프(93)(이하, "선루프"라 함), 바람직하게는 수평으로 접이식 메커니즘을 갖는다.
iii. 제1 감시 장비 세트(95)가 장착되어 있고, 차량(10)의 플랫베드(92)에 장착되는 제1 접이식 신축성 구조(94). 제1 접이식 신축성 구조(94)는 차량(10)에 완전히 보관될 수 있도록 하는 폼 팩터로 수축되며, 플랫베드의 덮개로 완전히 덮여 있다. 감시 장비(95)의 제1 세트는 디바이스(10) 중 하나를 포함할 수 있다. 완전히 확장된 직립 위치에서, 제1 접이식 신축성 구조(94)는 마스트(mast)로서 효과적으로 기능하고, 감시 장비(95)의 제1 세트는 바람직하게는 마스트 상단 또는 그 근처에 장착된다.
iv. 제2 감시 장비 세트(97)가 그 위에 장착되고 완전히 수축될 때 차량 내부에 완전히 장착되며, 사용 중일 때 선루프(93)를 통해 부분적으로 연장되는 제2 접이식 신축성 구조(96). 감시 장비(97)의 제2 세트 또한 디바이스(10) 중 하나를 포함할 수 있다. 완전히 연장된 직립 위치에서, 제2 접이식 신축성 구조(96) 또한 마스트로서 효과적으로 기능하고, 감시 장비(97)의 제2 세트는 바람직하게는 마스트 상단 또는 그 근처에 장착된다.
v. 제2 접이식 신축성 구조(96)가 사용 중일 때 개방형 선루프(93)를 통해 차량 격실에 물과 먼지가 들어가는 것을 방지하기 위한 밀봉 장치(도시되지 않음).
또한, 감시 장비의 제1 및/또는 제2 세트(95, 97)는 현재 타겟 위치 데이터를 제공하는 데 필요한 전술한 복수의 측정 디바이스를 포함할 수 있다. 따라서, 이 실시예에서, 감시 장비의 세트(95, 97) 중 하나 또는 둘 모두는 디바이스(10) 중 하나를 포함할 수 있다.
2. 공중 장착 디바이스(107). 공중 장착 디바이스(107)는 드론의 형태로 도시된다. 드론은 현재 타겟 위치 데이터를 제공하기 위해 필요한 전술한 복수의 측정 디바이스를 포함할 수 있다.
3. 휴대용 디바이스(108-1010). 디바이스(108)는 사람이 타겟을 찾거나 추적하기 위해 들여다보는 쌍안경이다. 디바이스(109, 1010)는 스마트폰과 같은 모바일 디바이스로서 각자가 휴대하고 조작한다. 전술한 바와 같이 이러한 휴대용 디바이스는 스코프와 같은 기능을 수행한다.
4. 고정 디바이스(1011-1012). 2개의 고정 타워(1011, 1012)가 도 9a에 도시되어 있다. 고정 타워(101)는 다음 목적 중 하나 또는 둘 다를 제공할 수 있다.
i. 고정 타워(101)은 자체의 고정 디바이스(10)를 포함할 수 있다.
ii. 고정 타워(101)는 네트워크 서버로의 후속 중계를 위해 차량 탑재 디바이스(10) 및 휴대용 디바이스(10) 중 하나 이상으로부터 데이터를 수신할 수 있다. 이러한 유형의 고정 타워는 도 1a 및 1b와 관련하여 전술한 바와 같이 비-디바이스/비-스코프 노드(12)이다.
도 1a 및 도 1b를 다시 참조하면, 각각의 디바이스(10)는 전술한 무선 통신 및 전자 네트워크(18)에서 노드(24)로서 기능할 수 있다.
도 9a에서, 임의의 디바이스(10)의 GPS 좌표는 공유될 수 있다. 도 9a에서, 디바이스(10)는 서로 근접하여 도시되어 있다. 다만, 이는 동일한 감시 환경에서 서로 다른 복수의 디바이스를 보여주기 위한 예시일 뿐이다. 디바이스들(10)은 실제로 상호간 5-10마일과 같이, 상대방으로부터 마일 단위로 떨어져 있을 수 있다. 디바이스(10) 상의 센서는 타겟 탐지를 위해 최대 7.5마일과 같은 넓은 범위를 가질 수 있다. 따라서 도 9a는 축척을 의미하지 않는다.
고정 타워(101) 또는 움직이지 않는 차량의 마스트와 같은 고정 플랫폼에 있는 디바이스(10)는 미국 특허 제9,813,618호(Griffis et al.)에 명시된 바와 같이, 최대 360도 범위의 단일 합성 또는 파노라마 이미지를 생성하기 위해 여기에 참조로 포함된다. 차량이 수중 기반이라면 물의 움직임에 대해 약간의 위치 보정이 이루어져야 한다.
AB. 디바이스로의 스코프의 통합
정의 섹션에 설명한 바와 같이, 디바이스는 스코프가 통합되는 대상이며 쌍안경, 텔레스코프 및 관측(spotting) 스코프와 같은 특정 유형의 디바이스는 그 자체로 "스코프"일 수 있다. 스코프를 디바이스에 통합하는 다양한 접근 방식이 가능하다. 예를 들어, 스코프는 도 9a와 같이 디바이스에 장착되어 디바이스에 통합될 수 있다(예: 마스트, 타워 또는 드론에 물리적 또는 전자적으로 연결됨). 또한, 디바이스에 스코프를 통합하면 이러한 센서 및 구성 요소를 복제하는 대신 기존 센서 및 장치의 기타 구성 요소를 사용할 수 있다. 예를 들어, 드론 또는 모바일 디바이스(예: 스마트폰)에는 기존 카메라, 센서 및 프로세서가 있을 수 있으며, 드론이 리드 또는 팔로워 스코프로 작동할 수 있도록 소프트웨어를 추가하여 스코프로 변환할 수 있다. 또한, 도 9a에 도시된 디바이스에 통합된 임의의 스코프는 리드 또는 팔로워 스코프의 역할을 할 수 있다.
AC. 이동 차량에 대한 실시예
디바이스 장착형 또는 디바이스 통합형 스코프를 효과적으로 "운반"하는 차량의 사용은 새로운 유형의 타겟 추적 프로세스를 구현할 수 있게 하며, 그 중 일부는 아래의 예시적인 예에서 설명된다. 즉, 이러한 예시에서, 적어도 하나의 스코프는 이동식 차량에 장착되거나 통합된다. 설명의 편의를 위해 이러한 예시는 "디바이스"가 아닌 "스코프"를 나타낸다. 그러나 스코프는 "디바이스"에 통합되거나 그 자체가 "디바이스"임을 이해하여야 한다. 또한, 편의상 추정 대상을 간단히 "타겟"이라고 한다.
실시예 1
1. 제1스코프는 영역을 스캔하고 고정 또는 움직이는 타겟(즉, 관심 대상)을 식별하여 타겟의 위치 데이터를 제2스코프에 직접 보고하거나, 제2스코프가 통신하는 네트워크 서버에 보고함으로써 위치 데이터를 획득한다.
2. 제2스코프는 위치정보를 획득하고, 타겟을 찾기 위한 위치 이동(재배치 정보)을 제공받는다.
3. 제2스코프가 타겟을 찾을 때, 제2스코프가 장착되거나 통합된 차량은 제2스코프가 목표물을 볼 수 있도록 새롭고 "더 나은 위치"(개선된 위치)로 이동하도록 지시받는다. 더 나은 위치는 하나 이상의 요인에 의해 정의될 수 있다(예: 목표물에 더 가깝거나, 목표물에 대한 시야 방해가 적음, 목표물을 보기 위해 더 높은 고도에 있음, 또는 타겟(예: 사람 또는 동물의 얼굴)의 생체 인식 데이터 캡처에 가장 좋은 위치에 있음). 개선된 위치는 차량의 현재 위치 및/또는 제1스코프의 현재 위치와 관련하여 개선될 수 있다.
4. 제2스코프는 또한 타겟 위치 데이터를 제1스코프에 직접 보고하거나 위치 데이터를 얻기 위해 제1스코프가 통신하는 네트워크 서버에 보고한다. 제1스코프는 타겟의 위치 데이터를 더 잘 식별하는 것을 돕기 위해 이 위치 데이터를 사용할 수 있다.
전술한 트럭과 같이, 트럭에 장착되는 디바이스에 하나의 스코프가 통합된 차량의 경우, 트럭 오퍼레이터는 트럭을 이동시킬 위치에 대한 지시(위치 이동)를 수신하고, 마스트에 달린 스코프는 타겟을 더 잘 볼 수 있게 된다. 트럭이 더 나은 위치에 있더라도 여전히 스코프의 방향/위치를 변경해야 할 수 있다. 따라서 제2스코프를 타겟을 보기에 가장 좋은 위치에 두는 프로세스는 두 개의 개별 프로세스, 즉 (1) 차량(제2스코프가 장착되거나 통합된)을 더 나은 위치로 이동하는 프로세스와 (2) 제2스코프의 방향을 재설정/재배치하는 프로세스를 포함할 수 있다. 이 프로세스는 차량 위치가 변경됨에 따라 제2스코프가 지속적으로 재설정/재배치 될 수 있다는 점에서 반복적일 수 있다.
실시예 2
1. 제1스코프는 영역을 스캔하고 고정 또는 움직이는 타겟(즉, 관심 대상)을 식별하여 타겟의 위치 데이터를 제1스코프와 이격되어 있고, 제2스코프를 장착하거나 통합하는 차량에 직접 보고하거나, 또는 차량이 통신하는 네트워크 서버에 보고함으로써 위치 데이터를 획득한다.
2. 제2스코프가 장착되거나 통합된 차량은 제2스코프가 대상을 더 잘 확인할 수 있는 특정 위치(예: 위에서 설명한 "더 나은 위치")로 차량을 이동시키기 위해 위치 데이터를 획득하고 위치 이동 데이터를 제공받는다.
3. 그런 다음 제2스코프는 제1스코프의 위치 데이터를 사용하여 타겟을 찾기 위한 시도를 한다. 그 다음, 차량 및/또는 제2스코프는 실시예 1에서 전술한 것과 동일한 방식으로 반복적으로 이동되거나 재배치될 수 있다.
실시예 2는 실시예 1과 제1스코프로부터 수신한 타겟의 위치 데이터에 기초하여 차량이 새로운 위치로 먼저 이동될 때까지 제2스코프가 타겟의 위치 추적을 시도하지 않는다는 점에서 차이가 있다.
실시예 3
이 예시는 도 1a 및 1b에 도시된 바와 같이, 스코프의 네트워크에 의존하는 다른 실시예를 예시한다. 이 실시예에서, 제1스코프 또는 네트워크 서버는 다른 스코프의 위치를 알고 있다.
1. 먼저 리드 스코프 역할을 하는 제1스코프는 영역을 스캔하고 정지하거나 움직이는 타겟(즉, 관심대상)을 식별하지만, 제1스코프는 타겟에 대한 좋지 않은 시야를 가진다.
2. 제1스코프 또는 네트워크 서버는 다른 스코프의 위치를 이용하여 네트워크 내의 스코프 중에서 목표물을 가장 잘 확인할 수 있는 제2스코프를 식별한다.
3. 제1스코프 또는 네트워크 서버는 제1스코프의 위치 데이터를 사용하여, 제2스코프에게 타겟을 찾도록 지시한다.
4. 그런 다음, 제2스코프가 리드 스코프를 이어받아 새로 수집된 타겟 위치 데이터를 다른 스코프(제1스코프 포함)에 전송하여 다른 스코프가 타겟을 더 잘 찾고 추적할 수 있도록 한다.
가장 좋은 시야를 가진 스코프는 타겟에 가장 가깝고, 타겟에 대한 시야가 가장 적게 방해되며, 타겟을 보기에 가장 좋은 고도에 있고, 타겟(예: 사람 또는 동물의 얼굴)의 생체 인식 데이터를 캡쳐하기에 가장 좋은 위치에 있거나, 또는 타겟 또는 타겟의 특정 부분에 발사체(예: 총알)를 발사하기 가장 좋은 위치에 있는 네트워크 내의 스코프일 수 있다.
가장 좋은 시야를 가진 스코프는 반드시 차량 탑재 또는 차량 일체형 스코프일 필요는 없다. 그러나, 가장 좋은 시야를 갖는 스코프가 차량 탑재형 또는 차량 일체형인 경우, 이 예시의 대안적인 실시예는, 제2스코프가 제1스코프로부터 수신된 타겟의 위치 데이터에 기초하여 가장 좋은 시야를 갖는 것으로 신뢰되는 제2스코프와 관련된 차량이 먼저 새로운 위치로 이동될 때까지 타겟의 위치를 찾으려고 시도하지 않는 실시예 2와 유사할 수 있다.
대안적인 실시예를 제외하고, 이 예시는 차량이 프로세스의 필수 구성요소가 아니기 때문에 차량 탑재형 또는 차량 일체형이 아닌 경우에도 구현될 수 있다.
AD. 스코프 이동 및 차량 이동
도 1 내지 8에 설명된 실시예에서, 제2스코프의 오퍼레이터는 제1스코프로부터 수신된 현재 타겟 위치 데이터에 의해 정의된 타겟 위치를 향해 이동하기 위하여, 자신의 현재 타겟 위치로부터 제2스코프의 위치를 변경하기 위한 인디케이터(indicator)를 사용한다. 그러나, 도 9a의 실시예에서, 일부 스코프는 차량의 마스트나 고정 타워에 장착된 것과 같이 오퍼레이터에 의해 물리적으로 이동되지 않는다. 따라서, 이들 실시예에서, 제2스코프는 전자 제어 신호를 사용하여 제1스코프로부터 수신된 현재 타겟 위치 데이터에 의해 정의된 타겟 위치를 향해 이동하기 위하여, 자신의 현재 타겟 위치로부터 제2스코프를 재배치(re-position)한다. 이것은 하기의 팬-틸트 메커니즘을 사용하고/하거나, 제2스코프의 광학 매개변수를 변경하는 것과 같이, 장착과 관련하여 제2스코프를 물리적 또는 전자적으로 회전 및/또는 피벗하는 것을 포함할 수 있다. 오퍼레이터는 제2스코프의 디스플레이를 보고 적절한 전자 제어 신호가 생성되도록 하여 이러한 재배치 동작을 지시할 수 있다. 예를 들어, 제2스코프의 프로세서는 제2스코프의 디스플레이에 표시되는 전자적으로 생성된 인디케이터를 출력하여 제2스코프의 오퍼레이터가 도 1 내지 도 8과 관련하여 위에서 설명된 실시예와 유사한 방식으로 위치 이동을 하도록 프롬프트(prompt)할 수 있다. 그런 다음 오퍼레이터는 전자적으로 생성된 인디케이터를 사용하여 오퍼레이터가 제어하는 게임 컨트롤러 또는 다른 포인팅 장치(이하 "오퍼레이터 제어 입력 장치"라고도 함)에 제어 입력을 할 수 있으며, 이는 팬-틸트 메커니즘의 이동 및/또는 제2스코프의 광학 매개변수를 변경하는 전자 제어 신호로 변환된다. 오퍼레이터 및 제2스코프의 디스플레이는 바람직하게는 제2스코프가 장착되거나 통합되는 차량 내부 또는 근처에 있다. 이에 대한 실시예는 도 12a에 도시되어 있다.
대안적으로, 오퍼레이터는 스코프의 움직임에 관여하지 않으며, 연산된 위치/재배치 이동 신호는 프로세서에 직접 입력됨으로써 물리적 또는 전자적으로 제2스코프를 장착과 관련하여 회전 및/또는 피벗하는 전자 제어 신호 및/또는 제2스코프의 광학 매개변수를 변경하는 전자 제어 신호를 생성한다. 이에 대한 실시예는 도 12b에 도시되어 있다. 동일한 프로세서를 사용하여 위치 이동을 계산하고 전자 제어 신호를 생성하거나, 제1 프로세서를 사용하여 위치 이동을 계산하고, 제2 프로세서(예: 팬-틸트 메커니즘 전용 프로세서)를 사용하여 전자 제어 신호를 생성할 수 있다.
도 9a의 실시예에서, 타겟 위치를 추적하기 위해 생성될 수 있는 두 가지 위치 변경, 즉, 스코프가 장착되거나 통합된 차량의 위치 이동과, 스코프 자체에 대한 위치 변경이 존재한다. 이는 스코프가 통합된 장치의 유형과 스코프 자체의 유형에 따라 물리적 또는 전자적일 수 있다. 차량의 위치 이동과 관련하여 일 실시예는 다음과 같이 동작할 수 있다:
1. 네트워크 서버는 제2스코프(실시예 1) 또는 제1스코프(실시예 2)로부터의 타겟 위치 데이터를 사용하여 이전에 식별된 임의의 요소에 기초하여 차량의 개선된 위치를 결정한다.
2. 차량의 위치는 일반적인 GPS 데이터로 제공된다.
3. 개선된 위치는 기존 맵핑 프로그램(예: GOOGLE Maps, APPLE Maps)에 목적지로 연결되고, 제2스코프가 타겟을 볼 수 있도록 개선된 위치로 차량을 이동하라는 기존 프롬프트가 차량 오퍼레이터에게 전달될 수 있다. 개선된 위치에서 오프로드 이동 애플리케이션의 경우 지형도를 사용할 수 있으며, 차량과 타겟 위치 사이에 있는 것으로 식별되는 확정 지형 장애물을 기반으로 실현 가능한 개선된 위치로의 최단 경로를 사용하여 차량의 위치를 변경할 수 있다.
AE. 고도 연산
전술한 바와 같이, 고도 센서는 GPS/INS에 의해 결정된 고도의 정확도를 개선하기 위해 선택적으로 사용될 수 있다. 대안적인 실시예에서, 정확도는 지형 지도 상에 GPS 좌표를 오버레이함으로써 개선될 수 있다. 지형도의 고도는 GPS/INS에 의해 결정된 고도와 비교되고 조정될 수 있다. 예를 들어, GPS/INS가 10피트의 고도를 나타내지만 지형도가 위치 좌표를 20피트로 표시하는 경우 두 값을 평균화하거나 가중치를 부여하는 등의 적절한 알고리즘을 사용하여 고도를 선택할 수 있다. 또한, 위치 좌표가 GPS/INS 값의 에러를 고려한 후 인접 고도에 가까운 경우, 고도 계산은 지형도에서 인접(다른) 고도를 고려하고, 디바이스의 알려진 특성 및 해당 디바이스와 연결된 디바이스(예: 디바이스가 장착된 마스트의 높이 또는 디바이스 작업자의 높이)를 고려해야 한다.
AF. 자율 주행 차량
바람직한 일실시예에서, 차량은 운전자 주행 차량이고, 차량에 물리적으로 존재하는 차량 오퍼레이터는 실시예 1 또는 2에서 전술한 차량 이동을 구현할 때와 같이 차량이 특정 위치에서 다른 위치로 이동되도록 한다. 그러나 대안적인 실시예에서, 하나 이상의 차량은 자율 주행 차량이다. 자율 주행 차량, 로봇 차량 또는 무인 차량이라고도 하는 자율 주행 차량은 환경을 감지하고 사람의 입력이 거의 또는 전혀 없이 이동할 수 있는 차량이다. 자율 주행 차량은 레이더, 컴퓨터 비전, Lidar, 소나, GPS, 주행 거리 측정 및 관성 측정 장치와 같은 다양한 센서를 결합하여 주변 환경을 인식한다. 고급 제어 시스템은 감각 정보를 해석하여 적절한 탐색 경로, 장애물 및 관련 표지판(차량이 도로에 있는 경우)을 식별한다.
리드 스코프 또는 팔로워 스코프가 장착되거나 일체화 된 차량은 자율 주행이 가능하다. 예를 들어, 리드 스코프가 타겟을 검색한 후, 팔로워 스코프가 탑재되거나 통합된 차량이 자율적으로 타겟을 찾을 수 있다. 보다 구체적으로, 팔로워 스코프가 장착되거나 일체화 된 차량은 전술한 실시예 1 또는 2에서 설명한 바와 같이 적절한 위치로 이동하게 된다. 자율 주행 차량의 실시예에서, 차량에 대한 위치 이동 명령은 차량 오퍼레이터에게 제공되는 대신 자동으로 구현된다.
AG. 추정 타겟("타겟")을 보기 위한 개선된 위치 연산
차량에 장착되거나 차량에 통합된 제2스코프가 있는 차량의 개선된(더 나은) 위치는 차량의 제1위치 또는 제1스코프의 위치와 관련하여 다음 조건 중 하나 이상을 충족한다:
(i) 상기 추정 타겟에 더 가까운 조건,
(ii) 상기 추정 타겟에 대한 시야를 덜 가리는 조건,
(iii) 상기 타겟을 보기 위한 더 높은 고도 조건,
(iv) 상기 타겟의 생체 인식 데이터를 캡처하기 위한 더 나은 위치 조건, 및
(v) 상기 타겟 또는 상기 타겟의 특정 부분에 투사체를 쏠 수 있는 더 나은 위치 조건.
차량 재배치를 위한 알고리즘은 이러한 조건 중 가장 중요한 것이 무엇인지, 타겟의 유형("타겟"이라고도 함), 그리고 해당하는 경우 타겟에 어떤 조치를 취해야 하는지에 따라 달라진다. 알고리즘은 또한 스코프 광학 및 지형 문제와 같은 요인에 따라 달라진다.
타겟이 사람이나 동물인 경우(설명의 편의를 위해 이하 설명에서는 "사람"을 사용함), 제2스코프는 사람을 추적 및/또는 사람의 얼굴 인식을 수행하기 위해 사람의 얼굴 세부 사항을 볼 필요가 있다. 목표 또는 최소한 초기 목표는 타겟에 바로 도달하는 것이 아니라 타겟을 일반적으로 은밀한 방식으로 볼 수 있도록 충분히 가까운 거리에 배치하는 것이다. 따라서 스코프와 타겟 사이에 50미터와 같이 유지해야 하는 최소 거리가 있을 수 있다.
당업계에 잘 알려진 바와 같이, 안면 인식은 일반적으로 관심 있는 사람의 수십 개의 얼굴 특징(종종 "페이셜 랜드마크"라고 함)을 수집한 다음 알고리즘을 사용하여 사람의 얼굴 서명을 생성하는 것을 포함한다. 그런 다음 얼굴 서명이 데이터베이스에 있다고 가정하고, 얼굴 서명을 알려진 얼굴 데이터베이스와 비교하여 잠재적으로 사람을 식별한다. 대안적으로, 일단 제1스코프로부터 얼굴 서명이 얻어지면, 제2 스코프는 알려진 얼굴의 데이터베이스에서 그 사람이 식별되는지 여부에 관계없이 그들이 동일한 사람을 보고 있음을 확인하기 위해 얼굴 서명을 사용할 수 있으며, 그 반대의 경우도 마찬가지이다.
얼굴 서명과 얼굴 인식은 알고리즘에 대한 입력이 되는 얼굴 특징의 최소 집합을 캡처하기 위해 일반적으로 뷰어(여기서, 스코프)가 사람 얼굴의 미리 정의된 시야각(호, arc) 내에 있어야 한다. 따라서 보는 사람이 반드시 그 사람의 얼굴을 직접 마주할 필요는 없지만, 보는 사람이 사람의 얼굴 뒤쪽을 향할 수는 없다. 물론 캡처할 수 있는 얼굴 특징이 많을수록 얼굴 서명이 더 정확해진다.
이 프로세스의 첫 번째 단계는 알고리즘이 정확한 얼굴 서명을 얻을 수 있도록 충분한 얼굴 특징을 캡처하기 위해 스코프가 사람과 얼마나 가까워야 하는지 계산하는 것이다. 이것은 알고리즘 입력에 따라 달라지며, 알고리즘마다 서로 다른 얼굴 특징을 사용하고 렌즈 품질, 광학 줌, 디지털 줌 품질과 같은 스코프 광학에도 의존한다. 이 거리는 스코프가 감시 환경에 배치되기 전에 실험적으로 결정될 수 있다. 매우 높은 품질의 광학 장치를 포함하는 스코프가 최대 150미터 거리에서 정확한 얼굴 서명을 생성할 수 있는 예를 고려하기로 한다. 이것은 스코프(및 그에 따라 스코프가 장착되거나 통합된 차량)가 타겟에서 150미터 이하에 위치해야 함을 의미한다.
프로세스의 두 번째 단계는 사람 얼굴의 미리 정의된 시야각(호) 내에 있고 이상적으로는 사람 얼굴을 가리키도록, 사람에 대해 스코프가 위치해야 하는 각도를 계산하는 것이다. 사람이 고정되어 있지 않은 경우 움직임 감지 알고리즘을 사용하여 적절한 시야각을 제공하는 사람의 움직임의 일반적인 방향을 감지할 수 있다. 사람이 정지해 있는 경우 처음에 얼굴이 가리키는 방향을 감지할 수 있을 정도로 사람에게 가까이 다가가 적절한 시야각을 결정할 수 있다. 이러한 결정을 내리는 사람까지의 거리는 일반적으로 얼굴 인식 알고리즘에 필요한 얼굴 특징의 최소 세트를 캡처하는 데 필요한 거리보다 훨씬 더 크다. 예를 들어, 사람의 얼굴이 가리키는 방향은 최대 300미터 거리에서도 식별할 수 있다.
그 다음 거리 및 각도 데이터는 이용 가능한 가장 최신의 타겟 위치 데이터를 사용하여 사람을 볼 수 있도록 차량을 재배치 할 하나 이상의 적절한 위치를 결정하는 데 사용된다. 일단 위치 또는 위치 세트가 결정되면, 오프로드 주행을 포함하는 방향의 임의의 부분에 대한 지형 장애물을 피하면서 차량에 대한 위치 이동 명령을 생성하기 위해 기존의 GPS 라우팅 기술/맵핑 소프트웨어가 사용될 수 있다. 더욱이, 지형 장애물은 위치 이동 지침에 대한 수정을 요구할 수 있을 뿐만 아니라 차량에 장착되거나 차량에 통합된 스코프가 타겟을 볼 수 있도록 차량의 위치를 변경하는 것이 가장 좋은 위치를 고려할 수도 있다.
전술한 것과 프로세스는 감시 환경이 디바이스의 네트워크를 포함하고, 각각의 디바이스에 장착되거나 통합된 스코프가 있는 경우 또는 장치 자체가 스코프인 경우, 리드 스코프가 대상을 식별한 후 팔로워 스코프로 선택하기 위해 가장 좋은 스코프를 식별하는 데도 적합하다. 예를 들어, 도11a에 표시된 감시 환경에서 약 500미터 거리에서 타겟 T를 식별한 리드 스코프가 있다고 가정하기로 한다. 타겟 T는 남서 방향으로 강을 향해 걷고 있다. 3개의 팔로워 스코프 1~3이 감시 환경에 있으며, 이들 각각은 150미터 이내의 거리에서 안면 인식을 수행하는 능력을 가지고 있다. 이 예시에서 팔로워 스코프 3은 팔로워 스코프 1및 2에 비해 타겟을 볼 수 있는 적절한 위치로 더 빨리 이동할 수 있기 때문에 현재의 타겟 위치에서 130미터 떨어진 새로운 위치로 이동하도록 지시된다. 팔로워 스코프 2는 처음에는 타겟에 더 가깝지만, 해당 팔로워 스코프는 다리 중 하나를 건너기 위한 긴 경로를 거치지 않는 한 타겟으부터 150미터 이하의 위치에 충분히 가까이 갈 수 없다. 팔로워 스코프 1은 다리 중 하나의 바로 근처에 있지만 팔로워 스코프 3보다 적절한 관찰 위치에서 더 멀리 떨어져 있다.
도 11b는 팔로워 스코프 3이 도 11a에 도시된 위치로 이동할 경우, 산이 타겟의 시야를 방해한다는 점을 제외하고는 도 11a와 유사한 감시 환경을 도시한다. 따라서 맵핑 소프트웨어는 팔로워 스코프 3을 타겟에서 130미터 떨어진 약간 더 먼 위치로 안내하지만, 해당 위치는 앞서 말한 시야 방해가 없는 곳이다. 맵핑 소프트웨어는 최종 위치 이동 명령을 생성하기 전에 다음과 같이 반복적인 방식으로 작동할 수 있다:
1단계. 스코프가 타겟을 볼 수 있도록 하는 초기 위치를 연산한다(예: 타겟에서 130m, 일반적으로 타겟이 이동하는 방향을 향하거나 일반적으로 타겟의 전면을 향함).
2단계. 지형도 데이터와 지형 장애물 데이터를 사용하여 초기 위치(예: 시야에 언덕/산 등성이, 산, 나무가 없음)에서 실제로 타겟을 볼 수 있는지 확인한다.
3단계. 만약 스코프가 타겟을 볼 수 없는 경우, 은밀한 감시 상태를 유지하면서 타겟을 볼 수 있도록, 타겟으로부터 미리 정해진 최소 거리보다 먼 다른 가까운 위치로 이동한다.
4단계. 적절한 위치가 식별될 때까지 2단계와 3단계를 반복한다.
5단계. (i) 팔로워 스코프가 각각의 현재 위치에서 적절한 위치에 도달하는 물리적 능력(예: 차량이 강을 건널 수 없음) 및 물리적으로 적절한 위치에 도달할 수 있는지 여부, (ii) 각각의 현재 위치에서 적절한 위치에 도달하는 데 필요한 시간과 노력에 기반하여 팔로워 스코프에 가장 적합한 후보를 식별한다. 팔로워 스코프가 사전에 식별되거나 팔로워 스코프에 대한 가능한 후보가 단 하나인 경우 이 단계를 생략한다.
6단계. 선택한 팔로워 스코프와 관련된 차량의 위치 이동 명령을 생성한다.
이와 같은 방식으로, 맵핑 소프트웨어는 다수의 잠재적인 새로운 위치를 효과적으로 시뮬레이션한 다음, 새로운 위치가 차량을 이동하기에 적합한지 여부를 결정한다. 맵핑 소프트웨어는 또한 바람직하게 적절한 스코프를 선택할 때 및 선택된 스코프와 관련된 차량에 대한 위치 이동 명령을 생성할 때 차량이 통과하지 않아야 하는 영역(예: 늪, 도로 없는 숲, 거친 지형)을 식별한다.
지형 데이터는 지형 특징에 의해 방해받지 않는 위치를 선택하는 데 유용할 뿐만 아니라 여러 방해되지 않는 위치 중에서 더 나은 위치를 선택하는 데에도 사용할 수 있다. 예를 들어,타겟에서 거의 동일한 거리에 있는 두 개의 적절한 위치가 있는 경우 지형 데이터는 표고가 더 높은 위치를 식별하는 데 사용될 수 있다. 이는 타겟을 내려다보는 것이 일반적으로 타겟을 올려다보는 것보다 더 나은 위치이기 때문이다.
스코프의 잠재적 용도 중 하나가 타겟이나 타겟의 특정 부분에 투사체(예: 총알)를 쏘는 것이라면 새로운 위치를 선택할 때 추가 요소를 고려해야 한다. 예를 들어, 타겟이 스코프가 장착된 소총에 의해 가슴 부위가 명중되어 이상적으로 살해되는 대형 동물이라고 가정하기로 한다. 고려해야 할 요소에는 타겟에 대한 스코프의 방향(이상적으로는 스코프가 가슴 부분을 향해야 함), 치명적인 사격을 가할 수 있는 소총의 예상 범위 및 동물이 스코프의 존재를 감지하지 못하도록 과녁으로부터 유지되어야 하는 최소 거리가 포함된다. 가장 이상적으로 가슴 영역을 향하는 위치는 얼굴 인식과 관련하여 위에서 설명한 유사한 프로세스를 사용하여 결정할 수 있다. 여기서 동물의 신체에 대해 알려진 해부학적 구조를 사용하여 적절한 시야각을 계산한다.
리드 스코프가 타겟에 비교적 가깝지만 시야가 부분적으로 가려져 있는 어떤 경우에는, 다른 스코프를 더 잘 볼 수 있는 위치에 배치하는 것이 목표이다. 예를 들어, 도 11c를 참조하면 리드 스코프는 타겟에서 불과 120m 떨어져 있지만 시야에 작은 능선으로 인해 타겟의 시야가 부분적으로 가려져 있다. 여기에서, 맵핑 소프트웨어는 팔로워 스코프 3을 타겟에서 130m 떨어진 도11a와 같은 동일한 위치로 안내한다. 따라서 팔로워 스코프 3은 리드 스코프보다 타겟에서 약간 멀리 떨어져 있지만, 팔로워 스코프는 타겟을 더 잘 볼 수 있다. 대안적으로, 도11c의 능선이 존재하지 않더라도 지형 데이터는 팔로워 스코프 3의 새로운 위치가 리드 스코프의 위치의 고도에 비해 타겟보다 더 높은 고도에 있음을 나타낼 수 있으며, 따라서 팔로워 스코프 3은 고도가 높기 때문에 타겟을 보기에 더 좋은 위치에 있을 것이다.
특정 경우에, 맵핑 소프트웨어는 팔로워 스코프 1-3 중 어느 것도 타겟을 보기에 적절하지 않고, 방해받지 않는 위치에 도달하는 것이 불가능하거나 그러한 위치에 도달하기 위한 시간과 노력이 용납될 수 없다고 결정할 수 있다. 이것은 통과할 수 없는 지형 장애물, 타겟 근처의 장애물, 긴 이동 거리 또는 안전 문제 때문일 수 있다. 이러한 상황에서 공중 장착 디바이스는 타겟을 보기 위한 팔로워 스코프로 전개될 수 있다. 도 11d를 참조하면, 도 9a에 도시된 공중 장착 디바이스 (107)(드론)는 타겟으로부터 130m의 거리에서 타겟 위로 비행하도록 전개될 수 있다. 위에서 설명한 바와 같이, 디바이스(107)(드론)는 현재 타겟 위치 데이터를 제공하는데 필요한 전술한 복수의 측정 디바이스를 포함할 수 있다. 디바이스(107)(드론)는 팔로워 스코프 1-3과 관련된 차량 중 하나에서 발진될 수 있거나, 팔로워 스코프 1-3과 다른 위치에 존재할 수 있지만, 여전히 감시 환경 내에 있으며, 필요한 경우 발진될 준비가 되어 있다.
AH. 팬틸트 짐벌(GIMBAL) 메커니즘
바람직한 일 실시예에서, 팔로워 스코프는 손의 움직임과 몸의 회전에 의해 수동으로 움직인다. 다른 바람직한 실시예에서, 팔로워 스코프는 팬-틸트 메커니즘에 연결되고, 팬-틸트 메커니즘을 지시하는 오퍼레이터 제어 게임 컨트롤러 또는 다른 포인팅 장치(오퍼레이터 제어 입력 장치)를 통해 이동된다. 또 다른 실시예에서, 팬-틸트 메커니즘은 팬-틸트 메커니즘을 이동시켜 타겟 위치를 가리키도록 팔로워 스코프를 위치 지정하거나 재배치하도록 전송되는 신호를 통해 완전히 자동화 된 방식으로 이동된다. 완전 자동화 된 실시예에서는 오퍼레이터 입력이 제공되지 않는다. 팬틸트 방식의 팔로워 스코프는 차량에 탑재(예: 지상 차량의 마스트 상단, 드론과 연결)하거나 고정 타워 상단에 장착할 수 있다.
예를 들어, 완전히 자동화 된 실시예에서, 하나 이상의 팔로워 스코프는 팬틸트 메커니즘 또는 기타 지시 또는 방향 장치에 장착되어 현재 위치에서 리드 스코프로부터 수신된 타겟 위치 데이터에 의해 정의된 타겟 위치로 팔로워 스코프를 자동으로 재배치한다. 이 실시예에서, 사용자 프롬프트는 제거되거나 팔로워 스코프의 자동화 된 이동과 조합하여 사용될 수 있다. 이 실시예에서, 리드 스코프와 팔로워 스코프는 다음과 같이 "잠김 상태" 가 되어, 타겟을 추적하기 위한 리드 스코프의 각 위치 이동은 하나 이상의 팔로워 스코프의 재배치를 자동적이고 지속적으로 야기함으로써, 리드 스코프에 의해 식별된 타겟을 볼 수 있게 할 것이다.
팬 틸트 메커니즘이 육상 차량에 사용되는 바람직한 일 실시예에서, 센서는 프로그램 제어 하에 있는 정밀한 자이로 안정화 모터 구동 팬 틸트 짐벌에 통합된다. 짐벌은 팬 및 틸트 축 모두에서 다양한 모션 속도와 조준 정확도가 가능한 정밀한 모션 제어를 제공한다. 짐벌을 사용하면 팬 축을 연속적으로 360도 회전할 수 있으며, 동시에 틸트 축은 수평선 아래로 45도, 수직으로 90도까지 볼 수 있다. 전기 기계적 안정화는 안정적인 비디오 이미지를 제공한다. 짐벌 기반 팬-틸트 메커니즘은 당업계에 잘 알려져 있다. 본 발명에 사용하기에 적합한 짐벌 기반 팬-틸트 메커니즘의 두 가지 예는 미국 특허 출원 공개 번호 2017/0302852(Lam) 및 2007/0050139(Sidman)에 설명되어 있으며, 둘 다 참고로 여기에 포함된다.
팬-틸트 메커니즘이 차량에 장착될 때, 팬-틸트 메커니즘에 제공되는 제어 신호를 적절하게 조정할 수 있도록 차량의 방향을 알아야 한다. 이 목표를 달성하기 위해 다양한 기술이 사용될 수 있다.
일 실시예에서, 방향 센서 및 GPS 안테나(복수 안테나)는 팬-틸트 메커니즘은 이동 페이로드, 여기에서는 스코프에 장착된다. 이러한 센서는 위치에 대한 위도, 경도 및 고도와 방향에 대한 표제, 피치 및 롤 각도와 같은 고정 참조 프레임과 관련된 페이로드의 위치 및 방향을 보고한다. 이 실시예에서 보고되는 차량의 위치 및 방향은 탑재 하중 자체의 위치 및 방향이다.
다른 실시예에서, 방향 센서 및 GPS 안테나는 팬-틸트 메커니즘의 베이스에 장착된다. 이 센서는 고정된 기준 프레임을 기준으로 팬-틸트 메커니즘 베이스의 위치와 방향을 보고한다. 팬-틸트 메커니즘에는 팬-틸트 메커니즘의 베이스에 대한 팬-틸트 페이로드의 방향을 팬 및 틸트 각도로 보고하는 센서도 있다. 이러한 팬 및 틸트 각도는 팬-틸트 메커니즘의 기준 또는 "홈" 위치를 기준으로 한다. 고정된 기준 프레임에 대한 팬-틸트 페이로드의 방향은 예를 들어 오일러(Euler)(요, 피치 및 롤) 각도 또는 사원법(quaternions)을 사용하는 기존 방법과 함께 차량의 방향과 팬 및 틸트 각도를 수학적으로 결합하여 계산된다.
다른 실시예에서, 방향 센서 및 GPS 안테나는 호스트 차량에 장착된다. 이 센서는 고정된 기준 프레임을 기준으로 차량의 위치와 방향을 보고한다. 팬-틸트 메커니즘은 예를 들어 오일러 각도로 나타낼 수 있는 차량에 대한 방향으로 차량에 설치된다. 팬-틸트 메커니즘에는 팬-틸트 메커니즘의 베이스에 대한 팬-틸트 페이로드의 방향을 팬 및 틸트 각도로 보고하는 센서가 있다. 고정 기준 좌표계에 대한 팬틸트 페이로드의 방향은 차량의 방향, 차량에 대한 팬틸트 메커니즘의 베이스 방향, 차량의 팬 및 메커니즘의 틸트 각도를 수학적으로 결합하여 계산된다.
다른 실시예는 시스템에 참여하는 다른 스코프와 공유되는 고정된 기준 프레임에 대한 페이로드의 방향을 계산하기 위해 유사한 방식으로 궁극적으로 결합될 수 있는 다수의 구성요소에 걸쳐 분포된 위치 및 방향 센서를 포함할 수 있다.
팬-틸트 짐벌 메커니즘은 리드 스코프에서 작업자가 제어하는 버전이나 완전히 자동화된 버전으로 사용할 수도 있다.
AI. 자동 타겟 탐지를 위한 추가 세부 사항
전술한 바와 같이, 자동 타겟 검출은 미리 정의된 타겟 이미지를 검색하도록 프로그래밍된 리드 스코프를 사용하여 수행될 수 있고, 그 다음 임의의 식별된 타겟의 위치를 팔로워 스코프에 전달한다. 본 발명의 다른 실시예에서, 리드 스코프는 차량 또는 마스트에 장착되며, 리드 스코프는 전술한 자동 타겟 탐지 기술을 이용하여 특정 유형의 타겟을 찾기 위해 지정된 영역을 통해 탐색 패턴으로 이동하도록 프로그래밍 된다. 타겟이 식별되면(예: 검색 기준이 "사람"을 검색하는 것이고 "사람"이 식별됨) 타겟 좌표 및 선택적 이미지 정보가 하나 이상의 팔로워 스코프에 전송된다. 팔로워 스코프가 휴대용이거나 휴대 조작되는 경우, 오퍼레이터는 수신된 타겟 위치로 스코프를 이동시킨다. 또는 팔로워 스코프가 팬틸트 기구에 장착되어 완전 자동화(스코프 연산자 없음)된 경우, 팔로워 스코프는 자동으로 리드 스코프가 지정한 위치로 이동한다.
리드 스코프가 검색 영역을 이동함에 따라 리드 스코프의 특성을 바꾸는 등 다양한 검색 지시를 리드 스코프에 프로그래밍 할 수 있다. 예를 들어, 리드 스코프의 카메라는 확대/축소가 가능하고 광학에서 열화상으로 전환될 수 있으며, 지정된 요구 사항을 충족하는 타겟을 찾을 가능성을 높이기 위해 지정된 영역을 검색하는 동안 다른 필터를 적용할 수 있다.
AJ. 차량 기반 구현의 추가 흐름도
도 10은 타겟 추적을 위해 사용되는 스코프 중 하나가 차량에 장착되거나 차량에 통합되는 타겟 추적 프로세스의 바람직한 일 실시예의 흐름도이다. 하나의 바람직한 실시예에서, 프로세스는 적어도 다음 단계에 의해 구현된다:
1000: 제1스코프에 의해 찾아낸 추정 타겟에 관한 현재 타겟 위치 데이터를 식별하고, 현재 타겟 위치 데이터는 제1스코프의 복수의 측정 디바이스를 사용하여 식별된다.
1002: 제1스코프는 제1스코프에 의해 식별된 추정 타겟에 관한 현재 타겟 위치 데이터를 제2스코프에 전자적으로 전송한다.
1004: 제2스코프는 복수의 측정 디바이스를 이용하여 제2스코프의 현재 타겟 위치의 현재 타겟 위치 데이터를 식별한다.
1006: 제2 스코프의 프로세서가 제2스코프의 현재 타겟 위치 데이터와 제1스코프로부터 수신한 현재 타겟 위치 데이터를 사용하여, 제2 스코프를 현재 타겟 위치에서 제1 스코프에 의해 식별된 추정 타겟의 타겟 위치로 이동하는 데 필요한 위치 이동을 계산한다.
1008: 제2스코프의 프로세서가 제2스코프의 위치 이동을 위하여 사용할 전자적으로 생성된 신호를 출력한다.
1010: 원격 서버에서 추정 타겟에 관한 현재 타겟 위치 데이터를 사용하여, 제2스코프가 추정 타겟을 볼 수 있게 하는 제2위치를 계산하고 제2위치를 차량에 전자적으로 전달한다.
1012: 맵핑 소프트웨어가 제1위치와 제2위치를 사용하여, 제1 위치에서 제2위치로 차량을 이동시키기 위한 위치 이동 명령을 계산하고, 위치 이동 명령을 차량 오퍼레이터에게 전달한다.
본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 광범위한 개념을 벗어나지 않고 전술한 실시 예를 변경할 수 있음을 이해할 것이다. 그러므로, 본 발명은 개시된 특정 실시 예로 제한되지 않으며, 본 발명의 사상 및 범위 내에서 변형을 포함하는 것으로 이해되어야 할 것이다.

Claims (51)

  1. 상호간 이격되어 있는 제1 스코프 및 제2 스코프에 의해 단일 추정 타겟을 추적하는 방법으로서, 각각의 스코프는 현재 타겟 위치 데이터를 제공하도록 구성된 복수의 측정 디바이스를 포함하고, 상기 제2 스코프는 차량 오퍼레이터에 의해 제어되는 차량에 장착되거나 통합되고, 상기 차량은 초기에 제1 위치에 있으며, 상기 방법은:
    (a) 상기 제1 스코프에 의해 찾아낸 추정 타겟에 관한 현재 타겟 위치 데이터를 식별하는 단계로서, 상기 현재 타겟 위치 데이터는 상기 제1 스코프의 복수의 측정 디바이스를 사용하여 식별되며;
    (b) 상기 제1스코프가 전자 네트워크를 통해 상기 제 1 스코프에 의해 식별된 상기 추정 타겟에 관한 상기 현재 타겟 위치 데이터를 상기 제 2 스코프와 전자적으로 통신하는 단계;
    (c) 상기 제2스코프가 복수의 디바이스 장치를 사용하여 상기 제2 스코프의 현재 타겟 위치의 현재 타겟 위치 데이터를 식별하는 단계;
    (d)상기 제2스코프의 프로세서가 상기 제2스코프의 현재 타겟 위치 데이터 및 상기 제1스코프에서 수신한 현재 타겟 위치 데이터를 사용하여 상기 제2스코프의 현재 타겟 위치에서 상기 제1 스코프에 의해 식별된 추정 타겟의 타겟 위치로 상기 제2 스코프를 이동시키는데 필요한 위치 이동을 계산하는 단계;
    (e)상기 제2스코프의 프로세서가 상기 위치 이동을 하기 위해 상기 제2 스코프에서 사용하기 위한 전자 제어 신호를 출력하는 단계;
    (f) 원격 서버에서, 상기 추정 타겟에 관한 상기 현재 타겟 위치 데이터를 사용하여, 상기 제2 스코프가 상기 추정 타겟을 볼 수 있게 하는 제2 위치를 계산하고, 상기 제2 위치를 상기 차량에 전자적으로 통신하는 단계;
    (g) 맵핑 소프트웨어가 상기 제1 위치 및 상기 제2 위치를 사용하여 상기 차량을 상기 제1 위치에서 상기 제2 위치로 이동시키기 위한 위치 이동 명령을 계산하는 단계; 및
    (h) 상기 차량 오퍼레이터에게 상기 위치 이동 명령을 전달하는 단계를 포함하며,
    상기 제 2 스코프는 상기 전자 제어 신호를 사용하여 상기 제2스코프의 현재 타겟 위치로부터 제 2 스코프를 재배치함으로써, 상기 제 1 스코프로부터 수신한 현재 타겟 위치 데이터에 의해 정의된 타겟 위치를 향해 이동하도록 하고, 상기 위치 이동 명령은 상기 차량 오퍼레이터가 상기 차량을 상기 제1 위치에서 상기 제2 위치로 이동하도록 프롬프트(prompt)하는데 사용되는 방법.
  2. 제1항에 있어서,
    (i) 상기 제1스코프는 상기 전자 네트워크를 통하여 상기 현재 타겟 위치 데이터를 상기 네트워크 서버와 전자적으로 통신하고,
    (ii) 상기 네트워크 서버는 상기 전자 네트워크를 통해 상기 현재 타겟 위치 데이터를 저장하고 상기 제2스코프로 전달함으로써, 상기 제1 스코프에 의해 식별된 상기 추정 타겟에 관한 상기 현재 타겟 위치 데이터를 상기 제1스코프와 상기 제2스코프가 전자적으로 통신하는 방법.
  3. 제2항에 있어서, 상기 제1 스코프, 상기 제2 스코프 및 상기 네트워크 서버는 메시 네트워크의 노드들이고, 상기 전자 네트워크는 상기 메시 네트워크인 방법.
  4. 제1항에 있어서, 상기 제2스코프는 디바이스에 통합되고, 상기 디바이스는 상기 차량에 장착되거나 통합되는 방법.
  5. 제1항에 있어서, 상기 제1스코프는 스코프 오퍼레이터에 의해 이동되고, 상기 제1스코프에 의해 찾아낸 상기 추정 타겟에 관한 상기 현재 타겟 위치 데이터는 상기 제1스코프의 오퍼레이터에 의해 찾아내는 방법.
  6. 제 1 항에 있어서, 상기 제 2 위치는 상기 차량의 제 1 위치 또는 상기 제 1스코프의 위치와 관련하여,
    (i) 상기 추정 타겟에 더 가까운 조건,
    (ii) 상기 추정 타겟에 대한 시야를 덜 가리는 조건,
    (iii) 상기 타겟을 보기 위한 더 높은 고도 조건,
    (iv) 상기 타겟의 생체 인식 데이터를 캡처하기 위한 더 나은 위치 조건, 및
    (v) 상기 타겟 또는 상기 타겟의 특정 부분에 투사체를 쏠 수 있는 더 나은 위치 조건
    중 하나 이상을 충족하는 방법.
  7. 제1항에 있어서, 상기 (f) 단계는 상기 제1스코프로부터 획득된 상기 추정 타겟에 대한 상기 현재 타겟 위치 데이터를 사용하여 계산을 수행하는 방법.
  8. 제1항에 있어서,
    (i) 상기 제2 스코프는 상기 추정된 타겟을 찾고, 상기 현재 타겟 위치를 식별하기 위해 상기 제2스코프의 복수의 측정 디바이스를 사용하는 단계를 더 포함하고,
    상기 (f) 단계는 상기 제2스코프로부터 획득된 상기 추정 타겟에 대한 상기 현재 타겟 위치 데이터를 이용하여 계산을 수행하는 방법.
  9. 제1항에 있어서,
    (i) 디지털 이미지 센서를 사용하여 상기 제1스코프에 의해 식별된 상기 추정 타겟의 디지털 이미지를 캡처하는 단계;
    (j) 상기 제1스코프가 상기 전자 네트워크를 통해 상기 제2스코프와 전자적으로 통신함으로써, (i) 상기 제1 스코프에 의해 식별된 상기 추정 타겟의 상기 디지털 이미지, 또는 (ii) 상기 디지털 이미지를 사용하여 생성된 상기 제1스코프에 의해 식별된 상기 추정 타겟의 시뮬레이션 이미지를 전송하는 단계; 및
    (k) 상기 제2스코프의 디스플레이에 상기 제1스코프에 의해 식별된 상기 추정 타겟의 상기 디지털 이미지 또는 상기 제1스코프에 의해 식별된 상기 추정 타겟의 상기 시뮬레이션 이미지를 표시하는 단계를 더 포함하며,
    디스플레이된 상기 추정 타겟은 상기 제1스코프로부터 수신한 상기 현재 타겟 위치 데이터에 의해 정의된 상기 타겟 위치를 향해 상기 제2스코프를 이동시키는 것을 보조하는데 사용되는 방법.
  10. 제1항에 있어서, 상기 타겟 위치 데이터는 (i) 상기 타겟의 3차원 위치 데이터, 또는 (ii) 상기 타겟의 3차원 위치 데이터를 계산하기에 충분한 로우(raw) 측정 데이터인 방법.
  11. 제1항에 있어서, 상기 제1스코프에 의해 찾아낸 상기 추정 타겟에 관한 상기 현재 타겟 위치 데이터는 상기 추정 타겟의 중심을 식별하는 방법.
  12. 제1항에 있어서,
    (i) 상기 제1 스코프에 의해 찾아낸 상기 추정 타겟에 관하여 연속되는 새로운 현재 타겟 위치 데이터를 식별하는 단계; 및
    (j) 연속되는 상기 새로운 현재 타겟 위치 데이터를 사용하여 단계 (b)-(e)를 수행하는 단계를 더 포함하며,
    상기 제 2 스코프는 상기 전자 제어 신호를 사용하여 상기 제2스코프의 현재 타겟 위치로부터 제 2 스코프를 재배치함으로써, 상기 제 1 스코프로부터 수신한 연속되는 상기 현재 타겟 위치 데이터에 의해 정의된 타겟 위치를 향해 이동하도록 하는 방법.
  13. 제1항에 있어서,
    (i) 상기 제1스코프의 프로세서에서 상기 제1스코프에 의해 찾아낸 상기 추정 타겟에 관한 상기 현재 타겟 위치 데이터의 변화를 검출하는 단계; 및
    (j) 변경된 현재 목표 위치 데이터를 사용하여 단계 (b)-(e)를 수행하는 단계를 더 포함하며,
    상기 제 2 스코프는 상기 전자 제어 신호를 사용하여 상기 제2스코프의 현재 타겟 위치로부터 제 2 스코프를 재배치함으로써, 상기 제 1 스코프로부터 수신한 변경된 상기 현재 타겟 위치 데이터에 의해 정의된 타겟 위치를 향해 이동하도록 하는 방법.
  14. 제1항에 있어서, 상기 복수의 측정 디바이스는,
    (i) 상기 제1 스코프 또는 상기 제2 스코프의 위도, 경도 및 고도를 제공하도록 구성된 GPS (Global Positioning System) 디바이스 또는 GPS 지원 관성 항법 시스템(GPS / INS),
    (ii) 제 1 스코프 또는 상기 제 2 스코프의 위치에 대한 추정 타겟의 방향을 제공하도록 구성된 나침반, 및
    (iii) 자세 데이터를 제공하도록 구성된 방위 센서
    중 적어도 하나의 디바이스를 포함하는 방법.
  15. 제1항에 있어서, 상기 제2스코프가 상기 추정 타겟을 볼 수 있게 하는 상기 제2위치는,
    (i) 컴퓨터에서, 상기 제 2 스코프의 현재 위치와 상기 제 1 스코프로부터 수신한 상기 현재 타겟 위치 데이터에 의해 정의되는 타겟 위치 사이의 벡터를 상기 제 2스코프 및 상기 타겟 위치를 포함하는 영역의 지형도 상에 전자적으로 오버레이하는 단계;
    (ii) 상기 컴퓨터에서, 상기 벡터와 지형도로부터 상기 벡터가 상기 제 2 스코프에서 상기 추정 타겟을 보지 못하게 하는 지형 특징을 통과하는지를 전자적으로 결정하는 단계; 및
    (iii) 상기 컴퓨터에서, 상기 벡터가 상기 제2스코프가 상기 추정 타겟을 관찰하는 것을 방해하지 않는 지형 특징을 통과한다고 결정되면, 상기 추정 타겟을 방해받지 않고 관찰할 수 있는 상기 제2 위치를 출력하는 단계
    를 통하여 원격 서버의 컴퓨터에서 계산되는 방법.
  16. 제1항에 있어서, 상기 제2스코프는 팬-틸트 메커니즘에 장착되고, 상기 전자 제어 신호는 상기 팬-틸트 메커니즘에 의해 사용되어 상기 제2스코프의 현재 목표 위치에서 상기 제2스코프의 위치를 재배치함으로써, 상기 제1 스코프에서 수신된 상기 현재 타겟 위치 데이터에 의해 정의된 타겟 위치를 향해 이동하는 방법.
  17. 제1항에 있어서,
    (i) 상기 제2 스코프의 프로세서는 상기 위치 이동으로부터 직접 상기 전자 제어 신호를 생성하는 단계를 더 포함하는 방법.
  18. 제 1 항에 있어서, 상기 제 2스코프는 부분적으로 오퍼레이터가 보조하도록,
    (i) 상기 제2스코프의 프로세서는 상기 제2스코프의 오퍼레이터가 위치 이동을 하도록 프롬프트하기 위해 상기 제2스코프의 오퍼레이터가 사용할 전자적으로 생성된 인디케이터를 출력하는 단계,
    (j) 상기 제2스코프의 오퍼레이터는 전자적으로 생성된 인디케이터를 기반으로 오퍼레이터 제어 입력 장치에 제어 입력을 입력하는 단계, 및
    (k) 위치 이동을 하기 위해 상기 제어 입력을 상기 제2스코프가 사용하기 위해 제2스코프에 의해 출력되는 상기 전자 제어 신호로 전자적으로 변환하는 단계
    를 더 포함하는 방법.
  19. 단일 추정 타겟을 추적하기 위한 시스템으로서,
    (a) 상호간 이격되어 있는 제1스코프 및 제2스코프;
    상기 제1스코프 및 상기 제2스코프 각각은 현재 타겟 위치 데이터를 제공하도록 구성된 복수의 측정 디바이스를 포함하고, 상기 제2스코프는 차량 오퍼레이터에 의해 제어되는 차량에 장착되거나 통합되고, 상기 차량은 초기에 제1 위치에 있으며, (i) 상기 제1스코프의 복수의 측정 디바이스는 상기 제1스코프에 의해 찾아낸 추정 타겟에 관한 현재 타겟 위치 데이터를 식별하도록 구성되고, (ii) 상기 제1스코프는 상기 제1스코프에 의해 식별된 추정 타겟에 관한 현재 타겟 위치 데이터를 전자 네트워크를 통해 상기 제2스코프와 전자적으로 통신하도록 구성되고, (iii) 상기 제2스코프는 상기 제2스코프의 복수의 측정 디바이스를 사용하여 상기 제2스코프의 현재 타겟 위치의 현재 타겟 위치 데이터를 식별하도록 구성되며;
    (b) 제2스코프 프로세서;
    상기 제2스코프 프로세서는, (i) 상기 제2스코프의 현재 타겟 위치 데이터와 상기 제1스코프에서 수신한 현재 타겟 위치 데이터를 사용하여, 상기 제2스코프를 상기 제2스코프의 현재 타겟 위치에서 상기 제1스코프에 의해 식별된 추정 타겟의 타겟 위치로 이동하는데 필요한 위치 이동을 계산하고, (ii) 위치 이동을 하기 위해 상기 제2 스코프가 사용할 전자 제어 신호를 출력하며,
    (c) 원격 서버;
    상기 원격 서버는, (i) 상기 추정 타겟에 관한 현재 타겟 위치 데이터를 사용하여, 상기 제2스코프가 상기 추정 타겟을 볼 수 있도록 하는 제2위치를 계산하고, 그리고 (ii) 상기 차량과 전자적으로 상기 제2위치를 전송하며,
    (d) 상기 제1 위치 및 상기 제2 위치를 사용하여 상기 차량을 상기 제1 위치에서 상기 제2 위치로 이동시키기 위한 위치 이동 명령을 계산하도록 구성된 맵핑 소프트웨어를 포함하며,
    상기 위치 이동 명령은 상기 차량 오퍼레이터에게 전달되고,
    상기 제 2 스코프는 상기 전자 제어 신호를 사용하여 상기 제2스코프의 현재 타겟 위치로부터 제 2 스코프를 재배치함으로써, 상기 제 1 스코프로부터 수신한 현재 타겟 위치 데이터에 의해 정의된 타겟 위치를 향해 이동하도록 하고, 상기 위치 이동 명령은 상기 차량 오퍼레이터가 상기 차량을 상기 제1 위치에서 상기 제2 위치로 이동하도록 프롬프트(prompt)하는데 사용되는 시스템.
  20. 제19항에 있어서, 상기 제1 스코프, 상기 제2 스코프 및 상기 네트워크 서버는 메시 네트워크의 노드들이고, 상기 전자 네트워크는 상기 메시 네트워크인 시스템.
  21. 제19항에 있어서, 상기 제2스코프는 디바이스에 통합되고, 상기 디바이스는 상기 차량에 장착되거나 통합되는 시스템.
  22. 제19항에 있어서, 상기 제1스코프는 오퍼레이터에 의해 이동되고, 상기 제1스코프에 의해 찾아낸 상기 추정 타겟에 관한 상기 현재 타겟 위치 데이터는 상기 제1스코프의 오퍼레이터에 의해 찾아내는 시스템.
  23. 제19항에 있어서, 상기 제2 위치는 상기 차량의 제1 위치 또는 상기 제1스코프의 위치와 관련하여,
    (i) 상기 추정 타겟에 더 가까운 조건,
    (ii) 상기 추정 타겟에 대한 시야를 덜 가리는 조건,
    (iii) 상기 타겟을 보기 위한 더 높은 고도 조건,
    (iv) 상기 타겟의 생체 인식 데이터를 캡처하기 위한 더 나은 위치 조건, 및
    (v) 상기 타겟 또는 상기 타겟의 특정 부분에 투사체를 쏠 수 있는 더 나은 위치 조건
    중 하나 이상을 충족하는 시스템.
  24. 제19항에 있어서, 상기 제2 위치의 계산은 상기 제1스코프로부터 획득한 상기 추정 타겟에 관한 상기 현재 타겟 위치 데이터를 사용하여 수행되는 시스템.
  25. 제19항에 있어서, 상기 제2스코프는 상기 추정된 타겟의 위치를 찾고, 상기 현재 타겟 위치를 식별하기 위해 상기 제2스코프의 복수의 측정 디바이스를 사용하고,
    상기 제2 위치의 계산은 상기 제2스코프로부터 획득된 상기 추정 타겟에 대한 상기 현재 타겟 위치 데이터를 이용하여 수행되는 시스템.
  26. 제19항에 있어서, 상기 타겟 위치 데이터는 (i) 상기 타겟의 3차원 위치 데이터, 또는 (ii) 상기 타겟의 3차원 위치 데이터를 계산하기에 충분한 로우(raw) 측정 데이터인 시스템.
  27. 제19항에 있어서,
    (e) 상기 제2스코프가 상기 추정 타겟을 볼 수 있게 하는 상기 제2위치를 다음과 같이 계산하는 원격 서버의 컴퓨터를 더 포함하는 시스템에 있어서,
    (i) 상기 컴퓨터는, 상기 제 2 스코프의 현재 위치와 상기 제 1 스코프로부터 수신한 상기 현재 타겟 위치 데이터에 의해 정의되는 타겟 위치 사이의 벡터를 상기 제 2스코프 및 상기 타겟 위치를 포함하는 영역의 지형도 상에 전자적으로 오버레이하고,
    (ii) 상기 컴퓨터는, 상기 벡터와 지형도로부터 상기 벡터가 상기 제 2 스코프에서 상기 추정 타겟을 보지 못하게 하는 지형 특징을 통과하는지를 전자적으로 결정하고, 그리고
    (iii) 상기 컴퓨터는, 상기 벡터가 상기 제2스코프가 상기 추정 타겟을 관찰하는 것을 방해하지 않는 지형 특징을 통과한다고 결정되면, 상기 추정 타겟을 방해받지 않고 관찰할 수 있는 상기 제2 위치를 출력하는 시스템.
  28. 제19항에 있어서, 상기 제2스코프는 팬-틸트 메커니즘에 장착되고, 상기 전자 제어 신호는 상기 팬-틸트 메커니즘에 의해 사용되어 상기 제2스코프의 현재 목표 위치에서 상기 제2스코프의 위치를 재배치함으로써, 상기 제1 스코프에서 수신된 상기 현재 타겟 위치 데이터에 의해 정의된 타겟 위치를 향해 이동하는 시스템.
  29. 제19항에 있어서, 상기 제2스코프의 프로세서는: (iii) 상기 위치 이동으로부터 직접 상기 전자 제어 신호를 생성하는 시스템.
  30. 제19항에 있어서, 상기 제2스코프는 부분적으로 오퍼레이터가 보조하고, 상기 제2스코프의 프로세서는:
    (iii) 상기 제2스코프의 오퍼레이터가 위치 이동을 하도록 프롬프트하기 위해 상기 제2스코프의 오퍼레이터가 사용할 전자적으로 생성된 인디케이터를 출력하고,
    (iv) 오퍼레이터 제어 입력 장치에 입력된 제어 입력을 수신하고, 상기 오퍼레이터는 전자적으로 생성된 인디케이터를 기반으로 오퍼레이터 제어 입력 장치에 제어 입력을 입력하고,
    (v) 위치 이동을 하기 위해 상기 제어 입력을 상기 제2스코프가 사용하기 위해 제2스코프에 의해 출력되는 상기 전자 제어 신호로 전자적으로 변환하는 시스템.
  31. 상호간 이격되어 있는 제1스코프 및 제2스코프에 의해 추정된 타겟을 추적하는 방법으로서, 각각의 스코프는 현재 타겟 위치 데이터를 제공하도록 구성된 복수의 측정 디바이스를 포함하며, 상기 제2 스코프는 차량 오퍼레이터에 의해 제어되는 차량에 장착되거나 통합되고, 상기 차량은 초기에 제1 위치에 있으며, 상기 방법은:
    (a) 상기 제1 스코프에 의해 찾아낸 추정 타겟에 관한 현재 타겟 위치 데이터를 식별하는 단계로서, 상기 현재 타겟 위치 데이터는 상기 제1 스코프의 복수의 측정 디바이스를 사용하여 식별되며;
    (b) 전자 네트워크를 통해 상기 제 1 스코프가 상기 제 2 스코프와 상기 제 1 스코프에 의해 식별된 상기 추정 타겟에 관한 상기 현재 타겟 위치 데이터를 전자적으로 통신하는 단계;
    (c) 상기 제2스코프가 복수의 디바이스 장치를 사용하여 상기 제2 스코프의 현재 타겟 위치의 현재 타겟 위치 데이터를 식별하는 단계;
    (d) 네트워크 서버에서, 상기 추정 타겟에 관한 상기 현재 타겟 위치 데이터를 사용하여, 상기 제2스코프가 상기 추정 타겟을 볼 수 있게 하는 제2위치를 계산하고, 상기 제2위치를 맵핑 소프트웨어에 전자적으로 전송하는 단계;
    (e) 상기 맵핑 소프트웨어에서 상기 제1 위치 및 상기 제2 위치를 사용하여 상기 차량을 상기 제1 위치에서 상기 제2 위치로 이동시키기 위한 위치 이동 명령을 계산하는 단계;
    (f) 상기 차량에 상기 위치 이동 명령를 전송하는 단계;
    (g) 상기 제2스코프의 프로세서가 상기 제2스코프의 현재 타겟 위치 데이터 및 상기 제1스코프에서 수신한 현재 타겟 위치 데이터를 사용하여 상기 제2스코프의 현재 타겟 위치에서 상기 제1 스코프에 의해 식별된 추정 타겟의 타겟 위치로 상기 제2 스코프를 이동시키는데 필요한 위치 이동을 계산하는 단계; 및
    (h) 상기 제2스코프의 프로세서가 상기 위치 이동을 하기 위해 상기 제2 스코프에서 사용하기 위한 전자 제어 신호를 출력하는 단계를 포함하며,
    상기 제2스코프는 상기 전자 제어 신호를 사용하여 상기 제1스코프로부터 수신된 상기 현재 타겟 위치 데이터에 의해 정의된 타겟 위치를 향해 이동하도록 상기 제2스코프의 상기 현재 목표 위치로부터 상기 제2스코프의 위치를 변경하고, 상기 위치 이동 명령은 상기 차량을 상기 제1위치에서 상기 제2위치로 이동시키는데 사용되는 방법.
  32. 제31항에 있어서,
    (i) 디지털 이미지 센서를 사용하여 상기 제1스코프에 의해 식별된 상기 추정 타겟의 디지털 이미지를 캡처하는 단계;
    (j) 상기 전자 네트워크를 통해 상기 제1스코프에 의해 식별된 추정 타겟의 디지털 이미지를 상기 제2스코프에 전자적으로 전송하는 단계; 및
    (k) 상기 제1스코프에 의해 식별된 추정 타겟의 상기 디지털 이미지를 상기 제2스코프의 디스플레이상에 디스플레이하는 단계를 더 포함하며,
    디스플레이된 상기 추정 타겟은 상기 제1스코프로부터 수신된 현재 타겟 위치 데이터에 의해 정의되는 타겟 위치를 향해 상기 제2스코프를 이동시키는 것을 보조하는데 사용되는 방법,
  33. 제31항에 있어서, 상기 제1스코프는 야간 투시경 레이저를 더 포함하고, 상기 제2스코프는 타겟에 대한 레이저를 관찰하는 능력을 포함하고, 상기 방법은:
    (i) 상기 제1스코프가 레이저로 추정 타겟을 표시하는 단계, 및
    (j) 상기 제2스코프가 상기 추정 타겟에 대한 레이저를 관찰하여 상기 제2스코프가 정확한 추정 타겟을 보고 있는지 확인하는 단계를 더 포함하는 방법.
  34. 제31항에 있어서,
    (i) 상기 제2스코프와 관련하여,
    (A) 상기 제1스코프에 의해 식별된 추정 타겟의 타겟 위치, 및
    (B) 상기 제1스코프에 의해 식별된 상기 추정 타겟 위치 주위에 오버레이되는 에러 박스를 디스플레이에 표시하는 단계를 더 포함하며,
    상기 에러 박스의 크기는 상기 제1스코프 및 상기 제2스코프에 의해 야기되는 에러의 조합에 기초하는 방법.
  35. 제31항에 있어서, 상기 제2스코프는 팬-틸트 메커니즘에 장착되고, 상기 전자 제어 신호는 상기 팬-틸트 메커니즘에 의해 사용되어 상기 제2스코프의 현재 목표 위치에서 상기 제2스코프의 위치를 재배치함으로써, 상기 제1 스코프에서 수신된 상기 현재 타겟 위치 데이터에 의해 정의된 타겟 위치를 향해 이동하는 방법.
  36. 제31항에 있어서, 상기 복수의 측정 디바이스는,
    (i) 상기 제1 스코프 또는 상기 제2 스코프의 위도, 경도 및 고도를 제공하도록 구성된 GPS (Global Positioning System) 디바이스 또는 GPS 지원 관성 항법 시스템(GPS / INS),
    (ii) 제 1 스코프 또는 상기 제 2 스코프의 위치에 대한 추정 타겟의 방향을 제공하도록 구성된 나침반, 및
    (iii) 자세 데이터를 제공하도록 구성된 방위 센서
    중 적어도 하나의 디바이스를 포함하는 방법.
  37. 제31항에 있어서,
    (i) 새로운 현재 타겟 위치 데이터가 단계 (a)에서 상기 제1스코프에 의해 식별될 때 단계 (b)-(h)를 자동으로 반복하고, 상기 제1스코프 및 상기 제2스코프는 함께 잠기게 되어 상기 제2스코프는 리드 스코프에 의해 식별된 추정 타겟의 뷰(view)를 유지하기 위해 자동으로 재배치되는 단계를 더 포함하는 방법.
  38. 제31항에 있어서,
    (i) 상기 제1스코프에 의해 찾아내지길 원하는 타겟을 식별하는 단계; 및
    (j) 상기 제1스코프가 상기 타겟을 식별하기 위해 시야 내의 오브젝트에 대해 오브젝트 분류를 수행하는 단계를 더 포함하며, 식별된 타겟은 단계 (a)의 추정 타겟이 되는 방법.
  39. 현재 타겟 위치 데이터를 제공하도록 구성된 복수의 측정 디바이스를 각각 포함하고, 상호간 이격되어 있는 제1스코프 및 제2스코프에 의해 추정 타겟을 추적하는 방법으로서, 상기 제2 스코프는 차량 오퍼레이터에 의해 제어되는 차량에 장착되거나 통합되고, 상기 차량은 초기에 제1 위치에 있으며, 상기 방법은:
    (a) 상기 제1스코프에 의해 찾아낸 추정 타겟에 대한 현재 타겟 위치 데이터를 식별하는 단계로서, 상기 현재 타겟 위치 데이터는 상기 제1스코프의 복수의 측정 디바이스를 이용하여 식별되며;
    (b) 상기 제1스코프가 전자 네트워크를 통해 상기 제1스코프에 의해 식별된 추정 타겟에 관한 현재 타겟 위치 데이터를 컴퓨터와 전자적으로 통신하는 단계;
    (c) 상기 제2스코프가 복수의 측정 디바이스를 이용하여 상기 제2스코프의 현재 타겟 위치의 현재 타겟 위치 데이터를 식별하는 단계;
    (d) 컴퓨터에서, 상기 제1스코프에 의해 식별된 추정 타겟에 대한 현재 타겟 위치 데이터를 사용하여, (i) 상기 제1스코프에 의해 식별된 추정 타겟이 상기 제1 위치에서 상기 제2스코프에 의해 확인될 수 있는지 여부, 및 (ii) 상기 추정 타겟이 상기 제1 위치에서 상기 제2스코프에 의해 관찰 가능하지 않다고 계산될 때, 상기 추정 타겟을 상기 제2스코프가 확인할 수 있게 하는 제2위치를 연산하고, 상기 제2위치를 맵핑 소프트웨어에 전자적으로 전송하는 단계;
    (e) 상기 추정 타겟이 상기 제1 위치에서 상기 제2스코프에 의해 관찰 가능하지 않다고 계산될 때, 상기 맵핑 소프트웨어가 상기 제1 위치 및 상기 제2 위치를 사용하여 상기 제1 위치에서 상기 제2 위치로 차량을 이동시키기 위한 위치 이동 명령을 계산하는 단계;
    (f) 상기 추정 타겟이 상기 제1 위치에서 상기 제2스코프에 의해 관찰 가능하지 않다고 계산될 때, 상기 차량에 상기 위치 이동 명령을 전송하는 단계;
    (g) 상기 제2스코프의 프로세서가 상기 제2스코프의 현재 타겟 위치 데이터 및 상기 제1스코프에서 수신한 현재 타겟 위치 데이터를 사용하여 상기 제2스코프의 현재 타겟 위치에서 상기 제1 스코프에 의해 식별된 추정 타겟의 타겟 위치로 상기 제2 스코프를 이동시키는데 필요한 위치 이동을 계산하는 단계; 및
    (h) 상기 제2스코프의 프로세서가 상기 위치 이동을 하기 위해 상기 제2 스코프에서 사용하기 위한 전자 제어 신호를 출력하는 단계;를 포함하며,
    상기 제 2 스코프는 상기 전자 제어 신호를 사용하여 상기 제2스코프의 현재 타겟 위치로부터 제 2 스코프를 재배치함으로써, 상기 제 1 스코프로부터 수신한 현재 타겟 위치 데이터에 의해 정의된 타겟 위치를 향해 이동하도록 하고, 상기 위치 이동 명령은 상기 추정 타겟이 상기 제1 위치에서 상기 제2스코프에 의해 관찰 가능하지 않다고 계산될 때, 상기 제1위치로부터 상기 제2위치로 상기 차량을 이동시키는 데 사용되는 방법.
  40. 제39항에 있어서, 상기 컴퓨터는,
    (i) 상기 제2스코프의 현재 위치와 상기 제1스코프로부터 수신한 현재 타겟 위치 데이터에 의해 정의되는 타겟 위치 사이의 벡터를 상기 제2스코프 및 상기 타겟 위치를 포함하는 영역의 지형도에 전자적으로 오버레이하는 단계, 및
    (ii) 상기 벡터와 지형도로부터 상기 벡터가 상기 제 2 스코프에서 상기 추정 타겟을 보지 못하게 하는 지형 특징을 통과하는지를 전자적으로 결정하는 단계.
    를 통하여 상기 제1스코프에 의해 식별된 추정 타겟이 상기 제1위치에서 상기 제2스코프에 의해 확인될 수 있는지 여부를 계산하는 방법:
  41. 상호간 이격되어 있는 스코프를 이용하여 추정 타겟을 추적하는 시스템에 있어서,
    (a) 제1스코프;
    상기 제1스코프는,
    (i) 제1스코프의 현재 목표 위치 데이터를 제공하도록 구성된 제1복수의 측정 디바이스 및
    (ii) 제1프로세서를 포함하며,
    상기 제1프로세서는, (A) 상기 제1스코프에 의해 찾아낸 추정 타겟에 관한 현재 타겟 위치 데이터를 식별하고, 상기 현재 타겟 위치 데이터는 상기 제1스코프의 복수의 측정 디바이스를 사용하여 식별되며, (B) 상기 제1스코프에 의해 식별된 추정 타겟에 관한 현재 타겟 위치 데이터를 전자 네트워크에 전자적으로 전달하고;
    (b) 제2스코프;
    상기 제2스코프는,
    (i) 상기 제2스코프의 현재 타겟 위치 데이터를 제공하도록 구성된 제2복수의 측정 디바이스, 및
    (ii) 제2프로세서를 포함하며,
    상기 제2프로세서는, (A) 상기 제2스코프의 복수의 측정 디바이스를 사용하여 상기 제2스코프의 현재 타겟 위치의 현재 타겟 위치 데이터를 식별하고;
    (c) 상기 추정 타겟에 대한 현재 타겟 위치 데이터를 이용하여, 상기 제2스코프가 상기 추정 타겟을 확인할수 있는 제2위치를 계산하는 네트워크 서버; 및
    (d) 상기 네트워크 서버와 전자 통신하고, 상기 제 1 위치 및 상기 제 2 위치를 사용하여 상기 제 1 위치에서 상기 제 2 위치로 상기 차량을 이동시키기 위한 위치 이동 명령을 연산하고, 상기 위치 이동 명령을 상기 차량에 전달하기 위해 상기 차량과 전자적으로 통신하는 맵핑 소프트웨어를 포함하며,
    상기 제2프로세서는,
    (B) 상기 제2스코프의 현재 타겟 위치 데이터와 상기 제1스코프에서 수신한 현재 타겟 위치 데이터를 사용하여, 상기 제2스코프를 상기 제2스코프의 현재 타겟 위치에서 상기 제1스코프에 의해 식별된 추정 타겟의 타겟 위치로 이동하는데 필요한 위치 이동을 계산하고,
    (C) 위치 이동을 하기 위해 상기 제2 스코프가 사용할 전자 제어 신호를 출력하며,
    상기 제 2 스코프는 상기 전자 제어 신호를 사용하여 상기 제2스코프의 현재 타겟 위치로부터 제 2 스코프를 재배치함으로써, 상기 제 1 스코프로부터 수신한 현재 타겟 위치 데이터에 의해 정의된 타겟 위치를 향해 이동하도록 하고, 상기 위치 이동 명령은 상기 제1위치로부터 상기 제2위치로 상기 차량을 이동시키는 데 사용되는 시스템.
  42. 제41항에 있어서, 상기 제1스코프는 드론의 일부인 시스템.
  43. 제41항에 있어서, 상기 제2스코프는 드론의 일부인 시스템.
  44. 제41항에 있어서, 상기 제2스코프는 스마트폰인 시스템.
  45. 제41항에 있어서, 상기 제1스코프는:
    (iii) 레이저로 추정 타겟을 표시하도록 구성된 야간 투시경 레이저를 더 포함하고,
    상기 레이저는 상기 제2스코프가 정확한 추정 타겟을 보고 있는지 확인하기 위해 상기 제2스코프에 의해 관찰되는 시스템.
  46. 제41항에 있어서, 상기 복수의 측정 디바이스는,
    (i) 상기 제1 스코프 또는 상기 제2 스코프의 위도, 경도 및 고도를 제공하도록 구성된 GPS (Global Positioning System) 디바이스 또는 GPS 지원 관성 항법 시스템(GPS / INS),
    (ii) 제 1 스코프 또는 상기 제 2 스코프의 위치에 대한 추정 타겟의 방향을 제공하도록 구성된 나침반, 및
    (iii) 자세 데이터를 제공하도록 구성된 방위 센서
    중 적어도 하나의 디바이스를 포함하는 시스템.
  47. 제41항에 있어서, 상기 제2스코프는 팬-틸트 메커니즘에 장착되고, 상기 전자 제어 신호는 상기 팬-틸트 메커니즘에 의해 사용되어 상기 제2스코프의 현재 목표 위치에서 상기 제2스코프의 위치를 재배치함으로써, 상기 제1 스코프에서 수신된 상기 현재 타겟 위치 데이터에 의해 정의된 타겟 위치를 향해 이동하는 시스템.
  48. 제41항에 있어서, 상기 제1스코프의 제1프로세서는:
    (C) 상기 제1스코프에 의해 찾아내지길 원하는 타겟의 식별을 수신하고,
    (D) 상기 타겟물을 식별하기 위해 시야 내의 오브젝트에 대해 오브텍트 분류를 수행하며, 상기 식별된 타겟은 추정 타겟이 되는 시스템.
  49. 제41항에 있어서, 상기 네트워크 서버는 상기 제2스코프로부터 원격에 위치하는 시스템.
  50. 상호간 이격되어 있는 스코프를 이용하여 추정 타겟을 추적하는 시스템에 있어서,
    (a) 제1스코프;
    상기 제1스코프는,
    (i) 제1스코프의 현재 목표 위치 데이터를 제공하도록 구성된 제1복수의 측정 디바이스 및
    (ii) 제1프로세서를 포함하며,
    상기 제1프로세서는, (A) 상기 제1스코프에 의해 찾아낸 추정 타겟에 관한 현재 타겟 위치 데이터를 식별하고, 상기 현재 타겟 위치 데이터는 상기 제1스코프의 복수의 측정 디바이스를 사용하여 식별되며, (B) 상기 제1스코프에 의해 식별된 추정 타겟에 관한 현재 타겟 위치 데이터를 전자 네트워크에 전자적으로 전달하고;
    (b) 제 1 위치에 있는 차량에 장착되거나 통합되는 제 2스코프;
    상기 제 2스코프는,
    (i) 상기 제2스코프의 현재 타겟 위치 데이터를 제공하도록 구성된 제2복수의 측정 디바이스, 및
    (ii) 제2프로세서를 포함하며,
    상기 제2프로세서는, (A) 상기 제2스코프의 복수의 측정 디바이스를 사용하여 상기 제2스코프의 현재 타겟 위치의 현재 타겟 위치 데이터를 식별하고;
    (c) 상기 전자 네트워크로부터 상기 제1스코프에 의해 식별된 추정 타겟에 관한 현재 타겟 위치 데이터를 수신하고, 상기 제1스코프에 의해 식별된 추정 타겟에 대한 현재 타겟 위치 데이터를 사용하여, (i) 상기 제1스코프에 의해 식별된 추정 타겟이 상기 제1 위치에서 상기 제2스코프에 의해 확인될 수 있는지 여부, 및 (ii) 상기 추정 타겟이 상기 제1 위치에서 상기 제2스코프에 의해 관찰 가능하지 않다고 계산될 때, 상기 추정 타겟을 상기 제2스코프가 확인할 수 있게 하는 제2위치를 연산하는 컴퓨터; 및
    (d) 상기 컴퓨터와 전자 통신하고, 상기 제 1 위치 및 상기 제 2 위치를 사용하여 상기 제 1 위치에서 상기 제 2 위치로 상기 차량을 이동시키기 위한 위치 이동 명령을 연산하고, 상기 위치 이동 명령을 상기 차량에 전달하기 위해 상기 차량과 전자적으로 통신하는 맵핑 소프트웨어를 포함하며,
    상기 제2프로세서는,
    (B) 상기 제2스코프의 현재 타겟 위치 데이터와 상기 제1스코프에서 수신한 현재 타겟 위치 데이터를 사용하여, 상기 제2스코프를 상기 제2스코프의 현재 타겟 위치에서 상기 제1스코프에 의해 식별된 추정 타겟의 타겟 위치로 이동하는데 필요한 위치 이동을 계산하고,
    (C) 위치 이동을 하기 위해 상기 제2 스코프가 사용할 전자 제어 신호를 출력하며,
    상기 제 2 스코프는 상기 전자 제어 신호를 사용하여 상기 제2스코프의 현재 타겟 위치로부터 제 2 스코프를 재배치함으로써, 상기 제 1 스코프로부터 수신한 현재 타겟 위치 데이터에 의해 정의된 타겟 위치를 향해 이동하도록 하고, 상기 위치 이동 명령은 상기 추정 타겟이 상기 제1 위치에서 상기 제2스코프에 의해 관찰 가능하지 않다고 계산될 때, 상기 제1위치로부터 상기 제2위치로 상기 차량을 이동시키는 데 사용되는 시스템.
  51. 제50항에 있어서, 상기 컴퓨터는,
    (i) 상기 제2스코프의 현재 위치와 상기 제1스코프로부터 수신한 현재 타겟 위치 데이터에 의해 정의되는 타겟 위치 사이의 벡터를 상기 제2스코프 및 상기 타겟 위치를 포함하는 영역의 지형도에 전자적으로 오버레이하는 단계, 및
    (ii) 상기 벡터와 지형도로부터 상기 벡터가 상기 제 2 스코프에서 상기 추정 타겟을 보지 못하게 하는 지형 특징을 통과하는지를 전자적으로 결정하는 단계를 통하여,
    상기 제1스코프에 의해 식별된 상기 추정 타겟이 상기 제1위치에서 상기 제2스코프에 의해 확인될 수 있는지 여부를 계산하도록 구성되는 시스템.
KR1020217028143A 2019-02-11 2020-02-04 타겟을 여러 다른 디바이스에서 동시에 추적할 수 있도록 네트워크로 연결된 스코프가 있는 차량 탑재 장치 KR20210133972A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/272,733 2019-02-11
US16/272,733 US10408573B1 (en) 2017-08-11 2019-02-11 Vehicle-mounted device with network-connected scopes for allowing a target to be simultaneously tracked by multiple other devices
PCT/US2020/016619 WO2020167530A1 (en) 2019-02-11 2020-02-04 Vehicle-mounted device with network-connected scopes for allowing a target to be simultaneously tracked by multiple other devices

Publications (1)

Publication Number Publication Date
KR20210133972A true KR20210133972A (ko) 2021-11-08

Family

ID=72045013

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217028143A KR20210133972A (ko) 2019-02-11 2020-02-04 타겟을 여러 다른 디바이스에서 동시에 추적할 수 있도록 네트워크로 연결된 스코프가 있는 차량 탑재 장치

Country Status (4)

Country Link
EP (1) EP3924683A4 (ko)
KR (1) KR20210133972A (ko)
CN (1) CN113424012B (ko)
WO (1) WO2020167530A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020077387A1 (en) * 2018-10-15 2020-04-23 Towarra Holdings Pty. Ltd. Target display device
US11821996B1 (en) * 2019-11-12 2023-11-21 Lockheed Martin Corporation Outdoor entity and weapon tracking and orientation
TWI791313B (zh) * 2021-10-28 2023-02-01 為昇科科技股份有限公司 雷達自我校正裝置及雷達自我校正方法
CN114285998A (zh) * 2021-12-24 2022-04-05 申通庞巴迪(上海)轨道交通车辆维修有限公司 一种车厢动态人像抓取与定位追随的视屏监控系统
CN117237560B (zh) * 2023-11-10 2024-02-23 腾讯科技(深圳)有限公司 一种数据处理方法和相关装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4255013A (en) * 1979-05-17 1981-03-10 John E. McNair Rifle scope having compensation for elevation and drift
US4949089A (en) 1989-08-24 1990-08-14 General Dynamics Corporation Portable target locator system
US5568152A (en) * 1994-02-04 1996-10-22 Trimble Navigation Limited Integrated image transfer for remote target location
US20040134113A1 (en) * 2002-08-02 2004-07-15 Deros Mark A. Adjustable gun rest apparatus
US7642741B2 (en) 2005-04-27 2010-01-05 Sidman Adam D Handheld platform stabilization system employing distributed rotation sensors
US20080118104A1 (en) * 2006-11-22 2008-05-22 Honeywell International Inc. High fidelity target identification and acquisition through image stabilization and image size regulation
US8020769B2 (en) * 2007-05-21 2011-09-20 Raytheon Company Handheld automatic target acquisition system
EP2511658A1 (de) * 2011-04-14 2012-10-17 Hexagon Technology Center GmbH Vermessungssystem und Verfahren zur Neupunktbestimmung
EP2557392A1 (de) * 2011-08-11 2013-02-13 Leica Geosystems AG Vermessungsgerät und Verfahren mit einer auf der Ausrichtung einer Fernbedieneinheit basierenden und skalierbaren Anzielfunktionalität
US9813618B2 (en) 2012-11-02 2017-11-07 Diversified Innovations Fund, Lllp Wide area imaging system and method
DE102013008568A1 (de) * 2013-05-17 2014-11-20 Diehl Bgt Defence Gmbh & Co. Kg Verfahren zur Zieleinweisung einer Flugkörper-Abschussanlage
US20160091282A1 (en) * 2014-04-01 2016-03-31 Joe D. Baker Mobile ballistics processing and targeting display system
US9612088B2 (en) * 2014-05-06 2017-04-04 Raytheon Company Shooting system with aim assist
US20170302852A1 (en) 2016-04-13 2017-10-19 Jason Tze Wah Lam Three Axis Gimbals Stabilized Action Camera Lens Unit
CN106643700B (zh) * 2017-01-13 2018-05-15 中国人民解放军防空兵学院 一种定位定向监测系统及方法
CN107014378A (zh) * 2017-05-22 2017-08-04 中国科学技术大学 一种视线跟踪瞄准操控系统及方法
US10267598B2 (en) * 2017-08-11 2019-04-23 Douglas FOUGNIES Devices with network-connected scopes for allowing a target to be simultaneously tracked by multiple devices

Also Published As

Publication number Publication date
CN113424012B (zh) 2023-04-25
WO2020167530A1 (en) 2020-08-20
CN113424012A (zh) 2021-09-21
EP3924683A1 (en) 2021-12-22
EP3924683A4 (en) 2022-11-16

Similar Documents

Publication Publication Date Title
US11226175B2 (en) Devices with network-connected scopes for allowing a target to be simultaneously tracked by multiple devices
US11555671B2 (en) Devices with network-connected scopes for allowing a target to be simultaneously tracked by multiple other devices
US20230160662A1 (en) Interactive Weapon Targeting System Displaying Remote Sensed Image of Target Area
CN113424012B (zh) 具有网络连接瞄准镜以允许多个其他装置同时跟踪目标的车载装置
US9335121B2 (en) System and method of locating prey
US20070103671A1 (en) Passive-optical locator
US6388611B1 (en) Method and system for dynamic surveillance of a remote object using GPS
US20070127008A1 (en) Passive-optical locator
Neuhöfer et al. Adaptive information design for outdoor augmented reality
KR20200064236A (ko) 드론을 이용한 구조물 검사 시스템 및 검사 방법
KR102209882B1 (ko) 비행 드론을 통한 구조물 검사 시스템
WO2023030846A1 (en) Hand-held observation device and method for obtaining a 3d point cloud

Legal Events

Date Code Title Description
A201 Request for examination