KR20200049783A - 복수의 디바이스에서 타겟을 동시에 추적할 수 있도록 네트워크에 연결된 스코프가 있는 디바이스 - Google Patents

복수의 디바이스에서 타겟을 동시에 추적할 수 있도록 네트워크에 연결된 스코프가 있는 디바이스 Download PDF

Info

Publication number
KR20200049783A
KR20200049783A KR1020207006975A KR20207006975A KR20200049783A KR 20200049783 A KR20200049783 A KR 20200049783A KR 1020207006975 A KR1020207006975 A KR 1020207006975A KR 20207006975 A KR20207006975 A KR 20207006975A KR 20200049783 A KR20200049783 A KR 20200049783A
Authority
KR
South Korea
Prior art keywords
scope
target
estimated
operator
current target
Prior art date
Application number
KR1020207006975A
Other languages
English (en)
Other versions
KR102587844B1 (ko
Inventor
더글라스 퍼그니스
래리 엘. 데이
로버트 에이 프레스만
테일러 제이. 카펜터
Original Assignee
더글라스 퍼그니스
로버트 에이 프레스만
래리 엘. 데이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 더글라스 퍼그니스, 로버트 에이 프레스만, 래리 엘. 데이 filed Critical 더글라스 퍼그니스
Publication of KR20200049783A publication Critical patent/KR20200049783A/ko
Application granted granted Critical
Publication of KR102587844B1 publication Critical patent/KR102587844B1/ko

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/02Aiming or laying means using an independent line of sight
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G1/00Sighting devices
    • F41G1/38Telescopic sights specially adapted for smallarms or ordnance; Supports or mountings therefor
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/04Aiming or laying means for dispersing fire from a battery ; for controlling spread of shots; for coordinating fire from spaced weapons
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/06Aiming or laying means with rangefinder
    • F41G3/065Structural association of sighting-devices with laser telemeters
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/16Sighting devices adapted for indirect laying of fire
    • F41G3/165Sighting devices adapted for indirect laying of fire using a TV-monitor
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G9/00Systems for controlling missiles or projectiles, not provided for elsewhere
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C17/00Compasses; Devices for ascertaining true or magnetic north for navigation or surveying purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • G01S19/47Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being an inertial measurement, e.g. tightly coupled inertial
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W84/00Network topologies
    • H04W84/18Self-organising networks, e.g. ad-hoc networks or sensor networks

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Telescopes (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

하나 이상의 리드 스코프 및 하나 이상의 팔로어 스코프를 포함하는 스코프 네트워크가 제공되어, 각 스코프의 스코프 오퍼레이터가 동일한 추정 타겟을 추적할 수 있도록 한다. 리드 스코프는 타겟을 찾아 추정된 타겟의 타겟 위치 데이터를 팔로어 스코프에게 전달한다. 팔로어 스코프는 타겟 위치 데이터 및 자체 위치 데이터를 사용하여 팔로어 스코프의 오퍼레이터에게 위치 이동을 촉구하며, 팔로어 스코프를 현재 타겟 위치에서 리드 스코프로부터 수신한 타겟 위치 데이터에 의해 정의된 타겟위치로 이동하도록 위치를 재지정하는데 사용할 인디케이터를 전자적으로 생성한다.

Description

복수의 디바이스에서 타겟을 동시에 추적할 수 있도록 네트워크에 연결된 스코프가 있는 디바이스
본 출원은 복수의 디바이스에서 타겟을 동시에 추적할 수 있도록 네트워크에 연결된 스코프가 있는 디바이스에 관한 것이다.
본 출원은 2017 년 8 월 11 일 출원된 미국 특허 출원 번호 62/544,124 및 2018 년 8 월 7 일 출원된 미국 특허 출원 번호 16/057,247의 우선권을 주장하며, 그 개시 내용은 본 명세서에 전체적으로 참조로 포함된다.
"스코프"라고도 하는 이미지를 확대하거나 확대하지 않고 단순히 빛을 통과하기 위해 렌즈를 통합한 시력 또는 광학 뷰어는 광학 굴절 망원경 또는 다른 광학적 시각 디바이스를 기반으로 하는 시력 디바이스다. 정확한 조준점을 제공하기 위해 광학 시스템에서 광학적으로 적절한 위치에 장착된 그래픽 이미지 패턴(레티클 또는 십자선)의 일부 형태를 포함한다. 망원 조준기는 정확한 조준이 필요하지만 총기, 특히 소총에서 가장 일반적으로 발견되는 모든 유형의 시스템에 사용된다. 망원 조준기에는 관찰자의 조준 디바이스에서 타겟까지의 거리를 측정하는 통합 거리계 (일반적으로 레이저 거리계)가 포함될 수 있다.
나침반은 탐색 및 방향에 사용되는 도구로서 지리적인 "기본 방위" 또는 "점"과 관련된 방향을 보여준다. “방위표시판”다이어그램은 북쪽, 남쪽, 동쪽 및 서쪽 방향을 나침반에 표시된 약자로 표시한다. 나침반을 사용하면 표시판을 해당 지리적 방향에 맞출 수 있다. 예를 들어 표시판의 "N"표시는 실제로 북쪽을 가리킨다. 표시판뿐만 아니라 때로는 표시판 대신 각도 표시가 나침반에 표시될 수 있다. 북쪽은 0도에 해당하고 시계 방향으로 각도가 증가하므로 동쪽은 90도, 남쪽은 180, 서쪽은 270이다. 이 숫자를 사용하여 나침반에 방위각 또는 방위가 이 표기법에 일반적으로 표시되다.
GPS 데이터는 일반적으로 3 차원 위치 (위도, 경도 및 고도(경사))를 제공한다. 예를 들어, 필라델피아에서 GPS의 샘플 위치는 다음과 같다:
위도: 39.90130859
경도: -75.15197754
해수면에 대한 고도(경사): 5m
GPS 위치 데이터를 제공하기 위한 GPS 수신기 및 자세 데이터를 제공하기 위한 방향 센서를 포함하는 소형 GPS 디바이스가 공지되어 있다. 방위 센서는 가속도계 및 지자기장 센서, 또는 센서의 다른 조합으로부터 데이터를 도출 할 수 있다. 본 발명에 사용하기에 적합한 소형화 된 GPS 디바이스 중 하나는 유타 세일럼에 위치한 Inertial Sense, LLC로부터 상업적으로 입수 가능한 디바이스다. 이 디바이스는 "μINS"및 "μINS-2"로 출시되어 있다. "INS"는 "관성 항법 시스템"의 산업 약자이다. μINS 및 μINS-2는 GPS 지원 관성 항법 시스템(GPS / INS)이다. GPS / INS는 GPS 위성 신호를 사용하여 관성 항법 시스템(INS)의 솔루션을 수정하거나 교정한다.
본 발명에 사용하기에 적합한 공지의 다른 소형 GPS / INS는 텍사스 달라스에 위치한 VectorNav Technologies, LLC로부터 상업적으로 입수 할 수 있는 디바이스다. 이 디바이스는 "VN-300"으로 출시되고 있으며 이중 안테나 GPS / INS이다. VN-300의 듀얼 안테나 기능을 통해 정확한 나침반 데이터를 제공 할 수 있다.
네트워크 기술은 당 업계에 잘 알려져 있다. 네트워크의 각 디바이스는 종종 노드라고하며 노드는 허브, 스포크 및 메쉬를 포함한 다양한 네트워크 토폴로지를 사용하여 네트워크로 구성 될 수 있다. 셀룰러 기반 통신 시스템에서, 노드는 하나 이상의 기지국을 통해 통신하며, 이는 차례로 이동 교환 센터(MSC)에 직접 또는 간접적으로 연결된다. MSC는 셀룰러 네트워크의 노드가 다른 기반 스테이션에 연결된 다른 노드와 통신 할 수 있도록 하는 산업 표준에 따라 상호 연결된다. GSM, LTE 및 CDMA와 같은 수많은 셀룰러 표준이 있으며, 셀룰러 네트워크의 공통 기능은 노드가 인터넷에 연결할 수 있게 하는 기능이다.
광대역 위성 통신 시스템은 별자리에 구성된 하나 이상의 통신 위성을 사용한다. Globalstar, Iridium 및 Inmarsat에서 운영하는 시스템을 포함하여 수많은 상용 위성 시스템이 있다. 셀룰러와 마찬가지로 광대역 위성 통신 시스템을 사용하면 노드를 인터넷에 연결할 수 있다. 셀룰러 용어로, 별자리의 각 위성은 기지국의 역할을 하며 시스템의 노드는 범위에 있는 위성에 연결된다. 위성 시스템의 장점 중 하나는 원격 지역에서 적용 범위가 더 우수하다는 것이다.
무선근거리 통신망(WLAN, Wireless Local Area Network) 기술을 통해 노드는 네트워크를 설정할 수 있다. 802.11a, b, g, n및 802.11s를 포함한 일반적인 WLAN 표준은 WIFI 기반 메쉬 네트워킹 표준이다. Bluetooth®는 네트워크에서 노드를 연결하는 또 다른 표준이며 최근 Bluetooth Special Interest Group에 의해 메쉬 네트워킹 기능이 Bluetooth LE 표준에 추가되었다. 따라서, 다양한 표준을 통해, 포인트 투 포인트, 포인트 투 멀티 포인트 및 메쉬 WLAN을 구현할 수 있으며, 이들 모두는 본 발명에 사용하기에 적합하다.
메쉬 네트워크 토폴로지는 모바일 디바이스, 특히 각 노드가 여러 개의 다른 노드에 연결될 수 있고 네트워크의 노드에서 다른 노드로의 필수 경로가 없기 때문에 셀룰러 서비스가 제한된 원격 영역에서 중요한 이점을 제공한다. 메쉬 네트워크의 다른 장점은 메쉬 네트워크의 임의의 하나의 노드가 셀룰러 또는 위성 연결을 통해 인터넷에 액세스 할 수 있는 한, 메쉬 네트워크의 모든 노드가 액세스 할 수 있다는 것이다.
본 발명에 사용하기에 적합한 대표적인 무선 메쉬 네트워킹 칩셋은 RC17xx(HP)TM(TinymeshTM RF 트랜시버 모듈)이며, 노르웨이에 위치한 Radiocrafts AS 및 Tinymesh로부터 시판되고 있다. 칩셋은 메쉬 네트워크 생성을 위해 Tinymesh 응용 프로그램을 통합한다. 본 발명에 대한 이상적인 메쉬 네트워크 칩셋은 작고, 고출력 및 장거리를 가지며, 비허가 스펙트럼에서 동작해야 한다.
하나 이상의 리드 스코프 및 하나 이상의 팔로어 스코프를 포함하는 스코프 네트워크가 제공되어, 각 스코프의 스코프 오퍼레이터가 동일한 추정 타겟을 추적할 수 있도록 한다. 리드 스코프는 타겟을 찾아 추정된 타겟의 타겟 위치 데이터를 팔로어 스코프에게 전달한다. 팔로어 스코프는 타겟 위치 데이터 및 자체 위치 데이터를 사용하여 팔로어 스코프의 오퍼레이터에게 위치 이동을 촉구하며, 팔로어 스코프를 현재 타겟 위치에서 리드 스코프로부터 수신한 타겟 위치 데이터에 의해 정의된 타겟위치로 이동하도록 위치를 재지정하는데 사용할 인디케이터를 전자적으로 생성한다.
하나 이상의 리드 스코프 및 하나 이상의 팔로어 스코프를 포함하는 스코프 네트워크가 제공되어, 각 스코프의 스코프 오퍼레이터가 동일한 추정 타겟을 추적할 수 있도록 한다. 리드 스코프는 타겟을 찾아 추정된 타겟의 타겟 위치 데이터를 팔로어 스코프에게 전달한다. 팔로어 스코프는 타겟 위치 데이터 및 자체 위치 데이터를 사용하여 팔로어 스코프의 오퍼레이터에게 위치 이동을 촉구하며, 팔로어 스코프를 현재 타겟 위치에서 리드 스코프로부터 수신한 타겟 위치 데이터에 의해 정의된 타겟위치로 이동하도록 위치를 재지정하는데 사용할 인디케이터를 전자적으로 생성한다.
하나 이상의 리드 스코프 및 하나 이상의 팔로어 스코프를 포함하는 스코프 네트워크가 제공되어, 각 스코프의 스코프 오퍼레이터가 동일한 추정 타겟을 추적할 수 있다.
상기 요약 및 본 발명의 바람직한 실시 예에 대한 다음의 상세한 설명은 첨부 도면과 함께 읽을 때 더 잘 이해 될 것이다. 본 발명을 설명하기 위해, 도면은 현재 바람직한 실시 예를 도시한다. 그러나, 본 발명은 도시된 정확한 배열 및 수단으로 제한되지는 않는다.
도 1A, 1B, 2 및 3은 본 발명의 바람직한 실시 예에 따른 시스템 구성 요소의 개략도이다.
도 4A-4C는 본 발명의 바람직한 실시 예에 따른 광학 시야(sights)이다.
도 5는 본 발명의 바람직한 일 실시 예에 따라 스코프의 디스플레이 상에 디스플레이 될 수 있는 샘플 프리셋 리스트를 도시한다.
도 6 내지 8은 본 발명의 바람직한 실시 예에 따른 플로우 차트를 도시한다.
본 명세서에서 특정 용어는 편의상 사용되는 것이며 본 발명을 제한하는 것으로 해석되어서는 안된다.
본 발명의 바람직한 실시 예는 동일한 타겟상에 적용하도록 설계된 네트워크에 연결된 스코프를 갖는 디바이스를 제공하는데, 이는 정적이거나 또는 동적인 타겟 일 수 있다. 2 개의 스코프를 포함하는 제 1 실시 예에서, "리드 스코프"는 타겟을 식별하고, 타겟에 관한 위치 데이터를 리드 스코프로부터의 위치 데이터 및 그 자신의 위치 및 방향 데이터를 사용하여 타겟에 적용하는 "팔로어 스코프"로 전달한다. 두 가지 스코프 구성에서 리드 스코프 및 팔로어 스코프는 셀룰러, 위성 또는 하나 이상의 WLAN 기술을 포함하여 사용 가능한 무선 데이터 통신 기술을 통해 통신한다.
복수의 스코프를 포함하는 제 2 실시 예에서, 제 1 스코프는 타겟을 식별하고, 타겟에 관한 위치 데이터를 제 1 스코프로부터의 위치 데이터 및 그 자신의 위치 및 방향 데이터를 사용하여 타겟에 적용하는 복수의 타 스코프로 전달한다. 이 실시 예에서, 추가적인 스코프가 타겟을 탐지할 때, 타겟의 위치 데이터를 타겟으로 식별된 각각의 스코프로부터 누적된 위치 데이터를 합산하여 타겟의 연속적이고 보다 정확한 위치 데이터를 정의하는 네트워크 서버에 타겟에 관한 그들의 위치 데이터를 통신하고(즉, 더 많은 데이터 포인트는 위치의 정확도를 증가시킨다), 타겟을 아직 찾지 못한 스코프로 전달한다. 이전에 타겟의 위치를 보고한 스코프는 타겟 추적을 지원하기 위해 타겟의 최신 위치 데이터를 수신 할 수도 있다. 이 실시 예에서의 스코프는 임의의 이용 가능한 WLAN 기술을 사용하여 연결될 수 있지만, 바람직한 실시 예에서, 메쉬 네트워킹 기술은 복수의 스코프가 서로 통신 할 수 있게하는데 사용된다. 스코프 중 어느 하나가 네트워크 서버의 기능을 수행할 수 있거나, 네트워크 서버의 기능이 스코프 중 하나가 WLAN에 대한 연결을 잃는 경우 중복성을 위해 복수의 스코프 사이에 분배 될 수 있음을 이해해야 한다. 이상적으로, 스코프 중 하나 이상이 인터넷에 연결되어 있고 네트워크의 다른 스코프가 메쉬 네트워크를 통해 연결된 스코프를 통해 인터넷에 액세스 할 수 있다.
타겟은 이동하는 객체 일 수 있으므로, 타겟을 식별한 스코프에 대한 타겟의 위치 데이터는 아직 타겟을 찾지 못한 스코프에 지속적으로 스트리밍 된다. 또는 리드 스코프가 타겟을 지정하는 스위치를 활성화 할 때만 타겟 위치가 전송된다. 시스템의 보다 진보된 버전에서, 타겟이 이동하는 경우, 스코프 및 / 또는 네트워크 서버는 공지된 기술을 이용하여 동일한 방향으로 계속 이동한다고 가정하여 타겟의 미래 위치를 예측할 것이다.
I. 정의
본 발명의 이해를 돕기 위해 다음의 정의가 제공된다.
디바이스 - 디바이스는 스코프가 통합된 개체이다. 이러한 디바이스의 예로는 소총, 총, 쌍안경, 스마트 안경 또는 고글, 헬멧 바이저 및 드론이 있다. 특정 유형의 디바이스는 쌍안경, 망원경 및 관측 범위와 같은 "스코프"이다. 디바이스는 휴대용(handheld)이거나 육상, 공중 또는 수성 차량에 장착 될 수 있다.
타겟 - 타겟은 관심 타겟이다. 사람, 동물 또는 물건 일 수 있으며 움직이지 않거나 움직일 수 있다.
리드 스코프 - 리드 스코프는 타겟을 식별하는 첫 번째 스코프이다. 제 1 실시 예에서, 단 하나의 리드 스코프가 존재한다. 제 2 실시 예에서, 리드 스코프는 타겟을 찾은 제 1 스코프일 뿐이다. 타겟을 식별하는 팔로어 스코프는 본 명세서에서 간단히 "스코프"로 지칭된다. 바람직한 일 실시 예에서, 네트워크 내의 임의의 스코프는 리드 스코프로서 기능 할 수 있다.
팔로어 스코프 - 팔로어 스코프는 리드 스코프가 식별한 것과 동일한 타겟에서 연마(hone)하려고 시도하는 스코프이다. 제 1 실시 예에서, 하나 이상의 팔로어 스코프가 있을 수 있다. 제 2 실시 예에서, 팔로어 스코프는 이전의 스코프 세트(리드 스코프 포함)가 식별한 타겟에 아직 연마되지 않은 모든 스코프를 포함한다. 바람직한 일 실시 예에서, 네트워크의 임의의 스코프는 팔로어 스코프로서 기능 할 수 있다.
II. 상세 기술
아래 설명에서는 각 기기의 스코프가 유사한 기능을 가지고 있으며, 리드 또는 팔로어 스코프로 기능 할 수 있다고 가정한다. 그러나, 대안적인 실시 예에서, 특정 스코프는 리드 또는 팔로어 역할에 전념할 수 있으며, 특정 스코프는 다른 스코프보다 기능이 많거나 적을 수 있다.
스코프가 있는 디바이스에는 다음과 같은 각 측정 디바이스(또는 그와 동등한 디바이스)가 포함된다:
1. GPS / INS 디바이스(디바이스의 위치 데이터 제공) (GPS 수신기, 자이로 스코프 및 가속도계와 같은 둘 이상의 개별 디바이스로 구현 될 수 있음)
2. 거리계(디바이스의 스코프에서 타겟까지의 거리 제공). 바람직한 실시 예에서, 레이저 기술은 거리를 검출하기 위해 거리계에 의해 사용되지만, 광학 거리 측정과 같은 다른 기술도 사용될 수 있다. 광학 거리 측정 시스템의 한 예는 일련의 렌즈와 거울을 사용하여 이중 이미지를 생성하고 거리 표시가 있는 다이얼 또는 다른 컨트롤러를 조정하여 두 이미지를 정렬시킨다.
3. 나침반(스코프의 위치를 기준으로 타겟의 방향(북쪽, 남쪽, 동쪽 및 서쪽)을 제공한다). 나침반은 독립형 디바이스거나 GPS / INS에 통합되어 GPS 나침반을 사용하여 방향을 결정할 수 있다. GPS 나침반에는 종종 두 개의 안테나가 있으며 디바이스가 쌍안경인 경우 한 가지 옵션은 각 배럴에 안테나를 배치하는 것이다. 하나 이상의 접힘 암, 붐, 에어 벌룬 보다 가볍거나 다른 기계적 수단을 사용하여 분리하거나 RF 또는 광학 연결을 통해 두 번째 안테나를 연결하는 등 GPS 나침반에 사용되는 안테나의 분리를 증가시켜 정확도를 높일 수 있다.
4. 방향 센서(고정 레벨 평면에 대한 디바이스의 포인팅 각도를 제공함(예를 들어 직진 포인팅시 0도, 하늘의 조류 또는 평면을 포인팅하면 30도, 또는 아래의 계곡을 포인팅하면 -10도))
5. 고도 센서(선택 사항)(해발 또는 기타 기준점 위의 절대 고도 제공). 이것은 일반적으로 GPS / INS에 의해 결정된 고도의 정확도를 보완하는 기압 센서 일 수 있으며, 특정 경우에는 정확하지 않을 수 있다. 대안적으로, GPS / INS가 네트워크에 연결된 스코프를 통해 지형도에 통합되거나 지형도에 접근할 수 있는 경우 초음파 또는 다른 근접 센서를 사용하여 지면까지의 거리를 결정할 수 있다. 예를 들어 GPS 위치가 해발 500 피트인 지형도의 위치에 해당하고, 근접 센서가 스코프에서 지면까지의 거리가 5 피트라고 판단하면 스코프에 의하여 505 피트의 정확한 고도를 알 수 있다.
이들 측정 디바이스로부터의 데이터는 GPS 좌표 등으로 표현 될 수 있는 타겟의 위치를 계산하는데 사용된다.
아래에서 상세히 논의되는 바와 같이, 상기 식별된 각각의 측정 디바이스에 대해, 다양한 정도의 정확도 및 예상되는 오류 범위가 존재한다. 측정 디바이스와 관련된 기술이 향상됨에 따라 보다 정확한 측정 디바이스를 사용하여 스코프의 작동을 개선하고 보다 정확한 위치 예측을 제공 할 수 있다.
A. 제1실시예를 위한 예시적 단계
1. 리드 스코프를 포함하는 디바이스의 오퍼레이터는 추정 타겟을 식별한다.
2. 디바이스의 오퍼레이터가 십자선 또는 기타 타겟 표시를 타겟의 중심에 놓거나 터치 패드 또는 눈 추적 센서와 같은 포인팅 디바이스를 사용하여 십자선을 타겟의 중심으로 이동시킨다. .
3. 오퍼레이터가 선택적으로 버튼을 눌러 타겟을 지정한다.
4. 십자선의 위치에 따라 연속적으로 작동하지 않으면 거리계가 활성화되고 측정 디바이스의 데이터가 메모리에 저장된다.
5. 리드 스코프는 저장된 방향 및 범위 측정 데이터를 기반으로 타겟의 로컬 AER(방위, 고도, 범위) 위치를 계산한다. 그런 다음 저장된 위치 측정 데이터를 사용하여 로컬 AER 위치를 전역 위치로 변환하여 계산한다. 바람직한 실시 예에서, 전체 위치는 GPS 좌표로 지정된다. 경우에 따라 타겟 위치와 관련된 정확도 또는 추정 오차가 리드 스코프에 의해 결정된다. 동일한 결과를 얻는 대안적인 구현은 팔로어 스코프 또는 네트워크 서버와 같은 네트워크에 연결된 다른 디바이스에 대한 위치 데이터와 달리 저장된 측정 데이터의 무선 전송을 포함한다. 이 대안적인 실시 예에서, 팔로어 스코프 또는 네트워크 서버는 측정 데이터로부터 타겟 위치 및 경우에 따라 추정된 오차 또는 정확도를 계산한다. 결정된 위치 데이터 및 에러 또는 정확도 데이터 (수집 또는 결정된 경우) 또는 측정 데이터는 팔로어 스코프로 전송된다. 상기 동작을 통해, 하나 이상의 팔로어 스코프는 무선으로 위치 데이터를 수신하거나 리드 스코프에 의해 전송되어 수신한 측정 데이터로부터 위치 데이터를 계산할 것이다.
6. 시스템이 네트워크 서버를 포함하고 네트워크 서버가 리드 스코프에 의해 전송된 측정 디바이스로부터 로우 데이터를 수신하면, 타겟 위치를 계산하고 데이터를 저장한다. 네트워크 서버는 계산된 타겟 위치를 받으면, 이 데이터를 저장하고 다른 스코프에게 전달한다. 시스템은 네트워크 서버없이 동작될 수 있고, 네트워크 서버에 의해 수행되는 것으로 기술된 특징은 네트워크의 임의의 스코프 또는 디바이스에 의해 또는 인터넷을 통하여 스코프에 연결된 원격 네트워크 서버에 의하여 수행될 수 있음을 이해해야 한다.
7. 다른 디바이스의 팔로어 스코프는 리드 스코프 또는 네트워크 서버로부터 리드 스코프에 의해 계산 된 타겟 위치를 무선으로 수신한다.
8. 팔로어 스코프를 포함하는 디바이스는 또한 동일한 측정 디바이스 세트 (또는 그와 동등한 것)를 포함한다. 팔로어 스코프는 자체 위치 데이터와 타겟 위치를 사용하여 팔로어 스코프가 리드 스코프와 동일한 타겟 위치를 가리 키도록 조준하도록 위치와 자세를 계산한다. 대안적으로, 팔로어 스코프는 감소된 측정 디바이스 세트를 포함하고 제한된 기능으로 동작 할 수 있다. 예를 들어 거리계가 팔로어 스코프에 포함되어 있지 않으면 리드 스코프로서 기능이 제한된다.
9. 시각적 (안내)인디케이터는 팔로어 스코프의 디바이스에 표시되어 팔로어 스코프의 오퍼레이터에게 스코프가 이동해야 하는 위치를 타겟 위치에 고정하도록 지시 (안내)한다. 예를 들어, 팔로어 스코프의 접안경은 시각적 표시기를 포함할 수 있다. 대안적으로, 디바이스 또는 스코프 장착형 디스플레이는 시각적 인디케이터를 제공 할 수 있다. 시각적 인디케이터는 방향 화살표, LED 조명, 문자 메쉬지 (예를 들어, 왼쪽으로 이동, 위로 이동) 등 일 수 있다. 오디오 표시기도 사용할 수 있다.
10. 리드 스코프가 물리적 위치 또는 조준 위치를 이동하고 타겟이 재배치 되었음을 나타내는 경우, 팔로어 스코프가 계속해서 타겟을 검색할 수 있도록 계산이 자동으로 다시 실행되어 팔로어 스코프에게 전송된다. 마찬가지로 팔로어 스코프가 초기 위치에서 이동하는 경우 리드 스코프의 물리적 위치나 조준 위치를 변경하지 않아도 벡터의 팔로어 스코프에서 타겟으로 계산을 다시 수행하여, 안내 인디케이터가 팔로어 스코프 내에 표시되도록 해야한다.
대안적인 실시 예에서, 리드 스코프로부터의 로우 측정 데이터만이 네트워크 서버 또는 다른 스코프로 전달되고, 각각의 팔로어 스코프는 리드 스코프로부터의 로우 측정 데이터를 사용하여 리드 스코프의 타겟 위치를 계산한다. 즉, 팔로어 스코프가 로우 측정 데이터를 수신하면 리드 스코프의 타겟 위치 계산을 수행해야 타겟에 대한 자체 디바이스의 상대 위치를 결정할 수 있다.
추가 옵션에는 리드 스코프가 스코프에 내장되거나 부착된 디지털 이미지 센서를 사용하여 타겟의 디지털 이미지를 캡처하고, 팔로어 스코프의 오퍼레이터가 무엇을 찾고 있는지 알 수 있도록 디지털 이미지를 팔로어 스코프에 전송하는 기능이 포함된다. 다른 옵션은 팔로어 스코프가 타겟을 보고 있다는 것을 리드 스코프로 다시 보내고 타겟의 시야에 대한 디지털 이미지를 전송하는 것이다. 타겟의 디지털 이미지를 캡처하는 것은 군사 및 법 집행 기관에 고유한 응용 프로그램이 있을 수 있다. 예를 들어, 스코프 중 적어도 하나가 인터넷에 연결되어 있고 디지털 이미지가 사람의 얼굴인 경우, 디지털 이미지는 인터넷을 통해 얼굴 인식을 사용하여 얼굴을 일치 시키고자 하는 데이터베이스로 전송 될 수 있다. 일치하는 것이 확인되면, 타겟에 대한 추가 정보가 각 스코프에 제공될 수 있다. 종래의 안면 인식에 대한 대안으로서, 열 화상 디바이스와 함께 사용될 때 사람의 얼굴에 대한 디지털 지문을 형성 할 수 상기 설명에서, 종래의 광학 시스템이 이미지를 캡처하는데 사용되는 것으로 가정된다. 그러나, 나이트 비전 및 전방을 향한 적외선과 같은 대안이 또한 사용될 수 있다.
B. 제 2 실시예를 위한 예시적 단계
제 2 실시 예의 단계는 제 1 실시 예와 유사하지만, 네트워크 서버 (상기에서 언급된 바와 같이 네트워크상의 하나 이상의 스코프 일 수 있음)는 추정된 위치 데이터를 합산시키기 위해 전술한 바와 같이 추가 계산을 수행한다는 점을 제외하고는 제 1 실시 예와 유사하다. 타겟을 식별한 각각의 스코프로부터 누적되어 타겟의 연속적인 보다 정확한 위치 데이터를 정의하고(즉, 더 많은 데이터 포인트는 위치의 정밀도를 증가시킴), 이는 타겟을 아직 탐지하지 못한 스코프에게 전달된다. 또한 네트워크 서버는 여러 타겟(예: 여러 리드 스코프로부터의)을 저장하고 네트워크의 각 팔로어 스코프와 통신 할 수 있다.
C. 네트워크에 연결된 스코프의 사용 예시
연결된 라이플 스코프: 두 명의 사냥꾼이 사냥하고 있다. 한 사냥꾼은 먹이를 발견하고, 다른 사냥꾼에게 같은 먹이에 스코프를 고정 시키라고 신호한다. 스코프에 이미지 캡처 및 디스플레이 디바이스가 장착된 경우, 먹이의 이미지는 첫 번째 헌터에서 두 번째 헌터로 전송될 수 있고, 두 번째 헌터는 연결된 스코프를 사용하여 첫 번째 헌터에게 타겟을 보았다는 신호와 함께 잠재적으로 본 이미지를 첫 번째 헌터에게 다시 전송한다. 첫 번째 헌터가 타겟을 잃어버린 경우 두 번째 헌터는 리드 스코프가 되어 타겟의 위치(또는 로우 측정 데이터)를 타겟을 다시 획득하고자 하는 첫 번째 헌터에게 전송한다.
연결된 쌍안경: 두 명의 조류 관찰자가 들새 관찰을 하고 있다. 한 조류 관찰자는 새를 발견하고 다른 조류 관찰자에게 신호를 보내 조류에 쌍안경을 고정시킨다.
연결된 드론 및 라이플 스코프: 법 집행 기관이 운영하는 드론은 현장에서 의심되는 사수의 위치를 식별한다. 연결된 소총 스코프로 무장한 경찰은 드론에 의해 초기에 결정된 바와 같이 연결된 소총 스코프에서 사수를 식별하는 경찰로부터 수집된 후속 위치 데이터에 의해 더 정밀화되는 것으로 의심되는 사수 위치 데이터로 향하여진다.
D. 시스템 아키텍처
도 1a는 복수의 디바이스(10)(디바이스1-디바이스n) 및 비 디바이스/비 스코프 노드(12)(노드1-노드n)가 무선 통신 및 전자 네트워크(18)를 통해 네트워크 서버(16)와 통신하는 시스템 뷰를 도시한다. 전자 네트워크(18)는 디바이스(10)를 네트워크 서버(16)에 연결하는 실선으로 표현된다. 전자 네트워크(18)는 임의의 적합한 유형의 무선 전자 네트워크(예를 들어, 근거리 통신망, 광역 통신망(인터넷))를 통해 구현 될 수 있다. 하나 이상의 비-디바이스/비 스코프 노드(12)((노드 1- 노드n)의 기능이 아래에 설명되어 있다. 도 1a에서, 적어도 네트워크 서버(16)는 인터넷(20)에 연결된다.
도 1b는 본 발명의 바람직한 실시 예에서 사용하기에 적합한 메쉬 네트워크(22)의 토폴로지를 도시한다. 바람직하게는, 복수의 디바이스(10) 및 네트워크 서버(16)는 메쉬 네트워크(22)의 노드(24)이므로, 이들 요소는 도 1a에서 노드(24)로 표시된다. 이러한 방식으로, 각각의 노드(24)는 메쉬 네트워크(22)를 통해 서로 통신 할 수 있다. 이 구성에서, 네트워크 서버(16)는 메쉬 네트워크(22)에서 다른 노드(24)가 되거나, 또는 네트워크 서버 16)가 없거나, 또는 하나 이상의 디바이스 스코프가 여기에서 네트워크 서버(16)에 의해 수행되는 것으로 기술된 기능을 수행한다. 도 1b에서, 노드(24) 중 적어도 하나는 인터넷(20)에 연결된다. 또한, 메쉬 네트워크(22) 외부에 있지만 메쉬 네트워크(22)에서 인터넷(20)을 통하여 노드(24)와 통신 할 수 있는 하나 이상의 노드(26)가 있을 수 있다.
본 발명의 스코프는 다른 유형의 네트워크 토폴로지를 포함하며, 허브 및 허브에 서버를 갖는 스포크 네트워크(spoke network) 아키텍처로 제한되지 않는다. 디바이스 / 노드는 무선으로 서로 직접 연결될 수 있다(예를 들어, 애드혹 네트워크 일 수 있는 점 대 점 연결을 통해). 각 디바이스 / 노드는 셀룰러 또는 위성 연결을 가지고 있으며 클라우드(예: 인터넷)를 통해 서로 연결될 수 있다. 각각의 디바이스 / 노드는 테더링 된 열기구 또는 고정된 공중 위치에 머무르도록 프로그래밍 된 드론과 같이 지상 또는 공중에 있을 수 있는 무선 라우터를 통해 서로 연결될 수 있다.
또한, 제 2 실시 예에서, 디바이스 / 노드는 다른 방식으로 네트워크에 연결될 수 있다. 예를 들어, 6 개의 노드 네트워크에서, 5 개의 노드는 메쉬 네트워크(22)의 범위 내에 있을 수 있다. 그러나, 제 6 노드는 인터넷(20)을 통해 셀룰러 또는 네트워크 신호에 의해 범위를 벗어나 네트워크에 연결될 수 있다.
도 2는 리드 스코프 또는 팔로어 스코프를 포함할 수 있는 샘플 디바이스(10)의 요소를 도시한다. 디바이스(10)는 적어도 다음 요소들에 연결된 프로세서(30)를 포함한다:
1. GPS / INS(32)
2. 나침반(독립형 또는 GPS / INS에 통합 가능)(34)
3. 거리계(36)
4. 방위 센서(자세)(38)
5. 정확도 향상을 위한 고도 센서(옵션)(40)
6. 스코프(스코프의 구조는 디바이스의 유형에 따라 다름)(42)
7. 시청각 디스플레이 디바이스(독립형이거나 스코프에 통합 될 수 있음)(44)
8. 유선 또는 무선 통신 송수신기(48)와 통신하는 네트워크 인터페이스(46)
9. 메모리(50)
시청각 디스플레이 디바이스(44)는 프롬프트 / 메쉬지 및 인디케이터를 사용자에게 제공하는 요소이다. 팔로어 스코프에서, 시청각 디스플레이 디바이스(44)에 의해 제공된 정보는 사용자가 타겟을 연마하는 것을 돕는다. 디바이스(10)의 유형 및 디바이스(10)가 사용되는 환경에 따라, 시청각 디스플레이 디바이스(44)에 의해 제공되는 비디오, 오디오, 또는 오디오 및 비디오 모두가 있을 수 있다.
도 3은 프로세서(52), 메모리(54), 인공 지능 소프트웨어를 사용하여 구현 될 수 있는 이미지 및 분석 및 조작 소프트웨어(IAMS)(56) 및 유선 또는 무선 통신 송수신기(60)와 통신하는 네트워크 인터페이스(58)를 포함하는 네트워크 서버(16)의 요소를 도시한다..
개별 디바이스들(10) 및 네트워크 서버(16)의 프로세서 기능들은 시스템 아키텍처 및 컴퓨팅 기능들의 분포에 의존한다. 본 명세서에 기술된 바와 같이, 이들 기능 중 일부는 프로세서(30 또는 52)에서 수행될 수 있는 반면, 다른 기능은 네트워크 서버의 프로세서(52)에 의해 수행 될 수 있다.
도 4A-4C는 각각 통합 시청각 디스플레이 디바이스를 갖는 소총에 대한 광학 시야(스코프)를 도시한다. 도 4a에서, 디스플레이 디바이스는 0도 위치에 있으며 현재 "MOVE LEFT"를 판독한다. 도 4b에서, 디스플레이 디바이스는 0, 90, 180 및 270도에서 4 개의 개별 영역을 갖는다. 도 4b의 디스플레이 디바이스는 현재 왼쪽으로 움직이고 있음을 나타내고 있다(270도에서 왼쪽 화살표는 실선으로 표시되어 있고, 위, 오른쪽 및 아래로의 다른 3 개의 화살표는 점선으로 표시되어 있음). 도 4C는 사용자가 찾으려고 하는 이미지를 나타내는 추가 디스플레이 요소를 포함한다는 점을 제외하고는 도 4A와 유사하다. 이 그림의 방향 프롬프트는 이 소총이 현재 팔로윙 스코프로 작동하고 있음을 나타낸다.
III. 추가 고려 사항
A. 타겟 위치 가중치
GPS 데이터 및 다른 측정 디바이스로부터 추정된 타겟 위치를 계산할 때, 리드 스코프 및 팔로어 스코프(들)에 의해 도입된 정량화 가능한 오차가 존재하며, 이는 이산값(예를 들어, +/- 20 cm)으로 나타낼 수 있다. 특정 유형의 에러값은 측정 디바이스의 고유한 한계에 따라 스코프에서 스코프까지 일관될 수 있다. 다른 유형의 에러는 GPS 신호의 강도 또는 리드의 위치를 계산하는데 사용되는 위성 수와 같은 신호 강도에 따라 달라질 수 있다. 계산된 각 타겟 위치에 대해 리드 스코프, 팔로어 스코프 및 / 또는 네트워크 서버가 에러값을 식별한다. 업데이트 된 타겟 위치를 계산하기 위해 다수의 스코프로부터 타겟 위치를 합산하고 누적할 때, 에러값은 각각의 타겟 위치에 주어진 강도를 가중시키기 위해 사용될 수 있다.
타겟 위치를 처리하기 위해 다양한 알고리즘이 사용될 수 있다. 예를 들어, 에러값이 가장 낮은 타겟 위치에 가중치가 더 높을 수 있다. 대안적으로, 다른 타겟 위치 에러값과 비교하여 매우 높은 에러값을 갖는 타겟 위치가 계산에서 삭제될 수 있다. 타겟의 위치를 보다 정확하게 예측하기 위해 추가 데이터를 사용하는 한 가지 방법은 각각의 추정 타겟 위치를 나타내는 점을 3 차원 그리드에 배치하고, 추정된 타겟을 나타내는 데이터의 중심점 또는 평균 위치를 추정하는 것이다. 중심점은 위에서 설명한 가중치에 따라 조정할 수 있다.
타겟 위치 가중치에 대한 에러값을 사용하는 것 외에도 일시적인 요소가 사용될 수 있다. 예를 들어, 가장 최근에 관찰된 타겟 위치는 더 큰 가중치를 부여받을 수 있다. 특정 타겟 위치는 관측 시간으로부터 소정의 시간이 경과한 후에 가중 연산으로부터 완전히 제거 될 수 있다.
일시적인 요소는 또한 IAMS 및 / 또는 스코프에 의해 타겟의 유형(예를 들어, 자동차, 사람, 사슴) 이 결정되는 실시 예에서, 타겟의 특성에 의해 영향을 받을 수있다. 일시적인 요인은 느리게 움직이는 타겟과 비교하여 빠르게 움직이는 타겟에서 더 중요하다. 따라서, 빠른 이동 타겟(예를 들어, 자동차)의 경우, 가장 최근에 관찰된 타겟 위치는 상당히 큰 가중치를 부여받을 수 있으며, 오래된 타겟 위치는 느린 타겟 이동에 비해 가중치에서 더 빨리 제거 될 수 있다.
정상적으로 빠르게 움직이는 타겟은 실제로 움직이지 않을 수 있고(예를 들어, 정지 차량), 정상적으로 느리게 움직이는 표적은 실제로 빠르게 움직일 수 있기 때문에(예를 들어, 달리는 사람 또는 사슴), IAMS는 다양한 알고리즘을 사용하여 타겟은 실제로 움직이고 있으며, 그렇다면 어떤 속도로 움직이는지를 결정한다. 이 계산은 일시적인 요인에 사용될 수 있다. 예를 들어, 타겟이 정지해 있는 것처럼 보이는 경우에는 가중치에 시간적 요인이 적용되지 않는다. 알고리즘은 다수의 관측된 타겟 위치를 볼 수 있고, 각각의 에러값을 고려한 후에 상대적으로 유사하고 상당히 다른 시간 간격으로 관찰된 경우(즉, 매우 근접하지 않은 경우), 타겟은 정지된 것으로 결론 지을 수 있다. 반대로, 복수의 관측된 타겟 위치가 각각의 에러값을 고려한 후 유의미하게 상이하고 매우 가까운 시간에 관찰된 경우, 타겟이 이동하고 있다는 결론을 내릴 수 있으며 시간 계수는 가중치에 사용되어야 한다.
B. 에러 인디케이터
바람직한 일 실시 예에서, 시각적 인디케이터는 디바이스 오퍼레이터에게 유용한 형태로 에러 정보를 시각적으로 전달한다. 예를 들어, 추정된 타겟 위치가 디바이스의 디스플레이 스크린상의 점으로 표시되는 경우, 디바이스의 오퍼레이터가 타겟이 디바이스 내의 임의의 영역에 있을 수 있음을 알도록 에러 박스가 점 주위에 겹쳐 질 수 있으며, 점이 표시되는 정확한 위치가 반드시 필요하지는 않다. 제 2 실시 예에서, 더 많은 타겟 위치가 연속적인 팔로어 스코프에 의해 식별됨에 따라 에러 박스는 더 작아질 수 있다.
에러 정보가 전달되는 정확한 방식은 추정된 타겟 위치가 팔로어 디바이스에 표시되는 방법에 따라 다르다.
측정 센서, 특히 GPS 기술의 발전으로 정확도가 향상되고 오류가 줄어들 수 있다. 어느 시점에서, 에러 인디케이터가 사용자 경험을 향상시키지 않을 정도로 에러가 충분히 작아질 수 있다.
C. 이미지 디스플레이 및 시뮬레이션
일 실시 예에서, 타겟은 디스플레이 스크린상의 점과 같은 1 차원 객체로 표현된다. 대안적인 실시 예에서, 타겟은 디스플레이 스크린상에서 시뮬레이션 된 2 차원 또는 3 차원 이미지로 표현된다. 디지털 이미지를 캡처하여 전송하면 실제 타겟 이미지가 화면에 표시 될 수 있다. 신경망과 같은 인공지능(AI) 기술을 사용하여 구현 될 수 있는 이미지 분석 및 조작 소프트웨어(IAMS)를 사용하여, 시뮬레이션 프로세스는 타겟이 팔로어 스코프에 대해 적절하게 위치하도록 회전될 수 있게 한다. 다음 예제를 고려하기로 한다:
1. 리드 스코프는 1/4 마일 떨어져 있고 디바이스를 정면으로 향하고 있는 사슴(타겟)을 식별한다.
2. 사슴의 타겟 위치와 사슴의 실제 이미지는 스코프에 의해 캡처되어 네트워크 서버와 통신한다.
3. 네트워크 서버에서 또는 인터넷을 통해 원격으로 액세스 한 IAMS는 이미지 내의 주요 시각적 특징을 식별하고, 이러한 특징을 알려진 객체와 비교하여 타겟을 사슴의 전면 뷰로 분류하여, 데이터베이스에서 사슴의 시뮬레이션 이미지를 검색한다.
4. 팔로어 스코프는 사슴에 대한 타겟 위치 데이터를 수신하여, 사슴으로부터 약 1/4 마일 떨어져 있고, 리드 스코프와 비교하여 90도 기울어져 있다고 판단한다. 그런 다음 IAMS는 시뮬레이션 사슴을 90도 회전하고, 팔로어 스코프에 표시하기 위해 사슴의 측면 뷰를 전달하여, 팔로어 스코프가 사슴의 모습을 알 수 있도록 한다.
5. 물리적 이미지 데이터가 복수의 스코프로부터 캡처 된 후에, IAMS는 타겟의 3 차원 이미지를 구축 할 수 있어, 타겟의 보다 현실적인 뷰가 타겟을 여전히 찾고 있는 팔로어 스코프에 디스플레이 될 수 있게 한다. IAMS는 렌더링을 수행하기 위해 리드 스코프와 팔로어 스코프의 위치를 모두 알아야 한다. 두 위치 모두 타겟의 3D 이미지를 회전하는 방법을 알기 위하여 필요하기 때문이다. 실제 이미지가 캡처되는 경우 IAMS가 이미지를 시뮬레이션 하지 않고 실제 이미지 데이터를 결합하는 옵션이 있다.
6. 법 집행 응용 프로그램에서 IAMS는 얼굴 인식 또는 기타 생체 인식 기술을 사용하여 타겟 이미지를 사람과 일치 시키려고 시도 할 수 있다. 일치하는 경우 타겟에 대한 정보가 스코프에 리턴될 수 있다.
7. 스코프에 통합된 이미지 디스플레이 시스템의 추가 응용은 팔로어 스코프가 고해상도 항공 이미지 또는 지형도를 검색하고 타겟의 대략적인 위치에 대한 표시와 함께 팔로어 스코프의 디스플레이 상에 공중 이미지 또는 지도를 표시하는 능력이다. 에러 정보가 알려진 경우, 타겟이 위치 할 수 있는 영역을 나타내는 항공 이미지 또는 지형도에 박스가 표시될 수 있다. 스코프를 타겟으로 향하게 하는 특징을 결합하고, 리드 스코프에서 보여지는 타겟의 이미지를 제공하고, 타겟 박스의 대략적인 위치를 에러 박스와 함께 조감도 또는 지형도상에 제공함으로써, 타겟을 탐지하는 프로세스가 크게 가속된다.
제 3 실시 예에서, 타겟은 스코프의 시야에 존재할 때 디스플레이 상에 경계 박스 또는 강조된 이미지 세그먼트로 표현된다. 타겟의 디지털 이미지가 캡처되면, IAMS는 향후 수집된 이미지에서 타겟 객체의 인식을 허용하는 이미지 내의 주요 시각적 특징을 식별하는데 사용될 수 있다. 팔로어 스코프의 FOV(field-of-view)가 타겟에 가까워지면, IAMS가 팔로어 스코프 FOV의 디지털 이미지 버퍼를 처리하여 이전에 식별된 타겟의 주요 시각적 특징과 현재 시야 내의 특징 사이에 패턴 일치가 있는지 확인한다. 타겟 이미지 특징을 찾으면 타겟이 시각적으로 표시된다. 팔로어 스코프가 광학 디스플레이를 갖는 경우, 일 실시 예는 특정 컬러로 타겟을 강조하거나 타겟 주위에 박스를 그리도록 활성화되는 투명 디스플레이 오버레이를 포함한다. 팔로어 스코프가 시각적 디스플레이를 갖는 경우, 매칭 된 타겟은 전술한 바와 같이 지정된다. 다음 예제를 고려하기로 한다:
1. 리드 스코프는 1/4 마일 떨어져 있고 디바이스를 정면으로 향하고 있는 사슴(타겟)을 식별한다.
2. 사슴의 타겟 위치와 사슴의 실제 이미지는 스코프에 의해 캡처되어 네트워크 서버와 통신한다.
3. 네트워크 서버의 IAMS 또는 인터넷을 통해 원격으로 액세스 한 IAMS는 컴퓨터 비전 기술을 사용하여 이미지를 분할하여 타겟을 배경 이미지와 분리한다.
4. IAMS는 이미지 세그먼트 내에서 사슴 뿔의 점 및 측면의 흰색 패치와 같은 식별 가능한 주요 특징 세트를 생성한다.
5. 팔로어 스코프는 사슴에 대한 타겟 위치 데이터를 수신하여, 사슴으로부터 약 1/4 마일이 떨어져 있으며, 리드 스코프와 비교하여 45도 기울어져 있다고 판단한다. 그런 다음 IAMS는 타겟에 해당하는 시각적 특징 세트를 45도 회전하여 팔로어 스코프의 FOV에서 어떠한 특징이 표시되는지 확인할 수 있다.
6. 팔로어 스코프는 타겟의 위치에 관한 지시에 따라 타겟의 일반적인 방향을 조준한다. 팔로어 스코프의 현재 FOV는 팔로어 스코프가 프로세스를 위해 이동함에 따라 IAMS로 전송된다.
7. IAMS는 수신 팔로어 스코프 이미지에서 패턴 매칭을 수행하여 이미지 내의 주요 특징을 타겟 스코프에서 생성되고 팔로어 스코프의 시야각에 맞게 조정된 타겟 특징 세트와 비교한다. 패턴 매칭이 발생하면 팔로어 스코프의 FOV내에서 타겟의 위치가 팔로어 스코프로 전송된다.
8. 팔로어 스코프는 디스플레이 내에서 타겟의 위치를 강조하는 경계 박스 오버레이를 제공한다.
9. 물리적 이미지 데이터가 복수의 스코프로부터 캡처 된 후, IAMS는 다수의 주요 식별 특징 세트를 다수의 각도로부터 구축할 수 있다.
D. 타겟 위치 계산
측정 데이터로부터 타겟 위치의 계산은 GPS 데이터를 사용하는 공지 기술 중 임의의 하나에 의해 수행 될 수 있다. 본 명세서에 참고로 포함된 미국 특허 제 5,568,152호(Janky 등)는 타겟과 이격된 상태로 뷰어 / 거리계를 통해 타겟을 보는 관찰자에 의해 타겟의 위치를 결정하는 방법을 개시하고 있다. 본원에 참고로 포함된 미국 특허 제 4,949,089호(Ruszkowski, Jr.)는 유사한 방법을 개시하고 있다. 이러한 방법론은 타겟 위치를 계산하는데 사용될 수 있다.
타겟에 대한 팔로어 스코프의 위치를 계산하려면 리드 스코프의 계산을 반대로 수행해야 한다. 팔로어 스코프는 GPS 좌표를 알고 있으며 리드 스코프 또는 네트워크 서버로부터 타겟의 대략적인 GPS 좌표를 수신하였다(또는 리드 스코프로부터 로우 측정 데이터를 직접 또는 간접적으로 무선으로 수신하여 타겟 위치를 계산하였다). 팔로어 스코프(또는 네트워크 서버 또는 네트워크의 다른 노드)는 두 GPS 좌표 사이의 경로를 계산한다. A 지점에서 B 지점까지의 2 차원 방향만 효과적으로 결정하는 차량 경로와 달리, 팔로어 스코프는 정확한 벡터와 그 위치에서 타겟 위치까지의 범위를 결정한다. 팔로어 스코프는 또한 GPS / INS 디바이스를 가지고 있기 때문에, 계산된 벡터에 관한 정보를 타겟에 사용하여 사용자가 타겟을 향한 벡터로 팔로어 스코프를 정렬하도록 지시한다.
다음 예시를 고려하기로 한다: 팔로어 스코프는 디바이스 사용자가 현재 수평면에서 서쪽(270도)을 보고 있고, 타겟에 대한 벡터가 북쪽(0도)이라고 판단한다고 가정한다. 팔로어 스코프는 오른쪽 화살표를 표시하거나 시계 방향 회전이 필요함을 나타내며 사용자가 0도를 가리킬 때 포인트를 표시하거나 구두로 표시한다. 이 시점에서 팔로어 스코프는 수직면의 벡터를 결정한다. 예를 들어, 팔로어 스코프가 수평이지만 타겟에 대한 벡터가 10도 더 낮은 경우, 팔로어 스코프는 사용자가 팔로어 스코프의 각도를 벡터가 수직 평면의 타겟에 일치할 때까지 낮추도록 지시한다. 위의 예시는 사용자가 먼저 수평면에서 타겟으로 향한 다음 수직면으로 향한다고 가정한다. 그러나 오른쪽 화살표와 아래쪽 화살표를 동시에 표시하여 가로 및 세로 평면에서 팔로어 스코프를 동시에 지정할 수 있다. 또한 GPS / INS 디바이스로 인해 팔로어 스코프는 항상 GPS 나침반을 사용하여 방위와 방향을 알고 있다.
E. 적외선 센서 / 히트 시그니쳐(Heat signature)
전술한 일반적인 광학 모드 실시 예에 더하여, 스코프의 대안적인 실시 예는 타겟의 히트 시그니쳐를 검출하기 위해 전향 적외선 센서를 통합한다. 시스템은 거리계를 사용하여 선택된 히트 시그니쳐에 해당하는 타겟의 위치를 감지한 다음, 관심 타겟의 이미지를 추가하거나 전송하는 대신 히트 시그니쳐를 전송한다.
F. 비 시각적 디스플레이
바람직한 실시 예는 이미지 및 / 또는 히트 시그니쳐를 시스템의 다른 디바이스로 전송하지만, 디바이스의 적어도 일부는 시각적 디스플레이를 포함하지 않을 수 있다. 이 경우, 팔로어 스코프는 단순히 방향 화살표 또는 다른 표시에 의존하여 팔로어 스코프의 사용자를 타겟으로 향하게 할 수 있다.
G. 음성 프롬프트
팔로어 스코프를 지시하는 방향 화살표 또는 다른 표시 대신에, 팔로어 스코프와 블루투스와 같은 유선 또는 무선으로 연결된 헤드폰 쌍 사이의 연결을 사용하여 디바이스를 움직이도록 지시 할 수 있다(예 : 위로 , 아래, 왼쪽, 오른쪽).
H. 범위 정보의 직접적인 사용
전술한 실시 예에서, 거리계로부터의 범위 정보는 팔로어 스코프에서 타겟을 식별하기 위해 사용되지 않는다. 광학 스코프 및 쌍안경은 가변 거리에 초점을 맞추기 때문에, 타겟 정보에 대한 안내는 또한 사용자가 보거나 초점을 맞출 정확한 거리를 알 수 있게하는 표시를 포함 할 수 있다. 오디오 실시 예에서, 명령은 더 가까이 또는 더 초점을 맞추거나 더 가까이 보이도록 명령을 제공 할 수 있다. 달리 말하면, 사용자는 이미 알려진 타겟 위치 및 팔로어 스코프의 알려진 위치에 기초하여 계산된 벡터를 보고 있다. 거리계는 당신이 타겟에 너무 멀리 있는지 또는 너무 가까이 있는지에 대한 아이디어를 얻는데 사용될 수 있다. 예를 들어, 타겟은 1 마일 떨어져 있지만 사용자는 현재 1.5 마일 떨어져서 보고 있을 수 있다.
I. 타겟 마킹
리드 스코프는 십자선 또는 타겟을 표시하기 위한 레티클과 같은 다른 타겟 선택 표시를 포함 할 수 있다. 일단 표시되면, 거리계는 타겟까지의 거리를 감지하고 시스템은 목타겟표의 좌표를 결정하여, 전술한 대로 타겟 위치의 팔로우 스코프에게 통지하거나 사용 가능한 네트워크 서버와 통신하여 타겟의 좌표를 저장한다.
J. 트리거 스위치
소총 또는 총기 응용에서, 리드 스코프는 스위치를 포함하여 정보를 팔로어 스코프에게 트리거 위 또는 근처의 센서로 전송한다.
K. 디스플레이 오버레이
보다 복잡한 팔로어 스코프는 고해상도 디스플레이를 포함 할 수 있고, 증강 현실 기술을 이용하여 리드 스코프로부터 수신된 시각 정보를 오버레이하고, 팔로어 스코프를 팔로어 스코프의 광학 시야에서 타겟으로 향하게 하는 표시를 오버레이 한다. 오버레이는 헤드 업 디스플레이 또는 이와 동등한 것 또는 완전한 디지털 디스플레이로 전환함으로써 구현 될 수 있다.
L. 타겟 이미지 캡처
타겟의 이미지는 디지털 카메라에 사용되는 다양한 기술과 실질적으로 동일한 방식으로 캡처 될 수 있다. 예를 들어, 리드 스코프의 사용자가 타겟을 지정하는 시점에서, 미러는 폴딩되어 디지털 SLR의 동작과 유사한 이미지 센서로 이미지를 향하게 할 수 있다. 리드 스코프는 미러를 사용하지 않는 미러리스 또는 컴팩트 카메라와 유사하게 작동 할 수도 있다.
M. 손동작 조정
사용자에 의한 디바이스(예를 들어, 소총 / 총, 쌍안경)의 손 움직임으로 인한 리드 스코프의 위치 이동은 시스템에 불안정성을 야기 할 수 있다. 이 문제를 해결하기 위해 터치 패드 또는 기타 포인팅 디바이스를 디바이스에 장착하고 십자선 또는 다른 타겟 표시를 타겟 위로 이동하는 데 사용할 수 있다. 타겟에 태그가 지정되면 거리계를 사용하여 십자선 중심까지의 범위를 기준으로 범위가 결정된다. 경우에 따라서는 사용된 거리 측정 기술에 따라 소음을 최소화하는 선형 또는 기타 무소음 모터를 사용하여 거리계를 기계적으로 타겟을 가리 키도록 방향 전환해야 할 수도 있다. 범위가 결정되면, 타겟 위치 계산은 십자선이 중심을 벗어나 이동한 양에 따라 결정된 리드 스코프 방향과 오프셋 방향의 오프셋에 대해 수행되고 조정된다.
N. 지형 장애물
경우에 따라 지형 특성(예: 언덕, 산)이 팔로어 스코프와 타겟 사이의 벡터 경로에 있을 수 있다. 예를 들어, 리드 스코프가 타겟에서 북쪽으로 1 마일 떨어져 있고, 팔로어 스코프가 남쪽으로 2 마일 떨어져 있으면 팔로어 스코프와 타겟 사이에 언덕이 있을 수 있다. 상세한 지형도 및 탐색 도구가 사용될 수 있다. 예를 들어, Montana의 Billings에 있는 Trimble®의 자회사 MyTopo™에서 시판되는 Terrain Navigator Pro와 같은 소프트웨어 제품은 미국과 캐나다 전체의 상세한 지형도를 제공하며 다양한 규모의 미국 지질 조사 맵을 통합한다. 당업자에게 공지된 종래의 GPS 라우팅 기술을 사용하여, 리드 스코프의 컴퓨터 또는 연결된 스코프의 네트워크에 있는 지능형 노드의 컴퓨터는 팔로어 스코프와 타겟 사이의 벡터를 해당 지역의 지형도에 오버레이 하고, 팔로어 스코프가 타겟을 볼 수 없도록 지형 지물을 통과하는 벡터인지 확인한다. 방해물이 존재하면, 타겟이 시야에서 차단된다는 표시가 팔로어 스코프의 사용자에게 제시 될 수 있다. 일부 실시 예에서, 지형도로부터의 데이터 및 타겟과 팔로어 스코프의 위치를 사용하여, 팔로어 스코프는 사용자에게 다른 위치, 바람직하게는 가장 근접한 위치로 이동하도록 지시 할 수 있는데, 여기서 타겟에 대한 시야가 방해 받지 않을 것이다.
벡터가 제 2 스코프로 하여금 추정 타겟을 보지 못하게 하는 지형 특징을 통과한다고 결정될 때, 리드 스코프의 컴퓨터 또는 연결된 스코프 네트워크의 지능형 노드의 컴퓨터는 다음 정보 항목(즉, 제2 스코프에 의해 추정된 타겟이 시야에서 차단되었다는 표시, 및 상기 제 2 스코프의 오퍼레이터가 추정된 타겟의 시야를 방해하지 않는 다른 위치로 이동하도록 촉진하기 위해 제 2 스코프에 의해 사용되는 전자적으로 생성된 인디케이터) 중 하나 이상을 출력한다.
O. 리드 스코프로 동작하는 다수의 스코프
제 2 실시 예에서, 다수의 스코프가 동시에 타겟을 전송하는 상황이 있을 수있다. 제 2 실시 예에서, 각각의 스코프는 임의의 주어진 시간에 리드 스코프 또는 팔로어 스코프가 될 수 있는 능력을 가지므로, 다수의 스코프가 서로 다른 타겟과 관련된 위치 정보를 동시에 전송할 가능성이 있다. 스코프가 리드 스코프에 의해 전송된 타겟의 이미지를 수신 할 수 있는 실시 예에서, 다수의 타겟 이미지가 리스트에 표시되고 선택기 버튼, 포인팅 디바이스를 사용하거나 눈을 추적하고 초점 포인트를 결정함으로써 관심은 팔로어 스코프에 의해 선택 될 수 있으며, 그 후에 팔로어 스코프는 전술한 바와 같이 타겟으로 향하게 될 것이다. 팔로어 스코프가 여러 리드 스코프로부터 수신된 타겟 이미지를 표시 할 수 있는 능력이 없다면, 팔로어 스코프의 사용자는 사용 가능한 타겟 목록과 타겟까지의 거리, 생성 시간 또는 스코프의 원점과 같은 관련 주석 정보를 제공받을 수 있으며, 선택기 버튼, 포인팅 디바이스 또는 시선 추적을 사용하여 관심있는 타겟을 선택할 수 있다. 팔로어 스코프가 사용자에게 타겟 목록을 제시하는 능력이 없다면, 프로세서는 미리 결정된 기준 또는 다양한 요인을 사용하여 최상의 타겟을 선택하는 알고리즘에 기초하여 타겟을 선택할 것이다. 이러한 요인에는 가장 가까운 타겟, 오류율이 가장 낮은 타겟, IAMS가 얼굴 인식으로 식별한 특정 동물 또는 사람과 같은 선호하는 타겟 유형에 일치하는 타겟이 포함될 수 있다.
스코프가 디지털 오버레이를 제공 할 수 있는 실시 예에서, 팔로어 스코프는 다수의 관심 타겟의 동시 추적을 지원할 수 있다. 사용 가능한 타겟 목록에서 관심있는 단일 타겟을 선택하는 대신, 팔로어 스코프의 사용자는 표시되거나 숨겨져 있는대로 사용 가능한 각 타겟을 토글 할 수 있다. 사용 가능한 타겟이 표시되도록 설정되면 표시는 팔로어 스코프 오버레이에 추가되며, 어떤 타겟을 향하고 있는지를 나타내는 레이블이 붙게 된다.
일부 실시 예들에서, 스코프가 리드 스코프에 의해 이전에 선택된 타겟을 식별하고 지시했거나 또는 리드 스코프로서 행동하고 새로운 타겟을 전송한다는 확인을 전송하고 있는지 확실하지 않을 수 있다. 이 문제를 제거하기 위해, 사용자 인터페이스는 스코프의 사용자가 새로운 타겟과 관련된 위치 정보를 전송하고 있는지 또는 다른 타겟에 의해 이전에 지정된 타겟을 보았음을 확인하는 것을 표시할 수 있도록 포함될 수 있다. 대안적으로, 이미지가 위치 데이터와 함께 전송되고 시스템이 IAMS를 포함하는 경우, IAMS는 타겟의 이미지를 비교하고 수신된 위치 데이터를 이전에 지정된 타겟 또는 새로운 타겟과 연관되는 것으로 취급 할지를 결정할 수 있다.
스코프 사용자가 실수를 하여 실제로 스코프가 다른 타겟을 지정하고 있음에도, 이전에 리드 스코프에 의해 지정된 타겟을 선택하고 있다고 잘못 표시될 수도 있다. 한 가지 예가 동일한 유형의 동물이 에러 박스 내에 있는 경우 등 여러 가지 이유로 발생할 수 있다. 이상적으로, 다른 타겟이 이전에 리드 스코프에 의해 지정된 경우, 스코프에 의해 타겟이 지정될 때, IAMS는 두 이미지를 비교하고 타겟 이미지가 동일한 타겟일 가능성이 낮은 것으로 결정하는 능력을 가짐으로써, 스코프가 리드 스코프의 역할을 하여 새로운 타겟과 관련된 데이터를 보내게 된다.
P. 게임 모드
네트워크로 연결된 스코프는 스코프 중 하나 또는 네트워크 서버에 의해 유지되는 스코어링으로 게임을 하는데 사용될 수 있다. 게임은 고정된 시간 간격으로 작동 할 수 있다. 일 실시 예에서, 리드 스코프는 타겟을 설정하고 각각의 팔로어 스코프는 타겟을 검색한다. 팔로어 스코프가 타겟을 식별하는 순서 및 / 또는 팔로어 스코프가 타겟을 찾는 데 걸리는 시간에 따라 포인트가 부여된다. 팔로어 스코프가 타겟을 찾는 데 최대 시간이 제공되며, 그 시점에서 라운드가 끝나게 된다. 순차적 또는 무작위로, 새로운 리드 스코프가 타겟을 찾기 위해 지정되고 다음 라운드가 진행된다. 게임의 승자는 게임에 대한 사전 설정 시간이 끝날 때 최대 점수를 가진 스코프이다. 또는 목표 점수에 도달하면, 점수에 기반하여 플레이어들에게 랭크가 부여되면서 게임이 종료된다.
Q. 자동 타겟 탐지
IAMS는 객체 분류를 통해 현재 FOV 내에서 잠재적인 타겟을 식별함으로써 리드 스코프 오퍼레이터를 지원하는데 사용될 수 있다. 이미지 프레임을 분석하고 이미지 프레임에서 객체를 식별하기 위한 종래의 프로세스가 존재한다. 예를 들어 GOOGLE® Cloud Vision API는 애플리케이션이 이미지 내 콘텐츠를 보고 이해할 수 있도록 이미지 분석 기능을 제공한다. 이 서비스를 통해 고객은 일상적인 물체(예: "범선", "사자", "에펠탑")에서 얼굴 및 제품 로고에 이르기까지 이미지 내의 광범위한 개체를 감지 할 수 있다. 이 유형의 소프트웨어 응용 프로그램은 객체 분류를 통해 현재 시야 내에서 잠재적인 타겟을 식별하는 데 사용될 수 있다.
오퍼레이터는 객체 분류 기능이 있는 IAMS 지원 리드 스코프를 사용하여, 사전 설정 목록(예: 자동차, 사람, 사슴)에서 원하는 타겟 유형을 선택할 수 있다. 이 시점에서 이미지가 리드 스코프부터 캡처되고, IAMS는 경계 박스 또는 강조 표시된 이미지 세그먼트와 같이 지정된 객체 유형과 일치하는 보기 내의 객체를 강조 표시한다. 그러면 리드 스코프가 강조 표시된 잠재적 타겟 중 하나를 가리키고 활성화되어 타겟 지정할 수 있다.
대안적인 실시 예에서, 이미지 처리는 연속적 일 수 있으며, 리드 스코프가 이동함에 따라, 지정된 객체 유형과 일치하는 것으로 발견된 임의의 객체가 강조될 수 있다.
다른 실시 예에서, 자동 타겟 검출은 상기 섹션 C의 이미지 시뮬레이션 및 디스플레이에 설명된 특징을 사용하여 하나 이상의 팔로어 스코프로 확장된다. 다음 예시를 고려하기로 한다:
1. 전술한 바와 같이 리드 스코프를 사용하여 자동 타겟 검출이 수행된다.
2. IAMS는 전술한 섹션 C에 설명된 프로세스를 사용하여, 리드 스코프와 관련하여 특정 팔로어 스코프의 위치를 기반으로 타겟 이미지가 표시되는 방법을 각도에 따른 외관 특성(예: 동일한 각도(헤드 온), +/- 90도 회전(왼쪽 또는 오른쪽보기), 180도 회전(버트 뷰(butt view)) 및 거리(예: 타겟까지의 거리에 따른 크기)에 따라 계산한다.
3. 팔로어 스코프의 시야에서 이미지가 캡처되고, 팔로어 스코프에 의해 계산되는 것으로 나타나는 리드 스코프로부터의 예상 타겟 이미지가 실제로 팔로어 스코프의 시야에 있는지를 결정하기 위해 자동 패턴 식별이 수행된다. 예를 들어 사슴이 +90도 회전한 것으로 보이면 자동 패턴 인식에서 결정된 팔로어 스코프 헤드 온을 향하고 있는 사슴은 올바른 타겟이 아닐 수 있다. 그러나 사슴이 +90도 회전한 것으로 보일 때, 사슴이 팔로어 스코프의 시야에 있는 것으로 판단되고 자동 패턴 인식에서 결정된대로 +90도 회전된 것으로 판단되면, 사슴은 올바른 타겟 일 가능성이 높다.
4. 예상 타겟 이미지가 팔로어 스코프의 시야에 있는 경우, 유사한 유형의 경계 박스 또는 강조 표시된 이미지 세그먼트가 팔로어 스코프에 나타나고, 경계 박스 또는 강조된 이미지 세그먼트에서 타겟 이미지를 향해 현재 타겟 위치로부터 팔로어 스코프를 재배치하기 위한 적절한 프롬프트가 팔로어 스코프의 오퍼레이터에게 제공된다.
도5는 스코프 디스플레이에 표시 될 수 있는 샘플 사전 리스트 목록을 보여준다. 이 예시에서 나열된 개체에는 사람, 사슴 및 차량이 포함된다. 스코프 운영자는“사슴”을 선택하였다. 스코프의 시야는 객체 감지를 위해 분석되고, 시야에 나타나는 유일한 객체는 대략 1시 위치에 하나의 사슴이라고 가정한다. 이로 인해 스코프 오퍼레이터에게 스코프를 현재 타겟 위치에서 사슴의 타겟 위치로 이동하도록 지시하는 해당 지시 사항과 함께 도 4C에 표시된 것과 유사한 시야가 도출된다.
R. 스코프의 초점 길이
전술한 실시 예에서, 스코프는 모두 유사한 초점 길이를 갖는 것으로 추정된다. 그러나 스코프의 초점 거리가 다른 경우, IAMS는 시야에서 분석되는 객체의 크기와 팔로어 스코프에서 이미지로 표시되는 객체의 크기를 결정할 때 적절하게 조정되어야 한다. 바람직하게, IAMS는 그러한 조정이 이루어질 수 있도록 각각의 스코프의 초점 길이에 관한 데이터를 수신한다.본 발명의 바람직한 실시 예는 방법으로서 구현될 수 있으며, 그 예가 제공된다. 방법의 일부로서 수행되는 동작은 임의의 적절한 방식으로 요구될 수 있다. 따라서, 예시된 실시 예에서 순차적으로 수행되는 것으로 도시되어 있지만, 일부 동작을 동시에 수행하는 것을 포함 할 수 있는, 도시된 것과 다른 순서로 동작이 수행되는 실시 예가 구성 될 수 있다.
S. 플로우 차트
도 6은 상호간 이격되어 각각의 스코프 오퍼레이터에 의하여 이동하는 제1스코프 및 제2스코프에 의하여 추정되는 단일 타겟을 추적하는 프로세스의 플로우 차트이며, 여기서 각각의 스코프는 현재 타겟 위치 데이터를 제공하도록 구성된 복수의 측정 디바이스를 포함한다. 바람직한 일 실시 예에서, 프로세스는 적어도 다음 단계들에 의해 구현된다:
600: 제 1 스코프의 복수의 측정 디바이스를 사용하여, 제 1 스코프의 오퍼레이터에 의해 탐지된 추정 타겟에 관한 현재 타겟 위치 데이터를 식별한다.
602: 제 1 스코프는 제 1 스코프의 오퍼레이터에 의해 식별된 추정 타겟에 관한 현재 타겟 위치 데이터를 제 2 스코프와 전자적으로 통신한다.
604: 제 2 스코프는 복수의 측정 디바이스를 사용하여 제 2 스코프의 현재 타겟 위치의 현재 타겟 위치 데이터를 식별한다.
606: 제 2 스코프의 프로세서가 제2스코프의 현재 타겟 위치 데이터 및 제 1 스코프로부터 수신된 현재 타겟 위치 데이터를 사용하여 제 2 스코프를 제2스코프의 현재 타겟 위치로부터 제 1 스코프에 의해 식별된 추정 타겟의 타겟 위치로 이동시키는데 필요한 위치 이동을 계산한다.
608: 제 2 스코프의 프로세서가 제 2 스코프에 의해 사용되기 위해 전자적으로 생성된 인디케이터를 제 2 스코프의 오퍼레이터에게 출력하여 위치 이동을 촉구한다. 제 2 스코프의 오퍼레이터는 인디케이터를 사용하여 제 1 스코프로부터 수신된 현재 타겟 위치 데이터에 의해 정의되는 타겟 위치를 향해 이동하도록 현재 타겟 위치로부터 스코프를 재배치한다.
도 7은 상호간 이격되어 각각의 오퍼레이터에 의해 이동하는 복수의 스코프에 의하여 추정되는 단일 타겟을 추적하는 프로세스의 플로우 차트이며, 여기서 각각의 스코프는 현재 타겟 위치 데이터를 제공하도록 구성된 복수의 측정 디바이스를 포함한다. 위치 데이터 및 각각의 스코프는 네트워크 서버와 전자 통신하되, 현재 타겟 위치 데이터는 에러값을 갖는다. 바람직한 일 실시 예에서, 프로세스는 적어도 다음 단계들에 의해 구현된다:
700: 제 1 스코프의 복수의 측정 디바이스를 사용하여 제 1 스코프의 오퍼레이터에 의해 탐지된 추정 타겟에 대한 현재 타겟 위치 데이터를 식별한다.
702: 제1스코프가 제 1 스코프의 오퍼레이터에 의해 식별된 추정 타겟에 관한 현재 타겟 위치 데이터를 전자 네트워크를 통해 네트워크 서버와 전자적으로 통신한다.
704: 네트워크 서버가 제 1 스코프의 오퍼레이터에 의해 식별된 추정 타겟에 관한 현재 타겟 위치 데이터를 전자 네트워크를 통해 나머지 스코프와 통신한다.
706: 각각의 나머지 스코프가 추정 타겟을 탐지하기 위해 제 1 스코프의 오퍼레이터에 의해 식별된 추정 타겟에 관한 현재 타겟 위치 데이터를 사용한다.
708: 추정 타겟의 위치를 탐지시, 각각의 나머지 스코프는 전자 네트워크를 통해 추정 타겟에 관한 현재 타겟 위치 데이터를 네트워크 서버와 전자적으로 통신하고, 현재 타겟 위치 데이터는 각각의 나머지 스코프에서 복수의 측정 디바이스를 사용하여 각각의 나머지 스코프에 의해 식별된다.
710: 네트워크 서버는 나머지 스코프 중 어느 하나로부터 현재 타겟 위치 데이터를 수신하면 추정 타겟을 탐지한 각 스코프로부터 현재 타겟 위치 데이터를 합산함으로써 제 1 스코프에 의해 식별된 현재 타겟 위치 데이터의 에러 값과 비교하여 에러값이 감소된 업데이트 된 현재 타겟 위치 데이터를 계산한다.
712: 네트워크 서버가 전자 네트워크를 통해 추정 타겟을 아직 탐지하지 않은 나머지 스코프들과 추정 타겟에 관하여 업데이트 된 현재 타겟 위치 데이터를 전자적으로 통신한다.
714: 추정 타겟을 아직 탐지하지 않은 나머지 스코프가 추정 타겟을 찾기 위해 이전에 수신된 현재 타겟 위치 데이터 대신에 업데이트 된 현재 타겟 위치 데이터를 사용한다.
도 8은 상호간 이격되어 각각의 오퍼레이터에 의해 이동하는 복수의 리드 스코프 및 하나 이상의 팔로어 스코프에 의하여 추정되는 복수개의 타겟을 추적하는 프로세스의 흐름도이며, 여기서 각각의 스코프는 현재 타겟 위치 데이터를 제공하도록 구성된 복수의 측정 디바이스를 포함하고, 각각의 스코프는 네트워크 서버와 전자 통신한다. 바람직한 일 실시 예에서, 프로세스는 적어도 다음 단계들에 의해 구현된다:
800: 복수의 리드 스코프는 각각의 리드 스코프의 오퍼레이터에 의해 탐지된 추정 타겟에 관한 현재 타겟 위치 데이터를 식별하는 단계로써, 현재 타겟 위치 데이터는 각각의 리드 스코프에서 복수의 측정 디바이스를 사용하여 식별된다.
802: 복수의 리드 스코프가 전자 네트워크를 통해 (i) 각각의 리드 스코프의 오퍼레이터가 식별한 추정 타겟에 대한 현재 타겟 위치 데이터 및 (ii) 추정 타겟 각각에 관한 정보를 네트워크 서버와 전자적으로 통신한다.
804: 네트워크 서버가 전자 네트워크를 통해 (i) 리드 스코프의 오퍼레이터에 의해 식별된 추정 타겟에 대한 현재 타겟 위치 데이터 및 (ii) 추정 타겟 각각에 관한 정보를 하나 이상의 팔로어 스코프와 통신한다.
806: 하나 이상의 팔로어 스코프 각각이 추정 타겟 각각에 관한 정보를 사용하여 리드 스코프의 추정 타겟 중 하나를 전자적으로 선택한다.
808: 팔로어 스코프가 (i) 복수의 측정 디바이스를 사용하여 현재 타겟 위치에 대한 현재 타겟 위치 데이터를 식별하는 단계, (ii) 해당 스코프의 프로세서가 현재 타겟 위치 데이터 및 선택된 추정 타겟 위치의 현재 타겟 위치 데이터를 사용하여 팔로어 스코프를 현재 타겟 위치에서 선택된 추정 타겟의 타겟 위치로 이동시키는데 필요한 움직임을 계산하는 단계, (iii) 팔로어 스코프의 프로세서가 팔로어 스코프의 오퍼레이터에게 위치 이동을 지시하기 위해 전자적으로 생성된 인디케이터를 출력하는 단계를 통하여 선택된 추정 타겟을 탐지한다. 팔로어 스코프의 오퍼레이터는 인디케이터를 사용하여 선택된 추정 타겟의 현재 타겟 위치 데이터에 의해 정의되는 타겟 위치를 향해 이동하도록 현재 타겟 위치로부터 스코프를 재배치한다.
본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 광범위한 개념을 벗어나지 않고 전술한 실시 예를 변경할 수 있음을 이해할 것이다. 그러므로, 본 발명은 개시된 특정 실시 예로 제한되지 않으며, 본 발명의 사상 및 범위 내에서 변형을 포함하는 것으로 이해되어야 할 것이다.

Claims (22)

  1. 상호간 이격되어 각각의 스코프 오퍼레이터에 의하여 이동하는 제1스코프 및 제2스코프에 의하여 추정되는 단일 타겟을 추적하는 방법으로서, 각각의 스코프는 현재 타겟 위치 데이터를 제공하도록 구성된 복수의 측정 디바이스를 포함하며, 상기 방법은:
    (a)상기 제 1 스코프의 오퍼레이터에 의해 탐지된 상기 추정 타겟에 대한 현재 타겟 위치 데이터를 식별하는 단계로써, 상기 현재 타겟 위치 데이터는 상기 제 1 스코프의 복수의 측정 디바이스를 사용하여 식별되며;
    (b)상기 제1스코프가 상기 제 1 스코프의 오퍼레이터에 의해 식별된 상기 추정 타겟에 관한 상기 현재 타겟 위치 데이터를 전자 네트워크를 통하여 상기 제 2 스코프와 전자적으로 통신하는 단계;
    (c)제 2 스코프가 복수의 측정 디바이스를 사용하여 제 2 스코프의 현재 타겟 위치의 현재 타겟 위치 데이터를 식별하는 단계;
    (d) 제 2 스코프의 프로세서가 상기 제2스코프의 현재 타겟 위치 데이터 및 상기 제 1 스코프로부터 수신된 상기 현재 타겟 위치 데이터를 사용하여 상기 제 2 스코프를 상기 제2스코프의 상기 현재 타겟 위치로부터 상기 제 1 스코프에 의해 식별된 추정 타겟의 타겟 위치로 이동시키는데 필요한 위치 이동을 계산하는 단계; 및
    (e)상기 제 2 스코프의 프로세서가 상기 제 2 스코프에 의해 사용되기 위해 전자적으로 생성된 인디케이터를 상기 제 2 스코프의 오퍼레이터에게 출력하여 상기 위치 이동을 촉구하는 단계를 포함하며,
    상기 제 2 스코프의 오퍼레이터는 상기 인디케이터를 사용하여 상기 제 1 스코프로부터 수신된 상기 현재 타겟 위치 데이터에 의해 정의되는 상기 타겟 위치를 향해 이동하도록 상기 현재 타겟 위치로부터 스코프를 재배치하는 방법.
  2. 제 1 항에 있어서,
    (f) 디지털 이미지 센서를 사용하여 상기 제 1 스코프의 오퍼레이터에 의해 식별된 상기 추정 타겟의 디지털 이미지를 캡처하는 단계;
    (g) 상기 제1스코프가 상기 전자 네트워크를 통해 상기 제 2 스코프와 전자 통신하는 단계로,
    (i) 상기 제1스코프의 오퍼레이터가 식별한 상기 추정 타겟의 상기 디지털 이미지 또는
    (ii) 상기 제 1 스코프의 오퍼레이터에 의해 식별된 상기 추정 타겟의 시뮬레이션 이미지로써, 상기 시뮬레이션 이미지는 디지털 이미지를 사용하여 생성되며;
    (h) 상기 제 1 스코프의 오퍼레이터에 의해 식별된 상기 추정 타겟의 상기 디지털 이미지 또는 상기 제 1 스코프의 오퍼레이터에 의해 식별된 상기 추정 타겟의 시뮬레이션 이미지를 상기 제 2 스코프의 디스플레이 상에 디스플레이하는 단계를 포함하며;
    상기 디스플레이 된 추정 타겟은 상기 제 1 스코프로부터 수신된 상기 현재 타겟 위치 데이터에 의해 정의되는 타겟 위치를 향하여 이동하는 것을 보조하기 위해 상기 제 2 스코프의 오퍼레이터에 의하여 사용되는 방법.
  3. 제 2 항에 있어서, 상기 단계 (g)에서, 상기 제 1 스코프는 상기 전자 네트워크를 통해 상기 제 1 스코프의 오퍼레이터에 의해 식별된 상기 추정 타겟의 상기 시뮬레이션 이미지를 상기 제 2 스코프와 전자적으로 통신하고, 상기 단계 (h)에서, 상기 제 2 스코프의 디스플레이는 상기 제 1 스코프의 오퍼레이터에 의해 식별된 상기 추정 타겟의 상기 시뮬레이션 이미지를 디스플레이하며,
    상기 방법은,
    (i) 이미지 분석 및 시뮬레이션 소프트웨어를 사용하여 상기 제 2 스코프의 상기 현재 타겟 위치 데이터로부터 상기 제 2 스코프에 대한 상기 추정 타겟의 화각(likely angle of view)을 계산하는 단계; 및
    (j) 상기 제 1 스코프의 오퍼레이터에 의해 식별된 상기 추정 타겟의 상기 시뮬레이션 이미지를 전자식으로 회전시켜서 화각과 일치시키고, 상기 추정 타겟의 시뮬레이션 이미지를 디스플레이함에 있어 전자식 회전을 반영하는 단계를 더 포함하는 방법.
  4. 제 1 항에 있어서, 상기 타겟 위치 데이터는 (i) 상기 타겟의 3 차원 위치 데이터, 또는 (ii) 상기 타겟의 3 차원 위치 데이터를 계산하기에 충분한 로우 측정 데이터(raw measurement data)인 방법.
  5. 제 1 항에 있어서, 상기 제 1 스코프의 오퍼레이터에 의해 탐지된 상기 추정 타겟에 관한 현재 타겟 위치 데이터는 상기 추정 타겟의 중심을 식별하는 방법.
  6. 제 1 항에 있어서, 상기 제 1 스코프가 상기 제 1 스코프의 오퍼레이터에 의해 식별된 상기 추정 타겟에 관한 현재 타겟 위치 데이터를 상기 제 2 스코프에 전자적으로 통신하는 단계로:
    (i) 상기 제1스코프가 상기 전자 네트워크를 통해 상기 현재 타겟 위치 데이터를 네트워크 서버에 전자적으로 통신하는 단계, 및
    (ii) 상기 네트워크 서버가 상기 현재 타겟 위치 데이터를 저장하고, 상기 전자 네트워크를 통해 상기 제 2 스코프에 전달하는 단계를 포함하는 방법.
  7. 제 1 항에 있어서, 상기 제 1 스코프, 상기 제 2 스코프 및 상기 네트워크 서버는 메쉬 네트워크의 노드이고, 상기 전자 네트워크는 메쉬 네트워크인 방법.
  8. 제 1 항에 있어서,
    (f) 상기 제 1 스코프의 오퍼레이터에 의해 탐지된 상기 추정 타겟의 후속하는 새로운 현재 타겟 위치 데이터를 식별하는 단계; 및
    (g) 상기 후속하는 새로운 현재 타겟 위치 데이터를 사용하여 단계 (b)-(e)를 수행하는 단계로,
    상기 제 2 스코프의 오퍼레이터는 상기 인디케이터를 사용하여 상기 제 1 스코프로부터 수신한 상기 후속하는 새로운 현재 타겟 위치 데이터에 의해 정의되는 타겟 위치를 향해 이동하도록 현재 타겟 위치로부터 스코프를 재배치하는 단계를 더 포함하는 방법.
  9. 제 1 항에 있어서,
    (f) 상기 제 1 스코프의 프로세서에서 상기 제 1 스코프의 오퍼레이터에 의해 위치 한 상기 추정 타겟에 관한 상기 현재 타겟 위치 데이터의 변경을 검출하는 단계; 및
    (g) 변경된 현재 타겟 위치 데이터를 사용하여 단계 (b)-(e)를 수행하는 단계로,
    상기 제 2 스코프의 오퍼레이터는 상기 인디케이터를 사용하여 상기 제 1 스코프로부터 수신한 변경된 현재 타겟 위치 데이터에 의해 정의되는 타겟 위치를 향해 이동하도록 현재 타겟 위치로부터 스코프를 재배치하는 단계를 더 포함하는 방법.
  10. 제 1 항에 있어서, 상기 복수의 측정 디바이스는,
    (i) GPS (Global Positioning System) 디바이스 또는 상기 제1 스코프 또는 상기 제2 스코프의 위도, 경도 및 고도를 제공하도록 구성된 GPS 지원 관성 항법 시스템(GPS / INS),
    (ii) 제 1 스코프 또는 상기 제 2 스코프의 위치에 대한 추정 타겟의 방향을 제공하도록 구성된 나침반, 및
    (iii) 자세 데이터를 제공하도록 구성된 방위 센서
    중 적어도 하나의 디바이스를 포함하는 방법.
  11. 제 1 항에 있어서,
    (f) 컴퓨터에서, 상기 제 2 스코프의 현재 위치와 상기 제 1 스코프로부터 수신한 상기 현재 타겟 위치 데이터에 의해 정의되는 타겟 위치 사이의 벡터를 상기 제 2스코프 및 상기 타겟 위치를 포함하는 영역의 지형도 상에 전자적으로 오버레이하는 단계;
    (g) 상기 컴퓨터에서, 상기 벡터와 지형도로부터 상기 벡터가 상기 제 2 스코프에서 상기 추정 타겟을 보지 못하게 하는 지형 특징을 통과하는지를 전자적으로 결정하는 단계; 및
    (h) 상기 컴퓨터에서, 상기 벡터가 상기 제 2 스코프에서 상기 추정 타겟을 보지 못하게 하는 지형 특징을 통과한다고 결정할 때,
    (i) 상기 추정 타겟이 시야에서 차단되었음을 상기 제 2 스코프에 표시하는 표지; 및
    (ii) 상기 제 2 스코프가 상기 제 2 스코프의 오퍼레이터에게 상기 추정 타겟의 시야를 방해하지 않는 다른 위치로 이동하도록 유도하는 전자적으로 생성된 표지 중 적어도 하나를 출력하는 단계를 더 포함하는 방법.
  12. 제 1 항에 있어서, 단계 (a) 이전에, 상기 방법은 :
    (f) 상기 제 1 스코프의 오퍼레이터가 제 1 스코프의 디스플레이상의 사전 설정 리스트로부터 위치시키고자 하는 타겟 유형을 선택하는 단계;
    (g) 상기 제 1 스코프 시야각의 이미지를 캡처하는 단계;
    (h) 이미지 분석 및 객체 분류 소프트웨어를 사용하여, 상기 제 1 스코프의 오퍼레이터에 의해 선택된 타겟의 유형을 상기 제 1 스코프의 상기 시야각에 나타나는 객체와 자동으로 비교하고, 선택된 타겟 유형과 일치하는 임의의 물체를 상기 시야각에서 검출하는 단계; 및
    (i) 검출된 물체를 상기 제 1 스코프의 디스플레이 상에 강조 표시하고, 검출된 물체 중 하나는 단계 (a)에서 식별되는 추정 타겟이 되는 방법.
  13. 상호간 이격되어 각각의 오퍼레이터에 의해 이동하는 복수의 스코프에 의하여 추정되는 단일 타겟을 추적하는 방법으로서, 각각의 스코프는 현재 타겟 위치 데이터를 제공하도록 구성된 복수의 측정 디바이스를 포함하고, 각각의 스코프는 전자 네트워크를 통하여 네트워크 서버와 소정의 에러값을 갖는 현재 타겟 위치 데이터를 전자적으로 통신하는 방법에 있어서, 상기 방법은,
    (a) 상기 제 1 스코프의 오퍼레이터에 의해 탐지된 상기 추정 타겟에 대한 현재 타겟 위치 데이터를 식별하는 단계로써, 상기 현재 타겟 위치 데이터는 상기 제 1 스코프의 복수의 측정 디바이스를 사용하여 식별되며;
    (b)상기 제1스코프가 상기 제 1 스코프의 오퍼레이터에 의해 식별된 상기 추정 타겟에 관한 상기 현재 타겟 위치 데이터를 상기 전자 네트워크를 통해 상기 네트워크 서버와 전자적으로 통신하는 단계;
    (c)상기 네트워크 서버가 상기 제 1 스코프의 오퍼레이터에 의해 식별된 상기 추정 타겟에 관한 상기 현재 타겟 위치 데이터를 상기 전자 네트워크를 통해 나머지 스코프와 통신하는 단계;
    (d) 각각의 나머지 스코프가 상기 추정 타겟을 탐지하기 위해 상기 제 1 스코프의 오퍼레이터에 의해 식별된 상기 추정 타겟에 관한 상기 현재 타겟 위치 데이터를 사용하는 단계;
    (e) 상기 추정 타겟의 위치를 탐지시, 각각의 나머지 스코프는 상기 전자 네트워크를 통해 상기 추정 타겟에 관한 상기 현재 타겟 위치 데이터를 네트워크 서버와 전자적으로 통신하고, 상기 현재 타겟 위치 데이터는 각각의 나머지 스코프에서 복수의 측정 디바이스를 사용하여 각각의 나머지 스코프에 의해 식별되고;
    (f) 상기 네트워크 서버는 나머지 스코프 중 어느 하나로부터 상기 현재 타겟 위치 데이터를 수신하면 상기 추정 타겟을 탐지한 각 스코프로부터 상기 현재 타겟 위치 데이터를 합산함으로써 상기 제 1 스코프에 의해 식별된 현재 타겟 위치 데이터의 에러 값과 비교하여 에러값이 감소된 업데이트 된 현재 타겟 위치 데이터를 계산하는 단계;
    (g) 상기 네트워크 서버가 상기 전자 네트워크를 통해 상기 추정 타겟을 아직 탐지하지 않은 나머지 스코프들과 상기 추정 타겟에 관하여 업데이트 된 현재 타겟 위치 데이터를 전자적으로 통신하는 단계; 및
    (h)추정 타겟을 아직 탐지하지 않은 나머지 스코프가 상기 추정 타겟을 찾기 위해 이전에 수신된 현재 타겟 위치 데이터 대신에 업데이트 된 현재 타겟 위치 데이터를 사용하는 단계를 포함하는 방법.
  14. 제 13 항에 있어서, 상기 스코프 중 하나는 상기 네트워크 서버를 더 포함하고, 나머지 스코프는 상기 전자 네트워크를 통해 상기 네트워크 서버를 포함하는 스코프와 전자 통신하는 방법.
  15. 제13 항에 있어서, 상기 네트워크 서버는 각각의 스코프로부터 원격에 위치하는 방법.
  16. 제 13 항에 있어서, 상기 단계 (g)는 상기 네트워크 서버가 상기 추정 타겟에 관하여 업데이트 된 현재 타겟 위치 데이터를 상기 추정 타겟을 이전에 탐지한 스코프와 상기 제 1 스코프에 전자적으로 통신하는 단계를 더 포함하는 방법.
  17. 제 13 항에 있어서, 상기 단계 (f) 내지 (h)는 상기 네트워크 서버가 상기 단계 (e)의 나머지 스코프들 중 하나로부터 추정 타겟을 수신 할 때마다 반복되고, 이에 따라 상기 현재 타겟 위치 데이터는 반복적으로 업데이트됨으로써, 최근에 업데이트 된 현재 타겟 위치 데이터의 에러값과 비교하여 지속적으로 에러값이 감소되는 방법.
  18. 제 13 항에 있어서, 상기 복수의 스코프 및 상기 네트워크 서버는 메쉬 네트워크의 노드이고, 상기 전자 네트워크는 메쉬 네트워크인 방법.
  19. 상호간 이격되어 각각의 오퍼레이터에 의해 이동하는 복수의 리드 스코프 및 하나 이상의 팔로어 스코프에 의하여 추정되는 복수개의 타겟을 추적하는 방법으로서, 각각의 스코프는 현재 타겟 위치 데이터를 제공하도록 구성된 복수의 측정 디바이스를 포함하고, 각각의 스코프는 전자 네트워크를 통하여 네트워크 서버와 전자적으로 통신하는 방법에 있어서, 상기 방법은
    (a) 복수의 리드 스코프는 각각의 리드 스코프의 오퍼레이터에 의해 탐지된 추정 타겟에 관한 현재 타겟 위치 데이터를 식별하는 단계로써, 상기 현재 타겟 위치 데이터는 각각의 리드 스코프에서 복수의 측정 디바이스를 사용하여 식별되고;
    (b) 상기 복수의 리드 스코프가 상기 전자 네트워크를 통해 (i) 각각의 리드 스코프의 오퍼레이터가 식별한 상기 추정 타겟에 대한 현재 타겟 위치 데이터 및 (ii) 상기 추정 타겟 각각에 관한 정보;를 상기 네트워크 서버와 전자적으로 통신하는 단계;
    (c) 상기 네트워크 서버가 상기 전자 네트워크를 통해 (i) 상기 리드 스코프의 오퍼레이터에 의해 식별된 상기 추정 타겟에 대한 현재 타겟 위치 데이터 및 (ii) 상기 추정 타겟 각각에 관한 정보;를 하나 이상의 팔로어 스코프와 통신하는 단계;
    (d) 하나 이상의 팔로어 스코프 각각이 상기 추정 타겟 각각에 관한 정보를 사용하여 상기 리드 스코프의 추정 타겟 중 하나를 전자적으로 선택하는 단계; 및
    (e) 상기 팔로어 스코프가 (i) 복수의 측정 디바이스를 사용하여 현재 타겟 위치에 대한 현재 타겟 위치 데이터를 식별하는 단계, (ii) 해당 스코프의 프로세서가 현재 타겟 위치 데이터 및 선택된 추정 타겟 위치의 현재 타겟 위치 데이터를 사용하여 팔로어 스코프를 현재 타겟 위치에서 선택된 추정 타겟의 타겟 위치로 이동시키는데 필요한 움직임을 계산하는 단계, (iii) 상기 팔로어 스코프의 프로세서가 상기 팔로어 스코프의 오퍼레이터에게 위치 이동을 지시하기 위해 전자적으로 생성된 인디케이터를 출력하는단계를 통하여 선택된 추정 타겟을 탐지하는 단계;를 포함하며,
    상기 팔로어 스코프의 오퍼레이터는 상기 인디케이터를 사용하여 선택된 추정 타겟의 현재 타겟 위치 데이터에 의해 정의되는 타겟 위치를 향해 이동하도록 상기 현재 타겟 위치로부터 스코프를 재배치하는 방법.
  20. 제 19 항에 있어서, 상기 정보는 각각의 리드 스코프의 오퍼레이터에 의해 식별되고 각각의 리드 스코프의 디지털 이미지 센서에 의해 캡처되는 추정 타겟의 디지털 이미지이며, 단계 (d)는 (i) 팔로어 스코프의 디스플레이상에 리드 스코프의 추정 타겟의 디지털 이미지를 디스플레이하고, (ii) 리드 스코프의 추정 타겟의 디지털 이미지 중 하나를 전자적으로 선택하는 팔로어 스코프 각각을 더 포함하는 방법.
  21. 제 19 항에 있어서, 단계 (d)는 (i) 리드 스코프의 추정 타겟 각각에 관한 정보를 사용하여 팔로어 스코프의 디스플레이 상에 디스플레이 가능한 추정 타겟의 셀렉션을 생성하고, (ii) 리드 스코프의 추정 타겟 중 하나를 전자적으로 선택하는 팔로어 스코프 각각을 더 포함하는 방법.
  22. 제 19 항에 있어서, 상기 정보는 추정 타겟까지의 거리, 추정 타겟의 생성 시간 및 추정 타겟을 식별한 리드 스코프 정보 중 하나인 방법.
KR1020207006975A 2017-08-11 2018-08-10 복수의 디바이스에서 타겟을 동시에 추적할 수 있도록 네트워크에 연결된 스코프가 있는 디바이스 KR102587844B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762544124P 2017-08-11 2017-08-11
US62/544,124 2017-08-11
US16/057,247 2018-08-07
US16/057,247 US10267598B2 (en) 2017-08-11 2018-08-07 Devices with network-connected scopes for allowing a target to be simultaneously tracked by multiple devices
PCT/US2018/046157 WO2019032931A1 (en) 2017-08-11 2018-08-10 DEVICES WITH NETWORK CONNECTED ARRANGEMENTS FOR SIMULTANEOUS MONITORING OF A TARGET BY MULTIPLE DEVICES

Publications (2)

Publication Number Publication Date
KR20200049783A true KR20200049783A (ko) 2020-05-08
KR102587844B1 KR102587844B1 (ko) 2023-10-11

Family

ID=65271279

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207006975A KR102587844B1 (ko) 2017-08-11 2018-08-10 복수의 디바이스에서 타겟을 동시에 추적할 수 있도록 네트워크에 연결된 스코프가 있는 디바이스

Country Status (9)

Country Link
US (5) US10267598B2 (ko)
EP (1) EP3665618A4 (ko)
JP (1) JP7150851B2 (ko)
KR (1) KR102587844B1 (ko)
CN (1) CN111417952B (ko)
CA (1) CA3072084A1 (ko)
IL (1) IL272558A (ko)
MX (1) MX2020001620A (ko)
WO (1) WO2019032931A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102339782B1 (ko) * 2021-02-02 2021-12-16 한화시스템 주식회사 정보 제공 장치 및 정보 공유 방법
KR102339783B1 (ko) * 2021-02-02 2021-12-16 한화시스템 주식회사 정보 제공 장치 및 정보 제공 방법
KR20220060652A (ko) * 2020-11-05 2022-05-12 엘아이지넥스원 주식회사 광축보정이 가능한 광학 시스템

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017101118A1 (de) * 2017-01-20 2018-07-26 Steiner-Optik Gmbh Kommunikationssystem zur Übertragung von erfassten Objektinformationen zwischen wenigstens zwei Kommunikationspartnern
USD850565S1 (en) * 2017-05-11 2019-06-04 Dimitri Mikroulis Reticle
USD850564S1 (en) * 2017-05-11 2019-06-04 Dimitri Mikroulis Reticle
USD850567S1 (en) * 2017-05-11 2019-06-04 Dimitri Mikroulis Reticle
US10267598B2 (en) 2017-08-11 2019-04-23 Douglas FOUGNIES Devices with network-connected scopes for allowing a target to be simultaneously tracked by multiple devices
US10408573B1 (en) * 2017-08-11 2019-09-10 Douglas FOUGNIES Vehicle-mounted device with network-connected scopes for allowing a target to be simultaneously tracked by multiple other devices
USD850569S1 (en) * 2018-02-18 2019-06-04 Dimitri Mikroulis Reticle
US10919459B2 (en) * 2018-08-20 2021-02-16 Freedom Surveillance, LLC Vehicle having vehicle-mounted dual retractable telescoping structures housing surveillance equipment with one structure being mounted to flatbed of the vehicle and another structure being fully retractable within vehicle
KR20210133972A (ko) * 2019-02-11 2021-11-08 더글라스 퍼그니스 타겟을 여러 다른 디바이스에서 동시에 추적할 수 있도록 네트워크로 연결된 스코프가 있는 차량 탑재 장치
DE102019105093A1 (de) 2019-02-28 2020-09-03 Carl Zeiss Ag Verfahren zum Unterstützen eines Benutzers beim Anvisieren eines Objekts mittels eines Fernrohrs
JP7282964B2 (ja) * 2019-08-06 2023-05-29 直之 村上 コンピユーターの目(pceye)
JP7282966B2 (ja) * 2019-08-06 2023-05-29 直之 村上 コンピユーターの目(pceye)
CN111006651B (zh) * 2019-11-22 2022-06-10 西安翔迅科技有限责任公司 目标跟踪数据录取便携装置和观瞄跟踪设备
KR102180878B1 (ko) * 2020-07-08 2020-11-19 한화시스템(주) 개인 화기에서의 표적 거리 계산 장치 및 그 방법
CN114442305A (zh) * 2020-11-02 2022-05-06 上海迈利船舶科技有限公司 一种视觉增强ais船舶望远镜

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120320456A1 (en) * 2003-05-30 2012-12-20 Vixen Co., Ltd. Apparatus for automatically introducing celestial object, terminal device and control system for astronomical telescope
US20130250284A1 (en) * 2010-12-02 2013-09-26 Leica Geosystems Ag Robotic surveying instrument and method for an automatic collimation telescope and surveying instrument with an objective goal
US20140184788A1 (en) * 2012-12-31 2014-07-03 Trackingpoint, Inc. Portable Optical Device With Interactive Wireless Remote Capability
US20160091282A1 (en) * 2014-04-01 2016-03-31 Joe D. Baker Mobile ballistics processing and targeting display system

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4255013A (en) 1979-05-17 1981-03-10 John E. McNair Rifle scope having compensation for elevation and drift
US4418487A (en) 1982-02-02 1983-12-06 Strahan Travis R Mounting bracket for gunsight
DE3244255A1 (de) 1982-11-30 1984-06-14 Messerschmitt-Bölkow-Blohm GmbH, 8012 Ottobrunn Bahnvermessungs- und ueberwachungssystem
US4531321A (en) 1983-01-12 1985-07-30 Bechtel Daniel L Scope-mounting devices for firearms
US5052790A (en) 1987-12-18 1991-10-01 Edwards Optical Corporation Telemicroscopic apparatus for sighting and bi-level viewing
US4905396A (en) 1989-01-11 1990-03-06 Bechtel Daniel L Method and apparatus for mounting an auxiliary sighting aid on a firearm
US4949089A (en) 1989-08-24 1990-08-14 General Dynamics Corporation Portable target locator system
US5822713A (en) * 1993-04-05 1998-10-13 Contraves Usa Guided fire control system
US5568152A (en) 1994-02-04 1996-10-22 Trimble Navigation Limited Integrated image transfer for remote target location
JPH0961725A (ja) 1995-08-22 1997-03-07 Nikon Corp 観察装置
JP3569409B2 (ja) 1997-01-17 2004-09-22 ペンタックス株式会社 Gpsを利用した望遠鏡
US6269581B1 (en) 1999-04-12 2001-08-07 John Groh Range compensating rifle scope
US6891960B2 (en) * 2000-08-12 2005-05-10 Facet Technology System for road sign sheeting classification
US6643970B2 (en) * 2002-01-31 2003-11-11 Jeffrey Huber Zero stop adjustable rifle scope
US20040134113A1 (en) 2002-08-02 2004-07-15 Deros Mark A. Adjustable gun rest apparatus
US6862833B1 (en) 2003-05-21 2005-03-08 Frederick Wilhelm Gurtner Scope-to-firearm alignment assembly
US20050233284A1 (en) * 2003-10-27 2005-10-20 Pando Traykov Optical sight system for use with weapon simulation system
FR2862748B1 (fr) * 2003-11-25 2006-01-21 Thales Sa Procede de conduite de tir pour aeronefs
US7225548B2 (en) 2004-05-17 2007-06-05 Sr2 Group, Llc System and method for aligning multiple sighting devices
US7642741B2 (en) 2005-04-27 2010-01-05 Sidman Adam D Handheld platform stabilization system employing distributed rotation sensors
DE102006022302A1 (de) 2006-05-11 2007-11-15 Carl Zeiss Sports Optics Gmbh Verfahren zur Unterstützung wenigstens eines ersten Beobachters beim Anvisieren eines Zielobjekts
US10161717B2 (en) * 2006-08-14 2018-12-25 Huskemaw Optics, Llc Long range archery scope
US8001714B2 (en) 2006-08-14 2011-08-23 Aaron Davidson Ballistics systems and methods
JP5029062B2 (ja) 2007-02-26 2012-09-19 富士通株式会社 多視点動画像伝送システム
JP2011123152A (ja) * 2009-12-09 2011-06-23 Nikon Corp 望遠鏡及び望遠鏡システム
US20170010073A1 (en) * 2010-01-15 2017-01-12 Colt Canada Ip Holding Partnership Networked battle system with heads up display
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
KR101237129B1 (ko) * 2010-05-19 2013-02-25 정인 원격조정 사격시스템용 조준장치 및 이를 이용한 조준 정렬방법
US20120097741A1 (en) * 2010-10-25 2012-04-26 Karcher Philip B Weapon sight
US8885882B1 (en) * 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
US9625720B2 (en) 2012-01-24 2017-04-18 Accipiter Radar Technologies Inc. Personal electronic target vision system, device and method
US9833638B2 (en) * 2012-02-12 2017-12-05 Christopher V. Beckman Location-based encryption and shielding
CA2929355C (en) 2012-11-02 2022-03-15 Strongwatch Corporation, Nevada C Corp Wide area imaging system and method
US9435612B2 (en) * 2012-11-02 2016-09-06 Umarex Usa, Inc. Method and system for aligning a point of aim with a point of impact for a projectile device
US9459076B2 (en) 2012-12-12 2016-10-04 Trackingpoint, Inc. Rifle scope, apparatus, and method including proximity detection and warning system
US9068800B2 (en) 2012-12-31 2015-06-30 Trackingpoint, Inc. System and method of locating prey
US9127909B2 (en) * 2013-02-17 2015-09-08 Smart Shooter Ltd. Firearm aiming system with range finder, and method of acquiring a target
US20140281851A1 (en) * 2013-03-15 2014-09-18 John Francis McHale Computer-Readable Storage Device, System and Method of Automatically Generating a Hunt Story
US10260840B2 (en) * 2014-04-01 2019-04-16 Geoballistics, Llc Mobile ballistics processing and display system
US9612088B2 (en) 2014-05-06 2017-04-04 Raytheon Company Shooting system with aim assist
US20160033268A1 (en) * 2014-07-31 2016-02-04 Michael Franklin Abernathy Apparatus for augmented reality for optical systems
US9727786B2 (en) * 2014-11-14 2017-08-08 Intel Corporation Visual object tracking system with model validation and management
US9857144B2 (en) * 2014-12-10 2018-01-02 Flir Systems, Inc. Electronic adaptive reticle systems and methods
US9285189B1 (en) * 2015-04-01 2016-03-15 Huntercraft Limited Integrated electronic sight and method for calibrating the reticle thereof
EP3304941A4 (en) * 2015-05-26 2019-01-09 Colt Canada Ip Holding Partnership NETWORKED COMBUSTION SYSTEM WITH HEAD-UP DISPLAY
US9816783B1 (en) * 2016-01-07 2017-11-14 DuckDrone, LLC Drone-target hunting/shooting system
US20170302852A1 (en) 2016-04-13 2017-10-19 Jason Tze Wah Lam Three Axis Gimbals Stabilized Action Camera Lens Unit
BE1024403B1 (fr) * 2016-07-15 2018-02-14 Fn Herstal S.A. Système de visée
US10267598B2 (en) 2017-08-11 2019-04-23 Douglas FOUGNIES Devices with network-connected scopes for allowing a target to be simultaneously tracked by multiple devices
US10408573B1 (en) 2017-08-11 2019-09-10 Douglas FOUGNIES Vehicle-mounted device with network-connected scopes for allowing a target to be simultaneously tracked by multiple other devices
US20190226805A1 (en) * 2018-01-22 2019-07-25 Japan Optics USA LLC System for Scope Leveling
US10969202B2 (en) * 2018-02-14 2021-04-06 Wilcox Industries Corp. Weapon system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120320456A1 (en) * 2003-05-30 2012-12-20 Vixen Co., Ltd. Apparatus for automatically introducing celestial object, terminal device and control system for astronomical telescope
US20130250284A1 (en) * 2010-12-02 2013-09-26 Leica Geosystems Ag Robotic surveying instrument and method for an automatic collimation telescope and surveying instrument with an objective goal
US20140184788A1 (en) * 2012-12-31 2014-07-03 Trackingpoint, Inc. Portable Optical Device With Interactive Wireless Remote Capability
US20160091282A1 (en) * 2014-04-01 2016-03-31 Joe D. Baker Mobile ballistics processing and targeting display system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220060652A (ko) * 2020-11-05 2022-05-12 엘아이지넥스원 주식회사 광축보정이 가능한 광학 시스템
KR102339782B1 (ko) * 2021-02-02 2021-12-16 한화시스템 주식회사 정보 제공 장치 및 정보 공유 방법
KR102339783B1 (ko) * 2021-02-02 2021-12-16 한화시스템 주식회사 정보 제공 장치 및 정보 제공 방법

Also Published As

Publication number Publication date
MX2020001620A (es) 2020-08-13
US10495414B2 (en) 2019-12-03
IL272558A (en) 2020-03-31
US20200208944A1 (en) 2020-07-02
US20190049219A1 (en) 2019-02-14
JP2020533606A (ja) 2020-11-19
EP3665618A1 (en) 2020-06-17
US10267598B2 (en) 2019-04-23
WO2019032931A1 (en) 2019-02-14
US20190316879A1 (en) 2019-10-17
KR102587844B1 (ko) 2023-10-11
CN111417952A (zh) 2020-07-14
CN111417952B (zh) 2023-12-15
EP3665618A4 (en) 2021-04-21
US20210025674A1 (en) 2021-01-28
US20220244019A1 (en) 2022-08-04
US10704863B1 (en) 2020-07-07
US11226175B2 (en) 2022-01-18
CA3072084A1 (en) 2019-02-14
JP7150851B2 (ja) 2022-10-11

Similar Documents

Publication Publication Date Title
KR102587844B1 (ko) 복수의 디바이스에서 타겟을 동시에 추적할 수 있도록 네트워크에 연결된 스코프가 있는 디바이스
US11423586B2 (en) Augmented reality vision system for tracking and geolocating objects of interest
US11555671B2 (en) Devices with network-connected scopes for allowing a target to be simultaneously tracked by multiple other devices
CN113424012B (zh) 具有网络连接瞄准镜以允许多个其他装置同时跟踪目标的车载装置
US9335121B2 (en) System and method of locating prey
US20160091282A1 (en) Mobile ballistics processing and targeting display system
US6388611B1 (en) Method and system for dynamic surveillance of a remote object using GPS
US10408574B2 (en) Compact laser and geolocating targeting system
CN105765602A (zh) 显示目标区域的遥感图像的交互式武器瞄准系统
EP1876413A2 (en) Passive-optical locator

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant