KR102341700B1 - 표적의 위치 탐지를 보조하기 위한 방법 및 이러한 방법의 구현을 가능하게 하는 관측 장치 - Google Patents

표적의 위치 탐지를 보조하기 위한 방법 및 이러한 방법의 구현을 가능하게 하는 관측 장치 Download PDF

Info

Publication number
KR102341700B1
KR102341700B1 KR1020197013705A KR20197013705A KR102341700B1 KR 102341700 B1 KR102341700 B1 KR 102341700B1 KR 1020197013705 A KR1020197013705 A KR 1020197013705A KR 20197013705 A KR20197013705 A KR 20197013705A KR 102341700 B1 KR102341700 B1 KR 102341700B1
Authority
KR
South Korea
Prior art keywords
user
frame
platform
target
observation
Prior art date
Application number
KR1020197013705A
Other languages
English (en)
Other versions
KR20190073429A (ko
Inventor
필리페 브뤼노
Original Assignee
넥스터 시스템즈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 넥스터 시스템즈 filed Critical 넥스터 시스템즈
Publication of KR20190073429A publication Critical patent/KR20190073429A/ko
Application granted granted Critical
Publication of KR102341700B1 publication Critical patent/KR102341700B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30212Military
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

본 발명은 제 1 사용자 기준 프레임과 연결된 증강 현실 관측 수단(11)을 포함하는 관측 장치(26)를 갖춘 제 1 사용자를 위한 표적(24)의 위치 탐지를 보조하기 위한 방법에 관한 것이다. 본 방법에 따르면, 주 기준 프레임(RM)과 연결되는 기준 플랫폼(1)은 지역에 위치되고, 기준 플랫폼은 제 1 사용자에 의해 착용되는 적어도 하나의 카메라(13)로부터 관측되고, 관측된 플랫폼(1)의 기하학적 형상은 그의 수치 모델에 비교되고, 제 1 사용자 기준 프레임(RU1)의 배향 및 위치는 주 기준 프레임(RM)에 관련하여 도출된다. 이로써, 증강 현실 관측 수단(11) 상에, 표적(24)의 위치를 탐지하는 적어도 하나의 가상 레티클을 디스플레이하는 것이 가능하다.

Description

표적의 위치 탐지를 보조하기 위한 방법 및 이러한 방법의 구현을 가능하게 하는 관측 장치
본 발명은 관측 수단을 갖춘 사용자를 위해 표적의 위치 탐지를 보조하는 것을 가능하게 하는 방법의 기술 분야에 관한 것이다.
관측 수단은 특히 사용자가 장면을 관측할 수 있게 하는 광학 또는 디지털 디스플레이 수단에 관한 것이다. 이러한 장치는 특히 바이저(visor), 쌍안경, 광학 고글, 헬멧 또는 고글을 장착한 증강 현실 시스템을 포함한다.
표적의 이미지에, 관측된 대상에 대한 정보를 제공하는 임베드된 정보를 중첩시키는 것이 통상적이다.
유럽 특허 제 2,942,717 호 및 유럽 특허 제 1,451,652 호는 원격 작업자의 보조에 의해 또는 보조 없이 유지 보수 작업을 수행하기 위해 사용되는 증강 현실 관측 장치를 기재한다.
일반적으로, 관측된 장면에 대한 관측 수단(고글 또는 헬멧)의 위치는 분석 될 대상 상에 위치된 마커를 사용하여 수행된다. 유럽 특허 제 949,513 호에는 이러한 기술이 기재되어 있다.
미국 특허 제 2007/0276590 호는 관측자에게 그 좌표를 전송하는 특정 마커 의 필드 상의 배치를 기재한다.
관측자가 아무런 기준점도 위치될 수 없는 알려지지 않은 환경에서 움직이는 어려움이 발생한다.
또한, 연속적으로 캡쳐된 이미지들을 상관시킴으로써 헬멧의 움직임을 평가하기 위해, 환경을 관측하고 일정한 분석을 수행하기 위한 헬멧 운반 수단으로 구성된 관측 장치를 사용자가 갖추는 것이 제안되어왔다. 미국 특허 제 8,831,277 호는 그러한 헬멧을 기술한다. 이로써, 매우 신속하게 변화할 수 있는 환경에서의 연산 성능에 관한 어려움이 있다. 또한 얻어질 수 있는 헬멧의 공간 위치의 정확성에 관련한 어려움이 있다.
군사적인 또는 평화 유지의 차원에 있어서, 예를 들어 제압될 표적의 위치가 필요할 때, 실제로, 관측 수단에서의 기준 이미지 또는 지점의 동적인 위치 지정을 허용하도록 매우 정확하게 헬멧 또는 고글의 배향을 위치시키는 것이 필수적이다.
위치 각도는 약 수 밀리라디안(milliradians)의 정밀도를 가져야한다.
이것은 즉각적인 환경을 분석하고 현장에 위치된 기준점이 없는 모든 경우를 보장하는 것은 어렵다. 공간 방향을 지속적으로 측정할 수 있도록 관성 플랫폼을 헬맷에 장착하는 것이 필수가 되었다.
그러나, 그러한 기술은 번거롭고 비용이 많이 들고 채택될 수 없다.
본 발명의 목적은 위치 탐지가 단순하고 신속하게 수행되는, 사용자를 위한 표적의 위치 탐지를 보조하기 위한 방법을 제안하는 것이다.
본 발명에 따른 방법은 군사적 상황에서 적용 가능하며, 그러므로 상이한 작업자들 간의 그리고 보병과 차량의 승무원 사이의, 전장에서의 동작 정보의 통신을 보조한다. 본 발명에 따른 방법은 작업 현장에서 차량으로부터 멀리 떨어져있는 작업자에게 작업 정보를 전달할 필요가 있을 수 있는 평화 유지 상황에서도 적용 가능하다.
따라서, 본 발명은 지지판에 고정되고 연산 수단과 결합되며 통신 수단과 연관되는 증강 현실 관측 수단을 포함하는 관측 장치를 갖춘 제 1 사용자를 위한 표적의 위치 탐지를 보조하기 위한 방법에 관한 것이며, 상기 방법은, 기준 플랫폼이 필드에 위치되고 주 기준(Master reference) 프레임으로 불리는 공간 배향 기준 프레임을 갖고, 제 1 사용자 기준 프레임으로 불리는 제 1 사용자 공간 배향 기준 프레임은 상기 관측 장치의 설계에 의해 한정되며 상기 제 1 사용자의 상기 관측 장치와 연관되는 것을 특징으로 하되, 상기 방법은:
- 플랫폼으로부터 또는 제 2 사용자에 의해 그리고 상기 통신 수단을 통해, 상기 주 기준 프레임에서의 상기 표적의 좌표를 상기 제 1 사용자에게 전송하는 단계;
- 상기 제 1 사용자에 의해, 상기 제 1 사용자가 지닌 상기 지지판에 고정되고 상기 증강 현실 관측 수단을 지지하는 적어도 하나의 카메라로부터 상기 기준 플랫폼을 관측하는 단계;
- 상기 연산 수단의 메모리에 배치된 플랫폼의 디지털 모델에 관측된 플랫폼의 기하학적 형상을 비교하여 상기 주 기준 프레임에 대한 상기 제 1 사용자 기준 프레임의 배향 및 위치를 도출하는 단계;
- 상기 제 1 사용자 기준 프레임에서 상기 표적의 좌표를 연산하는 단계;
- 상기 제 1 사용자의 상기 증강 현실 관측 수단 상에, 상기 표적의 위치를 탐지하는 것을 가능하게 하는 적어도 하나의 가상 레티클을 디스플레이하는 단계를 포함하는 것을 특징으로한다.
특정 실시예에 있어서, 상기 주 기준 프레임에서의 상기 표적의 좌표는, 표적 지정 수단에 결합되는, 적어도 하나의 주 관측 수단이 장착된 상기 플랫폼으로부터 전송될 수 있고, 상기 표적 지정 수단은 상기 주 기준 프레임에서 상기 표적의 좌표를 결정하는 것을 가능하게 한다.
다른 실시예에 있어서, 상기 주 기준 프레임의 상기 표적의 좌표가, 연산 수단과 결합되며 통신 수단과 연관되는 관측 장치가 갖춰진 제 2 사용자에 의해 전송될 수 있고, 상기 제 2 사용자는 제 2 사용자가 표적을 지정하는 것을 허용하는 수단을 갖는다.
유리하게, 상기 제 2 사용자는 상기 제 1 사용자와 유사한 증강 현실 관측 수단을 포함하는 관측 장치를 갖추되, 제 2 사용자 기준 프레임으로 불리는 제 2 사용자 공간 배향 기준 프레임은 상기 관측 장치의 설계에 의해 한정되며 상기 제 2 사용자의 상기 관측 장치와 연관되고, 상기 방법에서:
- 상기 제 2 사용자는 상기 제 2 사용자 기준 프레임에서 지정될 표적의 좌표를 결정하고;
- 상기 제 2 사용자는 상기 제 2 사용자가 지닌 적어도 하나의 카메라로부터 상기 기준 플랫폼을 관측하고, 상기 카메라는 상기 제 2 사용자가 지니고 상기 제 2 사용자의 상기 증강 현실 관측 수단을 지지하는 상기 지지판에 고정되고;
- 관측된 상기 플랫폼의 기하학적 형상이 상기 연산 수단의 메모리에 배치된 상기 플랫폼의 디지털 모델에 비교되어서, 비교로부터 상기 주 기준 프레임에 대한 상기 제 2 사용자 기준 프레임의 배향 및 위치를 도출하고;
- 상기 주 기준 프레임의 지정될 상기 표적의 좌표가 연산되며;
- 상기 제 2 사용자는 상기 주 기준 프레임의 상기 표적의 좌표를 상기 제 1 사용자에게 전송한다.
일 실시예에 있어서, 상기 플랫폼은 차량으로 구성된다.
상기 플랫폼의 디지털 모델은 상기 차량의 외부 기하학적 형상의 적어도 일부의 모델일 수 있다.
상기 플랫폼의 디지털 모델은 상기 차량의 내부 기하학적 형상의 모델의 적어도 일부인 또는 적어도 일부에 통합될 수 있다.
본 발명은 제 1 사용자를 위한 관측 장치에 관한 것이고, 상기 관측 장치는 통신 수단과 연관되는 연산 수단에 결합되는 증강 현실 수단을 포함하고, 상기 관측 장치는 본 발명에 따른 방법을 수행하는 것을 가능하게 한다. 상기 관측 장치는, 상기 제 1 사용자 주변의 공간을 관측하고 상기 플랫폼의 이미지를 얻는 것을 가능하게 하는 단단하게 고정된 적어도 하나의 카메라를 지니는 판을 포함하고, 상기 연산 수단은 상기 플랫폼의 디지털 모델이 위치되는 메모리와 통합되며, 알고리즘은, 제 1 사용자 기준 프레임으로 불리는, 사용자의 상기 관측 장치의 제 1 공간 배향 기준 프레임의, 상기 플랫폼과 연관되는 주 기준 프레임에 대한, 배향 및 위치를 결정하는 것 그리고 상기 주 기준 프레임의 이미지 또는 표적의 좌표를 상기 제 1 기준 프레임으로, 그리고 그 반대로 전환시키는 것을 가능하게 하고, 상기 증강 현실 관측 수단은 상기 판에 고정되는 적어도 하나의 반투명 블레이드 및 적어도 하나의 투영 콜리메이터(projection collimator)를 포함하고, 각각의 콜리메이터는 반투명 블레이드 상에 이미지를 디스플레이할 수 있고, 단단한 기계적 지지부가 되는 상기 판은 상기 카메라(들), 상기 콜리메이터(들) 및 상기 반투명 블레이드(들)의 상대 위치들 및 각도 배향들을 고정시키는 것을 가능하게 하는 것을 특징으로한다.
유리하게, 콜리메이터와 각각 연관되는 2개의 반투명 블레이드를 포함할 수 있다.
본 발명은 하나의 특정 실시예에 대한 다음의 설명을 읽을 때 더 잘 이해될 것이며, 상세한 설명은 첨부된 도면을 참조하여 이루어진다.
- 도 1은 필드에서의 본 발명의 구현을 개략적으로 도시한다.
- 도 2는 본 발명에 따른 관측 장치를 보다 정확하게 도시한다.
- 도 3은 도 2에 따른 관측 장치의 개략적인 평면도이다.
도 1은 차량(vehicle)(1)이 움직이는 군사 작전(또는 평화 유지 작전)의 장면을 도시하며, 여기서, 무기 시스템(3)을 지니는 포좌(turret)(2)가 장착된, 바퀴가 달린 장갑차가 존재한다.
도 1은 차실의 외측에 그 머리를 두는 차량의 운전수(4) 뿐만 아니라, 포좌(2)의 외측에 그 머리를 또한 두고 있는, 전차장(vehicle chief) 또는 포수(shooter)와 같이 차량의 다른 탑승자(5)를 도시한다. 2명의 무장한 보병(6, 7)이 필드에서 움직이고 있다.
각각의 보병은 개별적인 무기(8)로 무장하고 있으며, 통신 수단과 연관된 휴대용 연산 수단을 포함하는 케이싱(9)을 착용하고 있으며, 그 안테나(10)는 개략적으로 도시되어있다. 통신 수단은 각각의 보병(6, 7)이 차량(1)의 탑승자들 뿐만 아니라 다른 보병과 통신하는 것을 가능하게 한다.
이러한 통신 수단은 잘 알려져있다. 통신 수단은 일반적으로 헤르츠 파를 사용하고 음성과 데이터 교환을 결합한다.
각각의 보병은 또한 증강 현실 고글의 형태로 여기에 개략적으로 도시된 증강 현실 관측 수단(11)을 포함하는 관측 장치(26)를 갖추고 있다.
이러한 증강 현실 관측 수단은 케이싱(9)에 배치되는 연산 수단에 결합되며, 이러한 관측 수단은 특히, 차량의 탑승자에 의해 또는 다른 보병에 의해 전송된 정보를 진행중인 작전에 대한 정보 또는 이미지를 필드의 시야에 중첩되게 보여주는 것을 가능하게 한다.
본 발명에 따르면, 관측 장치(26)는, 현안의 사용자 주변의 공간을 관측하는 것을 가능하게 하는 단단하게 체결된 적어도 하나의 카메라(13)를 지니는 지지판(12)에 고정된 증강 현실 관측 수단(11)을 포함한다.
도 1은 각 사용자가 착용하는 헬멧에 의한 지지판(12)을 개략적으로 도시한다. 카메라(들)(13)은 헬멧의 정점에 고정된다.
카메라 또는 카메라들의 그룹은 사용자 주위에 실질적으로 360°의 각도 범위로 상기 카메라(들)(13)의 관측 필드(14)를 보장하도록 한정된다. 광범위 필드 카메라(따라서, 광각 렌즈를 장착함)를 선택하는 것이 가능하되, 또한, 더 좁은 렌즈 각을 갖는 카메라들을 선택하는 것도 가능하며; 이로서, 원하는 각도 범위(360°)를 보장하도록 카메라들의 수를 늘리는 것이 필요하다.
기술적인 이유로, 이러한 360°의 범위는 사용자로부터 주어진 거리에서만 유효할 수 있다(예를 들어 적어도 1미터). 특히, 사용자가 헬멧 주변에 분포된 다수의 카메라(13)를 착용할 때, 사용자에게 가까운 사각 지대만이 존재하고, 카메라들의 필드는 360° 범위를 제공하기 위한 거리에서 교차한다. 명확하게, 필드들은 충분히 넓게 선택되어서, 항상 카메라(13)가, 이하에서 기재되는 바와 같이 차량(1)로 여기서 구성된 기준 플랫폼의 적어도 일부의 관측을 제공한다.
도 1에서, 도시된 각도 섹터(14)는 실질적으로 구형상을 가지므로 사용자 주변에서 실제로 360°를 포함하는 실제 공간 범위의 섹션이다. 상향으로 그리고 하향으로 배향되는 사각 지대는 작전상 성가시지 않다. 차량의 운전수(4)와 전차장(5)이, 보병(6, 7)의 관측 장치(26)와 일치하는, 증강 현실 관측 수단(11)을 포함하는 관측 장치(26)를 갖춘 것을 도 1에서 볼 수 있다.
도 2 및 도 3은 헬멧에 고정된 본 발명에 따른 관측 장치(26)의 구조를 보다 상세히 도시한다.
이러한 도면에서, 상기 헬멧은 도시되지 않지만, 관측 수단(11)과 카메라(13)에 대한 지지부를 제공하는 지지판(12)이 식별된다. 설명된 예시에 따르면, 지지판(12)은 수직 축(15) 주변에 규칙적인 각도로 분포된 4개의 카메라(13)를 지녀서 그 관측 필드의 360°에 걸친 오버랩(overlap)을 제공한다.
또한, 도 2에서, 메모리(17)를 포함하는 연산 수단(17)과 통신 수단(18)을 포함하는 케이싱(9)이 개략적으로 도시된다.
설명을 간단히하기 위해, 도면은 보병이 지니는 케이싱(9) 내에 하우징된 연산 수단(16)을 도시한다. 물론, 연산 수단은 전용 하우징(9) 이외의 곳에 구조적으로 배치될 수 있고, 예를 들어 헬멧에 고정된 판(12)에 있을 수 있음이 이해된다( 통신 수단(18)에 대해서도 동일함). 상기 수단은 심지어 카메라(13)와 연관된 전자 회로내에 통합될 수 있다. 심지어 이러한 연산 수단은, 현안의 사용자가 모든 경우에 지니기 때문에 "휴대형"으로 유지된다.
증강 현실 관측 수단(11)은 지지판(12)에 고정된 적어도 하나의 투영 콜리메이터(19) 및 적어도 하나의 반투명 블레이드(20)를 포함한다.
통상적으로, 콜리메이터(19)는 그에 연관된 반투명 블레이드(20) 상에 이미지를 디스플레이하는 것을 가능하게 한다.
여기에 도시된 관측 장치(26)는 2개의 반투명 블레이드(20)를 포함하는데, 하나는 사용자 눈(21)의 각각 앞에 위치한다. 또한 2개의 투영 콜리메이터(19)를 포함하며 이들은 각각 블레이드(20) 앞에 위치한다. 블레이드(20)는 지지판(12)에 대하여 단단하게 체결되며 콜리메이터(19)에 있어서도 마찬가지다. 2개의 반투명 블레이드를 사용하는 것은, 공간의 스테레오스코픽 상(stereoscopic vision)을 제공하며 2개의 콜리메이터에 의해 투영된 이미지는 릴리프(relief)의 이미지를 사용자에게 제공하도록 적응될 수 있다.
따라서, 통상적으로, 각각의 시준기(19)는 그와 연관된 반투명 블레이드(20)상에 연산 수단(16)에 의해 제공되고 사용자가 그 주변 공간에 관한 상을 완성하는 정보를 디스플레이하는 것을 가능하게 한다.
특히, 상기 본 발명에 따른 방법에 따르면, 콜리메이터(19)는 블레이드(20)상에, 표적의 위치 지정을 가능하게 하는 가상 레티클(22)인 이미지를 투영하는 것을 가능하게 할 것이다.
지지판(12)이 카메라(13), 콜리메이터(19) 및 반투명 블레이드(20)의 상대적인 위치 및 각도 배향을 고정하는 것을 가능하게 하는 강성 기계적 지지부가 된다.
따라서, 이러한 지지판(12)은 공간의 사용자의 관측 수단(11)의 배향 기준 프레임 또는 사용자 기준 프레임(RU)을 구현한다.
물론, 반투명 블레이드들(20) 상에 가상 레티클의 이미지들 이외의 이미지들, 예를 들어 필드에 존재하는 소자 또는 대상과 연관된 필드 정찰 작전 또는 정보를 용이하게 하도록 플랫폼에 의해 전송된 표적의 릴리프(relief)에서의 확대된 이미지들을 디스플레이 할 수 있다.
본 발명에 따른 방법의 목적은 사용자의 관측 방향의 정확한 좌표를 알 필요 없이, 대상(예를 들어, 표적)의 위치 정보를 사용자에게 동적으로 그리고 통신 수단(18)을 통해 전달하는 것을 가능하게 하는 것이다.
이를 위해 본 발명에 따라, 필드에 위치되어서, 이하에서 주 기준 프레임으로 지칭되는 배향 공간 기준 프레임(RM)을 갖는, 기준 프레임, 여기서는 차량(1)를 고려한다(도 1 참조).
또한, 관측 장치(26)의 설계에 의해, 그리고 지지판(12)에 의해 보장되는 카메라(13)와 관측 수단(11) 사이의 연결의 강성의 결과로서, 제 1 사용자 기준 프레임(RU1)으로 불리는 제 1 사용자 공간 배향 기준 프레임을 제 1 사용자(예컨대, 보병(6))을 위하여 한정하는 것이 가능하다. 이러한 제 1 사용자 기준 프레임은 제 1 사용자(6)의 관측 장치(26)(도 1), 그러므로 그의 관측 수단(11)과 연관된다.
플랫폼 또는 차량(1)에는 (여기서는 주 관측 수단(23)에 통합된) 표적 지정 수단에 결합된 적어도 하나의 주 관측 수단(23)이 장착된다.
표적 지정 수단은 본 기술 분야의 당업자에게 잘 알려져 있다. 이러한 수단은 일반적으로 텔레미터, 예를 들어 레이저 및 주 기준 프레임(RM)에 대한 시선(LV)의 배향을 연산하는 수단을 포함한다. 이들 수단은 주 기준 프레임(RM) 내의 표적(24)의 좌표를 결정하는 것을 가능하게 한다.
이러한 좌표는 차량(1)에 존재하는 모든 화면 스크린(viewing screen)에 의해 사용 가능하며, 차량(1)에 대해 그 배향이 알려진 이들 스크린 상에서 찾아지는 표적을 위치시키는 것이 가능하다.
본 발명에 따르면, 통신 수단(18)을 통해 제 1 사용자(6)에게 주 기준 프레임(RM) 내의 표적(24)의 좌표를 먼저 전송한다(단계 80). 물론, 차량 자체는 이러한 좌표를 제 1 사용자에게 전송할 수 있는 (예를 들면, 헤르츠파를 사용하는) 통신 수단을 갖추고 있다. 도 1은 안테나(10a)와 연관된 차량의 통신 수단을 블록(18a)에 의해 개략적으로 도시한다.
평행하게 그리고 연속적으로, 제 1 사용자(6)가 지닌 카메라(들)(13)은 기준 플랫폼(1)을 관측할 수 있게한다.
적절한 알고리즘은 기준 플랫폼(1)의 이미지를 상기 플랫폼의 순간 디지털 모델로 전환하는 것을 가능하게 한다(단계 B).
플랫폼의 실제 디지털 모델은 또한 제 1 사용자가 지닌 연산 수단(16)의 메모리(17)에 배치된다. 이 디지털 모델은 플랫폼의 컴퓨터 보조 설계에서 비롯된다. 이는 사용자가 볼 수 없는 플랫폼의 데이터에서만 삭제되는 3차원 모델이다(숨겨진 형태).
이 디지털 모델은 물론 실제 차량의 치수 요소를 통합하여 주어진 크기의 차량 이미지에서 사용자와 차량 사이의 거리를 결정할 수 있게 한다.
따라서 휴대용 연산 수단(16)의 메모리(17)에 배치된 기준 모델로 따라서 관측된 플랫폼(1)(순시 디지털 모델)의 기하학적 형상의 비교를를 진행한다(단계 C).
이 비교는 비교 알고리즘을 사용하여 주 기준 프레임(RM)에 대한 제 1 사용자 기준 프레임(RU1)의 축의 배향(축의 각도) 및 주 기준 프레임(RM)에 대한 제 1 기준 프레임(RU1)의 위치(주 기준 프레임(RM)에서의 제 1 기준 프레임(RU1)의 중심의 위치)를 도출하는 것을 가능하게 한다. 이러한 비교는 약어 SLAM(위치 측정 및 동시 지도화; Simultaneous Localization And Mapping)으로 알려진 이미지 비교 알고리즘을 구현한다. 이들 알고리즘은 당업자에 의해 잘 알려져 있으며, 상세히 기술할 필요는 없다. 가장 좋은 상관 관계를 얻기 위해 필요한 축의 배향 변화를 결정하기 위해 필터링 기법(칼만 필터링, 확률 필터링)을 구현하여 이미지 비교를 수행한다. 따라서, 임의의 순간에 주 기준 프레임(RM) 내의 제 1 사용자 기준 프레임(RU1)의 좌표를 결정할 수 있고, 또한 주 기준 프레임(RM)에 대한 제 1 사용자 기준 프레임(RU1)의 축의 배향을 결정하는 것이 가능하다.
다음에, 제 1 사용자 기준 프레임(RU1)에서 표적(24)의 좌표를 연산하는 것이 용이하다(단계 D). 이는 제 1 사용자의 증강 현실 관측 수단(11) 상에 표적(24)의 위치를 탐지할 수 있는 가상 레티클(22)을 디스플레이하는 것을 가능하게 한다.
물론, 관측 장치(26)의 관측 수단(11)을 사용자의 형태학적 특성(눈의 간격, 눈으로부터 반-반사(semi reflective) 블레이드까지의 거리, 블레이드와 카메라 사이의 거리)에 대해 먼저 교정할 필요가 있다. CAD로부터 유도된 디지털 모델은 사용자에 의한 플랫폼(1)의 부분적인 뷰에서도 위치의 견고성을 보장하기에 충분히 정확하다. 이 모델은 또한 사용자와 플랫폼 사이의 장애물, 플랫폼을 부분적으로 일시적으로 숨기는 장애물(예를 들어 시야에 들어온 다른 사용자)로 인해 방해받지 않도록 할 수 있다.
따라서, 본 발명은 지지판(12)에 고정된 관성 플랫폼의 사용을 완전히 없앨 수 있다. CAD로부터 유도된 디지털 모델의 정밀도가 수 밀리라디안 이하의 각도 편차를 갖고 주 시선(master line of sight)(LV)의 좌표를 결정하는 것을 가능하게 하기 때문에, 위치 탐지 정밀도가 우수하다.
본 발명은 차량(1)에 대한 임의의 사용자의 위치 탐지를 허용하고, 차량(1) 그 자체로부터 더는 표적(25)을 지정하지 않되, 본 발명에 따른 관측 장치(26)를 갖춘, 따라서, 휴대용 연산 수단(16)에 결합되고 통신 수단(18)과 연관되는 관측 수단(11)을 구비하는 다른 사용자, 예를 들어 보병(7)으로부터 표적을 지정하는 것이 가능하다. 이러한 제 2 사용자(7)는 예를 들어 레이저 지시기 또는 삼각법(triangulation method)을 구현하는 수동 수단과 같은 수단을 갖춰서 스스로 타겟을 지정하는 것을 가능하게 한다.
제 2 사용자는 따라서 그 자신의 사용자 기준 프레임(RU2)에서 표적(25)으로 자체적인 시선(LV2)의 좌표를 결정할 것이다.
이러한 제 2 사용자(7)는, 자신의 카메라(13)를 사용하여 항상 차량(1)를 관측하기 때문에 주 기준 프레임(RM)에서 자신의 기준 프레임(RU2)의 배향 및 위치를 인지하며, 이미지 상관에 의해 먼저 기재된 바와 같이 알고리즘은 기준 프레임(RM)에 대한 기준 프레임(RU2)의 위치 및 배향을 보장한다.
따라서, 제 2 사용자(7)는 주 기준 프레임(RM) 내의 새로운 표적(25)의 좌표를 제 1 사용자(6)에게 전송할 수 있을 것이다.
제 1 사용자(6)는 다음으로, 전술한 바와 같이 자신의 기준 프레임(RU1)에서 새로운 표적(25)의 좌표를 연산하기 위해 본 발명에 따른 방법을 수행할 것이다.
모든 경우에, 필수적인 것은 각 사용자가 자신의 카메라(13)를 사용하여 차량(1)을 관측할 수 있는 가능성이다. 사용자는 다음에 자신을 그 공간에 위치시킬 수 있으며, 주 기준 프레임(RM)은 하차하여 차량 주변에 분포하는 모든 사용자에 대한 기준으로서 역할을 한다. 따라서 현재 광학 시스템의 성능은 원하는 위치 정밀도로 차량으로부터 수십 미터 정도의 거리까지 위치를 허용한다.
본 발명의 일 특징에 따르면, 사용자가 전체 차량를 볼 필요는 없다. 사용자가 수행될 수 있는 SLAM 알고리즘을 위한 자신의 시계(field of vision)에서 유요한 부분을 갖는 것이면 충분하다.
도 1에 도시된 바와 같이, 운전수(4) 및 전차장(또는 포수)(5) 모두는 보병(6, 7)의 것과 일치하는 증강 현실 관측 수단(11)을 포함하는 관측 수단(26)을 갖추고 있다. 이러한 장치는 탑승자가 자신의 관측 수단(11)으로 사용자에 의해 지정된 표적(들), 그리고, 탑승자가 차량 내에 있는지 또는 탑승자의 머리가 밖으로 나왔는지의 여부를 보는 것을 허용한다.
차량에 탑승한 사용자의 내부 또는 외부 위치에 관계없이 지정 기능의 지속성을 보장하려면, 플랫폼의 외부 기하학적 형상의 디지털 모델뿐만 아니라 차량의 내부 기하학적 모델의 적어도 부분적인 디지털 모델이 메모리에 통합될 것이다. 내부 기하학적 모델은, 메모리에 배치된 디지털 모델을 밝히기 위하여 눈으로 접근불가능한 차량의 부분을 제외하고, 조작자가 보는 차량 내부의 내부 기하학적 형상에 대한 대부분에 한정될 것이다.

Claims (9)

  1. 지지판(12)에 고정되고 연산 수단(16)과 결합되며 통신 수단(18)과 연관되는 증강 현실 관측 수단(11)을 포함하는 관측 장치(26)를 갖춘 제 1 사용자(6)를 위한 표적(24, 25)의 위치 탐지를 보조하기 위한 방법으로서, 상기 방법은, 기준 플랫폼(1)이 필드에 위치되고 주 기준(Master reference) 프레임(RM)으로 불리는 공간 배향 기준 프레임을 갖고, 제 1 사용자 기준 프레임으로 불리는 제 1 사용자 공간 배향 기준 프레임(RU1)이 상기 관측 장치의 설계에 의해 규정되며 상기 제 1 사용자(6)의 상기 관측 장치(26)와 연관되며, 상기 방법은:
    - 플랫폼(1)으로부터 또는 제 2 사용자(7)에 의해 그리고 상기 통신 수단(18)을 통해, 상기 주 기준 프레임(RM)에서의 상기 표적(24, 25)의 좌표를 상기 제 1 사용자(6)에게 전송하는 단계;
    - 상기 제 1 사용자(6)에 의해, 상기 제 1 사용자(6)가 지닌 상기 지지판(12)에 고정되고 상기 증강 현실 관측 수단(11)을 지지하는 적어도 하나의 카메라(13)로부터 상기 기준 플랫폼(1)을 관측하는 단계;
    - 상기 연산 수단(16)의 메모리(17)에 배치된 플랫폼의 디지털 모델에 관측된 플랫폼(1)의 기하학적 형상을 비교하여 비교로부터 상기 주 기준 프레임(RM)에 대한 상기 제 1 사용자 기준 프레임(RU1)의 배향 및 위치를 도출하는 단계;
    - 상기 제 1 사용자 기준 프레임(RU1)에서 상기 표적(24, 25)의 좌표를 연산하는 단계;
    - 상기 제 1 사용자(6)의 상기 증강 현실 관측 수단(11) 상에, 상기 표적(24, 25)의 위치를 탐지하는 것을 가능하게 하는 적어도 하나의 가상 레티클(22)을 디스플레이하는 단계를 포함하는 것을 특징으로 하는 표적의 위치 탐지를 보조하기 위한 방법.
  2. 청구항 1에 있어서, 상기 주 기준 프레임(RM)에서의 상기 표적(24)의 좌표는, 표적 지정 수단에 결합되는, 적어도 하나의 주 관측 수단(23)이 장착된 상기 플랫폼(1)으로부터 전송되고, 상기 표적 지정 수단은 상기 주 기준 프레임(RM)에서 상기 표적(24)의 좌표를 결정하는 것을 가능하게 하는, 표적의 위치 탐지를 보조하기 위한 방법.
  3. 청구항 1에 있어서, 상기 주 기준 프레임의 상기 표적(25)의 좌표가, 연산 수단(16)과 결합되며 통신 수단(18)과 연관되는 관측 장치(26)를 갖춘 제 2 사용자에 의해 전송되고, 상기 제 2 사용자는 제 2 사용자가 표적을 지정하는 것을 허용하는 수단을 갖는, 표적의 위치 탐지를 보조하기 위한 방법.
  4. 청구항 3에 있어서, 상기 제 2 사용자(7)는 상기 제 1 사용자의 것과 유사한 증강 현실 관측 수단(11)을 포함하는 관측 장치(26)를 갖추되, 제 2 사용자 기준 프레임으로 불리는 제 2 사용자 공간 배향 기준 프레임(RU2)은 상기 관측 장치(26)의 설계에 의해 규정되며 상기 제 2 사용자(7)의 상기 관측 장치(26)와 연관되고, 상기 방법에서:
    - 상기 제 2 사용자(7)는 상기 제 2 사용자 기준 프레임(RU2)에서 지정될 표적(25)의 좌표를 결정하고;
    - 상기 제 2 사용자(7)는 상기 제 2 사용자(7)가 지니는 적어도 하나의 카메라(13)로부터 상기 기준 플랫폼(1)을 관측하고, 상기 카메라는 상기 제 2 사용자(7)가 지니고 상기 제 2 사용자(7)의 상기 증강 현실 관측 수단(11)을 지지하는 상기 지지판(12)에 고정되고;
    - 관측된 상기 플랫폼(1)의 기하학적 형상이 상기 연산 수단(16)의 메모리(17)에 배치된 상기 플랫폼의 디지털 모델에 비교되어서, 비교로부터 상기 주 기준 프레임(RM)에 대한 상기 제 2 사용자 기준 프레임(RU2)의 배향 및 위치를 도출하고;
    - 상기 주 기준 프레임(RM)에 있어서 지정될 상기 표적(25)의 좌표가 연산되며;
    - 상기 제 2 사용자(7)는 상기 주 기준 프레임(RM)의 상기 표적(25)의 좌표를 상기 제 1 사용자(6)에게 전송하는, 표적의 위치 탐지를 보조하기 위한 방법.
  5. 청구항 1 내지 청구항 4 중 어느 한 항에 있어서, 상기 플랫폼(1)은 차량으로 구성되는 것을 특징으로 하는 표적의 위치 탐지를 보조하기 위한 방법.
  6. 청구항 5에 있어서, 상기 플랫폼(1)의 디지털 모델은 상기 차량의 외부 기하학적 형상의 적어도 일부의 모델인 것을 특징으로 하는 표적의 위치 탐지를 보조하기 위한 방법.
  7. 청구항 5에 있어서, 상기 플랫폼(1)의 디지털 모델은 상기 차량의 내부 기하학적 형상의 모델의 적어도 일부인 또는 적어도 일부를 통합하는 것을 특징으로 하는 표적의 위치 탐지를 보조하기 위한 방법.
  8. 제 1 사용자를 위한 관측 장치(26)로서, 상기 관측 장치는 통신 수단(18)과 연관되는 연산 수단(16)에 결합되는 증강 현실 수단(11)을 포함하고, 상기 관측 장치는 본 발명에 따른 방법을 수행하는 것을 가능하게 하되, 상기 관측 장치는, 상기 제 1 사용자 주변의 공간을 관측하고 플랫폼(1)의 이미지를 얻는 것을 가능하게 하는 단단하게 체결된 적어도 하나의 카메라(13)를 지니는 판(12)을 포함하고, 상기 연산 수단(16)은 상기 플랫폼(1)의 디지털 모델이 위치되는 메모리(17)와 알고리즘을 통합하고 있으며, 상기 알고리즘은, 제 1 사용자 기준 프레임(RU1)으로 불리는, 사용자의 상기 관측 장치(26)의 제 1 공간 배향 기준 프레임(RU1)의, 상기 플랫폼과 연관되는 주 기준 프레임(RM)에 대한, 배향 및 위치를 결정하는 것 그리고 상기 주 기준 프레임(RM)의 이미지 또는 표적의 좌표를 상기 제 1 사용자 기준 프레임(RU1)으로 변환하고, 그리고 그 반대로 변환하는 것을 가능하게 하며, 상기 증강 현실 관측 수단(11)은 상기 판(12)에 고정되는 적어도 하나의 반투명 블레이드(20) 및 적어도 하나의 투영 콜리메이터(19)(projection collimator)를 포함하고, 각각의 콜리메이터(19)는 반투명 블레이드(20) 상에 이미지를 디스플레이할 수 있고, 단단한 기계적 지지부를 이루는 상기 판(12)은 상기 카메라(들)(13), 상기 콜리메이터(들)(19) 및 상기 반투명 블레이드(들)(20)의 상대 위치들 및 각도 배향들을 고정시키는 것을 가능하게 하는 것을 특징으로 하는 관측 장치.
  9. 청구항 8에 있어서, 콜리메이터(19)와 각각 연관되는 2개의 반투명 블레이드(20)를 포함하는 것을 특징으로 하는 관측 장치.



KR1020197013705A 2016-10-24 2017-10-12 표적의 위치 탐지를 보조하기 위한 방법 및 이러한 방법의 구현을 가능하게 하는 관측 장치 KR102341700B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1601535A FR3057950B1 (fr) 2016-10-24 2016-10-24 Procede d'aide a la localisation d'un objectif et dispositif d'observation permettant la mise en oeuvre de ce procede
FR1601535 2016-10-24
PCT/FR2017/052808 WO2018078236A1 (fr) 2016-10-24 2017-10-12 Procede d'aide a la localisation d'un objectif et dispositif d'observation permettant la mise en œuvre de ce procede

Publications (2)

Publication Number Publication Date
KR20190073429A KR20190073429A (ko) 2019-06-26
KR102341700B1 true KR102341700B1 (ko) 2021-12-21

Family

ID=58455080

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197013705A KR102341700B1 (ko) 2016-10-24 2017-10-12 표적의 위치 탐지를 보조하기 위한 방법 및 이러한 방법의 구현을 가능하게 하는 관측 장치

Country Status (12)

Country Link
US (1) US10902636B2 (ko)
EP (1) EP3529559B8 (ko)
JP (1) JP7018443B2 (ko)
KR (1) KR102341700B1 (ko)
AU (1) AU2017348768B2 (ko)
CA (1) CA3039274A1 (ko)
DK (1) DK3529559T3 (ko)
ES (1) ES2856206T3 (ko)
FR (1) FR3057950B1 (ko)
IL (1) IL266211B (ko)
SG (1) SG11201903640YA (ko)
WO (1) WO2018078236A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3057950B1 (fr) * 2016-10-24 2018-10-19 Nexter Systems Procede d'aide a la localisation d'un objectif et dispositif d'observation permettant la mise en oeuvre de ce procede
KR102232792B1 (ko) * 2020-08-03 2021-03-26 한화시스템 주식회사 정보 제공 장치 및 정보 제공 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070276590A1 (en) 2006-05-24 2007-11-29 Raytheon Company Beacon-Augmented Pose Estimation

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2706721B1 (fr) * 1993-06-11 1995-08-18 Aerospatiale Procédé et dispositif pour déterminer la localisation d'une cible.
US6625299B1 (en) 1998-04-08 2003-09-23 Jeffrey Meisner Augmented reality technology
JP2003173475A (ja) * 2001-12-05 2003-06-20 Mitsubishi Heavy Ind Ltd 行動支援端末、行動支援システム、及び、行動支援方法
DE10159610B4 (de) 2001-12-05 2004-02-26 Siemens Ag System und Verfahren zur Erstellung einer Dokumentation von Arbeitsvorgängen, insbesondere im Umfeld Produktion, Montage, Service oder Wartung
US9270976B2 (en) * 2005-11-02 2016-02-23 Exelis Inc. Multi-user stereoscopic 3-D panoramic vision system and method
FR2911707B1 (fr) * 2007-01-22 2009-07-10 Total Immersion Sa Procede et dispositifs de realite augmentee utilisant un suivi automatique, en temps reel, d'objets geometriques planaires textures, sans marqueur, dans un flux video.
US8831277B1 (en) 2009-10-02 2014-09-09 Rockwell Collins, Inc. Optical helmet tracking system
KR20130000401A (ko) * 2010-02-28 2013-01-02 오스터하우트 그룹 인코포레이티드 대화형 머리­장착식 아이피스 상의 지역 광고 컨텐츠
US20130018582A1 (en) * 2011-07-13 2013-01-17 Miller Paul A Inertial Navigation Common Azimuth Reference Determination System and Method
WO2013016518A1 (en) * 2011-07-27 2013-01-31 Mine Safety Appliances Company Navigational deployment and initialization systems and methods
US8854282B1 (en) * 2011-09-06 2014-10-07 Google Inc. Measurement method
JP6044293B2 (ja) * 2012-11-19 2016-12-14 株式会社Ihi 3次元物体認識装置および3次元物体認識方法
WO2014110262A2 (en) * 2013-01-11 2014-07-17 Dennis Sammut Apparatus and method for calculating aiming point information
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US20150325047A1 (en) 2014-05-06 2015-11-12 Honeywell International Inc. Apparatus and method for providing augmented reality for maintenance applications
US20160033268A1 (en) * 2014-07-31 2016-02-04 Michael Franklin Abernathy Apparatus for augmented reality for optical systems
IL243772B (en) * 2016-01-25 2018-03-29 Everysight Ltd Dynamic ad-hoc networks for content sharing, based on line of sight
FR3057950B1 (fr) * 2016-10-24 2018-10-19 Nexter Systems Procede d'aide a la localisation d'un objectif et dispositif d'observation permettant la mise en oeuvre de ce procede
EP3701497A4 (en) * 2017-10-27 2021-07-28 Magic Leap, Inc. VIRTUAL RETICLE FOR AUGMENTED REALITY SYSTEMS

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070276590A1 (en) 2006-05-24 2007-11-29 Raytheon Company Beacon-Augmented Pose Estimation

Also Published As

Publication number Publication date
DK3529559T3 (da) 2021-03-01
ES2856206T3 (es) 2021-09-27
US20190272649A1 (en) 2019-09-05
WO2018078236A1 (fr) 2018-05-03
EP3529559B8 (fr) 2021-01-20
EP3529559A1 (fr) 2019-08-28
EP3529559B1 (fr) 2020-11-25
IL266211B (en) 2021-07-29
SG11201903640YA (en) 2019-05-30
KR20190073429A (ko) 2019-06-26
AU2017348768A1 (en) 2019-05-30
JP2020500361A (ja) 2020-01-09
IL266211A (en) 2019-06-30
AU2017348768B2 (en) 2022-03-17
FR3057950B1 (fr) 2018-10-19
JP7018443B2 (ja) 2022-02-10
US10902636B2 (en) 2021-01-26
CA3039274A1 (fr) 2018-05-03
FR3057950A1 (fr) 2018-04-27

Similar Documents

Publication Publication Date Title
US9488442B2 (en) Anti-sniper targeting and detection system
EP2788709B1 (en) Aiming system
CN108022302B (zh) 一种Inside-Out空间定位的AR立体显示装置
US20170228878A1 (en) Method and system for image georegistration
CN107014378A (zh) 一种视线跟踪瞄准操控系统及方法
US10510137B1 (en) Head mounted display (HMD) apparatus with a synthetic targeting system and method of use
US20150054826A1 (en) Augmented reality system for identifying force capability and occluded terrain
US9250037B2 (en) Method for determining corrections for artillery fire
JP7394135B2 (ja) ダイレクト拡張ビュー光学部品
WO2001007995A1 (en) Head tracker system
EP3287736B1 (en) Dynamic, persistent tracking of multiple field elements
CN107957210B (zh) 用于指定目标的装置和目标指定方法
JP2008061224A (ja) 受動光ロケータ
KR102341700B1 (ko) 표적의 위치 탐지를 보조하기 위한 방법 및 이러한 방법의 구현을 가능하게 하는 관측 장치
EP2544039A1 (en) Display system
RU2019101696A (ru) Способ внешнего целеуказания с индикацией целей для образцов бронетанкового вооружения
RU2321813C1 (ru) Нашлемная система целеуказания, прицеливания и индикации
US8854612B2 (en) Optical system for measuring orientation with cubic wedge and mask
KR20160023362A (ko) 실시간 3차원 전술정보 표시 시스템 및 그 방법
US11783547B2 (en) Apparatus and method for displaying an operational area
EP3454015A1 (en) Apparatus and method for displaying an operational area
RU2757061C1 (ru) Информационная обзорно-панорамная система наблюдения
WO2011075061A1 (en) Device for measuring distance to real and virtual objects
RU2202829C2 (ru) Система визуализации для стенда моделирования с обзорно-прицельным устройством
KR20010107411A (ko) 응시점의 삼차원 좌표값 산출 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant