KR101394881B1 - 하나 이상의 타겟들의 지리적 위치측정 방법 - Google Patents

하나 이상의 타겟들의 지리적 위치측정 방법 Download PDF

Info

Publication number
KR101394881B1
KR101394881B1 KR1020087021974A KR20087021974A KR101394881B1 KR 101394881 B1 KR101394881 B1 KR 101394881B1 KR 1020087021974 A KR1020087021974 A KR 1020087021974A KR 20087021974 A KR20087021974 A KR 20087021974A KR 101394881 B1 KR101394881 B1 KR 101394881B1
Authority
KR
South Korea
Prior art keywords
target
image
aircraft
angle
distance
Prior art date
Application number
KR1020087021974A
Other languages
English (en)
Other versions
KR20080094721A (ko
Inventor
길레스 브리데네
마이클 프레나트
Original Assignee
탈레스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 탈레스 filed Critical 탈레스
Publication of KR20080094721A publication Critical patent/KR20080094721A/ko
Application granted granted Critical
Publication of KR101394881B1 publication Critical patent/KR101394881B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area

Abstract

본 발명은 수동 옵트로닉 센서(passive optronic sensor)를 사용하여 항공기로부터 하나 이상의 고정 타겟을 지리적 위치측정하는 방법에 관한 것이다. 이는, 항공기의 위치 C1으로부터 타겟 P를 포함하는 적어도 하나의 이미지 I1 및 항공기의 위치 C2로부터 타겟 P를 포함하는 이미지 I2를 센서로 획득하는 단계로서, 상기 이미지들 I1 및 I2는 중첩 영역을 갖는, 상기 획득하는 단계; 2개의 이미지들 I1 및 I2에 공통인 적어도 하나의 타겟 P의 상기 중첩 영역을 식별하고 2개의 이미지 각각의 위치를 결정하는 단계; 예를 들어, C1 및 C2의 근방에 위치한 점 C과, 기준 방향과 이미지 I1의 시선 사이의 각 β1, 동일한 기준 방향과 이미지 I2의 시선 사이의 각 β2, 및 이미지 I1 내의 및 이미지 I2 내의 각각의 타겟 P의 위치에 기초한 각각의 타겟 P 사이의 거리 d를 계산하는 단계; 및 지구 기준 좌표계 내의 거리 d에 기초하여 C 내의 항공기의 지표상의 투영에 관련된 타겟의 위치를 계산하는 단계를 포함한다.
중첩 지역, 기준 방향, 지구 기준 좌표계, 지표각, 대기 굴절

Description

하나 이상의 타겟들의 지리적 위치측정 방법{METHOD FOR GEOLOCALIZATION OF ONE OR MORE TARGETS}
본 발명의 분야는 하나 이상의 고정 타겟들의 지리적 위치측정이며, 보다 포괄적으로 항공기에 장착된 수동 옵트로닉 센서(passive optronic sensor)에 의한 지역의 지상 좌표화이다. 수동 옵트로닉 센서는 레이저 거리 측정기와 같은 광학 송수신기가 없는 센서라고 이해된다.
도 1과 관련하여 고정 타겟의 지리적 위치측정은 캐리어(carrier)라 불리는, 타겟과 항공기의 지표상의 투영 C0사이의 x-좌표 X와 y-좌표 Y의 차로부터 점 P로 표현되는 지표상의 타겟의 절대 위치를 결정하는 것에 있다는 것이 상기될 것이다. 위치 C0는 일반적으로 에러를 갖고, 항공기의 네비게이션 시스템에 의해 제공된다. 각 R 및 G는 각각 지구 기준 좌표계에서의 타겟의 시선의 롤각(roll angle) 및 방위각이다. 그들의 항공기의 네비게이션 시스템에 의해 제공된다.
도 2는 Y가 제로(0)일 때의 도 1의 수직 섹션을 제공한다. 명백하게 언급될 경우를 제외하고, 나머지 텍스트는 일반적인 것에 영향을 주는 것 외에는 이 경우에 기초한다. 이는 각 G가 통상의 동작 상태 하에서 일반적으로 작기 때문이다.
따라서: X = h.tanR (1)
이고, 여기서 h는 C0의 수직 위의 항공기의 높이이며, 네비게이션 시스템에 의해 제공된다.
X에 대해 얻어지는 결과는 h 및 R에의 에러에 영향을 받는데, 특히 입사의 지표각에 대해서, 즉, R이 약 90°일 때 그러하다. 따라서, 첫째로,
Figure 112008063741621-pct00001
입사의 지표각에 대하여, 1/tanR << tanR이므로, 결과적으로:
εX/X = εh/h + εR.tanR
가 산출되며, εX, εh, εR은 각각 X, h 및 R에의 에러이다.
따라서, 예를 들어, h = 1000m, εh = 0, 및 X = 30km에 대해서, R의 1mrad의 에러는 900m(즉, 3%)의 지리적 위치측정 에러를 발생시키며, 이는 동작적인 관점에서 수용불가능하다.
이는 예비 조사 시스템에의 응용의 경우, 지리적 위치측정의 정확도가 이 시스템의 기초 명세이기 때문이다. 준비된 미션의 경우, 시스템은 그것의 절대 좌표에 의해 정의되고 타겟 지역으로 지정된 현장의 지역 내의 데이터를 요구해야만 한다. 지리적 위치측정의 에러는 포괄될 지역이 타겟 지역을 포함할 것을 보증하도록 포괄될 지역의 크기의 증가를 발생시킨다. 이외에, 이미지의 품질을 보증하기 위해 이미징될 점들과 센서 사이의 거리를 알 필요가 있다(모션에 의한 블러링(blurring by motio)).
또한, 1mrad 내의 R의 정확도는 달성하기 매우 어려우며, 특히 센서가 항공기에 관련하여 스스로 움직이는 포드(pod) 상에 장착될 때 어려우며: 이 경우, 몇 mrad의 에러는 통상적인 것이다.
이외에, 도 3에 나타낸 바처럼, 지표가 고르지 않고 타겟과 C0 사이의 높이 차를 모르면, 수학식(1)은 X의 치수에 보다 큰 에러를 낳는다. X 대신 측정된 X가 얻어진다.
또한, 도 4에 나타낸 바처럼, 대기 굴절은 X의 치수에 추가적인 에러를 도입하여, X 대신 측정된 X를 산출한다. 이 에러는 약 900미터일 수 있다.
본 발명의 목적은, 특히 타겟과 C0 사이의 높이 차를 모르고 및/또는 가능한 대기 굴절이 있을 때, 수동 옵트로닉 센서를 사용하여 보다 양호한 정확도(약 1%)의 x-좌표 X를 결정하는 것이다.
이를 달성하기 위해, 본 발명은 수동 옵트로닉 센서를 사용하여 항공기로부터의 적어도 하나의 고정 타겟 P를 지리적 위치측정하는 방법을 제안한다. 이는 주로 다음과 같은 단계들을 포함하는 것으로 특징으로 한다:
- 센서에 의한, 항공기의 위치 C1으로부터의 타겟 P를 포함하는 적어도 하나의 이미지 I1 및 항공기의 위치 C2로부터의 타겟을 포함하는 이미지 I2의 획득(이들 이미지 I1 및 I2는 중첩 지역을 가짐);
- 두 이미지 I1 및 I2에 공통인 적어도 하나의 타겟 P의 상기 중첩 지역을 결정 및 두 이미지 각각에서의 각각의 타겟 P의 위치를 결정;
- C1 및 C2에 관해 알려진 좌표들의 점 C와, 기준 방향과 이미지 I1의 시선 사이의 각 β1, 동일한 기준 방향과 이미지 I2사이의 각 β2, 및 이미지 I1 내의 및 이미지 I2 내의 각각의 타겟 P의 위치의 함수로서의 각각의 타겟 P 사이의 거리 d의 계산; 및
- P가 항공기 C의 지표상의 투영에 관한 지구 기준 좌표계의 x-좌표 X 및 y-좌표 Y에 의해 지구 기준 좌표계 내에서 정의되고, 각각의 타겟에 대해서 거리 d의 함수로서 X 및 Y를 계산.
이에 따라 얻어진 양 X는 높이 h에 따르지 않는데, 이는 h에의 에러 및 타겟과 C0 사이의 높이 차를 모르는 것이 영향을 주지 않도록 한다. 이는 서두에 설명된 계산에 의해 얻어지는 것과 반대로, 대기 굴절의 영향도 거의 받지 않는다.
본 발명의 하나의 특징에 따라, 이미지 I1과 이미지 I2의 각각의 타겟 P의 위치는 픽셀 수로 계산되며 각각 각 ε1 및 각 ε2로 변환된다.
이롭게도, 이는 지구 기준 좌표계 내의 C의 시선의 방위각 G 및 롤각 R을 획득하는 단계를 포함하고, 각각의 타겟 P의 위치는 또한 이들 롤각 R 및 방위각 G의 함수로서 계산된다.
본 발명의 다른 특징에 따라, 거리 d는 대략 (B.cosG)/(β2 - β1 + ε2 - ε1)와 같은데, 여기서 B는 점 C1과 C2 사이의 거리이다.
롤각 R 및 방위각 G이 결정되면, X는 대략 d.cosG.sinR과 같고, Y는 대략 d.sinG와 같은 것이 바람직하다.
입사의 지표각에 대하여, 특히 G가 작을 때(cosG가 1에 근접함), tanR >> 1이므로 에러 εx/X는 εd/d와 거의 같고, 이는 롤각 R의 정확도에 대한 요구를 완화시킨다. 이제, 약 1%의 d의 에러가 얻어지고 이에 따라 또한 약 1%의 X의 에러도 얻어진다.
본 발명의 다른 특징에 따라, 지리적 위치측정은 항공기 기판에서 행해진다. 본 발명은 또한 지역을 지상 좌표화하는 방법에 관한 것이며, 지역 내의 여러 타겟들에 대한 지리적 위치측정 방법의 반복을 포함하는 것을 특징으로 한다.
본 발명의 목적은 또한 적어도 하나의 전자 카드를 포함한 처리 상자이며, 적어도 하나의 전자 카드가 항공기 상에 설치될 것으로 의도된 정찰 포드와 함께 전술된 방법을 구현하는 수단을 포함하는 것을 특징으로 하며, 그것이 이러한 처리 상자를 포함하는 것을 특징으로 한다.
본 발명의 다른 특징 및 장점들은 제한적이지 않은 예시로서 제공되며 첨부된 도면을 참조하는 다음의 상세한 설명을 읽으면서 명백해질 것이다.
도 1은 이미 전술되어 있으며, 점 P를 지리적 위치측정하는 것에의 문제점에 대한 부분적 기하학도.
도 2는 이미 전술되어 있으며, 종래 기술에 따른 타겟 P와 C0 사이의 x-좌표 X의 차의 계산을 개략적으로 나타낸 도면.
도 3은 이미 전술되어 있으며, 지표가 고르지 않을 때의 종래 기술에 따른 타겟 P와 C0 사이의 x-좌표 X의 측정된 차의 계산을 개략적으로 나타낸 도면.
도 4는 이미 전술되어 있으며, 종래 기술에 따른 지리적 위치측정에 대한 대기 굴절에 의해 도입된 추가적인 에러를 나타내는 도면.
도 5는 제로 방위각의 특정 경우의, 본 발명에 따른 삼각측량에 의한 거리 d의 계산의 예를 나타내는 도면.
도 6은 이미지 I1의 타겟 P의 위치로부터 각 ε1를 계산하는 단계를 개략적으로 나타내는 도면.
도 7은 본 발명에 따른, 지구 기준 좌표계의 3차원에 대기 굴절이 있을 때의 타겟의 거리의 계산을 개략적으로 나타내는 도면.
도 8은 방위각 G가 제로가 아닐 경우, 본 발명에 따른, 삼각측량에 의한 거리 d의 계산의 예를 개략적으로 나타내는 도면.
도 9는 본 발명에 따른 정찰 포드를 개략적으로 나타내는 도면.
본 발명에 따라, 수학식 X = d.sinR에 의해 X가 결정된다.
따라서 다음과 같아진다:
Figure 112008063741621-pct00002
입사의 지표각에 대해서, tanR >> 1 이므로 εx/X = εd/d이다.
이 경우, X의 에러는 따라서 단독으로 d의 에러로부터 얻어지며; 그것은 R의 에러에 거의 의존하지 않는다. 약 1%의 d의 상대적인 에러에 대해서, 30km 떨어진 타겟에 대해 단지 300m의 X의 에러가 얻어진다.
본 발명에 따라, 제로 방위각의 경우(G=0), 도 5에 나타낸 바와 같이 거리 d는 삼각측량에 의해 얻어진다. 도면의 평면은 위치 C1과 위치 C2 사이를 이동하는 항공기의 시선의 것이다.
획득 처리 동안, 항공기는 C1과 C2에 연속적으로 위치하고, 항공기에 장착된 센서는 중첩 지역을 갖는 이미지 I1 및 I2를 각각 획득한다. 간단하게 하기 위해, 센서의 위치는 항공기의 위치와 같다. 획득 영역에서 획득된 이미지는 반드시 연속적인 이미지는 아니다. 예를 들어, 이미지 I1는 획득 영역의 외부로의 스윕(outward sweep) 동안 획득되고, 이미지 I2는 회귀 스윕 동안 획득된다. 따라서, 센서는 이 지역에서 각각의 타겟 P를 두 번, 즉, 이미지당 한번 관찰한다.
이 타겟 P와 점 C(C1 및 C2에 관련된 알려진 좌표들) 사이의 거리 d가 다음의 수학식에 의해 대략적으로 얻어진다:
d = B/(α2 - α1)
여기서, B는 네비게이션 시스템에 의해 측정된 C1과 C2 사이의 거리이고, α1는 기준 방향과 C1P 사이의 각이고, α2는 동일한 기준 방향과 C2P 사이의 각이다. 기준 방향은 예를 들어 북쪽 또는 세그먼트 C1C2의 것이다. 도면에서, C는 C1C2의 중간에 있지만, 보다 일반적으로 C1과 C2의 주변에 있다.
α2 - α1 = β2 - β1 + ε2 - ε1인데, 이 양은 치수 에러에 영향을 받는다. 예를 들어 자이로스콥(gyroscope)과 같은 기내 관성 시스템에 의해 측정된 β2은 이미지 I1의 시선의 각, 즉, 기준 방향과 C1M1 사이의 각이며, 여기서 M1은 이미지 I1의 중심이고, β2는 M2, I2에 대해서 동일한 관계이다. ε1은 C1M1과 C1P1 사이의 각으로 픽셀의 수로 측정되는 I1의 중심에 관한 P의 위치로부터 결정되고, ε2는 C2M2 I2에 대해서 동일한 관계이다.
도 6에, 이미지 I1이 나타나 있다. 타겟 P가 중심 M1에 관한 픽셀의 수로 생성된 그것의 좌표에 의해 이 이미지 내에 위치되어 있다. 픽셀로 측정된 이미지의 크기가 항공기로부터 보여진 특정 각에 대응하므로, 각 ε1은 P의 좌표로부터 직접 추론되며: ε1는 픽셀의 수를 각으로 변환하여 얻어진다. 예를 들어, 이미지의 폭이 1000 픽셀을 포함하고 1°의 각에 대응하면, M1로부터 400 픽셀에 위치한 타겟 P에 대한 각 ε1은 0.4°이다.
이와 같이, 다양한 타겟 P에 관련된 롤각 R은 시선의 롤각(β들과 등가임)과 이미지 내의 타겟 P의 롤각 위치(이들 위치는 픽셀로 카운트됨)를 변환시켜 얻어진 각(ε들과 등가임)을 합하여, α각의 예를 따라 얻어진다.
d에 대해 얻어진 에러는 다음에 따른다:
- 네비게이션 시스템에 의해 측정되고 통상적으로 0.3% 미만인 B의 에러;
- 상대적인 각으로 불리는, 약 1°/hour의 관성 시스템의 드리프트(drift) 및 약 0.05°/hour1 /2의 무작위 걸음에 의해 주로 제한되는 정확도인, α2 - α1의 에러; 이 에러는 몇 초동안 100μrad 미만이다. 1000 미터의 거리 B 및 30km의 거리 d에 대해서, 이 항에 의해 도입되는 상대적인 에러는 약 0.3%이다.
마지막으로, 1% 미만의 d의 에러가 얻어지고, 이에 따라 전술된 선호되지 않는 상태에서(지표각) X의 에러 또한 1% 미만이다.
이 계산으로, 거리 X가 높이 h를 획득할 필요 없이 얻어지며, 이것 또한 이점이다. 그러나, 높이 치수는 충분한 확신이 있을 때, 예를 들어, 그것이 충분히 정확하고 타겟과 C0 사이의 높이 차를 아는 상태에서 사용될 수 있다.
이 계산은 중첩 영역의 몇몇의 타겟 P에 대해 반복되는 것이 바람직하다. 이 계산은 다른 이점을 갖는데: 이 획득된 거리는 서두에 전술된 계산에 의해 얻어진 것과 반대로 대기 굴절의 영향을 거의 받지 않는다. 도 4는 종래 기술에 따라 지리적 위치측정이 수행될 때 타겟으로부터 오는 굴절된 광선의 오목한 굴절에 의해 유발된 에러를 나타낸다. 거리가 본 발명에 따라 삼각측량에 의해 계산되면, 타겟의 추측된 점 E는 실제 타겟 P에 거의 수직하며: E는 C1V1와 C2V2의 교차점에 있고, V1 및 V2는 도 7에 나타낸 바와 같이 항공기 위치 C1 및 C2로부터 각각 타겟화된 점이다. 도 4는 점 C1, C10, V1 또는 C2, C20, V2을 포함하는 평면 내의 도 7의 뷰(view)이다. C10 및 C20은 항공기 위치 C1 및 C2의 지표상의 투영이다.
추측된 점 E를 사용하여 도입된 에러는 무시할만하다. 900m와 같은 광선의 굴절에 의한 에러를 갖는 이전 예로 돌아가서, -9m의 추측된 거리의 에러가 얻어진다.
본 발명은 제로 방위각 G에 대해 설명되어 있으며; 그것은 또한 도 8에 나타낸 바와 같이 시선이 제로가 아닌 방위각 G에 의해 오프-타겟화될(off-target) 때 적용된다. 이 경우, 거리 d는 대략 (B.cosG)/(α2 - α1) 또는 (B.cosG)/(β2 - β1 + ε2 - ε1)와 같다. 이에 따라:
X = d.cosG.sinR
Y = d.sinG
본 발명에 따라, 지역의 지상 좌표화는 또한 좌표화될 지역의 몇몇 타겟들에 대한 지리적 위치측정의 이 방법을 적용하고 지역의 다른 타겟들에 대해 삽입함으로써 행해질 수 있다.
일 실시예에 따라, 본 발명에 따른 방법은 항공기에 장착된 정찰 포드에 적 용된다. 도 9에 나타낸 포드(10)는 수동 옵트로닉 센서(1) 및 전자 처리 카드(3)를 포함하는 처리 상자(2)를 포함한다. 종래 방식에서, 센서는 조정가능하며 이미지를 획득하고; 방법은 하나 이상의 전자 카드에 구현되는 소프트웨어에 의해 적용된다.

Claims (9)

  1. 수동 옵트로닉 센서(passive optronic sensor)에 의한 항공기로부터의 적어도 하나의 고정 타겟 P의 지리적 위치측정 방법에 있어서,
    - 상기 항공기의 위치 C1으로부터 상기 타겟 P를 포함하는 적어도 하나의 이미지 I1 및 상기 항공기의 위치 C2로부터 상기 타겟 P를 포함하는 이미지 I2를 상기 센서에 의해 획득하는 단계로서, 상기 이미지들 I1 및 I2는 중첩 지역을 갖는, 상기 획득하는 단계;
    - 상기 중첩 지역에서 상기 2개의 이미지들 I1 및 I2에 공통인 상기 타겟 P를 식별하고 상기 2개의 이미지들 각각 내의 상기 공통인 타겟 P의 위치를 결정하는 단계;
    - 기준 방향과 상기 이미지 I1의 시선 간의 각 β1, 상기 기준 방향과 상기 이미지 I2의 시선(line of sight) 간의 각 β2, 및 상기 이미지 I1 및 상기 이미지 I2 내의 상기 타겟 P의 위치의 함수로서, C1 및 C2에 관한 알려진 좌표들의 점 C와 상기 타겟 P 간의 거리 d를 계산하는 단계; 및
    - P가 상기 항공기 C의 지표상의 투영에 관한 지구 기준 좌표계(terrestrial reference frame)의 x-좌표 X 및 y-좌표 Y에 의해 상기 지구 기준 좌표계에서 정의되고, 상기 거리 d의 함수로서 상기 타겟 P에 대한 X 및 Y를 계산하는 단계를 포함하는, 지리적 위치측정 방법.
  2. 제 1 항에 있어서,
    상기 이미지들 I1 및 I2 내의 각각의 타겟 P의 상기 위치는 복수의 픽셀들로서 계산되고 각각 각 ε1 및 각 ε2로 변환되는, 지리적 위치측정 방법.
  3. 제 1 항에 있어서,
    상기 C의 시선은 지구 기준 좌표계 내의 롤각(roll angle) R 및 방위각 G을 갖고,
    상기 방법은, 상기 롤각 R 및 상기 방위각 G를 획득하는 단계를 포함하고,
    각각의 타겟 P의 상기 위치는 상기 롤각 R 및 상기 방위각 G의 함수로서 계산되는, 지리적 위치측정 방법.
  4. 제 3 항에 있어서,
    상기 거리 d는 (B.cosG)/(β2 - β1 + ε2 - ε1)와 같고,
    B는 점들 C1과 C2 간의 거리인, 지리적 위치측정 방법.
  5. 제 3 항에 있어서,
    상기 롤각 R 및 상기 방위각 G가 결정되면, C의 상기 항공기의 상기 지표상의 상기 투영에 관한 각각의 타겟 P의 상기 위치는 X = d.cosG.sinR 및 Y = d.sinG에 의해 주어지는, 지리적 위치측정 방법.
  6. 제 1 항에 있어서,
    상기 지리적 위치측정은 상기 항공기 기내에서 수행되는, 지리적 위치측정 방법.
  7. 지역 내의 여러 타겟들에 대한 제 1 항 내지 제 6 항 중 어느 한 항에 청구된 상기 지리적 위치측정 방법의 반복을 포함하는, 지역을 지상 좌표화(georeference)하는 방법.
  8. 제 1 항 내지 제 6 항 중 어느 한 항에 청구된 방법을 구현하기 위한 수단을 포함하는, 적어도 하나의 전자 카드(3)를 포함하는 처리 상자(2).
  9. 제 8 항에 청구된 처리 상자를 포함하는, 항공기에 설치되도록 의도된 정찰 포드(reconnaissance pod; 10).
KR1020087021974A 2006-02-08 2007-02-07 하나 이상의 타겟들의 지리적 위치측정 방법 KR101394881B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR06/01125 2006-02-08
FR0601125A FR2897163B1 (fr) 2006-02-08 2006-02-08 Procede de geo-localisation d'une ou plusieurs cibles
PCT/EP2007/051173 WO2007090848A1 (fr) 2006-02-08 2007-02-07 Procede de geo-localisation d'une ou plusieurs cibles

Publications (2)

Publication Number Publication Date
KR20080094721A KR20080094721A (ko) 2008-10-23
KR101394881B1 true KR101394881B1 (ko) 2014-05-13

Family

ID=37052734

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020087021974A KR101394881B1 (ko) 2006-02-08 2007-02-07 하나 이상의 타겟들의 지리적 위치측정 방법

Country Status (6)

Country Link
US (1) US8107684B2 (ko)
EP (1) EP1982144B1 (ko)
KR (1) KR101394881B1 (ko)
FR (1) FR2897163B1 (ko)
IL (1) IL193335A (ko)
WO (1) WO2007090848A1 (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2923024B1 (fr) * 2007-10-26 2010-08-13 Thales Sa Procede de detection d'une cible
FR2939517B1 (fr) * 2008-12-05 2010-12-10 Thales Sa Procede de geo-localisation d'un objet par multitelemetrie
EP2353024B1 (fr) * 2008-12-05 2016-08-31 Thales Procede de geo-localisation d'un objet par multitelemetrie
JP5294995B2 (ja) * 2009-06-03 2013-09-18 パナソニック株式会社 距離計測装置及び距離計測方法
FR2953940B1 (fr) 2009-12-16 2012-02-03 Thales Sa Procede de geo-referencement d'une zone imagee
KR101005829B1 (ko) * 2010-09-07 2011-01-05 한진정보통신(주) 지상 기준점 선점을 위한 최적 지역 추출 시스템 및 방법
EP2511658A1 (de) * 2011-04-14 2012-10-17 Hexagon Technology Center GmbH Vermessungssystem und Verfahren zur Neupunktbestimmung
CN104914877A (zh) * 2015-07-13 2015-09-16 沈阳飞羽航空科技有限公司 一种轻型无人机自主感知与规避方法
KR20230028949A (ko) * 2021-08-23 2023-03-03 삼성전자주식회사 외부 전자 장치의 위치 정보를 결정하기 위한 전자 장치 및 그의 동작방법
CN115410104B (zh) * 2022-09-16 2023-06-16 湖南胜云光电科技有限公司 一种获取飞行器的图像采集点的数据处理系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100673698B1 (ko) 2004-04-08 2007-01-24 가부시키가이샤 고마츠 세이사꾸쇼 변위센서

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2599855B1 (fr) 1979-06-15 1988-10-14 Thomson Csf Dispositif de levee d'ambiguite de distance et de vitesse plus particulierement utilise associe a un recepteur radar du type doppler, et radar le comportant
FR2599853B1 (fr) 1981-05-15 1989-03-31 Thomson Csf Procede de levee d'ambiguite en distance dans un radar pulse doppler, dispositif pour sa mise en oeuvre et radar comportant un tel dispositif
FR2599854B1 (fr) 1982-12-17 1988-10-14 Thomson Csf Procede de mesure de la distance ambigue et radar doppler a impulsions mettant en oeuvre un tel procede
FR2629922B1 (fr) 1982-12-30 1990-10-12 Thomson Csf Procede de traitement instantane du bruit de scintillation angulaire et recepteur radar monopulse de poursuite mettant en oeuvre un tel procede
US4635203A (en) * 1984-04-06 1987-01-06 Honeywell Inc. Passive range measurement apparatus and method
FR2699666B1 (fr) * 1992-12-22 1995-02-24 Telecommunications Sa Procédé de navigation pour aéronef à l'aide d'un modèle numérique de terrain.
US5586063A (en) * 1993-09-01 1996-12-17 Hardin; Larry C. Optical range and speed detection system
DE4416557A1 (de) * 1994-05-11 1995-11-23 Bodenseewerk Geraetetech Verfahren und Vorrichtung zur Stützung der Trägheitsnavigation eines ein entferntes Ziel autonom ansteuernden Flugkörpers
JPH10178564A (ja) * 1996-10-17 1998-06-30 Sharp Corp パノラマ画像作成装置及び記録媒体
US6442293B1 (en) * 1998-06-11 2002-08-27 Kabushiki Kaisha Topcon Image forming apparatus, image forming method and computer-readable storage medium having an image forming program
US6694064B1 (en) * 1999-11-19 2004-02-17 Positive Systems, Inc. Digital aerial image mosaic method and apparatus
WO2001048683A1 (en) * 1999-12-29 2001-07-05 Geospan Corporation Any aspect passive volumetric image processing method
US7006707B2 (en) * 2001-05-03 2006-02-28 Adobe Systems Incorporated Projecting images onto a surface
US7684612B2 (en) * 2006-03-28 2010-03-23 Pitney Bowes Software Inc. Method and apparatus for storing 3D information with raster imagery
JP4976756B2 (ja) * 2006-06-23 2012-07-18 キヤノン株式会社 情報処理方法および装置
JP4481280B2 (ja) * 2006-08-30 2010-06-16 富士フイルム株式会社 画像処理装置、及び画像処理方法
JP5248806B2 (ja) * 2007-04-25 2013-07-31 キヤノン株式会社 情報処理装置、情報処理方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100673698B1 (ko) 2004-04-08 2007-01-24 가부시키가이샤 고마츠 세이사꾸쇼 변위센서

Also Published As

Publication number Publication date
WO2007090848A1 (fr) 2007-08-16
US8107684B2 (en) 2012-01-31
KR20080094721A (ko) 2008-10-23
IL193335A (en) 2013-01-31
US20090034795A1 (en) 2009-02-05
FR2897163B1 (fr) 2008-04-11
IL193335A0 (en) 2009-05-04
EP1982144B1 (fr) 2014-05-14
EP1982144A1 (fr) 2008-10-22
FR2897163A1 (fr) 2007-08-10

Similar Documents

Publication Publication Date Title
KR101394881B1 (ko) 하나 이상의 타겟들의 지리적 위치측정 방법
US9194954B2 (en) Method for geo-referencing an imaged area
EP1019862B1 (en) Method and apparatus for generating navigation data
US9528834B2 (en) Mapping techniques using probe vehicles
ES2530264T3 (es) Procedimiento para la determinación de las coordenadas geográficas de píxeles en imágenes SAR
US11237005B2 (en) Method and arrangement for sourcing of location information, generating and updating maps representing the location
US20190072392A1 (en) System and method for self-geoposition unmanned aerial vehicle
CA2923233C (en) Determination of the position of a vehicle on or above a planet surface
US10760907B2 (en) System and method for measuring a displacement of a mobile platform
CN106043355A (zh) 一种铁路检测车沉降和位姿的高精度摄像测量方法
US20080074639A1 (en) Passive determination of ground target location
Schaer et al. Trajectory adjustment of mobile laser scan data in GPS denied environments
US20170356720A1 (en) Systems and Methods for Targeting Objects of Interest in Denied GPS Environments
US11199607B2 (en) Combined metrology method for computing distance, roll and pitch attitudes and relative orientations between two underwater points of interest
Xu et al. Error analysis and accuracy assessment of mobile laser scanning system
RU2406071C1 (ru) Способ навигации движущихся объектов
Mandlburger et al. Evaluation of Consumer-Grade and Survey-Grade UAV-LIDAR
JPH0524591A (ja) 垂直離着陸航空機の機体位置測定方法
Mares et al. Vehicle self-localization in GPS-denied zones by multi-band imaging and analysis of prominent scene features
Oh et al. A new method to calculate relative distance of closest terrain point using interferometric radar altimeter output in real flight environment
US20230324552A1 (en) Lidar technology-based method and device for adaptively tracking an object
RU2656361C1 (ru) Способ позиционирования подвижного объекта
RU2572094C1 (ru) Подвижный радиолокатор
RU2542720C1 (ru) Способ навигации движущихся объектов
Jiang et al. A Synthetic Error Analysis of Positioning Equation for Airborne Three-Dimensional Laser Imaging Sensor

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170502

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180427

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190429

Year of fee payment: 6