KR20120070891A - 3차원 영상 보조 항법 장치 및 이를 이용한 관성 항법 시스템 - Google Patents

3차원 영상 보조 항법 장치 및 이를 이용한 관성 항법 시스템 Download PDF

Info

Publication number
KR20120070891A
KR20120070891A KR1020100132412A KR20100132412A KR20120070891A KR 20120070891 A KR20120070891 A KR 20120070891A KR 1020100132412 A KR1020100132412 A KR 1020100132412A KR 20100132412 A KR20100132412 A KR 20100132412A KR 20120070891 A KR20120070891 A KR 20120070891A
Authority
KR
South Korea
Prior art keywords
error
calculated
current position
image sensor
inertial navigation
Prior art date
Application number
KR1020100132412A
Other languages
English (en)
Other versions
KR101208448B1 (ko
Inventor
정상근
최동균
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020100132412A priority Critical patent/KR101208448B1/ko
Publication of KR20120070891A publication Critical patent/KR20120070891A/ko
Application granted granted Critical
Publication of KR101208448B1 publication Critical patent/KR101208448B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/36Videogrammetry, i.e. electronic processing of video signals from a single source or from different sources to give parallax or range information
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • G01C25/005Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass initial alignment, calibration or starting-up of inertial devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0205Details
    • G01S5/021Calibration, monitoring or correction

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Manufacturing & Machinery (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Navigation (AREA)

Abstract

본 발명에 따른 관성 항법 시스템은 비행체의 현재 위치를 산출하는 관성 항법 장치, 상기 비행체에 설치되어 위치 정보를 알고 있는 지상 목표물을 촬영하는 영상 센서, 상기 지상 목표물에 대한 상기 영상 센서의 두 지점에서의 시선각 측정치를 통해 실 현재 위치와 상기 산출된 현재 위치의 위치 정보 오차를 산출하는 3차원 영상 보조 항법 장치 및 상기 산출된 위치 정보 오차의 자체 오차를 최소화하는 상기 위치 정보 오차 산출에 사용되는 각 인자들의 최적 조건을 추출하고, 상기 추출된 최적 조건에 부합하는 운동을 하도록 상기 비행체를 제어하는 유도 제어 장치를 포함함으로써, 현재 위치를 신뢰성 있게 파악할 수 있다.

Description

3차원 영상 보조 항법 장치 및 이를 이용한 관성 항법 시스템{AIDED NAVIGATION APPARATUS USING 3 DIMENSIONAL IMAGE AND INERTIAL NAVIGATION SYSTEM USING THE SAME}
본 발명은 3차원 영상 보조 항법 장치 및 이를 이용한 관성 항법 시스템에 관한 것으로서, 보다 상세하게는 영상 센서에서 촬영한 지상 목표물의 3차원 좌표를 이용하여 관성 항법 시스템의 오차를 보정할 수 있도록 하는 3차원 영상 보조 항법 장치 및 이를 이용한 관성 항법 시스템에 관한 것이다.
일반적으로 운용시간이 증가할수록 관성 항법 시스템의 오차는 누적되어 발산하는 경향이 있으며, 이 경우 관성 항법 시스템은 항법 시스템으로서의 역할을 지속할 수 없게 된다. 이를 방지하기 위해서는 다른 보조적인 센서와 수단을 이용하여 주기적으로 관성 항법 시스템의 오차를 보정해주어야만 하며, 종래에는 다음과 같은 방법들을 사용하였다.
첫 번째 방법은 위성 보조 항법을 적용하는 것이다. 가장 대표적인 형태는 GPS 수신기를 이용하여 관성 항법 시스템을 보완하는 것이다. 최근에는 항법용 상용 위성 시스템이 증가하였으며, 그 위성 시스템을 모두 활용하는 GNSS 보조 항법이 안정적으로 구현되고 있는 상태이다. 그러나 유사시 이러한 상용 위성 시스템 출력의 활용이 제한될 수 있으며, 사용 위성 시스템의 위성 신호를 재밍하는 것이 용이하기 때문에 적대적인 지역에서의 운용이 어렵다는 단점이 있다.
두 번째 방법은 영상 센서를 이용하는 보조 항법을 적용하는 것이다. 가장 대표적인 형태는 영상 센서를 비행체 직하방에 배치하여 하방 지형 지물의 정사영상을 촬영하고 미리 획득해 둔 지형 지물의 자료와 비교하여 현재 위치를 파악하는 디지털 영상 정합 영역 상관(digital scene matching area correlation) 방법이 있다. 위성 보조 항법 수준의 신뢰도를 확보할 수 있으며, 근본적으로 재밍이 어렵다는 점에서 매우 유용하다. 그러나 이 방법은 하방축, 즉 고도축 방향의 정보 관측이 용이하지 않기 때문에, 3차원적인 위치 정보를 구할 수 없다는 단점이 있다.
본 발명은 영상 센서에서 촬영한 지상 목표물의 3차원 좌표를 이용하여 관성 항법 시스템의 오차를 보정할 수 있도록 하는 3차원 영상 보조 항법 장치 및 이를 이용한 관성 항법 시스템을 제공하기 위한 것이다.
본 발명이 이루고자 하는 기술적 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기의 목적을 달성하기 위한 본 발명의 관성 항법 장치는 비행체의 현재 위치를 산출하는 관성 항법 장치, 상기 비행체에 설치되어 위치 정보를 알고 있는 지상 목표물을 촬영하는 영상 센서, 상기 지상 목표물에 대한 상기 영상 센서의 두 지점에서의 시선각 측정치를 통해 실 현재 위치와 상기 산출된 현재 위치의 위치 정보 오차를 산출하는 3차원 영상 보조 항법 장치 및 상기 산출된 위치 정보 오차의 자체 오차를 최소화하는 상기 위치 정보 오차 산출에 사용되는 각 인자들의 최적 조건을 추출하고, 상기 추출된 최적 조건에 부합하는 운동을 하도록 상기 비행체를 제어하는 유도 제어 장치를 포함할 수 있다.
본 발명의 3차원 영상 보조 항법 장치는 위치 정보 T를 알고 있는 지상 목표물을 촬영하는 영상 센서의 상기 T에 대한 운행 경로 상의 두 지점(과거 위치 M1, 현재 위치 M2)에서의 시선각 λ1, λ2와 상기 두 지점 간 거리
Figure pat00001
로부터 현재 위치 M2와 상기 T까지의 거리 RP를 산출하는 지상 목표물 거리 산출부 및 관성 항법 장치에서 산출된 현재 위치 G2와 상기 T 및 상기 RP를 이용해 상기 G2와 상기 M2의 위치 정보 오차를 산출하는 위치 정보 오차 산출부를 포함할 수 있다.
이때, 상기 위치 정보 오차 산출부는 다음의 수학식에 의해 상기 위치 정보 오차를 산출할 수 있다.
Figure pat00002
여기서,
Figure pat00003
는 상기 M2를 시작점으로 하고 상기 T를 끝점으로 하는 벡터의 단위 벡터이다.
본 발명의 유도 제어 장치는 3차원 영상 보조 항법 장치에서 산출된 위치 정보 오차
Figure pat00004
의 자체 오차 δRP를 다음의 수학식에 의해 산출하고, 상기 δRP를 최소화하는 상기
Figure pat00005
산출에 사용되는 각 인자들의 최적 조건을 추출하는 최적 조건 추출부 및 상기 추출된 최적 조건에 부합하는 운동을 하도록 상기 3차원 영상 보조 항법 장치가 설치된 비행체를 제어하는 자세 제어부를 포함할 수 있다.
Figure pat00006
여기서,
Figure pat00007
이고,
Figure pat00008
이며,
Figure pat00009
이고,
Figure pat00010
이며,
Figure pat00011
이고,
Figure pat00012
이며,
Figure pat00013
이고,
Figure pat00014
이며,
Figure pat00015
이다.
이상에서 설명된 바와 같이 본 발명에 따른 3차원 영상 보조 항법 장치 및 이를 이용한 관성 항법 시스템은 위치 정보를 알고 있는 지상 목표물에 대한 두 지점에서의 시선각 차이를 이용하여 실 현재 위치에서 지상 목표물까지의 거리를 산출하고, 산출된 거리를 이용하여 실 현재 위치와 관성 항법 장치에서 산출된 현재 위치와의 위치 정보 오차를 산출할 수 있다.
이렇게 산출된 위치 정보 오차를 이용함으로써 3차원적으로 관성 항법 장치의 누적 오차를 신뢰성 있게 감소시킬 수 있다.
더욱이, 위치 정보 오차 산출에 이용되는 각 인자의 자체 오차, 예를 들어 영상 센서의 오차 등으로 인하여 산출된 위치 정보 오차 자체의 오차를 최소화하기 위한 조건을 추출하고, 이 조건에 부합하도록 비행체를 운행하도록 유도/제어함으로써 최적의 위치 정보 오차가 산출될 수 있다.
도 1은 본 발명의 관성 항법 시스템을 나타낸 블럭도.
도 2는 본 발명의 3차원 영상 보조 항법 장치에서 이루어지는 운용 기하를 나타낸 개략도.
도 3은 본 발명의 3차원 영상 보조 항법을 나타낸 흐름도.
이하, 본 발명의 3차원 영상 보조 항법 장치 및 이를 이용한 관성 항법 시스템에 대하여 도면을 참조하여 보다 상세하게 설명한다.
도 1은 본 발명의 관성 항법 시스템을 나타낸 블럭도이다.
도 1에 도시된 관성 항법 시스템은 비행체의 현재 위치를 산출하는 관성 항법 장치(170), 상기 비행체에 설치되어 위치 정보를 알고 있는 지상 목표물을 촬영하는 영상 센서(110), 상기 지상 목표물에 대한 상기 영상 센서의 두 지점에서의 시선각 측정치를 통해 실 현재 위치와 상기 산출된 현재 위치의 위치 정보 오차를 산출하는 3차원 영상 보조 항법 장치(130) 및 상기 산출된 위치 정보 오차의 자체 오차를 최소화하는 상기 위치 정보 오차 산출에 사용되는 각 인자들의 최적 조건을 추출하고, 상기 추출된 최적 조건에 부합하는 운동을 하도록 상기 비행체를 제어하는 유도 제어 장치(150)를 포함하고 있다.
관성 항법 장치(170)(慣性航法裝置, inertial navigation system)는 장거리 로켓이나 비행기 등의 비행체에 사용되는 항법 장치로 비행체의 현재 위치를 산출한다. 자이로를 이용, 관성공간에 대해 일정한 자세를 유지하는 기준 테이블을 만들고, 그 위에 정밀한 가속도계를 장치하여 이 장치를 비행체에 탑재한다. 이 장치에 의해 발진한 순간부터 임의의 시각까지 3축방향의 가속도를 2회 적분(積分)하면 비행거리가 얻어지며, 따라서 현재의 위치를 알 수 있다. 이 장치는 다른 원조를 전혀 필요로 하지 않고 자기 위치를 결정할 수 있는 특징을 가지며, 또한 외부의 방해를 받지 않는다는 점에서 군사목적에는 특히 중요하다. 원래 이 장치는 미사일의 유도장치(유도를 하는 시간은 몇 분 정도)로 개발된 것으로, 정밀도가 향상되어 비행시간이 10여 시간인 항공기에도 탑재되며, 수천 km의 비행거리에서 오차는 10km 정도이다. 이와 같은 오차는 상당히 작은 정도이나, 정밀한 항법이 요구되는 경우 이와 같은 오차는 심각한 문제를 초래할 수 있다. 따라서, 이와 같은 관성 항법 장치의 오차를 최소화하기 위해 보조 항법 장치가 이용되며, 본 발명에서는 3차원 영상 보조 항법 장치가 이용된다.
영상 센서(110)는 광파를 이용하여 목표물의 형상을 영상이나 데이터로 제공하는 장치이다. 가시 광선 영역과 눈으로는 볼 수 없는 자외선 및 적외선의 광학 파장 대역을 이용하여 목표물 정보를 획득한다. 영상 센서는 관성 항법 장치(170), 3차원 영상 보조 항법 장치(130), 유도 제어 장치(150)와 함께 비행체에 설치되어 3차원의 위치 정보를 알고 있는 지상 목표물을 촬영한다. 상기 영상 센서에 의해 촬영되는 대상은 지상 목표물이며, 이때 촬영되는 지상 목표물의 위치 정보는 사전에 알고 있어야 한다. 이를 위해 본 발명의 관성 항법 시스템이 설치되는 비행체는 위성 촬영 등을 통해 사전에 획득한 지상 목표물의 위치 정보를 저장하는 저장 수단을 구비할 수 있다. 또한, 저장된 지상 목표물과 영상 센서에서 촬영된 지상 목표물이 동일한지 여부를 판단하는 영상 매칭 수단을 구비할 수 있다. 대체로 비행체는 일정 위치에 고정되지 않고 고속으로 비행하게 되므로 그에 따라 지상 목표물은 해당 비행체의 현재 위치에서 촬영 가능한 다른 지상 목표물로 변경될 수 있다.
3차원 영상 보조 항법 장치(130)는 영상 센서에서 촬영된 지상 목표물에 대한 영상 센서의 두 지점에서의 시선각을 측정하고, 측정된 시선각을 통해 실제의 현재 위치(실 현재 위치)와 관성 항법 장치에서 산출된 현재 위치의 위치 정보 오차를 산출한다. 본 발명에서는 비행체 경로 상의 두 지점(이 중 한 지점은 현재의 위치)에서의 시선각이 필요하다.
비행체는 다른 위치에 설치되는 복수의 영상 센서를 포함할 수 있는데, 이 경우 영상 센서의 두 지점은 현재 시각에서 서로 다른 위치에 설치된 2개의 영상 센서의 위치이다. 만약, 비행체에 하나의 영상 센서만이 설치되거나, 복수의 영상 센서 중 하나의 영상 센서만을 이용한다면 비행체의 현재 위치에서의 영상 센서 위치와, 일정 시간 이전의 비행체의 위치에서의 영상 센서 위치가 영상 센서의 두 지점이 된다. 이하에서는 위 두가지 경우를 모두 포함하여 운행 경로 상의 두 지점으로 지칭하기로 한다.
지상 목표물의 위치 정보와 운행 경로 상의 두 지점이 형성하는 삼각 평면의 각 내각, 각 변의 길이 중 3개를 알면, 나머지 내각과 나머지 변의 길이를 알 수 있다. 두 지점 간의 거리는 다른 위치에 설치된 2개의 영상 센서를 이용할 경우 해당 센서 간의 거리이고, 하나의 영상 센서를 이용할 경우 관성 항법 장치에서 산출된 일정 시간 이전의 위치와 현재 시각의 위치 간의 거리이다.
삼각형의 변 중 현재 위치의 영상 센서(2개의 영상를 사용하는 경우 기준 영상 센서)를 시작점으로 하고 지상 목표물을 끝점으로 하는 벡터와 관성 항법 장치에서 산출된 현재 위치를 시작점으로 하고 지상 목표물을 끝점으로 하는 벡터의 차이가 곧 관성 항법 장치의 위치 정보 오차가 된다.
이와 같은 알고리즘은 수학적으로는 문제가 없으나, 실제 적용시 각 인자에 대한 오차로 인하여 문제가 발생한다. 예를 들어 영상 센서 자체의 오차로 인하여 시선각에 오차가 있을 수 있는데, 이와 같은 경우 현재 위치의 영상 센서로부터 지상 목표물까지의 거리 산출에 오차가 포함된다.
이러한, 위치 정보 오차의 자체 오차를 최소화하기 위해 유도 제어 장치가 이용된다.
유도 제어 장치(150)는 3차원 영상 보조 항법 장치에서 위치 정보 오차 산출에 사용되는 각 인자들의 최적 조건을 추출하고, 상기 추출된 최적 조건에 부합하는 운동을 유도하도록 상기 비행체를 제어한다. 위치 정보 오차의 자체 오차는 비행체의 운동 상태에 따라 최소화될 수 있다. 이를 위해 유도 제어 장치는 위치 정보 오차의 자체 오차를 추후 보정하는 것이 아니라, 사전에 위치 정보 오차의 자체 오차를 최소화할 수 있는 각 인자들의 최적 조건을 추출하고, 최적 조건에 부합하도록 비행체의 운동을 제어한다. 이때의 제어는 자동적으로 이루어지거나 조종사에게 권고(표시)함으로써 수동 제어를 유도하는 형태로 이루어질 수 있다.
이하, 도 1 및 도 2를 참조하여 3차원 영상 보조 항법 장치(130)에 대해서 살펴본다.
도 2는 본 발명의 3차원 영상 보조 항법 장치에서 이루어지는 운용 기하를 나타낸 개략도이다.
3차원 영상 보조 항법 장치(130)는 위치 정보 T를 알고 있는 지상 목표물을 촬영하는 영상 센서(110)의 상기 T에 대한 운행 경로 상의 두 지점(과거 위치 M1, 현재 위치 M2)에서의 시선각 측정치를 통해 산출한 삼각평면 M1M2T의 내각 λ1, λ21과 상기 두 지점 간 거리
Figure pat00016
로부터 현재 위치 M2와 상기 T까지의 거리 RP를 산출하는 지상 목표물 거리 산출부(131) 및 관성 항법 장치(170)에서 산출된 현재 위치 G2와 상기 T 및 상기 RP를 이용해 상기 G2와 상기 M2의 위치 정보 오차를 산출하는 위치 정보 오차 산출부(133)를 포함하고 있다. 참고로, 각 인자의 상부에 표시되는 기호 '~'는 관성 항법 장치 또는 영상 센서에 의해 측정되어지는 값을 의미하는 것으로 한다. 예를 들어
Figure pat00017
는 관성 항법 장치에 의해 산출된 거리로 기기 자체의 오차값을 포함할 수 있다.
지상 목표물 거리 산출부(131)는 현재 위치 M2와 지상 목표물 T 간의 거리 RP를 산출한다. M2는 운행 경로 상의 두 지점 중 현재 위치(1개의 영상 센서를 이용할 경우) 또는 현재 시각에서의 기준 센서의 위치(2개의 영상 센서를 이용할 경우)이다. RP의 산출을 위해 삼각평면 M1M2T의 내각 λ1, λ21을 산출하여야 하는데, 이를 위해 영상 센서의 시선각 출력
Figure pat00018
(방위각),
Figure pat00019
(고각)를 이용한다.
Figure pat00020
,
Figure pat00021
은 영상 센서에서 측정된 값으로 영상 센서의 자체 오차값을 포함할 수 있다.
구체적으로, 도 2와 같이 기준좌표계 {XG, YG, ZG}에서 공간상의 단위벡터
Figure pat00022
(시선측정위치간 벡터),
Figure pat00023
(1차 시선벡터),
Figure pat00024
(2차 시선벡터)를 각각 정의함으로써, 패시브 레인징(passive ranging) 운용 개념을 공간 평면상에서 적용할 수 있다. 즉, 두 시선 측정 위치에서의 영상 센서의 시선각 출력
Figure pat00025
,
Figure pat00026
들을 이용하여 공간상의 삼각평면 M1M2T에 대한 내각 λ1과 λ21을 계산하고 관성 항법 장치의 출력을 이용한 기준 거리정보
Figure pat00027
를 이용함으로써 위치 정보 T를 갖는 표적까지의 실제 거리 정보 RP를 추산하여 관성 항법 장치에서 산출된 항법 정보(G1, G2)의 오차
Figure pat00028
를 계산할 수 있다.
먼저, 충분히 작은 시간동안의 항법오차 변화를 무시함으로써, 다음의 수학식 1과 같이
Figure pat00029
을 구할 수 있다.
Figure pat00030
여기서, G1은 관성 항법 장치에서 산출된 일정 시간 전의 현재 위치, 즉 과거 위치이고, G2는 관성 항법 장치에서 산출된 현재 위치이다.
그리고 기준좌표계 기준으로 변환시킨 영상 센서의 시선각 정보들을 이용하여, 기준좌표계상의 단위 시선 벡터들을 계산하면 다음의 수학식 2와 같다.
Figure pat00031
여기서,
Figure pat00032
은 과거 위치 M1에서의 고각이고,
Figure pat00033
는 과거 위치 M1에서의 방위각이다.
Figure pat00034
는 현재 위치 M2에서의 고각이고,
Figure pat00035
는 현재 위치 M2에서의 방위각이다.
수학식 3과 같이 단위 벡터들의 내적(dot product)을 이용하여, 기준좌표계 상의 단위 벡터들을 통해 원하는 내각 λ1(
Figure pat00036
Figure pat00037
간의 각도)과 λ21(
Figure pat00038
Figure pat00039
간의 각도)을 구할 수 있다.
Figure pat00040
3차원 passive ranging 개념으로 추산할 수 있는 공간거리 RP는 다음의 수학식 4와 같다.
Figure pat00041
여기서 관성 항법 장치의 출력으로서의 기준 거리 정보
Figure pat00042
는 두 측정 시점간의 단기간에 대한 항법 결과이므로, 누적되어온 항법 오차와 무관하게 상대적으로 매우 정확한 거리정보로 활용될 수 있다.
한편,
Figure pat00043
은 수학식 1에 의해 지상 목표물 거리 산출부(131)에서 산출될 수도 있으나, 관성 항법 장치로부터 전달받을 수도 있다. G1, G2에 의해 용이하게 산출될 수 있는
Figure pat00044
도 마찬가지로 지상 목표물 거리 산출부에서 산출될 수 있으며, 관성 항법 장치로부터 전달받을 수도 있다. 다만, 관성 항법 장치로부터 G1, G2만이 출력되는 경우 지상 목표물 거리 산출부는 유도 제어 장치에서 필요로 하는
Figure pat00045
를 산출하여 유도 제어 장치로 전달할 수 있다.
이렇게 계산되어지는 RP를 이용하여 위치 정보 오차 산출부(133)는 기준좌표계 상의 항법 오차 공간 벡터
Figure pat00046
를 다음의 수학식 5와 같이 구할 수 있다.
Figure pat00047
여기서,
Figure pat00048
는 상기 M2를 시작점으로 하고 상기 T를 끝점으로 하는 벡터의 단위 벡터이고,
G2는 관성 항법 장치에서 산출된 현재 위치이며,
T는 지상 목표물의 위치이고,
RP는 M2에서 T까지의 거리이다.
수학식 5에 필요한 각 인자는 지상 목표물 거리 산출부로부터 받을 수 있다. 또는 관성 항법 장치와 영상 센서로에서 산출 또는 측정된 값을 받아 필요한 인자를 산출하여 이용할 수 있다. 또한, 지상 목표물의 위치 정보를 사전에 획득하여 저장하고 있는 저장 수단(미도시)으로부터 T를 전달받는다.
이렇게 산출된 오차를 관성 항법 장치(170)에서 산출된 현재 위치 G2와 감산함으로써 보정된 위치 정보, 즉 실 현재 위치를 파악할 수 있게 된다. 이렇게 파악된 실 현재 위치는 유도 제어 장치(150)로 입력되어 기존의 유도 제어 장치의 처리 방안에 따라 처리된다. 실 현재 위치는 영상 센서에 의해 파악이 가능하지만, 이를 위해 위치 정보 T를 알고 있는 지상 목표물이 항상 존재해야 하며, 정확한 시선각과 고각 측정을 위한 운동이 요구된다. 실 운행시에 이와 같은 조건을 항상 완비할 수 없으므로, 일정 구간에서 본 발명에 따라
Figure pat00049
를 산출해두면 일정 시간 동안 신뢰성 있는 현재 위치의 파악이 가능하다.
이 항법오차 공간벡터 추산결과는 수학적으로는 완벽하지만 실제 응용시에는 여러 측정치를 근거로 계산하게 되므로, 그 측정치들에 포함된 오차, 예를 들어 영상 센서 자체의 오차가 결과적으로 항법 오차 추산결과에 대한 오차 요인으로 작용하게 된다. 이러한 오차 특성은 공간상의 삼각평면 M1M2T의 기하적 조건, 즉 내각 λ1과 λ21의 절대크기와 상대적인 크기차이에 따라 급격하게 달라지므로, 그 오차특성을 해석하고 항법 오차 추산결과의 오차를 최소화할 수 있는 적응방식의 운용기하를 찾기 위한 방안이 필요하다. 이러한 방안으로 유도 제어 장치(150)가 이용된다.
유도 제어 장치(150)는 3차원 영상 보조 항법 장치(130)에서 산출된 위치 정보 오차
Figure pat00050
의 자체 오차 δRP를 산출하고, δRP를 최소화하는 상기
Figure pat00051
산출에 사용되는 각 인자들의 최적 조건을 추출하는 최적 조건 추출부(151) 및 추출된 최적 조건에 부합하는 운동을 하도록 3차원 영상 보조 항법 장치가 설치된 비행체를 제어하는 자세 제어부(153)를 포함할 수 있다.
최적 조건 추출부(151)에서는 각 인자들의 최적 조건을 추출하기 위해 이용하는 오차를 최소화할 수 있는 적응방식의 운용기하의 적응성(adaptiveness; 현재 감지된 기하조건을 오차 전달 관점에서 유리한지 해석하고, 개선될 수 있는 방향으로 기하조건을 변경할 수 있는 판단능력)에 필요한 passive ranging 오차전달 관계식은 다음의 수학식 6과 같다.
Figure pat00052
여기서,
Figure pat00053
이고,
Figure pat00054
이며,
Figure pat00055
이고,
Figure pat00056
이며,
Figure pat00057
이고,
Figure pat00058
이며,
Figure pat00059
이고,
Figure pat00060
이며,
Figure pat00061
이고,
Figure pat00062
은 과거 위치 M1에서의 고각이며,
Figure pat00063
는 과거 위치 M1에서의 방위각이고,
Figure pat00064
는 현재 위치 M2에서의 고각이며,
Figure pat00065
는 현재 위치 M2에서의 방위각이다.
위의 오차 전달 관계식에서
Figure pat00066
는 공간 거리 추산 결과의 오차이고,
Figure pat00067
Figure pat00068
는 영상 센서의 시선각 측정 오차를 의미한다. 정확하게는
Figure pat00069
는 RP의 오차이나, 위치 정보 오차
Figure pat00070
산출에 RP가 이용되므로
Figure pat00071
를 위치 정보 오차 자체의 오차로 지칭하였다.
Figure pat00072
Figure pat00073
의 우측 아래 첨자의 각 숫자 1, 2는 과거 위치와 현재 위치를 나타낸다.
오차 전달 관계식, 즉 수학식 6에 따르면 1차와 2차 측정 시점에서의 시선 측정치 오차가 공간거리 추산결과에 미치는 영향을 4개의 오차 전달 계수 W1, W2, W3, W4로 분리하여 해석할 수 있게 된다. 이 식을 이용하면 공간 거리를 추산 결과의 오차를 최소화할 수 있는 운용 기하 조건을 찾을 수 있다. 즉, 영상 센서의 요소별/시점별 오차 요인들에 대하여 미리 계획한 영상 센서 운용 기하의 공간 거리 추산성능(결과적으로 보조 항법 성능)을 예측할 수 있게 되는 것이다. 이 오차 전달 관계식의 가장 큰 의미는 무인시스템 운용 중에도 실시간으로 각 물리량에 대한 측정치들을 이용하여 그 운용 기하에 해당하는 오차 전달 계수를 추정(
Figure pat00074
) 및 모니터링할 수 있으므로, 오차를 더욱 최소화하는 방향(추정하고 있는 오차 전달 계수가 작아지는 방향)으로 운용 기하를 변경하는 적응 방식의 운용을 가능하게 한다.
자세 제어부(153)는 3차원 영상 보조 항법 장치에서 산출된 위치 정보 오차의 자체 오차를 최소화하는 방향으로 운용 기하를 변경하는 적응 방식에 따라 비행체를 운용한다. 비행체의 운용에 따라 큰 차이를 보이는 것은 영상 센서의 시선각이므로, 자세 제어부는 간접적으로 영상 센서를 제어하게 된다. 자세 제어부에서 이루어지는 제어는 자동으로 이루어질 수 있으며, 경우에 따라 조종사에게 적절한 운용 방법을 표시함으로써 수동 제어를 유도할 수도 있다.
도 3은 본 발명의 3차원 영상 보조 항법을 나타낸 흐름도이다. 도 3에 도시된 3차원 영상 보조 항법은 도 1에 도시된 3차원 영상 보조 항법 장치와 유도 제어 장치의 동작으로서 설명될 수도 있다.
먼저, 비행체에 설치된 영상 센서(110)에서 위치 정보 T를 알고 있는 지상 목표물을 촬영한다(S 510).
3차원 영상 보조 항법 장치(130)에서 상기 T에 대한 상기 영상 센서의 두 지점(과거 위치 M1, 현재 위치 M2)에서의 시선각 측정치를 통해 산출한 삼각평면 M1M2T의 내각 λ1, λ21과 상기 두 지점 간 거리
Figure pat00075
로부터 현재 위치 M2와 상기 T까지의 거리 RP를 산출한다(S 520). 구체적으로 3차원 영상 보조 항법 장치 내에 포함된 지상 목표물 거리 산출부(131)에서 수행된다.
관성 항법 장치(170)에서 산출된 현재 위치 G2와 상기 T 및 상기 RP를 이용해 상기 3차원 영상 보조 항법 장치에서 상기 G2와 상기 M2의 위치 정보 오차
Figure pat00076
를 수학식 5에 의해 산출한다(S 530). 이와 같은 동작은 3차원 영상 보조 항법 장치 내의 위치 정보 오차 산출부(133)에서 수행된다.
이후, 필요에 따라 위치 정보 오차 자체의 오차를 최소화하기 위해 다음의 과정을 추가로 수행할 수 있다.
유도 제어 장치(150)에서 상기 산출된
Figure pat00077
의 자체 오차 δRP를 수학식 6에 의해 산출하고, 상기 δRP를 최소화하는 상기
Figure pat00078
산출에 사용되는 각 인자들의 최적 조건을 추출한다(S 540). 유도 제어 장치의 최적 조건 추출부(151)에서 수행되는 동작이다.
상기 유도 제어 장치에서 상기 추출된 최적 조건에 부합하는 운동을 하도록 상기 비행체를 제어한다(S 550). 이와 같은 동작은 유도 제어 장치의 자세 제어부에서 수행된다.
한편, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
현재 위치를 신뢰성 있게 파악할 필요가 있는 관성 항법 장치에 적용할 수 있다.
특히, 영상 센서를 통해 보조 항법을 수행하는 관성 항법 장치에 적용하는 것이 유리하다.
110...영상 센서 130...3차원 영상 보조 항법 장치
131...지상 목표물 거리 산출부 133...위치 정보 오차 산출부
150...유도 제어 장치 151...최적 조건 추출부
153...자세 제어부 170...관성 항법 장치

Claims (6)

  1. 비행체의 현재 위치를 산출하는 관성 항법 장치;
    상기 비행체에 설치되어 위치 정보를 알고 있는 지상 목표물을 촬영하는 영상 센서;
    상기 지상 목표물에 대한 상기 영상 센서의 두 지점에서의 시선각 측정치를 통해 실 현재 위치와 상기 산출된 현재 위치의 위치 정보 오차를 산출하는 3차원 영상 보조 항법 장치; 및
    상기 산출된 위치 정보 오차의 자체 오차를 최소화하는 상기 위치 정보 오차 산출에 사용되는 각 인자들의 최적 조건을 추출하고, 상기 추출된 최적 조건에 부합하는 운동을 하도록 상기 비행체를 제어하는 유도 제어 장치;
    를 포함하는 관성 항법 시스템.
  2. 위치 정보 T를 알고 있는 지상 목표물을 촬영하는 영상 센서의 상기 T에 대한 운행 경로 상의 두 지점(과거 위치 M1, 현재 위치 M2)에서의 시선각 측정치를 통해 산출한 삼각평면 M1M2T의 내각 λ1, λ21과 상기 두 지점 간 거리
    Figure pat00079
    로부터 현재 위치 M2와 상기 T까지의 거리 RP를 산출하는 지상 목표물 거리 산출부; 및
    관성 항법 장치에서 산출된 현재 위치 G2와 상기 T 및 상기 RP를 이용해 상기 G2와 상기 M2의 위치 정보 오차를 산출하는 위치 정보 오차 산출부;
    를 포함하는 3차원 영상 보조 항법 장치.
  3. 제 2 항에 있어서,
    상기 위치 정보 오차 산출부는 다음의 수학식에 의해 상기 위치 정보 오차
    Figure pat00080
    를 산출하는 것을 특징으로 하는 3차원 영상 보조 항법 장치.
    Figure pat00081

    여기서,
    Figure pat00082
    는 상기 M2를 시작점으로 하고 상기 T를 끝점으로 하는 벡터의 단위 벡터이다.
  4. 3차원 영상 보조 항법 장치에서 산출된 위치 정보 오차
    Figure pat00083
    의 자체 오차 δRP를 다음의 수학식에 의해 산출하고, 상기 δRP를 최소화하는 상기
    Figure pat00084
    산출에 사용되는 각 인자들의 최적 조건을 추출하는 최적 조건 추출부; 및
    상기 추출된 최적 조건에 부합하는 운동을 하도록 상기 3차원 영상 보조 항법 장치가 설치된 비행체를 제어하는 자세 제어부;
    를 포함하는 유도 제어 장치.
    Figure pat00085

    여기서,
    Figure pat00086
    이고,
    Figure pat00087
    이며,
    Figure pat00088
    이고,
    Figure pat00089
    이며,
    Figure pat00090
    이고,
    Figure pat00091
    이며,
    Figure pat00092
    이고,
    Figure pat00093
    이며,
    Figure pat00094
    이고,
    Figure pat00095
    은 과거 위치 M1에서의 고각이며,
    Figure pat00096
    는 과거 위치 M1에서의 방위각이고,
    Figure pat00097
    는 현재 위치 M2에서의 고각이며,
    Figure pat00098
    는 현재 위치 M2에서의 방위각이고,
    Figure pat00099
    Figure pat00100
    는 영상 센서의 시선각 측정 오차이며,
    Figure pat00101
    Figure pat00102
    의 우측 아래 첨자의 각 숫자 1, 2는 과거 위치와 현재 위치를 나타낸다.
  5. 비행체에 설치된 영상 센서에서 위치 정보 T를 알고 있는 지상 목표물을 촬영하는 단계;
    3차원 영상 보조 항법 장치에서 상기 T에 대한 상기 영상 센서의 두 지점(과거 위치 M1, 현재 위치 M2)에서의 시선각 측정치를 통해 산출한 삼각평면 M1M2T의 내각 λ1, λ21과 상기 두 지점 간 거리
    Figure pat00103
    로부터 현재 위치 M2와 상기 T까지의 거리 RP를 산출하는 단계; 및
    관성 항법 장치에서 산출된 현재 위치 G2와 상기 T 및 상기 RP를 이용해 상기 3차원 영상 보조 항법 장치에서 상기 G2와 상기 M2의 위치 정보 오차
    Figure pat00104
    를 다음의 수학식에 의해 산출하는 단계;
    를 포함하는 3차원 영상 보조 항법.
    Figure pat00105

    여기서,
    Figure pat00106
    는 상기 M2를 시작점으로 하고 상기 T를 끝점으로 하는 벡터의 단위 벡터이다.
  6. 제 5 항에 있어서,
    유도 제어 장치에서 상기 산출된
    Figure pat00107
    의 자체 오차 δRP를 다음의 수학식에 의해 산출하고, 상기 δRP를 최소화하는 상기
    Figure pat00108
    산출에 사용되는 각 인자들의 최적 조건을 추출하는 단계; 및
    상기 유도 제어 장치에서 상기 추출된 최적 조건에 부합하는 운동을 하도록 상기 비행체를 제어하는 단계;를 포함하는 것을 특징으로 하는 3차원 영상 보조 항법.
    Figure pat00109

    여기서,
    Figure pat00110
    이고,
    Figure pat00111
    이며,
    Figure pat00112
    이고,
    Figure pat00113
    이며,
    Figure pat00114
    이고,
    Figure pat00115
    이며,
    Figure pat00116
    이고,
    Figure pat00117
    이며,
    Figure pat00118
    이고,
    Figure pat00119
    은 과거 위치 M1에서의 고각이며,
    Figure pat00120
    는 과거 위치 M1에서의 방위각이고,
    Figure pat00121
    는 현재 위치 M2에서의 고각이며,
    Figure pat00122
    는 현재 위치 M2에서의 방위각이고,
    Figure pat00123
    Figure pat00124
    는 영상 센서의 시선각 측정 오차이며,
    Figure pat00125
    Figure pat00126
    의 우측 아래 첨자의 각 숫자 1, 2는 과거 위치와 현재 위치를 나타낸다.
KR1020100132412A 2010-12-22 2010-12-22 3차원 영상 보조 항법 장치 및 이를 이용한 관성 항법 시스템 KR101208448B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100132412A KR101208448B1 (ko) 2010-12-22 2010-12-22 3차원 영상 보조 항법 장치 및 이를 이용한 관성 항법 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100132412A KR101208448B1 (ko) 2010-12-22 2010-12-22 3차원 영상 보조 항법 장치 및 이를 이용한 관성 항법 시스템

Publications (2)

Publication Number Publication Date
KR20120070891A true KR20120070891A (ko) 2012-07-02
KR101208448B1 KR101208448B1 (ko) 2012-12-05

Family

ID=46706065

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100132412A KR101208448B1 (ko) 2010-12-22 2010-12-22 3차원 영상 보조 항법 장치 및 이를 이용한 관성 항법 시스템

Country Status (1)

Country Link
KR (1) KR101208448B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180085300A (ko) * 2017-01-18 2018-07-26 국방기술품질원 표적 정보 산출 장치, 그 방법 및 이를 포함하는 비행 제어 시스템
KR20190049086A (ko) * 2017-11-01 2019-05-09 주식회사 두시텍 무인기 고속비행 중 정밀위치 영상 획득 장치 및 그를 이용한 정밀위치 획득 방법
WO2020220284A1 (zh) * 2019-04-30 2020-11-05 深圳市大疆创新科技有限公司 一种瞄准控制方法、移动机器人及计算机可读存储介质
KR102226256B1 (ko) * 2020-12-24 2021-03-10 한화시스템(주) 자동 시선각 보정이 가능한 이동형 시스템에 탑재되는 전자광학추적장치 및 그 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109238277B (zh) * 2018-08-01 2020-10-27 清华大学 视觉惯性数据深度融合的定位方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100898169B1 (ko) 2007-03-23 2009-05-19 국방과학연구소 관성항법시스템의 초기정렬 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180085300A (ko) * 2017-01-18 2018-07-26 국방기술품질원 표적 정보 산출 장치, 그 방법 및 이를 포함하는 비행 제어 시스템
KR20190049086A (ko) * 2017-11-01 2019-05-09 주식회사 두시텍 무인기 고속비행 중 정밀위치 영상 획득 장치 및 그를 이용한 정밀위치 획득 방법
WO2020220284A1 (zh) * 2019-04-30 2020-11-05 深圳市大疆创新科技有限公司 一种瞄准控制方法、移动机器人及计算机可读存储介质
KR102226256B1 (ko) * 2020-12-24 2021-03-10 한화시스템(주) 자동 시선각 보정이 가능한 이동형 시스템에 탑재되는 전자광학추적장치 및 그 방법

Also Published As

Publication number Publication date
KR101208448B1 (ko) 2012-12-05

Similar Documents

Publication Publication Date Title
KR101193115B1 (ko) 3d 전자 지도 시스템
EP3158417B1 (en) Sensor fusion using inertial and image sensors
EP3158293B1 (en) Sensor fusion using inertial and image sensors
KR101208448B1 (ko) 3차원 영상 보조 항법 장치 및 이를 이용한 관성 항법 시스템
EP3158411B1 (en) Sensor fusion using inertial and image sensors
EP3081902A1 (en) Method and apparatus for correcting aircraft state in real time
US10078339B2 (en) Missile system with navigation capability based on image processing
EP1975646A2 (en) Lader-based motion estimation for navigation
US8245623B2 (en) Weapons system and targeting method
KR101017606B1 (ko) 단일영상을 이용한 자세각센서 삼차원 오정렬 보정방법
GB2446713A (en) Image feature motion estimation based in part on inertial measurement data
EP2940508A1 (en) Borescope and navigation method thereof
EP2322902B1 (en) System and method for determining heading
Caballero et al. Improving vision-based planar motion estimation for unmanned aerial vehicles through online mosaicing
KR101823774B1 (ko) 동체 고정형 영상탐색기 기반의 적응 유도필터를 이용한 표적의 기하 정보 추정 방법
EP3051255B1 (en) Survey data processing device, survey data processing method, and program therefor
CN109143303B (zh) 飞行定位方法、装置及固定翼无人机
Dong et al. An autonomous navigation scheme for UAV in approach phase
US20180164122A1 (en) Electronic Control Device for Controlling a Drone, Related Drone, Controlling Method and Computer Program
KR101957662B1 (ko) 표적 정보 산출 장치, 그 방법 및 이를 포함하는 비행 제어 시스템
CN112902957B (zh) 一种弹载平台导航方法及系统
EP3868594B1 (en) Display system, display device and display control method
JP6890759B2 (ja) 飛行経路案内システム、飛行経路案内装置及び飛行経路案内方法
Kim et al. Vision coupled GPS/INS scheme for helicopter navigation
US20200124379A1 (en) Imuless flight control system

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160519

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20161102

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20171102

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20181102

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20191015

Year of fee payment: 8