KR20240030070A - 인공위성 영상획득을 위한 지상표적 정밀 지향 방법 및 장치 - Google Patents

인공위성 영상획득을 위한 지상표적 정밀 지향 방법 및 장치 Download PDF

Info

Publication number
KR20240030070A
KR20240030070A KR1020220108627A KR20220108627A KR20240030070A KR 20240030070 A KR20240030070 A KR 20240030070A KR 1020220108627 A KR1020220108627 A KR 1020220108627A KR 20220108627 A KR20220108627 A KR 20220108627A KR 20240030070 A KR20240030070 A KR 20240030070A
Authority
KR
South Korea
Prior art keywords
satellite
time
ground
nearest
predicted
Prior art date
Application number
KR1020220108627A
Other languages
English (en)
Inventor
이선호
Original Assignee
한국항공우주연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국항공우주연구원 filed Critical 한국항공우주연구원
Priority to KR1020220108627A priority Critical patent/KR20240030070A/ko
Priority to US18/450,037 priority patent/US20240067364A1/en
Priority to EP23192792.2A priority patent/EP4332003A1/en
Publication of KR20240030070A publication Critical patent/KR20240030070A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/10Artificial satellites; Systems of such satellites; Interplanetary vehicles
    • B64G1/1021Earth observation satellites
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • B64G1/244Spacecraft control systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/10Artificial satellites; Systems of such satellites; Interplanetary vehicles
    • B64G1/1021Earth observation satellites
    • B64G1/1028Earth observation satellites using optical means for mapping, surveying or detection, e.g. of intelligence
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/10Artificial satellites; Systems of such satellites; Interplanetary vehicles
    • B64G1/1021Earth observation satellites
    • B64G1/1035Earth observation satellites using radar for mapping, surveying or detection, e.g. of intelligence
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • B64G1/242Orbits and trajectories
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/08Control of attitude, i.e. control of roll, pitch, or yaw
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Astronomy & Astrophysics (AREA)
  • Automation & Control Theory (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 인공위성 영상획득을 위한 지상표적 정밀 지향 방법 및 장치에 관한 것으로, 본 발명에 따른 방법은 지상국으로부터 촬영희망 위성위치(P)를 수신하고, 지상국으로부터 지상계획 촬영시각(T) 또는 알고리즘 실행시각(TA)을 수신하는 단계 - 지상계획 촬영시각(T)은 지상기반 궤도전파기에서 촬영희망 위성위치(P)에 대응하여 계산되고, 알고리즘 실행시각(TA)은 지상계획 촬영시각(T)보다 미리 정해진 시간만큼 앞으로 설정됨 - ; 촬영희망 위성위치(P)와 위성기반 궤도전파기에서 출력되는 예측 위성위치(Q)의 차를 이용하여 계산되는 위치 오차(E)에 기초하여, 인공위성이 촬영희망 위성위치(P)에 가장 근접할 때에 대응하는 최근접 위성위치(QC) 및 최근접 위성시각(TC)을 결정하는 단계; 및 인공위성의 영상 촬영 탑재체의 시선 벡터를 최근접 위성위치(QC)에서 지상표적으로 지향시키기 위한 보정 기동자세()를 결정하는 단계; 를 포함한다.

Description

인공위성 영상획득을 위한 지상표적 정밀 지향 방법 및 장치{Method and Apparatus for Ground Target Precision Orientation for Satellite Image Acquisition}
본 발명은 인공위성 영상획득을 위한 지상표적 정밀 지향 방법 및 장치에 관한 것이다.
위성을 관제하는 지상국은 영상획득 임무를 계획하기 위해 지상기반 궤도전파기를 이용하여 일정기간 미래의 위성 궤도를 예측한다.
저궤도(고도 500~700 km) 위성의 경우, 지상기반 궤도전파기의 성능한계로 인해 위성 진행방향(Along Track)으로 궤도예측 오차가 발생한다(예를 들어, 하루 지나면 200 m 위치 오차 발생하고, 이틀 지나면 1 km 위치 오차 발생하며, 이후 기하급수적으로 증가한다).
초저궤도(고도 200~300 km) 위성의 경우, 대기 저항의 증가로 인해 저궤도 보다 큰 값의 궤도 예측 오차 발생한다. 더욱이 진행 방향(1축)이 아닌 3축 방향으로 발생하여 임무 계획 및 운영시 심각한 문제를 초래한다.
도 1은 종래 지상기반 궤도전파기를 이용하여 수립된 촬영 계획으로 인공위성에서 지상 표적 촬영 시 발생하는 문제점을 설명하기 위한 도면이다.
도 1을 참고하면, 먼저 지상국은 촬영희망 위성위치(P)를 입력받고, 지상기반 궤도 전파기를 이용하여 촬영희망 위성위치(P)에 해당하는 지상계획 촬영시각(T)을 계산할 수 있다. 촬영희망 위성위치(P)은 지상기반 예측궤도에서 희망 촬영 지역을 촬영할 수 있도록 정해진 위치이다.
다음으로 지상국은 인공위성에 지상계획 촬영시각(T)을 전송하면, 인공위성에 탑재된 영상 촬영 탑재체는 지상계획 촬영시각(T)에 지상표적 촬영을 시작하여 영상을 획득한다.
그런데 지상기반 예측궤도는 궤도 예측 오차가 발생하므로 도 1에 예시한 것과 같이 지상계획 촬영시각(T)에 실제로는 위치(P')에 위치하게 된다. 따라서 희망 촬영 지역과 실제 촬영 지역에 불일치가 발생한다.
본 발명이 해결하고자 하는 기술적 과제는 인공위성 광학카메라 또는 영상레이더 탑재체를 통한 영상획득에 있어 원하는 지상 표적을 정밀하게 지향하기 위한 방법 및 장치를 제공하는 것이다.
상기한 기술적 과제를 해결하기 위한 본 발명에 따른 방법은 지상국으로부터 촬영희망 위성위치(P)를 수신하고, 상기 지상국으로부터 지상계획 촬영시각(T) 또는 알고리즘 실행시각(TA)을 수신하는 단계 - 상기 지상계획 촬영시각(T)은 지상기반 궤도전파기에서 상기 촬영희망 위성위치(P)에 대응하여 계산되고, 상기 알고리즘 실행시각(TA)은 상기 지상계획 촬영시각(T)보다 미리 정해진 시간만큼 앞으로 설정됨 - ; 상기 촬영희망 위성위치(P)와 위성기반 궤도전파기에서 출력되는 예측 위성위치(Q)의 차를 이용하여 계산되는 위치 오차(E)에 기초하여, 인공위성이 상기 촬영희망 위성위치(P)에 가장 근접할 때에 대응하는 최근접 위성위치(QC) 및 최근접 위성시각(TC)을 결정하는 단계; 및 상기 인공위성의 영상 촬영 탑재체의 시선 벡터를 상기 최근접 위성위치(QC)에서 지상표적으로 지향시키기 위한 보정 기동자세()를 결정하는 단계; 를 포함한다.
상기 위성기반 궤도전파기는 상기 알고리즘 실행시각(TA)의 인공위성 위치(PA) 및 속도(VA), 그리고 촬영대기 시간(W)을 입력받아 상기 알고리즘 실행시각(TA)에서 상기 촬영대기 시간(W)만큼 경과한 시점에 상기 인공위성의 위치로서 상기 예측 위성위치(Q)를 출력할 수 있다.
상기 최근접 위성위치(QC) 및 최근접 위성시각(TC)을 결정하는 단계는, ΔT·i를 i번째 촬영대기 시간(W(i))으로 계산하는 단계 - 여기서 i는 자연수이고, ΔT는 미리 정해진 촬영대기 시간 증가분임 -; 상기 인공위성 궤도전파기에서 i번째 촬영대기 시간(W(i)), 상기 알고리즘 실행시각(TA)의 인공위성 위치(PA) 및 속도(VA)를 입력받아 i번째 예측 위성위치(Q(i))를 계산하는 단계; 상기 i번째 예측 위성위치(Q(i))와 상기 촬영희망 위성위치(P)의 차에 대응하는 i번째 위치 오차(E(i))를 계산하는 단계; 및 상기 i번째 위치 오차(E(i))와 i-1번째 위치 오차(E(i-1))의 크기를 비교하는 단계; 를 상기 i번째 위치 오차(E(i))가 i-1번째 위치 오차(E(i-1))보다 커질 때까지 i를 '1'부터 '1'씩 증가하면서 반복할 수 있다.
상기 최근접 위성위치(QC) 및 최근접 위성시각(TC)을 결정하는 단계는, 상기 계산된 촬영대기 시간(W(i))과 예측 위성위치(Q(i))를 이용하여 상기 최근접 위성위치(QC) 및 최근접 위성시각(TC)을 계산하는 단계를 더 포함할 수 있다.
상기 최근접 위성위치(QC) 및 최근접 위성시각(TC)은, 수학식
에 의해 계산될 수 있다.
상기 최근접 위성위치(QC) 및 최근접 위성시각(TC)은, 상기 계산된 촬영대기 시간(W(i))과 예측 위성위치(Q(i))에 비선형 보간법 또는 정밀 필터링 기법을 적용하여 계산될 수도 있다.
상기 보정 기동자세(, )는 기동 축 벡터()와 기동 각도()로 구성될 수 있다.
기동 축 벡터()는 수학식 으로 구해질 수 있다.
기동 각도()는 상기 지상표적이 상기 인공위성의 직하점에 위치한 경우, 수학식 으로 구해질 수 있다.
기동 각도()는 상기 지상표적이 상기 인공위성의 직하점에서 오프셋 각도 β만큼 이격을 가지고 위치한 경우, 수학식 으로 구해질 수 있다.
여기서 h는 상기 알고리즘 실행시각(TA)에 획득된 인공위성의 위치(PA)로부터 지표면까지 거리일 수 있다.
상기 보정 기동자세(, )는, 지구 곡률 및 상기 위성기반 궤도전파기에서 예측되는 상기 인공위성의 괘도 곡률을 반영하여 구해질 수도 있다.
상기한 기술적 과제를 해결하기 위한 본 발명에 따른 장치는 지상국으로부터 촬영희망 위성위치(P)를 수신하고, 상기 지상국으로부터 지상계획 촬영시각(T) 또는 알고리즘 실행시각(TA)을 수신하는 통신부 - 상기 지상계획 촬영시각(T)은 지상기반 궤도전파기에서 상기 촬영희망 위성위치(P)에 대응하여 계산되고, 상기 알고리즘 실행시각(TA)은 상기 지상계획 촬영시각(T)보다 미리 정해진 시간만큼 앞으로 설정됨 - ; 및 상기 촬영희망 위성위치(P)와 위성기반 궤도전파기에서 출력되는 예측 위성위치(Q)의 차를 이용하여 계산되는 위치 오차(E)에 기초하여, 인공위성이 상기 촬영희망 위성위치(P)에 가장 근접할 때에 대응하는 최근접 위성위치(QC) 및 최근접 위성시각(TC)을 결정하고, 상기 인공위성의 영상 촬영 탑재체의 시선 벡터를 상기 최근접 위성위치(QC)에서 지상표적으로 지향시키기 위한 보정 기동자세()를 결정하는 프로세서; 를 포함할 수 있다.
본 발명에 의하면 인공위성 광학카메라 또는 영상레이더 탑재체를 통한 영상획득에 있어 원하는 지상 표적을 정밀하게 지향할 수 있다.
도 1은 종래 지상기반 궤도전파기를 이용하여 수립된 촬영 계획으로 인공위성에서 지상 표적 촬영 시 발생하는 문제점을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 인공위성 영상획득 시스템의 구성을 나타낸 블록도이다.
도 3은 본 발명의 일 실시예에 따른 인공위성 영상획득 절차를 예시한 도면이다.
도 4는 본 발명에 따른 최근접 위치 및 시각 결정 알고리즘의 동작 순서를 나타낸 흐름도이다.
도 5는 본 발명에 따른 최근접 위치 및 시각 결정 알고리즘의 개념을 설명하기 위해 제공되는 도면이다.
도 6은 본 발명의 일 실시예에 따라 계산된 최근접 위성위치 및 최근접 촬영시각을 도식적으로 나타낸 도면이다.
도 7은 본 발명의 일 실시예에 따른 인공위성 보정 기동자세 계산을 개념적으로 나타낸 도면이다.
도 8은 지상표적이 인공위성의 직하점에 위치한 경우 본 발명에 따른 기동 각도를 구하는 개념을 설명하기 위해 제공되는 도면이다.
도 9는 지상표적이 인공위성의 직하점에서 오프셋 각도만큼 이격을 가지고 위치한 경우 본 발명에 따른 기동 각도를 구하는 개념을 설명하기 위해 제공되는 도면이다.
그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.
먼저 본 명세서에서 사용되는 용어와 부호에 대해서 설명한다.
궤도전파기(Orbit Propagator)는 위성 궤도모델과 관측데이터를 융합(Fusion)하여 궤도상 가까운 미래의 위성 위치 및 속도를 예측하는 소프트웨어(SW)이다.
지상기반 궤도전파기는 지상국에 구현된 위성궤도 예측 SW이다.
지상기반 예측궤도는 지상기반 궤도전파기에서 예측된 일정기간 미래의 위성궤도이며, 통상 예측기간은 1 ~ 2일 내외이다.
위성기반 궤도전파기는 인공위성에 탑재된 위성궤도 예측 SW이다.
위성기반 예측궤도는 위성기반 궤도전파기에서 예측된 일정기간 미래의 위성궤도이며, 통상 예측기간은 1~2분 내외로 실제궤도와 거의 동일한 것으로 평가된다.
위성측위시스템(GNSS) 수신기는 인공위성에 탑재된 하드웨어(HW) 장치로서 인공위성의 위치 및 속도 정보를 제공한다. 여기서 GNSS(Global Navigation Satellite System)는 미국 GPS(Global Positioning System), 러시아 GLONASS(Global Navigation Satellite System), 유럽 GALILEO(European Navigation System) 등으로 구성될 수 있으며 특정한 것으로 한정하지는 않는다.
촬영희망 위성위치(P)는 지상기반 예측궤도에서 지상표적을 촬영하기 위한 위성 위치로서 지상국에서 계획될 수 있다.
지상계획 촬영시각(T)는 지상기반 예측궤도에서 촬영희망 위성위치(P)의 시각으로 지상국에서 계획될 수 있다.
알고리즘 실행시각(TA)은 최근접 위치 및 시각 결정 알고리즘과 보정 기동자세 결정 알고리즘을 실행하는 시각일 수 있다. 단 인공위성에서 영상을 획득하기 전에 알고리즘 수행을 위해서 알고리즘 실행시각(TA)은 반드시 지상계획 촬영시각(T) 보다 빠른 시각으로 설정된다. 즉 TA < T 로 설정되어야 한다.
알고리즘 실행 시점의 위성 위치(PA) 및 위성속도(VA)는 알고리즘 실행시각(TA)에 인공위성에 탑재된 위성 측위 시스템(GNSS) 수신기로부터 획득한 위성의 궤도 상 위치와 속도이다.
촬영대기 시간(W)은 알고리즘 실행시각(TA) 기준으로부터 인공위성에서 임의의 미래 촬영시각까지 대기 시간을 나타낸다.
예측 위성위치(Q)는 위성기반 예측궤도에서 알고리즘 실행시각(TA) 기준으로부터 촬영대기 시간(W) 경과한 시점에서 인공위성의 위치를 나타낸다.
최근접 위성위치(QC)는 위성기반 예측궤도에서 촬영희망 위성위치(P)와 가장 근접한 인공위성의 위치를 나타낸다.
최근접 촬영시각(TC)는 위성기반 예측궤도에서 인공위성이 최근접 위성위치(QC)에서의 시각을 나타낸다.
최근접 촬영대기 시간(WC)은 알고리즘 실행시각(TA) 기준으로부터 최근접 쵤영시각(TC)까지 대기 시간을 나타낸다.
보정 기동자세()는 인공위성의 영상 촬영 탑재체의 시선벡터를 지상표적으로 지향하기 위한 보정 기동자세로서 기동 축 벡터()와 기동 각도()로 구성된다. 보정 기동자세()를 이용하면 인공위성에 대한 자세기동 명령을 구성하는 쿼터니언(Quaternion), 오일러각(Euler Angles), 방향코사인행렬(Direction Cosine Matrix) 등을 구할 수 있다.
위성 고도(h)는 지표면에서 인공위성까지 거리이며, 알고리즘 실행시점 위성위치(PA)를 이용하여 계산 가능하다.
도 2는 본 발명의 일 실시예에 따른 인공위성 영상획득 시스템의 구성을 나타낸 블록도이다.
도 2를 참고하면, 지상국(100)은 지상기반 궤도전파기(110)를 포함할 수 있다.
지상국(100)은 인공위성(200)과 위성 통신을 수행하는 통신 장치(도시하지 않음)를 구비하고, 인공위성(200)과 각종 정보, 명령 및 데이터를 교환할 수 있다.
지상기반 궤도전파기(110)는 지상국(100)에 구현되어 위성 궤도모델과 관측데이터를 융합하여 궤도상 가까운 미래의 위성 위치 및 속도를 예측하는 소프트웨어(SW)로 구현할 수 있다.
인공위성(200)은 통신부(210), 컴퓨팅 장치(220), 위성기반 궤도전파기(230), 위성측위시스템 수신기(240) 및 영상 촬영 탑재체(250)를 포함할 수 있다.
통신부(210)는 인공위성(200)이 지상국(100)과 위성 통신을 통해 무선으로 각종 정보 및 데이터를 교환할 수 있게 한다.
컴퓨팅 장치(220)는 적어도 하나의 메모리 및 적어도 하나의 프로세서를 포함할 수 있다. 적어도 하나의 메모리는 적어도 하나 이상의 인스트럭션(Instruction)을 저장할 수 있다. 또한 메모리는 컴퓨팅 장치(220)에서 최근접 위치 및 시각 결정 알고리즘과 보정 기동자세 결정 알고리즘과 관련된 각종 작업에 이용되는 데이터를 저장할 수 있다. 적어도 하나의 프로세서는 메모리에 저장된 인스트럭션에 대응하는 프로세스를 실행할 수 있다.
위성기반 궤도전파기(230)는 인공위성(200)에 구현되어 위성 궤도모델과 관측데이터를 융합하여 궤도상 가까운 미래의 위성 위치 및 속도를 예측하는 소프트웨어(SW)로 구현할 수 있다.
위성측위시스템 수신기(240)는 인공위성(200)에 탑재되어 GNSS 기반으로 인공위성의 위치 및 속도 등을 측정할 수 있는 장치로 구현할 수 있다.
영상 촬영 탑재체(250)는 광학 카메라, 전자 광학 카메라, 적외선 카메라, 영상 레이더 등과 같이 지상을 촬영하여 영상을 획득할 수 있는 장치로 구현할 수 있다.
도 3은 본 발명의 일 실시예에 따른 인공위성 영상획득 절차를 예시한 도면이다.
도 2 및 도 3을 참고하면, 먼저 지상국(100)은 외부 장치 또는 지상국 운용자로부터 촬영희망 위성위치(P)를 입력받을 수 있다(S300).
지상국(100)은 지상기반 궤도전파기(110)를 이용하여 지상기반 예측궤도에서 촬영희망 위성위치(P)에 대응하는 지상계획 촬영시각(T)을 계산할 수 있다(S310). 그리고 지상국(100)은 알고리즘 실행시각(TA)을 지상계획 촬영시각(T)보다 미리 정해진 시간만큼 앞으로 설정할 수 있다(S320). 여기서 미리 정해진 시간은 알고리즘 실행시각(TA)부터 인공위성에서 최근접 위성위치(QC), 최근접 촬영시각(TC) 및 보정 기동자세()에 대한 계산을 마치고, 영상 촬영 탑재체(250)의 시선 벡터를 최근접 위성위치(QC)에서 지상표적으로 지향시키기 위한 인공위성 기동까지 모두 마치는데 충분한 시간으로 설정될 수 있다. 다음으로 지상국(100)은 인공위성에 촬영희망 위성위치(P)와 알고리즘 실행시각(TA)을 전송할 수 있다(S330).
실시예에 따라서 지상국(100)은 단계(S320)를 생략할 수도 있다. 이 경우 단계(S330)에서 지상국(100)은 알고리즘 실행시각(TA) 대신에 지상계획 촬영시각(T)을 인공위성에 전송할 수 있다. 그리고 컴퓨팅 장치(220)에서 지상계획 촬영시각(T)보다 미리 정해진 시간만큼 앞으로 알고리즘 실행시각(TA)을 설정할 수도 있다.
이후 컴퓨팅 장치(220)는 현재 시각이 알고리즘 실행시각(TA)이 되면(S340-Y), 최근접 위치 및 시각 결정 알고리즘을 실행하여 촬영희망 위성위치(P)와 예측 위성위치(Q)의 차를 이용하여 계산되는 위치 오차(E)에 기초하여, 인공위성이 촬영희망 위성위치(P)에 가장 근접할 때에 대응하는 최근접 위성위치(QC) 및 최근접 위성시각(TC)을 결정할 수 있다(S350).
예측 위성위치(Q)는 위성기반 궤도전파기(230)에서 출력된다. 보다 자세하게는 위성기반 궤도전파기(230)는 알고리즘 실행시각(TA)의 인공위성 위치(PA) 및 속도(VA), 그리고 촬영대기 시간(W)을 입력받아, 알고리즘 실행시각(TA)에서 촬영대기 시간(W)만큼 경과한 시점에 위성기반 예측 궤도에서 인공위성의 위치를 예측 위성위치(Q)로서 출력한다. 인공위성 위치(PA) 및 속도(VA)는 위성측위시스템 수신기(240)에서 제공된다.
도 4는 본 발명에 따른 최근접 위치 및 시각 결정 알고리즘의 동작 순서를 나타낸 흐름도이고, 도 5는 본 발명에 따른 최근접 위치 및 시각 결정 알고리즘의 개념을 설명하기 위해 제공되는 도면이다.
도 4를 참고하면, 먼저 컴퓨팅 장치(220)는 최근접 위치 및 시각 결정 알고리즘의 반복 횟수(i)를 i = 1으로 초기화 할 수 있다(S351).
다음으로 컴퓨팅 장치(220)는 ΔT·i를 i번째 촬영대기 시간(W(i))으로 계산할 수 있다(S352). 여기서 i는 자연수이고, ΔT는 미리 정해진 촬영대기 시간 증가분이다.
컴퓨팅 장치(220)는 인공위성 궤도전파기(230)에 i번째 촬영대기 시간(W(i)), 알고리즘 실행시각(TA)에 위성측위시스템 수신기(240)에서 제공되는 인공위성 위치(PA) 및 속도(VA)를 입력하여 i번째 예측 위성위치(Q(i))를 계산할 수 있다(S353).
다음으로 컴퓨팅 장치(220)는 i번째 예측 위성위치(Q(i))와 촬영희망 위성위치(P)의 차에 대응하는 i번째 위치 오차(E(i))를 계산할 수 있다(S354). 위치 오차(E(i))는 수학식 에 의해 계산할 수 있다. 여기서 ∥ ∥는 벡터의 크기(Magnitude)를 나타낸다.
이후 컴퓨팅 장치(220)는 i번째 위치 오차(E(i))와 i-1번째 위치 오차(E(i-1))의 크기를 비교하여 위치 오차의 증가 여부를 확인할 수 있다(S355).
도 5를 참고하면, E(i) > E(i-1)이면, 위성기반 예측궤도에서 Q(i)와 Q(i-1) 사이에 최근접 위성위치(QC)가 존재함을 알 수 있다.
따라서 만약 E(i) ≤ E(i-1)인 경우(S355-N), 예측 위성위치(Q(i))가 최근접 위성위치(QC)에 미도달한 것으로 판단하고, i를 1 증가시킨 후(S356), 다시 단계(S352) 내지 단계(S355)를 반복한다.
한편 만약 E(i) > E(i-1)인 경우(S355-Y), 예측 위성위치(Q(i))가 최근접 위성위치(QC)에 도달한 것으로 판단하고, 앞서 계산된 촬영대기 시간(W(i))과 예측 위성위치(Q(i))를 이용하여 최근접 위성위치(QC) 및 최근접 위성시각(TC)을 계산할 수 있다(S357).
단계(S357)에서 최근접 위성위치(QC) 및 최근접 위성시각(TC)은 아래 수학식에 의해 계산할 수 있다.
한편 실시예에 따라서 보다 정밀한 최근접 위성위치(QC) 및 최근접 촬영대기 시간(WC)을 추정하기 위해서 선형 평균값이 아닌 비선형 보간법 또는 정밀 필터링 기법 등을 적용하는 것도 가능하다.
도 6은 본 발명의 일 실시예에 따라 계산된 최근접 위성위치 및 최근접 촬영시각을 도식적으로 나타낸 도면이다.
도 6을 참고하면, 알고리즘 실행시각(TA)으로부터 촬영대기 시간(Wc) 경과 후에 인공위성이 위성기반 예측궤도에서 촬영희망 위성위치(P)에 가장 근접한 최근접 위성위치(QC)에 위치하는 것을 나타낸다. 그런데 알고리즘 실행시각(TA)의 영상 촬영 탑재체(250)의 시선 벡터를 그대로 유지하면, 최근접 위성위치(QC)에서 영상 촬영 탑재체(250)의 시선 벡터(10)가 지상표적을 지향하지 못하는 것을 확인할 수 있다.
따라서 컴퓨팅 장치(220)는 영상 촬영 탑재체(250)의 시선 벡터를 최근접 위성위치(QC)에서 지상표적으로 지향시키기 위한 보정 기동자세()를 결정할 수 있다(S360).
도 7은 본 발명의 일 실시예에 따른 인공위성 보정 기동자세 계산을 개념적으로 나타낸 도면이다.
도 6 및 도 7을 참고하면, 단계(S360)에서 보정 기동자세(, )는 기동 축 벡터()와 기동 각도()로 구성될 수 있다.
기동 축 벡터()는 수학식 으로 구해질 수 있다. 알고리즘 실행시각(TA)의 인공위성의 기동 축 벡터와 최근접 위성위치(QC)에서 기동 축 벡터의 차이는 영상 촬영 탑재체(250)의 시선 벡터를 계산할 때 무시하여도 좋을 정도로 작다. 따라서 알고리즘 실행시각(TA)에서 기동 축 벡터를 최근접 위성위치(QC)에서 기동 축 벡터로 간주하고 계산할 수 있다.
기동 각도()는 시선 벡터(10)와 시선 벡터(20)가 이루는 각도이다.
여기서 h는 알고리즘 실행시각(TA)에 획득된 인공위성의 위치(PA)로부터 지표면까지 거리로 계산될 수 있다.
도 8은 지상표적이 인공위성의 직하점에 위치한 경우 본 발명에 따른 기동 각도를 구하는 개념을 설명하기 위해 제공되는 도면이다.
도 8을 참고하면, D, P, Qc, h 및 θ사이에 아래 수학식의 관계가 성립한다.
따라서 기동 각도()는 지상표적이 인공위성의 직하점에 위치한 경우, 수학식 으로 구해질 수 있다.
도 9는 지상표적이 인공위성의 직하점에서 오프셋 각도만큼 이격을 가지고 위치한 경우 본 발명에 따른 기동 각도를 구하는 개념을 설명하기 위해 제공되는 도면이다.
도 9를 참고하면, D, P, Qc, h, β, d 및 θ 사이에 아래 수학식의 관계가 성립한다.
따라서 기동 각도()는 지상표적이 인공위성의 직하점에서 오프셋 각도 β만큼 이격을 가지고 위치한 경우, 수학식 으로 구해질 수 있다.
도 8 및 도 9에서 예시한 것보다 정밀한 보정 기동자세() 값을 계산하기 위해서 위성기반 궤도전파기에서 예측되는 궤도 곡률, 지구 곡률 등을 고려할 수 있다.
다시 도 3을 참고하면, 인공위성(200)은 최근접 촬영시각(TC) 이전까지 앞서 계산된 보정 기동자세()에 따라 위성 자세기동을 수행하여 최근접 위성위치(QC)에서 영상 촬영 탑재체(250)의 시선 벡터가 지상표적을 지향하게 할 수 있다(S370).
이후 인공위성(200)은 최근접 촬영시각(TC)에 최근접 위성위치(QC)에서 지상표적을 촬영하여 영상을 획득할 수 있다(S380).
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.

Claims (15)

  1. 지상국으로부터 촬영희망 위성위치(P)를 수신하고, 상기 지상국으로부터 지상계획 촬영시각(T) 또는 알고리즘 실행시각(TA)을 수신하는 단계 - 상기 지상계획 촬영시각(T)은 지상기반 궤도전파기에서 상기 촬영희망 위성위치(P)에 대응하여 계산되고, 상기 알고리즘 실행시각(TA)은 상기 지상계획 촬영시각(T)보다 미리 정해진 시간만큼 앞으로 설정됨 - ;
    상기 촬영희망 위성위치(P)와 위성기반 궤도전파기에서 출력되는 예측 위성위치(Q)의 차를 이용하여 계산되는 위치 오차(E)에 기초하여, 인공위성이 상기 촬영희망 위성위치(P)에 가장 근접할 때에 대응하는 최근접 위성위치(QC) 및 최근접 위성시각(TC)을 결정하는 단계; 및
    상기 인공위성의 영상 촬영 탑재체의 시선 벡터를 상기 최근접 위성위치(QC)에서 지상표적으로 지향시키기 위한 보정 기동자세()를 결정하는 단계;
    를 포함하고,
    상기 위성기반 궤도전파기는 상기 알고리즘 실행시각(TA)의 인공위성 위치(PA) 및 속도(VA), 그리고 촬영대기 시간(W)을 입력받아 상기 알고리즘 실행시각(TA)에서 상기 촬영대기 시간(W)만큼 경과한 시점에 상기 인공위성의 위치로서 상기 예측 위성위치(Q)를 출력하는 인공위성 영상획득을 위한 지상표적 정밀 지향 방법.
  2. 제 1 항에서,
    상기 최근접 위성위치(QC) 및 최근접 위성시각(TC)을 결정하는 단계는,
    ΔT·i를 i번째 촬영대기 시간(W(i))으로 계산하는 단계 - 여기서 i는 자연수이고, ΔT는 미리 정해진 촬영대기 시간 증가분임 -;
    상기 인공위성 궤도전파기에서 i번째 촬영대기 시간(W(i)), 상기 알고리즘 실행시각(TA)의 인공위성 위치(PA) 및 속도(VA)를 입력받아 i번째 예측 위성위치(Q(i))를 계산하는 단계;
    상기 i번째 예측 위성위치(Q(i))와 상기 촬영희망 위성위치(P)의 차에 대응하는 i번째 위치 오차(E(i))를 계산하는 단계; 및
    상기 i번째 위치 오차(E(i))와 i-1번째 위치 오차(E(i-1))의 크기를 비교하는 단계;
    를 상기 i번째 위치 오차(E(i))가 i-1번째 위치 오차(E(i-1))보다 커질 때까지 i를 '1'부터 '1'씩 증가하면서 반복하는 인공위성 영상획득을 위한 지상표적 정밀 지향 방법.
  3. 제 2 항에서,
    상기 최근접 위성위치(QC) 및 최근접 위성시각(TC)을 결정하는 단계는,
    상기 계산된 촬영대기 시간(W(i))과 예측 위성위치(Q(i))를 이용하여 상기 최근접 위성위치(QC) 및 최근접 위성시각(TC)을 계산하는 단계를 더 포함하는 인공위성 영상획득을 위한 지상표적 정밀 지향 방법.
  4. 제 3 항에서,
    상기 최근접 위성위치(QC) 및 최근접 위성시각(TC)은,
    수학식

    에 의해 계산되는 인공위성 영상획득을 위한 지상표적 정밀 지향 방법.
  5. 제 3 항에서,
    상기 최근접 위성위치(QC) 및 최근접 위성시각(TC)은,
    상기 계산된 촬영대기 시간(W(i))과 예측 위성위치(Q(i))에 비선형 보간법 또는 정밀 필터링 기법을 적용하여 계산되는 인공위성 영상획득을 위한 지상표적 정밀 지향 방법.
  6. 제 2 항에서,
    상기 보정 기동자세(, )는 기동 축 벡터()와 기동 각도()로 구성되고,
    기동 축 벡터()는 수학식 으로 구해지며,
    기동 각도()는 상기 지상표적이 상기 인공위성의 직하점에 위치한 경우, 수학식 으로 구해지고,
    기동 각도()는 상기 지상표적이 상기 인공위성의 직하점에서 오프셋 각도 β만큼 이격을 가지고 위치한 경우, 수학식 으로 구해지며,
    여기서 h는 상기 알고리즘 실행시각(TA)에 획득된 인공위성의 위치(PA)로부터 지표면까지 거리인 인공위성 영상획득을 위한 지상표적 정밀 지향 방법.
  7. 제 2 항에서,
    상기 보정 기동자세(, )는,
    지구 곡률 및 상기 위성기반 궤도전파기에서 예측되는 상기 인공위성의 괘도 곡률을 반영하여 구해지는 인공위성 영상획득을 위한 지상표적 정밀 지향 방법.
  8. 컴퓨터에 제1항 내지 제7항 중 어느 한 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  9. 지상국으로부터 촬영희망 위성위치(P)를 수신하고, 상기 지상국으로부터 지상계획 촬영시각(T) 또는 알고리즘 실행시각(TA)을 수신하는 통신부 - 상기 지상계획 촬영시각(T)은 지상기반 궤도전파기에서 상기 촬영희망 위성위치(P)에 대응하여 계산되고, 상기 알고리즘 실행시각(TA)은 상기 지상계획 촬영시각(T)보다 미리 정해진 시간만큼 앞으로 설정됨 - ; 및
    상기 촬영희망 위성위치(P)와 위성기반 궤도전파기에서 출력되는 예측 위성위치(Q)의 차를 이용하여 계산되는 위치 오차(E)에 기초하여, 인공위성이 상기 촬영희망 위성위치(P)에 가장 근접할 때에 대응하는 최근접 위성위치(QC) 및 최근접 위성시각(TC)을 결정하고, 상기 인공위성의 영상 촬영 탑재체의 시선 벡터를 상기 최근접 위성위치(QC)에서 지상표적으로 지향시키기 위한 보정 기동자세()를 결정하는 프로세서;
    를 포함하고,
    상기 위성기반 궤도전파기는 상기 알고리즘 실행시각(TA)의 인공위성 위치(PA) 및 속도(VA), 그리고 촬영대기 시간(W)을 입력받아 상기 알고리즘 실행시각(TA)에서 상기 촬영대기 시간(W)만큼 경과한 시점에 상기 인공위성의 위치로서 상기 예측 위성위치(Q)를 출력하는 인공위성 영상획득을 위한 지상표적 정밀 지향 장치.
  10. 제 9 항에서,
    상기 프로세서는,
    상기 최근접 위성위치(QC) 및 최근접 위성시각(TC)을 결정하기 위해서,
    ΔT·i를 i번째 촬영대기 시간(W(i))으로 계산하는 단계 - 여기서 i는 자연수이고, ΔT는 미리 정해진 촬영대기 시간 증가분임 -;
    상기 인공위성 궤도전파기에서 i번째 촬영대기 시간(W(i)), 상기 알고리즘 실행시각(TA)의 인공위성 위치(PA) 및 속도(VA)를 입력받아 i번째 예측 위성위치(Q(i))를 계산하는 단계;
    상기 i번째 예측 위성위치(Q(i))와 상기 촬영희망 위성위치(P)의 차에 대응하는 i번째 위치 오차(E(i))를 계산하는 단계; 및
    상기 i번째 위치 오차(E(i))와 i-1번째 위치 오차(E(i-1))의 크기를 비교하는 단계;
    를 상기 i번째 위치 오차(E(i))가 i-1번째 위치 오차(E(i-1))보다 커질 때까지 i를 '1'부터 '1'씩 증가하면서 반복하는 인공위성 영상획득을 위한 지상표적 정밀 지향 장치.
  11. 제 10 항에서,
    상기 프로세서는,
    상기 최근접 위성위치(QC) 및 최근접 위성시각(TC)을 결정하기 위해서,
    상기 계산된 촬영대기 시간(W(i))과 예측 위성위치(Q(i))를 이용하여 상기 최근접 위성위치(QC) 및 최근접 위성시각(TC)을 계산하는 단계를 더 수행하는 인공위성 영상획득을 위한 지상표적 정밀 지향 장치.
  12. 제 11 항에서,
    상기 최근접 위성위치(QC) 및 최근접 위성시각(TC)은,
    수학식

    에 의해 계산되는 인공위성 영상획득을 위한 지상표적 정밀 지향 장치.
  13. 제 11 항에서,
    상기 최근접 위성위치(QC) 및 최근접 위성시각(TC)은,
    상기 계산된 촬영대기 시간(W(i))과 예측 위성위치(Q(i))에 비선형 보간법 또는 정밀 필터링 기법을 적용하여 계산되는 인공위성 영상획득을 위한 지상표적 정밀 지향 장치.
  14. 제 10 항에서,
    상기 보정 기동자세(, )는 기동 축 벡터()와 기동 각도()로 구성되고,
    기동 축 벡터()는 수학식 으로 구해지며,
    기동 각도()는 상기 지상표적이 상기 인공위성의 직하점에 위치한 경우, 수학식 으로 구해지고,
    기동 각도()는 상기 지상표적이 상기 인공위성의 직하점에서 오프셋 각도 β만큼 이격을 가지고 위치한 경우, 수학식 으로 구해지며,
    여기서 h는 상기 알고리즘 실행시각(TA)에 획득된 인공위성의 위치(PA)로부터 지표면까지 거리인 인공위성 영상획득을 위한 지상표적 정밀 지향 장치.
  15. 제 10 항에서,
    상기 보정 기동자세(, )는,
    지구 곡률 및 상기 위성기반 궤도전파기에서 예측되는 상기 인공위성의 괘도 곡률을 반영하여 구해지는 인공위성 영상획득을 위한 지상표적 정밀 지향 장치.
KR1020220108627A 2022-08-29 2022-08-29 인공위성 영상획득을 위한 지상표적 정밀 지향 방법 및 장치 KR20240030070A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020220108627A KR20240030070A (ko) 2022-08-29 2022-08-29 인공위성 영상획득을 위한 지상표적 정밀 지향 방법 및 장치
US18/450,037 US20240067364A1 (en) 2022-08-29 2023-08-15 Method and apparatus for ground target precision orientation for satellite image acquisition
EP23192792.2A EP4332003A1 (en) 2022-08-29 2023-08-22 Method and apparatus for ground target precision orientation for satellite image acquisition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220108627A KR20240030070A (ko) 2022-08-29 2022-08-29 인공위성 영상획득을 위한 지상표적 정밀 지향 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20240030070A true KR20240030070A (ko) 2024-03-07

Family

ID=87762847

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220108627A KR20240030070A (ko) 2022-08-29 2022-08-29 인공위성 영상획득을 위한 지상표적 정밀 지향 방법 및 장치

Country Status (3)

Country Link
US (1) US20240067364A1 (ko)
EP (1) EP4332003A1 (ko)
KR (1) KR20240030070A (ko)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100432312B1 (ko) * 2001-12-06 2004-05-22 한국전자통신연구원 위성의 궤도 예측에 의한 자동화된 영상촬영 계획 수립장치 및 그 방법
KR102026115B1 (ko) * 2017-06-27 2019-11-04 한국항공우주연구원 위성 영상 획득 시각 보정 장치 및 방법
KR102135835B1 (ko) * 2018-11-06 2020-07-20 한국항공우주연구원 위성 영상 획득 자세를 보정하는 방법 및 보정 장치

Also Published As

Publication number Publication date
EP4332003A1 (en) 2024-03-06
US20240067364A1 (en) 2024-02-29

Similar Documents

Publication Publication Date Title
US7739045B2 (en) Rapid self-alignment of a strapdown inertial system through real-time reprocessing
EP3878758B1 (en) Method and correction device for correcting satellite image acquisition positioning
KR101688331B1 (ko) 위성체 제어 장치 및 그 방법
US20040134341A1 (en) Device, and related method, for determining the direction of a target
US10262403B2 (en) Apparatus and method for image navigation and registration of geostationary remote sensing satellites
US20120232717A1 (en) Remote coordinate identifier system and method for aircraft
EP1508776A1 (en) Autonomous velocity estimation and navigation
KR102026115B1 (ko) 위성 영상 획득 시각 보정 장치 및 방법
US20080004758A1 (en) Apparatus and method for tracking an orbital body relative to a planetary body using a single sensor
CN112985391B (zh) 一种基于惯性和双目视觉的多无人机协同导航方法和装置
KR20240030070A (ko) 인공위성 영상획득을 위한 지상표적 정밀 지향 방법 및 장치
CN115046571B (zh) 一种基于遥感影像的星敏感器安装误差校正方法及装置
CN110209185B (zh) 一种利用星敏信息姿态重置的航天器姿态机动稳定方法
Herfort et al. Trajectory preparation for the approach of spacecraft rosetta to comet 67p/churyumov-gerasimenko
US20240019588A1 (en) Onboard geolocation for images
Wierzbicki et al. Estimation of rotation angles based on GPS data from a UX5 Platform
Trawny et al. The Enhanced Lander Vision System for Mars Sample Retrieval Lander Entry Descent and Landing”, not Mars Sample Return Lander
Setterfield et al. Enhanced Lander Vision System (ELViS) Algorithms for Pinpoint Landing of the Mars Sample Retrieval Lander
US20230358545A1 (en) Star trackers for range determination in rendezvous and proximity operations
Rourke et al. The determination of the interplanetary orbits of Vikings 1 and 2
McGee et al. Sensor Model and Filter Considerations for Terrain Relative Navigation
KR20200058770A (ko) 위성항법 보강정보 선택 방법 및 그 방법을 이용하는 사용자 단말
Harch et al. Accommodating Navigation Uncertainties in the Pluto Encounter Sequence Design
Sorensen et al. Spacecraft autonomous operations experiment performed during the Clementine lunar mission
CN115118876A (zh) 拍摄参数的确定方法、装置及计算机可读存储介质