WO2014104574A1 - 선형배열 영상 센서와 자세제어 센서 간의 절대 오정렬 보정방법 - Google Patents

선형배열 영상 센서와 자세제어 센서 간의 절대 오정렬 보정방법 Download PDF

Info

Publication number
WO2014104574A1
WO2014104574A1 PCT/KR2013/010413 KR2013010413W WO2014104574A1 WO 2014104574 A1 WO2014104574 A1 WO 2014104574A1 KR 2013010413 W KR2013010413 W KR 2013010413W WO 2014104574 A1 WO2014104574 A1 WO 2014104574A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
image
equation
absolute misalignment
attitude control
Prior art date
Application number
PCT/KR2013/010413
Other languages
English (en)
French (fr)
Inventor
윤형주
최홍택
Original Assignee
한국항공우주연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국항공우주연구원 filed Critical 한국항공우주연구원
Priority to US14/646,297 priority Critical patent/US9672624B2/en
Publication of WO2014104574A1 publication Critical patent/WO2014104574A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/08Control of attitude, i.e. control of roll, pitch, or yaw
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • B64G1/244Spacecraft control systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • B64G1/36Guiding or controlling apparatus, e.g. for attitude control using sensors, e.g. sun-sensors, horizon sensors
    • B64G1/361Guiding or controlling apparatus, e.g. for attitude control using sensors, e.g. sun-sensors, horizon sensors using star sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4076Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution using the original low-resolution images to iteratively correct the high-resolution images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/701Line sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/21Indexing scheme for image data processing or generation, in general involving computational photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Definitions

  • the present invention relates to a method of estimating and correcting an absolute misalignment between an image payload and a posture control sensor that captures a high resolution ground image using a 1D linear array image sensor in a satellite or an aircraft.
  • Image satellites are being used to investigate atmospheric changes, weather forecasts, and resource distribution. These satellites take high-resolution ground images and transmit them to terrestrial base stations while traveling on the Earth's orbit. If it is not properly controlled, it is difficult to obtain an image of a point to be acquired. Accordingly, the attitude control system is mounted on the satellite so that the attitude control is accurately performed.
  • the performance index of the satellite attitude control system is indicated by orientation awareness and orientation accuracy.
  • the factors affecting these factors are attitude control errors, attitude errors, orbital errors, and alignment of payloads such as electro-optical cameras attached to the fuselage coordinate system. Errors and the like, and therefore, the improvement of the orientation recognition and the orientation accuracy is achieved by minimizing the influence of these error elements.
  • the attitude determination error depends on the characteristics of the attitude control sensor such as a gyro or a star tracker sensor, the timing bias and the mounting error.
  • Attitude control sensors include star tracker sensor and gyro sensor, magnetic field sensor and solar sensor.
  • star tracker sensor and gyro sensor are high-precision sensors used for precision attitude control.
  • Gyro sensor measures the gyro's angular velocity by observing the position of the sensor with a planar image sensor.
  • Gyro sensor measures the gyro's angular velocity. It is used to determine the attitude of the satellite by converting the attitude and angular velocity of the satellite in consideration of the mounting attitude of each sensor.
  • the attitude of the attitude control sensor is defined with respect to the reference coordinate system of the payload rather than the body of the satellite. Determination and attitude control are automatically made for the attitude of the payload.
  • the mounting posture of these sensors is measured as accurately as possible before launching the satellite and reflected in the onboard software.However, not only the error in the measurement but also the initial mounting posture information due to the impact during the launching of the satellite or the environmental change in orbit.
  • the error that is, misalignment of the sensor occurs, and therefore, in order to improve the satellite recognition and accuracy, the satellite launch must be completed and then the sensor misalignment must be reestimated and corrected on the satellite driving trajectory.
  • the misalignment of the attitude control sensor is divided into relative misalignment and absolute misalignment, and the relative misalignment means relative misalignment between the sensors, and correction is performed to make the attitude information measured from each sensor coincide with each other.
  • Absolute misalignment is a misalignment of the sensor with respect to the image payload, and correction is required to accurately photograph the ground target to be photographed or to extract accurate position information using the photographed image.
  • the image payload is a kind of posture control sensor such as a star tracker sensor. It is mainly used to estimate the alignment posture between the image payload and the posture control sensor or the reference body.
  • the present invention has been made to solve the problems of the conventional absolute misalignment correction method as described above, the attitude control using the attitude information measured from the attitude control sensors, the image information taken from the image payload and the position information of the satellite It is an object of the present invention to provide a method for correcting absolute misalignment of a posture control sensor that enables simple and accurate estimation and correction of absolute misalignment between a sensor and an image payload.
  • the object of the present invention as described above is to shoot each of the plurality of ground targets knowing the exact position information using the image mounting body using the image sensor of the form of a linear alignment arranged in a one-dimensional linear array method of the posture control sensor
  • a ground target photographing and comparing step of comparing the positional information of the ground targets in the plurality of photographed images with the positional information of the known ground targets Estimating the absolute misalignment value between the attitude control sensor and the image payload by applying a method of estimating the attitude of the planar image sensor using the image acquired by the planar image sensor based on the information obtained as a result of performing the above-described ground target photographing and comparing step. Calculating an absolute misalignment estimate value; Correcting absolute misalignment by applying the calculated absolute misalignment estimate to attitude control sensors; It is achieved by configuring.
  • the method of calculating the posture of the planar image sensor using the star image acquired by the planar image sensor is any one of the DAVENPORT algorithm or the QUEST algorithm among the methods of minimizing the objective function defined by Equation 2 below. Can be implemented.
  • Is the objective function Is the coordinate transformation matrix of the planar image sensor, Is the number of targets in the captured image, Is the location vector of the captured image, Is the direction vector in the inertial coordinate system of the target.
  • the information obtained by the above-described ground target photographing and comparing step may be converted to have the following Equation 6 by rearranging by dividing the time-varying term and the time-invariant term.
  • the absolute misalignment estimate ( ) Is calculated by Equation 6, and the calculated absolute misalignment estimate ( ),
  • the new attitude of the attitude control sensors may be calculated by Equation 10 below.
  • subscript Re represents an attitude control sensor
  • the present invention is a technique for calculating the posture of the sensor using the planar image information by the conventional planar image sensor with respect to the posture information measured by the posture control sensor and the image information photographed from the image payload using the 1-dimensional linear array image sensor By applying, the absolute misalignment between the posture control sensor and the image payload can be estimated simply and accurately and corrected.
  • FIG. 1 is a diagram illustrating an example of a star tracker sensor equipped with a plane image sensor and an image of a star photographed;
  • FIG. 2 is a view showing an example of a method of obtaining an image by scanning an image sensor arranged in the form of a one-dimensional linear array of high-resolution imaging satellites;
  • FIG. 3 is a flowchart showing an absolute misalignment correction method of an attitude control sensor according to the present invention in order;
  • FIG. 5 is a graph showing the position accuracy error after the second correction by the absolute misalignment correction method of the attitude control sensor according to the present invention.
  • FIG. 1 shows a star tracker sensor equipped with a planar image sensor and an image photographed by the planar image sensor. After photographing a plurality of targets (stars) using a planar image sensor, the direction vectors in the inertial coordinate system of these targets ( ) And the position vector ( ) To calculate the attitude with respect to the inertial coordinate system of the planar image sensor at the moment of photographing.
  • the planar image sensor It is to obtain a coordinate transformation matrix A that satisfies Equation 1 below, and this is called an attitude determination.
  • Is the position vector in the captured image Is the direction vector in the inertial coordinate system of the target, Is the coordinate transformation matrix.
  • the number of targets required to determine the posture of the planar image sensor is theoretically two or more, but in order to increase the accuracy, the posture is calculated using 8 to 10 targets in general.
  • attitude determination of the planar image sensor There are many methods for calculating the attitude determination of the planar image sensor. Among them, the method of calculating the optimal solution is the most widely used method. This method is the coordinate transformation matrix which minimizes the objective function defined by Equation 2 below.
  • the attitude of the sensor is found by solving the optimization problem of ( A ). These methods include the DAVENPORT algorithm and the QUEST algorithm, which use the posture quaternion to convert the above-mentioned attitude determination problem into an eigenvalue problem.
  • Is the objective function Is the coordinate transformation matrix of the planar image sensor, Is the number of targets in the captured image, Is the location vector of the captured image, Is the direction vector in the inertial coordinate system of the target.
  • the method of determining the attitude of the planar image sensor should simultaneously measure the relative position vector and the image position vector of at least two targets, and the calculated result is the attitude of the sensor at the point of photographing. Is only possible when using a planar image sensor.
  • the methods for estimating the absolute misalignment between the posture control system sensor and the image payload generally use the method of estimating the relative misalignment between the image payload as another posture control sensor and thus the image payload is a two-dimensional plane image. If a sensor is used, this method of absolute misalignment estimation can be applied.
  • the attitude determination method applied to the planar image sensor is arranged in a one-dimensional linear array. Difficult to apply directly to the sensor.
  • the present inventors have developed a method for correcting the absolute misalignment of the posture control sensor using an image photographed using an image sensor arranged in a one-dimensional linear array, which will be described in detail below.
  • the method for correcting the absolute misalignment of the image sensor according to the present invention includes a ground target photographing and comparing step S100, an absolute misalignment estimating step S200, and a correcting step S300.
  • a plurality of ground targets having accurate position information are photographed using the image payload mounted on the satellite, and then the position information of the ground targets in the plurality of photographed images and the known ground targets (hereinafter referred to as "reference points"). Comparing the position information of " "
  • Equation 3 The relationship between the image vector of the reference point and the relative position vector between the satellite and the reference point at the moment of photographing the second reference point may be represented by a coordinate transformation equation as shown in Equation 3 below.
  • ECI Earth Centered Inertia
  • the attitude determination method using a conventional planar image sensor Coordinate transformation matrix representing the attitude of the payload (PL, payload) relative to the ECI At least two reference points should be taken at the same time (simultaneous) to determine
  • Equation 3 converts Equation 3 into an Earth Centered Earth Fixed Frame (ECEF) as follows.
  • the vector is based on the representation using the Earth Center Fixed Coordinate System ( ECEF ).
  • Equation 3 is represented using the Earth Center Coordinate System ECEF , it may be expressed as Equation 4 below.
  • Is The position vector of the first reference point Is The position vector of the image satellite at the moment Is the scaling value, Is the coordinate transformation matrix from the geocentric inertial coordinate system to the geocentric fixed coordinate system, Is the coordinate transformation matrix from the satellite coordinate system to the Earth's center of inertia coordinate system, Is the coordinate transformation matrix from the payload coordinate system to the fuselage coordinate system of the satellite.
  • Equation 4 Is a function according to the shooting time of the reference point, Is determined by the attitude of the satellite measured or estimated by the attitude control sensor at the moment of the reference point shooting. ) Is normalized by dividing the relative position vector and the image vector by their respective norms. Becomes
  • each reference point has a different value.
  • Equation 5 In order to convert the equation (4) into the form of equation (2) used in the conventional attitude determination method, it is rearranged by dividing it into a time-varying term and a time-invariant term, and repositioning the position vector ( Substituting the value of) can be expressed as Equation 5 below.
  • This step is a step of estimating the absolute misalignment between the posture control sensor and the image payload using the information obtained as a result of performing the reference point photographing and comparing step (S100).
  • Equation 6 has the same form as Equation 1,
  • Wow Value because values that can be obtained by using the position measurement of the satellite can be measured by using the GPS or the like, a position measurement value measured by the position sensor, recording time and position of in the captured image, taken to the N reference points
  • a solution applied to a planar image sensor for a single image and location information that is, a solution is applied by applying a DAVENPORT algorithm or a numerical analysis technique, which is transformed into an eigenvalue problem using an attitude quaternion, an optimization technique using Equation 1.
  • Coordinate transformation matrix indicating absolute misalignment when applying attitude determination method such as QUEST algorithm You can get it right away. At this time, the more image information and position information about the ground target, the smaller the mean square error is, and thus, more accurate absolute misalignment estimate can be obtained.
  • the posture quaternion q corresponding to the coordinate transformation matrix A is obtained by the following procedure.
  • Equation 7 the matrix B is defined as in Equation 7 below.
  • Davenport matrix K is calculated as in Equation 8 below.
  • the attitude quaternion q corresponding to the coordinate transformation matrix A can be obtained by solving an eigenvalue equation such as Equation 9 below.
  • the calculated absolute misalignment estimate value that is, Is applied to the attitude control sensors to correct absolute misalignment.
  • the new postures of the attitude control sensors are obtained by Equation 10 below, and the attitude information and angular velocity information measured by the attitude sensors using the attitude of the sensor obtained by Equation 10 are converted into the fuselage coordinate system of the satellite.
  • the posture control is performed by the conversion, the onboard coordinate system is automatically controlled to exactly match the control command posture.
  • subscript Re represents an attitude control sensor
  • the inventors have estimated the absolute misalignment between the satellite fuselage and the image payload in order to confirm the effectiveness of the present invention made of the above procedure, and then conducted an experiment applying the same.
  • the alignment of the image sensor of the payload before the launch of the satellite is measured as accurately as possible and reflected in the alignment information of the attitude control sensor (body), and then the image information of the reference point photographed after the actual satellite launch and the attitude information of the satellite at this time.
  • FIG. 4 and 5 are graphs showing the experimental results. Referring to FIG. 4, as a result of estimating and correcting the first order absolute misalignment, it can be seen that the position accuracy error is drastically reduced to about 5% compared to the initial level. This means that the alignment information between the fuselage, the sensor, and the payload measured before launching has caused a considerable level of error due to factors such as measurement error and impact during launching. It means that it has been estimated and corrected.
  • the present invention provides a posture of a sensor using planar image information by a conventional planar image sensor with respect to posture information measured by a posture control sensor and image information photographed from an image payload using a 1D linear array image sensor.
  • the absolute misalignment between the posture control sensor and the image payload can be estimated simply and accurately.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Geometry (AREA)
  • Image Processing (AREA)
  • Navigation (AREA)

Abstract

본 발명은 고해상도의 지상영상을 촬영하여 송신하는 위성 또는 비행체의 자세제어 센서와 영상촬영 탑재체 간의 절대 오정렬을 추정하여 보정 하는 방법에 관한 것이다.

Description

선형배열 영상 센서와 자세제어 센서 간의 절대 오정렬 보정방법
본 발명은 위성 또는 항공기에서 1차원 선형배열 영상 센서를 사용하여 고해상도의 지상영상을 촬영하는 영상 탑재체와 자세제어 센서 간의 절대 오정렬을 추정하여 보정하는 방법에 관한 것이다.
대기변화, 일기예보, 자원의 분포 등을 조사하기 위해 영상촬영위성이 운용되고 있으며, 이러한 영상촬영위성은 지구 저궤도 상을 운행하면서 고해상도의 지상영상을 촬영하여 지상 기지국에 송신하는데, 이때 인공위성의 자세가 제대로 제어되지 않을 경우 획득하고자 하는 지점의 영상을 얻기가 곤란하고, 이에 따라 인공위성에 자세제어계를 탑재하여 자세제어가 정확하게 이루어지도록 하고 있다.
인공위성 자세제어계의 성능지수는 지향인식도와 지향정밀도 등으로 표시하게 되는데, 이들에 영향을 미치는 요소는 자세제어 오차, 자세결정 오차, 궤도전파 오차, 동체 좌표계에 부착된 전자광학카메라와 같은 탑재체의 정열오차 등이 포함되고, 따라서 지향인식도와 지향정밀도의 향상은 이들 오차요소가 미치는 영향을 최소화함으로써 달성된다.
상기와 같은 여러 가지 오차요소 중 자세 결정오차는 자이로나 별 추적기 센서 등의 자세제어 센서의 특성, 시각(timing) 바이어스와 장착오차 등에 따라 좌우되며 따라서 자세제어 성능을 향상시키기 위해서는 이들 센서들의 장착오차나 특성에 대한 정확한 검보정이 이루어져야 한다.
자세제어 센서에는 별 추적기 센서와 자이로 센서를 비롯하여, 자기장 센서, 태양 센서 등이 있으며, 이 중 별 추적기 센서와 자이로 센서는 정밀 자세제어에 사용되는 높은 정밀도를 요구하는 센서들로서, 별 추적기 센서는 별의 위치를 평면 영상 센서로 관측하여 센서의 자세를 계산하는 기능을 하고, 자이로 센서는 자이로의 각속도를 측정하는 기능을 하며, 이들 센서로부터 계산된 자세와 각속도 측정값은 다시 위성 동체(body)에 대한 각 센서의 장착 자세를 고려하여 위성의 자세와 각속도로 변환하여 위성의 자세를 결정하는 데에 사용된다.
특히, 고해상도 영상위성의 경우 영상 탑재체의 지향정보가 중요하기 때문에, 자세제어 센서의 장착 자세를 위성의 본체(body)가 아닌, 위성 탑재체(payload)의 기준 좌표계에 대하여 정의하게 되면, 위성의 자세결정 및 자세제어는 자동적으로 탑재체의 자세에 대해서 이루어지게 된다.
통상 위성을 발사하기 전에 이들 센서의 장착 자세를 최대한 정확하게 측정하여 탑재 소프트웨어에 반영하게 되지만, 측정시의 오차뿐만 아니라 위성 발사과정에서의 충격이나 궤도상에서의 환경 변화 등으로 인해 당초의 장착 자세 정보에 오차 즉, 센서의 오정렬(misalignment)이 발생되며, 따라서 위성의 지향인식도 및 정밀도를 향상시키기 위해서는 반드시 위성발사가 완료된 다음, 위성 운행 궤도상에서 센서의 오정렬을 다시 추정하여 보정하여야 한다.
자세제어 센서의 오정렬은 상대 오정렬(relative misalignment)과 절대 오정렬(absolute misalignment)로 구분되고, 상대 오정렬은 센서들 간의 상대적인 오정렬을 의미하며 각 센서들로부터 측정된 자세정보가 상호 일치하도록 하기 위해서는 이를 보정해 주어야 하고, 절대 오정렬은 영상 탑재체에 대한 센서의 오정렬로서 촬영하고자 하는 지상의 목표물을 정확하게 촬영하거나, 혹은 촬영한 영상을 이용하여 정확한 위치정보를 추출하기 위해서는 보정이 요구된다.
이러한 상대 오정렬과 절대 오정렬을 보정하기 위한 기법에 대해 다수의 논문과 연구결과가 발표된 바 있는데, 이들 중 절대 오정렬의 보정방법에 대한 연구의 대다수는 영상 탑재체를 별 추적기 센서와 같은 일종의 자세제어 센서로 간주하고 영상 탑재체와 자세제어 센서 혹은 기준이 되는 동체 간의 정렬자세를 추정하는 방식을 주로 사용하고 있다.
그러나 고해상도 영상촬영위성의 경우와 같이, 영상 탑재체가 1차원 선형 배열로 늘어선 형태의 영상 센서(linear array sensor)를 주사하여 촬영하는 방식인 경우, 2차원 평면 센서를 사용하는 별 추적기 센서와는 작동 방식이 매우 상이하기 때문에 상기와 같은 절대 오정렬 보정방법을 곧바로 적용하기가 곤란하다.
본 발명은 상기와 같은 종래의 절대 오정렬 보정방법이 가지는 문제점을 해결하기 위해 안출된 것으로, 자세제어 센서들로부터 측정한 자세정보와 영상 탑재체로부터 촬영한 영상정보와 위성의 위치정보를 이용하여 자세제어 센서와 영상 탑재체 간의 절대 오정렬을 간단하면서도 정확하게 추정하여 보정할 수 있도록 하는 자세제어 센서의 절대 오정렬 보정방법을 제공하는 데에 그 목적이 있다.
상기와 같은 본 발명의 목적은 자세제어 센서의 절대 오정렬 보정방법을, 1차원 선형 배열로 늘어선 형태의 영상 센서를 이용하는 영상 탑재체를 사용하여 정확한 위치정보를 알고 있는 복수 개의 지상목표물을 각각 촬영한 다음, 촬영된 복수 개의 영상에서의 지상목표물의 위치정보와 이미 알고 있는 지상목표물의 위치정보를 서로 비교하는 지상목표물 촬영 및 비교단계와; 상기 지상목표물 촬영 및 비교단계의 수행결과 획득된 정보에 대해 평면 영상 센서에 의해 획득된 영상을 이용하여 평면 영상 센서의 자세를 추정하는 방법을 적용하여 자세제어 센서와 영상 탑재체 간의 절대 오정렬 값을 추정하는 절대 오정렬 추정값 산출단계 및; 상기 산출된 절대 오정렬 추정값을 자세제어 센서들에 적용하여 절대 오정렬을 보정하는 단계; 로 구성하는 것에 의해 달성된다.
이때 상기 평면 영상 센서에 의해 획득된 별의 영상을 이용하여 평면 영상 센서의 자세를 계산하는 방법은 아래의 수학식 2로 정의되는 목적함수를 최소화하는 방법 중에서 DAVENPORT 알고리즘 또는 QUEST 알고리즘 중 어느 하나인 것으로 실시될 수 있다.
[수학식 2]
Figure PCTKR2013010413-appb-I000001
여기서
Figure PCTKR2013010413-appb-I000002
는 목적함수,
Figure PCTKR2013010413-appb-I000003
는 평면 영상 센서의 좌표변환행렬,
Figure PCTKR2013010413-appb-I000004
은 촬영된 영상에서의 목표물의 개수,
Figure PCTKR2013010413-appb-I000005
는 촬영된 영상의 위치벡터,
Figure PCTKR2013010413-appb-I000006
는 목표물의 관성좌표계에서의 방향벡터이다.
그리고 상기 지상목표물 촬영 및 비교단계에 의해 획득된 정보는 시변항과 시불변항으로 나누어 재배치함으로써 아래의 수학식 6 형태를 가지도록 변환되는 것으로 실시될 수 있다.
[수학식 6]
Figure PCTKR2013010413-appb-I000007
여기서,
Figure PCTKR2013010413-appb-I000008
이고,
Figure PCTKR2013010413-appb-I000009
이며, 모든 벡터는 단위 벡터화된 것으로 가정한다.
이에 더하여 상기 절대 오정렬 추정값(
Figure PCTKR2013010413-appb-I000010
)은 상기 수학식 6에 의해 산출되고, 산출된 절대 오정렬 추정값(
Figure PCTKR2013010413-appb-I000011
)은 자세제어 센서들의 새로운 자세는 아래의 수학식 10에 의해 산출되는 것으로 실시될 수 있다.
[수학식 10]
Figure PCTKR2013010413-appb-I000012
여기서, 첨자
Figure PCTKR2013010413-appb-I000013
는 자세 제어 센서를 나타낸다.
본 발명은 자세제어 센서로부터 측정한 자세정보와 1차원 선형배열의 영상 센서를 이용하는 영상 탑재체로부터 촬영한 영상정보에 대해 종래의 평면 영상 센서에 의한 평면영상 정보를 이용하여 센서의 자세를 계산하는 기법을 적용함으로써 자세제어 센서와 영상 탑재체 간의 절대 오정렬을 간단하면서도 정확하게 추정하여 보정할 수 있다.
도 1은 평면 영상 센서를 탑재한 별 추적기 센서와 촬영한 별의 영상의 예를 나타낸 도면,
도 2는 고해상도 영상촬영위성이 1차원 선형배열의 형태로 배치된 영상 센서를 주사하여 영상을 획득하는 방식의 예를 나타낸 도면,
도 3은 본 발명에 따른 자세제어 센서의 절대 오정렬 보정방법을 순서대로 나타낸 흐름도,
도 4는 본 발명에 따른 자세제어 센서의 절대 오정렬 보정방법에 의해 1차로 보정한 후의 위치 정확도 오차를 나타낸 그래프,
도 5는 본 발명에 따른 자세제어 센서의 절대 오정렬 보정방법에 의해 2차로 보정한 후의 위치 정확도 오차를 나타낸 그래프이다.
본 발명의 구성을 설명하기 전에 먼저, 2차원 평면 영상 센서에 의해 촬영된 별의 영상을 이용하여 촬영 시의 센서의 자세를 결정하는 자세결정방법에 대해 설명한다.
도 1은 평면 영상 센서를 탑재한 별 추적기 센서와, 이에 의해 촬영된 영상을 나타낸 것으로, 복수 개의 목표물(별)을 평면 영상 센서를 이용하여 촬영한 다음, 이들 목표물의 관성좌표계에서의 방향 벡터(
Figure PCTKR2013010413-appb-I000014
)와 촬영된 영상에서의 위치벡터(
Figure PCTKR2013010413-appb-I000015
)를 이용하여 촬영 순간의 평면 영상 센서의 관성좌표계에 대한 자세를 계산하는 방식으로 동작한다.
즉, 평면 영상 센서는
Figure PCTKR2013010413-appb-I000016
에 대해 아래의 수학식 1을 만족하는 좌표변환행렬(A)을 구하는 것이고, 이를 자세결정(attitude determination)이라고 한다.
수학식 1
Figure PCTKR2013010413-appb-M000001
여기서,
Figure PCTKR2013010413-appb-I000017
는 촬영된 영상에서의 위치벡터,
Figure PCTKR2013010413-appb-I000018
는 목표물의 관성좌표계에서의 방향 벡터,
Figure PCTKR2013010413-appb-I000019
는 좌표변환행렬이다.
이때 평면 영상 센서의 자세를 결정하는 데에 필요한 목표물의 개수는 이론적으로 2개 이상이면 가능하지만 정확성을 높이기 위해 일반적 8~10개의 목표물을 사용하여 자세를 계산한다.
평면 영상 센서의 자세결정을 계산하는 방법에는 여러 가지 방법이 있으나, 그 중에서 최적해를 구하는 방법이 가장 널리 사 용되고 있는데, 이 방법은 아래의 수학식 2로 정의되는 목적함수를 최소화하는 좌표변환행렬(A)을 구하는 최적화 문제를 풂으로써 센서의 자세를 구하는 것이다. 이러한 방법에는 자세 쿼터니언(quaternion)을 이용하여 위의 자세결정 문제를 고유값 문제(eigenvalue problem)로 변환하여 해를 구하는 DAVENPORT 알고리즘과 QUEST 알고리즘 등이 있다.
수학식 2
Figure PCTKR2013010413-appb-M000002
여기서
Figure PCTKR2013010413-appb-I000020
는 목적함수,
Figure PCTKR2013010413-appb-I000021
는 평면 영상 센서의 좌표변환행렬,
Figure PCTKR2013010413-appb-I000022
은 촬영된 영상에서의 목표물의 개수,
Figure PCTKR2013010413-appb-I000023
는 촬영된 영상의 위치벡터,
Figure PCTKR2013010413-appb-I000024
는 목표물의 관성좌표계에서의 방향벡터이다.
위에서 살펴본 바와 같이 평면 영상 센서의 자세결정 방법은 최소 2개 이상의 목표물에 대한 상대위치벡터와 영상 위치벡터를 동시에 측정해야 하고, 이때 계산된 결과는 그 촬영시점에서의 센서의 자세가 되는데, 이러한 방식은 평면 영상 센서를 사용하는 경우에만 가능하다.
자세제어계 센서와 영상 탑재체간의 절대 오정렬을 추정하는 방법들은 대개 영상 탑재체를 또 하나의 자세제어 센서로 간주하여 그 둘 간의 상대 오정렬을 추정하는 방식을 사용하고 있으며, 따라서, 영상 탑재체가 2차원 평면 영상 센서를 사용하고 있는 경우에는 이러한 방식의 절대 오정렬 추정방법의 적용이 가능하다.
그러나 고해상도로 지상의 물체를 촬영하는 지상촬영위성의 경우에는 도 2에 도시된 바와 같이 1차원 선형배열로 배열된 영상 센서를 사용하여 일직선으로 주사(scan)하는 방식에 의해 영상을 촬영하게 되며, 따라서 이러한 촬영방식에서는 동일한 주사선 상에 있지 않은 지상의 목표물은 각각의 다른 시각에 촬영되게 되고, 이때 위성의 자세는 관성좌표계에 대해 고정되어 있지 않고 지속적으로 변하게 된다.
따라서 상기와 같은 방식으로 지상목표물(GCP, Ground Control Point)을 촬영하게 되면 각 촬영 순간마다 위성의 자세가 미세하게 달라지기 때문에 평면 영상 센서에 적용되는 자세결정 방법을 1차원 선형배열로 배열된 영상 센서에 곧바로 적용하기가 곤란하다.
이에 따라 본 발명자 등은 1차원 선형배열로 배열된 영상 센서를 사용하여 촬영한 영상을 이용하여 자세제어 센서의 절대 오정렬을 보정하는 방법을 개발하였으며, 이하에서는 이에 대해 상세히 설명한다.
본 발명의 영상 센서의 절대 오정렬을 보정하는 방법은 도 3에 도시된 바와 같이 지상목표물 촬영 및 비교단계(S100), 절대 오정렬 추정단계(S200) 및 보정단계(S300)로 이루어진다.
(1) 지상목표물 촬영 및 비교단계(S100)
이 단계는 위성에 탑재된 영상 탑재체를 사용하여 정확한 위치정보를 알고 있는 복수 개의 지상목표물을 각각 촬영한 다음, 촬영된 복수 개의 영상에서의 지상목표물의 위치정보와 이미 알고 있는 지상목표물(이하 "기준점"이라 한다)의 위치정보를 서로 비교하는 단계이다.
영상 탑재체를 사용하여 N개의 기준점을 촬영한 경우,
Figure PCTKR2013010413-appb-I000025
번째 기준점을 촬영하는 순간에서의 기준점의 영상벡터와, 위성과 기준점 간의 상대위치벡터의 관계는 아래의 수학식 3과 같은 좌표변환식으로 나타낼 수 있다.
수학식 3
Figure PCTKR2013010413-appb-M000003
여기서,
Figure PCTKR2013010413-appb-I000026
Figure PCTKR2013010413-appb-I000027
번째 기준점을 촬영하는 순간에서의 영상위성의 위치벡터,
Figure PCTKR2013010413-appb-I000028
Figure PCTKR2013010413-appb-I000029
번째 기준점의 위치벡터,
Figure PCTKR2013010413-appb-I000030
는 촬영된 기준점 영상에서의 위치벡터,
Figure PCTKR2013010413-appb-I000031
Figure PCTKR2013010413-appb-I000032
번째 기준점을 촬영하는 순간에서의 지구중심관성좌표계(ECI, Earth Centered Inertia)에 대한 탑재체 좌표계의 자세를 나타내는 좌표변환행렬,
Figure PCTKR2013010413-appb-I000033
는 좌우변 항에 각각 존재하는 벡터들의 놈(norm) 크기를 일치시키기 위한 스케일링 값이다.
이때 기준점 영상에서의 위치벡터(
Figure PCTKR2013010413-appb-I000034
)의 값은 도 2로부터 알 수 있는 바와 같이
Figure PCTKR2013010413-appb-I000035
는 탑재체의 광학계의 초점거리(f)와 동일하고,
Figure PCTKR2013010413-appb-I000036
는 0이며, 오직
Figure PCTKR2013010413-appb-I000037
만 기준점에 따라 달라진다.
종래의 평면영상 센서에 의한 자세결정 방법은
Figure PCTKR2013010413-appb-I000038
번째 기준점을 촬영하는 순간에서의 지구중심관성좌표계(ECI)에 대한 탑재체좌표계(PL, payload)의 자세를 나타내는 좌표변환행렬(
Figure PCTKR2013010413-appb-I000039
)을 결정하기 위해 최소한 2개 이상의 기준점을 같은 시간(동시)에 촬영하여야 한다.
그러나 선형배열센서 방식의 탑재체는 동일한 주사선 상에 복수 개의 기준점이 동시에 촬영되는 경우가 극히 드물고, 설령 복수 개의 기준점이 촬영되는 경우가 존재한다고 하더라도 기준점의 개수가 적어 정렬정보 추정의 정확도가 낮기 때문에 다른 방식의 오정렬 추정기법이 필요하고, 이러한 이유로 본 발명에서는 아래에서와 같이 수학식 3을 지구중심고정좌표계(ECEF, Earth Centered Earth Fixed Frame)로 변환시키는데, 이는 일반적으로 위성의 위치벡터와 기준점의 위치벡터는 지구중심고정좌표계(ECEF)를 사용하여 나타내는데 따른 것이다.
상기 수학식 3을 지구중심고정좌표계(ECEF)를 사용하여 나타내면 아래의 수학식 4와 같이 나타낼 수 있다.
수학식 4
Figure PCTKR2013010413-appb-M000004
여기서,
Figure PCTKR2013010413-appb-I000040
Figure PCTKR2013010413-appb-I000041
번째 기준점의 위치벡터,
Figure PCTKR2013010413-appb-I000042
Figure PCTKR2013010413-appb-I000043
번째 기준점을 촬영하는 순간에서의 영상위성의 위치벡터,
Figure PCTKR2013010413-appb-I000044
는 스케일링 값,
Figure PCTKR2013010413-appb-I000045
는 지구중심관성좌표계로부터 지구중심고정좌표계로의 좌표변환행렬,
Figure PCTKR2013010413-appb-I000046
는 위성의 동체좌표계로부터 지구중심관성좌표계로의 좌표변환행렬,
Figure PCTKR2013010413-appb-I000047
는 탑재체좌표계로부터의 위성의 동체좌표계로의 좌표변환행렬이다.
상기 수학식 4에서
Figure PCTKR2013010413-appb-I000048
는 기준점의 촬영시각에 따른 함수이고,
Figure PCTKR2013010413-appb-I000049
는 기준점 촬영 순간에서 자세제어 센서를 이용하여 측정 또는 추정한 위성의 자세에 의해 결정되며, 스케일링 값(
Figure PCTKR2013010413-appb-I000050
)은 상대위치벡터와 영상벡터를 모두 각각의 놈(norm)으로 나누어 단위벡터화(normalization)하는 경우
Figure PCTKR2013010413-appb-I000051
이 된다.
탑재체좌표계(PL)로부터 동체좌표계(Body)로의 좌표변환행렬(
Figure PCTKR2013010413-appb-I000052
)은, 만약 위성의 자세제어 센서의 장착 자세를 탑재체좌표계(PL)에 대해 측정하고, 이 장착 정보를 적용하여 위성의 자세를 계산하게 되면 이상적인 경우, 즉 오정렬이 없는 경우 위성의 동체좌표계(Body)와 탑재체좌표계(PL)는 동일한 방향의 좌표축을 가지게 되고, 따라서
Figure PCTKR2013010413-appb-I000053
이 된다.
그러나 위에서 설명한 바와 같이, 실제로는 측정오차나 위성 발사시의 충격 등의 영향으로 정렬정보에 오차가 존재하게 되며, 따라서 절대 오정렬 추정과정은 결국 탑재체좌표계(PL)로부터 위성의 동체좌표계(Body)로의 좌표변환행렬(
Figure PCTKR2013010413-appb-I000054
), 혹은
Figure PCTKR2013010413-appb-I000055
에 해당하는 자세 쿼터니언(q)의 값을 구하는 과정이라 할 수 있다.
앞에서 설명한 바와 같이 선형배열 영상 센서를 사용하여 기준점들을 촬영하는 경우에는 상대위치벡터 및 영상벡터뿐만 아니라 좌표변환행렬
Figure PCTKR2013010413-appb-I000056
Figure PCTKR2013010413-appb-I000057
도 역시 각각의 기준점마다 다른 값을 가지게 된다.
상기 수학식 4를 종래의 자세결정 방법에서 사용하는 수학식 2의 형태로 변환하기 위해 시변(time-varying)항과 시불변(time-invariant)항으로 나누어 재배치하고, 기준점 영상에서의 위치벡터(
Figure PCTKR2013010413-appb-I000058
)의 값을 대입하면 아래의 수학식 5와 같이 나타낼 수 있다.
수학식 5
Figure PCTKR2013010413-appb-M000005
상기 수학식 5에서 좌표변환행렬
Figure PCTKR2013010413-appb-I000059
Figure PCTKR2013010413-appb-I000060
는 각각 기준점의 촬영시점에 따라 다른 값을 가지게 된다는 점을 고려하면 아래의 수학식 6과 같이 간략화될 수 있다.
수학식 6
Figure PCTKR2013010413-appb-M000006
여기서,
Figure PCTKR2013010413-appb-I000061
이고,
Figure PCTKR2013010413-appb-I000062
이며, 모든 벡터는 단위 벡터화된 것으로 가정한다.
(2) 절대 오정렬 추정값 산출단계(S200)
이 단계는 상기와 같은 기준점 촬영 및 비교 단계(S100)의 수행결과 획득된 정보를 이용하여 자세제어 센서와 영상 탑재체 간의 절대 오정렬을 추정하는 단계이다.
위의 수학식 6을 살펴보면, 수학식 6은 수학식 1과 동일한 형태를 가지고 있음을 알 수 있고,
Figure PCTKR2013010413-appb-I000063
Figure PCTKR2013010413-appb-I000064
값은 GPS 등을 사용하여 측정할 수 있는 위성의 위치 측정값, 자세센서로 측정한 자세측정값, 촬영시간 및 촬영한 영상에서의 위치 등을 이용해서 구할 수 있는 값들이므로, N개의 기준점을 촬영한 영상과 위치정보에 대해 평면 영상 센서에 적용되는 기법 즉, 수학식 1을 이용하는 최적화 기법인 자세 쿼터니언을 이용하여 고유값 문제로 변환하여 해를 구하는 DAVENPORT 알고리즘 또는 수치해석 기법을 적용하여 해를 구하는 QUEST 알고리즘 등의 자세결정 방법을 적용하면, 절대 오정렬을 나타내는 좌표변환행렬
Figure PCTKR2013010413-appb-I000065
을 바로 구할 수 있게 된다. 이때 지상목표물에 대한 영상정보와 위치정보가 많을수록 통계적으로 평균제곱오차가 작아지게 되고, 따라서 더욱 정확한 절대 오정렬 추정값을 구할 수 있다.
한편, 앞서 설명한 바와 같이 DAVENPORT 알고리즘과 QUEST 알고리즘을 이용하여 위성의 자세를 결정하는 방법에 대해서는 이미 잘 알려져 있으나, 아래에서는 DAVENPORT 알고리즘에 대해 간략히 설명한다.
상기 수학식 2를 최소화하는 좌표변환행렬(A)을 구하는 방법에 있어서, 좌표변환행렬(A)에 해당하는 자세 쿼터니언(q)은 다음과 같은 절차에 의해 구한다.
먼저 , 행렬 B를 아래의 수학식 7과 같이 정의한다.
수학식 7
Figure PCTKR2013010413-appb-M000007
상기 행렬 B로부터,
Figure PCTKR2013010413-appb-I000066
를 계산한다.
여기서,
Figure PCTKR2013010413-appb-I000067
는 행렬 B의 trace이다.
위의 값들을 이용하여 Davenport 행렬(K)을 아래의 수학식 8에서와 같이 계산한다.
수학식 8
Figure PCTKR2013010413-appb-M000008
따라서 좌표변환행렬(A)에 해당하는 자세 쿼터니언(q)은 아래의 수학식 9와 같은 고유값 방정식(eigenvalue equation)을 풀어서 구할 수 있게 된다.
수학식 9
Figure PCTKR2013010413-appb-M000009
여기서,
Figure PCTKR2013010413-appb-I000068
는 Davenport 행렬(K)의 가장 큰 고유값이고, q는 이 고유값을 가지는 고유벡터(eigenvector)이다.
고유값과 고유벡터를 구하는 방법은 이미 잘 알려져 있으므로 이에 대한 상세한 설명은 생략한다.
(3) 보정단계(S300)
이 단계는 상기 절대 오정렬 추정값 산출단계(S200)에 의해 절대 오정렬 추정값이 산출되면, 이 산출된 절대 오정렬 추정값, 즉
Figure PCTKR2013010413-appb-I000069
을 자세제어 센서들에 적용하여 절대 오정렬을 보정하는 단계이다.
자세제어 센서들의 새로운 자세는 아래의 수학식 10에 의해 구해지고, 이와 같이 수학식 10을 이용하여 구한 센서의 자세를 이용하여 자세센서들에 의해 측정 된 자세정보와 각속도 정보를 위성의 동체좌표계로 변환시켜 자세제어를 행하게 되면, 자동적으로 탑재체좌표계를 정확하게 제어명령 자세와 일치하도록 제어하게 된다.
수학식 10
Figure PCTKR2013010413-appb-M000010
여기서, 첨자
Figure PCTKR2013010413-appb-I000070
는 자세 제어 센서를 나타낸다.
본 발명자 등은 이상과 같은 절차로 이루어진 본 발명의 유효성을 확인하기 위해 위성 동체와 영상 탑재체 간의 절대 오정렬을 추정한 다음, 이를 적용한 실험을 행하였다.
실험은 위성의 발사 전 탑재체의 영상 센서의 정렬을 최대한 정확하게 측정하여 이를 자세제어 센서(동체)의 정렬정보에 반영을 한 다음, 실제 위성의 발사 후 촬영한 기준점의 영상정보와 이때 위성의 자세정보를 이용하여 계산한 초기 지상 위치 정확도를 계산하고, 이들 정보를 이용하여 절대 오정렬 추정 및 보정을 2차례 수행하는 절차로 이루어졌다.
도 4 및 도 5는 실험결과를 나타낸 그래프로서, 도 4를 살펴보면 1차 절대 오정렬을 추정하여 보정한 결과, 위치 정확도 오차는 초기의 수준과 비교하여 약 5% 수준으로 비약적으로 감소하였음을 알 수 있는데, 이는 발사 전에 측정한 동체와 센서, 탑재체간의 정렬정보가 측정 오차 및 발사 시의 충격 등의 요인으로 인해 상당한 수준의 오차가 발생했음을 뜻하고, 또한 본 발명의 방법에 의해 그 오차가 상당히 정확하게 추정 및 보정되었을 의미한다.
그러나 1차 오정렬 추정 결과에서 여전히 미세한 정도의 편차가 관측되었기 때문에 더 많은 수의 기준점 영상을 사용하여 2차로 오정렬의 추정과 보정을 수행하였고, 그 결과 도 5에서 보듯이 위치 정확도의 편차가 매우 성공적으로 수정되었음을 확인할 수 있다.
위에서는 영상촬영위성을 기준으로 절대 오정렬을 보정하는 방법에 대해 설명하였으나, 본 발명의 절대 오정렬 보정방법을 비행기나 비행선 등의 비행체에도 적용할 수 있음은 자명하다.
이상 설명한 바와 같이 본 발명은 자세제어 센서로부터 측정한 자세정보와 1차원 선형배열의 영상 센서를 이용하는 영상 탑재체로부터 촬영한 영상정보에 대해 종래의 평면 영상 센서에 의한 평면영상 정보를 이용하여 센서의 자세를 결정하는 기법을 적용함으로써 자세제어 센서와 영상 탑재체 간의 절대 오정렬을 간단하면서도 정확하게 추정하여 보정할 수 있다.

Claims (4)

  1. 고해상도의 지상영상을 촬영하여 지상에 송신하는 위성 또는 비행체의 절대 오정렬을 추정하여 보정하는 방법에 있어서,
    1차원 선형 배열로 늘어선 형태의 영상 센서를 이용하는 영상 탑재체를 사용하여 정확한 위치정보를 알고 있는 복수 개의 지상목표물을 각각 촬영한 다음, 촬영된 복수 개의 영상에서의 지상목표물의 위치정보와 이미 알고 있는 지상목표물의 위치정보를 서로 비교하는 지상목표물 촬영 및 비교단계(S100)와;
    상기 지상목표물 촬영 및 비교단계(S100)의 수행결과 획득된 정보에 대해 평면 영상 센서에 의해 획득된 영상을 이용하여 절대 오정렬을 추정하는 방법을 적용하여 자세제어 센서와 영상 탑재체 간의 절대 오정렬 값을 추정하는 절대 오정렬 추정값 산출단계(S200) 및;
    상기 산출된 절대 오정렬 추정값을 자세제어 센서들에 적용하여 절대 오정렬을 보정하는 보정단계(S300);로 이루어지는 것을 특징으로 하는 선형배열 영상 센서와 자세제어 센서 간의 절대 오정렬 보정방법.
  2. 제 1항에 있어서,
    상기 평면 영상 센서에 의해 획득된 목표물의 영상을 이용하여 평면 영상 센서의 자세를 계산하는 방법은 아래의 수학식 2로 정의되는 목적함수를 최소화하는 방법 중에서 DAVENPORT 알고리즘 또는 QUEST 알고리즘 중 어느 하나인 것을 특징으로 하는 선형배열 영상 센서와 자세제어 센서 간의 절대 오정렬 보정방법.
    [수학식 2]
    Figure PCTKR2013010413-appb-I000071
    여기서
    Figure PCTKR2013010413-appb-I000072
    는 목적함수,
    Figure PCTKR2013010413-appb-I000073
    는 평면 영상 센서의 좌표변환행렬,
    Figure PCTKR2013010413-appb-I000074
    은 촬영된 영상에서의 목표물의 개수,
    Figure PCTKR2013010413-appb-I000075
    는 촬영된 영상의 위치벡터,
    Figure PCTKR2013010413-appb-I000076
    는 목표물의 관성좌표계에서의 방향벡터이다.
  3. 제 1항에 있어서,
    상기 지상목표물 촬영 및 비교단계(S100)에 의해 획득된 정보는 시변항과 시불변항으로 나누어 재배치함으로써 아래의 수학식 6 형태를 가지도록 변환되는 것을 특징으로 하는 선형배열 영상 센서와 자세제어 센서 간의 절대 오정렬 보정방법.
    [수학식 6]
    Figure PCTKR2013010413-appb-I000077
    여기서,
    Figure PCTKR2013010413-appb-I000078
    이고,
    Figure PCTKR2013010413-appb-I000079
    이며, 모든 벡터는 단위 벡터화된 것으로 가정한다.
  4. 제 3항에 있어서,
    상기 절대 오정렬 추정값(
    Figure PCTKR2013010413-appb-I000080
    )은 상기 수학식 6에 의해 산출되고, 산출된 절대 오정렬 추정값(
    Figure PCTKR2013010413-appb-I000081
    )은 자세제어 센서들의 새로운 자세는 아래의 수학 식 10에 의해 산출되는 것을 특징으로 하는 선형배열 영상 센서와 자세제어 센서 간의 절대 오정렬 보정방법.
    [수학식 10]
    Figure PCTKR2013010413-appb-I000082
    여기서, 첨자
    Figure PCTKR2013010413-appb-I000083
    는 자세 제어 센서를 나타낸다.
PCT/KR2013/010413 2012-12-28 2013-11-15 선형배열 영상 센서와 자세제어 센서 간의 절대 오정렬 보정방법 WO2014104574A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/646,297 US9672624B2 (en) 2012-12-28 2013-11-15 Method for calibrating absolute misalignment between linear array image sensor and attitude control sensor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020120157652A KR101282718B1 (ko) 2012-12-28 2012-12-28 선형배열 영상센서와 자세제어 센서 간의 절대 오정렬 보정방법
KR10-2012-0157652 2012-12-28

Publications (1)

Publication Number Publication Date
WO2014104574A1 true WO2014104574A1 (ko) 2014-07-03

Family

ID=48996655

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/010413 WO2014104574A1 (ko) 2012-12-28 2013-11-15 선형배열 영상 센서와 자세제어 센서 간의 절대 오정렬 보정방법

Country Status (3)

Country Link
US (1) US9672624B2 (ko)
KR (1) KR101282718B1 (ko)
WO (1) WO2014104574A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107389098A (zh) * 2017-08-22 2017-11-24 长光卫星技术有限公司 一种航天器星敏感器安装矩阵在轨标定方法
CN109391755A (zh) * 2017-08-03 2019-02-26 佳能株式会社 摄像设备及其中执行的方法

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101368846B1 (ko) 2013-04-26 2014-03-05 국방과학연구소 정렬오차 허용치 산출 항공기 탑재용 촬영 장치 및 이의 정렬오차 허용치 산출방법
FR3030091B1 (fr) * 2014-12-12 2018-01-26 Airbus Operations Procede et systeme de detection automatique d'un desalignement en operation d'un capteur de surveillance d'un aeronef.
CN106897473A (zh) * 2015-12-21 2017-06-27 北京航空航天大学 一种位姿不确定度评定方法
KR101824191B1 (ko) * 2016-11-01 2018-01-31 한국항공우주연구원 위성영상 손실 인식 시스템, 방법 및 컴퓨터 판독 가능한 기록매체
CN107607904B (zh) * 2017-09-06 2019-07-19 北京电子工程总体研究所 一种基于测角信息的多目标同一性识别方法
US10392136B2 (en) * 2017-09-18 2019-08-27 Raytheon Company Offload adjustment for satellite image diversity
CN107806887A (zh) * 2017-09-22 2018-03-16 上海卫星工程研究所 火星导航敏感器安装误差在轨定标方法
CN107782240B (zh) * 2017-09-27 2020-06-05 首都师范大学 一种二维激光扫描仪标定方法、系统及装置
CN109141368B (zh) * 2018-07-19 2020-08-14 北京空间机电研究所 一种高定位精度星载成像系统及方法
CN110596891B (zh) * 2019-09-19 2020-07-24 中国科学院长春光学精密机械与物理研究所 大视场星敏感器光学系统畸变自动标定方法
CN112504264B (zh) * 2020-10-22 2021-12-07 北京控制工程研究所 一种用于星敏感器姿态测量的超分辨率成像方法
CN112498746B (zh) * 2020-11-16 2022-06-28 长光卫星技术股份有限公司 一种自主规划卫星沿经线推扫时间及姿态的方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6298288B1 (en) * 1998-12-16 2001-10-02 Hughes Electronics Corp. Autonomous gyro scale factor and misalignment calibration
US6336062B1 (en) * 1999-12-10 2002-01-01 Nec Corporation Attitude angle sensor correcting apparatus for an artificial satellite
US20060149474A1 (en) * 2005-01-03 2006-07-06 Needelman David D Real-time refinement method of spacecraft star tracker alignment estimates

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2153700C2 (ru) * 1995-04-17 2000-07-27 Спейс Системз/Лорал, Инк. Система управления ориентацией и формированием изображения (варианты)
US6222174B1 (en) * 1999-03-05 2001-04-24 Hewlett-Packard Company Method of correlating immediately acquired and previously stored feature information for motion sensing
US7185858B2 (en) * 2003-11-26 2007-03-06 The Boeing Company Spacecraft gyro calibration system
US8772690B2 (en) * 2012-02-01 2014-07-08 The Charles Stark Draper Laboratory Multi-functional star tracker with precision focal plane position control for small cubesat-class satellites

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6298288B1 (en) * 1998-12-16 2001-10-02 Hughes Electronics Corp. Autonomous gyro scale factor and misalignment calibration
US6336062B1 (en) * 1999-12-10 2002-01-01 Nec Corporation Attitude angle sensor correcting apparatus for an artificial satellite
US20060149474A1 (en) * 2005-01-03 2006-07-06 Needelman David D Real-time refinement method of spacecraft star tracker alignment estimates

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YONG, KI-LYUK ET AL.: "On-Orbit AOCS Sensor Calibration of Spacecraft.", AEROSPACE ENGINEERING AND TECHNOLOGY, vol. 5, no. 2, November 2006 (2006-11-01), pages 90 - 101 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109391755A (zh) * 2017-08-03 2019-02-26 佳能株式会社 摄像设备及其中执行的方法
CN109391755B (zh) * 2017-08-03 2021-09-14 佳能株式会社 摄像设备及其中执行的方法
CN107389098A (zh) * 2017-08-22 2017-11-24 长光卫星技术有限公司 一种航天器星敏感器安装矩阵在轨标定方法

Also Published As

Publication number Publication date
US20150348264A1 (en) 2015-12-03
US9672624B2 (en) 2017-06-06
KR101282718B1 (ko) 2013-07-05

Similar Documents

Publication Publication Date Title
WO2014104574A1 (ko) 선형배열 영상 센서와 자세제어 센서 간의 절대 오정렬 보정방법
CN107389098B (zh) 一种航天器星敏感器安装矩阵在轨标定方法
US9030552B2 (en) Method for calibrating a measurement instrument of an optronic system
CN109459059B (zh) 一种星敏感器外场转换基准测定系统及方法
US20080255789A1 (en) Information processing apparatus and information processing method
JP2008304260A (ja) 画像処理装置
CN108375383B (zh) 多相机辅助的机载分布式pos柔性基线测量方法和装置
WO2018124337A1 (ko) 적응적 관심영역 및 탐색창을 이용한 객체 검출 방법 및 장치
CN108663043B (zh) 基于单个相机辅助的分布式pos主子节点相对位姿测量方法
CN109269525B (zh) 一种空间探测器起飞或着陆过程光学测量系统及方法
WO2020075954A1 (ko) 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법
CN111238540A (zh) 一种基于恒星拍摄的珞珈一号相机-星敏安装标定方法
CN110793542A (zh) 一种基于广义探元指向角的面阵光学遥感卫星在轨几何定标方法
Poli General model for airborne and spaceborne linear array sensors
Chen et al. On-orbit high-accuracy geometric calibration for remote sensing camera based on star sources observation
Pi et al. On-orbit geometric calibration using a cross-image pair for the linear sensor aboard the agile optical satellite
WO2024096387A1 (ko) Gnss 오차 공유를 이용한 드론 협동 항법
WO2021221334A1 (ko) Gps정보 및 라이다 신호를 기초로 형성되는 컬러 맵 생성 장치 및 그 제어방법
WO2013089535A1 (ko) 다중선형 회귀분석을 이용한 지상라이다 자료 필터링 방법
CN112097794B (zh) 遥感卫星载荷平台标定方法及系统
WO2023022305A1 (ko) 보행자 실내 위치 측위 장치 및 방법
Lyu et al. Imaging navigation and registration for geostationary imager
CN116007657A (zh) 一种小视场相机与星敏测量基准同步的天文标定方法
Clédat et al. Camera calibration models and methods for corridor mapping with UAVS
WO2024096691A1 (ko) 무인항공기의 카메라 영상 정보 기반 다수 목표물의 gps 좌표 추정 및 목표물 추적 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13868408

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14646297

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13868408

Country of ref document: EP

Kind code of ref document: A1