KR20050104901A - Method of docking multiple spacecrafts using vision sensor - Google Patents
Method of docking multiple spacecrafts using vision sensor Download PDFInfo
- Publication number
- KR20050104901A KR20050104901A KR1020040030349A KR20040030349A KR20050104901A KR 20050104901 A KR20050104901 A KR 20050104901A KR 1020040030349 A KR1020040030349 A KR 1020040030349A KR 20040030349 A KR20040030349 A KR 20040030349A KR 20050104901 A KR20050104901 A KR 20050104901A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- vision sensor
- aircraft
- equation
- ccd camera
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/02—Constructional features of telephone sets
- H04M1/0202—Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
- H04M1/0206—Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings
- H04M1/0208—Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings characterized by the relative motions of the body parts
- H04M1/0214—Foldable telephones, i.e. with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
- H04M1/0216—Foldable in one direction, i.e. using a one degree of freedom hinge
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Navigation (AREA)
Abstract
본 발명은 비전 센서를 이용하여 다수 비행체를 도킹시키는 방법에 관한 것으로써 보다 구체적으로는 추적 물체와 목표 물체의 관계를 2차원적으로 구하여 확장 칼만 필터와 관성항법장치 및 자이로를 통해 위치정보 및 자세정보를 정확히 추정하고, 상기와 같이 추정된 정보를 통해 추적물체가 목표물체에 정확히 도킹할 수 있도록 하는 다수 비행체의 도킹 방법에 관한 것이다.The present invention relates to a method of docking multiple aircraft using a vision sensor. More specifically, the relationship between a tracking object and a target object is obtained in two dimensions, and the positional information and attitude through an extended Kalman filter, an inertial navigation system, and a gyro. The present invention relates to a docking method of a plurality of vehicles that accurately estimates information and allows the tracking object to dock precisely to the target object through the estimated information.
비전센서는 CCD 카메라와 다수의 비콘을 포함하여 이루어지며, 상기 CCD 카메라와 비콘들을 평면상에 투영시켜 이들의 기하학적인 관계와 확장 칼만 필터를 이용하여 위치정보 및 자세정보를 추정한다.The vision sensor includes a CCD camera and a plurality of beacons, and the CCD camera and the beacons are projected onto a plane to estimate the positional information and the attitude information using their geometric relationship and the extended Kalman filter.
Description
본 발명은 비전 센서를 이용하여 다수 비행체를 도킹시키는 방법에 관한 것으로써 보다 구체적으로는 추적 물체와 목표 물체의 관계를 2차원적으로 구하여 확장 칼만 필터와 관성항법장치 및 자이로를 통해 위치정보 및 자세정보를 정확히 추정하고, 상기와 같이 추정된 정보를 통해 추적물체가 목표물체에 정확히 도킹할 수 있도록 하는 다수 비행체의 도킹 방법에 관한 것이다.The present invention relates to a method of docking multiple aircraft using a vision sensor. More specifically, the relationship between a tracking object and a target object is obtained in two dimensions, and the positional information and attitude through an extended Kalman filter, an inertial navigation system, and a gyro. The present invention relates to a docking method of a plurality of vehicles that accurately estimates information and allows the tracking object to dock precisely to the target object through the estimated information.
지난 몇 십년 동안, 랑데뷰나 도킹에 있어서의 자동화 문제는 가장 중요하고 필요한 기술의 하나로 고려되어 왔다. 자동화된 랑데뷰나 도킹 시스템(ARD: Automated Rendezvous and Docking)이 우주 비행체 시스템의 비용이나 복잡성을 많이 감소시킬 수 있기 때문이다. 또한, 이렇게 해서 개발된 ARD 기술은 우주 비행체의 편대 비행이나 비행 중인 비행기에 연료를 주입하는 데에도 쓰일 수 있어, 그 활용도가 높다. 러시아가 미르 우주 정거장에 도킹하기 위해 이 기술을 제일 먼저 선보인 이래, 미국, 유럽, 일본 등이 개별적으로 ARD를 개발하는 데 주력하고 있다.Over the last few decades, automation issues in rendezvous or docking have been considered one of the most important and necessary technologies. Automated Rendezvous and Docking (ARD) can greatly reduce the cost and complexity of space vehicle systems. In addition, the ARD technology developed in this way can be used for the formation of the flight of the spacecraft or to inject fuel into the plane in flight, which is highly utilized. Since Russia first introduced the technology to dock at the Mir space station, the United States, Europe and Japan have been focusing on developing ARD individually.
전형적인 도킹 과정은 발사(launch), 궤도 전이(orbit transfer), 접근(relative approach), 근접 작동(proximity operation), 최종 완료(final phase) 이렇게 5단계로 나누어 생각할 수 있다. 지금 본 발명에서 다루는 단계는 4번째 단계인 근접 작동 단계이다. 근접 작동은 보통 추적 우주 비행체(chaser spacecraft)와 목표 우주 비행체(target spacecraft) 사이의 거리가 100m 이하일 때를 가리키는데, 이 과정에서 필요한 정확한 항법에 쓰이는 방법은 대체로 다음과 같은 2가지가 있다. 첫째는 칼만 킬터를 이용해서 GPS를 사용하는 기술이다. 이 기술은 대략 1cm 오차 범위를 가지고 있지만, 가까울 때에 GPS 사이의 문제가 있을 가능성이 있고, 지구가 아닌 다른 행성에서의 운영이 어렵다는 단점이 있다. 다른 하나는 상대적인 거리나 자세를 측정하기 위해 비전 유도 센서를 사용하는 것이다. 이 기술은 상기 GPS 관련 기술에 내재된 문제는 없으나, 비전 관련 기술이 추가적으로 필요하다는 문제가 있다. 본 발명은 후자의 기술을 사용하는 것이다.A typical docking process can be thought of in five stages: launch, orbit transfer, relative approach, proximity operation, and final phase. The step now covered in the present invention is the fourth step, the proximity operation step. Proximity operation usually refers to when the distance between the tracker spacecraft and the target spacecraft is less than 100m. There are generally two methods for the exact navigation required in this process. The first is using Kalman Killer to use GPS. The technique has a margin of error of approximately 1 cm, but it is likely that there is a problem between GPS when it is close, and it is difficult to operate on a planet other than Earth. The other is to use vision inductive sensors to measure relative distances or postures. This technology has no problem inherent to the GPS-related technology, but has a problem that an additional vision-related technology is needed. The present invention uses the latter technique.
상기와 같은 기술을 개발하기 위해서는 도킹 과정에서 주위 정보를 적절하게 필터링해 주는 알고리듬이 반드시 필요하다. 본 발명에서 사용할 비전 시스템은 근접 작동에서 정확한 정보를 얻을 수 있으나, 하드웨어적인 한계로 인해 샘플링 주파수가 몇 Hz 밖에 되지 않는 단점이 있다. 반면 자이로를 포함한 관성항법장치(Inertial Measurement Unit, 이하 'IMU')는 단기적으로 안정하고 충분한 샘플링 주파수를 가지고 있으나, 장기적으로 발산하는 특성을 지니고 있다. 따라서 이 두 가지 센서를 혼합하여 사용하는 것이 우주 비행체 도킹 기술에 있어서 필수적이다.In order to develop such a technique, an algorithm for properly filtering the surrounding information during the docking process is necessary. The vision system to be used in the present invention can obtain accurate information in close operation, but has a disadvantage that the sampling frequency is only a few Hz due to hardware limitations. On the other hand, the Inertial Measurement Unit (IMU), including the gyro, is stable in the short term and has a sufficient sampling frequency, but emits in the long term. Therefore, using these two sensors in combination is essential for spacecraft docking technology.
자세 측정에 있어서 칼만 필터가 매우 유용하다는 사실은 그 동안 증명되어 왔다. 칼만 필터를 사용하면 시스템 모델 방정식의 반응과 실제 측정 사이의 오차를 최소화해 주어, 더 나은 상태 추정을 할 수 있다.The Kalman filter has been proven to be very useful in posture measurements. The Kalman filter minimizes the error between the response of the system model equations and the actual measurements, allowing for better state estimation.
1960년 R.E. 칼만(Kalman)에 의해 제안된 이산 칼만 필터링은 디지털 컴퓨터의 급격한 발전으로 인하여 많은 분야에서 널리 쓰이고 있는 필터링 방법이다. 특히 자동화 시스템이나 유도 및 항법 분야에서는 칼만 필터링은 없어서는 안되는 중요한 기법이다.1960 R.E. Discrete Kalman filtering, proposed by Kalman, is a filtering method that is widely used in many fields due to the rapid development of digital computers. Especially in the field of automation systems, guidance and navigation, Kalman filtering is an indispensable technique.
이산 칼만 필터는 수학식 1과 같은 선형 확률 미분 방정식에 의해 지배되는 이산 제어 과정에서 상태를 추정하려는 데 쓰인다. 실제적으로 측정된 값은 수학식 2처럼 나타내어진다.Discrete Kalman filters are used to estimate states in discrete control processes governed by linear probability differential equations such as The actually measured value is represented by Equation 2.
[수학식 1][Equation 1]
[수학식 2][Equation 2]
여기서 는 번째 스텝에서의 상태값을 는 번째 스텝에서의 출력값을 나타낸다. 은 번째 입력값을 나타내고 랜덤 변수와 는 각각 모델링 잡음과 측정 잡음을 나타낸다. 이 두 변수는 서로 독립이고 평균이 0인 백색 잡음으로 간주한다. 수학식 3은 두 잡음의 특성을 나타낸다.here Is State value in the first step Is The output value in the first step is shown. silver Random variable representing the th input value Wow Denote modeling noise and measurement noise, respectively. These two variables are considered independent of each other and mean zero white noise. Equation 3 shows the characteristics of the two noises.
[수학식 3][Equation 3]
여기서 는 각각 랜덤 변수 와 가 발생할 확률함수를 나타낸다.here Are random variables Wow Represents the probability function.
실제적으로 모델링 잡음의 공분산 와 측정 잡음의 공분산 행렬은 각각의 시각과 측정마다 변하지만 일반적으로 상수라고 가정한다.Practically Covariance of Modeling Noise And covariance of measured noise The matrix changes with each time and measurement but is generally assumed to be a constant.
이산 칼만 필터의 확률적인 특성은 수학식 4처럼 상태 분포의 1차, 2차 모멘트를 설정해 주는 것으로 충분하다.The stochastic characteristic of the discrete Kalman filter is sufficient to set the first and second moments of the state distribution as shown in Equation 4.
[수학식 4][Equation 4]
여기서 는 변수 의 기대값을 나타내고 는 변수 의 평균을 의미한다. 또한 는 변수 의 분산을 나타낸다. 이러한 특성들을 가진 이산 칼만 필터는 시간과 측정에 대하여 각각 업데이트를 연속적으로 해 나가도록 구성되어 있다. 수학식 5는 시간에 대한 업데이트 구조, 수학식 6은 측정에 대한 업데이트 구조를 나타낸다.here Is a variable Represents the expected value of Is a variable Means the average. Also Is a variable The dispersion of Discrete Kalman filters with these characteristics are configured to continuously update each time and measurement. Equation 5 shows an update structure with respect to time, and Equation 6 shows an update structure with respect to the measurement.
[수학식 5][Equation 5]
[수학식 6][Equation 6]
여기서 는 칼만 필터 게인이고 나머지 변수들은 수학식 1 내지 4에서 사용된 변수들과 의미가 같다here Is the Kalman filter gain and the remaining variables have the same meanings as the variables used in Equations 1 to 4
상기와 같은 이산 칼만 필터는 선형 시스템에 대해 적용이 가능한 것이고, 선형으로 나타내기 곤란한 비선형 시스템에 대해서는 확장 칼만 필터의 형태를 사용하여야 한다. 확장 칼만 필터가 적용되는 시스템은 수학식 7과 같은 비선형 확률 미분 방정식에 의해 나타낼 수 있다.Discrete Kalman filters as described above are applicable to linear systems, and for nonlinear systems that are difficult to represent linearly, the form of extended Kalman filters should be used. The system to which the Extended Kalman Filter is applied may be represented by a nonlinear probability differential equation such as Equation (7).
[수학식 7][Equation 7]
선형 시스템에서 수학식 5 및 수학식 6으로 기술된 시간 및 측정 업데이트 구조는 비선형 시스템에서는 수학식 8 및 수학식 9로 수정된다.The time and measurement update structure described by Equations 5 and 6 in the linear system is modified to Equations 8 and 9 in the nonlinear system.
[수학식 8][Equation 8]
[수학식 9][Equation 9]
확장 칼만 필터의 기본적인 사용은 선형 시스템과 동일하다.The basic use of the Extended Kalman Filter is the same as the linear system.
비전을 사용하여 두 물체 간의 위치 및 각도 정보를 얻기 위해서는 적어도 하나의 CCD 카메라와 물체를 인식하기 위한 좌표를 제공하는 몇 개의 비콘이 동시에 제공되어야 한다. 비콘은 쉽게 감지될 수 있는 물질이나 LED 같은 발광 물질로 만들어져야 하고, 목표 물체의 알려진 위치에 부착되어 있어야 한다. CCD 카메라를 부착한 추적 물체가 목표 물체의 비콘을 인식하고 서로 간의 위치와 자세를 계산한다.In order to obtain position and angle information between two objects using vision, at least one CCD camera and several beacons that provide coordinates to recognize the object must be provided simultaneously. Beacons must be made of a material that can be easily detected or a light-emitting material such as an LED and attached to a known location on the target. A tracking object with a CCD camera recognizes the beacons of the target object and calculates the position and attitude of each other.
도 1은 비콘과 CCD 카메라 사이의 관계를 3차원으로 나타내고 있다. 는 목표 물체에 상대적인 추적 물체의 위치를 나타내고 는 오일러 각을 나타낸다. 이 때 목표 물체의 좌표와 추적 물체의 좌표 사이의 관계를 기술하는 방향 코사인 행렬은 3-2-1 회전을 이용하면 수학식 10처럼 나타난다.1 shows the relationship between a beacon and a CCD camera in three dimensions. Indicates the position of the tracking object relative to the target object. Represents the Euler angle. At this time, the direction cosine matrix describing the relationship between the coordinates of the target object and the coordinates of the tracking object is expressed by Equation 10 using 3-2-1 rotation.
[수학식 10][Equation 10]
도 1에 나타난 기하학으로부터 i번째 비콘과 그것의 CCD 상에서의 측정값은 수학식 11처럼 나타내어진다. 여기서 사용된 는 수학식 10에서 기술한 행렬의 요소이다From the geometry shown in FIG. 1, the i-th beacon and its measurements on the CCD are represented as in equation (11). Used here Is the matrix of the equation Element
[수학식 11][Equation 11]
본 발명은 종래의 확장 칼만 필터를 이용하여 비전 시스템 정보와 자이로를 포함한 IMU 정보를 결합시켜 정확한 상태를 추정하고자 하는 데 그 목적이 있다. 비전 시스템의 샘플링 주파수와 자이로를 포함한 IMU의 샘플링 주파수가 다르기 때문에 확장 칼만 필터를 주파수에 따라 다르게 사용하는 것이 필요하다. 비전 시스템 정보를 이용할 수 있을 경우에는 IMU 정보와 비전 시스템 정보를 모두 사용하여 칼만 필터링을 수행하고 비전 시스템 정보를 이용할 수 없을 경우에는 IMU 정보만을 이용하여 칼만 필터링을 수행한다.An object of the present invention is to estimate the accurate state by combining the vision system information and the IMU information including the gyro using a conventional extended Kalman filter. Because the sampling frequency of the vision system and the sampling frequency of the IMU including the gyro are different, it is necessary to use the extended Kalman filter differently depending on the frequency. If vision system information is available, Kalman filtering is performed using both IMU and vision system information. If vision system information is not available, Kalman filtering is performed using only IMU information.
본 발명의 다른 목적은 비전 시스템(카메라, 비콘)을 사용하여 두 물체 사이의 상대적인 위치 및 자세를 직접적으로 알아내는 것이다. Another object of the present invention is to directly determine the relative position and posture between two objects using a vision system (camera, beacon).
본 발명은 도킹하는 둘 이상의 비행체에 있어서 일측에는 CCD 카메라를, 타측에는 비콘을 부착하는 것을 포함하는 비전센서를 구성하고, 상기 CCD 카메라로 비콘을 인식함으로써 계산된 두 비행체의 상대적인 위치정보 및 자세정보를 이용하여 도킹을 제어하는 것을 특징으로 하는 다수 비행체의 도킹방법을 제공한다.The present invention comprises a vision sensor comprising a CCD camera on one side, and a beacon on the other side of the two or more aircraft docked, relative position information and attitude information of the two aircraft calculated by recognizing the beacon with the CCD camera Provides a docking method for a plurality of aircraft, characterized in that for controlling the docking using.
또한, 본 발명은 추적 물제에는 적어도 하나 이상의 CCD 카메라를 설치하고 목표 물체에는 적어도 둘 이상의 비콘을 설치하여, 이들의 관계를 적절한 평면에 투영하여 2차원으로 표현하고, 상기와 같이 표현된 2차원 관계로부터 추적 물체와 목표 물체의 거리 및 각(角) , 각(角) 를 계산하는 것을 특징으로 하는 다수 비행체의 도킹방법을 제공한다.In addition, the present invention is provided with at least one CCD camera on the tracking object and at least two beacons on the target object, and expresses their relationship in two dimensions by projecting them on a suitable plane, the two-dimensional relationship expressed as described above Distance from the tracking object to the target And angle , Angle It provides a docking method of a plurality of aircraft, characterized in that to calculate.
또한, 본 발명은 자이로 및 관성항법장치와 상기 비전센서의 정보를 갱신하기 위해 확장 칼만 필터를 사용하는 것을 특징으로 하는 다수 비행체의 도킹방법을 제공한다.The present invention also provides a method for docking a plurality of aircraft, characterized by using an extended Kalman filter to update the information of the gyro and inertial navigation apparatus and the vision sensor.
또한, 본 발명은 비전센서의 정보가 가용할 때에는 비전센서의 정보를 이용하고, 비전센서의 정보가 가용하지 않을 때에는 관성항법장치 및 자이로 정보를 이용하여 상태를 추정하는 것을 특징으로 하는 다수 비행체의 도킹방법을 제공한다.In addition, the present invention uses the information of the vision sensor when the information of the vision sensor is available, and when the information of the vision sensor is not available, the inertial navigation system and gyro information to estimate the state of a plurality of aircraft, characterized in that Provides a docking method.
또한, 본 발명은 상기 비전센서의 정보가 가용할 때에는 하기 (a)식과 같은 측정 방정식을 사용하고, 상기 비전센서의 정보가 가용하지 않을 때에는 하기 (b)식과 같은 측정 방정식을 사용하는 것을 특징으로 하는 다수 비행체의 도킹방법을 제공한다.In addition, the present invention is characterized by using the measurement equation as shown in the following formula (a) when the information of the vision sensor is available, and using the measurement equation as shown in (b) when the information of the vision sensor is not available. It provides a docking method of a plurality of aircraft.
(a) (a)
(b) (b)
또한, 본 발명은 비행하는 둘 이상의 비행체에 있어서 일측에는 CCD 카메라를, 타측에는 비콘을 부착하고, 상기 CCD 카메라로 비콘을 인식함으로써 계산된 두 비행체의 상대적인 위치정보 및 자세정보를 이용하여 정렬비행을 제어하는 것을 특징으로 하는 다수 비행체의 정렬비행방법을 제공한다.In addition, the present invention in the two or more flying vehicles flying on the CCD camera on one side, the beacon is attached to the other side, by using the relative position information and attitude information of the two aircraft calculated by recognizing the beacon with the CCD camera to perform the alignment flight It provides a method of alignment flight of a plurality of vehicles, characterized in that the control.
또한, 본 발명은 상기 자세정보를 하기식 (c)에 의하여 획득하고, 상기 상대적인 위치정보를 하기식 (d)에 의하여 획득하는 것을 특징으로 하는 다수 비행체의 정렬비행방법을 제공한다.In addition, the present invention provides a method for aligning a plurality of aircraft, characterized in that to obtain the attitude information by the following equation (c), and to obtain the relative position information by the following equation (d).
(c) (c)
(d) (d)
또한, 본 발명은 비행하는 둘 이상의 비행체에 있어서 일측에는 CCD 카메라를, 타측에는 비콘을 부착하고, 상기 CCD 카메라로 비콘을 인식함으로써 계산된 두 비행체의 상대적인 위치정보 및 자세정보를 이용하여 충돌회피비행을 제어하는 것을 특징으로 하는 다수 비행체의 충돌회피비행방법을 제공한다.In addition, the present invention is a collision avoidance flight by using the relative position information and attitude information of the two aircraft, which is calculated by recognizing the beacon with the CCD camera on one side, the beacon on the other side of the two or more flying aircraft flying; It provides a collision avoidance flight method of a plurality of aircraft, characterized in that for controlling.
또한, 본 발명은 상기 자세정보를 상기식 (c)에 의하여 획득하고, 상기 상대적인 위치정보를 상기식 (d)에 의하여 획득하는 것을 특징으로 하는 다수 비행체의 충돌회피비행방법을 제공한다.In addition, the present invention provides a collision avoidance flight method of a plurality of aircraft, characterized in that to obtain the attitude information by the above formula (c), and to obtain the relative position information by the above formula (d).
또한, 본 발명은 비전센서의 정보가 가용할 때에는 비전센서의 정보를 이용하고, 비전센서의 정보가 가용하지 않을 때에는 관성항법장치 및 자이로 정보를 이용하여 상태를 추정하는 것을 특징으로 하는 다수 비행체의 정렬비행방법을 제공한다.In addition, the present invention uses the information of the vision sensor when the information of the vision sensor is available, and when the information of the vision sensor is not available, the inertial navigation system and gyro information to estimate the state of a plurality of aircraft, characterized in that Provide an alignment flight method.
또한, 본 발명은 비전센서의 정보가 가용할 때에는 비전센서의 정보를 이용하고, 비전센서의 정보가 가용하지 않을 때에는 관성항법장치 및 자이로 정보를 이용하여 상태를 추정하는 것을 특징으로 하는 다수 비행체의 충돌회피비행방법을 제공한다.In addition, the present invention uses the information of the vision sensor when the information of the vision sensor is available, and when the information of the vision sensor is not available, the inertial navigation system and gyro information to estimate the state of a plurality of aircraft, characterized in that Provides a way to avoid collisions.
이하 본 발명을 보다 구체적으로 설명한다.Hereinafter, the present invention will be described in more detail.
종래의 비전 기반 시스템은 수학식 11에서 볼 수 있듯이 비선형이고 상태들이 서로 연관되어 있기 때문에 해석적인 해를 직접적으로 얻을 수 없다. 그러나, 본 발명에서 사용하려고 하는 2차원 평면운동에 맞게 수학식 11에 약간의 수정을 가하면 어떠한 사전 정보 없이 상대적인 위치 및 자세 정보를 획득할 수 있다. 도 2는 2차원 평면운동에서 비콘과 CCD 카메라 사이의 관계를 나타낸다.Conventional vision-based systems are nonlinear, as shown in Equation 11, and states cannot be directly interpreted because they are related to each other. However, if a slight modification is made to Equation 11 in accordance with the two-dimensional plane motion to be used in the present invention, the relative position and attitude information can be obtained without any prior information. 2 shows the relationship between beacons and CCD cameras in two-dimensional plane motion.
도 2에서 나타낸 의 부호는 회전각 계산에 영향을 미치기 때문에 미리 결정해 두는 것이 필요하다. 도 2에서의 는 모두 음의 값을 갖는다. 즉 방향각 psi는 수학식 12처럼 정의된다.Shown in Figure 2 Since the sign of affects the rotation angle calculation, it is necessary to decide in advance. In FIG. 2 Are all negative values. That is, the direction angle psi is defined as in Equation 12.
[수학식 12][Equation 12]
CCD 카메라 상에서의 비콘들의 픽셀 위치인 와 실제 비콘들 사이의 거리 , 렌즈의 초점 거리 는 알 수 있는 5개의 변수들인 반면, 와 추적 물체와 목표 물체 사이의 거리 은 알아내어야 할 3개의 변수들이다. 는 수학식 13에서처럼 간단하게 알아낼 수 있다.The pixel position of the beacons on the CCD camera And distance between real beacons Focal length of lens Are five known variables, And the distance between the tracking object and the target object Are the three variables to figure out. Can be found simply as in Equation 13.
[수학식 13][Equation 13]
CCD 카메라 상에서 비콘들 사이의 거리인 는 수학식 14처럼 정의된다.The distance between the beacons on the CCD camera Is defined as in equation (14).
[수학식 14][Equation 14]
도 2에서 나타난 기하학으로부터 , 는 수학식 15처럼 나타난다.From the geometry shown in Figure 2 , Is represented by equation (15).
[수학식 15][Equation 15]
수학식 13과 수학식 15를 연합하여 풀게 되면 마침내 우리가 얻고자 하는 방향각 를 수학식 16처럼 계산할 수 있다.When we solve equation 13 and equation 15 together, we finally get the direction angle Can be calculated as in Equation 16.
[수학식 16][Equation 16]
수학식 16에서 오른쪽 항에 있는 모든 변수들을 알고 있기 때문에 단지 하나의 CCD 카메라와 비콘들 만을 이용해서 방향각 를 해석적으로 구할 수 있다. 비슷한 방식으로 가운데 비콘과 렌즈 사이의 거리를 수학식 17처럼 구할 수 있다.Since we know all the variables in the right term in Equation 16, we use only one CCD camera and beacons Can be obtained analytically. In a similar manner, the distance between the center beacon and the lens can be obtained as shown in Equation 17.
[수학식 17][Equation 17]
방향각 ψ는 수학식 16에서 보듯이 와 의 크기 차이를 이용하여 나타내어지고, 거리 은 수학식 17에서 보듯이 주로 렌즈의 초점 거리에 의존함을 알 수 있다.The direction angle ψ is shown in equation (16) Wow Represented by the size difference of As shown in Equation 17, it can be seen that mainly depends on the focal length of the lens.
본 발명에서 개발된 알고리듬을 적용시킬 시스템은 위치 및 자세를 추정하기 위한 자유비행 로봇 시스템이다. 2개의 병진 자유도와 1개의 회전 자유도를 가져 총 3개의 자유도를 가지고 있고, 상태 벡터는 수학식 18처럼 나타낼 수 있다. 도 3은 자유비행 로봇의 전체적인 모습을 나타낸다.The system to which the algorithm developed in the present invention is applied is a free flying robot system for estimating position and attitude. It has two translational degrees of freedom and one rotational degree of freedom and has a total of three degrees of freedom, and the state vector can be represented by Equation 18. Figure 3 shows the overall appearance of the free flying robot.
[수학식 18]Equation 18
여기서 와 는 위치 정보를, 는 로봇의 방향각 변수로써 자세 정보를 나타낸다. 이 때 자유비행 로봇의 동력학 방정식과 위치 및 자세를 제어하기 위한 간단한 PD 제어기는 수학식 19처럼 기술된다.here Wow Location information, Denotes the attitude information as the direction angle variable of the robot. At this time, the dynamic equation of the free flying robot and a simple PD controller for controlling the position and attitude are described as in Equation 19.
[수학식 19][Equation 19]
여기서 는 3×3 대각 관성 행렬이고 는 자유비행 로봇에 가해지는 힘과 토크이다. 또한 는 비행체가 목표로 하는 상태(위치 및 자세)를 나타내고 는 현재 비행체의 상태(위치 및 자세)를 나타낸다. 와 는 튜닝을 통해 결정되어야 하는 제어 게인이다.here Is a 3 × 3 diagonal inertia matrix Is the force and torque applied to the free flying robot. Also Indicates the state (position and attitude) that the aircraft is aiming for Indicates the state (position and attitude) of the current vehicle. Wow Is the control gain that must be determined through tuning.
수학식 19에서 사용된 상태 변수는 수학식 18에서 정의한 것처럼 단지 3개이다. 하지만, 실제적으로 센서에서 얻어지는 변수들은 수학식 18에서 정의한 변수들 그 자체가 아니라 그것들의 미분 형태이다. 따라서, 칼만 필터 형태를 이용하여 그 정보들을 사용하기 위해서는 수학식 20처럼 시스템 상태 벡터를 확장해야 한다.The state variables used in (19) are only three, as defined in (18). However, in practice, the variables obtained in the sensor are not the variables defined in Equation 18, but their derivative form. Therefore, in order to use the information using the Kalman filter form, the system state vector must be extended as shown in Equation 20.
[수학식 20][Equation 20]
수학식 19를 잘 알려진 최적 선형 추정기 형태로 다시 고쳐 쓰면 수학식 21과 같은 형태가 된다.Rewriting Equation 19 into the form of a well-known optimal linear estimator gives the form of Equation 21.
[수학식 21][Equation 21]
여기서 는 최적 문제를 풀기 쉽게 하기 위해서 일정한 공분산을 가진 백색 잡음이라 가정된다. 는 샘플링 시간이고, 는 현재의 시스템 상태 벡터이다.here Is assumed to be white noise with constant covariance to make it easier to solve the optimal problem. Is the sampling time, Is the current system state vector.
위에서 살펴 본 바와 같이 비전 기반 시스템은 직접적으로 위치와 자세 정보를 얻을 수 있고, IMU와 자이로로부터 가속도와 요 각속도를 얻을 수 있기 때문에 이 두 가지 정보를 모두 획득할 수 있을 경우에 측정 방정식은 수학식 22처럼 기술된다.As shown above, since the vision-based system can obtain position and attitude information directly, and acceleration and yaw velocity from the IMU and gyro, the measurement equation can be expressed as It is described as 22.
[수학식 22][Equation 22]
는 번째의 측정 잡음이고 공분산 행렬은 센서 정확도에 따라 의미 있는 값으로 정한다. Is The measured noise and the covariance matrix are set to meaningful values according to the sensor accuracy.
수학식 20과 수학식 22에서 각각 상태 방정식과 측정 방정식을 기술하였기 때문에 위에서 설명한 칼만 필터링을 이용해서 상태를 추정할 수 있다. 하지만, 비전 센서와 IMU 및 자이로의 샘플링 주파수가 다르기 때문에 항상 이 두 정보를 모두 얻을 수는 없다. 따라서 두 정보를 동시에 얻을 때에는 비전 센서로부터 정보를, IMU 및 자이로로부터 정보를 얻을 수 있기 때문에 수학식 22와 같은 측정 방정식을 사용한다. 하지만, 비전센서 정보를 이용할 수 없어서 샘플링 주파수가 높은 IMU 및 자이로 정보만을 얻을 때에는 만을 얻을 수 있기 때문에 수학식 23과 같은 측정 방정식을 이용하여 칼만 필터링을 한다.Since Equation 20 and Equation 22 describe the state equation and the measurement equation, respectively, the state can be estimated using the Kalman filtering described above. However, because the sampling frequency of the vision sensor and the IMU and gyro are different, it is not always possible to get both of them. So when you get two pieces of information at the same time, Information from IMU and Gyro Since information can be obtained, a measurement equation such as (22) is used. However, when only the IMU and gyro information with high sampling frequency is obtained because the vision sensor information is not available. Since only 10,000 can be obtained, Kalman filtering is performed using a measurement equation such as Equation 23.
[수학식 23][Equation 23]
도 5는 본 발명에 따른 비전 기반 시스템 알고리듬 순서도이다.5 is a flowchart of a vision based system algorithm in accordance with the present invention.
본 발명은 다수 비행체의 정렬비행 및 충돌회피비행에도 동일한 원리로써 응용이 가능하다.The present invention can be applied to the same principle in the alignment flight and collision avoidance flight of a plurality of aircraft.
본 발명에 의하면, 평면 운동에서 하나의 CCD 카메라와 몇 개의 비콘들만을 이용하여 두 물체 사이의 상대적인 위치와 자세 정보를 해석적으로 구할 수 있다. 따라서, 시간에 따라 발산하는 경향이 있는 자이로를 포함한 IMU 정보를 전적으로 사용하는 대신 비전 정보와 더불어 사용하면 더 나은 상태 값을 얻을 수 있다. 비전 정보는 상대적으로 정확한 값을 얻을 수 있는 반면 샘플링 주파수가 매우 작고, 자이로를 포함한 IMU 정보는 상대적으로 부정확한 반면 샘플링 주파수가 높다. 이 두가지 센서 정보를 이산 칼만 필터를 이용하여 적절히 필터링하여 서로의 장점을 살릴 수 있다.According to the present invention, it is possible to analytically obtain relative position and posture information between two objects using only one CCD camera and a few beacons in planar motion. Thus, instead of using the IMU information, including the gyro, which tends to diverge over time, it can be used with vision information to obtain better state values. While vision information can yield relatively accurate values, the sampling frequency is very small, and the IMU information including the gyro is relatively inaccurate while the sampling frequency is high. These two sensor information can be properly filtered using discrete Kalman filter to take advantage of each other.
도 1은 본 발명에 따른 다수 비행체 도킹방법에 있어 비콘들과 CCD 카메라 사이의 3차원 관계를 나타내는 개념도이다.1 is a conceptual diagram illustrating a three-dimensional relationship between beacons and a CCD camera in a multiple aircraft docking method according to the present invention.
도 2는 본 발명에 따른 다수 비행체 도킹방법에 있어 비콘들과 CCD 카메라를 적절한 2차원 평면에 투영하여 3차원 관계를 2차원 평면으로 전환한 관계를 나타내는 개념도이다.2 is a conceptual diagram illustrating a relationship of converting a three-dimensional relationship into a two-dimensional plane by projecting beacons and a CCD camera onto a suitable two-dimensional plane in the multiple aircraft docking method according to the present invention.
도 3은 본 발명에 따른 다수 비행체 도킹방법에 있어 자유비행 로봇의 전체적인 모습을 나타내는 개념도이다.3 is a conceptual diagram showing the overall appearance of the free flying robot in the multiple aircraft docking method according to the present invention.
도 4는 본 발명의 일실시예를 나타낸 개념도이다.4 is a conceptual diagram illustrating an embodiment of the present invention.
도 5는 본 발명에 따른 다수 비행체 도킹방법에 포함되는 위치 및 자세 상태 추정 알고리듬의 순서도이다.5 is a flowchart of a position and attitude state estimation algorithm included in the multiple aircraft docking method according to the present invention.
<도면의 주요 부호의 설명><Description of Major Codes in Drawings>
A, B, C : 비콘 A, B, C의 실제 위치 A, B, C: Actual location of beacons A, B, C
: 시선과 비콘면의 수직선 이루는 사이각 : The angle between the line of sight and the vertical line of the beacon
: 시선과 이미지평면의 수직선이 이루는 사이각 : The angle between the line of sight and the vertical line of the image plane
: 초점거리 : 추적물체와 목표물체 사이의 거리 Focal length : Distance between tracking object and target object
: 이미지평면 상에서의 비콘 A, B, C의 좌표 : Coordinates of beacons A, B, and C on the image plane
: 평면에 투영된 비콘 사이의 거리 : Distance between beacons projected on the plane
: 비전 센서가 가용할 때의 측정행렬(측정민감도 행렬) : Measurement matrix when the vision sensor is available (measurement sensitivity matrix)
: 비전 센서가 가용하지 않을 때의 측정행렬(측정민감도 행렬) : Measurement matrix when the vision sensor is not available (measurement sensitivity matrix)
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040030349A KR100575108B1 (en) | 2004-04-30 | 2004-04-30 | Method of Docking Multiple Spacecrafts Using Vision Sensor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040030349A KR100575108B1 (en) | 2004-04-30 | 2004-04-30 | Method of Docking Multiple Spacecrafts Using Vision Sensor |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20050104901A true KR20050104901A (en) | 2005-11-03 |
KR100575108B1 KR100575108B1 (en) | 2006-04-28 |
Family
ID=37282357
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020040030349A KR100575108B1 (en) | 2004-04-30 | 2004-04-30 | Method of Docking Multiple Spacecrafts Using Vision Sensor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100575108B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107289931B (en) * | 2017-05-23 | 2019-09-27 | 北京小鸟看看科技有限公司 | A kind of methods, devices and systems positioning rigid body |
CN108460804A (en) * | 2018-03-20 | 2018-08-28 | 重庆大学 | A kind of Three Degree Of Freedom position and posture detection method of transhipment docking mechanism and transhipment docking mechanism based on machine vision |
-
2004
- 2004-04-30 KR KR1020040030349A patent/KR100575108B1/en not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
KR100575108B1 (en) | 2006-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3158412B1 (en) | Sensor fusion using inertial and image sensors | |
EP3158293B1 (en) | Sensor fusion using inertial and image sensors | |
Nguyen et al. | Robust target-relative localization with ultra-wideband ranging and communication | |
EP3158417B1 (en) | Sensor fusion using inertial and image sensors | |
US9387927B2 (en) | Rotary-wing drone comprising autonomous means for determining a position in an absolute coordinate system linked to the ground | |
EP3158411B1 (en) | Sensor fusion using inertial and image sensors | |
US6704619B1 (en) | Method and system for universal guidance and control of automated machines | |
US6489922B1 (en) | Passive/ranging/tracking processing method for collision avoidance guidance and control | |
US11906983B2 (en) | System and method for tracking targets | |
EP1975646A2 (en) | Lader-based motion estimation for navigation | |
US20220210335A1 (en) | Autofocusing camera and systems | |
US8686326B1 (en) | Optical-flow techniques for improved terminal homing and control | |
Delaune et al. | Thermal-inertial odometry for autonomous flight throughout the night | |
Hoeller et al. | Augmenting ultra-wideband localization with computer vision for accurate flight | |
Andert et al. | Optical-aided aircraft navigation using decoupled visual SLAM with range sensor augmentation | |
De Wagter et al. | Towards vision-based uav situation awareness | |
Fang et al. | A motion tracking method by combining the IMU and camera in mobile devices | |
Miller et al. | UAV navigation based on videosequences captured by the onboard video camera | |
Koch et al. | A vision-based navigation algorithm for a VTOL-UAV | |
Miller et al. | Optical Flow as a navigation means for UAV | |
Amidi et al. | Research on an autonomous vision-guided helicopter | |
KR100575108B1 (en) | Method of Docking Multiple Spacecrafts Using Vision Sensor | |
CN114003041A (en) | Multi-unmanned vehicle cooperative detection system | |
Lukashevich et al. | The new approach for reliable UAV navigation based on onboard camera image processing | |
Frietsch et al. | Real time implementation of a vision-based UAV detection and tracking system for UAV-navigation aiding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20100401 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |