KR100575108B1 - Method of Docking Multiple Spacecrafts Using Vision Sensor - Google Patents

Method of Docking Multiple Spacecrafts Using Vision Sensor Download PDF

Info

Publication number
KR100575108B1
KR100575108B1 KR1020040030349A KR20040030349A KR100575108B1 KR 100575108 B1 KR100575108 B1 KR 100575108B1 KR 1020040030349 A KR1020040030349 A KR 1020040030349A KR 20040030349 A KR20040030349 A KR 20040030349A KR 100575108 B1 KR100575108 B1 KR 100575108B1
Authority
KR
South Korea
Prior art keywords
information
beacons
ccd camera
equation
target object
Prior art date
Application number
KR1020040030349A
Other languages
Korean (ko)
Other versions
KR20050104901A (en
Inventor
탁민제
방효충
김근태
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020040030349A priority Critical patent/KR100575108B1/en
Publication of KR20050104901A publication Critical patent/KR20050104901A/en
Application granted granted Critical
Publication of KR100575108B1 publication Critical patent/KR100575108B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0206Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings
    • H04M1/0208Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings characterized by the relative motions of the body parts
    • H04M1/0214Foldable telephones, i.e. with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • H04M1/0216Foldable in one direction, i.e. using a one degree of freedom hinge

Abstract

본 발명은 비전 센서를 이용하여 다수 비행체를 도킹시키는 방법에 관한 것으로써 보다 구체적으로는 추적 물체와 목표 물체의 관계를 2차원적으로 구하여 확장 칼만 필터와 관성항법장치 및 자이로를 통해 위치정보 및 자세정보를 정확히 추정하고, 상기와 같이 추정된 정보를 통해 추적물체가 목표물체에 정확히 도킹할 수 있도록 하는 다수 비행체의 도킹 방법에 관한 것이다.The present invention relates to a method of docking multiple aircraft using a vision sensor. More specifically, the relationship between a tracking object and a target object is obtained in two dimensions, and the positional information and attitude through an extended Kalman filter, an inertial navigation system, and a gyro. The present invention relates to a docking method of a plurality of vehicles that accurately estimates information and allows the tracking object to dock precisely to the target object through the estimated information.

비전센서는 CCD 카메라와 다수의 비콘을 포함하여 이루어지며, 상기 CCD 카메라와 비콘들을 평면상에 투영시켜 이들의 기하학적인 관계와 확장 칼만 필터를 이용하여 위치정보 및 자세정보를 추정한다.The vision sensor includes a CCD camera and a plurality of beacons, and the CCD camera and the beacons are projected onto a plane to estimate the positional information and the attitude information using their geometric relationship and the extended Kalman filter.

비전 센서, 도킹, CCD 카메라, 비폰, 확장 칼만 필터, IMU, 자이로Vision Sensor, Docking, CCD Camera, Biphone, Extended Kalman Filter, IMU, Gyro

Description

비전 센서를 이용하여 다수 비행체를 도킹시키는 방법 {Method of Docking Multiple Spacecrafts Using Vision Sensor} How to Dock Multiple Aircraft Using Vision Sensors {Method of Docking Multiple Spacecrafts Using Vision Sensor}             

도 1은 본 발명에 따른 다수 비행체 도킹방법에 있어 비콘들과 CCD 카메라 사이의 3차원 관계를 나타내는 개념도이다.1 is a conceptual diagram illustrating a three-dimensional relationship between beacons and a CCD camera in a multiple aircraft docking method according to the present invention.

도 2는 본 발명에 따른 다수 비행체 도킹방법에 있어 비콘들과 CCD 카메라를 적절한 2차원 평면에 투영하여 3차원 관계를 2차원 평면으로 전환한 관계를 나타내는 개념도이다.2 is a conceptual diagram illustrating a relationship of converting a three-dimensional relationship into a two-dimensional plane by projecting beacons and a CCD camera onto a suitable two-dimensional plane in the multiple aircraft docking method according to the present invention.

도 3은 본 발명에 따른 다수 비행체 도킹방법에 있어 자유비행 로봇의 전체적인 모습을 나타내는 개념도이다.3 is a conceptual diagram showing the overall appearance of the free flying robot in the multiple aircraft docking method according to the present invention.

도 4는 본 발명의 일실시예를 나타낸 개념도이다.4 is a conceptual diagram illustrating an embodiment of the present invention.

도 5는 본 발명에 따른 다수 비행체 도킹방법에 포함되는 위치 및 자세 상태 추정 알고리듬의 순서도이다.5 is a flowchart of a position and attitude state estimation algorithm included in the multiple aircraft docking method according to the present invention.

<도면의 주요 부호의 설명><Description of Major Codes in Drawings>

A, B, C : 비콘 A, B, C의 실제 위치

Figure 112004018295294-pat00001
A, B, C: Actual location of beacons A, B, C
Figure 112004018295294-pat00001

Figure 112004018295294-pat00002
: 시선과 비콘면의 수직선 이루는 사이각
Figure 112004018295294-pat00002
: The angle between the line of sight and the vertical line of the beacon

Figure 112004018295294-pat00003
: 시선과 이미지평면의 수직선이 이루는 사이각
Figure 112004018295294-pat00003
: The angle between the line of sight and the vertical line of the image plane

Figure 112004018295294-pat00004
: 초점거리
Figure 112004018295294-pat00005
: 추적물체와 목표물체 사이의 거리
Figure 112004018295294-pat00004
Focal length
Figure 112004018295294-pat00005
: Distance between tracking object and target object

Figure 112004018295294-pat00006
: 이미지평면 상에서의 비콘 A, B, C의 좌표
Figure 112004018295294-pat00006
: Coordinates of beacons A, B, and C on the image plane

Figure 112004018295294-pat00007
: 평면에 투영된 비콘 사이의 거리
Figure 112004018295294-pat00007
: Distance between beacons projected on the plane

Figure 112004018295294-pat00008
: 비전 센서가 가용할 때의 측정행렬(측정민감도 행렬)
Figure 112004018295294-pat00008
: Measurement matrix when the vision sensor is available (measurement sensitivity matrix)

Figure 112004018295294-pat00009
: 비전 센서가 가용하지 않을 때의 측정행렬(측정민감도 행렬)
Figure 112004018295294-pat00009
: Measurement matrix when the vision sensor is not available (measurement sensitivity matrix)

본 발명은 비전 센서를 이용하여 다수 비행체를 도킹시키는 방법에 관한 것으로써 보다 구체적으로는 추적 물체와 목표 물체의 관계를 2차원적으로 구하여 확장 칼만 필터와 관성항법장치 및 자이로를 통해 위치정보 및 자세정보를 정확히 추정하고, 상기와 같이 추정된 정보를 통해 추적물체가 목표물체에 정확히 도킹할 수 있도록 하는 다수 비행체의 도킹 방법에 관한 것이다.The present invention relates to a method of docking multiple aircraft using a vision sensor. More specifically, the relationship between a tracking object and a target object is obtained in two dimensions, and the positional information and attitude through an extended Kalman filter, an inertial navigation system, and a gyro. The present invention relates to a docking method of a plurality of vehicles that accurately estimates information and allows the tracking object to dock precisely to the target object through the estimated information.

지난 몇 십년 동안, 랑데뷰나 도킹에 있어서의 자동화 문제는 가장 중요하고 필요한 기술의 하나로 고려되어 왔다. 자동화된 랑데뷰나 도킹 시스템(ARD: Automated Rendezvous and Docking)이 우주 비행체 시스템의 비용이나 복잡성을 많 이 감소시킬 수 있기 때문이다. 또한, 이렇게 해서 개발된 ARD 기술은 우주 비행체의 편대 비행이나 비행 중인 비행기에 연료를 주입하는 데에도 쓰일 수 있어, 그 활용도가 높다. 러시아가 미르 우주 정거장에 도킹하기 위해 이 기술을 제일 먼저 선보인 이래, 미국, 유럽, 일본 등이 개별적으로 ARD를 개발하는 데 주력하고 있다.Over the last few decades, automation issues in rendezvous or docking have been considered one of the most important and necessary technologies. Automated Rendezvous and Docking (ARD) can greatly reduce the cost and complexity of space vehicle systems. In addition, the ARD technology developed in this way can be used for the formation of the flight of the spacecraft or to inject fuel into the plane in flight, which is highly utilized. Since Russia first introduced the technology to dock at the Mir space station, the United States, Europe and Japan have been focusing on developing ARD individually.

전형적인 도킹 과정은 발사(launch), 궤도 전이(orbit transfer), 접근(relative approach), 근접 작동(proximity operation), 최종 완료(final phase) 이렇게 5단계로 나누어 생각할 수 있다. 지금 본 발명에서 다루는 단계는 4번째 단계인 근접 작동 단계이다. 근접 작동은 보통 추적 우주 비행체(chaser spacecraft)와 목표 우주 비행체(target spacecraft) 사이의 거리가 100m 이하일 때를 가리키는데, 이 과정에서 필요한 정확한 항법에 쓰이는 방법은 대체로 다음과 같은 2가지가 있다. 첫째는 칼만 킬터를 이용해서 GPS를 사용하는 기술이다. 이 기술은 대략 1cm 오차 범위를 가지고 있지만, 가까울 때에 GPS 사이의 문제가 있을 가능성이 있고, 지구가 아닌 다른 행성에서의 운영이 어렵다는 단점이 있다. 다른 하나는 상대적인 거리나 자세를 측정하기 위해 비전 유도 센서를 사용하는 것이다. 이 기술은 상기 GPS 관련 기술에 내재된 문제는 없으나, 비전 관련 기술이 추가적으로 필요하다는 문제가 있다. 본 발명은 후자의 기술을 사용하는 것이다.A typical docking process can be thought of in five stages: launch, orbit transfer, relative approach, proximity operation, and final phase. The step now covered in the present invention is the fourth step, the proximity operation step. Proximity operation usually refers to when the distance between the tracker spacecraft and the target spacecraft is less than 100m. There are generally two methods for the exact navigation required in this process. The first is using Kalman Killer to use GPS. The technique has a margin of error of approximately 1 cm, but it is likely that there is a problem between GPS when it is close, and it is difficult to operate on a planet other than Earth. The other is to use vision inductive sensors to measure relative distances or postures. This technology has no problem inherent to the GPS-related technology, but has a problem that an additional vision-related technology is needed. The present invention uses the latter technique.

상기와 같은 기술을 개발하기 위해서는 도킹 과정에서 주위 정보를 적절하게 필터링해 주는 알고리듬이 반드시 필요하다. 본 발명에서 사용할 비전 시스템은 근접 작동에서 정확한 정보를 얻을 수 있으나, 하드웨어적인 한계로 인해 샘플링 주 파수가 몇 Hz 밖에 되지 않는 단점이 있다. 반면 자이로를 포함한 관성항법장치(Inertial Measurement Unit, 이하 'IMU')는 단기적으로 안정하고 충분한 샘플링 주파수를 가지고 있으나, 장기적으로 발산하는 특성을 지니고 있다. 따라서 이 두 가지 센서를 혼합하여 사용하는 것이 우주 비행체 도킹 기술에 있어서 필수적이다.In order to develop such a technique, an algorithm for properly filtering the surrounding information during the docking process is necessary. The vision system to be used in the present invention can obtain accurate information in close operation, but has a disadvantage that the sampling frequency is only a few Hz due to hardware limitations. On the other hand, the Inertial Measurement Unit (IMU), including the gyro, is stable in the short term and has a sufficient sampling frequency, but emits in the long term. Therefore, using these two sensors in combination is essential for spacecraft docking technology.

자세 측정에 있어서 칼만 필터가 매우 유용하다는 사실은 그 동안 증명되어 왔다. 칼만 필터를 사용하면 시스템 모델 방정식의 반응과 실제 측정 사이의 오차를 최소화해 주어, 더 나은 상태 추정을 할 수 있다.The Kalman filter has been proven to be very useful in posture measurements. The Kalman filter minimizes the error between the response of the system model equations and the actual measurements, allowing for better state estimation.

1960년 R.E. 칼만(Kalman)에 의해 제안된 이산 칼만 필터링은 디지털 컴퓨터의 급격한 발전으로 인하여 많은 분야에서 널리 쓰이고 있는 필터링 방법이다. 특히 자동화 시스템이나 유도 및 항법 분야에서는 칼만 필터링은 없어서는 안되는 중요한 기법이다.1960 R.E. Discrete Kalman filtering, proposed by Kalman, is a filtering method that is widely used in many fields due to the rapid development of digital computers. Especially in the field of automation systems, guidance and navigation, Kalman filtering is an indispensable technique.

이산 칼만 필터는 수학식 1과 같은 선형 확률 미분 방정식에 의해 지배되는 이산 제어 과정에서 상태를 추정하려는 데 쓰인다. 실제적으로 측정된 값은 수학식 2처럼 나타내어진다.Discrete Kalman filters are used to estimate states in discrete control processes governed by linear probability differential equations such as The actually measured value is represented by Equation 2.

[수학식 1][Equation 1]

Figure 112004018295294-pat00010
Figure 112004018295294-pat00010

[수학식 2][Equation 2]

Figure 112004018295294-pat00011
Figure 112004018295294-pat00011

여기서

Figure 112004018295294-pat00012
Figure 112004018295294-pat00013
번째 스텝에서의 상태값을
Figure 112004018295294-pat00014
Figure 112004018295294-pat00015
번째 스텝에서의 출력값을 나타낸다.
Figure 112004018295294-pat00016
Figure 112004018295294-pat00017
번째 입력값을 나타내고 랜덤 변수
Figure 112004018295294-pat00018
Figure 112004018295294-pat00019
는 각각 모델링 잡음과 측정 잡음을 나타낸다. 이 두 변수는 서로 독립이고 평균이 0인 백색 잡음으로 간주한다. 수학식 3은 두 잡음의 특성을 나타낸다.here
Figure 112004018295294-pat00012
Is
Figure 112004018295294-pat00013
State value in the first step
Figure 112004018295294-pat00014
Is
Figure 112004018295294-pat00015
The output value in the first step is shown.
Figure 112004018295294-pat00016
silver
Figure 112004018295294-pat00017
Random variable representing the th input value
Figure 112004018295294-pat00018
Wow
Figure 112004018295294-pat00019
Denote modeling noise and measurement noise, respectively. These two variables are considered independent of each other and mean zero white noise. Equation 3 shows the characteristics of the two noises.

[수학식 3][Equation 3]

Figure 112004018295294-pat00020
Figure 112004018295294-pat00020

여기서

Figure 112004018295294-pat00021
는 각각 랜덤 변수
Figure 112004018295294-pat00022
Figure 112004018295294-pat00023
가 발생할 확률함수를 나타낸다.here
Figure 112004018295294-pat00021
Are random variables
Figure 112004018295294-pat00022
Wow
Figure 112004018295294-pat00023
Represents the probability function.

실제적으로 모델링 잡음의 공분산

Figure 112004018295294-pat00024
와 측정 잡음의 공분산
Figure 112004018295294-pat00025
행렬은 각각의 시각과 측정마다 변하지만 일반적으로 상수라고 가정한다.Practically Covariance of Modeling Noise
Figure 112004018295294-pat00024
And covariance of measured noise
Figure 112004018295294-pat00025
The matrix changes with each time and measurement but is generally assumed to be a constant.

이산 칼만 필터의 확률적인 특성은 수학식 4처럼 상태 분포의 1차, 2차 모멘트를 설정해 주는 것으로 충분하다.The stochastic characteristic of the discrete Kalman filter is sufficient to set the first and second moments of the state distribution as shown in Equation 4.

[수학식 4][Equation 4]

Figure 112004018295294-pat00026
Figure 112004018295294-pat00026

여기서 는 변수

Figure 112004018295294-pat00028
의 기대값을 나타내고
Figure 112004018295294-pat00029
는 변수
Figure 112004018295294-pat00030
의 평균을 의미 한다. 또한
Figure 112004018295294-pat00031
는 변수
Figure 112004018295294-pat00032
의 분산을 나타낸다. 이러한 특성들을 가진 이산 칼만 필터는 시간과 측정에 대하여 각각 업데이트를 연속적으로 해 나가도록 구성되어 있다. 수학식 5는 시간에 대한 업데이트 구조, 수학식 6은 측정에 대한 업데이트 구조를 나타낸다.here Is a variable
Figure 112004018295294-pat00028
Represents the expected value of
Figure 112004018295294-pat00029
Is a variable
Figure 112004018295294-pat00030
Means the average. Also
Figure 112004018295294-pat00031
Is a variable
Figure 112004018295294-pat00032
The dispersion of Discrete Kalman filters with these characteristics are configured to continuously update each time and measurement. Equation 5 shows an update structure with respect to time, and Equation 6 shows an update structure with respect to the measurement.

[수학식 5][Equation 5]

Figure 112004018295294-pat00033
Figure 112004018295294-pat00033

[수학식 6][Equation 6]

Figure 112004018295294-pat00034
Figure 112004018295294-pat00034

여기서

Figure 112004018295294-pat00035
는 칼만 필터 게인이고 나머지 변수들은 수학식 1 내지 4에서 사용된 변수들과 의미가 같다here
Figure 112004018295294-pat00035
Is the Kalman filter gain and the remaining variables have the same meanings as the variables used in Equations 1 to 4

상기와 같은 이산 칼만 필터는 선형 시스템에 대해 적용이 가능한 것이고, 선형으로 나타내기 곤란한 비선형 시스템에 대해서는 확장 칼만 필터의 형태를 사용하여야 한다. 확장 칼만 필터가 적용되는 시스템은 수학식 7과 같은 비선형 확률 미분 방정식에 의해 나타낼 수 있다.Discrete Kalman filters as described above are applicable to linear systems, and for nonlinear systems that are difficult to represent linearly, the form of extended Kalman filters should be used. The system to which the Extended Kalman Filter is applied may be represented by a nonlinear probability differential equation such as Equation (7).

[수학식 7][Equation 7]

Figure 112004018295294-pat00036
Figure 112004018295294-pat00036

선형 시스템에서 수학식 5 및 수학식 6으로 기술된 시간 및 측정 업데이트 구조는 비선형 시스템에서는 수학식 8 및 수학식 9로 수정된다.The time and measurement update structure described by Equations 5 and 6 in the linear system is modified to Equations 8 and 9 in the nonlinear system.

[수학식 8][Equation 8]

Figure 112004018295294-pat00037
Figure 112004018295294-pat00037

[수학식 9][Equation 9]

Figure 112004018295294-pat00038
Figure 112004018295294-pat00038

확장 칼만 필터의 기본적인 사용은 선형 시스템과 동일하다.The basic use of the Extended Kalman Filter is the same as the linear system.

비전을 사용하여 두 물체 간의 위치 및 각도 정보를 얻기 위해서는 적어도 하나의 CCD 카메라와 물체를 인식하기 위한 좌표를 제공하는 몇 개의 비콘이 동시에 제공되어야 한다. 비콘은 쉽게 감지될 수 있는 물질이나 LED 같은 발광 물질로 만들어져야 하고, 목표 물체의 알려진 위치에 부착되어 있어야 한다. CCD 카메라를 부착한 추적 물체가 목표 물체의 비콘을 인식하고 서로 간의 위치와 자세를 계산한 다.In order to obtain position and angle information between two objects using vision, at least one CCD camera and several beacons that provide coordinates to recognize the object must be provided simultaneously. Beacons must be made of a material that can be easily detected or a light-emitting material such as an LED and attached to a known location on the target. A tracking object with a CCD camera recognizes the beacons of the target object and calculates the position and attitude of each other.

도 1은 비콘과 CCD 카메라 사이의 관계를 3차원으로 나타내고 있다.

Figure 112004018295294-pat00039
는 목표 물체에 상대적인 추적 물체의 위치를 나타내고
Figure 112004018295294-pat00040
는 오일러 각을 나타낸다. 이 때 목표 물체의 좌표와 추적 물체의 좌표 사이의 관계를 기술하는 방향 코사인 행렬은 3-2-1 회전을 이용하면 수학식 10처럼 나타난다.1 shows the relationship between a beacon and a CCD camera in three dimensions.
Figure 112004018295294-pat00039
Indicates the position of the tracking object relative to the target object.
Figure 112004018295294-pat00040
Represents the Euler angle. At this time, the direction cosine matrix describing the relationship between the coordinates of the target object and the coordinates of the tracking object is expressed by Equation 10 using 3-2-1 rotation.

[수학식 10][Equation 10]

Figure 112004018295294-pat00041
Figure 112004018295294-pat00041

도 1에 나타난 기하학으로부터 i번째 비콘과 그것의 CCD 상에서의 측정값은 수학식 11처럼 나타내어진다. 여기서 사용된

Figure 112004018295294-pat00042
는 수학식 10에서 기술한 행렬의
Figure 112004018295294-pat00043
요소이다From the geometry shown in FIG. 1, the i-th beacon and its measurements on the CCD are represented as in equation (11). Used here
Figure 112004018295294-pat00042
Is the matrix of the equation
Figure 112004018295294-pat00043
Element

[수학식 11][Equation 11]

Figure 112004018295294-pat00044
Figure 112004018295294-pat00044

본 발명은 종래의 확장 칼만 필터를 이용하여 비전 시스템 정보와 자이로를 포함한 IMU 정보를 결합시켜 정확한 상태를 추정하고자 하는 데 그 목적이 있다. 비전 시스템의 샘플링 주파수와 자이로를 포함한 IMU의 샘플링 주파수가 다르기 때문에 확장 칼만 필터를 주파수에 따라 다르게 사용하는 것이 필요하다. 비전 시스템 정보를 이용할 수 있을 경우에는 IMU 정보와 비전 시스템 정보를 모두 사용하여 칼만 필터링을 수행하고 비전 시스템 정보를 이용할 수 없을 경우에는 IMU 정보만을 이용하여 칼만 필터링을 수행한다.An object of the present invention is to estimate the accurate state by combining the vision system information and the IMU information including the gyro using a conventional extended Kalman filter. Because the sampling frequency of the vision system and the sampling frequency of the IMU including the gyro are different, it is necessary to use the extended Kalman filter differently depending on the frequency. If vision system information is available, Kalman filtering is performed using both IMU and vision system information. If vision system information is not available, Kalman filtering is performed using only IMU information.

본 발명의 다른 목적은 비전 시스템(카메라, 비콘)을 사용하여 두 물체 사이의 상대적인 위치 및 자세를 직접적으로 알아내는 것이다.
Another object of the present invention is to directly determine the relative position and posture between two objects using a vision system (camera, beacon).

본 발명은 도킹하는 둘 이상의 비행체에 있어서 일측에는 CCD 카메라를, 타측에는 비콘을 부착하는 것을 포함하는 비전센서를 구성하고, 상기 CCD 카메라로 비콘을 인식함으로써 계산된 두 비행체의 상대적인 위치정보 및 자세정보를 이용하여 도킹을 제어하는 것을 특징으로 하는 다수 비행체의 도킹방법을 제공한다.The present invention comprises a vision sensor comprising a CCD camera on one side, and a beacon on the other side of the two or more aircraft docked, relative position information and attitude information of the two aircraft calculated by recognizing the beacon with the CCD camera Provides a docking method for a plurality of aircraft, characterized in that for controlling the docking using.

또한, 본 발명은 추적 물제에는 적어도 하나 이상의 CCD 카메라를 설치하고 목표 물체에는 적어도 둘 이상의 비콘을 설치하여, 이들의 관계를 적절한 평면에 투영하여 2차원으로 표현하고, 상기와 같이 표현된 2차원 관계로부터 추적 물체와 목표 물체의 거리

Figure 112004018295294-pat00045
및 각(角)
Figure 112004018295294-pat00046
, 각(角)
Figure 112004018295294-pat00047
를 계산하는 것을 특징으로 하는 다수 비행체의 도킹방법을 제공한다.In addition, the present invention is provided with at least one CCD camera on the tracking object and at least two beacons on the target object, and expresses their relationship in two dimensions by projecting them on a suitable plane, the two-dimensional relationship expressed as described above Distance from the tracking object to the target
Figure 112004018295294-pat00045
And angle
Figure 112004018295294-pat00046
, Angle
Figure 112004018295294-pat00047
It provides a docking method of a plurality of aircraft, characterized in that to calculate.

또한, 본 발명은 자이로 및 관성항법장치와 상기 비전센서의 정보를 갱신하기 위해 확장 칼만 필터를 사용하는 것을 특징으로 하는 다수 비행체의 도킹방법을 제공한다.The present invention also provides a method for docking a plurality of aircraft, characterized by using an extended Kalman filter to update the information of the gyro and inertial navigation apparatus and the vision sensor.

또한, 본 발명은 비전센서의 정보가 가용할 때에는 비전센서의 정보를 이용하고, 비전센서의 정보가 가용하지 않을 때에는 관성항법장치 및 자이로 정보를 이용하여 상태를 추정하는 것을 특징으로 하는 다수 비행체의 도킹방법을 제공한다.In addition, the present invention uses the information of the vision sensor when the information of the vision sensor is available, and when the information of the vision sensor is not available, the inertial navigation system and gyro information to estimate the state of a plurality of aircraft, characterized in that Provides a docking method.

또한, 본 발명은 상기 비전센서의 정보가 가용할 때에는 하기 (a)식과 같은 측정 방정식을 사용하고, 상기 비전센서의 정보가 가용하지 않을 때에는 하기 (b)식과 같은 측정 방정식을 사용하는 것을 특징으로 하는 다수 비행체의 도킹방법을 제공한다.In addition, the present invention is characterized by using the measurement equation as shown in the following formula (a) when the information of the vision sensor is available, and using the measurement equation as shown in (b) when the information of the vision sensor is not available. It provides a docking method of a plurality of aircraft.

Figure 112004018295294-pat00048
(a)
Figure 112004018295294-pat00048
(a)

Figure 112004018295294-pat00049
(b)
Figure 112004018295294-pat00049
(b)

또한, 본 발명은 비행하는 둘 이상의 비행체에 있어서 일측에는 CCD 카메라를, 타측에는 비콘을 부착하고, 상기 CCD 카메라로 비콘을 인식함으로써 계산된 두 비행체의 상대적인 위치정보 및 자세정보를 이용하여 정렬비행을 제어하는 것을 특징으로 하는 다수 비행체의 정렬비행방법을 제공한다.In addition, the present invention in the two or more flying vehicles flying on the CCD camera on one side, the beacon is attached to the other side, by using the relative position information and attitude information of the two aircraft calculated by recognizing the beacon with the CCD camera to perform the alignment flight It provides a method of alignment flight of a plurality of vehicles, characterized in that the control.

또한, 본 발명은 상기 자세정보를 하기식 (c)에 의하여 획득하고, 상기 상대 적인 위치정보를 하기식 (d)에 의하여 획득하는 것을 특징으로 하는 다수 비행체의 정렬비행방법을 제공한다.In addition, the present invention provides a method for aligning a plurality of aircraft, characterized in that to obtain the attitude information by the following equation (c), and to obtain the relative position information by the following equation (d).

Figure 112004018295294-pat00050
(c)
Figure 112004018295294-pat00050
(c)

Figure 112004018295294-pat00051
(d)
Figure 112004018295294-pat00051
(d)

또한, 본 발명은 비행하는 둘 이상의 비행체에 있어서 일측에는 CCD 카메라를, 타측에는 비콘을 부착하고, 상기 CCD 카메라로 비콘을 인식함으로써 계산된 두 비행체의 상대적인 위치정보 및 자세정보를 이용하여 충돌회피비행을 제어하는 것을 특징으로 하는 다수 비행체의 충돌회피비행방법을 제공한다.In addition, the present invention is a collision avoidance flight by using the relative position information and attitude information of the two aircraft, which is calculated by recognizing the beacon with the CCD camera on one side, the beacon on the other side of the two or more flying aircraft flying; It provides a collision avoidance flight method of a plurality of aircraft, characterized in that for controlling.

또한, 본 발명은 상기 자세정보를 상기식 (c)에 의하여 획득하고, 상기 상대적인 위치정보를 상기식 (d)에 의하여 획득하는 것을 특징으로 하는 다수 비행체의 충돌회피비행방법을 제공한다.In addition, the present invention provides a collision avoidance flight method of a plurality of aircraft, characterized in that to obtain the attitude information by the above formula (c), and to obtain the relative position information by the above formula (d).

또한, 본 발명은 비전센서의 정보가 가용할 때에는 비전센서의 정보를 이용하고, 비전센서의 정보가 가용하지 않을 때에는 관성항법장치 및 자이로 정보를 이용하여 상태를 추정하는 것을 특징으로 하는 다수 비행체의 정렬비행방법을 제공한다.In addition, the present invention uses the information of the vision sensor when the information of the vision sensor is available, and when the information of the vision sensor is not available, the inertial navigation system and gyro information to estimate the state of a plurality of aircraft, characterized in that Provide an alignment flight method.

또한, 본 발명은 비전센서의 정보가 가용할 때에는 비전센서의 정보를 이용하고, 비전센서의 정보가 가용하지 않을 때에는 관성항법장치 및 자이로 정보를 이용하여 상태를 추정하는 것을 특징으로 하는 다수 비행체의 충돌회피비행방법을 제 공한다.In addition, the present invention uses the information of the vision sensor when the information of the vision sensor is available, and when the information of the vision sensor is not available, the inertial navigation system and gyro information to estimate the state of a plurality of aircraft, characterized in that Provides a way to avoid collisions.

이하 본 발명을 보다 구체적으로 설명한다.Hereinafter, the present invention will be described in more detail.

종래의 비전 기반 시스템은 수학식 11에서 볼 수 있듯이 비선형이고 상태들이 서로 연관되어 있기 때문에 해석적인 해를 직접적으로 얻을 수 없다. 그러나, 본 발명에서 사용하려고 하는 2차원 평면운동에 맞게 수학식 11에 약간의 수정을 가하면 어떠한 사전 정보 없이 상대적인 위치 및 자세 정보를 획득할 수 있다. 도 2는 2차원 평면운동에서 비콘과 CCD 카메라 사이의 관계를 나타낸다.Conventional vision-based systems are nonlinear, as shown in Equation 11, and states cannot be directly interpreted because they are related to each other. However, if a slight modification is made to Equation 11 in accordance with the two-dimensional plane motion to be used in the present invention, the relative position and attitude information can be obtained without any prior information. 2 shows the relationship between beacons and CCD cameras in two-dimensional plane motion.

도 2에서 나타낸

Figure 112004018295294-pat00052
의 부호는 회전각 계산에 영향을 미치기 때문에 미리 결정해 두는 것이 필요하다. 도 2에서의
Figure 112004018295294-pat00053
는 모두 음의 값을 갖는다. 즉 방향각 psi는 수학식 12처럼 정의된다.Shown in Figure 2
Figure 112004018295294-pat00052
Since the sign of affects the rotation angle calculation, it is necessary to decide in advance. In FIG. 2
Figure 112004018295294-pat00053
Are all negative values. That is, the direction angle psi is defined as in Equation 12.

[수학식 12][Equation 12]

Figure 112004018295294-pat00054
Figure 112004018295294-pat00054

CCD 카메라 상에서의 비콘들의 픽셀 위치인

Figure 112004018295294-pat00055
와 실제 비콘들 사이의 거리
Figure 112004018295294-pat00056
, 렌즈의 초점 거리
Figure 112004018295294-pat00057
는 알 수 있는 5개의 변수들인 반면,
Figure 112004018295294-pat00058
와 추적 물체와 목표 물체 사이의 거리
Figure 112004018295294-pat00059
은 알아내어야 할 3개의 변수들이다.
Figure 112004018295294-pat00060
는 수학식 13에서처럼 간단하게 알아낼 수 있다.The pixel position of the beacons on the CCD camera
Figure 112004018295294-pat00055
And distance between real beacons
Figure 112004018295294-pat00056
Focal length of lens
Figure 112004018295294-pat00057
Are five known variables,
Figure 112004018295294-pat00058
And the distance between the tracking object and the target object
Figure 112004018295294-pat00059
Are the three variables to figure out.
Figure 112004018295294-pat00060
Can be found simply as in Equation 13.

[수학식 13][Equation 13]

Figure 112004018295294-pat00061
Figure 112004018295294-pat00061

CCD 카메라 상에서 비콘들 사이의 거리인

Figure 112004018295294-pat00062
는 수학식 14처럼 정의된다.The distance between the beacons on the CCD camera
Figure 112004018295294-pat00062
Is defined as in equation (14).

[수학식 14][Equation 14]

Figure 112004018295294-pat00063
Figure 112004018295294-pat00063

도 2에서 나타난 기하학으로부터

Figure 112004018295294-pat00064
,
Figure 112004018295294-pat00065
는 수학식 15처럼 나타난다.From the geometry shown in Figure 2
Figure 112004018295294-pat00064
,
Figure 112004018295294-pat00065
Is represented by equation (15).

[수학식 15][Equation 15]

Figure 112004018295294-pat00066
Figure 112004018295294-pat00066

수학식 13과 수학식 15를 연합하여 풀게 되면 마침내 우리가 얻고자 하는 방향각

Figure 112004018295294-pat00067
를 수학식 16처럼 계산할 수 있다.When we solve equation 13 and equation 15 together, we finally get the direction angle
Figure 112004018295294-pat00067
Can be calculated as in Equation 16.

[수학식 16][Equation 16]

Figure 112004018295294-pat00068
Figure 112004018295294-pat00068

수학식 16에서 오른쪽 항에 있는 모든 변수들을 알고 있기 때문에 단지 하나 의 CCD 카메라와 비콘들 만을 이용해서 방향각

Figure 112004018295294-pat00069
를 해석적으로 구할 수 있다. 비슷한 방식으로 가운데 비콘과 렌즈 사이의 거리를 수학식 17처럼 구할 수 있다.Since we know all the variables in the right term in Equation 16, we use only one CCD camera and beacons
Figure 112004018295294-pat00069
Can be obtained analytically. In a similar manner, the distance between the center beacon and the lens can be obtained as shown in Equation 17.

[수학식 17][Equation 17]

Figure 112004018295294-pat00070
Figure 112004018295294-pat00070

방향각 ψ는 수학식 16에서 보듯이

Figure 112004018295294-pat00071
Figure 112004018295294-pat00072
의 크기 차이를 이용하여 나타내어지고, 거리
Figure 112004018295294-pat00073
은 수학식 17에서 보듯이 주로 렌즈의 초점 거리에 의존함을 알 수 있다.The direction angle ψ is shown in equation (16)
Figure 112004018295294-pat00071
Wow
Figure 112004018295294-pat00072
Represented by the size difference of
Figure 112004018295294-pat00073
As shown in Equation 17, it can be seen that mainly depends on the focal length of the lens.

본 발명에서 개발된 알고리듬을 적용시킬 시스템은 위치 및 자세를 추정하기 위한 자유비행 로봇 시스템이다. 2개의 병진 자유도와 1개의 회전 자유도를 가져 총 3개의 자유도를 가지고 있고, 상태 벡터는 수학식 18처럼 나타낼 수 있다. 도 3은 자유비행 로봇의 전체적인 모습을 나타낸다.The system to which the algorithm developed in the present invention is applied is a free flying robot system for estimating position and attitude. It has two translational degrees of freedom and one rotational degree of freedom and has a total of three degrees of freedom, and the state vector can be represented by Equation 18. Figure 3 shows the overall appearance of the free flying robot.

[수학식 18]Equation 18

Figure 112004018295294-pat00074
Figure 112004018295294-pat00074

여기서

Figure 112004018295294-pat00075
Figure 112004018295294-pat00076
는 위치 정보를,
Figure 112004018295294-pat00077
는 로봇의 방향각 변수로써 자세 정보를 나타낸다. 이 때 자유비행 로봇의 동력학 방정식과 위치 및 자세를 제어하기 위한 간단한 PD 제어기는 수학식 19처럼 기술된다.here
Figure 112004018295294-pat00075
Wow
Figure 112004018295294-pat00076
Location information,
Figure 112004018295294-pat00077
Denotes the attitude information as the direction angle variable of the robot. At this time, the dynamic equation of the free flying robot and a simple PD controller for controlling the position and attitude are described as in Equation 19.

[수학식 19][Equation 19]

Figure 112004018295294-pat00078
Figure 112004018295294-pat00078

여기서

Figure 112004018295294-pat00079
는 3×3 대각 관성 행렬이고
Figure 112004018295294-pat00080
는 자유비행 로봇에 가해지는 힘과 토크이다. 또한
Figure 112004018295294-pat00081
는 비행체가 목표로 하는 상태(위치 및 자세)를 나타내고
Figure 112004018295294-pat00082
는 현재 비행체의 상태(위치 및 자세)를 나타낸다.
Figure 112004018295294-pat00083
Figure 112004018295294-pat00084
는 튜닝을 통해 결정되어야 하는 제어 게인이다.here
Figure 112004018295294-pat00079
Is a 3 × 3 diagonal inertia matrix
Figure 112004018295294-pat00080
Is the force and torque applied to the free flying robot. Also
Figure 112004018295294-pat00081
Indicates the state (position and attitude) that the aircraft is aiming for
Figure 112004018295294-pat00082
Indicates the state (position and attitude) of the current vehicle.
Figure 112004018295294-pat00083
Wow
Figure 112004018295294-pat00084
Is the control gain that must be determined through tuning.

수학식 19에서 사용된 상태 변수는 수학식 18에서 정의한 것처럼 단지 3개이다. 하지만, 실제적으로 센서에서 얻어지는 변수들은 수학식 18에서 정의한 변수들 그 자체가 아니라 그것들의 미분 형태이다. 따라서, 칼만 필터 형태를 이용하여 그 정보들을 사용하기 위해서는 수학식 20처럼 시스템 상태 벡터를 확장해야 한다.The state variables used in (19) are only three, as defined in (18). However, in practice, the variables obtained in the sensor are not the variables defined in Equation 18, but their derivative form. Therefore, in order to use the information using the Kalman filter form, the system state vector must be extended as shown in Equation 20.

[수학식 20][Equation 20]

Figure 112004018295294-pat00085
Figure 112004018295294-pat00085

수학식 19를 잘 알려진 최적 선형 추정기 형태로 다시 고쳐 쓰면 수학식 21과 같은 형태가 된다.Rewriting Equation 19 into the form of a well-known optimal linear estimator gives the form of Equation 21.

[수학식 21][Equation 21]

Figure 112004018295294-pat00086
Figure 112004018295294-pat00086

여기서

Figure 112004018295294-pat00087
는 최적 문제를 풀기 쉽게 하기 위해서 일정한 공분산을 가진 백색 잡음이라 가정된다.
Figure 112004018295294-pat00088
는 샘플링 시간이고,
Figure 112004018295294-pat00089
는 현재의 시스템 상태 벡터이다.here
Figure 112004018295294-pat00087
Is assumed to be white noise with constant covariance to make it easier to solve the optimal problem.
Figure 112004018295294-pat00088
Is the sampling time,
Figure 112004018295294-pat00089
Is the current system state vector.

위에서 살펴 본 바와 같이 비전 기반 시스템은 직접적으로 위치와 자세 정보를 얻을 수 있고, IMU와 자이로로부터 가속도와 요 각속도를 얻을 수 있기 때문에 이 두 가지 정보를 모두 획득할 수 있을 경우에 측정 방정식은 수학식 22처럼 기술된다.As shown above, since the vision-based system can obtain position and attitude information directly, and acceleration and yaw velocity from the IMU and gyro, the measurement equation can be expressed as It is described as 22.

[수학식 22][Equation 22]

Figure 112004018295294-pat00090
Figure 112004018295294-pat00090

Figure 112004018295294-pat00091
Figure 112004018295294-pat00092
번째의 측정 잡음이고 공분산 행렬은 센서 정확도에 따라 의미 있는 값으로 정한다.
Figure 112004018295294-pat00091
Is
Figure 112004018295294-pat00092
The measured noise and the covariance matrix are set to meaningful values according to the sensor accuracy.

수학식 20과 수학식 22에서 각각 상태 방정식과 측정 방정식을 기술하였기 때문에 위에서 설명한 칼만 필터링을 이용해서 상태를 추정할 수 있다. 하지만, 비전 센서와 IMU 및 자이로의 샘플링 주파수가 다르기 때문에 항상 이 두 정보를 모두 얻을 수는 없다. 따라서 두 정보를 동시에 얻을 때에는 비전 센서로부터

Figure 112004018295294-pat00093
정보를, IMU 및 자이로로부터
Figure 112004018295294-pat00094
정보를 얻을 수 있기 때문에 수학식 22와 같은 측정 방정식을 사용한다. 하지만, 비전센서 정보를 이용할 수 없어서 샘플링 주파수가 높은 IMU 및 자이로 정보만을 얻을 때에는
Figure 112004018295294-pat00095
만을 얻을 수 있기 때문에 수학식 23과 같은 측정 방정식을 이용하여 칼만 필터링을 한다.Since Equation 20 and Equation 22 describe the state equation and the measurement equation, respectively, the state can be estimated using the Kalman filtering described above. However, because the sampling frequency of the vision sensor and the IMU and gyro are different, it is not always possible to get both of them. So when you get two pieces of information at the same time,
Figure 112004018295294-pat00093
Information from IMU and Gyro
Figure 112004018295294-pat00094
Since information can be obtained, a measurement equation such as (22) is used. However, when only the IMU and gyro information with high sampling frequency is obtained because the vision sensor information is not available.
Figure 112004018295294-pat00095
Since only 10,000 can be obtained, Kalman filtering is performed using a measurement equation such as Equation 23.

[수학식 23][Equation 23]

Figure 112004018295294-pat00096
Figure 112004018295294-pat00096

도 5는 본 발명에 따른 비전 기반 시스템 알고리듬 순서도이다.5 is a flowchart of a vision based system algorithm in accordance with the present invention.

본 발명은 다수 비행체의 정렬비행 및 충돌회피비행에도 동일한 원리로써 응용이 가능하다.The present invention can be applied to the same principle in the alignment flight and collision avoidance flight of a plurality of aircraft.

본 발명에 의하면, 평면 운동에서 하나의 CCD 카메라와 몇 개의 비콘들만을 이용하여 두 물체 사이의 상대적인 위치와 자세 정보를 해석적으로 구할 수 있다. 따라서, 시간에 따라 발산하는 경향이 있는 자이로를 포함한 IMU 정보를 전적으로 사용하는 대신 비전 정보와 더불어 사용하면 더 나은 상태 값을 얻을 수 있다. 비전 정보는 상대적으로 정확한 값을 얻을 수 있는 반면 샘플링 주파수가 매우 작고, 자이로를 포함한 IMU 정보는 상대적으로 부정확한 반면 샘플링 주파수가 높다. 이 두가지 센서 정보를 이산 칼만 필터를 이용하여 적절히 필터링하여 서로의 장점을 살릴 수 있다.According to the present invention, it is possible to analytically obtain relative position and posture information between two objects using only one CCD camera and a few beacons in planar motion. Thus, instead of using the IMU information, including the gyro, which tends to diverge over time, it can be used with vision information to obtain better state values. While vision information can yield relatively accurate values, the sampling frequency is very small, and the IMU information including the gyro is relatively inaccurate while the sampling frequency is high. These two sensor information can be properly filtered using discrete Kalman filter to take advantage of each other.

Claims (11)

CCD 카메라 및 비콘을 이용하는 비전 시스템을 사용하여 추적 물체 및 목표 물체 사이에 상대적인 위치; 그리고 자세 정보와 관련된 상태 정보를 추정하는 방법에 있어서, Relative position between the tracking object and the target object using a vision system using a CCD camera and beacons; And in the method of estimating the state information related to the posture information, 적어도 하나의 CCD 카메라가 부착된 추적 물체 및 적어도 3개의 비콘이 부착된 목표 물체를 2차원 평면에 투영하여 CCD 카메라에서의 비콘의 픽셀 위치, 비콘 사이의 실제 거리 및 렌즈의 초점 거리를 이용하여 추적 물체와 목표 물체 사이의 상대적인 위치 정보 및 자세 정보를 획득하고 그리고 칼만 필터링에 의하여 추적 물체와 목표 물체 사이의 상태를 추정하는 것을 특징으로 하는 추정 방법. Project the tracking object with at least one CCD camera and the target object with at least three beacons onto a two-dimensional plane to track using the pixel position of the beacons in the CCD camera, the actual distance between the beacons, and the focal length of the lens And obtaining relative position information and attitude information between the object and the target object, and estimating a state between the tracking object and the target object by Kalman filtering. 청구항 1에 있어서, 칼만 필터링은 선형 시스템인 경우 이산 칼만 필터 그리고 비선형 시스템인 경우 확장 칼만 필터가 사용되는 것을 특징으로 하는 추정 방법. 2. The method of claim 1, wherein Kalman filtering uses discrete Kalman filters for linear systems and extended Kalman filters for nonlinear systems. 청구항 1에 있어서, 자세 정보인 방향각 ψ; 그리고 추적 물체와 목표 물체 사이의 거리 R은 아래의 식으로 표시되고 그리고 p 및 q는 CCD 카메라에서 비콘들 사이의 거리; w는 실제 비콘 사이의 거리; f는 CCD 카메라 렌즈의 초점거리; xc는 CCD 카메라 상의 세 개의 비콘 중 중간 비콘의 픽셀 위치; 그리고 α는 CCD 카메라 렌즈의 축과 중간 비콘의 픽셀 위치가 이루는 각을 나타내는 것을 특징으로 하는 추정 방법: The method according to claim 1, the orientation angle ψ that is attitude information; And the distance R between the tracking object and the target object is represented by the following equation and p and q are the distances between the beacons in the CCD camera; w is the distance between the actual beacons; f is the focal length of the CCD camera lens; xc is the pixel position of the middle beacon of the three beacons on the CCD camera; And α represents an angle formed between the axis of the CCD camera lens and the pixel position of the intermediate beacon:
Figure 112006005538685-pat00109
Figure 112006005538685-pat00109
Figure 112006005538685-pat00110
.
Figure 112006005538685-pat00110
.
청구항 1에 있어서, 추적 물체 및 목표 물체 사이의 상태를 추정하기 위한 상태 벡터는 아래와 같은 식(I)으로 표시되고; 그리고 위치 및 자세 제어가 아래의 식(II)에 기초하여 이루어지고, 상기에서 x 및 y는 위치 정보; ψ는 방향각을 나타내는 자세 정보; M(m, IZ)은 3×3 대각 관성 행렬; U는 목표 물체의 힘과 토크; Xdes는 목표로 하는 위치 및 자세; X는 현재 위치 및 제어; 그리고 KD 및 KP는 튜닝을 통하여 결정되어야 할 제어 게인(gain)을 나타내는 것을 특징으로 하는 추정 방법:The method of claim 1, wherein the state vector for estimating a state between the tracking object and the target object is represented by the following equation (I); And position and attitude control are performed based on Equation (II) below, wherein x and y are position information; ψ is posture information indicating a direction angle; M (m, I Z ) is a 3 × 3 diagonal inertia matrix; U is the force and torque of the target object; X des is the target position and posture; X is the current position and control; And K D and K P represent control gains to be determined through tuning.
Figure 112006005538685-pat00111
(I);
Figure 112006005538685-pat00111
(I);
Figure 112006005538685-pat00112
(II).
Figure 112006005538685-pat00112
(II).
청구항 1 내지 청구항 4 중 어느 하나의 방법을 포함하는 다수 비행체의 도킹 방법. A method of docking multiple aircraft comprising the method of claim 1. 청구항 1 내지 청구항 4 중 어느 하나의 방법을 포함하는 다수 비행체의 정렬 비행 방법. A method for aligning and flying multiple vehicles, comprising the method of any one of claims 1 to 4. 청구항 1 내지 청구항 4 중 어느 하나의 방법을 포함하는 다수 비행체의 충돌회피비행 방법. A method for avoiding collision of multiple vehicles, comprising the method of any one of claims 1 to 4. 삭제delete 삭제delete 삭제delete 삭제delete
KR1020040030349A 2004-04-30 2004-04-30 Method of Docking Multiple Spacecrafts Using Vision Sensor KR100575108B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040030349A KR100575108B1 (en) 2004-04-30 2004-04-30 Method of Docking Multiple Spacecrafts Using Vision Sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040030349A KR100575108B1 (en) 2004-04-30 2004-04-30 Method of Docking Multiple Spacecrafts Using Vision Sensor

Publications (2)

Publication Number Publication Date
KR20050104901A KR20050104901A (en) 2005-11-03
KR100575108B1 true KR100575108B1 (en) 2006-04-28

Family

ID=37282357

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040030349A KR100575108B1 (en) 2004-04-30 2004-04-30 Method of Docking Multiple Spacecrafts Using Vision Sensor

Country Status (1)

Country Link
KR (1) KR100575108B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107289931A (en) * 2017-05-23 2017-10-24 北京小鸟看看科技有限公司 A kind of methods, devices and systems for positioning rigid body
CN108460804A (en) * 2018-03-20 2018-08-28 重庆大学 A kind of Three Degree Of Freedom position and posture detection method of transhipment docking mechanism and transhipment docking mechanism based on machine vision

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107289931A (en) * 2017-05-23 2017-10-24 北京小鸟看看科技有限公司 A kind of methods, devices and systems for positioning rigid body
CN107289931B (en) * 2017-05-23 2019-09-27 北京小鸟看看科技有限公司 A kind of methods, devices and systems positioning rigid body
CN108460804A (en) * 2018-03-20 2018-08-28 重庆大学 A kind of Three Degree Of Freedom position and posture detection method of transhipment docking mechanism and transhipment docking mechanism based on machine vision

Also Published As

Publication number Publication date
KR20050104901A (en) 2005-11-03

Similar Documents

Publication Publication Date Title
EP3715785B1 (en) Slam assisted ins
TWI827649B (en) Apparatuses, systems and methods for vslam scale estimation
US6704619B1 (en) Method and system for universal guidance and control of automated machines
Schmid et al. Stereo vision based indoor/outdoor navigation for flying robots
EP3158412B1 (en) Sensor fusion using inertial and image sensors
US6489922B1 (en) Passive/ranging/tracking processing method for collision avoidance guidance and control
EP3158417B1 (en) Sensor fusion using inertial and image sensors
EP3158293B1 (en) Sensor fusion using inertial and image sensors
US9387927B2 (en) Rotary-wing drone comprising autonomous means for determining a position in an absolute coordinate system linked to the ground
Achtelik et al. Stereo vision and laser odometry for autonomous helicopters in GPS-denied indoor environments
US8295547B1 (en) Model-based feature tracking in 3-D and 2-D imagery
EP3158411B1 (en) Sensor fusion using inertial and image sensors
US11906983B2 (en) System and method for tracking targets
EP1975646A2 (en) Lader-based motion estimation for navigation
US20220210335A1 (en) Autofocusing camera and systems
Delaune et al. Thermal-inertial odometry for autonomous flight throughout the night
Hoeller et al. Augmenting ultra-wideband localization with computer vision for accurate flight
US20220377261A1 (en) Real-time thermal camera based odometry and navigation systems and methods
Unicomb et al. Distance function based 6dof localization for unmanned aerial vehicles in gps denied environments
Fang et al. A motion tracking method by combining the IMU and camera in mobile devices
Koch et al. A vision-based navigation algorithm for a VTOL-UAV
CN116952229A (en) Unmanned aerial vehicle positioning method, device, system and storage medium
KR100575108B1 (en) Method of Docking Multiple Spacecrafts Using Vision Sensor
CN113632029B (en) Information processing device, program, and information processing method
JP6832394B2 (en) Self-position estimator, self-regioselector, and learner

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20100401

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee