JPH02263112A - Fixed star sensor - Google Patents

Fixed star sensor

Info

Publication number
JPH02263112A
JPH02263112A JP1085349A JP8534989A JPH02263112A JP H02263112 A JPH02263112 A JP H02263112A JP 1085349 A JP1085349 A JP 1085349A JP 8534989 A JP8534989 A JP 8534989A JP H02263112 A JPH02263112 A JP H02263112A
Authority
JP
Japan
Prior art keywords
image data
image
attitude
data
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1085349A
Other languages
Japanese (ja)
Inventor
Takehiko Tanamachi
健彦 棚町
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP1085349A priority Critical patent/JPH02263112A/en
Publication of JPH02263112A publication Critical patent/JPH02263112A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7867Star trackers

Abstract

PURPOSE:To securely control the attitude of an artificial satellite by finding time variation of each picture element of image data within a specified range. CONSTITUTION:First and second image data within the specific range which are obtained by picking up an image each at different time are stored in 1st and 2nd storage means 26 and 27 respectively and the time variation of the image is detected according to image data on the difference between the 1st and 2nd image data stored in the 1st and 2nd storage means 26 and 27 to detect the attitude variation. Therefore, even when such image data that a specially bright star is not present in the visual field or that a nebula is present in the visual field while all the data are utilized effectively, the attitude variation can easily and securely be detected. Consequently, the attitude of the artificial satellite can be controlled effectively.

Description

【発明の詳細な説明】 [発明の目的コ (産業上の利用分野) この発明は、例えば人工衛星の姿勢制御用の方位データ
を検出するための恒星センサに関する。
DETAILED DESCRIPTION OF THE INVENTION [Object of the Invention (Industrial Application Field) The present invention relates to a stellar sensor for detecting azimuth data for attitude control of an artificial satellite, for example.

(従来の技術) 宇宙空間を飛翔する人工衛星においては、その姿勢制御
を行なうために、宇宙空間に存在する星の位置を観測し
て、姿勢方位を測定する必要がある。このような人工衛
星の姿勢制御等のために恒星センサが使用されるもので
あり、この恒星センサは例えば第6図に示すように、セ
ンサヘッド部11と電子回路部[2とによって構成され
る。
(Prior Art) In order to control the attitude of an artificial satellite flying in outer space, it is necessary to observe the positions of stars existing in outer space and measure its attitude and orientation. A stellar sensor is used to control the attitude of such an artificial satellite, and as shown in FIG. .

まずセンサヘッド部11は、CODによる受光部111
を備え、この受光部111には光学系112を介して宇
宙空間の特に星の映像が取り込まれ、画像データに変換
される。上記受光部111は冷却系113によって冷却
されるようにすると共に、CODドライブのエレクトロ
ニクス部114により駆動される。
First, the sensor head section 11 includes a light receiving section 111 using COD.
The light receiving unit 111 captures images of outer space, particularly stars, through an optical system 112 and converts them into image data. The light receiving section 111 is cooled by a cooling system 113 and is driven by an electronics section 114 of a COD drive.

また電子回路部12には、A/D変換処理等を行なう信
号処理部121、上記受像部illのCCD制御部12
2、後述するグループ分は処理等を行なうデータ処理部
123、さらに各種データのインターフェース124が
設定される。
The electronic circuit section 12 also includes a signal processing section 121 that performs A/D conversion processing, etc., and a CCD control section 12 of the image receiving section ill.
2. A data processing unit 123 that performs processing, etc., and an interface 124 for various data are set for each group to be described later.

このように構成される恒星センサにおいて、光学系11
2により星の映像を検知し、CCD受光部11において
これを画像データとするものであるが、恒星センサとし
て機能させるには、光学系112の焦点距離をずらして
、まず第7図で示すような受光部111のCCD受光素
子に移る星像を大きくぼかすようにする。
In the star sensor configured in this way, the optical system 11
2 detects an image of a star, and converts it into image data in the CCD light receiving section 11. However, in order to function as a star sensor, the focal length of the optical system 112 is first shifted as shown in FIG. The star image transferred to the CCD light receiving element of the light receiving section 111 is greatly blurred.

このようにしてCCD受光素子の面に大きくぼけた状態
の星像を写し出したならば、CCD受光素子の各ピクセ
ル(画素)のXおよびY座標で、各ピクセルのデータに
重み付けを行ない、この重み付けられたデータに基づい
て、この星像の重心点を求める。この重心点が星の見え
る方角となるもので、この方位に基づいて人工衛星の姿
勢角が求まるようになる。
Once a largely blurred star image has been projected onto the surface of the CCD light receiving element in this way, the data of each pixel is weighted using the X and Y coordinates of each pixel of the CCD light receiving element. Based on the obtained data, find the center of gravity of this star image. This center of gravity is the direction in which the stars can be seen, and the attitude angle of the satellite can be determined based on this direction.

このような動作原理に基づく方式においては、光学系の
視野に複数の星が存在するような場合、この複数の星の
映像を含むCCD受像素子の各ピクセル毎の出力を、角
星毎にグループ分けした後、上記星像の重心点を求める
処理を行なわなければならない。
In a method based on such an operating principle, when multiple stars exist in the field of view of the optical system, the output of each pixel of the CCD image receiving element containing images of the multiple stars is transmitted for each corner star. After grouping, it is necessary to perform processing to find the center of gravity of the star images.

上記のようなりループ分けの作業は、複雑な手続きが必
要となるものであり、このために像がはっきりと映る明
るい星が視野内に入らない場合、あるいは星雲のように
大きく広がった像が視野に入ってきたような場合には、
この恒星センサによって明確な方位を確認することがで
きず、人工衛星の姿勢制御を高精度に実行することが困
難となる。
The process of dividing into loops as described above requires a complicated procedure, and as a result, bright stars that can be clearly imaged may not be within the field of view, or images that are widely spread out like nebulae may be in the field of view. If you have entered the
This star sensor cannot clearly confirm the orientation, making it difficult to control the satellite's attitude with high precision.

(発明が解決しようとする課題) このように従来の恒星センサにおいては、光学系の視野
に入る星の映像の状態にっては、高精度の姿勢制御が困
難となる。
(Problems to be Solved by the Invention) As described above, in the conventional star sensor, highly accurate attitude control is difficult depending on the state of the image of the star that enters the field of view of the optical system.

したがって、この発明は上記のような点に鑑みなされた
もので、受光素子部で受けられた映像が明るい星のみで
なくとも、特定される範囲のデータに基づいて方位変化
を容易且つ確実に検知することができ、明るい星が存在
しない方向あるいは星雲等が存在する方向に対しても使
用可能として、例えば人工衛星の姿勢制御が確実に実行
されるようにした恒星センサを提供しようとするもので
ある。
Therefore, the present invention was made in view of the above points, and even if the image received by the light receiving element does not only show bright stars, it is possible to easily and reliably detect changes in orientation based on data within a specified range. The objective is to provide a star sensor that can be used in directions where there are no bright stars or where there are nebulae, etc., so that, for example, the attitude control of an artificial satellite can be reliably executed. be.

[発明の構成] (課題を解決するための手段) この発明に係る恒星センサにあっては、時間を異ならせ
て撮像した特定の範囲の第1および第2の画像データを
、それぞれ第1および第2の記憶手段に記憶すると共に
、この第1および第2の記憶手段に記憶された第1およ
び第2の画像ブタの差の画像データに基づき画像の時間
的変化を検出し、これにより姿勢変化を検出させるよう
にする。
[Structure of the Invention] (Means for Solving the Problems) In the stellar sensor according to the present invention, first and second image data of a specific range captured at different times are first and second image data, respectively. The image is stored in the second storage means, and temporal changes in the image are detected based on the image data of the difference between the first and second images stored in the first and second storage means. Allow changes to be detected.

(作用) 上記恒星センサにあっては、特定される範囲の画像デー
タの、各画素(ピクセル)単位の時間的変化を求めるよ
うになるもので、従来のようにデータのグループ分けあ
るいは選択処理を行なう必要がない。したがって、簡単
な手順によりまた全てのデータを有効に利用する状態で
、特に明るい星が視野に存在しない状態、あるいは視野
に星雲が存在するような画像データを用いる場合でも、
容易且つ確実に姿勢変化を検出できるようになるもので
、例えば人工衛星の姿勢制御が効果的に実行されるよう
になる。
(Function) The above-mentioned stellar sensor calculates temporal changes in each pixel of image data in a specified range, and does not require data grouping or selection processing as in the past. There's no need to do it. Therefore, even when using image data with no particularly bright stars in the field of view or with nebulae in the field of view, with a simple procedure and with effective use of all data,
This makes it possible to detect attitude changes easily and reliably, and for example, enables effective control of the attitude of an artificial satellite.

(実施例) 以下、図面を参照してこの発明の一実施例を説明する。(Example) Hereinafter, one embodiment of the present invention will be described with reference to the drawings.

第1図はその構成を示すもので、CCD受光部21にお
いて光学系22を介して得た映像を受像する。受光部2
1は冷却系23により適宜冷却されているものであり、
またCCDドライブエレクトロニクス部24により駆動
される。
FIG. 1 shows its configuration, in which a CCD light receiving section 21 receives an image obtained through an optical system 22. Light receiving part 2
1 is appropriately cooled by a cooling system 23,
It is also driven by the CCD drive electronics section 24.

CCD受光部21で受像された映像の画像データは、A
/Dコンバータ25てディジタルデータに変換され、こ
の画像ディジタルデータは第1あるいは第2のフレーム
メモリ26.27に書き込み記憶される。このフレーム
メモリ26および27は、それぞれ1つの画面のディジ
タルデータを記憶する記憶装置を構成するもので、その
一方か選択されてA/Dコンバータ25からの画像デー
タを記憶保持するようになる。
The image data of the video image received by the CCD light receiving section 21 is A.
The image data is converted into digital data by the /D converter 25, and this image digital data is written and stored in the first or second frame memory 26, 27. The frame memories 26 and 27 each constitute a storage device for storing digital data of one screen, and one of them is selected to store and hold the image data from the A/D converter 25.

この第1および第2のフレームメモリ26および27に
それぞれ記憶された画像データは、画像処理プロセッサ
28で処理され、データ処理部29でブタ処理されるも
ので、この処理済みのデータはI10ポート30から出
力されるようになる。
The image data stored in the first and second frame memories 26 and 27, respectively, is processed by the image processor 28 and processed by the data processing section 29, and this processed data is sent to the I10 port 30. will be output from.

このような構成センサにおける動作を、まず−次元的に
簡単に説明する。
The operation of such a sensor configuration will first be briefly explained in terms of dimensions.

今、ある時刻t1に第2図の(A)で示すような画像デ
ータが得られ、さらにこの時刻t1に続く時刻t2に第
2図の(B)で示すような画像ブタが得られたと仮定す
る。そして、この時刻t1およびt2の画像データの差
が第2図の(C)で示すようになる。ここで、時刻t1
の画面の視野においては、CCD受像素子のピクセル番
号でiからi+6までの範囲に画像データが存在し、時
刻t2では視野が上記時刻t1から変化して、ピクセル
番号i+4からi+10の範囲に画像ブタが存在するよ
うになっている。
Now, assume that image data as shown in (A) in Figure 2 is obtained at a certain time t1, and that image data as shown in (B) in Figure 2 is obtained at time t2 following this time t1. do. Then, the difference between the image data at times t1 and t2 becomes as shown in (C) of FIG. Here, time t1
In the field of view of the screen, image data exists in the range of pixel numbers i to i+6 of the CCD image receiving element, and at time t2, the field of view changes from time t1, and the image data exists in the range of pixel numbers i+4 to i+10. Pigs are now present.

ここで、上記第2図の(C)で示した画像ブタにおいて
、各CCDピクセルの番地を重み関数とした重み付けを
行ない、その総和を求めるた結果をSとし、第2図の(
A)および(B)のそれぞれの画像データの各ピクセル
毎の信号レベルの総和をAとする。センサのランダム誤
差か無いものと仮定すれば、第2図の(A)および(B
)それぞけれの信号レベルの総和の値は、理論的に等し
くなる。そして、時刻t1からt2の間の画像の移動距
離δは次の式で与えられるようになる。
Here, in the image pig shown in FIG. 2 (C) above, weighting is performed using the address of each CCD pixel as a weighting function, and the result of calculating the sum is S, and the (
Let A be the sum of the signal levels for each pixel of the image data of A) and (B). Assuming that there is no random error in the sensor, (A) and (B) in Figure 2
) The total value of each signal level is theoretically equal. Then, the moving distance δ of the image between time t1 and t2 is given by the following equation.

δ−S+A         ・・・・・・・・・(1
)同様にして上記の方法を2次元画像に拡張して考える
と以下のようになる。
δ−S+A ・・・・・・・・・(1
) Similarly, if we extend the above method to two-dimensional images, we get the following.

時刻t1に得られた画像データの信号レベルの総和をA
とし、時刻t2に得られた画像データの信号レベルの総
和をBとする。上記時刻t1からt2の間に画面の視野
内から星が消えたり、あるいは新しい星が入ってきたよ
うな場合は、上記総和のAとBとの間の差が大きく現わ
れるようになり、このような場合には星の出入りか無い
ようにするため、計算する画面の範囲を調整し、“A′
The sum of signal levels of image data obtained at time t1 is A
Let B be the sum total of the signal levels of the image data obtained at time t2. If a star disappears from the field of view of the screen or a new star enters between the above times t1 and t2, the difference between the above sums A and B will appear large, and such a difference will appear. In such a case, adjust the range of the screen to be calculated so that there are no stars entering or exiting, and select “A′
.

B”とされるようにする。B”.

次に上記時刻t1とt2の両画面の差をとり、CCD画
面のX座標番地で重み付けしたデータの総和をSxとし
、同様にY座標番地で重み付けしたデータの総和をSy
とすると、X軸方向の画面の移動量δx1およびY軸方
向の画面の移動量δyは、それぞれ次の式で表現される
Next, take the difference between the two screens at times t1 and t2, set the sum of the data weighted by the X coordinate address of the CCD screen as Sx, and set the sum of the data similarly weighted by the Y coordinate address as Sy.
Then, the screen movement amount δx1 in the X-axis direction and the screen movement amount δy in the Y-axis direction are each expressed by the following equations.

δx =Sx +A       ・・・・・・・・・
(2)δy=δy +A       ・・・・・・・
・・(3)そして、上記δxおよびδyからX軸回りと
X軸回りの姿勢レートが求められるようになる。
δx = Sx +A ・・・・・・・・・
(2) δy=δy +A ・・・・・・・・・
(3) Then, from the above δx and δy, the posture rate around the X axis and around the X axis can be determined.

第3図は上記のような処理の流れを示すもので、まずス
テップ100でCCD受像素子でとらえた時刻t1の画
像データを第1のフレームメモリ26に格納する。また
時刻t2の画像データもステップ101で示すように第
2のフレームメモリ27に格納する。そして、次のステ
ップ102において、上記第1および第2のフレームメ
モリ26および27にそれぞれ格納された画像データの
差の画面を画像処理プロセッサ28で求め、このプロセ
ッサ28で作製した差の画像データは、例えば第2のフ
レームメモリ27に格納する。
FIG. 3 shows the flow of the above-mentioned processing. First, in step 100, image data at time t1 captured by the CCD image receiving element is stored in the first frame memory 26. Further, the image data at time t2 is also stored in the second frame memory 27 as shown in step 101. Then, in the next step 102, the image processing processor 28 obtains a screen of the difference between the image data stored in the first and second frame memories 26 and 27, respectively, and the difference image data produced by the processor 28 is , for example, stored in the second frame memory 27.

このようにして第1のフレームメモリ2Gに時刻t1の
画像データが格納され、また第2のフレムメモリ27に
上記差の画像データが格納された状態で、ステップ10
3において第1のフレームメモリ26に格納されたの画
像データの信号レベルの総和Aを求める。
In this manner, with the image data at time t1 stored in the first frame memory 2G and the image data of the difference described above stored in the second frame memory 27, step 10
3, the sum A of the signal levels of the image data stored in the first frame memory 26 is determined.

すなわち、第4図の(A)で示すように、各ピクセルに
対応するデータaijの総和 を求める。
That is, as shown in FIG. 4(A), the sum of data aij corresponding to each pixel is determined.

ステップ104およびステップ105では、それぞれ第
2のフレームメモリ27に格納されている差の画像デー
タに対して、X軸およびY軸座標の重み付けを行ない、
その総和Sxおよびδyを求めるもので、第4図の(B
)に示されるような差の画像データにおいては、総和S
xおよびδyは、それぞれ次式のようになる。
In steps 104 and 105, the difference image data stored in the second frame memory 27 is weighted by X-axis and Y-axis coordinates,
The purpose is to find the sum Sx and δy, and (B
), the total sum S
x and δy are each expressed as follows.

但し、XはX座標、yはX座標を表わす。However, X represents the X coordinate and y represents the X coordinate.

ここで、第5図の(A)は第1のフレームメモリ2Bに
格納されるようになる時刻t1の画像データの具体的な
例を模擬的に示し、また(B)は最初に第2のフレーム
メモリ27に格納される時刻t2の画像データを上記同
様に模擬的に示している。この例では、時刻t1の第1
の画像データと時刻t2の第2の画像データとを対比し
てみると、第2の画像は第1の画像に対してX方向に“
+22、Y方向に“−1″移動している。そして、第1
の画面の画像データの総和Aを求めると以下のようにな
る。
Here, (A) in FIG. 5 schematically shows a specific example of image data at time t1 that is stored in the first frame memory 2B, and (B) shows a concrete example of the image data that is initially stored in the second frame memory 2B. The image data at time t2 stored in the frame memory 27 is shown in a simulated manner in the same way as above. In this example, the first
Comparing the image data at time t2 with the second image data at time t2, the second image is “
+22, moving "-1" in the Y direction. And the first
The sum A of the image data of the screen is calculated as follows.

= (1+6+2+5+10+4+4+1)= 33 また、上記(A)および(B)で示された時刻tlと時
刻t2の第1および第2の画像データの差の画像データ
は、第5図の(C)に示されるようになるもので、Sx
およびδyはそれぞれ次のように計算される。
= (1+6+2+5+10+4+4+1)=33 Furthermore, the image data of the difference between the first and second image data at time tl and time t2 shown in (A) and (B) above is shown in (C) in FIG. Sx
and δy are calculated as follows.

−[(−2) X (−1) +(−1) X (−B
)十0X(−2)+・・・・・・・・・・・・−8+3
0+22+6−66 − (−1) + (−2) + (−if) +(−
18)+(−G) −−33 ステップ106および107では、それぞれ上記のよう
にして求められたSxおよびとylさらに総和Aに基づ
いて移動量δxおよびδyを求めるもので、それぞれ上
記例に対応して次のように計算される。
-[(-2) X (-1) +(-1) X (-B
) 10X(-2)+・・・・・・・・・・・・-8+3
0+22+6-66 − (-1) + (-2) + (-if) +(-
18)+(-G) --33 In steps 106 and 107, the amounts of movement δx and δy are determined based on Sx and yl determined as above, and the total sum A, respectively, corresponding to the above example. It is calculated as follows.

δx−66÷33−2 δy−−33÷33−−1 このようにして求められた移動量δxおよびδyはステ
ップ108で出力され、この移動量δxおよびδyに基
づいて姿勢制御が実行されるようになる。
δx-66÷33-2 δy--33÷33--1 The travel amounts δx and δy thus determined are output in step 108, and attitude control is executed based on the travel amounts δx and δy. It becomes like this.

[発明の効果] 以上のようにこの発明に係る恒星センサによれば、例え
ば人工衛星に使用して星を撮像した画面視野の移動量に
基づいて、この人工衛星の姿勢レートが容易且つ確実に
して求められるようになるものであり、その精度も信頼
性の高いものとされる。したがって、特に天文観測衛星
等において使用される、長時間に亙り高精度ボインティ
ング制御のために用いる姿勢レートセンサを提供できる
ようになる。
[Effects of the Invention] As described above, according to the stellar sensor according to the present invention, the attitude rate of the artificial satellite can be easily and reliably adjusted, for example, based on the amount of movement of the field of view of the screen used in the artificial satellite to image stars. It is assumed that the accuracy is highly reliable. Therefore, it is possible to provide an attitude rate sensor that is used for high-precision pointing control over a long period of time, particularly for use in astronomical observation satellites and the like.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の一実施例に係る恒星センサを説明す
るための構成図、第2図は上記恒星センサにより得られ
る時刻データの状態を説明する図、第3図は上記恒星セ
ンサの処理の流れを説明するフローチャート、第4図は
上記処理の流れにおける画像データの状態を説明する図
、第5図は同じく模擬的にした具体例の状態を説明する
図、第6図は従来の恒星センサを説明する構成図、第7
図は星の映像の状態を説明する図である。 21・・・COD受光部、22・・・光学系、25・・
・A/Dコンバータ、26.27・・・第1および第2
のフレームメモリ(画像データ記憶手段)、28・・・
画像処理プロセッサ。 出願人代理人 弁理士 鈴 江 武 彦CCDピ厘ルア
#−A 第3 図 (A) (B) 第4 図 N皿皿耶 (A) (B) (C) 第 図
FIG. 1 is a configuration diagram for explaining a stellar sensor according to an embodiment of the present invention, FIG. 2 is a diagram for explaining the state of time data obtained by the stellar sensor, and FIG. 3 is a processing diagram of the stellar sensor. 4 is a flow chart explaining the flow of the above process, FIG. 5 is a diagram explaining the state of the image data in the same simulated example, and FIG. 6 is a diagram explaining the state of the image data in the above process flow. Block diagram explaining the sensor, No. 7
The figure is a diagram illustrating the state of a star image. 21... COD light receiving section, 22... Optical system, 25...
・A/D converter, 26.27...first and second
frame memory (image data storage means), 28...
Image processing processor. Applicant's representative Patent attorney Takehiko Suzue CCD Pirin Lua #-A Figure 3 (A) (B) Figure 4 N-plate plate (A) (B) (C) Figure

Claims (1)

【特許請求の範囲】 星像を撮像するCCD光学的受像手段と、 第1の時刻で上記受像手段で撮像された第1の映像の画
像データを記憶する第1の記憶手段と、上記第1の時刻
とは相違する第2の時刻で上記受像手段で撮像された第
2の映像の画像データを記憶する第2の記憶手段と、 上記第1および第2の記憶手段でそれぞれ記憶された第
1および第2の画像データの各ピクセル毎の差の画面デ
ータを作製し記憶する差画面形成記憶手段と、 上記第1の記憶手段で記憶された画像を構成する各ピク
セルのデータの総和Aを求める手段と、上記差画面形成
記憶手段で記憶された差画面のX座標およびY座標の各
ピクセルに重み付けを行ない、それぞれX座標およびY
座標の総和SxおよびSyを求める手段とを具備し、 上記総和AさらにSxおよびSyに基づき、姿勢変化δ
xおよびδyを求めるようにしたことを特徴とする恒星
センサ。
[Scope of Claims] CCD optical image receiving means for capturing a star image; first storage means for storing image data of a first image captured by the image receiving means at a first time; a second storage means for storing image data of a second video imaged by the image receiving means at a second time different from the time of the image data stored in the first and second storage means, respectively; difference screen formation storage means for creating and storing difference screen data for each pixel of the first and second image data; Weighting is performed on each pixel of the X coordinate and Y coordinate of the difference screen stored in the calculating means and the difference screen formation storage means, respectively.
and means for determining the summation Sx and Sy of the coordinates, and based on the summation A and Sx and Sy, the posture change δ
A stellar sensor characterized by determining x and δy.
JP1085349A 1989-04-04 1989-04-04 Fixed star sensor Pending JPH02263112A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1085349A JPH02263112A (en) 1989-04-04 1989-04-04 Fixed star sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1085349A JPH02263112A (en) 1989-04-04 1989-04-04 Fixed star sensor

Publications (1)

Publication Number Publication Date
JPH02263112A true JPH02263112A (en) 1990-10-25

Family

ID=13856202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1085349A Pending JPH02263112A (en) 1989-04-04 1989-04-04 Fixed star sensor

Country Status (1)

Country Link
JP (1) JPH02263112A (en)

Similar Documents

Publication Publication Date Title
US5808695A (en) Method of tracking scene motion for live video insertion systems
US6175357B1 (en) Method and system for tracking attitude
CN110411476B (en) Calibration adaptation and evaluation method and system for visual inertial odometer
US20170124693A1 (en) Pose Estimation using Sensors
JP3880702B2 (en) Optical flow detection apparatus for image and self-position recognition system for moving object
US5438361A (en) Electronic gimbal system for electronically aligning video frames from a video sensor subject to disturbances
JPH11252440A (en) Method and device for ranging image and fixing camera to target point
CN109194876A (en) Image processing method, device, electronic equipment and computer readable storage medium
US10757333B2 (en) Method for determining bias in an inertial measurement unit of an image acquisition device
EP0513801A1 (en) Distance measuring apparatus utilizing two-dimensional image
CN111337011A (en) Indoor positioning method based on laser and two-dimensional code fusion
JP2023539615A (en) Methods, devices and computer program products for determining the attitude of a spacecraft in outer space
CN105100546A (en) Movement estimation method and device
CN116052046A (en) Dynamic scene binocular vision SLAM method based on target tracking
JP2559939B2 (en) Three-dimensional information input device
Huttunen et al. A monocular camera gyroscope
US4734724A (en) Method and arrangement for the automatic control of aerial photographic cameras
JP2000304508A (en) Three-dimensional input device
JPH02263112A (en) Fixed star sensor
JP3192779B2 (en) Position / posture measuring device
JP2000081322A (en) Slip angle measuring method and apparatus
JPH09325019A (en) Three-dimensional measuring device
Noirfalise et al. Real-time Registration for Image Moisaicing.
Alipbayev et al. Method of increasing the accuracy of the star sensor
Daily Self-calibration of a multi-camera vision system