JPH03286211A - Target tracking system - Google Patents

Target tracking system

Info

Publication number
JPH03286211A
JPH03286211A JP8609690A JP8609690A JPH03286211A JP H03286211 A JPH03286211 A JP H03286211A JP 8609690 A JP8609690 A JP 8609690A JP 8609690 A JP8609690 A JP 8609690A JP H03286211 A JPH03286211 A JP H03286211A
Authority
JP
Japan
Prior art keywords
target
axis
angular displacement
displacement
around
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8609690A
Other languages
Japanese (ja)
Other versions
JPH0797295B2 (en
Inventor
Kunimichi Oohashi
大橋 邦通
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP8609690A priority Critical patent/JPH0797295B2/en
Publication of JPH03286211A publication Critical patent/JPH03286211A/en
Publication of JPH0797295B2 publication Critical patent/JPH0797295B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Control Of Position Or Direction (AREA)

Abstract

PURPOSE:To quickly detect the displacement of a target, and to realize high- speed and correct target tracking by detecting angular displacement around the prescribed axis of three dimensional axes by an angular displacement sensor. CONSTITUTION:A helmet H is attached to the head part of the operator M of a manipulator, and the helmet H is provided with a rod-shaped target T extending toward the direction of X-axis, and detection points T1, T2 by an LED are arranged at both the ends of the target T, and each of the points T1, T2 is image-picked up by CCD cameras A, B. Then, three-dimensional coordinates varying together with time are computed by a head motion arithmetic part S3, and X, Y, Z-displacements and yaw angular displacement are determined. On the other hand, a biaxial gimbal mechanism and angle sensors to detect the angular displacement around its axes are arranged in the target T, and the angular displacements around X-axis of a rolling axis and Y-axis of a pitching axis are detected, and pitching angular displacement and rolling angular displacement are detected at high speed from a pitch/roll displacement processing part S2, and the high-speed and correct target tracking is executed on the basis of these detected results.

Description

【発明の詳細な説明】 A9発明の目的 1〉 産業上の利用分野 本発明は、所定の空間領域内で変位するターゲットの変
位をトラッキング(検出)するためのターゲットトラッ
キングシステムに関する。
DETAILED DESCRIPTION OF THE INVENTION A9 Object of the Invention 1> Industrial Application Field The present invention relates to a target tracking system for tracking (detecting) the displacement of a target displaced within a predetermined spatial region.

このようなターゲットトラッキングシステムは、マニピ
ュレータの操作者またはヘッドアップデイスプレィの使
用者等の頭部に装着したターゲットの変位をトラッキン
グする際に使用することができる。
Such a target tracking system can be used to track the displacement of a target worn on the head of a manipulator operator, head-up display user, or the like.

2〉 従来の技術 従来、原子炉内や不衛生な作業環境で作業を行う場合、
マニピュレータが使用されている。このマニピュレータ
は、遮蔽壁または遮蔽窓等で隔離された作業環境内に配
置され作業用マニピュレータと、操作室内に配置された
操作用マニピュレー夕とから構成されている。そして、
マニピュレータの操作者には、作業用マニピュレータ側
の撮像カメラで撮像された視覚情報が与えられるように
なっている(参考例、特開昭61−209889号公報
)。
2> Conventional technology Traditionally, when working inside a nuclear reactor or in an unsanitary working environment,
A manipulator is used. This manipulator consists of a working manipulator placed in a working environment isolated by a shielding wall or a shielding window, and an operating manipulator placed in an operation room. and,
The operator of the manipulator is provided with visual information captured by an imaging camera on the side of the working manipulator (reference example, Japanese Patent Application Laid-Open No. 61-209889).

このようにマニピュレータの操作者に視覚情報を与える
ようにしたものは、操作者の頭部の変位(位置変位およ
び回転角変位ンに応じて前記撮像カメラを変位させるこ
とにより、操作者に臨場感(操作者がその場で実際に操
作しているような感覚)を与えることができる。そのた
めには、操作者の頭部の変位(動き)を高速にトラッキ
ングする必要がある。
A manipulator that provides visual information to the operator of the manipulator provides a sense of realism by displacing the imaging camera according to the displacement (positional displacement and rotational angle displacement) of the operator's head. (The feeling that the operator is actually operating the device on the spot) can be given.To achieve this, it is necessary to track the displacement (movement) of the operator's head at high speed.

前記頭部の変位をトラッキングするための方法としては
、機械的リンク機構による機械式5頭部に磁界を発生さ
せる機器を取り付は頭部の動きに伴う周囲の磁場の変化
を利用する磁気式、操作者の頭部に取り付けたターゲッ
トを複数のカメラで撮像し画像データを処理する光学式
等がある。
Methods for tracking the displacement of the head include a mechanical type using a mechanical link mechanism; and a magnetic type that uses a change in the surrounding magnetic field accompanying the movement of the head by attaching a device that generates a magnetic field to the head. There are also optical types that use multiple cameras to image a target attached to the operator's head and process the image data.

3〉 発明が解決しようとする課題 しかしながら、前記機械式では操作者に装着感を与える
こととなり、快適とはいえない、また、前記磁気式では
環境条件に左右され易く、前記従来の光学式では前記画
像データの処理に時間がかかるので直交する3軸方向の
変位およびそれらの軸周りの角変位を高速で検出するこ
とは困難であった。
3> Problems to be Solved by the Invention However, the mechanical type gives the operator a feeling of wearing and is not comfortable, the magnetic type is easily affected by environmental conditions, and the conventional optical type is not comfortable. Since it takes time to process the image data, it has been difficult to detect displacements in three orthogonal axes directions and angular displacements around these axes at high speed.

本発明は・、前述の事情に鑑み、操作者に装着感を与え
ず、環境条件に左右され難く、しかも高速で操作者の頭
部の変位をトラッキングできるようにすることを課題と
する。
In view of the above-mentioned circumstances, it is an object of the present invention to provide a device that does not give the operator a feeling of wearing it, is not easily influenced by environmental conditions, and can track the displacement of the operator's head at high speed.

B1発明の構成 1)課題を解決するための手段 前記課題を解決するために、本発明のターゲットトラッ
キングシステムは、所定の空間領域内で変位するターゲ
ットと、このターゲットを視界に入れるように配置され
た複数の撮像手段と、前記複数の撮像手段で撮像した前
記ターゲットの画像データから前記ターゲットの互いに
直交する3軸方向の変位およびそれらの軸周りの角変位
を算出するヘッドモーション演寡部とを備えたターゲッ
トトラッキングシステムにおいて、 前記3軸の中の所定の軸周りのターゲットの角変位を直
接検出する角変位センサを設けたことを特徴とする。
B1 Structure of the Invention 1) Means for Solving the Problems In order to solve the problems described above, the target tracking system of the present invention includes a target that is displaced within a predetermined spatial area, and a system that is arranged to bring the target into view. a plurality of imaging means, and a head motion compensation unit that calculates displacements of the target in three mutually orthogonal axes directions and angular displacements around those axes from image data of the target taken by the plurality of imaging means. The target tracking system is characterized in that an angular displacement sensor that directly detects the angular displacement of the target around a predetermined axis among the three axes is provided.

2〉作 用 前述の特徴を備えた本発明のターゲットトラッキングシ
ステムは、所定の軸周りの角変位は前記角変位センサに
よって検出されるので、前記所定輪周りの角変位を画像
データ処理により求める必要がなくなる。このため、画
像データ処理に必要な時間が短くなるので、ターゲット
の変位を高速に検出することができるようになる。
2> Effect In the target tracking system of the present invention having the above-mentioned features, since the angular displacement around the predetermined axis is detected by the angular displacement sensor, it is necessary to calculate the angular displacement around the predetermined wheel by image data processing. disappears. Therefore, the time required for image data processing is shortened, so that the displacement of the target can be detected at high speed.

3)実施例 以下、図面により本発明の詳細な説明する。3) Examples Hereinafter, the present invention will be explained in detail with reference to the drawings.

第1図は本発明のターゲットトラッキングシステムの全
体図、第2図は同システムの機能説明図、である。
FIG. 1 is an overall diagram of the target tracking system of the present invention, and FIG. 2 is a functional explanatory diagram of the system.

第1図において、マニピュレータ(図示せず)の操作者
Mの頭部にはヘルメットHが装着され、ヘルメットHに
はターゲットTが装着されている。
In FIG. 1, a helmet H is attached to the head of an operator M of a manipulator (not shown), and a target T is attached to the helmet H.

このターゲットTは前後方向くX軸方向)に延びる棒状
部分を有し、その前後端には艷4LLL二糺【止り一ま
た、前記ターゲットT内部には2軸ジンバル機楕とそれ
らの軸周りの角変位を検出するための角変位センナSl
<第2図参照)が内蔵されている。この角変位センサs
1は前記X軸(ロール軸〉周りの角度信号(すなわちロ
ール角変位φ〉と、Y軸(ピッチ軸、すなわち、左右方
向の軸)周りの角度信号(すなわちピッチ変位θ〉とを
検出している。ピッチ/ロール変位処理部S2は前記角
度信号θ、φを適当な大きさに増幅して前記ターゲット
Tのピッチ角変位θおよびロール角変位φを出力してい
る。
This target T has a rod-shaped part extending in the front and back direction (X-axis direction), and has two rods at its front and rear ends. Angular displacement sensor Sl for detecting angular displacement
(See Figure 2) is built-in. This angular displacement sensor
1 detects an angular signal (i.e., roll angular displacement φ) around the X-axis (roll axis) and an angular signal (i.e., pitch displacement θ) around the Y-axis (pitch axis, i.e., left-right axis). The pitch/roll displacement processing section S2 amplifies the angle signals θ and φ to appropriate magnitudes and outputs the pitch angular displacement θ and the roll angular displacement φ of the target T.

第1図において、前記ターゲットTの検出ポインイトT
I、 T2を撮像するCCDカメラ、A、BはX軸方向
に離れて配置されている。これらのCCDカメラで得ら
れた画像データはヘッドモーション演算部S3に入力さ
れている。ヘッドモーション演算部S3は、前記撮像さ
れた画像データからX軸、Y軸およびZ軸(鉛直軸)方
向の変位X。
In FIG. 1, a detection point T of the target T
CCD cameras A and B that image I and T2 are placed apart in the X-axis direction. Image data obtained by these CCD cameras is input to the head motion calculation section S3. The head motion calculation unit S3 calculates displacement X in the X-axis, Y-axis, and Z-axis (vertical axis) directions from the captured image data.

YおよびZを算出するとともにヨー変位ψを算出してい
る。
Y and Z are calculated, and yaw displacement ψ is also calculated.

前述のように2台の撮像カメラで得られた画像データか
ら対象物が置かれている空間の座標系(X、Y、Z座標
系〉におけるターゲットの変位を算出する技術は従来公
知であり、たとえば、「現代自動制御双書10、ロボッ
ト工学」 く初版、昭和52年、コロナ社発行、P94
〜97)にも記載されている。したがって、ターゲット
Tの検出ポイントTl、T2の座標の初期値(時刻1=
0のときの値〉および時刻1=1のときの値を算出する
ことができる。前記ヨー変位ψは、ターゲットTの検出
ポイントT1とT2とを結ぶ線分のXY平面上の写像が
1=0のときに対し1=1のときにどれだけ回転してい
るかによって表される。したがって、ターゲットTの検
出ポイントTI、 T2の座標からヨー変位ψを算出す
ることができる。
As mentioned above, the technique of calculating the displacement of a target in the coordinate system (X, Y, Z coordinate system) of the space in which the object is placed from image data obtained by two imaging cameras is conventionally known. For example, "Modern Automatic Control Book 10, Robotics" first edition, 1978, published by Corona Publishing, p.94
~97) are also described. Therefore, the initial values of the coordinates of the detection points Tl and T2 of the target T (time 1 =
0> and the value when time 1=1 can be calculated. The yaw displacement ψ is expressed by how much the mapping on the XY plane of the line segment connecting the detection points T1 and T2 of the target T rotates when 1=1 compared to when 1=0. Therefore, the yaw displacement ψ can be calculated from the coordinates of the detection points TI and T2 of the target T.

次に、前記実施例の作用を説明する。Next, the operation of the above embodiment will be explained.

第2図に示すように、角変位センサS1により検出され
た角度信号(θ、φ)はピッチ/ロール変位処理部S2
で適当な大きさに増幅されてピッチ変位θ、ロール変位
φとして出力される。一方前記CCDカメラA、Bで撮
像されたターゲットTの検出ポイントTI、 T2の初
期の位置(t=0のときの位置)PI、P2が時刻1=
1のときにP1’ 、 P2’に変位した場合、前記ヘ
ッドモーション演算部S3は、3次元座標演箪を行って
前記ターゲットTの検出ポイントTI、T2の位置PI
As shown in FIG. 2, the angle signals (θ, φ) detected by the angular displacement sensor S1 are transmitted to the pitch/roll displacement processing section S2.
is amplified to an appropriate magnitude and output as pitch displacement θ and roll displacement φ. On the other hand, the initial positions (positions when t=0) PI and P2 of the detection points TI and T2 of the target T imaged by the CCD cameras A and B are time 1=
1, the head motion calculation unit S3 performs a three-dimensional coordinate calculation to determine the detection point TI of the target T and the position PI of T2.
.

P2. Pi′、 P2′の座標を算出する。前記各位
置PI、 P2. PI′、 P2’が次のようである
とする。
P2. Calculate the coordinates of Pi' and P2'. Each of the positions PI, P2. Suppose that PI' and P2' are as follows.

PI(Xl、Yl、21)、 P2(X2.Y2,22)、 PI′(XI′、 Yl’ 、 Zl′)、P2′(X
2’ 、 Y2’ 、 X2’ )、これらの検出ポイ
ントTI、T2の位置Pi、 P2゜PL’ 、 P2
′の座標から、前記ターゲットTの検出ポイントTI、
 T2の中間の位f(すなわちターゲットTの位置)の
x、y、z方向の変位X、Y。
PI (Xl, Yl, 21), P2 (X2.Y2, 22), PI'(XI',Yl',Zl'),P2' (X
2', Y2', X2'), these detection points TI, the positions of T2 Pi, P2゜PL', P2
From the coordinates of ', the detection point TI of the target T,
Displacement X, Y in the x, y, z directions of the intermediate position f of T2 (i.e. the position of the target T).

Zは次式で算出される。Z is calculated using the following formula.

また、前記検出ポイントTl、 T2の位置PL。Also, the positions PL of the detection points Tl and T2.

P2を結ぶ線分のXY平面上の写像とPL’、P2’を
結ぶ線分のXY平面上の写像とのなす角度すなわち、ヨ
ー変位が、前記検出ポイントTl、 T2の位置PL、
 P2. PI′、 P2’の座標がら算出される。
The angle between the mapping on the XY plane of the line segment connecting P2 and the mapping on the XY plane of the line segment connecting PL' and P2', that is, the yaw displacement, is the detection point Tl, the position PL of T2,
P2. It is calculated from the coordinates of PI' and P2'.

したがって、この実施例は、ターゲットTの2個の検出
ポイントTI、T2を撮像して得られる画像データを処
理することにより、x、y、z変位およびヨー変位を検
出することができる。
Therefore, in this embodiment, x, y, z displacements and yaw displacements can be detected by processing image data obtained by imaging the two detection points TI and T2 of the target T.

ところで、前記実施例のようにCCDカメラA。By the way, as in the above embodiment, the CCD camera A.

BおよびターゲットTの検出ポイントTI、T2をとも
にX軸方向に配置した場合、PL、P2を結ぶ線分およ
びPI” 、 P2’を結ぶ線分のXY平面上の写像の
長さは長いのでヨー変位ψの算出精度は充分であるが、
Yz平面上の写像の長さは小さいのでロール変位の算出
は困難であるかまたは算出できたとしても不正確なもの
となる。また、CCDカメラA、BおよびターゲットT
の配置方向を変更すると、ピッチ変位の算出に不都合が
生じる。
When detection points TI and T2 of B and target T are both placed in the X-axis direction, the length of the mapping on the XY plane of the line segment connecting PL and P2 and the line connecting PI'' and P2' is long, so the yaw Although the calculation accuracy of displacement ψ is sufficient,
Since the length of the mapping on the Yz plane is small, it is difficult to calculate the roll displacement, or even if it is possible to calculate it, it is inaccurate. In addition, CCD cameras A, B and target T
Changing the arrangement direction causes problems in calculating pitch displacement.

したがって、ターゲットTとこれを撮像するCCDカメ
ラA、Bのみによって全ての変位(X、Y。
Therefore, all displacements (X, Y.

2、θ、φ、ψ)を精度よく算出するためには、ターゲ
ットT上に検出ポイントT1.T2と、このTl、T2
を結ぶ線分に直交する検出ポインイトT3、T4を設け
、この検出ポイントT3.T4についてもx、y、z変
位を算出する必要が生じてくる。
2, θ, φ, ψ) with high accuracy, detection points T1. T2 and this Tl, T2
Detection points T3 and T4 are provided which are orthogonal to the line segment connecting T3. It becomes necessary to calculate x, y, and z displacements for T4 as well.

しかしながらこの場合、検出ポイントの数が2倍になる
ので、画像データの処理時間が2倍になり、高速処理が
困難になる。
However, in this case, since the number of detection points is doubled, the processing time for image data is doubled, making high-speed processing difficult.

以上の説明から、撮像手段を用いた光学式のターゲット
トラッキングシステムは、3種に分類することができ、
その得失は第4図の表に示すようになる。なお、第4図
の表において、Δは問題点があることを示している。
From the above explanation, optical target tracking systems using imaging means can be classified into three types:
The advantages and disadvantages are shown in the table in Figure 4. In addition, in the table of FIG. 4, Δ indicates that there is a problem.

以上、本発明の実施例を詳述したが、本発明は、前記実
施例に限定されるものではなく、特許請求の範囲に記載
された本発明を逸脱することなく種々の設計変更を行う
ことが可能である。
Although the embodiments of the present invention have been described in detail above, the present invention is not limited to the embodiments described above, and various design changes can be made without departing from the scope of the invention described in the claims. is possible.

例えば、本発明はマニピュレータの操作者のヘッドに装
着されたターゲット以外のターゲットをトラッキングす
る場合にも使用することが可能である。また、2つの撮
像手段をX軸〈前後軸)方向以外の軸方向に離して配置
することも可能である。その場合には、角変位センサに
よって直接検出する角度変位はヨー変位以外の変位とす
ることも可能である。さらに、CODカメラ以外の撮像
手段を採用することも可能である。
For example, the present invention can be used to track targets other than targets mounted on the head of a manipulator operator. Furthermore, it is also possible to arrange the two imaging means apart from each other in an axial direction other than the X-axis (front-back axis) direction. In that case, the angular displacement directly detected by the angular displacement sensor may be a displacement other than the yaw displacement. Furthermore, it is also possible to employ imaging means other than a COD camera.

C0発明の効果 前述の本発明のターゲットトラッキングシステムでは、
所定の軸周りの角変位は角変位センサによって検出され
るので、前記所定軸周りの角変位を画像データ処理によ
り求める必要がなくなる。
C0 Effects of the invention In the target tracking system of the invention described above,
Since the angular displacement around the predetermined axis is detected by the angular displacement sensor, there is no need to calculate the angular displacement around the predetermined axis by image data processing.

このため、画像データ処理に必要な時間が短くなるので
、ターゲットの変位を高速に検出することができるよう
になる。
Therefore, the time required for image data processing is shortened, so that the displacement of the target can be detected at high speed.

また、リンクを用いた機械式のトラッキングシステムの
ように操作者に不快な装着感を与えることもなく、さら
に、磁気式のように環境条件に左右されることもない。
Furthermore, unlike mechanical tracking systems using links, the tracking system does not give the operator an uncomfortable wearing feeling, and unlike magnetic tracking systems, it does not depend on environmental conditions.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明のターゲットトラッキングシステムの全
体図、第2図は同システムの機能説明図1、第3図は従
来システムの機能説明図、第4図は本発明の実施例と従
来例との機能の相違を説明するための表である。 A、B・・・撮像手段(CCDカメラ〉、Sl・・・角
変位センサ、S3・・・ヘッドモーション演算部、T・
・・ターゲット、
Fig. 1 is an overall diagram of the target tracking system of the present invention, Fig. 2 is a functional explanatory diagram 1 of the system, Fig. 3 is a functional explanatory diagram of a conventional system, and Fig. 4 is an illustration of an embodiment of the present invention and a conventional example. This is a table for explaining the differences in the functions. A, B...imaging means (CCD camera), Sl...angular displacement sensor, S3...head motion calculation unit, T.
··target,

Claims (1)

【特許請求の範囲】 所定の空間領域内で変位するターゲットと、このターゲ
ットを視界に入れるように配置された複数の撮像手段と
、前記複数の撮像手段で撮像した前記ターゲットの画像
データから前記ターゲットの互いに直交する3軸方向の
変位およびそれらの軸周りの角変位を算出するヘッドモ
ーション演算部とを備えたターゲットトラッキングシス
テムにおいて、 前記3軸の中の所定の軸周りのターゲットの角変位を直
接検出する角変位センサを設けたターゲットトラッキン
グシステム。
[Scope of Claims] A target that is displaced within a predetermined spatial region, a plurality of imaging means arranged so as to bring the target into view, and a target that is captured from image data of the target captured by the plurality of imaging means. In a target tracking system equipped with a head motion calculation unit that calculates displacement in three axes perpendicular to each other and angular displacement around these axes, the angular displacement of the target around a predetermined axis among the three axes is directly calculated. A target tracking system equipped with an angular displacement sensor for detection.
JP8609690A 1990-03-31 1990-03-31 Target tracking system Expired - Lifetime JPH0797295B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8609690A JPH0797295B2 (en) 1990-03-31 1990-03-31 Target tracking system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8609690A JPH0797295B2 (en) 1990-03-31 1990-03-31 Target tracking system

Publications (2)

Publication Number Publication Date
JPH03286211A true JPH03286211A (en) 1991-12-17
JPH0797295B2 JPH0797295B2 (en) 1995-10-18

Family

ID=13877179

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8609690A Expired - Lifetime JPH0797295B2 (en) 1990-03-31 1990-03-31 Target tracking system

Country Status (1)

Country Link
JP (1) JPH0797295B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100420696B1 (en) * 1994-09-28 2004-07-27 얀 게. 페게르 Control device with mobility control member
US7382400B2 (en) 2004-02-19 2008-06-03 Robert Bosch Gmbh Image stabilization system and method for a video camera
US7742077B2 (en) 2004-02-19 2010-06-22 Robert Bosch Gmbh Image stabilization system and method for a video camera
US9210312B2 (en) 2004-06-02 2015-12-08 Bosch Security Systems, Inc. Virtual mask for use in autotracking video camera images
US9876993B2 (en) 2002-11-27 2018-01-23 Bosch Security Systems, Inc. Video tracking system and method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100420696B1 (en) * 1994-09-28 2004-07-27 얀 게. 페게르 Control device with mobility control member
US9876993B2 (en) 2002-11-27 2018-01-23 Bosch Security Systems, Inc. Video tracking system and method
US7382400B2 (en) 2004-02-19 2008-06-03 Robert Bosch Gmbh Image stabilization system and method for a video camera
US7742077B2 (en) 2004-02-19 2010-06-22 Robert Bosch Gmbh Image stabilization system and method for a video camera
US9210312B2 (en) 2004-06-02 2015-12-08 Bosch Security Systems, Inc. Virtual mask for use in autotracking video camera images
US11153534B2 (en) 2004-06-02 2021-10-19 Robert Bosch Gmbh Virtual mask for use in autotracking video camera images

Also Published As

Publication number Publication date
JPH0797295B2 (en) 1995-10-18

Similar Documents

Publication Publication Date Title
US7818091B2 (en) Process and device for determining the position and the orientation of an image reception means
CN110880189B (en) Combined calibration method and combined calibration device thereof and electronic equipment
US9361818B2 (en) Operation input device and manipulator system
US7710246B2 (en) Vehicle driving assist system
JP2564963B2 (en) Target and three-dimensional position and orientation measurement system using the target
JP2024056844A (en) Unfused pose-based drift correction of fused pose of totem in user interaction system
JP2002228442A (en) Positioning attitude determining method and device, and recording media
JP2007263657A (en) Three-dimensional coordinates acquisition system
JP2008311690A (en) Eyeball movement controller employing principle of vestibulo-ocular reflex
JP6906821B2 (en) Mobile robot
JP2611173B2 (en) Positioning method and device using fisheye lens
US11941851B2 (en) Systems and methods for calibrating imaging and spatial orientation sensors
CN116443028A (en) Head posture data acquisition system and method
JPH03286211A (en) Target tracking system
JP2001287179A (en) Industrial robot teaching system
CN109983299A (en) The measuring system and method for industrial robot
US7400416B2 (en) Accurate target orientation measuring system
Claasen et al. High-bandwidth low-latency tracking using optical and inertial sensors
JP5092300B2 (en) Head motion tracker device
SE470289B (en) Magnetic zone tube
JP2002007030A (en) Movement detecting device and operation input device
JPS5890268A (en) Detector of 3-dimensional object
Rambach et al. [POSTER] Fusion of Unsynchronized Optical Tracker and Inertial Sensor in EKF Framework for In-car Augmented Reality Delay Reduction
JP2016011951A (en) Method and device of acquiring positional information of virtual marker, and motion measurement method
KR101941369B1 (en) Optical motion tracking sensor