JPH036780A - Processing system for extraction of three-dimensional position information - Google Patents

Processing system for extraction of three-dimensional position information

Info

Publication number
JPH036780A
JPH036780A JP1142830A JP14283089A JPH036780A JP H036780 A JPH036780 A JP H036780A JP 1142830 A JP1142830 A JP 1142830A JP 14283089 A JP14283089 A JP 14283089A JP H036780 A JPH036780 A JP H036780A
Authority
JP
Japan
Prior art keywords
dimensional position
frame images
motion information
position information
information extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1142830A
Other languages
Japanese (ja)
Inventor
Satoshi Shimada
聡 嶌田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP1142830A priority Critical patent/JPH036780A/en
Publication of JPH036780A publication Critical patent/JPH036780A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To easily extract the 3-dimensional position information on an object by providing a revolving motion information extracting means to extract the revolving motion information out of the shift information on the object between two frame images. CONSTITUTION:An image input part 101, a feature point extracting part 102, a revolving motion information extracting part 103, a reference point distance supply part 104, and a 3-dimensional position information extracting part 105 are provided. Then a 3-dimensional position is extracted with use of the coordinates set on two frame images of characteristic points based on the dis tance between an image input device and the reference point of each feature point obtained from the revolving motion information obtained from those coordinates and the coordinates set on the frame images of feature points. Thus it is possible to extract the 3-dimensional position information on the feature points of an object just by observing the moving object.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、物体を1台の画像入力装置で観測することに
より行う3次元の位置情報抽出処理方式に関するもので
ある。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a three-dimensional position information extraction processing method performed by observing an object with one image input device.

(従来の技術) 1台の画像入力装置で観測して得られる1連のフレーム
画像から物体上の特徴点についての3次元の位置情報を
抽出する従来の方式においては物体に対して前もって定
めた運動を定められた移動量だけ施す物体移動手段を設
け1物体移動手段で移動する物体の移動前後を観測した
2つの入力画像からステレオ画像を構成し、ステレ第3
次元位置計測により3次元位置情報を抽出するものであ
った。
(Prior art) In the conventional method of extracting three-dimensional position information about feature points on an object from a series of frame images obtained by observation with a single image input device, A stereo image is constructed from two input images obtained by observing before and after the movement of an object moved by one object moving means.
Three-dimensional position information was extracted by dimensional position measurement.

(発明が解決しようとする課題〕 従って、前もって定めた運動を定められた移動量だけ物
体に施すか、または、移動量を手作業により計測する必
要があり、3次元位置情報を抽出するのに時間と手間と
がかかるという問題点があった。
(Problem to be Solved by the Invention) Therefore, it is necessary to apply a predetermined movement to an object by a predetermined amount of movement, or to manually measure the amount of movement, and in order to extract three-dimensional position information, it is necessary to The problem was that it took time and effort.

本発明は1 このような従来の問題点を解決するために
、物体の移動量については制限を設けずに前もって定め
た運動を観測することにより、物体の3次元の位置情報
を簡易に抽出できる3次元の位置情報抽出処理方式を提
供することにある。
The present invention (1) In order to solve these conventional problems, it is possible to easily extract three-dimensional position information of an object by observing a predetermined movement without setting a limit on the amount of movement of the object. The object of the present invention is to provide a three-dimensional location information extraction processing method.

〔課題を解決するための手段〕[Means to solve the problem]

本発明の3次元の位置情報抽出処理方式において、運動
を行っている物体をテレビカメラ等の1台の画像入力装
置により観測して得られる1連のフレーム画像中の2つ
のフレーム画像上の特徴点の座標から2つのフレーム画
像間での物体の移動情報の中の回転運動情報を抽出し、
抽出した回転運動情報と2つのフレーム画像上の特徴点
の座標から特徴点の中の1つの点を基準とした特徴点の
3次元位置を抽出する手段を有することに特徴がある。
In the three-dimensional position information extraction processing method of the present invention, features on two frame images in a series of frame images obtained by observing a moving object with a single image input device such as a television camera Extract rotational motion information from the movement information of the object between two frame images from the coordinates of the point,
The present invention is characterized by having means for extracting a three-dimensional position of a feature point with one point among the feature points as a reference from the extracted rotational motion information and the coordinates of the feature point on the two frame images.

従来の場合には各特徴点の2つのフレーム画像上の座標
から三角測量の原理によりその特徴点の3次元位置情報
を抽出していたため物体の移動量を前もって定めておく
か、あるいは、別途計測して与える必要があったが3本
発明の3次元の位置情報抽出処理方式においては、2つ
のフレーム画像間での物体の移動情報の中の回転運動情
報を抽出する回転運動情報抽出手段を有し、該回転運動
情報抽出手段で抽出した回転運動情報と特徴点の2つの
フレーム画像上の座標から特徴点の中の1つの点を基準
とした特徴点の3次元位置を抽出する点で従来の方式と
異なる。
In the conventional case, the three-dimensional position information of each feature point was extracted from the coordinates of each feature point on two frame images using the principle of triangulation, so it was necessary to determine the amount of movement of the object in advance or to measure it separately. However, the three-dimensional position information extraction processing method of the present invention has a rotational motion information extraction means for extracting rotational motion information from the movement information of an object between two frame images. However, from the rotational motion information extracted by the rotational motion information extraction means and the coordinates of the feature points on two frame images, the three-dimensional position of the feature point is extracted with one point among the feature points as a reference. This method is different from that of

〔実施例] 以下1本発明の実施例を1図面に基づいて詳細に説明す
る。第1図は本実施例における3次元の位置情報抽出処
理方式の構成図を示すものであって、特徴点の中の1つ
を基準点とし、その基準点の画像人力装置までの距離を
与える場合の実施例として示している。同図において、
  101は画像人力部、102は特徴点抽出部、10
3は回転運動情報抽出部、104は基準点距離付与部、
  105は3次元位置情報抽出部である。
[Example] Hereinafter, an example of the present invention will be described in detail based on one drawing. FIG. 1 shows a configuration diagram of the three-dimensional position information extraction processing method in this embodiment, in which one of the feature points is taken as a reference point, and the distance of the reference point to the image human-powered device is given. This is shown as an example of the case. In the same figure,
101 is an image human power unit, 102 is a feature point extraction unit, 10
3 is a rotational motion information extraction unit, 104 is a reference point distance adding unit,
105 is a three-dimensional position information extraction unit.

画像人力部101は、テレビカメラ等の画像入力装置に
より運動を行っている物体を観測し、観測して得られた
l連のフレーム画像中の2つのフレーム画像を特徴点抽
出部102に出力する。特徴点抽出部102は9画像入
力部101より出力された2つのフレーム画像から特徴
点を抽出し、抽出した特徴点の2つのフレーム画像上の
座標を回転運動情報抽出部103及び3次元位置情報抽
出部105に出力する。2つのフレーム画像からの特徴
点の抽出は1例えば、物体の形状や表面の色が局所的に
急激な変化をする点を画像処理により抽出し、物体上で
同一の点であるものを対応付け、対応付けられた点を特
徴点とする。回転運動情報抽出部103は、特徴点抽出
部102より出力される2つのフレーム画像上の特徴点
の座標値から2つのフレーム画像間での実空間における
物体の回転運動情報を抽出し、3次元位置情報抽出部1
05に出力する。基準点距離付与部104は、各特徴点
の3次元位置の基準を与えるもので2例えば、特徴点の
中の1つの点を基準点とし、基準点から画像入力装置ま
での距離を基準として与える。このとき、特徴点間の位
置関係のみ必要な場合は適当な値を基準点の画像入力装
置までの距離として与えればよい、3次元位置情報抽出
部105は、特徴点抽出部102から出力された特徴点
のフレーム画像上の位置と回転運動情報抽出部103よ
り出力される回転運動情報と基準点距離付与部104よ
り出力された基準点の画像人力装置までの距離とから2
つのフレーム画像入力時における特徴点の3次元位置情
報を抽出して出力する。
The image human power unit 101 observes a moving object using an image input device such as a television camera, and outputs two frame images out of a series of frame images obtained through observation to the feature point extraction unit 102. . The feature point extraction unit 102 extracts feature points from the two frame images output from the nine-image input unit 101, and converts the coordinates of the extracted feature points on the two frame images to the rotation motion information extraction unit 103 and three-dimensional position information. It is output to the extraction unit 105. Extraction of feature points from two frame images is 1. For example, points where the shape or surface color of an object locally changes abruptly are extracted by image processing, and points that are the same on the object are matched. , the associated points are taken as feature points. The rotational motion information extraction unit 103 extracts rotational motion information of the object in real space between the two frame images from the coordinate values of the feature points on the two frame images output from the feature point extraction unit 102, and extracts the rotational motion information of the object in the real space between the two frame images. Location information extraction unit 1
Output to 05. The reference point distance providing unit 104 provides a reference for the three-dimensional position of each feature point.2For example, one point among the feature points is set as a reference point, and the distance from the reference point to the image input device is provided as a reference. . At this time, if only the positional relationship between feature points is required, an appropriate value may be given as the distance of the reference point to the image input device. 2 from the position of the feature point on the frame image, the rotational motion information output from the rotational motion information extraction section 103, and the distance of the reference point to the image human-powered device outputted from the reference point distance adding section 104.
Three-dimensional position information of feature points when two frame images are input is extracted and output.

以下1回転運動情報抽出部103と3次元位置情報抽出
部105との実施例を説明する。
Examples of the one-rotation motion information extraction section 103 and the three-dimensional position information extraction section 105 will be described below.

カメラモデルを第2図に示す中心射影で表すとカメラレ
ンズの中心を原点、カメラの光軸をZ軸カメラの結像面
の垂直方向をX軸とする直交座標系において、物体上の
特徴点Pkの3次元位置(Xk、Yk、Zk)は、Pk
Oフレーム画像上の位置を(tJk、Vk)、  カメ
ラレンズの中心からカメラの結像面までの距離をfとし
てで表せる。
If the camera model is represented by the central projection shown in Figure 2, the center of the camera lens is the origin, the optical axis of the camera is the Z axis, and the direction perpendicular to the image plane of the camera is the X axis. The three-dimensional position (Xk, Yk, Zk) of Pk is Pk
The position on the O frame image can be expressed as (tJk, Vk), and the distance from the center of the camera lens to the imaging plane of the camera can be expressed as f.

第3図に示すように特徴点Pkの1番目とj番目との2
つのフレーム画像入力時における点をPtk、  Pj
k (k=0.1.・・・、N−1,N:特徴点の数。
As shown in Fig. 3, the first and jth feature points Pk
The points at the time of inputting two frame images are Ptk and Pj
k (k=0.1..., N-1, N: number of feature points.

Pie、  PjOは基準点)、特徴点抽出部102か
ら出力される2つのフレーム画像上のこれらの特徴点の
座標値を(Uik、  Vik) 、  (Ujk、 
 Vjk)とする。
Pie, PjO are reference points), and the coordinate values of these feature points on the two frame images output from the feature point extraction unit 102 are (Uik, Vik), (Ujk,
Vjk).

ここでは 2つのフレーム画像間での物体がY軸まわり
の回転運動とX方向及びZ方向の並進運動の移動を行っ
ている場合について回転運動情報抽出部103と3次元
位置情報抽出部105の実施例を説明する。
Here, we will explain the implementation of the rotational motion information extraction unit 103 and the three-dimensional position information extraction unit 105 in the case where an object moves between two frame images by rotational movement around the Y axis and translational movement in the X and Z directions. Explain an example.

第3図において81番目とj番目との2つのフレーム画
像間での物体がY軸まわりに回転角βの回転運動とX方
向及びZ方向の並進運動を行っているとき1次式が成立
する。
In Fig. 3, when the object between the two frame images 81st and jth is performing rotational movement around the Y-axis at a rotation angle β and translational movement in the X and Z directions, the linear equation holds true. .

−ン    〜>               +−
〉0Pjk−OPjO−R0Pik−OPio(k≠O
) 、−・−−−(2) 但し。
−n ~> +−
〉0Pjk-OPjO-R0Pik-OPio(k≠O
) , -・---(2) However.

1番目とj番目との2つのフレーム画像入力時における
特徴点P ik、  P jkのY座標値は同じである
ことより次式が成立する。
Since the Y coordinate values of the feature points P ik and P jk are the same when the first and jth two frame images are input, the following equation holds true.

Z ik V ik  弯  ZjkVjk(3) 式(1〕を式(2)に代入し2式(3ンを用いてZjk
を消去することにより。
Z ik V ik 弯 ZjkVjk (3) Substituting equation (1) into equation (2) and using equation 2 (3), Zjk
By erasing.

・−・−−(4) が得られる6式(4)からZ ik、  Z ioを消
去することにより ak6 cosβ+aml sinβ+ak1=Q  
−(A)ここで。
・−・−−(4) By eliminating Z ik and Z io from Equation 6 (4), ak6 cosβ+aml sinβ+ak1=Q
-(A) Here.

a*o= f (Ujk−[JiO)  VjOVik
+ (Uik−UjO)  ViOVikl fak、
−(ViOVjk−■jOVik)f”+UjOUik
ViOVjk−UiOUjkVjOVikabt= (
(UiOUik)  VjOVjk+ (UjO−Uj
k)  ViOVikl f2つのフレーム画像間にお
ける物体の回転角βは、並進運動が無い場合は、基準と
なる特徴点POと他の1つの特徴点Pkの2つのフレー
ム画像上の座標値(Ui。、■、。)、 (Uj、、 
 Vj。)(Urw、  Vrx>、(IJ、に、  
VJk)を用いて式(5)で表せる。並進運動がある場
合は1回転角βは、基準となる特徴点POと他の2つの
特徴点Pk  PAの2つのフレーム画像上の座標値(
U、。、■+o)(Uto、V4o)1(U;m、V+
k)、CU、v、V=+=)(U;t、V+□)、(U
tl、”tz)を用いて式(6)で表せる。
a*o= f (Ujk−[JiO) VjOVik
+ (Uik-UjO) ViOVikl fak,
−(ViOVjk−■jOVik)f”+UjOUik
ViOVjk−UiOUjkVjOVikabt= (
(UiOUik) VjOVjk+ (UjO-Uj
k) ViOVikl fIf there is no translational movement, the rotation angle β of the object between two frame images is the coordinate value (Ui., ■,.), (Uj,,
Vj. ) (Urw, Vrx>, (IJ, to,
VJk) can be expressed by equation (5). When there is a translational movement, one rotation angle β is the coordinate value (
U. ,■+o)(Uto,V4o)1(U;m,V+
k), CU, v, V=+=) (U; t, V+□), (U
It can be expressed by equation (6) using tl and "tz).

si口β8 am+  az2   amz  axIcosβ= ・−−−−・−−−一−・ ・−(6)ここで、 all。= ((Ujm−UiO) VjOVim+ 
 (Uim−(JjO)  ViOVjs) fa*+
 −(VjOVjm −VjOVim)f”+ UjO
LJ imV iOVjm −UiOtJjmVjOV
 1IIaaz=  ((lJio  Uill)  
VjOVjm+ (IJjO−Ujm) ViOVim
l fすなわち、第1図図示の特徴点抽出部102より
出力される特徴点のフレーム画像上の座標を用いて弐(
5)1 または1式(6)から2つのフレーム画像間に
おける物体の回転角βを算出する手段を設けることによ
り回転運動情報抽出部103が実現できる。
si mouth β8 am+ az2 amz axIcosβ= ・−−−・−−−1−・ ・−(6) Here, all. = ((Ujm−UiO) VjOVim+
(Uim-(JjO) ViOVjs) fa*+
−(VjOVjm −VjOVim)f”+ UjO
LJ imV iOVjm -UiOtJjmVjOV
1IIaaz= ((lJio Uill)
VjOVjm+ (IJjO-Ujm) ViOVim
In other words, using the coordinates of the feature point on the frame image output from the feature point extraction unit 102 shown in FIG.
5) The rotational motion information extraction unit 103 can be realized by providing means for calculating the rotation angle β of the object between two frame images from 1 or 1 equation (6).

次に、特徴点の3次元位置を求める3次元位置情報抽出
部105の実施例を説明する。
Next, an embodiment of the three-dimensional position information extraction unit 105 for determining the three-dimensional position of a feature point will be described.

式(5)、または9式(6)から求めた回転角を用いる
と1式(3)、弐(4)よりi番目とj番目とのフレー
ム画像入力時における特徴点P ik、  P jkの
X成分は。
Using the rotation angle obtained from Equation (5) or Equation 9 (6), from Equation 1 (3) and 2 (4), the feature points P ik and P jk at the time of inputting the i-th and j-th frame images are What is the X component?

(k−1,2,・・・、N−1) ・・−・−−−−−一・−(7) −・−・・−・−・・(8) と表せる。特徴点の3次元位置のX成分、X成分は1式
(1)に式(7)1式(8)を代入して求められる。
It can be expressed as (k-1, 2,..., N-1) ・・−・−−−−−1・−(7) −・−・・−・−・・(8) The X component and the X component of the three-dimensional position of the feature point are obtained by substituting equations (7) and (8) into equation (1).

すなわち、第1図図示の回転運動情報抽出部103から
出力される回転角と、特徴点抽出部102から出力され
る2つのフレーム画像上の特徴点の座標faUik、 
 Vik、  LJjk、  Vjkと、基準点距離付
与部104から出力される基準点の画像入力装置までの
距離より算出できる基準点のZ座標値ZiOとを用いて
2式(7)及び式(8)に従って、i番目とj番目との
2つのフレーム画像入力時における特徴点の3次元位置
を求めることができる。
That is, the rotation angle outputted from the rotational motion information extraction unit 103 shown in FIG. 1, the coordinate faUik of the feature point on the two frame images outputted from the feature point extraction unit 102,
Using Vik, LJjk, Vjk, and the Z coordinate value ZiO of the reference point that can be calculated from the distance of the reference point to the image input device output from the reference point distance adding unit 104, Equation 2 (7) and Equation (8) are obtained. Accordingly, the three-dimensional position of the feature point at the time of inputting the i-th and j-th frame images can be determined.

2つのフレーム画像間での物体がX軸まわりの回転運動
とY方向及びZ方向の並進運動の移動とを行っている場
合における回転運動情報抽出部103と3次元位置情報
抽出部105とは、2つのフレーム画像間での物体がY
軸まわりの回転運動とX方向及びZ方向の並進運動の移
動とを行っている場合における回転運動情報抽出部10
3と3次元位置情報抽出部105との実施例においてX
成分とX成分とを置き換えることにより実現できる。
The rotational motion information extraction unit 103 and the three-dimensional position information extraction unit 105 when an object is performing rotational movement around the X-axis and translational movement in the Y and Z directions between two frame images are as follows: The object between the two frame images is Y
Rotational motion information extraction unit 10 when performing rotational motion around an axis and translational motion in the X direction and Z direction
In the embodiment of 3 and the 3D position information extraction unit 105,
This can be realized by replacing the component with the X component.

また、2つのフレーム画像間での物体がZ軸まわりの回
転運動とX方向及びY方向の並進運動の移動を行ってい
る場合には1画像人力装置からみて奥行き方向の移動が
無いので、フレーム画像上での特徴点の移動そのものが
実際の3次元的移動を表しているためフレーム画像上で
の特徴点の回転運動の回転角を求めることにより回転運
動情報抽出部103が実現でき、2つのフレーム画像入
力時における特徴点の3次元位置のX成分は変化しない
という条件の基で式(2)を解くことにより3次元位置
情報抽出部105が実現できる。
In addition, if an object moves between two frame images by rotating around the Z axis and translating in the X and Y directions, there is no movement in the depth direction when viewed from a single image human-powered device Since the movement of a feature point on an image itself represents actual three-dimensional movement, the rotational movement information extraction unit 103 can be realized by determining the rotation angle of the rotational movement of a feature point on a frame image. The three-dimensional position information extraction unit 105 can be realized by solving equation (2) under the condition that the X component of the three-dimensional position of the feature point at the time of inputting the frame image does not change.

〔発明の効果〕〔Effect of the invention〕

以上説明したように9本発明によれば、特徴点の2つの
フレーム画像上の座標を用いて、これらの座標から求め
た回転運動情報と特徴点のフレーム画像上の座標とから
各特徴点の基準点の画像人力装置までの距離を基準とし
た3次元位置を抽出することができるから、物体に前も
って定めた移動量を運動させたり1手作業により移動量
を計測したりする必要がなく、運動を行っている物体を
観測するだけで物体上の特徴点の3次元位置情報が抽出
できる。
As explained above, according to the present invention, the coordinates of the feature points on two frame images are used to calculate each feature point from the rotational motion information obtained from these coordinates and the coordinates of the feature points on the frame image. Since it is possible to extract the three-dimensional position based on the distance to the image of the reference point and the human-powered device, there is no need to move the object a predetermined amount of movement or manually measure the amount of movement. Three-dimensional position information of feature points on an object can be extracted just by observing a moving object.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例を示す3次元の位置情報抽出
処理方式の構成図、第2図はカメラモデルを示す図、第
3図は物体の運動による特徴点の3次元的位置変化とフ
レーム画像上での特徴点の2次元的位置変化の対応を示
す図である。 101・・・画像人力部 カメラの悶儂茄 ・・・特徴点抽出部。 ・・・回転運動情報抽出部。 ・・・基準点距離付与部。 ・・・3次元位置情報抽出部。
Fig. 1 is a block diagram of a three-dimensional position information extraction processing method showing an embodiment of the present invention, Fig. 2 is a diagram showing a camera model, and Fig. 3 is a three-dimensional position change of feature points due to the movement of an object. FIG. 3 is a diagram showing the correspondence between two-dimensional positional changes of feature points on a frame image and a two-dimensional position change of a feature point on a frame image. 101... Image human power department Camera's agony... Feature point extraction unit. ...Rotational motion information extraction section. ...Reference point distance adding section. ...3D position information extraction unit.

Claims (1)

【特許請求の範囲】 運動を行っている物体を画像入力装置により観測して3
次元の位置情報を抽出する3次元の位置情報抽出処理方
式において、 該画像入力装置より得られる1連のフレーム画像中の2
つのフレーム画像から各々特徴点を抽出し、抽出した特
徴点の2つのフレーム画像上の座標を用いて2つのフレ
ーム画像間での物体の3次元的移動における回転運動情
報を抽出する回転運動情報抽出手段を有し、該回転運動
情報抽出手段で抽出した回転運動情報と特徴点の2つの
フレーム画像上の座標から特徴点の中の1つを基準とし
た特徴点の3次元位置を抽出するようにした ことを特徴とする3次元の位置情報抽出処理方式。
[Claims] Observing a moving object using an image input device
In a three-dimensional position information extraction processing method that extracts dimensional position information, two of a series of frame images obtained from the image input device are
Rotational motion information extraction that extracts feature points from each frame image, and uses the coordinates of the extracted feature points on the two frame images to extract rotational motion information regarding three-dimensional movement of an object between the two frame images. means for extracting the three-dimensional position of the feature point with one of the feature points as a reference from the rotational motion information extracted by the rotational motion information extraction means and the coordinates of the feature point on the two frame images. A three-dimensional location information extraction processing method that is characterized by:
JP1142830A 1989-06-05 1989-06-05 Processing system for extraction of three-dimensional position information Pending JPH036780A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1142830A JPH036780A (en) 1989-06-05 1989-06-05 Processing system for extraction of three-dimensional position information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1142830A JPH036780A (en) 1989-06-05 1989-06-05 Processing system for extraction of three-dimensional position information

Publications (1)

Publication Number Publication Date
JPH036780A true JPH036780A (en) 1991-01-14

Family

ID=15324610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1142830A Pending JPH036780A (en) 1989-06-05 1989-06-05 Processing system for extraction of three-dimensional position information

Country Status (1)

Country Link
JP (1) JPH036780A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0573680A (en) * 1991-09-17 1993-03-26 Fujitsu Ltd Moving object recognizing device
US5581276A (en) * 1992-09-08 1996-12-03 Kabushiki Kaisha Toshiba 3D human interface apparatus using motion recognition based on dynamic image processing

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0573680A (en) * 1991-09-17 1993-03-26 Fujitsu Ltd Moving object recognizing device
US5581276A (en) * 1992-09-08 1996-12-03 Kabushiki Kaisha Toshiba 3D human interface apparatus using motion recognition based on dynamic image processing

Similar Documents

Publication Publication Date Title
CN110827392B (en) Monocular image three-dimensional reconstruction method, system and device
CN112907631B (en) Multi-RGB camera real-time human body motion capture system introducing feedback mechanism
CN113724337B (en) Camera dynamic external parameter calibration method and device without depending on tripod head angle
JP2953154B2 (en) Shape synthesis method
CN113450416B (en) TCSC method applied to three-dimensional calibration of three-dimensional camera
CN111833392A (en) Multi-angle scanning method, system and device for mark points
Wan et al. High-precision six-degree-of-freedom pose measurement and grasping system for large-size object based on binocular vision
CN109712139A (en) The dimension measurement method of monocular vision based on linear movement mould group
Weik et al. Hierarchical 3d pose estimation for articulated human body models from a sequence of volume data
JP2010112731A (en) Joining method of coordinate of robot
JP2559939B2 (en) Three-dimensional information input device
JPH1089960A (en) Three-dimensional image measuring method
JPH036780A (en) Processing system for extraction of three-dimensional position information
Nguyen et al. Real-time obstacle detection for an autonomous wheelchair using stereoscopic cameras
Neubert et al. Automatic training of a neural net for active stereo 3D reconstruction
JP2019032660A (en) Imaging system and imaging method
JPH0238804A (en) Apparatus for measuring object
JP2970835B2 (en) 3D coordinate measuring device
CN112435345A (en) Human body three-dimensional measurement method and system based on deep learning
CN111860275A (en) Gesture recognition data acquisition system and method
Raguse et al. Synchronization of image sequences-a photogrammetric method
Xu et al. A new vision measurement method based on active object gazing
JPH036781A (en) Processing system for extraction of three-dimensional position information
JPS6247512A (en) Three dimensional position recognizing device
CN117237529A (en) 4D face data acquisition method and device