JPH07139909A - Method for measuring/controlling position of viewpoint - Google Patents

Method for measuring/controlling position of viewpoint

Info

Publication number
JPH07139909A
JPH07139909A JP28631493A JP28631493A JPH07139909A JP H07139909 A JPH07139909 A JP H07139909A JP 28631493 A JP28631493 A JP 28631493A JP 28631493 A JP28631493 A JP 28631493A JP H07139909 A JPH07139909 A JP H07139909A
Authority
JP
Japan
Prior art keywords
cylinder
viewpoint
stereo image
point
radius
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP28631493A
Other languages
Japanese (ja)
Inventor
Hiroshi Naruse
央 成瀬
Atsushi Nobiki
敦 野引
Hiroshi Nakanishi
寛 中西
Minoru Shirogata
実 白潟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP28631493A priority Critical patent/JPH07139909A/en
Publication of JPH07139909A publication Critical patent/JPH07139909A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

PURPOSE:To provide a method for detecting a central position, a radius, positions of characteristic points of a cylinder such as an electric light pole or the like through operations of a stereo image thereby to detect a position of a manipulator, etc., and move/control the manipulator, etc. CONSTITUTION:In a first step, a stereo image is processed thereby to detect/ measure right and left positions of a cylinder, and calculate a central position of the cylinder as a center of the right and left, positions and also a radius from a distance of the right and left positions. In a second step, the stereo image is processed to detect a position of a characteristic point on a surface of the cylinder. In a next third step, a direction of a line connecting central point of the cylinder and the characteristic the point is obtained from the central position and radius of the cylinder and the position of the characteristic point, and a moving direction and a moving amount for a viewpoint necessary for covectly facing the view point to the cylinder are obtained. The viewpoint is consequently moved. The above process is repeated until a target position is obtained. In this manner, the viewpoint with a manipulator or the like can be correctly measured, and easily moved to an optional position by such a simple device as a personal computer without requiring skills.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、電柱などの円筒形状を
有する物体に対し、円筒物体の左右境界位置情報と円筒
面上の特徴点の位置情報に基づいて、マニピュレータ先
端部に取り付けられた工具と円筒物体との相対位置関係
を計測したり、この工具を円筒物体に対して所望の位置
に移動制御したりする方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention is attached to the tip of a manipulator for an object having a cylindrical shape such as a utility pole, based on the left and right boundary position information of the cylindrical object and the position information of the feature points on the cylindrical surface. The present invention relates to a method of measuring a relative positional relationship between a tool and a cylindrical object, and controlling movement of the tool to a desired position with respect to the cylindrical object.

【0002】[0002]

【従来の技術】通信や電力を支える上で電柱は重要な屋
外施設であり、近年需要増加に伴って電柱上のケーブル
張り替え作業などが増えている。これらの作業はいわゆ
る3K作業であり、作業環境の改善、人件費の高騰など
の理由により、現在マニピュレータ先端部に工具を取り
付け、遠隔操作による作業方法などが検討されている。
ここで問題となることは、マニピュレータ先端部を効率
的かつ高精度に、作業すべき適当な場所に移動すること
である。従来は、マニピュレータ先端部にカメラを取り
付け、オペレータがその画像をモニタで目視しながら移
動作業を行なっていた。しかし、1枚の画像からは距離
情報が得られないことから、熟練者であっても適切に移
動することが困難であった。この問題を回避するため
に、カメラを2台用いてステレオ画像を撮影し、左右そ
れぞれの目に左右別々のステレオ画像を見せることでオ
ペレータに遠近感を与える方法も検討されている(廣瀬
通孝、“人工現実感はどこまで実現するか”、日本機械
学会誌、Vol.93、No.863、pp.874−
880,1990)。
2. Description of the Related Art Utility poles are important outdoor facilities for supporting communication and electric power, and cable relocation work on utility poles has been increasing in recent years as demand has increased. These works are so-called 3K works, and for reasons such as improvement of work environment and soaring labor costs, a work method by remote operation with a tool attached to the tip of the manipulator is currently being studied.
The problem here is to move the tip of the manipulator efficiently and with high accuracy to a suitable place to work. Conventionally, a camera is attached to the tip of a manipulator, and an operator carries out a moving operation while viewing the image on a monitor. However, since it is not possible to obtain distance information from one image, it is difficult for even an expert to properly move. In order to avoid this problem, a method of giving a perspective to the operator by taking a stereo image with two cameras and showing different left and right stereo images to the left and right eyes has also been studied (Michitaka Hirose, “How far can artificial reality be realized?”, Journal of Japan Society of Mechanical Engineers, Vol.93, No.863, pp.874-
880, 1990).

【0003】一方、従来より、ステレオ画像から3次元
空間位置を計測するステレオ画像計測方法が知られてい
る。以下、このステレオ画像計測方法について簡単に説
明する。
On the other hand, conventionally, there is known a stereo image measuring method for measuring a three-dimensional spatial position from a stereo image. Hereinafter, this stereo image measuring method will be briefly described.

【0004】ステレオ画像計測原理を図5に示す。3次
元空間を表す座標としてx、y、zを用い、画像面上の
位置を表す座標としてu、vを用いる。x軸とu軸、z
軸とv軸はそれぞれ平行であり、y軸はカメラの光軸に
平行であるとする。空間座標系の原点であるOを、左右
のカメラの投影中心Fl、Frの中点にとる。カメラ間の
距離を2aとすると、Fl、Frの3次元空間内での座標
はそれぞれ(−a,0,0)、(a,0,0)で表され
る。現実のカメラの画像面はカメラの投影中心に関して
計測対象と反対側にあるが、以下に述べる幾何学的定量
関係を見易くするために、図5ではカメラ画像面を計測
対象と同じ側の、投影中心に関して対称の位置に描いて
いる。このとき、投影中心と画像面との距離をfとする
と、左右のカメラ画像面における画像原点Ol、Orの3
次元空間座標はそれぞれ(−a,f,0)、(a,f,
0)で表される。以下、左、右の画像を示す添字として
l、rを用い、原点Oを視点と呼ぶ。
The principle of stereo image measurement is shown in FIG. X, y, and z are used as the coordinates indicating the three-dimensional space, and u and v are used as the coordinates indicating the position on the image plane. x-axis and u-axis, z
The axis and the v-axis are parallel to each other, and the y-axis is parallel to the optical axis of the camera. Let O, which is the origin of the spatial coordinate system, be the midpoint of the projection centers F l and F r of the left and right cameras. When the distance between the camera and 2a, F l, respectively coordinates in the three-dimensional space F r (-a, 0,0), represented by (a, 0,0). The image plane of the actual camera is on the side opposite to the measurement target with respect to the projection center of the camera, but in order to make it easy to see the geometrical quantitative relationship described below, in FIG. It is drawn in a symmetrical position with respect to the center. At this time, assuming that the distance between the projection center and the image plane is f, 3 of the image origins O l and O r on the left and right camera image planes.
The dimensional space coordinates are (-a, f, 0), (a, f,
It is represented by 0). Hereinafter, l and r are used as subscripts indicating left and right images, and the origin O is referred to as a viewpoint.

【0005】今、3次元空間内の点Pが、左右画像面上
の点Il(ul,vl)、Ir(ur,vr)に投影されたと
する。ステレオ画像計測では、画像上においてIl、Ir
を決定し、三角測量の原理に基づいて点Pの3次元空間
座標(x,y,z)を求める。ここで、2台のカメラの
光軸が同一平面上にありx軸とu軸とを平行にとってい
ることから、vlとvrとは同じ値をとる。そこで、以下
では両者を区別せずvで表す。図5に示すように、直線
llとFrrとが点Pで交わるという幾何学的条件よ
り、画像面上の座標ul,ur,vと3次元空間内の座標
x、y、zとの関係は、 x=a(ul+ur)/(ul−ur) (1) y=2af/(ul−ur) (2) z=2av/(ul−ur) (3) と求められる。
It is assumed that a point P in the three-dimensional space is projected onto points I l (u l , v l ) and I r (u r , v r ) on the left and right image planes. In stereo image measurement, I l and I r are displayed on the image.
Is determined, and the three-dimensional space coordinates (x, y, z) of the point P are obtained based on the principle of triangulation. Here, since the optical axes of the two cameras are on the same plane and the x axis and the u axis are parallel to each other, v 1 and v r have the same value. Therefore, in the following, both are represented by v without distinction. As shown in FIG. 5, due to the geometrical condition that the straight lines F l I l and F r I r intersect at the point P, the coordinates u l , u r , v on the image plane and the coordinates x in the three-dimensional space are set. , y, the relationship between z is, x = a (u l + u r) / (u l -u r) (1) y = 2af / (u l -u r) (2) z = 2av / (u l −u r ) (3)

【0006】次に、ディジタル画像処理を例にとって、
このようなステレオ画像計測を行なうための装置構成の
ブロック図を図6に示す。テレビカメラ1−1、1−2
で撮像された画像は、走査線毎に走査されながら時間的
に連続した映像信号に変換される。この映像信号は、デ
ジタイザ2のサンプラによって、碁盤の目のように1画
面あたり縦横数百個の画素に標本化される。また、同時
にA/D変換器によって、各画素に入射した光量に対応
した濃度として数百階調に量子化される。このように画
像は、画素の位置を示す座標とそこにおける濃度からな
る情報として、画像メモリ3に記憶される。画像面に投
影された物体境界は通常明るさが大きく変化しているの
で、計算機(CPU)4は画像メモリ3に記憶された画
像に対して微分処理などを施し、明るさが変化する場所
として物体境界の投影位置を検出する。このような処理
を左右の画像に対して行なうことにより、それぞれの画
像面上の対応点Il(ul,vl)、Ir(ur,vr)が得
られる。なお、内挿計算などを行うことによって、投影
位置の決定に際しディジタル化による影響を無視できる
程小さくできる。このようにステレオ画像処理では、物
体投影点の画像面座標ul、ur、vを計測し、3次元空
間座標x、y、zを間接測定する。
Next, taking digital image processing as an example,
A block diagram of a device configuration for performing such stereo image measurement is shown in FIG. TV cameras 1-1 and 1-2
The image captured in (1) is converted into a temporally continuous video signal while being scanned for each scanning line. This video signal is sampled by a sampler of the digitizer 2 into hundreds of vertical and horizontal pixels per screen like a grid pattern. At the same time, the A / D converter quantizes the density corresponding to the amount of light incident on each pixel into several hundreds of gradations. In this way, the image is stored in the image memory 3 as information including the coordinates indicating the position of the pixel and the density there. Since the brightness of the object boundary projected on the image plane usually changes greatly, the computer (CPU) 4 performs a differentiation process on the image stored in the image memory 3 to determine a place where the brightness changes. The projected position of the object boundary is detected. By performing such processing on the left and right images, corresponding points I l (u l , v l ) and I r (u r , v r ) on the respective image planes can be obtained. By performing interpolation calculation or the like, the influence of digitization in determining the projection position can be made small enough to be ignored. As described above, in the stereo image processing, the image plane coordinates u l , u r , and v of the object projection point are measured, and the three-dimensional space coordinates x, y, and z are indirectly measured.

【0007】[0007]

【発明が解決しようとする課題】上記したように、従来
の電柱上のケーブル張り替え作業等において、オペレー
タがステレオ画像を見ながら遠隔操作でマニピュレータ
を移動作業する場合では、高度な画像制御が行える特殊
な装置が必要になる他、眼球疲労などオペレータに負担
を強いるなどの問題点があった。
As described above, in the conventional cable replacement work on telephone poles, when the operator moves the manipulator by remote control while looking at the stereo image, a special image control can be performed. In addition to the need for various devices, there are problems that the operator is burdened with eye fatigue and the like.

【0008】本発明は、このような問題点を解決するた
めになされたもので、その目的は、ステレオ画像を演算
処理して円筒中心位置、半径、特徴点位置を高精度に計
測し、マニピュレータの位置計測、移動制御を行なう方
法を提供することにある。具体的には、ステレオ画像を
計算機で演算処理することにより、電柱の中心位置と半
径、および電柱上の特徴点の位置を直接計測し、この情
報に基づいてマニピュレータと電柱との相対位置関係を
求め、マニピュレータを移動、制御する方法を提案す
る。
The present invention has been made in order to solve such a problem, and an object thereof is to perform arithmetic processing on a stereo image to measure a cylinder center position, a radius, and a feature point position with high accuracy, and to operate the manipulator. The object of the present invention is to provide a method for measuring the position and controlling the movement of the vehicle. Specifically, by processing the stereo image with a computer, the center position and radius of the utility pole and the position of the feature point on the utility pole are directly measured, and the relative positional relationship between the manipulator and the utility pole is calculated based on this information. Then, we propose a method of moving and controlling the manipulator.

【0009】[0009]

【発明が解決しようとする課題】上記の目的を達成する
ため、本発明の視点位置計測制御方法は、ステレオ画像
処理を用いて円筒物体に対して視点の位置を計測、制御
する際に、円筒面上の特徴点に対して視点を正対化させ
る方法において、ステレオ画像を演算処理して、円筒の
左右境界位置を計測し、その間隔から円筒中心位置、半
径を算出する第1工程と、同じくステレオ画像を演算処
理して、円筒面上の特徴点の位置を算出する第2工程
と、前記第1、第2工程で算出された円筒中心位置、半
径、特徴点位置から前記円筒中心位置と特徴点とを結ぶ
直線の方向を求め、正対化させるのに必要な視点の移動
方向とその量を求める第3工程と、を有することを特徴
とする。
In order to achieve the above object, the viewpoint position measurement control method of the present invention uses a stereo image processing to measure and control the position of the viewpoint of a cylindrical object. In the method of directly facing the viewpoint with respect to the feature point on the surface, the first step of calculating the stereo image, measuring the left and right boundary positions of the cylinder, and calculating the cylinder center position and the radius from the interval, Similarly, a second step of computing the stereo image to calculate the position of the characteristic point on the cylindrical surface, and the cylindrical center position, radius, and characteristic point position calculated from the first and second steps from the cylindrical center position. The third step is to obtain the direction of the straight line connecting the line and the feature point, and to obtain the direction of movement of the viewpoint and the amount of the line of sight necessary to make the line straight.

【0010】[0010]

【作用】本発明の視点位置計測制御方法では、ステレオ
画像を演算処理して円筒の左右位置を計測し、それらの
中心位置として円筒中心位置を、また両者の間隔から半
径を算出するとともに、円筒面上の特徴点の位置を算出
し、これらの円筒中心位置、半径、特徴点位置から円筒
中心位置と特徴点とを結ぶ直線の方向を求め、正対化さ
せるのに必要な視点の移動方向とその量を求める。この
ようにして、パソコン程度の簡単な装置で、熟練を必要
とせず、正確に視点を計測して正対化できるようにし、
所望の位置までの視点の移動制御を容易にする。
In the viewpoint position measuring and controlling method of the present invention, the stereo image is arithmetically processed to measure the left and right positions of the cylinder, the center position of the cylinder is calculated as the center position of them, and the radius is calculated from the interval between the two. The position of the feature point on the surface is calculated, the direction of the straight line connecting the cylinder center position and the feature point is calculated from these cylinder center position, radius, and feature point position, and the moving direction of the viewpoint required to make it straight And ask for the amount. In this way, with a device as simple as a personal computer, it is possible to accurately measure the point of view and to confront it, without requiring skill.
It facilitates the movement control of the viewpoint to the desired position.

【0011】[0011]

【実施例】以下、本発明の一実施例を図面を参照して詳
細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings.

【0012】まず、図1を用いて円筒面に対するステレ
オ画像計測方法を説明する。図1は図5にz軸方向に中
心軸を有する円筒Aを加え、v=0で切った断面図を示
したものである。通常xy平面は地表面と平行で水平で
あり、z軸は円筒Aの中心軸に平行で鉛直であるので、
説明を簡単にできることもあり、以下ではxy平面上の
2次元計測を考える。また、以下ではこの図1のよう
に、円筒の左右に関わる量をそれぞれ添字L、Rで表
す。従来技術で説明したステレオ画像計測方法を用い、
円筒の左右境界点L、Rの座標(xL,yL)、(xR
R)を求める。そして、円筒の中心位置Cの座標
(xC,yC)をそれらの2点の中心位置として、すなわ
ち、xC=(xL+xR)/2、yC=(yL+yR)/2と
して求める。また、半径pについては、2点間の距離の
半分すなわちp=((xL−xR2+(yL−yR2
0・5/2として求める。これらの計算によって得られる
(xC,yC)、pは厳密解ではないが、yC≒0(ある
いはyC≒p)すなわち円筒中心位置が視点の近傍にあ
るといった極端な場所以外は近似的に成り立つ。
First, a stereo image measuring method for a cylindrical surface will be described with reference to FIG. FIG. 1 is a cross-sectional view taken along v = 0 when a cylinder A having a central axis in the z-axis direction is added to FIG. Normally, the xy plane is parallel to the ground surface and horizontal, and the z axis is parallel to the central axis of the cylinder A and vertical,
Since the explanation can be simplified, two-dimensional measurement on the xy plane will be considered below. Further, hereinafter, as shown in FIG. 1, the quantities relating to the left and right of the cylinder are represented by subscripts L and R, respectively. Using the stereo image measurement method described in the prior art,
Coordinates (x L , y L ) of the left and right boundary points L and R of the cylinder, (x R ,
y R ). The coordinates (x C , y C ) of the center position C of the cylinder are set as the center positions of these two points, that is, x C = (x L + x R ) / 2, y C = (y L + y R ) / Calculate as 2. Also, the radius p, half i.e. p = the distance between the two points ((x L -x R) 2 + (y L -y R) 2)
Calculated as 0.5 / 2. Although (x C , y C ), p obtained by these calculations is not an exact solution, y C ≈ 0 (or y C ≈ p), that is, it is approximate except at an extreme place where the cylinder center position is near the viewpoint. Holds true.

【0013】次に図2を用いて、本実施例における視点
位置計測制御方法を説明する。図2に示すように、円筒
A面上の特徴点Mが円筒中心点Cを中心にθ回転した円
周上の位置にあり、この点の座標を(xM,yM)とす
る。この特徴点Mの座標は、従来技術に述べたステレオ
画像計測方法で求めることができる。図2の場合、幾何
学的関係より次式が得られる。
Next, the viewpoint position measurement control method in this embodiment will be described with reference to FIG. As shown in FIG. 2, the characteristic point M on the surface of the cylinder A is at a position on the circumference rotated by θ around the cylinder center point C, and the coordinates of this point are (x M , y M ). The coordinates of the feature point M can be obtained by the stereo image measuring method described in the related art. In the case of FIG. 2, the following equation is obtained from the geometrical relationship.

【0014】 xM=xC+psinθ (4) yM=yC−pcosθ (5) なお、特徴点Mが左右カメラから見える位置に視点を移
動すること、すなわち図1の円弧⌒LR上に視点位置を
移動することは正確な移動制御を必要とせず、オペレー
タの操作によって容易に行える。式(4)、(5)よ
り、円筒中心点Cの計測座標(xC,yC)と特徴点Mの
計測座標(xM,yM)とから角度θは θ=−tan-1((xM−xC)/(yM−yC)) (6) と求められる。ただし、上述の特徴点Mの計測条件すな
わち特徴点Mが左右カメラから見えることにより、θの
範囲は−90゜<θ<90゜である。
X M = x C + psin θ (4) y M = y C −p cos θ (5) Moving the viewpoint to a position where the feature point M can be seen from the left and right cameras, that is, the viewpoint on the arc ⌒LR in FIG. Moving the position does not require precise movement control and can be easily performed by an operator's operation. From equations (4) and (5), the angle θ from the measurement coordinates (x C , y C ) of the cylinder center point C and the measurement coordinates (x M , y M ) of the feature point M is θ = −tan −1 ( (x M -x C) / ( y M -y C)) obtained as (6). However, the range of θ is −90 ° <θ <90 ° because the measurement condition of the characteristic point M, that is, the characteristic point M is visible from the left and right cameras.

【0015】今、図2のように正対化する前の視点O1
の座標をx11で、また正対化後の視点O2の座標をx2
2で表すこととし、まず視点O1を角度θだけ回転し、
次に回転後のx軸であるx2軸に沿ってtx平行移動して
正対化することを考える。この場合、幾何学的関係か
ら、txは tx=xCcosθ+yCsinθ (7) となるので、式(6)より求められた正対化するために
必要な回転角度θを式(6)に代入することで平行移動
量txが得られる。正対化後の視点と円筒中心との距離
はyCcosθ−xCsinθであるので、この情報に基
づいて正対化した状態で視点O2からy2軸に沿ってマニ
ピュレータを所望の位置まで移動できる。ただし、画像
面投影点に含まれる計測誤差がこれらのθ、txに伝播
するため、上述の計測、正対化を繰り返しながらマニピ
ュレータを円筒面に接近させていけばよい。
Now, as shown in FIG. 2, the viewpoint O 1 before the face-to-face conversion is performed.
Is x 1 y 1 , and the coordinate of the viewpoint O 2 after face-to-face correspondence is x 2
and be represented by y 2, first, the viewpoint O 1 rotated by an angle theta,
Next, consider t x translation along the x 2 axis, which is the x axis after rotation, to make it face-to-face. In this case, t x is t x = x C cos θ + y C sin θ (7) from the geometrical relation, and therefore the rotation angle θ required for the confrontation obtained from the formula (6) is expressed by the formula (6) ), The translation amount t x is obtained. Since the distance between the viewpoint and the center of the cylinder after facing is y C cos θ−x C sin θ, the manipulator is moved from the viewpoint O 2 to the desired position along the y 2 axis in the facing state based on this information. You can move up to. However, since the measurement error included in the image plane projection point propagates to these θ and t x , the manipulator may be brought close to the cylindrical surface while repeating the above-described measurement and facing.

【0016】以下、具体的例をあげて本実施例を説明す
る。
This embodiment will be described below with reference to specific examples.

【0017】今、左右カメラの間隔2aを20cm、カ
メラレンズの焦点距離を5mm、1画素の寸法である画
像面上での標本化の間隔を10μmとする。また、円筒
の直径は30cm、その中心位置は(0.3m,1m)
にあるものとする。このような条件の下でのシミュレー
ションを通し、本実施例を図3のフローチャートを用い
て具体的に説明する。以下では長さの単位はすべてmと
し、以下ではこのmは省略する。
Now, it is assumed that the distance 2a between the left and right cameras is 20 cm, the focal length of the camera lens is 5 mm, and the sampling interval on the image plane having a size of 1 pixel is 10 μm. The diameter of the cylinder is 30 cm, and the center position is (0.3 m, 1 m).
It is assumed that This embodiment will be specifically described with reference to the flowchart of FIG. 3 through the simulation under such conditions. In the following, all units of length are m, and this m is omitted below.

【0018】(ア)第1工程 第1工程は、ステレオ画像処理によって円筒の左右境界
位置を計測し、それらの計測値の中心として円筒の中心
位置を、またそれらの左右境界位置の距離から半径を算
出する工程である。上述のシミュレーション条件の下で
実際に円筒面境界の画像面投影点の位置を求める。ここ
ではディジタル化の影響を低減するために、画像に投影
された境界位置決定計算に内挿法を用いることを前提と
して、ディジタル化しない値を用いて計算を進めること
とする。この内挿計算方法の例としては、野村由司彦
他、“エッジ位置計測のサブピクセル化と誤差解析”、
電子通信学会論文誌(D−II)、J73−D−II、p
p.1458−1467(1990)などがある。
(A) First step In the first step, the left and right boundary positions of the cylinder are measured by stereo image processing, the center position of the cylinder is set as the center of the measured values, and the radius from the distance between the left and right boundary positions is measured. Is a step of calculating. Under the above-mentioned simulation conditions, the position of the image plane projection point on the boundary of the cylindrical surface is actually obtained. Here, in order to reduce the influence of digitization, it is assumed that the interpolation method is used for the boundary position determination calculation projected on the image, and the calculation is performed using a non-digitized value. As an example of this interpolation calculation method, Yujihiko Nomura et al., “Sub-pixelization and error analysis of edge position measurement”,
IEICE Transactions (D-II), J73-D-II, p
p. 1458-1467 (1990).

【0019】ここでは上述のシミュレーション条件にお
いて、カメラの投影中心から円筒面へ接線を引き、この
接線と画像面との交点の位置すなわち投影点の画素位置
を幾何学的に算出する。この結果本例では、図1に示し
た左カメラの左、右側円筒境界、右カメラの左、右の円
筒境界の投影点ul,L、ul,R、ur,L、ur,Rの値は、そ
れぞれ122.772、286.435、24.90
7、179.697画素と求められた。これらの座標を
もとに式(1)、(2)により円筒の左右位置の座標
(xL,yL)、(xR,yR)を算出すると、それぞれ
(0.151、1.022)、(0.437、0.93
8)となり、これより円筒の中心座標(xC,yC)、半
径pはそれぞれ(0.294、0.979)、0.14
9と求められた。前述したようにこれらの値には厳密解
ではないので、近似による誤差が含まれている。
Here, under the above-mentioned simulation conditions, a tangent line is drawn from the projection center of the camera to the cylindrical surface, and the position of the intersection of this tangent line and the image plane, that is, the pixel position of the projection point is geometrically calculated. The results in this example, the left of the left camera shown in FIG. 1, the right cylinder boundary, left right camera, the projected point u l of right cylindrical boundary, L, u l, R, u r, L, u r, The values of R are 122.772, 286.435, and 24.90, respectively.
It was determined to be 7, 179.697 pixels. When the coordinates (x L , y L ) and (x R , y R ) of the left and right positions of the cylinder are calculated based on these coordinates by the formulas (1) and (2), they are (0.151, 1.022), respectively. ), (0.437, 0.93
8), from which the center coordinates (x C , y C ) of the cylinder and the radius p are (0.294, 0.979) and 0.14, respectively.
It was asked to be 9. As described above, since these values are not exact solutions, errors due to approximation are included.

【0020】(イ)第2工程 第2工程は、第1工程と同様にしてステレオ画像処理に
よって円筒面上の特徴点の位置を計測する工程である。
第1工程と同様にして円筒面上の特徴点の座標(xM
M)を計算すると、(0.375、0.870)が得
られた。
(B) Second step The second step is a step of measuring the positions of the feature points on the cylindrical surface by stereo image processing as in the first step.
Similar to the first step, the coordinates (x M ,
Calculation of y M gave (0.375, 0.870).

【0021】(ウ)第3工程 第3工程は、上述の第1、第2工程で算出された円筒の
中心位置C(xC,yC)、半径p、特徴点M(xM
M)位置から円筒中心位置Cと特徴点Mとを結ぶ直線
CMの方向を求め、正対化させるのに必要な視点の移動
方向とその量を算出して、視点を移動させる工程であ
る。第1工程で算出された円筒の中心座標(0.29
4、0.979)(=(xC,yC))と、第2工程で円
筒面上の特徴点の座標(0.375、0.870)(=
(xM,yM))を式(6)に代入すると、θは36.6
°と算出された。また、式(7)にこの(xC,yC)の
値とθの値とを代入して平行移動量txを求めると、こ
の値は0.82であった。
(C) Third step In the third step, the center position C (x C , y C ) of the cylinder calculated in the first and second steps, the radius p, and the feature point M (x M ,
y M ) position is a step of obtaining the direction of a straight line CM connecting the cylinder center position C and the feature point M, calculating the moving direction and the amount of the viewpoint required to make the face straight, and moving the viewpoint. . The center coordinates of the cylinder calculated in the first step (0.29
4, 0.979) (= (x C , y C )) and the coordinates (0.375, 0.870) (= 0.375, 0.870) of the feature point on the cylindrical surface in the second step.
Substituting (x M , y M )) into equation (6), θ is 36.6.
It was calculated as °. Further, when the value of (x C , y C ) and the value of θ were substituted into the equation (7) to obtain the parallel movement amount t x , this value was 0.82.

【0022】図4は上記の結果を図示したものである。
図4において、O1は正対化する前の視点の初期位置、
2は正対化した視点位置であり、C、tx、θは真の値
を示している。それに対してO2′、C′、tx′、θ′
は算出された位置、あるいは値を示している。円筒中心
位置の計測値に含まれる誤差が正対化位置1回の計測で
かなり正対化されていることがわかる。上記により正対
化した視点位置が目標位置であればそこで終了し、目標
位置でなければ視点を電柱へ接近させて、その接近させ
た位置で再度計測を繰り返すことによって、任意の所望
する距離での正対化が行える。
FIG. 4 illustrates the above results.
In FIG. 4, O 1 is the initial position of the viewpoint before face-up,
O 2 is the facing viewpoint position, and C, t x , and θ are true values. On the other hand, O 2 ′, C ′, t x ′, θ ′
Indicates the calculated position or value. It can be seen that the error included in the measured value of the cylinder center position is considerably faced by one measurement of the face-to-face position. If the viewpoint position that has been directly faced by the above is ended if it is the target position, and if it is not the target position, the viewpoint is brought closer to the utility pole, and the measurement is repeated again at the approached position, so that any desired distance is obtained. Can be directly faced.

【0023】なお、上記の実施例においては説明を簡単
にするために2次元計測の場合を例に説明したが、本発
明は3次元計測の場合にも同様に適用できることは言う
までもない。
In the above embodiment, the case of two-dimensional measurement has been described as an example for simplification of description, but it goes without saying that the present invention can be similarly applied to the case of three-dimensional measurement.

【0024】[0024]

【発明の効果】以上、説明したように本発明では、ステ
レオ画像を演算処理して円筒の左右位置を計測し、それ
らの中心位置として円筒中心位置を、また両者の間隔と
して直径を算出するとともに、円筒面上の特徴点の位置
を算出し、これらの円筒中心位置、半径、特徴点位置か
ら円筒中心位置と特徴点とを結ぶ直線の方向を求め、正
対化させるのに必要な視点の移動方向とその量を求める
ため、パソコン程度の簡単な装置で、熟練を必要とせ
ず、正確に視点を計測、正対化し、所望する任意の位置
まで容易に移動できる利点が得られる。
As described above, according to the present invention, the stereo images are arithmetically processed to measure the left and right positions of the cylinders, the center positions of the cylinders are calculated as the center positions thereof, and the diameter is calculated as the distance between the two. , Calculate the position of the feature point on the cylindrical surface, find the direction of the straight line connecting the cylinder center position and the feature point from these cylinder center position, radius, and feature point position, and Since the movement direction and its amount are obtained, the advantage is obtained that a device as simple as a personal computer does not require skill and the viewpoint can be accurately measured and directly faced to easily move to any desired position.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例におけるステレオ画像計測方
法による円筒中心位置、半径計算モデルを説明するため
の図
FIG. 1 is a diagram for explaining a cylinder center position / radius calculation model by a stereo image measuring method according to an embodiment of the present invention.

【図2】上記実施例における視点位置計測制御方法を説
明するための図
FIG. 2 is a diagram for explaining a viewpoint position measurement control method in the above embodiment.

【図3】上記実施例を説明するためのフローチャートFIG. 3 is a flowchart for explaining the above embodiment.

【図4】上記実施例の具体的例を説明するための図FIG. 4 is a diagram for explaining a specific example of the above embodiment.

【図5】ステレオ画像計測原理を説明するための図FIG. 5 is a diagram for explaining the principle of stereo image measurement.

【図6】ステレオ画像計測を行なうための装置構成を示
すブロック図
FIG. 6 is a block diagram showing a device configuration for performing stereo image measurement.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 白潟 実 東京都千代田区内幸町1丁目1番6号 日 本電信電話株式会社内 ─────────────────────────────────────────────────── ─── Continued Front Page (72) Inventor Minoru Shiragata 1-1-6 Uchisaiwaicho, Chiyoda-ku, Tokyo Nihon Telegraph and Telephone Corporation

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 ステレオ画像処理を用いて円筒物体に対
して視点の位置を計測、制御する際に、円筒面上の特徴
点に対して視点を正対化させる方法において、 ステレオ画像を演算処理して、円筒の左右境界位置を計
測し、その間隔から円筒中心位置、半径を算出する第1
工程と、 同じくステレオ画像を演算処理して、円筒面上の特徴点
の位置を算出する第2工程と、 前記第1、第2工程で算出された円筒中心位置、半径、
特徴点位置から前記円筒中心位置と特徴点とを結ぶ直線
の方向を求め、正対化させるのに必要な視点の移動方向
とその量を求める第3工程と、 を有することを特徴とする視点位置計測制御方法。
1. A method for calculating a stereoscopic image in a method of directing a viewpoint to a feature point on a cylindrical surface when measuring and controlling the position of the viewpoint with respect to a cylindrical object using stereo image processing. Then, the left and right boundary positions of the cylinder are measured, and the center position and radius of the cylinder are calculated from the intervals.
And a second step of calculating the position of the feature point on the cylindrical surface by similarly processing the stereo image, and the cylindrical center position and radius calculated in the first and second steps,
A viewpoint including a third step of determining a direction of a straight line connecting the cylindrical center position and the feature point from the feature point position, and determining a moving direction of the viewpoint and an amount of the viewpoint required for making the face straight. Position measurement control method.
JP28631493A 1993-11-16 1993-11-16 Method for measuring/controlling position of viewpoint Pending JPH07139909A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28631493A JPH07139909A (en) 1993-11-16 1993-11-16 Method for measuring/controlling position of viewpoint

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28631493A JPH07139909A (en) 1993-11-16 1993-11-16 Method for measuring/controlling position of viewpoint

Publications (1)

Publication Number Publication Date
JPH07139909A true JPH07139909A (en) 1995-06-02

Family

ID=17702784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28631493A Pending JPH07139909A (en) 1993-11-16 1993-11-16 Method for measuring/controlling position of viewpoint

Country Status (1)

Country Link
JP (1) JPH07139909A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010111557A (en) * 2008-11-10 2010-05-20 Shinetsu Quartz Prod Co Ltd Method and device for manufacturing tubular part
JP2011194498A (en) * 2010-03-18 2011-10-06 Denso Wave Inc Visual inspection system
WO2017002511A1 (en) * 2015-06-29 2017-01-05 富士フイルム株式会社 Imaging device and imaging method
CN112729167A (en) * 2020-12-21 2021-04-30 福建汇川物联网技术科技股份有限公司 Calculation method and device of plane equation

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010111557A (en) * 2008-11-10 2010-05-20 Shinetsu Quartz Prod Co Ltd Method and device for manufacturing tubular part
JP2011194498A (en) * 2010-03-18 2011-10-06 Denso Wave Inc Visual inspection system
WO2017002511A1 (en) * 2015-06-29 2017-01-05 富士フイルム株式会社 Imaging device and imaging method
US10365090B2 (en) 2015-06-29 2019-07-30 Fujifilm Corporation Imaging device and imaging method
CN112729167A (en) * 2020-12-21 2021-04-30 福建汇川物联网技术科技股份有限公司 Calculation method and device of plane equation
CN112729167B (en) * 2020-12-21 2022-10-25 福建汇川物联网技术科技股份有限公司 Calculation method and device of plane equation

Similar Documents

Publication Publication Date Title
US5638461A (en) Stereoscopic electro-optical system for automated inspection and/or alignment of imaging devices on a production assembly line
CN109297413B (en) Visual measurement method for large-scale cylinder structure
CN111427451B (en) Method for determining position of fixation point in three-dimensional scene by adopting scanner and eye tracker
CN109544628B (en) Accurate reading identification system and method for pointer instrument
CN109855603B (en) Focus measurement method and terminal
CN113674345B (en) Two-dimensional pixel-level three-dimensional positioning system and positioning method
CN108177143A (en) A kind of robot localization grasping means and system based on laser vision guiding
KR20020097172A (en) Method for Measuring Three- dimensional Coordinate, Apparatus Thereof and Method for Building Large Construction Therewith
NO174025B (en) POINT MEASUREMENT OF SPACIAL COORDINATES
JPH09105613A (en) Non-contact type three-dimensional measuring device and measuring method
CN110827392B (en) Monocular image three-dimensional reconstruction method, system and device
US20230280236A1 (en) Synchronous monitoring system for multi-point displacement and rotation response of large-scale structure and data analysis method therefor
US6730926B2 (en) Sensing head and apparatus for determining the position and orientation of a target object
CN110044266B (en) Photogrammetry system based on speckle projection
JP2000028332A (en) Three-dimensional measuring device and method therefor
JP2001296124A (en) Method and apparatus for measurement of three- dimensional coordinates
JPH07139909A (en) Method for measuring/controlling position of viewpoint
Wang et al. Distance measurement using single non-metric CCD camera
CN206583440U (en) A kind of projected image sighting distance detecting system
El-Hakim A hierarchical approach to stereo vision
JPH07139918A (en) Method for measuring central position/radius of cylinder
JP2923063B2 (en) Multi-view stereo image measurement method
Shivaram et al. A new technique for finding the optical center of cameras
RU2697822C2 (en) Method of determining coordinates of objects based on their digital images
CN111385565A (en) Optical axis included angle measuring and adjusting device