JP3055117B2 - End point detection method - Google Patents

End point detection method

Info

Publication number
JP3055117B2
JP3055117B2 JP7281630A JP28163095A JP3055117B2 JP 3055117 B2 JP3055117 B2 JP 3055117B2 JP 7281630 A JP7281630 A JP 7281630A JP 28163095 A JP28163095 A JP 28163095A JP 3055117 B2 JP3055117 B2 JP 3055117B2
Authority
JP
Japan
Prior art keywords
end point
distance
point
sensor
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP7281630A
Other languages
Japanese (ja)
Other versions
JPH09126715A (en
Inventor
賢一 荒川
隆夫 柿崎
義正 柳原
光 梅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP7281630A priority Critical patent/JP3055117B2/en
Publication of JPH09126715A publication Critical patent/JPH09126715A/en
Application granted granted Critical
Publication of JP3055117B2 publication Critical patent/JP3055117B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、センサを用いて作
業する上で目標位置となる対象物体の端点部位を精度良
く、しかも高速に検出することができる端点部位の検出
方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for detecting an end portion of a target object, which is a target position when working with a sensor, with high accuracy and high speed.

【0002】[0002]

【従来の技術】通常、工業製品の製造工程をロボットを
用いて自動化する場合には、教示した動作を同じように
ロボットに繰り返させるティーチングプレーバック方式
が用いられている。しかし、この種のティーチングプレ
ーバック方式では、作業対象物体の個体差によって3次
元形状の変形が生じたり、実際の位置と指令した位置と
の一致性(位置決めの精度)が低かったりする。したが
って、作業対象物体の端点にならう溶接などの作業、ロ
ボットハンドで作業対象物体を把持する組み立て作業で
は、ロボット作業の自動化に困難が生じる。そこで、ロ
ボットにセンサを搭載し、ロボットが作業を遂行する直
前に対象物体の状態を計測しながら、実際の作業動作を
決定する方法が採用されている。
2. Description of the Related Art Normally, when a manufacturing process of an industrial product is automated by using a robot, a teaching playback method is used in which a robot repeats a taught operation in the same manner. However, in this type of teaching playback method, the three-dimensional shape is deformed due to the individual difference of the work target object, or the coincidence between the actual position and the commanded position (positioning accuracy) is low. Therefore, in tasks such as welding following the end points of the work target object and in assembling work in which the work target object is gripped by the robot hand, it is difficult to automate the robot work. Therefore, a method is adopted in which a sensor is mounted on the robot and the actual work operation is determined while measuring the state of the target object immediately before the robot performs the work.

【0003】作業目標位置等を決定するために対象物体
の形状を計測する形状処理方法としては、従来より、例
えば溶接に関しては、金子:”形状処理方式”、特願平
4−114428号等の方法が提案されている。これ
は、予め溶接すべき板状金属物体の端部位置近傍の断面
形状モデルを作成しておき、ロボットがならうべき線状
の溶接部位の断面距離点列座標データをセンサにて得る
とともに、このデータに断面形状モデルを最小二乗近似
法を用いてパターンマッチングする方式が採用されてい
る。
Conventionally, as a shape processing method for measuring the shape of a target object in order to determine a work target position and the like, for example, for welding, Kaneko: "Shape processing method", Japanese Patent Application No. 4-114428, and the like. A method has been proposed. This is to prepare a cross-sectional shape model near the end position of the plate-shaped metal object to be welded in advance, obtain the cross-sectional distance point sequence coordinate data of the linear welding site to be followed by the robot with the sensor, A method of pattern matching a cross-sectional shape model to the data using the least squares approximation method is employed.

【0004】[0004]

【発明が解決しようとする課題】ところで、従来の形状
処理方法では、上述したように作業目標位置を決定する
に当たり、対象物体端部の断面形状モデル毎に当該モデ
ルと断面距離点列座標データとをパターンマッチングし
なければならない。したがって、対象物体の多様な形状
に対応するためには、複数のモデル毎に対応プロセスが
必要となり、処理方法が極めて複雑化するという問題が
ある。しかも、この種の形状処理方法では、端点部位の
検出に長時間を要するので、作業時間の短縮化が図れな
いという問題がある。
By the way, in the conventional shape processing method, when the work target position is determined as described above, for each cross-sectional shape model of the end of the target object, the model and the cross-sectional distance point sequence coordinate data are used. Must be pattern matched. Therefore, in order to correspond to various shapes of the target object, a corresponding process is required for each of a plurality of models, and there is a problem that a processing method is extremely complicated. In addition, in this type of shape processing method, it takes a long time to detect an end point portion, so that there is a problem that the working time cannot be reduced.

【0005】ここにおいて本発明の解決すべき主要な目
的は、次の通りである。本発明の第1の目的は、センサ
を用いて作業対象物体の端点部位(作業目標位置)を精
度良く、しかも高速に検出することができ、その結果、
作業時間の短縮化を図ることができる端点部位の検出方
法を提供せんとするものである。
Here, the main objects to be solved by the present invention are as follows. A first object of the present invention is to accurately and quickly detect an end point portion (work target position) of a work target object using a sensor.
It is an object of the present invention to provide a method for detecting an end point portion capable of shortening the operation time.

【0006】本発明の第2の目的は、作業対象物体の端
点候補検出の感度を制御して、高信頼度で端点部位を検
出することができる端点部位の検出方法を提供せんとす
るものである。
A second object of the present invention is to provide a method of detecting an end point part which can control the sensitivity of detecting an end point candidate of an object to be worked and can detect the end point part with high reliability. is there.

【0007】本発明のその他の目的は、明細書、図面、
特に特許請求の範囲の記載から自ずと明らかとなろう。
Another object of the present invention is to provide a specification, drawings,
In particular, it will be obvious from the description of the appended claims.

【0008】[0008]

【課題を解決するための手段】前記した課題は、本発明
が次に列挙する新規な特徴的構成手法及び手段を採用す
ることにより解決され、本発明の目的を達成する。
The above-mentioned objects are attained by the present invention employing the following novel characteristic construction methods and means, thereby achieving the object of the present invention.

【0009】すなわち、本発明方法の第1の特徴は、対
象物体の端点部位を検出するに当たり、センサにて対象
物体の任意断面までの距離を計測するステップと、前記
計測データを順序付けられた距離点列座標データに変換
するステップと、前記距離点列座標データの隣接する距
離点ペア間の間隔の統計量を算出するステップと、当該
統計量をもとに途切れの閾値を求めるステップと、前記
隣接する距離点ペア間の間隔と前記途切れの閾値とを比
較して、当該閾値以上離れて隣接する距離点ペアを検出
するステップと、検出された前記閾値以上離れて隣接す
る距離点ペアから対象物体の端点座標を求めるステップ
とを有する端点部位の検出方法にある。
That is, a first feature of the method of the present invention is that, when detecting an end point portion of a target object, a step of measuring a distance to an arbitrary cross section of the target object with a sensor, Converting to point sequence coordinate data, calculating a statistic of an interval between adjacent distance point pairs of the distance point sequence coordinate data, and determining a break threshold based on the statistic; Comparing the interval between adjacent distance point pairs with the break threshold to detect adjacent distance point pairs separated by at least the threshold value; Determining the end point coordinates of the object.

【0010】本発明方法の第2の特徴は、前記本発明方
法の第1の特徴における前記対象物体の端点座標を、距
離点列座標データの途切れを成す隣接する距離点ペアの
端点うち、前記センサに近い方の距離点座標とする端点
形状処理方法にある。
A second feature of the method of the present invention resides in that the end point coordinates of the target object in the first feature of the present invention method are the same as the end points of adjacent distance point pairs forming a break in the distance point sequence coordinate data. There is an end point shape processing method in which distance point coordinates closer to the sensor are set.

【0011】本発明方法の第3の特徴は、前記本発明方
法の第1又は第2の特徴における前記センサがロボット
の手先に搭載され、求める端点座標が当該ロボットの作
業目標位置である端点部位の検出方法にある。
A third feature of the method of the present invention is that the sensor in the first or second feature of the method of the present invention is mounted on a hand of a robot, and an end point portion whose obtained end coordinate is a work target position of the robot. In the detection method.

【0012】本発明方法の第4の特徴は、前記本発明方
法の第1、第2又は第3の特徴における前記センサが、
レーザビームをガルバノミラー等で直線上に走査又は円
筒レンズ等で直線上に射影することにより得られる像の
受光素子上における受光位置から、三角測量の原理によ
り端点近傍断面の各点までの距離を測定するレンジファ
インダである端点部位の検出方法にある。
A fourth feature of the method of the present invention is that the sensor according to the first, second or third feature of the method of the present invention comprises:
The distance from the light receiving position on the light receiving element of the image obtained by scanning the laser beam on a straight line with a galvanomirror or the like or projecting it on a straight line with a cylindrical lens, etc., to each point of the cross section near the end point by the principle of triangulation. The method is a method of detecting an end point portion which is a range finder to be measured.

【0013】本発明方法の第5の特徴は、前記本発明方
法の第1、第2、第3又は第4の特徴における前記セン
サの姿勢が、対象物体の検出する端点側の端面を観測し
ない姿勢に設定される端点部位の検出方法にある。
A fifth feature of the method of the present invention is that the attitude of the sensor in the first, second, third or fourth feature of the method of the present invention does not observe the end face on the end point side where the target object is detected. This is in a method for detecting an end portion set in the posture.

【0014】本発明方法の第6の特徴は、前記本発明方
法の第1、第2、第3、第4又は第5の特徴における前
記対象物体の端点部位を検出する処理が、ロボットの手
先に搭載したセンサにて作業経路を倣いつつ観測してい
る間、繰り返し実行される端点部位の検出方法にある。
According to a sixth feature of the method of the present invention, the process of detecting the end point of the target object in the first, second, third, fourth or fifth feature of the method of the present invention is characterized in that: A method of detecting an end point portion that is repeatedly executed while observing while following a work route by a sensor mounted on a vehicle.

【0015】本発明方法の第7の特徴は、前記本発明方
法の第1、第2、第3、第4、第5又は第6の特徴にお
ける前記距離点列座標データの隣接する距離点ペア間の
間隔の統計量が当該間隔の平均値、標準偏差であり、か
つ途切れの閾値が前記平均値と前記標準偏差の重み付線
形和である端点部位の検出方法にある。
A seventh feature of the method of the present invention is that an adjacent distance point pair of the distance point sequence coordinate data in the first, second, third, fourth, fifth or sixth feature of the method of the present invention. The statistic of the interval between the intervals is the average value and the standard deviation of the interval, and the discontinuity threshold is a weighted linear sum of the average value and the standard deviation.

【0016】本発明方法の第8の特徴は、前記本発明方
法の第1、第2、第3、第4、第5、第6又は第7にお
いて、観測された距離点列座標データに孤立点状の雑音
が重畳している場合、前処理としてメディアンフィルタ
などを用いたフィルタリングにより孤立点状雑音を除去
する端点部位の検出方法にある。
According to an eighth feature of the method of the present invention, in the first, second, third, fourth, fifth, sixth or seventh of the method of the present invention, isolated distance point sequence coordinate data is used. In the case where point-like noise is superimposed, there is a method of detecting an end point portion that removes isolated point-like noise by filtering using a median filter or the like as preprocessing.

【0017】本発明方法の第9の特徴は、前記本発明方
法の第1、第2、第3、第4、第5、第6、第7又は第
8における前記センサと前記対象物体との間の距離を、
センサの測定断面の幅に比べて十分に大きく設定する端
点部位の検出方法にある。
A ninth feature of the method of the present invention is that the sensor and the target object in the first, second, third, fourth, fifth, sixth, seventh or eighth of the method of the present invention are different from each other. The distance between
There is a method of detecting an end point portion that is set to be sufficiently larger than the width of the measurement cross section of the sensor.

【0018】本発明方法の第10の特徴は、前記本発明
方法の第1、第2、第3、第4、第5、第6、第7、第
8又は第9において、途切れの閾値決定の重み付き線形
式の重みが、端点の連続検出成功回数に従い決定する端
点部位の検出方法にある。
According to a tenth feature of the method of the present invention, in the first, second, third, fourth, fifth, sixth, seventh, eighth or ninth of the method of the present invention, the determination of the threshold value for interruption is determined. The weight of the weighted linear form is determined in accordance with the number of times of continuous detection of the end points.

【0019】[0019]

【発明の実施の形態】本発明方法は、対象物体の任意平
面に対してほぼ等間隔に距離を観測するセンサのセンシ
ングデータから、隣接する距離点ペア間の間隔が有意に
離れていると判断できる閾値を統計的に決定する。そし
て、その閾値と隣接する距離点ペア間の間隔を比較する
ことにより、閾値以上離れて隣接する距離点ペアから距
離点列座標データの途切れを示す対象物体の端点座標、
すなわち端点部位を検出する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The method of the present invention determines that the distance between adjacent distance point pairs is significantly apart from sensing data of a sensor that observes distances at substantially equal intervals with respect to an arbitrary plane of a target object. The possible threshold is determined statistically. Then, by comparing the threshold and the interval between adjacent distance point pairs, the end point coordinates of the target object indicating a break in the distance point sequence coordinate data from the adjacent distance point pair separated by the threshold or more,
That is, the end point portion is detected.

【0020】また、本発明方法では、端点近傍の断面形
状をならいながら計測し、その断面距離点列座標データ
から端点部位を検出する場合、時系列における端点部位
の強い相関が予測される。よって、前時点で検出された
端点部位を中心にデータ範囲(視野)の制限を行い、途
切れの閾値算出のパラメータを制御すれば、従来の技術
で述べた形状処理方法に比べ高信頼度で端点部位を検出
することが可能となる。即ち、隣接距離点ペアの間隔の
統計量の重みつき線形和から決定される閾値について、
その重みを端点の連続検出回数に従って小さく設定すれ
ば、端点候補検出の感度が制御され、総合的に高信頼度
で端点部位の検出ができる。
Further, in the method of the present invention, when a cross-sectional shape near an end point is measured while being measured, and the end point portion is detected from the cross-sectional distance point sequence coordinate data, a strong correlation of the end point portion in a time series is predicted. Therefore, if the data range (field of view) is limited around the end point portion detected at the previous time and the parameter for calculating the break threshold value is controlled, the end point can be obtained with higher reliability than the shape processing method described in the related art. The site can be detected. That is, for the threshold value determined from the weighted linear sum of the statistics of the interval between adjacent distance point pairs,
If the weight is set small according to the number of consecutive detections of the end point, the sensitivity of the end point candidate detection is controlled, and the end point portion can be detected with high reliability in total.

【0021】次に本発明の実施の形態について説明す
る。図3は対象物体の端点部位を観測する状況例を示
し、図4は端点の断面形状と距離点列座標データとの関
係例を示している。
Next, an embodiment of the present invention will be described. FIG. 3 shows an example of a situation where an end point portion of a target object is observed, and FIG. 4 shows an example of a relationship between a cross-sectional shape of the end point and distance point sequence coordinate data.

【0022】本発明では、図3に示すように、ロボット
1の手先1aにセンサ2を搭載し、作業対象物体Oの平
板端部Eの近傍をほぼ鉛直な方向からならいつつ観測
し、当該観測データを所定のアルゴリズムに従ってコン
ピュータで処理し、作業目標位置となる平板端部3の位
置を決定する。
In the present invention, as shown in FIG. 3, the sensor 2 is mounted on the hand 1a of the robot 1 and observes the vicinity of the flat plate end E of the work object O while observing it from a substantially vertical direction. The data is processed by a computer according to a predetermined algorithm to determine the position of the flat plate end 3 which is the target work position.

【0023】センサ2としては、例えば、レーザビーム
をガルバノミラー等で直線上に走査又は円筒レンズ等で
直線上に射影することにより得られる像の受光素子上に
おける受光位置から、三角測量の原理により端点近傍断
面の各点までの距離を測定するレンジファインダを用い
る。このとき、センサ2の測定断面(レーザビーム)の
幅に比べ、センサ2と対象物体Oとの間の距離を十分に
大きくとる。また、センサ2の姿勢は、平板端部Eの端
面を観測しないように設定しておく。
As the sensor 2, for example, a laser beam is scanned on a straight line by a galvanometer mirror or the like or projected on a straight line by a cylindrical lens or the like, and a light receiving position on a light receiving element is calculated based on a principle of triangulation. A range finder that measures the distance to each point in the cross section near the end point is used. At this time, the distance between the sensor 2 and the target object O is made sufficiently large as compared with the width of the measurement section (laser beam) of the sensor 2. Further, the attitude of the sensor 2 is set so that the end face of the flat plate end E is not observed.

【0024】センサ2を用いた対象物体の観測は、作業
対象物体Oの端点部位eを平板に対して端面を観測しな
い方向ベクトルl(図面を含み以下lと略しベクトルを
表すものとする)及び法線ベクトルn(図面を含み以下
nと略しベクトルを表すものとする)の方向から観測し
た場合、図4に示すような距離点列座標データD1 、D
2 がセンシングデータとして得られる。この場合、距離
点列座標データD1 、D2 には、それぞれ端点部位eの
断面形状に固有の途切れB1 、B2 が出現する。そし
て、距離点列座標データD1 、D2 の途切れを成す隣接
する距離点ペアのうち、センサ2に近い方の距離点
1 、P2 の位置を端点座標として決定する。
Observation of the target object using the sensor 2 includes a direction vector l (hereinafter abbreviated to l in the drawings including the drawing) and an end point portion e of the work target object O with respect to the flat plate. When observed from the direction of the normal vector n (hereinafter, abbreviated to n and including the drawing, the vector is referred to as distance), distance point sequence coordinate data D 1 , D
2 is obtained as sensing data. In this case, discontinuities B 1 and B 2 that are unique to the cross-sectional shape of the end point portion e respectively appear in the distance point sequence coordinate data D 1 and D 2 . Then, the position of the distance points P 1 and P 2 that are closer to the sensor 2 among the adjacent distance point pairs forming a break between the distance point sequence coordinate data D 1 and D 2 are determined as end point coordinates.

【0025】[0025]

【実施例】以下、本発明をその方法例に基づいて、より
詳細に説明する。 (方法例)図1及び図2は本方法例に係る端点部位の検
出方法を用いて作業目標位置を検出する手順を示してい
る。
Hereinafter, the present invention will be described in more detail based on an example of the method. (Example of Method) FIGS. 1 and 2 show a procedure for detecting a work target position by using the end point detection method according to this example of the method.

【0026】なお、本方法例では、前記実施の形態と同
様のシステムを用いて行う。図4に示すように、対象物
体Oは端部Eがほぼ直角に切断された平板とし、センサ
2のセンシング範囲内には検出すべき端部Eが少なくと
も一つ、しかもなるべくセンシング範囲中心付近に観測
できるものと仮定する。また、本方法例の処理では、対
象物体Oの端点近傍をセンサ2がならいつつ観測してい
る間、繰り返し実行される。以下、センサ2がならいつ
つ観測している間の観測単位をフレームと呼ぶ。
In this example of the method, the same system as in the above embodiment is used. As shown in FIG. 4, the target object O is a flat plate whose end E is cut at a substantially right angle, and at least one end E to be detected is located within the sensing range of the sensor 2, and preferably near the center of the sensing range. Assume that it is observable. Further, the processing of this example of the method is repeatedly executed while the sensor 2 is observing the vicinity of the end point of the target object O while following it. Hereinafter, an observation unit during the observation while the sensor 2 is following is referred to as a frame.

【0027】本方法例では、先ず、端点座標の連続検出
成功回数のパラメータcを0にリセットするとともに、
直前フレームで検出された端点座標のx座標値を示すx
preを0にリセットする(ST1)。
In this example of the method, first, the parameter c of the number of consecutive detections of the end point coordinates is reset to 0,
X indicating the x coordinate value of the end point coordinate detected in the immediately preceding frame
pre is reset to 0 (ST1).

【0028】次に、途切れ閾値算出係数K及びx方向の
視野範囲(xs ,xe )を式(1)、(2)及び(3)
により算出する(ST2)。
Next, the interruption threshold value calculation coefficient K and the visual field range (x s , x e ) in the x direction are calculated by the equations (1), (2) and (3).
(ST2).

【数1】 ここで、Kdef 及びrdef は途切れ閾値算出係数及び視
野範囲の初期値であり、αは縮小係数(0<α<1)で
ある。
(Equation 1) Here, K def and r def are interruption threshold calculation coefficients and initial values of the visual field range, and α is a reduction coefficient (0 <α <1).

【0029】続いて、作業対象物体Oの端点近傍をセン
サ2にて観測し、距離点列座標データを得る(ST
3)。観測された距離点列座標データに孤立点状の雑音
が重畳している場合は、前処理としてメディアンフィル
タなどを用いたフィルタリングにより孤立点を除去する
(ST4)。
Subsequently, the vicinity of the end point of the work object O is observed by the sensor 2 to obtain distance point sequence coordinate data (ST).
3). When isolated point-like noise is superimposed on the observed distance point sequence coordinate data, the isolated points are removed by filtering using a median filter or the like as preprocessing (ST4).

【0030】そして、隣接距離点列ペアの間隔の統計量
を計算した後、途切れ閾値thjumpを求める(ST
5)。即ち、距離点列座標データの解像度(隣接距離点
との基本的な距離)に応じた途切れ閾値thjumpを以下
の式(4)により統計量から求める。
Then, after calculating the statistics of the interval between adjacent distance point sequence pairs, a break threshold th jump is obtained (ST
5). That is, a break threshold th jump according to the resolution of the distance point sequence coordinate data (basic distance from the adjacent distance point) is obtained from the statistical amount by the following equation (4).

【数2】 (Equation 2)

【0031】[0031]

【外1】 [Outside 1]

【0032】この間隔から、上記の標準偏差、平均は
(5)式及び(6)式にて算出される。
From this interval, the standard deviation and the average are calculated by the equations (5) and (6).

【数3】 (Equation 3)

【0033】[0033]

【外2】 [Outside 2]

【0034】観測される端点の数を唯一と仮定すると、
検出すべき途切れの規定数を1とすることができ、途切
れが1つ検出された時点で端点検出は成功したものと
し、途切れ検出のための比較処理は終了する。その途切
れを成す距離点列座標データペアが(xj ,yj ),
(xj+1 ,yj+1 )であるとき、その座標(xj
j )を端点座標とする。
Assuming that the number of observed endpoints is unique,
The specified number of breaks to be detected can be set to one, and when one break is detected, it is assumed that the end point detection has succeeded, and the comparison processing for break detection ends. The distance point sequence coordinate data pair forming the break is (x j , y j ),
When (x j + 1 , y j + 1 ), the coordinates (x j , y j + 1 )
Let y j ) be the end point coordinates.

【外3】 [Outside 3]

【0035】端点検出に成功した場合は、端点座標(x
j ,yj )を出力する(ST8)。続いて、最終観測フ
レームか否か判断される(ST9)。このとき、もし最
終観測フレームでなければ、連続検出成功回数cを1だ
け増やして、(xpre ,ypr e )=(xj ,yj )とし
(ST10)、センサ2を移動させ(ST11)、途切
れ閾値算出係数及び視野範囲算出のステップ(ST2)
に戻る。最終観測フレームならば、プロセスを終了する
If the end point is detected successfully, the end point coordinates (x
j , y j ) is output (ST8). Subsequently, it is determined whether or not the frame is the last observation frame (ST9). At this time, if the last observation frame if, by increasing the continuous detection number of successes c by 1, (x pre, y pr e) = (x j, y j) and to (ST10), moving the sensor 2 (ST11 ), Step of calculating break threshold and coefficient of visual field range (ST2)
Return to If it is the last observation frame, end the process

【0036】端点検出に失敗した場合は、最終観測フレ
ームか否か判断され(ST12)、もし最終観測フレー
ムでなければ、センサ2を移動させ(ST13)、連続
検出成功回数をリセットするステップ(ST1)に戻
る。最終観測フレームならば、プロセスを終了する。
If the end point detection fails, it is determined whether or not the frame is the last observation frame (ST12). If it is not the last observation frame, the sensor 2 is moved (ST13) to reset the number of consecutive detection successes (ST1). Return to). If it is the last observation frame, the process ends.

【0037】以上説明した本発明の方法例では、作業目
標となる端点部位eをセンシングデータの形状から決定
するに当たり、端点近傍の断面形状を計測してこれを2
次元座標点列に変換し、距離点列座標データ中から端点
部位eの断面形状に固有の途切れ部を検出する。したが
って、個々の端点断面形状のモデルを直接照合する従来
の方法と比較して、端点部位eを精度良く、しかも高速
に検出することができる。
In the above-described method of the present invention, when determining the end point e to be the work target from the shape of the sensing data, the cross-sectional shape near the end point is measured,
The data is converted into a dimensional coordinate point sequence, and a discontinuity unique to the cross-sectional shape of the end point portion e is detected from the distance point sequence coordinate data. Therefore, compared with the conventional method of directly collating the models of the respective end point cross-sectional shapes, the end point portion e can be detected with high accuracy and at high speed.

【0038】以上本発明の代表的な方法例について説明
したが、本発明は必ずしも前記方法例の手法だけに限定
されるものではなく、本発明の目的を達成し、後述する
効果を有する範囲内において適宜変更して実施すること
ができるものである。
Although the representative method examples of the present invention have been described above, the present invention is not necessarily limited to the method of the above-mentioned method examples, but may achieve the object of the present invention and have the effects described below. Can be appropriately changed and implemented.

【0038】[0038]

【発明の効果】以上説明したように本発明によれば、対
象物体端部の断面形状モデル毎に当該モデルと断面距離
点列座標データとのパターンマッチングを必要とせず、
センサにて得られる距離点列座標データを用いて作業目
標となる端点部位を精度良く、しかも高速に検出するこ
とができるという効果を奏する。また、隣接距離点ペア
の間隔の統計量の重みつき線形和から決定される閾値に
ついて、その重みを端点の連続検出回数に従い小さくす
れば、作業対象物体の端点候補検出の感度を制御するこ
とができ、高信頼度で端点部位を検出することができ
る。
As described above, according to the present invention, it is not necessary to perform pattern matching between the model and the cross-sectional distance point sequence coordinate data for each cross-sectional shape model of the end of the target object.
There is an effect that an end point portion serving as a work target can be detected with high accuracy and at high speed using the distance point sequence coordinate data obtained by the sensor. Also, for a threshold value determined from a weighted linear sum of statistics of intervals between adjacent distance point pairs, if the weight is reduced in accordance with the number of consecutive detections of endpoints, it is possible to control the sensitivity of endpoint detection of the work target object. It is possible to detect the end point portion with high reliability.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本方法例に係る端点部位の検出方法による端点
検出の手順を示したフローチャートの一部分である。
FIG. 1 is a part of a flowchart showing a procedure of detecting an end point by a method of detecting an end point portion according to an example of the present method.

【図2】同上の手順を示したフローチャートの続きの部
分である。
FIG. 2 is a continuation of the flowchart showing the above procedure.

【図3】センサにて対象物体の端点座標をセンシングし
ている状況を示した説明図である。
FIG. 3 is an explanatory diagram showing a situation in which a sensor is sensing end point coordinates of a target object.

【図4】端点の断面形状と距離点列座標データとの関係
例を示した説明図である。
FIG. 4 is an explanatory diagram showing an example of a relationship between a cross-sectional shape of an end point and distance point sequence coordinate data.

【符号の説明】[Explanation of symbols]

x…センサの走査方向軸 y…距離方向軸 1…ロボット 1a…手先 2…センサ(1次元走査型レンジファインダ) 2…ロボットアーム E…平板端部 e…端点部位 l…センサ観測方向(端面を見ない方向) n…センサ観測方向(平板の法線方向) D1 …距離点列座標データ(端面を見ない方向からのセ
ンシングデータ) D2 …距離点列座標データ(法線方向からのセンシング
データ) B1 、B2 …途切れ P1 、P2 …途切れ両端のうちセンサに近い距離点
x: Sensor scanning direction axis y: Distance direction axis 1 ... Robot 1a ... Hand 2 ... Sensor (one-dimensional scanning range finder) 2 ... Robot arm E ... Flat plate end e ... End point part l ... Sensor observation direction N: sensor observation direction (normal direction of the flat plate) D 1 : distance point sequence coordinate data (sensing data from the direction in which the end face is not viewed) D 2 : distance point sequence coordinate data (sensing from the normal direction) Data) B 1 , B 2 ... interruption P 1 , P 2 ... distance point near the sensor among both ends of interruption

───────────────────────────────────────────────────── フロントページの続き (72)発明者 梅野 光 東京都新宿区西新宿三丁目19番2号 日 本電信電話株式会社内 (56)参考文献 特開 平5−312509(JP,A) 特開 昭59−99203(JP,A) (58)調査した分野(Int.Cl.7,DB名) G01B 11/00 - 11/30 B23Q 17/24 B25J 19/02 ──────────────────────────────────────────────────続 き Continuation of the front page (72) Inventor Hikaru Umeno Nippon Telegraph and Telephone Corporation 3-9-1-2 Nishishinjuku, Shinjuku-ku, Tokyo (56) References JP-A-5-312509 (JP, A) 1984-99203 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G01B 11/00-11/30 B23Q 17/24 B25J 19/02

Claims (10)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】対象物体の端点部位を検出するに当たり、 センサにて対象物体の任意断面までの距離を計測するス
テップと、 前記計測データを順序付けられた距離点列座標データに
変換するステップと、 前記距離点列座標データの隣接する距離点ペア間の間隔
の統計量を算出するステップと、 当該統計量をもとに途切れの閾値を求めるステップと、 前記隣接する距離点ペア間の間隔と前記途切れの閾値と
を比較して、当該閾値以上離れて隣接する距離点ペアを
検出するステップと、 検出された前記閾値以上離れて隣接する距離点ペアから
対象物体の端点座標を求めるステップとを有する、 ことを特徴とする端点部位の検出方法。
When detecting an end point portion of a target object, a step of measuring a distance to an arbitrary cross section of the target object by a sensor; a step of converting the measurement data into ordered distance point sequence coordinate data; Calculating a statistic of an interval between adjacent distance point pairs of the distance point sequence coordinate data; obtaining a break threshold based on the statistic; and an interval between the adjacent distance point pairs and Detecting a distance point pair adjacent to and separated by at least the threshold value by comparing with a discontinuous threshold value; and obtaining end point coordinates of the target object from the detected distance point pair at a distance equal to or more than the detected threshold value. A method for detecting an end point portion.
【請求項2】前記対象物体の端点座標は、 距離点列座標データの途切れを成す隣接する距離点ペア
の端点うち、前記センサに近い方の距離点座標とする、 ことを特徴とする請求項1に記載の端点部位の検出方
法。
2. An end point coordinate of the target object is a distance point coordinate which is closer to the sensor among end points of adjacent distance point pairs forming a break in the distance point sequence coordinate data. 2. The method for detecting an end point part according to 1.
【請求項3】前記センサはロボットの手先に搭載し、求
める端点座標は当該ロボットの作業目標位置である、 ことを特徴とする請求項1又は2に記載の端点部位の検
出方法。
3. The method according to claim 1, wherein the sensor is mounted on a hand of the robot, and the end point coordinates to be obtained are a work target position of the robot.
【請求項4】前記センサは、 レーザビームをガルバノミラー等で直線上に走査又は円
筒レンズ等で直線上に射影することにより得られる像の
受光素子上における受光位置から、三角測量の原理によ
り端点近傍断面の各点までの距離を測定するレンジファ
インダである、 ことを特徴とする請求項1、2又は3に記載の端点部位
の検出方法。
4. The method according to claim 1, wherein the sensor is configured to scan a laser beam on a straight line with a galvanomirror or the like or project the laser beam on a straight line with a cylindrical lens or the like. The method according to claim 1, 2 or 3, wherein the range finder is configured to measure a distance to each point of a nearby cross section.
【請求項5】前記センサは、 対象物体の検出する端点側の端面を観測しない姿勢に設
定される、 ことを特徴とする請求項1、2、3又は4に記載の端点
部位の検出方法。
5. The method according to claim 1, wherein the sensor is set in a posture not observing an end face on an end point side of a target object to be detected.
【請求項6】対象物体の端点部位を検出する処理は、 ロボットの手先に搭載したセンサにて作業経路を倣いつ
つ観測している間、繰り返し実行される、 ことを特徴とする請求項1、2、3、4又は5に記載の
端点部位の検出方法。
6. A process for detecting an end point portion of a target object is repeatedly executed while observing while following a work route by a sensor mounted on a hand of the robot. 6. The method for detecting an end point portion according to 2, 3, 4, or 5.
【請求項7】前記距離点列座標データの隣接する距離点
ペア間の間隔の統計量が当該間隔の平均値、標準偏差で
あり、かつ途切れの閾値が前記平均値と前記標準偏差の
重み付線形和である、 ことを特徴とする請求項1、2、3、4、5又は6に記
載の端点部位の検出方法。
7. A statistic of an interval between adjacent distance point pairs in the distance point sequence coordinate data is an average value and a standard deviation of the interval, and a break threshold is a weight of the average value and the standard deviation. The method for detecting an end point portion according to claim 1, 2, 3, 4, 5, or 6, wherein the method is a linear sum.
【請求項8】観測された距離点列座標データに孤立点状
の雑音が重畳している場合は、 前処理としてメディアンフィルタなどを用いたフィルタ
リングにより孤立点状雑音を除去する、 ことを特徴とする請求項1、2、3、4、5、6又は7
に記載の端点部位の検出方法。
8. When isolated point-like noise is superimposed on the observed distance point sequence coordinate data, the isolated point-like noise is removed by filtering using a median filter or the like as preprocessing. Claim 1, 2, 3, 4, 5, 6 or 7
3. The method for detecting an end point part according to item 1.
【請求項9】前記センサと前記対象物体との間の距離
を、センサの測定断面の幅に比べて十分に大きく設定す
る、 ことを特徴とする請求項1、2、3、4、5、6、7又
は8に記載の端点部位の検出方法。
9. The method according to claim 1, wherein a distance between the sensor and the target object is set to be sufficiently larger than a width of a measurement section of the sensor. 9. The method for detecting an end point portion according to 6, 7, or 8.
【請求項10】途切れの閾値決定の重み付き線形式の重
みは、 端点の連続検出成功回数に従い決定する、 ことを特徴とする請求項1、2、3、4、5、6、7、
8又は9に記載の端点部位の検出方法。
10. The method according to claim 1, wherein the weight of the weighted linear expression for determining the break threshold is determined in accordance with the number of consecutive detections of the end points.
10. The method for detecting an end point portion according to 8 or 9.
JP7281630A 1995-10-30 1995-10-30 End point detection method Expired - Lifetime JP3055117B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7281630A JP3055117B2 (en) 1995-10-30 1995-10-30 End point detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7281630A JP3055117B2 (en) 1995-10-30 1995-10-30 End point detection method

Publications (2)

Publication Number Publication Date
JPH09126715A JPH09126715A (en) 1997-05-16
JP3055117B2 true JP3055117B2 (en) 2000-06-26

Family

ID=17641797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7281630A Expired - Lifetime JP3055117B2 (en) 1995-10-30 1995-10-30 End point detection method

Country Status (1)

Country Link
JP (1) JP3055117B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006030533A1 (en) * 2004-09-17 2006-03-23 National Institute Of Advanced Industrial Science And Technology Imitated animal having physiological stimulus saturation means

Also Published As

Publication number Publication date
JPH09126715A (en) 1997-05-16

Similar Documents

Publication Publication Date Title
CN109459750B (en) Front multi-vehicle tracking method integrating millimeter wave radar and deep learning vision
JP4221768B2 (en) Method and apparatus for positioning an object in space
US7920087B2 (en) Apparatus for estimating state of vehicle located in frontward field
EP1555507B1 (en) Three-dimensional visual sensor
JP2006510097A (en) A method for recognizing and tracking objects
EP2107392A1 (en) Object recognition system for autonomous mobile body
EP1459035B1 (en) Method for determining corresponding points in stereoscopic three-dimensional measurements
JPH06147863A (en) Bending angle detector for bending machine
US6069701A (en) Method and apparatus for measuring the height of an object
EP3975116B1 (en) Detecting displacements and/or defects in a point cloud using cluster-based cloud-to-cloud comparison
JP3055117B2 (en) End point detection method
JP3436289B2 (en) Shim feature point position detection method
CN114111576B (en) Aircraft skin gap surface difference detection method
US6212481B1 (en) Method and apparatus for automatic shape computing for contour shape determining machine
JP3541244B2 (en) Water / underwater moving object motion recognition method and apparatus
CN109443244B (en) Method for eliminating highlight reflection abnormal error points
JP2742192B2 (en) Route calculation device
JPH05322531A (en) Three-dimensional shape measuring device of object
JP2793947B2 (en) Appearance inspection method of soldering condition
JPH09101113A (en) Method and device for measuring beveling position and its form
CN117548824B (en) Laser remote welding method for optical precision measurement robot
CN116576806B (en) Precision control system for thickness detection equipment based on visual analysis
Stringa et al. A novel camera calibration algorithm based on Kalman filter
JP2932083B2 (en) Shape measurement method
JP3156230B2 (en) How to set location information reliability

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090414

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090414

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100414

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100414

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110414

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120414

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130414

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140414

Year of fee payment: 14

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term