JP2021164964A - Robot system - Google Patents

Robot system Download PDF

Info

Publication number
JP2021164964A
JP2021164964A JP2020068265A JP2020068265A JP2021164964A JP 2021164964 A JP2021164964 A JP 2021164964A JP 2020068265 A JP2020068265 A JP 2020068265A JP 2020068265 A JP2020068265 A JP 2020068265A JP 2021164964 A JP2021164964 A JP 2021164964A
Authority
JP
Japan
Prior art keywords
point
coordinates
group
points
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020068265A
Other languages
Japanese (ja)
Other versions
JP7388970B2 (en
Inventor
直幹 藤岡
Naomiki Fujioka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2020068265A priority Critical patent/JP7388970B2/en
Publication of JP2021164964A publication Critical patent/JP2021164964A/en
Application granted granted Critical
Publication of JP7388970B2 publication Critical patent/JP7388970B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To provide a robot system that is able to appropriately correct the position of a robot.SOLUTION: A robot system includes: a robot; a plurality of types of sensors 3, 5 capable of detecting information for calculating coordinates of a tool tip point of the robot; and a processor. The processor generates a point group in the vicinity of a first point and a second point on an operation locus of the tool tip point by an operation program. Each point of the point group has coordinates that the tool tip point moving from the first point toward the second point can reach. The processor sets, at each point of the point group, a weight indicating a probability that may be present, based on the information detected by each sensor 3, 5. The processor groups the point group to extract a group having the highest probability, calculates a position of a gravity center of the extracted group from the coordinates and weights of points belonging to the group, and replaces the coordinates of the second point with the coordinates of the position of the gravity center as new coordinates of the second point when a maximum distance to a point located farthest from the calculated position of the gravity center is equal to or smaller than a predetermined threshold, among the points belonging to the extracted group.SELECTED DRAWING: Figure 2

Description

本開示は、ロボットシステムに関するものである。 The present disclosure relates to a robot system.

オフラインによってロボットの教示を行った後、ロボットによる作業中にロボットに取り付けられたカメラにより画像を取得し、取得された画像に基づいてロボットの位置および姿勢を補正する技術が知られている(例えば、特許文献1参照。)。
オフラインにより理想的な環境下で教示されたロボットの位置は、実際の作業環境においては種々の要因により変動するので、画像データを用いて補正することにより、実際のワークに対してロボットを精度よく動作させることができる。
After teaching the robot offline, a technique is known in which an image is acquired by a camera attached to the robot while the robot is working, and the position and posture of the robot are corrected based on the acquired image (for example). , Patent Document 1).
Since the position of the robot taught offline in an ideal environment fluctuates due to various factors in the actual work environment, the robot can be accurately corrected with respect to the actual work by correcting it using image data. Can be operated.

特許第4266946号公報Japanese Patent No. 4266946

しかしながら、例えば、ロボットの手先にカメラを取り付ける場合には、ワークに近い位置からの撮影となるため、ワークの部分的な領域の画像しか取得できない。このような状況において、画像データからワーク表面の特徴を抽出する場合には、撮影するワークの部位によっては、推定しようとするロボットの位置の誤差が大きくなり、適切な補正量が得られない場合がある。 However, for example, when the camera is attached to the hand of the robot, the image is taken from a position close to the work, so that only an image of a partial area of the work can be acquired. In such a situation, when extracting the features of the work surface from the image data, the error in the position of the robot to be estimated becomes large depending on the part of the work to be photographed, and an appropriate correction amount cannot be obtained. There is.

したがって、センサの検出結果に基づいて推定されるロボットの位置の誤差が変動しても、ロボットの位置を適切に補正することができるロボットシステムが望まれている。 Therefore, there is a demand for a robot system that can appropriately correct the position of the robot even if the error of the position of the robot estimated based on the detection result of the sensor fluctuates.

本開示の一態様は、ロボットと、該ロボットのツール先端点の座標を算出するための情報を検出可能な複数種のセンサと、プロセッサとを備え、該プロセッサは、動作プログラムによる前記ツール先端点の動作軌跡上の第1点および第2点の近傍に複数の点からなる点群を生成し、該点群の各前記点が、前記第1点から前記第2点に向かう前記ツール先端点が到達可能な座標を有し、各前記センサにより検出された前記情報に基づいて前記点群の各前記点に、存在し得る確からしさを示す重みを設定し、前記点群をグループ分けして、前記確からしさが最も高いグループを抽出し、抽出された前記グループの重心位置を該グループに属する前記点の座標および重みから算出し、抽出された前記グループに属する前記点の内、算出された前記重心位置から最も遠い位置に配置されている前記点までの最大距離が所定の閾値以下である場合に、前記重心位置の座標を前記第2点の新たな座標として置き換えるロボットシステムである。 One aspect of the present disclosure includes a robot, a plurality of types of sensors capable of detecting information for calculating the coordinates of the tool tip point of the robot, and a processor, and the processor is the tool tip point according to an operation program. A point group consisting of a plurality of points is generated in the vicinity of the first point and the second point on the motion locus of the tool, and each of the points in the point group moves from the first point to the second point. Has reachable coordinates, and based on the information detected by each of the sensors, a weight indicating the certainty that can exist is set at each of the points of the point group, and the point group is grouped. , The group with the highest certainty was extracted, the position of the center of gravity of the extracted group was calculated from the coordinates and weights of the points belonging to the group, and the points were calculated from the extracted points belonging to the group. This is a robot system that replaces the coordinates of the center of gravity with new coordinates of the second point when the maximum distance to the point located at the farthest position from the position of the center of gravity is equal to or less than a predetermined threshold value.

本開示の一実施形態に係るロボットシステムを示す斜視図である。It is a perspective view which shows the robot system which concerns on one Embodiment of this disclosure. 図1のロボットシステムを示すブロック図である。It is a block diagram which shows the robot system of FIG. 図1のロボットシステムによるツール先端点の補正処理を説明するフローチャートである。It is a flowchart explaining the correction process of the tip point of a tool by the robot system of FIG. 図3の補正処理における点群生成ルーチンを説明するフローチャートである。It is a flowchart explaining the point group generation routine in the correction process of FIG. 図3の補正処理における重み付与ルーチンを説明するフローチャートである。It is a flowchart explaining the weighting routine in the correction process of FIG. 図3の補正処理における点群絞り込みルーチンを説明するフローチャートである。It is a flowchart explaining the point cloud narrowing routine in the correction process of FIG.

本開示の一実施形態に係るロボットシステム1について、図面を参照して以下に説明する。
本実施形態に係るロボットシステム1は、図1に示されるように、6軸多関節型のロボット2と、ロボット2の手首に装着されたカメラ(センサ)3と、ロボット2を制御する制御装置(プロセッサ、メモリ)4とを備えている。
The robot system 1 according to the embodiment of the present disclosure will be described below with reference to the drawings.
As shown in FIG. 1, the robot system 1 according to the present embodiment includes a 6-axis articulated robot 2, a camera (sensor) 3 mounted on the wrist of the robot 2, and a control device for controlling the robot 2. (Processor, memory) 4 and.

ロボット2は、図示しないサーボモータによって駆動される6個の動作軸を有し、各動作軸の回転角度がサーボモータに設けられたエンコーダ(センサ)5によって検出される。
したがって、ロボット2のツール先端点TCPの位置は、エンコーダ5により検出される各動作軸の回転角度に基づいて算出することができるとともに、カメラ3によって取得された画像に基づいても算出することができる。
The robot 2 has six operating axes driven by a servomotor (not shown), and the rotation angle of each operating axis is detected by an encoder (sensor) 5 provided in the servomotor.
Therefore, the position of the tool tip point TCP of the robot 2 can be calculated based on the rotation angle of each operating axis detected by the encoder 5, and can also be calculated based on the image acquired by the camera 3. can.

画像に基づくツール先端点TCPの位置は、例えば、カメラ3によってワークを撮影し、取得された画像を処理して、公知の方法により特徴点を抽出することにより、ワークの位置に対するカメラ3の位置を算出し、算出されたカメラ3の位置から幾何学的に算出される。 The position of the tool tip point TCP based on the image is, for example, the position of the camera 3 with respect to the position of the work by photographing the work with the camera 3, processing the acquired image, and extracting the feature points by a known method. Is calculated, and it is geometrically calculated from the calculated position of the camera 3.

制御装置4は、オフライン作業により教示された動作プログラムを読み込んで、動作プログラムに従ってロボット2の各軸を動作させるとともに、所定の時間間隔、例えば、0.1秒毎にツール先端点TCPの位置を推定して記憶する。これにより、次回の動作プログラムの実行時には、各時点において推定された位置をツール先端点TCPが通過するよう動作軌跡が補正される。 The control device 4 reads the operation program taught by the offline work, operates each axis of the robot 2 according to the operation program, and sets the position of the tool tip point TCP at a predetermined time interval, for example, every 0.1 seconds. Estimate and memorize. As a result, when the next operation program is executed, the operation locus is corrected so that the tool tip point TCP passes through the position estimated at each time point.

さらに具体的には、制御装置4は、メモリ内に、ロボット2のツール先端点TCPの座標に対応付けた第1テーブルを記憶している。第1テーブルには、ツール先端点TCPの動作軌跡上の速度ベクトルに点群を対応付けた第2テーブルが記憶されている。第1テーブルおよび第2テーブルは3次元テーブルである。 More specifically, the control device 4 stores in the memory a first table associated with the coordinates of the tool tip point TCP of the robot 2. In the first table, a second table in which a point cloud is associated with a velocity vector on the operation locus of the tool tip point TCP is stored. The first table and the second table are three-dimensional tables.

点群は、ツール先端点TCPの動作軌跡上の第1点から所定時間後の第2点に向かう間において、ツール先端点TCPが到達し得る範囲にランダムに設定された複数の点を含んでいる。第2テーブルには各点の座標が記憶されている。 The point cloud includes a plurality of points randomly set within the reachable range of the tool tip point TCP while moving from the first point on the operation locus of the tool tip point TCP to the second point after a predetermined time. There is. The coordinates of each point are stored in the second table.

したがって、図3に示されるように、動作プログラムが実行されると、実行中の各時点において、点群が生成される(ステップS1)。点群の生成においては、図4に示されるように、動作プログラムにおけるツール先端点TCPの動作軌跡上に配置される現時点(第2点)の座標と、所定時間前の第1点の座標とが算出される(ステップS11)。 Therefore, as shown in FIG. 3, when the operation program is executed, a point cloud is generated at each time point during execution (step S1). In the generation of the point cloud, as shown in FIG. 4, the coordinates of the current time (second point) arranged on the operation locus of the tool tip point TCP in the operation program and the coordinates of the first point before a predetermined time are used. Is calculated (step S11).

次いで、算出された第2点の座標に対応する第2テーブルが第1テーブル内から読み出される(ステップS12)。また、第1点から第2点に向かう速度ベクトルが算出され(ステップS13)、速度ベクトルに対応する点群が、読み出された第2テーブル内から読み出される(ステップS14)。これにより、点群が生成される。 Next, the second table corresponding to the calculated coordinates of the second point is read from the first table (step S12). Further, the velocity vector from the first point to the second point is calculated (step S13), and the point cloud corresponding to the velocity vector is read out from the read second table (step S14). As a result, a point cloud is generated.

次に、生成された点群の各点に対して重みが付与される(ステップS2)。
重み付与のステップS2は、図5に示されるように、まず、いずれかのセンサ3,5が選択される(ステップS21)。例えば、センサとしてエンコーダ5が選択された場合には、選択されたエンコーダ5により検出された各動作軸の回転角度からツール先端点TCPの座標を算出する(ステップS22)。
Next, a weight is given to each point in the generated point cloud (step S2).
In the weighting step S2, as shown in FIG. 5, first, any of the sensors 3 and 5 is selected (step S21). For example, when the encoder 5 is selected as the sensor, the coordinates of the tool tip point TCP are calculated from the rotation angle of each operating axis detected by the selected encoder 5 (step S22).

次いで、重みの付与されていない1点が選択され(ステップS23)、選択された点の座標とツール先端点TCPの座標との距離Lを算出する(ステップS24)。各点に付与される重みは、エンコーダ5により検出された各動作軸の回転角度から算出されるツール先端点TCPの座標と各点の座標との距離Lに反比例している。 Next, one unweighted point is selected (step S23), and the distance L between the coordinates of the selected point and the coordinates of the tool tip point TCP is calculated (step S24). The weight given to each point is inversely proportional to the distance L between the coordinates of the tool tip point TCP calculated from the rotation angle of each operating axis detected by the encoder 5 and the coordinates of each point.

そこで、定数Aを距離Lにより除算することにより、重みWを算出する(ステップS25)。算出された重みWは各点の座標に対応付けて記憶される(ステップS26)。 Therefore, the weight W is calculated by dividing the constant A by the distance L (step S25). The calculated weight W is stored in association with the coordinates of each point (step S26).

算出されるツール先端点TCPの座標が大きな誤差を含んでいる場合には、誤差が小さい場合よりも小さな定数Aが与えられる。定数Aは、全てのセンサ3,5に同じ値を設定してもよいし、センサ3,5毎に誤差を測定する実験を行うことにより、予め個別に設定しておいてもい。また、定数Aは、機械学習により自動的に調整されてもよい。 When the coordinates of the calculated tool tip point TCP include a large error, a constant A smaller than that when the error is small is given. The constant A may be set to the same value for all the sensors 3 and 5, or may be set individually in advance by conducting an experiment for measuring an error for each of the sensors 3 and 5. Further, the constant A may be automatically adjusted by machine learning.

全ての点に重みWが付与されたか否かが判定され(ステップS27)、重みWが付与されていない点が存在する場合には、ステップS23からの工程が繰り返される。
全ての点に重みWが付与された場合には、全てのセンサ3,5について重みWが計算されたか否かを判定する(ステップS28)。
It is determined whether or not the weight W is given to all the points (step S27), and if there are points to which the weight W is not given, the steps from step S23 are repeated.
When the weight W is given to all the points, it is determined whether or not the weight W has been calculated for all the sensors 3 and 5 (step S28).

重みWが計算されていない他のセンサ3,5が存在する場合には、他のセンサ3,5を選択し(ステップS29)、ステップS22からの工程を繰り返す。
他のセンサとしてカメラ3が選択された場合には、カメラ3により取得された画像からツール先端点TCPの座標が算出され(ステップS22)、全ての点に対して重みWが付与される(ステップS23からS27)。
If there are other sensors 3 and 5 for which the weight W has not been calculated, the other sensors 3 and 5 are selected (step S29), and the steps from step S22 are repeated.
When the camera 3 is selected as another sensor, the coordinates of the tool tip point TCP are calculated from the image acquired by the camera 3 (step S22), and the weight W is given to all the points (step). S23 to S27).

センサとして、カメラ3およびエンコーダ5の2つを備えている場合には、各センサ3,5に対して算出された2つの重みWが各点の重みとして生成される。
生成された2つの重みWは、両方とも各点の重みとして、各点の座標に対応付けて記憶される。
When two sensors, a camera 3 and an encoder 5, are provided, two weights W calculated for each of the sensors 3 and 5 are generated as weights for each point.
The two generated weights W are both stored as weights of each point in association with the coordinates of each point.

次に、重みWが付与された点がグループ分けされ、点群が絞り込まれる(ステップS3)。点のグループ分けは、図6に示されるように実施される。 Next, the points to which the weight W is given are grouped, and the point group is narrowed down (step S3). Grouping of points is performed as shown in FIG.

まず、グループ番号が付されていない任意の1点を選択し(ステップS31)、選択された点にグループ番号を付与する(ステップS32)。次いで、グループ番号が付与された点から所定距離Xの範囲内に、グループ番号が付与されていない他の点が存在するか否かを判定し(ステップS33)、範囲内に存在する全ての点に同じグループ番号を付与する(ステップS34)。 First, any one point without a group number is selected (step S31), and a group number is assigned to the selected point (step S32). Next, it is determined whether or not there is another point to which the group number is not assigned within the range of the predetermined distance X from the point to which the group number is assigned (step S33), and all the points existing in the range are determined. Is assigned the same group number (step S34).

そして、ステップS33からの工程を繰り返す。ステップS33において、グループ番号が付与された全ての点から所定距離X内にグループ番号が付与されていない他の点が存在しないと判定された場合には、グループ番号が付与されていない点が存在するか否かを判定する(ステップS35)。 Then, the steps from step S33 are repeated. In step S33, when it is determined that there is no other point to which the group number has not been assigned within a predetermined distance X from all the points to which the group number has been assigned, there is a point to which the group number has not been assigned. It is determined whether or not to do so (step S35).

グループ番号が付与されていない点が存在する場合には、グループ番号を変更し(ステップS36)、ステップS31からの工程を繰り返す。全ての点にグループ番号が付与された場合には、各グループに属する点の全ての重みをグループ毎に合計する(ステップS37)。 If there is a point to which the group number is not assigned, the group number is changed (step S36), and the steps from step S31 are repeated. When a group number is assigned to all the points, all the weights of the points belonging to each group are summed for each group (step S37).

この場合に、点が複数の重みを有している場合には、全ての重みを合計する。そして、重みの合計が最大のグループの点群を残して、他の点を消去する(ステップS38)。これにより、点群が絞り込まれる。 In this case, if the points have a plurality of weights, all the weights are summed. Then, the other points are erased, leaving the point cloud of the group having the largest total weight (step S38). As a result, the point cloud is narrowed down.

次に、図1に示されるように、絞り込まれた点群の重心位置の座標を、各点の座標と重みとに基づいて算出する(ステップS4)。そして、算出された重心位置から最も遠い点までの距離(最大距離)を算出し(ステップS5)、算出された最大距離が所定の閾値以下であるか否かを判定する(ステップS6)。 Next, as shown in FIG. 1, the coordinates of the position of the center of gravity of the narrowed down point cloud are calculated based on the coordinates and the weight of each point (step S4). Then, the distance (maximum distance) from the calculated center of gravity position to the farthest point is calculated (step S5), and it is determined whether or not the calculated maximum distance is equal to or less than a predetermined threshold value (step S6).

最大距離が所定の閾値よりも大きい場合には、全ての点を消去して、重心位置を中心とし、最大距離を半径とする球の内部にランダムに点群を生成する(ステップS7)。そして、ステップS2からの工程を繰り返す。
ステップS6において、算出された最大距離が所定の閾値以下である場合には、重心位置の座標を第2点の座標として記憶することにより座標を補正する(ステップS8)。
When the maximum distance is larger than a predetermined threshold value, all the points are erased, and a point cloud is randomly generated inside the sphere centered on the position of the center of gravity and the radius is the maximum distance (step S7). Then, the process from step S2 is repeated.
In step S6, when the calculated maximum distance is equal to or less than a predetermined threshold value, the coordinates are corrected by storing the coordinates of the position of the center of gravity as the coordinates of the second point (step S8).

このようにして、オフラインにて教示された動作プログラムの実行により、理想的なツール先端点TCPの動作軌跡上に位置する通過点の座標が、複数のセンサ3,5により検出された情報に基づいて算出されるツール先端点TCPの座標に基づいて補正される。 In this way, by executing the operation program taught offline, the coordinates of the passing point located on the operation locus of the ideal tool tip point TCP are based on the information detected by the plurality of sensors 3 and 5. It is corrected based on the coordinates of the tool tip point TCP calculated by.

本実施形態に係るロボットシステム1によれば、複数のセンサ3,5により検出された情報に基づいて算出される座標にもそれぞれ誤差が含まれているが、重みづけにより、それらの誤差をバランスよく勘案して適正な補正を行うことができるという利点がある。 According to the robot system 1 according to the present embodiment, the coordinates calculated based on the information detected by the plurality of sensors 3 and 5 also include errors, but the errors are balanced by weighting. There is an advantage that an appropriate correction can be made with careful consideration.

なお、本実施形態においては、ツール先端点TCPの座標を算出するための情報を検出可能なセンサとして、サーボモータに備えられたエンコーダ5およびカメラ3を例示したが、これに限定されるものではない。例えば、ロボット2が加速度センサを備えている場合には、検出された加速度を2回積分することにより、ツール先端点TCPの座標を算出することができる。
また、ワークの形状を検出するために1以上のレーザセンサを備えている場合には、各レーザセンサにより検出された、レーザセンサとワークとの距離情報に基づいてツール先端点TCPの座標を算出することができる。
In the present embodiment, the encoder 5 and the camera 3 provided in the servomotor are exemplified as sensors capable of detecting the information for calculating the coordinates of the tool tip point TCP, but the present invention is not limited to these. No. For example, when the robot 2 is equipped with an acceleration sensor, the coordinates of the tool tip point TCP can be calculated by integrating the detected acceleration twice.
When one or more laser sensors are provided to detect the shape of the work, the coordinates of the tool tip point TCP are calculated based on the distance information between the laser sensor and the work detected by each laser sensor. can do.

1 ロボットシステム
2 ロボット
3 カメラ(センサ)
4 制御装置(プロセッサ、メモリ)
5 エンコーダ(センサ)
X 所定距離
W 重み
TCP ツール先端点
1 Robot system 2 Robot 3 Camera (sensor)
4 Control device (processor, memory)
5 Encoder (sensor)
X Predetermined distance W Weight TCP tool tip point

Claims (6)

ロボットと、
該ロボットのツール先端点の座標を算出するための情報を検出可能な複数種のセンサと、
プロセッサとを備え、
該プロセッサは、
動作プログラムによる前記ツール先端点の動作軌跡上の第1点および第2点の近傍に複数の点からなる点群を生成し、
該点群の各前記点が、前記第1点から前記第2点に向かう前記ツール先端点が到達可能な座標を有し、
各前記センサにより検出された前記情報に基づいて前記点群の各前記点に、存在し得る確からしさを示す重みを設定し、
前記点群をグループ分けして、前記確からしさが最も高いグループを抽出し、
抽出された前記グループの重心位置を該グループに属する前記点の座標および重みから算出し、
抽出された前記グループに属する前記点の内、算出された前記重心位置から最も遠い位置に配置されている前記点までの最大距離が所定の閾値以下である場合に、前記重心位置の座標を前記第2点の新たな座標として置き換えるロボットシステム。
With a robot
A plurality of types of sensors capable of detecting information for calculating the coordinates of the tool tip point of the robot, and
Equipped with a processor
The processor
A point cloud consisting of a plurality of points is generated in the vicinity of the first point and the second point on the operation locus of the tool tip point by the operation program.
Each point in the point cloud has coordinates reachable by the tool tip point from the first point to the second point.
Based on the information detected by each of the sensors, a weight indicating the probability of existence is set at each of the points in the point cloud.
The point cloud is divided into groups, and the group with the highest certainty is extracted.
The position of the center of gravity of the extracted group is calculated from the coordinates and weights of the points belonging to the group.
When the maximum distance to the point located at the farthest position from the calculated center of gravity position among the extracted points belonging to the group is equal to or less than a predetermined threshold, the coordinates of the center of gravity position are set as described above. A robot system that replaces the new coordinates of the second point.
前記プロセッサは、
前記最大距離が前記閾値よりも大きい場合に、前記重心位置を中心とし前記最大距離を半径とする球の内部に点群を生成し、前記重みの設定からの工程を繰り返す請求項1に記載のロボットシステム。
The processor
The first aspect of claim 1, wherein when the maximum distance is larger than the threshold value, a point cloud is generated inside a sphere centered on the center of gravity position and the radius is the maximum distance, and the process from setting the weight is repeated. Robot system.
前記第2点の座標に対応付けて記憶する第1テーブルを記憶するメモリを備え、
前記第1テーブルが、前記第1点から前記第2点に向かう速度ベクトルに対応付けて前記点群の座標を記憶する複数の第2テーブルを記憶し、
前記プロセッサが、
前記メモリに記憶されている前記第1テーブルから前記第2点の座標に対応する前記第2テーブルを読み出し、読み出された該第2テーブルから前記速度ベクトルに対応する前記点群の座標を読み出すことにより、前記点群を生成する請求項1に記載のロボットシステム。
A memory for storing a first table that is stored in association with the coordinates of the second point is provided.
The first table stores a plurality of second tables that store the coordinates of the point cloud in association with the velocity vector from the first point to the second point.
The processor
The second table corresponding to the coordinates of the second point is read from the first table stored in the memory, and the coordinates of the point cloud corresponding to the velocity vector are read from the read second table. The robot system according to claim 1, wherein the point cloud is generated thereby.
前記プロセッサが、
各前記センサにより検出された前記ツール先端点の座標毎に、該座標からの各前記点までの距離に反比例する値を各前記点の重みとして設定する請求項1から請求項3のいずれかに記載のロボットシステム。
The processor
The method according to any one of claims 1 to 3, wherein a value inversely proportional to the distance from the coordinates to each point is set as the weight of each point for each coordinate of the tool tip point detected by each sensor. The robot system described.
前記プロセッサが、
各前記センサ毎に、前記重みを機械学習により求める請求項4に記載のロボットシステム。
The processor
The robot system according to claim 4, wherein the weight is obtained by machine learning for each of the sensors.
前記プロセッサが、
前記点群の内の1つの任意の前記点を選択し、
選択された前記点にグループ番号を与え、
該グループ番号を与えた各前記点からの距離が所定距離以下である前記点に同一のグループ番号を与えることを、同一のグループ番号を与える前記点がなくなるまで繰り返し、
前記グループ番号が与えられていない前記点が存在する場合には、前記グループ番号が与えられていない他の1つの任意の前記点を選択し、
与えるグループ番号を変更し、
選択された前記点にグループ番号を与える工程から繰り返すことにより、前記点群をグループ分けする請求項1から請求項5のいずれかに記載のロボットシステム。
The processor
Select any one of the points in the point cloud and
Give the selected points a group number and
The same group number is given to the points whose distance from each point to which the group number is given is equal to or less than a predetermined distance, until there are no more points to which the same group number is given.
If there is a point that has not been given a group number, then any one other point that has not been given a group number is selected.
Change the given group number,
The robot system according to any one of claims 1 to 5, wherein the point cloud is grouped by repeating the process of assigning a group number to the selected points.
JP2020068265A 2020-04-06 2020-04-06 robot system Active JP7388970B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020068265A JP7388970B2 (en) 2020-04-06 2020-04-06 robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020068265A JP7388970B2 (en) 2020-04-06 2020-04-06 robot system

Publications (2)

Publication Number Publication Date
JP2021164964A true JP2021164964A (en) 2021-10-14
JP7388970B2 JP7388970B2 (en) 2023-11-29

Family

ID=78021495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020068265A Active JP7388970B2 (en) 2020-04-06 2020-04-06 robot system

Country Status (1)

Country Link
JP (1) JP7388970B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4509860B2 (en) 2005-05-25 2010-07-21 株式会社東芝 Data division apparatus, data division method and program
JP6004809B2 (en) 2012-03-13 2016-10-12 キヤノン株式会社 Position / orientation estimation apparatus, information processing apparatus, and information processing method
JP6052871B2 (en) 2012-11-30 2016-12-27 国立大学法人横浜国立大学 Object moving apparatus, method, program, and recording medium
JP6415291B2 (en) 2014-12-09 2018-10-31 キヤノン株式会社 Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
JP7388970B2 (en) 2023-11-29

Similar Documents

Publication Publication Date Title
US10035268B2 (en) Measurement system used for calibrating mechanical parameters of robot
JP6937995B2 (en) Object recognition processing device and method, and object picking device and method
US9519736B2 (en) Data generation device for vision sensor and detection simulation system
TWI670153B (en) Robot and robot system
JP6579498B2 (en) Automation device and position detection device
US10618164B2 (en) Robot system having learning control function and learning control method
JP7191569B2 (en) gripping device
US20160279800A1 (en) Robot, robot control device, and robotic system
EP3733355A1 (en) Robot motion optimization system and method
US20070213874A1 (en) Device, program, recording medium and method for robot simulation
JP6348097B2 (en) Work position and orientation calculation device and handling system
US10940585B2 (en) Vibration suppression device
JP6514156B2 (en) Robot controller
JP6317618B2 (en) Information processing apparatus and method, measuring apparatus, and working apparatus
JP2008021092A (en) Simulation apparatus of robot system
CN106003020A (en) Robot, robot control device, and robotic system
JP7502003B2 (en) Apparatus and method for acquiring deviation of moving trajectory of moving machine
EP1886771A1 (en) Rotation center point calculating method, rotation axis calculating method, program creating method, operation method, and robot apparatus
CN109983299A (en) The measuring system and method for industrial robot
JP7061013B2 (en) Path correction method and control device for multi-axis machine
JP7388970B2 (en) robot system
WO2022025059A1 (en) Robot system
CN112116664B (en) Method and device for generating hand-eye calibration track, electronic equipment and storage medium
CN114454180B (en) Motion control method and device of mobile robot and mobile robot
US20230130816A1 (en) Calibration system, calibration method, and calibration apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231116

R150 Certificate of patent or registration of utility model

Ref document number: 7388970

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150