JP2021164964A - Robot system - Google Patents
Robot system Download PDFInfo
- Publication number
- JP2021164964A JP2021164964A JP2020068265A JP2020068265A JP2021164964A JP 2021164964 A JP2021164964 A JP 2021164964A JP 2020068265 A JP2020068265 A JP 2020068265A JP 2020068265 A JP2020068265 A JP 2020068265A JP 2021164964 A JP2021164964 A JP 2021164964A
- Authority
- JP
- Japan
- Prior art keywords
- point
- coordinates
- group
- points
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000005484 gravity Effects 0.000 claims abstract description 14
- 238000000034 method Methods 0.000 claims description 10
- 238000010801 machine learning Methods 0.000 claims description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本開示は、ロボットシステムに関するものである。 The present disclosure relates to a robot system.
オフラインによってロボットの教示を行った後、ロボットによる作業中にロボットに取り付けられたカメラにより画像を取得し、取得された画像に基づいてロボットの位置および姿勢を補正する技術が知られている(例えば、特許文献1参照。)。
オフラインにより理想的な環境下で教示されたロボットの位置は、実際の作業環境においては種々の要因により変動するので、画像データを用いて補正することにより、実際のワークに対してロボットを精度よく動作させることができる。
After teaching the robot offline, a technique is known in which an image is acquired by a camera attached to the robot while the robot is working, and the position and posture of the robot are corrected based on the acquired image (for example). , Patent Document 1).
Since the position of the robot taught offline in an ideal environment fluctuates due to various factors in the actual work environment, the robot can be accurately corrected with respect to the actual work by correcting it using image data. Can be operated.
しかしながら、例えば、ロボットの手先にカメラを取り付ける場合には、ワークに近い位置からの撮影となるため、ワークの部分的な領域の画像しか取得できない。このような状況において、画像データからワーク表面の特徴を抽出する場合には、撮影するワークの部位によっては、推定しようとするロボットの位置の誤差が大きくなり、適切な補正量が得られない場合がある。 However, for example, when the camera is attached to the hand of the robot, the image is taken from a position close to the work, so that only an image of a partial area of the work can be acquired. In such a situation, when extracting the features of the work surface from the image data, the error in the position of the robot to be estimated becomes large depending on the part of the work to be photographed, and an appropriate correction amount cannot be obtained. There is.
したがって、センサの検出結果に基づいて推定されるロボットの位置の誤差が変動しても、ロボットの位置を適切に補正することができるロボットシステムが望まれている。 Therefore, there is a demand for a robot system that can appropriately correct the position of the robot even if the error of the position of the robot estimated based on the detection result of the sensor fluctuates.
本開示の一態様は、ロボットと、該ロボットのツール先端点の座標を算出するための情報を検出可能な複数種のセンサと、プロセッサとを備え、該プロセッサは、動作プログラムによる前記ツール先端点の動作軌跡上の第1点および第2点の近傍に複数の点からなる点群を生成し、該点群の各前記点が、前記第1点から前記第2点に向かう前記ツール先端点が到達可能な座標を有し、各前記センサにより検出された前記情報に基づいて前記点群の各前記点に、存在し得る確からしさを示す重みを設定し、前記点群をグループ分けして、前記確からしさが最も高いグループを抽出し、抽出された前記グループの重心位置を該グループに属する前記点の座標および重みから算出し、抽出された前記グループに属する前記点の内、算出された前記重心位置から最も遠い位置に配置されている前記点までの最大距離が所定の閾値以下である場合に、前記重心位置の座標を前記第2点の新たな座標として置き換えるロボットシステムである。 One aspect of the present disclosure includes a robot, a plurality of types of sensors capable of detecting information for calculating the coordinates of the tool tip point of the robot, and a processor, and the processor is the tool tip point according to an operation program. A point group consisting of a plurality of points is generated in the vicinity of the first point and the second point on the motion locus of the tool, and each of the points in the point group moves from the first point to the second point. Has reachable coordinates, and based on the information detected by each of the sensors, a weight indicating the certainty that can exist is set at each of the points of the point group, and the point group is grouped. , The group with the highest certainty was extracted, the position of the center of gravity of the extracted group was calculated from the coordinates and weights of the points belonging to the group, and the points were calculated from the extracted points belonging to the group. This is a robot system that replaces the coordinates of the center of gravity with new coordinates of the second point when the maximum distance to the point located at the farthest position from the position of the center of gravity is equal to or less than a predetermined threshold value.
本開示の一実施形態に係るロボットシステム1について、図面を参照して以下に説明する。
本実施形態に係るロボットシステム1は、図1に示されるように、6軸多関節型のロボット2と、ロボット2の手首に装着されたカメラ(センサ)3と、ロボット2を制御する制御装置(プロセッサ、メモリ)4とを備えている。
The robot system 1 according to the embodiment of the present disclosure will be described below with reference to the drawings.
As shown in FIG. 1, the robot system 1 according to the present embodiment includes a 6-axis articulated robot 2, a camera (sensor) 3 mounted on the wrist of the robot 2, and a control device for controlling the robot 2. (Processor, memory) 4 and.
ロボット2は、図示しないサーボモータによって駆動される6個の動作軸を有し、各動作軸の回転角度がサーボモータに設けられたエンコーダ(センサ)5によって検出される。
したがって、ロボット2のツール先端点TCPの位置は、エンコーダ5により検出される各動作軸の回転角度に基づいて算出することができるとともに、カメラ3によって取得された画像に基づいても算出することができる。
The robot 2 has six operating axes driven by a servomotor (not shown), and the rotation angle of each operating axis is detected by an encoder (sensor) 5 provided in the servomotor.
Therefore, the position of the tool tip point TCP of the robot 2 can be calculated based on the rotation angle of each operating axis detected by the
画像に基づくツール先端点TCPの位置は、例えば、カメラ3によってワークを撮影し、取得された画像を処理して、公知の方法により特徴点を抽出することにより、ワークの位置に対するカメラ3の位置を算出し、算出されたカメラ3の位置から幾何学的に算出される。
The position of the tool tip point TCP based on the image is, for example, the position of the
制御装置4は、オフライン作業により教示された動作プログラムを読み込んで、動作プログラムに従ってロボット2の各軸を動作させるとともに、所定の時間間隔、例えば、0.1秒毎にツール先端点TCPの位置を推定して記憶する。これにより、次回の動作プログラムの実行時には、各時点において推定された位置をツール先端点TCPが通過するよう動作軌跡が補正される。 The control device 4 reads the operation program taught by the offline work, operates each axis of the robot 2 according to the operation program, and sets the position of the tool tip point TCP at a predetermined time interval, for example, every 0.1 seconds. Estimate and memorize. As a result, when the next operation program is executed, the operation locus is corrected so that the tool tip point TCP passes through the position estimated at each time point.
さらに具体的には、制御装置4は、メモリ内に、ロボット2のツール先端点TCPの座標に対応付けた第1テーブルを記憶している。第1テーブルには、ツール先端点TCPの動作軌跡上の速度ベクトルに点群を対応付けた第2テーブルが記憶されている。第1テーブルおよび第2テーブルは3次元テーブルである。 More specifically, the control device 4 stores in the memory a first table associated with the coordinates of the tool tip point TCP of the robot 2. In the first table, a second table in which a point cloud is associated with a velocity vector on the operation locus of the tool tip point TCP is stored. The first table and the second table are three-dimensional tables.
点群は、ツール先端点TCPの動作軌跡上の第1点から所定時間後の第2点に向かう間において、ツール先端点TCPが到達し得る範囲にランダムに設定された複数の点を含んでいる。第2テーブルには各点の座標が記憶されている。 The point cloud includes a plurality of points randomly set within the reachable range of the tool tip point TCP while moving from the first point on the operation locus of the tool tip point TCP to the second point after a predetermined time. There is. The coordinates of each point are stored in the second table.
したがって、図3に示されるように、動作プログラムが実行されると、実行中の各時点において、点群が生成される(ステップS1)。点群の生成においては、図4に示されるように、動作プログラムにおけるツール先端点TCPの動作軌跡上に配置される現時点(第2点)の座標と、所定時間前の第1点の座標とが算出される(ステップS11)。 Therefore, as shown in FIG. 3, when the operation program is executed, a point cloud is generated at each time point during execution (step S1). In the generation of the point cloud, as shown in FIG. 4, the coordinates of the current time (second point) arranged on the operation locus of the tool tip point TCP in the operation program and the coordinates of the first point before a predetermined time are used. Is calculated (step S11).
次いで、算出された第2点の座標に対応する第2テーブルが第1テーブル内から読み出される(ステップS12)。また、第1点から第2点に向かう速度ベクトルが算出され(ステップS13)、速度ベクトルに対応する点群が、読み出された第2テーブル内から読み出される(ステップS14)。これにより、点群が生成される。 Next, the second table corresponding to the calculated coordinates of the second point is read from the first table (step S12). Further, the velocity vector from the first point to the second point is calculated (step S13), and the point cloud corresponding to the velocity vector is read out from the read second table (step S14). As a result, a point cloud is generated.
次に、生成された点群の各点に対して重みが付与される(ステップS2)。
重み付与のステップS2は、図5に示されるように、まず、いずれかのセンサ3,5が選択される(ステップS21)。例えば、センサとしてエンコーダ5が選択された場合には、選択されたエンコーダ5により検出された各動作軸の回転角度からツール先端点TCPの座標を算出する(ステップS22)。
Next, a weight is given to each point in the generated point cloud (step S2).
In the weighting step S2, as shown in FIG. 5, first, any of the
次いで、重みの付与されていない1点が選択され(ステップS23)、選択された点の座標とツール先端点TCPの座標との距離Lを算出する(ステップS24)。各点に付与される重みは、エンコーダ5により検出された各動作軸の回転角度から算出されるツール先端点TCPの座標と各点の座標との距離Lに反比例している。
Next, one unweighted point is selected (step S23), and the distance L between the coordinates of the selected point and the coordinates of the tool tip point TCP is calculated (step S24). The weight given to each point is inversely proportional to the distance L between the coordinates of the tool tip point TCP calculated from the rotation angle of each operating axis detected by the
そこで、定数Aを距離Lにより除算することにより、重みWを算出する(ステップS25)。算出された重みWは各点の座標に対応付けて記憶される(ステップS26)。 Therefore, the weight W is calculated by dividing the constant A by the distance L (step S25). The calculated weight W is stored in association with the coordinates of each point (step S26).
算出されるツール先端点TCPの座標が大きな誤差を含んでいる場合には、誤差が小さい場合よりも小さな定数Aが与えられる。定数Aは、全てのセンサ3,5に同じ値を設定してもよいし、センサ3,5毎に誤差を測定する実験を行うことにより、予め個別に設定しておいてもい。また、定数Aは、機械学習により自動的に調整されてもよい。
When the coordinates of the calculated tool tip point TCP include a large error, a constant A smaller than that when the error is small is given. The constant A may be set to the same value for all the
全ての点に重みWが付与されたか否かが判定され(ステップS27)、重みWが付与されていない点が存在する場合には、ステップS23からの工程が繰り返される。
全ての点に重みWが付与された場合には、全てのセンサ3,5について重みWが計算されたか否かを判定する(ステップS28)。
It is determined whether or not the weight W is given to all the points (step S27), and if there are points to which the weight W is not given, the steps from step S23 are repeated.
When the weight W is given to all the points, it is determined whether or not the weight W has been calculated for all the
重みWが計算されていない他のセンサ3,5が存在する場合には、他のセンサ3,5を選択し(ステップS29)、ステップS22からの工程を繰り返す。
他のセンサとしてカメラ3が選択された場合には、カメラ3により取得された画像からツール先端点TCPの座標が算出され(ステップS22)、全ての点に対して重みWが付与される(ステップS23からS27)。
If there are
When the
センサとして、カメラ3およびエンコーダ5の2つを備えている場合には、各センサ3,5に対して算出された2つの重みWが各点の重みとして生成される。
生成された2つの重みWは、両方とも各点の重みとして、各点の座標に対応付けて記憶される。
When two sensors, a
The two generated weights W are both stored as weights of each point in association with the coordinates of each point.
次に、重みWが付与された点がグループ分けされ、点群が絞り込まれる(ステップS3)。点のグループ分けは、図6に示されるように実施される。 Next, the points to which the weight W is given are grouped, and the point group is narrowed down (step S3). Grouping of points is performed as shown in FIG.
まず、グループ番号が付されていない任意の1点を選択し(ステップS31)、選択された点にグループ番号を付与する(ステップS32)。次いで、グループ番号が付与された点から所定距離Xの範囲内に、グループ番号が付与されていない他の点が存在するか否かを判定し(ステップS33)、範囲内に存在する全ての点に同じグループ番号を付与する(ステップS34)。 First, any one point without a group number is selected (step S31), and a group number is assigned to the selected point (step S32). Next, it is determined whether or not there is another point to which the group number is not assigned within the range of the predetermined distance X from the point to which the group number is assigned (step S33), and all the points existing in the range are determined. Is assigned the same group number (step S34).
そして、ステップS33からの工程を繰り返す。ステップS33において、グループ番号が付与された全ての点から所定距離X内にグループ番号が付与されていない他の点が存在しないと判定された場合には、グループ番号が付与されていない点が存在するか否かを判定する(ステップS35)。 Then, the steps from step S33 are repeated. In step S33, when it is determined that there is no other point to which the group number has not been assigned within a predetermined distance X from all the points to which the group number has been assigned, there is a point to which the group number has not been assigned. It is determined whether or not to do so (step S35).
グループ番号が付与されていない点が存在する場合には、グループ番号を変更し(ステップS36)、ステップS31からの工程を繰り返す。全ての点にグループ番号が付与された場合には、各グループに属する点の全ての重みをグループ毎に合計する(ステップS37)。 If there is a point to which the group number is not assigned, the group number is changed (step S36), and the steps from step S31 are repeated. When a group number is assigned to all the points, all the weights of the points belonging to each group are summed for each group (step S37).
この場合に、点が複数の重みを有している場合には、全ての重みを合計する。そして、重みの合計が最大のグループの点群を残して、他の点を消去する(ステップS38)。これにより、点群が絞り込まれる。 In this case, if the points have a plurality of weights, all the weights are summed. Then, the other points are erased, leaving the point cloud of the group having the largest total weight (step S38). As a result, the point cloud is narrowed down.
次に、図1に示されるように、絞り込まれた点群の重心位置の座標を、各点の座標と重みとに基づいて算出する(ステップS4)。そして、算出された重心位置から最も遠い点までの距離(最大距離)を算出し(ステップS5)、算出された最大距離が所定の閾値以下であるか否かを判定する(ステップS6)。 Next, as shown in FIG. 1, the coordinates of the position of the center of gravity of the narrowed down point cloud are calculated based on the coordinates and the weight of each point (step S4). Then, the distance (maximum distance) from the calculated center of gravity position to the farthest point is calculated (step S5), and it is determined whether or not the calculated maximum distance is equal to or less than a predetermined threshold value (step S6).
最大距離が所定の閾値よりも大きい場合には、全ての点を消去して、重心位置を中心とし、最大距離を半径とする球の内部にランダムに点群を生成する(ステップS7)。そして、ステップS2からの工程を繰り返す。
ステップS6において、算出された最大距離が所定の閾値以下である場合には、重心位置の座標を第2点の座標として記憶することにより座標を補正する(ステップS8)。
When the maximum distance is larger than a predetermined threshold value, all the points are erased, and a point cloud is randomly generated inside the sphere centered on the position of the center of gravity and the radius is the maximum distance (step S7). Then, the process from step S2 is repeated.
In step S6, when the calculated maximum distance is equal to or less than a predetermined threshold value, the coordinates are corrected by storing the coordinates of the position of the center of gravity as the coordinates of the second point (step S8).
このようにして、オフラインにて教示された動作プログラムの実行により、理想的なツール先端点TCPの動作軌跡上に位置する通過点の座標が、複数のセンサ3,5により検出された情報に基づいて算出されるツール先端点TCPの座標に基づいて補正される。
In this way, by executing the operation program taught offline, the coordinates of the passing point located on the operation locus of the ideal tool tip point TCP are based on the information detected by the plurality of
本実施形態に係るロボットシステム1によれば、複数のセンサ3,5により検出された情報に基づいて算出される座標にもそれぞれ誤差が含まれているが、重みづけにより、それらの誤差をバランスよく勘案して適正な補正を行うことができるという利点がある。
According to the robot system 1 according to the present embodiment, the coordinates calculated based on the information detected by the plurality of
なお、本実施形態においては、ツール先端点TCPの座標を算出するための情報を検出可能なセンサとして、サーボモータに備えられたエンコーダ5およびカメラ3を例示したが、これに限定されるものではない。例えば、ロボット2が加速度センサを備えている場合には、検出された加速度を2回積分することにより、ツール先端点TCPの座標を算出することができる。
また、ワークの形状を検出するために1以上のレーザセンサを備えている場合には、各レーザセンサにより検出された、レーザセンサとワークとの距離情報に基づいてツール先端点TCPの座標を算出することができる。
In the present embodiment, the
When one or more laser sensors are provided to detect the shape of the work, the coordinates of the tool tip point TCP are calculated based on the distance information between the laser sensor and the work detected by each laser sensor. can do.
1 ロボットシステム
2 ロボット
3 カメラ(センサ)
4 制御装置(プロセッサ、メモリ)
5 エンコーダ(センサ)
X 所定距離
W 重み
TCP ツール先端点
1 Robot system 2
4 Control device (processor, memory)
5 Encoder (sensor)
X Predetermined distance W Weight TCP tool tip point
Claims (6)
該ロボットのツール先端点の座標を算出するための情報を検出可能な複数種のセンサと、
プロセッサとを備え、
該プロセッサは、
動作プログラムによる前記ツール先端点の動作軌跡上の第1点および第2点の近傍に複数の点からなる点群を生成し、
該点群の各前記点が、前記第1点から前記第2点に向かう前記ツール先端点が到達可能な座標を有し、
各前記センサにより検出された前記情報に基づいて前記点群の各前記点に、存在し得る確からしさを示す重みを設定し、
前記点群をグループ分けして、前記確からしさが最も高いグループを抽出し、
抽出された前記グループの重心位置を該グループに属する前記点の座標および重みから算出し、
抽出された前記グループに属する前記点の内、算出された前記重心位置から最も遠い位置に配置されている前記点までの最大距離が所定の閾値以下である場合に、前記重心位置の座標を前記第2点の新たな座標として置き換えるロボットシステム。 With a robot
A plurality of types of sensors capable of detecting information for calculating the coordinates of the tool tip point of the robot, and
Equipped with a processor
The processor
A point cloud consisting of a plurality of points is generated in the vicinity of the first point and the second point on the operation locus of the tool tip point by the operation program.
Each point in the point cloud has coordinates reachable by the tool tip point from the first point to the second point.
Based on the information detected by each of the sensors, a weight indicating the probability of existence is set at each of the points in the point cloud.
The point cloud is divided into groups, and the group with the highest certainty is extracted.
The position of the center of gravity of the extracted group is calculated from the coordinates and weights of the points belonging to the group.
When the maximum distance to the point located at the farthest position from the calculated center of gravity position among the extracted points belonging to the group is equal to or less than a predetermined threshold, the coordinates of the center of gravity position are set as described above. A robot system that replaces the new coordinates of the second point.
前記最大距離が前記閾値よりも大きい場合に、前記重心位置を中心とし前記最大距離を半径とする球の内部に点群を生成し、前記重みの設定からの工程を繰り返す請求項1に記載のロボットシステム。 The processor
The first aspect of claim 1, wherein when the maximum distance is larger than the threshold value, a point cloud is generated inside a sphere centered on the center of gravity position and the radius is the maximum distance, and the process from setting the weight is repeated. Robot system.
前記第1テーブルが、前記第1点から前記第2点に向かう速度ベクトルに対応付けて前記点群の座標を記憶する複数の第2テーブルを記憶し、
前記プロセッサが、
前記メモリに記憶されている前記第1テーブルから前記第2点の座標に対応する前記第2テーブルを読み出し、読み出された該第2テーブルから前記速度ベクトルに対応する前記点群の座標を読み出すことにより、前記点群を生成する請求項1に記載のロボットシステム。 A memory for storing a first table that is stored in association with the coordinates of the second point is provided.
The first table stores a plurality of second tables that store the coordinates of the point cloud in association with the velocity vector from the first point to the second point.
The processor
The second table corresponding to the coordinates of the second point is read from the first table stored in the memory, and the coordinates of the point cloud corresponding to the velocity vector are read from the read second table. The robot system according to claim 1, wherein the point cloud is generated thereby.
各前記センサにより検出された前記ツール先端点の座標毎に、該座標からの各前記点までの距離に反比例する値を各前記点の重みとして設定する請求項1から請求項3のいずれかに記載のロボットシステム。 The processor
The method according to any one of claims 1 to 3, wherein a value inversely proportional to the distance from the coordinates to each point is set as the weight of each point for each coordinate of the tool tip point detected by each sensor. The robot system described.
各前記センサ毎に、前記重みを機械学習により求める請求項4に記載のロボットシステム。 The processor
The robot system according to claim 4, wherein the weight is obtained by machine learning for each of the sensors.
前記点群の内の1つの任意の前記点を選択し、
選択された前記点にグループ番号を与え、
該グループ番号を与えた各前記点からの距離が所定距離以下である前記点に同一のグループ番号を与えることを、同一のグループ番号を与える前記点がなくなるまで繰り返し、
前記グループ番号が与えられていない前記点が存在する場合には、前記グループ番号が与えられていない他の1つの任意の前記点を選択し、
与えるグループ番号を変更し、
選択された前記点にグループ番号を与える工程から繰り返すことにより、前記点群をグループ分けする請求項1から請求項5のいずれかに記載のロボットシステム。
The processor
Select any one of the points in the point cloud and
Give the selected points a group number and
The same group number is given to the points whose distance from each point to which the group number is given is equal to or less than a predetermined distance, until there are no more points to which the same group number is given.
If there is a point that has not been given a group number, then any one other point that has not been given a group number is selected.
Change the given group number,
The robot system according to any one of claims 1 to 5, wherein the point cloud is grouped by repeating the process of assigning a group number to the selected points.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020068265A JP7388970B2 (en) | 2020-04-06 | 2020-04-06 | robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020068265A JP7388970B2 (en) | 2020-04-06 | 2020-04-06 | robot system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021164964A true JP2021164964A (en) | 2021-10-14 |
JP7388970B2 JP7388970B2 (en) | 2023-11-29 |
Family
ID=78021495
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020068265A Active JP7388970B2 (en) | 2020-04-06 | 2020-04-06 | robot system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7388970B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4509860B2 (en) | 2005-05-25 | 2010-07-21 | 株式会社東芝 | Data division apparatus, data division method and program |
JP6004809B2 (en) | 2012-03-13 | 2016-10-12 | キヤノン株式会社 | Position / orientation estimation apparatus, information processing apparatus, and information processing method |
JP6052871B2 (en) | 2012-11-30 | 2016-12-27 | 国立大学法人横浜国立大学 | Object moving apparatus, method, program, and recording medium |
JP6415291B2 (en) | 2014-12-09 | 2018-10-31 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
-
2020
- 2020-04-06 JP JP2020068265A patent/JP7388970B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7388970B2 (en) | 2023-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10035268B2 (en) | Measurement system used for calibrating mechanical parameters of robot | |
JP6937995B2 (en) | Object recognition processing device and method, and object picking device and method | |
US9519736B2 (en) | Data generation device for vision sensor and detection simulation system | |
TWI670153B (en) | Robot and robot system | |
JP6579498B2 (en) | Automation device and position detection device | |
US10618164B2 (en) | Robot system having learning control function and learning control method | |
JP7191569B2 (en) | gripping device | |
US20160279800A1 (en) | Robot, robot control device, and robotic system | |
EP3733355A1 (en) | Robot motion optimization system and method | |
US20070213874A1 (en) | Device, program, recording medium and method for robot simulation | |
JP6348097B2 (en) | Work position and orientation calculation device and handling system | |
US10940585B2 (en) | Vibration suppression device | |
JP6514156B2 (en) | Robot controller | |
JP6317618B2 (en) | Information processing apparatus and method, measuring apparatus, and working apparatus | |
JP2008021092A (en) | Simulation apparatus of robot system | |
CN106003020A (en) | Robot, robot control device, and robotic system | |
JP7502003B2 (en) | Apparatus and method for acquiring deviation of moving trajectory of moving machine | |
EP1886771A1 (en) | Rotation center point calculating method, rotation axis calculating method, program creating method, operation method, and robot apparatus | |
CN109983299A (en) | The measuring system and method for industrial robot | |
JP7061013B2 (en) | Path correction method and control device for multi-axis machine | |
JP7388970B2 (en) | robot system | |
WO2022025059A1 (en) | Robot system | |
CN112116664B (en) | Method and device for generating hand-eye calibration track, electronic equipment and storage medium | |
CN114454180B (en) | Motion control method and device of mobile robot and mobile robot | |
US20230130816A1 (en) | Calibration system, calibration method, and calibration apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231011 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231116 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7388970 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |