JP5787646B2 - Robot system and component manufacturing method - Google Patents
Robot system and component manufacturing method Download PDFInfo
- Publication number
- JP5787646B2 JP5787646B2 JP2011149693A JP2011149693A JP5787646B2 JP 5787646 B2 JP5787646 B2 JP 5787646B2 JP 2011149693 A JP2011149693 A JP 2011149693A JP 2011149693 A JP2011149693 A JP 2011149693A JP 5787646 B2 JP5787646 B2 JP 5787646B2
- Authority
- JP
- Japan
- Prior art keywords
- hand
- assembly member
- distance
- reference point
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Manipulator (AREA)
Description
本発明は、力覚センサを用いて、組み付け部材を被組み付け部材に組み付けるときの組み付け反力を検知し、ロボットアームの各関節の動作を制御するロボットシステム、及び部品の製造方法に関するものである。 The present invention relates to a robot system that detects an assembly reaction force when an assembly member is assembled to an assembly member using a force sensor , and controls the operation of each joint of a robot arm , and a component manufacturing method. .
従来、ロボットシステムは、例えば産業用ロボットの手首部に設けられた力覚センサを備え、組立作業に生じるハンドの変位を検出し、その検出値に応じてロボットの動作を修正しながら組立作業を行うものが知られている(特許文献1参照)。この際、組み付け部材と被組み付け部材との間に相対的な位置誤差がある場合、組み付け部材が被組み付け部材に当接することにより、ロボットアームに対するハンドの相対的な変位が検出される。そして、あらかじめ定められた相対変位量の許容値の範囲内で挿入作業を行なうことで、組み付け部材や被組み付け部材、ハンドなどの破損を防止し、良好な状態で組み付けを行うことを実現するものである。 Conventionally, a robot system includes, for example, a force sensor provided at the wrist of an industrial robot, detects the displacement of the hand generated during the assembly work, and performs the assembly work while correcting the operation of the robot according to the detected value. What is performed is known (see Patent Document 1). At this time, when there is a relative positional error between the assembled member and the assembled member, the relative displacement of the hand with respect to the robot arm is detected by the assembled member coming into contact with the assembled member. And, by performing the insertion work within the range of the allowable value of the predetermined relative displacement, it is possible to prevent damage to the assembled member, the assembled member, the hand, etc., and to perform the assembly in a good state It is.
ところが、ハンドにおいては、決められた位置で組み付け部材を把持する必要があり、ハンドにおける把持位置がずれると、ハンドに作用する力の作用点が変化し、ハンドの変位が変化してしまう。これにより力覚センサにより検出されるモーメントの値も変化してしまい、精確な組み付け作業ができなくなる。このため、ワークを把持するハンドの一対のフィンガの形状を把持する部品の特徴に合わせ製作することで、組み付け部材の把持位置を規定するという方法が一般的である。 However, in the hand, it is necessary to grip the assembly member at a predetermined position. When the gripping position in the hand is shifted, the point of action of the force acting on the hand changes, and the displacement of the hand changes. As a result, the value of the moment detected by the force sensor also changes, and accurate assembly work cannot be performed. For this reason, it is common to define the gripping position of the assembly member by making the shape of the pair of fingers of the hand gripping the workpiece according to the characteristics of the gripping component.
しかしながら、ワークを把持するハンドの形状をワークの特徴に合わせ製作することでワークの把持位置を規定する方法では、作業工程又はワークごとに専用のハンドが必要になるためコストがかかるという問題がある。また、この方法では1つのロボットシステムで複数の作業工程を行おうとすると、把持するワークが変わるたびにハンドを交換するといった段取り変えが必要となる。逆に、ハンドの交換といった段取り変えを行わないようにすると、他の作業工程を同じハンドで行うことが困難であるため、複数のロボットシステムで作業を細かく分けなければならず、コストが増加すると共に、広いスペースが必要になる。 However, the method of defining the gripping position of the workpiece by manufacturing the shape of the hand that grips the workpiece according to the characteristics of the workpiece has a problem that a cost is required because a dedicated hand is required for each work process or workpiece. . Further, in this method, when a plurality of work steps are performed by one robot system, it is necessary to change the setup such that the hand is changed whenever the work to be gripped changes. On the other hand, if you do not change the setup such as changing hands, it is difficult to perform other work steps with the same hand, so the work must be subdivided by multiple robot systems, increasing costs. In addition, a large space is required.
そこで、本発明は、ハンドの交換を行わずに精密な組み付け作業が可能となるロボットシステム、及び部品の製造方法を提供することを目的とするものである。 SUMMARY OF THE INVENTION An object of the present invention is to provide a robot system and a component manufacturing method that enable precise assembly work without replacing hands.
本発明は、ロボットアームと、前記ロボットアームの先端に手首部を介して設けられ、組み付け部材を把持するハンドと、前記ハンドに作用する反力に基づき、前記ロボットアームの動作を制御する制御手段と、を備えたロボットシステムにおいて、前記手首部に設けられ、前記ハンドの変位によって基準点に生じるモーメントを検出する力覚センサと、カメラと、を備え、前記制御手段は、前記ハンドが把持している前記組み付け部材を撮像した画像データを前記カメラから取得し、前記画像データから前記ハンドが把持している前記組み付け部材の把持位置を割り出して、前記力覚センサの基準点と前記把持位置との距離を求め、前記基準点と前記把持位置との距離及び前記力覚センサにより検出されたモーメントから、前記ハンドに作用する反力を求めることを特徴とする。 The present invention provides a robot arm, a hand provided at the tip of the robot arm via a wrist, and grips an assembly member, and control means for controlling the operation of the robot arm based on a reaction force acting on the hand A force sensor provided at the wrist for detecting a moment generated at a reference point due to displacement of the hand, and a camera, and the control means is gripped by the hand. Image data obtained by imaging the assembly member is acquired from the camera, a gripping position of the assembly member gripped by the hand is determined from the image data, and a reference point of the force sensor and the gripping position are determined. The distance between the reference point and the gripping position and the moment detected by the force sensor are calculated on the hand. And obtaining a reaction force.
本発明によれば、カメラの撮像により得られた画像データを用いて力覚センサにおける基準点とハンドにおける組み付け部材の把持位置との距離を求めているので、組み付け作業の際にハンドに作用する反力を精確に求めることができる。これにより、精密な組み付け作業が可能となる。 According to the present invention, since the distance between the reference point of the force sensor and the gripping position of the assembly member in the hand is obtained using image data obtained by imaging with the camera, it acts on the hand during the assembly operation. The reaction force can be accurately determined. Thereby, a precise assembly work becomes possible.
以下、本発明を実施するための形態を、図面を参照しながら詳細に説明する。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.
[第1実施形態]
図1は、本発明の第1実施形態に係るロボットシステムの概略構成を示す説明図である。図1に示すように、ロボットシステム100は、床面に固定された複数のリンク201a〜201fが連結されてなる多関節のロボットアーム201を備えている。本第1実施形態では、ロボットアーム201は、6軸垂直多関節ロボットアームを例として説明するが、6軸垂直多関節ロボットアームに限定するものではない。
[First Embodiment]
FIG. 1 is an explanatory diagram showing a schematic configuration of the robot system according to the first embodiment of the present invention. As shown in FIG. 1, the robot system 100 includes an articulated
また、ロボットシステム100は、ロボットアーム201の先端リンク201fに手首部202を介して設けられ、組み付け部材W1を把持するハンド203を備えている。このハンド203に把持された組み付け部材W1は、床面に支持された被組み付け部材W2に組み付けるものである。
The robot system 100 further includes a
ハンド203は、先細りの板状物であり、互いに近接又は離間する一対のフィンガ203a,203bを有し、一対のフィンガ203a,203bが互いに近接することにより組み付け部材W1を把持するように構成されている。なお、本実施形態では、ハンド203が一対のフィンガ203a,203bを有する場合について説明するが、これに限定するものではなく、ハンド203は対象となる組み付け部材W1を把持することができるのであれば構造及び形状は任意である。
The
ロボットシステム100は、手首部202に設けられ、基準点Oを原点とするX軸、Y軸、Z軸の直交座標系において、ハンド203の変位によって基準点Oに生じるX軸及びY軸まわりのそれぞれのモーメントMx,Myを検出する力覚センサ204を備えている。力覚センサ204におけるZ軸は、基準点(回転中心位置)Oを通る、ロボットアーム201の先端リンク201fの軸線に平行に延びる座標軸である。X軸は、基準点Oを通り、Z軸に直交する座標軸である。Y軸は、基準点Oを通り、X軸及びZ軸に直交する座標軸である。
The robot system 100 is provided on the
力覚センサ204は、基準点Oに生じる、X軸およびY軸のそれぞれのモーメントMx,Myを検出するものであればよく、本第1実施形態では、3軸の力覚センサである。つまり、力覚センサ204は、X軸、Y軸、Z軸の3次元直交座標系におけるZ軸の並進方向の力Fz、X軸まわりのモーメントMx、及びY軸まわりのモーメントMyを検出するものである。なお、ハンド203及び力覚センサ204は、ハンド203と力覚センサ204が直列に構成されたものでも、ハンド203と力覚センサ204を一体で製作した力覚センサ一体型のハンドでも良い。また、3軸の力覚センサに限らず、例えば6軸の力覚センサを用いてもよい。
The
また、ロボットシステム100は、CCDイメージセンサ又はCMOSイメージセンサ等の撮像素子を有するカメラ205と、カメラ205に接続された画像処理装置206と、を備えている。また、ロボットシステム100は、力覚センサ204及び画像処理装置206に接続された検出力演算装置207と、画像処理装置206及び検出力演算装置207に接続されたロボット制御装置208と、を備えている。これら画像処理装置206、検出力演算装置207及びロボット制御装置208で制御手段としての制御システム200が構成されている。各装置206,207,208は、不図示のCPU(コンピュータ)、記憶装置(例えば、ROM、HDD、書き換え可能な不揮発性メモリ等)を備えたコンピュータシステムであり、それぞれの記憶装置に記憶されたプログラムに基づいて動作する。
The robot system 100 includes a
カメラ205は、ハンド203及びハンド203により把持している組み付け部材W1を撮像するものであり、本第1実施形態では、ロボットアーム201の先端リンク201fに固定されている。なお、カメラ205の固定位置はこれに限定するものではなく、例えばハンド203や不図示の架台に取り付けられていてもよい。
The
カメラ205により撮像された画像データPは画像処理装置206を介し位置情報としてロボット制御装置208へ送られる。また、ロボットアーム201を動作させ、ハンド203で把持している組み付け部材W1を被組み付け部材W2に接触させた際に、力覚センサ204により検出されたモーメントMx,Myの情報は検出力演算装置207を介してロボット制御装置208へ送られる。ロボット制御装置208は、それらの情報を基にロボットアーム201を制御し組立作業を行う。
Image data P captured by the
この作業系では様々な作業を行うが、その中に組み付け部材W1を被組み付け部材W2に組み付ける(挿入する)工程がある。この工程では正確に組み付け部材W1を被組み付け部材W2に挿入しなければならす、組み付け部材W1を被組み付け部材W2に組み立てるときの組み付け反力を力覚センサ204を用いて検知し、組み付け力を制御しながら組立を行う必要がある。正確な力覚センサ204による力検出が必要になる。
In this work system, various operations are performed, and there is a step of assembling (inserting) the assembly member W1 into the assembly member W2. In this process, the assembly member W1 must be accurately inserted into the assembly member W2, and the assembly reaction force when the assembly member W1 is assembled to the assembly member W2 is detected using the
本実施形態では、検出力演算装置207は、力覚センサ204により検出された各モーメントMx,Myの値を基に、組み付け部材W1を被組み付け部材W2に組み付ける際にハンド203に作用する反力Fx,Fyを求める。ロボット制御部であるロボット制御装置208は、検出力演算装置207から反力Fx,Fyの情報及びロボットアーム201の各関節角度θの情報を取得し、各関節の駆動部に各関節角度指令θ*を出力する。
In the present embodiment, the detection
図2は、ロボットシステム100のブロック図である。画像処理装置206は、特徴点位置計算部102として機能する。また、検出力演算装置207は、位置姿勢計算部104、把持位置計算部106、距離計算部108及び反力計算部116として機能する。距離計算部108は、第1の計算部110、測定データ記憶部112及び第2の計算部114を有してなる。
FIG. 2 is a block diagram of the robot system 100. The
以下、図2に示す各部の動作について、図3のフローチャートを参照しながら詳細に説明する。まず、ロボット制御部であるロボット制御装置208は、ロボットアーム201を動作させ、ハンド203を、組み付け部材W1を把持する位置へ移動させ、ハンド203に組み付け部材W1を把持させる(S1)。
Hereinafter, the operation of each unit shown in FIG. 2 will be described in detail with reference to the flowchart of FIG. First, the
次に、カメラ205は、ハンド203に把持された組み付け部材W1を撮像すると同時に、ロボットアーム201、ハンド203及び力覚センサ204のいずれかの、基準点Oに対する距離が既知である測定点を撮像する(S2)。本実施形態では、図4に示すように、ハンド203に測定点である測定マーカhが設けられている場合について説明する。この撮像動作では、ロボット制御装置208の制御により、撮像画像において基準点O、測定マーカh及び後述する把持位置Jが一直線上に配置されるようにロボットアーム201の姿勢を調整する。つまり、測定マーカhは、撮像画像において基準点Oと把持位置Jとを結ぶ直線上に位置するように、ハンド203に設けられている。カメラ205による組み付け部材W1及び測定マーカhの撮像動作により得られた画像データPは、画像処理装置206に送られる。
Next, the
次に、特徴点位置計算部102は、カメラ205の撮像により取得した画像データPから、ハンド203に把持された組み付け部材W1の複数の特徴点kの位置Kを計算する(S3)。これら特徴点kは、組み付け部材W1の位置姿勢を導出するのに必要な点として抽出されるものである。例えば図4(a)に示すように、組み付け部材W1が直線状の柱部材である場合には、特徴点k−1,k−2が抽出され、その位置(座標)K−1,K−2が計算される。また、例えば図4(b)に示すように、組み付け部材W1が曲線状の柱部材である場合には、特徴点k−3〜k−6が抽出され、その位置(座標)K−3〜K−6が計算される。
Next, the feature point position calculation unit 102 calculates the positions K of the plurality of feature points k of the assembly member W1 held by the
本実施形態では、測定マーカhも同時に撮像されており、特徴点位置計算部102は、ある3次元座標空間(例えばカメラ座標系の空間)を定義し、この3次元座標空間での各特徴点kの位置(座標)Kと、測定マーカhの位置(座標)Hと、を計算する。そして、画像処理装置206は、複数の特徴点kの位置(座標)Kの情報及び測定マーカhの位置(座標)Hの情報を検出力演算装置207へ送る。
In this embodiment, the measurement marker h is also imaged at the same time, and the feature point position calculation unit 102 defines a certain three-dimensional coordinate space (for example, a camera coordinate system space), and each feature point in this three-dimensional coordinate space. The position (coordinate) K of k and the position (coordinate) H of the measurement marker h are calculated. Then, the
位置姿勢計算部104は、特徴点位置計算部102により計算された各特徴点kの位置(座標)Kの情報から組み付け部材W1の位置姿勢Cを計算する(S4)。本実施形態では、位置姿勢計算部104は、ステップS3において定義された3次元座標空間での組み付け部材W1の位置姿勢Cを計算する。 The position / orientation calculation unit 104 calculates the position / orientation C of the assembly member W1 from the information on the position (coordinates) K of each feature point k calculated by the feature point position calculation unit 102 (S4). In the present embodiment, the position / orientation calculation unit 104 calculates the position / orientation C of the assembly member W1 in the three-dimensional coordinate space defined in step S3.
例えば、図4(a)に示す直線形状の組み付け部材W1の場合は、組み付け部材W1の位置姿勢Cとして、複数の特徴点k−1,k−2の座標K−1,K−2を結ぶ直線が求められる。また、図4(b)に示す曲線形状の組み付け部材W1の場合は、組み付け部材W1の位置姿勢Cとして、複数の特徴点k−3〜k−6の座標K−3〜K−6を結ぶ近似曲線が求められる。これら直線又は近似曲線により、組み付け部材W1の形状、位置、姿勢が推定される。 For example, in the case of the linear assembly member W1 shown in FIG. 4A, the coordinates K-1 and K-2 of a plurality of feature points k-1 and k-2 are connected as the position and orientation C of the assembly member W1. A straight line is required. In the case of the curved assembly member W1 shown in FIG. 4B, the coordinates K-3 to K-6 of a plurality of feature points k-3 to k-6 are connected as the position and orientation C of the assembly member W1. An approximate curve is determined. From these straight lines or approximate curves, the shape, position, and orientation of the assembly member W1 are estimated.
次に、把持位置計算部106は、位置姿勢計算部104により計算された位置姿勢Cの情報を用いて把持位置Jを計算する(S5)。本実施形態では、把持位置Jは、ステップS3で定義された3次元座標空間での位置(座標)として求められる。以上のステップS3〜S5の計算処理により、ハンド203が把持している組み付け部材W1の把持位置Jが割り出される。
Next, the gripping position calculation unit 106 calculates the gripping position J using the information on the position and orientation C calculated by the position and orientation calculation unit 104 (S5). In the present embodiment, the grip position J is obtained as a position (coordinates) in the three-dimensional coordinate space defined in step S3. The gripping position J of the assembly member W1 gripped by the
次に、距離計算部108は、把持位置計算部106により計算された把持位置Jの情報を用いて基準点Oと把持位置Jとの距離Lを計算する(S6)。 Next, the distance calculation unit 108 calculates the distance L between the reference point O and the gripping position J using the information on the gripping position J calculated by the gripping position calculation unit 106 (S6).
本実施形態における距離計算部108の動作について、図5を参照しながら、具体的に説明する。まず、距離計算部108の第1の計算部110は、3次元座標空間における把持位置Jの情報及び測定マーカhの位置Hの情報から、測定マーカhの位置Hと把持位置Jとの距離L’を計算する。ここで、測定データ記憶部112には、予め計測した力覚センサ204の基準点Oと、測定マーカhの位置Hとの距離L0が記憶されている。第2の計算部114は、第1の計算部110により計算された距離L’の値、及び記憶部112に記憶された基準点Oに対する測定マーカhの位置Hの距離L0の値から、基準点Oと把持位置Jとの距離Lを計算する。例えば、第2の計算部114は、L=L0+L’を計算する。なお、距離Lの値は、この式に基づいて算出される場合に限らず、基準点Oに対する測定マーカhの位置H及び把持位置Jに応じて求められる。
The operation of the distance calculation unit 108 in the present embodiment will be specifically described with reference to FIG. First, the first calculation unit 110 of the distance calculation unit 108 determines the distance L between the position H of the measurement marker h and the grip position J from the information of the grip position J and the information of the position H of the measurement marker h in the three-dimensional coordinate space. 'Calculate. Here, the measurement data storage unit 112 stores a distance L 0 between the reference point O of the
次に、反力計算部116は、力覚センサ204により検出されたモーメントMx,Myの値を、基準点Oとハンド203における組み付け部材W1の把持位置Jとの距離Lの値で除算することで、ハンド203に作用する反力Fx,Fyを計算する(S7)。具体的には、反力計算部116は、Fx=My/L,Fy=Mx/Lを計算する。そして、検出力演算装置207はその計算結果Fx,Fyをロボット制御装置208に出力する。
Next, the reaction force calculation unit 116 divides the values of the moments Mx and My detected by the
ロボット制御装置208は、ロボットアーム201を動作させ、組み付け部材W1を被組み付け部材W2に組み付ける作業を行わせるが、その作業中に、ハンド203に作用する反力Fx,Fyに基づきロボットアーム201の動作を制御するものである。つまり、ロボット制御装置208は、入力したFx,Fyの情報を用いて演算した関節角度指令θ*をロボットアーム201に出力する。
The
以上、本第1実施形態によれば、カメラ205の撮像により得られた画像データPを用いて力覚センサ204における基準点Oとハンド203における組み付け部材W1の把持位置Jとの距離Lを算出している。そして、反力計算部116では、反力Fx,Fyを求めるに当たって、距離Lの値として、一定値ではなく算出した値を用いているので、組み付け作業の際にハンド203に作用する反力Fx,Fyを精確に求めることができる。これにより、専用のハンドに交換することなく、精密な組み付け作業が可能となる。
As described above, according to the first embodiment, the distance L between the reference point O in the
また、力覚センサ204として3軸力覚センサを使用しても把持位置Jのズレに力覚センサ204の検出力への影響を少なくなり、小型で安価、高剛性、かつ検出精度の高い力覚センサ204を備えた、精密な組立作業が可能なロボットシステムを実現できる。
Further, even if a triaxial force sensor is used as the
また、把持位置Jのズレによる力覚センサ204の検出力への影響が少ないため、組み付け部材W1がバラ積になっているビンピッキングのような把持状態が不安定になるピッキング方法でも力覚センサ204の検出力を安定させることができる。これにより、把持状態が不安定になる作業においても精密な組立作業が可能なロボットシステムを実現することが可能になる。
Further, since the influence of the displacement of the gripping position J on the detection force of the
[第2実施形態]
次に、本発明の第2実施形態に係るロボットシステムについて説明する。図6は、本発明の第2実施形態に係るロボットシステムのブロック図である。なお、上記第1実施形態と同様の構成については、同一符号を付し、その説明は省略する。上記第1実施形態では、特徴点位置計算部102において、ある3次元座標空間(例えばカメラ座標系の空間)を定義し、この3次元座標空間での各特徴点kの位置(座標)Kと、測定マーカhの位置(座標)Hと、を計算するようにした。
[Second Embodiment]
Next, a robot system according to a second embodiment of the invention will be described. FIG. 6 is a block diagram of a robot system according to the second embodiment of the present invention. In addition, about the structure similar to the said 1st Embodiment, the same code | symbol is attached | subjected and the description is abbreviate | omitted. In the first embodiment, the feature point position calculation unit 102 defines a certain three-dimensional coordinate space (for example, a space in the camera coordinate system), and the position (coordinate) K of each feature point k in the three-dimensional coordinate space and The position (coordinates) H of the measurement marker h is calculated.
これに対し、本第2実施形態では、特徴点位置計算部102Aは、測定点である測定マーカhの位置Hを基準(基準点)とした3次元座標空間における各特徴点kの位置Kを計算する。つまり、測定マーカhが基準点であるので、その位置Hの座標を計算する必要がない。 On the other hand, in the second embodiment, the feature point position calculation unit 102A determines the position K of each feature point k in the three-dimensional coordinate space using the position H of the measurement marker h that is a measurement point as a reference (reference point). calculate. That is, since the measurement marker h is a reference point, it is not necessary to calculate the coordinates of the position H.
したがって、位置姿勢計算部104Aでは、測定マーカhの位置Hを基準(基準点)とした3次元座標空間での組み付け部材W1の位置姿勢Cを計算し、把持位置計算部106Aでは、その3次元座標空間での把持位置Jを計算する。 Therefore, the position / orientation calculation unit 104A calculates the position / orientation C of the assembly member W1 in the three-dimensional coordinate space with the position H of the measurement marker h as a reference (reference point), and the gripping position calculation unit 106A calculates the three-dimensional The gripping position J in the coordinate space is calculated.
そして、距離計算部108Aの第1の計算部110Aは、その3次元座標空間における把持位置Jの情報から、測定マーカhの位置Hと把持位置Jとの距離L’を計算する。つまり、測定マーカhの位置Hは3次元座標空間での基準点であるので、その位置Hの情報がなくても、距離L’を計算することができる。 Then, the first calculation unit 110A of the distance calculation unit 108A calculates a distance L ′ between the position H of the measurement marker h and the gripping position J from the information on the gripping position J in the three-dimensional coordinate space. That is, since the position H of the measurement marker h is a reference point in the three-dimensional coordinate space, the distance L ′ can be calculated without information on the position H.
次に、距離計算部108Aの第2の計算部114は、第1の計算部110Aにより計算された距離L’の値、及び既知である基準点Oと測定マーカhとの距離L0の値から、基準点Oと把持位置Jとの距離Lを計算する。 Next, the second calculation unit 114 of the distance calculation unit 108A calculates the value of the distance L ′ calculated by the first calculation unit 110A and the value of the known distance L 0 between the reference point O and the measurement marker h. From this, the distance L between the reference point O and the gripping position J is calculated.
以上、本第2実施形態では、上記第1実施形態と同様、反力計算部116において算出した距離Lの値を用いて反力Fx,Fyを精確に求めことができる。これにより、専用のハンドに交換することなく、精密な組み付け作業が可能となる。 As described above, in the second embodiment, the reaction forces Fx and Fy can be accurately obtained using the value of the distance L calculated by the reaction force calculation unit 116, as in the first embodiment. As a result, it is possible to perform a precise assembling work without exchanging with a dedicated hand.
[第3実施形態]
次に、本発明の第3実施形態に係るロボットシステムについて説明する。図7は、本発明の第3実施形態に係るロボットシステムのブロック図である。なお、上記第1、第2実施形態と同様の構成については、同一符号を付し、その説明は省略する。
[Third Embodiment]
Next, a robot system according to a third embodiment of the invention will be described. FIG. 7 is a block diagram of a robot system according to the third embodiment of the present invention. In addition, about the structure similar to the said 1st, 2nd embodiment, the same code | symbol is attached | subjected and the description is abbreviate | omitted.
上記第1、第2実施形態では、ハンド203に測定マーカhを設けた場合について説明したが、本第3実施形態では、測定マーカhは、力覚センサ204の基準点Oと一致する位置に設けられている。
In the first and second embodiments, the case where the measurement marker h is provided on the
カメラ205は、ハンド203に把持された組み付け部材W1を撮像すると同時に、力覚センサ204の基準点Oに設けられた測定マーカhを撮像する。
The
特徴点位置計算部102Aは、測定マーカhの位置H、即ち基準点Oを基準とする3次元座標空間における各特徴点kの位置Kを計算する。 The feature point position calculation unit 102A calculates the position H of the measurement marker h, that is, the position K of each feature point k in the three-dimensional coordinate space with reference to the reference point O.
そして、距離計算部108Bは、その3次元座標空間における把持位置Jの情報から、測定マーカhの位置Hと把持位置Jとの距離L’を、基準点Oと把持位置Jとの距離Lとして計算する。つまり、上記第1、第2実施形態において、L0=0とした場合と同じ算出結果が得られる。これにより、上記第1、第2実施形態における第2の計算部114の計算を省略することが可能となる。また、本第3実施形態においても、上記第1実施形態と同様に、反力Fx,Fyを精確に求めことができる。これによって、専用のハンドに交換することなく、精密な組み付け作業が可能となる。 Then, the distance calculation unit 108B sets the distance L ′ between the position H of the measurement marker h and the gripping position J as the distance L between the reference point O and the gripping position J from the information on the gripping position J in the three-dimensional coordinate space. calculate. That is, in the first and second embodiments, the same calculation result as that obtained when L 0 = 0 is obtained. Thereby, the calculation of the second calculation unit 114 in the first and second embodiments can be omitted. Also in the third embodiment, the reaction forces Fx and Fy can be accurately obtained as in the first embodiment. As a result, it is possible to perform a precise assembling work without exchanging with a dedicated hand.
なお、上記実施の形態に基づいて本発明を説明したが、本発明はこれに限定されるものではない。上記第1、第2実施形態では、カメラ205をロボットアーム201の先端リンク201fに固定した場合について説明したが、カメラ205をハンド203に固定してもよい。この場合、カメラ205に対するハンド203の位置姿勢は変化しないため、測定マーカhは省略できる。つまり、カメラは組み付け部材を撮像すればよい。そして、特徴点位置計算部では、カメラ205のカメラ座標系で組み付け部材W1の各特徴点kの位置Kを求めればよく、把持位置計算部においても、カメラ座標系での把持位置Jが計算されることとなる。そして、カメラ座標系での力覚センサ204の基準点の位置を予め測定して記憶部に記憶させておけば、距離計算部は、この基準点に対する把持位置Jの距離Lを直接求めることができる。
Although the present invention has been described based on the above embodiment, the present invention is not limited to this. In the first and second embodiments, the case where the
また、上記第1、第2実施形態では、測定点として測定マーカhを別途設けた場合について説明したが、これに限定するものではなく、突起などの既存の形状を測定点としてもよい。 In the first and second embodiments, the case where the measurement marker h is separately provided as the measurement point has been described. However, the present invention is not limited to this, and an existing shape such as a protrusion may be used as the measurement point.
また、組み付け作業を行う場合には、組み付け部材W1と被組み付け部材W2の穴の位置をカメラで撮像し、組み付け部材W1と嵌合先の相対位置を検出し、ロボットアーム201の位置補正を行う方法が一般的である。この方法をとる際、カメラ205において、ステップS1で被組み付け部材W2の穴も同時に撮像してもよい。これにより、アーム位置補正用の画像と力覚センサ出力補正用の画像とを同時に撮影でき、タクトの短縮を図ることも可能である。
Further, when performing assembly work, the positions of the holes of the assembly member W1 and the assembly target member W2 are imaged with a camera, the relative positions of the assembly member W1 and the fitting destination are detected, and the position of the
また、上記第1〜第3実施形態では、制御手段としての制御システム200が、3つのコンピュータシステム(装置206,207,208)により構成されている場合について説明したが、これに限定するものではない。コンピュータシステムの数は、3つに限らず、1つのコンピュータシステムで制御システムが構成されていてもよい。この場合、1つのコンピュータシステムが上述した各部として機能する。また、制御システムが、2つのコンピュータシステム又は4つ以上のコンピュータシステムで構成されていてもよい。この場合、上述した各部は、これらコンピュータシステムで分担して機能する。
In the first to third embodiments, the case where the control system 200 as the control unit is configured by three computer systems (
また、上記第1〜第3実施形態では、ロボットアーム201が複数のリンクが連結された多関節の場合について説明したが、これに限定するものではなく、ロボットアームがスカラーロボットやワンリンクのロボットであってもよい。
In the first to third embodiments, the case where the
200…制御システム(制御手段)、201…ロボットアーム、203…ハンド、204…力覚センサ、205…カメラ、W1…組み付け部材 DESCRIPTION OF SYMBOLS 200 ... Control system (control means), 201 ... Robot arm, 203 ... Hand, 204 ... Force sensor, 205 ... Camera, W1 ... Assembly member
Claims (5)
前記手首部に設けられ、前記ハンドの変位によって基準点に生じるモーメントを検出する力覚センサと、
カメラと、を備え、
前記制御手段は、前記ハンドが把持している前記組み付け部材を撮像した画像データを前記カメラから取得し、前記画像データから前記ハンドが把持している前記組み付け部材の把持位置を割り出して、前記力覚センサの基準点と前記把持位置との距離を求め、前記基準点と前記把持位置との距離及び前記力覚センサにより検出されたモーメントから、前記ハンドに作用する反力を求めることを特徴とするロボットシステム。 A robot arm, a hand provided at the tip of the robot arm via a wrist, and gripping an assembly member; and a control means for controlling the operation of the robot arm based on a reaction force acting on the hand. In the robot system
A force sensor provided at the wrist for detecting a moment generated at a reference point due to displacement of the hand;
And a camera,
The control means acquires image data obtained by imaging the assembly member held by the hand from the camera, calculates a holding position of the assembly member held by the hand from the image data, and calculates the force. A distance between a reference point of a sense sensor and the grip position is obtained, and a reaction force acting on the hand is obtained from a distance between the reference point and the grip position and a moment detected by the force sensor. Robot system to do.
前記カメラは、前記ハンドに把持された前記組み付け部材を撮像すると同時に、前記測定点を撮像し、
前記制御手段は、前記画像データから、前記測定点と前記把持位置との距離を求め、前記基準点と前記測定点との距離、及び前記測定点と前記把持位置との距離に基づき、前記基準点と前記把持位置との距離を求めることを特徴とする請求項1又は2に記載のロボットシステム。 A measurement point with a known distance from the reference point is provided on any of the robot arm, the hand, and the force sensor,
The camera images the measurement point simultaneously with imaging the assembly member held by the hand,
The control means obtains a distance between the measurement point and the gripping position from the image data, and based on the distance between the reference point and the measurement point and the distance between the measurement point and the gripping position, The robot system according to claim 1 or 2, wherein a distance between a point and the gripping position is obtained.
前記カメラは、前記ハンドに把持された前記組み付け部材を撮像すると同時に、前記測定点を撮像し、
前記制御手段は、前記画像データから、前記測定点と前記把持位置との距離を求めることで、前記基準点と前記把持位置との距離を求めることを特徴とする請求項1又は2に記載のロボットシステム。 The force sensor is provided with a measurement point at a position corresponding to the reference point,
The camera images the measurement point simultaneously with imaging the assembly member held by the hand,
The said control means calculates | requires the distance of the said reference point and the said holding | grip position by calculating | requiring the distance of the said measurement point and the said holding | grip position from the said image data. Robot system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011149693A JP5787646B2 (en) | 2011-07-06 | 2011-07-06 | Robot system and component manufacturing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011149693A JP5787646B2 (en) | 2011-07-06 | 2011-07-06 | Robot system and component manufacturing method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013013987A JP2013013987A (en) | 2013-01-24 |
JP2013013987A5 JP2013013987A5 (en) | 2014-08-14 |
JP5787646B2 true JP5787646B2 (en) | 2015-09-30 |
Family
ID=47687174
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011149693A Expired - Fee Related JP5787646B2 (en) | 2011-07-06 | 2011-07-06 | Robot system and component manufacturing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5787646B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016187844A (en) | 2015-03-30 | 2016-11-04 | セイコーエプソン株式会社 | Robot, robot control device and robot system |
KR101987824B1 (en) * | 2017-06-22 | 2019-06-13 | 아엠아이테크 주식회사 | Dual Arm Robot System |
KR101987823B1 (en) * | 2017-06-22 | 2019-06-13 | 아엠아이테크 주식회사 | Dual Arm Robot System |
JP7187765B2 (en) * | 2017-07-24 | 2022-12-13 | セイコーエプソン株式会社 | robot controller |
JP2019173393A (en) * | 2018-03-28 | 2019-10-10 | 前田建設工業株式会社 | Steel support work building method and building system |
JP7351667B2 (en) * | 2019-08-01 | 2023-09-27 | ファナック株式会社 | Robot control system, control method, computer program, and control device that performs multi-point mating |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3217351B2 (en) * | 1990-06-07 | 2001-10-09 | 株式会社東芝 | Force control device and robot using the same |
JP3626303B2 (en) * | 1996-12-18 | 2005-03-09 | 本田技研工業株式会社 | Foot ground contact position detector for legged mobile robot |
JP5236596B2 (en) * | 2009-08-19 | 2013-07-17 | ファナック株式会社 | Processing robot system |
-
2011
- 2011-07-06 JP JP2011149693A patent/JP5787646B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013013987A (en) | 2013-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108453701B (en) | Method for controlling robot, method for teaching robot, and robot system | |
US9517563B2 (en) | Robot system using visual feedback | |
KR102084656B1 (en) | Automatic calibration method for robotic systems | |
US9969088B2 (en) | Force sensor correcting method | |
US20160184996A1 (en) | Robot, robot system, control apparatus, and control method | |
JP5787646B2 (en) | Robot system and component manufacturing method | |
US9517560B2 (en) | Robot system and calibration method of the robot system | |
JP3946711B2 (en) | Robot system | |
JP5371927B2 (en) | Coordinate system calibration method and robot system | |
JP5860021B2 (en) | Fastening device, robot system, and fastening method for fastening a plurality of fastening members | |
JP6025386B2 (en) | Image measuring apparatus, image measuring method, and image measuring program | |
US20160279800A1 (en) | Robot, robot control device, and robotic system | |
JP2014018931A (en) | Control system, program and control method of machinery | |
US20130338832A1 (en) | Robot controller which conducts a force control by using a three-axial force sensor | |
KR20080088165A (en) | Robot calibration method | |
JP7258516B2 (en) | Calibration method and gripping system | |
JP2012137421A (en) | Control device of robot performing force control using triaxial sensor | |
US8761936B2 (en) | Teaching line correcting apparatus, teaching line correcting method, and program thereof | |
JP6322949B2 (en) | Robot control apparatus, robot system, robot, robot control method, and robot control program | |
JP6003312B2 (en) | Robot system | |
JP6023251B2 (en) | Robot system | |
JP2016052699A (en) | Robot control system and robot control method | |
KR102269776B1 (en) | Calibration Method of Robot for Interventional treatment | |
JP6011089B2 (en) | Robot system and robot control apparatus and method | |
JP2016182648A (en) | Robot, robot control device and robot system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20130228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140702 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140702 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150630 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150728 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5787646 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |