JP5787646B2 - Robot system and component manufacturing method - Google Patents

Robot system and component manufacturing method Download PDF

Info

Publication number
JP5787646B2
JP5787646B2 JP2011149693A JP2011149693A JP5787646B2 JP 5787646 B2 JP5787646 B2 JP 5787646B2 JP 2011149693 A JP2011149693 A JP 2011149693A JP 2011149693 A JP2011149693 A JP 2011149693A JP 5787646 B2 JP5787646 B2 JP 5787646B2
Authority
JP
Japan
Prior art keywords
hand
assembly member
distance
reference point
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011149693A
Other languages
Japanese (ja)
Other versions
JP2013013987A5 (en
JP2013013987A (en
Inventor
真路 上野
真路 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011149693A priority Critical patent/JP5787646B2/en
Publication of JP2013013987A publication Critical patent/JP2013013987A/en
Publication of JP2013013987A5 publication Critical patent/JP2013013987A5/en
Application granted granted Critical
Publication of JP5787646B2 publication Critical patent/JP5787646B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、力覚センサを用いて、組み付け部材を被組み付け部材に組み付けるときの組み付け反力を検知し、ロボットアームの各関節の動作を制御するロボットシステム、及び部品の製造方法に関するものである。 The present invention relates to a robot system that detects an assembly reaction force when an assembly member is assembled to an assembly member using a force sensor , and controls the operation of each joint of a robot arm , and a component manufacturing method. .

従来、ロボットシステムは、例えば産業用ロボットの手首部に設けられた力覚センサを備え、組立作業に生じるハンドの変位を検出し、その検出値に応じてロボットの動作を修正しながら組立作業を行うものが知られている(特許文献1参照)。この際、組み付け部材と被組み付け部材との間に相対的な位置誤差がある場合、組み付け部材が被組み付け部材に当接することにより、ロボットアームに対するハンドの相対的な変位が検出される。そして、あらかじめ定められた相対変位量の許容値の範囲内で挿入作業を行なうことで、組み付け部材や被組み付け部材、ハンドなどの破損を防止し、良好な状態で組み付けを行うことを実現するものである。   Conventionally, a robot system includes, for example, a force sensor provided at the wrist of an industrial robot, detects the displacement of the hand generated during the assembly work, and performs the assembly work while correcting the operation of the robot according to the detected value. What is performed is known (see Patent Document 1). At this time, when there is a relative positional error between the assembled member and the assembled member, the relative displacement of the hand with respect to the robot arm is detected by the assembled member coming into contact with the assembled member. And, by performing the insertion work within the range of the allowable value of the predetermined relative displacement, it is possible to prevent damage to the assembled member, the assembled member, the hand, etc., and to perform the assembly in a good state It is.

ところが、ハンドにおいては、決められた位置で組み付け部材を把持する必要があり、ハンドにおける把持位置がずれると、ハンドに作用する力の作用点が変化し、ハンドの変位が変化してしまう。これにより力覚センサにより検出されるモーメントの値も変化してしまい、精確な組み付け作業ができなくなる。このため、ワークを把持するハンドの一対のフィンガの形状を把持する部品の特徴に合わせ製作することで、組み付け部材の把持位置を規定するという方法が一般的である。   However, in the hand, it is necessary to grip the assembly member at a predetermined position. When the gripping position in the hand is shifted, the point of action of the force acting on the hand changes, and the displacement of the hand changes. As a result, the value of the moment detected by the force sensor also changes, and accurate assembly work cannot be performed. For this reason, it is common to define the gripping position of the assembly member by making the shape of the pair of fingers of the hand gripping the workpiece according to the characteristics of the gripping component.

特開昭61−241083号公報JP-A-61-241083

しかしながら、ワークを把持するハンドの形状をワークの特徴に合わせ製作することでワークの把持位置を規定する方法では、作業工程又はワークごとに専用のハンドが必要になるためコストがかかるという問題がある。また、この方法では1つのロボットシステムで複数の作業工程を行おうとすると、把持するワークが変わるたびにハンドを交換するといった段取り変えが必要となる。逆に、ハンドの交換といった段取り変えを行わないようにすると、他の作業工程を同じハンドで行うことが困難であるため、複数のロボットシステムで作業を細かく分けなければならず、コストが増加すると共に、広いスペースが必要になる。   However, the method of defining the gripping position of the workpiece by manufacturing the shape of the hand that grips the workpiece according to the characteristics of the workpiece has a problem that a cost is required because a dedicated hand is required for each work process or workpiece. . Further, in this method, when a plurality of work steps are performed by one robot system, it is necessary to change the setup such that the hand is changed whenever the work to be gripped changes. On the other hand, if you do not change the setup such as changing hands, it is difficult to perform other work steps with the same hand, so the work must be subdivided by multiple robot systems, increasing costs. In addition, a large space is required.

そこで、本発明は、ハンドの交換を行わずに精密な組み付け作業が可能となるロボットシステム、及び部品の製造方法を提供することを目的とするものである。 SUMMARY OF THE INVENTION An object of the present invention is to provide a robot system and a component manufacturing method that enable precise assembly work without replacing hands.

本発明は、ロボットアームと、前記ロボットアームの先端に手首部を介して設けられ、組み付け部材を把持するハンドと、前記ハンドに作用する反力に基づき、前記ロボットアームの動作を制御する制御手段と、を備えたロボットシステムにおいて、前記手首部に設けられ、前記ハンドの変位によって基準点に生じるモーメントを検出する力覚センサと、カメラと、を備え、前記制御手段は、前記ハンドが把持している前記組み付け部材を撮像した画像データを前記カメラから取得し、前記画像データから前記ハンドが把持している前記組み付け部材の把持位置を割り出して、前記力覚センサの基準点と前記把持位置との距離を求め、前記基準点と前記把持位置との距離及び前記力覚センサにより検出されたモーメントから、前記ハンドに作用する反力を求めることを特徴とする。   The present invention provides a robot arm, a hand provided at the tip of the robot arm via a wrist, and grips an assembly member, and control means for controlling the operation of the robot arm based on a reaction force acting on the hand A force sensor provided at the wrist for detecting a moment generated at a reference point due to displacement of the hand, and a camera, and the control means is gripped by the hand. Image data obtained by imaging the assembly member is acquired from the camera, a gripping position of the assembly member gripped by the hand is determined from the image data, and a reference point of the force sensor and the gripping position are determined. The distance between the reference point and the gripping position and the moment detected by the force sensor are calculated on the hand. And obtaining a reaction force.

本発明によれば、カメラの撮像により得られた画像データを用いて力覚センサにおける基準点とハンドにおける組み付け部材の把持位置との距離を求めているので、組み付け作業の際にハンドに作用する反力を精確に求めることができる。これにより、精密な組み付け作業が可能となる。   According to the present invention, since the distance between the reference point of the force sensor and the gripping position of the assembly member in the hand is obtained using image data obtained by imaging with the camera, it acts on the hand during the assembly operation. The reaction force can be accurately determined. Thereby, a precise assembly work becomes possible.

本発明の第1実施形態に係るロボットシステムの概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the robot system which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係るロボットシステムのブロック図である。1 is a block diagram of a robot system according to a first embodiment of the present invention. 本発明の第1実施形態に係るロボットシステムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the robot system which concerns on 1st Embodiment of this invention. ハンドにより組み付け部材が把持されている状態を示す図であり、(a)は組み付け部材が直線状の場合、(b)は組み付け部材が曲線状の場合を示している。It is a figure which shows the state in which the assembly member is hold | gripped by the hand, (a) shows the case where an assembly member is linear, (b) has shown the case where an assembly member is curvilinear. 力覚センサの基準点、ハンドの測定点及び組み付け部材の把持位置の関係を説明するための図である。It is a figure for demonstrating the relationship between the reference point of a force sensor, the measurement point of a hand, and the holding position of an assembly member. 本発明の第2実施形態に係るロボットシステムのブロック図である。It is a block diagram of the robot system concerning a 2nd embodiment of the present invention. 本発明の第3実施形態に係るロボットシステムのブロック図である。It is a block diagram of the robot system concerning a 3rd embodiment of the present invention.

以下、本発明を実施するための形態を、図面を参照しながら詳細に説明する。   Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.

[第1実施形態]
図1は、本発明の第1実施形態に係るロボットシステムの概略構成を示す説明図である。図1に示すように、ロボットシステム100は、床面に固定された複数のリンク201a〜201fが連結されてなる多関節のロボットアーム201を備えている。本第1実施形態では、ロボットアーム201は、6軸垂直多関節ロボットアームを例として説明するが、6軸垂直多関節ロボットアームに限定するものではない。
[First Embodiment]
FIG. 1 is an explanatory diagram showing a schematic configuration of the robot system according to the first embodiment of the present invention. As shown in FIG. 1, the robot system 100 includes an articulated robot arm 201 formed by connecting a plurality of links 201a to 201f fixed to a floor surface. In the first embodiment, the robot arm 201 is described as an example of a 6-axis vertical articulated robot arm, but is not limited to a 6-axis vertical articulated robot arm.

また、ロボットシステム100は、ロボットアーム201の先端リンク201fに手首部202を介して設けられ、組み付け部材W1を把持するハンド203を備えている。このハンド203に把持された組み付け部材W1は、床面に支持された被組み付け部材W2に組み付けるものである。   The robot system 100 further includes a hand 203 that is provided on the tip link 201f of the robot arm 201 via the wrist 202 and holds the assembly member W1. The assembly member W1 held by the hand 203 is assembled to the assembly member W2 supported on the floor surface.

ハンド203は、先細りの板状物であり、互いに近接又は離間する一対のフィンガ203a,203bを有し、一対のフィンガ203a,203bが互いに近接することにより組み付け部材W1を把持するように構成されている。なお、本実施形態では、ハンド203が一対のフィンガ203a,203bを有する場合について説明するが、これに限定するものではなく、ハンド203は対象となる組み付け部材W1を把持することができるのであれば構造及び形状は任意である。   The hand 203 is a tapered plate-like object, has a pair of fingers 203a and 203b that are close to or away from each other, and is configured to grip the assembly member W1 when the pair of fingers 203a and 203b are close to each other. Yes. In the present embodiment, the case where the hand 203 has a pair of fingers 203a and 203b will be described. However, the present invention is not limited to this, and the hand 203 can hold the target assembly member W1. The structure and shape are arbitrary.

ロボットシステム100は、手首部202に設けられ、基準点Oを原点とするX軸、Y軸、Z軸の直交座標系において、ハンド203の変位によって基準点Oに生じるX軸及びY軸まわりのそれぞれのモーメントMx,Myを検出する力覚センサ204を備えている。力覚センサ204におけるZ軸は、基準点(回転中心位置)Oを通る、ロボットアーム201の先端リンク201fの軸線に平行に延びる座標軸である。X軸は、基準点Oを通り、Z軸に直交する座標軸である。Y軸は、基準点Oを通り、X軸及びZ軸に直交する座標軸である。   The robot system 100 is provided on the wrist 202 and has an X-axis, Y-axis, and Z-axis orthogonal coordinate system with the reference point O as the origin, and the X and Y axes generated at the reference point O due to the displacement of the hand 203. A force sensor 204 for detecting the moments Mx and My is provided. The Z axis in the force sensor 204 is a coordinate axis that passes through the reference point (rotation center position) O and extends in parallel with the axis of the tip link 201 f of the robot arm 201. The X axis is a coordinate axis that passes through the reference point O and is orthogonal to the Z axis. The Y axis is a coordinate axis that passes through the reference point O and is orthogonal to the X axis and the Z axis.

力覚センサ204は、基準点Oに生じる、X軸およびY軸のそれぞれのモーメントMx,Myを検出するものであればよく、本第1実施形態では、3軸の力覚センサである。つまり、力覚センサ204は、X軸、Y軸、Z軸の3次元直交座標系におけるZ軸の並進方向の力Fz、X軸まわりのモーメントMx、及びY軸まわりのモーメントMyを検出するものである。なお、ハンド203及び力覚センサ204は、ハンド203と力覚センサ204が直列に構成されたものでも、ハンド203と力覚センサ204を一体で製作した力覚センサ一体型のハンドでも良い。また、3軸の力覚センサに限らず、例えば6軸の力覚センサを用いてもよい。   The force sensor 204 only needs to detect the X-axis and Y-axis moments Mx and My generated at the reference point O. In the first embodiment, the force sensor 204 is a 3-axis force sensor. That is, the force sensor 204 detects the force Fz in the translation direction of the Z axis, the moment Mx around the X axis, and the moment My around the Y axis in the three-dimensional orthogonal coordinate system of the X axis, the Y axis, and the Z axis. It is. The hand 203 and the force sensor 204 may be configured such that the hand 203 and the force sensor 204 are configured in series, or a force sensor integrated hand in which the hand 203 and the force sensor 204 are integrally manufactured. Further, not limited to a triaxial force sensor, for example, a six axis force sensor may be used.

また、ロボットシステム100は、CCDイメージセンサ又はCMOSイメージセンサ等の撮像素子を有するカメラ205と、カメラ205に接続された画像処理装置206と、を備えている。また、ロボットシステム100は、力覚センサ204及び画像処理装置206に接続された検出力演算装置207と、画像処理装置206及び検出力演算装置207に接続されたロボット制御装置208と、を備えている。これら画像処理装置206、検出力演算装置207及びロボット制御装置208で制御手段としての制御システム200が構成されている。各装置206,207,208は、不図示のCPU(コンピュータ)、記憶装置(例えば、ROM、HDD、書き換え可能な不揮発性メモリ等)を備えたコンピュータシステムであり、それぞれの記憶装置に記憶されたプログラムに基づいて動作する。   The robot system 100 includes a camera 205 having an image sensor such as a CCD image sensor or a CMOS image sensor, and an image processing device 206 connected to the camera 205. The robot system 100 also includes a detection force calculation device 207 connected to the force sensor 204 and the image processing device 206, and a robot control device 208 connected to the image processing device 206 and the detection force calculation device 207. Yes. The image processing device 206, the detection force calculation device 207, and the robot control device 208 constitute a control system 200 as a control means. Each of the devices 206, 207, and 208 is a computer system that includes a CPU (computer) (not shown) and a storage device (eg, ROM, HDD, rewritable nonvolatile memory, etc.), and is stored in each storage device. Operates based on the program.

カメラ205は、ハンド203及びハンド203により把持している組み付け部材W1を撮像するものであり、本第1実施形態では、ロボットアーム201の先端リンク201fに固定されている。なお、カメラ205の固定位置はこれに限定するものではなく、例えばハンド203や不図示の架台に取り付けられていてもよい。   The camera 205 images the hand 203 and the assembly member W1 held by the hand 203, and is fixed to the tip link 201f of the robot arm 201 in the first embodiment. The fixing position of the camera 205 is not limited to this, and may be attached to the hand 203 or a gantry (not shown), for example.

カメラ205により撮像された画像データPは画像処理装置206を介し位置情報としてロボット制御装置208へ送られる。また、ロボットアーム201を動作させ、ハンド203で把持している組み付け部材W1を被組み付け部材W2に接触させた際に、力覚センサ204により検出されたモーメントMx,Myの情報は検出力演算装置207を介してロボット制御装置208へ送られる。ロボット制御装置208は、それらの情報を基にロボットアーム201を制御し組立作業を行う。   Image data P captured by the camera 205 is sent to the robot control device 208 as position information via the image processing device 206. Further, when the robot arm 201 is operated and the assembly member W1 gripped by the hand 203 is brought into contact with the assembly member W2, information on the moments Mx and My detected by the force sensor 204 is detected by a detection force calculation device. It is sent to the robot controller 208 via 207. The robot controller 208 controls the robot arm 201 based on the information and performs assembly work.

この作業系では様々な作業を行うが、その中に組み付け部材W1を被組み付け部材W2に組み付ける(挿入する)工程がある。この工程では正確に組み付け部材W1を被組み付け部材W2に挿入しなければならす、組み付け部材W1を被組み付け部材W2に組み立てるときの組み付け反力を力覚センサ204を用いて検知し、組み付け力を制御しながら組立を行う必要がある。正確な力覚センサ204による力検出が必要になる。   In this work system, various operations are performed, and there is a step of assembling (inserting) the assembly member W1 into the assembly member W2. In this process, the assembly member W1 must be accurately inserted into the assembly member W2, and the assembly reaction force when the assembly member W1 is assembled to the assembly member W2 is detected using the force sensor 204 to control the assembly force. However, it is necessary to assemble it. An accurate force detection by the force sensor 204 is required.

本実施形態では、検出力演算装置207は、力覚センサ204により検出された各モーメントMx,Myの値を基に、組み付け部材W1を被組み付け部材W2に組み付ける際にハンド203に作用する反力Fx,Fyを求める。ロボット制御部であるロボット制御装置208は、検出力演算装置207から反力Fx,Fyの情報及びロボットアーム201の各関節角度θの情報を取得し、各関節の駆動部に各関節角度指令θを出力する。 In the present embodiment, the detection force calculation device 207 reacts on the hand 203 when assembling the assembly member W1 to the assembly member W2 based on the values of the moments Mx and My detected by the force sensor 204. Find Fx, Fy. The robot control device 208, which is a robot control unit, acquires information on the reaction forces Fx and Fy and information on each joint angle θ of the robot arm 201 from the detection force calculation device 207, and sends each joint angle command θ to each joint drive unit. * Is output.

図2は、ロボットシステム100のブロック図である。画像処理装置206は、特徴点位置計算部102として機能する。また、検出力演算装置207は、位置姿勢計算部104、把持位置計算部106、距離計算部108及び反力計算部116として機能する。距離計算部108は、第1の計算部110、測定データ記憶部112及び第2の計算部114を有してなる。   FIG. 2 is a block diagram of the robot system 100. The image processing device 206 functions as the feature point position calculation unit 102. The detection force calculation device 207 functions as the position / orientation calculation unit 104, the gripping position calculation unit 106, the distance calculation unit 108, and the reaction force calculation unit 116. The distance calculation unit 108 includes a first calculation unit 110, a measurement data storage unit 112, and a second calculation unit 114.

以下、図2に示す各部の動作について、図3のフローチャートを参照しながら詳細に説明する。まず、ロボット制御部であるロボット制御装置208は、ロボットアーム201を動作させ、ハンド203を、組み付け部材W1を把持する位置へ移動させ、ハンド203に組み付け部材W1を把持させる(S1)。   Hereinafter, the operation of each unit shown in FIG. 2 will be described in detail with reference to the flowchart of FIG. First, the robot control device 208, which is a robot controller, operates the robot arm 201 to move the hand 203 to a position where the assembly member W1 is gripped, and causes the hand 203 to grip the assembly member W1 (S1).

次に、カメラ205は、ハンド203に把持された組み付け部材W1を撮像すると同時に、ロボットアーム201、ハンド203及び力覚センサ204のいずれかの、基準点Oに対する距離が既知である測定点を撮像する(S2)。本実施形態では、図4に示すように、ハンド203に測定点である測定マーカhが設けられている場合について説明する。この撮像動作では、ロボット制御装置208の制御により、撮像画像において基準点O、測定マーカh及び後述する把持位置Jが一直線上に配置されるようにロボットアーム201の姿勢を調整する。つまり、測定マーカhは、撮像画像において基準点Oと把持位置Jとを結ぶ直線上に位置するように、ハンド203に設けられている。カメラ205による組み付け部材W1及び測定マーカhの撮像動作により得られた画像データPは、画像処理装置206に送られる。   Next, the camera 205 images the assembly member W1 gripped by the hand 203, and at the same time, images a measurement point whose distance from the reference point O is one of the robot arm 201, the hand 203, and the force sensor 204. (S2). In the present embodiment, as shown in FIG. 4, a case where a measurement marker h that is a measurement point is provided on the hand 203 will be described. In this imaging operation, the posture of the robot arm 201 is adjusted by the control of the robot controller 208 so that the reference point O, the measurement marker h, and a gripping position J described later are arranged in a straight line in the captured image. That is, the measurement marker h is provided on the hand 203 so as to be positioned on a straight line connecting the reference point O and the gripping position J in the captured image. Image data P obtained by the imaging operation of the assembly member W1 and the measurement marker h by the camera 205 is sent to the image processing device 206.

次に、特徴点位置計算部102は、カメラ205の撮像により取得した画像データPから、ハンド203に把持された組み付け部材W1の複数の特徴点kの位置Kを計算する(S3)。これら特徴点kは、組み付け部材W1の位置姿勢を導出するのに必要な点として抽出されるものである。例えば図4(a)に示すように、組み付け部材W1が直線状の柱部材である場合には、特徴点k−1,k−2が抽出され、その位置(座標)K−1,K−2が計算される。また、例えば図4(b)に示すように、組み付け部材W1が曲線状の柱部材である場合には、特徴点k−3〜k−6が抽出され、その位置(座標)K−3〜K−6が計算される。   Next, the feature point position calculation unit 102 calculates the positions K of the plurality of feature points k of the assembly member W1 held by the hand 203 from the image data P acquired by the imaging of the camera 205 (S3). These feature points k are extracted as points necessary for deriving the position and orientation of the assembly member W1. For example, as shown in FIG. 4A, when the assembly member W1 is a linear column member, feature points k-1, k-2 are extracted and their positions (coordinates) K-1, K- are extracted. 2 is calculated. For example, as shown in FIG. 4B, when the assembly member W1 is a curved column member, feature points k-3 to k-6 are extracted and their positions (coordinates) K-3 to 3 are extracted. K-6 is calculated.

本実施形態では、測定マーカhも同時に撮像されており、特徴点位置計算部102は、ある3次元座標空間(例えばカメラ座標系の空間)を定義し、この3次元座標空間での各特徴点kの位置(座標)Kと、測定マーカhの位置(座標)Hと、を計算する。そして、画像処理装置206は、複数の特徴点kの位置(座標)Kの情報及び測定マーカhの位置(座標)Hの情報を検出力演算装置207へ送る。   In this embodiment, the measurement marker h is also imaged at the same time, and the feature point position calculation unit 102 defines a certain three-dimensional coordinate space (for example, a camera coordinate system space), and each feature point in this three-dimensional coordinate space. The position (coordinate) K of k and the position (coordinate) H of the measurement marker h are calculated. Then, the image processing device 206 sends the information on the position (coordinates) K of the plurality of feature points k and the information on the position (coordinates) H of the measurement marker h to the power calculation device 207.

位置姿勢計算部104は、特徴点位置計算部102により計算された各特徴点kの位置(座標)Kの情報から組み付け部材W1の位置姿勢Cを計算する(S4)。本実施形態では、位置姿勢計算部104は、ステップS3において定義された3次元座標空間での組み付け部材W1の位置姿勢Cを計算する。   The position / orientation calculation unit 104 calculates the position / orientation C of the assembly member W1 from the information on the position (coordinates) K of each feature point k calculated by the feature point position calculation unit 102 (S4). In the present embodiment, the position / orientation calculation unit 104 calculates the position / orientation C of the assembly member W1 in the three-dimensional coordinate space defined in step S3.

例えば、図4(a)に示す直線形状の組み付け部材W1の場合は、組み付け部材W1の位置姿勢Cとして、複数の特徴点k−1,k−2の座標K−1,K−2を結ぶ直線が求められる。また、図4(b)に示す曲線形状の組み付け部材W1の場合は、組み付け部材W1の位置姿勢Cとして、複数の特徴点k−3〜k−6の座標K−3〜K−6を結ぶ近似曲線が求められる。これら直線又は近似曲線により、組み付け部材W1の形状、位置、姿勢が推定される。   For example, in the case of the linear assembly member W1 shown in FIG. 4A, the coordinates K-1 and K-2 of a plurality of feature points k-1 and k-2 are connected as the position and orientation C of the assembly member W1. A straight line is required. In the case of the curved assembly member W1 shown in FIG. 4B, the coordinates K-3 to K-6 of a plurality of feature points k-3 to k-6 are connected as the position and orientation C of the assembly member W1. An approximate curve is determined. From these straight lines or approximate curves, the shape, position, and orientation of the assembly member W1 are estimated.

次に、把持位置計算部106は、位置姿勢計算部104により計算された位置姿勢Cの情報を用いて把持位置Jを計算する(S5)。本実施形態では、把持位置Jは、ステップS3で定義された3次元座標空間での位置(座標)として求められる。以上のステップS3〜S5の計算処理により、ハンド203が把持している組み付け部材W1の把持位置Jが割り出される。   Next, the gripping position calculation unit 106 calculates the gripping position J using the information on the position and orientation C calculated by the position and orientation calculation unit 104 (S5). In the present embodiment, the grip position J is obtained as a position (coordinates) in the three-dimensional coordinate space defined in step S3. The gripping position J of the assembly member W1 gripped by the hand 203 is determined by the calculation processing in steps S3 to S5 described above.

次に、距離計算部108は、把持位置計算部106により計算された把持位置Jの情報を用いて基準点Oと把持位置Jとの距離Lを計算する(S6)。   Next, the distance calculation unit 108 calculates the distance L between the reference point O and the gripping position J using the information on the gripping position J calculated by the gripping position calculation unit 106 (S6).

本実施形態における距離計算部108の動作について、図5を参照しながら、具体的に説明する。まず、距離計算部108の第1の計算部110は、3次元座標空間における把持位置Jの情報及び測定マーカhの位置Hの情報から、測定マーカhの位置Hと把持位置Jとの距離L’を計算する。ここで、測定データ記憶部112には、予め計測した力覚センサ204の基準点Oと、測定マーカhの位置Hとの距離Lが記憶されている。第2の計算部114は、第1の計算部110により計算された距離L’の値、及び記憶部112に記憶された基準点Oに対する測定マーカhの位置Hの距離Lの値から、基準点Oと把持位置Jとの距離Lを計算する。例えば、第2の計算部114は、L=L+L’を計算する。なお、距離Lの値は、この式に基づいて算出される場合に限らず、基準点Oに対する測定マーカhの位置H及び把持位置Jに応じて求められる。 The operation of the distance calculation unit 108 in the present embodiment will be specifically described with reference to FIG. First, the first calculation unit 110 of the distance calculation unit 108 determines the distance L between the position H of the measurement marker h and the grip position J from the information of the grip position J and the information of the position H of the measurement marker h in the three-dimensional coordinate space. 'Calculate. Here, the measurement data storage unit 112 stores a distance L 0 between the reference point O of the force sensor 204 measured in advance and the position H of the measurement marker h. The second calculation unit 114 calculates the value of the distance L ′ calculated by the first calculation unit 110 and the value of the distance L 0 of the position H of the measurement marker h with respect to the reference point O stored in the storage unit 112. A distance L between the reference point O and the gripping position J is calculated. For example, the second calculation unit 114 calculates L = L 0 + L ′. Note that the value of the distance L is not limited to the case where it is calculated based on this equation, but is determined according to the position H and the gripping position J of the measurement marker h with respect to the reference point O.

次に、反力計算部116は、力覚センサ204により検出されたモーメントMx,Myの値を、基準点Oとハンド203における組み付け部材W1の把持位置Jとの距離Lの値で除算することで、ハンド203に作用する反力Fx,Fyを計算する(S7)。具体的には、反力計算部116は、Fx=My/L,Fy=Mx/Lを計算する。そして、検出力演算装置207はその計算結果Fx,Fyをロボット制御装置208に出力する。   Next, the reaction force calculation unit 116 divides the values of the moments Mx and My detected by the force sensor 204 by the value of the distance L between the reference point O and the gripping position J of the assembly member W1 in the hand 203. The reaction forces Fx and Fy acting on the hand 203 are calculated (S7). Specifically, the reaction force calculation unit 116 calculates Fx = My / L and Fy = Mx / L. Then, the detection power calculation device 207 outputs the calculation results Fx and Fy to the robot control device 208.

ロボット制御装置208は、ロボットアーム201を動作させ、組み付け部材W1を被組み付け部材W2に組み付ける作業を行わせるが、その作業中に、ハンド203に作用する反力Fx,Fyに基づきロボットアーム201の動作を制御するものである。つまり、ロボット制御装置208は、入力したFx,Fyの情報を用いて演算した関節角度指令θをロボットアーム201に出力する。 The robot control device 208 operates the robot arm 201 to perform the operation of assembling the assembly member W1 to the assembly member W2. During the operation, the robot control device 208 performs the operation of the robot arm 201 based on the reaction forces Fx and Fy acting on the hand 203. It controls the operation. That is, the robot control device 208 outputs a joint angle command θ * calculated using the input information of Fx and Fy to the robot arm 201.

以上、本第1実施形態によれば、カメラ205の撮像により得られた画像データPを用いて力覚センサ204における基準点Oとハンド203における組み付け部材W1の把持位置Jとの距離Lを算出している。そして、反力計算部116では、反力Fx,Fyを求めるに当たって、距離Lの値として、一定値ではなく算出した値を用いているので、組み付け作業の際にハンド203に作用する反力Fx,Fyを精確に求めることができる。これにより、専用のハンドに交換することなく、精密な組み付け作業が可能となる。   As described above, according to the first embodiment, the distance L between the reference point O in the force sensor 204 and the gripping position J of the assembly member W1 in the hand 203 is calculated using the image data P obtained by imaging with the camera 205. doing. The reaction force calculation unit 116 uses a calculated value instead of a constant value as the value of the distance L in determining the reaction forces Fx and Fy. Therefore, the reaction force Fx acting on the hand 203 during the assembling work. , Fy can be obtained accurately. As a result, it is possible to perform a precise assembling work without exchanging with a dedicated hand.

また、力覚センサ204として3軸力覚センサを使用しても把持位置Jのズレに力覚センサ204の検出力への影響を少なくなり、小型で安価、高剛性、かつ検出精度の高い力覚センサ204を備えた、精密な組立作業が可能なロボットシステムを実現できる。   Further, even if a triaxial force sensor is used as the force sensor 204, the displacement of the gripping position J has less influence on the detection force of the force sensor 204, and the force is small, inexpensive, highly rigid, and has high detection accuracy. A robot system including the sense sensor 204 and capable of precise assembly work can be realized.

また、把持位置Jのズレによる力覚センサ204の検出力への影響が少ないため、組み付け部材W1がバラ積になっているビンピッキングのような把持状態が不安定になるピッキング方法でも力覚センサ204の検出力を安定させることができる。これにより、把持状態が不安定になる作業においても精密な組立作業が可能なロボットシステムを実現することが可能になる。   Further, since the influence of the displacement of the gripping position J on the detection force of the force sensor 204 is small, the force sensor is also used in a picking method in which the gripping state becomes unstable such as bin picking in which the assembly members W1 are stacked. The detection power of 204 can be stabilized. This makes it possible to realize a robot system capable of precise assembly work even in work where the gripping state becomes unstable.

[第2実施形態]
次に、本発明の第2実施形態に係るロボットシステムについて説明する。図6は、本発明の第2実施形態に係るロボットシステムのブロック図である。なお、上記第1実施形態と同様の構成については、同一符号を付し、その説明は省略する。上記第1実施形態では、特徴点位置計算部102において、ある3次元座標空間(例えばカメラ座標系の空間)を定義し、この3次元座標空間での各特徴点kの位置(座標)Kと、測定マーカhの位置(座標)Hと、を計算するようにした。
[Second Embodiment]
Next, a robot system according to a second embodiment of the invention will be described. FIG. 6 is a block diagram of a robot system according to the second embodiment of the present invention. In addition, about the structure similar to the said 1st Embodiment, the same code | symbol is attached | subjected and the description is abbreviate | omitted. In the first embodiment, the feature point position calculation unit 102 defines a certain three-dimensional coordinate space (for example, a space in the camera coordinate system), and the position (coordinate) K of each feature point k in the three-dimensional coordinate space and The position (coordinates) H of the measurement marker h is calculated.

これに対し、本第2実施形態では、特徴点位置計算部102Aは、測定点である測定マーカhの位置Hを基準(基準点)とした3次元座標空間における各特徴点kの位置Kを計算する。つまり、測定マーカhが基準点であるので、その位置Hの座標を計算する必要がない。   On the other hand, in the second embodiment, the feature point position calculation unit 102A determines the position K of each feature point k in the three-dimensional coordinate space using the position H of the measurement marker h that is a measurement point as a reference (reference point). calculate. That is, since the measurement marker h is a reference point, it is not necessary to calculate the coordinates of the position H.

したがって、位置姿勢計算部104Aでは、測定マーカhの位置Hを基準(基準点)とした3次元座標空間での組み付け部材W1の位置姿勢Cを計算し、把持位置計算部106Aでは、その3次元座標空間での把持位置Jを計算する。   Therefore, the position / orientation calculation unit 104A calculates the position / orientation C of the assembly member W1 in the three-dimensional coordinate space with the position H of the measurement marker h as a reference (reference point), and the gripping position calculation unit 106A calculates the three-dimensional The gripping position J in the coordinate space is calculated.

そして、距離計算部108Aの第1の計算部110Aは、その3次元座標空間における把持位置Jの情報から、測定マーカhの位置Hと把持位置Jとの距離L’を計算する。つまり、測定マーカhの位置Hは3次元座標空間での基準点であるので、その位置Hの情報がなくても、距離L’を計算することができる。   Then, the first calculation unit 110A of the distance calculation unit 108A calculates a distance L ′ between the position H of the measurement marker h and the gripping position J from the information on the gripping position J in the three-dimensional coordinate space. That is, since the position H of the measurement marker h is a reference point in the three-dimensional coordinate space, the distance L ′ can be calculated without information on the position H.

次に、距離計算部108Aの第2の計算部114は、第1の計算部110Aにより計算された距離L’の値、及び既知である基準点Oと測定マーカhとの距離Lの値から、基準点Oと把持位置Jとの距離Lを計算する。 Next, the second calculation unit 114 of the distance calculation unit 108A calculates the value of the distance L ′ calculated by the first calculation unit 110A and the value of the known distance L 0 between the reference point O and the measurement marker h. From this, the distance L between the reference point O and the gripping position J is calculated.

以上、本第2実施形態では、上記第1実施形態と同様、反力計算部116において算出した距離Lの値を用いて反力Fx,Fyを精確に求めことができる。これにより、専用のハンドに交換することなく、精密な組み付け作業が可能となる。   As described above, in the second embodiment, the reaction forces Fx and Fy can be accurately obtained using the value of the distance L calculated by the reaction force calculation unit 116, as in the first embodiment. As a result, it is possible to perform a precise assembling work without exchanging with a dedicated hand.

[第3実施形態]
次に、本発明の第3実施形態に係るロボットシステムについて説明する。図7は、本発明の第3実施形態に係るロボットシステムのブロック図である。なお、上記第1、第2実施形態と同様の構成については、同一符号を付し、その説明は省略する。
[Third Embodiment]
Next, a robot system according to a third embodiment of the invention will be described. FIG. 7 is a block diagram of a robot system according to the third embodiment of the present invention. In addition, about the structure similar to the said 1st, 2nd embodiment, the same code | symbol is attached | subjected and the description is abbreviate | omitted.

上記第1、第2実施形態では、ハンド203に測定マーカhを設けた場合について説明したが、本第3実施形態では、測定マーカhは、力覚センサ204の基準点Oと一致する位置に設けられている。   In the first and second embodiments, the case where the measurement marker h is provided on the hand 203 has been described. However, in the third embodiment, the measurement marker h is located at a position that coincides with the reference point O of the force sensor 204. Is provided.

カメラ205は、ハンド203に把持された組み付け部材W1を撮像すると同時に、力覚センサ204の基準点Oに設けられた測定マーカhを撮像する。   The camera 205 images the assembly member W1 held by the hand 203 and simultaneously images the measurement marker h provided at the reference point O of the force sensor 204.

特徴点位置計算部102Aは、測定マーカhの位置H、即ち基準点Oを基準とする3次元座標空間における各特徴点kの位置Kを計算する。   The feature point position calculation unit 102A calculates the position H of the measurement marker h, that is, the position K of each feature point k in the three-dimensional coordinate space with reference to the reference point O.

そして、距離計算部108Bは、その3次元座標空間における把持位置Jの情報から、測定マーカhの位置Hと把持位置Jとの距離L’を、基準点Oと把持位置Jとの距離Lとして計算する。つまり、上記第1、第2実施形態において、L=0とした場合と同じ算出結果が得られる。これにより、上記第1、第2実施形態における第2の計算部114の計算を省略することが可能となる。また、本第3実施形態においても、上記第1実施形態と同様に、反力Fx,Fyを精確に求めことができる。これによって、専用のハンドに交換することなく、精密な組み付け作業が可能となる。 Then, the distance calculation unit 108B sets the distance L ′ between the position H of the measurement marker h and the gripping position J as the distance L between the reference point O and the gripping position J from the information on the gripping position J in the three-dimensional coordinate space. calculate. That is, in the first and second embodiments, the same calculation result as that obtained when L 0 = 0 is obtained. Thereby, the calculation of the second calculation unit 114 in the first and second embodiments can be omitted. Also in the third embodiment, the reaction forces Fx and Fy can be accurately obtained as in the first embodiment. As a result, it is possible to perform a precise assembling work without exchanging with a dedicated hand.

なお、上記実施の形態に基づいて本発明を説明したが、本発明はこれに限定されるものではない。上記第1、第2実施形態では、カメラ205をロボットアーム201の先端リンク201fに固定した場合について説明したが、カメラ205をハンド203に固定してもよい。この場合、カメラ205に対するハンド203の位置姿勢は変化しないため、測定マーカhは省略できる。つまり、カメラは組み付け部材を撮像すればよい。そして、特徴点位置計算部では、カメラ205のカメラ座標系で組み付け部材W1の各特徴点kの位置Kを求めればよく、把持位置計算部においても、カメラ座標系での把持位置Jが計算されることとなる。そして、カメラ座標系での力覚センサ204の基準点の位置を予め測定して記憶部に記憶させておけば、距離計算部は、この基準点に対する把持位置Jの距離Lを直接求めることができる。   Although the present invention has been described based on the above embodiment, the present invention is not limited to this. In the first and second embodiments, the case where the camera 205 is fixed to the tip link 201f of the robot arm 201 has been described. However, the camera 205 may be fixed to the hand 203. In this case, since the position and orientation of the hand 203 with respect to the camera 205 does not change, the measurement marker h can be omitted. That is, the camera may image the assembly member. Then, the feature point position calculation unit only needs to obtain the position K of each feature point k of the assembly member W1 in the camera coordinate system of the camera 205, and the grip position calculation unit also calculates the grip position J in the camera coordinate system. The Rukoto. If the position of the reference point of the force sensor 204 in the camera coordinate system is measured in advance and stored in the storage unit, the distance calculation unit can directly determine the distance L of the gripping position J with respect to this reference point. it can.

また、上記第1、第2実施形態では、測定点として測定マーカhを別途設けた場合について説明したが、これに限定するものではなく、突起などの既存の形状を測定点としてもよい。   In the first and second embodiments, the case where the measurement marker h is separately provided as the measurement point has been described. However, the present invention is not limited to this, and an existing shape such as a protrusion may be used as the measurement point.

また、組み付け作業を行う場合には、組み付け部材W1と被組み付け部材W2の穴の位置をカメラで撮像し、組み付け部材W1と嵌合先の相対位置を検出し、ロボットアーム201の位置補正を行う方法が一般的である。この方法をとる際、カメラ205において、ステップS1で被組み付け部材W2の穴も同時に撮像してもよい。これにより、アーム位置補正用の画像と力覚センサ出力補正用の画像とを同時に撮影でき、タクトの短縮を図ることも可能である。   Further, when performing assembly work, the positions of the holes of the assembly member W1 and the assembly target member W2 are imaged with a camera, the relative positions of the assembly member W1 and the fitting destination are detected, and the position of the robot arm 201 is corrected. The method is common. When taking this method, the camera 205 may simultaneously image the hole of the assembly member W2 in step S1. As a result, the arm position correcting image and the force sensor output correcting image can be taken at the same time, and the tact time can be shortened.

また、上記第1〜第3実施形態では、制御手段としての制御システム200が、3つのコンピュータシステム(装置206,207,208)により構成されている場合について説明したが、これに限定するものではない。コンピュータシステムの数は、3つに限らず、1つのコンピュータシステムで制御システムが構成されていてもよい。この場合、1つのコンピュータシステムが上述した各部として機能する。また、制御システムが、2つのコンピュータシステム又は4つ以上のコンピュータシステムで構成されていてもよい。この場合、上述した各部は、これらコンピュータシステムで分担して機能する。   In the first to third embodiments, the case where the control system 200 as the control unit is configured by three computer systems (devices 206, 207, and 208) has been described. However, the present invention is not limited to this. Absent. The number of computer systems is not limited to three, and the control system may be configured by one computer system. In this case, one computer system functions as each unit described above. Further, the control system may be configured by two computer systems or four or more computer systems. In this case, the above-described units function by being shared by these computer systems.

また、上記第1〜第3実施形態では、ロボットアーム201が複数のリンクが連結された多関節の場合について説明したが、これに限定するものではなく、ロボットアームがスカラーロボットやワンリンクのロボットであってもよい。   In the first to third embodiments, the case where the robot arm 201 is a multi-joint in which a plurality of links are connected has been described. However, the present invention is not limited to this, and the robot arm is a scalar robot or a one-link robot. It may be.

200…制御システム(制御手段)、201…ロボットアーム、203…ハンド、204…力覚センサ、205…カメラ、W1…組み付け部材 DESCRIPTION OF SYMBOLS 200 ... Control system (control means), 201 ... Robot arm, 203 ... Hand, 204 ... Force sensor, 205 ... Camera, W1 ... Assembly member

Claims (5)

ロボットアームと、前記ロボットアームの先端に手首部を介して設けられ、組み付け部材を把持するハンドと、前記ハンドに作用する反力に基づき、前記ロボットアームの動作を制御する制御手段と、を備えたロボットシステムにおいて、
前記手首部に設けられ、前記ハンドの変位によって基準点に生じるモーメントを検出する力覚センサと、
カメラと、を備え、
前記制御手段は、前記ハンドが把持している前記組み付け部材を撮像した画像データを前記カメラから取得し、前記画像データから前記ハンドが把持している前記組み付け部材の把持位置を割り出して、前記力覚センサの基準点と前記把持位置との距離を求め、前記基準点と前記把持位置との距離及び前記力覚センサにより検出されたモーメントから、前記ハンドに作用する反力を求めることを特徴とするロボットシステム。
A robot arm, a hand provided at the tip of the robot arm via a wrist, and gripping an assembly member; and a control means for controlling the operation of the robot arm based on a reaction force acting on the hand. In the robot system
A force sensor provided at the wrist for detecting a moment generated at a reference point due to displacement of the hand;
And a camera,
The control means acquires image data obtained by imaging the assembly member held by the hand from the camera, calculates a holding position of the assembly member held by the hand from the image data, and calculates the force. A distance between a reference point of a sense sensor and the grip position is obtained, and a reaction force acting on the hand is obtained from a distance between the reference point and the grip position and a moment detected by the force sensor. Robot system to do.
前記制御手段は、前記画像データから前記組み付け部材が有する複数の特徴点の位置を求めて前記組み付け部材の位置姿勢を計算し、前記組み付け部材の位置姿勢から前記把持位置を割り出すことを特徴とする請求項1に記載のロボットシステム。   The control means obtains positions of a plurality of feature points of the assembly member from the image data, calculates a position and orientation of the assembly member, and calculates the gripping position from the position and orientation of the assembly member. The robot system according to claim 1. 前記ロボットアーム、前記ハンド及び前記力覚センサのいずれかに前記基準点との距離が既知の測定点が設けられており、
前記カメラは、前記ハンドに把持された前記組み付け部材を撮像すると同時に、前記測定点を撮像し、
前記制御手段は、前記画像データから、前記測定点と前記把持位置との距離を求め、前記基準点と前記測定点との距離、及び前記測定点と前記把持位置との距離に基づき、前記基準点と前記把持位置との距離を求めることを特徴とする請求項1又は2に記載のロボットシステム。
A measurement point with a known distance from the reference point is provided on any of the robot arm, the hand, and the force sensor,
The camera images the measurement point simultaneously with imaging the assembly member held by the hand,
The control means obtains a distance between the measurement point and the gripping position from the image data, and based on the distance between the reference point and the measurement point and the distance between the measurement point and the gripping position, The robot system according to claim 1 or 2, wherein a distance between a point and the gripping position is obtained.
前記力覚センサには、前記基準点と一致する位置に測定点が設けられており、
前記カメラは、前記ハンドに把持された前記組み付け部材を撮像すると同時に、前記測定点を撮像し、
前記制御手段は、前記画像データから、前記測定点と前記把持位置との距離を求めることで、前記基準点と前記把持位置との距離を求めることを特徴とする請求項1又は2に記載のロボットシステム。
The force sensor is provided with a measurement point at a position corresponding to the reference point,
The camera images the measurement point simultaneously with imaging the assembly member held by the hand,
The said control means calculates | requires the distance of the said reference point and the said holding | grip position by calculating | requiring the distance of the said measurement point and the said holding | grip position from the said image data. Robot system.
請求項1乃至4のいずれか1項に記載のロボットシステムを用いて組み付け部材を被組み付け部材に組付けることを特徴とする部品の製造方法。  A method for manufacturing a part, wherein the assembly member is assembled to the assembly member using the robot system according to any one of claims 1 to 4.
JP2011149693A 2011-07-06 2011-07-06 Robot system and component manufacturing method Expired - Fee Related JP5787646B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011149693A JP5787646B2 (en) 2011-07-06 2011-07-06 Robot system and component manufacturing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011149693A JP5787646B2 (en) 2011-07-06 2011-07-06 Robot system and component manufacturing method

Publications (3)

Publication Number Publication Date
JP2013013987A JP2013013987A (en) 2013-01-24
JP2013013987A5 JP2013013987A5 (en) 2014-08-14
JP5787646B2 true JP5787646B2 (en) 2015-09-30

Family

ID=47687174

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011149693A Expired - Fee Related JP5787646B2 (en) 2011-07-06 2011-07-06 Robot system and component manufacturing method

Country Status (1)

Country Link
JP (1) JP5787646B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016187844A (en) 2015-03-30 2016-11-04 セイコーエプソン株式会社 Robot, robot control device and robot system
KR101987824B1 (en) * 2017-06-22 2019-06-13 아엠아이테크 주식회사 Dual Arm Robot System
KR101987823B1 (en) * 2017-06-22 2019-06-13 아엠아이테크 주식회사 Dual Arm Robot System
JP7187765B2 (en) * 2017-07-24 2022-12-13 セイコーエプソン株式会社 robot controller
JP2019173393A (en) * 2018-03-28 2019-10-10 前田建設工業株式会社 Steel support work building method and building system
JP7351667B2 (en) * 2019-08-01 2023-09-27 ファナック株式会社 Robot control system, control method, computer program, and control device that performs multi-point mating

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3217351B2 (en) * 1990-06-07 2001-10-09 株式会社東芝 Force control device and robot using the same
JP3626303B2 (en) * 1996-12-18 2005-03-09 本田技研工業株式会社 Foot ground contact position detector for legged mobile robot
JP5236596B2 (en) * 2009-08-19 2013-07-17 ファナック株式会社 Processing robot system

Also Published As

Publication number Publication date
JP2013013987A (en) 2013-01-24

Similar Documents

Publication Publication Date Title
CN108453701B (en) Method for controlling robot, method for teaching robot, and robot system
US9517563B2 (en) Robot system using visual feedback
KR102084656B1 (en) Automatic calibration method for robotic systems
US9969088B2 (en) Force sensor correcting method
US20160184996A1 (en) Robot, robot system, control apparatus, and control method
JP5787646B2 (en) Robot system and component manufacturing method
US9517560B2 (en) Robot system and calibration method of the robot system
JP3946711B2 (en) Robot system
JP5371927B2 (en) Coordinate system calibration method and robot system
JP5860021B2 (en) Fastening device, robot system, and fastening method for fastening a plurality of fastening members
JP6025386B2 (en) Image measuring apparatus, image measuring method, and image measuring program
US20160279800A1 (en) Robot, robot control device, and robotic system
JP2014018931A (en) Control system, program and control method of machinery
US20130338832A1 (en) Robot controller which conducts a force control by using a three-axial force sensor
KR20080088165A (en) Robot calibration method
JP7258516B2 (en) Calibration method and gripping system
JP2012137421A (en) Control device of robot performing force control using triaxial sensor
US8761936B2 (en) Teaching line correcting apparatus, teaching line correcting method, and program thereof
JP6322949B2 (en) Robot control apparatus, robot system, robot, robot control method, and robot control program
JP6003312B2 (en) Robot system
JP6023251B2 (en) Robot system
JP2016052699A (en) Robot control system and robot control method
KR102269776B1 (en) Calibration Method of Robot for Interventional treatment
JP6011089B2 (en) Robot system and robot control apparatus and method
JP2016182648A (en) Robot, robot control device and robot system

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140702

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150728

R151 Written notification of patent or utility model registration

Ref document number: 5787646

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees