JP6771888B2 - Robot devices, control methods, article manufacturing methods, programs and recording media - Google Patents

Robot devices, control methods, article manufacturing methods, programs and recording media Download PDF

Info

Publication number
JP6771888B2
JP6771888B2 JP2015249285A JP2015249285A JP6771888B2 JP 6771888 B2 JP6771888 B2 JP 6771888B2 JP 2015249285 A JP2015249285 A JP 2015249285A JP 2015249285 A JP2015249285 A JP 2015249285A JP 6771888 B2 JP6771888 B2 JP 6771888B2
Authority
JP
Japan
Prior art keywords
sensor
robot
robot arm
detection result
force
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015249285A
Other languages
Japanese (ja)
Other versions
JP2016144861A (en
JP2016144861A5 (en
Inventor
佐藤 修一
修一 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/002,831 priority Critical patent/US10201901B2/en
Publication of JP2016144861A publication Critical patent/JP2016144861A/en
Publication of JP2016144861A5 publication Critical patent/JP2016144861A5/en
Application granted granted Critical
Publication of JP6771888B2 publication Critical patent/JP6771888B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、ロボットアームを備えたロボット装置、制御方法、物品の製造方法、プログラム及び記録媒体に関する。 The present invention, a robot apparatus provided with a robot arm, the control method, a method of manufacturing an article, a program, and a recording medium.

ロボット技術が発達するにつれて、制御プログラムに従って自動的に稼働するロボット装置を、物品の生産用途に用いる機運が高まっている。その中でも組立動作が要求される物品の生産に関しては、力制御が可能なロボット装置の導入が進んでいる。例えば、力覚センサ等の、ロボットアームの先端部に加わる力を求めるためのセンサ(本明細書においては、力覚センサと称することもある)を配置したロボット装置が知られている。また、トルクセンサ等の、ロボットアームの各関節に加わる力を求めるためのセンサ(本明細書においてはトルクセンサと称することもある)を配置したロボット装置が知られている。これらのロボット装置では、ロボットにより部品の組立を行う場合、組付作業の際にエンドエフェクタに生じる外力を検知して、エンドエフェクタを含むロボットの力制御(姿勢制御)を行うことができる。 As robot technology develops, the momentum for using robot devices that automatically operate according to control programs for the production of goods is increasing. Among them, with regard to the production of articles that require assembly operations, the introduction of robot devices capable of force control is progressing. For example, there is known a robot device in which a sensor for obtaining a force applied to the tip of a robot arm (sometimes referred to as a force sensor in the present specification) such as a force sensor is arranged. Further, a robot device in which a sensor (sometimes referred to as a torque sensor in the present specification) for obtaining a force applied to each joint of a robot arm such as a torque sensor is arranged is known. In these robot devices, when assembling parts by a robot, it is possible to detect an external force generated in the end effector during the assembling work and perform force control (attitude control) of the robot including the end effector.

ロボットアームの先端部に力覚センサ等のセンサを配置したロボット装置では、センサをエンドエフェクタの近くに配置できるため、組付作業時の外力をロスが少なく検知できる。このセンサにより微小な外力を検知することで、精密な力制御が可能となる。 In a robot device in which a sensor such as a force sensor is arranged at the tip of a robot arm, the sensor can be arranged near the end effector, so that an external force during assembly work can be detected with little loss. By detecting a minute external force with this sensor, precise force control becomes possible.

ロボットアームの各関節にトルクセンサ等のセンサを配置したロボット装置では、各関節にセンサを配置することで、エンドエフェクタに限らずロボット全体のどこに接触物が接触しても外力を検知することができる。一方で、各関節の駆動部の摩擦等のロス、ロボットアーム自体の慣性力の影響等により、微小な外力を高精度に検知するのは難しく、精密な力制御は難しい場合がある。 In a robot device in which sensors such as torque sensors are arranged in each joint of the robot arm, by arranging sensors in each joint, it is possible to detect an external force regardless of where a contact object comes into contact with the entire robot, not limited to the end effector. it can. On the other hand, it is difficult to detect a minute external force with high accuracy due to a loss such as friction of the drive unit of each joint and the influence of the inertial force of the robot arm itself, and precise force control may be difficult.

今後、生産自動化のさらなる進展によって、1つの製品を1台のロボットアームで組立を行うといったように、ロボットアームに求められる作業範囲は増大していく可能性がある。例えば、電気製品ではフレキケーブルのような柔軟部品の組立から金属のような剛体部品の組立まで作業範囲は多岐にわたる。力制御という観点においては、微小な外力から大きな外力まで対応したロボット装置が必要になる。 In the future, with the further progress of production automation, there is a possibility that the work range required for the robot arm will increase, such as assembling one product with one robot arm. For example, in electrical products, the work range is wide, from assembling flexible parts such as flexible cables to assembling rigid parts such as metal. From the viewpoint of force control, a robot device that can handle from a minute external force to a large external force is required.

従来、作業対象物の変化に応じて適切な力制御パラメータを決定してロボットを力制御するものが提案されている(特許文献1参照)。この特許文献1では、作業対象毎に力制御のために必要な力フィードバックゲインや補償器のゲイン、フィルタ定数、不感帯幅、サーボ周期などのパラメータを変化させるとしている。 Conventionally, a robot has been proposed in which an appropriate force control parameter is determined according to a change in a work object to control the force of the robot (see Patent Document 1). In Patent Document 1, parameters such as force feedback gain, compensator gain, filter constant, dead band width, and servo period required for force control are changed for each work object.

特開平2−139190号公報Japanese Unexamined Patent Publication No. 2-139190

しかしながら、外力を検知するセンサの検知可能範囲は有限であるため、上述した力制御ロボットの作業対象毎にパラメータを変化させるだけでは、以下のような問題があった。 However, since the detectable range of the sensor that detects the external force is finite, there are the following problems simply by changing the parameters for each work target of the above-mentioned force control robot.

(1)大きな外力を検知可能なセンサを用いた場合、微小な外力の検知結果がノイズに埋もれ、高精度な力制御ができない領域がある。 (1) When a sensor capable of detecting a large external force is used, there is a region where the detection result of a minute external force is buried in noise and high-precision force control cannot be performed.

(2)微小な外力を検知可能なセンサを用いた場合、大きな外力の検知結果が飽和して、高精度力制御できない領域がある。 (2) When using a detectable sensor fine external force, and saturation detection result of the large external force is, there is an area that can not be force controlled with high precision.

そこで、本発明は、微小な外力から大きな外力まで高精度に検知して、高精度な制御を可能とすることを目的とする。 Therefore, an object of the present invention is to detect from a minute external force to a large external force with high accuracy and enable highly accurate control.

本発明のロボット装置は、ロボットアームと、前記ロボットアームの動作を制御する制御装置と、を備え、前記ロボットアームは、力を検出可能な第1のセンサと、前記第1のセンサが検出可能な範囲よりも大きい力を検出可能な第2のセンサと、を有し、前記制御装置は、前記第1のセンサに前記範囲の上限値よりも大きい力が生じる場合は、前記第2のセンサの検出結果に基づき前記ロボットアームを制御し、前記第1のセンサに前記範囲以内の力が生じる場合は、前記第1のセンサの検出結果に基づき前記ロボットアームを制御することを特徴とする。 The robot device of the present invention includes a robot arm and a control device for controlling the operation of the robot arm, and the robot arm can detect a first sensor capable of detecting a force and the first sensor. and a second sensor capable of detecting the force greater than the range, the said control unit, when the force greater than the upper limit of the range to the first sensor occurs, the second sensor said robot arm is controlled based on the detection result, when a force of less the range to the first sensor occurs, controls the robot arm based on a detection result of said first sensor, characterized in that ..

本発明によれば、センサの検知結果を選択的に使用してロボットアームの力制御を行うので、微小な外力から大きな外力まで幅広いレンジで外力を高精度に検知でき、ロボットアームを高精度に力制御できる。 According to the present invention, since the force of the robot arm is controlled by selectively using the detection result of the sensor, the external force can be detected with high accuracy in a wide range from a minute external force to a large external force, and the robot arm can be detected with high accuracy. Force control is possible.

本発明の第1実施形態に係るロボット装置を示す説明図である。It is explanatory drawing which shows the robot apparatus which concerns on 1st Embodiment of this invention. ロボットアームの関節を示す部分断面図である。It is a partial cross-sectional view which shows the joint of a robot arm. 第1のセンサの一例を示す説明図である。It is explanatory drawing which shows an example of the 1st sensor. 第2のセンサの一例を示す説明図である。It is explanatory drawing which shows an example of the 2nd sensor. 制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of a control device. 本発明の第1実施形態に係るロボット装置におけるロボット制御方法の各工程を示すフローチャートである。It is a flowchart which shows each process of the robot control method in the robot apparatus which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る制御装置によるロボット制御方法を説明するための図である。It is a figure for demonstrating the robot control method by the control device which concerns on 1st Embodiment of this invention. 本発明の第2実施形態に係るロボット制御方法を示すフローチャートである。It is a flowchart which shows the robot control method which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係るロボット制御方法を説明するための図である。It is a figure for demonstrating the robot control method which concerns on 3rd Embodiment of this invention. 本発明の第4実施形態に係るロボット装置を示す説明図である。It is explanatory drawing which shows the robot apparatus which concerns on 4th Embodiment of this invention. (a)は、領域A,Bを変更する前の状態を示す模式図であり、(b)は、領域A,Bを変更した後の状態を示す模式図である。(A) is a schematic diagram showing a state before changing the regions A and B, and (b) is a schematic diagram showing a state after changing the regions A and B.

以下、本発明を実施するための形態を、図面を参照しながら詳細に説明する。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.

[第1実施形態]
図1は、本発明の第1実施形態に係るロボット装置を示す説明図である。図1に示すロボット装置500は、ワークの組み立て等の作業を行う多関節型のロボット100と、ロボット100を制御する制御システム250と、作業者の操作によりロボット100の教示が可能なティーチングペンダント400と、を備えている。
[First Embodiment]
FIG. 1 is an explanatory diagram showing a robot device according to the first embodiment of the present invention. The robot device 500 shown in FIG. 1 includes an articulated robot 100 that performs work such as assembling a work, a control system 250 that controls the robot 100, and a teaching pendant 400 that can teach the robot 100 by an operator's operation. And have.

ロボット100は、ロボットアーム101と、エンドエフェクタであるロボットハンド102とを有している。ロボットアーム101は、固定端である基端部101Aと、自由端である先端部(手首部)101Bと、を有している。ロボットハンド102は、ロボットアーム101の先端部101Bに取り付けられることで、ロボットアーム101の先端部101Bに支持されている。 The robot 100 has a robot arm 101 and a robot hand 102 which is an end effector. The robot arm 101 has a base end portion 101A which is a fixed end and a tip end portion (wrist portion) 101B which is a free end. The robot hand 102 is supported by the tip 101B of the robot arm 101 by being attached to the tip 101B of the robot arm 101.

ロボットアーム101は、垂直多関節型のロボットアームであり、架台110の水平面に固定された、基端部101Aであるベース部133と、変位や力を伝達する複数のリンク121〜124と、を有している。リンク121は、ベース部133に固定されている。複数のリンク121〜124は、複数の関節J1〜J3で旋回又は回転可能に互いに連結されている。ロボットアーム101の各関節J1〜J3には駆動装置10が設けられている。各関節J1〜J3の駆動装置10は、必要なトルクの大きさに合わせて適切な出力のものが用いられ、第1実施形態では、駆動源である電動モータと、電動モータに接続された減速機とを有する。 The robot arm 101 is a vertical articulated robot arm, and has a base portion 133, which is a base end portion 101A, fixed to a horizontal plane of a gantry 110, and a plurality of links 121 to 124 for transmitting displacement and force. Have. The link 121 is fixed to the base portion 133. The plurality of links 121 to 124 are rotatably or rotatably connected to each other by a plurality of joints J1 to J3. Drive devices 10 are provided in the joints J1 to J3 of the robot arm 101. As the drive device 10 of the joints J1 to J3, one having an appropriate output according to the magnitude of the required torque is used. In the first embodiment, the electric motor as the drive source and the deceleration connected to the electric motor are used. Have a machine.

ロボットアーム101の先端部101Bには、ロボットハンド102に作用する力(外力)を求める(検知する)ための第1のセンサ131が配置されている。ロボットアーム101の各関節J1〜J3には、各関節J1〜J3に作用する力(外力)を求める(検知する)ための第2のセンサ132がそれぞれ配置されている。 A first sensor 131 for obtaining (detecting) a force (external force) acting on the robot hand 102 is arranged at the tip end portion 101B of the robot arm 101. A second sensor 132 for obtaining (detecting) a force (external force) acting on the joints J1 to J3 is arranged on each of the joints J1 to J3 of the robot arm 101.

本実施形態においては、ロボットアーム101の先端部101Bに配置された第1のセンサ131、および、ロボットアーム101の各関節J1〜J3に配置された第2のセンサ132を力センサと称することもある。 In the present embodiment, the first sensor 131 arranged at the tip 101B of the robot arm 101 and the second sensor 132 arranged at the joints J1 to J3 of the robot arm 101 may be referred to as a force sensor. is there.

ロボットハンド102は、ワークを把持する複数の把持爪と、複数の把持爪を駆動する不図示の駆動装置と、不図示の駆動装置の回転角度を検出する不図示のエンコーダと、回転を把持動作に変換する不図示の機構とを有している。この不図示の機構は、カム機構やリンク機構などで必要な把持動作に合わせて設計される。なお、ロボットハンド102に用いる不図示の駆動装置に必要なトルクは、ロボットアーム101の関節用と異なるが、基本構成は同じである。 The robot hand 102 grips a plurality of gripping claws for gripping a work, a drive device (not shown) for driving the plurality of gripping claws, an encoder (not shown) for detecting the rotation angle of the drive device (not shown), and a rotation gripping operation. It has a mechanism (not shown) that converts it into. This mechanism (not shown) is designed according to the gripping operation required for a cam mechanism, a link mechanism, or the like. The torque required for the drive device (not shown) used for the robot hand 102 is different from that for the joint of the robot arm 101, but the basic configuration is the same.

以下、ロボットアーム101において、関節J1を例に代表して説明し、他の関節J2,J3については、サイズや性能が異なる場合もあるが、同様の構成であるため、説明を省略する。 Hereinafter, in the robot arm 101, the joint J1 will be described as an example, and the other joints J2 and J3 may have different sizes and performances, but since they have the same configuration, the description thereof will be omitted.

図2は、ロボットアーム101の関節J1を示す部分断面図である。駆動装置10は、電動モータである回転モータ(以下、「モータ」という)141と、モータ141の回転軸142の回転を減速する減速機143と、を有している。 FIG. 2 is a partial cross-sectional view showing the joint J1 of the robot arm 101. The drive device 10 includes a rotary motor (hereinafter, referred to as “motor”) 141 which is an electric motor, and a speed reducer 143 which reduces the rotation of the rotary shaft 142 of the motor 141.

モータ141の回転軸142及び減速機143の入力軸のうちいずれか一方の軸、第1実施形態ではモータ141の回転軸142には、モータ141の回転角度を検出するエンコーダ161が配置されている。減速機143の出力軸、即ち関節J1の角度を検出するエンコーダ162が、関節J1に配置されている。 An encoder 161 for detecting the rotation angle of the motor 141 is arranged on one of the rotation shaft 142 of the motor 141 and the input shaft of the speed reducer 143, or the rotation shaft 142 of the motor 141 in the first embodiment. .. The output shaft of the speed reducer 143, that is, the encoder 162 that detects the angle of the joint J1, is arranged at the joint J1.

モータ141は、サーボモータであり、例えばブラシレスDCサーボモータやACサーボモータである。 The motor 141 is a servo motor, for example, a brushless DC servo motor or an AC servo motor.

エンコーダ161は、アブソリュート型のロータリーエンコーダが望ましく、1回転の絶対角度エンコーダ、絶対角度エンコーダの回転総数のカウンタ、及びカウンタに電力を供給するバックアップ電池を有して構成される。ロボットアーム101への電源の供給がオフになっても、このバックアップ電池が有効であれば、ロボットアーム101への電源供給のオン/オフに関係なく、カウンタにおいて回転総数が保持される。したがって、ロボットアーム101の姿勢が制御可能となる。なお、エンコーダ161は、回転軸142に取り付けられているが、減速機143の入力軸に取り付けてもよい。 The encoder 161 is preferably an absolute rotary encoder, and includes an absolute angle encoder for one rotation, a counter for the total number of rotations of the absolute angle encoder, and a backup battery for supplying power to the counter. Even if the power supply to the robot arm 101 is turned off, if the backup battery is valid, the total number of rotations is held at the counter regardless of whether the power supply to the robot arm 101 is turned on or off. Therefore, the posture of the robot arm 101 can be controlled. Although the encoder 161 is attached to the rotating shaft 142, it may be attached to the input shaft of the speed reducer 143.

エンコーダ162は、隣り合う2つのリンク間の相対角度を検出するロータリーエンコーダである。関節J1においては、エンコーダ162は、リンク121とリンク122との間の相対角度を検出するロータリーエンコーダである。エンコーダ162は、リンク121にエンコーダスケールを設け、リンク122に検出ヘッドを設けた構成、或いは逆の構成となる。 The encoder 162 is a rotary encoder that detects a relative angle between two adjacent links. In the joint J1, the encoder 162 is a rotary encoder that detects the relative angle between the link 121 and the link 122. The encoder 162 has a configuration in which an encoder scale is provided on the link 121 and a detection head is provided on the link 122, or vice versa.

また、リンク121とリンク122とは、クロスローラベアリング147を介して旋回自在に連結される。そして、リンク121とリンク122との間に、第2のセンサ132が配置される。 Further, the link 121 and the link 122 are rotatably connected via a cross roller bearing 147. Then, a second sensor 132 is arranged between the link 121 and the link 122.

減速機143は、例えば小型軽量で減速比の大きい波動歯車減速機である。減速機143は、モータ141の回転軸142に結合された、入力軸であるウェブジェネレータ151と、リンク122に固定された、出力軸であるサーキュラスプライン152と、を備えている。なお、サーキュラスプライン152は、リンク122に直結されているが、リンク122に一体に形成されていてもよい。 The speed reducer 143 is, for example, a strain wave gearing speed reducer that is compact and lightweight and has a large reduction ratio. The speed reducer 143 includes a web generator 151, which is an input shaft, coupled to a rotation shaft 142 of a motor 141, and a circular spline 152, which is an output shaft fixed to a link 122. Although the circular spline 152 is directly connected to the link 122, it may be integrally formed with the link 122.

また、減速機143は、ウェブジェネレータ151とサーキュラスプライン152との間に配置され、リンク121に固定されたフレクスプライン153を備えている。フレクスプライン153は、ウェブジェネレータ151の回転に対して減速比Nで減速され、サーキュラスプライン152に対して相対的に回転する。従って、モータ141の回転軸142の回転は、減速機143で1/Nの減速比で減速されて、フレクスプライン153が固定されたリンク121に対してサーキュラスプライン152が固定されたリンク122を相対的に回転運動させ、関節J1を屈曲させる。 Further, the speed reducer 143 is provided between the web generator 151 and the circular spline 152, and includes a flexspline 153 fixed to the link 121. The flexspline 153 is decelerated at a reduction ratio N with respect to the rotation of the web generator 151 and rotates relative to the circular spline 152. Therefore, the rotation of the rotation shaft 142 of the motor 141 is decelerated by the speed reducer 143 at a reduction ratio of 1 / N, and the link 122 to which the circular spline 152 is fixed is relative to the link 121 to which the flexspline 153 is fixed. The joint J1 is flexed by rotating it.

各関節J1〜J3に配置されたエンコーダ161及びエンコーダ162のうち少なくとも一方で、位置検出部が構成されている。即ち、各関節J1〜J3のエンコーダ161又はエンコーダ162の値により、ロボットアーム101の先端部101Bの位置(姿勢を含む)を計算(検出)することができる。 A position detection unit is configured at least one of the encoders 161 and the encoders 162 arranged in the joints J1 to J3. That is, the position (including the posture) of the tip portion 101B of the robot arm 101 can be calculated (detected) from the values of the encoder 161 or the encoder 162 of each joint J1 to J3.

制御システム250は、コンピュータで構成された、制御手段である制御装置200と、第1のセンサ入力装置である力センサ入力装置231と、第2のセンサ入力装置である力センサ入力装置232と、駆動制御装置233と、を有する。本実施形態では、制御装置200は、ロボットアーム101の制御として、ロボット100により嵌合作業を行う際に、ロボットアーム101の力制御(インピーダンス制御)を行う。 The control system 250 includes a control device 200 which is a control means composed of a computer, a force sensor input device 231 which is a first sensor input device, and a force sensor input device 232 which is a second sensor input device. It has a drive control device 233 and. In the present embodiment, the control device 200 controls the robot arm 101 by controlling the force of the robot arm 101 (impedance control) when the robot 100 performs the fitting operation.

第1のセンサ131は、例えば6軸の力覚センサであり、互いに直交する3つの力成分Fx,Fy,Fz及びそれらの軸回りの3つのモーメントMx,My,Mzを検知する。以下、この第1のセンサ131が検知する力及びモーメントを、単に「力」という。 The first sensor 131 is, for example, a six-axis force sensor, which detects three force components Fx, Fy, Fz orthogonal to each other and three moments Mx, My, Mz around those axes. Hereinafter, the force and moment detected by the first sensor 131 are simply referred to as "force".

第1のセンサ131は、不図示の複数の検知素子を有する。第1のセンサ131の各検知素子から検知信号が力センサ入力装置231へ出力される。力センサ入力装置231では、各検知信号に基づいて第1のセンサ131に生じた力(外力)を計算し、その計算結果(検知結果)を制御装置200に出力する。このように、第1のセンサ131は、ロボットハンド102に作用した力を検知する。 The first sensor 131 has a plurality of detection elements (not shown). A detection signal is output from each detection element of the first sensor 131 to the force sensor input device 231. The force sensor input device 231 calculates the force (external force) generated in the first sensor 131 based on each detection signal, and outputs the calculation result (detection result) to the control device 200. In this way, the first sensor 131 detects the force acting on the robot hand 102.

第1のセンサ131は、例えば力覚センサである。以下、第1のセンサ131が力覚センサである場合について説明するがこれに限らず、ロボットハンド102に作用する力(外力)を求めることができればどのようなセンサでも用いることができる。 The first sensor 131 is, for example, a force sensor. Hereinafter, the case where the first sensor 131 is a force sensor will be described, but the present invention is not limited to this, and any sensor can be used as long as the force (external force) acting on the robot hand 102 can be obtained.

第1のセンサ131の一例を、図3に示す。図3(a)は、第1のセンサのX−Z軸に沿った断面図であり、図3(b)は、第1のセンサの分解斜視図である。図3(a)及び図3(b)に示すように、第1のセンサ131は、力が印加される作用部301と、力が印加された際に位置変位を生みだす弾性体302と、外枠303と、を有する。また、第1のセンサ131は、磁束を生み出す磁束発生源308と、磁束の流れを制御する磁性体307と、磁束発生源308の磁束変化を検出する検知素子306a〜306dと、を有する。また、第1のセンサ131は、作用部301と磁束発生源308とを支持する支柱304と、検知素子306a〜306dが設置された検知素子支持部305と、磁束発生源308の磁束変化を検出する検知素子309a〜309dと、を有する。作用部301は、剛性の高い支柱304を介して磁束発生源308と連結固定されている。また外枠303には検知素子支持部305を介して検知素子306a〜306dが磁束発生源308と間隙をもって固定されている。検知素子309a〜309dも同じく磁束発生源308と間隙をもって外枠303に対して固定されている。そして、外枠303と作用部301とが弾性体302を介して互いに変位可能に弾性支持されている。 An example of the first sensor 131 is shown in FIG. FIG. 3A is a cross-sectional view taken along the XZ axis of the first sensor, and FIG. 3B is an exploded perspective view of the first sensor. As shown in FIGS. 3 (a) and 3 (b), the first sensor 131 includes an action unit 301 to which a force is applied, an elastic body 302 that produces a positional displacement when a force is applied, and an outer body. It has a frame 303 and. Further, the first sensor 131 includes a magnetic flux generating source 308 that produces a magnetic flux, a magnetic body 307 that controls the flow of the magnetic flux, and detection elements 306a to 306d that detect a change in the magnetic flux of the magnetic flux generating source 308. Further, the first sensor 131 detects changes in the magnetic flux of the support column 304 that supports the action unit 301 and the magnetic flux generation source 308, the detection element support unit 305 in which the detection elements 306a to 306d are installed, and the magnetic flux generation source 308. The detection elements 309a to 309d are provided. The working portion 301 is connected and fixed to the magnetic flux generation source 308 via a highly rigid support column 304. Further, the detection elements 306a to 306d are fixed to the outer frame 303 via the detection element support portion 305 with a gap from the magnetic flux generation source 308. The detection elements 309a to 309d are also fixed to the outer frame 303 with a gap from the magnetic flux generation source 308. Then, the outer frame 303 and the acting portion 301 are elastically supported so as to be displaceable with each other via the elastic body 302.

弾性体302は剛性の低いもので構成され、外枠303と作用部301との間に配置されている。このような構成をとれば、作用部301に力が加わり外枠303に対して姿勢が変化すると、その姿勢変化に追従して磁束発生源308も姿勢が変化し、外枠303に固定された検知素子309a〜309dに対して相対位置が変化する。 The elastic body 302 is composed of a material having low rigidity, and is arranged between the outer frame 303 and the working portion 301. With such a configuration, when a force is applied to the acting unit 301 and the posture changes with respect to the outer frame 303, the posture of the magnetic flux generation source 308 also changes following the change in posture, and the magnetic flux generating source 308 is fixed to the outer frame 303. The relative position changes with respect to the detection elements 309a to 309d.

磁束発生源308はNd−Fe−B磁石、Sm−Co磁石、Sm−Fe−N磁石、フェライト磁石に代表されるような永久磁石であってもよく、磁性体まわりに、コイルを巻き、通電することによって磁力を発生させる電磁石であってもよい。検知素子306a〜306d,309a〜309dはホール素子、MR素子、磁気インピーダンス素子、フラックスゲート素子などである。磁性体307は、空気とは異なる透磁率を持った材料から構成される。 The magnetic flux generation source 308 may be a permanent magnet such as an Nd-Fe-B magnet, a Sm-Co magnet, an Sm-Fe-N magnet, or a ferrite magnet. A coil is wound around the magnetic material to energize the magnet. It may be an electromagnet that generates a magnetic force by doing so. The detection elements 306a to 306d and 309a to 309d are Hall elements, MR elements, magnetic impedance elements, fluxgate elements and the like. The magnetic material 307 is made of a material having a magnetic permeability different from that of air.

作用部301に力が印加されると、支柱304に取付けられた磁束発生源308は弾性体302によって変位を生じる。それによって、検知素子306a〜306d,309a〜309dからは、磁束発生源308の変位量に比例した電気的変位が得られる。 When a force is applied to the acting portion 301, the magnetic flux generation source 308 attached to the support column 304 is displaced by the elastic body 302. As a result, electrical displacement proportional to the amount of displacement of the magnetic flux generation source 308 can be obtained from the detection elements 306a to 306d and 309a to 309d.

各第2のセンサ132は、例えばトルクセンサであり、各関節J1〜J3に生じた力及びモーメント(トルク)をそれぞれ検知するためのものである。以下、この第2のセンサ132に作用する力及びモーメント(トルク)を、「力」という。 Each second sensor 132 is, for example, a torque sensor, and is for detecting a force and a moment (torque) generated in each of the joints J1 to J3. Hereinafter, the force and moment (torque) acting on the second sensor 132 will be referred to as "force".

各第2のセンサ132は、後述する検知素子を有する。各第2のセンサ132の検知素子から検知信号が力センサ入力装置232に出力される。力センサ入力装置232では、各検知信号に基づいて各センサ132に生じた力(外力)を計算し、その計算結果(検知結果)を制御装置200に出力する。このように、第2のセンサ132は、関節J1〜J3に作用した力を検知する。 Each second sensor 132 has a detection element described later. A detection signal is output from the detection element of each second sensor 132 to the force sensor input device 232. The force sensor input device 232 calculates the force (external force) generated in each sensor 132 based on each detection signal, and outputs the calculation result (detection result) to the control device 200. In this way, the second sensor 132 detects the force acting on the joints J1 to J3.

各関節J1〜J3それぞれに配置された第2のセンサ132は、それぞれ、各関節J1〜J3に作用する力(外力)を求めることができればどのようなセンサでも用いることができる。 The second sensor 132 arranged in each of the joints J1 to J3 can be used with any sensor as long as the force (external force) acting on each of the joints J1 to J3 can be obtained.

次に、第2のセンサ132の一例を、図4を用いて説明する。第2のセンサは、図4のように、弾性体501と、光学式エンコーダ502a、502bの各ユニットにより構成されている。光学式エンコーダ502a、502bは、例えば弾性体501に対してトルクが作用する回転軸503を中心とする同心円の同じ直径上の位置を占める対向位置に配置する。 Next, an example of the second sensor 132 will be described with reference to FIG. As shown in FIG. 4, the second sensor is composed of an elastic body 501 and units of optical encoders 502a and 502b. The optical encoders 502a and 502b are arranged at opposite positions occupying positions on the same diameter of concentric circles centered on the rotation shaft 503 on which torque acts on the elastic body 501, for example.

弾性体501は、第1締結部504、第2締結部505、およびこれら両者を結合する放射状に配置されたバネ部506により構成されている。図4の例では、第1締結部504にはスケール固定部512が設けられる。 The elastic body 501 is composed of a first fastening portion 504, a second fastening portion 505, and a spring portion 506 arranged radially to connect the two. In the example of FIG. 4, the scale fixing portion 512 is provided on the first fastening portion 504.

弾性体501の各部位は、目的のトルク検出範囲およびその必要分解能などに応じた弾性(バネ)係数を有する所定の材質、例えば樹脂や、金属(鋼材、ステンレスなど)の材質から構成される。 Each part of the elastic body 501 is made of a predetermined material having an elastic (spring) coefficient according to a target torque detection range and its required resolution, for example, a resin or a metal (steel, stainless steel, etc.) material.

第1締結部504と第2締結部505は、例えば円形または図示のようなドーナツ(リング)状の形状に構成される。これらの締結部(504、505)は、相対変位する測定対象、例えば図2のリンク121側の減速機143とリンク122にそれぞれ締結するためのフランジ部位を構成する。 The first fastening portion 504 and the second fastening portion 505 are formed in, for example, a circular shape or a donut (ring) shape as shown in the drawing. These fastening portions (504 and 505) form flange portions for fastening to the relative displacement measurement target, for example, the speed reducer 143 and the link 122 on the link 121 side in FIG. 2, respectively.

バネ部506は、例えば円形ないしリング形状の第1締結部504と第2締結部505との間を結合するリブ形状の部材として構成されている。これら複数のバネ部506は、トルクが作用する回転軸503を中心として、放射状に配置されている。 The spring portion 506 is configured as a rib-shaped member that connects between the first fastening portion 504 and the second fastening portion 505 having a circular or ring shape, for example. These plurality of spring portions 506 are arranged radially around a rotation shaft 503 on which torque acts.

例えば、バネ部506は、トルクが作用する回転軸503に対して放射状に複数(この例では8)箇所に配置されている。また、第1締結部504と第2締結部505には、モータ141、リンクとそれぞれ締結するための締結部位507(例えばビス孔やタップ孔)が複数(この例では8より多い個数)、配置されている。 For example, the spring portions 506 are arranged at a plurality of positions (8 in this example) radially with respect to the rotating shaft 503 on which torque acts. Further, the first fastening portion 504 to the second fastening part 505, a motor 141, (greater number than 8 in this example) fastening portion 507 for fastening each link (e.g., screw holes and tapped holes) more pieces, Have been placed.

光学式エンコーダ502a(502b)は、光学式の位置センサ(エンコーダ)としての機能を有する。光学式エンコーダ502a(502b)は、スケール508(スケール部)と、スケール508から位置情報を検出する検知素子509を備える。検知素子509は、第1締結部504、および第2締結部505の相対的な回転変位を検出する光学検出部を構成する。 The optical encoder 502a (502b) has a function as an optical position sensor (encoder). The optical encoder 502a (502b) includes a scale 508 (scale unit) and a detection element 509 that detects position information from the scale 508. The detection element 509 constitutes an optical detection unit that detects the relative rotational displacement of the first fastening portion 504 and the second fastening portion 505.

スケール508(スケール部)、検知素子509は、それぞれスケール取付部510と、検知素子取付部511を介して第1締結部504、第2締結部505に装着される。スケール508(スケール部)はスケール取付部510を介して、また、検知素子509は検知素子取付部511を介して弾性体501に固定される。 The scale 508 (scale portion) and the detection element 509 are mounted on the first fastening portion 504 and the second fastening portion 505 via the scale mounting portion 510 and the detection element mounting portion 511, respectively. The scale 508 (scale portion) is fixed to the elastic body 501 via the scale mounting portion 510, and the detection element 509 is fixed to the elastic body 501 via the detection element mounting portion 511.

本実施形態では、スケール取付部510は弾性体501に対してスケール固定部512に固定される。スケール固定部512の全体は、第1締結部504に設けられた凹部512aの形状を有する。この凹部512aの外周側は、検知素子509とスケール508を対向させるための切り欠き部512b(開口部)となっている。 In the present embodiment, the scale mounting portion 510 is fixed to the scale fixing portion 512 with respect to the elastic body 501. The entire scale fixing portion 512 has the shape of the recess 512a provided in the first fastening portion 504. The outer peripheral side of the recess 512a is a notch 512b (opening) for facing the detection element 509 and the scale 508.

また、検知素子取付部511は、弾性体501に対して第2締結部505に固定されている。検知素子509は、不図示の発光素子と受光素子を備えた反射型の光学センサから構成される。スケール508の検知素子509に対向するパターン面には、表面にスケールパターン(詳細不図示)を配置する。このスケールパターンは、例えば規則的に濃淡や反射率を特定のパターンで異ならせて配置することにより構成される。 Further, the detection element mounting portion 511 is fixed to the elastic body 501 at the second fastening portion 505. The detection element 509 includes a reflection type optical sensor including a light emitting element and a light receiving element (not shown). A scale pattern (details not shown) is arranged on the surface of the pattern surface of the scale 508 facing the detection element 509. This scale pattern is configured, for example, by regularly arranging different shades and reflectances in a specific pattern.

なお、このスケールパターンは、検出演算の方式によっては1条のみならず、(例えば配置位相の異なる)複数条の濃淡パターンを複数条配置することもできる。スケールパターンのピッチは、位置検出に必要とされる分解能などに応じて決定するが、近年ではエンコーダの高精度化/高分解能化に伴い、μmオーダのピッチのものも利用可能である。 Note that this scale pattern may have not only one row but also a plurality of shade patterns (for example, having different arrangement phases) depending on the detection calculation method. The pitch of the scale pattern is determined according to the resolution required for position detection and the like, but in recent years, with the increase in accuracy / resolution of the encoder, those with a pitch of μm order can also be used.

検知素子509は、発光素子から光をスケール508に対して照射し、スケール508に反射した光を受光素子が受光する。ここで、回転軸503まわりのトルクが作用し、弾性体501がx軸方向に変形すると、検知素子509とスケール508の相対位置が変化するため、スケール508に照射されている光の照射位置がスケール508上を移動する。 The detection element 509 irradiates the scale 508 with light from the light emitting element, and the light receiving element receives the light reflected by the scale 508. Here, when the torque around the rotating shaft 503 acts and the elastic body 501 is deformed in the x-axis direction, the relative positions of the detection element 509 and the scale 508 change, so that the irradiation position of the light radiated to the scale 508 is changed. Move on scale 508.

このとき、スケール508に照射されている光がスケール508上に設けられたパターンを通過すると、検知素子509の受光素子で検出される光の光量が変化する。この光量の変化から、スケール508と検知素子509との相対移動量を検出する。検知素子509が検出した移動量は、力センサ入力装置232によって弾性体501に作用したトルクに換算される。例えば、検知素子509の出力値(移動量)は、力センサ入力装置232により、検知素子509が検出した移動量を弾性体501に作用したトルクに変換する感度係数を用いて、トルク検出値に変換される。そして計算結果(検知結果)が制御装置200に出力される。 At this time, when the light emitted to the scale 508 passes through the pattern provided on the scale 508, the amount of light detected by the light receiving element of the detection element 509 changes. From this change in the amount of light, the relative movement amount between the scale 508 and the detection element 509 is detected. The amount of movement detected by the detection element 509 is converted into the torque applied to the elastic body 501 by the force sensor input device 232. For example, the output value (movement amount) of the detection element 509 is set to the torque detection value by using the sensitivity coefficient that converts the movement amount detected by the detection element 509 into the torque acting on the elastic body 501 by the force sensor input device 232. Will be converted. Then, the calculation result (detection result) is output to the control device 200.

ティーチングペンダント400は、制御装置200に接続可能に構成され、制御装置200に接続された際に、ロボットアーム101やロボットハンド102を駆動制御する動作指令や教示点のデータを制御装置200に送信可能に構成されている。 The teaching pendant 400 is configured to be connectable to the control device 200, and when connected to the control device 200, data of operation commands and teaching points for driving and controlling the robot arm 101 and the robot hand 102 can be transmitted to the control device 200. It is configured in.

ここで、ロボットアーム101の自由度を表すパラメータを関節角度として、ロボットアーム101の関節J1〜J3の関節角度をそれぞれθ1,θ2,θ3とする。ロボットアーム101のコンフィグレーションは(θ1,θ2,θ3)で表され、関節空間上では、1つの点とみなすことができる。このように、ロボットアーム101の自由度を表すパラメータ(例えば、関節角度や伸縮長さ)を座標軸の値とした場合、ロボットアーム101のコンフィグレーションは関節空間上の点として表現することができる。つまり、関節空間は、ロボットアーム101の関節角度を座標軸とする空間である。 Here, the parameters representing the degrees of freedom of the robot arm 101 are set as joint angles, and the joint angles of the joints J1 to J3 of the robot arm 101 are set to θ1, θ2, and θ3, respectively. The configuration of the robot arm 101 is represented by (θ1, θ2, θ3) and can be regarded as one point in the joint space. As described above, when the parameters representing the degrees of freedom of the robot arm 101 (for example, the joint angle and the extension / contraction length) are set as the values of the coordinate axes, the configuration of the robot arm 101 can be expressed as a point on the joint space. That is, the joint space is a space whose coordinate axis is the joint angle of the robot arm 101.

また、ロボットアーム101の先端部101Bには、ツールセンターポイント(TCP)が設定されている。TCPは、位置を表す3つのパラメータ(x,y,z)と、姿勢(回転)を表す3つのパラメータ(α,β,γ)、即ち6つのパラメータ(x,y,z,α,β,γ)で表され、タスク空間上では、1つの点としてみなすことができる。つまり、タスク空間は、これら6つの座標軸で規定された空間である。 A tool center point (TCP) is set at the tip 101B of the robot arm 101. TCP has three parameters (x, y, z) that represent positions and three parameters (α, β, γ) that represent posture (rotation), that is, six parameters (x, y, z, α, β, It is represented by γ) and can be regarded as one point in the task space. That is, the task space is a space defined by these six coordinate axes.

教示点は、関節空間又はタスク空間上の点として、作業者が操作するティーチングペンダント400により制御装置200に設定される。 The teaching point is set in the control device 200 by the teaching pendant 400 operated by the operator as a point on the joint space or the task space.

制御装置200は、設定された複数の教示点を繋ぐロボットアーム101の経路を所定の補間方法(例えば、直線補間や円弧補間、関節補間等)で生成する。そして、制御装置200は、生成したロボットアーム101の経路から、ロボットアーム101の軌道を生成する。 The control device 200 generates a path of the robot arm 101 connecting a plurality of set teaching points by a predetermined interpolation method (for example, linear interpolation, arc interpolation, joint interpolation, etc.). Then, the control device 200 generates the trajectory of the robot arm 101 from the generated path of the robot arm 101.

ここで、ロボットアーム101の経路とは、関節空間又はタスク空間の点の順序集合である。ロボットアーム101の軌道とは、時間をパラメータとして経路を表したものであり、第1実施形態では、時刻毎のロボットアーム101の各関節J1〜J3の角度指令(動作指令)の集合である。 Here, the path of the robot arm 101 is an ordered set of points in the joint space or the task space. The trajectory of the robot arm 101 represents a path with time as a parameter, and in the first embodiment, it is a set of angle commands (movement commands) of the joints J1 to J3 of the robot arm 101 for each time.

制御装置200は、ロボット装置500全体を統括して制御するものである。制御装置200は、位置制御動作時には、生成した動作指令を駆動制御装置233に出力する。制御装置200は、力制御動作時には、力センサ入力装置231,232から出力された検知結果に基づいて動作指令を補正して、駆動制御装置233に出力する。例えば、制御装置200は、力制御動作時には、力センサ入力装置231,232から出力された検知結果に基づき、所定方向の力が小さくなるように動作指令を補正して、駆動制御装置233に出力する。 The control device 200 controls the entire robot device 500 in an integrated manner. The control device 200 outputs the generated operation command to the drive control device 233 during the position control operation. During the force control operation, the control device 200 corrects the operation command based on the detection result output from the force sensor input devices 231,232 and outputs the operation command to the drive control device 233. For example, during the force control operation, the control device 200 corrects the operation command so that the force in the predetermined direction becomes smaller based on the detection result output from the force sensor input devices 231,232 and outputs the force to the drive control device 233. To do.

駆動制御装置233は、ロボットアーム101の各関節J1〜J3に設けられたモータ141に動作指令に対応する電流を供給して、モータ141を動作させ、ロボットアーム101を動作させる。即ち、制御装置200は、ロボットアーム101の動作を制御する。 The drive control device 233 supplies a current corresponding to an operation command to the motors 141 provided in the joints J1 to J3 of the robot arm 101 to operate the motor 141 and operate the robot arm 101. That is, the control device 200 controls the operation of the robot arm 101.

図5は、制御装置200の構成を示すブロック図である。制御装置200は、演算部としてのCPU(Central Processing Unit)201を備えている。また、制御装置200は、記憶部として、ROM(Read Only Memory)202、RAM(Random Access Memory)203、HDD(Hard Disk Drive)204を備えている。また、制御装置200は、記録ディスクドライブ205及び各種のインタフェース211〜215を備えている。 FIG. 5 is a block diagram showing the configuration of the control device 200. The control device 200 includes a CPU (Central Processing Unit) 201 as a calculation unit. Further, the control device 200 includes a ROM (Read Only Memory) 202, a RAM (Random Access Memory) 203, and an HDD (Hard Disk Drive) 204 as storage units. Further, the control device 200 includes a recording disk drive 205 and various interfaces 211 to 215.

CPU201には、ROM202、RAM203、HDD204、記録ディスクドライブ205及び各種のインタフェース211〜215が、バス210を介して接続されている。ROM202には、BIOS等の基本プログラムが格納されている。RAM203は、CPU201の演算処理結果等、各種データを一時的に記憶する記憶装置である。 A ROM 202, a RAM 203, an HDD 204, a recording disk drive 205, and various interfaces 211 to 215 are connected to the CPU 201 via a bus 210. A basic program such as a BIOS is stored in the ROM 202. The RAM 203 is a storage device that temporarily stores various data such as the calculation processing result of the CPU 201.

HDD204は、CPU201の演算処理結果や外部から取得した各種データ等を記憶する記憶装置であると共に、CPU201に、後述する各種演算処理を実行させるためのプログラム240を記録するものである。CPU201は、HDD204に記録(格納)されたプログラム240に基づいてロボット制御方法の各工程を実行する。即ち、CPU201は、プログラム240を実行することにより、図1に示すロボット制御部(以下、「制御部」という)221及び力センサ切替部222として機能する。 The HDD 204 is a storage device that stores the calculation processing results of the CPU 201, various data acquired from the outside, and the like, and also records the program 240 for causing the CPU 201 to execute various calculation processes described later. The CPU 201 executes each step of the robot control method based on the program 240 recorded (stored) in the HDD 204. That is, the CPU 201 functions as a robot control unit (hereinafter referred to as “control unit”) 221 and a force sensor switching unit 222 shown in FIG. 1 by executing the program 240.

記録ディスクドライブ205は、記録ディスク241に記録された各種データやプログラム等を読み出すことができる。 The recording disk drive 205 can read various data, programs, and the like recorded on the recording disk 241.

教示部であるティーチングペンダント400は、インタフェース211に接続されている。ティーチングペンダント400は、ユーザの入力操作により、ロボット100(ロボットアーム101)を教示する教示点、即ち各関節J1〜J3の目標関節角度(又はTCPの目標の位置及び姿勢)を指定することができる。教示点のデータは、インタフェース211及びバス210を通じてCPU201又はHDD204に出力される。CPU201は、ティーチングペンダント400又はHDD204から教示点のデータの入力を受ける。 The teaching pendant 400, which is a teaching unit, is connected to the interface 211. The teaching pendant 400 can specify a teaching point for teaching the robot 100 (robot arm 101), that is, a target joint angle (or a target position and posture of TCP) of each joint J1 to J3 by a user input operation. .. The teaching point data is output to the CPU 201 or HDD 204 through the interface 211 and the bus 210. The CPU 201 receives input of teaching point data from the teaching pendant 400 or HDD 204.

力センサ入力装置231は、インタフェース212に接続され、力センサ入力装置232は、インタフェース213に接続されている。これにより、CPU201は、第1のセンサ131により検知された検知結果を取得し、第2のセンサ132により検知された検知結果を取得することができる。 The force sensor input device 231 is connected to the interface 212, and the force sensor input device 232 is connected to the interface 213. As a result, the CPU 201 can acquire the detection result detected by the first sensor 131 and the detection result detected by the second sensor 132.

エンコーダ161,162は、インタフェース214に接続されている。エンコーダ161,162からは、検出した角度検出値を示すパルス信号が出力される。CPU201は、インタフェース21及びバス210を介してエンコーダ161,162からのパルス信号の入力を受ける。なお、各関節J1〜J3の関節角度は、エンコーダ162により検出された角度、又はエンコーダ161により検出された角度×(1/N)である。よって、CPU201は、いずれかのエンコーダの検出角度からロボットアーム101の動作位置を求めることができる。即ち、各関節J1〜J3のエンコーダ161又はエンコーダ162による位置検出部により、ロボットアーム101の動作位置を検出することとなり、CPU201は、ロボットアーム101の動作位置の検出結果を取得することになる。 The encoders 161, 162 are connected to the interface 214. The encoders 161, 162 output pulse signals indicating the detected angle detection values. CPU201 receives an input of the pulse signal from the encoder 161 via the interface 21 4 and the bus 210. The joint angles of the joints J1 to J3 are the angles detected by the encoder 162 or the angles × (1 / N) detected by the encoder 161. Therefore, the CPU 201 can obtain the operating position of the robot arm 101 from the detection angle of any of the encoders. That is, the position detection unit by the encoder 161 or the encoder 162 of each joint J1 to J3 detects the operation position of the robot arm 101, and the CPU 201 acquires the detection result of the operation position of the robot arm 101.

駆動制御装置233は、インタフェース215に接続されている。CPU201は、与えられた教示点のデータに基づき、モータ141の回転軸142の回転角度の制御量を示す動作指令を生成する。そして、CPU201は、動作指令を所定時間間隔でバス210及びインタフェース215を介して駆動制御装置233に出力する。これにより、CPU201は、動作指令によりロボットアーム101の動作位置を制御する。 The drive control device 233 is connected to the interface 215. The CPU 201 generates an operation command indicating a control amount of the rotation angle of the rotation shaft 142 of the motor 141 based on the data of the given teaching points. Then, the CPU 201 outputs an operation command to the drive control device 233 via the bus 210 and the interface 215 at predetermined time intervals. As a result, the CPU 201 controls the operation position of the robot arm 101 according to the operation command.

バス210には、不図示のインタフェースを介して、書き換え可能な不揮発性メモリや外付けHDD等の不図示の外部記憶装置が接続されていてもよい。 An external storage device (not shown) such as a rewritable non-volatile memory or an external HDD may be connected to the bus 210 via an interface (not shown).

なお、第1実施形態では、コンピュータ読み取り可能な記録媒体がHDD204であり、HDD204にプログラム240が格納される場合について説明するが、これに限定するものではない。プログラム240は、コンピュータ読み取り可能な記録媒体であれば、いかなる記録媒体に記録されていてもよい。例えば、プログラム240を供給するための記録媒体としては、図5に示すROM202や、記録ディスク241、不図示の外部記憶装置等を用いてもよい。具体例を挙げて説明すると、記録媒体として、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、USBメモリ等の不揮発性メモリ、ROM等を用いることができる。 In the first embodiment, the case where the computer-readable recording medium is the HDD 204 and the program 240 is stored in the HDD 204 will be described, but the present invention is not limited to this. The program 240 may be recorded on any recording medium that can be read by a computer. For example, as the recording medium for supplying the program 240, the ROM 202 shown in FIG. 5, the recording disk 241, an external storage device (not shown), or the like may be used. To give a specific example, as the recording medium, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a non-volatile memory such as a USB memory, a ROM, or the like can be used.

第1実施形態では、第1のセンサ131の検知可能な力の検知可能範囲と、第2のセンサ132の検知可能な力の検知可能範囲とが異なる。第1実施形態では、第1のセンサ131は、第2のセンサ132よりも検知可能範囲の上限値(定格)が小さい。例えば、第1のセンサ131の検知可能範囲は、0[N]以上10[N]以下であり、第2のセンサ132の検知可能範囲は、0[N]以上100[N]以下である。各第2のセンサ132の検知可能範囲は、同一とする。 In the first embodiment, the detectable range of the detectable force of the first sensor 131 and the detectable range of the detectable force of the second sensor 132 are different. In the first embodiment, the first sensor 131 has a smaller upper limit value (rating) in the detectable range than the second sensor 132. For example, the detectable range of the first sensor 131 is 0 [N] or more and 10 [N] or less, and the detectable range of the second sensor 132 is 0 [N] or more and 100 [N] or less. The detectable range of each second sensor 132 is the same.

ここで、第1のセンサ131,第2のセンサ132の定格と分解能とはトレードオフの関係にある。つまり、高定格の、第2のセンサ132は低分解能となり、低定格の、第1のセンサ131は高分解能となる。 Here, there is a trade-off relationship between the ratings of the first sensor 131 and the second sensor 132 and the resolution. That is, the high-rated second sensor 132 has a low resolution, and the low-rated first sensor 131 has a high resolution.

低定格の第1のセンサ131は、高定格の第2のセンサ132ではノイズに埋もれて計測困難な微小な外力を計測できるため、柔軟な組立部品で微小な外力が要求される作業工程に適した構成とすることができる。高定格の第2のセンサ132は、低定格の第1のセンサ131の計測範囲を超えた外力を計測できるため、剛体などの組立部品で高荷重な外力が要求される作業工程に適した構成とすることができる。 The low-rated first sensor 131 can measure a minute external force that is buried in noise and difficult to measure with the high-rated second sensor 132, so it is suitable for work processes that require a minute external force with flexible assembly parts. It can be configured as such. Since the high-rated second sensor 132 can measure an external force exceeding the measurement range of the low-rated first sensor 131, it is suitable for a work process in which a high load external force is required for an assembly part such as a rigid body. Can be.

部品を把持するロボットハンド102に近いほど組付作業時の外力をロスが少なく検知でき、ロボットアーム101自体の慣性力の影響も受けにくい。そのため、第1実施形態では、ロボットアーム101の先端部に配置した第1のセンサ131は、性能を有効に活用できる低定格かつ高分解能なセンサとする。他方、各関節J1〜J3に配置した第2のセンサ132を高定格なセンサとすることで、高荷重な外力を検知する際に適した構成となる。よって、第1実施形態では、2種類のセンサ131,132を同一のロボットアーム101に配置している。 The closer it is to the robot hand 102 that grips the part, the less the external force during assembly work can be detected, and the less it is affected by the inertial force of the robot arm 101 itself. Therefore, in the first embodiment, the first sensor 131 arranged at the tip of the robot arm 101 is a low-rated and high-resolution sensor that can effectively utilize the performance. On the other hand, by using the second sensor 132 arranged in each of the joints J1 to J3 as a highly rated sensor, the configuration is suitable for detecting a high external force. Therefore, in the first embodiment, the two types of sensors 131 and 132 are arranged on the same robot arm 101.

高荷重の作業工程をロボット100が行う際においても、低定格の第1のセンサ131及び高定格の第2のセンサ132のどちらにも同程度の外力が加わることになる。一般的に、力を求めるためのセンサは、低定格であるほど耐荷重が小さくなる。よって、第1実施形態では、低定格の第1のセンサ131には、過負荷に対する保護機構134が設けられている。この保護機構134により、低定格の第1のセンサ131は、高荷重時の作業工程に耐えることができる。 Even when the robot 100 performs a high-load work process, the same amount of external force is applied to both the low-rated first sensor 131 and the high-rated second sensor 132. In general, the lower the rating of a sensor for obtaining force, the smaller the load capacity. Therefore, in the first embodiment, the low-rated first sensor 131 is provided with a protection mechanism 134 against overload. With this protection mechanism 134, the low rated first sensor 131 can withstand the work process under high load.

図6は、本発明の第1実施形態に係るロボット装置におけるロボット制御方法の各工程を示すフローチャートである。第1実施形態では、CPU201がプログラム240を実行することにより、図1に示す制御部221及び力センサ切替部222として機能する。 FIG. 6 is a flowchart showing each step of the robot control method in the robot device according to the first embodiment of the present invention. In the first embodiment, the CPU 201 executes the program 240 to function as the control unit 221 and the force sensor switching unit 222 shown in FIG.

まず、制御部221は、第1のセンサ131及び第2のセンサ132のうち、いずれのセンサの検知結果を用いるのかを選択する(S1:選択工程)。即ち、制御部221は、力センサ切替部222へ切替信号を送り、切替信号を受けた力センサ切替部222は、切替信号に従って、力センサ入力装置231または力センサ入力装置232を選択する。力センサ切替部222は、選択したセンサの検知結果(出力結果)を制御部221へ伝送する。 First, the control unit 221 selects which of the first sensor 131 and the second sensor 132 the detection result of the sensor is to be used (S1: selection step). That is, the control unit 221 sends a switching signal to the force sensor switching unit 222, and the force sensor switching unit 222 that receives the switching signal selects the force sensor input device 231 or the force sensor input device 232 according to the switching signal. The force sensor switching unit 222 transmits the detection result (output result) of the selected sensor to the control unit 221.

次に、制御部221は、ステップS1にて選択したセンサの検知結果を用いて、ロボットアーム101の制御(インピーダンス制御、即ち力制御)を行う(S2:制御工程)。その際、制御部221は、駆動制御装置233に動作指令を出力し、駆動制御装置233は、動作指令に従ってロボットアーム101を動作させる。 Next, the control unit 221 controls the robot arm 101 (impedance control, that is, force control) using the detection result of the sensor selected in step S1 (S2: control step). At that time, the control unit 221 outputs an operation command to the drive control device 233, and the drive control device 233 operates the robot arm 101 in accordance with the operation command.

第1のセンサ131,第2のセンサ132に生じる外力が小さい場合には、制御部221は、低定格かつ高分解能の第1のセンサ131の検知結果を選択し、力センサ切替部222へ切替信号を送る。一方、制御部221は、第1のセンサ131,第2のセンサ132に生じる外力が大きい場合には、高定格かつ低分解能の第2のセンサ132の検知結果を選択し、力センサ切替部222へ切替信号を送る。 When the external force generated in the first sensor 131 and the second sensor 132 is small, the control unit 221 selects the detection result of the first sensor 131 having a low rating and high resolution, and switches to the force sensor switching unit 222. Send a signal. On the other hand, when the external force generated in the first sensor 131 and the second sensor 132 is large, the control unit 221 selects the detection result of the second sensor 132 having a high rating and low resolution, and the force sensor switching unit 222. Send a switching signal to.

以下、第1実施形態における制御装置200の制御動作について詳細に説明する。図7は、本発明の第1実施形態に係る制御装置200によるロボット制御方法を説明するための図である。ロボットの動作領域からセンサを切替する方法について説明する。 Hereinafter, the control operation of the control device 200 according to the first embodiment will be described in detail. FIG. 7 is a diagram for explaining a robot control method by the control device 200 according to the first embodiment of the present invention. A method of switching the sensor from the operating area of the robot will be described.

制御部221は、ロボットアーム101の先端部101B(ロボットハンド102)が動作可能なX−Y−Zの3次元空間の領域について、第1領域である領域Aと第2領域である領域Bとを設定する。なお、図7では、説明の都合上、X−Z平面上の領域Aおよび領域Bを図示している。図7中、領域Aはa→b→c→dで囲まれた領域である。領域Bはd→e→f→gで囲まれる領域から領域Aを除いた領域である。領域A,Bはそれぞれ1つである必要はなく、領域A,Bの数は任意である。 The control unit 221 includes a region A which is a first region and a region B which is a second region with respect to a region of XYZ in which the tip portion 101B (robot hand 102) of the robot arm 101 can operate. To set. Note that, for convenience of explanation, FIG. 7 shows a region A and a region B on the XZ plane. In FIG. 7, the area A is an area surrounded by a → b → c → d. Region B is a region surrounded by d → e → f → g, excluding region A. The regions A and B do not have to be one, and the number of regions A and B is arbitrary.

ステップS1では、制御部221は、ロボットアーム101の動作位置の情報に基づいて、力制御にいずれのセンサの検知結果を用いるのかを選択する。より具体的に説明すると、制御部221は、ロボットアーム101の動作位置が、複数の領域A,Bのうちいずれに属するかを判別し、判別結果に基づき、いずれのセンサの検知結果を用いるのかを選択する。具体的には、制御部221は、ロボットアーム101(先端部101B)の動作位置が領域Aに属している場合、第1のセンサ131の検知結果を選択し、ロボットアーム101の動作位置が領域Bに属している場合、第2のセンサ132の検知結果を選択する。 In step S1, the control unit 221 selects which sensor's detection result is used for force control based on the information on the operating position of the robot arm 101. More specifically, the control unit 221 determines which of the plurality of regions A and B the operating position of the robot arm 101 belongs to, and which sensor's detection result is used based on the determination result. Select. Specifically, when the operating position of the robot arm 101 (tip 101B) belongs to the area A, the control unit 221 selects the detection result of the first sensor 131, and the operating position of the robot arm 101 is the area. If it belongs to B, the detection result of the second sensor 132 is selected.

その際、制御部221は、ロボットアーム101の動作位置の情報として、前述した動作指令を用いる。なお、制御部221は、ロボットアーム101の動作位置の情報として、エンコーダ161又はエンコーダ162によるロボットアーム101の動作位置の検出結果を用いてもよい。このように、制御部221は、ロボットアーム101の動作位置の情報を把握できる。 At that time, the control unit 221 uses the above-mentioned operation command as information on the operation position of the robot arm 101. The control unit 221 may use the detection result of the operating position of the robot arm 101 by the encoder 161 or the encoder 162 as the information of the operating position of the robot arm 101. In this way, the control unit 221 can grasp the information on the operating position of the robot arm 101.

図7の例では、領域Aには柔軟組立部品である部品W1が置かれている。制御部221は、微小な外力の力制御が要求されるためにロボットアーム101(先端部101B)が領域Aに位置しているときは、低定格かつ高分解能なセンサであるロボットアーム101の先端部の第1のセンサ131を選択する。 In the example of FIG. 7, a component W1 which is a flexible assembly component is placed in the region A. When the robot arm 101 (tip 101B) is located in the region A because the control unit 221 is required to control a minute external force, the control unit 221 is the tip of the robot arm 101 which is a low-rated and high-resolution sensor. Select the first sensor 131 of the unit.

また、図7の例では、領域Bには剛体組立部品である部品W2が置かれている。制御部221は、高荷重な外力の力制御が要求されるため、ロボットアーム101(先端部101B)が領域Bに位置しているときは、高定格なセンサであるロボットアーム101の各関節J1〜J3の第2のセンサ132を選択する。 Further, in the example of FIG. 7, a component W2, which is a rigid body assembly component, is placed in the region B. Since the control unit 221 is required to control the force of a high load external force, when the robot arm 101 (tip portion 101B) is located in the region B, each joint J1 of the robot arm 101, which is a highly rated sensor, is located. ~ Select the second sensor 132 of J3.

なお、図7において、架台110(領域A)のZ軸上方にも領域Bを設定している。軸上方の領域Bではロボット100が部品搬送するときの高速動作を想定しており、力制御による組立作業は発生しない。しかしながら、例えば、人間とロボット100との協調作業時には人間とロボット100との予期せぬ衝突が起きる場合がある。そのときには、第2のセンサ132により衝突荷重を検知して適切にロボット100(ロボットアーム101)が退避できることが望ましい。ロボットアーム101に何かが衝突したときには、高荷重が想定されることから、軸上方の領域Bにおいて、第2のセンサ132を選択している。 In FIG. 7, the area B is also set above the Z axis of the gantry 110 (area A). In the region B above the Z axis, high-speed operation is assumed when the robot 100 conveys parts, and assembly work by force control does not occur. However, for example, when the human and the robot 100 collaborate with each other, an unexpected collision between the human and the robot 100 may occur. At that time, it is desirable that the robot 100 (robot arm 101) can be appropriately retracted by detecting the collision load by the second sensor 132. When something collides with the robot arm 101, a high load is assumed, so the second sensor 132 is selected in the region B above the Z axis.

以上、第1実施形態によれば、制御部221が、第1のセンサ131及び第2のセンサ132の検知結果を選択的に使用してロボットアーム101の力制御を行う。これにより、微小な外力から大きな外力まで幅広いレンジで外力を高精度に検知でき、ロボットアーム101を高精度に力制御できる。具体的には、高荷重が加わる組立作業には、外力を検知できる範囲が大きい第2のセンサ132の検知結果を選択的に使用し、微小な外力の検知が必要な組立作業には外力を検知できる範囲が小さい第1のセンサ131の検知結果を選択的に使用する。これによって、微小な外力から高荷重な外力まで検知して高精度な力制御が可能となる。 As described above, according to the first embodiment, the control unit 221 selectively uses the detection results of the first sensor 131 and the second sensor 132 to control the force of the robot arm 101. As a result, the external force can be detected with high accuracy in a wide range from a minute external force to a large external force, and the robot arm 101 can be force-controlled with high accuracy. Specifically, the detection result of the second sensor 132, which has a large range of detecting external force, is selectively used for assembly work in which a high load is applied, and external force is used for assembly work that requires detection of minute external force. The detection result of the first sensor 131 having a small detection range is selectively used. This enables highly accurate force control by detecting from a minute external force to a high load external force.

[第2実施形態]
次に、本発明の第2実施形態に係るロボット装置におけるロボット制御方法について説明する。図8は、本発明の第2実施形態に係るロボット制御方法を示すフローチャートである。この図8に示すフローチャートには、柔軟組立部品である部品W1と、剛体組立部品である部品W2について、ロボット100が組立を行う工程を示している。なお、ロボット装置の構成については、第1実施形態のロボット装置500と同様であるため、説明を省略する。
[Second Embodiment]
Next, a robot control method in the robot device according to the second embodiment of the present invention will be described. FIG. 8 is a flowchart showing a robot control method according to a second embodiment of the present invention. The flowchart shown in FIG. 8 shows a process in which the robot 100 assembles a part W1 which is a flexible assembly part and a part W2 which is a rigid body assembly part. Since the configuration of the robot device is the same as that of the robot device 500 of the first embodiment, the description thereof will be omitted.

まず、制御部221は、ロボット100が部品W1へ移動するよう、ロボットアーム101の動作を制御する(S11)。次に、制御部221は、ロボット100が部品W1を組み立てるよう、ロボットアーム101の動作を制御する(S12)。制御部221は、ロボット100が部品W2へ移動するよう、ロボットアーム101の動作を制御する(S13)。次に、制御部221は、ロボット100が部品W2を組み立てるよう、ロボットアーム101の動作を制御する(S14)。最後に、制御部221は、ロボット100が部品W1,W2を搬送するよう、ロボットアーム101の動作を制御する(S15)。 First, the control unit 221 controls the operation of the robot arm 101 so that the robot 100 moves to the component W1 (S11). Next, the control unit 221 controls the operation of the robot arm 101 so that the robot 100 assembles the component W1 (S12). The control unit 221 controls the operation of the robot arm 101 so that the robot 100 moves to the component W2 (S13). Next, the control unit 221 controls the operation of the robot arm 101 so that the robot 100 assembles the component W2 (S14). Finally, the control unit 221 controls the operation of the robot arm 101 so that the robot 100 conveys the parts W1 and W2 (S15).

以上のステップS11〜S15において、制御部221は、駆動制御装置233にロボットアーム101の動作指令を送り、ロボットアーム101を動作させている。このため、制御部221は、第1実施形態と同様、ロボットアーム101の動作位置を判断することが可能である。 In the above steps S11 to S15, the control unit 221 sends an operation command of the robot arm 101 to the drive control device 233 to operate the robot arm 101. Therefore, the control unit 221 can determine the operating position of the robot arm 101 as in the first embodiment.

よって、以上のステップS11〜S15の動作時の力制御において、ロボットアーム101の動作位置の情報(例えば、動作指令や位置検出部の検出結果に基づくロボットアーム101の位置)で、センサを選択する。例えば、制御部221は、ステップS12の力制御では、第1のセンサ131の検知結果を選択し、ステップS11,S13,S14,S15の力制御では、第2のセンサ132の検知結果を選択する。 Therefore, in the force control during operation in steps S11 to S15, the sensor is selected based on the information on the operation position of the robot arm 101 (for example, the position of the robot arm 101 based on the operation command and the detection result of the position detection unit). .. For example, the control unit 221 selects the detection result of the first sensor 131 in the force control of step S12, and selects the detection result of the second sensor 132 in the force control of steps S11, S13, S14, and S15. ..

なお、ロボットアーム101の動作の指示を教示点で指定する方法もある。よって、第2実施形態では、ロボットアーム101の動作パターン(動作指令)でセンサの選択を行ったが、教示点毎にセンサを選択するようにしてもよい。即ち制御部221は、ロボットアーム101の動作位置の情報として、与えられた教示点を用いてもよい。 There is also a method of designating the operation instruction of the robot arm 101 at the teaching point. Therefore, in the second embodiment, the sensor is selected based on the operation pattern (operation command) of the robot arm 101, but the sensor may be selected for each teaching point. That is, the control unit 221 may use a given teaching point as information on the operating position of the robot arm 101.

以上、第2実施形態においても、制御部221が、第1のセンサ131及び第2のセンサ132の検知結果を選択的に使用してロボットアーム101の力制御を行う。これにより、微小な外力から大きな外力まで幅広いレンジで外力を高精度に検知でき、ロボットアーム101を高精度に力制御できる。 As described above, also in the second embodiment, the control unit 221 selectively uses the detection results of the first sensor 131 and the second sensor 132 to control the force of the robot arm 101. As a result, the external force can be detected with high accuracy in a wide range from a minute external force to a large external force, and the robot arm 101 can be force-controlled with high accuracy.

[第3実施形態]
次に、本発明の第3実施形態に係るロボット装置におけるロボット制御方法について説明する。図9は、本発明の第3実施形態に係るロボット制御方法を説明するための図である。なお、ロボット装置の構成については、第1実施形態のロボット装置500と同様であるため、説明を省略する。
[Third Embodiment]
Next, a robot control method in the robot device according to the third embodiment of the present invention will be described. FIG. 9 is a diagram for explaining a robot control method according to a third embodiment of the present invention. Since the configuration of the robot device is the same as that of the robot device 500 of the first embodiment, the description thereof will be omitted.

上記第1、第2実施形態では、いずれもロボット100が作業を行う前に制御部221に切替ポイントを設定しておく、即ち、事前にどのセンサの検知結果を使用するのかを設定しておくものであった。これに対し、第3実施形態では、リアルタイムにセンサの検知結果を選択するものである。以下、具体的に説明する。図9には、外力に対する第1のセンサ131,第2のセンサ132の出力を示すグラフを図示している。 In both of the first and second embodiments, the switching point is set in the control unit 221 before the robot 100 performs the work, that is, which sensor detection result is used is set in advance. It was a thing. On the other hand, in the third embodiment, the detection result of the sensor is selected in real time. Hereinafter, a specific description will be given. FIG. 9 shows a graph showing the outputs of the first sensor 131 and the second sensor 132 with respect to an external force.

制御部221は、第1のセンサ131,第2のセンサ132のうち、少なくとも1つのセンサにより検知された力の大きさに基づき、力制御にいずれのセンサの検知結果を用いるのかを選択する。 The control unit 221 selects which sensor's detection result is used for force control based on the magnitude of the force detected by at least one of the first sensor 131 and the second sensor 132.

ここで、図9において、実線で示す出力が、低定格かつ高分解能な第1のセンサ131が有効に機能する外力の検知可能範囲である。また、点線で示す出力が、高定格な第2のセンサ132が有効に機能する外力の検知可能範囲である。即ち、図9において、第1のセンサ131の検知可能範囲は、0[N]以上F1[N]以下であり、第2のセンサ132の検知可能範囲は、0[N]以上F2(>F1)[N]以下である。換言すると、第1のセンサ131の定格は、F1[N]であり、第2のセンサ132の定格は、F2[N]である。 Here, in FIG. 9, the output shown by the solid line is the detectable range of the external force in which the low-rated and high-resolution first sensor 131 effectively functions. Further, the output shown by the dotted line is the detectable range of the external force in which the highly rated second sensor 132 effectively functions. That is, in FIG. 9, the detectable range of the first sensor 131 is 0 [N] or more and F1 [N] or less, and the detectable range of the second sensor 132 is 0 [N] or more and F2 (> F1). ) [N] or less. In other words, the rating of the first sensor 131 is F1 [N], and the rating of the second sensor 132 is F2 [N].

制御部221は、F1[N]よりも大きくF2[N]以下の範囲では、第2のセンサ132の検知結果を選択する。そして、制御部221は、それぞれのセンサ131,132が有効に機能する外力の検知可能範囲を跨ぐような外力が作用した場合にどちらかのセンサの検知結果を選択する。第3実施形態では、制御部221は、0[N]以上F1[N]以下が2つのセンサ131,132の検知可能範囲が重複する範囲であり、この範囲のときは第1のセンサ131の検知結果を選択する。よって、制御部221は、0[N]以上F1[N]以下の場合は、第1のセンサ131の検知結果を選択し、F1[N]よりも大きくF2[N]以下の場合は、第2のセンサ132の検知結果を選択する。第3実施形態では、F1[N]が切替ポイントということになる。なお、切替ポイントは、作業対象、センサの種類などにより任意に設定可能である。 The control unit 221 selects the detection result of the second sensor 132 in the range larger than F1 [N] and less than F2 [N]. Then, the control unit 221 selects the detection result of either sensor when an external force that exceeds the detectable range of the external force in which the respective sensors 131 and 132 function effectively is applied. In the third embodiment, the control unit 221 has a range in which the detectable ranges of the two sensors 131 and 132 overlap from 0 [N] to F1 [N], and in this range, the first sensor 131 Select the detection result. Therefore, the control unit 221 selects the detection result of the first sensor 131 when it is 0 [N] or more and F1 [N] or less, and when it is larger than F1 [N] and F2 [N] or less, it is the first. The detection result of the sensor 132 of 2 is selected. In the third embodiment, F1 [N] is the switching point. The switching point can be arbitrarily set depending on the work target, the type of sensor, and the like.

ここで、制御部221は、力センサ切替部222を通じてリアルタイムに第1のセンサ131,第2のセンサ132の出力結果をモニタできる状態にある。よって、荷重を計測した場合に制御部221からの切替信号により力センサ切替部222が動作することでリアルタイムにセンサを選択することが可能となる。 Here, the control unit 221 is in a state where the output results of the first sensor 131 and the second sensor 132 can be monitored in real time through the force sensor switching unit 222. Therefore, when the load is measured, the force sensor switching unit 222 operates according to the switching signal from the control unit 221 so that the sensor can be selected in real time.

組立部品には公差があり一様の形状ではないため、組立に生じる外力が同じ部品で異なる。第3実施形態によれば、実際に検知した力に応じてリアルタイムにセンサの選択を行っているので、事前にセンサの選択しておく場合よりも、組立時のロボットアーム101の制御性が更に向上する。 Since the assembled parts have tolerances and do not have a uniform shape, the external force generated in the assembly differs between the same parts. According to the third embodiment, since the sensor is selected in real time according to the actually detected force, the controllability of the robot arm 101 at the time of assembly is further improved as compared with the case where the sensor is selected in advance. improves.

[第4実施形態]
次に、本発明の第4実施形態に係るロボット装置におけるロボット制御方法について説明する。図10は、本発明の第4実施形態に係るロボット装置を示す説明図である。なお、第4実施形態のロボット装置500Aにおいて、上記第1〜第3実施形態のロボット装置と同様の構成については、同一符号を付して説明を省略する。
[Fourth Embodiment]
Next, a robot control method in the robot device according to the fourth embodiment of the present invention will be described. FIG. 10 is an explanatory diagram showing a robot device according to a fourth embodiment of the present invention. In the robot device 500A of the fourth embodiment, the same components as those of the robot devices of the first to third embodiments are designated by the same reference numerals, and the description thereof will be omitted.

第4実施形態のロボット装置500Aは、上記実施形態のロボット装置500にカメラシステムを追加したものである。具体的には、ロボット装置500Aは、上記実施形態のロボット装置500の各構成に加えて、撮像装置であるカメラ450と、カメラ450により撮像された撮像画像を処理する画像処理装置460とを備えている。 The robot device 500A of the fourth embodiment is an addition of a camera system to the robot device 500 of the above embodiment. Specifically, the robot device 500A includes, in addition to each configuration of the robot device 500 of the above-described embodiment, a camera 450 which is an image pickup device and an image processing device 460 which processes an image captured by the camera 450. ing.

カメラ450は、ロボットアーム101に取り付けられたロボットハンド102により作業可能な位置(架台110上)に配置された作業対象物である部品W1,W2を撮像可能な位置に配置されている。カメラ450は、デジタルカメラであり、画像処理装置460に撮像画像のデータを伝送可能に有線又は無線で画像処理装置460に接続されている。 The camera 450 is arranged at a position where the parts W1 and W2, which are work objects arranged at a position where the robot hand 102 attached to the robot arm 101 can work (on the gantry 110), can be imaged. The camera 450 is a digital camera, and is connected to the image processing device 460 by wire or wirelessly so that the data of the captured image can be transmitted to the image processing device 460.

画像処理装置460は、制御装置200に接続され、カメラ450による撮像画像を解析して、撮像画像中の部品が部品W1,W2のうちのいずれの種類の部品であるかを特定する。そして、画像処理装置460は、撮像画像から特定した種類の部品(部品W1,W2)の位置を測定し、その結果を制御装置200に伝送する。 The image processing device 460 is connected to the control device 200 and analyzes the image captured by the camera 450 to identify which type of component W1 or W2 the component in the captured image is. Then, the image processing device 460 measures the positions of the parts (parts W1 and W2) of the type specified from the captured image, and transmits the result to the control device 200.

制御装置200の制御部221は、カメラ450により撮像された撮像画像の解析結果に基づく部品W1,W2の位置に応じて、領域A,Bを設定する。具体的に説明すると、制御部221には、上記第1実施形態と同様に、領域A,Bが予め設定されている。そして、制御部221は、撮像画像の解析結果に基づき、部品W1が領域Aに位置し、且つ部品W2が領域Bに位置するように、領域A,Bの設定を変更する。 The control unit 221 of the control device 200 sets the regions A and B according to the positions of the components W1 and W2 based on the analysis result of the captured image captured by the camera 450. More specifically, regions A and B are preset in the control unit 221 as in the first embodiment. Then, the control unit 221 changes the settings of the areas A and B so that the component W1 is located in the area A and the component W2 is located in the area B based on the analysis result of the captured image.

以下、具体例を挙げて説明する。図11(a)は、領域A,Bを変更する前の状態を示す模式図であり、図11(b)は、領域A,Bを変更した後の状態を示す模式図である。 Hereinafter, a specific example will be described. FIG. 11A is a schematic diagram showing a state before the areas A and B are changed, and FIG. 11B is a schematic diagram showing a state after the areas A and B are changed.

図11(a)に示すように、図7と同様、制御部221には、センサの切替領域である領域A,Bのデータが事前に設定されている。図11(a)では、部品W2は、領域Aに位置しており、領域Bに位置していなければ有効な力制御が実現できない。図11(a)に示すように、人間とロボットとの協調作業時に人間が領域Aに部品W2を置いてしまう可能性がある。そこで、制御部221は、カメラ450の撮像画像に基づく計測値を利用することにより、領域A,Bを、図11(b)に示すように修正する。 As shown in FIG. 11A, as in FIG. 7, the data of the areas A and B, which are the switching areas of the sensor, are preset in the control unit 221. In FIG. 11A, the component W2 is located in the area A, and effective force control cannot be realized unless the component W2 is located in the area B. As shown in FIG. 11A, there is a possibility that the human will place the component W2 in the area A during the cooperative work between the human and the robot. Therefore, the control unit 221 modifies the regions A and B as shown in FIG. 11B by using the measured values based on the captured image of the camera 450.

即ち、制御部221は、ロボット100による組立作業において、カメラ450に、架台110上に置かれた部品W1および部品W2を撮像させる。画像処理装置460は、カメラ450から送信された撮像画像を処理して、部品W1,W2の位置を計測する。画像処理装置460は、その計測結果を制御装置200の制御部221に送り、制御部221は、事前に設定された領域A,Bと、部品W1,W2との位置関係を照合する。そして、制御部221は、図11(b)に示したように、照合結果により新たに領域A,領域Bを設定する。 That is, the control unit 221 causes the camera 450 to take an image of the parts W1 and the parts W2 placed on the gantry 110 in the assembly work by the robot 100. The image processing device 460 processes the captured image transmitted from the camera 450 and measures the positions of the components W1 and W2. The image processing device 460 sends the measurement result to the control unit 221 of the control device 200, and the control unit 221 collates the positional relationship between the preset areas A and B and the parts W1 and W2. Then, as shown in FIG. 11B, the control unit 221 newly sets the area A and the area B according to the collation result.

制御部221は、新たな領域A,Bの情報に基づいて切替信号を力センサ切替部222へ送ることでリアルタイムにセンサを選択することが可能となる。 The control unit 221 can select a sensor in real time by sending a switching signal to the force sensor switching unit 222 based on the information in the new areas A and B.

なお、第4実施形態では、領域A,Bで第1のセンサ131,第2のセンサ132の検知結果を選択するようにしたが、これに限定するものではない。即ち、制御部221は、カメラ450により撮像された撮像画像の解析結果に基づく部品の種類(部品W1,W2)に応じて、力制御にいずれのセンサの検知結果を用いるのかを選択してもよい。部品W1,W2のうちいずれの種類の部品であるかは、撮像画像に含まれる部品の形状又は色等で判断すればよい。 In the fourth embodiment, the detection results of the first sensor 131 and the second sensor 132 are selected in the areas A and B, but the present invention is not limited to this. That is, the control unit 221 may select which sensor's detection result is used for force control according to the type of component (components W1 and W2) based on the analysis result of the captured image captured by the camera 450. Good. Which type of component W1 or W2 is used may be determined by the shape or color of the component included in the captured image.

なお、本発明は、以上説明した実施形態に限定されるものではなく、本発明の技術的思想内で多くの変形が可能である。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されない。 The present invention is not limited to the embodiments described above, and many modifications can be made within the technical idea of the present invention. In addition, the effects described in the embodiments of the present invention merely list the most preferable effects arising from the present invention, and the effects according to the present invention are not limited to those described in the embodiments of the present invention.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other Embodiments]
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

また、第1〜第4実施形態で説明した切替条件(選択条件)を複数組み合わせてもよい。複数の切替条件とすることで切替の信頼性が更に向上する。例えば、図7において領域Aと領域Bに境目付近に組立部品がある場合、図9において外力が切替ポイント付近の値である場合などである。この場合は、領域Aにロボットアーム101(先端部101B)が位置していること、かつ、外力が所定の値以下といったように複合条件を指定することで切替の信頼性を高めることが可能である。 Further, a plurality of switching conditions (selection conditions) described in the first to fourth embodiments may be combined. The reliability of switching is further improved by setting a plurality of switching conditions. For example, in FIG. 7, there is an assembled part near the boundary between the area A and the area B, and in FIG. 9, the external force is a value near the switching point. In this case, it is possible to improve the reliability of switching by specifying a compound condition such that the robot arm 101 (tip portion 101B) is located in the area A and the external force is equal to or less than a predetermined value. is there.

また、上記第1〜第4実施形態においては、多関節のロボット100が、垂直多関節のロボットである場合について説明したが、水平多関節のロボット(スカラロボット)、パラレルリンクロボットなどであってもよい。 Further, in the first to fourth embodiments, the case where the articulated robot 100 is a vertical articulated robot has been described, but it is a horizontal articulated robot (SCARA robot), a parallel link robot, or the like. May be good.

また、上記第1〜第4実施形態では、センサ(及び力センサ入力装置)が2つの場合で説明したが、センサ(及び力センサ入力装置)が3つ以上となる場合であってもよく、この場合、いずれか1つを選択すればよい。 Further, in the first to fourth embodiments, the case where the number of sensors (and the force sensor input device) is two has been described, but the case where the number of sensors (and the force sensor input device) is three or more may be used. In this case, any one may be selected.

101…ロボットアーム、102…ロボットハンド(エンドエフェクタ)、131…力センサ(第1のセンサ)、132…力センサ(第2のセンサ)、200…制御装置(制御手段)、500…ロボット装置 101 ... Robot arm, 102 ... Robot hand (end effector), 131 ... Force sensor (first sensor), 132 ... Force sensor (second sensor), 200 ... Control device (control means), 500 ... Robot device

Claims (20)

ロボットアームと、
前記ロボットアームの動作を制御する制御装置と、を備え、
前記ロボットアームは、力を検出可能な第1のセンサと、前記第1のセンサが検出可能な範囲よりも大きい力を検出可能な第2のセンサと、を有し、
前記制御装置は、
前記第1のセンサに前記範囲の上限値よりも大きい力が生じる場合は、前記第2のセンサの検出結果に基づき前記ロボットアームを制御し、
前記第1のセンサに前記範囲以内の力が生じる場合は、前記第1のセンサの検出結果に基づき前記ロボットアームを制御する
ことを特徴とするロボット装置。
With the robot arm
A control device for controlling the operation of the robot arm is provided.
The robot arm has a first sensor capable of detecting a force, and a second sensor capable of detecting force greater than said first sensor is capable of detecting range,
The control device is
When a force larger than the upper limit value of the range is generated in the first sensor, the robot arm is controlled based on the detection result of the second sensor.
When a force within the range is generated in the first sensor, the robot arm is controlled based on the detection result of the first sensor .
A robot device characterized by that.
前記ロボットアームは関節と、エンドエフェクタと、を備えており、
前記第1のセンサは、前記ロボットアームの端部と前記エンドエフェクタとの間に配置され、前記エンドエフェクタに作用する荷重を検出
前記第2のセンサは、記関節に配置され、前記関節に作用するトルクを検出する、
とを特徴とする請求項1に記載のロボット装置。
The robot arm includes a joint and an end effector.
The first sensor is disposed between the end portion and the end effector before Symbol robotic arm to detect the load acting on the end effector,
The second sensor is positioned in front Symbol function clauses, detect torque acting on the joint,
Robot device according to claim 1, wherein the this.
前記制御装置は、前記ロボットアームの動作位置の情報に基づいて、前記第1のセンサまたは前記第2のセンサのいずれかの検出結果を選択する
ことを特徴とする請求項に記載のロボット装置。
The control device selects the detection result of either the first sensor or the second sensor based on the information on the operating position of the robot arm .
The robot device according to claim 2 , wherein the robot device is characterized by the above.
前記ロボットアームの周りには、前記第1のセンサの検出結果に基づき前記エンドエフェクタによってワークの把持を行う第1領域と、前記エンドエフェクタによりワークを把持し前記ロボットアームにより搬送を行う第2領域と、が設定されており、 Around the robot arm, there is a first region in which the work is gripped by the end effector based on the detection result of the first sensor, and a second region in which the work is gripped by the end effector and conveyed by the robot arm. And are set,
前記制御装置は、 The control device is
前記エンドエフェクタが前記第1領域に位置している場合は、前記第1のセンサの検出結果に基づき前記ロボットアームを制御し、 When the end effector is located in the first region, the robot arm is controlled based on the detection result of the first sensor.
前記エンドエフェクタが前記第2領域に位置している場合は、前記第2のセンサの検出結果に基づき前記ロボットアームを制御する、 When the end effector is located in the second region, the robot arm is controlled based on the detection result of the second sensor.
ことを特徴とする請求項3に記載のロボット装置。 The robot device according to claim 3, wherein the robot device is characterized by the above.
前記制御装置は、前記エンドエフェクタが把持するワークに基づいて、前記第1のセンサまたは前記第2のセンサのいずれかの検出結果を選択する
ことを特徴とする請求項に記載のロボット装置。
The control device selects the detection result of either the first sensor or the second sensor based on the work gripped by the end effector .
The robot device according to claim 2 , wherein the robot device is characterized by the above.
前記ワークとして、柔軟組立部品と、剛体組立部品と、があり、 As the work, there are a flexible assembly part and a rigid body assembly part.
前記制御装置は、 The control device is
前記エンドエフェクタにより前記柔軟組立部品を把持する際には、前記第1のセンサの検出結果に基づき前記柔軟組立部品を把持し、 When gripping the flexible assembly by the end effector, the flexible assembly is gripped based on the detection result of the first sensor.
前記エンドエフェクタにより前記剛体組立部品を把持する際には、前記第2のセンサの検出結果に基づき前記剛体組立部品を把持する、 When gripping the rigid body assembly by the end effector, the rigid body assembly is gripped based on the detection result of the second sensor.
ことを特徴とする請求項5に記載のロボット装置。 The robot device according to claim 5.
前記制御装置は、与えられた教示点から前記ロボットアームの軌道を生成する
ことを特徴とする請求項2乃至6のいずれか1項に記載のロボット装置。
The control device generates a trajectory of the robot arm from a given teaching point .
The robot device according to any one of claims 2 to 6, wherein the robot device is characterized by the above.
前記制御装置は、前記ロボットアームの動作位置の情報として、与えられた教示点を用いる
ことを特徴とする請求項3または4に記載のロボット装置。
The control device uses a given teaching point as information on the operating position of the robot arm .
The robot device according to claim 3 or 4 .
前記ロボットアームの動作位置を検出する位置検出部を更に備え、
前記制御装置は、前記ロボットアームの動作位置の情報として、前記位置検出部の検出結果を用いる
ことを特徴とする請求項3または4に記載のロボット装置。
A position detecting unit for detecting the operating position of the robot arm is further provided.
The control device uses the detection result of the position detection unit as information on the operating position of the robot arm .
The robot device according to claim 3 or 4 .
前記制御装置は、前記ロボットアームの動作位置が、複数の領域のうちいずれに属するかに基づき、前記第1のセンサまたは前記第2のセンサのいずれかの検出結果を選択する
ことを特徴とする請求項1または2に記載のロボット装置。
The control device selects the detection result of either the first sensor or the second sensor based on which of the plurality of regions the operating position of the robot arm belongs to .
The robot device according to claim 1 or 2 .
撮像装置を更に備え、
前記撮像装置は、作業可能な位置に配置されたワークを撮像し、
前記制御装置は、前記撮像装置により撮像された撮像画像の解析結果に基づく前記ワークの位置に応じて、前記複数の領域を設定する
ことを特徴とする請求項10に記載のロボット装置。
Equipped with an image pickup device
The imaging device captures an image of a workpiece arranged at a workable position.
The control device sets the plurality of regions according to the position of the work based on the analysis result of the captured image captured by the imaging device .
The robot device according to claim 10.
撮像装置を更に備え、
前記エンドエフェクタによって作業可能な位置に、前記第1のセンサの検出結果に基づき前記エンドエフェクタを制御し把持を行う第1ワークと、前記第2のセンサの検出結果に基づき前記エンドエフェクタを制御し把持を行う第2ワークと、が載置されており、
前記制御装置は、
前記撮像装置により撮像された撮像画像の解析結果により前記第1ワークを検出した場合は、前記第1のセンサの検出結果に基づき前記第1ワークを把持し、
前記撮像装置により撮像された撮像画像の解析結果により前記第2ワークを検出した場合は、前記第2のセンサの検出結果に基づき前記第2ワークを把持する、
ことを特徴とする請求項に記載のロボット装置。
Equipped with an image pickup device
The first work that controls and grips the end effector based on the detection result of the first sensor and the end effector are controlled based on the detection result of the second sensor at a position where the end effector can work. The second work for gripping is placed on it.
The control device is
When detecting more the first work on the analysis result of a captured image captured by the imaging device grips the first work on the basis of the detection result of said first sensor,
When detecting the second work by the analysis result of the image captured image by the imaging device, gripping the second workpiece based on a detection result of said second sensor,
The robot device according to claim 2 , wherein the robot device is characterized by the above.
前記第1のセンサは、前記第2のセンサよりも力の検出における分解能が高い、 The first sensor has a higher resolution in force detection than the second sensor.
ことを特徴とする請求項1乃至12のいずれか1項に記載のロボット装置。 The robot device according to any one of claims 1 to 12, characterized in that.
前記第1のセンサには、過負荷に対する保護機構が設けられている、 The first sensor is provided with a protection mechanism against overload.
ことを特徴とする請求項1乃至13のいずれか1項に記載のロボット装置。 The robot device according to any one of claims 1 to 13, characterized in that.
ロボットアームが、力を検出可能な第1のセンサと、前記第1のセンサが検出可能な範囲よりも大きい力を検出可能な第2のセンサを有しており、制御装置により前記ロボットアームの動作を制御する制御方法であって、
前記制御装置が、前記第1のセンサに前記範囲の上限値よりも大きい力が生じる場合は、前記第2のセンサの検出結果に基づき前記ロボットアームを制御し
前記制御装置が、前記第1のセンサに前記範囲以内の力が生じる場合は、前記第1のセンサの検出結果に基づき前記ロボットアームを制御する、
ことを特徴とする制御方法。
Robotic arm, a first sensor capable of detecting the force, the first sensor has a second sensor capable of detecting the force greater than the detectable range, the robot arm by the control device It is a control method that controls the operation of
When the control device generates a force larger than the upper limit value of the range on the first sensor, the robot arm is controlled based on the detection result of the second sensor .
When the control device generates a force within the range of the first sensor, the control device controls the robot arm based on the detection result of the first sensor .
A control method characterized by that.
前記ロボットアームはエンドエフェクタを備えており、
前記ロボットアームの周りには、前記第1のセンサの検出結果に基づき前記エンドエフェクタによってワークの把持を行う第1領域と、前記エンドエフェクタによりワークを把持し前記ロボットアームにより搬送を行う第2領域と、が設定されており、
前記制御装置が、前記エンドエフェクタが前記第1領域に位置している場合は、前記第1のセンサの検出結果に基づき前記ロボットアームを制御し、
前記制御装置が、前記エンドエフェクタが前記第2領域に位置している場合は、前記第2のセンサの検出結果に基づき前記ロボットアームを制御する、
ことを特徴とする請求項1に記載の制御方法。
The robot arm is equipped with an end effector.
Around the robot arm, there is a first region in which the work is gripped by the end effector based on the detection result of the first sensor, and a second region in which the work is gripped by the end effector and conveyed by the robot arm. And are set,
When the end effector is located in the first region, the control device controls the robot arm based on the detection result of the first sensor.
When the end effector is located in the second region, the control device controls the robot arm based on the detection result of the second sensor.
The method of claim 1 5, characterized in that.
撮像装置を更に備え、
前記ロボットアームはエンドエフェクタを備えており、
前記エンドエフェクタによって作業可能な位置に、前記第1のセンサの検出結果に基づき前記エンドエフェクタを制御し把持を行う第1ワークと、前記第2のセンサの検出結果に基づき前記エンドエフェクタを制御し把持を行う第2ワークと、が載置されており、
前記撮像装置により撮像された撮像画像の解析結果により前記第1ワークを検出した場合は、前記第1のセンサの検出結果に基づき前記第1ワークを把持し、
前記撮像装置により撮像された撮像画像の解析結果により前記第2ワークを検出した場合は、前記第2のセンサの検出結果に基づき前記第2ワークを把持する、
ことを特徴とする請求項1に記載の制御方法。
Equipped with an image pickup device
The robot arm is equipped with an end effector.
The first work that controls and grips the end effector based on the detection result of the first sensor and the end effector are controlled based on the detection result of the second sensor at a position where the end effector can work. The second work for gripping is placed on it.
When the first work is detected based on the analysis result of the captured image captured by the imaging device, the first work is gripped based on the detection result of the first sensor.
When the second work is detected based on the analysis result of the captured image captured by the image pickup device, the second work is gripped based on the detection result of the second sensor.
The method of claim 1 5, characterized in that.
ロボットアームが、力を検出可能な第1のセンサと、前記第1のセンサが検出可能な範囲よりも大きい力を検出可能な第2のセンサを有しており、制御装置により前記ロボットアームの動作を制御し、物品の製造を行う物品の製造方法において、
前記制御装置が、前記第1のセンサに前記範囲の上限値よりも大きい力が生じる場合は、前記第2のセンサの検出結果に基づき前記ロボットアームを制御し
前記制御装置が、前記第1のセンサに前記範囲以内の力が生じる場合は、前記第1のセンサの検出結果に基づき前記ロボットアームを制御し、物品の製造を行う
ことを特徴とする物品の製造方法。
Robotic arm, a first sensor capable of detecting the force, the first sensor has a second sensor capable of detecting the force greater than the detectable range, the robot arm by the control device In the method of manufacturing an article, which controls the operation of the article and manufactures the article.
When the control device generates a force larger than the upper limit value of the range on the first sensor, the robot arm is controlled based on the detection result of the second sensor .
When the control device generates a force within the range of the first sensor, the control device controls the robot arm based on the detection result of the first sensor to manufacture an article .
A method of manufacturing an article, characterized in that.
コンピュータに請求項1乃至17のいずれか1項に記載の制御方法を実行させるためのプログラム。 Program for executing a control how according to any one of claims 1 5 to 17 in a computer. 請求項19に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium on which the program according to claim 19 is recorded.
JP2015249285A 2015-01-29 2015-12-22 Robot devices, control methods, article manufacturing methods, programs and recording media Active JP6771888B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/002,831 US10201901B2 (en) 2015-01-29 2016-01-21 Robot apparatus, method for controlling robot, program, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015015604 2015-01-29
JP2015015604 2015-01-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020165806A Division JP7237904B2 (en) 2015-01-29 2020-09-30 ROBOT DEVICE, CONTROL METHOD, PRODUCT MANUFACTURING METHOD, PROGRAM, AND RECORDING MEDIUM

Publications (3)

Publication Number Publication Date
JP2016144861A JP2016144861A (en) 2016-08-12
JP2016144861A5 JP2016144861A5 (en) 2019-02-07
JP6771888B2 true JP6771888B2 (en) 2020-10-21

Family

ID=56685729

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015249285A Active JP6771888B2 (en) 2015-01-29 2015-12-22 Robot devices, control methods, article manufacturing methods, programs and recording media
JP2020165806A Active JP7237904B2 (en) 2015-01-29 2020-09-30 ROBOT DEVICE, CONTROL METHOD, PRODUCT MANUFACTURING METHOD, PROGRAM, AND RECORDING MEDIUM

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020165806A Active JP7237904B2 (en) 2015-01-29 2020-09-30 ROBOT DEVICE, CONTROL METHOD, PRODUCT MANUFACTURING METHOD, PROGRAM, AND RECORDING MEDIUM

Country Status (1)

Country Link
JP (2) JP6771888B2 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6772013B2 (en) * 2016-09-28 2020-10-21 キヤノン株式会社 Robot arms, robot controls, and robot systems
JP6922213B2 (en) * 2016-12-26 2021-08-18 株式会社デンソーウェーブ Manipulator warm-up operation necessity judgment device
JP6479264B2 (en) * 2017-01-13 2019-03-06 三菱電機株式会社 Collaborative robot system and control method thereof
JP6824764B2 (en) * 2017-01-27 2021-02-03 キヤノン株式会社 Manufacturing methods for sensors, robot devices and articles
JP2018132498A (en) * 2017-02-17 2018-08-23 キヤノン株式会社 Sensor, robot, and method for manufacturing article
JP6496335B2 (en) * 2017-03-03 2019-04-03 ファナック株式会社 Robot system
CN107053218A (en) * 2017-06-02 2017-08-18 西安热工研究院有限公司 A kind of intelligent robot and detection method for detecting the infrared hot spot of photovoltaic module
JP6977363B2 (en) * 2017-07-25 2021-12-08 株式会社ニコン Torque detection module, drive device, stage device, robot device, and control device
JP2020025992A (en) 2018-08-09 2020-02-20 株式会社東芝 Control device, control method, and program
JP6841802B2 (en) 2018-08-31 2021-03-10 ファナック株式会社 Robots and robot systems
JP7388828B2 (en) * 2019-05-27 2023-11-29 ファナック株式会社 robot
JPWO2022004372A1 (en) * 2020-07-03 2022-01-06
JP2022021523A (en) * 2020-07-22 2022-02-03 住友重機械工業株式会社 Robot arm operation method, robot system, control apparatus, and program
JP2022090902A (en) * 2020-12-08 2022-06-20 オムロン株式会社 Robot, gripping force control device, gripping force control method, and gripping force control program
JP2021051098A (en) * 2021-01-13 2021-04-01 キヤノン株式会社 Driving device, robot, and robotic device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2691591B2 (en) * 1988-11-20 1997-12-17 富士通株式会社 Control system of force control robot
JP2001038664A (en) * 1999-08-04 2001-02-13 Yaskawa Electric Corp Robot arm impedance control device
JP4628769B2 (en) * 2004-12-16 2011-02-09 本田技研工業株式会社 Electronic brake device
JP5376859B2 (en) * 2007-08-28 2013-12-25 キヤノン株式会社 Magnetic force sensor and robot arm having magnetic force sensor
JP5166836B2 (en) * 2007-11-26 2013-03-21 トヨタ自動車株式会社 Robotic manipulator

Also Published As

Publication number Publication date
JP7237904B2 (en) 2023-03-13
JP2016144861A (en) 2016-08-12
JP2020203379A (en) 2020-12-24

Similar Documents

Publication Publication Date Title
JP6771888B2 (en) Robot devices, control methods, article manufacturing methods, programs and recording media
US10201901B2 (en) Robot apparatus, method for controlling robot, program, and recording medium
US10486309B2 (en) Robot controlling method, robot apparatus, program, recording medium, and method for manufacturing assembly component
JP6008121B2 (en) Robot and robot controller
JP4625110B2 (en) Grasp type hand
JP6512790B2 (en) Robot control method, robot apparatus, program, recording medium, and article manufacturing method
JP2009504418A (en) CMM arm with enhanced manual control
CN105965505A (en) Robot controlling method, robot apparatus, program and recording medium
JP2006102920A (en) Grip-type hand
JP6584102B2 (en) Robot apparatus, robot control method, program, recording medium, and article manufacturing method
Lehmann et al. Robot joint modeling and parameter identification using the clamping method
KR20130093545A (en) Method for detecting a torque and industrial robot
JP2014240106A (en) Robot, robot control device, and driving method of robot
EP1920215A2 (en) Cmm arm with enhanced manual control
KR102076907B1 (en) Robot manipulator
JP2019141970A (en) Arm rotary shaft speed detector of robot
WO2019171516A1 (en) Inertial parameter identification system of vertically articulated robot, inertial parameter identification method, and control device and control method for vertically articulated robot
JP7374737B2 (en) Detection device, drive device, control method for drive device, robot device, control method for robot device, detection method, method for manufacturing articles using robot device, program, and recording medium
JP2017127932A (en) Robot device, method for controlling robot, method for manufacturing component, program and recording medium
JP7267725B2 (en) Robot control method, program, recording medium, robot system, article manufacturing method
CN114901438A (en) Method for suppressing vibration of robot arm by using external object
JP2020062730A (en) Robot control method, robot device, program, recording medium, and article manufacturing method
JP2023066999A (en) Robot system, control method of the same, manufacturing method of article, display device, control method of display device, control program, and recording medium
JP2019093504A (en) Article manufacturing method and robot system
US11841286B2 (en) Torque detection device, torque detection method, robot, method of manufacturing product, control device, recording medium, and structure

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200114

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20200206

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200930

R151 Written notification of patent or utility model registration

Ref document number: 6771888

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151