JPH05318363A - Method for controlling robot - Google Patents

Method for controlling robot

Info

Publication number
JPH05318363A
JPH05318363A JP12846192A JP12846192A JPH05318363A JP H05318363 A JPH05318363 A JP H05318363A JP 12846192 A JP12846192 A JP 12846192A JP 12846192 A JP12846192 A JP 12846192A JP H05318363 A JPH05318363 A JP H05318363A
Authority
JP
Japan
Prior art keywords
robot
target value
control target
sensor
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP12846192A
Other languages
Japanese (ja)
Inventor
Naoto Tojo
直人 東條
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP12846192A priority Critical patent/JPH05318363A/en
Publication of JPH05318363A publication Critical patent/JPH05318363A/en
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

PURPOSE:To provide a method for controlling a robot for realizing an appropriate motion according to a working environment and a working state by exactly recognizing a successively varying working state of the robot in the working environment of the robot. CONSTITUTION:A six-axis force sensor 4 is provided on an articulated arm 1, and a group of hand sensors 5 is provided on an articulated hand 2, and in addition, a CCD camera 3 is provided above an object 6 to be gripped. On the basis of the sensor information to be obtained from these plural sensors, a robot control part 10 calculates the desired value of the control of the robot in every sensor information in realtime, and unifies the plural calculated desired values for controlling the robot according to the required operation strategy, and controls the motion of the robot according to the unified desired value of the control.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、視覚、近接覚、力覚、
触覚等の複数のセンサ情報に基づいてロボットの動作を
制御する方式に関し、特に、移動中の対象物体のハンド
リングに好適なロボット制御方式に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to visual sense, proximity sense, force sense,
The present invention relates to a method for controlling the operation of a robot based on a plurality of sensor information such as tactile sensations, and more particularly to a robot control method suitable for handling a moving target object.

【0002】[0002]

【従来の技術】従来、多関節ロボットにおける制御方式
においては、オペレータが入力した動作指令に基づいて
ロボットの位置制御目標値を計算し、計算された位置制
御目標値に応じてロボットの動作を制御していた。
2. Description of the Related Art Conventionally, in a control system for an articulated robot, a position control target value of the robot is calculated based on a motion command input by an operator, and the motion of the robot is controlled according to the calculated position control target value. Was.

【0003】これに対し、近年は、ロボットの適用範囲
を高めるために、下記の如き種々のセンサ情報に基づく
ロボット制御方式が開発されつつある。 (1) 近接センサ等のON/OFF情報に基づいて、ロ
ボット動作の停止を制御する。 (2) CCDカメラによる視覚情報に基づき、予め作業
環境の認識を行なって、該認識に応じた所定のロボット
の行動計画に従って、ロボットの動作制御を行なう。 (3) 圧電素子等からの力覚情報を用いて、ロボットが
作業対象物に及ぼす作用力を適切に制御する。
On the other hand, in recent years, in order to increase the range of application of robots, robot control systems based on various sensor information as described below are being developed. (1) The stop of the robot operation is controlled based on the ON / OFF information of the proximity sensor or the like. (2) The work environment is recognized in advance based on the visual information from the CCD camera, and the operation of the robot is controlled according to a predetermined robot action plan corresponding to the recognition. (3) The action force exerted by the robot on the work target is appropriately controlled using the force information from the piezoelectric element or the like.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、従来の
センサ情報に基づくロボット制御においては、センサ情
報が単一であるか、或いは複数の場合であっても、1つ
の動作制御の目的に用いられるセンサ情報は単一に限ら
れていたため、刻々と変化するロボットの作業状況を適
確に把握出来ず、作業環境及び作業状況に応じた適切な
対応が出来ない問題があった。
However, in the conventional robot control based on sensor information, even if the sensor information is single or plural, the sensor used for the purpose of one motion control is used. Since the information is limited to a single piece, there is a problem that it is not possible to accurately grasp the changing work status of the robot and it is not possible to appropriately respond to the work environment and work status.

【0005】本発明の目的は、ロボットの作業環境にお
いて、刻々と変化するロボットの作業状況を適確に把握
して、作業環境及び作業状況に応じた適切な動作を実現
するためのロボットの制御方式を提供することである。
An object of the present invention is to control a robot for accurately grasping the changing work situation of the robot in a work environment of the robot and realizing an appropriate operation according to the work environment and the work situation. It is to provide a method.

【0006】[0006]

【課題を解決する為の手段】本発明に係るロボットの制
御方式は、ロボットの作業環境における環境認識情報
(視覚情報、近接覚情報等)、及び作業対象物との機械的
な干渉情報(力覚情報、触覚情報等)を検出する複数のセ
ンサ手段と、前記複数のセンサ手段から得られるセンサ
情報に基づいてロボットの制御目標値を計算する手段
と、ロボットの作業内容及び作業状況に応じた動作戦略
が書き込まれた制御目標値決定手段と、制御目標値の入
力に応じてロボットの動作を制御する手段とを具え、前
記各センサ情報に基づいて、センサ情報毎のロボット制
御目標値をリアルタイムに計算し、計算された複数のロ
ボット制御目標値を前記制御目標値決定手段へ入力し
て、前記動作戦略に従って統合化されたロボット制御目
標値をリアルタイムに作成し、該ロボット制御目標値を
ロボット動作制御手段へ供給するものである。
The robot control method according to the present invention is based on environment recognition information in the work environment of the robot.
(Visual information, proximity information, etc.), and a plurality of sensor means for detecting mechanical interference information (force information, tactile information, etc.) with the work object, and sensor information obtained from the plurality of sensor means. A means for calculating the control target value of the robot based on the control target value, a control target value determining means in which an operation strategy is written according to the work content and work situation of the robot, and the operation of the robot is controlled according to the input of the control target value. Means for calculating the robot control target value for each sensor information in real time based on each of the sensor information, and inputting the plurality of calculated robot control target values to the control target value determining means to perform the operation. The robot control target value integrated according to the strategy is created in real time, and the robot control target value is supplied to the robot operation control means.

【0007】[0007]

【作用】ロボットが目的の動作を実現する過程で、複数
のセンサ手段からは同時に或いは順次に、複数のセンサ
情報が得られる。制御目標値計算手段は、これら複数の
センサ情報と現在のロボット動作位置に基づいて、セン
サ情報毎に、目的とする動作を実現するための制御目標
値をリアルタイムに計算する。
In the process in which the robot realizes a desired operation, a plurality of sensor information can be obtained simultaneously or sequentially from a plurality of sensor means. The control target value calculation means calculates in real time a control target value for realizing a target motion for each sensor information based on the plurality of sensor information and the current robot motion position.

【0008】ロボット制御目標値決定手段は、計算され
た複数のロボット制御目標値に基づき、所定の動作戦略
に従って、適切な1つの制御目標値を選択し、或いは複
数の制御目標値を合成することによって、統合されたロ
ボット制御目標値をリアルタイムに作成する。
The robot control target value determining means selects an appropriate one control target value or combines a plurality of control target values according to a predetermined operation strategy based on the calculated plurality of robot control target values. Creates an integrated robot control target value in real time.

【0009】上記ロボット制御目標値はロボット動作制
御手段へ供給され、該制御目標値と現在のロボット動作
位置に基づき、ロボット制御操作量が計算されて、該操
作量に応じてロボット動作がリアルタイムに制御され
る。
The robot control target value is supplied to the robot operation control means, the robot control operation amount is calculated based on the control target value and the current robot operation position, and the robot operation is performed in real time according to the operation amount. Controlled.

【0010】[0010]

【発明の効果】本発明に係るロボットの制御方式によれ
ば、ロボットの作業環境において、刻々と変化する作業
状況が複数のセンサ手段によって検知され、これらのセ
ンサ情報が統合化されて、ロボットの動作制御にリアル
タイムにフィードバックされるから、ロボットの作業環
境に対する適応能力と、刻々と変化する作業状況に対す
る順応性が高まり、ロボットの適用範囲が拡大される。
According to the robot control system of the present invention, in the work environment of the robot, the ever-changing work situation is detected by a plurality of sensor means, and the sensor information is integrated to make the robot work. Since it is fed back to the motion control in real time, the adaptability to the work environment of the robot and the adaptability to the ever-changing work situation are enhanced, and the application range of the robot is expanded.

【0011】[0011]

【実施例】以下、本発明の一実施例につき、図面に沿っ
て詳述する。図1は本発明を実施すべきロボットシステ
ムの全体構成を示しており、ロボット本体は、多関節ア
ーム(1)及び多関節ハンド(2)を具えた周知の構成を有
し、後述の動作制御によって、移動中の対象物(6)を把
持するものである。
An embodiment of the present invention will be described in detail below with reference to the drawings. FIG. 1 shows the entire configuration of a robot system in which the present invention is implemented. The robot main body has a well-known configuration including an articulated arm (1) and an articulated hand (2), and operation control described later. Holds the moving object (6).

【0012】図2の如く、多関節アーム(1)の先端に6
軸力センサ(4)が配備され、前記対象物を把持する過程
で受ける機械的な干渉、即ち反力を直接に検知する。
又、多関節ハンド(2)には、作業状況をより詳細に検出
するべく、把持対象物との接近状況を検出する近接セン
サ(11)、接触状況を検出する触覚センサ(13)、及び対象
物を把持する際の作用力状況を検出する関節トルクセン
サ(12)からなるハンドセンサ群(5)が装備されている。
As shown in FIG. 2, 6 is attached to the tip of the articulated arm (1).
An axial force sensor (4) is provided to directly detect mechanical interference received in the process of gripping the object, that is, reaction force.
In addition, the articulated hand (2) has a proximity sensor (11) for detecting a state of approach to a grasped object, a tactile sensor (13) for detecting a state of contact, and an object to detect the work state in more detail. A hand sensor group (5) including a joint torque sensor (12) for detecting an action force state when gripping an object is provided.

【0013】更に、図1の如く把持対象物(6)の上方に
はCCDカメラ(3)が配備され、主に把持対象物(6)に
対する多関節アーム(1)の追従状況を視覚的に検知す
る。
Further, as shown in FIG. 1, a CCD camera (3) is provided above the object to be grasped (6) to visually visually observe the following state of the articulated arm (1) mainly with respect to the object to be grasped (6). Detect.

【0014】6軸力センサ(4)の出力は6軸力センサ情
報処理部(8)へ、ハンドセンサ群(5)の各出力はハンド
センサ群情報処理部(7)へ、又CCDカメラ(3)の出力
はCCDカメラ情報処理部(9)へ送出されて、夫々の処
理部にて作成されたセンサ情報がロボット制御部(10)へ
供給される。
The output of the 6-axis force sensor (4) is sent to the 6-axis force sensor information processing section (8), each output of the hand sensor group (5) is sent to the hand sensor group information processing section (7), and the CCD camera ( The output of 3) is sent to the CCD camera information processing unit (9), and the sensor information created by each processing unit is supplied to the robot control unit (10).

【0015】ロボット制御部(10)は、前記複数のセンサ
情報をロボットのフィードバック制御ループに組み込ん
で、ロボット本体の制御機構に対する適切な操作量を算
出し、ロボット本体へ制御信号として出力するものであ
る。
The robot controller (10) incorporates the plurality of sensor information into a feedback control loop of the robot, calculates an appropriate operation amount for the control mechanism of the robot body, and outputs it as a control signal to the robot body. is there.

【0016】本実施例においては、移動中の対象物を把
持する際のハンドリング戦略として、下記の方策が予め
設定されている。図4は、これらの方策が順次、切り換
わりつつ、ロボットの動作制御が進む過程を示してい
る。
In this embodiment, the following measures are preset as a handling strategy when gripping a moving object. FIG. 4 shows a process in which the motion control of the robot progresses while these measures are sequentially switched.

【0017】 ロボットを起動し、その後、一定期間
はオペレータが入力した動作指令に従ってロボット動作
を制御する。
After starting the robot, the robot operation is controlled for a certain period of time in accordance with the operation command input by the operator.

【0018】 CCDカメラ(3)によって把持対象物
(6)が検出されると、CCDカメラ情報からリアルタイ
ムに計算されたロボットの位置制御目標値Bに従ってロ
ボット動作を制御し、ロボットを把持対象物(6)に対し
て適切な状態で接近させる。
Object to be grasped by the CCD camera (3)
When (6) is detected, the robot operation is controlled according to the position control target value B of the robot calculated in real time from the CCD camera information, and the robot approaches the gripping target (6) in an appropriate state.

【0019】 ロボットと把持対象物(6)とが重なっ
て、カメラ情報では把持対象物(6)の検出が不能となる
カメラオクルージョン問題が発生すると、多関節ハンド
(2)に装備した近接センサ(11)からの接近状況に基づ
き、リアルタイムに計算されたロボットの位置制御目標
値Cに従ってロボット動作を制御し、移動中の把持対象
物(6)に対して位置合わせを行い、多関節ハンド(2)を
鉛直に降下させて、ハンドリング態勢に入る。
When a robot occlusion problem occurs in which the robot and the gripping target (6) overlap each other and the gripping target (6) cannot be detected from the camera information, an articulated hand
Based on the approach status from the proximity sensor (11) equipped in (2), the robot operation is controlled according to the position control target value C of the robot calculated in real time, and the position of the gripping target (6) is moving. After making the adjustment, the articulated hand (2) is vertically lowered to enter the handling posture.

【0020】 多関節ハンド(2)に装備した触覚セン
サ(13)及び関節トルクセンサ(12)のセンサ情報に基づい
て、移動中の把持対象物(6)と多関節ハンド(2)の接触
状態や作用力状態が一定となる安定な把持状態を実現す
る。ここで、移動中の対象物(6)に対して安定な把持状
態を維持するために、6軸力センサ(4)のセンサ情報に
基づき、多関節アーム(1)の把持対象物(6)に対する作
用力が一定となる様、リアルタイムに計算されたロボッ
トの位置制御目標値Dに従って、ロボット動作を制御す
る。
Based on the sensor information of the tactile sensor (13) and the joint torque sensor (12) equipped in the articulated hand (2), the contact state between the gripping target (6) and the articulated hand (2) that are moving It realizes a stable gripping state in which the acting force state is constant. Here, in order to maintain a stable gripping state with respect to the moving object (6), based on the sensor information of the 6-axis force sensor (4), the gripping object (6) of the articulated arm (1) is The robot operation is controlled according to the position control target value D of the robot calculated in real time so that the acting force on the robot becomes constant.

【0021】 安定な把持状態が実現された後、多関
節ハンド(2)を鉛直に上昇させ、ハンドリングを終了す
る。
After the stable gripping state is realized, the articulated hand (2) is lifted vertically and the handling is finished.

【0022】上記ハンドリング戦略を実現するためのロ
ボット制御ブロックを図3に示す。該制御ブロックにお
いて、図右側のアーム位置制御目標値計算部(15)、アー
ム制御操作量計算部(18)、アーム本体(20)、アーム位置
現在値計算部(22)及び6軸力センサ情報処理部(24)が、
多関節アーム(1)の制御に関するものであり、図左側の
ハンド位置制御目標値計算部(16)、ハンド制御操作量計
算部(19)、ハンド本体(21)、ハンド位置現在値計算部(2
3)及びアーム位置制御目標値計算部(15)が、多関節ハン
ド(2)の制御に関するものである。
FIG. 3 shows a robot control block for realizing the above handling strategy. In the control block, the arm position control target value calculation unit (15), the arm control operation amount calculation unit (18), the arm body (20), the arm position current value calculation unit (22), and the 6-axis force sensor information on the right side of the figure The processing unit (24)
It relates to the control of the articulated arm (1), and the hand position control target value calculation unit (16), the hand control operation amount calculation unit (19), the hand main body (21), the hand position current value calculation unit ( 2
The arm position control target value calculation unit (3) and the arm position control target value calculation unit (15) relate to control of the articulated hand (2).

【0023】又、図上側の動作指令部(14)、アーム位置
制御目標値計算部(15)及びハンド位置制御目標値計算部
(16)が、オペレータの入力した動作指令に基づいてリア
ルタイムに計算される位置制御目標値に関するものであ
り、図下側のアーム位置現在値計算部(22)、ハンド位置
現在値計算部(23)、6軸力センサ情報処理部(24)、ハン
ドセンサ群情報処理部(25)、CCDカメラ情報処理部(2
6)及び位置制御目標値計算部(27)が、CCDカメラや6
軸力センサ等の各センサ情報から計算されるロボットの
位置制御目標値に関するものである。
Further, the operation command section (14), the arm position control target value calculation section (15) and the hand position control target value calculation section on the upper side of the drawing.
(16) relates to the position control target value calculated in real time based on the operation command input by the operator.The arm position current value calculation unit (22) and the hand position current value calculation unit (23) on the lower side of the drawing are shown. ), 6-axis force sensor information processing unit (24), hand sensor group information processing unit (25), CCD camera information processing unit (2)
6) and the position control target value calculation unit (27) are
The present invention relates to a position control target value of a robot calculated from information on each sensor such as an axial force sensor.

【0024】オペレータが動作指令部(14)を操作する
と、該動作指令部(14)からの動作指令に基づき、アーム
位置制御目標値計算部(15)及びハンド位置制御目標値計
算部(16)が夫々アーム位置制御目標値A1及びハンド位
置制御目標値A2を計算し、計算結果は位置制御目標値
決定部(17)へ出力される。
When the operator operates the operation command unit (14), the arm position control target value calculation unit (15) and the hand position control target value calculation unit (16) are operated based on the operation command from the operation command unit (14). Calculates the arm position control target value A 1 and the hand position control target value A 2 , respectively, and the calculation result is output to the position control target value determination unit (17).

【0025】ハンド本体(21)にはハンド位置現在値計算
部(23)及びハンドセンサ群情報処理部(25)が付属してお
り、ハンド位置現在値計算部(23)から得られるハンド位
置現在値とハンドセンサ群情報処理部(25)から得られる
センサ情報は位置制御目標値計算部(27)へ供給される。
The hand body (21) is provided with a hand position present value calculation unit (23) and a hand sensor group information processing unit (25), and the hand position present value calculation unit (23) obtains the hand position present value. The value and the sensor information obtained from the hand sensor group information processing unit (25) are supplied to the position control target value calculation unit (27).

【0026】又、アーム本体(20)にはアーム位置現在値
計算部(22)及び6軸力センサ情報処理部(24)が付属して
おり、アーム位置現在値計算部(22)から得られるアーム
位置現在値と6軸力センサ情報処理部(24)から得られる
センサ情報は位置制御目標値計算部(27)へ供給される。
Further, the arm main body (20) is provided with an arm position current value calculation unit (22) and a 6-axis force sensor information processing unit (24), which can be obtained from the arm position current value calculation unit (22). The arm position current value and the sensor information obtained from the 6-axis force sensor information processing unit (24) are supplied to the position control target value calculation unit (27).

【0027】更にCCDカメラ情報処理部(26)からのカ
メラ情報も位置制御目標値計算部(27)へ供給される。
Further, the camera information from the CCD camera information processing unit (26) is also supplied to the position control target value calculation unit (27).

【0028】位置制御目標値計算部(27)は、上記各セン
サ情報及び現在値に基づいて、センサ情報毎の制御目標
値B、C、Dを計算し、位置制御目標値決定部(17)へ出
力する。
The position control target value calculation unit (27) calculates the control target values B, C and D for each sensor information based on the above sensor information and current value, and the position control target value determination unit (17). Output to.

【0029】位置制御目標値決定部(17)は、入力された
制御目標値A1、A2、B、C、Dを上記ハンドリング戦
略に従って選択、或いは組み合わせることによって、ハ
ンド位置制御目標値Eとアーム位置制御目標値Fに統合
し、これらの目標値E、Fを夫々ハンド制御操作量計算
部(19)及びアーム制御操作量計算部(18)へ供給する。
The position control target value determining unit (17) selects the hand input control target values A 1 , A 2 , B, C and D according to the above handling strategy or combines them to obtain the hand position control target value E. It is integrated with the arm position control target value F, and these target values E and F are supplied to the hand control operation amount calculation unit (19) and the arm control operation amount calculation unit (18), respectively.

【0030】これによって、ハンド制御操作量計算部(1
9)は、ハンド位置現在値計算部(23)からのハンド位置現
在値と位置制御目標値決定部(17)からの位置制御目標値
Eに基づいて、ハンド制御のための操作量を計算して、
ハンド本体(21)へ制御信号として出力する。
As a result, the hand control operation amount calculation unit (1
9) calculates the operation amount for hand control based on the current hand position value from the hand position current value calculation unit (23) and the position control target value E from the position control target value determination unit (17). hand,
Output as a control signal to the hand body (21).

【0031】又、アーム制御操作量計算部(18)は、アー
ム位置現在値計算部(22)からのアーム位置現在値と位置
制御目標値決定部(17)からの位置制御目標値Fに基づい
て、アーム制御のための操作量を計算して、アーム本体
(20)へ制御信号として出力する。
Further, the arm control operation amount calculation unit (18) is based on the arm position current value from the arm position current value calculation unit (22) and the position control target value F from the position control target value determination unit (17). Calculate the operation amount for arm control,
Output as a control signal to (20).

【0032】斯くして図3のブロック構成によって、ロ
ボット制御のためのフィードバックループが形成され
る。ここで、上記の目標値、現在値、操作量の各計算
は、ロボット制御周期(例えば10msec程度)で行われ
る。
Thus, the block configuration of FIG. 3 forms a feedback loop for controlling the robot. Here, each calculation of the above-mentioned target value, current value, and operation amount is performed in a robot control cycle (for example, about 10 msec).

【0033】尚、ハンドリング戦略においては、オペレ
ータからの動作指令と各センサ情報の夫々から求められ
る位置制御目標値の切換えのみならず、これらの位置制
御目標値の組合せや、センサ情報から求められる位置制
御目標値間での組合せ等、種々の統合方式が可能であ
り、これによってロボットのインテリジェント化が図ら
れる。
Incidentally, in the handling strategy, not only the switching of the position control target value obtained from the operation command from the operator and each sensor information, but also the combination of these position control target values and the position obtained from the sensor information are carried out. Various integration methods such as combinations among control target values are possible, which makes the robot intelligent.

【0034】上述の如く本発明によれば、複数のセンサ
情報に基づく位置制御目標値を作業環境及び作業状況に
応じて統合化し、統合化された位置制御目標値をリアル
タイムにロボット動作へフィードバックすることによ
り、ロボット動作は刻々と変化する作業状況に適切に順
応することになる。この結果、ロボットの作業環境適応
能力が高まり、ひいてはロボットの用途が拡大される。
As described above, according to the present invention, the position control target value based on a plurality of sensor information is integrated according to the work environment and the work situation, and the integrated position control target value is fed back to the robot operation in real time. As a result, the robot operation properly adapts to the ever-changing work situation. As a result, the ability of the robot to adapt to the work environment is enhanced, and the application of the robot is expanded.

【0035】上記実施例の説明は、本発明を説明するた
めのものであって、特許請求の範囲に記載の発明を限定
し、或は範囲を減縮する様に解すべきではない。又、本
発明の各部構成は上記実施例に限らず、特許請求の範囲
に記載の技術的範囲内で種々の変形が可能であることは
勿論である。
The above description of the embodiments is for explaining the present invention, and should not be construed as limiting the invention described in the claims or reducing the scope. The configuration of each part of the present invention is not limited to the above embodiment, and it is needless to say that various modifications can be made within the technical scope described in the claims.

【0036】例えばロボットの動作戦略としては、ロボ
ットの作業内容や作業状況に応じた種々の方策を採用出
来る。又、複数の方策を切り換えて統合化する場合、一
定の切換え期間を設けて、該切換え期間では複数の方策
を重み付けによって加算し、重み付け係数を変化させる
ことによって切換えを円滑に行なうことも可能である。
For example, as the operation strategy of the robot, various measures can be adopted according to the work content and work status of the robot. Further, when a plurality of measures are integrated by switching, it is possible to provide a fixed switching period, add a plurality of measures by weighting in the switching period, and change the weighting coefficient to smoothly perform the switching. is there.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明を実施すべきロボットシステム全体の概
略構成図である。
FIG. 1 is a schematic configuration diagram of an entire robot system in which the present invention is implemented.

【図2】多関節アーム及び多関節ハンドに装備されたセ
ンサ群を示す正面図である。
FIG. 2 is a front view showing a sensor group mounted on an articulated arm and an articulated hand.

【図3】本発明に係るロボット制御方式を表わすブロッ
ク図である。
FIG. 3 is a block diagram showing a robot control system according to the present invention.

【図4】ロボットの動作制御が進む過程を説明する図で
ある。
FIG. 4 is a diagram illustrating a process in which operation control of a robot proceeds.

【符号の説明】[Explanation of symbols]

(1) 多関節アーム (2) 多関節ハンド (3) CCDカメラ (4) 6軸力センサ (5) ハンドセンサ群 (6) 把持対象物 (1) Articulated arm (2) Articulated hand (3) CCD camera (4) 6-axis force sensor (5) Hand sensor group (6) Object to be grasped

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 ロボットの作業環境における環境認識情
報、及び作業対象物との機械的な干渉情報を検出する複
数のセンサ手段と、前記複数のセンサ手段から得られる
センサ情報に基づいてロボットの制御目標値を計算する
手段と、ロボットの作業内容及び作業状況に応じた動作
戦略が書き込まれた制御目標値決定手段と、制御目標値
の入力に応じてロボットの動作を制御する手段とを具
え、前記各センサ情報に基づいて、センサ情報毎のロボ
ット制御目標値をリアルタイムに計算し、計算された複
数のロボット制御目標値を前記制御目標値決定手段へ入
力して、前記動作戦略に従って統合化されたロボット制
御目標値をリアルタイムに作成し、該ロボット制御目標
値をロボット動作制御手段へ供給することを特徴とする
ロボットの制御方式。
1. A plurality of sensor means for detecting environment recognition information in a work environment of a robot and mechanical interference information with a work target, and robot control based on sensor information obtained from the plurality of sensor means. A means for calculating a target value, a control target value determining means in which a motion strategy according to the work content and work status of the robot is written, and means for controlling the motion of the robot according to the input of the control target value, Based on each of the sensor information, the robot control target value for each sensor information is calculated in real time, the calculated plurality of robot control target values are input to the control target value determination means, and integrated according to the operation strategy. A robot control method characterized in that a robot control target value is created in real time and the robot control target value is supplied to a robot operation control means.
JP12846192A 1992-05-21 1992-05-21 Method for controlling robot Pending JPH05318363A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP12846192A JPH05318363A (en) 1992-05-21 1992-05-21 Method for controlling robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12846192A JPH05318363A (en) 1992-05-21 1992-05-21 Method for controlling robot

Publications (1)

Publication Number Publication Date
JPH05318363A true JPH05318363A (en) 1993-12-03

Family

ID=14985291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12846192A Pending JPH05318363A (en) 1992-05-21 1992-05-21 Method for controlling robot

Country Status (1)

Country Link
JP (1) JPH05318363A (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07227782A (en) * 1994-02-16 1995-08-29 Yaskawa Electric Corp Manupilator controller
JP2002114372A (en) * 2000-10-05 2002-04-16 Okura Yusoki Co Ltd Stacking apparatus
WO2004108366A1 (en) * 2003-06-06 2004-12-16 Advantest Corporation Transport device, electronic component handling device, and transporting method for electronic component handling device
JP2009208209A (en) * 2008-03-05 2009-09-17 Ihi Corp Robot production system
JP2009220248A (en) * 2008-03-18 2009-10-01 Ihi Corp Robot installation method and robot production system
JP2012236237A (en) * 2011-05-10 2012-12-06 Seiko Epson Corp Robot hand and robot
JP2015074061A (en) * 2013-10-10 2015-04-20 セイコーエプソン株式会社 Robot control device, robot system, robot, robot control method and robot control program
JP2015074058A (en) * 2013-10-10 2015-04-20 セイコーエプソン株式会社 Robot control device, robot system, robot, robot control method and program
JP2015074063A (en) * 2013-10-10 2015-04-20 セイコーエプソン株式会社 Robot control device, robot system, robot, robot control method, and program
US20150246442A1 (en) * 2014-02-28 2015-09-03 Fanuc Corporation Machine system including wireless sensor
JP2016215310A (en) * 2015-05-19 2016-12-22 日本精工株式会社 Workpiece conveying hand comprising proximity sensor
JP2017042850A (en) * 2015-08-25 2017-03-02 ファナック株式会社 Robot control device for controlling robot driven by motor
JP2017136677A (en) * 2015-07-29 2017-08-10 キヤノン株式会社 Information processing apparatus, information processing method, robot control apparatus, and robot system
WO2018088199A1 (en) * 2016-11-11 2018-05-17 セイコーエプソン株式会社 Robot control device, robot, robotic system, and robotic control method
JP2018083284A (en) * 2016-11-11 2018-05-31 セイコーエプソン株式会社 Robot control device, robot, robot system, and robot control method
JP2019188508A (en) * 2018-04-23 2019-10-31 ファナック株式会社 Working robot system and working robot
JP2020097069A (en) * 2018-12-17 2020-06-25 株式会社安川電機 Robot system and robot control method
US10780579B2 (en) 2018-02-01 2020-09-22 Fanuc Corporation Work robot system
WO2021117479A1 (en) * 2019-12-12 2021-06-17 株式会社エクサウィザーズ Information processing device, method, and program

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07227782A (en) * 1994-02-16 1995-08-29 Yaskawa Electric Corp Manupilator controller
JP2002114372A (en) * 2000-10-05 2002-04-16 Okura Yusoki Co Ltd Stacking apparatus
JP4548638B2 (en) * 2000-10-05 2010-09-22 オークラ輸送機株式会社 Loading device
WO2004108366A1 (en) * 2003-06-06 2004-12-16 Advantest Corporation Transport device, electronic component handling device, and transporting method for electronic component handling device
JP2009208209A (en) * 2008-03-05 2009-09-17 Ihi Corp Robot production system
JP2009220248A (en) * 2008-03-18 2009-10-01 Ihi Corp Robot installation method and robot production system
JP2012236237A (en) * 2011-05-10 2012-12-06 Seiko Epson Corp Robot hand and robot
JP2015074061A (en) * 2013-10-10 2015-04-20 セイコーエプソン株式会社 Robot control device, robot system, robot, robot control method and robot control program
JP2015074058A (en) * 2013-10-10 2015-04-20 セイコーエプソン株式会社 Robot control device, robot system, robot, robot control method and program
JP2015074063A (en) * 2013-10-10 2015-04-20 セイコーエプソン株式会社 Robot control device, robot system, robot, robot control method, and program
US20150246442A1 (en) * 2014-02-28 2015-09-03 Fanuc Corporation Machine system including wireless sensor
US9321178B2 (en) * 2014-02-28 2016-04-26 Fanuc Corporation Machine system including wireless sensor
JP2016215310A (en) * 2015-05-19 2016-12-22 日本精工株式会社 Workpiece conveying hand comprising proximity sensor
JP2017136677A (en) * 2015-07-29 2017-08-10 キヤノン株式会社 Information processing apparatus, information processing method, robot control apparatus, and robot system
JP2017042850A (en) * 2015-08-25 2017-03-02 ファナック株式会社 Robot control device for controlling robot driven by motor
CN106476008A (en) * 2015-08-25 2017-03-08 发那科株式会社 Robot controller
WO2018088199A1 (en) * 2016-11-11 2018-05-17 セイコーエプソン株式会社 Robot control device, robot, robotic system, and robotic control method
JP2018083284A (en) * 2016-11-11 2018-05-31 セイコーエプソン株式会社 Robot control device, robot, robot system, and robot control method
CN109922931A (en) * 2016-11-11 2019-06-21 精工爱普生株式会社 Robot controller, robot, robot system and robot control method
US10780579B2 (en) 2018-02-01 2020-09-22 Fanuc Corporation Work robot system
JP2019188508A (en) * 2018-04-23 2019-10-31 ファナック株式会社 Working robot system and working robot
US11161697B2 (en) 2018-04-23 2021-11-02 Fanuc Corporation Work robot system and work robot
JP2020097069A (en) * 2018-12-17 2020-06-25 株式会社安川電機 Robot system and robot control method
WO2021117479A1 (en) * 2019-12-12 2021-06-17 株式会社エクサウィザーズ Information processing device, method, and program
JP2021091067A (en) * 2019-12-12 2021-06-17 株式会社エクサウィザーズ Information processing device, method and program

Similar Documents

Publication Publication Date Title
JPH05318363A (en) Method for controlling robot
CA2549670C (en) Robot control system
JP3418456B2 (en) Robot position teaching tool and robot position teaching method
JP5013270B2 (en) Robot system
TW201707885A (en) Remote control robot system
US7129664B2 (en) Robot controller
JP7122821B2 (en) Robot system and robot control method
JP2010069584A (en) Device and method for controlling manipulator
JP2001025870A (en) Welding robot system
JP2786874B2 (en) Movable position control device
JP2015231659A (en) Robot device
JP2007168000A (en) Direct operating device of robot
JPH03123907A (en) Direct teaching device and method of robot
JPS625408A (en) Method for controlling joint-type robot
JPH08267381A (en) Robot manual feed control device
JPH07227779A (en) Robot hand posture controller
Hernandez-Mendez et al. A switching position/force controller for two independent finger gripper over ROS
JPH06206185A (en) Robot controller
JPH05337860A (en) Robot hand teaching device and robot hand
WO1994023882A1 (en) Method for automatically controlling welding conditions of an arc welding robot
JP2020104178A (en) Robot device, control method of robot device, manufacturing method for article using robot device, control program and recording medium
JPH01180401A (en) Correcting method for body recognition position of robot with visual sensor
JPH04211803A (en) Model following controlling system and force-position controller for robot
JP3023432B2 (en) Robot controller
JPH09300257A (en) Operation control device for manual manipulator

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20000411