JPH06106490A - Control device - Google Patents

Control device

Info

Publication number
JPH06106490A
JPH06106490A JP25978592A JP25978592A JPH06106490A JP H06106490 A JPH06106490 A JP H06106490A JP 25978592 A JP25978592 A JP 25978592A JP 25978592 A JP25978592 A JP 25978592A JP H06106490 A JPH06106490 A JP H06106490A
Authority
JP
Japan
Prior art keywords
state
control device
actuator
robot
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP25978592A
Other languages
Japanese (ja)
Inventor
Takashi Kimoto
隆 木本
Daiki Masumoto
大器 増本
Yoshinori Yaginuma
義典 柳沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP25978592A priority Critical patent/JPH06106490A/en
Publication of JPH06106490A publication Critical patent/JPH06106490A/en
Withdrawn legal-status Critical Current

Links

Abstract

PURPOSE:To control device posture and the like in an objective condition by converting coordinates of the fingers such as a robot arm into respective joint angle coordinates without solving a complicated numerical expression. CONSTITUTION:A condition detecting device 12 composed of a neural network detects a present device condition from a joint angle and the like of an actuator of a device 11. A detected condition and a target condition command are evaluated by an evaluation function, and an error is propagated inversely through the condition detecting device 12 by using a maximum diving method so that an evaluation value becomes smallest, and the actuator of the device 11 is controlled in a target condition. Since a sensing device 21 to observe an object and a sensor data anticipating device 22 to anticipate sensor data obtained from the sensing device 21 according to a device 11 condition detected by the condition detecting device 12 are added, the fingers of the actuator can be aligned automatically with the object.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、例えば、間接型ロボッ
トのように複数のアクチュエータから構成される装置の
制御装置に関し、特に本発明は、上記装置の状態が目標
状態になるような各アクチュエータへの指令を求め、装
置の状態を目標状態に制御する制御装置に関するもので
ある。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a control device for a device composed of a plurality of actuators such as an indirect robot, and in particular, the present invention relates to each actuator in which the state of the device becomes a target state. The present invention relates to a control device that obtains a command to control the state of the device to a target state.

【0002】[0002]

【従来の技術】例えば、間接型ロボットを制御する場
合、視覚座標系で得られた情報を利用することが多い。
上記視覚座標系は一般に2次元または3次元の直交座標
系で表され、これを用いてロボットを制御する場合、従
来においては、直交座標系を数式処理することにより各
関節の角度座標に変換し、各アクチュエータを制御して
いた。
2. Description of the Related Art For example, when controlling an indirect robot, information obtained in a visual coordinate system is often used.
The visual coordinate system is generally represented by a two-dimensional or three-dimensional Cartesian coordinate system, and when controlling a robot using this, in the past, the Cartesian coordinate system was mathematically processed to convert it into angular coordinates of each joint. , Was controlling each actuator.

【0003】しかしながら、上記座標変換は複雑な数式
処理が必要であり、2次元空間で3関節以上または3次
元空間で7関節以上を持ち冗長自由度を持つロボットで
は解析的に解くことはできなかった。また、従来のカメ
ラ等の測定装置を用いた制御装置、例えば、多関節ロボ
ットにおいては、カメラによって得られる視覚座標系と
ロボットの関節座標系との位置合わせ作業や正確なカメ
ラの位置設定が必要であった。
However, the coordinate transformation requires complicated mathematical expression processing, and cannot be analytically solved by a robot having three or more joints in a two-dimensional space or seven or more joints in a three-dimensional space and having redundant degrees of freedom. It was Further, in a control device using a conventional measuring device such as a camera, for example, in an articulated robot, alignment work between the visual coordinate system obtained by the camera and the joint coordinate system of the robot and accurate camera position setting are required. Met.

【0004】[0004]

【発明が解決しようとする課題】本発明は上記従来した
従来技術の問題点に鑑みなされたものであって、例えば
関節型ロボットのように、複数のアクチュエータから構
成される装置を制御する制御装置において、複雑な数式
を解くことなく、ロボットのアーム等の手先の座標を各
関節角度座標へ変換することができ、装置の姿勢等を目
標状態に制御することが可能な制御装置を提供すること
を目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems of the prior art, and is a control device for controlling a device including a plurality of actuators, such as an articulated robot. In order to provide a control device capable of converting the coordinates of the hand of the robot arm or the like into the joint angle coordinates without solving complicated mathematical expressions, and controlling the posture and the like of the device to a target state. With the goal.

【0005】[0005]

【課題を解決するための手段】図1、図2は本発明の原
理図である。上記課題を解決するため、本発明の請求項
1の発明は図1に示すように、複数のアクチュエータよ
り構成される装置11に対して、装置11の各々のアク
チュエータの状態を検出し、現在の装置11の状態に基
づき、指令された状態に向けて各々のアクチュエータの
状態を制御する制御装置において、各々のアクチュエー
タの状態から装置11の状態を検出する状態検出装置1
2を設け、状態検出装置12を用いて検出した装置11
の状態と目標とする装置の状態を評価し、その評価結果
に基づき各々のアクチュエータの目標状態を最急降下法
により求めてアクチュエータを制御するようにしたもの
である。
1 and 2 show the principle of the present invention. In order to solve the above problems, the invention of claim 1 of the present invention, as shown in FIG. 1, detects the state of each actuator of the device 11 with respect to the device 11 composed of a plurality of actuators. A control device for controlling the state of each actuator toward a commanded state based on the state of the device 11, and a state detection device 1 for detecting the state of the device 11 from the state of each actuator.
Device 11 provided with 2 and detected using the state detection device 12
The target state of each actuator is evaluated by the steepest descent method based on the evaluation result, and the actuators are controlled.

【0006】本発明の請求項2の発明は、請求項1の発
明において、図2に示すように、対象物体の位置等の外
界の状態をセンシングするセンシング装置21と、装置
11の状態からセンサデータへの写像を生成するニュー
ラルネットワーク等の手段からなるセンサデータ予測装
置22を備えた認識装置23とを設け、認識装置23
は、センサデータ予測装置22により予測されたデータ
とセンシング装置21により観測されたデータとの矛盾
が小さくなるように最急降下法でセンサデータを認識
し、認識装置23の認識結果を制御装置13の目標状態
として、制御装置13により装置11のアクチュエータ
を制御するようにしたものである。
According to a second aspect of the present invention, in the first aspect of the invention, as shown in FIG. 2, a sensing device 21 for sensing an external state such as a position of a target object, and a sensor from the state of the device 11 are used. The recognition device 23 is provided with a sensor data prediction device 22 including a means such as a neural network for generating a mapping to data.
Recognizes the sensor data by the steepest descent method so that the contradiction between the data predicted by the sensor data prediction device 22 and the data observed by the sensing device 21 becomes small, and the recognition result of the recognition device 23 is recognized by the control device 13. As a target state, the control device 13 controls the actuator of the device 11.

【0007】本発明の請求項3の発明は、請求項1また
は請求項2の発明において、状態検出装置11にニュー
ラルネットワークを用いたものである。本発明の請求項
4の発明は、請求項3の発明において、誤差逆伝搬法に
より状態検出装置11を学習させ、学習により制御機能
を獲得できるようにしたものである。
According to a third aspect of the present invention, in the first or second aspect of the invention, the state detecting device 11 uses a neural network. According to a fourth aspect of the present invention, in the third aspect of the invention, the state detecting device 11 is learned by the error back propagation method, and the control function can be acquired by the learning.

【0008】本発明の請求項5の発明は、請求項1,
2,3または請求項4の発明において、対象物体の位置
等の外界の状態を一台ないし複数のテレビ・カメラを備
えた画像処理装置、もしくは、レーザ、光学等を利用し
た距離測定装置により測定し、測定した状態より制御装
置13の目標値を得るようにしたものである。本発明の
請求項6の発明は、請求項1,2,3,4または請求項
5の発明において、対象物体の位置等の外界の状態を一
台ないし複数のテレビ・カメラを備えた画像処理装置、
もしくは、レーザ、光学等を利用した距離測定装置によ
り測定し、測定した状態を認識装置23に与えて外界の
状態を認識し、その認識出力を制御装置13の目標とす
るようにしたものである。
According to the invention of claim 5 of the present invention,
In the invention of claim 2, 3 or 4, the state of the outside world such as the position of the target object is measured by an image processing device equipped with one or more televisions or cameras, or a distance measuring device using laser, optics or the like. However, the target value of the control device 13 is obtained from the measured state. According to a sixth aspect of the present invention, in the image processing method according to the first, second, third, fourth or fifth aspect, the external state such as the position of the target object is provided with one or a plurality of television cameras. apparatus,
Alternatively, the distance is measured by a distance measuring device using laser, optics or the like, the measured state is given to the recognition device 23 to recognize the state of the external world, and the recognition output is set as a target of the control device 13. .

【0009】本発明の請求項7の発明は、請求項1,
2,3,4,5または請求項6の発明において、複数の
関節を持つロボットを制御するようにしたものである。
本発明の請求項8の発明は、請求項6の発明において、
制御装置13の状態検出装置12により検出されたロボ
ットの作業座標と、認識装置23により検出された対象
物体の位置等の外界の状態の座標のずれを、制御装置1
3により検出されたロボットの作業座標を教師信号とし
て認識装置23に与えて補正するようにしたものであ
る。
The invention of claim 7 of the present invention is the invention of claim 1,
In the second, third, fourth, and fifth inventions, the robot having a plurality of joints is controlled.
According to the invention of claim 8 of the present invention, in the invention of claim 6,
The control device 1 detects the deviation between the work coordinates of the robot detected by the state detection device 12 of the control device 13 and the coordinates of the external state such as the position of the target object detected by the recognition device 23.
The work coordinates of the robot detected by 3 are given to the recognition device 23 as a teacher signal for correction.

【0010】[0010]

【作用】本発明の請求項1の発明において、状態検出装
置12は、例えば、階層型ニューラルネットワークから
構成されており、装置11のアクチュエータの状態か
ら、現在の装置の状態を検出する。検出された状態と目
標状態指令は評価関数で評価され、その評価値が最小に
なる(もしくは最大など、評価値が最も高くなる)よう
に状態検出装置12を介して、最急降下法を用いて誤差
逆伝搬することにより、装置11のアクチュエータを目
標状態に制御する。
In the first aspect of the present invention, the state detecting device 12 is composed of, for example, a hierarchical neural network, and detects the current state of the device from the state of the actuator of the device 11. The detected state and the target state command are evaluated by the evaluation function, and the steepest descent method is used through the state detection device 12 so that the evaluation value becomes the minimum (or the evaluation value becomes the highest, etc.). The back propagation of the error controls the actuator of the device 11 to the target state.

【0011】本発明においては、階層型ニューラルネッ
トワーク等から構成される状態検出装置12を用いて、
最急降下法を用いて誤差逆伝搬することにより、アクチ
ュエータを目標状態に作動させているので、アクチュエ
ータの手先の座標からアクチュエータの関節角度への変
換を複雑な数式を解くことなく行うことができる。本発
明の請求項2の発明において、認識装置23に設けられ
たセンサデータ予測装置22は、例えば階層型ニューラ
ルネットワークから構成されており、装置11の状態を
入力として、センシング装置21がセンシングするセン
シングデータを予測する。一方、制御装置13におい
て、状態検出装置12により装置11の状態が検出さ
れ、センサデータ予測装置22に入力される。
In the present invention, the state detecting device 12 composed of a hierarchical neural network or the like is used to
Since the actuator is actuated to the target state by backpropagating the error using the steepest descent method, it is possible to convert the coordinates of the tip of the actuator to the joint angle of the actuator without solving a complicated mathematical expression. In the invention of claim 2 of the present invention, the sensor data prediction device 22 provided in the recognition device 23 is configured by, for example, a hierarchical neural network, and the sensing device 21 senses the state of the device 11 as an input. Predict the data. On the other hand, in the control device 13, the state of the device 11 is detected by the state detection device 12 and is input to the sensor data prediction device 22.

【0012】センサデータ予測装置22は状態検出装置
12により検出された装置11の状態に基づき、センサ
データを予測する。予測されたセンサデータとセンシン
グ装置21により観測されたセンサデータは評価手段に
より比較され、その誤差が最も小さくなるように最級降
下法で誤差逆伝搬を行い装置11の目標状態を求める。
装置11の目標状態は制御装置13に与えられ、これと
装置11の状態との誤差が小さくなるように、最急降下
法で誤差逆伝搬を行い、センシング装置21により得ら
れたセンサデータとの矛盾が小さくなるようなアクチュ
エータの目標状態を得る。
The sensor data prediction device 22 predicts sensor data based on the state of the device 11 detected by the state detection device 12. The estimated sensor data and the sensor data observed by the sensing device 21 are compared by the evaluation means, and the back-propagation of the error is performed by the highest-class descent method so as to minimize the error, and the target state of the device 11 is obtained.
The target state of the device 11 is given to the control device 13, and the error back propagation is performed by the steepest descent method so that the error between the target state and the state of the device 11 becomes small, and the contradiction with the sensor data obtained by the sensing device 21 is obtained. The target state of the actuator is obtained such that

【0013】本発明においては、請求項1の発明に、セ
ンシング装置21とセンサデータ予測装置22備えた認
識装置23とを付加し、センシング装置21により観測
されたセンサデータより装置11の目標状態を求めて、
制御装置13により装置11のアクチュエータを制御し
ているので、センシング装置21により観察された対象
物体にアクチュエータの手先を自動的に位置合わせさせ
ることができる。
In the present invention, a sensing device 21 and a recognition device 23 provided with a sensor data prediction device 22 are added to the invention of claim 1, and the target state of the device 11 is determined from the sensor data observed by the sensing device 21. Seeking
Since the control device 13 controls the actuator of the device 11, the hand of the actuator can be automatically aligned with the target object observed by the sensing device 21.

【0014】本発明の請求項3の発明においては、請求
項1または請求項2の発明において、状態検出装置11
にニューラルネットワークを用いているので、ニューラ
ルネットワークを学習させたのち、誤差逆伝搬を行うこ
とにより、容易にアクチュエータの手先の座標からアク
チュエータの関節角度への変換を行うことができる。ま
た、ニューラルネットワークは教えられた点以外でも補
間する機能を持っているので、全空間に対して教師デー
タを作成しなくても適当な代表点を教えるだけでよい。
In the invention of claim 3 of the present invention, the state detecting device 11 in the invention of claim 1 or 2
Since the neural network is used in the above, it is possible to easily convert the coordinates of the tip of the actuator into the joint angle of the actuator by performing the back propagation of the error after learning the neural network. Further, since the neural network has a function of interpolating other than the taught points, it is only necessary to teach an appropriate representative point without creating teacher data for the entire space.

【0015】本発明の請求項4の発明においては、請求
項3の発明において、誤差逆伝搬法により状態検出装置
11を学習させているので、ニューラルネットワークは
学習により制御機能を獲得できるようになる。本発明の
請求項5および請求項6の発明においては、請求項1,
2,3または請求項4の発明において、対象物体の位置
等の外界の状態を一台ないし複数のテレビ・カメラを備
えた画像処理装置、もしくは、レーザ、光学等を利用し
た距離測定装置により測定し、測定した状態より制御装
置13の目標値を得るようにしたので、テレビ・カメラ
により観察された対象物体、もしくは距離測定装置によ
り測定された対象物体にアクチュエータの手先を自動的
に位置合わせさせることができる。
In the invention of claim 4 of the present invention, in the invention of claim 3, the state detecting device 11 is learned by the error back propagation method, so that the neural network can acquire the control function by learning. . In the inventions of claim 5 and claim 6 of the present invention,
In the invention of claim 2, 3 or 4, the state of the outside world such as the position of the target object is measured by an image processing device equipped with one or more televisions or cameras, or a distance measuring device using laser, optics or the like. Since the target value of the control device 13 is obtained from the measured state, the hand of the actuator is automatically aligned with the target object observed by the television / camera or the target object measured by the distance measuring device. be able to.

【0016】本発明の請求項7の発明においては、請求
項1,2,3,4,5または請求項6の発明を複数の関
節を持つロボットの制御に適用したので、多関節ロボッ
トの関節角度から現在の手先位置等の状態を容易に検出
し、多関節ロボットを制御することが可能となる。特
に、従来解くことができなかった2次元空間で3関節以
上、または、3次元空間で7自由度以上の冗長自由度を
持つロボットの座標変換についても、学習させることに
より、容易に行うことができる。
In the invention of claim 7 of the present invention, the invention of claim 1, 2, 3, 4, 5 or 6 is applied to the control of a robot having a plurality of joints. It is possible to easily detect the current state of the hand position from the angle and control the articulated robot. In particular, it is possible to easily perform coordinate transformation of a robot having three or more joints in a two-dimensional space, or a redundant degree of freedom of seven or more degrees of freedom in a three-dimensional space, which could not be conventionally solved, by learning. it can.

【0017】本発明の請求項8の発明においては、請求
項6の発明において、制御装置13の状態検出装置12
により検出されたロボットの作業座標と、認識装置23
により検出された対象物体の位置等の外界の状態の座標
のずれを、制御装置13により検出されたロボットの作
業座標を教師信号として認識装置23に与えて補正する
ようにしたので、認識装置23はロボットの作業座標か
ら対象物体の位置等の外界の状態の座標を認識できるよ
うになる。
According to an eighth aspect of the present invention, in the sixth aspect of the invention, the state detection device 12 of the control device 13 is provided.
Work coordinates of the robot detected by the recognition device 23
Since the deviation of the coordinates of the state of the outside world such as the position of the target object detected by the control device 13 is given to the recognition device 23 as the teacher signal, which is the work coordinates of the robot, the recognition device 23 is corrected. Can recognize the coordinates of the external state such as the position of the target object from the work coordinates of the robot.

【0018】[0018]

【実施例】図3は本発明をテレビ・カメラ等によって外
界をセンスする多関節ロボットに応用した実施例を示す
図であり、本実施例はテレビ・カメラの捕らえた対象物
の位置にロボットの手先を移動させる実施例を示してい
る。同図において、31は3関節からなるアームを持つ
ロボットであり、その手先には物体31aが把持されて
おり、そのアームの関節角は角度エンコーダ等により測
定される。また、32,33はロボット31の手先に把
持された物体31aを捕らえるテレビ・カメラである。
FIG. 3 is a diagram showing an embodiment in which the present invention is applied to a multi-joint robot that senses the outside world by a television / camera or the like. In this embodiment, the robot is placed at the position of an object captured by the television / camera. The example which moves a hand is shown. In the figure, reference numeral 31 is a robot having an arm having three joints, an object 31a is held by the hand of the robot, and the joint angle of the arm is measured by an angle encoder or the like. Reference numerals 32 and 33 are television cameras that capture an object 31a held by the hand of the robot 31.

【0019】図3において、ロボット31の手先に目標
となる物体31aを装着して、物体31aを作業空間内
でランダムに移動させる。ロボット31と物体31a
は、例えば、異なった色に着色されており、図示しない
画像処理装置によりテレビ・カメラで捕らえられた映像
を処理するに際し、ロボットの画像を削除して物体31
a動きのみを捕らえたり、あるいは、物体31aにマー
カをつけ、画像処理装置でマーカのみを検出することに
より、画像処理装置から出力される物体31aの画像デ
ータにロボットの画像が干渉しないようにする。
In FIG. 3, the target object 31a is attached to the hand of the robot 31, and the object 31a is randomly moved in the work space. Robot 31 and object 31a
Are colored in different colors, for example, and when the image captured by the television / camera by an image processing device (not shown) is processed, the image of the robot is deleted and the object 31
a) A robot image does not interfere with the image data of the object 31a output from the image processing apparatus by capturing only the movement or by attaching a marker to the object 31a and detecting only the marker by the image processing apparatus. .

【0020】上記のようにして捕らえた物体31aの動
きは後述する認識装置に与えられ、そのニューラルネッ
トワークを学習させる。図4は本発明における制御装置
の実施例を示す図であり、31は図3に示したロボッ
ト、31aはロボット31の手先に把持された物体、4
1はニューラルネットワークにより構成される状態検出
装置であり、予めロボット31の関節角と対象物体31
aの位置の関係を学習しておき、ロボット31を制御す
る場合に対象物体31aの位置より後述するように誤差
逆伝搬を行いロボット31の関節角の求める。42は誤
差逆伝搬を行う場合に誤差を求める誤差検出手段であ
る。
The movement of the object 31a captured as described above is given to a recognition device, which will be described later, to train its neural network. FIG. 4 is a diagram showing an embodiment of the control device in the present invention, 31 is the robot shown in FIG. 3, 31a is an object gripped by the hand of the robot 31, 4
Reference numeral 1 denotes a state detection device configured by a neural network, which has a joint angle of the robot 31 and a target object 31 in advance.
The relationship of the positions of a is learned, and when the robot 31 is controlled, error back propagation is performed from the position of the target object 31a as described later to obtain the joint angle of the robot 31. Reference numeral 42 is an error detecting means for finding an error when performing error back propagation.

【0021】図5は本発明の実施例における認識装置の
構成を示す図であり、同図において、51および52は
図3に示したテレビ・カメラ32,33で捕らえた物体
31aの画像データ、53は誤差逆伝搬を行う場合にセ
ンサ・データ予測装置54と画像データ51,52との
誤差を検出する誤差検出手段、54はニューラルネット
ワークから構成されるセンサ・データ予測装置であり、
予めロボット31のアームの手先の位置と画像データ5
1,52の関係を学習しておき、認識時に画像データ5
1,52より誤差逆伝搬により対象物体31aの位置を
予測する。
FIG. 5 is a diagram showing the structure of the recognition device in the embodiment of the present invention. In FIG. 5, 51 and 52 are image data of the object 31a captured by the television cameras 32 and 33 shown in FIG. Reference numeral 53 is an error detecting means for detecting an error between the sensor data predicting device 54 and the image data 51, 52 when performing error back propagation, and 54 is a sensor data predicting device composed of a neural network,
The position of the hand of the arm of the robot 31 and the image data 5 in advance.
The relationship of 1, 52 is learned, and the image data 5
1, 52, the position of the target object 31a is predicted by error back propagation.

【0022】図6は図4および図5に示した実施例の状
態検出装置41とセンサデータ予測装置54に用いられ
るニューラルネットワークの構成を示す図であり、同図
(a)はその構成、同図(b)はその出力層のユニット
(ニューロン)を示しており、同図では一例として完全
結合したネットワークを示している。ニューラルネット
ワークは、図6(a)に示すように、入力層61、中間
層62および出力層63から構成されており、入力層6
1の出力yk は中間層62の各ユニットに与えられ、重
みwkjを掛けて加算される。中間層62の出力yj はさ
らに出力層63の各ユニットに与えられ、出力層63の
ユニットにおいて、重みwjiを掛けて加算され、出力y
i が得られる。
FIG. 6 is a diagram showing the configuration of the neural network used in the state detecting device 41 and the sensor data predicting device 54 of the embodiment shown in FIGS. 4 and 5, and FIG. FIG. 6B shows the units (neurons) in the output layer, and the figure shows a fully connected network as an example. The neural network is composed of an input layer 61, an intermediate layer 62 and an output layer 63, as shown in FIG.
The output yk of 1 is given to each unit of the intermediate layer 62, multiplied by the weight wkj, and added. The output yj of the intermediate layer 62 is further given to each unit of the output layer 63, is multiplied by the weight wji in the unit of the output layer 63, and is added.
i is obtained.

【0023】また、ニューラルネットワークの出力層6
3のユニット(ニューロン)は図6(b)に示すよう
に、中間層62の出力yj に重みwijを掛けて加算し、
加算結果を関数f(x) により変換して出力yi を発生す
る。中間層62のユニットも上記した出力層63のユニ
ットと同様の構成を持つ。ニューラルネットワークの学
習時には、その入力側および出力側に学習データを与
え、ニューラルネットワークの出力が学習データに一致
するように、例えば、誤差逆伝搬法等により上記重みを
定める。
The output layer 6 of the neural network
As shown in FIG. 6 (b), the unit 3 (neuron) multiplies the output yj of the intermediate layer 62 by the weight wij and adds it,
The addition result is converted by the function f (x) to generate the output yi. The unit of the intermediate layer 62 has the same configuration as the unit of the output layer 63 described above. During learning of the neural network, learning data is given to the input side and the output side thereof, and the weight is determined by, for example, the error back propagation method so that the output of the neural network matches the learning data.

【0024】次に図3、図4、図5、図6により本発明
の実施例の動作を説明する。図4に示す制御装置を学習
させるには、適当な関節座標値をランダムに変えてロボ
ット31に指示を与え、ロボット31の手先をランダム
に適当な位置に移動させる。そして、各々の位置の作業
座標系におけるロボット31の手先の座標を図示しない
測定手段により測定し、多数の学習データをランダムに
取得する。
Next, the operation of the embodiment of the present invention will be described with reference to FIGS. 3, 4, 5, and 6. To learn the control device shown in FIG. 4, an appropriate joint coordinate value is randomly changed to give an instruction to the robot 31, and the hand of the robot 31 is randomly moved to an appropriate position. Then, the coordinates of the hand of the robot 31 in the work coordinate system at each position are measured by a measuring means (not shown), and a large number of learning data are randomly acquired.

【0025】ランダムに取得されたロボット31の関節
角と作業座標系におけるロボット31の手先の座標は学
習データとしてそれぞれ状態検出装置41のニューラル
ネットワークの入力側、出力側に与えられ、ニューラル
ネットワークを学習させる。学習後、ニューラルネット
ワークは学習した座標変換規則により、ロボットの関節
角から作業座標系における手先位置を出力するようにな
る。
The joint angle of the robot 31 and the coordinates of the hand of the robot 31 in the work coordinate system, which are randomly obtained, are given as learning data to the input side and the output side of the neural network of the state detecting device 41 to learn the neural network. Let After learning, the neural network outputs the hand position in the work coordinate system from the joint angle of the robot according to the learned coordinate conversion rule.

【0026】図5に示したセンサデータ予測装置54の
ニューラルネットワークの学習についても、上記と同様
に、ロボット31の作業座標系における手先位置と、ラ
ンダムに取得される画像データ51,52を、センサデ
ータ予測装置54のニューラルネットワークに学習デー
タとして与え、ニューラルネットワークを学習させる。
In the learning of the neural network of the sensor data predicting device 54 shown in FIG. 5, the hand position in the work coordinate system of the robot 31 and the image data 51 and 52 acquired at random are also detected by the sensor as in the above. It is given as learning data to the neural network of the data predicting device 54 to train the neural network.

【0027】学習後、センサデータ予測装置54のニュ
ーラルネットワークは手先位置を与えると、その時見え
るであろう画像データを予測するようになる。上記のよ
うに図4に示した状態検出装置41のニューラルネット
ワークの学習が完了すると、目標となる手先位置X,
Y,Zを状態検出装置41に与え、ニューラルネットワ
ークの出力X’,Y’,Z’と上記目標となる手先位置
X,Y,Zの誤差を誤差検出手段42により検出する。
そして検出された誤差を後述するように誤差逆伝搬し、
ニューラルネットワークの出力X’,Y’,Z’と上記
目標となる手先位置X,Y,Zが一致するようなロボッ
ト31の関節角を求める。
After the learning, the neural network of the sensor data predicting device 54, when given the hand position, predicts the image data that would be visible at that time. When the learning of the neural network of the state detecting device 41 shown in FIG. 4 is completed as described above, the target hand position X,
Y and Z are given to the state detection device 41, and the error detection means 42 detects the error between the outputs X ′, Y ′ and Z ′ of the neural network and the target hand positions X, Y and Z.
Then, the detected error is backpropagated as described later,
The joint angles of the robot 31 are calculated so that the outputs X ', Y', Z'of the neural network and the target hand positions X, Y, Z coincide with each other.

【0028】そして、 上記のように誤差逆伝搬して求
めたロボット31の関節角をロボット31に与えること
により、その手先位置を目標となる位置に制御すること
ができるようになる。すなわち、学習後、適当な手先の
座標値を指示すると、ロボット31は学習した座標変換
規則を使って各関節を回転し、指示された位置に手先が
移動する。
By providing the robot 31 with the joint angle of the robot 31 obtained by back propagation of errors as described above, the hand position can be controlled to a target position. That is, after learning, when the coordinate value of an appropriate hand is instructed, the robot 31 rotates each joint using the learned coordinate conversion rule, and the hand moves to the instructed position.

【0029】ここで、上記した誤差逆伝搬について説明
する。ニューラルネットワーク前記した図6に示したも
のとし、各層のユニットが完全結合したネットワークと
する。また、誤差関数をEとして、前記したように出力
層63、中間層62、入力層61のユニットの出力値を
それぞれyi ,yj ,yk 、中間層62から出力層63
への結合の重みをwji、入力層61から中間層62への
重みをwkjで表す。
Here, the above-mentioned error back propagation will be described. Neural network The network shown in FIG. 6 is assumed to be a network in which the units of each layer are completely connected. Further, assuming that the error function is E, as described above, the output values of the units of the output layer 63, the intermediate layer 62, and the input layer 61 are yi, yj, and yk, respectively, from the intermediate layer 62 to the output layer 63.
The weight of the connection from the input layer 61 to the intermediate layer 62 is represented by wkj.

【0030】なお、誤差逆伝搬法が誤差関数を小さくす
るように重みの修正量を求めるのに対して、本実施例に
おいては、誤差関数が小さくなるような入力値の修正量
を求める緩和アルゴリズムを用いる。最急降下法による
入力層61の入力ユニットの更新値は次式(1)を求め
ればよい。
Note that the error backpropagation method finds the correction amount of the weight so as to reduce the error function, whereas in the present embodiment, the relaxation algorithm for finding the correction amount of the input value so that the error function becomes smaller. To use. The updated value of the input unit of the input layer 61 by the steepest descent method may be calculated by the following equation (1).

【0031】[0031]

【数1】 [Equation 1]

【0032】誤差逆伝搬法と同様にこの出力に対する誤
差変化δを出力層63から順番に導出する。まず、出力
層ユニットの出力値yi に関する誤差変化は次の(2)
式となる。次に中間層62の出力値yj に関する誤差変
化は次の(3)式である。
Similar to the error back propagation method, the error change δ for this output is sequentially derived from the output layer 63. First, the error change regarding the output value yi of the output layer unit is as follows (2)
It becomes an expression. Next, the error change regarding the output value yj of the intermediate layer 62 is expressed by the following expression (3).

【0033】[0033]

【数2】 [Equation 2]

【0034】ここで、l をユニットiに接続している一
つ前の層のユニットとし、ユニット間の結合の重みをw
lkとすると、出力層63のニューロンの入力値の合計x
i は、次の式(4)となるから、前記した式(3)は次
の式(5)となり、中間層62のユニットの出力値に関
する誤差変化が求められる。
Here, let l be the unit of the previous layer connected to the unit i, and let the weight of the coupling between the units be w.
Let lk be the sum of the input values of the neurons in the output layer 63 x
Since i becomes the following expression (4), the above expression (3) becomes the following expression (5), and the error change regarding the output value of the unit of the intermediate layer 62 is obtained.

【0035】[0035]

【数3】 [Equation 3]

【0036】入力層ユニットに関しても同様に計算する
ことで、以下の(6)式のように入力ユニットの出力変
化に対する誤差変化を求めることができる。
By performing the same calculation for the input layer unit, it is possible to obtain the error change with respect to the output change of the input unit as shown in the following expression (6).

【0037】[0037]

【数4】 [Equation 4]

【0038】三層以上の階層ネットワークに対しても、
この計算を繰り返すことで、入力ユニットの出力変化に
関する誤差変化を求めることができる。ここで、誤差関
数Eが一般に用いられている出力と目標値との二乗誤差
で定義されている場合について考える。誤差関数Eを次
式(7)とすると、出力層63のユニットにおける誤差
変化は次式(8)で表される。なお、式(7)におい
て、di は目標値である。
For hierarchical networks of three layers or more,
By repeating this calculation, the error change related to the output change of the input unit can be obtained. Here, consider a case where the error function E is defined by a squared error between a commonly used output and a target value. When the error function E is the following expression (7), the error change in the unit of the output layer 63 is expressed by the following expression (8). In equation (7), di is a target value.

【0039】[0039]

【数5】 [Equation 5]

【0040】したがって、前記した式(3)、式(5)
により、出力層63から入力層61に向けて順次計算す
ることで入力ユニットを更新することができる。また、
ニューロンの出力関数が図6(b)に示した次式(9)
のように、ジグモイド関数の場合には、その微分が次式
(10)で表されるので、出力関数の微分を簡単に計算
することができる。
Therefore, the above equations (3) and (5)
Thus, the input unit can be updated by sequentially performing calculation from the output layer 63 toward the input layer 61. Also,
The output function of the neuron is the following equation (9) shown in FIG.
As described above, in the case of the sigmoid function, its derivative is represented by the following expression (10), so that the derivative of the output function can be easily calculated.

【0041】[0041]

【数6】 [Equation 6]

【0042】上記したように、出力層63から入力層6
1に向けて誤差を逆伝搬することにより、出力層の誤差
が減少するように、入力層ユニットの出力値を更新する
ことができ、上記緩和アルゴリズムを用いた制御装置
は、予測フィードバック量と目標値の誤差が単調減少す
るような制御信号を生成することができる。図5に示し
た認識装置のセンサデータ予測装置54におけるニュー
ラルネットワークについても、図4の状態検出装置41
と同様、前記した学習後、誤差逆伝搬することにより、
物体の画像データ51,52より、ロボット31の作業
座標系における対象物体の位置を出力することができ
る。
As described above, from the output layer 63 to the input layer 6
By backpropagating the error toward 1, the output value of the input layer unit can be updated so that the error of the output layer is reduced. It is possible to generate a control signal such that the value error monotonically decreases. Also for the neural network in the sensor data prediction device 54 of the recognition device shown in FIG. 5, the state detection device 41 of FIG.
In the same way as above, after learning, by backpropagating the error,
The position of the target object in the work coordinate system of the robot 31 can be output from the image data 51 and 52 of the object.

【0043】すなわち、画像データ51,52を与え、
ニューラルネットワークの出力と上記画像データ51,
52の誤差を誤差検出手段53により検出する。そして
検出された誤差を誤差逆伝搬し、ニューラルネットワー
クの出力と上記画像データ51,52が一致するような
ニューラルネットワークの入力となる対象物体の位置を
求める。これにより、センサデータ予測装置54は物体
の画像データ51,52から、ロボット31の作業座標
系における物体の位置を予測できるようになる。
That is, image data 51 and 52 are given,
The output of the neural network and the image data 51,
The error of 52 is detected by the error detecting means 53. Then, the detected error is back-propagated to obtain the position of the target object which becomes the input of the neural network such that the output of the neural network and the image data 51 and 52 match. As a result, the sensor data prediction device 54 can predict the position of the object in the work coordinate system of the robot 31 from the image data 51 and 52 of the object.

【0044】図4に示した制御装置と図5に示した認識
装置を組み合わせることにより、学習時に用いた物体3
1aをテレビ・カメラ32,33の視野に提示すると、
ロボット31の手先位置がその物体31aに向けて移動
するように制御することができる。すなわち、図4に示
した制御装置の状態検出装置41はロボット31の関節
角からロボット31の手先位置を検出し、また、図5の
認識装置のセンサデータ予測装置54はロボット31の
手先位置から手先位置に物体が存在した場合の視覚イメ
ージを生成している。
By combining the control device shown in FIG. 4 and the recognition device shown in FIG.
When 1a is presented in the field of view of the television cameras 32 and 33,
The hand position of the robot 31 can be controlled so as to move toward the object 31a. That is, the state detection device 41 of the control device shown in FIG. 4 detects the hand position of the robot 31 from the joint angle of the robot 31, and the sensor data prediction device 54 of the recognition device of FIG. A visual image is generated when an object is present at the hand position.

【0045】この状態で、物体をテレビ・カメラ32,
33の視野に提示すると、上記センサデータ予測装置5
4が生成する視覚イメージと、テレビ・カメラ32,3
3により観測される視覚イメージとの誤差が求められ、
その誤差が小さくなるように、センサデータ予測装置5
4のニューラルネットワークと状態検出装置41のニュ
ーラルネットワークを通じて誤差逆伝搬し、観測された
視覚イメージとセンサデータ予測装置54が出力するイ
メージが一致するようなロボット31の関節角が求めら
れる。
In this state, the object is the television camera 32,
When presented in the view of 33, the sensor data prediction device 5
4 and the visual images generated by the TV cameras 32, 3
The error with the visual image observed by 3 is obtained,
The sensor data prediction device 5 is configured so that the error becomes small.
The joint angle of the robot 31 is obtained such that the observed visual image and the image output by the sensor data predicting device 54 match with each other through error back propagation through the neural network of No. 4 and the neural network of the state detecting device 41.

【0046】この関節角をロボット31に入力すること
により、目標とする物体に向けてロボットの手先位置を
移動させることができる。なお、上記実施例において
は、テレビ・カメラを用いたシステムの実施例を示した
が、対象物体の状態を特定できる他の測定装置、例え
ば、ある特定位置から対象物体までの距離等を計測でき
るレーザ、光学等を利用した装置等を用いても上記実施
例と同様に制御することができる。
By inputting this joint angle to the robot 31, the hand position of the robot can be moved toward the target object. In the above embodiment, the embodiment of the system using the television / camera is shown, but another measuring device that can specify the state of the target object, for example, the distance from a certain specific position to the target object can be measured. The same control as in the above embodiment can be performed by using a device using laser, optics, or the like.

【0047】また、上記実施例においては、テレビ・カ
メラが視覚イメージを検出するように構成したが、例え
ば、視覚イメージに換え、得られた画像の重心位置を用
いることもできる。さらに、物体の方向、例えば、慣性
主軸の方向等を用いることもできる。さらに、上記実施
例においては、本発明を多関節ロボットに適用した実施
例を示したが、本発明は上記実施例に限定されるもので
はなく、複数のアクチュエータを持つその他の装置にも
適用することができる。
Further, in the above embodiment, the television camera is configured to detect the visual image. However, for example, the position of the center of gravity of the obtained image may be used instead of the visual image. Furthermore, the direction of the object, for example, the direction of the principal axis of inertia can be used. Furthermore, in the above-mentioned embodiment, the embodiment in which the present invention is applied to the articulated robot has been shown, but the present invention is not limited to the above-mentioned embodiment, and is also applied to other devices having a plurality of actuators. be able to.

【0048】[0048]

【発明の効果】以上説明したことから明らかなように、
本発明においては、階層型ニューラルネットワーク等か
ら構成される状態検出装置を設け、最急降下法を用いて
誤差逆伝搬することにより、アクチュエータを目標状態
に作動させるとともに、センシング装置と、センサデー
タ予測装置を備えた認識装置を設け、センシング装置に
より観測されたセンサデータより装置の目標状態を求め
て、装置のアクチュエータを制御しているので、下記の
効果を得ることができる。 手先の座標から関節角度座標への変換を複雑な数式
を解くことなく行うことができ、例えば、2次元空間で
3関節以上、または、3次元空間で7自由度以上の冗長
自由度を持つロボットの座標変換を行うことも可能とな
る。 ニューラルネットワークから構成される状態検出装
置を設けることにより、ロボット等の複数のアクチュエ
ータを持つ装置をランダムに動かして、その手先の位置
と、各関節の座標値との関係をニューラルネットワーク
に学習させ、座標変換を行うことができる。
As is apparent from the above description,
In the present invention, a state detection device composed of a hierarchical neural network or the like is provided, and error back propagation is performed using the steepest descent method to operate the actuator to the target state, and at the same time, the sensing device and the sensor data prediction device. The following effects can be obtained because the recognition device provided with is provided and the target state of the device is obtained from the sensor data observed by the sensing device to control the actuator of the device. A robot having a redundant degree of freedom, such as three joints or more in a two-dimensional space, or seven or more degrees of freedom in a three-dimensional space, can be converted from a coordinate of a hand to a joint angle coordinate without solving a complicated mathematical formula. It is also possible to perform coordinate conversion of. By providing a state detection device composed of a neural network, a device having a plurality of actuators such as a robot is randomly moved, and the neural network is made to learn the relationship between the position of its hand and the coordinate value of each joint. Coordinate conversion can be performed.

【0049】また、ニューラルネットワークは教えた点
以外でも補間する機能を持っているので、状態検出装置
にニューラルネットワークを用いることにより、全空間
に対して教師データを作成する必要はなく、適当な代表
点を教えるだけで済む。 多関節ロボットなどの複数のアクチュエータを持つ
装置を作業領域内でランダムに動かして、状態検出装置
により関節角度から現在の手先の位置等の状態を検出
し、これを認識装置に与えることにより、センシング装
置により観測されたデータと装置の手先の状態の関係を
認識装置に学習させることができ、特別の装置を付加す
ることなく、学習により自動的な位置合わせを行うこと
が可能となる。
Since the neural network has a function of interpolating at points other than the points taught, it is not necessary to create teacher data for the entire space by using the neural network for the state detecting device, and an appropriate representative All you have to do is teach the points. By randomly moving a device with multiple actuators, such as an articulated robot, within the work area, the state detection device detects the current state of the hand position from the joint angle, and gives this to the recognition device for sensing. The recognition device can learn the relation between the data observed by the device and the state of the hand of the device, and the automatic alignment can be performed by the learning without adding a special device.

【0050】加えて、認識装置と制御装置とを独立した
構成としているので、各装置を独立に学習させることが
可能となり、学習の高速化を図ることができるととも
に、認識装置、制御装置の開発が容易となる。
In addition, since the recognition device and the control device are independently configured, each device can be independently learned, the learning speed can be increased, and the recognition device and the control device can be developed. Will be easier.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の制御装置の原理説明図である。FIG. 1 is a diagram illustrating the principle of a control device according to the present invention.

【図2】本発明の認識装置を備えた制御装置の原理説明
図である。
FIG. 2 is a diagram illustrating the principle of a control device equipped with the recognition device of the present invention.

【図3】本発明を多関節ロボットに応用した実施例を示
す図である。
FIG. 3 is a diagram showing an embodiment in which the present invention is applied to an articulated robot.

【図4】本発明の制御装置の実施例を示す図である。FIG. 4 is a diagram showing an embodiment of a control device of the present invention.

【図5】本発明の認識装置の実施例を示す図である。FIG. 5 is a diagram showing an embodiment of a recognition device of the present invention.

【図6】ニューラルネットワークの構成を示す図であ
る。
FIG. 6 is a diagram showing a configuration of a neural network.

【符号の説明】[Explanation of symbols]

11 アクチュエータを持つ装置 12,41 状態検出装置 13 制御装置 21 センシング装置 22,54 センサ・データ予測装置 23 認識装置 31 ロボット 31a ロボットの手先に把持された物体 32,33 テレビ・カメラ 42 誤差検出手段 51,52 画像データ 53 誤差検出手段 11 Device with Actuator 12,41 State Detection Device 13 Control Device 21 Sensing Device 22,54 Sensor / Data Prediction Device 23 Recognition Device 31 Robot 31a Object Grasp by Robot Hand 32,33 Television Camera 42 Error Detection Means 51 , 52 image data 53 error detection means

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 複数のアクチュエータより構成される装
置(11)に対して、装置(11)の各々のアクチュエータの状
態を検出し、 現在の装置(11)の状態に基づき、指令された状態に向け
て各々のアクチュエータの状態を制御する制御装置にお
いて、 各々のアクチュエータの状態から装置(11)の状態を検出
する状態検出装置(12)を設け、 状態検出装置(12)を用いて検出した装置(11)の状態と目
標とする装置の状態を評価し、その評価結果に基づき各
々のアクチュエータの目標状態を最急降下法により求め
てアクチュエータを制御することを特徴とする制御装
置。
1. A device (11) comprising a plurality of actuators, detects the state of each actuator of the device (11), and sets the commanded state based on the current state of the device (11). In the control device that controls the state of each actuator, the state detection device (12) that detects the state of the device (11) from the state of each actuator is provided, and the device detected using the state detection device (12) A control device which evaluates the state of (11) and the state of a target device, obtains the target state of each actuator by the steepest descent method based on the evaluation result, and controls the actuator.
【請求項2】 対象物体の位置等の外界の状態をセンシ
ングするセンシング装置(21)と、 装置(11)の状態からセンサデータへの写像を生成するニ
ューラルネットワーク等の手段からなるセンサデータ予
測装置(22)を備えた認識装置(23)とを設け、 認識装置(23)は、センサデータ予測装置(22)により予測
されたデータとセンシング装置(21)により観測されたデ
ータとの矛盾が小さくなるように最急降下法でセンサデ
ータを認識し、 上記認識装置(23)の認識結果を制御装置(13)の目標状態
として、制御装置(13)により装置(11)のアクチュエータ
を制御することを特徴とする請求項1の制御装置。
2. A sensor data predicting device comprising a sensing device (21) for sensing an external state such as a position of a target object, and a means such as a neural network for generating a mapping from the state of the device (11) to sensor data. The recognition device (23) provided with (22) is provided, and the recognition device (23) has a small discrepancy between the data predicted by the sensor data prediction device (22) and the data observed by the sensing device (21). The sensor data is recognized by the steepest descent method so that the recognition result of the recognition device (23) is set as the target state of the control device (13) and the actuator of the device (11) is controlled by the control device (13). The control device according to claim 1, which is characterized in that.
【請求項3】 状態検出装置(11)にニューラルネットワ
ークを用いたことを特徴とする請求項1または請求項2
の制御装置。
3. The state detecting device (11) comprises a neural network, wherein the neural network is used.
Control device.
【請求項4】 誤差逆伝搬法により状態検出装置(11)を
学習させ、学習により制御機能を獲得できるようにした
ことを特徴とする請求項3の制御装置。
4. The control device according to claim 3, wherein the state detecting device (11) is learned by the error back propagation method so that the control function can be acquired by the learning.
【請求項5】 対象物体の位置等の外界の状態を一台な
いし複数のテレビ・カメラを備えた画像処理装置、もし
くは、レーザ、光学等を利用した距離測定装置により測
定し、 測定した状態より制御装置(13)の目標値を得ることを特
徴とする請求項1,2,3または請求項4の制御装置。
5. The state of the outside world such as the position of the target object is measured by an image processing device equipped with one or more televisions or cameras, or a distance measuring device using laser, optics, etc. 5. The control device according to claim 1, 2, 3 or 4, characterized in that a target value of the control device (13) is obtained.
【請求項6】 対象物体の位置等の外界の状態を一台な
いし複数のテレビ・カメラを備えた画像処理装置、もし
くは、レーザ、光学等を利用した距離測定装置により測
定し、 測定した状態を認識装置(23)に与えて外界の状態を認識
し、その認識出力を制御装置(13)の目標とすることを特
徴とする請求項1,2,3,4または請求項5の制御装
置。
6. The state of the outside world such as the position of a target object is measured by an image processing device equipped with one or more televisions or cameras, or a distance measuring device using laser, optics or the like, and the measured state is measured. The control device according to claim 1, 2, 3, 4 or 5, wherein the recognition device (23) recognizes the state of the outside world and the recognition output is used as a target of the control device (13).
【請求項7】 複数の関節を持つロボットを制御するこ
とを特徴とする請求項1,2,3,4,5または請求項
6の制御装置。
7. The controller according to claim 1, 2, 3, 4, 5 or 6, which controls a robot having a plurality of joints.
【請求項8】 制御装置(13)の状態検出装置(12)により
検出されたロボットの作業座標と、認識装置(23)により
検出された対象物体の位置等の外界の状態の座標のずれ
を、制御装置(13)により検出されたロボットの作業座標
を教師信号として認識装置(23)に与えて補正することを
特徴とする請求項6の制御装置。
8. The deviation between the work coordinates of the robot detected by the state detection device (12) of the control device (13) and the coordinates of the external state such as the position of the target object detected by the recognition device (23) 7. The control device according to claim 6, wherein the work coordinates of the robot detected by the control device (13) are given to the recognition device (23) as a teacher signal for correction.
JP25978592A 1992-09-29 1992-09-29 Control device Withdrawn JPH06106490A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25978592A JPH06106490A (en) 1992-09-29 1992-09-29 Control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25978592A JPH06106490A (en) 1992-09-29 1992-09-29 Control device

Publications (1)

Publication Number Publication Date
JPH06106490A true JPH06106490A (en) 1994-04-19

Family

ID=17338952

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25978592A Withdrawn JPH06106490A (en) 1992-09-29 1992-09-29 Control device

Country Status (1)

Country Link
JP (1) JPH06106490A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002059384A (en) * 2000-08-22 2002-02-26 Sony Corp Learning system and learning method for robot
KR101138019B1 (en) * 2009-12-04 2012-04-20 전자부품연구원 Control Method And Apparatus For Robot
JP2018036094A (en) * 2016-08-30 2018-03-08 株式会社オービット Appearance inspection device for three-dimensional object
JP2019516568A (en) * 2016-05-20 2019-06-20 グーグル エルエルシー Method and apparatus for machine learning related to predicting movement of an object in a robot's environment based on parameters relating to future robot movement in the environment based on an image capturing the object
JP2019518297A (en) * 2016-05-19 2019-06-27 ディープ ラーニング ロボティクス リミテッドDeep Learning Robotics Ltd. Robot Assisted Object Learning Vision System
JP2022145915A (en) * 2015-07-31 2022-10-04 ファナック株式会社 Inference method, inference program, inference device, learning method, learning program, learning device, and model generation method
US11780095B2 (en) 2015-07-31 2023-10-10 Fanuc Corporation Machine learning device, robot system, and machine learning method for learning object picking operation

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002059384A (en) * 2000-08-22 2002-02-26 Sony Corp Learning system and learning method for robot
KR101138019B1 (en) * 2009-12-04 2012-04-20 전자부품연구원 Control Method And Apparatus For Robot
JP2022145915A (en) * 2015-07-31 2022-10-04 ファナック株式会社 Inference method, inference program, inference device, learning method, learning program, learning device, and model generation method
US11780095B2 (en) 2015-07-31 2023-10-10 Fanuc Corporation Machine learning device, robot system, and machine learning method for learning object picking operation
JP2019518297A (en) * 2016-05-19 2019-06-27 ディープ ラーニング ロボティクス リミテッドDeep Learning Robotics Ltd. Robot Assisted Object Learning Vision System
JP2019516568A (en) * 2016-05-20 2019-06-20 グーグル エルエルシー Method and apparatus for machine learning related to predicting movement of an object in a robot's environment based on parameters relating to future robot movement in the environment based on an image capturing the object
US11173599B2 (en) 2016-05-20 2021-11-16 Google Llc Machine learning methods and apparatus related to predicting motion(s) of object(s) in a robot's environment based on image(s) capturing the object(s) and based on parameter(s) for future robot movement in the environment
JP2018036094A (en) * 2016-08-30 2018-03-08 株式会社オービット Appearance inspection device for three-dimensional object

Similar Documents

Publication Publication Date Title
CN110039542B (en) Visual servo tracking control method with speed and direction control function and robot system
Lakhal et al. Hybrid approach for modeling and solving of kinematics of a compact bionic handling assistant manipulator
US11691274B2 (en) Software compensated robotics
JPH06314103A (en) Controller and passive sensing device
WO2020110505A1 (en) Image generation device, robot training system, image generation method, and image generation program
Moriarty et al. Evolving obstacle avoidance behavior in a robot arm
CN111712356A (en) Robot system and method of operation
Melingui et al. Qualitative approach for inverse kinematic modeling of a compact bionic handling assistant trunk
Nadi et al. Visual servoing control of robot manipulator with Jacobian matrix estimation
Sriram et al. Mobile robot assistance for disabled and senior citizens using hand gestures
JPH06106490A (en) Control device
Zeller et al. Motion planning of a pneumatic robot using a neural network
CN111152220A (en) Mechanical arm control method based on man-machine fusion
KR102332314B1 (en) A coordinate value calibration device between robot and camera and a calibration method thereof
Maeda et al. View-based teaching/playback for industrial manipulators
JPH0588721A (en) Controller for articulated robot
JP2629291B2 (en) Manipulator learning control method
Wei et al. Multisensory visual servoing by a neural network
Zeller et al. Topology representing network for sensor-based robot motion planning
WO2022102207A1 (en) Robot control system, robot control method, and program
CN111015676A (en) Grabbing learning control method and system based on hands-free eye calibration, robot and medium
Sajeev et al. Design and Implementation of a Robot Pose Predicting Recurrent Neural Network for Visual Servoing Application
WO2023067972A1 (en) Motion command generation device and motion command generation method
Anderson et al. Coordinated control and range imaging for mobile manipulation
Sharma et al. A framework for active vision-based robot control using neural networks

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19991130