JPS61226289A - Diagnostic device for robot-manipulator - Google Patents

Diagnostic device for robot-manipulator

Info

Publication number
JPS61226289A
JPS61226289A JP6707085A JP6707085A JPS61226289A JP S61226289 A JPS61226289 A JP S61226289A JP 6707085 A JP6707085 A JP 6707085A JP 6707085 A JP6707085 A JP 6707085A JP S61226289 A JPS61226289 A JP S61226289A
Authority
JP
Japan
Prior art keywords
robot
manipulator
image
work
reference posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6707085A
Other languages
Japanese (ja)
Inventor
井上 俊男
村上 集
河合 健
那須 昭司
克文 卜部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kobe Steel Ltd
Original Assignee
Kobe Steel Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kobe Steel Ltd filed Critical Kobe Steel Ltd
Priority to JP6707085A priority Critical patent/JPS61226289A/en
Publication of JPS61226289A publication Critical patent/JPS61226289A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 産業上の利用分野 本発明はロボットやマニピュレータの特に外観に現れた
故障を診断することのできる診断装置に関するものであ
る。
DETAILED DESCRIPTION OF THE INVENTION Field of the Invention The present invention relates to a diagnostic device capable of diagnosing failures in robots and manipulators, particularly those that appear on the outside.

「従来技術」 従来のロボットやマニピュレータの故障の検知は、コン
ピュータやメモリの異常検知や、駆動装置や位置検出器
の断線の検出など、主として電気的、ソフト的な故障検
知が主体であり、電気的もしくは駆動力の伝達性などの
点においては、異常がないが、部品の膜薄や、機械部分
の損傷など、外観上の故障の検知については余り開発さ
れていない。
``Prior art'' Conventional failure detection in robots and manipulators has mainly been based on electrical and software failure detection, such as detecting abnormalities in computers and memory, and detecting disconnections in drive devices and position detectors. There are no abnormalities in terms of target performance or drive force transmission, but there is little development in detecting external failures such as thin parts or damage to mechanical parts.

「従来技術の問題点」 例えば、極限作業ロボットやマニピュレータのように力
を必要とするものでは、作業中に手首を損傷したり、ま
た部品の一部が税落するといったような危険性に曝され
る場合が多く、しかも作業を途中で取り止めて、待機場
所に帰ってきて修理を受けるといったような事は許され
ない場合がある、このような状況下では、大事に至る前
に機械的故障の検知を行ない、故障場所を特定してその
場で必要な処理、例えば、手首部分の取り替えや部品の
交換などを敏速に行って作業を続行する必要がある。
``Problems with conventional technology'' For example, devices that require force such as extreme work robots and manipulators are exposed to the risk of damaging the wrist during work, and that some parts may become tax-excluded. In many cases, it may not be possible to stop work midway and return to the waiting area for repairs. It is necessary to perform detection, pinpoint the location of the failure, and promptly perform necessary actions on the spot, such as replacing the wrist or replacing parts, to continue work.

しかしながら、上記のような従来のロボット故障検知装
置では、上記のような機械的な故障の検知は行うことは
できなかった。
However, the conventional robot failure detection device as described above cannot detect the mechanical failure as described above.

「発明の目的」 従って、本発明の目的とするところは、ロボット・マニ
ピュレータなどの外観に表れた故障を速やかに検出し、
適切な処置を施しうるようになすことである。
``Object of the Invention'' Therefore, the object of the present invention is to quickly detect failures that appear on the appearance of robots, manipulators, etc.
The goal is to ensure that appropriate treatment can be taken.

「発明の構成」 上記目的を達成するために、本発明が採用する主たる手
段は、その要旨とするところがロボット・マニピュレー
タに取り付けられたテレビカメラと、ロボット・マニピ
ュレータに基準姿勢を取らせる基準姿勢制御手段と、基
準姿勢におけるロボット・マニピュレータの姿を前記テ
レビカメラにより撮像してその2次元画像パターンを記
憶する姿記憶手段と、上記姿記憶手段により過去に撮像
・記憶したロボット・マニピュレータの姿と、今回撮像
したロボット・マニピュレータの姿とを比較し、両者が
同一でないと判断した場合に故障処理を行う故障処理手
段とを有してなる点であるロボット・マニピュレータの
診断装置である。
"Structure of the Invention" In order to achieve the above object, the main means adopted by the present invention are a television camera attached to a robot manipulator, and a reference attitude control that causes the robot manipulator to assume a reference attitude. means, a figure storage means for capturing an image of the robot manipulator in a reference posture using the television camera and storing the two-dimensional image pattern; and a figure of the robot manipulator that has been imaged and stored in the past by the figure memory means; This is a diagnostic device for a robot manipulator, which includes a failure processing means that compares the appearance of the robot manipulator that was imaged this time and performs failure processing if it is determined that the two images are not the same.

上記構成要素中、テレビカメラはいわゆるITVカメラ
が用いられ、基準姿勢制御手段は、通常のサーボ位置決
め機構による姿勢制御装置により達成されるが、どの姿
勢位置を基準姿勢とするかは、ロボットの構造や作業の
種類により異なるので、事前にオペレータがリモート1
11作によりロボットやマニピュレータを動作させて、
各ロボットアームや手首などの関節角度やシリンダ長な
ど、アクチュエータの作動位置を記憶することにより行
う、また、姿記憶手段は、前記テレビカメラにより撮像
された明度情報や色情報、距離情報などをA/D変換器
によって4〜10ビット程度のデジタル化された2次元
画像情報(2次元画像パターン)としてメモリーに記憶
するものである。また、故障処理手段は、ロボット・マ
ニピュレータなどが作業を開始する前に予め姿勢制御装
置を用いてロボット・マニピュレータに基準姿勢をとら
せ、その姿勢における姿をテレビカメラにより撮像して
これを記憶しておき、この固定された記憶画像とその後
必要に応じて撮像されるロボット・マニピュレータの姿
とを比較してもよく、また、作業継続中に定期的もしく
は不定期的にロボットに基準姿勢をとらせて、そのとき
の姿を撮像記憶し、前回の基準姿勢における姿と今回の
基準姿勢における姿とをその都度比較してもよい。
Among the above components, a so-called ITV camera is used as the television camera, and the reference attitude control means is achieved by an attitude control device using a normal servo positioning mechanism. This varies depending on the type of work and the type of work, so the operator can
Operate robots and manipulators with 11 works,
This is done by storing the operating position of the actuator, such as joint angles and cylinder lengths of each robot arm and wrist, and the figure storage means stores the brightness information, color information, distance information, etc. captured by the television camera. The information is stored in a memory as two-dimensional image information (two-dimensional image pattern) digitized by a /D converter of about 4 to 10 bits. Furthermore, the failure handling means may use a posture control device to make the robot/manipulator take a reference posture in advance before the robot/manipulator or the like starts work, take an image of the robot/manipulator in that posture using a television camera, and store the image. This fixed memorized image may then be compared with the appearance of the robot/manipulator that is captured as needed.Also, the robot may be asked to take a reference posture periodically or irregularly during the work. Alternatively, the appearance at that time may be captured and stored, and the appearance in the previous reference posture and the appearance in the current reference posture may be compared each time.

「実施例」 続いて、添付した図面を参照して本発明を具体化した実
施例につき説明し、本発明の理解に供する。ここに第1
図は本発明の一実施例に係る診断装置の信号の流れを示
すブロック図、第2図は同診断装置における処理手順を
示すフローチャート、第3図は同診断装置が通用される
ロボットの一例を示す斜視図、第4図(a)は、損傷の
ないロボットの一例を示す斜視図、同図(b)は同図(
a)に示した手首の基準姿勢における平面図、第5図<
a>は第4図(a)に示した手首において、破損した状
態を示す斜視図、同図(b)は同破損した手首の第4図
(b)相当図である。
``Example'' Next, examples embodying the present invention will be described with reference to the attached drawings to provide an understanding of the present invention. here the first
The figure is a block diagram showing the signal flow of a diagnostic device according to an embodiment of the present invention, FIG. 2 is a flowchart showing the processing procedure in the diagnostic device, and FIG. 3 is an example of a robot in which the diagnostic device is used. FIG. 4(a) is a perspective view showing an example of an undamaged robot, and FIG. 4(b) is a perspective view showing an example of an undamaged robot.
Plan view of the wrist in the reference posture shown in a), FIG.
4(a) is a perspective view showing the wrist shown in FIG. 4(a) in a damaged state, and FIG. 4(b) is a view corresponding to FIG. 4(b) of the same damaged wrist.

尚、以下の実施例は本発明の具体的−例にすぎず、本発
明の技術的範囲を限定する性格のものではない。
The following examples are merely specific examples of the present invention, and are not intended to limit the technical scope of the present invention.

まず、第1図において、ロボット制御装置10は、ロボ
ッ)Rをリモート操作して教示作業を行うための制御盤
と、上記教示作業によって得られたロボットRの手首H
の軌跡座標を記憶するための記憶装置と、再生作業時に
上記記憶装置から目標値データを取り出して、これに補
間計算や座標変換計算を施し、各関節部の目標角度を演
算するための演算装置と、上記演算装置から出力される
目標角度に応じてロボットRをサーボ制御する制御部等
を有する。通常のロボット制御装置により構成され、特
にオペレータが前記制御盤を操作して、ロボットRを所
望の基準姿勢に誘導した場合にその基準姿勢におけるロ
ボッl−Hの本体及びその手首Hに取り付けた作業ハン
ドTの各関節角度や位置画像及び方向余弦等を基準姿勢
データとして上記記憶装置に記憶することのできる機能
ををするものであるが、このような機能は単に従来のロ
ボット制御装置の記憶装置の領域に基準姿勢データを保
持する領域を確保することにより達成される。
First, in FIG. 1, the robot control device 10 includes a control panel for remotely operating the robot R to perform teaching work, and a wrist H of the robot R obtained through the teaching work.
a storage device for storing the coordinates of the trajectory, and an arithmetic device for retrieving target value data from the storage device during playback work, performing interpolation calculations and coordinate conversion calculations on this data, and calculating the target angle of each joint. and a control section that servo-controls the robot R according to the target angle output from the arithmetic device. It is composed of a normal robot control device, and in particular, when an operator operates the control panel to guide the robot R to a desired reference posture, the work is performed by attaching it to the main body of the robot L-H and its wrist H in that reference posture. It has the function of storing each joint angle, position image, direction cosine, etc. of the hand T in the storage device as reference posture data, but such a function is simply a storage device of a conventional robot control device. This is achieved by securing an area for holding reference posture data in the area.

第1図において11はITVカメラで、通常ロボットR
の旋回台Sに固定され、基準姿勢をとったロボッ)Hの
要素、例えば、手首Bや、作業ハンドTなどを撮すため
のものである。
In Figure 1, 11 is an ITV camera, which is normally used by robot R.
This is for photographing the elements of the robot (H) fixed to the swivel base S and assuming a reference posture, such as the wrist B and the working hand T.

上記ITVカメラにより得られた画像情報は、A/D変
換器13により、例えば、4〜10ビット程度のデジタ
ル信号に変換され、前記記憶装置内の画像メモリ領域1
4に記憶される。ここで、画像メモリ領域14に記憶さ
れるデータは、前記ITVカメラ11によって撮像した
、例えば、立体図などの生情報に近いものである。
The image information obtained by the ITV camera is converted into a digital signal of, for example, about 4 to 10 bits by the A/D converter 13, and is converted into an image memory area 1 in the storage device.
4 is stored. Here, the data stored in the image memory area 14 is close to raw information, such as a three-dimensional diagram, captured by the ITV camera 11.

本発明においては、このような適宜撮像された画像情報
を基準姿勢における画像情報と比較して、ロボンl−H
の外観的破損状況を検出するものであるが、通常上記の
ような生情報のままでは、画像が複雑で判断の信頼性に
乏しいため、上記生情報を平面図や側面図などのパター
ンに変換したり、色彩毎のパターンに変換するいわゆる
パターン化の処理を施し、画像を単純化する。
In the present invention, such appropriately captured image information is compared with image information in the standard posture, and the robot l-H
This is to detect the appearance of damage to the exterior of the vehicle, but normally the raw information above is complex and the judgment is unreliable, so the raw information is converted to a pattern such as a plan view or side view. Or, the image is simplified by applying so-called patterning processing to convert it into a pattern for each color.

一方前記記憶装置に記憶される基準姿勢データは、ロボ
ットの基準姿勢における画像情報に前記のようなパター
ン化処理を予め施して得られた基準パターンに対応する
デジタルデータであり、これらの基準姿勢データと現在
のロボットの基準姿勢におけるパターン化された画像情
報とが比較され、その結果が前記ロボット制御装置10
に入力される。
On the other hand, the reference posture data stored in the storage device is digital data corresponding to a reference pattern obtained by previously performing the patterning process described above on image information in the robot's reference posture, and these reference posture data is compared with the patterned image information in the current standard posture of the robot, and the result is sent to the robot control device 10.
is input.

ロボット制御装置10はこの比較信号を受けて、基準姿
勢データに対して現在の画像情報が異なると判断した場
合には、例えば、作業ハンドTの交換などの処理を行う
When the robot control device 10 receives this comparison signal and determines that the current image information is different from the reference posture data, it performs processing such as replacing the work hand T, for example.

例えば、第3図に示したようなロボットRについて、本
発明に係る給断装置を適用する場合、ロボットRの旋回
台に取り付けたITVカメラ11によって、まず、上記
した基準姿勢における作業ハンド’rt−ti像する。
For example, when applying the feeding/disconnecting device according to the present invention to a robot R as shown in FIG. -ti image.

このときの実際の画像が例えば、第4図(a)に示すよ
うな画像であった場合、画像メモリ領域14には、まず
第4図(a)に示された2次元画像に対応するデジタル
データが記憶される。このデータは更に周知のパターン
処理過程を経て、例えば第4図(b)に示すような平面
図に対応するデジタルの基準姿勢データに加工され、別
のメモリ領域に記憶される。こうして実際の作業を行う
前に基準姿勢におけるパターン化された基準姿勢データ
が採取される。
If the actual image at this time is, for example, an image as shown in FIG. 4(a), the image memory area 14 will first contain a digital image corresponding to the two-dimensional image shown in FIG. 4(a). Data is stored. This data is further processed through a well-known pattern processing process into digital reference posture data corresponding to a plan view as shown in FIG. 4(b), for example, and stored in another memory area. In this way, patterned reference posture data in the reference posture is collected before actual work is performed.

次に、実際の作業過程においてロボットが自己診断する
手順につき第2図を参照して説明する。
Next, the procedure for self-diagnosis by the robot in the actual work process will be explained with reference to FIG.

実際の作業過程において、例えば定期的に第2図に示し
たプログラムが作動される。第2図に示した如く、この
プログラムには、ある特定の時期にロボット制御装置1
0からロボットを基準姿勢に誘導するための基準姿勢目
標値が送出され、ロボットRが予め教示された基準姿勢
に誘導される。
In the actual work process, for example, the program shown in FIG. 2 is run periodically. As shown in FIG. 2, this program includes the robot control device 1
A reference attitude target value for guiding the robot to the reference attitude from 0 is sent, and the robot R is guided to the previously taught reference attitude.

この状態でロボットRは一定時間停止状態を保つが、こ
のときに■Tvカメラ11はロボットRの作業ハンドT
の姿を撮像する。ITVカメラ11はロボットRが基準
姿勢となったときに、その視野に必然的にロボットRの
作業ハンドTが入ってくるような位置方向にセットされ
ている。
In this state, the robot R remains stopped for a certain period of time, but at this time, the ■Tv camera 11 is
Take an image of the figure. The ITV camera 11 is set in a position direction such that the work hand T of the robot R inevitably comes into its field of view when the robot R assumes the standard posture.

こうして現在の基準姿勢における2次元画像データが入
力されると、これが画像メモリ領域14に記憶され、続
いてパターン化処理がこの2次元データに施され、例え
ば、作業ハンドの平面図に相当する画像情報が得られる
。ここで、既にパターン化された基準姿勢データが検索
されて現在の基準姿勢におけるパターン化された撮像デ
ータと比較され、結果である比較信号がロボット制御装
置10に送られる。ロボット制御装置10では、上記比
較信号が非常状態を表す場合、すなわち基準姿勢データ
と現在のパターン化された姿勢データとの間に差がある
場合には、例えば、作業ハンドTを交換するような動作
をロボットRに行わせるような異常信号を出力し、また
両姿勢データに差がない場合には、ロボットRを基準姿
勢から開放して次の作業手順へ進ませる。
When the two-dimensional image data in the current reference posture is input in this way, this is stored in the image memory area 14, and then patterning processing is performed on this two-dimensional data, for example, an image corresponding to a plan view of the working hand is generated. Information can be obtained. Here, the already patterned reference posture data is searched and compared with the patterned imaging data in the current reference posture, and a comparison signal that is the result is sent to the robot control device 10. In the robot control device 10, when the comparison signal indicates an emergency state, that is, when there is a difference between the reference posture data and the current patterned posture data, the robot control device 10 takes action such as replacing the work hand T, for example. An abnormal signal that causes the robot R to perform the operation is output, and if there is no difference between the two posture data, the robot R is released from the standard posture and proceeds to the next work procedure.

上記のような異常信号を出力する場合の例としては、例
えば、第5図(a)及び(b)に示すように作業ハンド
Tの把持部T′が部分的に変形したり欠けたような場合
である。
An example of a case where the above-mentioned abnormality signal is output is when the grip part T' of the work hand T is partially deformed or chipped, as shown in FIGS. 5(a) and 5(b). This is the case.

「発明の効果」 本発明は以上述べたように、ロボット・マニピュレータ
に取り付けられたテレビカメラと、ロボット・マニピュ
レータに基準姿勢を取らせる基準姿勢制御手段と、基準
姿勢におけるロボット・マニピュレータの姿を前記テレ
ビカメラにより撮像してその2次元画像パターンを記憶
する姿記憶手段と、上記姿記憶手段により過去に撮像・
記憶したロボット・マニピュレータの姿と、今回撮像し
たロボット・マニピュレータの姿とを比較し、両者が同
一でないと判断した場合に故障処理を行う故障処理手段
とを有してなるロボット・マニピュレータの診断装置で
あるから、ロボットやマニピュレータの外観、例えば、
特に損傷を受けやすい手首やハンドの部分などに外観上
辺もへしうる損傷や部材、部品の脱落が生じたことを正
確に検出することができるので、作業を途中で止めるこ
とのできない極限作業ロボットなどに通用して好適であ
り、特に電気的断線や負荷の増大を生じることのない具
体的損傷の診断には極めて宵月である。
"Effects of the Invention" As described above, the present invention includes a television camera attached to a robot manipulator, a reference posture control means for causing the robot manipulator to take a reference posture, and a robot manipulator that displays the appearance of the robot manipulator in the reference posture. A figure memory means for capturing an image with a television camera and storing the two-dimensional image pattern;
A diagnostic device for a robot manipulator, comprising a failure processing means that compares the memorized appearance of the robot manipulator with the currently imaged appearance of the robot manipulator, and performs failure processing when it is determined that the two are not the same. Therefore, the appearance of robots and manipulators, for example,
This is an extreme work robot that cannot stop work midway through, as it can accurately detect damage that could damage the appearance or fall off of parts, such as the wrists and hands, which are particularly susceptible to damage. It is suitable for many applications, and is particularly useful for diagnosing specific damage that does not cause electrical disconnection or an increase in load.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例に係る診断装置の信号の流れ
を示すブロック図、第2図は同診断装置における処理手
順を示すフローチャート、第3図は同診断装置が通用さ
れるロボットの一例を示す斜視図、第4図(a)は、損
傷のないロボットの一例を示す斜視図、同図(b)は同
図(a)に示した手首の基準姿勢における平面図、第5
図(a)は第4図(a)に示した手首において、破損し
た状態を示す斜視図、同図(b)は同破損した手首の第
4図(b)相当図である。 (符号の説明) 10・・・ロボット制御装置  11・・・ITVカメ
ラ13・・・A/D変換器 14・・・画像メモリ領域   R・・・ロボットH・
・・手首         T・・・作業ハンドS・・
・旋回台。
FIG. 1 is a block diagram showing the signal flow of a diagnostic device according to an embodiment of the present invention, FIG. 2 is a flowchart showing the processing procedure in the diagnostic device, and FIG. 3 is a diagram of a robot in which the diagnostic device is commonly used. FIG. 4(a) is a perspective view showing an example of an undamaged robot; FIG. 4(b) is a plan view of the wrist in the standard posture shown in FIG. 4(a);
FIG. 4(a) is a perspective view of the wrist shown in FIG. 4(a) in a damaged state, and FIG. 4(b) is a view corresponding to FIG. 4(b) of the damaged wrist. (Explanation of symbols) 10... Robot control device 11... ITV camera 13... A/D converter 14... Image memory area R... Robot H.
・・Wrist T・Working hand S・・
・Swivel base.

Claims (1)

【特許請求の範囲】[Claims] (1)a、ロボット・マニピュレータに取り付けられた
テレビカメラと、 b、ロボット・マニピュレータに基準姿勢を取らせる基
準姿勢制御手段と、 c、基準姿勢におけるロボット・マニピュレータの姿を
前記テレビカメラにより撮像してその2次元画像パター
ンを記憶する姿記憶手段と、 d、上記姿記憶手段により過去に撮像・記憶したロボッ
ト・マニピュレータの姿と、今回撮像したロボット・マ
ニピュレータの姿とを比較し、両者が同一でないと判断
した場合に故障処理を行う故障処理手段と、 を有してなるロボット・マニピュレータの診断装置。
(1) a. a television camera attached to the robot manipulator; b. a reference posture control means for causing the robot manipulator to assume a standard posture; and c. an image of the robot manipulator in the standard posture taken by the television camera. d. Compare the appearance of the robot/manipulator that was imaged and stored in the past by the above-mentioned image storage means with the appearance of the robot/manipulator that was imaged this time, and confirm that the two images are the same. A diagnostic device for a robot manipulator, comprising: a failure handling means that performs failure handling when it is determined that the robot/manipulator is not present.
JP6707085A 1985-03-29 1985-03-29 Diagnostic device for robot-manipulator Pending JPS61226289A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6707085A JPS61226289A (en) 1985-03-29 1985-03-29 Diagnostic device for robot-manipulator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6707085A JPS61226289A (en) 1985-03-29 1985-03-29 Diagnostic device for robot-manipulator

Publications (1)

Publication Number Publication Date
JPS61226289A true JPS61226289A (en) 1986-10-08

Family

ID=13334224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6707085A Pending JPS61226289A (en) 1985-03-29 1985-03-29 Diagnostic device for robot-manipulator

Country Status (1)

Country Link
JP (1) JPS61226289A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01265372A (en) * 1988-04-16 1989-10-23 Fanuc Ltd Image processing system for visual sensor system
JP2011125976A (en) * 2009-12-18 2011-06-30 Denso Wave Inc Robot failure detector
JP2012187641A (en) * 2011-03-08 2012-10-04 Denso Wave Inc Robot monitoring system and method of determining fault of the robot monitoring system
JP6088679B1 (en) * 2016-02-19 2017-03-01 ファナック株式会社 Failure diagnosis device for robot system that determines failure from camera image
JP2018047538A (en) * 2016-09-23 2018-03-29 カシオ計算機株式会社 Robot, state determination system, state determination method and program
JP2018153880A (en) * 2017-03-16 2018-10-04 トヨタ自動車株式会社 Failure diagnosis support system and failure diagnosis support method of robot
JP2019118993A (en) * 2017-12-29 2019-07-22 富士通株式会社 Robot, self-diagnostic program and self-diagnostic method
WO2020067240A1 (en) * 2018-09-28 2020-04-02 日本電産株式会社 Control device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5721295A (en) * 1980-06-30 1982-02-03 Ibm Method of correcting robot
JPS59107898A (en) * 1982-12-06 1984-06-22 ヤマハ株式会社 Method of monitoring work of robot, etc.

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5721295A (en) * 1980-06-30 1982-02-03 Ibm Method of correcting robot
JPS59107898A (en) * 1982-12-06 1984-06-22 ヤマハ株式会社 Method of monitoring work of robot, etc.

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01265372A (en) * 1988-04-16 1989-10-23 Fanuc Ltd Image processing system for visual sensor system
JP2011125976A (en) * 2009-12-18 2011-06-30 Denso Wave Inc Robot failure detector
JP2012187641A (en) * 2011-03-08 2012-10-04 Denso Wave Inc Robot monitoring system and method of determining fault of the robot monitoring system
JP6088679B1 (en) * 2016-02-19 2017-03-01 ファナック株式会社 Failure diagnosis device for robot system that determines failure from camera image
JP2017144532A (en) * 2016-02-19 2017-08-24 ファナック株式会社 Failure diagnosis device of robot system for determining failure by camera image
CN107097226A (en) * 2016-02-19 2017-08-29 发那科株式会社 The trouble-shooter of robot system
US9898815B2 (en) 2016-02-19 2018-02-20 Fanuc Corporation Fault diagnostic device of robot system for judging fault by camera image
JP2018047538A (en) * 2016-09-23 2018-03-29 カシオ計算機株式会社 Robot, state determination system, state determination method and program
JP2018153880A (en) * 2017-03-16 2018-10-04 トヨタ自動車株式会社 Failure diagnosis support system and failure diagnosis support method of robot
US10713486B2 (en) 2017-03-16 2020-07-14 Toyota Jidosha Kabushiki Kaisha Failure diagnosis support system and failure diagnosis support method of robot
JP2019118993A (en) * 2017-12-29 2019-07-22 富士通株式会社 Robot, self-diagnostic program and self-diagnostic method
WO2020067240A1 (en) * 2018-09-28 2020-04-02 日本電産株式会社 Control device

Similar Documents

Publication Publication Date Title
US4661032A (en) Bilateral master-slave manipulator control device
JP2686351B2 (en) Vision sensor calibration method
JP2690603B2 (en) Vision sensor calibration method
US20150273689A1 (en) Robot control device, robot, robotic system, teaching method, and program
EP0511396A1 (en) Method for setting coordinate system of robot
JPS60263681A (en) Instruction method of robot
JPS61226289A (en) Diagnostic device for robot-manipulator
CN115194752A (en) Apparatus and method for training neural network to control task-inserted robot
US20030130763A1 (en) Visual control robot system
CN113165186A (en) Robot system, control device and control method for robot system, image pickup device, control program, and storage medium
JPS5828601B2 (en) Teaching method for robot control
JPS6334093A (en) Visual device
JP2006007390A (en) Imaging device, imaging method, imaging program, and computer-readable recording medium having the imaging program recorded thereon
JPH033786A (en) Control method for manipulator
JPH0790492B2 (en) Remote-controlled manipulator device
JPH07129231A (en) Noncontact point teaching device
JPS5947181A (en) Multiple articulated type robot
JPS63288696A (en) Robot-operation abnormality monitor system
JPS62277290A (en) Controller for manipulator
WO2022000283A1 (en) Demonstrator, robot, and robot control method and device
JPS5828602B2 (en) Teaching method for robot control
JPS59139408A (en) Teaching system of robot
JPS63105893A (en) Automatic teaching method of robot
JPH0326491A (en) Monitoring device for robot
JPS61136783A (en) Control system of industrial television arm