JPS59205298A - Method of monitoring safety region of robot - Google Patents

Method of monitoring safety region of robot

Info

Publication number
JPS59205298A
JPS59205298A JP7818083A JP7818083A JPS59205298A JP S59205298 A JPS59205298 A JP S59205298A JP 7818083 A JP7818083 A JP 7818083A JP 7818083 A JP7818083 A JP 7818083A JP S59205298 A JPS59205298 A JP S59205298A
Authority
JP
Japan
Prior art keywords
robot
camera
arm
obstacles
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7818083A
Other languages
Japanese (ja)
Inventor
陽市 高木
裕 久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP7818083A priority Critical patent/JPS59205298A/en
Publication of JPS59205298A publication Critical patent/JPS59205298A/en
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 〔発明の利用分野〕 ロボットアームの動作域の監視に係り、特に該動作域を
画像として監視する方法に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Application of the Invention] The present invention relates to monitoring the motion range of a robot arm, and particularly to a method of monitoring the motion range as an image.

〔発明の背景〕[Background of the invention]

ロボットアームの動作安全域の監視方法として例えば該
アームに超音波送受信器を複数取付けて他のアームの接
近を検知し他のロボットのアームとの衝突全防止するな
どの方法がある。
As a method for monitoring the operational safety range of a robot arm, for example, there is a method of attaching a plurality of ultrasonic transmitters/receivers to the arm to detect the approach of other arms and completely prevent collisions with the arms of other robots.

1だ該ロボットの周辺に柵などを設けて不用意に人間が
立入ることを防止する方式もとられている。しかしなが
らティーチング時のオペレータの安全を考慮したものは
ない。前記超音波方式はお互いに超音波送受信器を備え
ていないといけないし、超音波の使用は、設備構成が高
価になると共に、障害物の形状、色あいを判定すること
ができない。また、ロボットの安全対策を考えるときは
、対人あるいは対障害物形状をも含めて検知できないと
、真の意味での安全対策にはならないという問題があっ
た。
1) A method of installing fences etc. around the robot to prevent people from inadvertently entering the robot is also used. However, there is nothing that considers the safety of the operator during teaching. The ultrasonic method requires both ultrasonic transmitters and receivers, and the use of ultrasonic waves increases the cost of equipment and makes it impossible to determine the shape and color of obstacles. In addition, when considering safety measures for robots, there is a problem that if the robot cannot detect the shape of people or obstacles, it will not be a true safety measure.

またロボット装置は、作業能率を上げる為には、アーム
動作の高速化が必要である。その動作は、利用方法の多
様化と共に複雑化し、また、他設備との空間の共有、ロ
ボット動作空間への人間の侵入等の機会が益々増大して
きている。これらロボット動作空間への障害物の侵入は
、ロボット制御からみた時、突発的であり予測不可能で
ある。このような観点から、ロボット制御側に障害物検
知機能をもたせること以外によい対策が考えられないの
が現状である。
Furthermore, in order to increase work efficiency, robot devices need to have faster arm movements. The robot's operation has become more complex with the diversification of usage methods, and the opportunities for sharing space with other equipment and human intrusion into the robot operating space are increasing. The entry of obstacles into the robot operating space is sudden and unpredictable from the viewpoint of robot control. From this point of view, the current situation is that no good countermeasure can be considered other than providing the robot controller with an obstacle detection function.

〔発明の目的〕[Purpose of the invention]

ロボットのアーム移動予定空間の障害物の有無を画像と
して検知し、ロボットの障害物との衝突を防止すること
にある。
The purpose is to detect the presence or absence of obstacles in the space in which the robot's arm is expected to move, as images, and to prevent the robot from colliding with obstacles.

〔発明の実施例〕[Embodiments of the invention]

本発明の実施例について第1図、第2図により説明する
。ロボットアーム2は、ロボット1を中心に全方向に移
動するものとする。ロボットアーム2は、スケジューラ
3に従って任意の動きをするので、ロボットアーム2の
動作範囲41内に障害物や人間が入った場合衝突事故が
発生する危険がある。本発明は、ロボットの動作範囲の
空間に障害物が侵入した場合、ロボットが安全運動を行
いうるようにコントロールすることに特徴がある。
Embodiments of the present invention will be described with reference to FIGS. 1 and 2. It is assumed that the robot arm 2 moves in all directions around the robot 1. Since the robot arm 2 makes arbitrary movements according to the scheduler 3, there is a risk of a collision occurring if an obstacle or a person enters the operating range 41 of the robot arm 2. The present invention is characterized in that when an obstacle enters the space within the robot's movement range, the robot is controlled so that it can perform safe movements.

カメラ9は、ロボットアーム2の動作範囲41を常時撮
像し、ロボットの周辺環境データとして保存する。また
、カメラ7は、ロボットアーム2の動作方向を撮像し、
該空間40に障害物が存在するかどうかを監視するよう
にしている。以下、本発明の装置の詳細を第2図により
説明する。
The camera 9 constantly captures images of the operating range 41 of the robot arm 2 and stores them as surrounding environment data of the robot. Further, the camera 7 images the movement direction of the robot arm 2,
The space 40 is monitored to see if there are any obstacles. The details of the apparatus of the present invention will be explained below with reference to FIG.

ロボットアーム2の動作範囲41の撮像及びそのデータ
処理について説明する。環境データ処理部15は、カメ
ラの向き制御部17、カメラ操作部8を介してカメラ9
を領域41を常時スキャンし、画像入力部11により画
像メモリ13にカメラ9よりの入力画像を書き込む。画
像データの取込毎に環境データ処理部15は、該取込画
像データに対応する旧壌境データと比較を行い障害物が
検知された場合は、コンソール(、RTIOにその旨を
表示しオペレータに知らせる。オペレータは、旧環境デ
ータと新規データの差異が障害物によるか否かを判定し
、該CRTより入力する。環境データ処理機構は、障害
物でないと判定された場合は、環境データファイルを新
規入力データでおきかえを行う。このように環境データ
のおきかえを行う事により微少な環境変化(例えば、時
刻の進行と共に変化する明るさ)に対して有効である。
Imaging of the motion range 41 of the robot arm 2 and its data processing will be described. The environmental data processing unit 15 controls the camera 9 via the camera orientation control unit 17 and the camera operation unit 8.
The area 41 is constantly scanned, and the input image from the camera 9 is written into the image memory 13 by the image input section 11. Each time image data is captured, the environmental data processing unit 15 compares the captured image data with the old forest land data corresponding to the captured image data, and if an obstacle is detected, it displays this on the console (or RTIO) and displays it to the operator. The operator determines whether the difference between the old environmental data and the new data is due to an obstruction, and inputs the information from the CRT.If it is determined that there is no obstruction, the environmental data processing mechanism updates the environmental data file. is replaced with new input data. Replacing the environmental data in this way is effective against slight environmental changes (for example, brightness that changes as time progresses).

本処理の詳aI全第3図に流れ図にて示す。ロボット動
作範囲の障害物のない環境条件が常時更新されて環境デ
ータファイル19に記憶することができ障害物検知のだ
めの基礎データとして使用することができる。
The details of this process are shown in a flowchart in FIG. 3. The environmental conditions in the robot operating range without obstacles can be constantly updated and stored in the environmental data file 19, and can be used as basic data for detecting obstacles.

次(・こロボットのアーム2とカメラ7の相互関係につ
いて述べる。ロボットアーム2は、ロボット動作スケジ
ューラ3の情報を基にロボット動作制御機構4を介して
コントロールされる。一方カメラ7は、ロボット動作ス
ケジューラ3からの情報を基にカメラ視覚追従部5、カ
メラ操作部6を介してコントロールされ、常時、アーム
2の動作方向の前方をスキャンするように仕組まれ画像
人力部12により画像データは画像メモリ14に書き込
まれる。画r象メモリ14に醤き込まれた画像データは
、障害物解析部16にとり込まれ、環境データファイル
19のデータと比較され、アーム2移動方向の空間に障
害物の有無を検知する。本処理の詳細を第4図に流れ図
で示す。このように本発明の装置は仕組まれているので
、ロボットアーム2の動作方向の空間に障害物が侵入す
ると直ちに検知でき、アーム2の運動を減速したり、ス
トップすることができる。
Next (・The mutual relationship between the arm 2 and camera 7 of this robot will be described. The robot arm 2 is controlled via the robot motion control mechanism 4 based on the information from the robot motion scheduler 3. On the other hand, the camera 7 is controlled by the robot motion control mechanism 4. It is controlled via the camera visual tracking section 5 and camera operation section 6 based on information from the scheduler 3, and is designed to always scan the front in the direction of movement of the arm 2. Image data is stored in the image memory by the image human power section 12. The image data stored in the image memory 14 is taken into the obstacle analysis section 16 and compared with the data in the environmental data file 19 to determine the presence or absence of obstacles in the space in the movement direction of the arm 2. The details of this process are shown in a flowchart in Fig. 4.The device of the present invention is structured in this way, so that it can immediately detect when an obstacle enters the space in the direction of movement of the robot arm 2, and the arm You can slow down or stop the movement of 2.

また、周辺の明るさが徐々に変化する場合には環境デー
タは、常時、カメラ9からの入力におきかえられるので
障害物検知に影響することはない。
Further, when the surrounding brightness changes gradually, the environmental data is always replaced with the input from the camera 9, so that it does not affect obstacle detection.

次に障害空間ファイルの構造について記述する。Next, the structure of the fault space file will be described.

障害空間ファイルは、ロボット動作全領域を基盤状に細
分し、各基盤目をメモリの1ビツトを第5図(a)、 
(b)のように対応させる。(a)はロボット動作安全
領域、(b)は障害空間ファイルを示す。障害発生の基
盤目に相当するピントに′1”をセットするようにする
。このようになっているのでロボットを動作させる前に
進行しようとする空間の障害物有無を確認しつつ動作を
実行することが可能であり、ロボットアームが障害物と
衝突するごとき危険がなくなる。
The obstacle space file subdivides the entire robot operation area into bases, and each base is divided into one bit of memory as shown in Figure 5(a).
Correspond as shown in (b). (a) shows the robot operation safe area, and (b) shows the obstacle space file. Set the focus point to '1', which corresponds to the point at which the failure occurs.This is how the robot moves, so before moving the robot, check whether there are any obstacles in the space it is trying to move through and execute the movement. This eliminates the risk of the robot arm colliding with obstacles.

次に環境データの構造について述べる。環境データは、
障害空間ファイルと全く同じようにロボット動作全領域
を基盤状に細分化し、各基盤目をメモリの8ビツトに@
6図(a)、 (b)のように対応させである。従って
各基盤目の画1象データを濃淡画像データとして格納す
ることができる。環境データは、このような構成である
からロボット動作全領域の安全状態における環境を濃淡
画像の形態で記憶することにより、カメラ入力の濃淡画
像と比較することによシ壌境変化を検知することが可能
である。この変化が、極めて低く全体的な明るさの変化
の場合には、室内明るさの変化と判断し、部分的な大き
な変化を生じた場合、その場所に障害物侵入したものと
判断するものとする。このようであるから本発明の装置
によりロボット自体で安全を確認しつつ動作を行うこと
ができるのである。
Next, we will discuss the structure of environmental data. Environmental data is
Just like the obstacle space file, the entire robot movement area is subdivided into bases, and each base is stored in 8 bits of memory.
The correspondence is shown in Figure 6 (a) and (b). Therefore, the image data for each base can be stored as grayscale image data. Since the environmental data has such a configuration, by storing the environment in a safe state in all areas of robot operation in the form of a grayscale image, changes in the environment can be detected by comparing it with the grayscale image input by the camera. is possible. If this change is extremely small and is an overall change in brightness, it is determined to be a change in indoor brightness, and if there is a localized large change, it is determined that an obstacle has entered the area. do. Because of this, the device of the present invention allows the robot itself to operate while confirming its safety.

本発明の装置では、背景と同じ色彩の障害物が、ロボッ
ト障害物が入って釆た場合の対策として次のようなこと
を考える。バックとなる部分を色彩を変更できるように
しておく。たとえば、バックスクリーンを変えるとか、
バックのみの照明を変更するとかする。この変更は、周
期的に行えるようにして、環境条件データとしては、各
バックの環境条件毎に保有するようにするものとする。
In the apparatus of the present invention, the following measures are taken into account when a robot obstacle enters an obstacle that is the same color as the background. Make it possible to change the color of the background part. For example, changing the back screen,
Maybe change the lighting only in the background. This change can be made periodically, and the environmental condition data is stored for each environmental condition of each bag.

このようにすることは容易に実現可能であり、しかも、
障害物が、どのようなもの(バックの色彩と同じであっ
てもよい)でも検知可能である。尚、バックの条件の変
更は周期的に行うが、その周期は、計算処理の速度によ
り決定される。周期があまり太きいときは障害物の侵入
に対して速やかな対応ができないので実用性がない。画
像処理の主要部をハード化し処理時間の高速化により大
略0.1〜0,2秒程度が現在の技術で容易に可能であ
るから、バックの変更周JjAは、o、2〜1.0秒程
度にとるのが適当である。このようKすれば、人間の視
覚程度の認識速度で障害物を検知し、ロボットは安全運
動できる。
This can be easily achieved, and
Any obstacle (it may be the same color as the background) can be detected. Note that the back conditions are changed periodically, and the period is determined by the speed of calculation processing. If the period is too large, it is not practical because it is impossible to respond quickly to the intrusion of obstacles. By making the main part of image processing hardware and speeding up the processing time, it is easily possible with current technology to reduce the processing time to about 0.1 to 0.2 seconds, so the back change time JjA is o, 2 to 1.0 seconds. It is appropriate to take about seconds. By performing K in this way, obstacles can be detected at a recognition speed comparable to that of human vision, allowing the robot to move safely.

ロボットアームに超音波を付けて周囲の障害物を検知す
る方式があるが、この場合、相手側の障害物が、複雑な
形状をしていること及びどのような位置にあるかわから
ないなどのため、超音波装置を数多くアームに付けなけ
ればならない。従つて超音波の設備が美大となる。これ
に比べて本発明の装置では、障害物の形状を直接とらえ
ることができるため、必要最小限のカメラを設けるだけ
で争足りる。たとえば、平面上で障害物を検知するだけ
で十分機能が足りる場合は、2台のカメラを設けるだけ
でよい。立体的に障害物をとらえたい時は、カメラをち
と2台増すことにより実現でき、設備費用も大したこと
はないことが容易に理解されよう。また、あと1台カメ
ラを増やし、障害物をズームアツプしてとらえることに
より障害物の位置をより高精度に把握することができる
There is a method of attaching ultrasonic waves to the robot arm to detect surrounding obstacles, but in this case, it is difficult to detect obstacles because the obstacles on the other side have complex shapes and the location is unknown. , many ultrasound devices must be attached to the arm. Therefore, the ultrasound equipment became an art university. In contrast, with the device of the present invention, the shape of the obstacle can be directly captured, so it is sufficient to install the minimum number of cameras required. For example, if it is sufficient to detect obstacles on a flat surface, it is sufficient to provide only two cameras. It is easy to understand that if you want to capture an obstacle three-dimensionally, you can do so by adding two more cameras, and the equipment cost is not that great. Additionally, by adding one more camera and zooming in to capture the obstacle, the location of the obstacle can be determined with higher precision.

この精度向上のだめのカメラは、適当なカメラ制御機構
を有し、障害物を自動的にシーン中にとらえるように仕
組んでおき、ズームアツプをくり返し、目的の精度にな
るまでズームアンプを行う。
This precision-improving camera has a suitable camera control mechanism, is designed to automatically capture obstacles in the scene, and repeatedly zooms up and amplifies the zoom until the desired precision is achieved.

このように本装置は仕組んであるので障害物を立体的に
認識すると共に、障害物の位置を高精度に検知すること
も可能である。このようにすることにより障害物に対す
る精密な操作をロボットから行うことも可能である。ま
た本装置は、障害物(9) をカラーの濃淡画像(例えば、8ビット/画素×3原色
)としてとらえるので、同一形状の障害物に対してもあ
らかじめ定められた周期で色調を変えることにより別々
に認識することが可能である。
Since the present device is structured in this manner, it is possible to recognize obstacles three-dimensionally and to detect the position of the obstacles with high precision. By doing so, it is also possible for the robot to perform precise operations on obstacles. Additionally, this device captures the obstacle (9) as a color gradation image (for example, 8 bits/pixel x 3 primary colors), so it can change the color tone at predetermined intervals even for obstacles with the same shape. It is possible to recognize them separately.

これは童識的に障害物に色彩を施し、ロボット処理をそ
れに応じて異なる動作を行わさせることができる。本装
置は、障害物に、立体的に認識できるので、多関節ロボ
ッ)K適用することによシ動的な障害物に対して、うま
く多関節アームを曲げて、目的地点にアームをもってゆ
くことができる。
This allows you to colorize obstacles in a childish manner and have the robot process perform different actions accordingly. This device can recognize obstacles three-dimensionally, so by applying it to a multi-jointed robot, the multi-jointed arm can be effectively bent against dynamic obstacles and brought to the destination point. I can do it.

このような目的を果すために超音波による方式では、ア
ーム上に美大な数の超音波送受信装置を付けなければ実
現できないが、本装置では、わずかな台数のカメラ装置
で容易に実現できる。第7図に多関節ロボットに本発明
の装置を適用した1実施例を示す。1・はロボット、2
は、多関節アーム、42は障害物、43は、障害物投影
を示す。ここでは、障害物を平面としてとらえているが
、前に記述したように、カメラを増やすことにより物体
42は、立体的な位置としても検知できる。考え(10
) 方は、平面の場合と全く同じであるのでここでは省略し
である。
In order to achieve this purpose, ultrasonic systems require a huge number of ultrasonic transmitting and receiving devices on the arm, but this device can easily achieve this with a small number of camera devices. FIG. 7 shows an embodiment in which the device of the present invention is applied to an articulated robot. 1. is a robot, 2.
is an articulated arm, 42 is an obstacle, and 43 is an obstacle projection. Here, the obstacle is perceived as a flat surface, but as described above, by increasing the number of cameras, the object 42 can also be detected as a three-dimensional position. Thoughts (10
) is the same as the plane case, so it is omitted here.

本発明の装置は、従来の超音波による方式に比べて以下
のような利点がある。
The device of the present invention has the following advantages over conventional ultrasonic systems.

(1)簡便な設備で、障害物を立体的に認識することが
できる(超音波方式では、多数の超音波送受信機をアー
ムに加える必要があり美大な設備となる)。
(1) Obstacles can be recognized three-dimensionally with simple equipment (with the ultrasonic method, it is necessary to add many ultrasonic transmitters and receivers to the arm, resulting in a beautiful equipment).

(2)空間全体を障害物の有無で区分けできるので、ア
ーム動作を高速動作することができる(超音波の方式で
は、障害物とある程度近づかないと検知できないので、
アームの慣性を考える高速化に制限を加える必要がある
)。
(2) Since the entire space can be divided according to the presence or absence of obstacles, the arm can be operated at high speed (with the ultrasonic method, it cannot be detected unless the obstacle is close to a certain extent,
It is necessary to limit the speed increase considering the inertia of the arm).

(3)障害物位置と形状を立体的に認識できるので、ア
ーム動作路を最適化することができる(超音波の方式で
は、障害物を認識してはじめて動作路の修正をするしか
方法がない)。
(3) Since the position and shape of obstacles can be recognized three-dimensionally, the arm movement path can be optimized (with the ultrasonic method, the only way to correct the movement path is after recognizing the obstacle) ).

(4)  障害物を形状以外に色彩により認識できるの
で、障害物の具体的な性質をも知ることができる(人間
か、その他の物体かの区別など)。
(4) Since obstacles can be recognized not only by their shape but also by their color, it is also possible to know the specific nature of the obstacle (such as whether it is a human or another object).

(11) 以上のように本発明の装置では、超音波の方式に比べて
多くの長所がある。本発明の装置では、このように、障
害物に関する詳細な情報を使って、目的に応じて、ロボ
ット全安全に制御することができる。
(11) As described above, the device of the present invention has many advantages over the ultrasonic method. In this way, with the device of the present invention, using detailed information regarding obstacles, it is possible to control the robot completely safely depending on the purpose.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は、本発明の使用例と機能の1例を、第2図は、
本発明の装置の詳細構造を、第3図、第4図は処理フロ
ーを、第5図、第6図はロボットの動作安全領域、障害
空間ファイルの説明図を、第7図は関節ロボットへの本
発明の適用例を示す。 1・・・ロボット、2・・・ロボットアーム、3・・・
ロボット動作スケジューラ、4・・・ロボット動作制御
部、5・・・カメラアーム追従部、6・・・カメラ操作
部、7・・・カメラ(アーム移動方向領域撮像用)、8
・・・カメラ操作部、9・・・カメラ(ロボット全動作
領域監視用)、10・・・コンソールCRT、11・・
・画像入力部、12・・・画像入力部、13・・・画像
メモ1ハ14・・・画像メモリ、15・・・環境データ
処理部、16・・・障害物解析部、17・・・カメラ向
制御部、(12) 18・・・障害空間ファイル、19・・・環境データフ
ァイル、20・・・ロボット動作スケジュー2、ロボッ
ト動作制御部間インターフェース、21・・・ロボット
、ロボット動作制御部間インターフェース、22・・・
ロボット動作スケジュー2、カメラアーム追従部間イン
ターフェース、23・・・カメラアーム追従部、カメラ
操作部間インターフェース、24・・・カメラアーム追
従部、画像入力部間インターフェース、25・・・環境
データ処理部、カメラ向制御部間インターフェース、2
6・・・カメラ向制御部、カメラ操作部間インターフェ
ース、27・・・障害空間ファイル、ロボット動作制御
部間インターフェース、28・・・環境データファイル
、障害物解析部間インターフェース5,29・・・障害
解析部、障害空間ファイル間インターフェース、30・
・・環境データ処理部、環境データファイル間インター
フェース、31・・・環境データ処理部、障害空間ファ
イル間インターフェース、32・・・環境データ処理部
、画像入力部間インターフェース、33・・・画像メモ
リ、障害物解析部間インターフェース、34・・・力(
13) メラ、画像入力部、35・・・カメラ操作部、画像入力
部間インターフェース、36・・・画像入力部、画像メ
モリ間インターフェース、37・・・画像入力部、画像
メモリ間インターフェース、40・・・ロボットアーム
動作方向エリア、41・・・ロボットアーム全(14) (b) 木イ!−月4 第 6  図
Fig. 1 shows an example of the use and function of the present invention, and Fig. 2 shows an example of the use and function of the present invention.
The detailed structure of the device of the present invention is shown in FIGS. 3 and 4, the processing flow is shown in FIGS. An application example of the present invention is shown below. 1...Robot, 2...Robot arm, 3...
Robot motion scheduler, 4... Robot motion control unit, 5... Camera arm following unit, 6... Camera operation unit, 7... Camera (for imaging arm movement direction area), 8
...Camera operation unit, 9...Camera (for monitoring the entire robot operating area), 10...Console CRT, 11...
- Image input unit, 12... Image input unit, 13... Image memo 1c 14... Image memory, 15... Environmental data processing unit, 16... Obstacle analysis unit, 17... Camera orientation control unit, (12) 18...Obstacle space file, 19...Environmental data file, 20...Robot operation schedule 2, interface between robot operation control units, 21...Robot, robot operation control unit interface, 22...
Robot operation schedule 2, interface between camera arm following sections, 23... interface between camera arm following section, camera operation section, 24... interface between camera arm following section, image input section, 25... environmental data processing section , interface between camera control units, 2
6...Camera orientation control section, interface between camera operation sections, 27...Obstacle space file, interface between robot movement control sections, 28...Environmental data file, interface between obstacle analysis sections 5, 29... Failure analysis department, interface between failure space files, 30.
...Environmental data processing unit, interface between environmental data files, 31...Environmental data processing unit, interface between fault space files, 32...Environmental data processing unit, interface between image input units, 33...Image memory, Interface between obstacle analysis sections, 34...force (
13) camera, image input section, 35... camera operation section, interface between image input sections, 36... interface between image input section, image memory, 37... interface between image input section, image memory, 40. ...Robot arm movement direction area, 41...All robot arms (14) (b) Tree! -Month 4 Figure 6

Claims (1)

【特許請求の範囲】[Claims] 1、 カメラによる撮像画像を利用してロボットの動作
領域の監視をおこなう方法において、少なくとも第1の
カメラでロボットアームの全動作領域を含む動作領域に
ついて撮像し、他の第2のカメラで該ロボットアームを
含む部分動作領域について撮像し、該第1のカメラによ
る撮像データの色調をあらかじめ定めた周期で変更し、
該第1.第2のカメラによる撮像データの差に基づいて
障害物を検知することを特徴とするロボットの安全領域
監視方法。
1. In a method of monitoring the movement area of a robot using images captured by a camera, at least a first camera images the movement area including the entire movement area of the robot arm, and another second camera monitors the movement area of the robot arm. imaging a partial operating region including the arm, changing the color tone of the imaging data by the first camera at a predetermined cycle;
Part 1. A method for monitoring a safe area of a robot, comprising detecting an obstacle based on a difference in image data obtained by a second camera.
JP7818083A 1983-05-06 1983-05-06 Method of monitoring safety region of robot Pending JPS59205298A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7818083A JPS59205298A (en) 1983-05-06 1983-05-06 Method of monitoring safety region of robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7818083A JPS59205298A (en) 1983-05-06 1983-05-06 Method of monitoring safety region of robot

Publications (1)

Publication Number Publication Date
JPS59205298A true JPS59205298A (en) 1984-11-20

Family

ID=13654764

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7818083A Pending JPS59205298A (en) 1983-05-06 1983-05-06 Method of monitoring safety region of robot

Country Status (1)

Country Link
JP (1) JPS59205298A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012187641A (en) * 2011-03-08 2012-10-04 Denso Wave Inc Robot monitoring system and method of determining fault of the robot monitoring system
US8816874B2 (en) 2010-01-25 2014-08-26 Panasonic Corporation Danger presentation device, danger presentation system, danger presentation method and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8816874B2 (en) 2010-01-25 2014-08-26 Panasonic Corporation Danger presentation device, danger presentation system, danger presentation method and program
JP2012187641A (en) * 2011-03-08 2012-10-04 Denso Wave Inc Robot monitoring system and method of determining fault of the robot monitoring system

Similar Documents

Publication Publication Date Title
US8170277B2 (en) Automatic tracking apparatus and automatic tracking method
JP7058126B2 (en) Robot control device and automatic assembly system
US8731276B2 (en) Motion space presentation device and motion space presentation method
US6404455B1 (en) Method for tracking entering object and apparatus for tracking and monitoring entering object
JP5323910B2 (en) Collision prevention apparatus and method for remote control of mobile robot
JP3043925B2 (en) Moving object detection and determination device
JP6900918B2 (en) Learning device and learning method
KR102139513B1 (en) Autonomous driving control apparatus and method based on ai vehicle in the loop simulation
JP2019041261A (en) Image processing system and setting method of image processing system
JP7464281B2 (en) Optical fiber sensing system, monitoring device, monitoring method, and program
JP2010128727A (en) Image processor
US20220128396A1 (en) Optical fiber sensing system, action specifying apparatus, action specifying method, and computer readable medium
CN108789500A (en) Man-machine safety guard system and safety protecting method
JPH09331520A (en) Automatic tracking system
CN112396997B (en) Intelligent interactive system for shadow sand table
JP2022548009A (en) object movement system
JP2022526071A (en) Situational awareness monitoring
JPS59205298A (en) Method of monitoring safety region of robot
JP6368503B2 (en) Obstacle monitoring system and program
JPS6334093A (en) Visual device
D'Auria et al. Sarri: A smart rapiro robot integrating a framework for automatic high-level surveillance event detection
RU2685996C1 (en) Method and system for predictive avoidance of manipulator collision with human being
JP2021060784A (en) Object detection device, system, method, and program
WO2023162484A1 (en) Information processing device and program
WO2022138340A1 (en) Safety vision device, and safety vision system