JP6572092B2 - A moving body system using a visual sensor - Google Patents

A moving body system using a visual sensor Download PDF

Info

Publication number
JP6572092B2
JP6572092B2 JP2015207083A JP2015207083A JP6572092B2 JP 6572092 B2 JP6572092 B2 JP 6572092B2 JP 2015207083 A JP2015207083 A JP 2015207083A JP 2015207083 A JP2015207083 A JP 2015207083A JP 6572092 B2 JP6572092 B2 JP 6572092B2
Authority
JP
Japan
Prior art keywords
robot
moving body
image
image processing
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015207083A
Other languages
Japanese (ja)
Other versions
JP2017077607A (en
Inventor
渡邉 淳
淳 渡邉
祐輝 高橋
祐輝 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2015207083A priority Critical patent/JP6572092B2/en
Publication of JP2017077607A publication Critical patent/JP2017077607A/en
Application granted granted Critical
Publication of JP6572092B2 publication Critical patent/JP6572092B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、視覚センサを用いて人間に対する安全性を高めた動体を含む動体システムおよびロボットシステムに関する。   The present invention relates to a moving body system and a robot system including a moving body whose safety for humans is enhanced by using a visual sensor.

特許文献1においては、ロボットが人間の立ち入りが制限されている動作領域で動作している。そして、ロボットが或る工程を実施しているときにおいて人間がその動作領域に来訪したのが検知されたときに、その時点でロボットの動作を停止すると予め定められた不都合な段階での停止になる場合には、ロボットは或る工程の後の別の工程まで行った後で停止される。   In Patent Document 1, the robot operates in an operation region where human entry is restricted. Then, when it is detected that a human has visited the operation area while the robot is performing a certain process, stopping the robot operation at that time will stop at a predetermined inconvenient stage. In some cases, the robot is stopped after going to another process after a certain process.

また、特許文献2においては、ロボットが動作しているときにメンテナンス要求信号が入力された場合には、メンテナンス要求信号入力時におけるブロック分についてはそのブロックのブロックエンドまで動作してロボットを停止させ、次いで、ロボットをメンテナンスに適した所定姿勢にすることが開示されている。   Further, in Patent Document 2, when a maintenance request signal is input while the robot is operating, the block for the maintenance request signal input is operated up to the block end of the block to stop the robot. Then, it is disclosed that the robot is in a predetermined posture suitable for maintenance.

さらに、特許文献3においては、第一画像記録ユニットおよび第二画像記録ユニットにより記録された画像を少なくとも二つの異なる方法で分析し、いずれか一方の分析で異物を検出した場合にロボットを停止させることが開示されている。   Further, in Patent Document 3, the images recorded by the first image recording unit and the second image recording unit are analyzed by at least two different methods, and the robot is stopped when a foreign object is detected by any one of the analysis. It is disclosed.

さらに、特許文献4においては、設定した処理レベルに応じた指令をロボット制御装置へ出力する動作指定域を記憶させておき、ロボットの制御装置がロボットアームの関節角度から計算されたロボットの手先位置が該動作指定域に含まれているか、ロボット制御装置が判断し、該ロボットの手先位置が該動作指定域に含まれている場合に、該処理レベルを停止としてロボットを停止させることが開示されている。   Further, in Patent Document 4, an operation designation area for outputting a command corresponding to the set processing level to the robot controller is stored, and the robot hand position calculated by the robot controller from the joint angle of the robot arm is stored. Is determined to be included in the motion designation area, and when the hand position of the robot is included in the motion designation area, the processing level is stopped and the robot is stopped. ing.

さらに、特許文献5に開示されるように、数値制御(NC)装置付機械では、機械の可動部が可動領域を超えてしまい機械が破損するのを防止するために、機械にリミットスイッチを取り付けている。そして、機械の可動部が可動領域を超えるときにリミットスイッチを押すと、リミットスイッチからNC装置に信号が出力され、NC装置はこの信号を受けて可動部を停止させていた。特許文献5においては、NC装置に内蔵される不揮発性メモリにリミット(ストアードストロークリミットという)の位置を記憶させ、可動部の移動に伴い刻々と更新される機械座標値がストアードストロークリミットの座標値を超えたときに、NC装置が可動部を停止させるリミットスイッチレスが一般的になってきていることが開示されている。ロボットでも同様に、ロボットの可動領域が例えばロボットアームの手先の座標位置によってストアードストロークリミットとして設定され、ロボットアームの手先を移動してその座標位置がストアードストロークリミットを超えるときに、ロボット制御装置がロボットアームを停止させるストアードストロークリミットの機能が一般的である。   Furthermore, as disclosed in Patent Document 5, in a machine with a numerical control (NC) device, a limit switch is attached to the machine in order to prevent the movable part of the machine from exceeding the movable region and damaging the machine. ing. When the limit switch is pressed when the movable part of the machine exceeds the movable region, a signal is output from the limit switch to the NC apparatus, and the NC apparatus receives the signal and stops the movable part. In Patent Document 5, the position of a limit (stored stroke limit) is stored in a non-volatile memory built in the NC device, and the machine coordinate value updated every time the movable part moves is the coordinate value of the stored stroke limit. It is disclosed that limit switchless in which the NC device stops the movable part when the value exceeds the limit is becoming common. Similarly, in the case of a robot, when the movable area of the robot is set as a stored stroke limit based on the coordinate position of the hand of the robot arm, for example, when the robot arm moves and the coordinate position exceeds the stored stroke limit, the robot controller A stored stroke limit function for stopping the robot arm is common.

特許第5582422号公報Japanese Patent No. 5582422 特開平5−77179号公報JP-A-5-77179 特許第4405468号公報Japanese Patent No. 4405468 特開平3−37701号公報Japanese Patent Laid-Open No. 3-37701 特開昭60−230205号公報JP 60-230205 A

しかしながら、特許文献1においては、不都合な段階を予め定義してプログラムする必要がある。従って、特許文献1の技術を既存のロボットシステムに適用する場合には、そのロボットシステムのプログラムを変更したり、制御部の回路を変更する必要がある。このような変更に要するコストや手間は比較的大きい。そして、プログラムや回路の変更には高度の熟練さや慎重さが要求されるので作業者が限定され、ロボットシステムの現場でプログラムなどを自由に変更するのは困難である。また、変更ミスがある場合には、変更後のロボットシステムによって却って人間が危険になる可能性がある。このため、一般に、既存のロボットシステムのプログラムなどの変更は積極的に行われない。   However, in Patent Document 1, it is necessary to define and program inconvenient steps in advance. Therefore, when the technique of Patent Document 1 is applied to an existing robot system, it is necessary to change the program of the robot system or the circuit of the control unit. The cost and labor required for such a change are relatively large. Further, since a high degree of skill and carefulness are required for changing the program and circuit, the number of workers is limited, and it is difficult to freely change the program and the like at the site of the robot system. In addition, if there is a change mistake, there is a possibility that a human being will be dangerous by the robot system after the change. For this reason, in general, the program of an existing robot system is not actively changed.

特許文献2においては、メンテナンスに適した所定姿勢の情報とその姿勢までロボットを移動させる情報とを事前に設定する必要がある。また、特許文献2においては、メンテナンス要求信号が入力された後で、ロボットはブロックエンドにて一旦停止する。このため、ブロックエンドの停止位置からメンテナンスに適した所定姿勢まで移動する際に、ロボットが障害物に接触する可能性がある。メンテナンス終了後にブロックエンドの停止位置まで戻るときにも、同様な問題がある。   In Patent Document 2, it is necessary to set in advance information on a predetermined posture suitable for maintenance and information for moving the robot to that posture. In Patent Document 2, after a maintenance request signal is input, the robot temporarily stops at the block end. For this reason, when moving from the stop position of the block end to a predetermined posture suitable for maintenance, the robot may come into contact with an obstacle. There is a similar problem when returning to the stop position at the block end after maintenance.

特許文献3においては、ロボットの停止位置は異物が検出されたときの位置であるので、ロボットの停止位置は設定されない。しかしながら、ロボットの停止位置によっては、ロボットの動作を再開するのが困難な場合がある。   In Patent Document 3, since the robot stop position is a position when a foreign object is detected, the robot stop position is not set. However, depending on the stop position of the robot, it may be difficult to resume the operation of the robot.

特許文献4においては、ロボット制御装置はロボットに対する停止指令を出力する。さらにロボット制御装置は、ロボットの手先位置の検出と、手先位置が動作指定域に含まれるか否かを判定する。従って、特許文献1の場合と同様に、特許文献4の技術を既存のロボットに適用する場合には、そのロボットのプログラムを変更したり、制御部の回路を変更する必要がある。このような変更に要するコストや手間、プログラムや回路の変更に要求される高度の熟練さや慎重さに関し、特許文献1と同様な問題がある。   In Patent Document 4, the robot control device outputs a stop command to the robot. Further, the robot control device detects the hand position of the robot and determines whether or not the hand position is included in the motion designation area. Therefore, as in the case of Patent Document 1, when the technique of Patent Document 4 is applied to an existing robot, it is necessary to change the program of the robot or the circuit of the control unit. There are the same problems as Patent Document 1 regarding the cost and labor required for such a change, and the high level of skill and carefulness required for changing the program and circuit.

さらに、特許文献5におけるロボットへ停止指令は、ロボットの制御装置によるロボット手先位置の検出と可動制限域に含まれるかをロボット制御装置による判断に依存している。従って、例えば、ロボットの可動制限域の設定を誤った場合には、想定していない場所にロボットの先端位置が動く危険性がある。また、ロボットの手先位置の検出と動作制限域に含まれるかの判断する、ロボットの制御装置と独立した装置があれば、ロボットの動きを二重に監視することができるので、更なる安全を図ることができる。   Further, the stop command to the robot in Patent Document 5 depends on the detection of the robot hand position by the robot control device and the determination by the robot control device whether it is included in the movable restriction range. Therefore, for example, if the setting of the movement limit range of the robot is wrong, there is a risk that the tip position of the robot moves to an unexpected place. In addition, if there is a device independent of the robot control device that detects the robot's hand position and determines whether it is included in the operation restriction area, it is possible to monitor the movement of the robot twice, so that further safety is achieved. Can be planned.

本発明はこのような事情に鑑みてなされたものであり、プログラムなどを変更することなしに既存のシステムに適用できると共に、プログラムを変更することで生じうるミスを要因とする人間への危険を極力排除することのできる動体システムおよびロボットシステムを提供することを目的とする。   The present invention has been made in view of such circumstances, and can be applied to an existing system without changing a program or the like, and also presents a danger to human beings caused by mistakes that can occur by changing the program. It is an object to provide a moving body system and a robot system that can be eliminated as much as possible.

前述した目的を達成するために1番目の発明によれば、駆動装置によって動かされる動体と、該動体の前記駆動装置に対する駆動指令を制御する動体制御部とを少なくとも含む動体システムにおいて、前記動体が動く区画を少なくとも含む所定区画を撮像する撮像部と、該撮像部により撮像された画像を処理する画像処理部と、を具備し、該画像処理部によって前記動体が予め教示された停止位置に到達したことが検出された場合には、前記画像処理部は前記動体を停止させる指令を出力することを特徴とする、動体システムが提供される。
2番目の発明によれば、1番目の発明において、前記停止位置が、所定の大きさの空間として教示されており、前記画像処理部によって、前記動体が前記空間に到達したことが検出された場合には、前記動体が前記停止位置に到達したとみなすようにした。
3番目の発明によれば、1番目または2番目の発明において、前記画像処理部は、停止要求部を含んでおり、該停止要求部の操作によって、前記動体の停止の要求があった場合に限り、前記動体が前記停止位置に到達したとみなすようにした。
4番目の発明によれば、駆動装置によって動かされる動体と、該動体の前記駆動装置に対する駆動指令を制御する動体制御部とを少なくとも含む動体システムにおいて、前記動体が動く区画を少なくとも含む所定区画を撮像する撮像部と、該撮像部により撮像された画像を処理する画像処理部とを具備し、前記画像処理部により検出された前記動体の位置が所定の空間から外れた場合には、前記画像処理部は前記動体を停止させる指令を出力することを特徴とする、動体システムが提供される。
5番目の発明によれば、駆動装置によって動かされる動体と、該動体の前記駆動装置に対する駆動指令を制御する動体制御部とを少なくとも含む動体システムにおいて、前記動体が動く区画を少なくとも含む所定区画を撮像する撮像部と、該撮像部により撮像された画像を処理する画像処理部とを具備し、前記画像処理部により検出された動体の位置が所定の直線または曲線を越えた場合には、前記画像処理部は前記動体を停止させる指令を出力することを特徴とする、動体システムが提供される。
6番目の発明によれば、1番目から5番目のいずれかの発明において、動体がロボットであることを特徴とするロボットシステムが提供される。
In order to achieve the above object, according to a first invention, in a moving body system including at least a moving body that is moved by a driving device and a moving body control unit that controls a drive command of the moving body to the driving device, An imaging unit that captures a predetermined section including at least a moving section; and an image processing unit that processes an image captured by the imaging unit. The moving object reaches a stop position taught in advance by the image processing unit. If it is detected, the image processing unit outputs a command to stop the moving object, and a moving object system is provided.
According to a second invention, in the first invention, the stop position is taught as a space of a predetermined size, and the image processing unit detects that the moving object has reached the space. In some cases, the moving body is regarded as having reached the stop position.
According to a third aspect, in the first or second aspect, the image processing unit includes a stop request unit, and when the moving object is requested to stop by an operation of the stop request unit. As long as the moving body has reached the stop position.
According to a fourth aspect of the present invention, in a moving body system including at least a moving body that is moved by a driving device and a moving body control unit that controls a driving command of the moving body to the driving device, the predetermined section including at least a section in which the moving body moves is provided. An image capturing unit that captures an image, and an image processing unit that processes an image captured by the image capturing unit, and when the position of the moving object detected by the image processing unit deviates from a predetermined space, the image A processing unit outputs a command to stop the moving body, and a moving body system is provided.
According to a fifth aspect of the present invention, in a moving body system including at least a moving body that is moved by a driving device and a moving body control unit that controls a driving command of the moving body to the driving device, the predetermined section including at least a section in which the moving body moves is provided. An imaging unit that captures an image and an image processing unit that processes an image captured by the imaging unit, and when the position of a moving object detected by the image processing unit exceeds a predetermined straight line or curve, An image processing unit outputs a command to stop the moving object, and a moving object system is provided.
According to a sixth invention, there is provided a robot system according to any one of the first to fifth inventions, wherein the moving object is a robot.

1番目の発明において、動体が停止位置に到達したことを画像処理部が検出すると、動体を停止位置で停止させるようにしている。動体の停止位置は、予め画像処理部に教示データとして教示してあり、画像処理部が教示データによって動体が停止位置に到達したことを検出するため、動体を停止位置で停止させるために動体の動きを制御するプログラムを何ら調整する必要はない。
2番目の発明においては、ロボットの停止位置などを所定の大きさの空間により定義しているので、ロボットの停止位置などに余裕代を与えることができる。
3番目の発明においては、停止要求部の操作で停止の要求された場合に限り、ロボットを停止させることができる。
4番目の発明において、画像処理部が動体の位置を追跡し、所定の空間から外れた場合には、動体を停止させることができる。従って、動体を制御するプログラムのミスで動体が所定の空間から外れても、画像処理部でそれを検知して動体を停止させることができる。このように動体を停止させるために動体を制御するプログラムを何ら調整する必要はない。
5番目の発明において、画像処理部が動体の位置を追跡し、所定の直線や曲線を越えた場合には、動体を停止させることができるので、動体を制御するプログラムのミスで動体が所定の直線や曲線を越えた場合に、画像処理部でそれを検知して動体を停止させることができる。このように動体を停止させるために動体を制御するプログラムを何ら調整する必要はない。
6番目の発明において、前記動体をロボットとしていることから、ロボットにおいても1番目から5番目の発明の効果をもたらすことができる。
In the first invention, when the image processing unit detects that the moving object has reached the stop position, the moving object is stopped at the stop position. The stop position of the moving object is previously taught to the image processing unit as teaching data, and the image processing unit detects that the moving object has reached the stop position based on the teaching data, so that the moving object is stopped at the stop position. There is no need to adjust the program that controls the movement.
In the second invention, since the stop position of the robot is defined by a space of a predetermined size, a margin can be given to the stop position of the robot.
In the third invention, the robot can be stopped only when the stop is requested by the operation of the stop request unit.
In the fourth aspect of the invention, the image processing unit tracks the position of the moving object, and can stop the moving object when it deviates from a predetermined space. Therefore, even if the moving object deviates from the predetermined space due to a mistake in the program for controlling the moving object, the moving object can be stopped by detecting it by the image processing unit. Thus, it is not necessary to adjust the program for controlling the moving object in order to stop the moving object.
In the fifth aspect of the invention, the image processing unit tracks the position of the moving object and can stop the moving object when it exceeds a predetermined straight line or curve. When a straight line or curve is exceeded, the moving object can be stopped by detecting it with the image processing unit. Thus, it is not necessary to adjust the program for controlling the moving object in order to stop the moving object.
In the sixth invention, since the moving body is a robot, the effects of the first to fifth inventions can be achieved also in the robot.

添付図面に示される本発明の典型的な実施形態の詳細な説明から、本発明のこれら目的、特徴および利点ならびに他の目的、特徴および利点がさらに明解になるであろう。   These and other objects, features and advantages of the present invention will become more apparent from the detailed description of exemplary embodiments of the present invention illustrated in the accompanying drawings.

本発明に基づくロボットシステムの略図である。1 is a schematic diagram of a robot system according to the present invention. 本発明に基づく基準画像と画像モデルの図である。FIG. 3 is a diagram of a reference image and an image model according to the present invention. 画像処理部の処理を示す第一のフローチャートである。It is a 1st flowchart which shows the process of an image process part. 画像処理部の処理を示す第二のフローチャートである。It is a 2nd flowchart which shows the process of an image process part. 画像処理部の処理を示す第三のフローチャートである。It is a 3rd flowchart which shows the process of an image process part.

以下、添付図面を参照して本発明の実施形態を説明する。以下の図面において同様の部材には同様の参照符号が付けられている。理解を容易にするために、これら図面は縮尺を適宜変更している。
請求項1の動体システムの具体的な例として、ロボットシステムを使って説明する。図1は本発明に基づくロボットシステムの略図である。図1に示されるように、本発明のロボットシステム1は、ロボット10と、該ロボット10を制御するロボット制御部20とを少なくとも含んでいる。さらに、図1においては、ロボット10およびその周辺を視野に含む視覚センサ11と、視覚センサ11により撮像された画像を処理して各種信号を出力する画像処理部25とが示されている。
Embodiments of the present invention will be described below with reference to the accompanying drawings. In the following drawings, the same members are denoted by the same reference numerals. In order to facilitate understanding, the scales of these drawings are appropriately changed.
A specific example of the moving body system according to claim 1 will be described using a robot system. FIG. 1 is a schematic diagram of a robot system according to the present invention. As shown in FIG. 1, the robot system 1 of the present invention includes at least a robot 10 and a robot controller 20 that controls the robot 10. Further, FIG. 1 shows a visual sensor 11 that includes the robot 10 and its surroundings in the field of view, and an image processing unit 25 that processes an image captured by the visual sensor 11 and outputs various signals.

ロボット10は産業用ロボット10、例えば多関節ロボット10である。従って、ロボット10は少なくとも一つの駆動装置、例えばモータによって駆動される。従って、ロボット制御部20は駆動装置に対する駆動指令を制御する。なお、ロボット10は動体の一例であり、他の動体を含むシステムであってもよい。視覚センサ11はロボット10の近傍に配置されたポスト14の先端に配置されており、ロボット10などを上方から撮像する。視覚センサ11はTOF(Time of Flight)のエリアセンサデバイスを組み込んだカメラ、およびLED投光デバイスを含んでいる。視覚センサ11は、LED光の反射光が戻ってくる時間を測定して二次元の奥行き画像を撮像する。   The robot 10 is an industrial robot 10, for example, an articulated robot 10. Therefore, the robot 10 is driven by at least one driving device, for example, a motor. Accordingly, the robot control unit 20 controls a drive command for the drive device. The robot 10 is an example of a moving object, and may be a system including other moving objects. The visual sensor 11 is disposed at the tip of the post 14 disposed in the vicinity of the robot 10 and images the robot 10 and the like from above. The visual sensor 11 includes a camera incorporating a TOF (Time of Flight) area sensor device and an LED light projecting device. The visual sensor 11 measures the time when the reflected light of the LED light returns and takes a two-dimensional depth image.

さらに、図1を参照すると、安全柵19がロボット10の周りに配置されている。安全柵19は、ロボット10が動作するロボット動作区画に対し人の立ち入りを制約している。視覚センサ11の視野で、ロボット動作区画の一部を少なくとも含む所定区画が撮像される。所定区画が安全柵19以外の手段、例えば床に配置された白線などによって定義されていてもよい。また図1では視覚センサ11は所定区画を上方から撮像するものとしているが、その他の方向から視覚センサ11が撮像してもよい。   Further, referring to FIG. 1, a safety fence 19 is arranged around the robot 10. The safety fence 19 restricts the entry of people to the robot operation section where the robot 10 operates. In the visual field of the visual sensor 11, a predetermined section including at least a part of the robot operation section is imaged. The predetermined section may be defined by means other than the safety fence 19, such as a white line arranged on the floor. In FIG. 1, the visual sensor 11 images a predetermined section from above, but the visual sensor 11 may capture images from other directions.

視覚センサ11により所定時間毎に撮像された画像はロボット制御部20の画像処理部25によって処理される。これにより、所定区画で動作するロボットを後述するように検知する。このような処理を所定時間毎に行うことにより、ロボットを所定区画内で追跡することも可能である。   Images picked up by the visual sensor 11 every predetermined time are processed by the image processing unit 25 of the robot control unit 20. Thereby, a robot operating in a predetermined section is detected as described later. By performing such processing every predetermined time, it is possible to track the robot within a predetermined section.

画像処理部25に対しては、ロボット10に関する画像モデルが予め教示されている。画像処理部25は、視覚センサ11により撮像された画像とこれら画像モデルとをマッチングすることにより、ロボット10を特定して検出する。画像モデルは、前処理された基準画像(後述する)から、ロボット10の特徴部分のみを切出すことにより作成される。   For the image processing unit 25, an image model related to the robot 10 is taught in advance. The image processing unit 25 identifies and detects the robot 10 by matching the image captured by the visual sensor 11 with these image models. The image model is created by cutting out only the characteristic portion of the robot 10 from a preprocessed reference image (described later).

また、図1に示されるように、ロボット制御部20は停止部21に接続されている。停止部21は画像処理部25の処理結果に応じて、ロボット10を停止させる指令を出力する。なお、画像処理部25がロボット10を停止させる停止指令を出力してもよい。   As shown in FIG. 1, the robot control unit 20 is connected to a stop unit 21. The stop unit 21 outputs a command to stop the robot 10 according to the processing result of the image processing unit 25. Note that the image processing unit 25 may output a stop command for stopping the robot 10.

ロボット10を停止させる指令は、例えばロボット10を減速させた後で停止させる指令である。この場合にはロボット10に負荷がかかるのを避けられる。あるいは、ロボット10を停止させる指令はロボット10の動力源を遮断する指令であってもよい。この場合にはロボット10を確実に停止させられる。また、画像処理部25は、操作者によって操作される停止要求部29を含んでいる。停止要求部29が操作されてロボット10の停止の要求があった場合に限り、ロボット10が停止位置に到達したことを検出してもよい。つまり、この場合には、ロボットを停止位置で停止させたいときだけロボットを停止させ、それ以外のときにはロボットが停止位置に到達しても停止させない。   The command to stop the robot 10 is a command to stop the robot 10 after decelerating, for example. In this case, the load on the robot 10 can be avoided. Alternatively, the command for stopping the robot 10 may be a command for shutting off the power source of the robot 10. In this case, the robot 10 can be stopped reliably. The image processing unit 25 includes a stop request unit 29 operated by an operator. It may be detected that the robot 10 has reached the stop position only when the stop request unit 29 is operated to request the robot 10 to stop. That is, in this case, the robot is stopped only when it is desired to stop the robot at the stop position, and in other cases, the robot is not stopped even when the robot reaches the stop position.

前述したように視覚センサ11はポスト14の先端に取付けられている。このため、視覚センサ11により撮像される画像は、図2に示されるように、安全柵19内部の所定区画の平面図に相当する。   As described above, the visual sensor 11 is attached to the tip of the post 14. For this reason, the image imaged by the visual sensor 11 corresponds to a plan view of a predetermined section inside the safety fence 19 as shown in FIG.

また、画像処理部25には基準画像が予め登録されている。基準画像は、画像処理部25に教示される停止位置にロボット10を移動させたときに、視覚センサ11によって撮像された画像である。例えば図2に示される画像においては、ロボット10が周辺機器40上で停止している。この場合には、ロボット10は周辺機器40上の位置で停止させることができるよう画像処理部25に基準画像が予め教示されている。本発明では、このような状態で予め撮像された画像が基準画像として使用される。   A reference image is registered in the image processing unit 25 in advance. The reference image is an image captured by the visual sensor 11 when the robot 10 is moved to the stop position taught by the image processing unit 25. For example, in the image shown in FIG. 2, the robot 10 is stopped on the peripheral device 40. In this case, a reference image is taught in advance to the image processing unit 25 so that the robot 10 can be stopped at a position on the peripheral device 40. In the present invention, an image captured in advance in such a state is used as a reference image.

なお、複数の停止位置が教示されていてもよく、その場合には、各停止位置に対応した複数の基準画像が登録されるものとする。そのような場合であっても、各停止位置にロボット10を移動させて視覚センサ11により撮像されるのみで容易にロボットシステム1におけるロボットの停止位置を教示することができる。また、ロボット10の停止位置は、画像処理部25に接続された操作盤(図示しない)の表示部に基準画像に基づいて表示されるので、操作者はロボット10の停止位置などに関する情報を直感的に得ることができる。   A plurality of stop positions may be taught, and in that case, a plurality of reference images corresponding to the respective stop positions are registered. Even in such a case, it is possible to easily teach the stop position of the robot in the robot system 1 simply by moving the robot 10 to each stop position and taking an image with the visual sensor 11. Further, since the stop position of the robot 10 is displayed on the display unit of an operation panel (not shown) connected to the image processing unit 25 based on the reference image, the operator intuitively obtains information on the stop position of the robot 10 and the like. Can be obtained.

また、停止位置は、ロボット10が所定の動作プログラムに従って動作したときの作業動作の軌道上に設置されるのが好ましい。例えばロボット10をメンテナンスする場合を考えると、メンテナンスに適した場所はロボットの作業動作の軌道上にあることが多い。従って、作業動作の軌道上に停止位置がある場合には、メンテナンスを容易に行うことができ、メンテナンス終了後のロボットの動作の再開を極めて円滑に行うことができる。   Moreover, it is preferable that the stop position is set on the track of the work operation when the robot 10 operates according to a predetermined operation program. For example, considering the case where the robot 10 is maintained, a place suitable for the maintenance is often on the trajectory of the robot's work operation. Therefore, when there is a stop position on the trajectory of the work operation, the maintenance can be easily performed, and the operation of the robot after the maintenance can be resumed very smoothly.

図3は画像処理部の処理を示す第一のフローチャートである。図3によって、停止位置を予め教示することと、該停止位置へロボットが到達したのを検出することについて説明する。ロボットを停止させたい位置へロボットを移動させ、視覚センサで撮像したものを停止位置での基準画像とする。その基準画像からステップS5でロボットの特徴となる部分を切り出して画像モデルを作成する。そして、ロボットが該停止位置に到達した時点で撮像した画像(ステップS1)と、該画像モデルをモデルマッチングすると照合(ステップS2、S3)することで、画像処理部はロボットが予め教示した停止位置に到達したことを検知する。   FIG. 3 is a first flowchart showing the processing of the image processing unit. With reference to FIG. 3, the teaching of the stop position in advance and the detection of the robot reaching the stop position will be described. The robot is moved to a position where the robot is to be stopped, and the image captured by the visual sensor is used as a reference image at the stop position. In step S5, an image model is created by cutting out the part that is characteristic of the robot from the reference image. Then, the image processing unit collates the image captured when the robot reaches the stop position (step S1) with the image model when the image model is matched (steps S2 and S3), so that the image processing unit stops the stop position taught in advance by the robot. Detects that it has reached.

図3のステップS1、S2、S3は所定の制御周期毎に繰返し実施されるものとする。スタップS1の視覚センサ11で撮像された撮像画像は、図3の上記停止位置で撮像された基準画像からステップS5で作成されたロボットを検出するための画像モデルと、ステップS2においてモデルマッチングされる。そして、ステップS3においてモデルマッチングにより照合すれば、ロボットが予め教示した停止位置に到達したことを検知する。照合しなければ、ステップS1の撮像からステップS2のモデルマッチングおよびステップS3の照合の処理を繰返す。   Steps S1, S2, and S3 in FIG. 3 are repeatedly performed at predetermined control cycles. The captured image captured by the visual sensor 11 of the tap S1 is model-matched in step S2 with the image model for detecting the robot created in step S5 from the reference image captured in the stop position in FIG. . And if it collates by model matching in step S3, it will detect that the robot arrived at the stop position taught beforehand. If not collated, the process of model matching in step S2 and collation in step S3 are repeated from the imaging in step S1.

ステップS3の照合においてロボット10が予め教示した停止位置に到達したことを検知すると、ステップS4において、停止部21が、ロボット10を停止させる指令を出力する。これにより、ロボット10は停止位置で停止する。   If it is detected in step S3 that the robot 10 has reached the previously taught stop position, the stop unit 21 outputs a command to stop the robot 10 in step S4. Thereby, the robot 10 stops at the stop position.

なお、ロボット10の停止位置は、所定の大きさの空間として教示されていてもよい。そして画像処理部25により、ロボット10がこれら空間に到達したことが検出された場合には、ロボット10が停止位置および通過位置に到達したとみなされる。この場合には、ロボットの停止位置などに余裕代を与えることができる。   Note that the stop position of the robot 10 may be taught as a space having a predetermined size. When the image processing unit 25 detects that the robot 10 has reached these spaces, it is considered that the robot 10 has reached the stop position and the passage position. In this case, a margin can be given to the stop position of the robot.

図4は画像処理部の処理を示す第二のフローチャートである。図4によって、画像処理部25により検出されたロボット10の位置が所定の空間から外れた場合には、ロボット10を停止させる指令を出力する、ロボットシステムについて説明する。図4に示されるように、ロボット10を制御周期毎に追跡するため、ロボット10の特徴マークの画像モデルを作るための基準画像を、該特徴マークが視覚センサ11の視野に入るようロボット10を移動させて、視覚センサ11で撮像する。そして、この基準画像から、ステップS1aで特徴マークの部分を切り出して、特徴マークの画像モデルを作成する。   FIG. 4 is a second flowchart showing processing of the image processing unit. A robot system that outputs a command for stopping the robot 10 when the position of the robot 10 detected by the image processing unit 25 deviates from a predetermined space will be described with reference to FIG. As shown in FIG. 4, in order to track the robot 10 at each control cycle, a reference image for creating an image model of the feature mark of the robot 10 is displayed, and the robot 10 is placed so that the feature mark enters the visual field of the visual sensor 11. The image is taken by the visual sensor 11 after being moved. In step S1a, the feature mark portion is cut out from the reference image to create an image model of the feature mark.

図4に示されるように、ステップS2aにおいて視覚センサ11でロボット10などを制御周期毎に撮像し、ステップS3aにおいて撮像画像と特徴マークの画像モデルとをモデルマッチングする。そして、ロボット10が視覚センサ11の視野にある場合には、モデルマッチングにより照合し、照合した位置が特徴マークの視覚センサ11の視野におけるロボット10の位置となる。図4に示されるように、視覚センサ11の視野には予めロボット11の可動を許す範囲をロボットの特徴マークの可動空間Aとして教示されている。ロボット10の移動によって特徴マークが該特徴マークの可動空間A内であるか否かをステップS4aで判断する。ロボット10の特徴マークが可動空間Aを外れた場合は、ステップS5aにおいてロボット10へ停止指令が出力される。尚、視覚センサ11はTOF(Time of Flight)のエリアセンサデバイスを組み込んだカメラ、およびLED投光デバイスを含んでおり、LED光の反射光が戻ってくる時間を測定して二次元の奥行き画像を撮像するので、撮像画像における二次元的な空間のみならず、奥行きデータを使った三次元的空間を設定することもできる。言い換えれば、図4に示される実施形態においては、ロボット10の位置が所定の三次元的空間である空間Aを外れた場合に停止指令が出力される。   As shown in FIG. 4, in step S2a, the visual sensor 11 captures the robot 10 and the like for each control period, and in step S3a, the captured image and the feature mark image model are model-matched. When the robot 10 is in the visual field of the visual sensor 11, matching is performed by model matching, and the collated position becomes the position of the robot 10 in the visual field of the visual sensor 11 of the feature mark. As shown in FIG. 4, in the visual field of the visual sensor 11, a range in which the robot 11 is allowed to move is previously taught as a movable space A of the robot feature mark. In step S4a, it is determined whether or not the feature mark is within the movable space A of the feature mark due to the movement of the robot 10. If the characteristic mark of the robot 10 deviates from the movable space A, a stop command is output to the robot 10 in step S5a. The visual sensor 11 includes a camera incorporating a TOF (Time of Flight) area sensor device and an LED floodlight device, and measures the time when the reflected light of the LED light returns to obtain a two-dimensional depth image. Therefore, not only a two-dimensional space in the captured image but also a three-dimensional space using depth data can be set. In other words, in the embodiment shown in FIG. 4, the stop command is output when the position of the robot 10 deviates from the space A that is a predetermined three-dimensional space.

図5は画像処理部の処理を示す第三のフローチャートである。図5では、画像処理部25により検出されたロボット10の位置が所定の直線または曲線を越えた場合には、ロボット10を停止させる指令を出力する、ロボットシステムについて説明する。ステップS1a、S2a、S3a、S5aについては、図4と同じであるため説明を省略する。図5に示されるように、視覚センサ11の視野には予めロボットの可動を許す範囲をロボットの特徴マークの可動範囲として教示されている。図4の可動範囲が閉空間Aであるのに対し、図5では視覚センサの視野を直線Bまたは曲線で区切り、その区切られた一方の空間を可動空間としている。ロボットの移動によって特徴マークが該特徴マークの可動空間内であるか否かをステップS4aで判断する。次いで、ロボット10の特徴マークが可動空間を外れた場合は、ステップS5aにおいてロボット10に停止指令が出力される。直線Bまたは曲線が視野を完全に区切らず、視野に部分的に配置された場合であっても、ロボットがその部分的な直線や曲線を乗り越える場合にロボット10に停止指令が出力されるようにしてもよい。また、上記の可動空間を奥行きデータを使った三次元的に設定できることも、図4の場合と同じである。言い換えれば、図5に示される実施形態においては、ロボット10の位置が所定の直線Bまたは曲線を越えた場合に停止指令が出力される。   FIG. 5 is a third flowchart showing the processing of the image processing unit. FIG. 5 illustrates a robot system that outputs a command to stop the robot 10 when the position of the robot 10 detected by the image processing unit 25 exceeds a predetermined straight line or curve. Steps S1a, S2a, S3a, and S5a are the same as in FIG. As shown in FIG. 5, in the visual field of the visual sensor 11, a range allowing the robot to move is previously taught as a movable range of the robot characteristic mark. While the movable range of FIG. 4 is the closed space A, in FIG. 5, the visual field of the visual sensor is divided by a straight line B or a curve, and one of the divided spaces is a movable space. In step S4a, it is determined whether or not the feature mark is within the movable space of the feature mark due to the movement of the robot. Next, when the feature mark of the robot 10 is out of the movable space, a stop command is output to the robot 10 in step S5a. Even when the straight line B or the curve does not completely divide the field of view and is partially arranged in the field of view, a stop command is output to the robot 10 when the robot goes over the partial line or curve. May be. Also, the movable space can be set three-dimensionally using depth data, as in the case of FIG. In other words, in the embodiment shown in FIG. 5, a stop command is output when the position of the robot 10 exceeds a predetermined straight line B or curve.

このように本発明においては、ロボット10が停止位置に到達したこと等を画像処理部25が検出すると、動体を停止位置で停止させるように停止指令が出力される。このため、本発明ではプログラムを変更する必要はない。このため、プログラムを変更することで生じうるミスを要因とする人間への危険を極力排除することが可能となる。従って、人間の安全を確保できるのが分かるであろう。   Thus, in the present invention, when the image processing unit 25 detects that the robot 10 has reached the stop position, a stop command is output so as to stop the moving object at the stop position. For this reason, it is not necessary to change the program in the present invention. For this reason, it is possible to eliminate as much as possible the danger to humans caused by mistakes that can occur by changing the program. Therefore, it will be understood that human safety can be ensured.

典型的な実施形態を用いて本発明を説明したが、当業者であれば、本発明の範囲から逸脱することなしに、前述した変更および種々の他の変更、省略、追加を行うことができるのを理解できるであろう。   Although the present invention has been described using exemplary embodiments, those skilled in the art can make the above-described changes and various other changes, omissions, and additions without departing from the scope of the invention. You will understand.

1 ロボットシステム(動体システム)
10 ロボット(動体)
11 視覚センサ(撮像部)
14 ポスト
19 安全柵
20 ロボット制御部(動体制御部)
21 停止部
25 画像処理部
29 停止要求部
1 Robot system (moving body system)
10 Robot (moving object)
11 Visual sensor (imaging part)
14 Post 19 Safety fence 20 Robot controller (moving object controller)
21 Stop unit 25 Image processing unit 29 Stop request unit

Claims (6)

駆動装置によって動かされる動体と、該動体の前記駆動装置に対する駆動指令を制御する動体制御部とを少なくとも含む動体システムにおいて、
前記動体が動く区画を少なくとも含む所定区画を撮像する撮像部と、
該撮像部により撮像された画像を処理する画像処理部と、を具備し、
該画像処理部は、予め教示された停止位置に前記動体を移動させたときに前記撮像部によって撮像された画像としての基準画像から前記動体の特徴部分を切出すことにより作成された画像モデルを含んでおり、
前記画像処理部が前記撮像部により撮像された画像と前記画像モデルとをマッチングすることによって、前記動体が予め教示された停止位置に到達したことが検出された場合には、前記画像処理部は前記動体を停止させる指令を出力することを特徴とする、動体システム。
In a moving body system including at least a moving body that is moved by a driving device and a moving body control unit that controls a drive command of the moving body to the driving device,
An imaging unit for imaging a predetermined section including at least a section in which the moving body moves;
An image processing unit that processes an image captured by the imaging unit,
The image processing unit extracts an image model created by cutting out a characteristic part of the moving object from a reference image as an image captured by the imaging unit when the moving object is moved to a stop position taught in advance. Including
When the image processing unit detects that the moving object has reached the previously taught stop position by matching the image captured by the image capturing unit with the image model , the image processing unit A moving body system that outputs a command to stop the moving body.
前記停止位置が、所定の大きさの空間として教示されており、
前記画像処理部によって、前記動体が前記空間に到達したことが検出された場合には、前記動体が前記停止位置に到達したとみなすようにしたことを特徴とする、請求項1に記載の動体システム。
The stop position is taught as a space of a predetermined size;
2. The moving object according to claim 1, wherein, when the image processing unit detects that the moving object has reached the space, the moving object is considered to have reached the stop position. 3. system.
前記画像処理部は、停止要求部を含んでおり、該停止要求部の操作によって、前記動体の停止の要求があった場合に限り、前記動体が前記停止位置に到達したとみなすようにした、請求項1または請求項2に記載の動体システム。   The image processing unit includes a stop request unit, and the operation of the stop request unit considers that the moving object has reached the stop position only when there is a request to stop the moving object. The moving body system according to claim 1 or claim 2. 駆動装置によって動かされる動体と、該動体の前記駆動装置に対する駆動指令を制御する動体制御部とを少なくとも含む動体システムにおいて、
前記動体が動く区画を少なくとも含む所定区画を撮像する撮像部と、
該撮像部により撮像された画像を処理する画像処理部とを具備し、
該画像処理部は、予め教示された停止位置に前記動体を移動させたときに前記撮像部によって撮像された画像としての基準画像から前記動体の特徴部分を切出すことにより作成された画像モデルを含んでおり、
前記画像処理部が前記撮像部により撮像された画像と前記画像モデルとをマッチングすることによって、前記動体の位置が所定の空間から外れたことが検出された場合には、前記画像処理部は前記動体を停止させる指令を出力することを特徴とする、動体システム。
In a moving body system including at least a moving body that is moved by a driving device and a moving body control unit that controls a drive command of the moving body to the driving device,
An imaging unit for imaging a predetermined section including at least a section in which the moving body moves;
An image processing unit that processes an image captured by the imaging unit,
The image processing unit extracts an image model created by cutting out a characteristic part of the moving object from a reference image as an image captured by the imaging unit when the moving object is moved to a stop position taught in advance. Including
By the image processing unit for matching with the image model and an image captured by the imaging unit, when the position of the moving object is detected to be deviating from the predetermined space, the image processing section the A moving system that outputs a command to stop the moving body.
駆動装置によって動かされる動体と、該動体の前記駆動装置に対する駆動指令を制御する動体制御部とを少なくとも含む動体システムにおいて、
前記動体が動く区画を少なくとも含む所定区画を撮像する撮像部と、
該撮像部により撮像された画像を処理する画像処理部とを具備し、
該画像処理部は、予め教示された停止位置に前記動体を移動させたときに前記撮像部によって撮像された画像としての基準画像から前記動体の特徴部分を切出すことにより作成された画像モデルを含んでおり、
前記画像処理部が前記撮像部により撮像された画像と前記画像モデルとをマッチングすることによって、前記動体の位置が所定の直線または曲線を越えたことが検出された場合には、前記画像処理部は前記動体を停止させる指令を出力することを特徴とする、動体システム。
In a moving body system including at least a moving body that is moved by a driving device and a moving body control unit that controls a drive command of the moving body to the driving device,
An imaging unit for imaging a predetermined section including at least a section in which the moving body moves;
An image processing unit that processes an image captured by the imaging unit,
The image processing unit extracts an image model created by cutting out a characteristic part of the moving object from a reference image as an image captured by the imaging unit when the moving object is moved to a stop position taught in advance. Including
By the image processing unit for matching with the image model and an image captured by the imaging unit, when the position of the moving object is detected that exceeds a predetermined straight line or curve, the image processing unit Outputs a command to stop the moving body.
前記動体がロボットであることを特徴とする請求項1から請求項5のうちいずれか1項に記載されたロボットシステム。   The robot system according to claim 1, wherein the moving body is a robot.
JP2015207083A 2015-10-21 2015-10-21 A moving body system using a visual sensor Active JP6572092B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015207083A JP6572092B2 (en) 2015-10-21 2015-10-21 A moving body system using a visual sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015207083A JP6572092B2 (en) 2015-10-21 2015-10-21 A moving body system using a visual sensor

Publications (2)

Publication Number Publication Date
JP2017077607A JP2017077607A (en) 2017-04-27
JP6572092B2 true JP6572092B2 (en) 2019-09-04

Family

ID=58665789

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015207083A Active JP6572092B2 (en) 2015-10-21 2015-10-21 A moving body system using a visual sensor

Country Status (1)

Country Link
JP (1) JP6572092B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63109996A (en) * 1986-05-15 1988-05-14 三菱電機株式会社 Monitor device for working region of robot
JPH0981237A (en) * 1995-09-18 1997-03-28 Matsushita Electric Ind Co Ltd Traveling object controller
JPH09272096A (en) * 1996-04-04 1997-10-21 Nissan Motor Co Ltd Safety device for production facility
JP4066168B2 (en) * 2003-03-13 2008-03-26 オムロン株式会社 Intruder monitoring device
DE102006057605A1 (en) * 2006-11-24 2008-06-05 Pilz Gmbh & Co. Kg Method and device for monitoring a three-dimensional space area
JP4802112B2 (en) * 2007-02-08 2011-10-26 株式会社東芝 Tracking method and tracking device
JP4648486B2 (en) * 2009-01-26 2011-03-09 ファナック株式会社 Production system with cooperative operation area between human and robot
JP5830755B2 (en) * 2009-10-21 2015-12-09 日本電産サンキョー株式会社 Robot system

Also Published As

Publication number Publication date
JP2017077607A (en) 2017-04-27

Similar Documents

Publication Publication Date Title
TWI611883B (en) Industrial remote operating robot system
US10737396B2 (en) Method and apparatus for robot path teaching
JP6420229B2 (en) A robot system including a video display device that superimposes and displays an image of a virtual object on a video of a robot
CN107378941B (en) Robot, control device, and robot system
US9352467B2 (en) Robot programming apparatus for creating robot program for capturing image of workpiece
JP6659629B2 (en) Control device for articulated robot
US10603798B2 (en) Robot
JP5803159B2 (en) Robot monitoring system and abnormality determination method for robot monitoring system
US9604360B2 (en) Robot system for preventing accidental dropping of conveyed objects
JPWO2008047872A1 (en) manipulator
JP2010120139A (en) Safety control device for industrial robot
CN110856932A (en) Interference avoidance device and robot system
JP2017013172A (en) Robot system using vision sensor
US20070216332A1 (en) Method for Effecting the Movement of a Handling Device and Image Processing Device
JP6572092B2 (en) A moving body system using a visual sensor
US10052757B2 (en) Robot control device and robot control method
US11511430B2 (en) Robot controller and management system
WO2020195267A1 (en) Control system, control method, and control unit
CN112012269A (en) Operation assistance system and method, maintenance assistance method, and construction machine
JP6409605B2 (en) Robot system
US11130241B2 (en) Robot
US11926065B2 (en) Vision-based operation for robot
JP4289219B2 (en) Human intervention robot controller
Landa-Hurtado et al. Kinect-based trajectory teaching for industrial robots
JP2018158429A (en) Robot system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190122

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190809

R150 Certificate of patent or registration of utility model

Ref document number: 6572092

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150