JPH08388B2 - Robot controller - Google Patents

Robot controller

Info

Publication number
JPH08388B2
JPH08388B2 JP1266265A JP26626589A JPH08388B2 JP H08388 B2 JPH08388 B2 JP H08388B2 JP 1266265 A JP1266265 A JP 1266265A JP 26626589 A JP26626589 A JP 26626589A JP H08388 B2 JPH08388 B2 JP H08388B2
Authority
JP
Japan
Prior art keywords
image
robot
control unit
processing
closed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1266265A
Other languages
Japanese (ja)
Other versions
JPH03129407A (en
Inventor
良司 古賀
正浩 野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Steel Corp
Original Assignee
Nippon Steel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Steel Corp filed Critical Nippon Steel Corp
Priority to JP1266265A priority Critical patent/JPH08388B2/en
Publication of JPH03129407A publication Critical patent/JPH03129407A/en
Publication of JPH08388B2 publication Critical patent/JPH08388B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は、動作領域内の閉塞画像(例えば、閉ルー
プ線画)を認識し、この閉塞画像内を自動的に塗り潰す
ことできるようにしたロボット制御装置に関するもので
ある。
DETAILED DESCRIPTION OF THE INVENTION [Industrial field of application] The present invention recognizes a blockage image (for example, a closed loop line drawing) in a motion area and automatically fills the blockage image. The present invention relates to a control device.

[従来の技術] 従来より、単純作業や危険作業を人に代えてロボット
で行うことが盛んに行われている。その構造及び機能
は、要求される目的及び作業内容に応じて異なるが、よ
り高度の操作や複雑な操作を行えるロボット、更には学
習などのAI機能などの行えるロボットの提供が望まれて
いる。
[Prior Art] Conventionally, robots have been actively used in place of people for simple work and dangerous work. Although its structure and function differ depending on the required purpose and work content, it is desired to provide a robot that can perform more advanced operations and complicated operations, and a robot that can perform AI functions such as learning.

例えば、前者の1つに特開昭61−74399号、後者の1
つに特開昭62−72004号がある。
For example, one of the former is JP-A-61-74399 and the other is
For example, there is JP-A-62-72004.

[発明が解決しようとする課題] しかし、従来のロボットにあっては、ツールの移動
は、そのパターンを予めロボット制御部内のメモリに記
憶させておき、これを実行時に読出す方法をとってい
る。このため、動作対象となる画像を予め登録していな
いものに対しては、ツールを移動させることができなか
った。例えば、動作範囲内に図示された閉塞画像を塗り
潰すなど、複雑な作業を自動的に行わせることは困難で
あった。このため、デモンストレーションなど用途に供
するロボットにあっては、見学者が注目するような動作
をさせることはできなかった。
[Problems to be Solved by the Invention] However, in the conventional robot, the tool is moved by storing the pattern in a memory in the robot control unit in advance and reading the pattern at the time of execution. . For this reason, the tool cannot be moved with respect to an image for which an operation target image is not registered in advance. For example, it has been difficult to automatically perform a complicated task such as painting the closed image shown in the operation range. For this reason, it has been impossible for a robot used for a demonstration or the like to perform a motion that the observer pays attention to.

この発明は、予め画像の登録処理を行うことなく、動
作範囲内に図示された閉塞画像を塗り潰すように自動的
にツールを移動できるようにしたロボット制御装置の提
供を目的とする。
An object of the present invention is to provide a robot control device capable of automatically moving a tool so as to fill an illustrated closed image within an operation range without performing image registration processing in advance.

[課題を解決するための手段] 上記目的を達成するために、この発明は、ツールの動
作範囲内に図示された閉領域画像を原画像として撮像す
る撮像手段と、該撮像手段による画像情報から2値化画
像を作成する2値化処理手段と、前記原画像中から特異
点を除去する閉領域ループ演算手段と、該演算手段の演
算結果に基づいて閉領域画像をトレース処理する境界点
を演算する閉領域境界点演算手段と、該手段及び前記閉
領域ループ演算手段の各演算結果に基づいて前記閉領域
内を所定のパターンによって前記ツールをトレースさせ
る制御手段とを設けるようにしたものである。
[Means for Solving the Problems] In order to achieve the above-mentioned object, the present invention is based on an image pickup means for picking up a closed region image shown in the operation range of a tool as an original image, and image information by the image pickup means. Binarization processing means for creating a binarized image, closed area loop operation means for removing singular points from the original image, and boundary points for trace processing of the closed area image based on the operation result of the operation means are defined. A closed area boundary point calculating means for calculating and a control means for tracing the tool in a predetermined pattern in the closed area based on the respective calculation results of the means and the closed area loop calculating means are provided. is there.

[作用] 上記した手段によれば、撮像手段によって撮像された
ツールの動作範囲内の画像に対し2値化を行った後、そ
の2値化画像の特徴が抽出されると共に輪郭の始点及び
増減値が算出される。更に、輪郭座標をX,Y座標に変換
し、これに対してソーティングを行うことにより閉領域
認識が行われる。従って、予め移動軌跡を設定登録する
などの作業を行うことなく、与えられた画像を読取り、
これに対する輪郭認識を行って、領域内への線引きなど
のトレース作業を行うので、どの様な閉領域の画像を与
えられても、ツールをトレース移動させることが可能に
なる。
[Operation] According to the means described above, after binarizing the image within the operation range of the tool imaged by the imaging means, the features of the binarized image are extracted and the start point and the increase / decrease of the contour are performed. The value is calculated. Furthermore, closed region recognition is performed by converting the contour coordinates into X and Y coordinates and performing sorting on the contour coordinates. Therefore, without performing the work such as setting and registering the movement trajectory in advance, the given image can be read,
Since contour recognition is performed for this and tracing work such as drawing into the region is performed, the tool can be trace-moved regardless of the image of any closed region.

[実施例] 以下、この発明の実施例について図面を参照しながら
説明する。
Embodiments Embodiments of the present invention will be described below with reference to the drawings.

第1図はこの発明の一実施例を示すブロック図であ
る。ここでは、ロボット本体として、関節型を用いた場
合を例示している。
FIG. 1 is a block diagram showing an embodiment of the present invention. Here, the case where a joint type is used as the robot body is illustrated.

ここに示す実施例は、ロボット本体3を動作させるた
めのプログラム作成及びデータ入力を行う指令制御部1,
ロボット本体3に内蔵されると共に指令制御部1とデー
タを交換しながら該指令制御部1の指示通りにロボット
本体3を駆動するための制御を行うロボット制御部2及
び腕,手,指に相当する可動部を備え、その各々の駆動
源として複数のモータ(不図示)を内蔵し、これらモー
タがロボット制御部2によって制御されるロボット本体
3から構成される。
The embodiment shown here is a command control unit 1, which creates a program for operating the robot body 3 and inputs data.
Corresponding to the robot controller 2 and arms, hands, and fingers that are built in the robot body 3 and that perform control for driving the robot body 3 according to the instructions of the command controller 1 while exchanging data with the command controller 1. And a plurality of motors (not shown) as driving sources for the respective movable parts, which are configured by a robot main body 3 controlled by the robot controller 2.

指令制御部1は各種のデータ,設定値及びプログラム
などの入力を行う為の操作盤101,ロボット本体3の可動
先端の動作範囲を視野とするテレビ(TV)カメラ102,操
作盤101の出力信号を所定のタイミングで取込む入力イ
ンターフェース103,プログラムを実行してロボットの可
動部を駆動させるための処理を行う中央処理装置(CP
U)104,プログラムを格納したリード・オンリーメモリ
(ROM)105,処理結果やデータを一時的に記憶するラン
ダム・アクセス・メモリ(RAM)106,ロボット制御に必
要な特定の処理アルゴリズム,定数などが格納されるテ
ーブル用メモリ107,ロボットを動かすための後記する画
像処理及びモニタ109に画像を表示させるための画像処
理及び制御を行う画像処理制御部108,CPU104による処理
内容あるいはロボットの動作状態を表示するモニタ109,
後記するプリンタ111を制御する出力インターフェース1
10,該出力インターフェース110の制御のもとに処理結果
などをプリントアウトするプリンタ111,及びロボット制
御部2に対しデータを送出すると共にロボット制御部2
からロボット本体3の動作状態情報を受信する伝送入出
力部112から構成される。
The command control unit 1 is an operation panel 101 for inputting various data, set values, programs, etc., a television (TV) camera 102 having an operation range of the movable tip of the robot body 3, and an output signal of the operation panel 101. Input interface 103 that captures the data at a predetermined timing
U) 104, read-only memory (ROM) 105 that stores programs, random access memory (RAM) 106 that temporarily stores processing results and data, specific processing algorithms necessary for robot control, constants, etc. A table memory 107 to be stored, an image processing control section 108 for performing image processing and control for displaying an image on a monitor 109 and an image processing described later for moving the robot, display processing contents by the CPU 104 or a robot operating state. Monitor 109,
Output interface 1 for controlling the printer 111 described later
10, the printer control unit 2 sends data to the printer 111, which prints out processing results under the control of the output interface 110, and the robot control unit 2.
And a transmission input / output unit 112 that receives the operation state information of the robot body 3.

またCPU104に対し、データ信号,コントロール信号及
びアドレス信号などが接続される各部材とCPU104間と
は、バス113によって相互に接続されている。更に、テ
レビカメラ102とバス113との間には、テレビカメラ102
の画像出力を2値化、即ち、ディジタル化する2値化処
理部114が接続されている。
Further, each member to which data signals, control signals, address signals, etc. are connected to the CPU 104 and the CPU 104 are mutually connected by a bus 113. Furthermore, between the TV camera 102 and the bus 113, the TV camera 102
A binarization processing unit 114 for binarizing, ie, digitizing, the image output of is connected.

なお、説明の便宜上、テレビカメラ102を指令制御部
1内に含める記載としているが、実際にはロボット本体
3の近傍に設置され、その視野がロボット本体3の可動
部の動作範囲になるようにセッティングされる。
Although the television camera 102 is described as being included in the command control unit 1 for convenience of description, it is actually installed near the robot body 3 so that its field of view is within the operation range of the movable portion of the robot body 3. Is set.

また、ロボット制御部2は伝送入出力部112からの信
号を受信すると共に、ロボット本体3の動作状態に関す
る情報などを送出する伝送入出力部201,該伝送入出力部
201からの信号に基づいてモータ駆動のための制御情報
を出力すると共に指令制御部1側へ送出する情報の管理
を行う制御部202,及び該制御部202からの指令に従って
ロボット本体3の各モータなどの駆動源を駆動するモー
タ駆動部203から構成される。
Further, the robot control unit 2 receives a signal from the transmission input / output unit 112, and transmits the information regarding the operation state of the robot body 3 and the like, the transmission input / output unit 201, the transmission input / output unit
A control unit 202 that outputs control information for driving a motor based on a signal from 201 and manages information sent to the command control unit 1 side, and each motor of the robot main body 3 according to a command from the control unit 202 And a motor drive unit 203 that drives a drive source such as.

制御部202はCPU及びその周辺回路を含んで構成され、
マスターである指令制御部1のCPU104に対し、スレーブ
として動作する。
The control unit 202 is configured to include a CPU and its peripheral circuits,
It operates as a slave to the CPU 104 of the command control unit 1 which is a master.

次に、以上の構成による実施例の動作について、第2
図のフローチャートを参照して説明する。なお、以下に
おいては、フローのステップをSとして表記している。
Next, regarding the operation of the embodiment having the above configuration,
This will be described with reference to the flowchart in the figure. In addition, in the following, the step of the flow is described as S.

まず、実行開始の指令を操作盤101でキーインし、装
置を起動させると共に初期化を行い、更にロボットを動
作させるための条件を指定する。入力された設定条件
は、テーブル用メモリ107に格納される。また、動作範
囲をテレビカメラ102で撮影し、その画像出力を取込
む。CPU104は、ロボットに動作させることが可能な内容
をモニタ109に表示して待機する。また、必要な情報を
伝送入出力部112を介してロボット制御部2へ伝達す
る。
First, an execution start command is keyed in on the operation panel 101, the apparatus is started and initialized, and the condition for operating the robot is specified. The input setting conditions are stored in the table memory 107. Also, the operation range is photographed by the TV camera 102 and the image output is captured. The CPU 104 displays on the monitor 109 the contents that can be operated by the robot and waits. In addition, necessary information is transmitted to the robot controller 2 via the transmission input / output unit 112.

ロボット制御部2では、第2図に示すフローに従って
制御部202が処理を実行すると共に指令制御部1との情
報交換を行う。
In the robot control unit 2, the control unit 202 executes processing according to the flow shown in FIG. 2 and exchanges information with the command control unit 1.

まず、電源オンと共にロボット本体3の初期化を行い
(S21)、動作範囲内にある物体に関するデータの初期
設定を行う(S22)。ついで、指令制御部1側に対し伝
送入出力部201を介して、どのような動きをすべきかの
ロボット動作選択要求を行う(S23)。
First, when the power is turned on, the robot body 3 is initialized (S21), and data regarding an object within the operation range is initialized (S22). Then, the command control unit 1 is requested via the transmission input / output unit 201 to request a robot motion selection of what motion should be performed (S23).

指令制御部1では、ロボット制御部2からのロボット
動作選択要求に対し、モニタ109に表示されているメニ
ュー(S32)の中から操作者に選択を促し、操作盤101に
よって選択された動作選択結果をロボット制御部2へ返
送する。これを受けた制御部202は、指令制御部1に対
し画像処理要求を出し、これを受けた指令制御部1では
テレビカメラ102から取込んだ画像情報を画像処理制御
部108で処理し、画像処理が終了した時点で、画像処理
終了報告(S33)をロボット制御部2へ返送する。
In response to the robot operation selection request from the robot controller 2, the command controller 1 prompts the operator to select from the menu (S32) displayed on the monitor 109, and the operation selection result selected by the operation panel 101. Is returned to the robot controller 2. Receiving this, the control unit 202 issues an image processing request to the command control unit 1, and in the command control unit 1 receiving this, the image processing control unit 108 processes the image information acquired from the television camera 102, When the processing is completed, the image processing completion report (S33) is returned to the robot controller 2.

また、制御部202からは、引続いて画像処理結果要求
が出される(S25)。この画像処理結果要求に対して
は、指令制御部1とロボット制御部2間で複数回のデー
タ伝送が行われ、指令制御部1で画像処理結果情報(S3
4)が全て送出完了するまで繰返えされる。
Further, the control unit 202 subsequently issues an image processing result request (S25). In response to this image processing result request, data transmission is performed a plurality of times between the command control unit 1 and the robot control unit 2, and the command control unit 1 performs image processing result information (S3
It is repeated until 4) is completely sent.

画像処理の結果が得られると、制御部202は与えられ
た動作選択要求及び画像処理結果から、ロボットがとる
べき動作(即ち、始点と終点の2点間をどのように移動
するか)を計画する(S26)。この計画内容に基づいて
制御部202は、モータ駆動部203に制御指令を送出し、ロ
ボット本体3のアームなどの駆動を開始させる。
When the image processing result is obtained, the control unit 202 plans the action to be taken by the robot (that is, how to move between the start point and the end point) from the given action selection request and the image processing result. Yes (S26). Based on the contents of this plan, the control unit 202 sends a control command to the motor drive unit 203 to start driving the arm of the robot body 3.

1つの動作が終了すると、実行すべき次の処理が存在
するか否かを指令制御部1に問合わせる(S28)。この
問合わせに対して操作者は、モニタ109上のメニュー画
面(S35)を見ながら、前回と同一の動作、あるいは他
の異なる動作を選択する。この選択内容は、伝送入出力
部112及び伝送路を介してロボット制御部2の伝送入出
力部201に伝送され、制御部202に取込まれる。制御部20
2は受信内容を判定(S29)し、それが同じ動作の再実行
である場合には、再度ステップ27以降の動作を繰返し実
行する。
When one operation ends, the command control unit 1 is inquired whether or not there is a next process to be executed (S28). In response to this inquiry, the operator selects the same operation as the previous operation or another different operation while looking at the menu screen (S35) on the monitor 109. This selection content is transmitted to the transmission input / output unit 201 of the robot control unit 2 via the transmission input / output unit 112 and the transmission path, and is taken in by the control unit 202. Control unit 20
2 judges the received contents (S29), and if it is the re-execution of the same operation, the operation after step 27 is repeatedly executed again.

また、異なる動作の実行の要求に対しては、それが同
一種類の動作に該当するものか否かを判定(S30)し、
同一である場合にはステップ24以降の処理を繰返し実行
する。一方、同一種類の動作でない場合、ステップ23で
行った動作要求を再び指令制御部1へ要求するか否かを
判定し(S31)、動作再選択の指示が判定された場合に
は、ステップ23以降の処理を再度実行する。また、動作
再選択の指示が無い場合には、全ての処理を終了する。
In addition, in response to a request to execute a different operation, it is determined whether or not it corresponds to the same type of operation (S30),
If they are the same, the processing after step 24 is repeatedly executed. On the other hand, if it is not the same type of operation, it is determined whether or not the operation request made in step 23 is requested again to the command control unit 1 (S31), and if an operation reselection instruction is determined, step 23 The subsequent processing is executed again. If no operation reselection instruction is given, all processing is terminated.

ロボット制御部2では、第3図に示すフローに従って
制御部202が処理を実行すると共に指令制御部1との情
報交換を行う。
In the robot controller 2, the controller 202 executes processing according to the flow shown in FIG. 3 and exchanges information with the command controller 1.

まず、テレビカメラ102によって、動作範囲を撮像
し、その画像情報を2値化処理した後、これをメモリ
(RAM106)に記憶する。一方、操作盤101から使用ツー
ルを指定し(S41)、更にホームポジション待機に入
り、作業道具の把持を行い、更に手先部姿勢の計算など
が行われる(S42)。
First, the operation range is imaged by the television camera 102, the image information is binarized, and then stored in the memory (RAM 106). On the other hand, a tool to be used is specified from the operation panel 101 (S41), the home position standby state is entered, the work tool is gripped, and the hand posture is calculated (S42).

ついで、次に示すような定義及び指定を行って目標位
置への移動計算(閉領域の始点)を行う(S43)。
Then, the following definitions and designations are performed to perform movement calculation to the target position (start point of the closed area) (S43).

座標系の定義(ロボットのツール座標系を定義) 姿勢制御の指定(アーム姿勢,ツール姿勢など) 軌跡制御の指定(移動速度など) 把持物体の仕様を設定(例えば、高さなど) 次に、以上の処理に基づいて閉領域に対するトレース
作業を実行する(S44)。即ち、X方向に対する線引き
をY方向へ一定間隔に行う。ついで、閉領域の全域に対
し線引きトレースが実行されたか否かをチェックする
(S45)。トレースが終了であれば、直ちにツールによ
線引きトレースを開始できるように、ホームポジション
待機モードとする(S46)。そして作業道具を取外し、
そのまま待機する。一方、トレース作業が未終了であれ
ば、n番目の線引きトレースの開始点へ移動させ(S4
7)、ステップ44の処理を続行する。
Definition of coordinate system (definition of tool coordinate system of robot) Designation of posture control (arm posture, tool posture, etc.) Designation of trajectory control (moving speed, etc.) Set specifications of gripping object (eg, height) Based on the above processing, the trace work for the closed region is executed (S44). That is, the drawing in the X direction is performed in the Y direction at regular intervals. Then, it is checked whether or not the line drawing trace has been executed for the entire closed region (S45). When the tracing is completed, the home position standby mode is set so that the tool can immediately start the trace tracing (S46). Then remove the work tool,
Wait as it is. On the other hand, if the tracing work is not completed yet, it is moved to the start point of the nth drawing trace (S4
7), the process of step 44 is continued.

次に、第4図(A),(B),(C)を参照して、閉
領域トレースの処理の詳細について説明する。ここで
は、トレースとして、閉領域内を一定間隔に平行線を線
引きする場合を例示する。
Next, with reference to FIGS. 4 (A), (B), and (C), the details of the closed area trace processing will be described. Here, as the trace, a case where parallel lines are drawn at regular intervals in the closed region is illustrated.

まず、テレビカメラ102によって撮像されたツールの動
作範囲内の画像が原画像として入力される。この動作範
囲(=カメラの視野範囲)内には、ツールの移動対象と
なる線画が描かれている。この原画像を曲線領域に設置
したウィンドウに入力する(S51)。
First, an image captured by the television camera 102 within the operation range of the tool is input as an original image. In this operation range (= field of view of the camera), a line drawing to be moved by the tool is drawn. This original image is input to the window installed in the curved area (S51).

ついで、中間輝度レベルの変換処理を行う(S52)と
共に、予め定めたコード及び画像解析定数テーブルの設
定値に基づいて基本の画像処理を行う(S53)。更に、
ステップ53において濃淡画像から2値画像を生成(2値
化処理手段)する(S54)。これによって得られた2値
化画像に対し、閉領域ループ演算手段としての特徴抽出
処理を行う(S55)。この特徴抽出処理は、入力2値化
画像に対し、まず、作業対象の閉塞画像か否かを物体の
交点数及び物体数で判定し、更に輪郭追跡テーブルから
ロボットの座標であるワーク用座標(2値出力画像)を
得るものである。
Then, the conversion processing of the intermediate luminance level is performed (S52), and the basic image processing is performed based on the predetermined code and the set value of the image analysis constant table (S53). Furthermore,
In step 53, a binary image is generated from the grayscale image (binarization processing means) (S54). Feature extraction processing as a closed region loop calculation means is performed on the binarized image obtained in this way (S55). In this feature extraction process, first, it is determined whether or not the closed image is a work target for the input binarized image based on the number of intersections of the objects and the number of objects. A binary output image) is obtained.

次に、第4図(B)に示すように、ステップ55で得ら
れた画像に対し、輪郭追跡テーブル内に閉領域輪郭座標
を抽出する(S56)。この処理は、1画素当たりの囲ま
れた領域の輪郭を抽出するものであり、それが真に閉領
域であるか否かの判定は、物体の交点があるか否かの算
出によって行う。即ち、交点があった場合には、閉領域
とは見なさない。次に、輪郭追跡テーブル内の開始点
X0,Y0及び増減値ΔX,ΔYをX,Y座標に変換し、これを輪
郭追跡テーブルに格納する(S57)。
Next, as shown in FIG. 4B, the closed region contour coordinates are extracted from the contour tracking table for the image obtained in step 55 (S56). This processing is to extract the contour of the enclosed area per pixel, and whether or not it is a true closed area is determined by calculating whether or not there is an intersection of the objects. That is, when there is an intersection, it is not regarded as a closed region. Then the starting point in the contour tracking table
X 0 , Y 0 and the increase / decrease values ΔX, ΔY are converted into X, Y coordinates and stored in the contour tracking table (S57).

ついで、以下のようなソーティング処理(閉領域境界
点演算手段)が3段階に実行される。まず、第1のソー
ティング処理が実行される(S58)。この処理は、例え
ば、100個の輪郭点数に対し、Y座標の昇順に輪郭座標
のソーティングを行い、Y座標の数字の小さい順に並べ
替える。即ち輪郭座標が下記のような昇順であるとする
と、 (輪郭座標) X Y 10 10 9 10 8 11 7 12 5 12 : : : : 15 13 14 12 13 11 12 11 11 10(輪郭点数 100個目) ソーティング後は次のようになる。
Then, the following sorting process (closed region boundary point calculating means) is executed in three stages. First, the first sorting process is executed (S58). In this processing, for example, with respect to 100 contour points, the contour coordinates are sorted in ascending order of the Y coordinate, and the contour coordinates are sorted in ascending order of the number. That is, if the contour coordinates are in the ascending order as follows, (contour coordinates) XY 10 10 9 10 8 11 7 12 5 12 :::: 15 13 14 12 13 11 12 11 11 10 (100 contour points) ) After sorting is as follows.

(ソーティング後の輪郭座標) X Y 10 10 9 10 11 10 8 11 13 11 12 11 7 12 5 12 14 12 : : : : 次に、第4図(C)のステップ59において、同一座標
グループ内でX座標昇順に、下記のようなソーティング
を行う。
(Outline coordinates after sorting) XY 10 10 9 10 11 10 8 11 13 11 12 11 7 12 5 12 14 12 :: :: Next, in step 59 of FIG. 4 (C), within the same coordinate group The following sorting is performed in the ascending order of the X coordinate.

(ソーティング後の輪郭座標) X Y 9 10(始点) 10 ↓(終点) 11 ↓ 8 11 12 ↓ 13 ↓ 5 12 7 ↓ 14 ↓ : : : : そして、同一グループ内の最下位及び最上位データを
テーブルに格納する。この組合わせを1グループとし
て、例えば20グループを抽出し、この始点,終点座標を
閉領域認識結果テーブルに格納する。このとき、ワール
ド座標系に換算後、昇順に再ソーティングする。
(Outline coordinates after sorting) XY 9 10 (start point) 10 ↓ (end point) 11 ↓ 8 11 12 ↓ 13 ↓ 5 12 7 ↓ 14 ↓ ::::: And the lowest and highest data in the same group Store in a table. For example, 20 groups are extracted with this combination as one group, and the start point and end point coordinates are stored in the closed region recognition result table. At this time, after converting to the world coordinate system, the sorting is performed again in ascending order.

このようにして得られた閉領域認識結果は、伝送入出
力部112を介してロボット制御部2へ伝送され、ロボッ
ト制御部2側に準備されている環境データベースを用い
て、手先姿勢算出,動作経路選定処理の後、第3図で示
した処理に従って線引きトレース動作が実行される。
The closed region recognition result obtained in this way is transmitted to the robot control unit 2 via the transmission input / output unit 112, and the hand posture calculation and operation are performed using the environment database prepared on the robot control unit 2 side. After the route selection process, the line drawing trace operation is executed according to the process shown in FIG.

なお、以上の説明では、閉ループ内に一定間隔で平行
線を線引きトレースするものとしたが、直線のほか、点
線,網線,網点,ベタ塗りなどとすることもできる。
In the above description, parallel lines are drawn and traced at regular intervals in the closed loop, but in addition to straight lines, dotted lines, halftone dots, halftone dots, solid paint, and the like can be used.

また、上記実施例では、閉領域内にトレース処理を施
すものとしたが、領域外を処理対象とすることもでき
る。
Further, in the above-described embodiment, the trace processing is performed within the closed area, but the outside of the area can be processed.

[発明の効果] 以上説明した通り、この発明は、ツールの動作範囲内
に図示された閉領域画像を原画像として撮像する撮像手
段と、該撮像手段による画像情報から2値化画像を作成
する2値化処理手段と、前記原画像中から特異点を除去
する閉領域ループ演算手段と、該演算手段の演算結果に
基づいて閉領域画像をトレース処理する境界線を演算す
る閉領域境界点演算手段と、該手段及び前記閉領域ルー
プ演算手段の各演算結果に基づいて前記閉領域内を所定
のパターンによって前記ツールをトレースさせる制御手
段とを設けるようにしたので、与えられた画像に対する
輪郭認識を行い、領域内への線引きなどのトレース作業
を行うので、どの様な閉領域の画像を与えられても、ツ
ールをトレース移動させることが可能になる。しかも、
従来のように、予め移動軌跡を設定登録するなどの作業
が不必要になり、汎用性に優れたロボットの提供が可能
になる。
[Effects of the Invention] As described above, according to the present invention, an image pickup unit that picks up a closed region image shown in the operation range of a tool as an original image, and a binary image is created from image information of the image pickup unit. Binarization processing means, closed area loop calculation means for removing singular points from the original image, and closed area boundary point calculation for calculating a boundary line for tracing the closed area image based on the calculation result of the calculation means. Since the means and the control means for tracing the tool in the closed area with a predetermined pattern based on the respective calculation results of the means and the closed area loop calculation means are provided, contour recognition for a given image is performed. Since the tracing work such as drawing is performed in the area, the tool can be trace-moved regardless of the image of the closed area. Moreover,
As in the conventional case, the work such as setting and registering the movement trajectory in advance is unnecessary, and it becomes possible to provide a robot having excellent versatility.

【図面の簡単な説明】[Brief description of drawings]

第1図はこの発明の一実施例を示すブロック図、第2図
は指令制御部1とロボット制御部2の処理の概略を説明
するフローチャート、第3図はロボット制御部2の動作
を示すフローチャート、第4図(A),(B),(C)
はこの発明における閉領域認識処理の詳細を示すフロー
チャートである。 図中. 1:指令制御部、2:ロボット制御部 3:ロボット本体、4:外部記憶装置 101:操作盤、102:テレビカメラ 104:CPU、107:テーブル用メモリ 108:画像処理制御部 109:モニタ、112:伝送入出力部 114:2値化処理部、201:伝送入出力部 202:制御部、203:モータ駆動部
FIG. 1 is a block diagram showing an embodiment of the present invention, FIG. 2 is a flow chart for explaining the outline of the processing of the command control unit 1 and the robot control unit 2, and FIG. 3 is a flow chart for showing the operation of the robot control unit 2. , Fig. 4 (A), (B), (C)
3 is a flowchart showing details of closed region recognition processing in the present invention. In the figure. 1: Command control unit, 2: Robot control unit 3: Robot main body, 4: External storage device 101: Control panel, 102: TV camera 104: CPU, 107: Table memory 108: Image processing control unit 109: Monitor, 112 : Transmission input / output unit 114: Binarization processing unit, 201: Transmission input / output unit 202: Control unit, 203: Motor drive unit

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】ツールの動作範囲内に図示された閉領域画
像を原画像として撮像する撮像手段と、該撮像手段によ
る画像情報から2値化画像を作成する2値化処理手段
と、前記原画像中から特異点を除去する閉領域ループ演
算手段と、該演算手段の演算結果に基づいて閉領域画像
をトレース処理する境界点を演算する閉領域境界点演算
手段と、該手段及び前記閉領域ループ演算手段の各演算
結果に基づいて前記閉領域内を所定のパターンによって
前記ツールをトレースさせる制御手段とを具備すること
を特徴とするロボット制御装置。
1. An image pickup means for picking up a closed region image shown in an operating range of a tool as an original image, a binarization processing means for making a binarized image from image information by the image pickup means, and the original. Closed area loop calculating means for removing singular points from an image, closed area boundary point calculating means for calculating a boundary point for tracing processing of a closed area image based on a calculation result of the calculating means, the means and the closed area A robot control device comprising: a control means for tracing the tool in a predetermined pattern in the closed region based on each calculation result of the loop calculation means.
JP1266265A 1989-10-16 1989-10-16 Robot controller Expired - Fee Related JPH08388B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1266265A JPH08388B2 (en) 1989-10-16 1989-10-16 Robot controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1266265A JPH08388B2 (en) 1989-10-16 1989-10-16 Robot controller

Publications (2)

Publication Number Publication Date
JPH03129407A JPH03129407A (en) 1991-06-03
JPH08388B2 true JPH08388B2 (en) 1996-01-10

Family

ID=17428574

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1266265A Expired - Fee Related JPH08388B2 (en) 1989-10-16 1989-10-16 Robot controller

Country Status (1)

Country Link
JP (1) JPH08388B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05197415A (en) * 1992-01-17 1993-08-06 Mitsubishi Electric Corp Picture processing system for industrial robot device
JPH05204459A (en) * 1992-01-24 1993-08-13 Fujitsu Ltd Fitting method for location measuring unit and connector
KR100382266B1 (en) * 2000-08-18 2003-05-01 이용중 Auto Brand Attachment Method of Magnitude Changing Objects Using Robot Pose Adjustment Algorithm
CN107498555A (en) * 2017-08-11 2017-12-22 上海思依暄机器人科技股份有限公司 One kind action transmitting method, device and robot

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0811300B2 (en) * 1987-03-26 1996-02-07 松下電器産業株式会社 Welding robot with sensor
JP2703546B2 (en) * 1987-12-29 1998-01-26 川崎製鉄株式会社 Target recognition method of luggage place
JP2593499B2 (en) * 1987-12-29 1997-03-26 川崎製鉄株式会社 Crane position detection and control device

Also Published As

Publication number Publication date
JPH03129407A (en) 1991-06-03

Similar Documents

Publication Publication Date Title
US11338435B2 (en) Gripping system with machine learning
CN110640730B (en) Method and system for generating three-dimensional model for robot scene
KR910000873B1 (en) The method and system colntrolling assembling robot
CN111462154A (en) Target positioning method and device based on depth vision sensor and automatic grabbing robot
EP0322464A1 (en) Method of robot arrangement determination
EP3837095B1 (en) Method of programming an industrial robot
CN112230649B (en) Machine learning method and mobile robot
CN114670189B (en) Storage medium, and method and system for generating control program of robot
CN113319859B (en) Robot teaching method, system and device and electronic equipment
JPH08388B2 (en) Robot controller
KR20040100963A (en) Image processing apparatus
US20210197391A1 (en) Robot control device, robot control method, and robot control non-transitory computer readable medium
CN114463244A (en) Vision robot grabbing system and control method thereof
JPH05119823A (en) Track planning method for robot and its controller
JPH08387B2 (en) Robot controller
CN111899629B (en) Flexible robot teaching system and method
JPS6334093A (en) Visual device
JPH08386B2 (en) Robot controller
CN109934155B (en) Depth vision-based collaborative robot gesture recognition method and device
JPH05150835A (en) Assembling device using robot
JP2971822B2 (en) Non-contact image measurement system
JPH0580836A (en) Method for generating teaching data for image pickup device
JPH05134737A (en) Teaching device of robot
US20230078238A1 (en) Teaching Method
Friedrich Vision-aided flexible component handling

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees