JP2009248214A - Image processing device and robot control system - Google Patents

Image processing device and robot control system Download PDF

Info

Publication number
JP2009248214A
JP2009248214A JP2008096740A JP2008096740A JP2009248214A JP 2009248214 A JP2009248214 A JP 2009248214A JP 2008096740 A JP2008096740 A JP 2008096740A JP 2008096740 A JP2008096740 A JP 2008096740A JP 2009248214 A JP2009248214 A JP 2009248214A
Authority
JP
Japan
Prior art keywords
workpiece
master
robot
image processing
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008096740A
Other languages
Japanese (ja)
Other versions
JP4794011B2 (en
Inventor
Ryota Urakawa
良太 浦川
Keita Ushizaka
慶太 牛坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kanto Jidosha Kogyo KK
Toyota Motor East Japan Inc
Original Assignee
Kanto Jidosha Kogyo KK
Kanto Auto Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kanto Jidosha Kogyo KK, Kanto Auto Works Ltd filed Critical Kanto Jidosha Kogyo KK
Priority to JP2008096740A priority Critical patent/JP4794011B2/en
Publication of JP2009248214A publication Critical patent/JP2009248214A/en
Application granted granted Critical
Publication of JP4794011B2 publication Critical patent/JP4794011B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To obtain high-accuracy positional information of a workpiece from image information of the workpiece photographed by a camera in an image processing device. <P>SOLUTION: The image processing device 1 which acquires the image information of the workpiece photographed by stereo cameras 3a, 3b and measures a position of the workpiece using the image information is provided with: a master register part 11 storing master positional information which shows a predetermined reference position of the workpiece in three dimensions; a position measuring part 12 calculating three-dimensional positions of characteristic points at three places of the workpiece and the center of gravity of the work by using the image information of the workpiece; and a deviation calculation part 13 calculating a deviation amount of the workpiece in three-dimensional directions and respective inclinations of the workpiece in the three-dimensional directions from the three-dimensional positions of the characteristic points calculated at the three places, the calculated center of gravity, and the master position information of the workpiece. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、カメラで撮像した対象物の画像情報から対象物の位置情報を計測する画像処理装置、および、上記画像処理装置が計側した位置情報を用いてロボットの動作制御を行うロボット制御システムに関する。   The present invention relates to an image processing apparatus that measures position information of an object from image information of the object imaged by a camera, and a robot control system that controls the operation of a robot using position information measured by the image processing apparatus. About.

従来から、生産現場等では、所定のワーク置場に載置された対象物(ワーク)を取り出して搬送するロボット制御システムが利用されている。ここで、従来から知られているロボット制御システムについて図6を用いて説明する。   2. Description of the Related Art Conventionally, in a production site or the like, a robot control system that takes out and conveys an object (work) placed on a predetermined work place has been used. Here, a conventionally known robot control system will be described with reference to FIG.

図6は、従来技術のロボット制御システムの概略構成図である。
図示するように、ロボット制御システムはワークの3次元位置を求めるビジョンシステムAと、ビジョンシステムAが求めたワークの3次元位置を用いて、ワークWを把持して搬送するロボットシステムBとを備える。
FIG. 6 is a schematic configuration diagram of a conventional robot control system.
As shown in the figure, the robot control system includes a vision system A for obtaining the three-dimensional position of the workpiece, and a robot system B for gripping and transporting the workpiece W using the three-dimensional position of the workpiece obtained by the vision system A. .

ビジョンシステムAは、ワークを撮像するステレオカメラ52a、52bと、ステレオカメラ52a、52bの駆動制御を行うコントローラ51と、コントローラ51を介してステレオカメラ52a、52bが撮像した画像を取得し、その取得した画像からワークのなかの所定の一部位(例えば重心)の3次元位置を求める画像処理装置50とを備える。
ロボットシステムBは、アーム7aを備えたロボット7と、ロボット7の動作を制御するロボットコントローラ60とを備える。
そして、ロボット制御システムは、以下の動作を行い、所定のワーク置場に載置されたワークを把持して搬送する。
The vision system A acquires stereo cameras 52a and 52b that capture a workpiece, a controller 51 that controls driving of the stereo cameras 52a and 52b, and images captured by the stereo cameras 52a and 52b via the controller 51. An image processing device 50 for obtaining a three-dimensional position of a predetermined part (for example, the center of gravity) of the workpiece from the obtained image.
The robot system B includes a robot 7 having an arm 7a and a robot controller 60 that controls the operation of the robot 7.
Then, the robot control system performs the following operation to grip and transport the workpiece placed on a predetermined workpiece placement site.

具体的には、ロボットコントローラ60は、ロボット7が、ワークの近くまでくると、ビジョンシステムAの画像処理装置50にワークの位置測定を要求する。
画像処理装置50は、前記位置測定の要求を受けると、ステレオカメラ52a、52bにワークを撮像させ、その撮像させたワークの画像情報を取得する。そして、画像処理装置50は、取得した画像情報を用いてワークの1ヶ所の特徴点の3次元位置(ワークの一部位の3次元位置)を算出し、その算出した3次元位置と、予めマスタデータ(ワークの基準位置を示す情報)として登録されたワークの特徴点の3次元位置との差分からワークの位置ズレ量を算出する。画像処理装置50は、上記の位置ズレ量をロボットコントローラ60に出力する。
ロボットコントローラ60は、前記位置ズレ量を用いて、ロボット7の姿勢やロボットアーム7aの軌道を補正し、ワークを把持して搬送し、予め定められた位置にワークをセットする。
Specifically, the robot controller 60 requests the image processing apparatus 50 of the vision system A to measure the position of the workpiece when the robot 7 comes close to the workpiece.
Upon receiving the position measurement request, the image processing apparatus 50 causes the stereo cameras 52a and 52b to image the workpiece, and acquires image information of the captured workpiece. Then, the image processing device 50 calculates a three-dimensional position of a feature point at one place of the workpiece (a three-dimensional position of one part of the workpiece) using the acquired image information, and the calculated three-dimensional position and the master in advance. The amount of displacement of the workpiece is calculated from the difference from the three-dimensional position of the feature point of the workpiece registered as data (information indicating the reference position of the workpiece). The image processing apparatus 50 outputs the above-described positional deviation amount to the robot controller 60.
The robot controller 60 corrects the posture of the robot 7 and the trajectory of the robot arm 7a using the displacement amount, grips and transports the workpiece, and sets the workpiece at a predetermined position.

そして、上記のように、ビジョンシステムと、ロボットとを備えるロボット制御システムの構成は、例えば特許文献1に開示されている。
また、カメラで撮像した検査対象物の画像データを用いて、検査対象物の所定箇所(重心)の位置を求める画像処理技術は、例えば特許文献2に開示されている。
特開2000−67238号公報 特開2001−27511号公報
And as mentioned above, the structure of the robot control system provided with a vision system and a robot is disclosed by patent document 1, for example.
Further, for example, Patent Document 2 discloses an image processing technique for obtaining the position of a predetermined portion (center of gravity) of an inspection object using image data of the inspection object imaged by a camera.
JP 2000-67238 A JP 2001-27511 A

しかしながら、上述した従来技術のロボット制御システムは、ワークの寸法や形状によって、ワーク全体の位置ズレを正確に把握できない場合があるという技術的課題を有している。その結果、従来技術のロボット制御システムは、寸法の大きいワークを取り出す場合などに、ロボットがワークを把持できないことがあった。すなわち、従来技術のロボット制御システムは、ワークの一部位の位置ズレに対応させてロボットを制御しているが、ワークの寸法が大きい場合などに、ワークの一部位のズレに対応してもワーク全体のズレまで対応できないことがあった。
以下、図7を用いて、ロボットがワークを把持できないケースについて説明する。
However, the above-described prior art robot control system has a technical problem that the positional displacement of the entire workpiece may not be accurately grasped depending on the size and shape of the workpiece. As a result, the robot control system of the prior art sometimes cannot grip the workpiece when taking out a workpiece having a large size. In other words, the robot control system of the prior art controls the robot in accordance with the positional deviation of one part of the workpiece. There was a case that it was not possible to cope with the whole gap.
Hereinafter, a case where the robot cannot hold the workpiece will be described with reference to FIG.

図7は、従来技術のロボット制御システムにおいて、ロボットに把持されて搬送されるワークを例示した図である。
ここで、符号Wは、ロボットコントローラ60(図6参照)にマスタデータとして登録されたワーク(基準位置のワーク)を示し、符号111、112、113は、マスタデータとして登録されているワークWの把持位置(ロボットにより把持される位置)を示す。また、符号W´は、搬送対象となるワーク(実際にワーク置場に載置されたワーク)の位置を示し、符号121、122、123は、ワークW´の把持位置(ロボットにより把持される位置)を示す。また、符号130は、予め定めておいた特徴点を示している。
FIG. 7 is a diagram illustrating an example of a workpiece that is gripped and transported by a robot in a conventional robot control system.
Here, the symbol W indicates a workpiece (a workpiece at a reference position) registered as master data in the robot controller 60 (see FIG. 6), and the symbols 111, 112, and 113 indicate workpieces W registered as master data. A gripping position (a position gripped by the robot) is shown. Reference sign W ′ indicates the position of the work to be transported (work actually placed on the work place), and reference numerals 121, 122, and 123 denote gripping positions of the work W ′ (positions gripped by the robot). ). Reference numeral 130 denotes a predetermined feature point.

そして、図示するように、搬送対象のワークW´がマスタデータのワークWから傾いている場合、特徴点130の位置ズレだけを考慮しても(特徴点130の位置ズレを修正しても)、ワークW´の把持位置121、122、123の位置ズレにまで対応できない(把持位置121、122、123の位置ズレを修正できない)ことがある。したがって、図示するようなケースでは、特徴点130の位置ズレだけを考慮してもロボットがワークWを把持できないことがあった。
なお、ワークを位置決めしてワーク置場に載置することにより、ロボットがワークを把持できないというエラーを防止できる。しかし、その方法では、ワークの種類毎に位置決めをする必要があり、ロボット制御システム自体の汎用性が失われてしまう。
As shown in the figure, when the workpiece W ′ to be transported is inclined from the workpiece W of the master data, only the positional deviation of the feature point 130 is taken into account (even if the positional deviation of the characteristic point 130 is corrected). In some cases, it is not possible to cope with the positional deviations of the gripping positions 121, 122, and 123 of the workpiece W ′ (the positional deviations of the gripping positions 121, 122, and 123 cannot be corrected). Therefore, in the case shown in the figure, the robot may not be able to grip the workpiece W even if only the positional deviation of the feature point 130 is taken into consideration.
By positioning the work and placing it on the work place, an error that the robot cannot grip the work can be prevented. However, this method requires positioning for each type of workpiece, and the versatility of the robot control system itself is lost.

本発明は、上記の技術的課題を解決するためになされたものであり、カメラで撮像したワークの画像情報からワークの位置情報を求める画像処理装置において、高精度にワークの位置情報を求めることを目的とするものである。また、前記画像処理装置で求めた位置情報を利用して、ロボットを高精度に制御するロボット制御システムを提供することを目的とするものである。   The present invention has been made to solve the above technical problem, and in an image processing apparatus that obtains workpiece position information from workpiece image information captured by a camera, obtains workpiece position information with high accuracy. It is intended. It is another object of the present invention to provide a robot control system for controlling a robot with high accuracy using position information obtained by the image processing apparatus.

上記課題を解決するために本発明は、カメラで撮像したワークの画像情報を取得し、該画像情報を用いてワークの位置を計測する画像処理装置に適用される。
そして、前記画像処理装置は、予め定められたワークの基準位置を3次元で示したマスタ位置情報を記憶する手段と、前記ワークの画像情報を用いて、前記ワークのなかの所定の3ヶ所の特徴点の3次元位置および該ワークの重心を算出する測定手段と、前記算出した3ヶ所の特徴点の3次元位置、前記算出した重心、および前記マスタ位置情報を用いて、前記ワークの3次元方向のズレ量を算出すると共に、該ワークの3次元方向のそれぞれの傾きを算出するズレ算出手段とを備えることを特徴とする。
In order to solve the above problems, the present invention is applied to an image processing apparatus that acquires image information of a workpiece imaged by a camera and measures the position of the workpiece using the image information.
The image processing apparatus stores the master position information indicating the predetermined reference position of the workpiece in three dimensions and the image information of the workpiece, and uses the image information of the workpiece at predetermined three locations in the workpiece. Using the measurement means for calculating the three-dimensional position of the feature point and the center of gravity of the workpiece, the three-dimensional position of the three feature points calculated, the calculated center of gravity, and the master position information, the three-dimensional of the workpiece And a deviation calculating means for calculating the amount of deviation in the direction and calculating the inclination of each of the workpieces in the three-dimensional direction.

このように本発明によれば、カメラで撮像したワークの画像情報を用いて、前記ワークの3ヶ所の特徴点の3次元位置と、ワークの重心とを求めて、その求めた3次元位置および重心を利用することにより、ワークの3次元方向のズレ量に加えて、ワークの3次元方向のそれぞれの傾きとを算出するようにしている。
すなわち、本発明によれば、ワークの3次元方向のズレ量だけでなく、3次元方向の傾きを求めているため、例えば、所定のワーク置場に配置されたワークの位置を正確に把握することができるようになる。
したがって、例えば、上述したようなワークを把持するようなロボットの動作制御に、本発明の画像処理装置により求めたワークの位置情報(3次元方向のズレ量、および3次元方向の傾き)を利用するようにすれば、ロボットを高精度に制御することができる。
As described above, according to the present invention, using the image information of the workpiece imaged by the camera, the three-dimensional positions of the three feature points of the workpiece and the center of gravity of the workpiece are obtained, and the obtained three-dimensional position and By using the center of gravity, in addition to the amount of deviation of the workpiece in the three-dimensional direction, the respective inclinations of the workpiece in the three-dimensional direction are calculated.
That is, according to the present invention, since not only the displacement amount of the workpiece in the three-dimensional direction but also the inclination in the three-dimensional direction is obtained, for example, the position of the workpiece placed in a predetermined workpiece place can be accurately grasped. Will be able to.
Therefore, for example, the position information of the workpiece (the amount of deviation in the three-dimensional direction and the inclination in the three-dimensional direction) obtained by the image processing apparatus of the present invention is used for the operation control of the robot that holds the workpiece as described above. By doing so, the robot can be controlled with high accuracy.

また、前記マスタ位置情報には、前記ワークの設計情報から求めた、該ワークの重心を示すマスタ重心と、該ワークのなかの前記3ヶ所の特徴点を通るマスタ基準面とが含まれ、前記ズレ算出手段は、前記測定手段が算出した重心と前記マスタ重心との差分から前記ワークの3次元方向のズレ量を算出すると共に、前記算出した3ヶ所の特徴点を通る平面を求め、該平面および前記マスタ基準面を用いて、該ワークの3次元方向のそれぞれの傾きを算出することが望ましい。
このように本発明によれば、マスタ位置情報としてワークのなかの3ヶ所の特徴点を通るマスタ基準面を記憶しておき、測定手段が算出した3ヶ所の特徴点を通る平面を求め、その平面および前記マスタ基準面を利用して、ワークの傾きを求めている。
そのため、本発明によれば、高精度に、ワークの3次元方向の傾きを求めることができ、その結果、ワークの位置を正確に把握することができる。
Further, the master position information includes a master center of gravity indicating the center of gravity of the workpiece obtained from the workpiece design information, and a master reference plane passing through the three feature points in the workpiece, The deviation calculating means calculates the amount of deviation in the three-dimensional direction of the workpiece from the difference between the center of gravity calculated by the measuring means and the master center of gravity, and obtains a plane passing through the calculated feature points of the three points. It is desirable to calculate the respective inclinations of the workpiece in the three-dimensional direction using the master reference plane.
As described above, according to the present invention, the master reference plane passing through the three feature points in the workpiece is stored as the master position information, and the plane passing through the three feature points calculated by the measuring means is obtained, The inclination of the workpiece is obtained using the flat surface and the master reference surface.
Therefore, according to the present invention, the inclination of the workpiece in the three-dimensional direction can be obtained with high accuracy, and as a result, the position of the workpiece can be accurately grasped.

また、前記画像処理装置と、アームを備え、該アームの先端部でワークを把持して搬送するロボットとを有するロボット制御システムにおいて、予め設定された教示データにしたがい前記ロボットのアームの動作を制御する制御手段を有し、前記制御手段は、前記アームが所定位置に到達すると、前記画像処理装置に前記ワークの3次元方向のズレ量および傾きを算出させ、該算出させた前記ズレ量および前記傾きを利用して前記教示データを補正し、該補正した教示データを用いて前記アームの動作を制御することが望ましい。   In addition, in a robot control system having the image processing apparatus and a robot that includes an arm and grips and conveys a workpiece at the tip of the arm, the operation of the arm of the robot is controlled according to preset teaching data. And a control unit configured to cause the image processing device to calculate a shift amount and an inclination of the workpiece in a three-dimensional direction when the arm reaches a predetermined position, and to calculate the shift amount and the calculated It is desirable to correct the teaching data using an inclination and control the operation of the arm using the corrected teaching data.

このように、本発明によれば、画像処理装置が測定したワークの3次元方向のズレ量に加えて、ワークの3次元方向の傾きを反映させて、ロボットの動作制御を行うようにしている。
したがって、本発明によれば、上述したようなワークを把持して搬送するロボットにおいて、寸法の大きいワークを取り出す場合などであっても、ロボットがワークを把持できないような動作エラーが発生する可能性を低減することができる。
As described above, according to the present invention, in addition to the amount of deviation in the three-dimensional direction of the workpiece measured by the image processing apparatus, the movement of the robot is controlled by reflecting the inclination of the workpiece in the three-dimensional direction. .
Therefore, according to the present invention, in a robot that grips and conveys a workpiece as described above, even if a workpiece with a large dimension is taken out, an operation error that prevents the robot from gripping the workpiece may occur. Can be reduced.

本発明によれば、カメラで撮像したワークの画像情報からワークの位置情報を求める画像処理装置において、高精度にワークの位置情報を求めることができる。また、前記画像処理装置で求めた位置情報を利用することにより、ロボットを高精度に制御するロボット制御システムを得ることができる。   According to the present invention, in an image processing apparatus that obtains workpiece position information from workpiece image information captured by a camera, the workpiece position information can be obtained with high accuracy. In addition, a robot control system for controlling the robot with high accuracy can be obtained by using the position information obtained by the image processing apparatus.

以下、本発明の実施形態について、図面に基づいて説明する。
先ず、本実施形態のロボット制御システムの構成について図1および図2に基づいて説明する。
図1は、本発明の実施形態のロボット制御システムのブロック図である。また、図2は、本発明の実施形態のロボット制御システムにより把持されて搬送されるワークの一例を示した図である。
なお、図1および図2では、上述した図6及び7で示した従来技術のものと同じ構成については同じ符号を付している。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
First, the configuration of the robot control system of this embodiment will be described with reference to FIGS. 1 and 2.
FIG. 1 is a block diagram of a robot control system according to an embodiment of the present invention. FIG. 2 is a diagram illustrating an example of a workpiece that is gripped and conveyed by the robot control system according to the embodiment of the present invention.
In FIG. 1 and FIG. 2, the same components as those in the prior art shown in FIG. 6 and FIG.

図示するように、ロボット制御システムは、ワークWの位置ズレ量を計側するビジョンシステムVと、ビジョンシステムVが求めたワークWの位置ズレ量を用いて、ワークWを把持して搬送するロボットシステムRとを備える。   As shown in the figure, the robot control system includes a vision system V that measures the positional deviation amount of the workpiece W, and a robot that grips and conveys the workpiece W using the positional deviation amount of the workpiece W obtained by the vision system V. System R.

ビジョンシステムVは、2台のCCDカメラ等により構成されるステレオカメラ3a、3bと、ステレオカメラ3a、3bの駆動制御を行うコントローラ2と、コントローラ2を介してステレオカメラ3a、3bが撮像した画像を取得し、その取得した画像からワークWの位置ズレ量を示す「ズレ量情報(3次元方向の位置ズレおよび傾き)」を求める画像処理装置1とを備える。そして、画像処理装置1は、求めた「ズレ量情報」をロボットシステムRのロボットコントローラ6に出力する。
また、画像処理装置1には、ユーザへのインタフェース画面や画像処理結果等を表示する液晶ディスプレイ等により構成される出力装置4と、ユーザからの各種要求を受け付けるキーボードやマウス等により構成される入力装置5とが接続されている。
なお、ビジョンシステムVを構成するステレオカメラ3a、3b、およびコントローラ2は、既存の技術により実現されるものであるため、以下においてその詳細な説明は省略する。
The vision system V includes stereo cameras 3a and 3b configured by two CCD cameras, a controller 2 that controls driving of the stereo cameras 3a and 3b, and images captured by the stereo cameras 3a and 3b via the controller 2. And an image processing apparatus 1 for obtaining “deviation amount information (position deviation and inclination in a three-dimensional direction)” indicating the amount of deviation of the workpiece W from the obtained image. Then, the image processing apparatus 1 outputs the obtained “deviation amount information” to the robot controller 6 of the robot system R.
The image processing apparatus 1 includes an output device 4 configured by a liquid crystal display or the like for displaying an interface screen to the user, an image processing result, and the like, and an input configured by a keyboard, a mouse, or the like that accepts various requests from the user. The apparatus 5 is connected.
Since the stereo cameras 3a and 3b and the controller 2 constituting the vision system V are realized by existing technology, detailed description thereof will be omitted below.

ロボットシステムRは、アーム7aを備え、アーム7aの先端部でワークWを把持して搬送するロボット7と、予め記憶している教示データを用いてロボット7の動作制御を行うロボットコントローラ6とを備える。
ロボット7は、ロボットコントローラ6に制御され、所定のワーク置場に載置されたワークWをアーム7aの先端で把持し、所定の位置まで搬送する。なお、ロボット7の具体的な構成について特に限定されるものではないが、例えば、ロボット7に垂直多関節型の6軸ロボットを用いることができる。
The robot system R includes an arm 7a, and includes a robot 7 that grips and transports the workpiece W at the tip of the arm 7a, and a robot controller 6 that controls the operation of the robot 7 using previously stored teaching data. Prepare.
The robot 7 is controlled by the robot controller 6 and grips the workpiece W placed on a predetermined workpiece place with the tip of the arm 7a and conveys it to a predetermined position. The specific configuration of the robot 7 is not particularly limited. For example, a vertical articulated 6-axis robot can be used as the robot 7.

また、ロボットコントローラ6は、ビジョンシステムVの画像処理装置1と通信可能に構成され、所定のタイミングで(アーム7aが所定位置に到達すると)、画像処理装置1にワークWの位置ズレ量を算出させる。
また、ロボットコントローラ6は、画像処理装置1が算出したワークWの位置ズレ量を示す「ズレ量情報」を利用して前記教示データを補正し、その補正した教示データを用いてロボット7の動作を制御する。
The robot controller 6 is configured to be communicable with the image processing apparatus 1 of the vision system V, and calculates a positional deviation amount of the workpiece W in the image processing apparatus 1 at a predetermined timing (when the arm 7a reaches a predetermined position). Let
Further, the robot controller 6 corrects the teaching data by using “displacement amount information” indicating the displacement amount of the workpiece W calculated by the image processing apparatus 1, and uses the corrected teaching data to operate the robot 7. To control.

次に、本実施形態のビジョンシステムVを構成する画像処理装置1の機能構成を説明する。
画像処理装置1は、マスタ登録部11、位置測定部12、ズレ算出部13、画像出力部14、および通信処理部15を有する。
Next, a functional configuration of the image processing apparatus 1 configuring the vision system V of the present embodiment will be described.
The image processing apparatus 1 includes a master registration unit 11, a position measurement unit 12, a deviation calculation unit 13, an image output unit 14, and a communication processing unit 15.

マスタ登録部11は、予め定めたワークWの基準位置を3次元で示したマスタ位置情報を記憶する。
具体的には、マスタ登録部11は、ワークWの設計情報(例えば、ワークWのCAD情報等)を用いて、ワーク置場に載置されているワークWの基準位置を示す3次元の位置情報を求め、その位置情報をマスタ位置情報として記憶する。
前記マスタ位置情報には、図2に示すワークWの3ヶ所の特徴点101、102、103(ワークWに形成された穴等を特徴点とする)を全て通過する平面(以下、「マスタ基準面」という)を示す情報と、ワークWの重心(以下、「マスタ重心」という)を示す情報とが含まれる。
The master registration unit 11 stores master position information indicating a predetermined reference position of the workpiece W in three dimensions.
Specifically, the master registration unit 11 uses the work W design information (for example, CAD information of the work W) to indicate three-dimensional position information indicating the reference position of the work W placed on the work place. And the position information is stored as master position information.
The master position information includes a plane (hereinafter referred to as “master reference”) that passes through all three feature points 101, 102, and 103 of the workpiece W shown in FIG. 2 (characterized by holes and the like formed in the workpiece W). And information indicating the center of gravity of the workpiece W (hereinafter referred to as “master center of gravity”).

位置測定部12は、ステレオカメラ3a、3bが撮像したワーク置場に載置されたワークWの画像情報を取得し(コントローラ2を介して取得し)、その取得した画像情報を用いてワークWの3ヶ所の特徴点101、102、103の3次元位置を算出する。
また、位置測定部12は、前記取得したワークWの画像情報を用いて、ワーク置場に載置されたワークWの重心(以下、「測定重心」という)を求める。
The position measuring unit 12 acquires image information of the work W placed on the work place imaged by the stereo cameras 3a and 3b (obtained via the controller 2), and uses the acquired image information to acquire the work W. The three-dimensional positions of the three feature points 101, 102, 103 are calculated.
Further, the position measuring unit 12 obtains the center of gravity (hereinafter referred to as “measurement center of gravity”) of the work W placed on the work place using the acquired image information of the work W.

ズレ算出部13は、マスタ登録部11がマスタ位置情報として記憶しているマスタ重心と、位置測定部12で求めた測定重心とを用いて、ワークWの3次元方向(x、y、z)の重心のズレ量を求める(すなわち、実際にワーク置場に載置されたワークWの基準位置からのズレを求める)。   The deviation calculation unit 13 uses the master centroid stored by the master registration unit 11 as the master position information and the measured centroid obtained by the position measurement unit 12, and the three-dimensional direction (x, y, z) of the workpiece W. Is obtained (that is, the deviation from the reference position of the work W actually placed on the work place is obtained).

また、ズレ算出部13は、位置測定部12が算出した3ヶ所の特徴点101、102、103の3次元位置を用いて、3ヶ所の特徴点101、102、103を全て通過する平面(以下、「測定基準面」という)を求める。そして、ズレ算出部13は、求めた測定基準面と、マスタ登録部11がマスタ位置情報として記憶しているマスタ基準面とを用いて、ワークの3次元方向のそれぞれの傾きを算出する。   Further, the deviation calculation unit 13 uses the three-dimensional positions of the three feature points 101, 102, and 103 calculated by the position measurement unit 12, and passes through all the three feature points 101, 102, and 103 (hereinafter referred to as the planes). , Called “measurement reference plane”). Then, the deviation calculation unit 13 calculates the respective inclinations of the workpiece in the three-dimensional direction by using the obtained measurement reference plane and the master reference plane stored as master position information by the master registration unit 11.

ここで、図3を用いて、ワークWの3次元方向の傾きについて説明する。
図3は、ワークの3次元方向の傾きを説明するためにワークをモデル化して示した概念図である。ここで、符合105は、ワークWの重心を示している。また、図示する概念図では、ワークWの重心105を基準点に取り、3軸(x軸、y軸、z軸)を定義している。
そして、ズレ算出部13は、実際にワーク置場に載置されたワークWの3軸(x軸、y軸、z軸)のそれぞれについて、マスタ位置情報として登録されたワークWの3軸(x軸、y軸、z軸)からの傾き(「x軸方向の傾きθ」、「y軸方向の「傾きΦ」、「z軸方向の傾きψ」)を求める。
Here, the inclination of the workpiece W in the three-dimensional direction will be described with reference to FIG.
FIG. 3 is a conceptual diagram showing a workpiece modeled in order to explain the inclination of the workpiece in the three-dimensional direction. Here, reference numeral 105 indicates the center of gravity of the workpiece W. In the conceptual diagram shown in the figure, the center of gravity 105 of the workpiece W is taken as a reference point, and three axes (x axis, y axis, z axis) are defined.
Then, the deviation calculating unit 13 determines the three axes (x) of the workpiece W registered as the master position information for each of the three axes (x axis, y axis, z axis) of the workpiece W actually placed on the workpiece placement site. The inclinations from “axis, y-axis, z-axis” (“slope θ in the x-axis direction”, “slope Φ in the y-axis direction,“ slope ψ in the z-axis direction ”) are obtained.

図1に戻り、画像処理装置1の機能構成の説明を続ける。
画像出力部14は、ステレオカメラ3a、3bが撮像したワークWの画像情報を出力装置4に出力し、出力装置4に画像情報を表示させる。また、画像出力部14は、位置測定部が算出した算出結果や、ズレ算出部13が算出した位置ズレ量を示す画像情報を生成し、その画像情報を出力装置4に表示させる。
Returning to FIG. 1, the description of the functional configuration of the image processing apparatus 1 will be continued.
The image output unit 14 outputs the image information of the workpiece W captured by the stereo cameras 3a and 3b to the output device 4, and causes the output device 4 to display the image information. In addition, the image output unit 14 generates image information indicating the calculation result calculated by the position measurement unit and the position shift amount calculated by the shift calculation unit 13 and causes the output device 4 to display the image information.

通信処理部15は、ステレオカメラ2を制御するコントローラ2との間で行う各種データの授受を制御したり、ロボットコントローラ6との間で行われる各種データの授受を制御する。   The communication processing unit 15 controls the exchange of various data performed with the controller 2 that controls the stereo camera 2 and controls the exchange of various data performed with the robot controller 6.

つぎに、画像処理装置1のハードウェア構成について説明する。
画像処理装置1は、CPU、メモリ、I/Oインタフェース、ネットワークインタフェースを備えるコンピュータにより構成される。
また、前記メモリには、上述した各部(マスタ登録部11、位置測定部12、ズレ算出部13、画像出力部14、および通信処理部15)の機能を実現するためのプログラム(位置ズレ算出プログラム)が格納されている。
そして、上述した各部(マスタ登録部11、位置測定部12、ズレ算出部13、画像出力部14、および通信処理部15)の機能は、前記CPUが前記メモリに格納された位置ズレ算出プログラムを実行することにより実現される。
なお、上述したマスタ位置情報は、前記メモリの所定領域に格納される。
Next, the hardware configuration of the image processing apparatus 1 will be described.
The image processing apparatus 1 includes a computer having a CPU, a memory, an I / O interface, and a network interface.
Further, the memory includes a program (position deviation calculation program) for realizing the functions of the above-described units (master registration unit 11, position measurement unit 12, deviation calculation unit 13, image output unit 14, and communication processing unit 15). ) Is stored.
The functions of the above-described units (the master registration unit 11, the position measurement unit 12, the deviation calculation unit 13, the image output unit 14, and the communication processing unit 15) are executed by the CPU using a positional deviation calculation program stored in the memory. It is realized by executing.
The master position information described above is stored in a predetermined area of the memory.

つぎに、本実施形態のロボット制御システムが行うワーク搬送処理の手順について、図4および図5を用いて説明する。
図4は、本実施形態のロボット制御システムが行うワーク搬送処理の手順を示すフローチャートである。
また、図5は、ワークの位置ズレ量の算出に用いるマスタ基準面および測定基準面の概念図である。なお、図5(a)は、マスタ基準面の概念図であり、図5(b)は、測定基準面の概念図である。また、図5(c)は、測定基準面およびマスタ基準面を用いてワークの傾きを求める処理の概念図である。
Next, the procedure of the workpiece transfer process performed by the robot control system of this embodiment will be described with reference to FIGS.
FIG. 4 is a flowchart illustrating a procedure of workpiece transfer processing performed by the robot control system of the present embodiment.
FIG. 5 is a conceptual diagram of a master reference plane and a measurement reference plane used for calculating the amount of positional deviation of the workpiece. FIG. 5A is a conceptual diagram of the master reference plane, and FIG. 5B is a conceptual diagram of the measurement reference plane. FIG. 5C is a conceptual diagram of processing for obtaining the workpiece inclination using the measurement reference plane and the master reference plane.

先ず、ロボット制御システムは、図4に示す各処理ステップに先立って、ワークWのマスタ位置情報を登録する処理(前処理)を行う。
この前処理は、ビジョンシステムVを構成する画像処理装置1のマスタ登録部11により行われる。
具体的には、マスタ登録部11は、ワークWの設計情報(ワークWのCAD情報等)の入力を受け付け、その設計情報を用いて、ワークWの重心121を3次元で示したマスタ重心121を求める(図5(a)参照)。
また、マスタ登録部11は、前記設計情報を用いて、ワークWのなかの所定の3ヶ所の特徴点101、102、103を全て通る平面(マスタ基準面131)を求める(図5(a)参照)。
First, prior to each processing step shown in FIG. 4, the robot control system performs processing (preprocessing) for registering master position information of the workpiece W.
This preprocessing is performed by the master registration unit 11 of the image processing apparatus 1 constituting the vision system V.
Specifically, the master registration unit 11 receives input of design information (such as CAD information of the work W) of the work W, and uses the design information to indicate the master centroid 121 that shows the centroid 121 of the work W in three dimensions. Is obtained (see FIG. 5A).
Further, the master registration unit 11 obtains a plane (master reference plane 131) that passes through all of the predetermined three feature points 101, 102, 103 in the workpiece W using the design information (FIG. 5A). reference).

つぎに、マスタ登録部11は、上記の求めた、マスタ重心121およびマスタ基準面131をマスタ位置情報として記憶する(例えば、画像処理装置のメモリ(図示しない)の所定領域に格納する)。
そして、ロボット制御システムは、上記の前処理を終えると、図4に示す処理ステップにしたがい、ワークWを挟持して搬送する処理を行う。なお、図4に示す処理は、ユーザからワークWの搬送指示の要求を受け付けることにより開始される。
Next, the master registration unit 11 stores the master centroid 121 and the master reference plane 131 obtained as described above as master position information (for example, stores in a predetermined area of a memory (not shown) of the image processing apparatus).
Then, when the above pre-processing is completed, the robot control system performs processing for holding and transporting the workpiece W according to the processing steps shown in FIG. Note that the process shown in FIG. 4 is started when a request for an instruction to convey the workpiece W is received from the user.

具体的には、先ず、ロボット制御システムのロボットコントローラ6は、ユーザからワークWの搬送指示の要求を受け付けると、ロボット7を原位置にセットする(S1)。   Specifically, first, when the robot controller 6 of the robot control system receives a request for an instruction to convey the workpiece W from the user, the robot controller 6 sets the robot 7 to the original position (S1).

つぎに、ロボットコントローラ7は、原位置から所定の計側位置まで、ロボット7のアーム7aを動作させる。ロボットコントローラ7は、ロボット7のアーム7aが前記計側位置に到達すると(S2)、アーム7aの動作を停止させると共に、ビジョンシステムVの画像処理装置1にワークWの位置ズレ量の計側を要求する信号(計測指示信号)を送信する(S3)。
なお、ロボットコントローラは、計測指示信号を送信すると、画像処理装置1から送られる位置ズレ量を示す「ズレ量情報」を受信するまでロボット7を待機(停止)させておく。
Next, the robot controller 7 operates the arm 7a of the robot 7 from the original position to a predetermined measuring position. When the arm 7a of the robot 7 reaches the measuring side position (S2), the robot controller 7 stops the operation of the arm 7a and sets the amount of displacement of the workpiece W to the image processing apparatus 1 of the vision system V. A request signal (measurement instruction signal) is transmitted (S3).
When the robot controller transmits the measurement instruction signal, the robot controller waits (stops) the robot 7 until it receives “deviation amount information” indicating the amount of positional deviation sent from the image processing apparatus 1.

一方、画像処理装置1側では、通信処理部15を介して、位置測定部12がロボットコントローラ7からの計側指示信号を受信する(S10)。そして、位置測定部12は、前記計側指示信号を受信すると、通信処理部15を介して、コントローラ2にワークWの撮像指示を行う。   On the other hand, on the image processing apparatus 1 side, the position measurement unit 12 receives a measurement-side instruction signal from the robot controller 7 via the communication processing unit 15 (S10). When the position measuring unit 12 receives the meter-side instruction signal, the position measuring unit 12 instructs the controller 2 to image the workpiece W via the communication processing unit 15.

次にコントローラ2は、位置測定部12からの撮像指示を受けると、ステレオカメラ3a、3bに、ワーク置場に載置されているワークWを撮像させる(S11)。そして、コントローラ2は、ステレオカメラ3a、3bにより撮像されたワークWの画像情報を画像処理装置1の位置測定部12に送信する。   Next, when receiving an imaging instruction from the position measurement unit 12, the controller 2 causes the stereo cameras 3a and 3b to image the workpiece W placed on the workpiece placement site (S11). Then, the controller 2 transmits the image information of the workpiece W imaged by the stereo cameras 3a and 3b to the position measurement unit 12 of the image processing apparatus 1.

位置測定部12は、通信処理部15を介して、コントローラ2から送信されたワークWの画像情報を受信し、そのワークWの画像情報からワークWの所定の3ヶ所の特徴点101、102、103(図2、図5参照)の3次元位置を求める。また、位置測定部12は、受信したワークWの画像情報からワークWの重心を求める(S12)。   The position measurement unit 12 receives the image information of the workpiece W transmitted from the controller 2 via the communication processing unit 15, and the predetermined three feature points 101, 102 of the workpiece W from the image information of the workpiece W, A three-dimensional position 103 (see FIGS. 2 and 5) is obtained. Further, the position measuring unit 12 obtains the center of gravity of the workpiece W from the received image information of the workpiece W (S12).

ここで、本ステップ(S12)において、ステレオカメラ3a、3bが撮像したワークWの画像情報から特徴点101、102、103の3次元位置を求める手順は、周知の三角測量の手順により実現されるものである。
なお、位置測定部12は、ステレオカメラ3a、3bに、それぞれの特徴点(101、102、103)毎に画像を撮像させ、各特徴点を含む画像情報毎に、それぞれの特徴点(101、102、103)の3次元位置を求めるようにしてもよい。或いは、位置測定部12は、特徴点101、102、103を全て含む画像情報から、3ヶ所の特徴点101、102、103の画像情報を求めるようにしてもよい。
Here, in this step (S12), the procedure for obtaining the three-dimensional positions of the feature points 101, 102, 103 from the image information of the workpiece W imaged by the stereo cameras 3a, 3b is realized by a well-known triangulation procedure. Is.
The position measuring unit 12 causes the stereo cameras 3a and 3b to capture an image for each feature point (101, 102, 103), and for each image information including each feature point, each feature point (101, 102, 103). 102, 103) may be obtained. Alternatively, the position measurement unit 12 may obtain the image information of the three feature points 101, 102, 103 from the image information including all the feature points 101, 102, 103.

また、本ステップ(S12)において、ワークWの画像情報からワークWの重心を求める手法は、周知の画像処理技術により実現されるものであり、その具体的な手順について特に限定されるものではない。
例えば、ワークWの画像の各画素の所定の色成分毎の明るさを求め、その色成分毎に、所定のしきい値を基準にして2値化する。そして、前記色成分毎に2値化したデータを集計した値を求め、ワークWが存在する画素のX座標、Y座標、Z座標のそれぞれの平均値を求めて、その平均値をワークWの重心としてもよい。
Further, in this step (S12), the method for obtaining the center of gravity of the workpiece W from the image information of the workpiece W is realized by a known image processing technique, and the specific procedure is not particularly limited. .
For example, the brightness for each predetermined color component of each pixel of the image of the work W is obtained, and binarization is performed for each color component with reference to a predetermined threshold value. And the value which totaled the binarized data for every said color component is calculated | required, each average value of the X coordinate of the pixel in which the workpiece | work W exists, a Y coordinate, and a Z coordinate is calculated | required, and the average value is obtained for the workpiece | work W. It may be the center of gravity.

次に、S12の処理の後に行うS13の処理について説明する。
S13では、ズレ算出部13がワークWの3次元方向のズレ量を算出する。
具体的には、ズレ算出部13は、3次元方向のズレ量として、マスタ登録部11が記憶しているマスタ重心と、位置測定部12が算出した測定重心との差分を求める(3次元方向のズレ量(Δx,Δy,Δz)=「マスタ重心」−「測定重心」)。
Next, the process of S13 performed after the process of S12 will be described.
In S <b> 13, the deviation calculation unit 13 calculates the deviation amount of the workpiece W in the three-dimensional direction.
Specifically, the deviation calculation unit 13 obtains a difference between the master centroid stored in the master registration unit 11 and the measurement centroid calculated by the position measurement unit 12 as a deviation amount in the three-dimensional direction (three-dimensional direction). Deviation amount (Δx, Δy, Δz) = “master centroid” − “measurement centroid”).

つぎに、ズレ算出部13は、ワークWの3次元方向の傾きを算出する(S14)。
具体的には、S14では、先ず、ズレ算出部13は、S12において算出されたワークの特徴点101、102、103の3次元位置を用いて、当該3次元位置を全て通る平面(測定基準面132)を算出する(図5(b)参照)。
そして、ズレ算出部13は、マスタ登録部11が記憶しているマスタ基準面131と、前記算出した測定基準面132とを用いて、測定基準面132のマスタ基準面131からの傾きを算出し、算出された傾きをワークWの傾きとする。
なお、ワークWの傾きの算出方法は、特に限定されるものではないが、例えば以下のように求めるようにしてもよい。
Next, the deviation calculation unit 13 calculates the inclination of the workpiece W in the three-dimensional direction (S14).
Specifically, in S14, first, the deviation calculation unit 13 uses the three-dimensional positions of the feature points 101, 102, and 103 of the workpiece calculated in S12, and a plane that passes through all the three-dimensional positions (measurement reference plane). 132) is calculated (see FIG. 5B).
Then, the deviation calculation unit 13 calculates the inclination of the measurement reference surface 132 from the master reference surface 131 using the master reference surface 131 stored in the master registration unit 11 and the calculated measurement reference surface 132. The calculated inclination is set as the inclination of the workpiece W.
The method for calculating the inclination of the workpiece W is not particularly limited, but may be obtained as follows, for example.

具体的には、図5(c)に示すように、マスタ基準面131のマスタ重心121と、測定基準面の測定重心とを一致させ、その状態(マスタ重心121と測定重心122を一致させた状態)において、3軸(x軸、y軸、z軸)のそれぞれの傾き(「x軸方向の傾きθ」、「y軸方向の「傾きΦ」、「z軸方向の傾きψ」)を求める。   Specifically, as shown in FIG. 5C, the master center of gravity 121 of the master reference surface 131 and the measurement center of gravity of the measurement reference surface are matched, and the state (the master center of gravity 121 and the measurement center of gravity 122 are matched). State), the inclinations of each of the three axes (x-axis, y-axis, z-axis) (“slope θ in the x-axis direction”, “slope Φ in the y-axis direction,“ slope ψ in the z-axis direction ”) Ask.

つぎに、ズレ算出部13は、通信処理部15を介して、S13で求めたワークWの3次元方向のズレ量(Δx,Δy,Δz)と、S14で求めたワークWの3次元方向の傾き(θ,Φ,ψ)とを含む「ズレ量情報」をロボットコントローラ6に送信する(S15)。   Next, the deviation calculating unit 13 via the communication processing unit 15 determines the amount of deviation (Δx, Δy, Δz) of the workpiece W obtained in S13 in the three-dimensional direction of the workpiece W obtained in S14. The “deviation information” including the inclination (θ, Φ, ψ) is transmitted to the robot controller 6 (S15).

ロボットコントローラ6は、ズレ算出部13からの「ズレ量情報」を受信すると(S4)、受信した「ズレ量情報」を用いて、予め記憶していた教示データにより定まる動作を補正する(S5)。
そして、ロボットコントローラ6は、ズレ算出部13からのズレ量情報を反映させて、ロボット7のアーム7aをワークの取り出し位置(物体取り出し位置)まで移動させ(S6)、ワークWを把持して、所定の位置まで搬送する(S7)。
ロボットコントローラ6は、ロボット7によりワークWを所定位置まで搬送して、ワークを所定位置にセットすると、ロボット7を原位置に戻す(S1の処理に戻る)。
When the robot controller 6 receives the “deviation amount information” from the deviation calculation unit 13 (S4), the robot controller 6 uses the received “deviation amount information” to correct the operation determined by the previously stored teaching data (S5). .
Then, the robot controller 6 reflects the displacement amount information from the displacement calculation unit 13, moves the arm 7a of the robot 7 to the workpiece removal position (object removal position) (S6), grips the workpiece W, The sheet is conveyed to a predetermined position (S7).
When the robot controller 6 transports the workpiece W to the predetermined position by the robot 7 and sets the workpiece to the predetermined position, the robot controller 6 returns the robot 7 to the original position (returns to the process of S1).

このように、本実施形態によれば、カメラで撮像したワークWの画像情報を用いて、ワークWの前記3ヶ所の特徴点の3次元位置を求めるようにしている。
そして、ワークWの3次元方向の位置ズレに加え、さらに、3ヶ所の特徴点の3次元位置を利用して、上述したS14の処理を行うことにより、ワークの3次元方向のそれぞれの傾き(θ,Φ,ψ)も算出している。
すなわち、本実施形態によれば、ワークWの3次元方向のズレ量だけでなく、3次元方向の傾きを求めているため、ワーク置場に配置されたワークWの位置を正確に把握することができる。
Thus, according to the present embodiment, the three-dimensional positions of the three feature points of the workpiece W are obtained using the image information of the workpiece W imaged by the camera.
Then, in addition to the positional deviation of the workpiece W in the three-dimensional direction, the three-dimensional positions of the three feature points are further used to perform the above-described processing of S14, whereby each workpiece tilt in the three-dimensional direction ( θ, Φ, ψ) are also calculated.
That is, according to this embodiment, since not only the amount of deviation of the workpiece W in the three-dimensional direction but also the inclination in the three-dimensional direction is obtained, it is possible to accurately grasp the position of the workpiece W placed in the workpiece storage area. it can.

また、本実施形態では、上記の正確に把握したワークWの位置を利用してロボット7の動作を補正するため、ロボットを高精度に制御することができる。
また、本実施形態では、ビジョンシステムVがワークWの位置を正確に把握できるため、ワーク置場にワークWを載置する際、細かい位置決めが不要になり、作業を簡素化することができる。
Moreover, in this embodiment, since the operation | movement of the robot 7 is correct | amended using the position of the said workpiece | work W correctly grasped | ascertained, the robot can be controlled with high precision.
Moreover, in this embodiment, since the vision system V can grasp | ascertain the position of the workpiece | work W correctly, when mounting the workpiece | work W in a workpiece | work place, fine positioning becomes unnecessary and work can be simplified.

なお、本発明は、上記実施形態に限定されるものではなくその要旨の範囲内において、種々の変形が可能である。   In addition, this invention is not limited to the said embodiment, A various deformation | transformation is possible within the range of the summary.

例えば、上記実施形態では、制御するロボットとして、アームの先端にワークWを把持して搬送するロボット7を示したが特にこれに限定されるものではない。ワークWに対して何らかの作業を行うロボットであれば、本発明を適用することが可能である。   For example, in the above-described embodiment, the robot 7 that holds and transports the workpiece W at the tip of the arm is shown as the robot to be controlled. However, the present invention is not limited to this. The present invention can be applied to any robot that performs some work on the workpiece W.

また、例えば、本実施形態では、画像処理装置1がソフトウェア(コンピュータプログラム)を実行するコンピュータにより実現される場合を例にしたが、特にこれに限定されるものではない。例えば、画像処理装置1は、上述した各部(マスタ登録部11、位置測定部12、ズレ算出部13、画像出力部14、および通信処理部15)の機能を実現するために専用に設計されたハードウェア回路(例えば、「Application Specific Integrated Circuit」)を備える装置により構成されていてもよい。   For example, in the present embodiment, the case where the image processing apparatus 1 is realized by a computer that executes software (computer program) is described as an example, but the present invention is not particularly limited thereto. For example, the image processing apparatus 1 is designed exclusively for realizing the functions of the above-described units (the master registration unit 11, the position measurement unit 12, the deviation calculation unit 13, the image output unit 14, and the communication processing unit 15). You may be comprised by the apparatus provided with a hardware circuit (for example, "Application Specific Integrated Circuit").

本発明の実施形態のロボット制御システムのブロック図である。It is a block diagram of the robot control system of the embodiment of the present invention. 本発明の実施形態のロボット制御システムにより把持されて搬送されるワークの一例を示した図である。It is the figure which showed an example of the workpiece | work grasped and conveyed by the robot control system of embodiment of this invention. 本実施形態で求めるワークの3次元方向の傾きを説明するためにワークWをモデル化して示した概念図である。It is the conceptual diagram which modeled and showed the workpiece | work W in order to demonstrate the inclination of the three-dimensional direction of the workpiece | work calculated | required by this embodiment. 本発明の実施形態のロボット制御システムが行うワーク搬送処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the workpiece conveyance process which the robot control system of embodiment of this invention performs. ワークの位置ズレ量の算出に用いるマスタ基準面および測定基準面の概念図である。It is a conceptual diagram of a master reference plane and a measurement reference plane that are used for calculating the amount of positional deviation of a workpiece. 従来技術のロボット制御システムの概略構成図である。It is a schematic block diagram of the robot control system of a prior art. 従来技術のロボット制御システムにおいて、ロボットに把持されて搬送されるワークを例示した図である。It is the figure which illustrated the workpiece | work grasped and conveyed by the robot in the robot control system of a prior art.

符号の説明Explanation of symbols

R…ロボットシステム
V…ビジョンシステム
W…ワーク
1…画像処理装置
2…コントローラ
3a、3b…ステレオカメラ
4…出力装置
5…入力装置
6…ロボットコントローラ
7…ロボット
11…マスタ登録部
12…位置測定部
13…ズレ算出部
14…画像出力部
15…通信処理部
101、102、103…特徴点
111、112、113…ワーク把持位置
R ... Robot system V ... Vision system W ... Work 1 ... Image processing device 2 ... Controller 3a, 3b ... Stereo camera 4 ... Output device 5 ... Input device 6 ... Robot controller 7 ... Robot 11 ... Master registration unit 12 ... Position measurement unit DESCRIPTION OF SYMBOLS 13 ... Displacement calculation part 14 ... Image output part 15 ... Communication processing part 101,102,103 ... Feature point 111,112,113 ... Work holding | grip position

Claims (3)

カメラで撮像したワークの画像情報を取得し、該画像情報を用いてワークの位置を計測する画像処理装置において、
予め定められたワークの基準位置を3次元で示したマスタ位置情報を記憶する手段と、
前記ワークの画像情報を用いて、前記ワークのなかの所定の3ヶ所の特徴点の3次元位置および該ワークの重心を算出する測定手段と、
前記算出した3ヶ所の特徴点の3次元位置、前記算出した重心、および前記マスタ位置情報を用いて、前記ワークの3次元方向のズレ量を算出すると共に、該ワークの3次元方向のそれぞれの傾きを算出するズレ算出手段とを備えることを特徴とする画像処理装置。
In an image processing apparatus that acquires image information of a workpiece imaged by a camera and measures the position of the workpiece using the image information,
Means for storing master position information indicating a predetermined reference position of the workpiece in three dimensions;
Measuring means for calculating the three-dimensional positions of the predetermined three feature points in the workpiece and the center of gravity of the workpiece using the image information of the workpiece;
Using the calculated three-dimensional positions of the three feature points, the calculated center of gravity, and the master position information, a displacement amount of the workpiece in the three-dimensional direction is calculated, and each of the workpieces in the three-dimensional direction is calculated. An image processing apparatus comprising: a deviation calculating unit that calculates an inclination.
前記マスタ位置情報には、前記ワークの設計情報から求めた、該ワークの重心を示すマスタ重心と、該ワークのなかの前記3ヶ所の特徴点を通るマスタ基準面とが含まれ、
前記ズレ算出手段は、前記測定手段が算出した重心と前記マスタ重心との差分から前記ワークの3次元方向のズレ量を算出すると共に、前記算出した3ヶ所の特徴点を通る平面を求め、該平面および前記マスタ基準面を用いて、該ワークの3次元方向のそれぞれの傾きを算出することを特徴とする請求項1に記載の画像処理装置。
The master position information includes a master center of gravity indicating the center of gravity of the workpiece obtained from the design information of the workpiece, and a master reference plane passing through the three feature points in the workpiece,
The deviation calculating means calculates a deviation amount in the three-dimensional direction of the workpiece from the difference between the center of gravity calculated by the measuring means and the master center of gravity, and obtains a plane passing through the calculated three feature points, The image processing apparatus according to claim 1, wherein an inclination of each of the workpieces in a three-dimensional direction is calculated using a plane and the master reference plane.
請求項1又は請求項2に記載の画像処理装置と、アームを備え、該アームの先端部でワークを把持して搬送するロボットとを有するロボット制御システムにおいて、
予め設定された教示データにしたがい前記ロボットのアームの動作を制御する制御手段を有し、
前記制御手段は、前記アームが所定位置に到達すると、前記画像処理装置に前記ワークの3次元方向のズレ量および傾きを算出させ、該算出させた前記ズレ量および前記傾きを利用して前記教示データを補正し、該補正した教示データを用いて前記アームの動作を制御すること特徴とするロボット制御システム。
A robot control system comprising: the image processing apparatus according to claim 1; and a robot that includes an arm and that grips and conveys a workpiece at a tip portion of the arm.
Control means for controlling the operation of the robot arm in accordance with preset teaching data;
When the arm reaches a predetermined position, the control means causes the image processing apparatus to calculate a shift amount and a tilt in a three-dimensional direction of the workpiece, and uses the calculated shift amount and the tilt to perform the teaching. A robot control system which corrects data and controls the operation of the arm using the corrected teaching data.
JP2008096740A 2008-04-03 2008-04-03 Image processing apparatus and robot control system Expired - Fee Related JP4794011B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008096740A JP4794011B2 (en) 2008-04-03 2008-04-03 Image processing apparatus and robot control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008096740A JP4794011B2 (en) 2008-04-03 2008-04-03 Image processing apparatus and robot control system

Publications (2)

Publication Number Publication Date
JP2009248214A true JP2009248214A (en) 2009-10-29
JP4794011B2 JP4794011B2 (en) 2011-10-12

Family

ID=41309384

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008096740A Expired - Fee Related JP4794011B2 (en) 2008-04-03 2008-04-03 Image processing apparatus and robot control system

Country Status (1)

Country Link
JP (1) JP4794011B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013005244A1 (en) * 2011-07-01 2013-01-10 株式会社ベイビッグ Three-dimensional relative coordinate measuring device and method
JP2014050936A (en) * 2012-09-10 2014-03-20 Applied Vision Systems Corp Handling system, handling method, and program
JP2014210310A (en) * 2013-04-18 2014-11-13 ファナック株式会社 Robot system equipped with robot for carrying work
US9089966B2 (en) 2010-11-17 2015-07-28 Mitsubishi Electric Corporation Workpiece pick-up apparatus
JP2015174191A (en) * 2014-03-17 2015-10-05 株式会社安川電機 Robot system, calibration method of robot system and position correction method of robot system
KR101728719B1 (en) * 2016-01-14 2017-04-21 인하대학교 산학협력단 Keypoints Selection method to Improve the Accuracy of Measuring Angle in a Stereo Camera Images
US10133256B2 (en) 2013-07-19 2018-11-20 Fujitsu Limited Information processing apparatus and method for calculating inspection ranges
US10589422B2 (en) 2017-01-11 2020-03-17 Fanuc Corporation Article conveying apparatus
JP2021070149A (en) * 2019-10-30 2021-05-06 株式会社Yoods Robot control system, robot control device, robot control method and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104758096B (en) * 2015-03-30 2016-11-30 山东科技大学 A kind of method that artificial limb object space positioning precision is corrected

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03161223A (en) * 1989-11-17 1991-07-11 Kawasaki Heavy Ind Ltd Fitting of work
JPH07332944A (en) * 1994-06-08 1995-12-22 Meidensha Corp Body-position detector
JPH085333A (en) * 1994-06-21 1996-01-12 Kobe Steel Ltd Three-dimensional position-attitude recognizing apparatus
JP2000067238A (en) * 1998-08-18 2000-03-03 Meidensha Corp Bin picking method with position data calibration function, medium recording software for executing the method, and device for executing the method
JP2000304509A (en) * 1999-04-21 2000-11-02 Matsushita Electric Works Ltd Method and device for specifying object
JP2001027511A (en) * 1999-07-13 2001-01-30 Matsushita Electric Ind Co Ltd Position measuring method
JP2003211382A (en) * 2002-01-16 2003-07-29 Denso Wave Inc Robot control device
JP2006224291A (en) * 2005-01-19 2006-08-31 Yaskawa Electric Corp Robot system
JP2007021635A (en) * 2005-07-14 2007-02-01 Komatsu Engineering Corp Automatic handing method for workpiece and automatic handling system for workpiece

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03161223A (en) * 1989-11-17 1991-07-11 Kawasaki Heavy Ind Ltd Fitting of work
JPH07332944A (en) * 1994-06-08 1995-12-22 Meidensha Corp Body-position detector
JPH085333A (en) * 1994-06-21 1996-01-12 Kobe Steel Ltd Three-dimensional position-attitude recognizing apparatus
JP2000067238A (en) * 1998-08-18 2000-03-03 Meidensha Corp Bin picking method with position data calibration function, medium recording software for executing the method, and device for executing the method
JP2000304509A (en) * 1999-04-21 2000-11-02 Matsushita Electric Works Ltd Method and device for specifying object
JP2001027511A (en) * 1999-07-13 2001-01-30 Matsushita Electric Ind Co Ltd Position measuring method
JP2003211382A (en) * 2002-01-16 2003-07-29 Denso Wave Inc Robot control device
JP2006224291A (en) * 2005-01-19 2006-08-31 Yaskawa Electric Corp Robot system
JP2007021635A (en) * 2005-07-14 2007-02-01 Komatsu Engineering Corp Automatic handing method for workpiece and automatic handling system for workpiece

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112011103794B4 (en) * 2010-11-17 2019-01-24 Mitsubishi Electric Corporation Pick-up device for workpieces
US9089966B2 (en) 2010-11-17 2015-07-28 Mitsubishi Electric Corporation Workpiece pick-up apparatus
WO2013005244A1 (en) * 2011-07-01 2013-01-10 株式会社ベイビッグ Three-dimensional relative coordinate measuring device and method
JP2014050936A (en) * 2012-09-10 2014-03-20 Applied Vision Systems Corp Handling system, handling method, and program
JP2014210310A (en) * 2013-04-18 2014-11-13 ファナック株式会社 Robot system equipped with robot for carrying work
US9126337B2 (en) 2013-04-18 2015-09-08 Fanuc Corporation Robot system having a robot for conveying a workpiece
US10133256B2 (en) 2013-07-19 2018-11-20 Fujitsu Limited Information processing apparatus and method for calculating inspection ranges
JP2015174191A (en) * 2014-03-17 2015-10-05 株式会社安川電機 Robot system, calibration method of robot system and position correction method of robot system
KR101728719B1 (en) * 2016-01-14 2017-04-21 인하대학교 산학협력단 Keypoints Selection method to Improve the Accuracy of Measuring Angle in a Stereo Camera Images
US10589422B2 (en) 2017-01-11 2020-03-17 Fanuc Corporation Article conveying apparatus
JP2021070149A (en) * 2019-10-30 2021-05-06 株式会社Yoods Robot control system, robot control device, robot control method and program
WO2021235030A1 (en) * 2019-10-30 2021-11-25 株式会社Yoods Robot control system, robot control device, robot control method and program
JP7199101B2 (en) 2019-10-30 2023-01-05 株式会社Yoods ROBOT CONTROL SYSTEM, ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD AND PROGRAM

Also Published As

Publication number Publication date
JP4794011B2 (en) 2011-10-12

Similar Documents

Publication Publication Date Title
JP4794011B2 (en) Image processing apparatus and robot control system
US11911914B2 (en) System and method for automatic hand-eye calibration of vision system for robot motion
TWI816056B (en) Method and system for calibrating vision system in environment
JP5815761B2 (en) Visual sensor data creation system and detection simulation system
JP6025386B2 (en) Image measuring apparatus, image measuring method, and image measuring program
EP1413850B1 (en) Optical sensor for measuring position and orientation of an object in three dimensions
EP1607194A2 (en) Robot system comprising a plurality of robots provided with means for calibrating their relative position
JP2019141935A (en) Conveyor tracking system and calibration method
TW200402117A (en) Carriage robot system and controlling method thereof
JP2005201824A (en) Measuring device
JP6703812B2 (en) 3D object inspection device
JP2018144144A (en) Image processing device, image processing method and computer program
JP2016078195A (en) Robot system, robot, control device and control method of robot
JP6885856B2 (en) Robot system and calibration method
CN113379849A (en) Robot autonomous recognition intelligent grabbing method and system based on depth camera
US20190287258A1 (en) Control Apparatus, Robot System, And Method Of Detecting Object
US20210192784A1 (en) Vision system for a robotic machine
JP2017100202A (en) Robot system, control device, control method, and program
JP2003311670A (en) Positioning control method of robot arm and robot equipment
US11126844B2 (en) Control apparatus, robot system, and method of detecting object
JP4303411B2 (en) Tracking method and tracking system
JP2006224291A (en) Robot system
JP2019113348A (en) Object inspection system and object inspection method
JP7439410B2 (en) Image processing device, image processing method and program
JP2006049755A (en) Rotation center calculation method and work positioning device using the same

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110121

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110722

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110725

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140805

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140805

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140805

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees