JP2010134318A - Image capturing method - Google Patents

Image capturing method Download PDF

Info

Publication number
JP2010134318A
JP2010134318A JP2008311840A JP2008311840A JP2010134318A JP 2010134318 A JP2010134318 A JP 2010134318A JP 2008311840 A JP2008311840 A JP 2008311840A JP 2008311840 A JP2008311840 A JP 2008311840A JP 2010134318 A JP2010134318 A JP 2010134318A
Authority
JP
Japan
Prior art keywords
imaging
image
imaging device
component
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008311840A
Other languages
Japanese (ja)
Inventor
Yoshiji Yamada
喜士 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2008311840A priority Critical patent/JP2010134318A/en
Publication of JP2010134318A publication Critical patent/JP2010134318A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method for capturing an image whose blur is easily corrected. <P>SOLUTION: The image capturing method for capturing the image of a first part 9 by using an image capturing apparatus 32 includes: a first approaching process where the image capturing apparatus 32 approaches and stops at a scheduled clamping place 55 where the image capturing apparatus 32 images the first part 9; an image capturing process for capturing an image of the first part 9 by the image capturing apparatus 32, to form the image; and an image correcting process for correcting the image. In the first approaching process, the image capturing apparatus 32 is linearly moved with respect to the first part 9. Further, an attenuation standby time 65 being a time until the image capturing is started in the image capturing process, after the image capturing apparatus 32 approaches and stops at the scheduled clamping place 55 in the first approaching process is set to a time longer than an attenuation time when the vibration of the image capturing apparatus 32 is attenuated to a predetermined amplitude. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮像方法にかかわり、特に補正し易い画像を撮像する方法に関するものである。   The present invention relates to an imaging method, and particularly to a method for imaging an image that is easy to correct.

ワークを操作するためにワークを撮像し、その撮像画像によりワークの形状及び位置を検出する方法が活用されている。移動するワークを撮像するときや、撮像装置が移動するとき、撮像装置が振動するために撮像した画像にブレぼけが発生することがある。そして、ブレぼけした画像を補正する方法が特許文献1に開示されている。それによると、画像データの輝度プロファイルを微分している。そして、画像のブレ開始点とブレ終了点とを推測する。その後、ブレ開始点とブレ終了点とを用いて画像のブレぼけを除去していた。   In order to operate the workpiece, a method of capturing the workpiece and detecting the shape and position of the workpiece from the captured image is used. When the moving workpiece is imaged or when the imaging device moves, the imaging device may vibrate and blur may occur in the captured image. A method for correcting a blurred image is disclosed in Patent Document 1. According to this, the luminance profile of the image data is differentiated. Then, the blur start point and blur end point of the image are estimated. Thereafter, the blur of the image is removed using the blur start point and the blur end point.

特開2003−198200号公報JP 2003-198200 A

ワークと撮像装置との相対位置を複数の方向に移動した後、ワークと撮像装置とを対向する場所に停止する。このとき、ワークと撮像装置との相対位置は複数の方向に振動する。この状態にて撮像するとき撮像した画像は複数の方向にブレぼけが形成される。そして、複数の方向にブレぼけが形成された画像を用いて、ブレぼけのない画像を形成することは難しい。そこで、画像を補正し易い画像を撮像する方法が望まれていた。   After the relative position between the workpiece and the imaging device is moved in a plurality of directions, the workpiece and the imaging device are stopped at a position facing each other. At this time, the relative position between the workpiece and the imaging device vibrates in a plurality of directions. When an image is captured in this state, the captured image is blurred in a plurality of directions. It is difficult to form an image without blur using an image in which blur is formed in a plurality of directions. Therefore, a method of capturing an image that can easily correct the image has been desired.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態または適用例として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.

[適用例1]
本適用例にかかる撮像方法は、撮像装置を用いてワークを撮像する撮像方法であって、前記撮像装置が前記ワークを撮像する撮像場所に接近して停止する第1接近工程と、前記撮像装置が前記ワークを撮像して画像を形成する撮像工程と、前記画像を補正する画像補正工程と、を有し、前記第1接近工程において前記撮像装置は前記ワークに対して直線移動することを特徴とする。
[Application Example 1]
The imaging method according to this application example is an imaging method for imaging a workpiece using an imaging device, wherein the imaging device approaches and stops at an imaging location where the imaging device images the workpiece, and the imaging device Has an imaging step of imaging the workpiece to form an image, and an image correction step of correcting the image, wherein the imaging device linearly moves with respect to the workpiece in the first approaching step. And

この撮像方法によれば、撮像装置が直線移動して撮像場所に接近する。撮像装置が撮像場所に移動する間に撮像装置の振動成分が減衰する。そして、撮像装置が停止するとき撮像装置に加速度が加わるので、撮像装置が振動する。このとき、撮像装置は直線移動から停止するので、撮像装置が振動する方向は直線移動した1方向に大きくなる。従って、撮像する画像は1方向にブレぼけが生じ易い画像となる。その結果、画像補正工程では多方向にブレぼけが生じている画像を補正するときに比べて補正し易くすることができる。   According to this imaging method, the imaging device moves linearly and approaches the imaging location. The vibration component of the imaging device is attenuated while the imaging device moves to the imaging location. And when an imaging device stops, since an acceleration is added to an imaging device, an imaging device vibrates. At this time, since the imaging apparatus stops from the linear movement, the direction in which the imaging apparatus vibrates becomes larger in one direction in which the linear movement is performed. Therefore, the image to be captured is an image that is likely to be blurred in one direction. As a result, in the image correction process, it is possible to make correction easier than when correcting an image in which blurring occurs in multiple directions.

[適用例2]
上記適用例にかかる撮像方法において、前記撮像するときに前記撮像装置が振動する振動状態を推定する振動状態推定工程を有し、前記画像補正工程では推定した前記振動状態を用いて前記画像を補正することを特徴とする。
[Application Example 2]
The imaging method according to the application example includes a vibration state estimation step for estimating a vibration state in which the imaging device vibrates when the image is taken, and the image correction step corrects the image using the estimated vibration state. It is characterized by doing.

この撮像方法によれば、推定した振動状態の情報を用いて画像を補正するので、品質良く補正することができる。   According to this imaging method, since the image is corrected using the estimated vibration state information, it can be corrected with high quality.

[適用例3]
上記適用例にかかる撮像方法において、前記直線移動を開始する場所である直線移動開始場所に前記撮像装置が移動する第2接近工程を有し、前記振動状態推定工程は前記直線移動開始場所における前記撮像装置の運動状態の情報を用いて、前記振動状態を推定することを特徴とする。
[Application Example 3]
In the imaging method according to the application example described above, the imaging apparatus includes a second approach process in which the imaging apparatus moves to a linear movement start place that is a place where the linear movement is started, and the vibration state estimation process includes the linear movement start place The vibration state is estimated using information on a motion state of the imaging device.

この撮像方法によれば、直線移動開始場所における撮像装置の運動状態から振動状態を推定している。従って、撮像工程の前に振動状態推定工程を行うことができる。振動状態推定工程を実施する間にも撮像装置の振動は減衰するので、ブレぼけの少ない画像を撮像することができる。   According to this imaging method, the vibration state is estimated from the motion state of the imaging device at the linear movement start location. Therefore, the vibration state estimation process can be performed before the imaging process. Since the vibration of the imaging device is attenuated even during the vibration state estimation step, an image with less blur can be captured.

[適用例4]
上記適用例にかかる撮像方法において、前記運動状態の情報は前記撮像装置の移動速度の推移情報であることを特徴とする。
[Application Example 4]
In the imaging method according to the application example described above, the motion state information is transition information of a moving speed of the imaging device.

この撮像方法によれば、撮像装置が直線移動開始場所に移動するときの速度の推移を用いて振動状態を推定している。従って、撮像装置の振動、速度及び加速度等を検出する装置を用いる必要がない。従って、簡便な装置を用いてブレぼけの補正をすることができる。   According to this imaging method, the vibration state is estimated using the transition of the speed when the imaging apparatus moves to the linear movement start location. Therefore, it is not necessary to use a device that detects vibration, speed, acceleration, and the like of the imaging device. Therefore, the blur can be corrected using a simple device.

[適用例5]
上記適用例にかかる撮像方法において、前記運動状態の情報は前記撮像装置の速度または加速度を検出した情報であることを特徴とする。
[Application Example 5]
In the imaging method according to the application example, the motion state information is information obtained by detecting a speed or acceleration of the imaging device.

この撮像方法によれば、撮像装置の速度または加速度を検出しているので、撮像装置が直線移動開始場所に位置するときの振動状態を精度良く把握することができる。従って、撮像工程における撮像装置の振動状態を精度良く推定することができる。   According to this imaging method, since the speed or acceleration of the imaging device is detected, it is possible to accurately grasp the vibration state when the imaging device is located at the linear movement start location. Therefore, it is possible to accurately estimate the vibration state of the imaging apparatus in the imaging process.

[適用例6]
上記適用例にかかる撮像方法において、前記第1接近工程において前記直線移動開始場所から移動して撮像を開始するまでの時間である減衰待機時間は、前記撮像装置の振動が予め設定した振幅まで減衰する減衰時間より長い時間に設定されていることを特徴とする撮像方法。
[Application Example 6]
In the imaging method according to the application example, the attenuation waiting time, which is a time until the imaging starts after moving from the linear movement start location in the first approach step, is attenuated to a preset amplitude. An imaging method characterized in that the time is set to be longer than the decay time.

この撮像方法によれば、減衰待機時間は減衰時間より長く設定されている。従って、直線移動開始場所における撮像装置の振動の振幅は撮像工程では予め設定した振幅より小さくすることができる。   According to this imaging method, the attenuation standby time is set longer than the attenuation time. Therefore, the amplitude of vibration of the imaging device at the linear movement start location can be made smaller than the preset amplitude in the imaging process.

[適用例7]
上記適用例にかかる撮像方法において、前記第2接近工程では前記撮像装置が直線移動することを特徴とする。
[Application Example 7]
In the imaging method according to the application example, the imaging device linearly moves in the second approach step.

この撮像方法によれば、撮像装置が直線移動して直線移動開始場所に移動する。従って、短い移動距離で直線移動開始場所に到達することができる。   According to this imaging method, the imaging device moves linearly and moves to a linear movement start location. Therefore, it is possible to reach the linear movement start place with a short movement distance.

以下、実施形態について図面に従って説明する。尚、各図面における各部材は、各図面上で認識可能な程度の大きさとするため、各部材毎に縮尺を異ならせて図示している。
(実施形態)
本実施形態における特徴的な撮像方法と撮像したワークをピッキングして組み立てる製造方法とついて図1〜図10に従って説明する。ピッキングはワークを把持して移動して離すことにより、ワーク移動させる動作を示す。
Hereinafter, embodiments will be described with reference to the drawings. In addition, each member in each drawing is illustrated with a different scale for each member in order to make the size recognizable on each drawing.
(Embodiment)
A characteristic imaging method and a manufacturing method for picking and assembling an imaged work in the present embodiment will be described with reference to FIGS. Picking indicates an operation of moving a workpiece by gripping the workpiece, moving it, and releasing it.

図1は、組立装置の構成を示す概略斜視図である。図1に示すように、組立装置1は主に部品供給装置2、ロボット3、組立テーブル4及び除材用搬送装置5から構成されている。部品供給装置2は主に第1部品供給装置6、第2部品供給装置7及び第3部品供給装置8から構成されている。組立装置1はピッキング装置の機能も備えている。第1部品供給装置6はワークとしての第1部品9を供給する装置であり、第2部品供給装置7はワークとしての第2部品10を供給する装置である。そして、第3部品供給装置8はワークとしての第3部品11を供給する装置である。   FIG. 1 is a schematic perspective view showing the configuration of the assembling apparatus. As shown in FIG. 1, the assembling apparatus 1 mainly includes a component supply device 2, a robot 3, an assembly table 4, and a material removal conveying device 5. The component supply device 2 mainly includes a first component supply device 6, a second component supply device 7, and a third component supply device 8. The assembling apparatus 1 also has a function of a picking apparatus. The first component supply device 6 is a device that supplies a first component 9 as a workpiece, and the second component supply device 7 is a device that supplies a second component 10 as a workpiece. And the 3rd component supply apparatus 8 is an apparatus which supplies the 3rd component 11 as a workpiece | work.

第1部品供給装置6は第1部品整列装置12と第1搬送装置13とを備えている。第1部品整列装置12は円錐状の皿部12a及び皿部12aを支持する支持台12b等から構成されている。そして、皿部12aと支持台12bの間には図示しない振動装置が配置されている。皿部12aの内側には螺旋状の段差が形成されている。段差は所定の幅の平坦部を有し、平坦部は第1部品9が通過する通路になっている。平坦部は皿部12aの底から上部まで連続して形成されている。そして、振動装置が皿部12aを振動させるとき第1部品9が平坦部に沿って移動するようになっている。平坦部の幅は第1部品9が1個に限って通過可能な幅に形成されているので、第1部品9が通路を通過することにより第1部品9は1列に配列する。   The first component supply device 6 includes a first component alignment device 12 and a first transport device 13. The first component aligning device 12 includes a conical dish portion 12a and a support base 12b that supports the dish portion 12a. And the vibration apparatus which is not shown in figure is arrange | positioned between the plate part 12a and the support stand 12b. A spiral step is formed inside the dish portion 12a. The step has a flat portion having a predetermined width, and the flat portion is a passage through which the first component 9 passes. The flat part is continuously formed from the bottom to the top of the dish part 12a. When the vibration device vibrates the dish portion 12a, the first component 9 moves along the flat portion. Since the width of the flat portion is formed such that only one first part 9 can pass, the first parts 9 are arranged in a row when the first part 9 passes through the passage.

第1搬送装置13の上側にはベルトコンベア13aが配置されている。ベルトコンベア13aは1方向に長く延在して配置されている。この方向をY方向とする。そして水平方向においてY方向と直交する方向をX方向とし、鉛直方向をZ方向とする。第1搬送装置13は内部にステップモータ及びプーリーを備え、ベルトコンベア13aを移動及び停止することができる。ベルトコンベア13aの一端は第1部品整列装置12の上部と接続されている。皿部12aの上部まで移動した第1部品9はベルトコンベア13aの上に移動する。そして、第1部品9はベルトコンベア13aにより順次図中右側へ移動し、所定の場所に停止するようになっている。従って、ベルトコンベア13a上には第1部品9が配列して配置される。   A belt conveyor 13 a is disposed on the upper side of the first transport device 13. The belt conveyor 13a extends long in one direction. This direction is the Y direction. In the horizontal direction, the direction orthogonal to the Y direction is defined as the X direction, and the vertical direction is defined as the Z direction. The 1st conveyance apparatus 13 equips an inside with a step motor and a pulley, and can move and stop the belt conveyor 13a. One end of the belt conveyor 13 a is connected to the upper part of the first component aligning device 12. The 1st component 9 which moved to the upper part of the plate part 12a moves on the belt conveyor 13a. The first component 9 is sequentially moved to the right side in the figure by the belt conveyor 13a and stopped at a predetermined place. Accordingly, the first components 9 are arranged and arranged on the belt conveyor 13a.

第1部品供給装置6の図中左下側には第2部品供給装置7が配置されている。第2部品供給装置7は第2部品整列装置14及び第2搬送装置15を備えている。第2部品整列装置14は第1部品整列装置12と同様の装置であり、第2搬送装置15は第1搬送装置13と同様の装置である。そして、第2搬送装置15の上側にはベルトコンベア15aが配置され、ベルトコンベア15a上には第2部品10が配列して配置される。   A second component supply device 7 is disposed on the lower left side of the first component supply device 6 in the drawing. The second component supply device 7 includes a second component alignment device 14 and a second transport device 15. The second component aligning device 14 is the same device as the first component aligning device 12, and the second transport device 15 is the same device as the first transport device 13. And the belt conveyor 15a is arrange | positioned above the 2nd conveying apparatus 15, and the 2nd components 10 are arranged and arrange | positioned on the belt conveyor 15a.

第1部品供給装置6の図中右上側には第3部品供給装置8が配置されている。第3部品供給装置8は第3部品整列装置16及び第3搬送装置17を備えている。第3部品整列装置16は第1部品整列装置12と同様の装置であり、第3搬送装置17は第1搬送装置13と同様の装置である。そして、第3搬送装置17の上側にはベルトコンベア17aが配置され、ベルトコンベア17a上には第3部品11が配列して配置される。   A third component supply device 8 is arranged on the upper right side of the first component supply device 6 in the drawing. The third component supply device 8 includes a third component alignment device 16 and a third transport device 17. The third component aligning device 16 is the same device as the first component aligning device 12, and the third transport device 17 is the same device as the first transport device 13. And the belt conveyor 17a is arrange | positioned above the 3rd conveying apparatus 17, and the 3rd components 11 are arranged and arrange | positioned on the belt conveyor 17a.

部品供給装置2の図中右側にはロボット3が配置されている。ロボット3は基台20を備え、基台20上には回転台21が配置されている。回転台21は固定台21aと回転軸21bとを備えている。回転台21は内部にサーボモータと減速機構とを備え、回転軸21bを角度精度良く回転及び停止することができる。   A robot 3 is arranged on the right side of the component supply device 2 in the drawing. The robot 3 includes a base 20, and a turntable 21 is disposed on the base 20. The turntable 21 includes a fixed stand 21a and a rotation shaft 21b. The turntable 21 includes a servo motor and a speed reduction mechanism inside, and can rotate and stop the rotation shaft 21b with high angular accuracy.

回転台21の回転軸21bと接続して第1関節22が配置され、第1関節22と接続して第1腕23が配置されている。第1腕23と接続して第2関節24が配置され、第2関節24と接続して第2腕25が配置されている。第2腕25は固定軸25aと回転軸25bとを備え、第2腕25は第2腕25の長手方向を軸にして回転軸25bを回転することができる。第2腕25の回転軸25bと接続して第3関節26が配置され、第3関節26と接続して第3腕27が配置されている。第3腕27は固定軸27aと回転軸27bとを備え、第3腕27は第3腕27の長手方向を回転軸にして回転軸27bを回転することができる。第3腕27の回転軸27bと接続して手部28が配置され、手部28には一対の指部28aが配置されている。手部28にはサーボモータとサーボモータにより駆動される直動機構を備えている。そして、この直動機構により指部28aの間隔を変更可能になっている。   A first joint 22 is disposed in connection with the rotation shaft 21 b of the turntable 21, and a first arm 23 is disposed in connection with the first joint 22. A second joint 24 is disposed in connection with the first arm 23, and a second arm 25 is disposed in connection with the second joint 24. The second arm 25 includes a fixed shaft 25 a and a rotation shaft 25 b, and the second arm 25 can rotate the rotation shaft 25 b about the longitudinal direction of the second arm 25. A third joint 26 is disposed in connection with the rotation shaft 25 b of the second arm 25, and a third arm 27 is disposed in connection with the third joint 26. The third arm 27 includes a fixed shaft 27a and a rotation shaft 27b, and the third arm 27 can rotate the rotation shaft 27b with the longitudinal direction of the third arm 27 as a rotation axis. A hand portion 28 is disposed in connection with the rotation shaft 27 b of the third arm 27, and a pair of finger portions 28 a are disposed on the hand portion 28. The hand portion 28 includes a servo motor and a linear motion mechanism driven by the servo motor. The distance between the finger portions 28a can be changed by this linear motion mechanism.

回転軸25bと接続して第1支持腕29が配置されている。第1支持腕29は第2腕25の上側に突出して配置されている。第1支持腕29と接続して支持部関節30が配置され、支持部関節30と接続して第2支持腕31が配置されている。第2支持腕31には撮像装置32が配置されている。   A first support arm 29 is arranged in connection with the rotary shaft 25b. The first support arm 29 is disposed so as to protrude above the second arm 25. A support joint 30 is disposed in connection with the first support arm 29, and a second support arm 31 is disposed in connection with the support joint 30. An imaging device 32 is disposed on the second support arm 31.

第1関節22、第2関節24及び第3関節26は内部にサーボモータと減速機構とを備え、第1腕23、第2腕25及び第3腕27を角度精度良く回転及び停止することができる。上述のようにロボット3は多くの関節と回転機構を備えている。そして、これらの関節及び回転機構に加えて指部28aを制御することによりワークを把持することが可能になっている。   The first joint 22, the second joint 24, and the third joint 26 each include a servo motor and a speed reduction mechanism, and can rotate and stop the first arm 23, the second arm 25, and the third arm 27 with high angular accuracy. it can. As described above, the robot 3 includes many joints and a rotation mechanism. In addition to these joints and the rotation mechanism, it is possible to grip the workpiece by controlling the finger portion 28a.

同様に、支持部関節30は内部にサーボモータと減速機構とを備え、第2支持腕31を角度精度良く回転及び停止することができる。そして、第2腕25の角度と対応して第2支持腕31の角度を制御することにより、撮像装置32の光軸がZ方向となるようにすることができる。   Similarly, the support joint 30 includes a servo motor and a speed reduction mechanism inside, and can rotate and stop the second support arm 31 with high angular accuracy. Then, by controlling the angle of the second support arm 31 corresponding to the angle of the second arm 25, the optical axis of the imaging device 32 can be in the Z direction.

ロボット3の図中右上には組立テーブル4が配置されている。組立テーブル4の上面は作業面4aとなっており、水平に形成されている。そして、作業面4aにおいてロボット3は第1部品9、第2部品10及び第3部品11を組み合わせて、合体品33を組み立てることができる。   An assembly table 4 is arranged on the upper right side of the robot 3 in the figure. The upper surface of the assembly table 4 is a work surface 4a, which is formed horizontally. Then, on the work surface 4a, the robot 3 can assemble the combined product 33 by combining the first component 9, the second component 10, and the third component 11.

組立テーブル4の図中右上には除材用搬送装置5が配置されている。除材用搬送装置5の上側にはベルトコンベア5aが配置されている。除材用搬送装置5は第1搬送装置13と同様な装置であり、ロボット3がベルトコンベア5a上に合体品33をのせると、ベルトコンベア5aにより合体品33が移動される。   A material removal conveying device 5 is arranged on the upper right side of the assembly table 4 in the drawing. A belt conveyor 5 a is disposed on the upper side of the material removal conveyance device 5. The material removal transport device 5 is the same device as the first transport device 13, and when the robot 3 places the combined product 33 on the belt conveyor 5 a, the combined product 33 is moved by the belt conveyor 5 a.

ロボット3の図中左下側には制御装置34が配置されている。制御装置34は部品供給装置2、ロボット3、除材用搬送装置5等を含む組立装置1を制御する装置である。   A control device 34 is arranged on the lower left side of the robot 3 in the drawing. The control device 34 is a device that controls the assembly device 1 including the component supply device 2, the robot 3, the material removal conveyance device 5 and the like.

図2は、組立装置の電気制御ブロック図である。図2において、組立装置1の制御部としての制御装置34はプロセッサとして各種の演算処理を行うCPU(演算処理装置)37と各種情報を記憶する記憶部としてのメモリ38とを有する。   FIG. 2 is an electric control block diagram of the assembling apparatus. In FIG. 2, a control device 34 as a control unit of the assembling apparatus 1 includes a CPU (arithmetic processing device) 37 that performs various arithmetic processes as a processor and a memory 38 as a storage unit that stores various information.

ロボット駆動装置39、撮像装置32、第1部品供給装置6、第2部品供給装置7、第3部品供給装置8、除材用搬送装置5は、入出力インターフェース40及びデータバス41を介してCPU37に接続されている。さらに、入力装置42、表示装置43も入出力インターフェース40及びデータバス41を介してCPU37に接続されている。   The robot drive device 39, the imaging device 32, the first component supply device 6, the second component supply device 7, the third component supply device 8, and the material removal transport device 5 are connected to the CPU 37 via the input / output interface 40 and the data bus 41. It is connected to the. Further, the input device 42 and the display device 43 are also connected to the CPU 37 via the input / output interface 40 and the data bus 41.

ロボット駆動装置39は、ロボット3と接続されロボット3の動作を制御する装置である。ロボット駆動装置39はロボット3の姿勢に関する情報をCPU37に出力することができる。そして、CPU37が指示する場所に撮像装置32を移動して、所望の場所を撮像することができる。さらに、CPU37が指示する場所に手部28を移動して、指部28aを動作することによりワークを把持することが可能になっている。   The robot drive device 39 is a device that is connected to the robot 3 and controls the operation of the robot 3. The robot drive device 39 can output information on the posture of the robot 3 to the CPU 37. Then, the imaging device 32 can be moved to a location designated by the CPU 37 and a desired location can be imaged. Furthermore, it is possible to hold the work by moving the hand part 28 to a place designated by the CPU 37 and operating the finger part 28a.

入力装置42はワークが配置される動作や組立動作等の動作条件を入力する装置である。例えば、ワーク毎の形状を示す座標を図示しない外部装置から受信し、入力する装置である。表示装置43はワークやロボットに関するデータや作業状況を表示する装置である。表示装置43に表示される情報を基に入力装置42を用いて操作者が入力操作を行う。   The input device 42 is a device for inputting operation conditions such as an operation for placing a workpiece and an assembly operation. For example, it is a device that receives and inputs coordinates indicating the shape of each workpiece from an external device (not shown). The display device 43 is a device that displays data and work status related to the workpiece and the robot. An operator performs an input operation using the input device 42 based on the information displayed on the display device 43.

メモリ38は、RAM、ROM等といった半導体メモリや、ハードディスク、DVD−ROMといった外部記憶装置を含む概念である。機能的には、組立装置1における動作の制御手順が記述されたプログラムソフト44を記憶する記憶領域がメモリ38に設定される。さらに、第1部品9、第2部品10及び第3部品11の形状や手部28が把持する場所等の情報であるワーク関連データ45を記憶するための記憶領域もメモリ38に設定される。さらに、第1部品供給装置6、第2部品供給装置7、第3部品供給装置8、組立テーブル4及び除材用搬送装置5とロボット3との相対位置等の情報であるロボット関連データ46を記憶するための記憶領域もメモリ38に設定される。さらに、ロボット3が撮像装置32を移動して停止した後に撮像装置32の振動が減衰する減衰特性等の情報である振動量データ47を記憶するための記憶領域もメモリ38に設定される。さらに、撮像装置32が撮像した画像を補正するために用いる画像フィルタデータ48を記憶するための記憶領域もメモリ38に設定される。他にも、CPU37のためのワークエリアやテンポラリファイル等として機能する記憶領域やその他各種の記憶領域がメモリ38に設定される。   The memory 38 is a concept including a semiconductor memory such as a RAM and a ROM, and an external storage device such as a hard disk and a DVD-ROM. Functionally, a memory area for storing the program software 44 in which the operation control procedure in the assembling apparatus 1 is described is set in the memory 38. Furthermore, a storage area for storing work-related data 45 that is information such as the shape of the first component 9, the second component 10, and the third component 11 and the location where the hand portion 28 is gripped is also set in the memory 38. Further, robot-related data 46 that is information such as the relative positions of the first component supply device 6, the second component supply device 7, the third component supply device 8, the assembly table 4, the material removal transfer device 5 and the robot 3. A storage area for storage is also set in the memory 38. In addition, a memory area for storing vibration amount data 47 that is information such as attenuation characteristics at which the vibration of the imaging device 32 attenuates after the robot 3 moves and stops the imaging device 32 is also set in the memory 38. Furthermore, a storage area for storing image filter data 48 used for correcting an image captured by the imaging device 32 is also set in the memory 38. In addition, a memory area that functions as a work area for the CPU 37, a temporary file, and other various memory areas are set in the memory 38.

CPU37はメモリ38内に記憶されたプログラムソフト44に従って、ワークの位置及び姿勢を検出した後、ワークを移動させるための制御を行うものである。具体的な機能実現部として、ロボット3を駆動してワークを移動させるための制御を行うロボット制御部49を有する。他にも、撮像装置32の速度及び加速度情報を用いて撮像装置32の振動が減衰する推移を演算する振動演算部50を有する。さらに、撮像装置32の振動量に応じた画像フィルタを選択するフィルタ演算部51を有する。さらに、撮像した画像を用いてワークの位置を演算するワーク位置演算部53を有する。他にも、ロボット3動作と連携してベルトコンベア5a,13a,15a,17aの動作を制御する除給材制御部54等を有する。   The CPU 37 performs control for moving the workpiece after detecting the position and posture of the workpiece in accordance with the program software 44 stored in the memory 38. As a specific function realization unit, a robot control unit 49 that performs control for driving the robot 3 to move the workpiece is provided. In addition, it has a vibration calculation unit 50 that calculates a transition in which the vibration of the imaging device 32 attenuates using the speed and acceleration information of the imaging device 32. Furthermore, it has a filter calculation unit 51 that selects an image filter according to the vibration amount of the imaging device 32. Furthermore, it has the workpiece | work position calculating part 53 which calculates the position of a workpiece | work using the imaged image. In addition, it has a discharged material control unit 54 for controlling the operation of the belt conveyors 5a, 13a, 15a, and 17a in cooperation with the operation of the robot 3.

(撮像方法及びロボット制御方法)
次に、上述した組立装置1を用いて、第1部品9、第2部品10及び第3部品11を組み立てる作業を通して撮像方法及びロボットの制御方法について図3〜図10にて説明する。図3は合体品を説明するための模式図であり、合体品は組立装置1により組み立てられる物品を示す。図4(a)は、部品の組立工程を示すフローチャートである。そして、図4(b)は、部品の組立工程の中でロボットが部品を把持する工程を詳しく示すフローチャートである。図5〜図10は、組立作業の作業方法を説明するための模式図である。
(Imaging method and robot control method)
Next, an imaging method and a robot control method will be described with reference to FIGS. 3 to 10 through an operation of assembling the first component 9, the second component 10, and the third component 11 using the assembly apparatus 1 described above. FIG. 3 is a schematic diagram for explaining the combined product, and the combined product indicates an article assembled by the assembling apparatus 1. FIG. 4A is a flowchart showing a part assembling process. FIG. 4B is a flowchart showing in detail a process in which the robot grips the part in the part assembling process. 5-10 is a schematic diagram for demonstrating the working method of an assembly operation.

図3(a)は合体品を示す概略斜視図である。図3(b)は合体品を示す模式平面図であり、図3(c)は図3(a)の合体品合のA−A’線に沿う模式側断面図である。図3に示すように、合体品33は第1部品9を有している。第1部品9は略直方体の形状に形成されている。そして、X方向の側面に一対の溝部9aが形成されている。そして、一対の溝部9aは対向する場所に形成されている。   FIG. 3A is a schematic perspective view showing a combined product. FIG. 3B is a schematic plan view showing the combined product, and FIG. 3C is a schematic side sectional view taken along the line A-A ′ of the combined product in FIG. As shown in FIG. 3, the combined product 33 has a first part 9. The first component 9 is formed in a substantially rectangular parallelepiped shape. And a pair of groove part 9a is formed in the side surface of a X direction. And a pair of groove part 9a is formed in the place which opposes.

第1部品9の上には第2部品10が配置されている。第2部品10は略円柱の形状に形成されている。そして、X方向両側の側面に一対の溝部10aが形成されている。その一対の溝部10aは対向する場所に形成されている。第1部品9の溝部9aと第2部品10の溝部10aとは繋がって配置されている。   A second component 10 is disposed on the first component 9. The second component 10 is formed in a substantially cylindrical shape. And a pair of groove part 10a is formed in the side surface of X direction both sides. The pair of groove portions 10a are formed at opposite locations. The groove portion 9a of the first component 9 and the groove portion 10a of the second component 10 are connected to each other.

第2部品10の上には第3部品11が配置されている。第3部品11は略門形の形状に形成されている。従って、第3部品11の両端を端部11aとするとき、一対の端部11aは対向する場所に位置している。第3部品11は弾力性を有する板材より形成されている。そして、対向する端部11a間の距離は対向する溝部9a及び溝部10aより短い距離に形成されている。   A third component 11 is disposed on the second component 10. The third component 11 is formed in a substantially portal shape. Accordingly, when both ends of the third component 11 are the end portions 11a, the pair of end portions 11a are located at opposite positions. The third component 11 is formed from a plate material having elasticity. The distance between the opposing end portions 11a is shorter than the opposing groove portions 9a and 10a.

合体品33を組み立てるとき、まず、第1部品9の上に第2部品10を、溝部9aと溝部10aが合うように重ねる。そして、第3部品11の端部11aを溝部9a及び溝部10aに上方向(Z方向)から挿入する。このとき、対向する端部11aは溝部9a及び溝部10aを押圧する。そして、端部11aと溝部9a及び溝部10aとの間の摩擦により第3部品11はZ方向に抜け難くなる。従って、第1部品9と第2部品10とが分離しないようになる。   When assembling the combined product 33, first, the second component 10 is stacked on the first component 9 so that the groove 9a and the groove 10a are aligned. And the edge part 11a of the 3rd component 11 is inserted into the groove part 9a and the groove part 10a from an upper direction (Z direction). At this time, the opposite end 11a presses the groove 9a and the groove 10a. The third component 11 is difficult to come off in the Z direction due to friction between the end portion 11a and the groove portion 9a and the groove portion 10a. Therefore, the first component 9 and the second component 10 are not separated.

図4(a)に示すフローチャートにおいて、ステップS1は、第1部品把持工程に相当する。制御装置が第1部品供給装置を駆動してベルトコンベア上に第1部品を配置する。次に、制御装置が第1部品の位置を検出して、手部に第1部品を把持させる工程である。ステップS2は、第1部品移動工程に相当し、第1部品を第1部品供給装置から組立テーブルへ移動する工程である。次にステップS3に移行する。ステップS3は、第2部品把持工程に相当する。制御装置が第2部品供給装置のベルトコンベア上に第2部品を配置する。次に、制御装置が第2部品の位置を検出して、手部に第2部品を把持させる工程である。次に、ステップS4に移行する。ステップS4は、第2部品組立工程に相当する。制御装置は第2部品を第2部品供給装置から組立テーブルへ移動させる。次に、制御装置が第2部品を第1部品の上に重ねて配置する工程である。次にステップS5に移行する。   In the flowchart shown in FIG. 4A, step S1 corresponds to a first component gripping step. The control device drives the first component supply device to place the first component on the belt conveyor. Next, the control device detects the position of the first component and causes the hand to grip the first component. Step S <b> 2 corresponds to a first component moving step, and is a step of moving the first component from the first component supply device to the assembly table. Next, the process proceeds to step S3. Step S3 corresponds to a second component gripping step. The control device arranges the second component on the belt conveyor of the second component supply device. Next, the control device detects the position of the second component and causes the hand portion to hold the second component. Next, the process proceeds to step S4. Step S4 corresponds to a second component assembly process. The control device moves the second component from the second component supply device to the assembly table. Next, the control device arranges the second component so as to overlap the first component. Next, the process proceeds to step S5.

ステップS5は、第3部品把持工程に相当する。制御装置が第3部品供給装置のベルトコンベア上に第3部品を配置する。次に、制御装置が第3部品の位置を検出して、手部に第3部品を把持させる工程である。次に、ステップS6に移行する。ステップS6は、第3部品組立工程に相当する。制御装置は第3部品を第3部品供給装置から組立テーブルへ移動させる。次に、制御装置が第3部品を第2部品の上方から挿入する工程である。次に、ステップS7に移行する。ステップS7は、組立品移動工程に相当する。ロボットが合体品を組立テーブルから除材用搬送装置へ移動させる。そして、除材用搬送装置がベルトコンベアを駆動して合体品を移動する工程である。ステップS8は、終了判断工程に相当し、組立作業を終了するか否かを判断する工程である。組立作業を継続するとき、ステップS1に移行する。組立作業を終了するとき、部品の組立工程を終了する。   Step S5 corresponds to a third component gripping step. The control device arranges the third component on the belt conveyor of the third component supply device. Next, the control device detects the position of the third part and causes the hand part to hold the third part. Next, the process proceeds to step S6. Step S6 corresponds to a third part assembly process. The control device moves the third component from the third component supply device to the assembly table. Next, the control device inserts the third component from above the second component. Next, the process proceeds to step S7. Step S7 corresponds to an assembly moving process. The robot moves the combined product from the assembly table to the material removal conveyance device. Then, the material removal conveying device drives the belt conveyor to move the combined product. Step S8 corresponds to an end determination step and is a step of determining whether or not to end the assembly work. When the assembly work is continued, the process proceeds to step S1. When the assembling work is finished, the part assembling process is finished.

図4(b)はステップS1の第1部品把持工程、ステップS3の第2部品把持工程及びステップS5の第3部品把持工程を詳細に示すフローチャートである。図4(b)に示すフローチャートにおいて、ステップS11は、第2接近工程に相当し、撮像装置を所定の位置まで移動させる工程である。次にステップS12に移行する。ステップS12は、振動状態推定工程に相当し、撮像装置が部品を撮像するときにおける撮像装置の振動状態を推定する工程である。次にステップS13に移行する。ステップS13は、第1接近工程に相当し、撮像装置が部品を撮像可能な場所へロボットが撮像装置を移動させる工程である。次にステップS14に移行する。ステップS14は、撮像工程に相当し、撮像装置が部品を撮像する工程である。次にステップS15に移行する。ステップS15は、画像補正工程に相当し、撮像した画像のブレぼけを補正する工程である。次にステップS16に移行する。ステップS16は、把持工程に相当し、手部が部品を把持する工程である。以上により各部品の部品把持工程を終了する。   FIG. 4B is a flowchart showing in detail the first component gripping step in step S1, the second component gripping step in step S3, and the third component gripping step in step S5. In the flowchart shown in FIG. 4B, step S11 corresponds to a second approach step, and is a step of moving the imaging device to a predetermined position. Next, the process proceeds to step S12. Step S12 corresponds to a vibration state estimation step, and is a step of estimating the vibration state of the imaging device when the imaging device images a component. Next, the process proceeds to step S13. Step S13 corresponds to a first approach step, and is a step in which the robot moves the imaging device to a place where the imaging device can image the component. Next, the process proceeds to step S14. Step S14 corresponds to an imaging step, and is a step in which the imaging device images a component. Next, the process proceeds to step S15. Step S15 corresponds to an image correction step, and is a step of correcting blurring of a captured image. Next, the process proceeds to step S16. Step S16 corresponds to a gripping process and is a process in which the hand grips the component. Thus, the component gripping process for each component is completed.

次に、図5〜図10を用いて、図4に示したステップと対応させて、組立工程における撮像方法及びロボット制御方法を詳細に説明する。図5〜図9はステップS1の第1部品把持工程に対応する図である。ステップS1はステップS11〜ステップS16から成り、ステップS11から順次説明する。図5(a)及び図5(b)はステップS11の第2接近工程に対応する図である。図5(a)に示すように、ステップS11において、ベルトコンベア13aに第1部品9が載置される。そして、ベルトコンベア13aが第1部品9を移動させる。その結果、第1部品9は予め設定された撮像場所としての把持予定場所55に位置する。   Next, the imaging method and the robot control method in the assembly process will be described in detail with reference to FIGS. 5 to 10 in association with the steps shown in FIG. 5 to 9 are diagrams corresponding to the first component gripping step of step S1. Step S1 comprises steps S11 to S16, and will be described sequentially from step S11. FIG. 5A and FIG. 5B are diagrams corresponding to the second approach step of Step S11. As shown in FIG. 5A, in step S11, the first component 9 is placed on the belt conveyor 13a. Then, the belt conveyor 13a moves the first component 9. As a result, the first component 9 is positioned at a planned holding location 55 as a preset imaging location.

次に、ロボット3は移動前場所56から直線移動開始場所としての撮像待機場所57に撮像装置32を移動させる。移動前場所56は特定の場所では無く、前工程の作業が終了したときに撮像装置32が位置した場所である。撮像待機場所57は予め設定された場所であり、撮像待機場所57と把持予定場所55との距離58が予め設定された距離58となっている。   Next, the robot 3 moves the imaging device 32 from the pre-movement location 56 to the imaging standby location 57 as a linear movement start location. The pre-movement place 56 is not a specific place, but is a place where the imaging device 32 is located when the work of the previous process is completed. The imaging standby location 57 is a preset location, and the distance 58 between the imaging standby location 57 and the planned holding location 55 is a preset distance 58.

図5(b)は撮像装置32が移動前場所56から移動して撮像待機場所57に停止するときの速度及び加速度の推移を示すタイムチャートである。図5(b)において、横軸は時間の経過を示し、時間は左から右へ移行する。縦軸には、撮像装置32が移動するときの速度及び加速度が配置されている。速度及び加速度は図中上側が下側より大きな値となっている。速度推移線59は撮像装置32が移動して停止するまでの速度の推移を示す。加速度推移線60は加速度の推移を示している。速度推移線59が示すように撮像装置32は所定の時間等速で移動する。時間軸におけるこの区間を等速度区間59aとする。次に、速度推移線59が0まで減少する区間を減速区間59bとする。   FIG. 5B is a time chart showing changes in speed and acceleration when the imaging device 32 moves from the pre-movement location 56 and stops at the imaging standby location 57. In FIG. 5B, the horizontal axis indicates the passage of time, and the time shifts from left to right. On the vertical axis, the speed and acceleration when the imaging device 32 moves are arranged. The speed and acceleration are larger on the upper side than on the lower side in the figure. A speed transition line 59 indicates a transition of speed until the imaging device 32 moves and stops. The acceleration transition line 60 indicates the transition of acceleration. As indicated by the speed transition line 59, the imaging device 32 moves at a constant speed for a predetermined time. This section on the time axis is defined as a constant speed section 59a. Next, a section where the speed transition line 59 decreases to 0 is defined as a deceleration section 59b.

速度推移線59の下降に伴い加速度推移線60も下降する。そして、速度推移線59が0に接近するにつれて、加速度推移線60は上昇し、0に近づく。制御装置34はロボット3の各関節に配置されているモータを制御することにより撮像装置32の移動速度及び加速度を制御する。従って、速度推移線59及び加速度推移線60は制御装置34により制御することが可能になっている。   As the speed transition line 59 descends, the acceleration transition line 60 also descends. Then, as the speed transition line 59 approaches 0, the acceleration transition line 60 rises and approaches 0. The control device 34 controls the moving speed and acceleration of the imaging device 32 by controlling the motors arranged at each joint of the robot 3. Therefore, the speed transition line 59 and the acceleration transition line 60 can be controlled by the control device 34.

図5(c)及び図6(a)はステップS12の振動状態推定工程に対応する図である。図5(c)は撮像装置32が撮像待機場所57に停止した後で撮像装置32が振動する様子を示している。図5(c)において、横軸は時間の経過を示し、時間の経過は左から右へ推移する。縦軸は、撮像装置32が振動する変位を示している。そして、振動推移線61は撮像装置32が振動する変位の推移を予想した線を示している。振動推移線61を挟む一対の包絡線61aの間隔は振動の振幅となる。振動演算部50は予め振幅の閾値である振幅閾値62を設定する。そして、ロボット3の質量分布、ロボット3の各腕及び関節のバネ定数、速度推移線59及び加速度推移線60等の情報を用いて振動演算部50は振動推移線61及び包絡線61aを演算する。次に、振動推移線61の振幅が振幅閾値62より小さくなるまでの時間である減衰時間63を演算する。   FIG. 5C and FIG. 6A are diagrams corresponding to the vibration state estimation step of step S12. FIG. 5C shows how the imaging device 32 vibrates after the imaging device 32 stops at the imaging standby place 57. In FIG.5 (c), a horizontal axis shows progress of time and progress of time changes from the left to the right. The vertical axis indicates the displacement with which the imaging device 32 vibrates. A vibration transition line 61 indicates a line in which the transition of the displacement in which the imaging device 32 vibrates is predicted. The interval between the pair of envelopes 61a sandwiching the vibration transition line 61 is the amplitude of vibration. The vibration calculation unit 50 sets an amplitude threshold value 62 that is an amplitude threshold value in advance. The vibration calculation unit 50 calculates the vibration transition line 61 and the envelope 61a using information such as the mass distribution of the robot 3, the spring constant of each arm and joint of the robot 3, the speed transition line 59, and the acceleration transition line 60. . Next, an attenuation time 63 that is a time until the amplitude of the vibration transition line 61 becomes smaller than the amplitude threshold 62 is calculated.

図6(a)は撮像装置32が把持予定場所55と対向する場所まで移動して停止した後で撮像装置32が振動する様子を示している。図6(a)において、横軸は時間の経過を示し、時間の経過は左から右へ推移する。縦軸は、撮像装置32が振動する変位を示している。そして、振動推移線64は撮像装置32が振動する変位の推移を予想した線を示している。移動開始時刻65aは撮像装置32が撮像待機場所57から移動を開始するタイミングを示している。移動開始時刻65aでは撮像装置32を移動させるための加速度が撮像装置32に加わるので撮像装置32の振幅が増大する。撮像装置32が移動している間は等速で移動するので、撮像装置32の振幅は減衰する。撮像装置32が停止するタイミングを移動終了時刻65bとする。移動終了時刻65bでは撮像装置32が停止するための加速度が加わるので撮像装置32の振幅が増大する。   FIG. 6A illustrates a state in which the imaging device 32 vibrates after the imaging device 32 has moved to a location facing the planned holding location 55 and stopped. In FIG. 6A, the horizontal axis indicates the passage of time, and the passage of time changes from left to right. The vertical axis indicates the displacement with which the imaging device 32 vibrates. A vibration transition line 64 indicates a line in which the transition of the displacement in which the imaging device 32 vibrates is predicted. The movement start time 65a indicates the timing at which the imaging device 32 starts moving from the imaging standby location 57. At the movement start time 65a, an acceleration for moving the imaging device 32 is applied to the imaging device 32, so that the amplitude of the imaging device 32 increases. Since the imaging device 32 moves at a constant speed while moving, the amplitude of the imaging device 32 is attenuated. The timing at which the imaging device 32 stops is defined as a movement end time 65b. At the movement end time 65b, acceleration for stopping the imaging device 32 is applied, so that the amplitude of the imaging device 32 increases.

撮像装置32が停止した後、撮像を開始するタイミングを撮像開始時刻65cとする。そして、移動開始時刻65aから撮像開始時刻65cまでの時間を減衰待機時間65とするとき、減衰待機時間65は減衰時間63より長い時間に設定されている。従って、撮像装置32が撮像待機場所57に移動して停止するときに生じる振動の影響を受け難くなっている。振動演算部50は撮像開始時刻65cにおける振幅66と振動方向を演算する。このとき、撮像待機場所57における撮像装置32の振動状態と制御装置34が制御する撮像装置32の移動速度及び加速度等の条件を用いて、振動演算部50は振幅66と振動方向を演算する。   The timing at which imaging is started after the imaging device 32 is stopped is defined as imaging start time 65c. When the time from the movement start time 65 a to the imaging start time 65 c is set as the attenuation standby time 65, the attenuation standby time 65 is set to be longer than the attenuation time 63. Therefore, it is difficult for the imaging device 32 to be affected by vibrations that occur when the imaging device 32 moves to the imaging standby place 57 and stops. The vibration calculation unit 50 calculates the amplitude 66 and the vibration direction at the imaging start time 65c. At this time, the vibration calculation unit 50 calculates the amplitude 66 and the vibration direction using conditions such as the vibration state of the image pickup device 32 in the image pickup standby place 57 and the moving speed and acceleration of the image pickup device 32 controlled by the control device 34.

図6(b)はステップS13の第1接近工程に対応する図である。図6(b)に示すように、ステップS13において、ロボット3は撮像装置32を撮像待機場所57から把持予定場所55と対向する場所である撮像場所に移動させる。このとき、撮像装置32が直線移動するように制御装置34はロボット3を駆動する。そして、撮像装置32が図中左右に振動しないように、制御装置34はロボット3を駆動するのが好ましい。例えば、回転台21を作動させずに、第1関節22、第2関節24及び支持部関節30を駆動して撮像装置32を駆動するのが好ましい。但し、振動の影響が小さいときには必ずしもこの方法に限らない。   FIG. 6B is a diagram corresponding to the first approach step of step S13. As shown in FIG. 6B, in step S <b> 13, the robot 3 moves the imaging device 32 from the imaging standby location 57 to an imaging location that is opposite to the planned grip location 55. At this time, the control device 34 drives the robot 3 so that the imaging device 32 moves linearly. The control device 34 preferably drives the robot 3 so that the imaging device 32 does not vibrate left and right in the drawing. For example, it is preferable to drive the imaging device 32 by driving the first joint 22, the second joint 24, and the support joint 30 without operating the turntable 21. However, this method is not necessarily limited to when the influence of vibration is small.

図6(c)はステップS14の撮像工程に対応する図である。ステップS14において撮像装置32が第1部品9を撮像する。その結果、図6(c)に示すように、撮影画像67に第1部品9の画像68が撮像される。撮像装置32がY方向に振動する状態にて撮像するので、画像68にはY方向にブレぼけが生じる。その結果、撮影画像67における画像68のY方向側の辺68pが太く観察される。   FIG. 6C is a diagram corresponding to the imaging process in step S14. In step S <b> 14, the imaging device 32 images the first component 9. As a result, as shown in FIG. 6C, an image 68 of the first component 9 is captured in the captured image 67. Since the image pickup device 32 picks up an image while vibrating in the Y direction, the image 68 is blurred in the Y direction. As a result, the side 68p on the Y direction side of the image 68 in the captured image 67 is observed to be thick.

図7〜図9はステップS15の画像補正工程に対応する図である。図7(a)は補正フィルタ71の1例を示す。ステップS15では図7(a)に示すような補正フィルタ71を用いて画像68のブレぼけを補正する。補正フィルタ71は例えば5行5列のマトリクスに表現される。行数及び列数は5行5列に限定されず、ブレぼけの程度に合わせて設定するのが良い。   7 to 9 are diagrams corresponding to the image correction process in step S15. FIG. 7A shows an example of the correction filter 71. In step S15, blurring of the image 68 is corrected using a correction filter 71 as shown in FIG. The correction filter 71 is expressed in a matrix of 5 rows and 5 columns, for example. The number of rows and the number of columns are not limited to 5 rows and 5 columns, and may be set according to the degree of blurring.

補正フィルタ71の行を図中上より第1行71a〜第5行71eとする。そして、補正フィルタ71の列を図中左より第1列71f〜第5列71jとする。補正フィルタ71に配置された各数値を演算子元71kと称す。補正フィルタ71は鮮鋭化フィルタと呼ばれるフィルタである。マトリクスの中央に位置する第3行71c且第3列71hの演算子元71kが正の値に設定される。例えば、実施例では演算子元71kの値は15に設定される。そして、第3行71c且第3列71hの周辺の演算子元71kが負の値に設定されている。例えば、実施例では演算子元71kの値は−1に設定される。そして、第3列71hにおける第1行71a及び第5行71eの演算子元71kは他の演算子元71kより大きな負の値に設定されている。例えば、実施例では演算子元71kの値は−3に設定される。この設定によりY方向に対して強い鮮鋭化を実施することができる。補正フィルタ71の演算子元71kにおいて数値が設定されていない演算子元71kには0の値が設定される。尚、補正フィルタ71における演算子元71kの値はこれに限定されない。   The rows of the correction filter 71 are the first row 71a to the fifth row 71e from the top in the figure. The columns of the correction filter 71 are defined as a first column 71f to a fifth column 71j from the left in the drawing. Each numerical value arranged in the correction filter 71 is referred to as an operator element 71k. The correction filter 71 is a filter called a sharpening filter. The operator element 71k in the third row 71c and the third column 71h located at the center of the matrix is set to a positive value. For example, in the embodiment, the value of the operator element 71k is set to 15. The operator element 71k around the third row 71c and the third column 71h is set to a negative value. For example, in the embodiment, the value of the operator element 71k is set to -1. The operator elements 71k of the first row 71a and the fifth row 71e in the third column 71h are set to a negative value larger than the other operator elements 71k. For example, in the embodiment, the value of the operator element 71k is set to -3. With this setting, strong sharpening can be performed in the Y direction. A value of 0 is set for the operator element 71k for which no numerical value is set in the operator element 71k of the correction filter 71. The value of the operator element 71k in the correction filter 71 is not limited to this.

メモリ38の画像フィルタデータ48には複数の補正フィルタ71が記憶されている。そして、ステップS12の振動状態推定工程において1つの補正フィルタ71が選択される。このとき、予想した撮像開始時刻65cの振幅66に応じて、補正フィルタ71の行数及び列数と補正フィルタ71の各行列における演算子元71kの値とが設定される。振幅66と補正フィルタ71のパターンとの関係は予め実験により最適な組合せが設定されている。補正フィルタ71の設定が適正でない場合には第1部品9と異なる画像に補正される可能性があるので、予め実験して適正な補正フィルタ71を用意する必要がある。   A plurality of correction filters 71 are stored in the image filter data 48 of the memory 38. Then, one correction filter 71 is selected in the vibration state estimation step of step S12. At this time, the number of rows and columns of the correction filter 71 and the value of the operator element 71k in each matrix of the correction filter 71 are set according to the predicted amplitude 66 of the imaging start time 65c. As for the relationship between the amplitude 66 and the pattern of the correction filter 71, an optimum combination is set in advance through experiments. If the setting of the correction filter 71 is not appropriate, it may be corrected to an image different from that of the first component 9, so that it is necessary to prepare an appropriate correction filter 71 by experimenting in advance.

図7(b)は撮影画像67の各画素の輝度を数値で表示した例を示す。撮像装置32は撮像素子とアナログデジタル変換回路を備えている。そして、撮像装置32は画像の各画素の輝度を256階調の数値データとして出力することが可能になっている。撮影画像67において光が照射されなかった場所は輝度数値が0として出力される。そして、最も明るい光が照射された場所では輝度数値が255として出力される。つまり、撮影画像67において明るい画素は大きな数値であり、暗い画素は小さな数値となっている。画像68の各行を図中上より下へ第1行画素68a〜第7行画素68gとする。そして、画像68の各列を図中左より右へ第1列画素68h〜第5列68mとする。画像68に配置された各数値を画素元68nと称す。   FIG. 7B shows an example in which the luminance of each pixel of the captured image 67 is displayed as a numerical value. The imaging device 32 includes an imaging element and an analog / digital conversion circuit. The imaging device 32 can output the luminance of each pixel of the image as numerical data of 256 gradations. In a place where light is not irradiated in the photographed image 67, the luminance value is output as 0. Then, the luminance value is output as 255 at the place irradiated with the brightest light. That is, in the captured image 67, bright pixels are large numerical values, and dark pixels are small numerical values. Each row of the image 68 is defined as a first row pixel 68a to a seventh row pixel 68g from the top to the bottom in the drawing. Then, each column of the image 68 is defined as a first column pixel 68h to a fifth column 68m from the left to the right in the drawing. Each numerical value arranged in the image 68 is referred to as a pixel element 68n.

次に、撮影画像67と補正フィルタ71とを用いて撮影画像67を補正する例を説明する。この例では、第1行画素68a〜第5行画素68e且第1列画素68h〜第5列68mの画素元68nを用いて演算した値を第3行画素68c且第3列画素68jの画素元68nの補正値とする。つまり、画素元68nの補正値は補正対象とする画素元68nの周囲の画素元68nを用いて演算される。   Next, an example in which the captured image 67 is corrected using the captured image 67 and the correction filter 71 will be described. In this example, the values calculated using the pixel elements 68n of the first row pixel 68a to the fifth row pixel 68e and the first column pixel 68h to the fifth column 68m are the pixels of the third row pixel 68c and the third column pixel 68j. The original 68n correction value is used. That is, the correction value of the pixel element 68n is calculated using the pixel elements 68n around the pixel element 68n to be corrected.

先ず、補正フィルタ71の第1行71aと画像68の第1行画素68aとを用いる。第1列71fと第1列画素68hとを積算し、第2列71gと第2列画素68iとを積算する。同様に、第3列71hと第3列画素68jとを積算し、第4列71iと第4列画素68kとを積算する。同様に、第5列71jと第5列68mとを積算する。次に、各列にて積算した値の総和を演算する。図中の数値においては、0×30+0×30−3×50+0×50+0×80=−150となる。   First, the first row 71a of the correction filter 71 and the first row pixel 68a of the image 68 are used. The first column 71f and the first column pixel 68h are integrated, and the second column 71g and the second column pixel 68i are integrated. Similarly, the third column 71h and the third column pixel 68j are integrated, and the fourth column 71i and the fourth column pixel 68k are integrated. Similarly, the fifth column 71j and the fifth column 68m are integrated. Next, the sum total of the values integrated in each column is calculated. In the numerical values in the figure, 0 × 30 + 0 × 30−3 × 50 + 0 × 50 + 0 × 80 = −150.

同様の演算を補正フィルタ71の第2行71bと画像68の第2行画素68bとを用いて行う。図中の数値においては、0×80−1×50−1×70−1×70+0×80=−190となる。さらに、同様の演算を補正フィルタ71の第3行71cと画像68の第3行画素68cとを用いて行う。図中の数値においては、0×100−1×100+15×110−1×100+0×100=1450となる。さらに、同様の演算を補正フィルタ71の第4行71dと画像68の第4行画素68dとを用いて行う。図中の数値においては、0×150−1×140−1×160−1×150+0×150=−450となる。さらに、同様の演算を補正フィルタ71の第5行71eと画像68の第5行画素68eとを用いて行う。図中の数値においては、0×180+0×170−3×190+0×180+0×190=−570となる。次に、各行にて加算した値の総和を演算する。図中の数値においては、−150−190+1450−450−570=90となる。この値が5行及び5列の各積算値の総和となる。   A similar calculation is performed using the second row 71b of the correction filter 71 and the second row pixel 68b of the image 68. In the numerical values in the figure, 0 × 80-1 × 50-1 × 70-1 × 70 + 0 × 80 = −190. Further, the same calculation is performed using the third row 71 c of the correction filter 71 and the third row pixel 68 c of the image 68. In the numerical values in the figure, 0 × 100-1 × 100 + 15 × 110-1 × 100 + 0 × 100 = 1450. Further, the same calculation is performed using the fourth row 71d of the correction filter 71 and the fourth row pixel 68d of the image 68. In the numerical values in the figure, 0 × 150-1 × 140-1 × 160-1 × 150 + 0 × 150 = −450. Further, the same calculation is performed using the fifth row 71e of the correction filter 71 and the fifth row pixel 68e of the image 68. In the numerical values in the figure, 0 × 180 + 0 × 170−3 × 190 + 0 × 180 + 0 × 190 = −570. Next, the sum of the values added in each row is calculated. In the numerical value in the figure, −150−190 + 1450−450−570 = 90. This value is the sum of the integrated values of 5 rows and 5 columns.

次に、補正フィルタ71の各演算子元71kの総和を演算する。図中の数値においては、1行目は0+0−3+0+0=−3となる。2行目は0−1−1−1+0=−3となる。3行目は0−1+15−1+0=13となる。4行目は0−1−1−1+0=−3となる。5行目は0+0−3+0+0=−3となる。次に各行にて加算した値の総和を演算する。各行の総和は−3−3+13−3−3=1となる。次に、5行及び5列の各積算値の総和を補正フィルタ71の各演算子元71kの総和にて除算する。図中の数値においては、90÷1=90となる。この値を画素変換値とする。この画素変換値を第3行画素68c且第3列画素68jの画素元68nの補正値とする。フィルタ演算部51は上述の演算を各画素元68nに対して行うことにより各画素元68nの補正値を算出する。   Next, the sum of the operator elements 71k of the correction filter 71 is calculated. In the numerical values in the figure, the first line is 0 + 0-3 + 0 + 0 = -3. The second line is 0-1-1-1 + 0 = -3. The third line is 0-1 + 15-1 + 0 = 13. The fourth line is 0-1-1-1 + 0 = -3. The fifth line is 0 + 0-3 + 0 + 0 = -3. Next, the sum of the values added in each row is calculated. The sum of each row is −3-3 + 13−3-3 = 1. Next, the sum of the integrated values of the 5 rows and 5 columns is divided by the sum of the operator elements 71 k of the correction filter 71. In the numerical values in the figure, 90 ÷ 1 = 90. This value is set as a pixel conversion value. This pixel conversion value is used as the correction value for the pixel element 68n of the third row pixel 68c and the third column pixel 68j. The filter calculation unit 51 calculates the correction value of each pixel element 68n by performing the above calculation on each pixel element 68n.

図8〜図9は補正フィルタ71の作用を説明するためのグラフであり、図8(a)は撮像する画像のブレぼけを説明するグラフである。図8(a)において、横軸は撮像素子の配列におけるY方向の位置を示している。縦軸は、撮像装置32に照射される光の輝度分布を示している。輝度は図中下側より上側が高い輝度となっている。そして、第1輝度分布線72は撮像を開始する時の輝度分布を示している。第1輝度分布線72は第1部品9からの反射光の分布を示している。第1輝度分布線72は第1位置72aにおいて分布が変化しており、第1位置72aに明るい場所と暗い場所との境界があることを示している。そして、第1位置72aは第1部品9の輪郭の場所と対応している。   8 to 9 are graphs for explaining the operation of the correction filter 71, and FIG. 8A is a graph for explaining blurring of an image to be captured. In FIG. 8A, the horizontal axis indicates the position in the Y direction in the array of image sensors. The vertical axis represents the luminance distribution of the light irradiated on the imaging device 32. The brightness is higher on the upper side than on the lower side in the figure. The first luminance distribution line 72 indicates the luminance distribution at the start of imaging. A first luminance distribution line 72 indicates the distribution of reflected light from the first component 9. The first luminance distribution line 72 changes in distribution at the first position 72a, indicating that the first position 72a has a boundary between a bright place and a dark place. The first position 72 a corresponds to the location of the contour of the first component 9.

第2輝度分布線73は撮像を終了する時の輝度分布を示している。第2輝度分布線73は第1輝度分布線72と同様に第1部品9からの反射光の分布を示している。第2輝度分布線73は第2位置73aにおいて分布が変化しており、第1位置72aに明るい場所と暗い場所との境界があることを示している。そして、第2位置73aは第1部品9の輪郭の場所と対応している。つまり、撮像を開始して終了するまでの間に第1部品9の輪郭が第1位置72aから第2位置73aに移動したことを示している。   A second luminance distribution line 73 indicates the luminance distribution when the imaging is finished. Similar to the first luminance distribution line 72, the second luminance distribution line 73 indicates the distribution of reflected light from the first component 9. The second luminance distribution line 73 changes in distribution at the second position 73a, indicating that the first position 72a has a boundary between a bright place and a dark place. The second position 73a corresponds to the location of the contour of the first component 9. That is, it shows that the outline of the first component 9 has moved from the first position 72a to the second position 73a between the start and end of imaging.

撮像装置32の出力は、撮像する時間の間に撮像素子には照射される光量の積分値が出力される。第3輝度分布線74は撮像装置32が出力する撮影画像67における輝度分布を示している。第3輝度分布線74において、第1位置72aの左側は照射される光量が小さいので輝度は小さくなっている。第2位置73aの右側は照射される光量が大きいので輝度は大きくなっている。第1位置72aと第2位置73aとの間では左側から右側へ輝度が増加している。そして、輝度の変化が第1輝度分布線72及び第2輝度分布線73に比べて緩やかであり、ブレぼけとして認識される。第1位置72aと第2位置73aとの間の幅を補正前変化幅74aとするとき、補正前変化幅74aが長いほどブレぼけが大きいと認識される。   The output of the imaging device 32 is an integrated value of the amount of light emitted to the imaging device during the imaging time. A third luminance distribution line 74 indicates the luminance distribution in the captured image 67 output from the imaging device 32. In the third luminance distribution line 74, the left side of the first position 72a has a small luminance because the amount of light irradiated is small. The right side of the second position 73a has a large luminance because the amount of light applied is large. The luminance increases from the left side to the right side between the first position 72a and the second position 73a. The change in luminance is gentle compared to the first luminance distribution line 72 and the second luminance distribution line 73, and is recognized as blurring. When the width between the first position 72a and the second position 73a is the pre-correction change width 74a, it is recognized that the longer the pre-correction change width 74a, the greater the blur.

図8(b)において、横軸はフィルタの数値配列におけるY方向の位置を示している。縦軸は、演算子元の値を示している。演算子元の値は上側の方が下側より大きな値となっている。フィルタ輪郭線75は補正フィルタ71の第3列71hにおける演算子元71kの変化を示している。フィルタ輪郭線75は第3行71cにおいて正のピーク値が設定され、第2行71b及び第4行71dには負の値が設定されている。そして、第1行71a及び第5行71eにも負の値が設定され、第2行71b及び第4行71dより低い値が設定されている。フィルタ輪郭線75は左右対称に設定され、第3行71cに対して2画素分離れている第1行71a及び第3行71cの影響を受けるように設定されている。   In FIG. 8B, the horizontal axis indicates the position in the Y direction in the numerical array of filters. The vertical axis indicates the value of the operator element. The value of the operator element is larger on the upper side than on the lower side. A filter outline 75 indicates a change in the operator element 71k in the third column 71h of the correction filter 71. The filter outline 75 has a positive peak value set in the third row 71c, and negative values set in the second row 71b and the fourth row 71d. Negative values are also set in the first row 71a and the fifth row 71e, and values lower than those in the second row 71b and the fourth row 71d are set. The filter outline 75 is set to be bilaterally symmetric and is set so as to be affected by the first row 71a and the third row 71c that are separated by two pixels with respect to the third row 71c.

図8(c)において、横軸は撮像素子の配列におけるY方向の位置を示している。縦軸は、撮像装置32に照射される光の輝度を補正した後の輝度分布を示している。輝度は図中下側より上側が高い輝度となっている。そして、補正後分輝度布線76はフィルタ輪郭線75の補正フィルタ71を用いて第3輝度分布線74を補正演算した後の輝度分布を示している。補正後分輝度布線76において第3位置76aの左側は平坦になっている。この場所は、補正フィルタ71による影響を受けていないので、第3輝度分布線74の分布と同じ分布となっている。   In FIG. 8C, the horizontal axis indicates the position in the Y direction in the array of image sensors. The vertical axis represents the luminance distribution after correcting the luminance of the light irradiated to the imaging device 32. The brightness is higher on the upper side than on the lower side in the figure. A corrected luminance distribution line 76 indicates a luminance distribution after the third luminance distribution line 74 is corrected using the correction filter 71 of the filter outline 75. The left side of the third position 76a in the post-correction divided luminance wiring 76 is flat. Since this place is not affected by the correction filter 71, the distribution is the same as the distribution of the third luminance distribution line 74.

補正後分輝度布線76において第1位置72aの場所の輝度は第3位置76aの場所より低く変換されている。第3輝度分布線74において、第1位置72aの右側は輝度が増加している。そして、補正フィルタ71の第1行71a及び第2行71bにより負の値に変換されるので、第1位置72aでは低い値に変換される。   In the post-correction luminance wiring 76, the luminance at the location of the first position 72a is converted to be lower than the location of the third position 76a. In the third luminance distribution line 74, the luminance increases on the right side of the first position 72a. And since it is converted into a negative value by the first row 71a and the second row 71b of the correction filter 71, it is converted into a low value at the first position 72a.

補正後分輝度布線76において第4位置76bの右側は平坦になっている。この場所は、補正フィルタ71による影響を受けていないので、第3輝度分布線74の分布と同じ分布となっている。   The right side of the fourth position 76b in the post-correction divided luminance wiring 76 is flat. Since this place is not affected by the correction filter 71, the distribution is the same as the distribution of the third luminance distribution line 74.

補正後分輝度布線76において第2位置73aの場所の輝度は第4位置76bの場所より高く変換されている。第3輝度分布線74において、第2位置73aの左側は輝度が減少している。そして、補正フィルタ71の第4行71d及び第5行71eにより負の値に変換されるので、第2位置73aでは高い値に変換される。   In the post-correction luminance wiring 76, the luminance at the location of the second position 73a is converted to be higher than that of the location of the fourth position 76b. In the third luminance distribution line 74, the luminance decreases on the left side of the second position 73a. And since it is converted into a negative value by the fourth row 71d and the fifth row 71e of the correction filter 71, it is converted into a high value at the second position 73a.

第1位置72aと第2位置73aとの間では補正後分輝度布線76の傾斜が急になるように変換される。従って、第1位置72aと第2位置73aとの間では輝度の変化が大きくなるように変換される。   Conversion between the first position 72a and the second position 73a is performed so that the slope of the corrected luminance wiring 76 becomes steep. Therefore, conversion is performed between the first position 72a and the second position 73a so that the change in luminance becomes large.

図9(a)は補正後分輝度布線76に補正をさらに加える方法を説明するためのグラフである。
図9(a)において、横軸は撮像素子の配列におけるY方向の位置を示している。縦軸は、撮像における光の輝度を補正した後の輝度分布を示している。輝度は図中下側より上側が高い輝度となっている。そして、再補正後分輝度布線77は補正後分輝度布線76の一部を補正した後の輝度分布を示している。
FIG. 9A is a graph for explaining a method of further correcting the post-correction divided luminance wiring 76.
In FIG. 9A, the horizontal axis indicates the position in the Y direction in the arrangement of the imaging elements. The vertical axis represents the luminance distribution after correcting the luminance of light in imaging. The brightness is higher on the upper side than on the lower side in the figure. A post-correction divided luminance wiring 77 shows a luminance distribution after correcting a part of the corrected luminance wiring 76.

続いて、補正後分輝度布線76を補正して再補正後分輝度布線77を算出する方法を説明する。補正後分輝度布線76において第3位置76aより左側の輝度を算出し、算出した値を暗部輝度値76cとする。そして、補正後分輝度布線76において暗部輝度値76cより低い輝度の場所の輝度を暗部輝度値76cに変更する。次に、補正後分輝度布線76において第4位置76bより右側の輝度を算出し、算出した値を明部輝度値76dとする。そして、補正後分輝度布線76において明部輝度値76dより高い輝度の場所の輝度を明部輝度値76dに変更する。その結果、第1位置72a付近と第2位置73a付近の輝度が変更され、補正後分輝度布線76が再補正後分輝度布線77に補正される。再補正後分輝度布線77において、輝度が暗部輝度値76cから明部輝度値76dに変化する場所のY方向の幅を補正後変化幅77aとする。補正後変化幅77aは第3輝度分布線74の補正前変化幅74aより短くなっているので、ブレぼけを小さくすることができている。従って、図9(b)に示すように、補正画像78における画像79のY方向側の辺79aが細く観察される。その結果、ワーク位置演算部53は辺79aのY方向の場所を位置精度良く検出することができる。   Next, a method for correcting the corrected post-correction luminance wiring 76 and calculating the post-correction post-correction luminance wiring 77 will be described. The luminance on the left side from the third position 76a in the post-correction luminance wiring 76 is calculated, and the calculated value is set as the dark portion luminance value 76c. And the brightness | luminance of the place where the brightness | luminance lower than the dark part luminance value 76c in the post-correction part luminance wiring 76 is changed into the dark part luminance value 76c. Next, the luminance on the right side from the fourth position 76b in the post-correction luminance wiring 76 is calculated, and the calculated value is set as the bright portion luminance value 76d. Then, the luminance of the place having a higher luminance than the bright portion luminance value 76d in the post-correction luminance wiring 76 is changed to the bright portion luminance value 76d. As a result, the luminance in the vicinity of the first position 72a and the vicinity of the second position 73a is changed, and the corrected luminance wiring 76 is corrected to the recorrected luminance wiring 77. In the post-recorrection luminance wiring 77, the width in the Y direction where the luminance changes from the dark portion luminance value 76c to the bright portion luminance value 76d is defined as a post-correction change width 77a. Since the post-correction change width 77a is shorter than the pre-correction change width 74a of the third luminance distribution line 74, blurring can be reduced. Therefore, as shown in FIG. 9B, the side 79a on the Y direction side of the image 79 in the corrected image 78 is observed thinly. As a result, the workpiece position calculation unit 53 can detect the location of the side 79a in the Y direction with high positional accuracy.

図10(a)はステップS16の把持工程に対応する図である。図10(a)に示すように、ステップS16において、手部28が把持予定場所55に移動する。そして、ロボット制御部49は指部28aを移動させることにより第1部品9を把持する。ワーク位置演算部53が第1部品9の場所を精度良く検出しているので、指部28aは第1部品9の重心を挟んで保持することができる。従って、ロボット3は安定した状態で第1部品9を保持することができる。以上でステップS1を終了する。   FIG. 10A is a diagram corresponding to the gripping step of step S16. As shown in FIG. 10A, in step S16, the hand portion 28 moves to the planned holding location 55. Then, the robot controller 49 holds the first component 9 by moving the finger part 28a. Since the workpiece position calculation unit 53 accurately detects the location of the first component 9, the finger portion 28 a can be held with the center of gravity of the first component 9 interposed therebetween. Therefore, the robot 3 can hold the first component 9 in a stable state. Step S1 is complete | finished above.

図10(b)はステップS2の第1部品移動工程に対応する図である。図10(b)に示すように、ステップS2において、ロボット制御部49はロボット3を駆動して、第1部品9を組立テーブル4の作業面4aに載置する。   FIG. 10B is a diagram corresponding to the first component moving step of step S2. As shown in FIG. 10B, in step S <b> 2, the robot control unit 49 drives the robot 3 to place the first component 9 on the work surface 4 a of the assembly table 4.

ステップS3の第2部品把持工程では、ステップS1と同様の方法を用いて第2部品10を把持する。従って、ワーク位置演算部53は第2部品10の場所を精度良く検出するので、指部28aは第2部品10の重心を挟んで保持することができる。従って、ロボット3は安定した状態で第2部品10を保持することができる。   In the second component gripping step in step S3, the second component 10 is gripped using the same method as in step S1. Therefore, since the workpiece position calculation unit 53 accurately detects the location of the second component 10, the finger portion 28 a can be held with the center of gravity of the second component 10 interposed therebetween. Therefore, the robot 3 can hold the second component 10 in a stable state.

図10(c)はステップS4の第2部品組立工程に対応する図である。図10(c)に示すように、ステップS4において、ロボット制御部49はロボット3を駆動して、第2部品10を第1部品9の上に載置する。ロボット3の手部28は第2部品10を位置精度良く把持しているので、ロボット3は第2部品10を位置精度良く載置することができる。   FIG. 10C is a diagram corresponding to the second component assembling process in step S4. As shown in FIG. 10C, in step S <b> 4, the robot control unit 49 drives the robot 3 to place the second component 10 on the first component 9. Since the hand portion 28 of the robot 3 holds the second component 10 with high positional accuracy, the robot 3 can place the second component 10 with high positional accuracy.

ステップS5の第3部品把持工程では、ステップS1と同様の方法を用いて第3部品11を把持する。従って、ワーク位置演算部53は第3部品11の場所を精度良く検出するので、指部28aは第3部品11の重心を挟んで保持することができる。従って、ロボット3は安定した状態で第3部品11を保持することができる。   In the third component gripping step in step S5, the third component 11 is gripped using the same method as in step S1. Therefore, since the workpiece position calculation unit 53 accurately detects the location of the third component 11, the finger portion 28a can be held with the center of gravity of the third component 11 in between. Therefore, the robot 3 can hold the third component 11 in a stable state.

図10(d)はステップS6の第3部品組立工程に対応する図である。図10(d)に示すように、ステップS6において、ロボット制御部49はロボット3を駆動して、第3部品11を第2部品10及び第1部品9の側面を挟んで挿入する。ロボット3の手部28は第3部品11を位置精度良く把持しているので、ロボット3は第3部品11を位置精度良く挿入することができる。その結果、合体品33が完成する。   FIG. 10D is a diagram corresponding to the third part assembling process in step S6. As shown in FIG. 10D, in step S6, the robot control unit 49 drives the robot 3 to insert the third component 11 with the side surfaces of the second component 10 and the first component 9 interposed therebetween. Since the hand portion 28 of the robot 3 holds the third component 11 with high positional accuracy, the robot 3 can insert the third component 11 with high positional accuracy. As a result, the combined product 33 is completed.

ステップS7の組立品移動工程ではステップS1と同様の方法を用いて合体品33を把持する。そして、ロボット3が合体品33を作業面4aから除材用搬送装置5のベルトコンベア5a上に移動させる。その後、制御装置34はベルトコンベア5aを駆動することにより合体品33を移動させる。以上の工程により部品の組立工程を終了する。   In the assembly moving process in step S7, the combined product 33 is gripped using the same method as in step S1. Then, the robot 3 moves the combined product 33 from the work surface 4 a onto the belt conveyor 5 a of the material removal transport device 5. Thereafter, the control device 34 moves the combined product 33 by driving the belt conveyor 5a. The part assembly process is completed by the above process.

上述したように、本実施形態によれば、以下の効果を有する。
(1)本実施形態によれば、ステップS13の第1接近工程において、撮像装置32が直線移動して把持予定場所55と対向する場所である撮像場所に接近する。撮像装置32が撮像場所に移動する間に撮像装置32の振動成分が減衰する。そして、撮像装置32が停止するとき撮像装置32に加速度が加わるので、撮像装置32が振動する。このとき、撮像装置32は直線移動から停止するので、撮像装置32が振動する方向は直線移動した1方向が大きくなる。従って、撮像する画像は1方向にブレぼけが生じ易い画像となる。その結果、ステップS15の画像補正工程では多方向にブレぼけが生じている画像を補正するときに比べて補正し易くすることができる。
As described above, this embodiment has the following effects.
(1) According to this embodiment, in the first approaching step of Step S13, the imaging device 32 moves linearly and approaches an imaging location that is a location facing the planned grip location 55. While the imaging device 32 moves to the imaging location, the vibration component of the imaging device 32 is attenuated. Then, since the acceleration is applied to the imaging device 32 when the imaging device 32 stops, the imaging device 32 vibrates. At this time, since the imaging device 32 stops from the linear movement, the direction in which the imaging device 32 vibrates is larger in one direction in which the linear movement is performed. Therefore, the image to be captured is an image that is likely to be blurred in one direction. As a result, in the image correction process in step S15, correction can be made easier than when correcting an image in which blurring occurs in multiple directions.

(2)本実施形態によれば、減衰待機時間65は減衰時間63より長く設定されている。従って、ステップS14の撮像工程では撮像装置32が撮像待機場所57における振幅の影響は振幅閾値62より小さくすることができる。   (2) According to this embodiment, the attenuation standby time 65 is set longer than the attenuation time 63. Therefore, the influence of the amplitude of the imaging device 32 at the imaging standby place 57 can be made smaller than the amplitude threshold 62 in the imaging process of step S14.

(3)本実施形態によれば、ステップS12の振動状態推定工程にて推定した振動状態の情報を用いて補正フィルタ71のパターンを選定している。そして、その補正フィルタ71を用いて撮影画像67を補正するので、品質良く補正することができる。   (3) According to the present embodiment, the pattern of the correction filter 71 is selected using the vibration state information estimated in the vibration state estimation step of step S12. And since the picked-up image 67 is correct | amended using the correction filter 71, it can correct | amend with sufficient quality.

(4)本実施形態によれば、撮像待機場所57においてステップS12の振動状態推定工程にて撮像装置32の速度及び加速度から振動状態を推定している。従って、ステップS14の撮像工程の前に振動状態推定工程を行っている。振動状態推定工程の実施する間にも撮像装置の振動は減衰するので、撮像工程の後に振動状態推定工程を行う場合に比べて、ブレぼけの少ない画像を撮像することができる。   (4) According to the present embodiment, the vibration state is estimated from the speed and acceleration of the imaging device 32 in the vibration state estimation step of Step S12 at the imaging standby place 57. Therefore, the vibration state estimation process is performed before the imaging process of step S14. Since the vibration of the imaging device is also attenuated during the execution of the vibration state estimation step, it is possible to capture an image with less blur compared to the case where the vibration state estimation step is performed after the imaging step.

(5)本実施形態によれば、撮像装置32が撮像待機場所57に移動するときの速度または加速度の推移を用いて振動状態を推定している。従って、撮像装置32の振動、速度及び加速度等を検出する装置を用いる必要がない。従って、簡便な装置構成にて振動の補正をすることができる。   (5) According to the present embodiment, the vibration state is estimated using the transition of speed or acceleration when the imaging device 32 moves to the imaging standby place 57. Therefore, it is not necessary to use a device that detects vibration, speed, acceleration, and the like of the imaging device 32. Therefore, vibration can be corrected with a simple apparatus configuration.

(6)本実施形態によれば、移動前場所56から直線移動して撮像待機場所57に移動する。従って、短い移動距離で撮像待機場所57に到達することができる。   (6) According to the present embodiment, the image is moved linearly from the pre-movement location 56 to the imaging standby location 57. Therefore, the imaging standby place 57 can be reached with a short moving distance.

尚、本実施形態は上述した実施形態に限定されるものではなく、種々の変更や改良を加えることも可能である。変形例を以下に述べる。
(変形例1)
前記実施形態では、ロボット制御部49の制御データから速度推移線59及び加速度推移線60を演算したが、速度または加速度を検出しても良い。撮像装置32に速度または加速度検出装置を配置しても良い。検出装置により撮像装置32が撮像待機場所57に位置するときの振動状態を精度良く把握することができる。従って、ステップS14の撮像工程における撮像装置32の振動状態を精度良く推定することができる。
In addition, this embodiment is not limited to embodiment mentioned above, A various change and improvement can also be added. A modification will be described below.
(Modification 1)
In the embodiment, the speed transition line 59 and the acceleration transition line 60 are calculated from the control data of the robot control unit 49, but the speed or acceleration may be detected. A speed or acceleration detection device may be arranged in the imaging device 32. The vibration state when the imaging device 32 is located at the imaging standby place 57 can be accurately grasped by the detection device. Accordingly, it is possible to accurately estimate the vibration state of the imaging device 32 in the imaging step of step S14.

(変形例2)
前記実施形態では、ステップS12の振動状態推定工程にて振動推移線61及び包絡線61aを演算している。このとき、ロボット3の質量分布、ロボット3の各腕及び関節のバネ定数、速度推移線59及び加速度推移線60等の情報を用いて振動演算部50は振動推移線61及び包絡線61aを演算している。演算が複雑になる場合には、実験データを用いても良い。予め、撮像装置32を各種条件にて移動させて、撮像装置32の振幅を実測する。そして、その実験データを記憶する。そして、速度データ、加速度データ条件から振幅を推定しても良い。
(Modification 2)
In the said embodiment, the vibration transition line 61 and the envelope 61a are calculated in the vibration state estimation process of step S12. At this time, the vibration calculation unit 50 calculates the vibration transition line 61 and the envelope 61a using information such as the mass distribution of the robot 3, the spring constant of each arm and joint of the robot 3, the speed transition line 59, and the acceleration transition line 60. is doing. If the computation becomes complicated, experimental data may be used. The amplitude of the imaging device 32 is measured in advance by moving the imaging device 32 under various conditions. Then, the experimental data is stored. Then, the amplitude may be estimated from the speed data and acceleration data conditions.

(変形例3)
前記実施形態では、補正フィルタ71を用いて撮影画像67を補正した。補正方法には他の方法を採用しても良い。例えば、特開2006−279807号公報に開示されている一般逆フィルタ関数や、特開平11−27574号公報に開示されているウィーナーフィルタを採用しても良い。他にも、特開2007−183842号公報に開示されているパラメトリックウイーナフィルタ、制限付最小二乗フィルタ、射影フィルタ等の復元方法を用いることができる。必要とする精度に合わせて補正方法を選択しても良い。
(Modification 3)
In the embodiment, the captured image 67 is corrected using the correction filter 71. Other methods may be adopted as the correction method. For example, a general inverse filter function disclosed in JP-A-2006-279807 or a Wiener filter disclosed in JP-A-11-27574 may be employed. In addition, restoration methods such as a parametric Wiener filter, a restricted least square filter, and a projection filter disclosed in Japanese Patent Application Laid-Open No. 2007-183842 can be used. A correction method may be selected in accordance with the required accuracy.

(変形例4)
前記実施形態では、ロボット3に垂直多関節ロボットを採用したが、ロボットの形態に限定されない。水平多関節ロボット、直交ロボット、パラレルリンクロボット等各種の形態のロボットを採用することができる。
(Modification 4)
In the above embodiment, a vertical articulated robot is adopted as the robot 3, but the robot is not limited to the form. Various types of robots such as a horizontal articulated robot, an orthogonal robot, and a parallel link robot can be employed.

組立装置の構成を示す概略斜視図。The schematic perspective view which shows the structure of an assembly apparatus. 組立装置の電気制御ブロック図。The electric control block diagram of an assembly apparatus. (a)は合体品を示す概略斜視図、(b)は合体品を示す模式平面図、(c)は合体品を示す模式側断面図。(A) is a schematic perspective view which shows a united product, (b) is a schematic plan view which shows a united product, (c) is a schematic sectional side view which shows a united product. 部品の組立工程を示すフローチャート。The flowchart which shows the assembly process of components. 組立作業の作業方法を説明するための模式図。The schematic diagram for demonstrating the work method of an assembly work. 組立作業の作業方法を説明するための模式図。The schematic diagram for demonstrating the work method of an assembly work. 組立作業の作業方法を説明するための模式図。The schematic diagram for demonstrating the work method of an assembly work. 組立作業の作業方法を説明するための模式図。The schematic diagram for demonstrating the work method of an assembly work. 組立作業の作業方法を説明するための模式図。The schematic diagram for demonstrating the work method of an assembly work. 組立作業の作業方法を説明するための模式図。The schematic diagram for demonstrating the work method of an assembly work.

符号の説明Explanation of symbols

9…ワークとしての第1部品、10…ワークとしての第2部品、11…ワークとしての第3部品、32…撮像装置、55…撮像場所としての把持予定場所、57…直線移動開始場所としての撮像待機場所、68…画像。   DESCRIPTION OF SYMBOLS 9 ... 1st part as a workpiece | work, 10 ... 2nd component as a workpiece | work, 11 ... 3rd component as a workpiece | work, 32 ... Imaging device, 55 ... Planned gripping place as an imaging location, 57 ... As a linear movement start location Imaging standby place, 68... Image.

Claims (7)

撮像装置を用いてワークを撮像する撮像方法であって、
前記撮像装置が前記ワークを撮像する撮像場所に接近して停止する第1接近工程と、
前記撮像装置が前記ワークを撮像して画像を形成する撮像工程と、
前記画像を補正する画像補正工程と、を有し、
前記第1接近工程において前記撮像装置は前記ワークに対して直線移動することを特徴とする撮像方法。
An imaging method for imaging a workpiece using an imaging device,
A first approach step in which the imaging device approaches and stops at an imaging location for imaging the workpiece;
An imaging step in which the imaging device images the workpiece to form an image;
An image correction step of correcting the image,
In the first approach step, the imaging device linearly moves with respect to the workpiece.
請求項1に記載の撮像方法であって、
前記撮像するときに前記撮像装置が振動する振動状態を推定する振動状態推定工程を有し、
前記画像補正工程では推定した前記振動状態を用いて前記画像を補正することを特徴とする撮像方法。
The imaging method according to claim 1,
A vibration state estimation step of estimating a vibration state in which the imaging device vibrates when the imaging is performed;
An image pickup method comprising correcting the image using the estimated vibration state in the image correction step.
請求項2に記載の撮像方法であって、
前記直線移動を開始する場所である直線移動開始場所に前記撮像装置が移動する第2接近工程を有し、
前記振動状態推定工程は前記直線移動開始場所における前記撮像装置の運動状態の情報を用いて、前記振動状態を推定することを特徴とする撮像方法。
The imaging method according to claim 2,
A second approach step in which the imaging device moves to a linear movement start location that is a location to start the linear movement;
The imaging method, wherein the vibration state estimation step estimates the vibration state using information on a motion state of the imaging device at the linear movement start location.
請求項3に記載の撮像方法であって、
前記運動状態の情報は前記撮像装置の移動速度の推移情報であることを特徴とする撮像方法。
The imaging method according to claim 3,
The imaging method characterized in that the information on the motion state is transition information of a moving speed of the imaging device.
請求項3に記載の撮像方法であって、
前記運動状態の情報は前記撮像装置の速度または加速度を検出した情報であることを特徴とする撮像方法。
The imaging method according to claim 3,
The motion state information is information obtained by detecting a speed or acceleration of the imaging device.
請求項4または請求項5に記載の撮像方法であって、
前記第1接近工程において前記直線移動開始場所から移動して撮像を開始するまでの時間である減衰待機時間は、前記撮像装置の振動が予め設定した振幅まで減衰する減衰時間より長い時間に設定されていることを特徴とする撮像方法。
The imaging method according to claim 4 or 5, wherein:
In the first approaching step, the attenuation waiting time, which is the time until the imaging starts after moving from the linear movement start location, is set to be longer than the attenuation time in which the vibration of the imaging device attenuates to a preset amplitude. An imaging method characterized by comprising:
請求項6に記載の撮像方法であって、
前記第2接近工程では前記撮像装置が直線移動することを特徴とする撮像方法。
The imaging method according to claim 6, wherein
In the second approaching step, the imaging device moves linearly.
JP2008311840A 2008-12-08 2008-12-08 Image capturing method Withdrawn JP2010134318A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008311840A JP2010134318A (en) 2008-12-08 2008-12-08 Image capturing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008311840A JP2010134318A (en) 2008-12-08 2008-12-08 Image capturing method

Publications (1)

Publication Number Publication Date
JP2010134318A true JP2010134318A (en) 2010-06-17

Family

ID=42345654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008311840A Withdrawn JP2010134318A (en) 2008-12-08 2008-12-08 Image capturing method

Country Status (1)

Country Link
JP (1) JP2010134318A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014157348A1 (en) * 2013-03-26 2014-10-02 凸版印刷株式会社 Image processing device, image processing system, image processing method, and image processing program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014157348A1 (en) * 2013-03-26 2014-10-02 凸版印刷株式会社 Image processing device, image processing system, image processing method, and image processing program
CN105027159A (en) * 2013-03-26 2015-11-04 凸版印刷株式会社 Image processing device, image processing system, image processing method, and image processing program
JPWO2014157348A1 (en) * 2013-03-26 2017-02-16 凸版印刷株式会社 Image processing apparatus, image processing system, image processing method, and image processing program
US10068339B2 (en) 2013-03-26 2018-09-04 Toppan Printing Co., Ltd. Image processing device, image processing system, image processing method and image processing program
CN105027159B (en) * 2013-03-26 2018-10-26 凸版印刷株式会社 Image processing apparatus, image processing system, image processing method and image processing program

Similar Documents

Publication Publication Date Title
US9205563B2 (en) Workpiece takeout system, robot apparatus, and method for producing a to-be-processed material
JP5468366B2 (en) Robot control system and robot control method
JP6741538B2 (en) Robot, robot control device, and robot position teaching method
JP2006035397A (en) Conveyance robot system
JP6741537B2 (en) Robot, robot control device, and robot position teaching method
TW201608665A (en) Die pick-up unit, die bonding apparatus including the same, and method of bonding dies
JP6684792B2 (en) Mounting device, imaging processing method, and imaging unit
WO2020178887A1 (en) Working machine
JP6712260B2 (en) Mounting device, imaging processing method, and imaging unit
JP2010134318A (en) Image capturing method
WO2018147016A1 (en) Conveyance system
KR20120097332A (en) Component mounting device
WO2018173137A1 (en) Component mounting machine and nozzle height control method
JP6767613B2 (en) Component mounting device and component mounting method
JP2011104733A (en) Robot
CN112566758A (en) Robot control device, robot control method, and robot control program
JP2010162630A (en) Imaging method, and method and apparatus for picking
JP2013236011A (en) Component mounting device
JP2023085716A (en) Component scattering device, control method of the same, and pickup system
JP6093481B2 (en) Substrate processing equipment
JPWO2019016948A1 (en) Parts supply device and work system
JP6242478B2 (en) Component mounting device
CN115803584A (en) Image pickup apparatus for acquiring three-dimensional information of workpiece surface and two-dimensional image of workpiece
JP2010264560A (en) Method for preventing interference of robot
JP4734147B2 (en) Chip component transfer method and chip component transfer apparatus

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120306