JP2010263273A - Robot system and method of controlling the same - Google Patents

Robot system and method of controlling the same Download PDF

Info

Publication number
JP2010263273A
JP2010263273A JP2009110467A JP2009110467A JP2010263273A JP 2010263273 A JP2010263273 A JP 2010263273A JP 2009110467 A JP2009110467 A JP 2009110467A JP 2009110467 A JP2009110467 A JP 2009110467A JP 2010263273 A JP2010263273 A JP 2010263273A
Authority
JP
Japan
Prior art keywords
image
marker
workpiece
deteriorated
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009110467A
Other languages
Japanese (ja)
Inventor
Hajime Onishi
一 大西
Mitsuhiro Inazumi
満広 稲積
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2009110467A priority Critical patent/JP2010263273A/en
Publication of JP2010263273A publication Critical patent/JP2010263273A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot system for precisely detecting the position of a workpiece from blur images obtained by imaging the workpiece. <P>SOLUTION: The robot system includes: a robot 10 that works on a workpiece W, a stage 72 that places the workpiece W and has a marker 74 emitting light of a plurality of wavelengths, and an imaging apparatus 20 for capturing the image of the workpiece W and that of the marker 74 as the same image. The robot system also includes: a point diffusion function calculation section 35 for extracting a trajectory image 100 of the marker 74 from a deteriorated image B including a motion blur captured by the imaging apparatus 20 to calculate a point diffusion function from the trajectory image 100; an image generation section 37 for generating a non-deteriorated original image from the deteriorated image B by converting the deteriorated image B by the calculated point diffusion function; and a position calculation section 39 for calculating a position of the workpiece W from the generated original image. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、作業対象物に対して作業を実施するロボットシステムおよびロボットシステムの制御方法に関する。   The present invention relates to a robot system that performs work on a work target and a method for controlling the robot system.

各種生産現場において、作業の自動化や省力化のため産業用ロボットが多用されている。このような産業用ロボットは、カメラなどの撮像機器を備え作業対象物を撮像し、撮像された画像を画像処理して作業対象物の位置を検出する。作業対象物と撮像機器とが相対的に動いている場合は、撮像された画像に動きボケが発生する。近年、産業用ロボットによる作業の高速化や高度化に伴い、高精度な位置決めが求められている。そのため、撮影された画像における動きボケの補正が重要になっている。   In various production sites, industrial robots are frequently used for work automation and labor saving. Such an industrial robot includes an imaging device such as a camera to capture an image of a work target, and performs image processing on the captured image to detect the position of the work target. When the work object and the imaging device are moving relatively, motion blur occurs in the captured image. In recent years, high-accuracy positioning has been demanded along with the speeding up and sophistication of work by industrial robots. Therefore, it is important to correct the motion blur in the captured image.

このような動きボケの補正方法としては、どのようにボケているかを推定し、画像に対してその逆特性を演算することにより、ボケていない画像を復元する方法がある。その方法の例として、撮像機器の動きに関する情報を撮像機器に設けられた角速度センサーで検出し、検出した情報に基づいて動きによるボケの特性を示す点拡散関数(PSF:Point Spread Function)を求める。そして、この点拡散関数を用いてフーリエ変換、逆フーリエ変換などの演算処理を行いボケ補正、すなわち、ボケ画像から元画像を復元する方法が知られている(例えば、特許文献1および特許文献2参照)。   As such a motion blur correction method, there is a method of restoring a non-blurred image by estimating how the blur is occurring and calculating an inverse characteristic of the image. As an example of the method, information related to the movement of the imaging device is detected by an angular velocity sensor provided in the imaging device, and a point spread function (PSF: Point Spread Function) indicating characteristics of blur due to the motion is obtained based on the detected information. . A method of performing blur correction, that is, a method of restoring an original image from a blurred image by performing arithmetic processing such as Fourier transform and inverse Fourier transform using this point spread function is known (for example, Patent Document 1 and Patent Document 2). reference).

特開2008−118644号公報JP 2008-118644 A 特開2008−11424号公報JP 2008-11424 A

上述の方法において、角速度センサーは産業用ロボットの移動部(撮像機器)に設置されているため、作業環境や作業内容によっては、温度変動や角速度変化が大きくなり、角速度センサーから出力される情報の信頼性や精度が低下する虞がある。また、点拡散関数を精度良く求めるためには、撮像機器の撮像タイミングと角速度センサーからの信号出力とを同期させる必要がある。しかし、そのためには制御が複雑になり多くのコストや手間が必要となってしまうという課題があった。また、撮像機器の動きのみしか検出できないため、作業対象物が動いている場合は、作業対象物の動きによるボケの特性が、求められる点拡散関数に十分反映されないという課題があった。   In the above method, since the angular velocity sensor is installed in the moving part (imaging device) of the industrial robot, depending on the work environment and the work content, the temperature fluctuation and the angular velocity change become large, and the information output from the angular velocity sensor Reliability and accuracy may be reduced. Further, in order to obtain the point spread function with high accuracy, it is necessary to synchronize the imaging timing of the imaging device and the signal output from the angular velocity sensor. However, for this purpose, there is a problem that the control becomes complicated and a lot of cost and labor are required. Further, since only the movement of the imaging device can be detected, there is a problem that when the work object is moving, the blur characteristic due to the movement of the work object is not sufficiently reflected in the required point diffusion function.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態または適用例として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.

(適用例1)作業対象物に対して作業を実施するロボットと、前記作業対象物を載置するとともに、複数の波長の光を放出するマーカーを備えたステージと、前記作業対象物と前記マーカーとを同一画像として撮像する撮像装置と、を備え、前記撮像装置により撮像された動きボケを含む劣化画像から前記マーカーの軌跡画像を抽出して、前記軌跡画像から点拡散関数を算出する点拡散関数算出部と、算出した前記点拡散関数を用いて、前記劣化画像を画像変換することにより、前記劣化画像から劣化していない元画像を生成する画像生成部と、生成された前記元画像から前記作業対象物の位置を算出する位置算出部と、を有することを特徴とするロボットシステム。   (Application Example 1) A robot that performs work on a work object, a stage on which the work object is placed and a marker that emits light of a plurality of wavelengths, the work object, and the marker A point diffusion that extracts a locus image of the marker from a deteriorated image including motion blur imaged by the imaging device, and calculates a point diffusion function from the locus image. From the function calculation unit, an image generation unit that generates an original image that has not deteriorated from the deteriorated image by converting the deteriorated image using the calculated point diffusion function, and the generated original image And a position calculation unit for calculating a position of the work object.

この構成によれば、作業対象物が載置されるステージに複数の波長の光、すなわち異なった色の光を放出するマーカーが設けられている。そして、撮像装置により撮像された作業対象物の劣化画像、いわゆるボケ画像は、そのマーカーの軌跡画像を含んでいる。マーカーの軌跡画像は異なった色からなる連続した軌跡から構成されるため、軌跡画像全体からボケを発生させた動きの方向など点拡散関数の構成要素を容易に取得することができる。そのため、点拡散関数を精度良く算出することができる。そして、算出された点拡散関数を用いてボケ画像からボケていない元画像を生成することができ、生成された元画像から、作業対象物の位置を算出することができる。すなわち、角速度センサー等を用いず、簡単な構成および制御で作業対象物の位置を容易に算出できるロボットシステムを提供することができる。また、作業対象物が載置されるステージと撮像装置の相対的な動きを直接拾うため、作業対象物の相対的な動きによるボケの特性を点拡散関数に十分反映することができる。   According to this structure, the marker which discharge | releases the light of several wavelengths, ie, the light of a different color, is provided in the stage in which a work target object is mounted. The degraded image of the work object imaged by the imaging device, that is, the so-called blurred image includes the locus image of the marker. Since the marker trajectory image is composed of continuous trajectories of different colors, the constituent elements of the point diffusion function such as the direction of motion that causes blurring can be easily obtained from the entire trajectory image. Therefore, the point spread function can be calculated with high accuracy. Then, an unblurred original image can be generated from the blurred image using the calculated point spread function, and the position of the work object can be calculated from the generated original image. That is, it is possible to provide a robot system that can easily calculate the position of a work object with a simple configuration and control without using an angular velocity sensor or the like. In addition, since the relative movement between the stage on which the work object is placed and the imaging apparatus is directly picked up, the blur characteristics due to the relative movement of the work object can be sufficiently reflected in the point spread function.

(適用例2)前記マーカーは、異なった波長の光を特定の周期で順次放出することを特徴とする上記のロボットシステム。   (Application Example 2) The robot system as described above, wherein the marker sequentially emits light of different wavelengths at a specific period.

(適用例3)前記マーカーは、少なくとも、3種類の異なった波長の光を放出することを特徴とする上記のロボットシステム。   (Application Example 3) The robot system described above, wherein the marker emits light of at least three different wavelengths.

この構成によれば、得られるマーカーの軌跡画像は、異なった3色が順番に並ぶ帯状の軌跡画像となる。そのため、軌跡画像を構成する色の並び順から移動の方向(始点および終点)を知ることができる。また、特定の周期で色が変化することから、軌跡画像を構成する各色の長さから、その色が発光しているときの平均速度を知ることができる。また、各色の平均速度を比較することにより、速度変化を知ることもできる。   According to this configuration, the obtained marker trajectory image is a strip-shaped trajectory image in which three different colors are arranged in order. Therefore, it is possible to know the direction of movement (start point and end point) from the arrangement order of the colors constituting the trajectory image. In addition, since the color changes at a specific cycle, the average speed when the color is emitting can be known from the length of each color constituting the trajectory image. In addition, it is possible to know the speed change by comparing the average speed of each color.

(適用例4)前記マーカーは、前記ステージ上に複数設けられていることを特徴とする上記のロボットシステム。   (Application Example 4) The robot system as described above, wherein a plurality of the markers are provided on the stage.

この構成によれば、軌跡画像を解析することにより、ステージの相対的な回転や移動等をより正確に知ることができる。   According to this configuration, the relative rotation or movement of the stage can be known more accurately by analyzing the trajectory image.

(適用例5)複数の前記マーカーは、ある時点においてそれぞれ異なった波長の光を放出していることを特徴とする上記のロボットシステム。   (Application Example 5) The robot system as described above, wherein the plurality of markers emit light having different wavelengths at a certain point in time.

この構成によれば、ボケ画像に撮像されているマーカーを特定することができる。   According to this configuration, it is possible to specify the marker imaged in the blurred image.

(適用例6)作業対象物に対して作業を施すロボットシステムの制御方法であって、複数の波長の光を放出するマーカーを備えたステージに載置される前記作業対象物を、撮像装置により前記マーカーとともに撮像する撮像工程と、前記撮像装置により撮像された動きボケを含む劣化画像から前記マーカーの軌跡画像を抽出して、前記軌跡画像から点拡散関数を算出する点拡散関数算出工程と、算出した前記点拡散関数を用いて、前記劣化画像を画像変換することにより、前記劣化画像から劣化していない元画像を生成する画像生成工程と、生成された前記元画像から前記作業対象物の位置を算出する位置算出工程と、を有することを特徴とするロボットシステムの制御方法。   (Application example 6) A method for controlling a robot system that performs work on a work object, wherein the work object placed on a stage having a marker that emits light of a plurality of wavelengths is captured by an imaging device An imaging step of taking an image together with the marker, a point diffusion function calculating step of extracting a locus image of the marker from a deteriorated image including motion blur imaged by the imaging device, and calculating a point diffusion function from the locus image; An image generation step for generating an original image that is not deteriorated from the deteriorated image by performing image conversion on the deteriorated image using the calculated point spread function, and the work object from the generated original image And a position calculating step for calculating a position.

この方法によれば、作業対象物が載置されるステージに複数の波長の光、すなわち異なった色の光を放出するマーカーが設けられているため、撮像装置により撮像された作業対象物の劣化画像、いわゆるボケ画像は、そのマーカーの軌跡画像を含むことができる。マーカーの軌跡画像は異なった色からなる連続した軌跡から構成されるため、軌跡画像全体からボケを発生させた動きの方向など点拡散関数の構成要素を容易に取得することができる。そのため、点拡散関数を精度良く算出することができる。そして、算出された点拡散関数を用いてボケ画像からボケていない元画像を生成することができ、生成された元画像から、作業対象物の位置を容易に算出することができる。すなわち、角速度センサー等を用いず、簡単な方法で作業対象物の位置を算出できる。また、作業対象物が載置されるステージと撮像装置の相対的な動きを直接拾うため、作業対象物の相対的な動きによるボケの特性を点拡散関数に十分反映することができる。   According to this method, since the stage on which the work object is placed is provided with a marker that emits light of a plurality of wavelengths, that is, light of different colors, the work object imaged by the imaging device is deteriorated. An image, a so-called blurred image, can include a trajectory image of the marker. Since the marker trajectory image is composed of continuous trajectories of different colors, the constituent elements of the point diffusion function such as the direction of motion that causes blurring can be easily obtained from the entire trajectory image. Therefore, the point spread function can be calculated with high accuracy. Then, an unblurred original image can be generated from the blurred image using the calculated point spread function, and the position of the work object can be easily calculated from the generated original image. That is, the position of the work object can be calculated by a simple method without using an angular velocity sensor or the like. In addition, since the relative movement between the stage on which the work object is placed and the imaging device is directly picked up, the blur characteristics due to the relative movement of the work object can be sufficiently reflected in the point spread function.

ロボットシステムの構成例を示す図。The figure which shows the structural example of a robot system. 作業対象物であるワークが載置されるステージを説明する図。The figure explaining the stage in which the workpiece | work which is a work target object is mounted. ワークの位置検出方法の流れを示すフローチャート。The flowchart which shows the flow of the position detection method of a workpiece | work. カメラで撮像されたワークの画像を示す図。The figure which shows the image of the workpiece | work imaged with the camera. 第2実施例のステージを説明する図。The figure explaining the stage of 2nd Example. 第2実施例にかかるワークの画像を示す図。The figure which shows the image of the workpiece | work concerning 2nd Example. 第1変形例を説明する図。The figure explaining a 1st modification. 第2変形例を説明する図。The figure explaining a 2nd modification.

本実施例のロボットシステムについて、図1および図2を参照して説明する。図1は、ロボットシステムの構成例を示す図であり、図2は作業対象物であるワークが載置されるステージを説明する図である。   The robot system of the present embodiment will be described with reference to FIGS. FIG. 1 is a diagram illustrating a configuration example of a robot system, and FIG. 2 is a diagram illustrating a stage on which a work, which is a work target, is placed.

(ロボットシステムの構成について)
(第1実施例)
図1に示すように、ロボットシステム5は、ロボット10と、作業対象物であるワークWを載置し搬送するワーク載置部70と、制御部50とを備える。ロボット10は、いわゆる多関節型ロボットであり、ベース25と、アーム17A,17Bと、ロボットハンド19を含む手首部18と、それぞれを回動自在に支持する関節部である第1軸12と第2軸14と第3軸16と、撮像装置としてのカメラ20とから構成されている。
(Robot system configuration)
(First embodiment)
As shown in FIG. 1, the robot system 5 includes a robot 10, a workpiece placement unit 70 that places and transports a workpiece W that is a work target, and a control unit 50. The robot 10 is a so-called articulated robot, and includes a base 25, arms 17A and 17B, a wrist portion 18 including a robot hand 19, and a first shaft 12 and a first shaft 12 which are joint portions that rotatably support each. It is comprised from the 2 axis | shaft 14, the 3rd axis | shaft 16, and the camera 20 as an imaging device.

ロボット10は、設置面にベース25により設置される。ベース25は、第1回転軸11を備え、ベース25より上方のロボット10本体を設置面との鉛直軸を中心に回転させることができる。ベース25には、第1軸12を介してアーム17Aが回動自在に取り付けられている。アーム17Aは、第2回転軸13を備え、アーム17A自身が軸方向に回転することができる。アーム17Aには、第2軸14を介してアーム17Bが回動自在に取り付けられている。アーム17Bは、第3回転軸15を備え、アーム17B自身が軸方向に回転することができる。アーム17Bには、第3軸16を介して手首部18が回動自在に取り付けられている。   The robot 10 is installed on the installation surface by the base 25. The base 25 includes the first rotation shaft 11 and can rotate the main body of the robot 10 above the base 25 about a vertical axis with respect to the installation surface. An arm 17 </ b> A is rotatably attached to the base 25 via the first shaft 12. The arm 17A includes a second rotating shaft 13, and the arm 17A itself can rotate in the axial direction. An arm 17B is rotatably attached to the arm 17A via the second shaft 14. The arm 17B includes a third rotating shaft 15, and the arm 17B itself can rotate in the axial direction. A wrist 18 is rotatably attached to the arm 17B via a third shaft 16.

手首部18の先端にはロボットハンド19が設けられ、ワークWに対して作業を実施する。また、手首部18の先端部にはカメラ20が装着されている。カメラ20は、いわばロボット10の眼として機能するものであり、例えば、CCDのような撮像素子によりロボットハンド19が作業する方向を撮像する。   A robot hand 19 is provided at the tip of the wrist 18 and performs work on the workpiece W. A camera 20 is attached to the tip of the wrist 18. The camera 20 functions as an eye of the robot 10 so to speak, and for example, images the direction in which the robot hand 19 is working by an image pickup device such as a CCD.

これらの第1〜3軸12,14,16、第1〜3回転軸11,13,15およびロボットハンド19は、図示しないモーターや空圧機器等により操作される複数の図示しないアクチュエーターの駆動により、回動するように構成されている。複数のアクチュエーターは、制御部50からケーブル85を介して送られる制御信号に基づいて駆動される。また、カメラ20は所定の露光時間でワークW等を撮像し、撮像した画像信号はケーブル86を介して制御部50に送られる。   The first to third shafts 12, 14, 16, the first to third rotating shafts 11, 13, 15 and the robot hand 19 are driven by a plurality of actuators (not shown) operated by a motor (not shown) or pneumatic equipment. , Configured to rotate. The plurality of actuators are driven based on a control signal sent from the control unit 50 via the cable 85. In addition, the camera 20 images the workpiece W and the like with a predetermined exposure time, and the captured image signal is sent to the control unit 50 via the cable 86.

ワーク載置部70は、ワークWを載置するステージ72を有する。ステージ72では、ロボット10によるワークWに対する作業が実施される。ステージ72は、ワークWが載置されるステージ面72aを有し、ステージ面72aは、複数の波長の光を放出するマーカー74を1つ以上備えている。このマーカー74の詳細については後述する。ワークWは、例えば、図示しないベルトコンベアで搬送されワーク載置部70のステージ72に搬入され、ロボット10による作業が実施された後、次のワーク載置部70もしくは次の工程に搬出される。なお、ワーク載置部70そのものがベルトコンベアにより搬送されてもよい。   The work placing unit 70 includes a stage 72 on which the work W is placed. In stage 72, the robot 10 performs an operation on the workpiece W. The stage 72 has a stage surface 72a on which the workpiece W is placed, and the stage surface 72a includes one or more markers 74 that emit light having a plurality of wavelengths. Details of the marker 74 will be described later. For example, the work W is transported by a belt conveyor (not shown), is carried into the stage 72 of the work placing unit 70, and after the work by the robot 10 is performed, it is carried out to the next work placing unit 70 or the next process. . The workpiece placement unit 70 itself may be conveyed by a belt conveyor.

制御部50は、少なくとも、画像処理装置30と、ロボット動作制御部40と、マーク生成部45と、コンピューター60とから構成されている。画像処理装置30は、少なくとも、画像入力部32と、位置情報取得部34とから構成され、ロボット10のカメラ20で撮像され、画像入力部32を介して入力されたワークWとマーカー74とを含む画像を処理してワークWの位置情報を取得する。位置情報取得部34は、点拡散関数算出部35と、画像生成部37と、位置算出部39とを備え、種々の演算処理を行いワークWの位置情報を取得する。位置情報取得部34の動作については後述する。   The control unit 50 includes at least an image processing device 30, a robot operation control unit 40, a mark generation unit 45, and a computer 60. The image processing apparatus 30 includes at least an image input unit 32 and a position information acquisition unit 34. The image processing device 30 captures a workpiece W and a marker 74 that are captured by the camera 20 of the robot 10 and input via the image input unit 32. The position information of the workpiece W is acquired by processing the included image. The position information acquisition unit 34 includes a point spread function calculation unit 35, an image generation unit 37, and a position calculation unit 39, performs various arithmetic processes, and acquires the position information of the workpiece W. The operation of the position information acquisition unit 34 will be described later.

ロボット動作制御部40は、コンピューター60の指令に基づいて上述のロボット10の動作を制御する。マーク生成部45は、ワークWが載置されるステージ面72aに設けられたマーカー74を制御して複数の波長の光を放出させる。コンピューター60は、中央処理装置として機能し、図示しないCPU、RAM、ROM、HDD、シーケンサーおよびロボットコントローラー等からなるハードウェア資源と、ROMやHDD等に記憶された種々のソフトウェアとを有機的に協働させることにより、ロボット10、画像処理装置30、およびマーク生成部45等を総括的に制御する。   The robot operation control unit 40 controls the operation of the robot 10 described above based on a command from the computer 60. The mark generating unit 45 controls the marker 74 provided on the stage surface 72a on which the workpiece W is placed, and emits light having a plurality of wavelengths. The computer 60 functions as a central processing unit, and organically cooperates hardware resources such as a CPU, RAM, ROM, HDD, sequencer, and robot controller (not shown) with various software stored in the ROM, HDD, and the like. By operating, the robot 10, the image processing device 30, the mark generation unit 45, and the like are collectively controlled.

ここで、本実施例のステージ72と、ステージ72に設けられるマーカー74について説明する。図2(a)に示すように、ステージ72は矩形形状に形成され、例えばステージ面72aの1つのコーナー付近にマーカー74が設けられている。なお、本実施例では説明を簡便にするため、マーカー74が1つ設けられている場合について説明するが、マーカー74の数はこれに限定されない。マーカー74の数は複数でもよい。   Here, the stage 72 of this embodiment and the marker 74 provided on the stage 72 will be described. As shown in FIG. 2A, the stage 72 is formed in a rectangular shape. For example, a marker 74 is provided near one corner of the stage surface 72a. In the present embodiment, the case where one marker 74 is provided will be described for the sake of simplicity, but the number of markers 74 is not limited to this. A plurality of markers 74 may be provided.

マーカー74は、発光部75からなる。発光部75は、図2(b)に示すように、赤色の光源76R、緑色の光源76Gおよび青色の光源76Bと、光ファイバー77と、レンズ78とから構成されている。赤色の光源76R、緑色の光源76Gおよび青色の光源76Bは、例えば赤、緑および青のLED(発光ダイオード)で構成されている。光ファイバー77は、多数のファイバーから構成され、集光部77aが3つに分岐され光放出部77bが1つにまとまっている。3つに分岐された集光部77aは、それぞれ、赤色の光源76R、緑色の光源76Gおよび青色の光源76Bに対向している。光放出部77bは、ステージ72のステージ面72aに設けられたレンズ78に対向している。   The marker 74 includes a light emitting unit 75. The light emitting unit 75 includes a red light source 76R, a green light source 76G and a blue light source 76B, an optical fiber 77, and a lens 78, as shown in FIG. The red light source 76R, the green light source 76G, and the blue light source 76B are configured by, for example, red, green, and blue LEDs (light emitting diodes). The optical fiber 77 is composed of a large number of fibers, the light collecting portion 77a is branched into three, and the light emitting portion 77b is combined into one. The three light collecting portions 77a branched to face the red light source 76R, the green light source 76G, and the blue light source 76B, respectively. The light emitting portion 77 b faces the lens 78 provided on the stage surface 72 a of the stage 72.

このような構造を有しているため、赤色の光源76R、緑色の光源76Gおよび青色の光源76Bで発光した光は、光ファイバー77の集光部77aでそれぞれ集光され、光放出部77bからレンズ78を介して発光部75、すなわちマーカー74から放出される。   Since it has such a structure, the light emitted from the red light source 76R, the green light source 76G, and the blue light source 76B is condensed by the condensing unit 77a of the optical fiber 77, and the light is emitted from the light emitting unit 77b to the lens. The light is emitted from the light emitting unit 75, that is, the marker 74 through 78.

これら赤色の光源76R、緑色の光源76Gおよび青色の光源76Bは、図1に示す制御部50のマーク生成部45から出力される図2(c)に示す制御信号Cにより発光する。図2(c)に示すタイミングチャートのように、赤色の光源76Rは、時間t0で発光を開始して時間t1まで発光を続ける。次いで、緑色の光源76Gは、時間t1で発光を開始して時間t2まで発光を続ける。次いで、青色の光源76Bは、時間t2で発光を開始して時間t3まで発光を続ける。その後、制御信号Cに従ってこの動作を繰り返す。   The red light source 76R, the green light source 76G, and the blue light source 76B emit light according to the control signal C shown in FIG. 2C output from the mark generation unit 45 of the control unit 50 shown in FIG. As shown in the timing chart of FIG. 2C, the red light source 76R starts emitting at time t0 and continues emitting until time t1. Next, the green light source 76G starts light emission at time t1, and continues to emit light until time t2. Next, the blue light source 76B starts to emit light at time t2 and continues to emit light until time t3. Thereafter, this operation is repeated according to the control signal C.

すなわち、マーカー74は、図2(c)に示す周期taで赤色、緑色、青色の順に発光する。換言すると、マーカー74は、異なる波長の光を特定の周期taで連続的に放出することができる。なお、図2(c)に示す周期TA,taは、マーク生成部45から出力される制御信号Cの設定により変更することができる。   That is, the marker 74 emits light in the order of red, green, and blue in the period ta shown in FIG. In other words, the marker 74 can continuously emit light having different wavelengths at a specific period ta. Note that the periods TA and ta shown in FIG. 2C can be changed by setting the control signal C output from the mark generation unit 45.

なお、ステージ72に載置されるワークWは、図2(a)に示すように、例えば、長方形の板状に形成され、平面部には3つの貫通穴が設けられている。ワークWは、ステージ面72aに設けられたマーカー74を避けて載置されることが好ましい。   The workpiece W placed on the stage 72 is formed in, for example, a rectangular plate shape as shown in FIG. 2A, and three through holes are provided in the plane portion. The workpiece W is preferably placed avoiding the marker 74 provided on the stage surface 72a.

(ロボットシステムにおける作業について)
上述のロボットシステム5を用いた作業について、おなじく図1および図2を参照して説明する。ロボットシステム5のロボット10は、図示しないベルトコンベアによりステージ72に搬送されたワークWに対して、作業を実施する。本実施例では、生産効率向上、設備の汎用化および簡素化のため、ワークWの整列装置や位置決め装置を設けていないため、ワークWは、ランダムな姿勢で搬送され、それぞれに固有の作業が実施される。そのため、ロボット10は、作業を実施するワークWの位置や姿勢を検出する必要がある。従って、ロボット10は、図1に示すカメラ20を用いて、ステージ72に載置されるワークWを撮像してワークWの位置検出を行う。
(About work in robot systems)
An operation using the above-described robot system 5 will be described with reference to FIGS. 1 and 2. The robot 10 of the robot system 5 performs work on the workpiece W transferred to the stage 72 by a belt conveyor (not shown). In the present embodiment, in order to improve the production efficiency and to generalize and simplify the equipment, since the work W alignment device and the positioning device are not provided, the work W is transported in a random posture, and each work is unique. To be implemented. Therefore, the robot 10 needs to detect the position and orientation of the workpiece W that performs the work. Accordingly, the robot 10 detects the position of the workpiece W by imaging the workpiece W placed on the stage 72 using the camera 20 shown in FIG.

例えば、図2(a)に示すようなレイアウトで、ワークWがステージ72上に置かれたとする。ワークWの位置を検出するため、ロボット10の手首部18の先端部に設けられたカメラ20を用いて、ステージ72上のワークWを撮像する。このとき、ロボット10の手首部18の動きを静止させるか、ワークWを静止させることが好ましい。ところが、このような方法では作業や移動動作が中断されてしまい、作業効率が著しく低下する。そのため、一般には、双方が移動動作を行っている状態で撮像する。また、カメラ20は、所定の露光時間に渡りシャッターを開放して撮像する。   For example, it is assumed that the workpiece W is placed on the stage 72 in a layout as shown in FIG. In order to detect the position of the work W, the work W on the stage 72 is imaged using the camera 20 provided at the tip of the wrist 18 of the robot 10. At this time, it is preferable that the movement of the wrist portion 18 of the robot 10 is stopped or the workpiece W is stopped. However, in such a method, work and moving operations are interrupted, and work efficiency is significantly reduced. Therefore, in general, imaging is performed in a state where both are moving. In addition, the camera 20 captures an image by opening the shutter over a predetermined exposure time.

その結果、撮像されたワークWの画像は、動きボケを含んだ、いわゆるボケ画像Bとなってしまう場合が多く、そのままでは、ワークWの位置を検出することができない。そのため、何らかの画像処理が必要である。画像処理方法として、例えばボケ画像がどのようにボケているかを推定し、ボケ画像に対してその逆特性を演算することにより、ボケていない元画像を復元する方法がある。   As a result, the captured image of the workpiece W often becomes a so-called blurred image B including motion blur, and the position of the workpiece W cannot be detected as it is. Therefore, some image processing is necessary. As an image processing method, for example, there is a method of restoring a non-blurred original image by estimating how the blurred image is blurred and calculating the inverse characteristic of the blurred image.

(ワークの位置検出方法について)
ここで、画像がどのようにボケているのかを表すパラメーターとして点拡散関数を用いたワークの位置検出方法について、図3および図4を参照して説明する。図3は、ワークの位置検出方法の流れを示すフローチャートであり、図4は、カメラで撮像されたワークの画像を示す図である。
(About workpiece position detection method)
Here, a workpiece position detection method using a point diffusion function as a parameter representing how the image is blurred will be described with reference to FIGS. FIG. 3 is a flowchart showing the flow of the workpiece position detection method, and FIG. 4 is a diagram showing an image of the workpiece captured by the camera.

図3に示すように、この位置検出方法は、ワーク搬入工程S11と、マーカー&ワーク撮像工程S12と、画像入力工程S13と、点拡散関数算出工程S14と、画像生成工程S15と、ワーク位置算出工程S16と、を有する。
ワーク搬入工程S11では、図1に示すロボットシステム5において、ワークWが、ベルトコンベア等で搬送されワーク載置部70のステージ72に供給される。このときワークWは、ランダムな姿勢で供給されるため、ワークWが現在どのような姿勢をなしているか分からない。そこで、次の工程に進む。
As shown in FIG. 3, this position detection method includes a workpiece carry-in step S11, a marker & workpiece imaging step S12, an image input step S13, a point diffusion function calculation step S14, an image generation step S15, and a workpiece position calculation. Step S16.
In the workpiece carrying-in process S11, the workpiece W is conveyed by a belt conveyor or the like and supplied to the stage 72 of the workpiece placing unit 70 in the robot system 5 shown in FIG. At this time, since the workpiece W is supplied in a random posture, it is not known what posture the workpiece W is currently in. Therefore, the process proceeds to the next step.

マーカー&ワーク撮像工程S12では、図1に示すカメラ20を用いて、ステージ72に載置されるワークWを撮像する。このとき、ワークWが載置されるステージ面72aに設けられているマーカー74も同一視野内に入るように撮像する。しかしながら、カメラ20およびワークW(ステージ72)は相対的に運動している状態であるため、撮像される画像は、動きボケを含んだいわゆるボケ画像Bとなってしまう。   In the marker and workpiece imaging step S12, the workpiece W placed on the stage 72 is imaged using the camera 20 shown in FIG. At this time, imaging is performed so that the marker 74 provided on the stage surface 72a on which the workpiece W is placed also falls within the same visual field. However, since the camera 20 and the workpiece W (stage 72) are in a relatively moving state, an image to be captured becomes a so-called blurred image B including motion blur.

図4(a)に示すように、ボケ画像Bは、動きボケを含んだワークWの画像Bwと、マーカー74の軌跡画像100とを含む。前述のようにマーカー74は、図2(c)に示す周期taで赤色、緑色、青色の順に発光するため、軌跡画像100は、図4(b)に示すように、赤色の帯状の軌跡画像100rと、緑色の帯状の軌跡画像100gと、青色の帯状の軌跡画像100bとからなっている。本実施例では、赤色の軌跡画像100rと緑色の軌跡画像100gと青色の軌跡画像100bとは、それぞれの帯状部の長さLr,Lg,Lbが異なる。   As shown in FIG. 4A, the blurred image B includes an image Bw of the work W including motion blur and a trajectory image 100 of the marker 74. As described above, since the marker 74 emits light in the order of red, green, and blue in the period ta shown in FIG. 2C, the trajectory image 100 is a red belt-like trajectory image as shown in FIG. 4B. 100r, a green belt-like locus image 100g, and a blue belt-like locus image 100b. In the present embodiment, the red locus image 100r, the green locus image 100g, and the blue locus image 100b have different lengths Lr, Lg, and Lb of the belt-like portions.

図3に示す画像入力工程S13では、カメラ20によって撮像された軌跡画像100を含むボケ画像Bを、画像信号として、図1に示す制御部50の画像処理装置30の画像入力部32に取り込む。取り込まれたボケ画像Bは、位置情報取得部34に送られる。   In the image input step S13 illustrated in FIG. 3, the blurred image B including the trajectory image 100 captured by the camera 20 is captured as an image signal into the image input unit 32 of the image processing device 30 of the control unit 50 illustrated in FIG. The captured blur image B is sent to the position information acquisition unit 34.

図3に示す点拡散関数算出工程S14では、ボケ画像Bから軌跡画像100を抽出して点拡散関数を算出する。この点拡散関数の算出方法は、特に限定しない。公知の算出方法を適用すればよい。なお、軌跡画像100は、点拡散関数の空間移動分の情報、すなわち、ボケの軌跡と、軌跡の速度とをデータとして持つ。この場合、マーカー74は、略等しい間隔(周期ta)で赤色、緑色、青色の順に連続発光する。そのため、軌跡画像100の各色の並び順番から移動の方向(始点および終点)を知ることができる。また、軌跡画像100全体より動きベクトル(ボケを発生させた動き方向)を知ることができる。さらには、各色の軌跡画像100r,100g,100bは所定の露光時間で撮像されているため、軌跡画像100r,100g,100bの長さLr,Lg,Lbから、赤色の光源76R、緑色の光源76Gおよび青色の光源76Bを撮像したときのカメラ20とマーカー74との相対移動速度vの関係を知ることができる。   In the point spread function calculating step S14 shown in FIG. 3, the locus image 100 is extracted from the blurred image B and the point spread function is calculated. The method for calculating the point spread function is not particularly limited. A known calculation method may be applied. Note that the trajectory image 100 has information on the spatial movement of the point spread function, that is, the blur trajectory and the trajectory speed as data. In this case, the marker 74 continuously emits light in the order of red, green, and blue at substantially equal intervals (period ta). Therefore, it is possible to know the direction of movement (start point and end point) from the order in which the colors of the trajectory image 100 are arranged. In addition, the motion vector (the direction of motion in which the blur is generated) can be known from the entire trajectory image 100. Furthermore, since the trajectory images 100r, 100g, and 100b of each color are captured with a predetermined exposure time, the red light source 76R and the green light source 76G are derived from the lengths Lr, Lg, and Lb of the trajectory images 100r, 100g, and 100b. The relationship between the relative movement speed v between the camera 20 and the marker 74 when the blue light source 76B is imaged can be known.

図4(b)に示す軌跡画像100を例にとると、軌跡画像100は、図中左上から右下の方向(矢印M)に向かって赤、緑、青の順に形成されている。そのため、左上を始点とし、右下を終点として矢印Mに沿った移動をしていることがわかる。また、軌跡画像100は、緑色の軌跡画像100gの長さLg>赤色の軌跡画像100rの長さLr>青色の軌跡画像100bの長さLbの関係になっている。そのため、赤色の光源76Rを撮像したときのカメラ20とマーカー74との相対移動速度vrと、緑色の光源76Gを撮像したときのカメラ20とマーカー74との相対移動速度vgと、青色の光源76Bを撮像したときのカメラ20とマーカー74との相対移動速度vbとの関係は、相対移動速度vg>相対移動速度vr>相対移動速度vbとなることが分かる。   Taking the trajectory image 100 shown in FIG. 4B as an example, the trajectory image 100 is formed in the order of red, green, and blue from the upper left to the lower right (arrow M) in the figure. Therefore, it can be seen that the movement along the arrow M starts from the upper left corner and starts from the lower right corner. Further, the trajectory image 100 has a relationship of the length Lg of the green trajectory image 100g> the length Lr of the red trajectory image 100r> the length Lb of the blue trajectory image 100b. Therefore, the relative movement speed vr between the camera 20 and the marker 74 when the red light source 76R is imaged, the relative movement speed vg between the camera 20 and the marker 74 when the green light source 76G is imaged, and the blue light source 76B. It can be seen that the relationship between the relative movement speed vb between the camera 20 and the marker 74 when the image is taken is: relative movement speed vg> relative movement speed vr> relative movement speed vb.

次いで、画像生成工程S15では、点拡散関数算出工程S14で算出した点拡散関数を用いて、ボケ画像Bからボケてない元画像を生成する。この方法を簡単に説明する。
画像のボケは、下記の式(1)のようにモデル化される。この式(1)で示すように、元画像をImage、ボケ画像をBlur、画像がどのようにボケているのかを表すパラメーターである点拡散関数をPSFとすると、ボケ画像(Blur)は点拡散関数(PSF)と元画像(Image)との畳み込み演算で与えられる。点拡散関数(PSF)は、名前のとおり、本来1点であるデータが、どのように拡がっているのかを表す関数である。
Next, in the image generation step S15, an unblurred original image is generated from the blurred image B using the point diffusion function calculated in the point diffusion function calculation step S14. This method will be briefly described.
The blur of the image is modeled as the following formula (1). As shown in this equation (1), when the original image is Image, the blurred image is Blur, and the point diffusion function that is a parameter indicating how the image is blurred is PSF, the blurred image (Blur) is point spread. It is given by the convolution operation of the function (PSF) and the original image (Image). As the name suggests, the point spread function (PSF) is a function that expresses how data that is originally one point is spread.

Figure 2010263273
Figure 2010263273

ここで、下記の式(2),(3),(4)のように、関数fに対するフーリエ変換操作をF[f]と表すとすると、元画像(Image)のフーリエ変換はimage、ボケ画像(Blur)のフーリエ変換はblur、点拡散関数(PSF)のフーリエ変換はpsfと表すことができる。畳み込み演算は、フーリエ変換により単なる乗算に変換されるため、式(1)は下記の式(5)に変換される。   Here, if the Fourier transform operation for the function f is expressed as F [f] as in the following formulas (2), (3), and (4), the Fourier transform of the original image (Image) is an image, a blurred image. The Fourier transform of (Blur) can be expressed as Blur, and the Fourier transform of the point spread function (PSF) can be expressed as psf. Since the convolution operation is converted into simple multiplication by Fourier transform, Expression (1) is converted to Expression (5) below.

Figure 2010263273
Figure 2010263273

Figure 2010263273
Figure 2010263273

下記の式(6)のように、元画像のフーリエ変換(image)は、点拡散関数(PSF)のフーリエ変換である(psf)の逆数と、ボケ画像(Blur)のフーリエ変換である(blur)との積により得られる。関数fの逆フーリエ変換操作をIF[f]とすると、ボケの無い元画像(Image)は、式(6)で得られた元画像のフーリエ変換(image)を、式(7)のように逆フーリエ変換することにより得られる。   As shown in the following equation (6), the Fourier transform (image) of the original image is the inverse of (psf) which is the Fourier transform of the point spread function (PSF) and the Fourier transform of the blurred image (Blur) (blur). ) And the product. When the inverse Fourier transform operation of the function f is IF [f], the original image (Image) without blur is the Fourier transform (image) of the original image obtained by Equation (6) as in Equation (7). It is obtained by inverse Fourier transform.

Figure 2010263273
Figure 2010263273

Figure 2010263273
Figure 2010263273

上述のような演算処理は、数学的処理としては単純なものであり、その一例として、ウィーナフィルター処理などがある。このようにして図4(c)に示すボケていない元画像Gが生成される。   The arithmetic processing as described above is a simple mathematical process, and an example thereof is a Wiener filter process. In this way, the unblurred original image G shown in FIG. 4C is generated.

次いで、図3に示すワーク位置算出工程S16では、生成された元画像Gに基づいてワークWの位置を算出する。そして、算出した位置に関する情報を図1に示すロボット動作制御部40に送る。ロボット動作制御部40は、アーム17等の稼動部の動作を上記情報に基づいて制御する。すなわち、ロボット動作制御部40は、情報に基づき、ロボット10を移動させるための複数のアクチュエーターの駆動量を算出し、それぞれのアクチュエーター毎に駆動信号を生成し、それぞれのアクチュエーターに送る。この結果、アーム17が所定の位置まで移動しロボットハンド19によりワークWに所定の作業が施される。なお、ワークWの位置算出方法は、公知の位置算出方法が適用される。例えば、ワークWの形状の特徴点に注目して位置を算出してもよいし、別途用意されたワークWの姿勢ごとの画像と生成された元画像とを比較して位置を算出してもよい。   Next, in a workpiece position calculation step S16 shown in FIG. 3, the position of the workpiece W is calculated based on the generated original image G. And the information regarding the calculated position is sent to the robot operation control unit 40 shown in FIG. The robot operation control unit 40 controls the operation of the operation unit such as the arm 17 based on the information. That is, the robot operation control unit 40 calculates the drive amounts of a plurality of actuators for moving the robot 10 based on the information, generates a drive signal for each actuator, and sends the drive signal to each actuator. As a result, the arm 17 moves to a predetermined position, and a predetermined work is performed on the workpiece W by the robot hand 19. A known position calculation method is applied as the method for calculating the position of the workpiece W. For example, the position may be calculated by paying attention to the feature points of the shape of the workpiece W, or the position may be calculated by comparing a separately prepared image for each posture of the workpiece W with the generated original image. Good.

以下、本実施例の効果を記載する。
(1)上述のロボットシステム5は、ワークWが載置されるステージ72に順次、赤色、緑色および青色に発光するマーカー74を設けている。そして、ワークWの位置を検出するとき、ロボット10に設けられたカメラ20でワークWとマーカー74とを同一視野に入れるように撮像する。撮像されたワークWの画像が動きボケを含んだ画像であった場合、マーカー74の軌跡画像100より点拡散関数を求めることができる。すなわち、軌跡画像100は、マーカー74が連続的に発光するため帯状に形成される。そのため、帯状の軌跡画像100より動きベクトル(ボケを発生させた動き方向)を容易に知ることができる。
The effects of this example will be described below.
(1) The robot system 5 described above is provided with the markers 74 that emit light in red, green, and blue sequentially on the stage 72 on which the workpiece W is placed. When the position of the workpiece W is detected, the camera 20 provided in the robot 10 captures an image so that the workpiece W and the marker 74 are in the same field of view. When the captured image of the workpiece W is an image including motion blur, a point diffusion function can be obtained from the locus image 100 of the marker 74. That is, the trajectory image 100 is formed in a band shape because the marker 74 emits light continuously. Therefore, it is possible to easily know the motion vector (the motion direction in which the blur is generated) from the belt-like trajectory image 100.

また、マーカー74は、複数の波長の光、すなわち複数の色の光(例えば、赤色、緑色、青色)を所定の順番で発光させる。そのため、帯状の軌跡画像100は、赤色の帯状の軌跡画像100rと、緑色の帯状の軌跡画像100gと、青色の帯状の軌跡画像100bとから構成される。この各色の軌跡画像100r,100g,100bの構成を観察することによって、点拡散関数の構成要素を容易に取得することができる。すなわち、軌跡画像100の各色の並び順番から移動の方向(始点および終点)を、各色の軌跡画像100r,100g,100bの長さLr,Lg,Lbから、カメラ20とマーカー74との相対移動速度vの関係を容易に知ることができる。   The marker 74 emits light of a plurality of wavelengths, that is, light of a plurality of colors (for example, red, green, and blue) in a predetermined order. Therefore, the belt-like trajectory image 100 includes a red belt-like trajectory image 100r, a green belt-like trajectory image 100g, and a blue belt-like trajectory image 100b. By observing the configuration of the trajectory images 100r, 100g, and 100b of the respective colors, the constituent elements of the point spread function can be easily acquired. That is, the direction of movement (start point and end point) from the order in which the colors of the trajectory image 100 are arranged, and the relative moving speed between the camera 20 and the marker 74 from the lengths Lr, Lg, Lb of the trajectory images 100r, 100g, 100b of the respective colors. The relationship of v can be easily known.

従って、カメラ20の画像を解析するだけで、点拡散関数が容易に精度良く求めることができ、元画像の生成も精度良く行うことができる。その結果、ワークWの位置検出も容易に行うことができ、ロボットシステム5の作業効率を向上させることができる。   Therefore, the point spread function can be easily obtained with high accuracy simply by analyzing the image of the camera 20, and the original image can also be generated with high accuracy. As a result, the position of the workpiece W can be easily detected, and the working efficiency of the robot system 5 can be improved.

(第2実施例)
ここで、第2実施例のロボットシステムについて図5および図6を参照して説明する。図5は第2実施例のステージを説明する図であり、図6は第2実施例にかかるワークの画像を示す図である。なお、第2実施例は、第1実施例に対して、マーカー74の設置状況が異なる例である。また、第1実施例と同様な構成および内容については、符号を等しくして説明を省略する。
(Second embodiment)
Here, the robot system of the second embodiment will be described with reference to FIGS. FIG. 5 is a diagram for explaining the stage of the second embodiment, and FIG. 6 is a diagram showing an image of a workpiece according to the second embodiment. In addition, 2nd Example is an example from which the installation condition of the marker 74 differs with respect to 1st Example. Further, the same configurations and contents as those of the first embodiment are denoted by the same reference numerals and description thereof is omitted.

図5に示すように、ステージ72は、ワークWが載置されるステージ面72aの3つのコーナー付近に、それぞれマーカー74a,74b,74cを1つずつ備えている。マーカー74a,74b,74cは、第1実施例と同様な構造および被制御方法を有しており、複数の波長の光を放出する。すなわち、マーカー74a,74b,74cは、図2(c)に示す周期taで赤色、緑色、青色の順に発光する。   As shown in FIG. 5, the stage 72 includes one marker 74a, 74b, and 74c in the vicinity of three corners of the stage surface 72a on which the workpiece W is placed. The markers 74a, 74b, and 74c have the same structure and controlled method as in the first embodiment, and emit light having a plurality of wavelengths. That is, the markers 74a, 74b, and 74c emit light in the order of red, green, and blue at a period ta shown in FIG.

図3に示す位置検出方法のマーカー&ワーク撮像工程S12では、図1に示すカメラ20を用いて、ステージ72に載置されるワークWおよびマーカー74a,74b,74cが同一視野内に入るように撮像する。その結果、図6に示す動きボケを含んだいわゆるボケ画像Baを得る。ボケ画像Baは、動きボケを含んだワークWの画像Bwと、画像の3つのコーナー付近のそれぞれにマーカー74aの軌跡画像110と、マーカー74bの軌跡画像120とマーカー74cの軌跡画像130とを有する。   In the marker & workpiece imaging step S12 of the position detection method shown in FIG. 3, using the camera 20 shown in FIG. 1, the workpiece W and markers 74a, 74b, and 74c placed on the stage 72 are within the same field of view. Take an image. As a result, a so-called blurred image Ba including motion blur shown in FIG. 6 is obtained. The blurred image Ba includes an image Bw of the workpiece W including motion blur, a trajectory image 110 of the marker 74a, a trajectory image 120 of the marker 74b, and a trajectory image 130 of the marker 74c near each of the three corners of the image. .

この軌跡画像110,120,130は、それぞれが図4(b)に示す軌跡画像100と同様な構成になっている。そのため、ステージ72の各コーナーにおいて、点拡散関数の空間移動分の情報を得ることができる。換言すると、3つのコーナーにおいて、移動の方向(始点および終点)、動きベクトル(ボケを発生させた動き方向)およびカメラ20とマーカー74a,74b,74cとの相対移動速度vの関係を知ることができる。その結果、点拡散関数をより正確に算出することができる。   The trajectory images 110, 120, and 130 have the same configuration as the trajectory image 100 shown in FIG. Therefore, information on the spatial movement of the point diffusion function can be obtained at each corner of the stage 72. In other words, at three corners, it is possible to know the relationship between the direction of movement (start point and end point), the motion vector (the direction of motion that caused the blur), and the relative movement speed v between the camera 20 and the markers 74a, 74b, and 74c. it can. As a result, the point spread function can be calculated more accurately.

例えば、カメラ20とワークW(ステージ72)との相対移動において、回転や傾き等の移動によりボケが発生したとしても、軌跡画像110,120,130を解析することによって点拡散関数をより正確に算出することができる。従って、求められた点拡散関数よりワークWの位置をより正確に知ることができ、ロボット10の作業の精度を向上させることができる。なお、マーカー74の数は、第1実施例で説明した1つおよび第2実施例で説明した3つに限定されるものではない。予想されるカメラ20とワークW(ステージ72)との動きに対応して、マーカー74の数を決定すればよい。   For example, in the relative movement between the camera 20 and the workpiece W (stage 72), even if blurring occurs due to movement such as rotation or inclination, the point spread function can be more accurately analyzed by analyzing the trajectory images 110, 120, and 130. Can be calculated. Therefore, the position of the workpiece W can be known more accurately from the obtained point spread function, and the work accuracy of the robot 10 can be improved. Note that the number of markers 74 is not limited to one described in the first embodiment and three described in the second embodiment. The number of markers 74 may be determined in accordance with the expected movement of the camera 20 and the workpiece W (stage 72).

また、本実施例において、マーカー74a,74b,74cは、ある特定の時点においてそれぞれ異なった色の光を放出していることが好ましい。例えば、図2(c)に示すタイミングチャートの発光順をずらして、マーカー74aが赤色に発光しているときは、マーカー74bが緑色に、マーカー74cが青色に発光することが好ましい。このようにすることにより、ボケ画像Baに撮像されるマーカー74を特定することができる。   In the present embodiment, it is preferable that the markers 74a, 74b, and 74c emit light of different colors at a specific time point. For example, when the light emission order of the timing chart shown in FIG. 2C is shifted and the marker 74a emits red light, it is preferable that the marker 74b emits green light and the marker 74c emits blue light. By doing in this way, the marker 74 imaged on the blurred image Ba can be specified.

以上、本発明の実施例について説明したが、上記実施例に対しては、本発明の趣旨から逸脱しない範囲で様々な変形を加えることができる。例えば上記実施例以外の変形例は、以下の通りである。   As mentioned above, although the Example of this invention was described, various deformation | transformation can be added with respect to the said Example in the range which does not deviate from the meaning of this invention. For example, modifications other than the above embodiment are as follows.

(第1変形例)上述の実施例では、マーカー74が1つの発光部75を有し、それが順次と赤色、緑色、青色の順に発光する場合について、説明したがこれに限定されない。第1変形例を説明する図である図7(a)に示すように、マーカー74dは、赤色の発光部75R’、緑色の発光部75G’および青色の発光部75B’の3つの発光部75から構成されていてもよい。以下、第1変形例の詳細について説明する。なお、第1実施例および第2実施例と同様な構成および内容については、符号を等しくして説明を省略する。   (First Modification) In the above-described embodiment, the case where the marker 74 has one light emitting portion 75 and emits light sequentially in the order of red, green, and blue has been described. However, the present invention is not limited to this. As shown in FIG. 7A, which is a diagram for explaining the first modification, the marker 74d has three light emitting portions 75, a red light emitting portion 75R ′, a green light emitting portion 75G ′, and a blue light emitting portion 75B ′. You may be comprised from. Details of the first modification will be described below. In addition, about the structure and content similar to 1st Example and 2nd Example, a code | symbol is made equal and description is abbreviate | omitted.

第1変形例では、赤色の発光部75R’、緑色の発光部75G’および青色の発光部75B’は、それぞれ、例えば赤、緑および青のLED(発光ダイオード)で構成され、図7(a)中Y方向にほぼ密着するように1列の列をなして配置されている。これら赤色の発光部75R’、緑色の発光部75G’および青色の発光部75B’は、図1に示す制御部50のマーク生成部45から出力される図2(c)に示す制御信号Cにより発光する。   In the first modification, each of the red light emitting unit 75R ′, the green light emitting unit 75G ′, and the blue light emitting unit 75B ′ is configured by, for example, red, green, and blue LEDs (light emitting diodes). ) It is arranged in a row so as to be in close contact with each other in the middle Y direction. The red light emitting unit 75R ′, the green light emitting unit 75G ′, and the blue light emitting unit 75B ′ are controlled by the control signal C shown in FIG. 2C output from the mark generating unit 45 of the control unit 50 shown in FIG. Emits light.

すなわち、図2(c)に示すタイミングチャートのように、赤色の発光部75R’は、時間t0で発光を開始して時間t1まで発光を続ける。次いで、緑色の発光部75G’は、時間t1で発光を開始して時間t2まで発光を続ける。次いで、青色の発光部75B’は、時間t2で発光を開始して時間t3まで発光を続ける。その後、赤色の発光部75R’、緑色の発光部75G’および青色の発光部75B’は、この動作を繰り返す。すなわち、マーカー74dは、図2(c)に示す周期taで赤色、緑色、青色の順に発光する。   That is, as shown in the timing chart of FIG. 2C, the red light emitting unit 75R 'starts emitting light at time t0 and continues emitting light until time t1. Next, the green light emitting unit 75G ′ starts emitting at time t1 and continues emitting until time t2. Next, the blue light emitting unit 75B 'starts to emit light at time t2 and continues to emit light until time t3. Thereafter, the red light emitting unit 75R ', the green light emitting unit 75G', and the blue light emitting unit 75B 'repeat this operation. That is, the marker 74d emits light in the order of red, green, and blue at a period ta shown in FIG.

図3に示す位置検出方法のマーカー&ワーク撮像工程S12では、図1に示すカメラ20を用いて、ステージ72に載置されるワークWおよびマーカー74dが同一視野内に入るように撮像する。その結果、図7(b)に示す動きボケを含んだいわゆるボケ画像Bbを得る。ボケ画像Bbは、動きボケを含んだワークWの画像Bwと、マーカー74dの軌跡画像140とを有する。マーカー74dは、赤色、緑色、青色の順に発光するため、軌跡画像140は、それぞれ個別の赤色の帯状の軌跡画像140rと、緑色の帯状の軌跡画像140gと、青色の帯状の軌跡画像140bとから構成されている。   In the marker & workpiece imaging step S12 of the position detection method shown in FIG. 3, imaging is performed using the camera 20 shown in FIG. 1 so that the workpiece W and the marker 74d placed on the stage 72 are within the same visual field. As a result, a so-called blurred image Bb including motion blur shown in FIG. 7B is obtained. The blurred image Bb includes an image Bw of the work W including motion blur and a trajectory image 140 of the marker 74d. Since the marker 74d emits light in the order of red, green, and blue, the trajectory image 140 includes an individual red belt-like trajectory image 140r, a green belt-like trajectory image 140g, and a blue belt-like trajectory image 140b. It is configured.

図3に示す点拡散関数算出工程S14では、ボケ画像Bbから軌跡画像140を抽出して点拡散関数を算出する。この場合でも、赤色の軌跡画像140rと、緑色の軌跡画像140gと、青色の軌跡画像140bを解析することによって、移動の方向(始点および終点)、動きベクトル(ボケを発生させた動き方向)およびカメラ20とマーカー74dとの相対移動速度vの関係を知ることができる。   In the point spread function calculation step S14 shown in FIG. 3, the point spread function is calculated by extracting the trajectory image 140 from the blurred image Bb. Even in this case, by analyzing the red trajectory image 140r, the green trajectory image 140g, and the blue trajectory image 140b, the movement direction (start point and end point), the motion vector (the motion direction causing the blur), and The relationship of the relative moving speed v between the camera 20 and the marker 74d can be known.

すなわち、第1変形例では、赤、緑および青のLEDをステージ72に直接配置するという簡単な構造で、第1実施例および第2実施例と同様な効果を奏することができる。なお、赤、緑および青のLEDの配置方法は、上記に限定されるものではなく様々な変形例が想定される。例えば、図7(c)に示すように、赤色の発光部75R’’、緑色の発光部75G’’および青色の発光部75B’’を、三角形の頂点になるように配置してマーカー74eを構成してもよい。   That is, in the first modification, the same effects as those of the first and second embodiments can be achieved with a simple structure in which red, green, and blue LEDs are directly arranged on the stage 72. In addition, the arrangement | positioning method of red, green, and blue LED is not limited above, Various modifications are assumed. For example, as shown in FIG. 7C, a red light emitting unit 75R ″, a green light emitting unit 75G ″, and a blue light emitting unit 75B ″ are arranged so as to be at the apex of a triangle, and the marker 74e is arranged. It may be configured.

(第2変形例)上述の実施例では、マーカー74が図2(b)に示すように赤色の光源76R、緑色の光源76Gおよび青色の光源76Bを有している場合について説明したがこれに限定されない。   (Second Modification) In the above-described embodiment, the marker 74 has the red light source 76R, the green light source 76G, and the blue light source 76B as shown in FIG. It is not limited.

第2変形例を説明する図である図8に示すように、ステージ面72aの3つのコーナー付近に設けられたマーカー74a,74b,74cには、それぞれ光ファイバー87a,87b,87cの一端が接続されている。光ファイバー87a,87b,87cの他端側には、1つの光源92が設けられている。光ファイバー87a,87b,87cの他端側と光源92との間の空間には、円盤状の回転体90が配置されている。回転体90は、光を透過する材料で構成されるとともに円盤の平面が3等分に着色され、赤の光透過部90R、緑の光透過部90G、および青の光透過部90Bを備えている。なお、回転体90は、図示しないモーターの駆動力を受けて図中矢印N方向に回転するように構成されている。なお、回転体90の回転速度は、図1に示すマーク生成部45により制御される。   As shown in FIG. 8, which is a diagram for explaining the second modification, one end of each of optical fibers 87a, 87b, 87c is connected to the markers 74a, 74b, 74c provided near the three corners of the stage surface 72a. ing. One light source 92 is provided on the other end side of the optical fibers 87a, 87b, 87c. In the space between the other end side of the optical fibers 87a, 87b, and 87c and the light source 92, a disk-shaped rotating body 90 is disposed. The rotating body 90 is made of a material that transmits light, and the plane of the disk is colored into three equal parts, and includes a red light transmitting portion 90R, a green light transmitting portion 90G, and a blue light transmitting portion 90B. Yes. The rotating body 90 is configured to rotate in the direction of arrow N in the drawing in response to a driving force of a motor (not shown). The rotational speed of the rotator 90 is controlled by the mark generator 45 shown in FIG.

このように構成されていることによって、光源92の光は、回転体90の赤の光透過部90R、緑の光透過部90G、青の光透過部90Bのいずれかを通過し、光ファイバー87a,87b,87cのいずれかを介してマーカー74a,74b,74cから放出される。すなわち、回転体90の回転速度を制御することによって、マーカー74a,74b,74cは、所定の周期で赤、緑、青色の光を順次放出することができる。   With this configuration, the light from the light source 92 passes through one of the red light transmitting portion 90R, the green light transmitting portion 90G, and the blue light transmitting portion 90B of the rotating body 90, and the optical fibers 87a, Released from the markers 74a, 74b, 74c via either 87b, 87c. That is, by controlling the rotation speed of the rotating body 90, the markers 74a, 74b, and 74c can sequentially emit red, green, and blue light at a predetermined cycle.

(第3変形例)なお、本実施例では、ロボット10として多関節型ロボットを採用した場合について説明したが、これに限定されるものではなく、スカラー型のロボットであってもよい。また、ロボット10の用途は、ロボットハンド19による部品の把持、ハンダ付けや溶接のような加工を行う等様々な用途が想定される。さらに、産業用ロボットに限らず、医療用ロボットや家庭用ロボットであってもよい。また、本実施例ではマーカー74が赤、緑、青色に発光する場合を例にとり説明したが、これに限定されるものではない。識別することができる色であればよい。また、3色に限定されるものではない。   (Third Modification) In this embodiment, the case where an articulated robot is employed as the robot 10 has been described. However, the present invention is not limited to this and may be a scalar type robot. The robot 10 may be used for various purposes such as gripping parts by the robot hand 19, performing processing such as soldering and welding. Furthermore, the robot is not limited to an industrial robot, and may be a medical robot or a home robot. In this embodiment, the case where the marker 74 emits red, green, and blue light has been described as an example. However, the present invention is not limited to this. Any color that can be identified is acceptable. Moreover, it is not limited to three colors.

5…ロボットシステム、10…ロボット、19…ロボットハンド、20…カメラ、30…画像処理装置、32…画像入力部、34…位置情報取得部、35…点拡散関数算出部、39…位置算出部、45…マーク生成部、50…制御部、60…コンピューター、72…ステージ、74…マーカー、75…発光部、B…ボケ画像、W…作業対象物としてのワーク、S12…マーカー&ワーク撮像工程、S14…点拡散関数算出工程、S15…画像生成工程、S16…ワーク位置算出工程。   DESCRIPTION OF SYMBOLS 5 ... Robot system, 10 ... Robot, 19 ... Robot hand, 20 ... Camera, 30 ... Image processing apparatus, 32 ... Image input part, 34 ... Position information acquisition part, 35 ... Point spread function calculation part, 39 ... Position calculation part , 45 ... Mark generating unit, 50 ... Control unit, 60 ... Computer, 72 ... Stage, 74 ... Marker, 75 ... Light emitting unit, B ... Blurred image, W ... Work as work object, S12 ... Marker & work imaging step , S14: Point diffusion function calculation step, S15: Image generation step, S16: Work position calculation step.

Claims (6)

作業対象物に対して作業を実施するロボットと、
前記作業対象物を載置するとともに、複数の波長の光を放出するマーカーを備えたステージと、
前記作業対象物と前記マーカーとを同一画像として撮像する撮像装置と、を備え、
前記撮像装置により撮像された動きボケを含む劣化画像から前記マーカーの軌跡画像を抽出して、前記軌跡画像から点拡散関数を算出する点拡散関数算出部と、
算出した前記点拡散関数を用いて、前記劣化画像を画像変換することにより、前記劣化画像から劣化していない元画像を生成する画像生成部と、
生成された前記元画像から前記作業対象物の位置を算出する位置算出部と、を有することを特徴とするロボットシステム。
A robot that performs work on a work object;
While placing the work object, a stage provided with a marker that emits light of a plurality of wavelengths,
An imaging device that images the work object and the marker as the same image,
A point spread function calculation unit that extracts a trajectory image of the marker from a deteriorated image including motion blur imaged by the imaging device, and calculates a point spread function from the trajectory image;
An image generation unit that generates an original image that has not deteriorated from the deteriorated image by performing image conversion on the deteriorated image using the calculated point spread function;
And a position calculator that calculates a position of the work object from the generated original image.
前記マーカーは、異なった波長の光を特定の周期で順次放出することを特徴とする請求項1に記載のロボットシステム。   The robot system according to claim 1, wherein the marker sequentially emits light of different wavelengths at a specific period. 前記マーカーは、少なくとも、3種類の異なった波長の光を放出することを特徴とする請求項1または2に記載のロボットシステム。   The robot system according to claim 1, wherein the marker emits light of at least three different wavelengths. 前記マーカーは、前記ステージ上に複数設けられていることを特徴とする請求項1乃至3のいずれか一項に記載のロボットシステム。   The robot system according to any one of claims 1 to 3, wherein a plurality of the markers are provided on the stage. 複数の前記マーカーは、ある時点においてそれぞれ異なった波長の光を放出していることを特徴とする請求項1乃至4のいずれか一項に記載のロボットシステム。   The robot system according to claim 1, wherein the plurality of markers emit light having different wavelengths at a certain point in time. 作業対象物に対して作業を実施するロボットシステムの制御方法であって、
複数の波長の光を放出するマーカーを備えたステージに載置される前記作業対象物を、撮像装置により前記マーカーとともに撮像する撮像工程と、
前記撮像装置により撮像された動きボケを含む劣化画像から前記マーカーの軌跡画像を抽出して、前記軌跡画像から点拡散関数を算出する点拡散関数算出工程と、
算出した前記点拡散関数を用いて、前記劣化画像を画像変換することにより、前記劣化画像から劣化していない元画像を生成する画像生成工程と、
生成された前記元画像から前記作業対象物の位置を算出する位置算出工程と、を有することを特徴とするロボットシステムの制御方法。
A control method of a robot system for performing work on a work object,
An imaging step of imaging the work object placed on a stage including a marker that emits light of a plurality of wavelengths together with the marker by an imaging device;
A point diffusion function calculating step of extracting a locus image of the marker from a deteriorated image including motion blur imaged by the imaging device and calculating a point diffusion function from the locus image;
An image generation step of generating an original image not deteriorated from the deteriorated image by converting the deteriorated image using the calculated point spread function;
And a position calculation step of calculating a position of the work object from the generated original image.
JP2009110467A 2009-04-30 2009-04-30 Robot system and method of controlling the same Withdrawn JP2010263273A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009110467A JP2010263273A (en) 2009-04-30 2009-04-30 Robot system and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009110467A JP2010263273A (en) 2009-04-30 2009-04-30 Robot system and method of controlling the same

Publications (1)

Publication Number Publication Date
JP2010263273A true JP2010263273A (en) 2010-11-18

Family

ID=43361039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009110467A Withdrawn JP2010263273A (en) 2009-04-30 2009-04-30 Robot system and method of controlling the same

Country Status (1)

Country Link
JP (1) JP2010263273A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015020012A (en) * 2013-07-23 2015-02-02 Mediaedge株式会社 Operation part imaging device
CN108972538A (en) * 2017-05-30 2018-12-11 精工爱普生株式会社 Robot controller, robot and robot system
CN109558782A (en) * 2017-09-26 2019-04-02 卡西欧计算机株式会社 Information processing unit, information processing system, information processing method and recording medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015020012A (en) * 2013-07-23 2015-02-02 Mediaedge株式会社 Operation part imaging device
CN108972538A (en) * 2017-05-30 2018-12-11 精工爱普生株式会社 Robot controller, robot and robot system
CN108972538B (en) * 2017-05-30 2023-08-01 精工爱普生株式会社 Robot control device, robot, and robot system
CN109558782A (en) * 2017-09-26 2019-04-02 卡西欧计算机株式会社 Information processing unit, information processing system, information processing method and recording medium
CN109558782B (en) * 2017-09-26 2023-08-01 卡西欧计算机株式会社 Information processing device, information processing system, information processing method, and recording medium

Similar Documents

Publication Publication Date Title
JP5810562B2 (en) User support device directed to image processing system, program thereof, and image processing device
CN101733755B (en) Robot system, robot control device and method for controlling robot
CN108297096B (en) Calibration device, calibration method, and computer-readable medium
JP6734253B2 (en) Imaging device including a visual sensor for imaging a workpiece
JP2013215866A (en) Robot system, robot system calibration method, calibration device, and digital camera
JP2012055999A (en) System and method for gripping object, program and robot system
JP2011133313A (en) Method of measuring sensor position and attitude
CN109945780B (en) Object inspection system and object inspection method
US11590657B2 (en) Image processing device, control method thereof, and program storage medium
JP2010276447A (en) Position measuring apparatus, position measuring method and robot system
JP2010263273A (en) Robot system and method of controlling the same
JP6410411B2 (en) Pattern matching apparatus and pattern matching method
JP2006224291A (en) Robot system
JP2010131685A (en) Robot system and imaging method
KR20130075712A (en) A laser-vision sensor and calibration method thereof
US20230123629A1 (en) 3d computer-vision system with variable spatial resolution
JP6265784B2 (en) Posture estimation system, program, and posture estimation method
JP5098846B2 (en) Robot system
JP7112528B2 (en) Work coordinate creation device
JP2009186404A (en) Image information creating device and image information creating method
JP2015132523A (en) Position/attitude measurement apparatus, position/attitude measurement method, and program
JP5200866B2 (en) Robot system, robot control apparatus, and robot control method
JP5862382B2 (en) Work support device
JP2009255192A (en) Manipulation device and its control method
JP2010044481A (en) Control system

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120703