JP2010276447A - Position measuring apparatus, position measuring method and robot system - Google Patents

Position measuring apparatus, position measuring method and robot system Download PDF

Info

Publication number
JP2010276447A
JP2010276447A JP2009128602A JP2009128602A JP2010276447A JP 2010276447 A JP2010276447 A JP 2010276447A JP 2009128602 A JP2009128602 A JP 2009128602A JP 2009128602 A JP2009128602 A JP 2009128602A JP 2010276447 A JP2010276447 A JP 2010276447A
Authority
JP
Japan
Prior art keywords
image
marker
captured
workpiece
point spread
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009128602A
Other languages
Japanese (ja)
Inventor
Atsushi Harada
篤 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2009128602A priority Critical patent/JP2010276447A/en
Publication of JP2010276447A publication Critical patent/JP2010276447A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a position measuring apparatus capable of precisely measuring a position of a measurement object even when an image of the measurement object photographed is blurry. <P>SOLUTION: The position measuring apparatus 1 includes a stage 72 on which the measurement object W is set and which has a marker 90 for emitting a plurality of refection light portions, a light irradiation section 48 for irradiating the marker 90 with light, a plurality of imaging devices 20, 21 for photographing the measurement object W and the marker 90 in different directions of sight line, a point spread function computing section 36 which extracts a marker image 100 of the marker 90 from a photographed image B taken by the imaging devices 20, 21 and obtains a point spread function from the marker image 100, an image generating section 37 for generating a transformed image G by applying an image transformation using the point spread function to the photographed image B, and a position calculating section 39 for calculating the position of the measurement object W on the basis of the transformed image G generated. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、物体の位置もしくは物体の特徴点の座標を計測する位置計測装置、位置計測方法およびこの位置計測装置を備えたロボットシステムに関する。   The present invention relates to a position measurement device, a position measurement method, and a robot system including the position measurement device that measure the position of an object or the coordinates of a feature point of the object.

物体の位置もしくは形状を計測する方法として、ステレオ計測法が知られている。ステレオ計測法は、撮像装置を用いて視線方向の異なる複数の方向から物体を撮像し、その撮像画像から対応する点(計測点)を見つけて、三角測量の原理により計測点の位置座標を求める。ステレオ計測法では、計測点を撮像した計測点像が複数の画像においてどの場所に位置するかを検出する必要がある。   A stereo measurement method is known as a method for measuring the position or shape of an object. The stereo measurement method uses an imaging device to image an object from a plurality of directions with different gaze directions, finds a corresponding point (measurement point) from the captured image, and obtains the position coordinates of the measurement point based on the principle of triangulation . In the stereo measurement method, it is necessary to detect where a measurement point image obtained by imaging a measurement point is located in a plurality of images.

この測定点像を検出し易くする方法としては、2つの方向から撮像した撮像画像を映像信号の周波数成分で分割して複数水準の画像とし、その画像を、さらに2次微分処理して3値化処理を行うことにより計測点(特徴点)を検出する。そして、これらの撮像画像を比較して測定点像が対応する場所を検出する方法が提案されている(例えば、特許文献1参照)。   As a method for facilitating the detection of the measurement point image, the picked-up image picked up from two directions is divided by the frequency component of the video signal to obtain a multi-level image, and the image is further subjected to second-order differential processing to obtain a ternary value. Measurement points (feature points) are detected by performing the digitization process. And the method of comparing these picked-up images and detecting the place where a measurement point image respond | corresponds is proposed (for example, refer patent document 1).

特許第3539788号公報Japanese Patent No. 3539788

各種生産現場において、作業の自動化や省力化のため産業用ロボットが多用されている。このような産業用ロボットは、カメラなどの撮像機器を備え作業対象物(物体)を撮像し、撮像された撮像画像を画像処理して作業対象物の位置を計測する。この作業対象物の位置計測の方法として、上述のステレオ計測法が用いられる場合がある。作業対象物と撮像装置とが相対的に動いている場合は、撮像画像に動きボケが発生してしまう。動きボケが発生すると、撮像画像から計測点を特定することが困難になってしまうという課題がある。   In various production sites, industrial robots are frequently used for work automation and labor saving. Such an industrial robot includes an imaging device such as a camera, images a work target (object), and performs image processing on the captured image to measure the position of the work target. The stereo measurement method described above may be used as a method for measuring the position of the work object. When the work object and the imaging device are moving relatively, motion blur occurs in the captured image. When motion blur occurs, there is a problem that it becomes difficult to specify a measurement point from a captured image.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態または適用例として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.

(適用例1)被計測物を載置するとともに、規則性を有する複数の反射光を放出するマーカーを備えたステージと、前記マーカーに対して光を照射する光照射部と、前記被計測物と前記マーカーとを同一画像として異なった視線方向から撮像する複数の撮像装置と、を備え、前記複数の撮像装置により撮像された撮像画像から前記マーカーのマーカー画像を抽出して、前記マーカー画像から点拡散関数を算出する点拡散関数算出部と、算出した前記点拡散関数を用いて前記撮像画像を画像変換することにより変換画像を生成する画像生成部と、生成された前記変換画像から前記被計測物の位置を算出する位置算出部と、を有することを特徴とする位置計測装置。   (Application Example 1) A stage including a marker that places a measurement object and emits a plurality of regular reflected light, a light irradiation unit that irradiates light to the marker, and the measurement object And a plurality of imaging devices that capture the marker as the same image from different line-of-sight directions, and extract a marker image of the marker from the captured images captured by the plurality of imaging devices, from the marker image A point spread function calculating unit that calculates a point spread function; an image generating unit that generates a converted image by converting the captured image using the calculated point spread function; and And a position calculation unit that calculates the position of the measurement object.

この構成によれば、被計測物が載置されるステージには、光を照射する光照射部によって反射光を放出するマーカーが設けられている。このマーカーから放出される反射光は、規則性、すなわち、光照射部に対するマーカーもしくは撮像装置の位置により反射パターンが決定される特性を有している。そのため、マーカーの反射パターンを調べることによって、マーカーの位置情報を知ることができる。   According to this configuration, the stage on which the measurement object is placed is provided with a marker that emits reflected light by the light irradiation unit that emits light. The reflected light emitted from the marker has regularity, that is, a characteristic that a reflection pattern is determined by the position of the marker or the imaging device with respect to the light irradiation unit. Therefore, it is possible to know the position information of the marker by examining the reflection pattern of the marker.

撮像装置により撮像された被計測物の撮像画像は、いわゆる動きボケを含むボケ画像となってしまう場合が多い。この撮像画像には、反射パターンからなるマーカー画像が撮像されている。このマーカー画像の反射パターンの変化を確認することによって、ボケを発生させた動きの方向や速度変化等の点拡散関数の構成要素を取得することができる。なお、点拡散関数は画像がどのようにボケているのかを表すパラメーターとして利用される。その結果、点拡散関数を算出することができ、算出された点拡散関数を用いて撮像画像から変換画像としてのボケていない元画像を生成することができる。すなわち、複数の撮像装置によって撮像されたボケ画像からそれぞれボケていない元画像を生成することができる。そして、これらのボケていない元画像(変換画像)を用いてステレオ計測法を適用することによって被計測物の位置(特徴点の座標)を計測することができる。   In many cases, the picked-up image of the measurement object picked up by the image pickup device becomes a blurred image including so-called motion blur. In this captured image, a marker image composed of a reflection pattern is captured. By confirming the change in the reflection pattern of the marker image, it is possible to acquire the constituent elements of the point diffusion function such as the direction of movement and the change in velocity that cause the blur. The point spread function is used as a parameter that represents how the image is blurred. As a result, a point spread function can be calculated, and a non-blurred original image as a converted image can be generated from the captured image using the calculated point spread function. That is, it is possible to generate original images that are not blurred from blurred images captured by a plurality of imaging devices. Then, by applying a stereo measurement method using these unblurred original images (transformed images), the position of the object to be measured (the coordinates of the feature points) can be measured.

(適用例2)前記マーカーは、複数の反射面が三次元的に設けられていることを特徴とする上記の位置計測装置。   (Application example 2) The position measuring device according to the above, wherein the marker has a plurality of reflecting surfaces provided three-dimensionally.

この構成によれば、光照射部に対するマーカーの位置によりマーカーから反射される反射光のパターンを異ならせることができる。   According to this configuration, the pattern of the reflected light reflected from the marker can be varied depending on the position of the marker with respect to the light irradiation unit.

(適用例3)前記光照射部は、前記撮像装置の露光時間より短い間隔で前記マーカーに対して光を照射することを特徴とする上記の位置計測装置。   (Application Example 3) The position measurement device according to the above, wherein the light irradiation unit irradiates the marker with light at an interval shorter than an exposure time of the imaging device.

この構成によれば、撮像装置の露光時間内にマーカーから複数回反射光を放出することができる。そのため、撮像画像内に所定数の反射パターンからなるマーカー画像を形成することができる。   According to this configuration, the reflected light can be emitted from the marker a plurality of times within the exposure time of the imaging device. Therefore, a marker image composed of a predetermined number of reflection patterns can be formed in the captured image.

(適用例4)前記マーカーの位置情報を含む反射パターンを予め記憶しているパターン記憶部を備え、前記点拡散関数算出部は、撮像された前記マーカーの前記マーカー画像と前記パターン記憶部に記憶された前記反射パターンとを比較する画像比較部を有することを特徴とする上記の位置計測装置。   Application Example 4 A pattern storage unit that stores in advance a reflection pattern including positional information of the marker is provided, and the point diffusion function calculation unit stores the captured marker image of the marker in the pattern storage unit. The position measuring apparatus described above, further comprising an image comparing unit that compares the reflected pattern.

この構成によれば、撮像されたマーカー画像の反射パターンと、パターン記憶部に記憶されたマーカーの位置情報を有する反射パターンとを比較することによって、撮像されたときのマーカーの位置を知ることができる。   According to this configuration, it is possible to know the position of the marker when the image is captured by comparing the reflection pattern of the captured marker image with the reflection pattern having the marker position information stored in the pattern storage unit. it can.

(適用例5)光照射部から照射される光を受けて規則性を有する反射光を反射するマーカーを備えたステージに載置される被計測物を、複数の撮像装置により前記マーカーとともに、異なった視線方向から撮像する撮像工程と、前記撮像工程で撮像された撮像画像から前記マーカーのマーカー画像を抽出して、前記マーカー画像のパターン変化から点拡散関数を算出する点拡散関数算出工程と、算出した前記点拡散関数を用いて前記撮像画像を画像変換することにより変換画像を生成する画像生成工程と、生成された前記変換画像から前記被計測物の位置を算出する位置算出工程と、を有することを特徴とする位置計測方法。   (Application Example 5) A measurement object placed on a stage having a marker that receives light irradiated from a light irradiation unit and reflects reflected light having regularity is different from the marker together with the marker by a plurality of imaging devices. An imaging step of imaging from the line-of-sight direction, a point diffusion function calculating step of extracting a marker image of the marker from the captured image captured in the imaging step, and calculating a point diffusion function from a pattern change of the marker image; An image generation step of generating a converted image by converting the captured image using the calculated point diffusion function, and a position calculation step of calculating the position of the object to be measured from the generated converted image. A position measurement method comprising:

この方法によれば、被計測物が載置されるステージには、光を照射する光照射部によって反射光を放出するマーカーが設けられている。このマーカーから放出される反射光は、規則性、すなわち、光照射部に対するマーカーもしくは撮像装置の位置により反射パターンが決定される特性を有している。そのため、マーカーの反射パターンを調べることによって、マーカーの位置情報を知ることができる。   According to this method, the stage on which the measurement object is placed is provided with the marker that emits the reflected light by the light irradiation unit that irradiates the light. The reflected light emitted from the marker has regularity, that is, a characteristic that a reflection pattern is determined by the position of the marker or the imaging device with respect to the light irradiation unit. Therefore, it is possible to know the position information of the marker by examining the reflection pattern of the marker.

撮像工程において、撮像された被計測物の撮像画像は、いわゆる動きボケを含むボケ画像となってしまう場合が多い。撮像画像は、反射パターンからなるマーカー画像を含んでいる。このマーカー画像は、マーカー画像に含まれる反射パターンの変化を確認することによって、ボケを発生させた動きの方向や速度変化等の点拡散関数の構成要素を取得することができる。その結果、点拡散関数算出工程では、点拡散関数を算出することができ、画像生成工程では、算出された点拡散関数を用いて撮像画像から変換画像としてのボケていない元画像を生成することができる。すなわち、複数の撮像装置によって撮像されたボケ画像からそれぞれボケていない元画像を生成することができる。そして、位置算出工程では、これらのボケていない元画像(変換画像)を用いてステレオ計測法を適用することによって被計測物の位置(特徴点の座標)を計測することができる。   In the imaging process, the captured image of the measured object is often a blurred image including so-called motion blur. The captured image includes a marker image made of a reflection pattern. By confirming the change of the reflection pattern included in the marker image, the marker image can acquire the constituent elements of the point diffusion function such as the direction of the motion causing the blur and the speed change. As a result, the point spread function calculation step can calculate the point spread function, and the image generation step uses the calculated point spread function to generate a non-blurred original image as a converted image from the captured image. Can do. That is, it is possible to generate original images that are not blurred from blurred images captured by a plurality of imaging devices. In the position calculation step, the position of the object to be measured (the coordinates of the feature points) can be measured by applying the stereo measurement method using the original image (converted image) that is not blurred.

(適用例6)上記の位置計測装置で作業対象物の位置を計測することを特徴とするロボットシステム。   (Application example 6) A robot system characterized in that the position of a work object is measured by the position measuring device.

この構成によれば、作業対象物の位置を容易に算出できるロボットシステムを提供することができる。   According to this configuration, it is possible to provide a robot system that can easily calculate the position of the work object.

位置計測装置を適用したロボットシステムの構成例を示す図。The figure which shows the structural example of the robot system to which a position measuring device is applied. 作業対象物であるワークが載置されるステージを説明する図。The figure explaining the stage in which the workpiece | work which is a work target object is mounted. 撮像装置とステージ上に載置されたワークとの関係を示す図。The figure which shows the relationship between an imaging device and the workpiece | work mounted on the stage. ワークの位置検出方法の流れを示すフローチャート。The flowchart which shows the flow of the position detection method of a workpiece | work. カメラで撮像されたワークおよびマーカーの撮像画像を示す図。The figure which shows the picked-up image of the workpiece | work and marker imaged with the camera. 変換画像としての再生された元画像を示す図。The figure which shows the reproduced | regenerated original image as a conversion image. 第2実施例のステージを説明する図。The figure explaining the stage of 2nd Example. 第2実施例にかかるワークの画像を示す図。The figure which shows the image of the workpiece | work concerning 2nd Example. 第1変形例にかかる位置計測装置を適用したロボットシステムの構成を示す図。The figure which shows the structure of the robot system to which the position measuring apparatus concerning a 1st modification is applied. 第2変形例のマーカーを説明する図。The figure explaining the marker of the 2nd modification.

(第1実施例)
(位置計測装置の構成について)
本実施例の位置計測装置をロボットシステムに適用した例について、図1〜3を参照して説明する。図1は、ロボットシステムの構成例を示す図である。図2は、2つの撮像装置とステージ上に載置されたワークとの関係を示す図である。図3は、被計測物および作業対象物としてのワークが載置されるステージおよびマーカーを説明する図であり、(a)は、ステージの平面図、(b)はマーカーの拡大図であり、(c)はマーカーの断面を示す断面図である。
(First embodiment)
(About the configuration of the position measuring device)
An example in which the position measuring apparatus of this embodiment is applied to a robot system will be described with reference to FIGS. FIG. 1 is a diagram illustrating a configuration example of a robot system. FIG. 2 is a diagram illustrating a relationship between two imaging devices and a workpiece placed on a stage. FIG. 3 is a diagram for explaining a stage and a marker on which a workpiece as a workpiece and a work object are placed, (a) is a plan view of the stage, and (b) is an enlarged view of the marker. (C) is sectional drawing which shows the cross section of a marker.

図1に示すように、位置計測装置1を有するロボットシステム5は、ロボット10と、ワークWを載置するワーク載置部70と、撮像装置としての第1のカメラ20および第2のカメラ21と、制御部50とを備える。ロボット10は、いわゆる多関節型ロボットであり、ベース25と、アーム17A,17Bと、ロボットハンド19を含む手首部18と、それぞれを回動自在に支持する関節部である第1軸12と第2軸14と第3軸16とから構成されている。   As shown in FIG. 1, a robot system 5 having a position measuring device 1 includes a robot 10, a workpiece placement unit 70 on which a workpiece W is placed, a first camera 20 and a second camera 21 as imaging devices. And a control unit 50. The robot 10 is a so-called articulated robot, and includes a base 25, arms 17A and 17B, a wrist portion 18 including a robot hand 19, and a first shaft 12 and a first shaft 12 which are joint portions that rotatably support each. It consists of two shafts 14 and a third shaft 16.

ロボット10は、設置面にベース25により設置される。ベース25は、第1回転軸11を備え、ベース25より上方のロボット10本体を設置面との鉛直軸を中心に回転させることができる。ベース25には、第1軸12を介してアーム17Aが回動自在に取り付けられている。アーム17Aは、第2回転軸13を備え、アーム17A自身が軸方向に回転することができる。アーム17Aには、第2軸14を介してアーム17Bが回動自在に取り付けられている。   The robot 10 is installed on the installation surface by the base 25. The base 25 includes the first rotation shaft 11 and can rotate the main body of the robot 10 above the base 25 about a vertical axis with respect to the installation surface. An arm 17 </ b> A is rotatably attached to the base 25 via the first shaft 12. The arm 17A includes a second rotating shaft 13, and the arm 17A itself can rotate in the axial direction. An arm 17B is rotatably attached to the arm 17A via the second shaft 14.

アーム17Bは、第3回転軸15を備え、アーム17B自身が軸方向に回転することができる。アーム17Bには、第3軸16を介して手首部18が回動自在に取り付けられている。手首部18の先端にはロボットハンド19が設けられ、ワークWに対して作業を実施する。これらの第1〜3軸12,14,16、第1〜3回転軸11,13,15およびロボットハンド19は、図示しないモーターや空圧機器等により操作される複数の図示しないアクチュエーターの駆動により、回動するように構成されている。複数のアクチュエーターは、制御部50からケーブル85を介して送られる制御信号に基づいて駆動される。   The arm 17B includes a third rotating shaft 15, and the arm 17B itself can rotate in the axial direction. A wrist 18 is rotatably attached to the arm 17B via a third shaft 16. A robot hand 19 is provided at the tip of the wrist 18 and performs work on the workpiece W. The first to third shafts 12, 14, 16, the first to third rotating shafts 11, 13, 15 and the robot hand 19 are driven by a plurality of actuators (not shown) operated by a motor (not shown) or pneumatic equipment. , Configured to rotate. The plurality of actuators are driven based on a control signal sent from the control unit 50 via the cable 85.

図2に示すように、第1のカメラ20および第2のカメラ21は、ロボット10の手首部18に所定の距離xだけ隔てられた状態で並設されている。第1のカメラ20および第2のカメラ21は、いわばロボット10の2つの眼として機能するものであり、例えば、CCDのような撮像素子によりロボットハンド19が作業する方向を所定の露光時間で撮像する。そして、撮像されたワークWを含むそれぞれの画像は、画像信号としてケーブル86,87を介して制御部50に送られる。   As shown in FIG. 2, the first camera 20 and the second camera 21 are juxtaposed on the wrist 18 of the robot 10 with a predetermined distance x. The first camera 20 and the second camera 21 function as two eyes of the robot 10, so that, for example, the direction in which the robot hand 19 is working is imaged with a predetermined exposure time by an imaging device such as a CCD. To do. Each image including the imaged workpiece W is sent to the control unit 50 via the cables 86 and 87 as an image signal.

ワーク載置部70は、ワークWを載置するステージ72を有する。ステージ72では、ロボット10によるワークWに対する作業が実施される。ステージ72は、ワークWが載置されるステージ面72aを有し、ステージ面72aは、光を反射する機能を有する複数の反射面からなるマーカー90を1つ以上備えている。このマーカー90の詳細については後述する。ワークWは、例えば、図示しないベルトコンベアで搬送されワーク載置部70のステージ72に搬入され、ロボット10による作業が実施された後、次のワーク載置部70もしくは次の工程に搬出される。ワークWは、図2に示すように、例えば、長方形の板状に形成され、平面部には3つの貫通穴が設けられている。なお、ワーク載置部70そのものがベルトコンベアにより搬送されてもよい。   The work placing unit 70 includes a stage 72 on which the work W is placed. In stage 72, the robot 10 performs an operation on the workpiece W. The stage 72 has a stage surface 72a on which the workpiece W is placed, and the stage surface 72a includes one or more markers 90 formed of a plurality of reflecting surfaces having a function of reflecting light. Details of the marker 90 will be described later. For example, the work W is transported by a belt conveyor (not shown), is carried into the stage 72 of the work placing unit 70, and after the work by the robot 10 is performed, it is carried out to the next work placing unit 70 or the next process. . As shown in FIG. 2, the workpiece W is formed in, for example, a rectangular plate shape, and three through holes are provided in the plane portion. The workpiece placement unit 70 itself may be conveyed by a belt conveyor.

図1に示す制御部50は、少なくとも、画像処理装置30と、パターン記憶部33と、ロボット動作制御部40と、光照射制御部45と、コンピューター60とから構成されている。画像処理装置30は、少なくとも、第1画像入力部31と、第2画像入力部32と、位置情報取得部34とから構成され、ロボット10の第1のカメラ20および第2のカメラ21で撮像され、第1画像入力部31および第2画像入力部32を介して入力されたワークWとマーカー90とを含む2つの画像を処理してワークWの位置情報を取得する。   The control unit 50 shown in FIG. 1 includes at least an image processing device 30, a pattern storage unit 33, a robot operation control unit 40, a light irradiation control unit 45, and a computer 60. The image processing device 30 includes at least a first image input unit 31, a second image input unit 32, and a position information acquisition unit 34, and is imaged by the first camera 20 and the second camera 21 of the robot 10. Then, the two images including the workpiece W and the marker 90 input via the first image input unit 31 and the second image input unit 32 are processed to acquire the position information of the workpiece W.

位置情報取得部34は、画像比較部35と、点拡散関数算出部36と、画像生成部37と、位置算出部39とを備え、種々の演算処理を行いワークWの位置情報を取得する。位置情報取得部34の動作については後述する。ロボット動作制御部40は、コンピューター60の指令に基づいて上述のロボット10の動作を制御し、ワークWに対して所定の作業を実施する。   The position information acquisition unit 34 includes an image comparison unit 35, a point spread function calculation unit 36, an image generation unit 37, and a position calculation unit 39, and performs various arithmetic processes to acquire the position information of the workpiece W. The operation of the position information acquisition unit 34 will be described later. The robot operation control unit 40 controls the operation of the robot 10 based on a command from the computer 60 and performs a predetermined operation on the workpiece W.

光照射制御部45は、ワークWが載置されるステージ面72aに設けられたマーカー90に対して所定の周期で光を照射する光照射部48を有している。光照射部48は、ケーブル88により光照射制御部45に接続され、光を照射する周期等が制御される。パターン記憶部33は、光照射部48に対してマーカー90の位置と、撮像装置(第1のカメラ20もしくは第2のカメラ21)の位置と、を所定の割合で相対移動させながら、撮像装置を用いてマーカー90を撮像した複数のマーカー画像を複数のパターンデータとして記憶している。   The light irradiation control unit 45 includes a light irradiation unit 48 that irradiates light at a predetermined cycle to the marker 90 provided on the stage surface 72a on which the workpiece W is placed. The light irradiation part 48 is connected to the light irradiation control part 45 by the cable 88, and the period etc. which irradiate light are controlled. The pattern storage unit 33 moves the position of the marker 90 relative to the light irradiation unit 48 and the position of the imaging device (the first camera 20 or the second camera 21) relative to each other at a predetermined rate, while taking the imaging device. A plurality of marker images obtained by imaging the marker 90 using the are stored as a plurality of pattern data.

コンピューター60は、中央処理装置として機能し、図示しないCPU、RAM、ROM、HDD、シーケンサーおよびロボットコントローラー等からなるハードウェア資源と、ROMやHDD等に記憶された種々のソフトウェアとを有機的に協働させることにより、ロボット10、画像処理装置30、および光照射制御部45等を総括的に制御する。   The computer 60 functions as a central processing unit, and organically cooperates hardware resources such as a CPU, RAM, ROM, HDD, sequencer, and robot controller (not shown) with various software stored in the ROM, HDD, and the like. By operating, the robot 10, the image processing device 30, the light irradiation control unit 45, etc. are comprehensively controlled.

ここで、本実施例のステージ72と、ステージ72に設けられるマーカー90について図3を参照して説明する。図3(a)に示すように、ステージ72は四角形形状に形成され、例えばステージ面72aの1つのコーナー付近にマーカー90が設けられている。マーカー90は、複数の反射面92を有する。マーカー90は、より多くの反射面92を有することが好ましいが、本実施例では、説明を簡便にするため、例えば、3つの反射面92を有するマーカー90を例にとり説明する。   Here, the stage 72 of this embodiment and the marker 90 provided on the stage 72 will be described with reference to FIG. As shown in FIG. 3A, the stage 72 is formed in a quadrangular shape. For example, a marker 90 is provided near one corner of the stage surface 72a. The marker 90 has a plurality of reflecting surfaces 92. The marker 90 preferably has a larger number of reflecting surfaces 92, but in this embodiment, for the sake of simplicity of description, for example, the marker 90 having three reflecting surfaces 92 will be described as an example.

図3(b)、(c)に示すように、ステージ面72aには、例えば、底面を開口部とする逆三角錐形状の凹部91が形成され、凹部91の開口部以外の3面には光を反射する機能を有する三角形の反射面92がそれぞれ貼付されている。このように形成されることによって、マーカー90は、所定の方向から光を照射されると、光の入射方向によって異なった反射パターンの光を反射する。なお、ワークWは、ステージ面72aに設けられたマーカー90を避けて載置されることが好ましい。   As shown in FIGS. 3B and 3C, the stage surface 72a is formed with, for example, an inverted triangular pyramid-shaped concave portion 91 having a bottom surface as an opening, and the concave surface 91 has three surfaces other than the opening. Triangular reflecting surfaces 92 having a function of reflecting light are respectively attached. By being formed in this way, when the marker 90 is irradiated with light from a predetermined direction, the marker 90 reflects light having a different reflection pattern depending on the light incident direction. In addition, it is preferable that the workpiece | work W is mounted avoiding the marker 90 provided in the stage surface 72a.

(ロボットシステムにおける作業について)
上述のロボットシステム5を用いた作業について、おなじく図1〜3を参照して説明する。ロボットシステム5のロボット10は、図示しないベルトコンベアによりステージ72に搬送されたワークWに対して、作業を実施する。本実施例では、生産効率向上、設備の汎用化および簡素化のため、ワークWの整列装置や位置決め装置を設けていない。そのため、ワークWは、ランダムな姿勢で搬送され、それぞれに固有の作業が実施される。従って、ロボット10は、作業を実施するワークWの位置や姿勢を検出する必要がある。すなわち、ロボットシステム5は、図1に示す第1のカメラ20および第2のカメラ21を用いて、ステージ72に載置されるワークWを撮像してワークWの位置検出を行う。
(About work in robot systems)
The operation using the above-described robot system 5 will be described with reference to FIGS. The robot 10 of the robot system 5 performs work on the workpiece W transferred to the stage 72 by a belt conveyor (not shown). In the present embodiment, no work W alignment device or positioning device is provided in order to improve production efficiency, generalize and simplify the equipment. For this reason, the workpieces W are transported in a random posture, and work unique to each is performed. Therefore, the robot 10 needs to detect the position and posture of the workpiece W that performs the work. That is, the robot system 5 detects the position of the workpiece W by imaging the workpiece W placed on the stage 72 using the first camera 20 and the second camera 21 shown in FIG.

例えば、図3(a)に示すようなレイアウトで、ワークWがステージ72上に置かれたとする。ワークWの位置を検出するため、ロボット10の手首部18の先端部に設けられた第1のカメラ20および第2のカメラ21を用いて、ステージ72上のワークWを撮像する。このとき、ロボット10の手首部18の動きを静止させるか、ワークWを静止させることが好ましい。ところが、このような方法では作業や移動動作が中断されてしまい、作業効率が著しく低下する。そのため、一般には、双方が移動動作を行っている状態で撮像する。このとき、第1のカメラ20および第2のカメラ21は、所定の露光時間に渡りシャッターを開放して撮像する。   For example, it is assumed that the work W is placed on the stage 72 in a layout as shown in FIG. In order to detect the position of the workpiece W, the workpiece W on the stage 72 is imaged using the first camera 20 and the second camera 21 provided at the tip of the wrist portion 18 of the robot 10. At this time, it is preferable that the movement of the wrist portion 18 of the robot 10 is stopped or the workpiece W is stopped. However, in such a method, work and moving operations are interrupted, and work efficiency is significantly reduced. Therefore, in general, imaging is performed in a state where both are moving. At this time, the first camera 20 and the second camera 21 take images by opening the shutter over a predetermined exposure time.

その結果、撮像されたワークWのそれぞれの撮像画像は、動きボケを含んだ、いわゆるボケ画像となってしまう場合が多い。そのままでは、ワークWの位置を検出することができない。そのため、何らかの画像処理が必要である。画像処理方法として、例えばボケ画像がどのようにボケているかを推定し、ボケ画像に対してその逆特性を演算することにより、変換画像としてのボケていない元画像を復元する方法がある。   As a result, each captured image of the imaged workpiece W often becomes a so-called blurred image including motion blur. As it is, the position of the workpiece W cannot be detected. Therefore, some image processing is necessary. As an image processing method, for example, there is a method of restoring a non-blurred original image as a converted image by estimating how the blurred image is blurred and calculating an inverse characteristic of the blurred image.

(ワークの位置検出方法について)
ここで、撮像画像がどのようにボケているのかを表すパラメーターとして点拡散関数を用いたワークの位置検出方法について、図4〜6を参照して説明する。図4は、ワークの位置検出方法の流れを示すフローチャートであり、図5は、カメラで撮像されたワークおよびマーカーの撮像画像を示す図である。図6は、変換画像としての再生された元画像を示す図である。
(About workpiece position detection method)
Here, a workpiece position detection method using a point diffusion function as a parameter representing how the captured image is blurred will be described with reference to FIGS. FIG. 4 is a flowchart illustrating a flow of a workpiece position detection method, and FIG. 5 is a diagram illustrating captured images of a workpiece and a marker captured by a camera. FIG. 6 is a diagram illustrating a reproduced original image as a converted image.

図4に示すように、この位置検出方法は、ワーク搬入工程S11と、第1マーカー&ワーク撮像工程S12aと、第2マーカー&ワーク撮像工程S12bと、第1画像入力工程S13aと、第2画像入力工程S13bと、第1画像比較工程S14aと、第2画像比較工程S14bと、第1点拡散関数算出工程S15aと、第2点拡散関数算出工程S15bと、第1画像生成工程S16aと、第2画像生成工程S16bと、ワーク位置算出工程S17と、を有する。   As shown in FIG. 4, this position detection method includes a workpiece carry-in step S11, a first marker & workpiece imaging step S12a, a second marker & workpiece imaging step S12b, a first image input step S13a, and a second image. Input step S13b, first image comparison step S14a, second image comparison step S14b, first point spread function calculation step S15a, second point spread function calculation step S15b, first image generation step S16a, A two-image generation step S16b and a workpiece position calculation step S17.

ワーク搬入工程S11では、図1に示すロボットシステム5において、ワークWが、ベルトコンベア等で搬送されワーク載置部70のステージ72に供給される。このときワークWは、ランダムな姿勢で供給されるため、ワークWが現在どのような姿勢をなしているか分からない。そこで、次の工程に進む。   In the workpiece carrying-in process S11, the workpiece W is conveyed by a belt conveyor or the like and supplied to the stage 72 of the workpiece placing unit 70 in the robot system 5 shown in FIG. At this time, since the workpiece W is supplied in a random posture, it is not known what posture the workpiece W is currently in. Therefore, the process proceeds to the next step.

第1マーカー&ワーク撮像工程S12aでは、図1に示す第1のカメラ20を用いて、ステージ72に載置されるワークWを撮像する。このとき、ワークWが載置されるステージ面72aに設けられているマーカー90も同一視野内に入るように撮像する。しかしながら、第1のカメラ20およびワークW(ステージ72)は相対的に移動している状態であるため、撮像される撮像画像は、図5(a)に示すように、動きボケを含んだいわゆるボケ画像となってしまう。なお、このとき、図1に示す光照射部48は、光照射制御部45からの制御信号によって第1のカメラ20の露光時間よりも短い周期でマーカー90に向け光を照射する。マーカー90は、複数の反射面92を有しているため、光照射部48からの光を受けその光を反射する。反射された光は複数の反射面92により所定の反射パターンを形成する。   In the first marker and workpiece imaging step S12a, the workpiece W placed on the stage 72 is imaged using the first camera 20 shown in FIG. At this time, imaging is performed so that the marker 90 provided on the stage surface 72a on which the workpiece W is placed also falls within the same visual field. However, since the first camera 20 and the work W (stage 72) are relatively moving, the picked-up image to be picked up is so-called motion blur as shown in FIG. It becomes a blurred image. At this time, the light irradiation unit 48 shown in FIG. 1 irradiates the marker 90 with light at a cycle shorter than the exposure time of the first camera 20 by a control signal from the light irradiation control unit 45. Since the marker 90 has a plurality of reflection surfaces 92, it receives light from the light irradiation unit 48 and reflects the light. The reflected light forms a predetermined reflection pattern by the plurality of reflection surfaces 92.

その結果、図5(a)に示すボケ画像B1を得る。ボケ画像B1は、動きボケを含んだワークWの画像Bwと、マーカー90のマーカー画像100として、マーカー90のいくつかの反射パターン画像105とを含む。図5の例では、第1のカメラ20の露光時間の間に光照射部48から4回光を照射しているため、4つの反射パターン画像105a,105b,105c,105dが撮像されている。本実施例では、図5(b)に示す反射パターン画像105aおよび反射パターン画像105bの距離Lab、反射パターン画像105bおよび反射パターン画像105cの距離Lbc、反射パターン画像105cおよび反射パターン画像105dの距離Lcdはそれぞれ異なる。   As a result, a blurred image B1 shown in FIG. The blurred image B1 includes an image Bw of the workpiece W including motion blur, and several reflection pattern images 105 of the marker 90 as the marker image 100 of the marker 90. In the example of FIG. 5, since light is irradiated four times from the light irradiation unit 48 during the exposure time of the first camera 20, four reflection pattern images 105a, 105b, 105c, and 105d are captured. In this embodiment, the distance Lab between the reflection pattern image 105a and the reflection pattern image 105b shown in FIG. 5B, the distance Lbc between the reflection pattern image 105b and the reflection pattern image 105c, and the distance Lcd between the reflection pattern image 105c and the reflection pattern image 105d. Are different.

また、第2マーカー&ワーク撮像工程S12bでは、図1に示す第2のカメラ21を用いて、ステージ72に載置されるワークWを第1マーカー&ワーク撮像工程S12aと同様に撮像する。その結果、図示しないボケ画像B2を得る。第1のカメラ20と第2のカメラ21とは、図2に示すように、距離x隔てられ並設されている。そのため、得られるボケ画像B2は、ボケ画像B1と比較して、異なった視点、換言すると異なった角度から撮像された画像となる。
なお、以下の説明では説明を簡便にするために、第1のカメラ20を用いて、ステージ72に載置されるワークWを撮像した場合について説明する。
In the second marker & workpiece imaging step S12b, the second camera 21 shown in FIG. 1 is used to image the workpiece W placed on the stage 72 in the same manner as in the first marker & workpiece imaging step S12a. As a result, a blur image B2 (not shown) is obtained. As shown in FIG. 2, the first camera 20 and the second camera 21 are arranged side by side at a distance x. Therefore, the obtained blurred image B2 is an image captured from a different viewpoint, in other words, from a different angle as compared to the blurred image B1.
In the following description, a case where the work W placed on the stage 72 is imaged using the first camera 20 will be described in order to simplify the description.

図4に示す第1画像入力工程S13aでは、第1のカメラ20によって撮像されたマーカー画像100を含むボケ画像B1を、画像信号として、図1に示す制御部50の画像処理装置30の第1画像入力部31に取り込む。取り込まれたボケ画像B1は、位置情報取得部34に送られる。   In the first image input step S13a shown in FIG. 4, the blur image B1 including the marker image 100 captured by the first camera 20 is used as an image signal for the first of the image processing device 30 of the control unit 50 shown in FIG. The image is input into the image input unit 31. The captured blur image B1 is sent to the position information acquisition unit 34.

図4に示す第1画像比較工程S14aでは、図1に示すパターン記憶部33に記憶された一連の反射パターンPの群と、位置情報取得部34に取り込まれたボケ画像B1のマーカー90のマーカー画像100である反射パターン画像105とを比較して、その反射パターン画像105にもっとも近似している反射パターンPを抽出する。図5(c)に示すように、例えば、反射パターン画像105aに対しては、反射パターンPaが抽出される。なお、図5(c)の反射パターン画像105aおよび反射パターンPaの各反射面92に施されている網目の有無もしくは濃度の違いは、各反射面92から反射される光の強さの差を表す。   In the first image comparison step S14a shown in FIG. 4, a group of a series of reflection patterns P stored in the pattern storage unit 33 shown in FIG. 1 and a marker of the marker 90 of the blurred image B1 captured by the position information acquisition unit 34 are used. The reflection pattern image 105 that is the image 100 is compared, and the reflection pattern P that is most approximate to the reflection pattern image 105 is extracted. As shown in FIG. 5C, for example, the reflection pattern Pa is extracted from the reflection pattern image 105a. It should be noted that the presence / absence or density of the meshes applied to the respective reflection surfaces 92 of the reflection pattern image 105a and the reflection pattern Pa in FIG. To express.

反射パターンPは、前述のように、図1に示す光照射部48に対してマーカー90の位置と第1のカメラ20の位置と所定の割合で相対移動させながら撮像したものである。そのため、反射パターンPにおけるマーカー90の反射面92の光の反射具合を確認することによって、マーカー90と第1のカメラ20との位置関係がわかる。また、第1のカメラ20の位置(座標系)を既知のものとすることによって、マーカー90の位置(座標系)を知ることができる。換言すると、反射パターンPは、そのマーカー90の位置(座標)情報を有している。従って、反射パターン画像105aと近い反射パターンPaを抽出することによって、その反射パターン画像105aが撮像されたときのマーカー90の位置(座標)を割り出すことができる。この作業は、反射パターン画像105b,105c,105dのそれぞれに対して行われる。その結果、反射パターン画像105a,105b,105c,105dが撮像されたときのマーカー90のそれぞれの位置を求めることができる。   As described above, the reflection pattern P is obtained by moving the marker 90 and the position of the first camera 20 relative to the light irradiation unit 48 shown in FIG. Therefore, the positional relationship between the marker 90 and the first camera 20 can be determined by confirming the light reflection state of the reflection surface 92 of the marker 90 in the reflection pattern P. Further, by making the position (coordinate system) of the first camera 20 known, the position (coordinate system) of the marker 90 can be known. In other words, the reflection pattern P has the position (coordinate) information of the marker 90. Therefore, by extracting the reflection pattern Pa close to the reflection pattern image 105a, the position (coordinates) of the marker 90 when the reflection pattern image 105a is imaged can be determined. This operation is performed for each of the reflection pattern images 105b, 105c, and 105d. As a result, the positions of the markers 90 when the reflection pattern images 105a, 105b, 105c, and 105d are imaged can be obtained.

図4に示す第1点拡散関数算出工程S15aでは、ボケ画像B1からマーカー画像100(反射パターン画像105)を抽出して点拡散関数を算出する。この点拡散関数の算出方法は、特に限定しない。公知の算出方法を適用すればよい。なお、マーカー画像100は、点拡散関数の空間移動分の情報、すなわち、ボケを発生させる動きの方向と速度とをデータとして持つ。この場合、反射パターン画像105の違いからマーカー90の位置の変化、すなわち動きベクトル(ボケを発生させた動き方向)を知ることができる。マーカー90は、略等しい間隔(周期)で光照射部48の光を反射している。そのため、各反射パターン画像105a,105b,105c,105d間の距離Lab,Lbc,Lcdから、マーカー90を撮像したときの第1のカメラ20とマーカー90との相対移動速度vの関係を知ることができる。   In the first point diffusion function calculation step S15a shown in FIG. 4, the marker image 100 (reflection pattern image 105) is extracted from the blurred image B1 to calculate the point diffusion function. The method for calculating the point spread function is not particularly limited. A known calculation method may be applied. Note that the marker image 100 has information on the spatial movement of the point spread function, that is, the direction and speed of the movement that causes the blur. In this case, it is possible to know the change in the position of the marker 90, that is, the motion vector (the motion direction in which the blur is generated) from the difference in the reflection pattern image 105. The marker 90 reflects light from the light irradiation unit 48 at substantially equal intervals (periods). Therefore, it is possible to know the relationship between the relative movement speed v between the first camera 20 and the marker 90 when the marker 90 is imaged from the distances Lab, Lbc, and Lcd between the reflection pattern images 105a, 105b, 105c, and 105d. it can.

図5(b)に示すマーカー画像100を例にとると、反射パターン画像105の違いからわかるマーカー90の位置(座標)の変化によって矢印Mに沿った移動をしていることがわかる。また、反射パターン画像105は、反射パターン画像105bおよび反射パターン画像105cの距離Lbc>反射パターン画像105cおよび反射パターン画像105dの距離Lcd>反射パターン画像105aおよび反射パターン画像105bの距離Labの関係になっている。そのため、反射パターン画像105a、反射パターン画像105b間を撮像したときの第1のカメラ20とマーカー90との相対移動速度vabと、反射パターン画像105b、反射パターン画像105c間を撮像したときの第1のカメラ20とマーカー90との相対移動速度vbcと、反射パターン画像105c、反射パターン画像105d間を撮像したときの第1のカメラ20とマーカー90との相対移動速度vcdとの関係は、相対移動速度vbc>相対移動速度vcd>相対移動速度vabとなることがわかる。   Taking the marker image 100 shown in FIG. 5B as an example, it can be seen that the marker 90 moves along the arrow M due to the change in the position (coordinates) of the marker 90 that can be seen from the difference in the reflection pattern image 105. The reflection pattern image 105 has a relationship of a distance Lbc between the reflection pattern image 105b and the reflection pattern image 105c> a distance Lcd between the reflection pattern image 105c and the reflection pattern image 105d> a distance Lab between the reflection pattern image 105a and the reflection pattern image 105b. ing. Therefore, the relative movement speed vab between the first camera 20 and the marker 90 when the reflection pattern image 105a and the reflection pattern image 105b are imaged, and the first when the reflection pattern image 105b and the reflection pattern image 105c are imaged. The relative movement speed vbc between the camera 20 and the marker 90 and the relative movement speed vcd between the first camera 20 and the marker 90 when imaging between the reflection pattern image 105c and the reflection pattern image 105d is relative movement. It can be seen that speed vbc> relative movement speed vcd> relative movement speed vab.

次いで、図4に示す第1画像生成工程S16aでは、第1点拡散関数算出工程S15aで算出した点拡散関数を用いて、ボケ画像B1からボケてない元画像(変換画像)を生成する。この方法を簡単に説明する。   Next, in a first image generation step S16a shown in FIG. 4, an original image (converted image) that is not blurred is generated from the blurred image B1 using the point diffusion function calculated in the first point diffusion function calculation step S15a. This method will be briefly described.

画像のボケは、下記の式(1)のようにモデル化される。この式(1)で示すように、元画像をImage、ボケ画像をBlur、画像がどのようにボケているのかを表すパラメーターである点拡散関数をPSFとすると、ボケ画像(Blur)は点拡散関数(PSF)と元画像(Image)との畳み込み演算で与えられる。点拡散関数(PSF)は、名前のとおり、本来1点であるデータが、どのように拡がっているのかを表す関数である。   The blur of the image is modeled as the following formula (1). As shown in this equation (1), when the original image is Image, the blurred image is Blur, and the point diffusion function that is a parameter indicating how the image is blurred is PSF, the blurred image (Blur) is point spread. It is given by the convolution operation of the function (PSF) and the original image (Image). As the name suggests, the point spread function (PSF) is a function that expresses how data that is originally one point is spread.

Figure 2010276447
Figure 2010276447

ここで、下記の式(2)、(3)、(4)のように、関数fに対するフーリエ変換操作をF[f]と表すとすると、元画像(Image)のフーリエ変換はimage、ボケ画像(Blur)のフーリエ変換はblur、点拡散関数(PSF)のフーリエ変換はpsfと表すことができる。畳み込み演算は、フーリエ変換により単なる乗算に変換されるため、式(1)は下記の式(5)に変換される。   If the Fourier transform operation for the function f is expressed as F [f] as in the following formulas (2), (3), and (4), the Fourier transform of the original image (Image) is an image, a blurred image. The Fourier transform of (Blur) can be expressed as Blur, and the Fourier transform of the point spread function (PSF) can be expressed as psf. Since the convolution operation is converted into simple multiplication by Fourier transform, Expression (1) is converted to Expression (5) below.

Figure 2010276447
Figure 2010276447

Figure 2010276447
Figure 2010276447

下記の式(6)のように、元画像のフーリエ変換(image)は、点拡散関数(PSF)のフーリエ変換である(psf)の逆数と、ボケ画像(Blur)のフーリエ変換である(blur)との積により得られる。関数fの逆フーリエ変換操作をIF[f]とすると、ボケの無い元画像(Image)は、式(6)で得られた元画像のフーリエ変換(image)を、式(7)のように逆フーリエ変換することにより得られる。   As shown in the following equation (6), the Fourier transform (image) of the original image is the inverse of (psf) which is the Fourier transform of the point spread function (PSF) and the Fourier transform of the blurred image (Blur) (blur). ) And the product. When the inverse Fourier transform operation of the function f is IF [f], the original image (Image) without blur is the Fourier transform (image) of the original image obtained by Equation (6) as in Equation (7). It is obtained by inverse Fourier transform.

Figure 2010276447
Figure 2010276447

Figure 2010276447
Figure 2010276447

上述のような演算処理は、数学的処理としては単純なものであり、その一例として、ウィーナフィルター処理などがある。このようにして図6(a)に示すボケていないワーク画像Gw1が表示されている元画像G1が生成される。   The arithmetic processing as described above is a simple mathematical process, and an example thereof is a Wiener filter process. In this way, the original image G1 on which the unblurred work image Gw1 shown in FIG. 6A is displayed is generated.

第2のカメラ21を用いて、ステージ72に載置されるワークWを撮像した場合についても、上述の説明と同様に、第2マーカー&ワーク撮像工程S12b、第2画像入力工程S13b、第2画像比較工程S14b、第2点拡散関数算出工程S15bおよび第2画像生成工程S16bを実施して、図6(b)に示すボケていないワーク画像Gw2が表示されている元画像G2が生成される。得られる元画像G2は、元画像G1と比較して、異なった視点、換言すると異なった角度から見た画像となる。   Also when the workpiece W placed on the stage 72 is imaged using the second camera 21, the second marker & workpiece imaging step S12b, the second image input step S13b, the second, as described above. The image comparison step S14b, the second point diffusion function calculation step S15b, and the second image generation step S16b are performed to generate the original image G2 on which the unblurred work image Gw2 shown in FIG. 6B is displayed. . The obtained original image G2 is an image viewed from a different viewpoint, in other words, from a different angle compared to the original image G1.

次いで、図4に示すワーク位置算出工程S17では、生成された元画像G1および元画像G2に基づいてワークWの位置を算出する。ワークWの位置算出方法は、公知の位置算出方法が適用される。例えば、エピポーラ(Epipolar)線の性質、すなわち、第1のカメラ20と計測点を結ぶ直線は第2のカメラ21に直線として投影され、第1のカメラ20に写っている点は第2のカメラ21ではこの直線(エピポーラ線)上にあるという性質を用いて複数の計測点の座標を求め、ワークWの位置を算出してもよい。このとき、計測点は、ワークWの形状の特徴点に注目して決定することが好ましい。   Next, in a workpiece position calculation step S17 shown in FIG. 4, the position of the workpiece W is calculated based on the generated original image G1 and original image G2. A known position calculation method is applied as the position calculation method of the workpiece W. For example, the nature of the epipolar line, that is, the straight line connecting the first camera 20 and the measurement point is projected as a straight line to the second camera 21, and the point reflected in the first camera 20 is the second camera. In 21, the position of the workpiece W may be calculated by obtaining the coordinates of a plurality of measurement points using the property of being on the straight line (epipolar line). At this time, the measurement point is preferably determined by paying attention to the feature point of the shape of the workpiece W.

そして、算出した位置に関する情報を図1に示すロボット動作制御部40に送る。ロボット動作制御部40は、アーム17等の稼動部の動作を上記情報に基づいて制御する。すなわち、ロボット動作制御部40は、情報に基づき、ロボット10を移動させるための複数のアクチュエーターの駆動量を算出し、それぞれのアクチュエーター毎に駆動信号を生成し、それぞれのアクチュエーターに送る。この結果、アーム17が所定の位置まで移動しロボットハンド19によりワークWに所定の作業が実施される。   And the information regarding the calculated position is sent to the robot operation control unit 40 shown in FIG. The robot operation control unit 40 controls the operation of the operation unit such as the arm 17 based on the information. That is, the robot operation control unit 40 calculates the drive amounts of a plurality of actuators for moving the robot 10 based on the information, generates a drive signal for each actuator, and sends the drive signal to each actuator. As a result, the arm 17 moves to a predetermined position, and a predetermined work is performed on the workpiece W by the robot hand 19.

以下、本実施例の効果を記載する。
(1)上述の位置計測装置1を適用したロボットシステム5は、ワークWが載置されるステージ72に第1のカメラ20および第2のカメラ21の露光時間より短い周期で反射光を反射する複数の反射面92からなるマーカー90が設けられている。そして、ワークWの位置(特徴点の座標)を計測するとき、ロボット10に設けられた第1のカメラ20および第2のカメラ21を用い、異なる視線方向からワークWとマーカー90とを同一視野に入れるように撮像する。ステージ72と第1のカメラ20および第2のカメラ21とが相対移動しているため、ワークWの撮像画像は、動きボケを含んだボケ画像Bとなる。ボケ画像Bは、そのマーカー90の反射パターン画像105からなるマーカー画像100を含んでいる。
The effects of this example will be described below.
(1) The robot system 5 to which the above-described position measuring device 1 is applied reflects reflected light on the stage 72 on which the workpiece W is placed at a cycle shorter than the exposure time of the first camera 20 and the second camera 21. A marker 90 composed of a plurality of reflecting surfaces 92 is provided. When measuring the position of the workpiece W (coordinates of feature points), the first camera 20 and the second camera 21 provided in the robot 10 are used to view the workpiece W and the marker 90 from the same line of sight in the same visual field. Take an image so that Since the stage 72 and the first camera 20 and the second camera 21 are relatively moved, the captured image of the workpiece W is a blurred image B including motion blur. The blurred image B includes a marker image 100 composed of the reflection pattern image 105 of the marker 90.

マーカー画像100は、複数の反射パターン画像105a,105b,105c,105dから構成されているため、反射パターン画像105a,105b,105c,105dが形成する列の方向および反射パターン画像105a,105b,105c,105d間の距離Lab,Lbc,Lcdからボケを発生させた動きの方向や速度変化等の点拡散関数の構成要素を容易に取得することができる。その結果、第1のカメラ20および第2のカメラ21の撮像画像をそれぞれ解析するだけで、点拡散関数が容易に精度良く求めることができ、求められた点拡散関数を用いて画像変換することにより、撮像画像としてのボケ画像Bから変換画像としてのボケていない元画像Gを精度良く生成することができる。そして、これらの元画像Gを使用してステレオ計測法を適用することによって被計測物の位置をより正確に計測することができる。したがって、ロボットシステム5の作業効率を向上させることができる。   Since the marker image 100 includes a plurality of reflection pattern images 105a, 105b, 105c, and 105d, the direction of the columns formed by the reflection pattern images 105a, 105b, 105c, and 105d and the reflection pattern images 105a, 105b, 105c, Constituent elements of the point spread function such as the direction of movement and the speed change that generate the blur can be easily obtained from the distances Lab, Lbc, and Lcd between 105d. As a result, the point spread function can be obtained easily and accurately simply by analyzing the captured images of the first camera 20 and the second camera 21, respectively, and image conversion is performed using the obtained point spread function. Thus, the original image G that is not blurred as the converted image can be accurately generated from the blurred image B as the captured image. And the position of a to-be-measured object can be measured more correctly by applying the stereo measurement method using these original images G. Therefore, the working efficiency of the robot system 5 can be improved.

(第2実施例)
ここで、第2実施例の位置計測装置1をロボットシステムに適用した例について図7および図8を参照して説明する。図7は第2実施例のステージを説明する図であり、図8は第2実施例にかかるワークの画像を示す図である。なお、第2実施例は、第1実施例に対して、マーカー90の設置状況が異なる例である。また、第1実施例と同様な構成および内容については、符号を等しくして説明を省略する。
(Second embodiment)
Here, an example in which the position measuring apparatus 1 of the second embodiment is applied to a robot system will be described with reference to FIGS. FIG. 7 is a diagram for explaining the stage of the second embodiment, and FIG. 8 is a diagram showing an image of the workpiece according to the second embodiment. In addition, 2nd Example is an example from which the installation condition of the marker 90 differs from 1st Example. Further, the same configurations and contents as those of the first embodiment are denoted by the same reference numerals and description thereof is omitted.

図7に示すように、ステージ72は、ワークWが載置されるステージ面72aの3つのコーナー付近に、それぞれマーカー90a,90b,90cを1つずつ備えている。マーカー90a,90b,90cは、上述の第1実施例で説明したマーカー90と同一な構造に形成されている。   As shown in FIG. 7, the stage 72 includes one marker 90a, 90b, and 90c in the vicinity of three corners of the stage surface 72a on which the workpiece W is placed. The markers 90a, 90b, 90c are formed in the same structure as the marker 90 described in the first embodiment.

図4に示す位置検出方法の第1マーカー&ワーク撮像工程S12aおよび第2マーカー&ワーク撮像工程S12bでは、図1に示す第1のカメラ20および第2のカメラ21を用いて、ステージ72に載置されるワークWおよびマーカー90a,90b,90cが同一視野内に入るように撮像する。その結果、図8に示す動きボケを含んだいわゆるボケ画像Baを得る。ボケ画像Baは、動きボケを含んだワークWの画像Bwと、画像の3つのコーナー付近のそれぞれにマーカー90aのマーカー画像110と、マーカー90bのマーカー画像120とマーカー90cのマーカー画像130とを有する。   In the first marker & workpiece imaging step S12a and the second marker & workpiece imaging step S12b of the position detection method shown in FIG. 4, the first camera 20 and the second camera 21 shown in FIG. Imaging is performed so that the workpiece W and the markers 90a, 90b, and 90c to be placed are within the same visual field. As a result, a so-called blurred image Ba including motion blur shown in FIG. 8 is obtained. The blurred image Ba includes an image Bw of the workpiece W including motion blur, a marker image 110 of the marker 90a, a marker image 120 of the marker 90b, and a marker image 130 of the marker 90c near each of the three corners of the image. .

マーカー画像110は、例えば、図8中右下から左上の方向(矢印N1方向)に向かって形成されている。そのため、矢印N1に沿った移動をしていることがわかる。さらには、ボケ画像Baの輝点110a,110b,110c,110dに注目することによって、第1実施例と同様に、移動の方向、動きベクトルおよびを第1のカメラ20とマーカー90aとの相対移動速度vの関係を知ることができる。   The marker image 110 is formed, for example, from the lower right in FIG. 8 toward the upper left (arrow N1 direction). Therefore, it turns out that it is moving along arrow N1. Further, by paying attention to the bright spots 110a, 110b, 110c, and 110d of the blurred image Ba, the movement direction, the motion vector, and the relative movement between the first camera 20 and the marker 90a are obtained as in the first embodiment. It is possible to know the relationship of the speed v.

マーカー画像120は、図8中右下から左上の方向(矢印N2方向)に向かって形成されている。そのため、矢印N2に沿った移動をしていることがわかる。マーカー画像130は、図8中右下から左上の方向(矢印N3方向)に向かって形成されている。そのため、少なくとも矢印N3に沿った移動をしていることがわかる。また、マーカー画像110の輝点110a〜dの距離L110、マーカー画像120の輝点120a〜dの距離L120およびマーカー画像130の輝点130a〜dの距離L130に注目すると、距離L110<距離L120<距離L130の関係にあり、各輝点間の距離が相似し大きくなっていることがわかる。この移動の方向(矢印N1,N2,N3)および距離L110,L120,L130の変化を解析することによって、マーカー画像110から求まる方向および速度で移動しながら、図8中の矢印R方向に回転していることがわかる。   The marker image 120 is formed from the lower right to the upper left (arrow N2 direction) in FIG. Therefore, it turns out that it is moving along arrow N2. The marker image 130 is formed from the lower right to the upper left (arrow N3 direction) in FIG. Therefore, it can be seen that the robot moves at least along the arrow N3. Further, when attention is paid to the distance L110 of the bright spots 110a to 110d of the marker image 110, the distance L120 of the bright spots 120a to 120d of the marker image 120, and the distance L130 of the bright spots 130a to 130d of the marker image 130, the distance L110 <distance L120 <. It can be seen that the distance between the bright points is similar and large because of the relationship of the distance L130. By analyzing changes in the direction of movement (arrows N1, N2, N3) and distances L110, L120, and L130, the robot rotates in the direction of arrow R in FIG. 8 while moving at the direction and speed determined from the marker image 110. You can see that

すなわち、第1のカメラ20とワークW(ステージ72)との相対移動において、回転や傾き等の移動により動きボケが発生したとしても、マーカー画像110,120,130を解析することによって点拡散関数をより正確に算出することができる。従って、求められた点拡散関数よりワークWの位置をより正確に知ることができ、ロボット10の作業の精度を向上させることができる。なお、マーカー90の数は、第1実施例で説明した1つおよび第2実施例で説明した3つに限定されるものではない。予想される第1のカメラ20および第2のカメラ21とワークW(ステージ72)との動きに対応して、マーカー90の数を決定すればよい。   That is, in the relative movement between the first camera 20 and the workpiece W (stage 72), even if motion blur occurs due to movement such as rotation or tilt, the point spread function is analyzed by analyzing the marker images 110, 120, and 130. Can be calculated more accurately. Therefore, the position of the workpiece W can be known more accurately from the obtained point spread function, and the work accuracy of the robot 10 can be improved. The number of markers 90 is not limited to one described in the first embodiment and three described in the second embodiment. What is necessary is just to determine the number of the markers 90 according to the motion of the 1st camera 20 and the 2nd camera 21, and the workpiece | work W (stage 72) anticipated.

以上、本発明の実施例について説明したが、上記実施例に対しては、本発明の趣旨から逸脱しない範囲で様々な変形を加えることができる。例えば上記実施例以外の変形例は、以下の通りである。   As mentioned above, although the Example of this invention was described, various deformation | transformation can be added with respect to the said Example in the range which does not deviate from the meaning of this invention. For example, modifications other than the above embodiment are as follows.

(第1変形例)上述の実施例では、第1のカメラ20および第2のカメラ21がロボット10の手首部18に設置されている場合を例にとり、説明したがこれに限定されない。第1変形例にかかる位置計測装置1を適用したロボットシステムの構成を示す図である図9に示すように、第1のカメラ20および第2のカメラ21は、ロボット10と別体に設けられていてもよい。この場合についても、ステージ72に載置されるワークWの移動に伴う動きボケが補正された元画像(変換画像)を生成することができる。   (First Modification) In the above-described embodiment, the case where the first camera 20 and the second camera 21 are installed on the wrist 18 of the robot 10 has been described as an example, but the present invention is not limited to this. As shown in FIG. 9, which shows a configuration of a robot system to which the position measuring device 1 according to the first modification is applied, the first camera 20 and the second camera 21 are provided separately from the robot 10. It may be. Also in this case, it is possible to generate an original image (converted image) in which the motion blur accompanying the movement of the work W placed on the stage 72 is corrected.

(第2変形例)上述の実施例では、3つの反射面92を有するマーカー90を例にとり説明したが、これに限定されない。マーカー90は、より多くの反射パターンを有するためにも、より多くの反射面92を備えることが好ましい。例えば、第2変形例のマーカーを説明する図である図10に示すようにダイヤモンドのカットに用いられるブリリアンカットされたガラス94をステージ72に埋め込み、マーカー90としてもよい。この場合は、反射パターンをより細かくすることができ、マーカー90の位置情報をより細かく反射パターンに反映することができる。そのため、点拡散関数の算出精度を高めることが可能になる。   (Second Modification) In the above embodiment, the marker 90 having the three reflecting surfaces 92 has been described as an example, but the present invention is not limited to this. The marker 90 is preferably provided with more reflecting surfaces 92 in order to have more reflecting patterns. For example, as shown in FIG. 10, which is a diagram for explaining the marker of the second modification, brilliant-cut glass 94 used for diamond cutting may be embedded in the stage 72 to form the marker 90. In this case, the reflection pattern can be made finer, and the position information of the marker 90 can be reflected more finely in the reflection pattern. Therefore, it is possible to increase the calculation accuracy of the point spread function.

(第3変形例)上述の実施例では、複数の撮像装置として第1のカメラ20および第2のカメラ21を適用した場合を例にとり説明したが、撮像装置の数は2つに限定されるものではなく、2つ以上の複数であればよい。また、ロボット10として多関節型ロボットを採用した場合について説明したが、これに限定されるものではなく、スカラー型のロボットであってもよい。さらには、ロボット10の用途は、ロボットハンド19による部品の把持、ハンダ付けや溶接のような加工を行う等様々な用途が想定される。さらに、産業用ロボットに限らず、医療用ロボットや家庭用ロボットであってもよい。   (Third Modification) In the above-described embodiment, the case where the first camera 20 and the second camera 21 are applied as a plurality of imaging devices has been described as an example. However, the number of imaging devices is limited to two. It is not a thing and what is necessary is just two or more. Further, although the case where an articulated robot is employed as the robot 10 has been described, the present invention is not limited to this, and a scalar type robot may be used. Furthermore, the robot 10 can be used for various purposes such as gripping parts by the robot hand 19 and performing processing such as soldering and welding. Furthermore, the robot is not limited to an industrial robot, and may be a medical robot or a home robot.

1…位置計測装置、5…ロボットシステム、10…ロボット、18…手首部、19…ロボットハンド、20…撮像装置としての第1のカメラ、21…撮像装置としての第2のカメラ、30…画像処理装置、31…第1画像入力部、32…第2画像入力部、33…パターン記憶部、34…位置情報取得部、35…画像比較部、36…点拡散関数算出部、37…画像生成部、39…位置算出部、45…光照射制御部、48…光照射部、50…制御部、60…コンピューター、72…ステージ、90…マーカー、92…反射面、100,110,120,130…マーカー画像、105a,105b,105c,105d…反射パターン画像、B,B1,B2,Ba…撮像画像としてのボケ画像、G,G1,G2…変換画像としての元画像、W…被計測物および作業対象物としてのワーク。   DESCRIPTION OF SYMBOLS 1 ... Position measuring device, 5 ... Robot system, 10 ... Robot, 18 ... Wrist part, 19 ... Robot hand, 20 ... 1st camera as an imaging device, 21 ... 2nd camera as an imaging device, 30 ... Image Processing device 31 ... first image input unit 32 ... second image input unit 33 ... pattern storage unit 34 ... position information acquisition unit 35 ... image comparison unit 36 ... point spread function calculation unit 37 ... image generation 39: Position calculation unit 45 ... Light irradiation control unit 48 ... Light irradiation unit 50 ... Control unit 60 ... Computer 72 ... Stage 90 90 Marker 92 92 Reflecting surface 100, 110, 120, 130 ... Marker images, 105a, 105b, 105c, 105d ... Reflection pattern images, B, B1, B2, Ba ... Blurred images as captured images, G, G1, G2 ... Original images as converted images, W ... Covered It works as a measurement object and the work object.

Claims (6)

被計測物を載置するとともに、規則性を有する複数の反射光を放出するマーカーを備えたステージと、
前記マーカーに対して光を照射する光照射部と、
前記被計測物と前記マーカーとを同一画像として異なった視線方向から撮像する複数の撮像装置と、を備え、
前記複数の撮像装置により撮像された撮像画像から前記マーカーのマーカー画像を抽出して、前記マーカー画像から点拡散関数を算出する点拡散関数算出部と、
算出した前記点拡散関数を用いて前記撮像画像を画像変換することにより変換画像を生成する画像生成部と、
生成された前記変換画像から前記被計測物の位置を算出する位置算出部と、を有することを特徴とする位置計測装置。
A stage with a marker for placing a measurement object and emitting a plurality of reflected light with regularity;
A light irradiation unit for irradiating light to the marker;
A plurality of imaging devices for imaging the object to be measured and the marker as different images from different line-of-sight directions;
A point spread function calculator that extracts a marker image of the marker from the captured images captured by the plurality of imaging devices and calculates a point spread function from the marker image;
An image generation unit that generates a converted image by converting the captured image using the calculated point spread function;
A position calculation unit that calculates a position of the object to be measured from the generated converted image.
前記マーカーは、複数の反射面が三次元的に設けられていることを特徴とする請求項1に記載の位置計測装置。   The position measuring device according to claim 1, wherein the marker is provided with a plurality of reflecting surfaces in a three-dimensional manner. 前記光照射部は、前記撮像装置の露光時間より短い間隔で前記マーカーに対して光を照射することを特徴とする請求項1または2に記載の位置計測装置。   The position measuring device according to claim 1, wherein the light irradiation unit irradiates the marker with light at an interval shorter than an exposure time of the imaging device. 前記マーカーの位置情報を含む反射パターンを予め記憶しているパターン記憶部を備え、
前記点拡散関数算出部は、撮像された前記マーカーの前記マーカー画像と前記パターン記憶部に記憶された前記反射パターンとを比較する画像比較部を有することを特徴とする請求項1乃至3のいずれか一項に記載の位置計測装置。
A pattern storage unit that stores in advance a reflection pattern including position information of the marker,
4. The point spread function calculation unit includes an image comparison unit that compares the marker image of the captured marker with the reflection pattern stored in the pattern storage unit. The position measuring device according to claim 1.
光照射部から照射される光を受けて規則性を有する反射光を反射するマーカーを備えたステージに載置される被計測物を、複数の撮像装置により前記マーカーとともに、異なった視線方向から撮像する撮像工程と、
前記撮像工程で撮像された撮像画像から前記マーカーのマーカー画像を抽出して、前記マーカー画像のパターン変化から点拡散関数を算出する点拡散関数算出工程と、
算出した前記点拡散関数を用いて前記撮像画像を画像変換することにより変換画像を生成する画像生成工程と、
生成された前記変換画像から前記被計測物の位置を算出する位置算出工程と、を有することを特徴とする位置計測方法。
An object to be measured placed on a stage provided with a marker that receives light emitted from a light irradiation unit and reflects reflected light having regularity is imaged together with the marker from different gaze directions by a plurality of imaging devices. An imaging process to
A point diffusion function calculating step of extracting a marker image of the marker from the captured image captured in the imaging step and calculating a point diffusion function from a pattern change of the marker image;
An image generation step of generating a converted image by converting the captured image using the calculated point spread function;
A position calculation step of calculating a position of the measurement object from the generated converted image.
請求項1乃至4のいずれか一項に記載の位置計測装置で作業対象物の位置を計測することを特徴とするロボットシステム。   A robot system that measures the position of a work object with the position measurement device according to claim 1.
JP2009128602A 2009-05-28 2009-05-28 Position measuring apparatus, position measuring method and robot system Withdrawn JP2010276447A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009128602A JP2010276447A (en) 2009-05-28 2009-05-28 Position measuring apparatus, position measuring method and robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009128602A JP2010276447A (en) 2009-05-28 2009-05-28 Position measuring apparatus, position measuring method and robot system

Publications (1)

Publication Number Publication Date
JP2010276447A true JP2010276447A (en) 2010-12-09

Family

ID=43423549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009128602A Withdrawn JP2010276447A (en) 2009-05-28 2009-05-28 Position measuring apparatus, position measuring method and robot system

Country Status (1)

Country Link
JP (1) JP2010276447A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4782899B2 (en) * 2009-07-22 2011-09-28 パナソニック株式会社 Parallax detection device, distance measuring device, and parallax detection method
CN102794763A (en) * 2012-08-31 2012-11-28 江南大学 Systematic calibration method of welding robot guided by line structured light vision sensor
JP2015001465A (en) * 2013-06-17 2015-01-05 キヤノン株式会社 Three-dimensional position measurement device and calibration error determination method of three-dimensional position measurement device
JP2016031619A (en) * 2014-07-28 2016-03-07 グローリー株式会社 Storage work device, valuable medium storage system, and storage work method
CN105538345A (en) * 2016-01-27 2016-05-04 华南理工大学 Intelligent mechanical arm based on multiple cameras and positioning and assembling method
CN108098746A (en) * 2017-11-14 2018-06-01 歌尔科技有限公司 Mechanical arm and mechanical arm bootstrap operating method
JP2019215378A (en) * 2013-04-30 2019-12-19 コー・ヤング・テクノロジー・インコーポレーテッド Method for operating optical tracking system and optical tracking system
JP2021025921A (en) * 2019-08-06 2021-02-22 株式会社キーエンス Three-dimensional shape measurement device and three-dimensional shape measurement method
WO2021149295A1 (en) * 2020-01-24 2021-07-29 株式会社大気社 Automatic teaching system

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8723926B2 (en) 2009-07-22 2014-05-13 Panasonic Corporation Parallax detecting apparatus, distance measuring apparatus, and parallax detecting method
JP4782899B2 (en) * 2009-07-22 2011-09-28 パナソニック株式会社 Parallax detection device, distance measuring device, and parallax detection method
CN102794763A (en) * 2012-08-31 2012-11-28 江南大学 Systematic calibration method of welding robot guided by line structured light vision sensor
CN102794763B (en) * 2012-08-31 2014-09-24 江南大学 Systematic calibration method of welding robot guided by line structured light vision sensor
JP2019215378A (en) * 2013-04-30 2019-12-19 コー・ヤング・テクノロジー・インコーポレーテッド Method for operating optical tracking system and optical tracking system
JP2015001465A (en) * 2013-06-17 2015-01-05 キヤノン株式会社 Three-dimensional position measurement device and calibration error determination method of three-dimensional position measurement device
JP2016031619A (en) * 2014-07-28 2016-03-07 グローリー株式会社 Storage work device, valuable medium storage system, and storage work method
CN105538345A (en) * 2016-01-27 2016-05-04 华南理工大学 Intelligent mechanical arm based on multiple cameras and positioning and assembling method
US10899014B2 (en) 2016-01-27 2021-01-26 South China University Of Technology Multiple lens-based smart mechanical arm and positioning and assembly method thereof
WO2019095506A1 (en) * 2017-11-14 2019-05-23 歌尔科技有限公司 Mechanical arm and self-guiding operation method for mechanical arm
CN108098746B (en) * 2017-11-14 2019-08-20 歌尔科技有限公司 Mechanical arm and mechanical arm bootstrap operating method
CN108098746A (en) * 2017-11-14 2018-06-01 歌尔科技有限公司 Mechanical arm and mechanical arm bootstrap operating method
JP2021025921A (en) * 2019-08-06 2021-02-22 株式会社キーエンス Three-dimensional shape measurement device and three-dimensional shape measurement method
JP7332386B2 (en) 2019-08-06 2023-08-23 株式会社キーエンス Three-dimensional shape measuring device and three-dimensional shape measuring method
WO2021149295A1 (en) * 2020-01-24 2021-07-29 株式会社大気社 Automatic teaching system
JP2021115656A (en) * 2020-01-24 2021-08-10 株式会社大気社 Automatic teaching system
CN113474132A (en) * 2020-01-24 2021-10-01 株式会社大气社 Automatic teaching system

Similar Documents

Publication Publication Date Title
JP2010276447A (en) Position measuring apparatus, position measuring method and robot system
JP6271953B2 (en) Image processing apparatus and image processing method
JP7027299B2 (en) Calibration and operation of vision-based operation system
JP6734253B2 (en) Imaging device including a visual sensor for imaging a workpiece
JP6380667B2 (en) Shape measuring apparatus and shape measuring method
WO2016154995A1 (en) Method for industrial robot commissioning, industrial robot system and control system using the same
JP6324025B2 (en) Information processing apparatus and information processing method
JP6520451B2 (en) Appearance photographing apparatus and appearance photographing method
JP2011186928A (en) Information processing appratus and control method thereof
JP2013036987A (en) Information processing device and information processing method
JP2012002761A (en) Position attitude measurement instrument, processing method thereof, and program
JP2014013146A (en) Three-dimensional measuring instrument and robot device
Montironi et al. Adaptive autonomous positioning of a robot vision system: Application to quality control on production lines
Hsu et al. Development of a faster classification system for metal parts using machine vision under different lighting environments
US20170151676A1 (en) Optical measurement of object location in three dimensions
JP2020075327A (en) Control system
KR101972432B1 (en) A laser-vision sensor and calibration method thereof
JP6180158B2 (en) Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus
JP2010184300A (en) Attitude changing device and attitude changing method
JP2010133718A (en) Position detection method and position detection apparatus of work object
Seçil et al. 3-d visualization system for geometric parts using a laser profile sensor and an industrial robot
JP2010146357A (en) Method and apparatus for three-dimensional image processing
JP2005186193A (en) Calibration method and three-dimensional position measuring method for robot
JP2015132523A (en) Position/attitude measurement apparatus, position/attitude measurement method, and program
JP2016187851A (en) Calibration device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120807