JP7312663B2 - Linear object working position determining method, robot control method, linear object fixing method, linear object working position determining device, and linear object gripping system - Google Patents

Linear object working position determining method, robot control method, linear object fixing method, linear object working position determining device, and linear object gripping system Download PDF

Info

Publication number
JP7312663B2
JP7312663B2 JP2019181544A JP2019181544A JP7312663B2 JP 7312663 B2 JP7312663 B2 JP 7312663B2 JP 2019181544 A JP2019181544 A JP 2019181544A JP 2019181544 A JP2019181544 A JP 2019181544A JP 7312663 B2 JP7312663 B2 JP 7312663B2
Authority
JP
Japan
Prior art keywords
linear object
image
cable
linear
working position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019181544A
Other languages
Japanese (ja)
Other versions
JP2021056165A (en
Inventor
亮 永井
基善 北井
淳一 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kurashiki Spinning Co Ltd
Original Assignee
Kurashiki Spinning Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kurashiki Spinning Co Ltd filed Critical Kurashiki Spinning Co Ltd
Priority to JP2019181544A priority Critical patent/JP7312663B2/en
Publication of JP2021056165A publication Critical patent/JP2021056165A/en
Application granted granted Critical
Publication of JP7312663B2 publication Critical patent/JP7312663B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Description

本発明は、先端に光沢部を有する線状物の三次元計測方法、それを用いた線状物の作業位置決定方法、ロボットの制御方法、線状物の固定方法、線状物の作業位置決定装置および線状物把持システムに関する。 The present invention relates to a three-dimensional measurement method for a linear object having a glossy portion at its tip, a method for determining the working position of a linear object using the method, a method for controlling a robot, a method for fixing a linear object, a device for determining the working position of a linear object, and a linear object gripping system.

線状物を三次元計測装置で計測し、その三次元形状に基づいてロボットアームに線状物を把持させるロボットシステムが知られている。例えば、特許文献1には、複数の線状物の中から1本の目標線状物を選択して把持する線状物把持方法が開示されている。このようなロボットシステムの三次元計測装置として、異なる位置に固定された2台のカメラで対象物を撮像し、2台のカメラの相対的位置関係から三角測量の原理で対象物の三次元形状を求めるステレオカメラが用いられている。
このようなステレオカメラを用いたロボットシステムにおいて、金属端子を備えたケーブルを把持し、例えば、金属端子をコネクタに接続したり、金属端子を基板のランドと当接させてはんだ付けしたりすることなどが求められている。
A robot system is known in which a linear object is measured by a three-dimensional measuring device and a robot arm grips the linear object based on the three-dimensional shape. For example, Patent Literature 1 discloses a linear object gripping method for selecting and gripping one target linear object from among a plurality of linear objects. As a three-dimensional measuring device for such a robot system, a stereo camera is used, in which two cameras fixed at different positions capture an image of an object, and the three-dimensional shape of the object is determined based on the principle of triangulation from the relative positional relationship between the two cameras.
In a robot system using such a stereo camera, it is required to hold a cable with a metal terminal, for example, connect the metal terminal to a connector, or solder the metal terminal by contacting it with a land of a substrate.

しかし、実用化されているロボットシステムでは、把持する対象物として、光沢のない表面を有することを前提としている。その理由としては、金属など光沢のある表面の反射光は、正反射方向の成分が強くなるため、一般的なカメラで撮像すると、露光量が過剰になり、画像中の金属などの光沢部分に白飛びが生じる場合がある。詳しくは、当該画素に入射する光量を画像データとして処理できる値を超えてしまい、例えば、RGB成分が全て上限と認識され、白と認識される。このような白飛びが生じると、画像において対象物の形状が不明確となる。さらに、ステレオカメラは、位置関係の異なる2台のカメラを用いているため、カメラ・照明・撮像対象物の位置関係によって、一方のカメラの画像には対象物の光沢部が写っても、他方のカメラの画像には対象物の光沢部が白飛びして写らない場合がある。この場合、2台のカメラの画像における対象物の画素情報をマッチングすることができず、対象物の精確な三次元形状を取得することができない。
このように金属端子を備えたケーブルの場合は、カメラ・照明・撮像対象物の位置関係によって、光沢部の形状、および、光沢部とケーブル本体の境界が不明確となったり、三次元形状を取得できなかったりするため、安定してロボットアームにケーブルを認識させて、ケーブルの所定の位置を把持させることが困難であった。
However, robot systems in practical use are based on the premise that objects to be gripped have matte surfaces. The reason for this is that reflected light from a glossy surface such as metal has a strong component in the direction of regular reflection, so when an image is taken with a general camera, the amount of exposure becomes excessive, and there are cases where the glossy part of the image, such as metal, is blown out. Specifically, the amount of light incident on the pixel exceeds a value that can be processed as image data, and, for example, all RGB components are recognized as upper limits and recognized as white. When such overexposure occurs, the shape of the object becomes unclear in the image. Furthermore, since the stereo camera uses two cameras with different positional relationships, depending on the positional relationship of the cameras, the lighting, and the object to be imaged, even if the glossy part of the object appears in the image of one camera, the glossy part of the object may not appear in the image of the other camera because it is overexposed. In this case, the pixel information of the object in the images of the two cameras cannot be matched, and an accurate three-dimensional shape of the object cannot be obtained.
In the case of a cable with metal terminals, the shape of the glossy part and the boundary between the glossy part and the cable itself may be unclear depending on the positional relationship between the camera, the lighting, and the object to be imaged, or the three-dimensional shape may not be obtained.

このような表面に光沢がある対象物の三次元形状を特定し、ロボットシステムに利用する方法として、例えば、特許文献2の画像処理方法が知られている。
特許文献2には、対象物を撮像した二次元画像データ中に正反射領域に相当する輝度の閾値を示す対象領域を検出したとき、所定の割合で露光時間を短縮して対象物を撮像した比較二次元画像データ中の対象領域に相当する比較領域を抽出し、その比較二次元画像データ中の領域が正反射領域に想到する輝度の閾値以下であったとき、その短縮した露光時間の長さにより二次元画像中の対象領域が正反射領域かを判定する画像処理方法が開示されている。そして、正反射領域の無い画像に基づいて三次元形状画像データを生成する方法が開示されている。
As a method of specifying the three-dimensional shape of such an object with a glossy surface and utilizing it in a robot system, for example, the image processing method disclosed in Patent Document 2 is known.
Patent Document 2 discloses an image processing method for extracting a comparison area corresponding to the target area in comparison two-dimensional image data obtained by capturing an image of the object by shortening the exposure time at a predetermined rate, and determining whether the target area in the two-dimensional image is a specular reflection area based on the length of the shortened exposure time when the area in the comparison two-dimensional image data is equal to or less than the brightness threshold for the specular reflection area when a target area indicating a brightness threshold corresponding to the specular reflection area is detected in the two-dimensional image data obtained by imaging the target. A method for generating three-dimensional shape image data based on an image without a specular reflection area is also disclosed.

WO2019/098074WO2019/098074 特開2011-75311号公報JP 2011-75311 A

しかし、特許文献2に記載された画像処理方法は、露光時間を小さくして画像を取得するため、感度の高い特殊なセンサを用いなければ、画像全体が暗くなり、撮像対象物と背景とのコントラストが低くなる。また例え、特殊なセンサを用いたとしても、露光時間を徐々に減少させて複数回撮像しなければならず、また、撮像した画像毎に正反射領域があるかを判断しなければならない。さらに、最終的に、露光時間を減少させて所定の輝度以下の画像を取得したとしても、その画像内には、光源が写り込んでいる場合があり、そのような虚像を対象物の形状と区別して、対象物の形状を特定するさらなる処理が必要となる。このように理論上、可能であるが一般的なステレオカメラを用いる場合は現実的ではない。
本発明は、先端に光沢部を有する線状物の三次元形状を正確に計測する線状物の三次元計測方法、それを用いた線状物の作業位置決定方法、ロボットの制御方法、線状物の固定方法、線状物の作業位置決定装置および線状物把持システムを提供することを目的としている。
However, the image processing method described in Patent Document 2 acquires an image with a short exposure time, so unless a special sensor with high sensitivity is used, the entire image will be dark and the contrast between the object and the background will be low. Moreover, even if a special sensor is used, the exposure time must be gradually reduced to take multiple images, and it must be determined whether there is a specular reflection area for each image taken. Furthermore, even if the exposure time is reduced and an image with a predetermined luminance or less is finally obtained, the light source may be reflected in the image, and further processing is required to distinguish such a virtual image from the shape of the object and identify the shape of the object. Although this is theoretically possible, it is not realistic when using a general stereo camera.
An object of the present invention is to provide a linear object three-dimensional measurement method for accurately measuring the three-dimensional shape of a linear object having a glossy portion at its tip, a linear object working position determining method using the same, a robot control method, a linear object fixing method, a linear object working position determining device, and a linear object gripping system.

本発明の線状物の三次元計測方法は、反射率が異なる部位を少なくとも2以上有する線状物の三次元計測方法であって、ステレオカメラで前記線状物の逆光画像を撮像する工程と、前記逆光画像に基づいて線状物の三次元座標を取得する工程とを有することを特徴としている。
ここで「反射率が異なる部位を少なくとも2以上有する線状物」とは、材質の異なる部位が表面に混在している線状物であって、他の部位より光を強く反射する部位を有する線状物をいう。このような線状物として、製造工程等において、線状物の表面に変化が与えられたものも含まれる。例えば、電線の製造工程において、タルクと呼ばれる白い粉が付着したものや、電線の製造工程において、被覆が破け金属線が露出したものなどの線状物の表面に不良があるものが含まれる。このようにタルクが付着した場合、あるいは、被覆が破け金属線が露出した場合、その領域は他の領域より強く反射する。
ここで「逆光」とは、計測する線状物に遮蔽されず線状物のない空間を通過してカメラに到達する光をいう。「逆光画像」とは、すなわち上記の逆光をカメラで撮像した線状物のシルエット画像(透過光画像)のことである。また「三次元座標」とは、計算機上で処理可能なものであり、対象物上の少なくとも2点の立体的位置関係を表すものであればよく、例えば、3次元座標の集合(いわゆる点群データ)で表現したものであってもよいし、ポリゴンメッシュや平面/曲面の数式やパラメータ表現、またはボリュームデータ表現(ボクセル等)、およびそれらの組み合わせであってもよい。
本発明の線状物の三次元計測方法は、一部に光沢部を有している線状物に適している。特に、非光沢部の先端に光沢部を有している線状物に適している。
A three-dimensional measurement method for a linear object according to the present invention is a method for three-dimensional measurement of a linear object having at least two portions with different reflectances, and is characterized by comprising the steps of capturing a backlight image of the linear object with a stereo camera, and obtaining the three-dimensional coordinates of the linear object based on the backlight image.
Here, "a linear object having at least two or more parts with different reflectances" means a linear object having parts of different materials mixed on the surface and having a part that reflects light more strongly than other parts. Such a linear material includes a linear material whose surface has been changed in a manufacturing process or the like. For example, wires with defects on the surface, such as those with white powder called talc attached in the manufacturing process of electric wires, and wires with broken coating and exposed metal wires in the manufacturing process of electric wires, are included. When the talc is deposited in this way, or when the coating breaks and the metal lines are exposed, that area will be more reflective than other areas.
Here, "backlight" refers to light that is not blocked by a linear object to be measured, passes through a space free of linear objects, and reaches the camera. A "backlight image" is a silhouette image (transmitted light image) of a linear object captured by a camera in the backlight. Further, the "three-dimensional coordinates" are those that can be processed on a computer, and may represent a three-dimensional positional relationship between at least two points on an object.
The linear object three-dimensional measurement method of the present invention is suitable for a linear object partially having a glossy portion. In particular, it is suitable for a linear object having a glossy part at the tip of a non-glossy part.

本発明の線状物の三次元計測方法であって、前記ステレオカメラで前記線状物の順光画像を撮像する工程と、前記順光画像における前記線状物の反射率が異なる部位を特定した線状物部位情報を取得する工程と、前記順光画像における線状物部位情報に基づいて、前記線状物の三次元座標における反射率が異なる部位を特定する工程とをさらに有する方法が好ましい。
ここで「順光画像」とは、ステレオカメラと同じ側から線状物に光を照射して、線状物で反射した光をカメラで撮像した画像である。
「反射率が異なる部位を特定した線状物部位情報」とは、反射率が異なる部位のうち少なくとも1つの部位の位置を特定した情報をいい、全ての部位の位置を特定してもよい。例えば、線状物における非光沢部および/または光沢部を特定した線状物部位情報が挙げられる。具体的には、線状物の画像において、線状物の非光沢部および/または光沢部の位置を特定したものが挙げられる。なお、位置情報としては、画像上の位置情報のほか、三次元座標の情報などが挙げられる。
Preferably, the three-dimensional measurement method of the linear object of the present invention further comprises the steps of: capturing a front-light image of the linear object with the stereo camera; obtaining linear object part information specifying a part of the linear object with different reflectance in the front-light image; and identifying a part with different reflectance in the three-dimensional coordinates of the linear object based on the linear object part information in the front-light image.
Here, the "follow-light image" is an image obtained by irradiating a linear object with light from the same side as the stereo camera and capturing the light reflected by the linear object with the camera.
"Linear object site information specifying sites with different reflectances" refers to information specifying the position of at least one of the sites with different reflectances, and may specify the positions of all the sites. For example, there is linear object site information specifying a non-glossy part and/or a glossy part in a linear object. Specifically, in an image of a linear object, the position of the non-glossy part and/or the glossy part of the linear object is specified. In addition to the position information on the image, the position information includes three-dimensional coordinate information and the like.

発明の線状物の三次元計測方法の第2の態様は、反射率が異なる部位を少なくとも2以上有する線状物の三次元計測方法であって、ステレオカメラで前記線状物の逆光画像を撮像する工程と、前記ステレオカメラで前記線状物の順光画像を撮像する工程と、前記順光画像における前記線状物の反射率が異なる部位を特定した線状物部位情報を取得する工程と、前記順光画像における線状物部位情報に基づいて、前記逆光画像における反射率が異なる部位を特定した線状物部位情報を取得する工程と、前記逆光画像における線状物部位情報に基づいて、前記線状物の反射率が異なる部位を特定した線状物の三次元座標を取得する工程とを有することを特徴としている。
本発明の線状物の三次元計測方法の第2の態様は、一部に光沢部を有している線状物に適しており、特に、非光沢部の先端に光沢部を有している線状物に適している。
A second aspect of the three-dimensional measurement method for a linear object of the present invention is a three-dimensional measurement method for a linear object having at least two portions with different reflectances, comprising the steps of: capturing a backlight image of the linear object with a stereo camera; capturing a front-light image of the linear object with the stereo camera; obtaining linear object portion information specifying a portion of the linear object with a different reflectance in the front-light image; and a step of acquiring three-dimensional coordinates of the linear object identifying a portion having a different reflectance of the linear object based on the linear object portion information in the backlight image.
The second aspect of the linear object three-dimensional measurement method of the present invention is suitable for a linear object having a glossy part in part, and is particularly suitable for a linear object having a glossy part at the tip of a non-glossy part.

本発明の線状物の三次元計測方法の第1または第2の態様において、前記順光画像の色に基づいて前記順光画像における線状物部位情報を取得するのが好ましい。
本発明の線状物の三次元計測方法の第1または第2の態様において、前記ステレオカメラで前記線状物の順光画像を撮像する工程は、照明条件が異なる複数の順光画像を撮像する工程であり、前記複数の順光画像に基づいて前記順光画像における線状物部位情報を取得するのが好ましい。ここで「照明条件が異なる順光画像」とは、位置の異なる順光照射部材を切り替えて撮像する少なくとも2つの画像、あるいは、複数のLEDを直列、面状、あるいは、リング状に並べた1つの順光照射部材を用い、発光させるLEDを切り替えて撮像した少なくとも2つの画像、あるいは、光の波長の異なる照明を同時に照射し、得られた画像を波長分解して生成する少なくとも2つの画像などが挙げられる。
In the first or second aspect of the linear object three-dimensional measurement method of the present invention, it is preferable to acquire the linear object part information in the front-light image based on the color of the front-light image.
In the first or second aspect of the three-dimensional measurement method of the linear object of the present invention, the step of capturing the follow-light images of the linear object with the stereo camera is a step of capturing a plurality of follow-light images with different illumination conditions, and preferably, the linear object part information in the follow-light images is obtained based on the plurality of follow-light images. Here, the term “direct-light images with different illumination conditions” refers to at least two images captured by switching forward-light irradiation members at different positions, or at least two images captured by switching LEDs to emit light using a single forward-light irradiation member in which a plurality of LEDs are arranged in series, in a plane, or in a ring, or at least two images generated by simultaneously irradiating illumination with different wavelengths of light and generating the obtained images by wavelength decomposition.

本発明の線状物の三次元計測方法の第3の態様は、反射率が異なる部位を少なくとも2以上有する線状物の三次元計測方法であって、ステレオカメラで前記線状物の画像を複数の照明条件で撮像する工程と、前記複数の照明条件で撮像された画像に基づいて前記線状物の三次元座標を取得する工程とを有することを特徴としている。
ここで「複数の照明条件」とは、逆光照射部材と順光照射部材を切り替える、あるいは、位置が異なる複数の順光照射部材を切り替える、あるいは、複数のLEDを直列、面状、あるいは、リング状に並べた1つの順光照射部材を用い、発光させるLEDを切り替える、あるいは、異なる波長の光を照射するなどが挙げられる。
本発明の線状物の三次元計測方法の第3の態様は、一部に光沢部を有している線状物に適している。特に、非光沢部の先端に光沢部を有している線状物に適している。
本発明の線状物の三次元計測方法の第3の態様において、前記複数の照明条件で撮像された画像のうち少なくとも1枚の画像に基づいて前記線状物の反射率が異なる部位を特定した線状物部位情報を取得する工程をさらに有するものが好ましい。
A third aspect of the three-dimensional measurement method for a linear object of the present invention is a three-dimensional measurement method for a linear object having at least two portions with different reflectances, and is characterized by comprising the steps of capturing images of the linear object with a stereo camera under a plurality of lighting conditions, and obtaining the three-dimensional coordinates of the linear object based on the images captured under the plurality of lighting conditions.
Here, the “plurality of lighting conditions” include switching between a backlight irradiating member and a forward light irradiating member, switching between a plurality of front light irradiating members at different positions, switching LEDs to emit light using one forward light irradiating member in which a plurality of LEDs are arranged in series, in a plane, or in a ring, or irradiating light of different wavelengths.
The third aspect of the linear object three-dimensional measurement method of the present invention is suitable for a linear object partially having a glossy portion. In particular, it is suitable for a linear object having a glossy part at the tip of a non-glossy part.
In the third aspect of the method for three-dimensional measurement of a linear object of the present invention, it is preferable to further include a step of acquiring linear object part information specifying a part having a different reflectance of the linear object based on at least one image among the images captured under the plurality of illumination conditions.

本発明の線状物の作業位置決定方法は、本発明の線状物の三次元計測方法によって前記線状物の三次元座標を取得する工程と、前記線状物の三次元座標の少なくとも1点に基づいて、前記線状物の作業位置を算出する工程とを有することを特徴としている。この場合、前記線状物の三次元座標に基づいて、前記線状物に対する作業方向を決定する作業方向決定工程をさらに有するのが好ましい。 A method for determining the working position of a linear object according to the present invention comprises the steps of obtaining the three-dimensional coordinates of the linear object by the three-dimensional measuring method of the linear object, and calculating the working position of the linear object based on at least one point of the three-dimensional coordinates of the linear object. In this case, it is preferable to further include a working direction determination step of determining a working direction for the linear object based on the three-dimensional coordinates of the linear object.

本発明のロボットの制御方法は、本発明の線状物の作業位置決定方法によって前記線状物の作業位置を算出する工程と、前記作業位置に対してロボットハンドに作業させる工程とを有することを特徴としている。 A robot control method of the present invention is characterized by comprising a step of calculating a working position of the linear object by the linear object working position determination method of the invention, and a step of causing a robot hand to work with respect to the working position.

本発明の線状物の固定方法は、本発明の線状物の作業位置決定方法によって前記線状物の作業位置を算出する工程と、ロボットハンドで前記作業位置を把持させ、前記ロボットハンドで把持した線状物を移動させて、前記線状物を相手部材に当接させ、前記線状物と前記相手部材とをはんだによって固定する工程とを有することを特徴としている。 A method for fixing a linear object of the present invention is characterized by comprising the steps of: calculating the working position of the linear object by the method of determining the working position of the linear object of the present invention; holding the working position with a robot hand; moving the linear object held by the robot hand to bring the linear object into contact with a mating member; and fixing the linear object and the mating member by soldering.

本発明の線状物の作業位置決定装置は、ステレオカメラと、前記ステレオカメラに対して逆光となるように反射率が異なる部位を少なくとも2以上有する線状物に光を照射する逆光照射部材と、前記ステレオカメラで撮像した前記線状物の逆光画像に基づいて線状物の三次元座標を取得し、前記線状物の三次元座標の少なくとも1点に基づいて、前記線状物の作業位置を算出する演算部とを備えることを特徴としている。
本発明の作業位置決定装置であって、前記線状物は、一部に光沢部を有している線状物に適している。特に、非光沢部の先端に光沢部を有している線状物に適している。
A working position determination device for a linear object according to the present invention is characterized by comprising a stereo camera, a backlight irradiating member for irradiating light on a linear object having at least two or more portions with different reflectances so as to be backlit with respect to the stereo camera, and an arithmetic unit for obtaining the three-dimensional coordinates of the linear object based on the backlight image of the linear object captured by the stereo camera, and calculating the working position of the linear object based on at least one point of the three-dimensional coordinates of the linear object.
In the working position determination device of the present invention, the linear object is suitable for a linear object having a glossy portion in part. In particular, it is suitable for a linear object having a glossy part at the tip of a non-glossy part.

本発明の線状物の作業位置決定装置の第2の態様は、ステレオカメラと、反射率が異なる部位を少なくとも2以上有する線状物に異なる照明条件で光を照射する照射部材と、前記ステレオカメラで撮像した前記線状物の照明条件が異なる複数の画像に基づいて前記線状物の三次元座標を取得し、前記線状物の三次元座標の少なくとも1点に基づいて、前記線状物の作業位置を算出する演算部とを備えることを特徴としている。
本発明の作業位置決定装置の第2の態様であって、前記線状物は、一部に光沢部を有している線状物に適している。特に、非光沢部の先端に光沢部を有している線状物に適している。
A second aspect of the apparatus for determining the working position of a linear object according to the present invention is characterized by comprising a stereo camera, an irradiating member that irradiates a linear object having at least two portions with different reflectances with light under different illumination conditions, and an arithmetic unit that acquires the three-dimensional coordinates of the linear object based on a plurality of images captured by the stereo camera under different illumination conditions of the linear object, and calculates the working position of the linear object based on at least one point of the three-dimensional coordinates of the linear object.
In the second aspect of the working position determination device of the present invention, the linear object is suitable for a linear object partially having a glossy portion. In particular, it is suitable for a linear object having a glossy part at the tip of a non-glossy part.

本発明の線状物把持システムは、本発明の線状物の作業位置決定装置と、前記線状物を把持するロボットハンドを備えるロボットとを備え、前記ロボットハンドは、前記演算部が算出した前記作業位置を把持することを特徴としている。 A linear object gripping system according to the present invention includes the linear object working position determination device according to the present invention, and a robot having a robot hand for gripping the linear object, wherein the robot hand grips the working position calculated by the computing unit.

本発明の線状物の三次元計測方法は、逆光画像を用いて線状物の三次元形状を取得しているため、線状物が光を強く反射する領域を有していても、その領域を正確に特定できる。例えば、光沢を有する金属端子を備えたケーブルにおいて、金属端子の形状を正確に特定できる。特に、汎用のステレオカメラを用いても正確に測定することができる。本発明の線状物の作業位置決定方法は、本発明の線状物の三次元計測方法を利用しているため、正確に作業位置を算出することができる。本発明のロボット制御方法は、本発明の作業位置決定方法を利用しているため、安定した操作が可能である。本発明の線状物の固定方法は、本発明の作業位置決定方法を利用しているため、確実に線状物を固定することができる。本発明の線状物の作業位置決定装置は、反射率が異なる部位を少なくとも2以上有する線状物の作業位置を算出するのに適している。本発明の線状物把持システムは、反射率が異なる部位を少なくとも2以上有する線状物を作業するロボットの制御に適している。 In the three-dimensional measurement method of the linear object of the present invention, the three-dimensional shape of the linear object is acquired using the backlit image, so even if the linear object has an area that strongly reflects light, the area can be specified accurately. For example, in a cable with shiny metal terminals, the shape of the metal terminals can be specified accurately. In particular, it can be measured accurately even with a general-purpose stereo camera. Since the working position determination method for a linear object of the present invention uses the three-dimensional measuring method for a linear object of the present invention, it is possible to accurately calculate the working position. Since the robot control method of the present invention uses the work position determining method of the present invention, stable operation is possible. Since the linear object fixing method of the present invention uses the working position determination method of the present invention, the linear object can be reliably fixed. The working position determination device for a linear object of the present invention is suitable for calculating the working position of a linear object having at least two portions with different reflectances. INDUSTRIAL APPLICABILITY The linear object gripping system of the present invention is suitable for controlling a robot that works with a linear object having at least two portions with different reflectances.

本発明のロボット制御方法の第1実施形態を実施するためのロボットシステムを示す概略図である。1 is a schematic diagram showing a robot system for implementing a first embodiment of a robot control method of the present invention; FIG. 図2aは本発明のロボット制御方法の第1実施形態を示すフロー図であり、図2bは本発明の線状物の三次元計測方法の第1実施形態を示すフロー図である。FIG. 2a is a flow chart showing the first embodiment of the robot control method of the present invention, and FIG. 2b is a flow chart showing the first embodiment of the linear object three-dimensional measurement method of the present invention. 図3aはロボットアームの把持姿勢を示す概略図であり、図3bは把持手前位置にあるロボットアームを示す概略図である。FIG. 3a is a schematic diagram showing the gripping posture of the robot arm, and FIG. 3b is a schematic diagram showing the robot arm in a position before gripping. 図4aは本発明のロボット制御方法の第2実施形態を実施するためのロボットシステムを示す概略図であり、図4bは本発明のロボット制御方法の第3実施形態を実施するためのロボットシステムを示す概略図である。FIG. 4a is a schematic diagram showing a robot system for implementing the second embodiment of the robot control method of the present invention, and FIG. 4b is a schematic diagram showing the robot system for implementing the third embodiment of the robot control method of the present invention. 図5aは本発明のロボット制御方法の第2実施形態を示すフロー図であり、図5bは本発明の線状物の三次元計測方法の第2実施形態を示すフロー図である。FIG. 5a is a flowchart showing the second embodiment of the robot control method of the present invention, and FIG. 5b is a flowchart showing the second embodiment of the linear object three-dimensional measurement method of the present invention. 図6aは本発明の線状物の三次元計測方法の第3実施形態を示すフロー図であり、図6bは本発明の線状物の三次元計測方法の第4実施形態を示すフロー図である。FIG. 6a is a flow chart showing the third embodiment of the linear object three-dimensional measurement method of the present invention, and FIG. 6b is a flow chart showing the fourth embodiment of the linear object three-dimensional measurement method of the present invention. 図7aは本発明の線状物の三次元計測方法の第5実施形態を示すフロー図であり、図7bは本発明のロボット制御方法の第4実施形態を実施するためのロボットシステムを示す概略図である。FIG. 7a is a flow diagram showing a fifth embodiment of the linear object three-dimensional measurement method of the present invention, and FIG. 7b is a schematic diagram showing a robot system for carrying out the fourth embodiment of the robot control method of the present invention. 本発明のロボット制御方法によって把持したケーブルを、基板に固定している状態を示す概略図である。FIG. 4 is a schematic diagram showing a state in which a cable gripped by the robot control method of the present invention is fixed to a substrate;

図1に、金属端子を有する線状物の三次元計測方法の第1実施形態およびその方法を用いたロボット制御方法の第1実施形態に用いられるロボットシステムを示す。
図1aのロボットシステム1は、ロボットハンド12を有するロボット10と、ステレオカメラ20と、制御装置30と、逆光照射部材40と、ケーブル支持台50とを有する。
ロボットシステム1で把持するケーブル(線状物)Cは可撓性を有するものである。ケーブルCは、図1bに示すように、可撓性を有するケーブル本体C1と、その端部に設けられる金属端子C2とを備えている。ケーブル本体C1は、金属線とそれを覆う合成樹脂製の被膜とからなる。金属端子C2は、金属筒をケーブル本体C1の端部に被せ、カシメることによりケーブル本体C1の端部に固定される。符号Gは、後述するようにロボットハンド12に把持される部分である。
FIG. 1 shows a robot system used in a first embodiment of a three-dimensional measurement method for a linear object having metal terminals and a first embodiment of a robot control method using the method.
The robot system 1 of FIG. 1a includes a robot 10 having a robot hand 12, a stereo camera 20, a control device 30, a backlight irradiation member 40, and a cable support base 50.
The cable (linear object) C gripped by the robot system 1 has flexibility. The cable C, as shown in FIG. 1b, includes a flexible cable body C1 and a metal terminal C2 provided at its end. The cable main body C1 consists of a metal wire and a synthetic resin coating covering it. The metal terminal C2 is fixed to the end of the cable body C1 by covering the end of the cable body C1 with a metal tube and crimping it. Reference character G denotes a portion to be gripped by the robot hand 12 as described later.

ロボット10は、多関節アーム11と、その先端に設けられたロボットハンド12とを有し、ロボットハンド12が一対のフィンガ(把持部)12aを備えた公知のものである。フィンガ12aとしては、特に限定されるものではなく、ケーブル(線状物)Cを面状または線状で接触して把持するものや、点で把持するものが挙げられる。 The robot 10 has an articulated arm 11 and a robot hand 12 provided at the tip thereof, and the robot hand 12 is a known one having a pair of fingers (gripping portions) 12a. The finger 12a is not particularly limited, and may be a finger that grips the cable (linear object) C in planar or linear contact, or a finger that grips it at a point.

ステレオカメラ20は、第1カメラ21及び第2カメラ22と、カメラ制御部23とを有する。第1カメラ21はカラーの二次元画像である第1画像を撮像し、第2カメラ22はカラーの二次元画像である第2画像を撮像し、それぞれ異なる位置に固定されている。カメラ制御部23は、第1カメラ21および第2カメラ22を制御し、2つの画像から対象物の三次元形状を算出し、制御装置30と通信を行う。詳しくは、制御装置30から撮像指示を受信して第1カメラ21および第2カメラ22に撮像を指示し、第1画像および第2画像からケーブルCの三次元形状を算出し、その三次元形状を制御装置30に送信する。 The stereo camera 20 has a first camera 21 , a second camera 22 and a camera control section 23 . The first camera 21 captures a first color two-dimensional image, and the second camera 22 captures a second color two-dimensional image, which are fixed at different positions. The camera control unit 23 controls the first camera 21 and the second camera 22 , calculates the three-dimensional shape of the object from the two images, and communicates with the control device 30 . Specifically, it receives an imaging instruction from the control device 30, instructs the first camera 21 and the second camera 22 to take an image, calculates the three-dimensional shape of the cable C from the first image and the second image, and transmits the three-dimensional shape to the control device 30.

制御装置30は、ステレオカメラ20と通信し、ステレオカメラ20から取得したケーブルCの三次元形状に基づいてロボット10に指示する。また各種演算を行う演算部31および各種データを記憶する記憶部32を備えている。なお、制御装置30は、ロボット10およびステレオカメラ20と独立した制御装置としても、ステレオカメラ20が備えるカメラ制御部23、ロボット10が備えるロボット制御装置のいずれであってもよい。 The control device 30 communicates with the stereo camera 20 and instructs the robot 10 based on the three-dimensional shape of the cable C obtained from the stereo camera 20 . It also has a computing unit 31 that performs various computations and a storage unit 32 that stores various data. Note that the control device 30 may be a control device independent of the robot 10 and the stereo camera 20 , or may be either the camera control unit 23 provided in the stereo camera 20 or the robot control device provided in the robot 10 .

逆光照射部材40は、上面が開口した枠体41と、その開口に設けられる矩形の拡散板42と、枠体内に固定される光源(図示せず)とを備えたフラット型の照明にユニットである。そして、この逆光照射部材40は、ステレオカメラ20との間にケーブルCを挟んだ状態で、ステレオカメラ20に対してケーブルCの裏側に光を照射する。
つまり、ステレオカメラ20はケーブルCが存在しない位置の光のみ透過して撮像する。さらに言えば、ステレオカメラ20の第1カメラ21および第2カメラ22でケーブルCのシルエット像(輪郭)を撮像する。
逆光照射部材40の光源としては、例えば、自ら光を発光する通常の照明、または、間接的に光を照射する反射板等が挙げられる。また逆光照射部材40は、面光源であるが、点光源であってもよい。
逆光照射部材40から照射する光としては、特に限定されないが、白色光が好ましい。しかし、ケーブルCの被覆が白色の場合、上手くケーブルCのシルエット像が撮像できない場合も考えられる。その場合、ケーブルCの被覆以外に用いられている色の光が用いられる。
The backlight irradiation member 40 is a flat-type illumination unit including a frame 41 with an open top, a rectangular diffusion plate 42 provided in the opening, and a light source (not shown) fixed in the frame. The backlight irradiation member 40 irradiates the rear side of the cable C with respect to the stereo camera 20 in a state where the cable C is sandwiched between itself and the stereo camera 20 .
That is, the stereo camera 20 transmits and images only the light at the position where the cable C does not exist. In other words, the first camera 21 and the second camera 22 of the stereo camera 20 capture a silhouette image (outline) of the cable C. FIG.
Examples of the light source of the backlight irradiation member 40 include ordinary lighting that emits light by itself, and a reflector that indirectly emits light. Further, the backlight irradiation member 40 is a surface light source, but may be a point light source.
The light emitted from the backlight irradiation member 40 is not particularly limited, but white light is preferable. However, if the cable C is covered with white, there may be a case where the silhouette image of the cable C cannot be picked up well. In that case, the light of the color used for the cable C other than the coating is used.

ケーブル支持台50は、ケーブルCを実質的に水平方向に支持し、かつ、測定するケーブルCの部分を逆光照射部材40に対して若干上方に、宙に浮いた状態で支持するものである。符号51は、ケーブルCを保持する冶具である。ケーブル支持台50の高さは、特に限定されるものではない。 The cable support base 50 supports the cable C in a substantially horizontal direction, and also supports the part of the cable C to be measured slightly above the backlight irradiation member 40 in a floating state. A reference numeral 51 is a jig for holding the cable C. FIG. The height of the cable support base 50 is not particularly limited.

次に、図2aに基づいて、線状物の把持するロボット制御方法の第1実施形態について説明する。
このケーブルC(線状物)を把持するロボット制御方法は、ケーブルCの三次元形状を測定する工程110と、ケーブルCの把持される部分Gを特定する工程120と、ロボットハンドの把持姿勢および把持位置を算出する工程130と、ロボットハンドのケーブルCに対するアプローチ方向を算出する工程140と、ロボットハンドでケーブルCを把持する工程150とを有する。この把持方法は、特に、金属端子C2の長さL(図1b参照)が分かっている場合、ケーブルCの本体C1もしくは金属端子C2のどちらか所望する部位を確実に把持できる方法である。この場合、金属端子C2の長さLは、予め記憶部32に登録される。この制御方法において、工程120、工程130、工程140の処理の順番は、特に限定されない。
Next, a first embodiment of a robot control method for gripping a linear object will be described with reference to FIG. 2a.
This robot control method for gripping a cable C (linear object) includes a step 110 of measuring the three-dimensional shape of the cable C, a step 120 of specifying a gripped portion G of the cable C, a step 130 of calculating the gripping posture and gripping position of the robot hand, a step 140 of calculating the approach direction of the robot hand to the cable C, and a step 150 of gripping the cable C with the robot hand. This gripping method is a method that can reliably grip a desired portion of either the body C1 of the cable C or the metal terminal C2, especially when the length L (see FIG. 1b) of the metal terminal C2 is known. In this case, the length L of the metal terminal C2 is registered in the storage unit 32 in advance. In this control method, the order of processing of steps 120, 130, and 140 is not particularly limited.

ケーブルCの三次元形状の測定(工程110)は、線状物の三次元計測方法の第1実施形態である。工程110は、図2bに示すように、ステレオカメラ20でケーブルCの逆光画像を撮像し(工程111)、逆光画像からケーブルCのシルエット像を抽出し(工程112)、シルエット像の形状を確認し(工程113)、ケーブルCの三次元形状を算出する(工程114)ことによって行われる。 Measurement of the three-dimensional shape of the cable C (step 110) is the first embodiment of the method for three-dimensional measurement of linear objects. As shown in FIG. 2b, step 110 is performed by taking a backlight image of cable C with stereo camera 20 (step 111), extracting a silhouette image of cable C from the backlight image (step 112), confirming the shape of the silhouette image (step 113), and calculating the three-dimensional shape of cable C (step 114).

ケーブルCの逆光画像の撮像(工程111)は、逆光照射部材40でケーブルCを照射し、その状態でステレオカメラ20によってケーブルCを撮影することにより行う。詳しくは、ステレオカメラ20の第1カメラ21によってケーブルCの輪郭を示す第1シルエット像を含む第1逆光画像を撮像し、ステレオカメラ20の第2カメラ22によってケーブルCの輪郭を示す第2シルエット像を含む第2逆光画像を撮像する。 The backlit image of the cable C is picked up (step 111) by illuminating the cable C with the backlight irradiating member 40 and photographing the cable C with the stereo camera 20 in that state. Specifically, the first camera 21 of the stereo camera 20 captures a first backlight image including a first silhouette image showing the contour of the cable C, and the second camera 22 of the stereo camera 20 captures a second backlight image including a second silhouette image showing the contour of the cable C.

次に、逆光画像からケーブルCのシルエット像を抽出する(工程112)。逆光画像は、ケーブルCによって光が遮断されたシルエット像と、ケーブルCが存在しない位置の透過光の像とからなる。そのため、透過光の像を分離することにより、シルエット像を抽出することができる。つまり、第1逆光画像から第1シルエット像を抽出し、第2逆光画像から第2シルエット像を抽出する。
各逆光画像からのシルエット像の抽出方法は、逆光画像におけるシルエット像と透過光の像の色の違いを利用する。具体的には、測定前に、ケーブルCが存在しない状態で撮像して透過光の像の色の輝度(RGB値)を測定し、この透過光の像の色に基づいて色の範囲を定める。そして、逆光画像の各画素の色の輝度(RGB値)を確認し、定めた透過光の像の色の範囲以外の画素を抽出する。例えば、赤・緑・青(RGB)の輝度をそれぞれ8ビット(256段階)で表す24ビットカラーにおいて、白色はRGB全ての輝度が最大値の255で表される。そのため、逆光照射部材の光を白色光とする場合、RGBの全てが255を示す画素以外を抽出する。これにより逆光画像において、シルエット像が残る。なお、逆光画像を透過光の像の色とそれ以外とで二値化してもよい。
シルエット像の抽出後、孤立した画素等を除去するノイズ処理を行うのが好ましい。またシルエット像において、例えば、ケーブル幅の中心に位置する画素を選択した中心線を求めるのが好ましい。
Next, a silhouette image of the cable C is extracted from the backlight image (step 112). The backlit image consists of a silhouette image where the light is blocked by the cable C and a transmitted light image where the cable C does not exist. Therefore, a silhouette image can be extracted by separating the transmitted light image. That is, the first silhouette image is extracted from the first backlight image, and the second silhouette image is extracted from the second backlight image.
A method of extracting a silhouette image from each backlight image utilizes the difference in color between the silhouette image and the transmitted light image in the backlight image. Specifically, before the measurement, an image is captured in the absence of the cable C, the luminance (RGB values) of the color of the transmitted light image is measured, and the color range is determined based on the color of the transmitted light image. Then, the brightness (RGB value) of the color of each pixel of the backlight image is checked, and the pixels outside the predetermined color range of the transmitted light image are extracted. For example, in a 24-bit color in which the brightness of red, green, and blue (RGB) is each represented by 8 bits (256 levels), white is represented by 255, which is the maximum brightness of all RGB. Therefore, when the light from the backlight irradiation member is white light, pixels other than pixels in which all of RGB indicate 255 are extracted. As a result, a silhouette image remains in the backlight image. Note that the backlight image may be binarized by the color of the transmitted light image and other colors.
After extracting the silhouette image, it is preferable to perform noise processing for removing isolated pixels and the like. In the silhouette image, for example, it is preferable to obtain the center line by selecting the pixels positioned at the center of the cable width.

次に、シルエット像の形状を確認する(工程113)。逆光を照射してステレオカメラ20でケーブルCを撮像する場合、金属端子C2の向きによっては、カメラから透過光の輝度に近い反射光が見られ、金属端子C2の形状が不明確になる場合がある。
そのため、第1シルエット像または第2シルエット像のいずれかの形状において、確認が困難な部位がある場合、例えば、シルエット像が連続的でない場合、あるいは、シルエット像の中心線を求めたときに、中心線を認識しない場合、ケーブルCの三次元形状の計測を停止する。そして、例えば、図1aに示すように、ケーブルCを軸回りに回転させるなどケーブルCの姿勢を変えて再度、ケーブルCの逆光画像を撮像する工程111に戻る。
Next, the shape of the silhouette image is confirmed (step 113). When the stereo camera 20 captures an image of the cable C with backlighting, depending on the direction of the metal terminal C2, reflected light close to the brightness of the transmitted light may be seen from the camera, and the shape of the metal terminal C2 may become unclear.
Therefore, if there is a part that is difficult to confirm in the shape of either the first silhouette image or the second silhouette image, for example, if the silhouette image is not continuous, or if the center line is not recognized when the center line of the silhouette image is obtained, the measurement of the three-dimensional shape of the cable C is stopped. Then, for example, as shown in FIG. 1a, the posture of the cable C is changed, such as by rotating the cable C about its axis, and the process returns to the step 111 of capturing the backlit image of the cable C again.

第1シルエット像および第2シルエット像の形状が確認できた場合、第1シルエット像および第2シルエット像に基づいてケーブルCの三次元形状を算出する(工程114)。
三次元形状の表現方法については、計算機上で処理可能なものであり、ケーブル上の少なくとも2点の立体的位置関係を表すものであれば特に限定されない。例えば、3次元座標の集合(いわゆる点群データ)で表現したものであってもよいし、ポリゴンメッシュや平面/曲面の数式やパラメータ表現、またはボリュームデータ表現(ボクセル等)、およびそれらの組み合わせであってもよい。
なお、第1逆光画像および第2逆光画像における各ケーブルCの第1シルエット像および第2シルエット像は、ケーブル本体C1および金属端子C2が特定されていない。そのため、ケーブルCの三次元形状もケーブル本体C1および金属端子C2が特定されていない。
When the shapes of the first silhouette image and the second silhouette image can be confirmed, the three-dimensional shape of the cable C is calculated based on the first silhouette image and the second silhouette image (step 114).
A three-dimensional shape representation method is not particularly limited as long as it can be processed on a computer and represents a three-dimensional positional relationship between at least two points on the cable. For example, it may be represented by a set of three-dimensional coordinates (so-called point cloud data), a polygon mesh, a plane/curved surface formula or parameter representation, or a volume data representation (voxels, etc.), or a combination thereof.
In the first silhouette image and the second silhouette image of each cable C in the first backlight image and the second backlight image, the cable body C1 and the metal terminal C2 are not specified. Therefore, in the three-dimensional shape of the cable C, the cable main body C1 and the metal terminal C2 are not specified.

図2aに戻って、ケーブルCの把持される部分Gの特定(工程120)について説明する。
ケーブルCの把持される部分G(作業部位)は、本実施形態では、図1bに示すように、ケーブル本体C1の部分であり、好ましくはケーブル本体C1の端部(ケーブル本体C1と金属端子C2の境界)付近のケーブル本体C1の部分である。例えば、ケーブル本体C1の端部(ケーブル本体C1と金属端子C2の境界)から距離Xmmである。この距離Xmmは、予め記憶部32に登録する。しかし、ケーブルCの把持される部分Gは、特に限定されるものではなく、線状物の形状や性質、その後の処理によって適宜定めることができる。例えば、ケーブル本体の端部に金属コネクタの雄部材が付いているケーブルをコネクタの雌部材に挿入する場合、ケーブル本体を把持させるよりも雄部材を把持させたほうが安定して挿入動作を実行することができる。
このようなケーブルCの把持される部分G(作業部位)は、ケーブルCの三次元形状で特定できる1点に基づいて算出する。工程110によって算出されるケーブルCの三次元形状は、上述したように、ケーブル本体C1および金属端子C2が特定されていないため、ケーブル本体C1と金属端子C2との境界は特定できず、ケーブルCの先端Eに基づいて算出する。つまり、このケーブルCの先端Eから金属端子C2の長さLと距離Xとを足した所定の長さをケーブルCの把持される部分Gと定めることができる。
具体的な操作としては、例えば、三次元座標上にケーブルCの三次元像を表現し、その三次元像の先端Eから予め登録された所定の長さ(L+Xmm)の点(図1b参照)を特定することにより、ケーブルCの把持される部分Gを求めることができる。なお、金属端子の先端からの距離(L+Xmm)ではなく、ケーブル本体C1の端部から金属端子側への距離またはケーブル本体側への距離を登録しておくことで、金属端子C2の長さを予め記憶部に登録していない線状物を把持する場合でも、所望に応じて金属端子上または線状物本体上を把持することができる。
Returning to Figure 2a, the identification of the gripped portion G of the cable C (step 120) will now be described.
The gripped portion G (work portion) of the cable C is, in this embodiment, the portion of the cable body C1, as shown in FIG. For example, the distance is X mm from the end of the cable body C1 (the boundary between the cable body C1 and the metal terminal C2). This distance X mm is registered in the storage unit 32 in advance. However, the gripped portion G of the cable C is not particularly limited, and can be appropriately determined according to the shape and properties of the linear object and subsequent processing. For example, when a cable with a male member of a metal connector attached to the end of the cable body is inserted into the female member of the connector, the insertion operation can be stably performed by holding the male member rather than holding the cable body.
The gripped portion G (work portion) of the cable C is calculated based on one point that can be specified in the three-dimensional shape of the cable C. FIG. The three-dimensional shape of the cable C calculated in step 110 is calculated based on the tip E of the cable C because the cable body C1 and the metal terminal C2 are not specified as described above, so the boundary between the cable body C1 and the metal terminal C2 cannot be specified. That is, a predetermined length obtained by adding the length L of the metal terminal C2 and the distance X from the tip E of the cable C can be defined as the portion G of the cable C to be gripped.
As a specific operation, for example, a three-dimensional image of the cable C is expressed on three-dimensional coordinates, and a point (see FIG. 1b) having a predetermined length (L + X mm) registered in advance from the tip E of the three-dimensional image is specified, thereby obtaining the gripped portion G of the cable C. By registering the distance from the end of the cable body C1 to the metal terminal side or the distance to the cable body side instead of the distance (L + X mm) from the tip of the metal terminal, even when gripping a linear object for which the length of the metal terminal C2 is not registered in advance in the storage unit, it is possible to grip the metal terminal or the linear object main body as desired.

次にロボットハンドの把持姿勢および把持位置の算出について説明する(工程130)。
ロボットハンド12の把持姿勢は、図3aに示すように、ロボットハンド12のフィンガ12aでケーブルCを把持したときのロボットハンド12の姿勢をいう。つまり、ロボットハンド12のケーブルCに対する作業方向である。詳しくは、ロボットハンド12のフィンガ12aの向きF1とケーブルCの把持される部分Gの向きD1との角度、および、フィンガ12aのケーブルCの把持される部分Gの軸回りの角度である。ロボットハンド12のフィンガ12aの向きF1とケーブルCの把持される部分Gの向きD1との角度は、特に限定されるものではないが、ケーブルCを把持した後にハンドリングがしやすいため、略垂直とするのが好ましい。フィンガ12aのケーブルCの把持される部分Gの軸回りの角度も、特に限定されるものではないが、ケーブルCを水平に支持している場合、そのケーブルCに対してフィンガ12aの向きF1が鉛直方向下側に向くように90度とするのが好ましい。
ロボットハンドの把持位置は、一対のフィンガ12aの幅を狭めてケーブルCを挟持する際の、フィンガ12aの把持点の中点座標である。本実施形態では、工程120で算出したケーブルCの把持される部分Gの座標を把持位置とした。ロボットハンドがケーブルCの他の部位および隣接した器具と接触しないように算出される。
Next, calculation of the gripping posture and gripping position of the robot hand will be described (step 130).
The gripping posture of the robot hand 12 refers to the posture of the robot hand 12 when the cable C is gripped by the fingers 12a of the robot hand 12, as shown in FIG. 3a. In other words, it is the working direction of the robot hand 12 with respect to the cable C. FIG. Specifically, it is the angle between the orientation F1 of the finger 12a of the robot hand 12 and the orientation D1 of the gripped portion G of the cable C, and the angle of the gripped portion G of the cable C of the finger 12a around the axis. Although the angle between the orientation F1 of the finger 12a of the robot hand 12 and the orientation D1 of the gripped portion G of the cable C is not particularly limited, it is preferable to make the angle approximately perpendicular to facilitate handling after gripping the cable C. The angle around the axis of the portion G of the finger 12a where the cable C is gripped is also not particularly limited, but when the cable C is supported horizontally, the direction F1 of the finger 12a with respect to the cable C is preferably 90 degrees so that the direction F1 is directed downward in the vertical direction.
The gripping position of the robot hand is the midpoint coordinates of the gripping points of the fingers 12a when the cable C is clamped by narrowing the width of the pair of fingers 12a. In this embodiment, the coordinates of the gripped portion G of the cable C calculated in step 120 are used as the gripping position. It is calculated so that the robot hand does not come into contact with other parts of the cable C and adjacent instruments.

ロボットハンドのケーブルCに対するアプローチ方向を算出する(工程140)。ここでは、ロボットハンドの把持手前位置を算出し、その把持手前位置からケーブルCに向かうアプローチ方向を算出する。
ロボットハンドの把持手前位置は、図3bに示すように、ロボットハンド12のフィンガ12aがケーブルCを把持する際にケーブルCに向かってアプローチする位置をいう。把持手前位置は、特に限定されるものではないが、ケーブルCの把持位置における把持姿勢からフィンガ12aの向きF1と逆向きに所定の距離だけ離れた位置とするのが好ましい。つまり、アプローチする方向は、把持姿勢におけるフィンガ12aの向きF1とするのが好ましい。このように把持手前位置およびアプローチ方向を特定することにより、ケーブルCが撓んでいたとしてもフィンガ12aが他の部位に干渉せず、また、隣接する器具と干渉することなく、ロボットハンドのフィンガ12aをケーブルCの把持される部分Gに近づけることができる。
The approach direction of the robot hand to the cable C is calculated (step 140). Here, the gripping front position of the robot hand is calculated, and the approach direction toward the cable C from the gripping front position is calculated.
The gripping position of the robot hand is the position where the fingers 12a of the robot hand 12 approach the cable C when gripping the cable C, as shown in FIG. 3B. The front position of the grip is not particularly limited, but is preferably a position away from the gripping posture at the gripping position of the cable C by a predetermined distance in the direction opposite to the direction F1 of the fingers 12a. In other words, the approach direction is preferably the direction F1 of the fingers 12a in the gripping posture. By specifying the grasping front position and the approach direction in this way, the fingers 12a of the robot hand can be brought closer to the grasped portion G of the cable C without the fingers 12a interfering with other parts even if the cable C is bent, and without interfering with adjacent instruments.

ロボットハンドによるケーブルCの把持(工程150)は、ロボットハンド12を待機位置から把持手前位置を介して把持位置まで移動させ、把持位置においてケーブルCの把持される部分Gを把持する。
ロボットハンド12の待機位置は、特に限定されるものではなく、ロボットの各リンクの角度などによって予め定めて制御装置に登録してもよく、あるいは、ケーブルCから把持方向とは逆向きに所定の位置離れた位置(把持手前位置)に決定するなどケーブルCの三次元形状に基づいて決定させてもよい。
ロボットハンド12の待機位置から把持手前位置までの軌跡は、特に限定されるものではなく、周囲と接触しないように接近させればよい。例えば、直線補間、円弧補間、関節補間などによって把持位置にて漸次向かわせるのが好ましい。そして、把持手前位置から把持位置までの軌跡は、上述したようにアプローチ方向(フィンガ12aの向きF1)に直線補間させるのが好ましい。
Grasping of the cable C by the robot hand (step 150) moves the robot hand 12 from the standby position to the gripping position via the gripping position, and grips the gripped portion G of the cable C at the gripping position.
The standby position of the robot hand 12 is not particularly limited, and may be determined in advance according to the angle of each link of the robot and registered in the control device, or may be determined based on the three-dimensional shape of the cable C, such as a position away from the cable C by a predetermined position in the opposite direction to the gripping direction (position in front of the grip).
The trajectory of the robot hand 12 from the waiting position to the gripping position is not particularly limited, and the robot hand 12 may be brought closer so as not to come into contact with the surroundings. For example, it is preferable to gradually direct the gripping position by linear interpolation, circular interpolation, joint interpolation, or the like. The trajectory from the gripped position to the gripped position is preferably linearly interpolated in the approach direction (orientation F1 of the fingers 12a) as described above.

このように線状物の三次元計測方法は、逆光画像を用いてケーブルCの三次元形状を求めているため、光沢のある金属端子C2の形状を正確に確認することができる。またケーブルCの三次元形状の先端に基づいて把持される部分Gを算出しているため、ケーブルCの把持される部分Gも正確に特定できる。したがって、ロボットアームによる自動制御に好ましく用いることができる。 In this way, the three-dimensional measuring method for a linear object obtains the three-dimensional shape of the cable C using a backlit image, so it is possible to accurately confirm the shape of the shiny metal terminal C2. Further, since the gripped portion G is calculated based on the three-dimensional tip of the cable C, the gripped portion G of the cable C can also be specified accurately. Therefore, it can be preferably used for automatic control by a robot arm.

図4aに、金属端子を有する線状物の三次元計測方法の第2実施形態およびその方法を用いたロボット制御方法の第2実施形態に用いられるロボットシステム1Aを示す。ロボットシステム1Aは、順光照射部材60を備えている点で、ロボットシステム1と異なる。ロボット10、ステレオカメラ20、制御装置30、逆光照射部材40、ケーブル支持台50は、図1のロボットシステム1と実質的に同じものである。
順光照射部材60は、ステレオカメラ20に対してケーブルCの表側に光を照射するものである。つまり、ステレオカメラ20は、ケーブルCの表面で反射した光を撮像する。順光照射部材60としては、特に限定されるものではないが、例えば、一般的な面光源の照明装置が挙げられる。
FIG. 4a shows a robot system 1A used in a second embodiment of a three-dimensional measurement method for a linear object having metal terminals and a second embodiment of a robot control method using the method. The robot system 1</b>A differs from the robot system 1 in that it includes a front light irradiation member 60 . The robot 10, the stereo camera 20, the control device 30, the backlight irradiation member 40, and the cable support base 50 are substantially the same as those of the robot system 1 of FIG.
The forward light irradiation member 60 irradiates the front side of the cable C with light to the stereo camera 20 . That is, the stereo camera 20 captures the light reflected on the surface of the cable C. FIG. The forward light irradiation member 60 is not particularly limited, but for example, an illumination device with a general surface light source can be used.

次に、図5aに基づいて、線状物の把持するロボット制御方法の第2実施形態について説明する。
このケーブルC(線状物)を把持するロボット制御方法は、ケーブルCのケーブル本体C1と金属端子C2とを特定したケーブルCの三次元形状を取得する工程210と、ケーブルCの把持される部分Gの座標を算出する工程220と、ロボットハンドの把持姿勢および把持位置を算出する工程230と、ロボットハンドのケーブルCに対するアプローチ方向を算出する工程240と、ロボットハンドでケーブルCを把持する工程250とを有する。この制御方法は、第1実施形態と異なり、任意の規格のケーブルを把持させることができる。工程230、工程240、工程250は、それぞれ第1実施形態の工程130、工程140、工程150と実質的に同じである。なおこの実施形態において、工程220、工程230、工程240の処理は、どのような順番で処理してもよい。
Next, a second embodiment of a robot control method for gripping a linear object will be described with reference to FIG. 5a.
This robot control method for gripping a cable C (linear object) includes a step 210 of acquiring a three-dimensional shape of the cable C by specifying a cable body C1 and a metal terminal C2 of the cable C, a step 220 of calculating the coordinates of the gripped portion G of the cable C, a step 230 of calculating the gripping posture and gripping position of the robot hand, a step 240 of calculating the approach direction of the robot hand to the cable C, and a step 250 of gripping the cable C with the robot hand. Unlike the first embodiment, this control method can grip cables of any standard. Steps 230, 240 and 250 are substantially the same as steps 130, 140 and 150 of the first embodiment, respectively. It should be noted that in this embodiment, the steps 220, 230, and 240 may be performed in any order.

ケーブルCのケーブル本体C1と金属端子C2とを特定したケーブルCの三次元形状の測定(工程210)は、線状物の三次元計測方法の第2実施形態である。工程210は、図5bに示すように、ステレオカメラ20でケーブルCの逆光画像を撮像し(工程211)、逆光画像からケーブルCのシルエット像を抽出し(工程212)、シルエット像の形状を確認し(工程213)、次いでステレオカメラ20でケーブルCの順光画像を撮像し(工程214)、順光画像におけるケーブル本体C1を特定した線状物部位情報を取得し(工程215)、順光画像の線状物部位情報に基づいて、逆光画像におけるケーブルCのケーブル本体C1および金属端子C2とを特定した線状物部位情報を取得し(工程216)、逆光画像における線状物部位情報に基づいてケーブルCのケーブル本体C1および金属端子C2を特定した三次元形状を算出する(工程217)ことによって行われる。すなわち、ケーブル本体の三次元形状と金属端子の三次元形状とを算出する。工程211~工程213は、それぞれ第1実施形態の工程111~工程113と実質的に同じである。なお、後の工程で必要となる情報がケーブル本体および金属端子の一方のみの三次元形状であれば、必要な部位の三次元形状のみ算出すればよく、計算処理スピードが速まる。 The measurement of the three-dimensional shape of the cable C (step 210) in which the cable body C1 and the metal terminal C2 of the cable C are specified is the second embodiment of the three-dimensional measurement method for linear objects. As shown in FIG. 5B, the step 210 is to take a backlit image of the cable C with the stereo camera 20 (step 211), extract a silhouette image of the cable C from the backlit image (step 212), check the shape of the silhouette image (step 213), then take a frontlit image of the cable C with the stereo camera 20 (step 214), acquire linear object part information specifying the cable main body C1 in the frontlit image (step 215), and obtain linear object part information specifying the cable main body C1 in the frontlit image (step 215). This is performed by acquiring linear object part information specifying the cable main body C1 and the metal terminal C2 of the cable C in the backlight image based on the linear object part information (step 216), and calculating the three-dimensional shape specifying the cable main body C1 and the metal terminal C2 of the cable C based on the linear object part information in the backlight image (step 217). That is, the three-dimensional shape of the cable main body and the three-dimensional shape of the metal terminal are calculated. Steps 211 to 213 are substantially the same as steps 111 to 113 of the first embodiment, respectively. If the information required in the subsequent process is the three-dimensional shape of only one of the cable main body and the metal terminal, it is sufficient to calculate the three-dimensional shape of only the necessary portion, which speeds up the calculation processing speed.

ここでは、工程214以降の工程について、詳細を説明する。ケーブルCの順光画像の撮像(工程214)は、順光照射部材60でケーブルCを照射し、その状態でステレオカメラ20によってケーブルCを撮影することにより行う。詳しくは、ステレオカメラ20の第1カメラ21によって第1順光画像を撮像し、ステレオカメラ20の第2カメラ22によって第2順光画像を撮像する。なお、工程S211の逆光画像および工程214の順光画像は、同じ位置に固定されたステレオカメラ20の第1カメラ21および第2カメラ22によって撮像する。 Here, the steps after step 214 will be described in detail. Imaging of the front light image of the cable C (step 214) is performed by illuminating the cable C with the front light irradiation member 60 and photographing the cable C with the stereo camera 20 in that state. Specifically, the first camera 21 of the stereo camera 20 captures a first front-light image, and the second camera 22 of the stereo camera 20 captures a second front-light image. The backlit image in step S211 and the frontlit image in step S214 are captured by the first camera 21 and the second camera 22 of the stereo camera 20 fixed at the same position.

次に、順光画像におけるケーブル本体C1を特定した線状物部位情報を取得する(工程215)。具体的には、順光画像からケーブル本体像を抽出することによって線状物部位情報を取得する。
順光画像は、ケーブル本体像、金属端子像、および、背景像からなる。そして、ケーブル本体像および金属端子像は、それぞれケーブルCの表面で反射した光の像である。そのため、金属端子像には、所定の輝度以上の反射光による白飛びが見られる。一方、ケーブル本体像には、そのような白飛びは見られない。そのため、順光画像から明確な形状が取得できるケーブル本体像は、順光画像におけるケーブル本体C1を特定した線状物部位情報となる。ここで白飛びとは、撮像素子に入射する光量が上限値を超えてしまう状態をいい、例えば、RGBの全てが上限と認識されて色の濃淡を表すことができずに画像上に白塗り部ができるもの以外にも、RGBのいずれかが上限と認識されて当該色の濃淡を表すことができない状態も含む。
ケーブル本体像の抽出方法は、順光画像の色を利用する。詳しくは、測定前に、ケーブル本体C1の色の輝度(RGB値)を、色テーブルとして記憶部32に予め登録する。2種類以上のケーブルを対象とする場合は、それらを全て登録する。例えば、必要な色が含まれるRGBの範囲を設定して登録してもよい。そして、順光画像において、該当する特定の色の領域だけをケーブル本体C1として特定し、ケーブル本体像として抽出する。具体的には、順光画像の各画素の色の輝度(RGB値)を色テーブルの色の輝度(RGB値)と比較し、その画素の色が色テーブルの色と同じ場合は残し、異なる場合は消去する。色が同じであるか異なるかの判断は、両者の差によって判断する。例えば、各画素におけるRGB値と色テーブルのRGB値との差が所定の範囲以内である場合は、同じと判断し、両者の差が所定の範囲以上である場合は、異なると判断する。ケーブル本体像を抽出した後、ノイズを除去するのが好ましい。なお、二値化処理をしてケーブル本体像を抽出してもよい。
Next, linear object part information specifying the cable main body C1 in the front-light image is obtained (step 215). Specifically, the linear object part information is acquired by extracting the cable main body image from the front-light image.
The front-light image consists of a cable body image, a metal terminal image, and a background image. The cable body image and the metal terminal image are images of light reflected on the surface of the cable C, respectively. As a result, whiteout due to reflected light having a predetermined luminance or more is seen in the metal terminal image. On the other hand, no such overexposure is seen in the image of the main body of the cable. Therefore, the cable body image from which a clear shape can be obtained from the front-light image becomes the linear object part information specifying the cable body C1 in the front-light image. Here, whiteout refers to a state in which the amount of light incident on the image pickup device exceeds the upper limit value. For example, in addition to a state in which all of RGB are recognized as the upper limit and color densities cannot be represented and white areas are formed on the image, it also includes a state in which any one of RGB is recognized as the upper limit and color densities cannot be represented.
The cable body image extraction method utilizes the color of the front light image. Specifically, before the measurement, the luminance (RGB value) of the color of the cable main body C1 is registered in advance in the storage unit 32 as a color table. If two or more types of cables are targeted, register them all. For example, an RGB range that includes the required colors may be set and registered. Then, in the front-light image, only the corresponding specific color area is specified as the cable main body C1, and extracted as the cable main body image. Specifically, the brightness (RGB value) of each pixel in the frontlight image is compared with the brightness (RGB value) of the color in the color table, and if the color of the pixel is the same as the color in the color table, it is retained, and if it is different, it is deleted. Whether the colors are the same or different is determined by the difference between the two. For example, if the difference between the RGB value of each pixel and the RGB value of the color table is within a predetermined range, it is determined that they are the same, and if the difference is greater than or equal to the predetermined range, it is determined that they are different. After extracting the cable body image, noise is preferably removed. It should be noted that the image of the main body of the cable may be extracted by performing binarization processing.

次に、順光画像におけるケーブル本体を特定した線状物部位情報(ケーブル本体像)に基づいて、逆光画像におけるケーブルCのケーブル本体C1および金属端子C2を特定した線状物部位情報を取得する(工程216)。
上述したように逆光画像と順光画像とは、同じ位置のステレオカメラ20から撮像されているため、第1順光画像と第1逆光画像におけるケーブルCの位置、形状、および、第2順光画像と第2逆光画像におけるケーブルCの位置、形状は一致する。そのため、逆光画像から抽出したシルエット像と順光画像から抽出したケーブル本体像とを比較し、シルエット像におけるケーブル本体C1と金属端子C2とを特定して逆光画像における線状物部位情報を取得する。
具体的な操作としては、第1シルエット像と第1ケーブル本体像とを重ね、第1シルエット像において、第1ケーブル本体像と重なった領域がケーブル本体C1であると判断でき、第1ケーブル本体像と重ならなかった領域が金属端子C2であると判断できる。同様に第2シルエット像と第2ケーブル本体像とを重ねて、第2シルエット像におけるケーブル本体C1と金属端子C2とを特定する。
Next, based on the linear object part information (cable body image) that identifies the cable body in the front-light image, the linear object part information that identifies the cable body C1 and the metal terminal C2 of the cable C in the backlit image is acquired (step 216).
As described above, since the backlit image and the direct light image are captured by the stereo camera 20 at the same position, the position and shape of the cable C in the first direct light image and the first backlit image, and the position and shape of the cable C in the second direct light image and the second backlit image match. Therefore, the silhouette image extracted from the backlit image and the cable main body image extracted from the frontlit image are compared, the cable main body C1 and the metal terminal C2 in the silhouette image are specified, and the linear object part information in the backlit image is acquired.
As a specific operation, the first silhouette image and the first cable body image are superimposed, and in the first silhouette image, the area overlapping the first cable body image can be determined to be the cable body C1, and the area not overlapping the first cable body image can be determined to be the metal terminal C2. Similarly, the second silhouette image and the second cable body image are superimposed to identify the cable body C1 and the metal terminal C2 in the second silhouette image.

逆光画像における線状物部位情報に基づいてケーブルCのケーブル本体C1と金属端子C2とを特定したケーブルCの三次元形状を算出する(工程217)。
詳しくは、ケーブル本体C1と金属端子C2とを特定した線状物部位情報を備えた第1シルエット像およびケーブル本体C1と金属端子C2とを特定した線状物部位情報を備えた第2シルエット像に基づいて、ケーブル本体C1と金属端子C2とを特定したケーブルCの三次元形状を算出する。
Based on the linear object part information in the backlight image, the three-dimensional shape of the cable C is calculated by specifying the cable body C1 and the metal terminal C2 of the cable C (step 217).
Specifically, the three-dimensional shape of the cable C specifying the cable main body C1 and the metal terminal C2 is calculated based on the first silhouette image provided with the linear object part information specifying the cable main body C1 and the metal terminal C2 and the second silhouette image provided with the linear object part information specifying the cable main body C1 and the metal terminal C2.

次にケーブルCの把持される部分Gを算出について説明する(工程220)。ここでも工程120と同様に、ケーブルCの三次元形状で特定できる1点に基づいて算出する。詳しくは、ケーブル本体C1と金属端子C2とが特定されたケーブルCの三次元形状からケーブル本体C1と金属端子C2の境界(ケーブル本体C1の端部)を見出し、この境界からXmmである把持される部分Gを直接算出する。なお、境界からの距離Xmmは、予め登録しておく。 Next, the calculation of the gripped portion G of the cable C will be described (step 220). Here, as in step 120, the calculation is based on one point that can be specified on the three-dimensional shape of the cable C. Specifically, the boundary between the cable body C1 and the metal terminal C2 (the end of the cable body C1) is found from the three-dimensional shape of the cable C in which the cable body C1 and the metal terminal C2 are specified, and the gripped portion G, which is X mm from this boundary, is directly calculated. Note that the distance X mm from the boundary is registered in advance.

このように順光画像を用いてケーブル本体C1と金属端子C2とが特定されたケーブルCの特定済み三次元形状を取得することにより、異なる色のケーブルや、金属端子C2の形状が異なるケーブルなど規格の異なるケーブルを同じシステムを用いて取り扱うことができる。そして、これらの規格の異なるケーブルを安定してロボットアームで把持させることができる。
なお、第2実施形態では、工程211~工程217の順番に説明したが、工程214~工程217(順光画像の処理)を工程211~工程215(逆光画像の処理)より先に行ってもよい。
By acquiring the identified three-dimensional shape of the cable C in which the cable main body C1 and the metal terminal C2 are identified using the front-light image in this way, cables with different standards such as cables with different colors and cables with different shapes of the metal terminals C2 can be handled using the same system. Then, these cables of different standards can be stably gripped by the robot arm.
In the second embodiment, steps 211 to 217 are described in order, but steps 214 to 217 (process of front-light image) may be performed prior to steps 211 to 215 (process of backlight image).

次に、図6aに基づいて、金属端子を有する線状物の三次元計測方法の第3実施形態について説明する。この方法は、図4のロボットシステム1Aが用いられ、ロボット制御方法の第2実施形態の工程210と同様に、ケーブルCのケーブル本体C1と金属端子C2とを特定した三次元形状を求めるものであり、ロボット制御方法の第2実施形態において工程210の代わりになる方法である。
ケーブルCのケーブル本体C1と金属端子C2とを特定したケーブルCの三次元形状の取得(工程310)は、図6aに示すように、ステレオカメラ20でケーブルCの逆光画像を撮像し(工程311)、逆光画像からケーブルCのシルエット像を抽出し(工程312)、シルエット像の形状を確認し(工程313)、シルエット像に基づいてケーブルCの三次元形状を算出し(工程314)、次いでステレオカメラ20でケーブルCの順光画像を撮像し(工程315)、順光画像におけるケーブル本体C1を特定した線状物部位情報を取得し(工程316)、順光画像における線状物部位情報に基づいて、ケーブルCの三次元形状におけるケーブル本体C1と金属端子C2とを特定する(工程317)ことによって行われる。
ここで工程311~工程314は、それぞれ第1実施形態の工程111~工程114と実質的に同じであり、工程315、工程316は、それぞれ第2実施形態の工程214、工程215と実質的に同じである。
Next, a third embodiment of a three-dimensional measurement method for linear objects having metal terminals will be described with reference to FIG. 6a. This method, which uses the robot system 1A of FIG. 4, obtains a three-dimensional shape specifying the cable body C1 and the metal terminal C2 of the cable C in the same way as the step 210 of the second embodiment of the robot control method, and is a method that replaces the step 210 in the second embodiment of the robot control method.
Acquisition of the three-dimensional shape of the cable C specifying the cable main body C1 and the metal terminal C2 of the cable C (step 310) involves, as shown in FIG. A follow-light image of C is captured (step 315), linear object part information specifying the cable main body C1 in the follow-light image is obtained (step 316), and the cable main body C1 and the metal terminal C2 in the three-dimensional shape of the cable C are specified (step 317) based on the linear object part information specifying the cable main body C1 in the follow-light image.
Steps 311 to 314 are substantially the same as steps 111 to 114 of the first embodiment, respectively, and steps 315 and 316 are substantially the same as steps 214 and 215 of the second embodiment, respectively.

ここでは、工程317以降の工程について、詳細を説明する。順光画像における線状物部位情報に基づいて、ケーブルCの三次元形状におけるケーブル本体C1と金属端子C2とを特定する(工程317)。
工程314で算出されるケーブルCの三次元形状は、逆光画像のシルエット像に基づいて算出されているため、ケーブル本体C1と金属端子C2とは特定されていない。しかし、ステレオカメラ20は同じ位置から各順光画像および逆光画像を撮像しているため、各順光画像より抽出した第1ケーブル本体像および第2ケーブル本体像の各点と、ケーブルCの三次元形状の各点とは対応している。そのため、第1ケーブル本体像と第2ケーブル本体像の各点と対応するケーブルCの三次元形状の領域をケーブル本体C1と判断する。そして、残りの領域を金属端子C2と判断する。これにより、第2実施形態の工程210と同様のケーブルCのケーブル本体C1および金属端子C2を特定した三次元形状を取得することができる。
なお、第1ケーブル本体像と第2ケーブル本体像からケーブル本体C1の三次元形状を取得し、ケーブルCの三次元形状、ケーブル本体C1の三次元形状とを重ね、ケーブルCの三次元形状において重なっている部分をケーブル本体C1と判断し、その他の領域を金属端子C2と判断して、ケーブルCのケーブル本体C1および金属端子C2を特定した三次元形状を取得してもよい。
Here, details of the steps after step 317 will be described. The cable main body C1 and the metal terminal C2 in the three-dimensional shape of the cable C are specified based on the linear object part information in the front-light image (step 317).
Since the three-dimensional shape of the cable C calculated in step 314 is calculated based on the silhouette image of the backlight image, the cable main body C1 and the metal terminal C2 are not specified. However, since the stereo camera 20 captures each front light image and back light image from the same position, each point of the first cable main body image and second cable main body image extracted from each front light image and each point of the three-dimensional shape of the cable C correspond to each point. Therefore, the three-dimensional area of the cable C corresponding to each point of the first cable body image and the second cable body image is determined to be the cable body C1. Then, the remaining area is determined to be the metal terminal C2. As a result, it is possible to obtain a three-dimensional shape specifying the cable body C1 and the metal terminal C2 of the cable C similar to step 210 of the second embodiment.
The three-dimensional shape of the cable body C1 may be obtained from the first cable body image and the second cable body image, the three-dimensional shape of the cable C and the three-dimensional shape of the cable body C1 may be superimposed, and the overlapping portion may be determined to be the cable body C1 and the other region to be the metal terminal C2, thereby obtaining the three-dimensional shape of the cable C specifying the cable body C1 and the metal terminal C2.

次に、図6bに基づいて、金属端子を有する線状物の三次元計測方法の第4実施形態について説明する。この方法も特定済み三次元形状を求めるものであり、ロボット制御方法の第2実施形態の工程210の代わりに使用することができる。しかし、順光画像における光沢部を特定した線状物部位情報を用いる点でこれまでと異なる。また図4bのロボットシステム1Bを使用する。ロボットシステム1Bは、複数の順光照射部材60a、60b、60cを備えており、それ以外はロボットシステム1Aと実質的に同じである。
ケーブルCのケーブル本体C1と金属端子C2とを特定したケーブルCの特定済み三次元形状の取得(工程410)は、図6bに示すように、ステレオカメラ20でケーブルCの逆光画像を撮像し(工程411)、逆光画像からケーブルCのシルエット像を抽出し(工程412)、シルエット像の形状を確認し(工程413)、次いでステレオカメラ20で照明条件が異なるケーブルCの順光画像を撮像し(工程414)、複数の順光画像から金属端子C2を特定した線状物部位情報を取得し(工程415)、順光画像における金属端子を特定した線状物部位情報に基づいて、逆光画像におけるケーブルCのケーブル本体C1および金属端子C2を特定した線状物部位情報を取得し(工程416)、逆光画像における線状物部位情報に基づいてケーブルCのケーブル本体C1および金属端子C2を特定した三次元形状を算出する(工程417)ことによって行われる。
ここで工程411~工程413は、それぞれ第1実施形態の工程111~工程113と実質的に同じであり、工程417は、第2実施形態の工程217と実質的に同じである。
Next, a fourth embodiment of a three-dimensional measurement method for linear objects having metal terminals will be described with reference to FIG. 6b. This method also determines an identified three-dimensional shape and can be used in place of step 210 of the second embodiment of the robot control method. However, it differs from the conventional one in that it uses the linear object part information specifying the glossy part in the front light image. Also, the robot system 1B of FIG. 4b is used. The robot system 1B includes a plurality of front light irradiation members 60a, 60b, and 60c, and is otherwise substantially the same as the robot system 1A.
Acquisition of the specified three-dimensional shape of the cable C by specifying the cable main body C1 and the metal terminal C2 of the cable C (step 410), as shown in FIG. The linear object portion information specifying the metal terminal C2 is obtained from a plurality of front-light images (step 415), the linear object portion information specifying the cable main body C1 and the metal terminal C2 of the cable C in the backlight image is obtained based on the linear object portion information specifying the metal terminal in the front-light image (step 416), and the three-dimensional shape specifying the cable main body C1 and the metal terminal C2 of the cable C is calculated based on the linear object portion information in the backlight image (step 417). .
Steps 411 to 413 are substantially the same as steps 111 to 113 of the first embodiment, respectively, and step 417 is substantially the same as step 217 of the second embodiment.

工程414以降の工程について、詳細を説明する。
照明条件が異なるケーブルCの順光画像の撮像(工程414)は、異なる位置に配置された各順光照射部材60に照射された状態で撮像した複数の順光画像を撮像する。つまり、順光照射部材60aで照射した状態においてステレオカメラ20で順光画像を撮像し、光源を切り替えて順光照射部材60bで照射した状態においてステレオカメラ20で順光画像を撮像し、さらに光源を切り替えて順光照射部材60cで照射した状態においてステレオカメラ20で順光画像を撮像する。
Details of the steps after step 414 will be described.
In capturing the front-light images of the cable C under different lighting conditions (step 414), a plurality of front-light images captured under illumination from the front-light irradiation members 60 arranged at different positions are captured. That is, the stereo camera 20 captures a front light image in a state in which the front light irradiation member 60a irradiates, the stereo camera 20 captures the front light image in a state in which the light source is switched and the front light irradiation member 60b irradiates, and the stereo camera 20 captures the front light image in a state in which the light source is switched and the front light irradiation member 60c irradiates.

次に、複数の順光画像から順光画像における金属端子C2を特定した線状物部位情報を取得する(工程415)。
複数の順光照射部材は異なる位置に配置されているため、各順光画像の金属端子像の表面に現れる白飛びの位置が異なる。そのため、複数の順光画像から金属端子像の白飛びしていない部分を抽出することによって、金属端子の形状を確認することができる。つまり、ケーブルCの金属端子C2を特定した線状物部位情報が取得できる。なお、各順光画像における金属端子C2の特定は、工程215のように、測定前に、金属端子C2の色の輝度(RGB値)を色テーブルとして登録し、各画素の色の輝度(RGB値)を色テーブルの色の輝度(RGB値)と比較して特定する。また各画像における白飛びの判断は、色の輝度(RGB値)が閾値以上となっているかで判断する。ここでは3つの順光照射部材60a、60b、60cを設けているが、順光照射部材の数を多くする方が金属端子像を正確に特定することができる。
Next, linear object part information identifying the metal terminal C2 in the front-light image is acquired from the plurality of front-light images (step 415).
Since the plurality of front-light irradiation members are arranged at different positions, the whiteout positions appearing on the surface of the metal terminal image of each front-light image are different. Therefore, the shape of the metal terminal can be confirmed by extracting the portion of the metal terminal image that is not overexposed from a plurality of front-light images. That is, the linear object part information specifying the metal terminal C2 of the cable C can be obtained. The metal terminal C2 in each front-light image is identified by registering the luminance (RGB value) of the color of the metal terminal C2 as a color table and comparing the luminance (RGB value) of the color of each pixel with the luminance (RGB value) of the color in the color table before measurement, as in step 215. Determination of blown-out highlights in each image is made based on whether the luminance (RGB value) of the color is equal to or greater than a threshold value. Although three front light irradiation members 60a, 60b, and 60c are provided here, the metal terminal image can be specified more accurately by increasing the number of front light irradiation members.

次に、順光画像における金属端子を特定した線状物部位情報に基づいて、逆光画像におけるケーブルCのケーブル本体C1および金属端子C2を特定した線状物部位情報の取得する(工程416)。この工程は、工程415において、ケーブルCの金属端子C2を特定した線状物部位情報と、逆光画像のシルエット像とを比較することにより、シルエット像におけるケーブル本体C1と金属端子C2とを特定する。
具体的な操作としては、線状物部位情報の各位置と、それに対応するシルエット像の位置を金属端子C2と判断し、それ以外をケーブル本体C1と判断することによって、シルエット像におけるケーブル本体C1と金属端子C2とを特定する。
Next, linear object part information specifying the cable body C1 and the metal terminal C2 of the cable C in the backlight image is acquired based on the linear object part information specifying the metal terminal in the front-light image (step 416). In step 415, this step identifies the cable body C1 and the metal terminal C2 in the silhouette image by comparing the linear object part information identifying the metal terminal C2 of the cable C with the silhouette image of the backlight image.
As a specific operation, the cable body C1 and the metal terminal C2 in the silhouette image are specified by determining each position of the linear object part information and the position of the corresponding silhouette image as the metal terminal C2, and determining the other as the cable body C1.

線状物の三次元計測方法の第4実施形態の変形例として、逆光画像のシルエット像に基づいてケーブルCの三次元形状を算出し、順光画像における金属端子C2を特定した線状物部位情報に基づいて、ケーブルCの三次元形状のケーブル本体C1および金属端子C2を特定してもよい。
また線状物の三次元計測方法の第4実施形態の変形例として、異なる位置に配置された複数の順光照射部材60a、60b、60cを切り替えて撮像する代わりに、複数のLEDを直列、面状、あるいは、リング状に並べた1つの順光照射部材を用い、発光させるLEDを切り替えて撮像してもよい。さらに、複数の順光照射部材60a、60b、60cの光を異なる波長とし、同時に照射した状態で撮像し、得られた画像を波長分解して、複数の順光画像を取得させてもよい。
As a modification of the fourth embodiment of the method for three-dimensionally measuring a linear object, the three-dimensional shape of the cable C may be calculated based on the silhouette image of the backlight image, and the three-dimensional cable main body C1 and the metal terminal C2 of the cable C may be specified based on the linear object part information specifying the metal terminal C2 in the front-light image.
As a modification of the fourth embodiment of the method for three-dimensionally measuring a linear object, instead of switching between the plurality of front-light irradiation members 60a, 60b, and 60c arranged at different positions for imaging, one front-light irradiation member in which a plurality of LEDs are arranged in series, in a plane, or in a ring may be used, and the LEDs to emit light may be switched for imaging. Furthermore, the light from the plurality of front light irradiation members 60a, 60b, and 60c may be set to different wavelengths, and images may be captured in a state of simultaneous irradiation, and a plurality of front light images may be obtained by wavelength-decomposing the obtained image.

次に、図7aに基づいて、金属端子を有する線状物の三次元計測方法の第5実施形態について説明する。この方法もケーブルCのケーブル本体C1および金属端子C2を特定した三次元形状を求めるものであり、ロボット制御方法の第2実施形態の工程210の代わりに使用することができる。しかし、この方法は、逆光画像を用いない点でこれまでと異なる。そして、図7bのロボットシステム1Cを使用する。図7bのロボットシステム1Cは、逆光照射部材40を備えておらず、それ以外はロボットシステム1Bと実質的に同じである。
ケーブルCのケーブル本体C1と金属端子C2とを特定したケーブルCの三次元形状の取得(工程510)は、図7aに示すように、ステレオカメラ20で照明条件が異なるケーブルCの順光画像を撮像し(工程511)、複数の順光画像から順光画像におけるケーブル本体C1および金属端子C2を特定した線状物部位情報を取得し(工程512)、順光画像における線状物部位情報に基づいて、ケーブルCのケーブル本体C1および金属端子C2を特定した三次元形状を算出する(工程513)ことによって行われる。ここで工程511は、それぞれ第3実施形態の工程414と実質的に同じである。
Next, a fifth embodiment of a three-dimensional measurement method for linear objects having metal terminals will be described with reference to FIG. 7a. This method also obtains a three-dimensional shape specifying the cable body C1 and metal terminals C2 of the cable C, and can be used in place of step 210 of the second embodiment of the robot control method. However, this method is different in that it does not use backlight images. Then, the robot system 1C of FIG. 7b is used. The robot system 1C of FIG. 7b is substantially the same as the robot system 1B except that the backlighting member 40 is not provided.
Acquisition of the three-dimensional shape of the cable C by specifying the cable body C1 and the metal terminal C2 of the cable C (step 510) involves, as shown in FIG. 7a, capturing front-light images of the cable C under different lighting conditions with the stereo camera 20 (step 511), acquiring linear object part information specifying the cable main body C1 and the metal terminal C2 in the front-light images from a plurality of front-light images (step 512), and based on the linear object part information of the cable body C1 of the cable C in the front-light images. and calculating a three-dimensional shape specifying the metal terminal C2 (step 513). Here, step 511 is substantially the same as step 414 of the third embodiment, respectively.

次に工程512から説明する。
複数の順光画像から順光画像におけるケーブル本体C1および金属端子C2の両方を特定した線状物部位情報を取得する(工程512)。
工程415で説明したように、複数の順光画像からケーブルCの金属端子C2を特定した線状物部位情報は取得できる。同時に、少なくとも1つの順光画像から工程215で説明したように、ケーブルCのケーブル本体C1を特定した線状物部位情報(ケーブル本体像)が取得できる。ここでは、その両方の情報を合わせた、ケーブル本体C1および金属端子C2を特定した線状物部位情報を取得する。例えば、両方を特定した線状物部位情報に基づいて、白飛びを除いた補完順光画像を作成してもよい。
Next, the process from step 512 will be described.
Linear object site information identifying both the cable body C1 and the metal terminal C2 in the front-light image is acquired from the plurality of front-light images (step 512).
As described in step 415, linear object site information identifying the metal terminal C2 of the cable C can be obtained from a plurality of front-light images. At the same time, linear object site information (cable body image) that identifies the cable body C1 of the cable C can be obtained from at least one front-light image, as described in step 215 . Here, linear object part information specifying the cable main body C1 and the metal terminal C2, which is a combination of both pieces of information, is acquired. For example, based on linear object part information specifying both, a complementary frontlight image excluding blown-out highlights may be created.

順光画像におけるケーブル本体C1および金属端子C2を特定した線状物部位情報に基づいて、ケーブルCのケーブル本体C1および金属端子C2を特定した三次元形状を算出する(工程513)について説明する。
つまり、第1順光画像におけるケーブル本体C1と金属端子C2を特定した線状物部位情報と、第2順光画像におけるケーブル本体C1と金属端子C2を特定した線状物部位情報に基づいて算出する。例えば、補完第1順光画像と、補完第2順光画像に基づいてケーブルCの三次元形状を算出することなどが挙げられる。
Calculation of the three-dimensional shape specifying the cable main body C1 and the metal terminal C2 of the cable C based on the linear object part information specifying the cable main body C1 and the metal terminal C2 in the front-light image (step 513) will be described.
That is, it is calculated based on the linear object part information specifying the cable main body C1 and the metal terminal C2 in the first front-light image and the linear object part information specifying the cable main body C1 and the metal terminal C2 in the second front-light image. For example, the three-dimensional shape of the cable C may be calculated based on the complementary first front-light image and the complementary second front-light image.

この場合、逆光画像を用いることなくケーブル本体C1および金属端子C2を特定した三次元形状を算出することができる。 In this case, a three-dimensional shape specifying the cable body C1 and the metal terminal C2 can be calculated without using the backlight image.

ケーブルCのケーブル本体C1および金属端子C2を特定した線状物部位情報を取得する工程512は、線状物の三次元計測方法の第4実施形態の変形例として、工程415の代わりにもなりえる。 Step 512 of obtaining linear object part information specifying the cable main body C1 and metal terminal C2 of the cable C can be substituted for step 415 as a modification of the fourth embodiment of the linear object three-dimensional measurement method.

図8は、上述したいずれかのロボット制御方法によって、ケーブルCをロボットハンド12に把持させ、その把持させた状態でケーブルCを移動させ、ケーブルCの金属端子C2を基板PのランドL(接続部)に当接させ、はんだ吐出ヘッドHから溶融はんだSを吐出し、金属端子C2とランドL(接続部)とをはんだによって固定した状態を示す。
本発明のロボット制御方法を用いれば、基板Pに短い間隔で設けられたランドLに、ケーブルCの金属端子C2を合わせ、ケーブルCと基板Pとをロボット10を用いて固定することができる。
なお、把持した部位に溶融したはんだを吐出するはんだ吐出ヘッドを兼ねているロボットハンドが知られている。このロボットハンドを上述のいずれかの線状物の把持方法に用いてもよい。なお、このロボットハンドを用いる場合、ケーブルCの把持される部分を金属端子C2とする。そして、ロボットハンドに、ケーブルCの金属端子C2を直接把持させた状態で、金属端子C2を基板Pのランドと当接するようにケーブルCを移動させ、吐出孔から溶融したはんだを吐出し、金属端子C2とランドを固定させる。
FIG. 8 shows a state in which the cable C is grasped by the robot hand 12 by one of the robot control methods described above, the cable C is moved while being grasped, the metal terminal C2 of the cable C is brought into contact with the land L (connection portion) of the substrate P, the molten solder S is discharged from the solder discharge head H, and the metal terminal C2 and the land L (connection portion) are fixed by soldering.
By using the robot control method of the present invention, the cable C and the substrate P can be fixed using the robot 10 by aligning the metal terminals C2 of the cable C with the lands L provided on the substrate P at short intervals.
A robot hand is known that also serves as a solder ejection head that ejects melted solder to a gripped portion. This robot hand may be used in any of the linear object gripping methods described above. When using this robot hand, the portion of the cable C to be gripped is the metal terminal C2. Then, in a state in which the robot hand directly grips the metal terminal C2 of the cable C, the cable C is moved so that the metal terminal C2 contacts the land of the substrate P, the molten solder is discharged from the discharge hole, and the metal terminal C2 and the land are fixed.

本実施形態では、各画像の色の輝度(RGB値)に基づいて各画像から像(例えば、シルエット像、ケーブル本体像)の抽出を行っているが、各画像の色相、彩度、明度(HSV)のいずれかに基づいて像を抽出してもよい。
本実施形態では、線状物として、ケーブルを挙げているが、特に限定されるものではない。例えば、電線、ワイヤーハーネス、チューブ、紐、糸、繊維、ガラス繊維、光ファイバなどが挙げられる。
本実施形態では、先端の光沢部として、金属端子を挙げているが、特に限定されるものではない。例えば、電線に被覆されるストリップ部が挙げられる。
本実施形態では、1本のケーブル(線状物)の三次元形状を計測し、ロボットアームに把持させているが、複数本のケーブルから1本のケーブル、または、ワイヤーハーネスから1本の電線を把持させてもよい。例えば、特許文献1に示すように、注目線状物を決定して把持させてもよい。
なお、監督者が正しく認識が行えているかを監視するため、認識結果をディスプレイなどの表示装置に表示することが好ましい。この場合、ケーブル本体C1と金属端子C2とを特定したシルエット像や立体画像を表示し、これらの領域が目視できるように別の色等で表すなど、マーキングしておくのが好ましい。
In the present embodiment, an image (for example, silhouette image, cable body image) is extracted from each image based on the luminance (RGB value) of the color of each image, but the image may be extracted based on any of the hue, saturation, and brightness (HSV) of each image.
In this embodiment, a cable is used as a linear object, but it is not particularly limited. Examples include electric wires, wire harnesses, tubes, cords, threads, fibers, glass fibers, and optical fibers.
In this embodiment, the glossy portion at the tip is a metal terminal, but is not particularly limited. For example, a strip portion coated with an electric wire can be mentioned.
In the present embodiment, the three-dimensional shape of one cable (linear object) is measured and gripped by the robot arm, but one cable from a plurality of cables or one wire from a wire harness may be gripped. For example, as shown in Patent Document 1, a line-shaped object of interest may be determined and gripped.
In addition, it is preferable to display the recognition result on a display device such as a display so that the supervisor can monitor whether the recognition is performed correctly. In this case, it is preferable to display a silhouette image or a three-dimensional image specifying the cable main body C1 and the metal terminal C2, and mark these areas in a different color or the like so that these areas can be visually recognized.

1、1A、1B、1C ロボットシステム
10 ロボット
11 多関節アーム
12 ロボットハンド
12a フィンガ
20 ステレオカメラ
21 第1カメラ
22 第2カメラ
23 カメラ制御部
30 制御装置
31 演算部
32 記憶部
40 逆光照射部材
41 枠体
42 拡散板
50 ケーブル支持台
51 冶具
60、60a、60b、60c 順光照射部材
C ケーブル
C1 ケーブル本体
C2 金属端子
E 先端
G 把持される部分
H はんだ吐出ヘッド
L 基板のランド
P 基板
S はんだ
Reference Signs List 1, 1A, 1B, 1C robot system 10 robot 11 articulated arm 12 robot hand 12a finger 20 stereo camera 21 first camera 22 second camera 23 camera control section 30 control device 31 calculation section 32 storage section 40 backlight irradiation member 41 frame 42 diffusion plate 50 cable support base 51 jig 60, 60a, 60 b, 60c forward light irradiation member C cable C1 cable main body C2 metal terminal E tip G part to be gripped H solder discharge head L substrate land P substrate S solder

Claims (9)

可撓性を有し、先端に光沢のある金属端子を備えた線状物の、ロボットハンドによって把持される作業位置を決定する方法であって、
2台のカメラを備えたステレオカメラで前記線状物の逆光画像を撮像する工程と、
前記逆光画像に基づいて前記線状物の三次元座標を取得する工程と
前記ステレオカメラで前記線状物の順光画像を撮像する工程と、
前記順光画像における前記線状物の本体および前記金属端子を特定した線状物部位情報を取得する工程と、
前記順光画像における線状物部位情報に基づいて、前記線状物の三次元座標における前記本体および前記金属端子を特定する工程と、
前記線状物の三次元座標の少なくとも1点に基づいて、前記線状物の前記作業位置を算出する工程とを有する、
線状物の作業位置決定方法
A method for determining a working position of a linear object having flexibility and having a glossy metal terminal at the tip thereof to be gripped by a robot hand, comprising :
a step of capturing a backlight image of the linear object with a stereo camera having two cameras ;
obtaining the three-dimensional coordinates of the linear object based on the backlight image ;
a step of capturing a front-light image of the linear object with the stereo camera;
a step of acquiring linear object part information specifying the main body of the linear object and the metal terminal in the front-light image;
a step of specifying the main body and the metal terminals in the three-dimensional coordinates of the linear object based on the linear object part information in the front-light image;
calculating the working position of the linear object based on at least one point of the three-dimensional coordinates of the linear object;
A work position determination method for a linear object .
可撓性を有し、先端に光沢のある金属端子を備えた線状物の、ロボットハンドによって把持される作業位置を決定する方法であって、
2台のカメラを備えたステレオカメラで前記線状物の逆光画像を撮像する工程と、
前記ステレオカメラで前記線状物の順光画像を撮像する工程と、
前記順光画像における前記線状物の本体および前記金属端子を特定した線状物部位情報を取得する工程と、
前記順光画像における線状物部位情報に基づいて、前記逆光画像における前記線状物の前記本体および前記金属端子を特定した線状物部位情報を取得する工程と、
前記逆光画像における線状物部位情報に基づいて、前記線状物の前記本体および前記金属端子を特定した前記線状物の三次元座標を取得する工程と
前記線状物の三次元座標の少なくとも1点に基づいて、前記線状物の前記作業位置を算出する工程とを有する、
線状物の作業位置決定方法
A method for determining a working position of a linear object having flexibility and having a glossy metal terminal at the tip thereof to be gripped by a robot hand, comprising :
a step of capturing a backlight image of the linear object with a stereo camera having two cameras ;
a step of capturing a front-light image of the linear object with the stereo camera;
a step of acquiring linear object part information specifying the main body of the linear object and the metal terminal in the front-light image;
a step of acquiring linear object part information specifying the main body and the metal terminals of the linear object in the backlight image based on the linear object part information in the front-light image;
a step of acquiring three-dimensional coordinates of the linear object specifying the main body and the metal terminals of the linear object based on the linear object part information in the backlight image ;
calculating the working position of the linear object based on at least one point of the three-dimensional coordinates of the linear object;
A work position determination method for a linear object .
前記順光画像の色に基づいて前記順光画像における線状物部位情報を取得する、
請求項1または2に記載の線状物の作業位置決定方法
Acquiring linear object part information in the front-light image based on the color of the front-light image;
3. The working position determination method for a linear object according to claim 1 or 2 .
前記線状物の三次元座標に基づいて、前記線状物に対する作業方向を決定する作業方向決定工程をさらに備える、
請求項1~3のいずれか一項に記載の線状物の作業位置決定方法。
further comprising a working direction determination step of determining a working direction for the linear object based on the three-dimensional coordinates of the linear object;
A working position determination method for a linear object according to any one of claims 1 to 3 .
請求項4に記載の線状物の作業位置決定方法によって前記線状物の前記作業位置を算出する工程と、
前記作業位置を前記ロボットハンドに把持させる工程とを有する、
ロボットの制御方法。
A step of calculating the working position of the linear object by the method for determining the working position of the linear object according to claim 4 ;
and causing the robot hand to grasp the working position .
How to control the robot.
請求項4に記載の線状物の作業位置決定方法によって前記線状物の前記作業位置を算出する工程と、
前記ロボットハンド前記作業位置を把持させ、前記ロボットハンドで把持した前記線状物を移動させて、前記線状物を相手部材に当接させ、前記線状物と前記相手部材とをはんだによって固定する工程とを有する、
線状物の固定方法。
A step of calculating the working position of the linear object by the method for determining the working position of the linear object according to claim 4 ;
a step of causing the robot hand to grip the working position, moving the linear object gripped by the robot hand to bring the linear object into contact with a mating member, and fixing the linear object and the mating member by soldering;
A method for fixing linear objects.
2台のカメラを備えたステレオカメラと、
前記ステレオカメラに対して逆光となるように、可撓性を有し、先端に光沢のある金属端子を備えた線状物に光を照射する逆光照射部材と、
前記ステレオカメラに対して順光となるように、前記線状物に光を照射する順光照射部材と、
前記ステレオカメラで撮像した前記線状物の逆光画像に基づいて前記線状物の三次元座標を取得し、
前記ステレオカメラで撮像した前記線状物の順光画像における前記線状物の本体および前記金属端子を特定した線状物部位情報を取得し、
前記順光画像における線状物部位情報に基づいて、前記線状物の三次元座標における前記本体および前記金属端子を特定し、
前記線状物の三次元座標の少なくとも1点に基づいて、前記線状物の、ロボットハンドによって把持される作業位置を算出する演算部と、を備える、
線状物の作業位置決定装置。
a stereo camera with two cameras ,
a backlight irradiating member that irradiates a linear object having flexibility and having a glossy metal terminal at its tip so as to be backlight for the stereo camera;
a front light irradiation member that irradiates the linear object with light so as to be front light with respect to the stereo camera;
Acquiring the three-dimensional coordinates of the linear object based on the backlight image of the linear object captured by the stereo camera;
Acquiring linear object part information specifying the main body of the linear object and the metal terminal in the front-light image of the linear object captured by the stereo camera;
identifying the main body and the metal terminals in the three-dimensional coordinates of the linear object based on the linear object part information in the front-light image;
a calculation unit that calculates a working position of the linear object to be gripped by the robot hand based on at least one point of the three-dimensional coordinates of the linear object;
Work positioning device for linear objects.
2台のカメラを備えたステレオカメラと、a stereo camera with two cameras,
前記ステレオカメラに対して逆光となるように、可撓性を有し、先端に光沢のある金属端子を備えた線状物に光を照射する逆光照射部材と、a backlight irradiating member that irradiates a linear object having flexibility and having a glossy metal terminal at its tip so as to be backlight for the stereo camera;
前記ステレオカメラに対して順光となるように、前記線状物に光を照射する順光照射部材と、a front light irradiation member that irradiates the linear object with light so as to be front light with respect to the stereo camera;
前記ステレオカメラで撮像した前記線状物の順光画像における前記線状物の本体および前記金属端子を特定した線状物部位情報を取得し、Acquiring linear object part information specifying the main body of the linear object and the metal terminal in the front-light image of the linear object captured by the stereo camera;
前記順光画像における線状物部位情報に基づいて、前記ステレオカメラで撮像した前記線状物の逆光画像における前記線状物の前記本体および前記金属端子を特定した線状物部位情報を取得し、Acquiring linear object part information specifying the main body and the metal terminals of the linear object in the backlight image of the linear object captured by the stereo camera, based on the linear object part information in the front-light image;
前記逆光画像における線状物部位情報に基づいて、前記線状物の前記本体および前記金属端子を特定した前記線状物の三次元座標を取得し、Acquiring three-dimensional coordinates of the linear object specifying the main body and the metal terminal of the linear object based on the linear object part information in the backlight image;
前記線状物の三次元座標の少なくとも1点に基づいて、前記線状物の、ロボットハンドによって把持される作業位置を算出する演算部と、を備える、a calculation unit that calculates a working position of the linear object to be gripped by the robot hand based on at least one point of the three-dimensional coordinates of the linear object;
線状物の作業位置決定装置。Work positioning device for linear objects.
請求項7または8に記載の線状物の作業位置決定装置と、
前記線状物を把持する前記ロボットハンドを備えるロボットと、を備え、
前記ロボットハンドは、前記演算部が算出した前記作業位置を把持する、
線状物把持システム。
A working position determination device for a linear object according to claim 7 or 8 ;
a robot comprising the robot hand that grips the linear object,
the robot hand grips the working position calculated by the computing unit;
Linear object grasping system.
JP2019181544A 2019-10-01 2019-10-01 Linear object working position determining method, robot control method, linear object fixing method, linear object working position determining device, and linear object gripping system Active JP7312663B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019181544A JP7312663B2 (en) 2019-10-01 2019-10-01 Linear object working position determining method, robot control method, linear object fixing method, linear object working position determining device, and linear object gripping system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019181544A JP7312663B2 (en) 2019-10-01 2019-10-01 Linear object working position determining method, robot control method, linear object fixing method, linear object working position determining device, and linear object gripping system

Publications (2)

Publication Number Publication Date
JP2021056165A JP2021056165A (en) 2021-04-08
JP7312663B2 true JP7312663B2 (en) 2023-07-21

Family

ID=75272512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019181544A Active JP7312663B2 (en) 2019-10-01 2019-10-01 Linear object working position determining method, robot control method, linear object fixing method, linear object working position determining device, and linear object gripping system

Country Status (1)

Country Link
JP (1) JP7312663B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009300124A (en) 2008-06-10 2009-12-24 Keyence Corp Image measuring device, image measuring method, and computer program
WO2019098074A1 (en) 2017-11-16 2019-05-23 倉敷紡績株式会社 Linear-object gripping method and control device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2941412B2 (en) * 1990-11-26 1999-08-25 株式会社東芝 3D measurement method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009300124A (en) 2008-06-10 2009-12-24 Keyence Corp Image measuring device, image measuring method, and computer program
WO2019098074A1 (en) 2017-11-16 2019-05-23 倉敷紡績株式会社 Linear-object gripping method and control device

Also Published As

Publication number Publication date
JP2021056165A (en) 2021-04-08

Similar Documents

Publication Publication Date Title
JP5302858B2 (en) Coated wire inspection device and wire processing machine equipped with the same
US20120263344A1 (en) Measuring apparatus and method for determining at least of the crimp height of a conductor crimp
JP2012004306A (en) Adsorption nozzle inspection device of component mounting machine
CN115629066A (en) Method and device for automatic wiring based on visual guidance
CN106226326A (en) Detection SIP module surface defect, the method and system of dew copper surface defect
JP7312663B2 (en) Linear object working position determining method, robot control method, linear object fixing method, linear object working position determining device, and linear object gripping system
JP3008796B2 (en) Illumination method and illumination device in wire processing unit inspection device of stripped terminal crimping machine
CN108701346B (en) Wiring inspection work support system
US5377278A (en) Method and apparatus for inspecting a solderless terminal by image processing
JP2020112470A (en) Tip member position estimating method, tip member holding method, tip member connecting method, tip member position estimating system and tip member holding system
JP3935048B2 (en) Covered wire inspection equipment
JP3002389B2 (en) Inspection device for wire processing part in stripping terminal crimping machine
JP2016070723A (en) Solder inspection equipment and method
JP2000146787A (en) Measuring method for restriction in tensile test
JP5280918B2 (en) Shape measuring device
EP3779355A1 (en) Three-dimensional measurement device for linear object and three-dimensional measurement method for linear object
CN111536895A (en) Shape recognition device, shape recognition system, and shape recognition method
JP7159159B2 (en) Three-dimensional measurement method and apparatus for linear objects
JP5356202B2 (en) Coated wire inspection device and wire processing machine equipped with the same
CN113466227A (en) Appearance inspection device and appearance inspection method for crimp terminal
JP2021089672A (en) Tip member orientation recognition method, tip member orientation alignment method, tip member insertion method, tip member orientation recognition device, and tip member orientation alignment system
JP2021089670A (en) Method for recognizing bundled material, method for determining work position of bundled material, method for controlling robot, device for determining work position of bundled material, and system for performing bundled material
JPH05249043A (en) Illuminating method in compression-bonded terminal image processing inspection
JP3002388B2 (en) Inspection device for wire processing part in stripping terminal crimping machine
JPH06102192A (en) Pressure bonding inspection method for pressure bonded terminal

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200210

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230710

R150 Certificate of patent or registration of utility model

Ref document number: 7312663

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150