JP2021085751A - Method for determining work position, method for controlling robot, work position determination device, and robot control system - Google Patents

Method for determining work position, method for controlling robot, work position determination device, and robot control system Download PDF

Info

Publication number
JP2021085751A
JP2021085751A JP2019214570A JP2019214570A JP2021085751A JP 2021085751 A JP2021085751 A JP 2021085751A JP 2019214570 A JP2019214570 A JP 2019214570A JP 2019214570 A JP2019214570 A JP 2019214570A JP 2021085751 A JP2021085751 A JP 2021085751A
Authority
JP
Japan
Prior art keywords
marker
work position
image
dimensional coordinate
coordinate acquisition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019214570A
Other languages
Japanese (ja)
Inventor
基善 北井
Motoyoshi Kitai
基善 北井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kurabo Industries Ltd
Kurashiki Spinning Co Ltd
Original Assignee
Kurabo Industries Ltd
Kurashiki Spinning Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kurabo Industries Ltd, Kurashiki Spinning Co Ltd filed Critical Kurabo Industries Ltd
Priority to JP2019214570A priority Critical patent/JP2021085751A/en
Publication of JP2021085751A publication Critical patent/JP2021085751A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a method for recognizing a marker on an object and determining a work position.SOLUTION: The method for determining a work position of the present invention includes: an imaging step of taking a first image and a second image of a marker on an object from different viewpoints; a region detection step of detecting the region of the marker in the first image and in the second image; a three-dimensional coordinate acquisition step of acquiring at least one three-dimensional coordinate of the extracted edge; and a work position determination step of determining a work position on the object on the basis of the three-dimensional coordinate.SELECTED DRAWING: Figure 2

Description

本発明は、作業位置決定方法、ロボット制御方法、作業位置決定装置、およびロボット制御システムに関する。 The present invention relates to a work position determination method, a robot control method, a work position determination device, and a robot control system.

布等の柔軟性を有する面状の対象物を扱う作業を、ロボットを利用して自動化することが行われている。例えば、特許文献1には、三次元カメラにより撮影した画像に基づいて、タオル、またはシーツ等の布片の三次元形状を取得して、布片の角部を把持する方法が開示されている。 Robots are used to automate the work of handling flexible planar objects such as cloth. For example, Patent Document 1 discloses a method of acquiring a three-dimensional shape of a piece of cloth such as a towel or sheets based on an image taken by a three-dimensional camera and gripping a corner portion of the piece of cloth. ..

特開2018−114028号公報JP-A-2018-114028

特許文献1に記載された方法では、例えば袋の把手等の矩形以外の形状の対象物を取り扱うことが困難である。 With the method described in Patent Document 1, it is difficult to handle an object having a shape other than a rectangle, such as a bag handle.

そこで、本発明では、対象物に設けられたマーカーを認識して、作業位置を決定する方法を提供することを課題とする。 Therefore, it is an object of the present invention to provide a method of recognizing a marker provided on an object and determining a working position.

本発明に係る作業位置決定方法は、
柔軟性を有する対象物に設けられたマーカーを、異なる視点から撮像した第1画像および第2画像を取得する撮像工程と、
前記第1画像および前記第2画像のそれぞれにおいて、前記マーカーの領域を検出する領域検出工程と、
検出した前記マーカーの領域のうち少なくとも1点の三次元座標を取得する三次元座標取得工程と、
前記三次元座標に基づいて、前記対象物に対する作業位置を決定する作業位置決定工程と、
を含む。
The working position determination method according to the present invention is
An imaging step of acquiring a first image and a second image of a marker provided on a flexible object from different viewpoints, and
In each of the first image and the second image, a region detection step of detecting the region of the marker and a region detection step.
A three-dimensional coordinate acquisition step of acquiring at least one three-dimensional coordinate of the detected marker area, and
A work position determination step of determining a work position with respect to the object based on the three-dimensional coordinates,
including.

本発明によれば、対象物に設けられたマーカーを認識して、作業位置を決定する方法を提供することができる。 According to the present invention, it is possible to provide a method of recognizing a marker provided on an object and determining a working position.

実施の形態1に係る作業位置決定装置およびロボット制御システムの構成を示すブロック図である。It is a block diagram which shows the structure of the work position determination apparatus and the robot control system which concerns on Embodiment 1. FIG. 実施の形態1に係るロボット制御システムの構成を示す概略図である。It is the schematic which shows the structure of the robot control system which concerns on Embodiment 1. FIG. 実施の形態1に係るロボット制御システムにより作業を実行する対象となる三次元座標取得用マーカーを備える袋の概略図である。It is the schematic of the bag provided with the 3D coordinate acquisition marker which is the object which performs the work by the robot control system which concerns on Embodiment 1. FIG. 実施の形態1に係るロボット制御方法のフローチャートである。It is a flowchart of the robot control method which concerns on Embodiment 1. FIG. 第1カメラにより撮像された三次元座標取得用マーカーの第1画像の画像処理を説明する図である。It is a figure explaining the image processing of the 1st image of the 3D coordinate acquisition marker imaged by the 1st camera. 第1カメラにより撮像された三次元座標取得用マーカーの第1画像の二値化処理を説明する図である。It is a figure explaining the binarization process of the 1st image of the 3D coordinate acquisition marker imaged by the 1st camera. 第1カメラにより撮像された三次元座標取得用マーカーの第1画像においてエッジを抽出する処理を説明する図である。It is a figure explaining the process of extracting an edge in the 1st image of the 3D coordinate acquisition marker imaged by the 1st camera. 第1カメラにより撮像された三次元座標取得用マーカーの第1画像において端点を抽出する処理を説明する図である。It is a figure explaining the process of extracting the end point in the 1st image of the 3D coordinate acquisition marker imaged by the 1st camera. 第1カメラにより撮像された三次元座標取得用マーカーの第1画像において端点を抽出する処理を説明する図である。It is a figure explaining the process of extracting the end point in the 1st image of the 3D coordinate acquisition marker imaged by the 1st camera. 三次元座標取得用マーカーのエッジの三次元座標を示す図である。It is a figure which shows the 3D coordinate of the edge of the marker for 3D coordinate acquisition. 三次元座標取得用マーカーがテープである場合の例を示す図である。It is a figure which shows the example of the case where the marker for three-dimensional coordinate acquisition is a tape.

第1の態様に係る作業位置決定方法は、
柔軟性を有する対象物に設けられたマーカーを、異なる視点から撮像した第1画像および第2画像を取得する撮像工程と、
前記第1画像および前記第2画像のそれぞれにおいて、前記マーカーの領域を検出する領域検出工程と、
検出した前記マーカーの領域のうち少なくとも1点の三次元座標を取得する三次元座標取得工程と、
前記三次元座標に基づいて、前記対象物に対する作業位置を決定する作業位置決定工程と、
を含む。
The work position determination method according to the first aspect is
An imaging step of acquiring a first image and a second image of a marker provided on a flexible object from different viewpoints, and
In each of the first image and the second image, a region detection step of detecting the region of the marker and a region detection step.
A three-dimensional coordinate acquisition step of acquiring at least one three-dimensional coordinate of the detected marker area, and
A work position determination step of determining a work position with respect to the object based on the three-dimensional coordinates,
including.

この構成によると、対象物に設けられたマーカーを認識して、作業位置を決定することができる。また、柔軟性を有する対象物に対しても、作業位置を容易に決定することができる。 According to this configuration, the working position can be determined by recognizing the marker provided on the object. Further, the working position can be easily determined even for a flexible object.

第2の態様に係る作業位置決定方法は、
前記三次元座標取得工程は、前記マーカーのエッジの少なくとも1点の三次元座標を取得することを含む。
The work position determination method according to the second aspect is
The three-dimensional coordinate acquisition step includes acquiring three-dimensional coordinates of at least one point of the edge of the marker.

第3の態様に係る作業位置決定方法は、
前記三次元座標取得工程は、前記エッジの一端点の前記三次元座標を取得することを含んでもよい。
The work position determination method according to the third aspect is
The three-dimensional coordinate acquisition step may include acquiring the three-dimensional coordinates of one end point of the edge.

これらの構成によると、作業位置をさらに容易に決定することができる。柔軟性を有する対象物の場合、形状が一定ではないため、三次元CADのデータと第1画像および第2画像により取得した三次元座標とのマッチングが困難である。しかし、本発明のように、対象物に設けられたマーカーのエッジの三次元座標を取得することで、作業位置を容易に決定することができる。 With these configurations, the working position can be determined more easily. In the case of a flexible object, since the shape is not constant, it is difficult to match the three-dimensional CAD data with the three-dimensional coordinates acquired by the first image and the second image. However, as in the present invention, the working position can be easily determined by acquiring the three-dimensional coordinates of the edge of the marker provided on the object.

第4の態様に係る作業位置決定方法は、
前記エッジは、第1エッジおよび第2エッジを含んでいてもよい。
The work position determination method according to the fourth aspect is
The edge may include a first edge and a second edge.

この構成によると、マーカーの2つのエッジの三次元座標を取得するため、マーカーの大まかな面の形状および向きを取得することができる。したがって、マーカーを取り付けた対象物に対する作業位置をより正確に決定することができる。 According to this configuration, since the three-dimensional coordinates of the two edges of the marker are acquired, the rough surface shape and orientation of the marker can be acquired. Therefore, the working position with respect to the object to which the marker is attached can be determined more accurately.

第5の態様に係る作業位置決定方法は、
前記対象物は把手を有し、
前記マーカーは、前記対象物の前記把手に設けられていてもよい。
The work position determination method according to the fifth aspect is
The object has a handle and
The marker may be provided on the handle of the object.

第6の態様に係る位置決定方法は、
前記マーカーは、前記対象物の前記把手の長手方向に略平行なエッジを有していてもよい。
The position-fixing method according to the sixth aspect is
The marker may have edges substantially parallel to the longitudinal direction of the handle of the object.

これらの構成によると、対象物に設けられたマーカーの2つのエッジの三次元座標を取得するため、マーカーに対する作業位置をより正確に決定することができる。また、マーカーが把手に設けられているため、把手または把手に近い部分を作業位置として決定することができ、ロボットに把手または把手に近い部分に対して作業させることができる。 According to these configurations, since the three-dimensional coordinates of the two edges of the marker provided on the object are acquired, the working position with respect to the marker can be determined more accurately. Further, since the marker is provided on the handle, the handle or the portion close to the handle can be determined as the working position, and the robot can work on the handle or the portion close to the handle.

第7の態様に係るロボット制御方法は、
柔軟性を有する対象物に設けられたマーカーを、異なる視点から撮像した第1画像および第2画像を取得する撮像工程と、
前記第1画像および前記第2画像のそれぞれにおいて、前記マーカー領域を検出するエッジ抽出工程と、
検出した前記マーカーの領域のうち少なくとも1点の三次元座標を取得する三次元座標取得工程と、
前記三次元座標に基づいて、前記対象物に対する作業位置を決定する作業位置決定工程と、
前記作業位置に対してロボットに作業させる作業工程と、
を含む。
The robot control method according to the seventh aspect is
An imaging step of acquiring a first image and a second image of a marker provided on a flexible object from different viewpoints, and
An edge extraction step of detecting the marker region in each of the first image and the second image, and
A three-dimensional coordinate acquisition step of acquiring at least one three-dimensional coordinate of the detected marker area, and
A work position determination step of determining a work position with respect to the object based on the three-dimensional coordinates,
The work process of causing the robot to work with respect to the work position,
including.

この構成によると、マーカーが取り付けられた対象物に対して作業位置を決定し、作業位置をロボットに指示することによりロボットに作業を実行させることができる。特に、柔軟性を有する対象物に対して、より効果を発揮する。 According to this configuration, the robot can be made to perform the work by determining the work position with respect to the object to which the marker is attached and instructing the robot to perform the work. In particular, it is more effective for flexible objects.

第8の態様に係る作業位置決定装置は、
柔軟性を有する対象物に設けられたマーカーを、異なる視点から撮像する第1カメラおよび第2カメラと、
前記第1カメラおよび前記第2カメラにより撮像されたそれぞれの画像において前記マーカーの領域を検出する領域検出部と、
検出した前記マーカーの領域のうち少なくとも1点の三次元座標を取得する三次元座標取得部と、
前記三次元座標に基づいて、前記対象物に対する作業位置を決定する作業位置決定部と、
を備える。
The work position determining device according to the eighth aspect is
A first camera and a second camera that image a marker provided on a flexible object from different viewpoints,
A region detection unit that detects the region of the marker in each of the images captured by the first camera and the second camera, and
A three-dimensional coordinate acquisition unit that acquires three-dimensional coordinates of at least one point in the detected marker area, and
A work position determination unit that determines a work position with respect to the object based on the three-dimensional coordinates.
To be equipped.

この構成によると、対象物に設けられたマーカーを認識して、作業位置を決定することができる。特に、柔軟性を有する対象物に対して、より効果を発揮する。 According to this configuration, the working position can be determined by recognizing the marker provided on the object. In particular, it is more effective for flexible objects.

第9の態様に係るロボット制御システムは、
第8の態様に係る作業位置決定装置と、
前記作業位置に対して作業を行うロボットハンドを有するロボットと、
を備える。
The robot control system according to the ninth aspect is
The work position determining device according to the eighth aspect and
A robot having a robot hand that performs work on the work position and
To be equipped.

この構成によると、対象物に設けられたマーカーに対して作業位置を決定し、作業位置をロボットに指示することによりロボットに作業を実行させることができる。特に柔軟性を有する対象物に対して、より効果を発揮する。 According to this configuration, the robot can be made to execute the work by determining the work position with respect to the marker provided on the object and instructing the robot on the work position. It is more effective especially for flexible objects.

第10の態様に係る袋は、
袋本体と、
前記袋本体に設けられた少なくとも1つの把手と、
前記把手に取り付けられた三次元座標取得用マーカーと、
を備える。
The bag according to the tenth aspect is
With the bag body
At least one handle provided on the bag body and
The three-dimensional coordinate acquisition marker attached to the handle,
To be equipped.

この構成によると、把手に設けられた三次元座標取得用マーカーにより、袋の把手または把手近傍に対する作業位置を決定し、ロボットに袋の把手を把持させるといった作業を実行させることができる。 According to this configuration, the work position with respect to the handle of the bag or the vicinity of the handle can be determined by the three-dimensional coordinate acquisition marker provided on the handle, and the robot can execute the work such as grasping the handle of the bag.

(実施の形態1)
以下、実施の形態に係る作業位置決定方法、ロボット制御方法、作業位置決定装置、およびロボット制御システムについて、添付図面を参照しながら説明する。なお、図面において実質的に同一の部材については同一の符号を付している。
(Embodiment 1)
Hereinafter, the work position determination method, the robot control method, the work position determination device, and the robot control system according to the embodiment will be described with reference to the accompanying drawings. In the drawings, substantially the same members are designated by the same reference numerals.

[全体構成]
図1は、実施の形態1に係る作業位置決定装置およびロボット制御システムの構成を示すブロック図である。図2は、実施の形態1に係るロボット制御システムの構成を示す概略図である。図3は、実施の形態1に係るロボット制御システムにより作業を実行する対象となる三次元座標取得用マーカーを備える袋の概略図である。
[overall structure]
FIG. 1 is a block diagram showing a configuration of a work position determining device and a robot control system according to the first embodiment. FIG. 2 is a schematic view showing the configuration of the robot control system according to the first embodiment. FIG. 3 is a schematic view of a bag including a marker for acquiring three-dimensional coordinates to be executed by the robot control system according to the first embodiment.

本実施の形態の作業位置決定装置2は、第1カメラ11および第2カメラ12と、領域検出部13と、エッジ抽出部14と、端点抽出部15と、三次元座標取得部16と、作業位置決定部17と、を備える。また、本実施の形態のロボット制御システム1は、図1に示すように、作業位置決定装置2と、ロボット3と、ロボット操作部4とを備える。本実施の形態では、図2に示すように、計測ステージ21に載置された袋22に設けられた三次元座標取得用マーカー23を、作業位置決定装置2のカメラ11、12により撮像する。カメラ11、12により得られた画像に基づいて、作業位置決定装置2が三次元座標取得用マーカー23の三次元座標を取得し、ロボット3の作業位置を決定する。決定された作業位置に基づいて、ロボット操作部4が、ロボット3を制御して三次元座標取得用マーカー23に対して作業を実施させる。なお、袋22が本発明の「対象物」に相当し、三次元座標取得用マーカーが本発明の「マーカー」に相当する。 The work position determining device 2 of the present embodiment includes the first camera 11, the second camera 12, the area detection unit 13, the edge extraction unit 14, the end point extraction unit 15, the three-dimensional coordinate acquisition unit 16, and the work. A positioning unit 17 is provided. Further, as shown in FIG. 1, the robot control system 1 of the present embodiment includes a work position determining device 2, a robot 3, and a robot operation unit 4. In the present embodiment, as shown in FIG. 2, the three-dimensional coordinate acquisition marker 23 provided on the bag 22 placed on the measurement stage 21 is imaged by the cameras 11 and 12 of the working position determining device 2. Based on the images obtained by the cameras 11 and 12, the working position determining device 2 acquires the three-dimensional coordinates of the three-dimensional coordinate acquisition marker 23, and determines the working position of the robot 3. Based on the determined work position, the robot operation unit 4 controls the robot 3 to cause the three-dimensional coordinate acquisition marker 23 to perform the work. The bag 22 corresponds to the "object" of the present invention, and the three-dimensional coordinate acquisition marker corresponds to the "marker" of the present invention.

袋22は、図3に示すように、袋本体22aと、袋本体22aの開口部に取り付けられた少なくとも1つの把手22bと、把手22bに取り付けられ、把手22bと明度の異なる三次元座標取得用マーカー23とを備える。袋本体22aおよび把手22bは柔軟性を有する素材で形成されている。また三次元座標取得用マーカー23は、例えば、合成樹脂等の剛性を有する材料、例えば、プラスチックにより形成することができる。または、把手22bにテープを巻き付けたり、把手22bとは異なる色を着色または印刷したりすることにより三次元座標取得用マーカー23を形成してもよい。例えば、把手22bの長手方向の中心位置に把手22bとは異なる色の直線を印刷し、この直線を三次元座標取得用マーカー23とすることができる。これらの場合、袋に対して後からマーカーを付けることができるため、対象物が市販品であっても三次元座標取得用マーカーを付けることで、容易に作業位置を認識することができるようになる。また、袋本体の製造時に、袋と異なる色の生地を縫い付けたり、袋と異なる色の糸を袋に織り込んだりすることで三次元座標取得用マーカー23を形成してもよい。 As shown in FIG. 3, the bag 22 is attached to the bag main body 22a, at least one handle 22b attached to the opening of the bag main body 22a, and the handle 22b for acquiring three-dimensional coordinates having different brightness from the handle 22b. It includes a marker 23. The bag body 22a and the handle 22b are made of a flexible material. Further, the three-dimensional coordinate acquisition marker 23 can be formed of, for example, a rigid material such as synthetic resin, for example, plastic. Alternatively, the three-dimensional coordinate acquisition marker 23 may be formed by wrapping a tape around the handle 22b or coloring or printing a color different from that of the handle 22b. For example, a straight line having a color different from that of the handle 22b can be printed at the center position of the handle 22b in the longitudinal direction, and this straight line can be used as the three-dimensional coordinate acquisition marker 23. In these cases, a marker can be attached to the bag later, so even if the object is a commercially available product, the work position can be easily recognized by attaching a marker for acquiring three-dimensional coordinates. Become. Further, at the time of manufacturing the bag body, the three-dimensional coordinate acquisition marker 23 may be formed by sewing a fabric having a color different from that of the bag or weaving a thread having a color different from that of the bag into the bag.

なお、三次元座標取得用マーカー23が取り付けられる位置は、袋22の把手22bに限らない。作業をするために認識すべき位置に取り付ければよい。三次元座標取得用マーカー23としては、2以上の直線部を含む、例えば矩形または台形等の面を有する形状のものを使用することができる。好ましくは、剛性を有するか、または柔軟性が低く変形しにくい直方体のものを使用すると、三次元座標を取得しやすい。三次元座標取得用マーカー23が巻き付けたテープ等の柔軟性があるものの場合は、マーカー部分をロボットハンドで把持してもマーカーの変形や破壊がされにくいため、作業内容によっては好ましい。また、三次元座標取得用マーカー23は、把手22bの長手方向に略平行なエッジを有する形状であるとよい。 The position where the three-dimensional coordinate acquisition marker 23 is attached is not limited to the handle 22b of the bag 22. It should be installed in a position that should be recognized for work. As the three-dimensional coordinate acquisition marker 23, a marker having a surface such as a rectangle or a trapezoid, which includes two or more straight lines, can be used. Preferably, if a rectangular parallelepiped having rigidity or low flexibility and being hard to be deformed is used, it is easy to obtain three-dimensional coordinates. When the marker 23 for acquiring the three-dimensional coordinates is wrapped around a flexible tape or the like, the marker is not easily deformed or destroyed even if the marker portion is gripped by the robot hand, which is preferable depending on the work content. Further, the three-dimensional coordinate acquisition marker 23 may have a shape having edges substantially parallel to the longitudinal direction of the handle 22b.

なお、図3に示す袋22のように、把手22bが2つ以上取り付けられている場合、三次元座標取得用マーカー23は、少なくとも1つの把手22bに取り付けられていればよい。また、すべての把手22bに、三次元座標取得用マーカー23が取り付けられていてもよい。本実施の形態のロボット制御システム1は、ロボット3を操作して、袋22の把手22bに取り付けられた三次元座標取得用マーカー23を把持する作業を実施させる。なお、ロボット3に操作させる作業はこれに限らない。また、本実施の形態では把手を有する袋22を対象物としているが、対象物は袋に限らず様々な形状のものを採用することができる。 When two or more handles 22b are attached as in the bag 22 shown in FIG. 3, the three-dimensional coordinate acquisition marker 23 may be attached to at least one handle 22b. Further, the three-dimensional coordinate acquisition marker 23 may be attached to all the handles 22b. The robot control system 1 of the present embodiment operates the robot 3 to perform the work of grasping the three-dimensional coordinate acquisition marker 23 attached to the handle 22b of the bag 22. The work of having the robot 3 operate is not limited to this. Further, in the present embodiment, the bag 22 having the handle is the object, but the object is not limited to the bag, and various shapes can be adopted.

<作業位置決定装置>
作業位置決定装置2は、袋22の把手22bに取り付けられた三次元座標取得用マーカー23の三次元座標を取得し、取得した三次元座標に基づいてロボット3の作業位置Wp(図10参照)を決定する。ここで、三次元座標取得用マーカー23の三次元座標とは、検出した三次元座標取得用マーカー23の領域内の座標すべてのうち、いずれかの点の座標のことをいう。例えば、三次元座標取得用マーカー23のエッジの座標、または重心の座標等が含まれる。本実施の形態では、後述する図10に示すように、三次元座標取得用マーカー23の三次元座標として、エッジE1およびエッジE2の三次元座標を取得する。三次元座標取得用マーカーのエッジとは、三次元座標取得用マーカーの形状の稜線や画像中の色の境目である。袋22の把手22bは、帯状の物体であるため、図10のように三次元座標取得用マーカー23の2つのエッジの三次元座標を取得することにより、ロボット3によるおおよその作業位置Wpを決定することができる。
<Working position determination device>
The work position determining device 2 acquires the three-dimensional coordinates of the three-dimensional coordinate acquisition marker 23 attached to the handle 22b of the bag 22, and based on the acquired three-dimensional coordinates, the work position Wp of the robot 3 (see FIG. 10). To determine. Here, the three-dimensional coordinates of the three-dimensional coordinate acquisition marker 23 refer to the coordinates of any of the detected coordinates in the area of the three-dimensional coordinate acquisition marker 23. For example, the coordinates of the edge of the three-dimensional coordinate acquisition marker 23, the coordinates of the center of gravity, and the like are included. In the present embodiment, as shown in FIG. 10 described later, the three-dimensional coordinates of the edge E1 and the edge E2 are acquired as the three-dimensional coordinates of the three-dimensional coordinate acquisition marker 23. The edge of the marker for acquiring three-dimensional coordinates is the ridgeline of the shape of the marker for acquiring three-dimensional coordinates and the boundary of colors in the image. Since the handle 22b of the bag 22 is a band-shaped object, the approximate working position Wp by the robot 3 is determined by acquiring the three-dimensional coordinates of the two edges of the three-dimensional coordinate acquisition marker 23 as shown in FIG. can do.

「作業」には、対象物に対する把持、挟持、または吸着等の保持作業、対象物に対する塗装、マーキング、溶接、切断、部品取り付け、縫製、またははんだ付け等の加工作業、または折り畳み作業を含む。「作業位置」とは、人またはロボットが、対象物に対して把持、挟持、または吸着等の保持作業、塗装、マーキング、溶接、切断、部品取り付け、縫製、はんだ付け等の加工作業、または折り畳み作業を行う際に、作業のターゲット位置となる三次元座標をいう。 The "work" includes holding work such as gripping, pinching, or suctioning the object, processing work such as painting, marking, welding, cutting, component mounting, sewing, or soldering on the object, or folding work. "Working position" means that a person or robot holds, holds, or sucks an object, paints, marks, welds, cuts, attaches parts, sews, solders, etc., or folds. Refers to the three-dimensional coordinates that are the target position of the work when the work is performed.

作業位置決定装置2を構成する各構成要素について、以下に説明する。 Each component constituting the work position determining device 2 will be described below.

<カメラ>
第1カメラ11および第2カメラ12は、計測ステージ21に載置された袋22の把手22bに取り付けられた三次元座標取得用マーカー23を異なる視点から撮像する。第1カメラ11により撮像された第1画像と、第2カメラ12により撮像された第2画像とに基づいて、三次元座標取得用マーカー23の三次元座標を取得する。すなわち、作業位置決定装置2は、ステレオ法により、三次元座標取得用マーカー23のエッジE1、E2の三次元座標を取得する。袋22および把手22bが柔軟性を有する場合、三次元座標取得用マーカー23が剛性を有するか、または柔軟性が低く変形しにくい材料で形成されていると、本発明の効果をより発揮することができる。
<Camera>
The first camera 11 and the second camera 12 take images of the three-dimensional coordinate acquisition marker 23 attached to the handle 22b of the bag 22 placed on the measurement stage 21 from different viewpoints. The three-dimensional coordinates of the three-dimensional coordinate acquisition marker 23 are acquired based on the first image captured by the first camera 11 and the second image captured by the second camera 12. That is, the working position determining device 2 acquires the three-dimensional coordinates of the edges E1 and E2 of the three-dimensional coordinate acquisition marker 23 by the stereo method. When the bag 22 and the handle 22b have flexibility, the effect of the present invention can be more exerted if the three-dimensional coordinate acquisition marker 23 has rigidity or is made of a material having low flexibility and is not easily deformed. Can be done.

<制御部>
制御部18によって、第1画像および第2画像の画像処理を行う。制御部18は、例えば、コンピュータ装置である。コンピュータ装置としては、汎用的なものを用いることができる。制御部18は、例えば、図1に示すように、処理部18a、記憶部18bを含む。制御部18は、さらに、表示部、入力装置、記憶装置、またはインタフェース等を含んでいてもよい。
<Control unit>
The control unit 18 performs image processing of the first image and the second image. The control unit 18 is, for example, a computer device. As the computer device, a general-purpose device can be used. The control unit 18 includes, for example, a processing unit 18a and a storage unit 18b, as shown in FIG. The control unit 18 may further include a display unit, an input device, a storage device, an interface, and the like.

<処理部>
処理部18aは、例えば、中央演算処理装置(CPU、MPU等)、マイクロコンピュータ、またはコンピュータで実行可能な命令を実行できる処理装置であればよい。
<Processing unit>
The processing unit 18a may be, for example, a central processing unit (CPU, MPU, etc.), a microcomputer, or a processing device capable of executing instructions that can be executed by the computer.

<記憶部>
記憶部18bは、例えば、ROM、EEPROM、RAM、フラッシュSSD、ハードディスク、USBメモリ、磁気ディスク、光ディスク、光磁気ディスク等のうち少なくとも1つであってもよい。記憶部18bには、後述する領域検出部13、エッジ抽出部14、端点抽出部15、三次元座標取得部16、および作業位置決定部17を処理部18aで実行可能なプログラムとして含み、これらが記憶部18bから読み出されて、処理部18aにより実行される。
<Memory>
The storage unit 18b may be, for example, at least one of a ROM, an EEPROM, a RAM, a flash SSD, a hard disk, a USB memory, a magnetic disk, an optical disk, a magneto-optical disk, and the like. The storage unit 18b includes a region detection unit 13, an edge extraction unit 14, an end point extraction unit 15, a three-dimensional coordinate acquisition unit 16, and a work position determination unit 17, which will be described later, as programs that can be executed by the processing unit 18a. It is read from the storage unit 18b and executed by the processing unit 18a.

<領域検出部>
領域検出部13は、第1画像および第2画像のそれぞれにおいて、三次元座標取得用マーカー23の領域を検出する。例えば、二値化処理により三次元座標取得用マーカー23の領域を検出することができる。または、ラスタースキャンにより三次元座標取得用マーカー23の領域の輪郭を検出してもよい。または、その他の公知の方法により、三次元座標取得用マーカー23の領域の検出を行ってもよい。
<Region detector>
The area detection unit 13 detects the area of the three-dimensional coordinate acquisition marker 23 in each of the first image and the second image. For example, the region of the three-dimensional coordinate acquisition marker 23 can be detected by the binarization process. Alternatively, the contour of the region of the three-dimensional coordinate acquisition marker 23 may be detected by raster scan. Alternatively, the region of the three-dimensional coordinate acquisition marker 23 may be detected by another known method.

<エッジ抽出部>
エッジ抽出部14は、第1画像および第2画像のそれぞれの領域から、三次元座標取得用マーカー23のエッジE1およびエッジE2を抽出する。エッジE1およびエッジE2の抽出は、隣接する画素同士の差分をとる差分演算法等、公知の方法により行うことができる。
<Edge extraction section>
The edge extraction unit 14 extracts the edges E1 and the edges E2 of the three-dimensional coordinate acquisition marker 23 from the respective regions of the first image and the second image. The edge E1 and the edge E2 can be extracted by a known method such as a difference calculation method for taking the difference between adjacent pixels.

<端点抽出部>
端点抽出部15は、第1画像および第2画像のそれぞれにおいて、エッジの一端点を抽出する。エッジの一端点とは、後述する図9に示すように、三次元座標取得用マーカー23の2つのエッジE1、およびエッジE2と、三次元座標取得用マーカー23の下端部との交点(端点I1、I2)となる点である。端点の抽出は、隣接する画素同士の差分演算法等、公知の方法により行うことができる。
<End point extractor>
The end point extraction unit 15 extracts one end point of an edge in each of the first image and the second image. As shown in FIG. 9 described later, one end point of the edge is an intersection (end point I1) between the two edges E1 and the edge E2 of the three-dimensional coordinate acquisition marker 23 and the lower end portion of the three-dimensional coordinate acquisition marker 23. , I2). The end points can be extracted by a known method such as a differential calculation method between adjacent pixels.

<三次元座標取得部>
三次元座標取得部16は、第1画像および第2画像それぞれの端点に基づいて、エッジE1またはエッジE2の少なくとも1点の三次元座標を取得する。本実施の形態では、三次元座標は、エッジE1の少なくとも1つの点の三次元座標と、エッジE2の少なくとも1つの点の三次元座標を含む。なお、エッジE1およびエッジE2のうち1つ以上のエッジの一端点の三次元座標を取得するとよい。エッジの端点を基準として、第1画像および第2画像を比較することにより、エッジの三次元座標を取得することができる。
<Three-dimensional coordinate acquisition unit>
The three-dimensional coordinate acquisition unit 16 acquires the three-dimensional coordinates of at least one point of the edge E1 or the edge E2 based on the end points of the first image and the second image, respectively. In the present embodiment, the three-dimensional coordinates include the three-dimensional coordinates of at least one point of the edge E1 and the three-dimensional coordinates of at least one point of the edge E2. It is preferable to acquire the three-dimensional coordinates of one end point of one or more edges of the edge E1 and the edge E2. The three-dimensional coordinates of the edge can be obtained by comparing the first image and the second image with reference to the end point of the edge.

<作業位置決定部>
作業位置決定部17は、エッジの三次元座標に基づいて、三次元座標取得用マーカー23が取り付けられた対象物に対する作業位置Wpを決定する。例えば、端点I1、I2からの所定の距離の位置にある直線W上の任意の点を作業位置Wpとして決定することができる(図10参照)。
<Working position determination unit>
The work position determination unit 17 determines the work position Wp with respect to the object to which the three-dimensional coordinate acquisition marker 23 is attached, based on the three-dimensional coordinates of the edge. For example, an arbitrary point on the straight line W at a predetermined distance from the end points I1 and I2 can be determined as the working position Wp (see FIG. 10).

<ロボット制御システム>
ロボット制御システム1は、作業位置決定装置2と、ロボット3と、ロボット操作部4とを備える。上述した作業位置決定装置2により決定された三次元座標取得用マーカー23の作業位置Wpに対して、ロボット3を制御して作業を実施させる。ロボット制御システムを構成する各構成要素について、以下に説明する。
<Robot control system>
The robot control system 1 includes a work position determining device 2, a robot 3, and a robot operating unit 4. The robot 3 is controlled to perform the work with respect to the work position Wp of the three-dimensional coordinate acquisition marker 23 determined by the work position determination device 2 described above. Each component constituting the robot control system will be described below.

<ロボット>
ロボット3は、作業位置決定装置2により決定された作業位置Wpに基づいて、三次元座標取得用マーカー23に対して作業を実施する。ロボット3は、例えば、ロボットアーム31と、一対のフィンガ(把持部)を有するロボットハンド32とを有する。ロボットアーム31に設けられた複数の関節31aを駆動することにより、ロボットハンド32を移動して、三次元座標取得用マーカー23が取り付けられた対象物の作業位置Wpにおいて把持動作を実施することができる。
<Robot>
The robot 3 performs work on the three-dimensional coordinate acquisition marker 23 based on the work position Wp determined by the work position determination device 2. The robot 3 has, for example, a robot arm 31 and a robot hand 32 having a pair of fingers (grip portions). By driving a plurality of joints 31a provided on the robot arm 31, the robot hand 32 can be moved to perform a gripping operation at the working position Wp of the object to which the three-dimensional coordinate acquisition marker 23 is attached. it can.

<ロボット操作部>
ロボット操作部4は、ロボット3に対して作業位置Wpを指示し、ロボット3を制御して作業を実施させる。ロボット操作部4は、図2のように、独立して存在してもよい。または、他の構成要素の一部と共有されていてもよい。例えば、作業位置決定装置2の制御部18に、ロボット操作部4が含まれていてもよい。ロボット操作部4は、制御部18と同様に、例えば、CPU、メモリ、記憶部、表示部、入力部、およびインタフェース等、通常のパーソナルコンピュータの物理的な構成要素を備えていればよい。
<Robot operation unit>
The robot operation unit 4 instructs the robot 3 to work at the work position Wp, and controls the robot 3 to perform the work. The robot operation unit 4 may exist independently as shown in FIG. Alternatively, it may be shared with some of the other components. For example, the control unit 18 of the work position determining device 2 may include the robot operation unit 4. Like the control unit 18, the robot operation unit 4 may include physical components of a normal personal computer, such as a CPU, a memory, a storage unit, a display unit, an input unit, and an interface.

[動作]
図4は、実施の形態1に係るロボット制御方法のフローチャートである。図5および図7〜図9は、第1カメラにより撮像された三次元座標取得用マーカーの第1画像の画像処理を説明する図である。図6は、第1カメラにより撮像された三次元座標取得用マーカーの第1画像の二値化処理を説明する図である。図10は、三次元座標取得用マーカーの三次元座標を示す図である。なお、第2カメラにより撮像された第2画像については図示しないが、第1画像と同様の画像処理が施される。図4のフローチャートおよび図5〜図9を参照して、ロボット制御システム1の動作について説明する。
[motion]
FIG. 4 is a flowchart of the robot control method according to the first embodiment. 5 and 7 to 9 are diagrams for explaining image processing of the first image of the three-dimensional coordinate acquisition marker captured by the first camera. FIG. 6 is a diagram illustrating a binarization process of the first image of the three-dimensional coordinate acquisition marker captured by the first camera. FIG. 10 is a diagram showing the three-dimensional coordinates of the three-dimensional coordinate acquisition marker. Although not shown, the second image captured by the second camera is subjected to the same image processing as the first image. The operation of the robot control system 1 will be described with reference to the flowchart of FIG. 4 and FIGS. 5 to 9.

(1)ステップS01において、第1カメラ11および第2カメラ12により、袋22の把手22bに取り付けられた三次元座標取得用マーカー23を異なる視点から撮像した第1画像L(図5〜図9)および第2画像(図示省略)を取得する(撮像工程)。後述する画像処理において、三次元座標取得用マーカー23の領域およびエッジを抽出するため、三次元座標取得用マーカー23は、袋本体22aと把手22bとを含む袋22、および計測ステージ21と明度の異なるものであるとよい。すなわち、袋22が、例えば、明度の高い色の材料で構成される場合、三次元座標取得用マーカー23は明度の低い色を選択するとよい。また、袋22が明度の低い色の材料で構成される場合、三次元座標取得用マーカー23は明度の高い色が選択されるとよい。三次元座標取得用マーカー23の検出のため、計測ステージ21は袋22と明度の近い色を選択するとよい。 (1) In step S01, the first image L (FIGS. 5 to 9) obtained by capturing the three-dimensional coordinate acquisition marker 23 attached to the handle 22b of the bag 22 from different viewpoints by the first camera 11 and the second camera 12. ) And the second image (not shown) are acquired (imaging step). In order to extract the region and the edge of the three-dimensional coordinate acquisition marker 23 in the image processing described later, the three-dimensional coordinate acquisition marker 23 includes the bag 22 including the bag body 22a and the handle 22b, and the measurement stage 21 and the brightness. It should be different. That is, when the bag 22 is made of, for example, a material having a high lightness color, the three-dimensional coordinate acquisition marker 23 may select a low lightness color. Further, when the bag 22 is made of a material having a low lightness color, a color having a high lightness may be selected for the three-dimensional coordinate acquisition marker 23. In order to detect the three-dimensional coordinate acquisition marker 23, the measurement stage 21 may select a color having a brightness close to that of the bag 22.

(2)ステップS02において、第1画像Lおよび第2画像のそれぞれにおいて、三次元座標取得用マーカー23の領域を検出する(領域検出工程)。図5は、第1カメラ11により取得された第1画像Lである。第1画像Lにおいて、例えば、二値化処理を実行することにより、三次元座標取得用マーカー23の領域を検出する。本実施の形態では、三次元座標取得用マーカー23と袋22および計測ステージ21との明度の差により、第1画像Lおよび第2画像においてコントラストが大きくなる。このため、図6に示すように、二値化処理によって、三次元座標取得用マーカー23の領域を検出することができる。なお、領域の検出方法は二値化処理に限らず、公知の手法を用いることができる。例えば、三次元座標取得用マーカー23と袋22および計測ステージ21とのコントラストが小さい場合には、二値化処理に代わり、ラスタースキャンにより三次元座標取得用マーカー23の領域を検出してもよい。 (2) In step S02, the region of the three-dimensional coordinate acquisition marker 23 is detected in each of the first image L and the second image (region detection step). FIG. 5 is a first image L acquired by the first camera 11. In the first image L, for example, the area of the three-dimensional coordinate acquisition marker 23 is detected by executing the binarization process. In the present embodiment, the contrast between the first image L and the second image is increased due to the difference in brightness between the three-dimensional coordinate acquisition marker 23, the bag 22, and the measurement stage 21. Therefore, as shown in FIG. 6, the region of the three-dimensional coordinate acquisition marker 23 can be detected by the binarization process. The region detection method is not limited to the binarization process, and a known method can be used. For example, when the contrast between the three-dimensional coordinate acquisition marker 23 and the bag 22 and the measurement stage 21 is small, the region of the three-dimensional coordinate acquisition marker 23 may be detected by raster scan instead of the binarization process. ..

(3)ステップS03において、第1画像Lおよび第2画像のそれぞれで検出された領域から、三次元座標取得用マーカー23のエッジE1、E2を抽出する(エッジ抽出工程)。なお、エッジE1が本発明の「第1エッジ」に相当し、エッジE2が本発明の「第2エッジ」に相当する。本実施の形態では、三次元座標取得用マーカー23の2つのエッジE1およびエッジE2を抽出するが、抽出するエッジの数はこれに限らない。エッジの抽出は、公知の手法を用いて行うことができる。例えば、第1画像Lにおいて水平方向にサーチして、明度の差を検出することにより行うことができる。 (3) In step S03, the edges E1 and E2 of the three-dimensional coordinate acquisition marker 23 are extracted from the regions detected in each of the first image L and the second image (edge extraction step). The edge E1 corresponds to the "first edge" of the present invention, and the edge E2 corresponds to the "second edge" of the present invention. In the present embodiment, the two edges E1 and the edge E2 of the three-dimensional coordinate acquisition marker 23 are extracted, but the number of edges to be extracted is not limited to this. Edge extraction can be performed using a known method. For example, it can be performed by searching in the horizontal direction in the first image L and detecting the difference in brightness.

また、2つのエッジE1とエッジE2との中央に位置する中心線Cを算出する。図7に示すように、中心線Cは、例えば、水平方向にサーチする際、エッジE1を示す点E10とエッジE2を示す点E20との中点C1を特定し、それぞれ水平方向サーチで特定した中点をつなぐことにより算出することができる。中心線Cと、第1画像Lにおける垂直線Pとの角度θを算出する。ここで、例えば、アフィン変換等を用いて、第1画像Lを角度θ回転させ、中心線Cが垂直方向となるようにする(図8参照)。 Further, the center line C located at the center of the two edges E1 and the edge E2 is calculated. As shown in FIG. 7, for example, when searching in the horizontal direction, the center line C identifies the midpoint C1 between the point E10 indicating the edge E1 and the point E20 indicating the edge E2, and each of them is specified by the horizontal search. It can be calculated by connecting the midpoints. The angle θ between the center line C and the vertical line P in the first image L is calculated. Here, for example, by using an affine transformation or the like, the first image L is rotated by an angle θ so that the center line C is in the vertical direction (see FIG. 8).

(4)ステップS04において、第1画像Lおよび第2画像のそれぞれにおいて、エッジE1、E2の端点を抽出する(端点抽出工程)。角度θ回転させた第1画像Lにおいて、エッジE1およびエッジE2に挟まれた部分を垂直方向にサーチして、明度の差により、三次元座標取得用マーカー23とそれ以外の境界を抽出する。このとき、垂直方向にサーチしたそれぞれの境界は不連続な線分の集合となる。それぞれの線分を、例えば最小二乗法により直線化して、境界Bを得る(図8参照)。図9に示すように、境界BとエッジE1との交点および境界BとエッジE2との交点が、エッジE1の端点I1、およびエッジE2の端点I2となる。端点I1および端点I2を抽出することにより、エッジE1およびエッジE2の範囲が決定される。すなわち、エッジE1およびエッジE2は、それぞれ端点I1および端点I2を始点とした線であると決定される。 (4) In step S04, the end points of the edges E1 and E2 are extracted in each of the first image L and the second image (end point extraction step). In the first image L rotated by an angle θ, the portion sandwiched between the edges E1 and the edge E2 is searched in the vertical direction, and the three-dimensional coordinate acquisition marker 23 and the other boundaries are extracted by the difference in brightness. At this time, each boundary searched in the vertical direction is a set of discontinuous line segments. Each line segment is straightened by, for example, the least squares method to obtain the boundary B (see FIG. 8). As shown in FIG. 9, the intersection of the boundary B and the edge E1 and the intersection of the boundary B and the edge E2 are the end point I1 of the edge E1 and the end point I2 of the edge E2. By extracting the endpoints I1 and I2, the ranges of the edges E1 and E2 are determined. That is, the edge E1 and the edge E2 are determined to be lines starting from the end points I1 and the end points I2, respectively.

(5)ステップS05において、第1画像Lおよび第2画像のそれぞれの端点I1および端点I2に基づいて、エッジE1およびエッジE2の三次元座標を取得する(三次元座標取得工程)。本実施の形態では、異なる視点から撮像した第1画像Lおよび第2画像を利用して、三角測量の原理で三次元座標を計測するステレオ法が採用されている。ステレオ法では、視点の異なる第1画像Lおよび第2画像における端点I1、I2等の対応点を求め、第1画像Lおよび第2画像での対応点と、第1カメラ11および第2カメラ12との位置関係により、図10に示すようにエッジE1およびエッジE2の三次元座標を取得することができる。なお、図10では、破線で示す直方体の内側におけるエッジE1、E2それぞれの配置を示している。本実施の形態では、第1画像Lおよび第2画像のそれぞれにおける端点I1から延びるエッジE1、および端点I2から延びるエッジE2を構成する画素をそれぞれ対応点として対応させて、エッジE1およびエッジE2の三次元座標を取得している。なお、本実施の形態においては、三次元座標取得用マーカー23の全体ではなく、エッジE1、E2のみの三次元座標を取得している。 (5) In step S05, the three-dimensional coordinates of the edge E1 and the edge E2 are acquired based on the end points I1 and the end points I2 of the first image L and the second image, respectively (three-dimensional coordinate acquisition step). In the present embodiment, a stereo method is adopted in which three-dimensional coordinates are measured by the principle of triangulation using the first image L and the second image captured from different viewpoints. In the stereo method, the corresponding points such as the end points I1 and I2 in the first image L and the second image having different viewpoints are obtained, and the corresponding points in the first image L and the second image and the first camera 11 and the second camera 12 are obtained. As shown in FIG. 10, the three-dimensional coordinates of the edge E1 and the edge E2 can be acquired depending on the positional relationship with. Note that FIG. 10 shows the arrangement of the edges E1 and E2 inside the rectangular parallelepiped shown by the broken line. In the present embodiment, the pixels constituting the edge E1 extending from the end point I1 and the edge E2 extending from the end point I2 in each of the first image L and the second image are made to correspond as corresponding points, and the edges E1 and the edge E2 The three-dimensional coordinates are acquired. In the present embodiment, the three-dimensional coordinates of only the edges E1 and E2 are acquired, not the entire marker 23 for acquiring the three-dimensional coordinates.

(6)ステップS06において、エッジE1、E2の三次元座標に基づいて、三次元座標取得用マーカー23を取り付けた袋22の把手22bまたは把手22b近傍に対する作業位置Wpを決定する(作業位置決定工程)。作業位置Wpは、例えば、図10に示すように、ステップS04で抽出した端点I1、I2を通る直線(境界B)からの距離Dにある直線W上であって、直線WとエッジE1との交点および直線WとエッジE2との中点に決定することができる。距離Dは、所定の値でもよいし、所定の値の範囲であってもよい。なお、ステップS01〜ステップS06は、作業位置決定装置2により実行される。作業位置Wpは、作業内容によって任意に決定することができ、三次元座標取得用マーカー23上であっても、三次元座標取得用マーカー23を頼りに算出した対象物上または対象物近傍であってもよい。 (6) In step S06, the work position Wp with respect to the handle 22b or the vicinity of the handle 22b of the bag 22 to which the three-dimensional coordinate acquisition marker 23 is attached is determined based on the three-dimensional coordinates of the edges E1 and E2 (work position determination step). ). As shown in FIG. 10, the working position Wp is, for example, on a straight line W at a distance D from a straight line (boundary B) passing through the end points I1 and I2 extracted in step S04, and the straight line W and the edge E1. It can be determined at the intersection and the midpoint between the straight line W and the edge E2. The distance D may be a predetermined value or may be in a range of a predetermined value. The work position determination device 2 executes steps S01 to S06. The work position Wp can be arbitrarily determined depending on the work content, and even on the three-dimensional coordinate acquisition marker 23, it is on or near the object calculated by relying on the three-dimensional coordinate acquisition marker 23. You may.

(7)ステップS07において、作業位置Wpをロボット3に指示する(ロボット操作工程)。作業位置決定装置2により決定された作業位置Wpを、ロボット操作部4がロボット3に指示し、三次元座標取得用マーカー23に対する作業を実施させる。本実施の形態では、ロボット3は、図10の矢印の方向にロボットハンド32を移動し、三次元座標取得用マーカー23を把持する。本実施の形態において、三次元座標取得用マーカー23は、袋22の把手22bに取り付けられており、把手22bは柔軟性を有する。このため、三次元座標取得用マーカー23のエッジE1、E2の三次元座標と作業位置Wpとが決まると、ロボットに作業を実施させることができる。三次元座標取得用マーカー23に対する作業は、例えば、ロボットハンドによる三次元座標取得用マーカー23の把持、吸着、引掛け等である。本実施の形態では、ロボット3に、三次元座標取得用マーカー23上にある作業位置Wpをロボットハンド32により把持する作業を実施させることができる。 (7) In step S07, the working position Wp is instructed to the robot 3 (robot operation step). The robot operation unit 4 instructs the robot 3 to perform the work on the three-dimensional coordinate acquisition marker 23 at the work position Wp determined by the work position determination device 2. In the present embodiment, the robot 3 moves the robot hand 32 in the direction of the arrow in FIG. 10 and grips the three-dimensional coordinate acquisition marker 23. In the present embodiment, the three-dimensional coordinate acquisition marker 23 is attached to the handle 22b of the bag 22, and the handle 22b has flexibility. Therefore, when the three-dimensional coordinates of the edges E1 and E2 of the three-dimensional coordinate acquisition marker 23 and the work position Wp are determined, the robot can perform the work. The work on the three-dimensional coordinate acquisition marker 23 is, for example, grasping, sucking, and hooking the three-dimensional coordinate acquisition marker 23 by the robot hand. In the present embodiment, the robot 3 can be made to perform the work of grasping the work position Wp on the three-dimensional coordinate acquisition marker 23 by the robot hand 32.

[効果]
本実施の形態の、作業位置決定方法および作業位置決定装置によると、袋22の把手22bに取り付けられた三次元座標取得用マーカー23のエッジの三次元座標を取得し、作業位置を決定することができる。TOFカメラのように袋22全体の三次元座標の点群データを取得する三次元計測機を用いると、エッジの認識が難しく、またデータ量が多いため処理が難しい。しかし、本実施の形態のように、ステレオカメラを用いることで、不要な情報は落としてエッジの三次元座標を取得することができる。このため、本実施の形態によると、画像処理が容易であり安定して三次元座標を取得することができる。
[effect]
According to the work position determination method and the work position determination device of the present embodiment, the work position is determined by acquiring the three-dimensional coordinates of the edge of the three-dimensional coordinate acquisition marker 23 attached to the handle 22b of the bag 22. Can be done. When a three-dimensional measuring machine that acquires point cloud data of the three-dimensional coordinates of the entire bag 22 such as a TOF camera is used, edge recognition is difficult and processing is difficult because the amount of data is large. However, by using a stereo camera as in the present embodiment, it is possible to obtain the three-dimensional coordinates of the edge by dropping unnecessary information. Therefore, according to the present embodiment, image processing is easy and three-dimensional coordinates can be stably acquired.

また、本実施の形態の、ロボット制御方法およびロボット制御システムによると、作業位置決定方法および作業位置決定装置により決定された作業位置をロボット3に指示し、作業を実施させることができる。また、三次元座標取得用マーカー23の全体ではなくエッジE1、E2の三次元座標を取得すればよいため、画像処理が容易である。 Further, according to the robot control method and the robot control system of the present embodiment, the robot 3 can be instructed to perform the work by instructing the robot 3 on the work position determined by the work position determination method and the work position determination device. Further, since it is sufficient to acquire the three-dimensional coordinates of the edges E1 and E2 instead of the entire three-dimensional coordinate acquisition marker 23, image processing is easy.

また、ステレオ法による三次元座標の取得において、各画像上の対応点を探索するマッチング処理は、最も情報処理の負荷が高くコストのかかるプロセスであるが、本実施の形態では、第1画像Lおよび第2画像それぞれにおいて、エッジE1およびエッジE2を構成する画素をマッチングすればよいため、マッチング処理の負荷を軽減することができる。 Further, in the acquisition of three-dimensional coordinates by the stereo method, the matching process for searching for corresponding points on each image is the process with the highest information processing load and cost, but in the present embodiment, the first image L Since the pixels constituting the edge E1 and the edge E2 may be matched in each of the second image and the second image, the load of the matching process can be reduced.

また、本実施の形態の袋のように、把手22bに三次元座標取得用マーカー23が設けられていると、袋本体22aおよび把手22bと三次元座標取得用マーカー23とは明度が異なるため、第1画像Lおよび第2画像において、容易に三次元座標取得用マーカー23を検出し、作業位置を決定することができる。 Further, if the handle 22b is provided with the three-dimensional coordinate acquisition marker 23 as in the bag of the present embodiment, the brightness of the bag body 22a and the handle 22b is different from that of the three-dimensional coordinate acquisition marker 23. In the first image L and the second image, the three-dimensional coordinate acquisition marker 23 can be easily detected and the working position can be determined.

上述した実施の形態を挙げて本発明を説明したが、本開示の実施の形態はこれに限定されない。 Although the present invention has been described with reference to the above-described embodiments, the embodiments of the present disclosure are not limited thereto.

本実施の形態では、三次元座標取得用マーカー23は、剛性を有する樹脂で構成されているが、例えば、図11に示すように、三次元座標取得用マーカー23aが、袋22の把手22bに巻き付けられたテープであっても、袋22や把手22bとは異なる色を把手22bに着色した箇所であってもよい。袋22と明度の異なる、袋22の把手22bに取り付けることができる任意の形状のものを三次元座標取得用マーカーとして使用することができる。 In the present embodiment, the three-dimensional coordinate acquisition marker 23 is made of a rigid resin. For example, as shown in FIG. 11, the three-dimensional coordinate acquisition marker 23a is attached to the handle 22b of the bag 22. The wrapped tape may be a portion where the handle 22b is colored in a color different from that of the bag 22 or the handle 22b. Any shape that is different in brightness from the bag 22 and can be attached to the handle 22b of the bag 22 can be used as a marker for acquiring three-dimensional coordinates.

なお、本開示においては、前述した様々な実施の形態および/または実施例のうちの任意の実施の形態および/または実施例を適宜組み合わせることを含むものであり、それぞれの実施の形態および/または実施例が有する効果を奏することができる。 It should be noted that the present disclosure includes appropriately combining any of the various embodiments and / or examples described above, and the respective embodiments and / or embodiments. The effects of the examples can be achieved.

また、上述した実施の形態では、ロボット操作部4が作業位置決定装置2の外部に設けられているが、ロボット操作部4は作業位置決定装置2に内蔵されていてもよい。また、作業位置決定装置2のカメラとそれ以外とが個別の装置として設けられていてもよい。 Further, in the above-described embodiment, the robot operation unit 4 is provided outside the work position determination device 2, but the robot operation unit 4 may be built in the work position determination device 2. Further, the camera of the work position determining device 2 and the other may be provided as separate devices.

本発明に係る作業位置決定方法、ロボット制御方法、作業位置決定装置、およびロボット制御システムによると、様々な形状の対象物に対して、作業位置を決定し、作業位置をロボットに指示することによりロボットに作業を実行させることができる。 According to the work position determination method, the robot control method, the work position determination device, and the robot control system according to the present invention, the work position is determined for objects having various shapes, and the work position is instructed to the robot. You can let the robot perform the work.

1 ロボット制御システム
2 作業位置決定装置
3 ロボット
4 ロボット操作部
11 第1カメラ
12 第2カメラ
13 領域検出部
14 エッジ抽出部
15 端点抽出部
16 三次元座標取得部
17 作業位置決定部
22 袋
22a 袋本体
22b 把手
23 三次元座標取得用マーカー
1 Robot control system 2 Working position determination device 3 Robot 4 Robot operation unit 11 1st camera 12 2nd camera 13 Area detection unit 14 Edge extraction unit 15 Edge point extraction unit 16 3D coordinate acquisition unit 17 Work position determination unit 22 Bag 22a Bag Body 22b Handle 23 Marker for acquiring 3D coordinates

Claims (10)

柔軟性を有する対象物に設けられたマーカーを、異なる視点から撮像した第1画像および第2画像を取得する撮像工程と、
前記第1画像および前記第2画像のそれぞれにおいて、前記マーカーの領域を検出する領域検出工程と、
検出した前記マーカーの領域のうち少なくとも1点の三次元座標を取得する三次元座標取得工程と、
前記三次元座標に基づいて、前記対象物に対する作業位置を決定する作業位置決定工程と、
を含む、
作業位置決定方法。
An imaging step of acquiring a first image and a second image of a marker provided on a flexible object from different viewpoints, and
In each of the first image and the second image, a region detection step of detecting the region of the marker and a region detection step.
A three-dimensional coordinate acquisition step of acquiring at least one three-dimensional coordinate of the detected marker area, and
A work position determination step of determining a work position with respect to the object based on the three-dimensional coordinates,
including,
Working position determination method.
前記三次元座標取得工程は、前記マーカーのエッジの少なくとも1点の三次元座標を取得することを含む、
請求項1に記載の作業位置決定方法。
The three-dimensional coordinate acquisition step includes acquiring three-dimensional coordinates of at least one point of the edge of the marker.
The work position determination method according to claim 1.
前記三次元座標取得工程は、前記エッジの一端点の前記三次元座標を取得することを含む、
請求項2に記載の作業位置決定方法。
The three-dimensional coordinate acquisition step includes acquiring the three-dimensional coordinates of one end point of the edge.
The work position determination method according to claim 2.
前記エッジは、第1エッジおよび第2エッジを含む、
請求項2または3に記載の作業位置決定方法。
The edge includes a first edge and a second edge.
The work position determination method according to claim 2 or 3.
前記対象物は把手を有し、
前記マーカーは、前記対象物の前記把手に設けられている、
請求項1ないし4のいずれか1項に記載の作業位置決定方法。
The object has a handle and
The marker is provided on the handle of the object.
The work position determination method according to any one of claims 1 to 4.
前記マーカーは、前記対象物の前記把手の長手方向に略平行なエッジを有する、
請求項5に記載の作業位置決定方法。
The marker has an edge substantially parallel to the longitudinal direction of the handle of the object.
The work position determination method according to claim 5.
柔軟性を有する対象物に設けられたマーカーを、異なる視点から撮像した第1画像および第2画像を取得する撮像工程と、
前記第1画像および前記第2画像のそれぞれにおいて、前記マーカーの領域を検出する領域検出工程と、
検出した前記マーカーの領域のうち少なくとも1点の三次元座標を取得する三次元座標取得工程と、
前記三次元座標に基づいて、前記対象物に対する作業位置を決定する作業位置決定工程と、
前記作業位置に対してロボットに作業させる作業工程と、
を含む、
ロボット制御方法。
An imaging step of acquiring a first image and a second image of a marker provided on a flexible object from different viewpoints, and
In each of the first image and the second image, a region detection step of detecting the region of the marker and a region detection step.
A three-dimensional coordinate acquisition step of acquiring at least one three-dimensional coordinate of the detected marker area, and
A work position determination step of determining a work position with respect to the object based on the three-dimensional coordinates,
The work process of causing the robot to work with respect to the work position,
including,
Robot control method.
柔軟性を有する対象物に設けられたマーカーを、異なる視点から撮像する第1カメラおよび第2カメラと、
前記第1カメラおよび前記第2カメラにより撮像されたそれぞれの画像において前記マーカーの領域を検出する領域検出部と、
検出した前記マーカーの領域のうち少なくとも1点の三次元座標を取得する三次元座標取得部と、
前記三次元座標に基づいて、前記対象物に対する作業位置を決定する作業位置決定部と、
を備える、
作業位置決定装置。
A first camera and a second camera that image a marker provided on a flexible object from different viewpoints,
A region detection unit that detects the region of the marker in each of the images captured by the first camera and the second camera, and
A three-dimensional coordinate acquisition unit that acquires three-dimensional coordinates of at least one point in the detected marker area, and
A work position determination unit that determines a work position with respect to the object based on the three-dimensional coordinates.
To prepare
Working position determination device.
請求項8に記載の作業位置決定装置と、
前記作業位置に対して作業を行うロボットハンドを有するロボットと、
を備える、
ロボット制御システム。
The work position determining device according to claim 8 and
A robot having a robot hand that performs work on the work position and
To prepare
Robot control system.
袋本体と、
前記袋本体に設けられた少なくとも1つの把手と、
前記把手に取り付けられた三次元座標取得用マーカーと、
を備える、
袋。
With the bag body
At least one handle provided on the bag body and
The three-dimensional coordinate acquisition marker attached to the handle,
To prepare
bag.
JP2019214570A 2019-11-27 2019-11-27 Method for determining work position, method for controlling robot, work position determination device, and robot control system Pending JP2021085751A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019214570A JP2021085751A (en) 2019-11-27 2019-11-27 Method for determining work position, method for controlling robot, work position determination device, and robot control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019214570A JP2021085751A (en) 2019-11-27 2019-11-27 Method for determining work position, method for controlling robot, work position determination device, and robot control system

Publications (1)

Publication Number Publication Date
JP2021085751A true JP2021085751A (en) 2021-06-03

Family

ID=76087373

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019214570A Pending JP2021085751A (en) 2019-11-27 2019-11-27 Method for determining work position, method for controlling robot, work position determination device, and robot control system

Country Status (1)

Country Link
JP (1) JP2021085751A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023069265A (en) * 2021-11-05 2023-05-18 株式会社ダイヘン Marker detection apparatus and robot teaching system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023069265A (en) * 2021-11-05 2023-05-18 株式会社ダイヘン Marker detection apparatus and robot teaching system
TWI806762B (en) * 2021-11-05 2023-06-21 日商達誼恆股份有限公司 Mark detection device and robot teaching system

Similar Documents

Publication Publication Date Title
US11780101B2 (en) Automated package registration systems, devices, and methods
KR102650494B1 (en) Automated package registration systems, devices, and methods
CN108297096B (en) Calibration device, calibration method, and computer-readable medium
US10347005B2 (en) Object state identification method, object state identification apparatus, and carrier
US10894324B2 (en) Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method
US9415511B2 (en) Apparatus and method for picking up article randomly piled using robot
JP5854815B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP6021533B2 (en) Information processing system, apparatus, method, and program
JP5172010B2 (en) Rectangle table detection using RGB and depth measurement hybrid camera sensors
US20130230235A1 (en) Information processing apparatus and information processing method
JP6836561B2 (en) Image processing device and image processing method
CN113284178B (en) Object stacking method, device, computing equipment and computer storage medium
JP6621351B2 (en) Image processing apparatus and image processing method for laser processing
JP5858773B2 (en) Three-dimensional measurement method, three-dimensional measurement program, and robot apparatus
JP2021085751A (en) Method for determining work position, method for controlling robot, work position determination device, and robot control system
JP2021063667A (en) Work position determination method, robot control method, work position determination device, and planar object handling system
CN116175542A (en) Grabbing control method, grabbing control device, electronic equipment and storage medium
JP7112528B2 (en) Work coordinate creation device
CN113196337B (en) Image processing device, work robot, substrate inspection device, and specimen inspection device
JP7177639B2 (en) Three-dimensional measurement method for belt-shaped object and three-dimensional measurement device for belt-shaped object
JP6784991B2 (en) Work detection system and clothing detection system
Zheng et al. Research on Robot Object Localization and Grabbing Based on Concontour Matching
CN116197887A (en) Image data processing method, device, electronic equipment and storage medium
CN116188559A (en) Image data processing method, device, electronic equipment and storage medium
TW202020405A (en) Working position determining method and device for strip-shaped object, robot control method, strip-shaped object handling system, three-dimensional measuring method and device for strip-shaped object