JP2010256108A - Distance measuring method - Google Patents
Distance measuring method Download PDFInfo
- Publication number
- JP2010256108A JP2010256108A JP2009104794A JP2009104794A JP2010256108A JP 2010256108 A JP2010256108 A JP 2010256108A JP 2009104794 A JP2009104794 A JP 2009104794A JP 2009104794 A JP2009104794 A JP 2009104794A JP 2010256108 A JP2010256108 A JP 2010256108A
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging device
- workpiece
- unit
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、距離測定方法にかかわり、特に撮像装置で撮影した複数の画像を用いて被測定物と撮像装置との距離を測定する方法に関するものである。 The present invention relates to a distance measuring method, and more particularly to a method for measuring the distance between an object to be measured and an imaging device using a plurality of images taken by the imaging device.
撮像装置を用いて複数の場所から被測定物を撮影し、撮像装置から被測定物までの距離を測定するステレオ計測法が知られている。ステレオ計測法は、複数の視点から撮影した画像を用いて撮像装置から被測定物の各測定点までの距離を三角測量の原理により測定する方法である。 A stereo measurement method is known in which an object to be measured is photographed from a plurality of locations using an imaging device, and a distance from the imaging device to the object to be measured is measured. The stereo measurement method is a method of measuring the distance from the imaging device to each measurement point of the object to be measured based on the principle of triangulation using images taken from a plurality of viewpoints.
ステレオ計測法ではある測定点を撮影した測定点像が複数の画像においてどの場所に位置するかを検出する必要がある。この測定点像を検出し易くする方法が特許文献1に開示されている。それによると、2つの方向から撮影した画像を映像信号の周波数成分にて分割して複数水準の画像を形成している。その画像を2次微分処理して3値化処理を行うことによりエッジ(以下角部と称す)を検出している。そして、2つの方向から撮影した画像を比較して測定点像が対応する場所を検出していた。
In the stereo measurement method, it is necessary to detect where a measurement point image obtained by photographing a measurement point is located in a plurality of images. A method for facilitating detection of the measurement point image is disclosed in
被測定物に角部が少ないときには、撮影した各画像における角部の像が少なくなる。そして、撮影した複数の画像において被測定物のある角部に対応する角部の場所を検出し難くなる。そのとき、撮像装置と被測定物との距離を誤測定する可能性が高くなる。そして、被測定物のある角部と撮影した画像における角部の像とを品質良く対応させる方法が望まれていた。 When the object to be measured has a small number of corners, the number of corners in each photographed image decreases. And it becomes difficult to detect the location of the corner | angular part corresponding to the corner | angular part with a to-be-measured object in several image | photographed images. At that time, the possibility of erroneous measurement of the distance between the imaging device and the object to be measured increases. There has been a demand for a method of matching a corner portion of the object to be measured with an image of the corner portion in the photographed image with high quality.
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態または適用例として実現することが可能である。 SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.
[適用例1]
本適用例にかかる距離測定方法は、被測定物と撮像装置との距離を測定する距離測定方法であって、前記被測定物の形状情報を用いて参照部を設定し、前記参照部を複数の方向から見た参照部画像を生成する参照部設定工程と、前記被測定物を複数の方向から前記撮像装置にて撮影し、複数の撮影画像を生成する撮像工程と、前記参照部画像を用いて複数の前記撮影画像において前記参照部が撮影された参照部像の場所を検出する参照部検出工程と、前記参照部像の場所の情報を用いて前記被測定物と前記撮像装置との距離を検出する距離測定工程と、を有することを特徴とする。
[Application Example 1]
The distance measurement method according to this application example is a distance measurement method for measuring the distance between the object to be measured and the imaging device, and sets a reference unit using shape information of the object to be measured, and includes a plurality of reference units. A reference part setting step for generating a reference part image viewed from the direction of the image, an imaging step for photographing the object to be measured by the imaging device from a plurality of directions and generating a plurality of photographed images, and the reference part image. A reference unit detecting step for detecting a location of a reference portion image obtained by photographing the reference portion in a plurality of the photographed images, and using the information on the location of the reference portion image, the measurement object and the imaging device. And a distance measuring step for detecting the distance.
この距離測定方法によれば、参照部設定工程において参照部画像を生成している。撮像工程において撮影画像を生成し、参照部検出工程では撮影画像における参照部の場所を検出している。このとき、撮影画像において参照部画像と一致もしくは類似する場所を検索することにより参照部像の場所を検出している。 According to this distance measurement method, the reference part image is generated in the reference part setting step. A captured image is generated in the imaging step, and the location of the reference portion in the captured image is detected in the reference portion detection step. At this time, the location of the reference portion image is detected by searching for a location that matches or is similar to the reference portion image in the captured image.
その後、距離測定工程では、被測定物と撮像装置との距離を検出する。撮影画像における参照部の場所が検出されているので、撮像装置の光軸方向に対して参照部が位置する方向を検出することができる。撮影は複数の方向から行われる。そして、撮影するときの撮像装置の位置と撮像装置の光軸方向に対する参照部が位置する方向との複数の情報が得られる。この情報と三角測量法とを用いることにより撮像装置と参照部との距離を算出することができる。従って、撮像装置と被測定物との距離を算出することができる。 Thereafter, in the distance measurement step, the distance between the object to be measured and the imaging device is detected. Since the location of the reference portion in the captured image is detected, the direction in which the reference portion is located with respect to the optical axis direction of the imaging device can be detected. Shooting is performed from a plurality of directions. Then, a plurality of pieces of information on the position of the imaging device at the time of shooting and the direction in which the reference unit is located with respect to the optical axis direction of the imaging device is obtained. By using this information and the triangulation method, the distance between the imaging device and the reference unit can be calculated. Therefore, the distance between the imaging device and the object to be measured can be calculated.
撮影画像において参照部像の場所を検出するとき、撮影画像において参照部画像と一致もしくは類似する場所を検索する。従って、参照部の場所を誤った場所に選定し難くすることができる。 When detecting the location of the reference image in the captured image, a location that matches or is similar to the reference image in the captured image is searched. Therefore, it is possible to make it difficult to select the location of the reference portion as an incorrect location.
[適用例2]
上記適用例にかかる距離測定方法において、前記参照部設定工程では前記被測定物の形状情報を用いて前記被測定物の角部を抽出し、前記参照部は前記角部を含む場所を設定することを特徴とする。
[Application Example 2]
In the distance measurement method according to the application example, in the reference portion setting step, a corner portion of the measurement object is extracted using shape information of the measurement object, and the reference portion sets a location including the corner portion. It is characterized by that.
この距離測定方法によれば、被測定物の形状情報から角部を抽出している。被測定物を撮影するときに角部は輝度の変化する場所になり易い。そして、撮影画像から検索し易い場所となる。従って、角部を含む場所を参照部に設定することにより、参照部を検索し易くすることができる。 According to this distance measuring method, the corner is extracted from the shape information of the object to be measured. When photographing an object to be measured, the corner easily becomes a place where the luminance changes. And it becomes a place where it is easy to search from a picked-up image. Therefore, the reference portion can be easily searched by setting the location including the corner portion as the reference portion.
[適用例3]
上記適用例にかかる距離測定方法において、前記参照部の候補となる場所が複数あるとき、前記角部の形状から前記参照部を選択する選択順位を設定し、前記選択順位の高い前記候補を前記参照部に選択することを特徴とする。
[Application Example 3]
In the distance measurement method according to the application example, when there are a plurality of locations that are candidates for the reference portion, a selection order for selecting the reference portion from the shape of the corner is set, and the candidate with a high selection order is selected as the candidate It selects as a reference part, It is characterized by the above-mentioned.
この距離測定方法によれば、参照部を選択する選択順位が設定されている。従って、参照部の候補となる場所が複数あるときにも、検出し易い参照部を選択することができる。 According to this distance measurement method, the selection order for selecting the reference portion is set. Therefore, even when there are a plurality of locations that are candidates for the reference portion, it is possible to select a reference portion that is easy to detect.
[適用例4]
上記適用例にかかる距離測定方法において、前記参照部画像は前記被測定物の立体モデルを所定の平面に投影したときの画像を演算して形成することを特徴とする。
[Application Example 4]
In the distance measurement method according to the application example described above, the reference portion image is formed by calculating an image when a three-dimensional model of the object to be measured is projected on a predetermined plane.
この距離測定方法によれば、参照部画像は演算して形成される。被測定物を撮影して参照部像を形成するときには、撮影条件により角部が明確に撮影できない場合がある。この方法に比べて、演算して参照部画像を形成する方が精度良く参照部画像を形成することができる。 According to this distance measurement method, the reference portion image is formed by calculation. When the reference object image is formed by photographing the object to be measured, the corner portion may not be clearly photographed depending on photographing conditions. Compared to this method, it is possible to form the reference portion image with higher accuracy by calculating and forming the reference portion image.
[適用例5]
上記適用例にかかる距離測定方法において、前記被測定物を構成する面の法線方向ベクトルと所定の方向を示す単位ベクトルとの内積を演算した内積量を算出し、前記内積量の分布が変化する場所を検索して前記角部を検出することを特徴とする。
[Application Example 5]
In the distance measuring method according to the application example described above, an inner product amount obtained by calculating an inner product of a normal direction vector of a surface constituting the object to be measured and a unit vector indicating a predetermined direction is calculated, and the distribution of the inner product amount is changed. The corner is detected by searching for a place to perform.
この距離測定方法によれば、被測定物を構成する面の法線方向ベクトルと所定の方向を示す単位ベクトルとの内積を演算した内積量を算出している。そして、内積量の分布が変化する場所を角部としている。従って、隣接する面の向きが異なる場所を角部として検出することができる。 According to this distance measuring method, the inner product amount obtained by calculating the inner product of the normal direction vector of the surface constituting the object to be measured and the unit vector indicating the predetermined direction is calculated. And the corner | angular part is the place where distribution of the inner product amount changes. Therefore, a place where the directions of adjacent surfaces are different can be detected as a corner.
以下、具体化した実施形態について図面に従って説明する。尚、各図面における各部材は、各図面上で認識可能な程度の大きさとするため、各部材毎に縮尺を異ならせて図示している。 Hereinafter, specific embodiments will be described with reference to the drawings. In addition, each member in each drawing is illustrated with a different scale for each member in order to make the size recognizable on each drawing.
(実施形態)
本実施形態においてワークの場所を検出してピッキングするピッキング装置と、ワークの場所を特徴的な測定方法を用いて測定した後ピッキングする場合の例について図1〜図9に従って説明する。尚、ピッキング装置にはワークの場所を検出する測定装置が含まれる。
(Embodiment)
A picking apparatus that detects and picks a workpiece location in the present embodiment, and an example of picking after measuring the workpiece location using a characteristic measurement method will be described with reference to FIGS. The picking device includes a measuring device that detects the location of the workpiece.
(ピッキング装置)
まず、ピッキング装置について図1及び図2に従って説明する。図1は、ピッキング装置の構成を示す概略斜視図である。図1に示すように、ピッキング装置1は、主に作業台2、収納台3、測定装置4、ロボット5、制御装置6等により構成されている。
(Picking device)
First, the picking apparatus will be described with reference to FIGS. FIG. 1 is a schematic perspective view showing the configuration of the picking apparatus. As shown in FIG. 1, the picking
作業台2はピッキング装置1の略中央に配置され、直方体形状に形成されている。本実施形態では、この作業台2の長手方向をX方向とし、水平面にてX方向と直交する方向をY方向とする。鉛直方向をZ方向とする。作業台2上には長方形の積載板7が配置されている。そして、積載板7の上には複数の被測定物としてのワーク8が重置されている。このワーク8は一面が四角形の板状に形成され、多方向を向いて積まれている。
The work table 2 is disposed substantially at the center of the
作業台2のY方向側には測定装置4が配置されている。測定装置4はZ方向に長い直方体状に形成された基台9を備えている。基台9の上側にはXYテーブル10が配置され、XYテーブル10の上には第1支持部11が配置されている。XYテーブル10はX方向に移動する直動機構とY方向に移動する直動機構とを備えている。そして、XYテーブル10は第1支持部11をX方向及びY方向に移動することができる。さらに、XYテーブル10には移動量を検出する検出部を備えている。そして、基台9に対する第1支持部11の位置を検出することができる。
A measuring
直動機構は、例えば、1方向に延びるネジ軸(駆動軸)と、同ネジ軸と螺合するボールナットを供えたネジ式直動機構であって、その駆動軸が所定のパルス信号を受けて所定のステップ単位で正逆転する図示しないステップモーターに連結されている。そして、所定のステップ数に相当する駆動信号がステップモーターに入力されると、ステップモーターが正転または反転して、テーブルが同ステップ数に相当する分だけ、往動または復動するようになっている。直動機構はこの機構に限定されない。他にも、直動機構にリニアーモーターを採用することができる。 The linear motion mechanism is, for example, a screw type linear motion mechanism provided with a screw shaft (drive shaft) extending in one direction and a ball nut screwed to the screw shaft, and the drive shaft receives a predetermined pulse signal. Are connected to a step motor (not shown) that rotates forward and backward in predetermined step units. When a drive signal corresponding to a predetermined number of steps is input to the step motor, the step motor rotates forward or reverse, and the table moves forward or backward by an amount corresponding to the number of steps. ing. The linear motion mechanism is not limited to this mechanism. In addition, a linear motor can be used for the linear motion mechanism.
第1支持部11の上には第1支持部回転部12が配置されている。第1支持部回転部12は回転機構を備えている。この回転機構は、例えば、モーター、減速ギア、ローターエンコーダー等から構成されている。そして、回転機構は、XYテーブル10に対して第1支持部11をZ方向を中心にして回転させることができる。
A first support
第1支持部11の作業台2側にはX方向に長く形成された板状の第2支持部13が配置されている。そして、第1支持部11の内部には第2支持部13と対向する場所に第2支持部回転部14が配置されている。第2支持部回転部14は回転機構を備えている。この回転機構は第1支持部回転部12における回転機構と同様の機構を用いることができる。そして、第2支持部回転部14は第1支持部11に対して第2支持部13をY方向を中心にして回転させることができる。
A plate-like
第2支持部13には第1撮像装置15及び第2撮像装置16が配置されている。第1撮像装置15及び第2撮像装置16は作業台2の方向を撮影可能に設置され、積載板7及びワーク8を撮影することができる。第1撮像装置15と第2撮像装置16との間には照明装置17が配置されている。さらに、第1撮像装置15及び第2撮像装置16の両側にも照明装置17が配置されている。照明装置17は積載板7に向けて設置され、積載板7及びワーク8に光を照射する。
A
測定装置4はXYテーブル10、第1支持部回転部12、第2支持部回転部14を駆動させることにより、ワーク8を所望の角度から撮影することが可能になっている。
The measuring
作業台2の図中右側にはロボット5が配置されている。本実施形態ではロボット5に垂直多関節ロボットを採用したが、これに限らず、水平他関節型ロボットや直交ロボットを採用することができる。ロボット5には複数のアームが関節を挟んで配置されている。そして、複数のアームの先端には腕部20が配置されている。腕部20は直動機構を備え、直動機構には一対の指部20aが配置されている。この直動機構を駆動することによりロボット5は指部20aの間隔を変更する。そして、腕部20は指部20aの間にワーク8を挟んで把持することができる。
A
ロボット5のX方向には収納台3が配置されている。そして、収納台3上にはワーク8が重ねて配置されている。ロボット5は積載板7上のワーク8をピッキングし、ワーク8の向きを揃えて収納台3上に重置する。その結果、収納台3上ではワーク8が整列して配置される。作業台2の図中左側には制御装置6が配置されている。制御装置6は測定装置4及びロボット5の制御を行う装置である。
A storage table 3 is arranged in the X direction of the
図2は、ピッキング装置の電気制御ブロック図である。図2において、制御装置6はプロセッサーとして各種の演算処理を行うCPU(中央処理装置)21と、各種情報を記憶する記憶部としてのメモリー22とを有する。
FIG. 2 is an electric control block diagram of the picking apparatus. In FIG. 2, the
測定装置駆動回路23、第1撮像装置15、第2撮像装置16は、入出力インターフェース24及びデータバス25を介してCPU21に接続されている。さらに、入力装置26、表示装置27、ロボット駆動回路28も入出力インターフェース24及びデータバス25を介してCPU21に接続されている。
The measurement
測定装置駆動回路23はXYテーブル10、第1支持部回転部12、第2支持部回転部14と接続されている。そして、測定装置駆動回路23はXYテーブル10、第1支持部回転部12、第2支持部回転部14に設置されたモーターを駆動する回路である。測定装置駆動回路23はXYテーブル10、第1支持部回転部12、第2支持部回転部14が備える位置検出装置の出力を入力する。そして、測定装置駆動回路23は第2支持部13を所望の位置に移動して停止することができる。第2支持部13には第1撮像装置15及び第2撮像装置16が設定されていることから、測定装置駆動回路23は第1撮像装置15及び第2撮像装置16を所望の方向に傾斜させることができる。従って、第1撮像装置15及び第2撮像装置16はワーク8を所望の方向から撮影することができる。
The measurement
第1撮像装置15及び第2撮像装置16は内部にエリアセンサーを備えている。そして、エリアセンサーは、撮影した画像をデジタル信号に変換する変換回路を内蔵する。この変換回路は画像の情報をデジタル信号にして送信する。そして、CPU21から画像を撮影する指示信号を受信すると、画像を撮影した後、その画像のデジタル信号をメモリー22へ送信する。メモリー22は画像のデジタル信号を記憶する。
The
第1撮像装置15及び第2撮像装置16はフォーカス機構を備えている。そして、フォーカス機構は、撮像レンズにより投影される画像の焦点が第1撮像装置15及び第2撮像装置16のエリアセンサーにあうように、フォーカス調整を行う。CPU21の指示により、フォーカス機構は画像の焦点が合う場所を変更する。
The
入力装置26は、ワーク8の形状、測定条件、ロボット5の動作指示等に関する各種データを入力する装置である。入力装置26は、例えば、ワーク8の形状データを外部機器から入力する。表示装置27は、測定条件や作業状況を表示する装置であり、操作者は、表示装置27に表示される情報を基に、入力装置26を用いて入力操作を行う。
The
ロボット駆動回路28はロボット5を駆動する回路である。ロボット5には複数のサーボモーターが設置されている。ロボット駆動回路28は各モーターの回転角度を所定の角度になるように制御する。そして、ロボット駆動回路28はロボット5の姿勢を所望の姿勢に制御する。
The
メモリー22は、RAM、ROM等といった半導体メモリーや、ハードディスク、CD−ROMといった外部記憶装置を含む概念である。機能的には、ピッキング装置1における動作の制御手順が記述されたプログラムソフト29を記憶する記憶領域が設定される。さらに、ロボット5における各部の寸法やモーターの駆動条件等のロボット関連データ30を記憶するための記憶領域も設定される。他にも、ワーク8の形状を設計したときのワーク形状データ31を記憶するための記憶領域が設定される。
The
さらに、第1撮像装置15及び第2撮像装置16が撮影した画像のデータである撮像データ32を記憶するための記憶領域も設定される。さらに、ワーク8の画像から参照部を選択するときに基準となる参照部選択データ33や、参照部を多方向から見た画像を算出したデータである参照部画像データ34等の記憶領域を記憶するための記憶領域が設定される。他にも、CPU21のためのワークエリアやテンポラリーファイル等として機能する記憶領域やその他各種の記憶領域が設定される。
Furthermore, a storage area for storing
CPU21は、メモリー22内に記憶されたプログラムソフト29に従って、ワーク8が位置する場所の高さを測定する制御を行う。そして、最も上に位置するワーク8をピッキングする動作の制御を行うものである。具体的な機能実現部として、ワーク8の設計情報を用いてワーク8の立体形状を構成する角部を解析するワーク形状解析部37を有する。他にも、ワーク8を構成する複数の角部の中から特徴的な場所を参照部として設定する参照部設定部38を有する。
The
さらに、測定装置4が撮影する方向の指示信号を測定装置駆動回路23に出力し、第1撮像装置15及び第2撮像装置16にワーク8を撮影する指示信号を出力する撮像制御部39を有する。他にも、撮影した2つの画像における参照部を検出する参照部検出部40を有する。さらに、各画像における参照部の場所の情報を用いて第1撮像装置15及び第2撮像装置16とワーク8との距離を演算する距離演算部41を有する。他にも、ロボット5にピッキングする指示信号を出力するロボット制御部42を有する。
Furthermore, it has an
(測定方法)
次に、上述したピッキング装置1を使って、第1撮像装置15及び第2撮像装置16とワーク8との距離を測定し、ワーク8をピッキングする方法について図3〜図9にて説明する。図3は、ワークをピッキングする工程を示すフローチャートである。図4〜図9は、ワークをピッキングする方法を説明するための模式図である。
(Measuring method)
Next, a method of measuring the distances between the
図3において、ステップS1は参照部設定工程に相当する。ワーク形状解析部がワークの設計情報を用いてワーク形状を構成する角部を抽出する。次に、参照部設定部が角部からなるパターンの中から参照部を設定する。そして、参照部設定部が参照部を複数の視点から観測するときの画像データを形成する工程である。ステップS2は、ワーク配置工程に相当し、作業台にワークを配置する工程である。次にステップS3に移行する。ステップS3は、撮像工程に相当し、2台の撮像装置を用いてワークを撮影する工程である。次にステップS4に移行する。ステップS4は、参照部検出工程に相当し、撮影した画像内で参照部に相当する像の場所を検出する工程である。次にステップS5に移行する。ステップS5は、距離測定工程に相当し、撮像装置とワークとの距離を演算する工程である。次にステップS6に移行する。 In FIG. 3, step S1 corresponds to a reference part setting step. The workpiece shape analysis unit extracts corner portions constituting the workpiece shape using the workpiece design information. Next, the reference part setting part sets the reference part from the pattern composed of the corners. The reference unit setting unit forms image data when the reference unit is observed from a plurality of viewpoints. Step S2 corresponds to a work placement process, and is a process of placing a work on the work table. Next, the process proceeds to step S3. Step S3 corresponds to an imaging step and is a step of photographing a workpiece using two imaging devices. Next, the process proceeds to step S4. Step S4 corresponds to a reference portion detection step, and is a step of detecting the location of the image corresponding to the reference portion in the photographed image. Next, the process proceeds to step S5. Step S5 corresponds to a distance measurement step, and is a step of calculating the distance between the imaging device and the workpiece. Next, the process proceeds to step S6.
ステップS6は、ワーク移動工程に相当し、ロボットがワークをピッキングして作業台から収納台へ移動する工程である。次にステップS7に移行する。ステップS7は、終了判断工程に相当し、予定したワークを総て移動したかを判断する工程である。まだ移動していないワークがあって移動を継続するとき、ステップS3に移行する。予定した総てのワークを移動したので移動を終了するとき、ワークをピッキングする作業を終了する。以上の工程によりワークをピッキングする作業工程を終了する。 Step S <b> 6 corresponds to a workpiece moving process, in which the robot picks the workpiece and moves from the work table to the storage table. Next, the process proceeds to step S7. Step S7 corresponds to an end determination step, and is a step of determining whether all scheduled workpieces have been moved. When there is a workpiece that has not yet moved and the movement is continued, the process proceeds to step S3. When all the scheduled works have been moved, the work of picking the work is finished when the movement is finished. The work process for picking a workpiece is completed by the above process.
次に、図4〜図9を用いて、図3に示したステップと対応させて、撮像装置とワークとの距離を測定し、ワークをピッキングする方法を詳細に説明する。図4〜図6はステップS1の参照部設定工程に対応する図である。図4(a)に示すようにワーク形状解析部37は仮想空間内にワーク立体像45を形成する。ワーク立体像45は、ワーク形状データ31を用いてワーク8と同じ形状を仮想空間内に形成した像である。ワーク立体像45は複数の角部46及び面47から構成されている。この角部46は隣接する面47が接合する線である。隣接する面47の間が曲面となっているときには、曲面の法線方向の変化が大きい場所を角部46とする。まず、ワーク形状解析部37はワーク立体像45における面47の情報から角部46を抽出する。
Next, a method for measuring the distance between the imaging device and the workpiece and picking the workpiece will be described in detail with reference to FIGS. 4 to 9 in association with the steps shown in FIG. 4 to 6 are diagrams corresponding to the reference unit setting step in step S1. As shown in FIG. 4A, the workpiece
図4(b)は図4(a)におけるA−A’線から見た模式断面図である。この断面においてZ方向側には3方向を向く面が配置されている。AからA’側に向けての面47を第1面47a、第2面47b、第3面47c、第4面47dとする。第1面47aと第4面47dとは同一の面である。第1面47aにおける面の法線方向を示す単位ベクトルを法線方向ベクトルとしての第1面ベクトル48aとする。同様に、第2面47b、第3面47c、第4面47dにおける面の法線方向を示す単位ベクトルをそれぞれ法線方向ベクトルとしての第2面ベクトル48b、第3面ベクトル48c、第4面ベクトル48dとする。
FIG. 4B is a schematic cross-sectional view seen from the line A-A ′ in FIG. In this cross section, a surface facing three directions is arranged on the Z direction side. The
次に、ワーク形状解析部37は単位ベクトルとしての第1参照ベクトル49及び第2参照ベクトル50を設定する。第1参照ベクトル49及び第2参照ベクトル50は第1撮像装置15及び第2撮像装置16が配置された向きに設定されている単位ベクトルである。第1撮像装置15及び第2撮像装置16はワーク8に対する角度を変更可能である。第1参照ベクトル49及び第2参照ベクトル50は第1撮像装置15及び第2撮像装置16が移動する範囲の方向に向くのが好ましい。次に、ワーク形状解析部37は第1参照ベクトル49と第1面ベクトル48a〜第4面ベクトル48dの各ベクトルとの内積を演算する。
Next, the workpiece
図4(c)は内積の演算を説明するための模式図である。図4(c)を用いて第1参照ベクトル49と第2面ベクトル48bとの内積量51を説明する。第1参照ベクトル49と第2面ベクトル48bとの成す角を交差角度52とする。ワーク形状解析部37は交差角度52の余弦関数を演算することにより内積量51を算出する。ワーク形状解析部37は面47の各場所において内積量51を算出する。
FIG. 4C is a schematic diagram for explaining the calculation of the inner product. The
図4(d)は第1参照ベクトル49に対する各面の内積量51の推移を示している。縦軸は内積量51を示し、上側は下側より大きな量となっている。横軸は面47の場所を示している。そして、第1内積分布線53は面47の各場所における内積量51の分布を示している。第1内積分布線53が示すように、第1面47a及び第4面47dでは内積量51が同じ量となっている。そして第2面47b及び第3面47cでは内積量51が同じ量となっている。そして、第1面47aと第2面47bとの間では第1内積分布線53が変化している。従って、第1面47aと第2面47bとの間で面47の向きが変化していることが検出できる。そして、この場所が角部46であることが検出される。同様に、第3面47cと第4面47dとの間の場所が角部46であることが検出される。
FIG. 4D shows the transition of the
図4(e)は第2参照ベクトル50に対する各面の内積量51の推移を示している。縦軸は内積量51を示し、上側は下側より大きな量となっている。横軸は面47の場所を示している。そして、第2内積分布線54は面47の各場所における内積量51の分布を示している。第2内積分布線54が示すように、第2面47bと第3面47cとの間では第2内積分布線54が変化している。従って、第2面47bと第3面47cとの間で面47の向きが変化していることが検出できる。そして、この場所が角部46であることが検出される。以上のことから、第1面47a〜第4面47dの各面の隣接する場所が角部46であることが検出される。以上のように、ワーク形状解析部37は第1内積分布線53及び第2内積分布線54を用いて角部46を検出する。
FIG. 4E shows the transition of the
図5(a)はワーク立体像45をZ方向から見た模式平面図である。そして、検出された角部46が明示されている。次に、参照部設定部38が参照候補部55を抽出する。参照候補部55は複数の角部46が交差する場所や角部46が円状になっている場所とする。ワーク立体像45をZ方向から見たとき、9個所の参照候補部55が抽出される。
FIG. 5A is a schematic plan view of the workpiece
図5(b)は参照部の選択順を示すリストである。図5(b)に示すように、参照部選択リスト56には参照候補部55から参照部を1つ選択するときの条件である項目欄に対して選択順位が設定されている。参照部選択リスト56は参照部選択データ33としてメモリー22に記憶されている。この項目の内容及び選択順位は特に限定されない。ワーク立体像45が複数あるとき、特徴のあるパターンが1個だけ選択されるように設定するのが好ましい。
FIG. 5B is a list showing the selection order of the reference parts. As shown in FIG. 5B, in the reference
ワーク立体像45における参照候補部55について参照部選択リスト56の選択順位が1番目の項目から順次対象となる候補があるかを参照部設定部38が判断する。そして、4番目の選択順位の項目にある単独の2線交差に相当する場所があるので、参照部設定部38はこの項目に該当する場所を参照部とする。その結果、図5(c)に示すように参照部57が1箇所設定される。そして、参照部57の情報が参照部選択データ33としてメモリー22に記憶される。
For the
次に、図6に示すように、参照部設定部38は参照部57を複数の方向から見た参照部画像58を形成する。第1撮像装置15及び第2撮像装置16がワーク8を撮影するときに、第1撮像装置15及び第2撮像装置16とワーク8とが相対する可能性がある方向から見た画像を参照部設定部38が生成し、この画像を参照部画像58とする。従って、参照部画像58はワーク立体像45を所定の平面に投影したときの画像を演算して形成されている。この参照部画像58は多数形成される。そして、参照部設定部38は参照部画像58を参照部画像データ34としてメモリー22に記憶する。
Next, as illustrated in FIG. 6, the reference
図7(a)はステップS2のワーク配置工程及びステップS3の撮像工程に対応する図である。図7(a)に示すように、ステップS2において、作業台2上に積載板7が設置される。そして、積載板7上に複数のワーク8が重置される。ワーク8のZ方向には第1撮像装置15、第2撮像装置16、照明装置17がワーク8と対向する場所に配置されている。
FIG. 7A is a diagram corresponding to the workpiece placement process in step S2 and the imaging process in step S3. As shown in FIG. 7A, the
次に、ステップS3の撮像工程において、撮像制御部39が照明装置17にワーク8に対して光を照射させる。そして、撮像制御部39は第1撮像装置15及び第2撮像装置16にワーク8を撮影させる。撮影した画像は撮像データ32としてメモリー22に記憶される。図7(b)及び図7(c)はステップS3の撮像工程に対応する図である。図7(b)は第1撮像装置15が撮影した撮影画像としての第1画像61を示し、図7(c)は第2撮像装置16が撮影した撮影画像としての第2画像62を示している。
Next, in the imaging process of step S <b> 3, the
撮像制御部39は第1画像61及び第2画像62に輪郭抽出フィルターを適用する。そして、第1画像61及び第2画像62における角部63の線を抽出する。第1画像61及び第2画像62において角部63は明度の分布が大きく変化する場所であり、輪郭抽出フィルターを適用することにより抽出することが可能である。輪郭抽出フィルターには、例えば、Sobelフィルター、Robinsonフィルター、Prewittフィルター、Robertsフィルター、Kirschフィルター等を適用することができる。角部63が円弧状になっている場合には、例えば、画像にハフ変換を適応することにより角部63の線を抽出することができる。
The
図8(a)及び図8(b)はステップS4の参照部検出工程及びステップS5の距離測定工程に対応する図である。図8(a)及び図8(b)に示すように、ステップS4において、参照部検出部40は第1画像61及び第2画像62から参照部像64を検索する。参照部検出部40はメモリー22の参照部画像データ34から参照部画像58の1つを入力する。そして、参照部検出部40はパターンマッチング法を用いて参照部画像58と一致する画像を検索する。続いて、メモリー22からの参照部画像58を入力し、入力した参照部画像58と一致する画像の検索を繰り返す。その結果、第1画像61及び第2画像62から参照部像64が抽出される。
FIGS. 8A and 8B are diagrams corresponding to the reference portion detection step in step S4 and the distance measurement step in step S5. As shown in FIGS. 8A and 8B, in step S <b> 4, the reference
次に、ステップS5において、第1画像61及び第2画像62における各参照部像64のX方向の位置を測定する。まず、第1画像61において、第1画像61の左端から各参照部像64までの距離65を検出する。第1画像61はX方向に画素が配列されている。そして、左端から各参照部像64までの画素数を計数することにより、第1画像61における各参照部像64のX方向の位置を検出する。同様に、第2画像62において第2画像62の左端から各参照部像64までの距離65を検出する。
Next, in step S5, the position in the X direction of each
図8(c)及び図9(a)はステップS5の距離測定工程に対応する図である。図8(c)に示すように、ステップS5において、第1撮像装置15に対するワーク8上の参照部8aの方向15aとの光軸15bとのなす角度15cを算出する。このとき、方向15aと光軸15bとがなす角度のうちX方向の成分の角度を角度15cとする。第1撮像装置15の内部には対物レンズ15dとエリアセンサー15eが配置されている。ワーク8の参照部8aにて反射した光は対物レンズ15dを通過してエリアセンサー15e上に結像する。この結像した参照部像64のX方向の場所は距離65として検出されている。対物レンズ15dとエリアセンサー15eとの距離であるレンズセンサー間距離15fは予め設定され、所定の値となっている。そして、エリアセンサー15eにおいてX方向と逆の端と光軸15bとの距離である光軸距離15gも予め設定され、所定の値となっている。
FIG. 8C and FIG. 9A are diagrams corresponding to the distance measuring step in step S5. As shown in FIG. 8C, in step S5, an
距離演算部41は光軸距離15gから距離65を引き算することにより、光軸15bと参照部像64とのX方向の距離である光軸参照部間距離15hを算出する。次に、光軸参照部間距離15hとレンズセンサー間距離15fと三角関数とを用いることにより、距離演算部41は角度15cを算出する。距離演算部41は第2撮像装置16においても同様の演算を行う。そして、第2撮像装置16に対するワーク8上の参照部8aの方向16aとの光軸16bとのなす角度16cを距離演算部41が算出する。
The
図9(a)に示すように、第1撮像装置15及び第2撮像装置16がX方向に並んで配置されている。そして、第1撮像装置15の光軸15bと第2撮像装置16の光軸16bとの距離である光軸間距離66は予め設定され、所定の値となっている。第1撮像装置15及び第2撮像装置16とワーク8上の参照部8aとの距離を参照部撮像装置間距離67とする。距離演算部41は光軸間距離66、角度15c、角度16cの各値と三角関数とを用いることにより参照部撮像装置間距離67を算出する。
As shown in FIG. 9A, the
距離演算部41は複数のワーク8における参照部8aに対して参照部撮像装置間距離67を順次算出する。そして、距離演算部41は複数のワーク8の中で最も第1撮像装置15及び第2撮像装置16に近い場所に位置するワーク8を選出する。
The
図9(b)はステップS6のワーク移動工程に対応する図である。図9(b)に示すように、ステップS6において、ロボット制御部42はロボット5を駆動して、腕部20にワーク8を把持させる。このとき、ロボット制御部42は第1撮像装置15及び第2撮像装置16に近いワーク8を把持する。そして、ロボット制御部42はロボット5を移動させて、ワーク8を収納台3の上に載置する。
FIG. 9B is a diagram corresponding to the workpiece moving process in step S6. As shown in FIG. 9B, in step S6, the
続いて、ステップS7の終了判断工程にて、ワーク8の移動を終了する判断を行うとき、作業を終了する。以上の工程によりワークをピッキングする作業工程を終了する。
Subsequently, when it is determined in the end determination step of step S7 that the movement of the
上述したように、本実施形態によれば、以下の効果を有する。
(1)本実施形態によれば、ステップS1の参照部設定工程において参照部画像58を生成している。ステップS3の撮像工程において撮影画像を生成し、ステップS4の参照部検出工程では第1画像61及び第2画像62における参照部像64の場所を検出している。このとき、第1画像61及び第2画像62において参照部画像58と一致もしくは類似する場所を検索することにより参照部像64の場所を検出している。従って、参照部像64の場所を誤った場所に選定し難くすることができる。
As described above, this embodiment has the following effects.
(1) According to the present embodiment, the
(2)本実施形態によれば、ワーク立体像45の形状情報から角部46を抽出している。角部46はワーク8を撮影するときに輝度の変化する場所になり易い。そして、第1画像61及び第2画像62から検索し易い場所となる。従って、参照部像64が角部63を含む場所とすることにより、参照部像64を検索し易くすることができる。
(2) According to the present embodiment, the
(3)本実施形態によれば、参照部選択リスト56に示すように参照部57を選択する選択順位が設定されている。従って、参照部57の候補となる場所が複数あるときにも、参照部設定部38は検出し易い参照部57を選択することができる。
(3) According to this embodiment, as shown in the reference
(4)本実施形態によれば、参照部画像58は参照部設定部38により演算して形成される。ワーク8を撮影して参照部像を形成するときには、撮影条件により角部が明確に撮影できない場合がある。この方法に比べて、演算して参照部画像58を形成する方が精度良く参照部画像58を形成することができる。
(4) According to the present embodiment, the
(5)本実施形態によれば、ワーク立体像45を構成する面47の第1面ベクトル48a〜第4面ベクトル48dと第1参照ベクトル49及び第2参照ベクトル50との内積を演算した内積量51を算出している。そして、第1内積分布線53及び第2内積分布線54が変化する場所を角部46としている。従って、隣接する面47の向きが異なる場所を角部46として検出することができる。
(5) According to the present embodiment, the inner product obtained by calculating the inner product of the
(6)本実施形態によれば、第1画像61及び第2画像62において参照部検出部40が参照部画像58と一致する場所を検索している。そして、参照部検出部40は参照部像64を検出している。参照部像64を検出する方法には映像信号の周波数成分にて分割して複数水準の画像を形成する方法がある。その方法では画像を2次微分処理して3値化処理を行うことにより角部を検出している。さらに、2つの画像における角部の位置から参照部を検出している。第1撮像装置15及び第2撮像装置16の視野が広い場合には、この方法に比べて、簡便に参照部を検出することができる。
(6) According to the present embodiment, the reference
(7)本実施形態によれば、第1画像61及び第2画像62において参照部検出部40が参照部画像58と一致する場所を検索している。従って、角部46の少ないワーク立体像45の場合にも参照部8aを検出することができる。
(7) According to the present embodiment, the reference
尚、本実施形態は上述した実施形態に限定されるものではなく、種々の変更や改良を加えることも可能である。変形例を以下に述べる。
(変形例1)
前記実施形態では、角部46が交差した場所を参照部57に設定したが、参照部57は特徴的な場所であれば良い。例えば、参照部選択リスト56に示すように円、楕円、多角形等を設定することができる。この角部46は凹部の角でも良く、凸部の角でも良い。また、孔が形成されているときの角部でも良い。
In addition, this embodiment is not limited to embodiment mentioned above, A various change and improvement can also be added. A modification will be described below.
(Modification 1)
In the above embodiment, the place where the
(変形例2)
前記実施形態では、第1撮像装置15の光軸15bと第2撮像装置16の光軸16bとは平行に設置されたが、必ずしも平行でなくとも良い。
(Modification 2)
In the embodiment described above, the
(変形例3)
前記実施形態では、第1撮像装置15と第2撮像装置16との2台の撮像装置を用いた。撮像装置の台数は2台に限らず、3台以上を用いても良い。そして、1つの撮像装置から参照部8aが撮影できないとき、他の撮像装置から撮影するようにしても良い。各種の形状のワークに対応することができる。
(Modification 3)
In the embodiment, two imaging devices, the
(変形例4)
前記実施形態では、第1撮像装置15と第2撮像装置16との2台の撮像装置を用いた。そして、2方向からワーク8を撮影した。撮像装置は1台でも良い。そして、撮像装置を移動することにより、複数の方向からワーク8を撮影しても良い。解像度の高い撮像装置を用いるときには、撮像装置を製造するのが容易ではない。このときには、撮像装置の数を減らすことにより測定装置4を製造し易くすることができる。
(Modification 4)
In the embodiment, two imaging devices, the
(変形例5)
前記実施形態では、角部46から参照部57を選定した。ワーク8にマークを配置して、このマークを参照部57にしても良い。ワーク8に特徴のある角部46がないときにも参照部57を設定することができる。
(Modification 5)
In the embodiment, the
8…被測定物としてのワーク、8a,57…参照部、15…第1撮像装置、16…第2撮像装置、45…立体モデルとしてのワーク立体像、46…角部、48a…法線方向ベクトルとしての第1面ベクトル、48b…法線方向ベクトルとしての第2面ベクトル、48c…法線方向ベクトルとしての第3面ベクトル、48d…法線方向ベクトルとしての第4面ベクトル、49…単位ベクトルとしての第1参照ベクトル、50…単位ベクトルとしての第2参照ベクトル、51…内積量、58…参照部画像、61…撮影画像としての第1画像、62…撮影画像としての第2画像、64…参照部像、67…参照部撮像装置間距離。
DESCRIPTION OF
Claims (5)
前記被測定物の形状情報を用いて参照部を設定し、前記参照部を複数の方向から見た参照部画像を生成する参照部設定工程と、
前記被測定物を複数の方向から前記撮像装置にて撮影し、複数の撮影画像を生成する撮像工程と、
前記参照部画像を用いて複数の前記撮影画像において前記参照部が撮影された参照部像の場所を検出する参照部検出工程と、
前記参照部像の場所の情報を用いて前記被測定物と前記撮像装置との距離を検出する距離測定工程と、を有することを特徴とする距離測定方法。 A distance measuring method for measuring a distance between an object to be measured and an imaging device,
A reference unit setting step for setting a reference unit using shape information of the object to be measured, and generating a reference unit image when the reference unit is viewed from a plurality of directions;
An imaging step of capturing the measured object from a plurality of directions with the imaging device and generating a plurality of captured images;
A reference part detection step of detecting a location of a reference part image obtained by photographing the reference part in the plurality of photographed images using the reference part image;
A distance measuring step of detecting a distance between the object to be measured and the imaging device using information on a location of the reference portion image.
前記参照部設定工程では前記被測定物の形状情報を用いて前記被測定物の角部を抽出し、前記参照部は前記角部を含む場所を設定することを特徴とする距離測定方法。 The distance measuring method according to claim 1,
In the reference part setting step, a corner part of the object to be measured is extracted using shape information of the object to be measured, and the reference part sets a location including the corner part.
前記参照部の候補となる場所が複数あるとき、前記角部の形状から前記参照部を選択する選択順位を設定し、前記選択順位の高い前記候補を前記参照部に選択することを特徴とする距離測定方法。 The distance measuring method according to claim 2,
When there are a plurality of locations that are candidates for the reference portion, a selection order for selecting the reference portion from the shape of the corner is set, and the candidate having a higher selection order is selected as the reference portion. Distance measurement method.
前記参照部画像は前記被測定物の立体モデルを所定の平面に投影したときの画像を演算して形成することを特徴とする距離測定方法。 The distance measuring method according to claim 3,
The distance measurement method according to claim 1, wherein the reference portion image is formed by calculating an image when a three-dimensional model of the object to be measured is projected on a predetermined plane.
前記被測定物を構成する面の法線方向ベクトルと所定の方向を示す単位ベクトルとの内積を演算した内積量を算出し、前記内積量の分布が変化する場所を検索して前記角部を検出することを特徴とする距離測定方法。 The distance measuring method according to claim 4,
The inner product amount is calculated by calculating the inner product of the normal direction vector of the surface constituting the object to be measured and the unit vector indicating a predetermined direction, and the corner portion is searched by searching for a place where the distribution of the inner product amount changes. A distance measuring method characterized by detecting.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009104794A JP2010256108A (en) | 2009-04-23 | 2009-04-23 | Distance measuring method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009104794A JP2010256108A (en) | 2009-04-23 | 2009-04-23 | Distance measuring method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010256108A true JP2010256108A (en) | 2010-11-11 |
Family
ID=43317203
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009104794A Withdrawn JP2010256108A (en) | 2009-04-23 | 2009-04-23 | Distance measuring method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010256108A (en) |
-
2009
- 2009-04-23 JP JP2009104794A patent/JP2010256108A/en not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11046530B2 (en) | Article transfer apparatus, robot system, and article transfer method | |
US9672630B2 (en) | Contour line measurement apparatus and robot system | |
JP5282717B2 (en) | Robot system | |
CN102735166B (en) | Spatial digitizer and robot system | |
US9679385B2 (en) | Three-dimensional measurement apparatus and robot system | |
CN109118543B (en) | System and method for calibrating a machine vision camera along at least three discrete planes | |
CN111028340A (en) | Three-dimensional reconstruction method, device, equipment and system in precision assembly | |
CN112161619A (en) | Pose detection method, three-dimensional scanning path planning method and detection system | |
JP7353757B2 (en) | Methods for measuring artifacts | |
JP2020047049A (en) | Image processing device and image processing method | |
CN112276936A (en) | Three-dimensional data generation device and robot control system | |
JPH11166818A (en) | Calibrating method and device for three-dimensional shape measuring device | |
JP5222430B1 (en) | Dimension measuring apparatus, dimension measuring method and program for dimension measuring apparatus | |
JPS60200111A (en) | Apparatus for recognizing three-dimensional object | |
JP2013130508A (en) | Three-dimension measurement method, three-dimension measurement program, and robot device | |
JP7448633B2 (en) | A three-dimensional measuring device that generates position information on the surface of an object based on images captured by multiple cameras. | |
JPH05196432A (en) | Measuring equipment for three-dimensional coordinates | |
JP2004354320A (en) | Recognition verification system for imaging object | |
WO2020075213A1 (en) | Measurement apparatus, measurement method, and microscopic system | |
JP2010256108A (en) | Distance measuring method | |
JP2697917B2 (en) | 3D coordinate measuring device | |
JP5610579B2 (en) | 3D dimension measuring device | |
TWM538293U (en) | Stereoscopic image system with ultra-wide depth | |
WO2022124232A1 (en) | Image processing system and image processing method | |
JP7450857B2 (en) | Measurement parameter optimization method and device, and computer control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20120703 |