JP6052871B2 - Object moving apparatus, method, program, and recording medium - Google Patents

Object moving apparatus, method, program, and recording medium Download PDF

Info

Publication number
JP6052871B2
JP6052871B2 JP2012263234A JP2012263234A JP6052871B2 JP 6052871 B2 JP6052871 B2 JP 6052871B2 JP 2012263234 A JP2012263234 A JP 2012263234A JP 2012263234 A JP2012263234 A JP 2012263234A JP 6052871 B2 JP6052871 B2 JP 6052871B2
Authority
JP
Japan
Prior art keywords
highlight
group
highlights
image
correspondence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012263234A
Other languages
Japanese (ja)
Other versions
JP2014109466A (en
Inventor
雄介 前田
雄介 前田
桂太郎 小野
桂太郎 小野
茂樹 中谷
茂樹 中谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NHK Spring Co Ltd
Yokohama National University NUC
Original Assignee
NHK Spring Co Ltd
Yokohama National University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NHK Spring Co Ltd, Yokohama National University NUC filed Critical NHK Spring Co Ltd
Priority to JP2012263234A priority Critical patent/JP6052871B2/en
Publication of JP2014109466A publication Critical patent/JP2014109466A/en
Application granted granted Critical
Publication of JP6052871B2 publication Critical patent/JP6052871B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、バラ積みされた巻ばね等、側面形状に空間部が存在して輪郭を分断された同一形状の対象物が不規則に集合した中で、各対象物を認識しハンドにより把持して移動する対象物移動装置、方法、プログラム、及び記録媒体に関する。   The present invention recognizes each object and grasps it by a hand when there are irregularly gathered objects of the same shape with a space part in the side shape and divided in outline, such as a coiled spring. The present invention relates to an object moving apparatus, a method, a program, and a recording medium.

各種産業では、ワークの把持、搬送などの取り扱いにロボットが使用されている。このようなロボットの用途の中には、収容箱内やパレット上に乱雑におかれた状態のワークの中から個々のワークの取り出しを行う用途、いわゆる「バラ積み取り出し」用途がある。   In various industries, robots are used for handling workpieces such as gripping and conveying. Among such robot applications, there is a so-called “unloading” application in which individual workpieces are extracted from workpieces in a messy state in a storage box or on a pallet.

バラ積み取り出し用途では、まずCCDカメラなどを用いた全体探索用センサによって撮像した広範囲の領域の2次元画像に基づいて、取り出すべきワークのおおよその位置を判断した後、3次元視覚センサのような精密測定用センサによる狭範囲の領域の撮像データに基づいて特定のワークの3次元位置及び姿勢の精密な測定を行い、測定されたワークの3次元位置及び姿勢に基づいて、ロボットによるワークの把持が行われる。3次元視覚センサとしては、スリット光やスポット光を対象物に投射して対象物面上に周辺よりも高輝度の光帯又は光点を形成し、これをCCDカメラ等の撮像装置によって観測して三角測量の原理によって対象物の3次元計測を行うものや、2台の撮像装置を用いてスレテオ画像処理によって対象物の位置を3次元的に計測するものが知られている。   In bulk pick-up use, first, after determining the approximate position of a work to be picked up based on a two-dimensional image of a wide area imaged by a sensor for whole search using a CCD camera or the like, a three-dimensional visual sensor or the like is used. Accurate measurement of the three-dimensional position and orientation of a specific workpiece based on image data of a narrow area by a precision measurement sensor, and gripping the workpiece by a robot based on the measured three-dimensional position and orientation of the workpiece Is done. As a three-dimensional visual sensor, slit light or spot light is projected onto an object to form a light band or light spot that is brighter than the surroundings on the object surface, and this is observed by an imaging device such as a CCD camera. For example, a device that performs three-dimensional measurement of an object based on the principle of triangulation and a device that measures the position of an object three-dimensionally by stereo image processing using two imaging devices are known.

例えば、特許文献1には、広範囲の領域の2次元画像を取得するためのCCDカメラと、狭範囲の領域でワークの3次元位置を測定するためのレーザセンサとを組み合わせて使用した複合センサロボットシステムが開示されている。   For example, Patent Document 1 discloses a composite sensor robot using a combination of a CCD camera for acquiring a two-dimensional image of a wide area and a laser sensor for measuring a three-dimensional position of a work in a narrow area. A system is disclosed.

また、特許文献2には、広範囲の領域を撮像するカメラによって検出された各ワークの部分的特徴に基づいて、検出された複数のワークの取り出し優先順位を決定する技術が開示されている。   Patent Document 2 discloses a technique for determining the priority of picking up a plurality of detected workpieces based on partial characteristics of each workpiece detected by a camera that captures a wide area.

しかし、これら従来の技術は、ボルト等連続した輪郭を備えたワークに適用され、エッジ検出が前提となるため、巻ばねのように外形が複雑で、隙間があり、奥が見えて平面部が少ない対象物では、一般に画像処理で用いられる明確な特徴がなく、適用が困難であるという問題が有る。   However, these conventional technologies are applied to workpieces with continuous contours such as bolts, and edge detection is premised, so the outer shape is complicated like a spiral spring, there are gaps, the back is visible, and the flat part is With a small number of objects, there is a problem that there is no clear feature generally used in image processing and it is difficult to apply.

国際公開第97/24206号パンフレットInternational Publication No. 97/24206 Pamphlet 特開2004−50390号公報JP 2004-50390 A

解決しようとする問題点は、巻ばね等の外形が複雑で、隙間があり、奥が見える対象物を認識しハンドにより把持して移動することが困難であった点である。   The problem to be solved is that it has been difficult to recognize an object with a complicated outer shape such as a coiled spring, a gap, and a deep view, and to grasp and move it with a hand.

本発明は、巻ばね等の外形が複雑で、隙間があり、奥が見える対象物を認識しハンドにより把持して移動することを可能とするため、形状に端面と空間部が存在して輪郭を分断された側面とを備える同一形状の対象物が不規則に集合した中で前記対象物を特定しハンドにより把持して移動する対象物移動装置であって、 前記集合した対象物全体に照明光を当てた状態で2台のカメラにより撮像された各画像を二値化処理して各反射形状のハイライトを前記画像毎にそれぞれ抽出するハイライト抽出処理部と、前記抽出されたハイライトに面積の閾値処理を施し前記対象物の側面に対応する側面のハイライトと前記対象物の端面に対応する端面のハイライトとを判別するハイライト判別処理部と、前記対象物の側面形状に対応させるための複数の特徴量を前記各側面のハイライトから抽出する特徴量抽出処理部と、前記特徴量により前記側面のハイライトを複数1組毎のグループとして前記画像毎に決定するグループ化処理部と、前記グループの前記画像間での対応を検出する対応検出処理部と、前記検出により対応したグループで前記対象物を認識し前記各カメラの位置を基準とした該対象物の位置、姿勢をステレオ画像処理により演算する位置・姿勢演算部と、前記演算された対象物の位置、姿勢により前記ハンドの動作を制御する制御部とを備えたことを対象物移動装置の特徴とする。 The present invention is a complex contour such as coil spring, there is a gap, in order to make it possible to move gripped by recognizing the object back is visible hand, if there is an end surface and a space portion in the shape contour An object moving device that identifies and moves the object with a hand while the objects of the same shape having irregularly gathered side surfaces are gathered, and illuminates the entire gathered object A highlight extraction processing unit that binarizes each image picked up by two cameras in a lighted state and extracts highlights of each reflection shape for each image, and the extracted highlights A highlight determination processing unit that performs an area threshold process to determine a highlight on a side surface corresponding to the side surface of the target object and a highlight on an end surface corresponding to the end surface of the target object, and a side shape of the target object Multiple to correspond A feature amount extraction processing unit that extracts the feature amount from the highlights on each side surface, a grouping processing unit that determines the highlights on the side surface as a group for each set based on the feature amount, and the grouping processing unit. A correspondence detection processing unit that detects correspondence between the images of the group, and stereo image processing that recognizes the object in the group corresponding to the detection and determines the position and orientation of the object based on the position of each camera The object moving device includes a position / orientation calculation unit that calculates the position of the object and a control unit that controls the operation of the hand based on the calculated position and orientation of the object.

本発明は、形状に端面と空間部が存在して輪郭を分断された側面とを備える同一形状の対象物が不規則に集合した中で前記対象物を特定しハンドにより把持して移動する対象物移動方法であって、前記集合した対象物全体に照明光を当てた状態で2台のカメラにより撮像された各画像を二値化処理して各反射形状のハイライトを前記画像毎にそれぞれ抽出するハイライト抽出ステップと、前記抽出されたハイライトに面積の閾値処理を施し前記対象物の側面に対応する側面のハイライトと前記対象物の端面に対応する端面のハイライトとを判別するハイライト判別ステップと、前記判別された端面のハイライトから最終的な端面のハイライトを決定する端面ハイライト検出ステップと、前記対象物の側面形状に対応させるための複数の特徴量を前記各側面のハイライトから抽出する特徴量抽出ステップと、前記特徴量により前記側面のハイライトを複数1組毎のグループとして前記画像毎に決定するグループ化ステップと、前記グループ及び端面のハイライトの前記画像間での対応を検出する対応検出ステップと、前記検出により対応したグループ及び端面のハイライトにより前記対象物を認識し前記各カメラの位置を基準とした該対象物の位置、姿勢を決定する位置・姿勢決定ステップと、前記対象物の位置、姿勢により前記ハンドの動作を行わせる動作ステップとを備えたことを対象物移動方法の特徴とする。 An object of the present invention is to identify and move a target by identifying the target in an irregularly assembled set of objects having an end surface and a side surface in which a space is present and the contour is divided. An object moving method, wherein each image captured by two cameras in a state in which illumination light is applied to the entire aggregated object, and binarization processing is performed for each reflection shape highlight for each image. A highlight extraction step to extract, and an area threshold process is performed on the extracted highlight to discriminate a side highlight corresponding to the side of the object and a highlight on the end corresponding to the end of the object highlight determination step, and the end face highlight detection step of determining the final end face highlights from the highlight of the discriminated end face, a plurality of feature amounts for corresponding to the side shape of the object A feature amount extraction step of extracting from the highlight of each side, grouped determining for each said image a highlight of the side as a group of a plurality set each by the feature amount, a highlight of the group and the end A correspondence detection step for detecting correspondence between the images, and a group and a face highlight corresponding to the detection to recognize the object and determine the position and orientation of the object with reference to the position of each camera. The object moving method includes a position / posture determination step to be determined and an operation step of causing the hand to move according to the position and posture of the object.

本発明は、形状に端面と空間部が存在して輪郭を分断された側面とを備える同一形状の対象物が不規則に集合した中で前記対象物を特定しハンドにより把持して移動する機能をコンピュータに実現させる対象物移動プログラムであって、前記集合した対象物全体に照明光を当てた状態で2台のカメラにより撮像された各画像を二値化処理して各反射形状のハイライトを前記画像毎にそれぞれ抽出するハイライト抽出機能と、前記抽出されたハイライトに面積の閾値処理を施し前記対象物の側面に対応する側面のハイライトと前記対象物の端面に対応する端面のハイライトとを判別するハイライト判別機能と、前記対象物の側面形状に対応させるための複数の特徴量を前記各側面のハイライトから抽出する特徴量抽出機能と、前記特徴量により前記側面のハイライトを複数1組毎のグループとして前記画像毎に決定するグループ化機能と、前記グループの前記画像間での対応を検出する対応検出機能と、前記検出により対応したグループで前記対象物を認識し前記各カメラの位置を基準とした該対象物の位置、姿勢をステレオ画像処理により演算する位置・姿勢演算機能と、前記演算された対象物の位置、姿勢により前記ハンドの動作を制御する動作制御機能とを前記機能として備えたことを対象物移動プログラムの特徴とする。 The present invention has a function of identifying and moving the object by the hand while the objects having the same shape including the end surface and the side surface where the space portion is divided and irregularly gathered are gathered irregularly. Is an object movement program for causing a computer to perform the binarization process on each image captured by two cameras in a state in which illumination light is applied to the entire assembled object, and highlights of each reflection shape. A highlight extraction function for extracting each of the images, a threshold processing of an area on the extracted highlight, and a highlight on a side surface corresponding to the side surface of the object and an end surface corresponding to the end surface of the object highlight determination function of determining a highlight, a feature extraction function for extracting a plurality of feature amounts for corresponding to the side shape of the object from the highlight of the each side, by the feature quantity And grouping function of determining for each said image a highlight of the serial side as a group of a plurality pair each, and the corresponding detection function for detecting a correspondence between the image of the group, the subject in the group corresponding with the detected A position / posture calculation function for recognizing an object and calculating the position and posture of the target object based on the position of each camera by stereo image processing, and the operation of the hand based on the calculated position and posture of the target object A feature of the object movement program is that an operation control function to be controlled is provided as the function.

本発明は、前記機能を備えた対象物認識プログラムを坦持したことを記録媒体の特徴とする。   The present invention is characterized in that the object recognition program having the above function is carried.

本発明の対象物移動装置は、上記構成であるから、形状に空間部が存在して輪郭を分断された同一形状の対象物が不規則に集合した中で、2台のカメラにより撮像された各画像の画像処理によって得られたハイライトから抽出した特徴量によりハイライトを複数1組毎のグループとし、画像間で対応したグループで対象物を認識し各カメラの位置を基準とした対象物の位置、姿勢をステレオ画像処理により演算し、ハンドの動作を制御して対象物を把持、移動することができる。   Since the object moving device of the present invention has the above-described configuration, the object having the same shape and having the space part present in the shape and divided in outline is imaged by two cameras in an irregular collection. Highlights are grouped into sets of features based on the feature values extracted from the highlights obtained by image processing of each image, and the objects are recognized by the corresponding group between the images, and the objects are based on the position of each camera. The position and orientation of the object can be calculated by stereo image processing, and the object can be grasped and moved by controlling the operation of the hand.

本発明の対象物認識方法は、上記構成であるから、形状に空間部が存在して輪郭を分断された同一形状の対象物が不規則に集合した中で、2台のカメラにより撮像された各画像の画像処理によって得られたハイライトから抽出した特徴量によりハイライトを複数1組毎のグループとし、画像間で対応したグループで対象物を認識し各カメラの位置を基準とした対象物の位置、姿勢をステレオ画像処理により決定し、この決定によるハンドの動作により対象物を把持、移動することができる。   Since the object recognition method of the present invention has the above-described configuration, the object having the same shape with the space portion existing in the shape and divided in outline is imaged by two cameras in an irregular collection. Highlights are grouped into sets of features based on the feature values extracted from the highlights obtained by image processing of each image, and the objects are recognized by the corresponding group between the images, and the objects are based on the position of each camera. The position and orientation of the object can be determined by stereo image processing, and the object can be grasped and moved by the movement of the hand based on this determination.

本発明の対象物認識プログラムは、上記構成であるから、形状に空間部が存在して輪郭を分断された同一形状の対象物が不規則に集合した中で、2台のカメラにより撮像された各画像の画像処理によって得られたハイライトから抽出した特徴量によりハイライトを複数1組毎のグループとし、画像間で対応したグループで対象物を認識し各カメラの位置を基準とした対象物の位置、姿勢をステレオ画像処理により演算し、ハンドの動作を制御して対象物を把持、移動する機能をコンピュータに実現させることができる。   Since the object recognition program according to the present invention has the above-described configuration, the object having the same shape with the space portion present in the shape and divided in outline is irregularly gathered and captured by two cameras. Highlights are grouped into sets of features based on the feature values extracted from the highlights obtained by image processing of each image, and the objects are recognized by the corresponding group between the images, and the objects are based on the position of each camera. The position and orientation of the object can be calculated by stereo image processing, and the function of grasping and moving the object by controlling the operation of the hand can be realized by the computer.

本発明の記録媒体は、上記構成であるから、各対象物を認識しハンドにより把持し移動する機能を実現させるための対象物認識プログラムを坦持し、コンピュータに読み取らせることができる。   Since the recording medium of the present invention has the above-described configuration, it can carry an object recognition program for realizing a function of recognizing each object and grasping and moving it by a hand, and can be read by a computer.

対象物移動装置のブロック図である。(実施例1)It is a block diagram of a target object moving apparatus. Example 1 対象物特定装置のブロック図である。(実施例1)It is a block diagram of a target object specifying device. Example 1 (A)は、カメラの画像データ、(B)は、(A)の二値化画像データ、(C)は、側面ハイライトの画像データ、(D)は、端面ハイライトの画像データである。(実施例1)(A) is image data of the camera, (B) is binarized image data of (A), (C) is image data of side highlight, and (D) is image data of end face highlight. . Example 1 側面ハイライトの面積等を示す説明図である。(実施例1)It is explanatory drawing which shows the area of a side highlight, etc. Example 1 側面ハイライトの湾曲を示す説明図である。(実施例1)It is explanatory drawing which shows the curve of a side surface highlight. Example 1 座標の回転を示す説明図である。(実施例1)It is explanatory drawing which shows rotation of a coordinate. Example 1 側面ハイライトの湾曲方向を示す説明図である。(実施例1)It is explanatory drawing which shows the curve direction of a side highlight. Example 1 側面ハイライトの湾曲方向を示す説明図である。(実施例1)It is explanatory drawing which shows the curve direction of a side highlight. Example 1 側面ハイライト情報からの端面の検出を示す説明図である。(実施例1)It is explanatory drawing which shows the detection of the end surface from side highlight information. Example 1 端面ハイライトの結合を示す画像データである。(実施例1)It is image data which shows the coupling | bonding of an end surface highlight. Example 1 最終的な端面ハイライトの検出を示す画像データである。(実施例1)It is image data which shows detection of final end face highlight. Example 1 側面ハイライトのグループ化及び端面ハイライトの検出を示す画像データである。(実施例1)It is image data which shows grouping of a side surface highlight, and detection of an end surface highlight. Example 1 側面ハイライトのグループ化及び端面ハイライトの検出を示す画像データである。(実施例1)It is image data which shows grouping of a side surface highlight, and detection of an end surface highlight. Example 1 ステレオ画像処理装置の模式図である。(実施例1)It is a schematic diagram of a stereo image processing apparatus. Example 1 (A)は、各側面ハイライトの重心及びグループの重心を示し、(B)は、グループの並びの向きを示す説明図である。(実施例1)(A) shows the center of gravity of each side highlight and the center of gravity of the group, and (B) is an explanatory diagram showing the direction of the arrangement of the groups. Example 1 グループ重心間距離に係り、グループ重心のx座標を表示した側面ハイライトのグループを左右で示す説明図である。(実施例1)It is explanatory drawing which shows the group of the side highlight which displayed the x coordinate of the group gravity center in connection with the distance between group gravity centers on the right and left. Example 1 側面ハイライトの対応付けに係り、グループ重心を表示した側面ハイライトのグループを左右で示す説明図である。(実施例1)It is explanatory drawing which shows the group of the side highlight which displayed the group gravity center in relation to matching of a side highlight on right and left. Example 1 左右の側面ハイライトのグループが水平状態であることを示す説明図である。(実施例1)It is explanatory drawing which shows that the group of a left and right side surface highlight is a horizontal state. Example 1 左右の側面ハイライトのグループの元画像マッチング及び領域の拡大を示す説明図である。(実施例1)It is explanatory drawing which shows the original image matching of the group of a left and right side surface highlight, and expansion of an area | region. Example 1 巻ばねの高さと姿勢の定義に係る説明図である。(実施例1)It is explanatory drawing which concerns on the definition of the height and attitude | position of a winding spring. Example 1 変数を示すカメラの鳥瞰図である。(実施例1)It is a bird's-eye view of the camera which shows a variable. Example 1 巻ばねの姿勢評価に係る説明図である。(実施例1)It is explanatory drawing which concerns on the attitude | position evaluation of a winding spring. Example 1 (A)は、左右の元画像を示す説明図、(B)は、左右画像でのグルーピングを示す説明図、(C)は、左右グループの対応を示す説明図である。(実施例1)(A) is an explanatory view showing left and right original images, (B) is an explanatory view showing grouping in the left and right images, and (C) is an explanatory view showing correspondence between the left and right groups. Example 1 (A)は、左右画像でのグルーピングを示す拡大説明図、(B)は、左右グループの対応を示す拡大説明図である。(実施例1)(A) is an enlarged explanatory view showing grouping in the left and right images, and (B) is an enlarged explanatory view showing correspondence between the left and right groups. Example 1 (A)は、左右画像でのグルーピングを示す拡大説明図、(B)は、左右グループの対応を示す拡大説明図である。(実施例1)(A) is an enlarged explanatory view showing grouping in the left and right images, and (B) is an enlarged explanatory view showing correspondence between the left and right groups. Example 1 (A)は、左右画像でのグルーピングを示す拡大説明図、(B)は、左右グループの対応を示す拡大説明図である。(実施例1)(A) is an enlarged explanatory view showing grouping in the left and right images, and (B) is an enlarged explanatory view showing correspondence between the left and right groups. Example 1 鉛直方向からのアプローチによる巻ばねのピッキングを示し、(A)は、θ=0、(B)は、0<θ<90°、(C)は、θ=90°の説明図である。(実施例1)The picking of the winding spring by the approach from the vertical direction is shown, (A) is θ = 0, (B) is 0 <θ <90 °, and (C) is an explanatory diagram of θ = 90 °. Example 1 姿勢に応じたアプローチによる巻ばねのピッキングを示し、(A)は、θ=90°、(B)は、0≦θ<45°、(C)は、45°≦θ<90°の説明図である。(実施例1)The winding spring picking by the approach according to the posture is shown, (A) is θ = 90 °, (B) is 0 ≦ θ <45 °, (C) is 45 ° ≦ θ <90 ° It is. Example 1 ピッキングに係るフローチャートである。(実施例1)It is a flowchart which concerns on picking. Example 1 巻ばね認識のサブルーチンを示し、側面ハイライト及び端面ハイライトの検出に係るフローチャートである。(実施例1)FIG. 5 is a flowchart illustrating a subroutine for recognizing a winding spring and relating to detection of side highlights and end highlights. Example 1 巻ばね認識のサブルーチンを示し、側面ハイライトの仮グループ化に係るフローチャートである。(実施例1)It is a flowchart which shows the subroutine of a winding spring recognition, and relates to temporary grouping of a side surface highlight. Example 1 巻ばね認識のサブルーチンを示し、側面ハイライトのグループ化に係るフローチャートである。(実施例1)FIG. 6 is a flowchart illustrating a grouping of side highlights, showing a subroutine for winding spring recognition. Example 1 側面ハイライトグループ間対応検出のサブルーチンを示し、左右グループの対応付けに係るフローチャートである。(実施例1)FIG. 6 is a flowchart showing a correspondence between side highlight groups, showing a subroutine for detecting correspondence between side highlight groups. FIG. Example 1 側面ハイライトグループ間対応検出のサブルーチンを示し、ハイライト間対応検出に係るフローチャートである。(実施例1)FIG. 10 is a flowchart related to detection of correspondence between highlights, showing a subroutine for detection of correspondence between side highlight groups. FIG. Example 1 側面ハイライトグループ間対応検出のサブルーチンを示し、画像マッチング検出に係るサブルーチンのフローチャートである。(実施例1)5 is a flowchart of a subroutine relating to image matching detection, showing a subroutine for detecting correspondence between side highlight groups. Example 1

巻ばね等の外形が複雑で、隙間があり、奥が見える対象物を認識しハンドにより把持して移動することを可能とするため、ばら積みされた巻ばね3・・・の中で巻ばね3を特定しハンド1011により把持して移動する対象物移動装置1001であって、巻ばね3・・・全体に照明光を当てた状態で2台のカメラ1005,1007により撮像された各画像を二値化処理して各反射形状のハイライトを画像毎にそれぞれ抽出するハイライト抽出処理部13と、巻ばね3の形状に対応させるための特徴量を各ハイライトから抽出する特徴量抽出処理部17と、特徴量によりハイライトを複数1組毎のグループとして画像毎に決定するグループ化処理部19、21と、グループの画像間での対応を検出する対応検出処理部25と、検出により対応したグループで巻ばね3を認識し各カメラ1005,1007の位置を基準とした巻ばね3の位置、姿勢をステレオ画像処理により演算する位置・姿勢演算部27と、演算された巻ばね3の位置、姿勢によりハンド1011の動作を制御するロボットコントローラ1009とを備えたことにより実現した。   In order to recognize an object with a complicated outer shape such as a coil spring, a gap, and a deep view, and to grasp and move the object by a hand, the coil spring 3 in the coiled springs 3. The object moving device 1001 that moves by gripping with the hand 1011 and illuminating the entire winding spring 3... A highlight extraction processing unit 13 that extracts a highlight of each reflection shape for each image by performing a digitization process, and a feature amount extraction processing unit that extracts a feature amount corresponding to the shape of the winding spring 3 from each highlight 17, grouping processing units 19 and 21 for determining a plurality of highlights as a group for each set according to a feature amount for each image, a correspondence detection processing unit 25 for detecting correspondence between images in the group, and corresponding by detection A position / attitude calculation unit 27 for recognizing the winding spring 3 in a group and calculating the position and orientation of the winding spring 3 based on the positions of the cameras 1005 and 1007 by stereo image processing, and the calculated position of the winding spring 3 This is realized by including a robot controller 1009 that controls the operation of the hand 1011 according to the posture.

[対象物移動装置]
図1は、対象物移動装置のブロック図である。なお、以下の説明において左をL、右をRと略称する。
[Object moving device]
FIG. 1 is a block diagram of the object moving device. In the following description, the left is abbreviated as L and the right is abbreviated as R.

対象物移動装置1001は、対象物特定装置1003、左右2台のカメラ(L)1005、カメラ(R)1007、ロボット・コントローラ1009、ロボット/ハンド1011を備えている。   The object moving device 1001 includes an object specifying device 1003, two left and right cameras (L) 1005, a camera (R) 1007, a robot controller 1009, and a robot / hand 1011.

対象物特定装置1003は、形状に空間部が存在して輪郭を分断された同一形状の対象物が不規則に集合した中で前記対象物を特定しハンドにより把持して移動するものである。   The object specifying device 1003 is an apparatus for specifying the object, holding it with a hand, and moving it, while objects of the same shape, which have a space portion in the shape and whose outlines are divided, are irregularly gathered.

対象物として、例えば巻ばねを適用している。巻ばねは、外形が複雑で、隙間があり、奥が見える形状であり、側面形状に空間部が存在して輪郭を分断された同一形状の対象物、すなわち、リング状の端面と空間部が存在して輪郭を分断された側面とを備えた同一形状の対象物の一例となる。この各巻ばねが、トレー内にばら積みされ、不規則に集合し、このばら積みの各巻ばねの中で、対象物特定装置1003は、各巻ばねを認識し、位置、姿勢を特定する。巻ばねの認識とは、2台のカメラ画像から個々の巻ばねがどこに存在するかを検出することであり、この認識の結果からステレオ画像処理により位置、姿勢を演算し、ピッキング対象の位置、姿勢を特定する。   For example, a coil spring is applied as the object. A spiral spring has a complicated outer shape, a gap, and a shape that allows the back to be seen.There is a space portion in the side surface shape, and an object having the same shape that is divided in outline, that is, a ring-shaped end surface and a space portion. It becomes an example of the object of the same shape provided with the side surface which existed and the outline was divided. Each of the spiral springs is stacked in a tray and irregularly gathers, and the object identifying device 1003 recognizes each spiral spring and identifies the position and orientation in each of the spiral springs. The recognition of the winding spring is to detect where the individual winding springs exist from the two camera images. From the result of this recognition, the position and orientation are calculated by stereo image processing, the position of the picking target, Identify posture.

すなわち、対象物特定装置1003は、例えばCPU、ROM、RAM等を備えたコンピュータで構成され、左右2台のカメラ(L)1005、カメラ(R)1007で撮像した画像を入力し、対象物の認識を行い、位置、姿勢を演算してピッキング対象を特定する。   In other words, the object specifying device 1003 is configured by a computer including a CPU, a ROM, a RAM, and the like, for example, and inputs images captured by the left and right cameras (L) 1005 and the camera (R) 1007, and Recognize and calculate the position and orientation to identify the picking target.

ロボット・コントローラ1009は、制御部を構成し、前記のように演算された対象物の位置、姿勢によりハンド、すなわち、ロボット/ハンド1011の動作を制御し、後述のようにグリッパにより巻ばねを把持し移動させるものである。   The robot controller 1009 constitutes a control unit, controls the operation of the hand, that is, the robot / hand 1011 based on the position and orientation of the object calculated as described above, and holds the winding spring with a gripper as will be described later. And move it.

したがって、トレー内にばら積みされた巻ばねを左右2台のカメラ(L)1005、カメラ(R)1007で撮像し、その左右各画像から対象物特定装置1003がトレー内の巻ばねを認識し、その結果位置、姿勢を推定し、ロボット・コントローラ1009によりロボット/ハンド1011が制御され、グリッパにより巻ばねが把持され順次所定箇所へ移動させることができる。   Therefore, the left and right cameras (L) 1005 and the camera (R) 1007 capture images of the spiral springs stacked in the tray, and the object identifying device 1003 recognizes the spiral springs in the tray from the left and right images. As a result, the position and orientation are estimated, the robot / hand 1011 is controlled by the robot controller 1009, the winding spring is gripped by the gripper, and can be sequentially moved to a predetermined location.

図2は、対象物特定装置のブロック図である。   FIG. 2 is a block diagram of the object identification device.

図2のように、対象物特定装置1003は、各巻ばね3が、トレー5内にばら積みされ、不規則に集合している中で、各巻ばね3を特定する。この巻ばね3の特定とは、上記のようにカメラ画像から個々の巻ばね3がどこに存在しどのような姿勢に有るかを検出することである。   As shown in FIG. 2, the object specifying device 1003 specifies each winding spring 3 while the winding springs 3 are stacked in an irregular manner in the tray 5. The identification of the winding spring 3 is to detect where each winding spring 3 exists and in what posture from the camera image as described above.

この対象物特定装置1003は、ばら積みされた巻ばね3・・・の認識を行う対象物認識部1を備えている。この巻ばね3の認識とは、カメラ画像から個々の巻ばね3がどこに存在するかを検出することである。   This object specifying device 1003 includes an object recognizing unit 1 that recognizes the wound springs 3. The recognition of the winding spring 3 is to detect where the individual winding springs 3 are present from the camera image.

トレー5内の巻ばね3・・・に、照明具として、例えばLEDスポットライト7により照明光が当てられ、この集合した対象物全体であるばら積みの巻ばね3・・・の全体に照明光を当てた状態で2台のカメラ1005、1007により撮像され、画像データが対象物認識部1へ入力され、データ記憶部11に記憶保持される。なお、図示の便宜上、2台のカメラ1005、1007を一つのブロックとして示している。   Illumination light is applied to the coil springs 3... In the tray 5 by, for example, an LED spotlight 7 as an illuminator, and the illumination light is applied to the entire bulk springs 3. Images are captured by the two cameras 1005 and 1007 in the applied state, and image data is input to the object recognition unit 1 and stored and held in the data storage unit 11. For convenience of illustration, two cameras 1005 and 1007 are shown as one block.

対象物認識部1は、左右のカメラ1005、1007毎に処理を行い、左右画像でのグループ化処理及び端面ハイライト検出を行うものである。ここで、認識方法の概要を述べておく。巻ばねは、その形状に、
・平面部が少ない
・同じような形状が連続している
・隙間があり奥が見えてしまう
などの特徴があるため、一般に画像処理で用いられる形状特徴に乏しい。したがって、巻ばねが三次元的にばら積みされている場合は、汎用的な画像処理手法による認識は困難であった。
The object recognition unit 1 performs processing for each of the left and right cameras 1005 and 1007, and performs grouping processing and edge highlight detection on the left and right images. Here, the outline of the recognition method will be described. The shape of the coil spring is
・ There are few flat parts ・ Similar shapes are continuous ・ There are gaps and the back is visible, so the shape characteristics generally used in image processing are poor. Therefore, when the winding springs are three-dimensionally stacked, recognition by a general-purpose image processing method is difficult.

これに対し、本発明実施例の手法では、照明によって巻ばねに生じるハイライト(図3)に着目して認識する。通常、ハイライトは元の物体を隠してしまうものとして画像処理では敬遠されることが多い。しかし、巻ばねでは規則的にハイライトができることを利用し、認識処理を単純化することに成功した。   On the other hand, in the method of the embodiment of the present invention, recognition is performed by paying attention to highlights (FIG. 3) generated in the winding spring by illumination. Usually, highlights are often avoided in image processing because they hide the original object. However, we succeeded in simplifying the recognition process by utilizing the fact that the winding springs can be regularly highlighted.

認識処理ではまず、カメラ画像を二値化することによってハイライト部分を抽出する。巻ばねが寝ている場合には側面ハイライトが抽出され、立っている場合には端面ハイライトが主に抽出される。面積(ピクセル数)によって側面ハイライトと端面ハイライトとを分ける。面積が小さいもの、あるいは中途半端なものは、認識に利用するには不適切なハイライト(ノイズや複数のハイライトが結合してしまったものなど)として無視する。続いて、側面ハイライトについては、同一巻ばねに属するものをグルーピングする。グルーピングができれば、その巻ばねを認識できたと言ってよい。   In the recognition process, first, a highlight portion is extracted by binarizing the camera image. Side highlights are extracted when the winding spring is sleeping, and end highlights are mainly extracted when standing. Side highlights and edge highlights are divided according to area (number of pixels). Small areas or half-finished areas are ignored as highlights that are inappropriate for use in recognition (such as noise or a combination of multiple highlights). Subsequently, for the side highlights, those belonging to the same winding spring are grouped. If grouping is possible, it can be said that the spring has been recognized.

同一の巻ばねに属するハイライトは、
・距離が近接している
・形状が類似している
・一定間隔で一直線上に並んでいる
という性質があるので、これを利用してグルーピングを行う。距離の近接はハイライト重心間の距離をチェックし、形状の類似はハイライト面積(ピクセル数)・ハイライトに対する画像楕円の長軸方向・湾曲情報を表す三次元画像モーメントを用いる。一定間隔で一直線上に並んでいることは、ハイライト重心を見てチェックする。一定数以上のハイライトを同一のグループにまとめることができれば、一つの巻ばねを認識したとみなす。
Highlights belonging to the same spring are
・ Distance is close. ・ Shapes are similar. ・ Since they are arranged in a straight line at regular intervals, grouping is performed using this. The proximity of the distance checks the distance between the highlight centroids, and the similarity of the shape uses a highlight area (number of pixels), the major axis direction of the image ellipse with respect to the highlight, and a three-dimensional image moment representing curvature information. Check that the lines are aligned at regular intervals by looking at the center of gravity of the highlight. If more than a certain number of highlights can be grouped in the same group, it is considered that one winding spring has been recognized.

寝ているばねでありながら少数の側面ハイライトしか検出できないものは、他の巻ばねの下に一部が隠されているなどの状況であり、ピッキングには適さないと予想される。したがって、この時点で認識できなくてもかまわない(ピッキング作業が進むにつれて認識される)。   A sleeping spring that can detect only a few side highlights is a situation where a part of the spring is hidden under other winding springs and is not suitable for picking. Therefore, it may not be recognized at this time (recognized as the picking operation proceeds).

端面ハイライトについては、それが一つ検出できれば、巻ばねを一つ認識できたと言える。端面はほぼ円形をしており、画像上は巻ばねの傾きに応じた楕円形になるとみなせる。そこで、楕円当てはめに成功したものを端面として検出する。本手法を実装し認識を行った結果の例は、後述する。   If one end face highlight is detected, it can be said that one winding spring can be recognized. The end face has a substantially circular shape and can be regarded as an ellipse according to the inclination of the winding spring on the image. Therefore, an end face that is successfully fitted to the ellipse is detected. An example of the result of implementing and recognizing this method will be described later.

そこで、対象物認識部1は、データ記憶部11の他、ハイライト抽出処理部13と、ハイライト判別処理部15と、特徴量抽出処理部17と、仮グループ化処理部19と、グループ化処理部21と、端面ハイライト検出部22と、登録部23とを備えている。なお、対象物が巻ばね3以外であり、球状等で有ればハイライト判別処理部15は、省略することもできる。   Therefore, the object recognition unit 1 includes, in addition to the data storage unit 11, a highlight extraction processing unit 13, a highlight discrimination processing unit 15, a feature amount extraction processing unit 17, a temporary grouping processing unit 19, and a grouping. A processing unit 21, an end face highlight detection unit 22, and a registration unit 23 are provided. Note that the highlight determination processing unit 15 may be omitted if the object is other than the winding spring 3 and has a spherical shape or the like.

ハイライト抽出処理部13は、画像を二値化処理して各反射形状のハイライトを抽出するものである。   The highlight extraction processing unit 13 binarizes the image to extract highlights of each reflection shape.

すなわち、カメラ1005、1007による画像データをデータ記憶部11から読み出し、二値化処理してハイライトを抽出する。   That is, image data from the cameras 1005 and 1007 is read from the data storage unit 11 and binarized to extract highlights.

ハイライト判別処理部15は、ハイライトを抽出した二値化画像データに面積の閾値処理を施し巻ばね3の側面に対応する側面のハイライト(以下、「側面ハイライト」と称する。)と巻ばね3の端面に対応する端面のハイライト(以下、「端面ハイライト」と称する。)とを判別するものである。   The highlight discrimination processing unit 15 performs area threshold processing on the binarized image data from which highlights are extracted, and is a side highlight corresponding to the side of the winding spring 3 (hereinafter referred to as “side highlight”). The highlight of the end surface corresponding to the end surface of the winding spring 3 (hereinafter referred to as “end surface highlight”) is discriminated.

すなわち、データ記憶部11から二値化画像データを読み出し、ラべリングにより得られた領域から面積の閾値により側面ハイライトと端面ハイライトとを抽出する。抽出した側面ハイライト及び端面ハイライトは、データ記憶部11に記憶される。   That is, the binarized image data is read from the data storage unit 11, and the side surface highlight and the end surface highlight are extracted from the region obtained by the labeling based on the area threshold. The extracted side surface highlight and end surface highlight are stored in the data storage unit 11.

特徴量抽出処理部17は、巻ばね3の側面形状(対象物の形状)に対応させるための複数の特徴量を各側面ハイライト(ハイライト)から抽出するものである。   The feature amount extraction processing unit 17 extracts a plurality of feature amounts to correspond to the side surface shape (the shape of the object) of the winding spring 3 from each side surface highlight (highlight).

すなわち、データ記憶部11から側面ハイライトを順に読み出し、各側面ハイライトから、特徴量としてハイライトの形状、ハイライトの直線的な並び、間隔、及び数を抽出する。側面ハイライトの形状は、例えば、側面ハイライトの面積と側面ハイライトの長軸方向と側面ハイライトの湾曲情報としている。   That is, the side highlights are sequentially read from the data storage unit 11, and the shape of the highlight, the linear arrangement of the highlights, the interval, and the number are extracted as feature amounts from each side highlight. The shape of the side highlight is, for example, the area of the side highlight, the major axis direction of the side highlight, and the curvature information of the side highlight.

湾曲情報は、後述のように楕円の当てはめによる湾曲の大きさや向きとし、さらに精度を高めるために、後述のように画像モーメントを導入することもできる。画像モーメントでは、後述のように側面ハイライトの湾曲の大きさを3次モーメントとし、向きを3次モーメントの正負とする。   As described later, the curvature information is the size and direction of bending by fitting an ellipse, and an image moment can be introduced as described later in order to further improve accuracy. In the image moment, as will be described later, the curvature of the side highlight is the third moment, and the direction is the positive or negative of the third moment.

仮グループ化処理部19は、複数の特徴量から選択した特定の特徴量により側面ハイライトを複数1組毎の仮グループとする処理を行う。   The temporary grouping processing unit 19 performs a process of making side highlights into a temporary group for each set based on a specific feature amount selected from a plurality of feature amounts.

すなわち、データ記憶部11から側面ハイライトを順に読み出し、特徴量として特定した形状の近さにより側面ハイライトを複数1組毎の仮グループとする処理を行う。この仮グループ化処理部19は、形状を側面ハイライトの面積と側面ハイライトの長軸方向と側面ハイライトの湾曲情報とする処理を行う。   That is, side highlights are sequentially read from the data storage unit 11, and processing is performed in which a plurality of side highlights are set as a temporary group for each set according to the proximity of the shape specified as the feature amount. The tentative grouping processing unit 19 performs a process of converting the shape into the area of the side highlight, the major axis direction of the side highlight, and the curvature information of the side highlight.

この場合、仮グループ化処理部19は、側面ハイライトの一つを選択すると共に近傍の側面ハイライトをリストアップしてから上記の仮グループとする処理を行う。   In this case, the temporary grouping processing unit 19 selects one of the side highlights and lists nearby side highlights, and then performs the above-described temporary group processing.

グループ化処理部21は、仮グループとされた側面ハイライトを複数の特徴量から選択した特定の他の特徴量によりグループとして決定する処理を行う。   The grouping processing unit 21 performs a process of determining the side highlights set as temporary groups as groups based on other specific feature amounts selected from a plurality of feature amounts.

すなわち、データ記憶部11から仮グループを順に読み出し、特徴量として選択した他の特徴量として側面ハイライトの直線的な並び、間隔、及び数により仮グループをグループとして決定する処理を行う。   That is, a temporary group is sequentially read from the data storage unit 11, and a process of determining the temporary group as a group based on the linear arrangement, interval, and number of side highlights as other feature values selected as the feature value is performed.

この場合、グループ化処理部21は、仮グループを順次選択すると共にこの選択された仮グループ毎にグループとして決定する処理を行う。   In this case, the grouping processing unit 21 sequentially selects temporary groups and performs a process of determining a group for each selected temporary group.

端面ハイライト検出部22は、判別された端面のハイライトから最終的な端面のハイライトを決定するものである。本実施例の端面ハイライト検出部22は、ノイズとして除外された面積の大きなハイライトに収縮処理をかけ且つ端面のハイライトとみなす閾値範囲に入っていることにより大きなハイライトを切り離してそれぞれ端面のハイライトとする。この端面のハイライトから後述のように最終的な端面ハイライトが決定される。具体的には後述する。   The end face highlight detection unit 22 determines the final end face highlight from the determined end face highlight. The end face highlight detection unit 22 according to the present embodiment separates a large highlight by applying a contraction process to a large area highlight excluded as noise and is regarded as a highlight of the end face, thereby separating each end face. The highlight of The final end face highlight is determined from the end face highlight as described later. Details will be described later.

決定された側面ハイライトのグループ及び端面ハイライトは、登録部23に登録される。   The determined side highlight group and end face highlight are registered in the registration unit 23.

前記対象物特定装置1003は、前記対象物認識部1の他に、対応検出処理部25及び位置・姿勢演算部27を備えている。   The object specifying device 1003 includes a correspondence detection processing unit 25 and a position / attitude calculation unit 27 in addition to the object recognition unit 1.

対応検出処理部25は、グループの左右の画像間での対応を検出し、位置・姿勢演算部27は、検出により対応したグループで巻ばね3・・・を認識し、各カメラ1005、1007の位置を基準とした巻ばね3・・・の位置、姿勢をステレオ画像処理により演算する。   The correspondence detection processing unit 25 detects the correspondence between the left and right images of the group, and the position / posture calculation unit 27 recognizes the winding springs 3... The position and orientation of the winding springs 3... With respect to the position are calculated by stereo image processing.

本実施例の対応検出処理部25は、端面ハイライトの左右画像間での対応も検出し、位置・姿勢演算部27は、検出により対応したグループ及び端面ハイライトにより巻ばね3・・・を認識し、各カメラ1005、1007の位置を基準とした巻ばね3・・・の位置、姿勢をステレオ画像処理により演算する。   The correspondence detection processing unit 25 of the present embodiment also detects the correspondence between the left and right images of the end face highlight, and the position / posture calculation unit 27 detects the winding springs 3... By the corresponding group and end face highlight by the detection. The position and orientation of the winding springs 3... With respect to the positions of the cameras 1005 and 1007 are calculated by stereo image processing.

この場合、対応検出処理部25は、グループの対応をハイライトの面積、重心位置、並びの向き、グループ重心間距離、数、重心の縦方向位置の何れかの組み合わせにより後述のように検出する。   In this case, the correspondence detection processing unit 25 detects the correspondence of the group by any combination of highlight area, centroid position, alignment direction, distance between group centroids, number, and vertical position of the centroid as described later. .

対応検出処理部25は、側面ハイライトのグループの並びの向きが水平又は水平と看做されるときカメラ1005、1007により撮像された各画像の対比によりグループの対応を検出する。すなわち、カメラ1005、1007により撮像された各元画像に戻って画像マッチングにより対応を検出する。元画像を用いることで、ハイライト以外の部分や周囲のばねの情報なども利用して適切な対応関係を得ることが可能となる。   The correspondence detection processing unit 25 detects the correspondence between the groups by comparing the images captured by the cameras 1005 and 1007 when the orientation of the side highlight group is considered horizontal or horizontal. That is, returning to each original image captured by the cameras 1005 and 1007, the correspondence is detected by image matching. By using the original image, it is possible to obtain an appropriate correspondence relationship using information other than highlights and information on surrounding springs.

したがって、対応検出処理部25は、水平又は水平と看做されるグループを含むカメラ1005、1007により撮像された元画像内の探索領域を拡大して周辺情報を含めるように設定する。   Therefore, the correspondence detection processing unit 25 sets the search area in the original image captured by the cameras 1005 and 1007 including the group regarded as horizontal or horizontal to include the peripheral information.

こうして、ばら積みされた巻ばね3・・・を夫々認識し、位置、姿勢をステレオ画像処理により検出することが可能となり、ばら積みされた巻ばね3・・・のロボットによるピッキングの自動化に供することができる。
[巻ばねの認識]
(ハイライトの抽出と判別)
図3(A)は、カメラの画像データ、(B)は、(A)の二値化画像データ、(C)は、側面ハイライトの画像データ、(D)は、端面ハイライトの画像データである。
In this way, it is possible to recognize each of the stacked springs 3... And to detect the position and orientation by stereo image processing, and to provide automated picking by the robot of the stacked springs 3. it can.
[Recognition of coil spring]
(Highlight extraction and discrimination)
3A is image data of the camera, FIG. 3B is binary image data of FIG. 3A, FIG. 3C is image data of side highlights, and FIG. 3D is image data of edge highlights. It is.

ハイライトの抽出と判別は、LEDスポットライト7の照明光が巻ばね3に当たることでできるハイライトに着目する。カメラ1005、1007で捉えた図3(A)の画像データに二値化処理を施すと図3(B)のようにハイライトが抽出できる。図3(B)の二値化画像データに対し、ハイライトの面積で閾値処理を施し、ノイズを除去し、図3(C)の側面ハイライトと図3(D)の端面ハイライトとを判別する。   For highlight extraction and discrimination, attention is paid to highlights that can be generated when the illumination light of the LED spotlight 7 strikes the winding spring 3. When binarization processing is performed on the image data of FIG. 3A captured by the cameras 1005 and 1007, highlights can be extracted as shown in FIG. 3B. The binarized image data of FIG. 3B is subjected to threshold processing with the area of the highlight, noise is removed, and the side surface highlight of FIG. 3C and the end surface highlight of FIG. Determine.

(楕円当てはめによるグルーピング)
本発明実施例のハイライトのグルーピングは、後述の画像モーメントによるものであり、制御フローチャートも画像モーメントによる処理である。しかし、楕円当てはめによるグルーピングを排除するものではなく、画像モーメントによるグルーピングの前に若干精度は落ちるものの、グループ化できる可能性のあるものとしてその手順を先に述べておく。
(Grouping by ellipse fitting)
The highlight grouping according to the embodiment of the present invention is based on an image moment described later, and the control flowchart is also a process based on the image moment. However, it does not exclude the grouping by the ellipse fitting, and the procedure is described first as the possibility of grouping although the accuracy is slightly lowered before the grouping by the image moment.

図4は、側面ハイライトの面積等を示す説明図、図5は、側面ハイライトの湾曲を示す説明図である。   FIG. 4 is an explanatory diagram showing the area of the side highlight, and FIG. 5 is an explanatory diagram showing the curvature of the side highlight.

側面ハイライトは、端面ハイライトと異なり、一つのハイライトから巻ばね3の情報を得ることは困難である。そこで、同一の巻ばね3について側面ハイライトのグルーピングを行う。   The side highlight is different from the end highlight, and it is difficult to obtain the information of the winding spring 3 from one highlight. Therefore, side highlight grouping is performed on the same winding spring 3.

この場合、グルーピングに必要な各側面ハイライトのパラメータ(特徴量)を求めることになる。以下で計算方法を説明する。   In this case, parameters (features) of each side highlight necessary for grouping are obtained. The calculation method will be described below.

・ハイライトの面積、長軸方向、ハイライト間距離(図4)
ハイライトの面積harea[pixel]、長軸方向hlaxis[deg]は画像のモーメントから計算することができる。また、画像モーメントからハイライトの重心座標を計算することができる。ここで、ハイライトの重心座標間の距離をハイライト間距離dr[pixel]と定義する。
-Highlight area, long axis direction, distance between highlights (Figure 4)
The area h area [pixel] of the highlight and the long axis direction h laxis [deg] can be calculated from the moment of the image. Also, the barycentric coordinates of the highlight can be calculated from the image moment. We define the distance between the center coordinates of the highlight highlight distance d r [pixel] and.

・ハイライトの湾曲(図5)
ハイライトの湾曲を求めるために、ハイライトのスケルトンを抽出する。抽出したスケルトンを構成する点群に楕円を当てはめ、当てはめた楕円の中心とスケルトン間で最短距離となるスケルトン上の点を求める。当てはめた楕円中心と求めたスケルトン上の点を結ぶ直線の長さを、湾曲の大きさcmag[pixel]とし、向きをハイライトの湾曲の向きcdir[deg]とする。
・ Curve of highlight (Fig. 5)
To find the curvature of the highlight, extract the highlight skeleton. An ellipse is fitted to the point group constituting the extracted skeleton, and a point on the skeleton that is the shortest distance between the center of the fitted ellipse and the skeleton is obtained. The length of the straight line connecting the fitted ellipse center and the obtained point on the skeleton is defined as the curvature size c mag [pixel], and the direction is the highlight curvature direction c dir [deg].

次に、以下のパラメータについて閾値を設定し、側面ハイライトのグルーピングを行う。   Next, threshold values are set for the following parameters, and side highlight grouping is performed.

・ハイライトの面積:harea [pixel]
・ハイライトの長軸方向:hlaxis [deg](0laxis<180°)
・ハイライトの湾曲の大きさ:cmag [pixel]
・ハイライトの湾曲の向き:cdir [deg](0dir <360°)
・ハイライト間距離:dr [pixel]
ハイライトのグルーピングの手順は、以下の通りである。
-Highlight area: h area [pixel]
-Long axis direction of highlight: h laxis [deg] (0 h laxis <180 °)
・ Highlight curve size: c mag [pixel]
-Direction of curvature of highlight: c dir [deg] (0 c dir <360 °)
・ Distance between highlights: dr [pixel]
The procedure for highlight grouping is as follows.

(1)検出したすべての側面ハイライトからハイライトを一つ選ぶ(基準ハイライト)
(a)基準ハイライトの湾曲が大きい場合
i.基準ハイライト以外のハイライトで湾曲が大きいハイライトを選ぶ。
ii.ハイライトの面積harea、長軸方向hlaxis、ハイライト間距離dr、湾曲の向きcdirを比較し、条件を満たす場合に基準ハイライトのグループに含める。
iii.すべてのハイライトに対して(a)のi、iiを行う。
(b)基準ハイライトの湾曲が小さい場合
i.基準ハイライト以外のハイライトで湾曲が小さいハイライトを選ぶ。
ii.ハイライトの面積harea、長軸方向hlaxis、ハイライト間距離drを比較し、条件を満たす場合に基準ハイライトのグループに含める。
iii.すべてのハイライトに対して(b)のi、iiを行う。
(2)基準ハイライトを変えて(1)を行う。
(3)すべてのハイライトに対して(1)を行ったらグルーピング終了。
(1) Select one highlight from all detected side highlights (reference highlight)
(A) When the curve of the reference highlight is large
i. Select a highlight with a large curvature other than the standard highlight.
ii. The highlight area h area , the major axis direction h laxis , the highlight distance d r , and the curvature direction c dir are compared and included in the reference highlight group if the conditions are satisfied.
iii. Perform (i) i and ii for all highlights.
(B) When the curvature of the reference highlight is small
i. Select a highlight with a small curvature other than the standard highlight.
ii. Highlights of the area h area, longitudinal h laxis, compares the highlight distance d r, including satisfies the conditions a group of standards highlights.
iii. Perform (i) and (ii) of (b) for all highlights.
(2) Perform (1) by changing the reference highlight.
(3) When (1) is performed for all highlights, grouping is completed.

湾曲の大きさによるグルーピング手順の違いは、パラメータに湾曲の向きcdirが含まれるか否かのみである。これは、湾曲が小さいハイライトは、湾曲の向きが同一グループでも全く異なり、グルーピングに悪影響を与えるためである。また、湾曲の大きさcmagをグルーピングのパラメータに直接加えず、大きいか小さいかの二通りにしか分けていない。これは、湾曲の大きさについてはノイズの影響が大きく、グルーピングのパラメータに加えるとグルーピングに失敗しやすくなってしまうためである。 The only difference in the grouping procedure depending on the size of the curve is whether or not the parameter includes the curve direction c dir . This is because highlights with a small curvature have completely different curvature directions even in the same group, which adversely affects grouping. In addition, the magnitude c mag of the curvature is not directly added to the grouping parameter, and is divided into only two types of large and small. This is because the influence of noise is large on the size of the curvature, and if it is added to the grouping parameters, the grouping tends to fail.

ここまでの手順により、仮グループとする。   By the procedure so far, it is set as a temporary group.

しかし、上記の手順だけではグループの重複や巻ばねが並列に並んでいる場合にグルーピングの失敗が起こる。   However, with the above procedure alone, grouping failure occurs when overlapping groups or winding springs are arranged in parallel.

そこで、同一グループではハイライトが直線に並ぶことや隣接するハイライト間距離が等間隔であること、同一巻ばねを表すグループが重複した場合グループに含まれるハイライト数が多いものを採用することの条件を加えてグルーピングの結果を修正し、最終的なグルーピングとする。   Therefore, in the same group, the highlights should be arranged in a straight line, the distance between adjacent highlights should be equal, and when the groups that represent the same winding spring overlap, the number of highlights included in the group should be adopted. The final result of the grouping is corrected by adding the above condition.

(画像モーメントによる湾曲情報及びグルーピング)
図6は、座標の回転を示す説明図、図7は、側面ハイライトの湾曲方向を示す説明図、図8は、側面ハイライトの湾曲方向を示す説明図である。
(Curve information and grouping by image moment)
FIG. 6 is an explanatory diagram showing the rotation of coordinates, FIG. 7 is an explanatory diagram showing the bending direction of the side highlight, and FIG. 8 is an explanatory diagram showing the bending direction of the side highlight.

図4、図5の上記では、各側面ハイライトのスケルトンに楕円を当てはめ、その楕円より湾曲の大きさや向きを求めた。しかし、湾曲の大きさが小さいときは楕円当てはめによる湾曲情報の精度に限界がある。   In the above description of FIGS. 4 and 5, an ellipse is applied to the skeleton of each side highlight, and the size and direction of the curve are obtained from the ellipse. However, when the size of the curve is small, the accuracy of the curve information by ellipse fitting is limited.

これに対し、画像モーメントを用いて湾曲情報を得ることで精度が向上する。   On the other hand, accuracy is improved by obtaining curvature information using an image moment.

まず、湾曲の大きさを3次モーメントμ´21とする。図6のようにxy座標を反時計回りにθ回転させた座標をx´y´座標と定義すると、μ´21の値は式(1)で求められる。ただし、θは式(2)で表される。 First, the magnitude of the curvature is set as a third moment μ ′ 21 . If the coordinate obtained by rotating the xy coordinate θ counterclockwise as shown in FIG. 6 is defined as the x′y ′ coordinate, the value of μ ′ 21 can be obtained by Expression (1). However, (theta) is represented by Formula (2).

ただし,μは元の座標系における画像の(i+j)次モーメントである.   Where μ is the (i + j) th moment of the image in the original coordinate system.

このままでは画像の拡大・縮小の影響を受けてしまうため、式(3)のように無次元化する。   If it remains as it is, it will be affected by the enlargement / reduction of the image, so that it is made dimensionless as shown in equation (3).

次に、巻ばね3の側面ハイライトの形は通常湾曲しているので、その方向を判別する。ハイライトの長手方向は、画像楕円の長軸方向として判別できるので、それに直交する短軸方向のどちら側に湾曲しているかが問題となる。θだけ座標軸を回転すると、長軸方向がx´軸、短軸方向がy´軸となる。   Next, since the shape of the side highlight of the winding spring 3 is usually curved, the direction is discriminated. Since the longitudinal direction of the highlight can be determined as the major axis direction of the image ellipse, there is a problem as to which side of the minor axis direction that is orthogonal thereto is curved. When the coordinate axis is rotated by θ, the major axis direction becomes the x ′ axis and the minor axis direction becomes the y ′ axis.

側面ハイライトの典型的な形状として三日月形を想定すると、x´軸方向にはほぼ対称であり、y´軸方向のどちらかに湾曲することとなる。   Assuming a crescent shape as a typical shape of the side highlight, it is substantially symmetric in the x′-axis direction and is curved in either of the y′-axis directions.

・三日月形の両端付近では、x´は正負両方の値をとり絶対値は大きい。Y´は正負いずれかの値をとり、この符号が湾曲の向きと対応する。   • Near both ends of the crescent moon, x´ takes both positive and negative values and the absolute value is large. Y ′ takes one of positive and negative values, and this sign corresponds to the direction of curvature.

・三日月形の中心付近では、x´は正負両方の値をとり絶対値は小さい。Y´は正負いずれかの値をとり、両端付近と異符号となる。   • Near the center of the crescent moon, x´ takes both positive and negative values and the absolute value is small. Y ′ takes one of positive and negative values, and has a different sign from the vicinity of both ends.

ここで、x´y´の積分に対応するμ´ 21を計算すると、x´の重みつきでy´を積分するわけであるから、両端付近の符号が大きな重みがかかり、結果的に湾曲の向きが分かる。すなわち、
・μ´ 21<0のとき:y´軸負方向に両端が突き出た湾曲(図7)
・μ´ 21>0のとき:y´軸正方向に両端が突き出た湾曲(図8)
となる。
Here, if μ 21 corresponding to the integration of x ′ 2 y is calculated, y ′ is integrated with the weight of x ′ 2 , so the sign near both ends is heavily weighted, and as a result You can see the direction of the curve. That is,
• When μ 21 <0: Curved with both ends protruding in the negative direction of the y ′ axis (FIG. 7)
• When μ 21 > 0: Curved with both ends protruding in the positive direction of the y ′ axis (FIG. 8)
It becomes.

以上より、ハイライトの湾曲の大きさに関係なく、ハイライトの湾曲の向きを、グルーピングのパラメータに用いる。すなわち、ハイライトのグルーピングアルゴリズムは以下のようになる。   As described above, the direction of highlight curvature is used as a grouping parameter regardless of the magnitude of highlight curvature. That is, the highlight grouping algorithm is as follows.

(1)検出したすべての側面ハイライトからハイライトを一つ選ぶ(基準ハイライト)
(a)基準ハイライト以外のハイライトを選ぶ。
(b)ハイライトの面積harea、長軸方向hlaxis、ハイライト間距離dr、湾曲の大きさ、湾曲の向きを比較し、条件を満たす場合に基準ハイライトのグループに含める。
(c)すべてのハイライトに対して(a),(b)を行う。
(2)基準ハイライトを変えて(1)を行う。
(3)すべてのハイライトに対して(1)を行ったらグルーピング終了。
(1) Select one highlight from all detected side highlights (reference highlight)
(A) Select a highlight other than the reference highlight.
(B) Compare the highlight area h area , the major axis direction h laxis , the highlight distance d r , the size of the curve, and the direction of the curve, and if it satisfies the condition, it is included in the reference highlight group.
(C) Perform (a) and (b) for all highlights.
(2) Perform (1) by changing the reference highlight.
(3) When (1) is performed for all highlights, grouping is completed.

画像モーメントは画像全体の情報の総和として求まるので、ロバストなグルーピングができる。   Since the image moment is obtained as a sum of information of the entire image, a robust grouping can be performed.

(側面ハイライト情報からの端面の検出)
図9は、側面ハイライトの情報からの端面の検出を示す説明図である。
(Detection of end face from side highlight information)
FIG. 9 is an explanatory diagram showing detection of end faces from side highlight information.

巻ばねが傾いている場合は側面と端面が見えるため、側面の情報からさらに端面検出を行うこともできる。側面ハイライトには水平では湾曲せず、傾きが垂直に近づくほど湾曲が大きくなる特徴がある。このことから、大きく湾曲しているハイライトを含むグループの巻ばねは端面が見えている可能性がある。グループの向きgdir、湾曲の方向cdirにより端面の位置を推定し、ROI(RegionofInterest)を設定し、RANSAC(RANdomSAmpleConsensus)[Fischler1981]による端面を検出し決定する。 When the coil spring is tilted, the side surface and the end surface can be seen, so that the end surface can be further detected from the side surface information. Side highlights have the characteristic that they do not bend horizontally, but become larger as the tilt approaches vertical. For this reason, there is a possibility that the end face of the grouped spring including the highlight that is greatly curved is visible. The position of the end face is estimated based on the group direction g dir and the bending direction c dir , ROI (Region of Interest) is set, and the end face is detected and determined by RANSAC (RANdom SAmple Consensus) [Fischler 1981].

端面の形状を楕円と仮定すると巻ばねが傾いている場合は端面の形状が歪む。そのため、図9のように、巻ばねの向きから端面の長軸・短軸方向がある程度推定できる。   Assuming that the shape of the end surface is an ellipse, the shape of the end surface is distorted when the winding spring is inclined. Therefore, as shown in FIG. 9, the major axis and minor axis directions of the end face can be estimated to some extent from the direction of the winding spring.

すなわち、RANSACで得られる楕円の短軸の向きの範囲をgdirに対して、±Δφという制約を加えることができる。以下に、RANSACによる端面検出アルゴリズムを示す。
(1)二値化しCanny法でエッジを検出する。
(2)エッジからランダムに5点選択し、5点を通る楕円の式を求める。
(3)楕円の短軸の向きが[gdir −Δφ, gdir +Δφ]の範囲に入っているか確認する。
(4)(3)を満たせば、選んだ5点以外のすべての点について求めた楕円との距離を求め、設定したしきい値より距離が小さい点の個数を数え、その合計を楕円の得点とする。
(5)(2)から(4)を数回繰り返し、複数の楕円を検出する。
(6)得られた複数の楕円から、最も得点の高い楕円を端面形状として採用する。
That is, a constraint of ± Δφ can be added to the range of the orientation of the minor axis of the ellipse obtained by RANSAC with respect to g dir . The end face detection algorithm by RANSAC is shown below.
(1) Binarize and detect edges by the Canny method.
(2) Randomly select five points from the edge and obtain an ellipse formula that passes through the five points.
(3) Check if the direction of the minor axis of the ellipse is within the range of [g dir −Δφ, g dir + Δφ].
(4) If (3) is satisfied, the distance to the ellipse obtained for all the points other than the selected five points is obtained, the number of points whose distance is smaller than the set threshold is counted, and the total is obtained as the score of the ellipse. And
(5) Repeat (2) to (4) several times to detect a plurality of ellipses.
(6) The ellipse with the highest score is adopted as the end face shape from the obtained plurality of ellipses.

(端面ハイライトによる認識)
端面ハイライト近傍に注目してROIを設定し、端面検出を行う。巻ばね3が直立状態の場合、端面の形状は歪まないため、検出楕円に制約は加えない。
(Recognition by edge highlight)
Focusing on the vicinity of the edge highlight, set the ROI and detect the edge. When the winding spring 3 is in an upright state, the shape of the end face is not distorted, and thus no restriction is imposed on the detection ellipse.

設定したROIにおいて輪郭抽出を行い、楕円あてはめを行うことで端面を検出する。画像にノイズが多い場合には,上記と同様のRANSACを用いて検出をすることも可能である。   Contour extraction is performed in the set ROI, and end faces are detected by performing ellipse fitting. When there is a lot of noise in the image, it is also possible to detect using the same RANSAC as described above.

上記では、エッジから5点の座標を選択し楕円を導出した。巻ばねのグループの向きと検出楕円の短軸の向きは等しいはずであるが、5点の座標を用いた場合、向きが正しくない楕円も導出してしまう。このため、無駄にRANSACによる計算を行なうことになる。   In the above, ellipses were derived by selecting the coordinates of five points from the edge. The direction of the group of winding springs and the direction of the short axis of the detection ellipse should be equal, but when the coordinates of 5 points are used, an ellipse with an incorrect orientation is also derived. For this reason, the RANSAC calculation is useless.

そこで、楕円の向きは側面ハイライトのグループの向きからわかっているため、4点の座標と角度から楕円を導出することにしてもよい。すなわち、RANSACによる端面検出アルゴリズムは以下のようになる。
(1)二値化しCanny法でエッジを検出する。
(2)エッジからランダムに4点選択し、4点を通り、楕円の向きがグループの向きとなる楕円の式を求める。
(3)選んだ4点以外のすべての点について求めた楕円との距離を求め、設定した閾値より距離が小さい点の個数を数え、その合計を楕円の得点とする。
(4)(2)から(3)を数回繰り返し、複数の楕円を検出する。
(5)得られた複数の楕円から、最も得点の高い楕円を端面形状として採用する。
Therefore, since the orientation of the ellipse is known from the orientation of the side highlight group, the ellipse may be derived from the coordinates and angles of the four points. That is, the end face detection algorithm by RANSAC is as follows.
(1) Binarize and detect edges by the Canny method.
(2) Four points are selected at random from the edge, and an ellipse formula is obtained that passes through the four points and the direction of the ellipse is the group direction.
(3) The distance to the ellipse obtained for all the points other than the four selected points is obtained, the number of points having a distance smaller than the set threshold is counted, and the total is taken as the score of the ellipse.
(4) Repeat (2) to (3) several times to detect a plurality of ellipses.
(5) The ellipse with the highest score is adopted as the end face shape from the obtained plurality of ellipses.

これにより同等の計算時間でRANSACによる楕円検出数を増やすことができるので、楕円検出の成功率が向上する。   As a result, the number of ellipse detections by RANSAC can be increased in the same calculation time, and the success rate of ellipse detection is improved.

(直立した巻ばねが並んだときの認識)
図10は、端面ハイライトの結合を示す画像データ、図11は、最終的な端面ハイライトの検出を示す画像データである。
(Recognition when upright coil springs are lined up)
FIG. 10 shows image data indicating end face highlight combination, and FIG. 11 shows image data showing final end face highlight detection.

図10のように、直立した巻ばねが並んでいる場合は、端面ハイライトの面積が大きくなり、上記[ハイライトの抽出と判別]での説明におけるハイライト抽出でノイズとみなされてしまう。   As shown in FIG. 10, when the upright winding springs are arranged, the area of the end face highlight becomes large, and is regarded as noise in the highlight extraction in the description of [Highlight Extraction and Discrimination] above.

そこでハイライト面積が大きい時は収縮処理によりハイライトの切り離しを行う。以下に、アルゴリズムを示す。
(1)ハイライトに収縮処理をかける。
(2)ハイライト面積が端面ハイライトとみなす範囲に入っているか確認する。
(3)(1)(2)を繰り返す。
(4)(2)を満たせば、ハイライトが切り離されたとみなす。
(5)切り離されたハイライトを別々の端面ハイライトとする。
Therefore, when the highlight area is large, the highlight is separated by a shrinking process. The algorithm is shown below.
(1) Apply shrinkage to highlights.
(2) Check if the highlight area falls within the range considered as edge highlight.
(3) Repeat (1) and (2).
(4) If (2) is satisfied, it is considered that the highlight has been cut off.
(5) The separated highlights are used as separate end face highlights.

図10の端面ハイライトの結合においては、ハイライトがつながり、ハイライト面積が大きくなるため、ノイズとされてしまう。   In joining edge highlights in FIG. 10, the highlights are connected and the highlight area becomes large, so that noise is generated.

これに対し、上記アルゴリズムで切り離しを行った場合、図11のように、ハイライト面積が大きい場合でも別々の巻ばねであると認識することができた。   On the other hand, when the separation is performed by the above algorithm, it can be recognized that the springs are separate even when the highlight area is large as shown in FIG.

(側面ハイライトのグループ化及び端面ハイライトの検出)
図12、図13は、側面ハイライトのグループ化及び端面ハイライトの検出を示す画像データである。図12は、楕円当てはめによる側面ハイライトの認識及びハイライトの切り離しを行なわない端面ハイライトの認識アルゴリズムによる画像データであり、図13は、画像モーメントによる湾曲情報を用いた側面ハイライトの認識及びハイライトの切り離しを行なった端面ハイライトの認識アルゴリズムによる画像データである。
(Side highlight grouping and edge highlight detection)
12 and 13 are image data showing grouping of side highlights and detection of end face highlights. FIG. 12 shows image data based on an edge highlight recognition algorithm that does not perform side highlight recognition and highlight separation by ellipse fitting, and FIG. 13 shows side highlight recognition using curvature information based on image moments. It is the image data by the recognition algorithm of the end face highlight which performed highlight separation.

図12、図13の何れの場合も、画像中の四角で囲まれた部分の認識ができている。特に図13の場合は、図12の場合に比較してグルーピング可能な数が増加している。グルーピングの成功率と端面検出の成功率は若干向上している。
[巻ばねの位置、姿勢推定]
(位置・姿勢検出の概要)
特定の巻ばねを認識できた後に、それをピッキングするためには、そのばねの位置と姿勢とを知る必要がある。単眼カメラを用いた場合、奥行き方向の情報を知ることは容易でない。このため、ここではステレオ画像処理を用いて三次元的な位置・姿勢推定を行う。一般的なステレオ画像処理では、2台のカメラ画像全体に対して対応点検出処理を行って三次元情報を獲得するのが普通だが、誤対応や計算負荷などが問題となる。特に巻ばねの場合は形状特徴が明確でないため難しい。
In both cases of FIGS. 12 and 13, the portion surrounded by the square in the image can be recognized. In particular, in the case of FIG. 13, the groupable number is increased as compared with the case of FIG. 12. The success rate of grouping and the success rate of edge detection are slightly improved.
[Estimation of position and orientation of the coil spring]
(Outline of position / posture detection)
After picking up a particular coil spring, it is necessary to know its position and orientation in order to pick it. When a monocular camera is used, it is not easy to know depth information. For this reason, three-dimensional position / posture estimation is performed here using stereo image processing. In general stereo image processing, it is normal to perform corresponding point detection processing on the entire two camera images to acquire three-dimensional information, but there is a problem of miscorrespondence or calculation load. Especially in the case of a coil spring, it is difficult because the shape characteristics are not clear.

そこで、本発明実施例では、2台のカメラの画像それぞれに対し、上述の巻ばね認識方法を適用し、そののちに、認識された巻ばねに対してのみのステレオ画像処理を行う。   Therefore, in the embodiment of the present invention, the above-described winding spring recognition method is applied to each of the images of the two cameras, and then stereo image processing is performed only for the recognized winding spring.

これによって簡便な処理で正確な位置・姿勢情報の取得を実現できた。本手法では視野の重なりを大きくとり、また左右の対応処理を容易にするため、2台のカメラを平行かつ近接して配置する。そして、右カメラと左カメラのそれぞれで上述の巻ばね認識方法を実行し、巻ばねに対応する側面ハイライトのグループおよび端面ハイライト(以降では便宜上これも「グループ」と呼ぶ場合がある。)を検出する。同一の巻ばねに対応するグループは、右カメラの画像と左カメラの画像でだいたい同じ位置にある。より詳しく言えば、上下方向には同じ位置にあり、左右方向にだけ(奥行きに応じて)少し異なる位置にあるはずである。   This makes it possible to obtain accurate position / posture information with simple processing. In this method, two cameras are arranged in parallel and close to each other in order to increase the overlap of the field of view and facilitate the left and right correspondence processing. Then, the above-described winding spring recognition method is executed in each of the right camera and the left camera, and side highlight groups and end face highlights corresponding to the winding springs (hereinafter also referred to as “group” for convenience). Is detected. The group corresponding to the same coil spring is at the same position in the image of the right camera and the image of the left camera. More specifically, it should be in the same position in the vertical direction and slightly different in the horizontal direction (depending on the depth).

そこで、一方のカメラの画像で認識されたグループに対して、もう一方のカメラの画像の限定された範囲内を探索すれば、対応するグループを見つけることができる。   Therefore, if a group recognized by the image of one camera is searched within a limited range of the image of the other camera, a corresponding group can be found.

そして、左右の視差から奥行き情報を得ることができる。探索では、グループの形がほぼ同じであること、グループの位置関係が妥当であることを条件に、対応するグループを見つけている。形については、ハイライトの平均面積(ピクセル数)、ハイライト数、ハイライトの並びの向きを条件としている。また、位置関係については、グループ重心位置が左右方向には一定距離内であること、上下方向はほぼ同じであることを条件としている。   Then, depth information can be obtained from the left and right parallaxes. In the search, a corresponding group is found on the condition that the shapes of the groups are substantially the same and the positional relationship of the groups is appropriate. The shape is based on the average area of highlights (number of pixels), the number of highlights, and the direction of highlight alignment. The positional relationship is such that the group center of gravity position is within a certain distance in the left-right direction, and the vertical direction is substantially the same.

但し、上述の方法では、左右でハイライトの認識結果が異なる場合(例えば、同一の巻ばねに対して、左カメラでは4個のハイライトが認識されたが、右カメラでは3個しか認識されなかった場合)に対応できない。   However, in the above method, if the recognition results of the highlights are different on the left and right (for example, for the same winding spring, the left camera recognized 4 highlights, but the right camera recognized only 3 If you did not).

そこで,グループ単位での対応がうまくとれなかった場合は、グループ内の個々のハイライト単位で左右の対応を調べ、対応を確認できたハイライトだけのグループについて、改めて対応するかどうかを調べる。   Therefore, when the correspondence in the group unit cannot be taken well, the left and right correspondences are examined for each highlight unit in the group, and it is examined whether or not the group having only the highlight whose correspondence has been confirmed can be dealt with again.

個々のハイライトの対応づけは、重心位置が左右方向には一定距離内であること、上下方向はほぼ同じであることを調べて行う。   Individual highlights are associated with each other by checking that the position of the center of gravity is within a certain distance in the horizontal direction and that the vertical direction is substantially the same.

なお,巻ばねが完全に左右方向を向いている場合は、ハイライトの対応の候補が複数考えられ、ハイライトだけからでは一つに絞り込むことができない。   In addition, when the winding spring is completely oriented in the left-right direction, a plurality of candidates for highlights are conceivable, and it cannot be narrowed down to only one from the highlights alone.

そこで、この場合は一方のカメラ側の元画像で、ハイライトのグループより一回り大きい領域を考える。そして、もう一方のカメラ側の元画像とのマッチングを行い、これを使って対応の位置関係を決定する。元画像を用いることで、ハイライトだけではない周囲の情報をもとに左右の対応を絞り込むことができる。   Therefore, in this case, an area larger than the highlight group is considered in the original image on one camera side. Then, matching is performed with the original image on the other camera side, and the corresponding positional relationship is determined using this. By using the original image, it is possible to narrow down the correspondence between the left and right based on the surrounding information as well as the highlight.

以上の手法を用いて左右のカメラ画像から対応する巻ばねを求めた結果の例は後述する。   An example of the result of obtaining corresponding winding springs from the left and right camera images using the above method will be described later.

左右のカメラ画像間で、ハイライトのグループの対応付けができれば、グループ重心の視差を用いて、ハイライトのグループ重心の奥行きを計算できる。これによって巻ばねの位置を求めることができる。巻ばねの姿勢(奥行き方向の傾き)については、側面ハイライトのグループに関し、ハイライト間の間隔と巻ばねのピッチとの関係から求めることができる。端面ハイライトについては、当てはめた楕円の長径と短径の比から求めることができる。   If the highlight group can be associated between the left and right camera images, the depth of the group centroid of the highlight can be calculated using the parallax of the group centroid. Thus, the position of the winding spring can be obtained. The posture of the winding spring (inclination in the depth direction) can be obtained from the relationship between the interval between highlights and the pitch of the winding spring with respect to the side highlight group. The end face highlight can be obtained from the ratio of the major axis to the minor axis of the fitted ellipse.

なお、左右のカメラ画像において、ハイライトの出方は厳密には同じではない。これは、照明・カメラ・巻ばねの相対位置関係が異なるためである。このため、現在は視差を補正する実験式を用いることで、奥行き算出の精度を高めている。巻ばねの形状情報と照明の光源の情報から、補正式を理論的に算出することも可能である。   Note that the highlights are not exactly the same in the left and right camera images. This is because the relative positional relationship between the illumination, the camera, and the winding spring is different. For this reason, the accuracy of depth calculation is currently improved by using an empirical formula for correcting parallax. It is also possible to theoretically calculate the correction formula from the shape information of the coil spring and the information of the light source of illumination.

以下、具体的に説明する。   This will be specifically described below.

(奥行きの推定)
ステレオビジョンによる奥行きの理論式を導出する。
(Depth estimation)
The theoretical formula of depth by stereo vision is derived.

図14は、ステレオ画像処理装置の模式図である。記号は以下のように定義する。   FIG. 14 is a schematic diagram of a stereo image processing apparatus. Symbols are defined as follows:

・Ol,、Or:投影中心
・xl、xr:画像平面のx方向原点
・cx left、cx right:主点(光軸が画像平面と交差する点)
・P:実世界の点
・xleft、xright:Pの画像平面上の水平座標
・f:焦点距離
・T:基線長
・dp:視差
・Z:奥行き
・Ps:ピクセルサイズ
ステレオ装置は歪み補正され、行が揃い、正確に計測されていると仮定すると、奥行きZは式(4)で求められる。但し、dp=xleft−xrightである。
・ O l ,, Or: Projection center ・ x l, xr: Origin in x direction of image plane ・ c x left, c x right : Principal point (point where optical axis intersects image plane)
• P: Real world points • x left, x right : Horizontal coordinates on the P image plane • f: Focal length • T: Baseline length • d p : Parallax • Z: Depth • Ps: Pixel size Stereo device is distorted Assuming that the correction is made, the rows are aligned, and the measurement is accurately performed, the depth Z is obtained by Equation (4). However, d p = x left −x right .

また、奥行きの分解能ΔZは視差の誤差Δdpを用いて式(5)で求められる。 Further, the depth resolution ΔZ is obtained by the equation (5) using the parallax error Δd p .

(視差の算出)
<視差の算出の位置>
ステレオビジョンにより奥行きを算出するためには、視差を求める必要がある。本発明実施例では、視差の算出位置を巻ばねのグループのハイライト重心、あるいは楕円当てはめで得られる楕円中心とする。そのため、巻ばねの認識時に側面ハイライト情報からのRANSACによる端面検出を行わなくてもよい。側面ハイライトが見えている巻ばねはハイライトのグルーピングのみ行い、端面ハイライトのみが見えている巻ばねは端面ハイライトに楕円当てはめを行う。
(Calculation of parallax)
<Parallax calculation position>
In order to calculate the depth by stereo vision, it is necessary to obtain parallax. In the embodiment of the present invention, the parallax calculation position is the highlight centroid of the group of winding springs or the ellipse center obtained by ellipse fitting. Therefore, it is not necessary to detect the end face by RANSAC from the side highlight information when recognizing the winding spring. Winding springs with visible side highlights only perform highlight grouping, and winding springs with only visible end highlights fit an ellipse to the end face highlights.

また、視差を求めるためには左右の画像の対応付けを行う必要がある。一般的なステレオビジョンでは画像全体に対して対応付けを行うが、巻ばねには一般に画像処理で用いられる明確な特徴がない。そこで本実施例では、巻ばねのハイライトのグループ毎に対応付けを行う。対応付けを行うにあたって、左右のカメラの視野が重なっている領域は広いほうが良い。   Further, in order to obtain the parallax, it is necessary to associate the left and right images. In general stereo vision, the entire image is associated, but the winding spring does not have a clear feature generally used in image processing. Therefore, in this embodiment, association is performed for each group of highlights of the winding spring. In performing the association, it is preferable that the area where the fields of view of the left and right cameras overlap is wider.

また、左右のカメラで同一の巻ばねが同じように見えている必要がある。そこで、2台のカメラは基線長が短く、左右のカメラの光軸が平行であり、それぞれの光軸が基準面と垂直になるように設置されているものとする。   Moreover, it is necessary that the same winding spring looks the same in the left and right cameras. Therefore, it is assumed that the two cameras have short base lengths, the optical axes of the left and right cameras are parallel, and the respective optical axes are perpendicular to the reference plane.

<巻ばねのグループのパラメータ>
巻ばねのグループの対応付けに用いるパラメータの計算方法について説明する。
<Parameters of the coil spring group>
A description will be given of a method of calculating parameters used for associating groups of coil springs.

・グループ重心、平均ハイライト面積、ハイライト数、グループの向き
図15(A)は、各側面ハイライトの重心及びグループの重心を示し、(B)は、グループの並びの向きを示す説明図である。
Group centroid, average highlight area, number of highlights, group orientation FIG. 15A shows the centroid of each side highlight and the centroid of the group, and FIG. 15B is an explanatory diagram showing the direction of group alignment. It is.

図15において、各ハイライトの重心座標、面積は画像モーメントにより求められる。よって、グループ重心はグループに含まれるハイライトの重心座標の平均値、平均ハイライト面積は、グループに含まれるハイライトの面積の平均値で計算できる。グループに含まれるハイライト数は、グルーピング時に求まる。グループの向きは各ハイライトの重心に直線をフィッティングすることで求める。   In FIG. 15, the center-of-gravity coordinates and area of each highlight are obtained from the image moment. Therefore, the group centroid can be calculated by the average value of the centroid coordinates of the highlights included in the group, and the average highlight area can be calculated by the average value of the areas of the highlights included in the group. The number of highlights included in a group is determined at the time of grouping. The orientation of the group is obtained by fitting a straight line to the center of gravity of each highlight.

・グループ重心間距離(図16)
図16は、グループ重心間距離に係り、グループ重心のx座標を表示した側面ハイライトのグループを左右で示す説明図である。
・ Distance between group centers of gravity (Fig. 16)
FIG. 16 is an explanatory diagram showing the side highlight group on the left and right, which displays the x coordinate of the group centroid, in relation to the distance between the group centroids.

図16において、左画像のグループ重心x座標をxlg、対応した右画像のグループ重心x座標をxrgとする。左右の画像が平行化されていれば、左画像のグループ重心x座標の右画像での座標値xtlgは式(6)で求められる。Zが既知であれば、xtlg=xrgとなる。しかし、Zは分からないため、Zが取りうる値の範囲の中央値を用いると、xtlgとxrgにはずれが生じる。このずれをグループ重心間距離gdisと定義し、式(7)で表す。 In FIG. 16, the group centroid x coordinate of the left image is x lg , and the group centroid x coordinate of the corresponding right image is x rg . If the left and right images are parallelized, the coordinate value x tlg in the right image of the group centroid x coordinate of the left image is obtained by Expression (6). If Z is known, x tlg = x rg . However, since Z is unknown, using the median of the range of values that Z can take causes a shift between x tlg and x rg . This shift is defined as a distance g dis between group centroids, and is expressed by Expression (7).

<巻ばねのグループの対応付け方法>
巻ばねのグループの対応付けアルゴリズムを以下に示す。
(1)左右の画像の平行化を行い、y座標を揃える。
(2)左右の画像それぞれでグルーピングを行う。
(3)左画像で認識した巻ばねのグループから1つ選ぶ(左グループ)
(a)左グループのグループ重心座標を右画像での座標に変換する。
(b)右画像で認識した巻ばねのグループから1つ選ぶ(右グループ)
i.左グループと右グループのグループ重心間距離gdisを計算する。
(c)右画像で認識した巻ばねのグループ全てに対して(b)を行う。
(d)左グループと全ての右グループに対し、次の条件を確認する。
条件1-1グループの平均ハイライト面積がほぼ等しい
条件1-2グループ重心間距離gdis<閾値
条件1-3グループの向きがほぼ等しい
(e)(d)の条件を全て満たした右グループを対応の候補とする(候補右グループ)
(f)候補右グループがある場合
i.左グループと候補右グループに対し、次の条件を確認する。
条件2-1グループに含まれるハイライト数が同じ
条件2-2グループ重心y座標がほぼ等しい
ii.i.の条件を全て満たした左グループと候補右グループは対応している。
(g)候補右グループがない場合、対応なしとする。
(4)左画像で認識した巻ばねのグループ全てに対して(3)を行う。
<Method for associating groups of coil springs>
The coil spring group association algorithm is shown below.
(1) The left and right images are parallelized and the y coordinates are aligned.
(2) Group the left and right images.
(3) Select one from the group of winding springs recognized in the left image (left group)
(A) The group barycentric coordinates of the left group are converted into coordinates in the right image.
(B) Select one from the group of winding springs recognized in the right image (right group)
i. Calculate the distance g dis between the group centroids of the left group and the right group.
(C) Perform (b) on all the groups of the winding springs recognized in the right image.
(D) Check the following conditions for the left group and all right groups.
Condition 1-1 Group average highlight area is almost equal Condition 1-2 Group center-of-gravity distance g dis <Threshold Condition 1-3 Group direction is almost equal (e) Right group that satisfies all conditions of (d) Candidate for action (candidate right group)
(F) When there is a candidate right group
i. Check the following conditions for the left group and the candidate right group.
Condition 2-1 Group has the same number of highlights Condition 2-2 Group centroid y-coordinate is almost equal
The left group that satisfies all the conditions of ii.i. corresponds to the candidate right group.
(G) If there is no candidate right group, no response is made.
(4) Perform (3) for all the groups of the springs recognized in the left image.

端面ハイライトのみが見えている巻ばねについては、条件1-2、条件2-2のみで対応付けを行う。   For winding springs in which only the end face highlight is visible, association is performed only under conditions 1-2 and 2-2.

<グループ内のハイライト毎の対応付け方法>
巻ばねのグループの対応付け方法で述べたアルゴリズムは、左右の認識が同一の場合のみ対応を取ることが可能である。すなわち、左右の認識が異なる場合は、前記条件2-1、2-2を満たさないため、対応を取ることができない。
<Association method for each highlight in the group>
The algorithm described in the method of associating the group of coil springs can be used only when the left and right recognitions are the same. That is, when the left and right recognitions are different, the above conditions 2-1 and 2-2 are not satisfied, so that it is not possible to take a countermeasure.

そこで、条件2を満たさない場合は図17のように、ハイライト毎の対応を取る。図17は、側面ハイライトの対応付けに係り、グループ重心を表示した側面ハイライトのグループを左右で示す説明図である。   Therefore, when the condition 2 is not satisfied, a countermeasure is taken for each highlight as shown in FIG. FIG. 17 is an explanatory diagram showing a group of side highlights displaying a group center of gravity on the left and right sides in association with side highlights.

以下にハイライト毎の対応付けアルゴリズムを示す。
(1)左グループに含まれるハイライトから1つ選ぶ(左ハイライト)。
(a)左ハイライトのハイライト重心座標を右画像での座標に変換する。
(b)候補右グループに含まれるハイライトから1つ選ぶ(右ハイライト)。
i.左ハイライトと右ハイライトのハイライト重心間距離を計算する。
(c)候補右グループに含まれるハイライト全てに対して(b)を行う。
(d)左ハイライトと全ての右ハイライトに対し、次の条件を確認する。
条件3-1ハイライト重心間距離<閾値
条件3-2ハイライト重心y座標がほぼ等しい
(e)(d)の条件を全て満たした左ハイライトと右ハイライトは対応している。
(2)左グループに含まれるハイライト全てに対して(1)を行う。
(3)対応付けされたハイライトのみを左右のグループに含める。
The correspondence algorithm for each highlight is shown below.
(1) Select one of the highlights in the left group (left highlight).
(A) The highlight barycentric coordinates of the left highlight are converted into coordinates in the right image.
(B) Select one of the highlights included in the candidate right group (right highlight).
i. Calculate the distance between the highlight centroids of the left and right highlights.
(C) Perform (b) on all highlights included in the candidate right group.
(D) Check the following conditions for left highlight and all right highlights.
Condition 3-1 Highlight center-of-gravity distance <threshold Condition 3-2 Highlight center-of-gravity y coordinate is almost equal (e) Left highlight and right highlight that satisfy all the conditions of (d) correspond to each other.
(2) Perform (1) for all highlights included in the left group.
(3) Only the associated highlights are included in the left and right groups.

ハイライト重心間距離は、巻ばねのグループのパラメータで述べたグループ重心間距離と同様に定義する。すなわち、左画像のハイライト重心x座標の右画像での座標値と対応した右画像のハイライト重心x座標のずれである。   The highlight center-of-gravity distance is defined in the same manner as the group center-of-gravity distance described in the parameters of the group of the winding spring. That is, the deviation of the highlight centroid x coordinate of the right image corresponding to the coordinate value in the right image of the highlight centroid x coordinate of the left image.

なお、図18は、左右の側面ハイライトのグループが水平状態であることを示す説明図である。この図18のように、巻ばねが完全に左右方向を向いている場合は、ハイライトの対応の候補が複数考えられ、ハイライトだけからでは一つに絞り込むことができない。   FIG. 18 is an explanatory diagram showing that the left and right side highlight groups are in a horizontal state. As shown in FIG. 18, when the winding spring is completely oriented in the left-right direction, a plurality of candidates for highlight can be considered, and it cannot be narrowed down to only one from the highlight alone.

そこで、この場合は一方のカメラ側の元画像で、図19のように処理する。図19は、左右の側面ハイライトのグループの元画像マッチング及び領域の拡大を示す説明図である。図19のように、左側の元画像に対し、右側の元画像では、ハイライトのグループより一回り大きい領域を考え、領域を拡大した。   Therefore, in this case, the original image on one camera side is processed as shown in FIG. FIG. 19 is an explanatory diagram showing original image matching and area enlargement of a group of left and right side highlights. As shown in FIG. 19, in the original image on the right side with respect to the original image on the left side, an area that is slightly larger than the highlight group is considered and the area is enlarged.

そして、一方の元画像(右側の元画像)と他方のカメラの元画像(左側の元画像)とのマッチングを行い、これを使って対応の位置関係を決定する。元画像を用いることで、ハイライトだけではない周囲の情報をもとに左右の対応を絞り込むことができる。   Then, matching is performed between one original image (right-side original image) and the original image of the other camera (left-side original image), and the corresponding positional relationship is determined using this. By using the original image, it is possible to narrow down the correspondence between the left and right based on the surrounding information as well as the highlight.

(巻ばね位置姿勢推定)
<高さと姿勢の定義>
図20は、巻ばねの高さと姿勢の定義に係る説明図である。
(Wind spring position / posture estimation)
<Definition of height and posture>
FIG. 20 is an explanatory diagram relating to the definition of the height and posture of the winding spring.

図20において、巻ばねの高さHspr[mm]と,姿勢(θ[deg],φ[deg])を次のように定義する。   In FIG. 20, the height Hspr [mm] and the posture (θ [deg], φ [deg]) of the winding spring are defined as follows.

・Hspr[mm]:グループ重心と基準面の距離
・θ[deg](0θ90°):中心線と巻ばねの中心線を基準面に投影した直線のなす角
・φ[deg](−90°θ90°):巻ばねの中心線を基準面に投影した直線とx軸のなす角
<位置の推定>
・垂直方向の位置推定
カメラと基準面までの距離をL0と置く。カメラから被写体までの距離は式(4)で導出したZであるので、基準面と被写体の距離L´は次式で表される。
・ H spr [mm]: Distance between group center of gravity and reference plane ・ θ [deg] (0 θ 90 °): Angle formed by a straight line projected from the center line and the center line of the spring to the reference plane ・ φ [deg ] (−90 ° θ 90 °): Angle between the straight line projected from the center line of the coil spring and the x axis <Position estimation>
· Placing the distance to the position estimation camera and the reference plane in the vertical direction and L 0. Since the distance from the camera to the subject is Z derived by Equation (4), the distance L ′ between the reference plane and the subject is represented by the following equation.

これが、垂直方向の位置に関する理論式である。   This is the theoretical formula for the position in the vertical direction.

・水平方向の位置推定
図21は、変数を示すカメラの鳥瞰図である。
-Position estimation in the horizontal direction FIG. 21 is a bird's-eye view of a camera showing variables.

図21に示すように、定義する変数は、次の通りである。カメラと被写体までの距離をL、画角の幅と高さをそれぞれ(W,H)、レンズの焦点距離をf、CCDサイズを(W´,V´)、画像の解像度をw×hと置くと、実距離とピクセル値の換算式は式(10)で表すことができ、実際の長さDrealと画像内のピクセル値Dpixelの関係は式(11)で表される。ここで、DrealはカメラからL離れた光軸に垂直な平面上に存在する必要がある。 As shown in FIG. 21, the variables to be defined are as follows. The distance from the camera to the subject is L, the width and height of the angle of view are (W, H), the focal length of the lens is f, the CCD size is (W´, V´), and the image resolution is w × h. If it puts, the conversion formula of a real distance and a pixel value can be represented by Formula (10), and the relationship between actual length Dreal and the pixel value Dpixel in an image is represented by Formula (11). Here, D real needs to exist on a plane perpendicular to the optical axis L away from the camera.

画像上の点をAp=(xp,yp)とする。ワールド座標Σwの原点を図21のようにカメラの光軸と基準面の交点としているので、それに合わせて画像座標系Σpの原点を画像の中心へと移動した座標系Σ´pを考える.この座標系でのApであるA´pは次式で表される. Let Ap = (xp, yp) be a point on the image. Since the intersection of the optical axis and the reference plane of the camera as shown in FIG. 21 the origin of the world coordinate? W, consider a coordinate system Shiguma' p moved the origin of the image coordinate system Σp to the center of the image accordingly. A´ p which is A p in this coordinate system is expressed by the following equation.

撮像面(CCDセンサ)に投影されるA´´ pを求めると次式となる。 When obtaining the A'' p projected on the imaging plane (CCD sensor) by the following equation.

図21に示すように、CCDセンサが作る高さfの四角錐と、カメラからL離れた平面が作る高さLの四角錐には相似関係があるため、次式が得られる。   As shown in FIG. 21, a square pyramid with a height f created by a CCD sensor and a square pyramid with a height L created by a plane L away from the camera have a similar relationship, so the following equation is obtained.

これが被写体の水平方向の位置(xw,yw座標)の理論式である。 This is a theoretical formula for the horizontal position (x w , y w coordinates) of the subject.

<姿勢の推定>
図22は、巻ばねの姿勢評価に係る説明図である。
<Posture estimation>
FIG. 22 is an explanatory diagram relating to the posture evaluation of the winding spring.

巻ばねの傾きはハイライト間距離を用いることで推定する。巻ばねのピッチをpとし、グループのハイライト数をNhと置くと、画像に写るグループの長さDplaneの実際の距離drealが次式で得られる。 The inclination of the winding spring is estimated by using the distance between highlights. When the pitch of the coil spring is set to p and the number of group highlights is set to N h , the actual distance d real of the group length D plane in the image is obtained by the following equation.

Dplaneとグループの長さの実距離dplaneの関係は、カメラから被写体までの距離Z、焦点距離f、ピクセルサイズPsを用いて次式となる。 The relationship between the D plane and the actual distance d plane of the group length is expressed by the following equation using the distance Z from the camera to the subject, the focal length f, and the pixel size P s .

すなわち、図22から、巻ばねの傾きθは次式で表すことができる。   That is, from FIG. 22, the inclination θ of the winding spring can be expressed by the following equation.

[認識・位置姿勢推定結果]
図23(A)は、左右の元画像を示す説明図、(B)は、左右画像でのグルーピングを示す説明図、(C)は、左右グループの対応を示す説明図、図24(A)は、左右画像でのグルーピングを示す拡大説明図、(B)は、左右グループの対応を示す拡大説明図、図25(A)は、左右画像でのグルーピングを示す拡大説明図、(B)は、左右グループの対応を示す拡大説明図、図26(A)は、左右画像でのグルーピングを示す拡大説明図、(B)は、左右グループの対応を示す拡大説明図である。
[Recognition / position / posture estimation results]
23A is an explanatory diagram showing left and right original images, FIG. 23B is an explanatory diagram showing grouping in the left and right images, FIG. 23C is an explanatory diagram showing correspondence between the left and right groups, and FIG. Is an enlarged explanatory diagram showing grouping in the left and right images, (B) is an enlarged explanatory diagram showing the correspondence between the left and right groups, FIG. 25 (A) is an enlarged explanatory diagram showing grouping in the left and right images, and (B) is FIG. 26A is an enlarged explanatory view showing grouping in the left and right images, and FIG. 26B is an enlarged explanatory view showing correspondence between the left and right groups.

図23は、結果を示し、図24〜図26は、図23のいくつかの巻ばねに注目し、拡大した。対応がとれた巻ばねは左右同じ四角で囲んである。グループ重心には、点を表示している。   FIG. 23 shows the results, and FIGS. 24 to 26 are enlarged with attention to some of the winding springs of FIG. The corresponding springs are surrounded by the same square on the left and right. A point is displayed at the group center of gravity.

図23、図24の画像のように、端面ハイライト、側面ハイライトのグループで左右の認識が同一の場合は正しい対応が取れた。また、同一の巻ばねに複数のグループが検出された場合や左右の認識が異なる場合でも図25、図26のように正しい対応が取れた。
[巻ばねのピッキング]
図27は、鉛直方向からのアプローチによる巻ばねのピッキングを示し、(A)は、θ=0、(B)は、0<θ<90°、(C)は、θ=90°の説明図、図28は、姿勢に応じたアプローチによる巻ばねのピッキングを示し、(A)は、θ=90°(B)は、0≦θ<45°、(C)は、45°≦θ<90°の説明図である。
As shown in the images of FIGS. 23 and 24, when the left and right recognitions are the same in the group of the end face highlight and the side face highlight, the correct correspondence can be obtained. Further, even when a plurality of groups are detected in the same winding spring or when the left and right recognitions are different, correct correspondence can be obtained as shown in FIGS.
[Winding spring picking]
FIG. 27 shows winding spring picking by approach from the vertical direction, (A) is θ = 0, (B) is 0 <θ <90 °, and (C) is θ = 90 °. 28A and 28B show the picking of the winding spring by an approach according to the posture, where FIG. 28A is θ = 90 ° (B) is 0 ≦ θ <45 °, and (C) is 45 ° ≦ θ <90. FIG.

個々の巻ばね3の位置、姿勢が求まれば、それをもとにロボット1011(図1)によってピッキングすることができる。ここでの問題は、
・どれをピッキングするか
・どのようにピッキングするか
である。
If the position and posture of each coil spring 3 are obtained, picking can be performed by the robot 1011 (FIG. 1) based on the position and posture. The problem here is
-Which one to pick?-How to pick.

前者については、基本的に最も「高い」(カメラから見て奥行き方向に「近い」)巻ばね3をピッキングするのが有利と考えられる。障害物などを考慮すると必ずしもそうではない場合も考えられるが、現状では最も高い位置の巻ばね3をピッキングする。   Regarding the former, it is considered to be advantageous to pick the winding spring 3 that is basically “highest” (“close to the depth direction when viewed from the camera”). In consideration of obstacles, this may not always be the case, but at present, the highest spring spring 3 is picked.

但し、ピッキングに失敗した場合は、一定回数は同じ巻ばね3をピッキングに行かないように設定している。これは、何らかの事情でピッキングが難しいものがあった場合,それにトライし続けると作業が全く進まなくなる恐れがあるためである。   However, when picking fails, the same winding spring 3 is set not to go picking a certain number of times. This is because if there is something that is difficult to pick for some reason, the work may not proceed at all if you continue to try it.

後者の「どのようにピッキングするか」については、グリッパである2本の爪1011a、1011bを用いたハンド1011により外径把持を行うことができた。   Regarding the latter “how to pick”, the outer diameter could be grasped by the hand 1011 using the two claws 1011a and 1011b which are grippers.

図27の単純に鉛直方向からアプローチする実装のほか、図28のように巻ばね3の姿勢に合わせてアプローチ方向をずらす実装も行うことができた。
[対象物特定方法、プログラム、及び記録媒体]
図29は、ピッキングに係るフローチャートである。
In addition to the simple approach approaching from the vertical direction in FIG. 27, it was possible to perform an implementation in which the approach direction was shifted according to the attitude of the winding spring 3 as shown in FIG. 28.
[Object Identification Method, Program, and Recording Medium]
FIG. 29 is a flowchart relating to picking.

対象物移動装置1001の稼働により、図29のフローチャートが実行されると、ステップS1L、S1R(以下、各ステップSを「S」と略称する。)において、「画像取得(L)、(R)」が実行され、左右のカメラ(L)1005、(R)1007により撮像され、データ記憶部11に記憶されている元画像データが読み込まれ、S2(L)、S2(R)へ移行する。   When the flowchart of FIG. 29 is executed by the operation of the object moving device 1001, in steps S1L and S1R (hereinafter, each step S is abbreviated as “S”), “image acquisition (L), (R)” is performed. ”Is executed, the original image data captured by the left and right cameras (L) 1005 and (R) 1007 and stored in the data storage unit 11 is read, and the process proceeds to S2 (L) and S2 (R).

S2L、S2Rでは、それぞれ「巻ばね認識(L)」、「巻ばね認識(R)」の処理により、左右の元画像を基に側面ハイライト、端面ハイライトの判別、側面ハイライトのグループ化等を左右それぞれで行ない、巻ばねの認識が行われる。具体的には、図31〜図33のサブルーチンにより実行され、左右画像のそれぞれでの巻ばねの認識により認識結果を登録部23に登録し、S3ヘ移行する。   In S2L and S2R, the processing of “coil spring recognition (L)” and “coil spring recognition (R)”, respectively, identifies side highlights and end surface highlights based on the left and right original images, and groups side highlights. Etc. are performed on each of the left and right sides to recognize the winding spring. More specifically, the recognition result is registered in the registration unit 23 by recognizing the winding spring in each of the left and right images, and the process proceeds to S3.

S3では、「Lの巻ばねを一つ選ぶ」の処理により、登録部23に登録されている左画像で認識した巻ばねのグループから1つ選び、S4へ移行する。このグループの選択は、左右何れかを基準とするためのものであり、右のRのグループを選択する設定を行うこともできる。   In S3, one is selected from the group of winding springs recognized in the left image registered in the registration unit 23 by the process of “select one L spring”, and the process proceeds to S4. This selection of the group is based on either the left or the right, and a setting for selecting the right R group can also be made.

S4では、「側面ハイライトグループである?」の判断処理により、S3で選択されたものが側面ハイライトのグループか、端面ハイライトかを判断する。この判断は、ハイライトが複数か単一か等により行うことができる。側面ハイライトのグループであると判断されたときは(YES)、S5ヘ移行し、端面ハイライトと判断されたときは(NO)、S6へ移行する。   In S4, it is determined whether the item selected in S3 is a side highlight group or an end face highlight by a determination process of “is it a side highlight group?”. This determination can be made based on whether the highlight is plural or single. When it is determined that the group is a side highlight group (YES), the process proceeds to S5, and when it is determined that the face is highlighted (NO), the process proceeds to S6.

S5では、「側面ハイライトグループ間対応検出」の処理により、選択された左Lの側面ハイライトのグループに対する右Rの側面ハイライトのグループ間の対応が検出される。具体的には、図33のサブルーチンにより実行され、前記<巻ばねのグループの対応付け方法>のように、左右画像の対応グループが抽出され、S7ヘ移行する。   In S5, the correspondence between the right R side highlight groups with respect to the selected left L side highlight group is detected by the processing of “side highlight group correspondence detection”. Specifically, it is executed by the subroutine of FIG. 33, and the correspondence groups of the left and right images are extracted as in <Method of associating groups of spring springs>, and the process proceeds to S7.

S6では、「端面ハイライト対応検出」の処理により、左右画像の端面ハイライト間の対応が検出され、S7へ移行する。端面ハイライトは、楕円、円として対比される。   In S6, the correspondence between the end surface highlights of the left and right images is detected by the processing of “end surface highlight correspondence detection”, and the process proceeds to S7. Edge highlights are contrasted as ellipses and circles.

S7では、「対応巻ばねがR内に見つかった?」の判断処理により、S5でのグループ間対応検出によりL内で選択された一つのグループに対し、対応するグループがR内に見つかったか否かが判断される。対応するグループが見つかれば(YES)、S8ヘ移行し、見つからなければ(NO)、S9ヘ移行する。   In S7, whether or not a corresponding group is found in R for one group selected in L by the detection of correspondence between groups in S5 by the determination process of “corresponding coil spring found in R?”. Is judged. If a corresponding group is found (YES), the process proceeds to S8, and if not found (NO), the process proceeds to S9.

S8では、「位置・姿勢算出」の処理により、S5での処理により、特定の巻ばねを認識できたとき、巻ばねの位置・姿勢が、上記[巻ばねの位置、姿勢推定]の手法により算出され、算出結果が登録部23に登録されてS9へ移行する。   In S8, when the specific winding spring is recognized by the processing of S5 by the processing of “position / posture calculation”, the position / posture of the winding spring is determined by the above-described method of [estimation of position and orientation of the winding spring]. The calculation result is registered in the registration unit 23, and the process proceeds to S9.

S9では、「Lの巻ばねをすべて調べ終えた?」の判断処理が行われ、調べ終えていないと判断されれば(NO)、S3へ処理が戻され、S3〜S9が繰り返される。調べ終えたと判断されれば(YES)、S10ヘ移行する。   In S9, a determination process of "Is all the springs of L being checked?" Is performed. If it is determined that the check has not been completed (NO), the process returns to S3, and S3 to S9 are repeated. If it is determined that the examination has been completed (YES), the process proceeds to S10.

S10では、「ピッキング対象巻ばねの決定」の処理により、登録部23から登録されている位置、姿勢からピッキングすべき巻ばねが決定され、S11ヘ移行する。   In S10, the process of “determination of the picking target winding spring” determines the winding spring to be picked from the registered position and orientation from the registration unit 23, and the process proceeds to S11.

S11では、「ピッキング」の処理により、前記[巻ばねのピッキング]の手法で巻ばねがハンド1011により順次ピッキングされ、所定箇所へ移動され、処理は終了する。   In S11, by the “picking” process, the winding springs are sequentially picked by the hand 1011 by the method of “picking a winding spring”, moved to a predetermined location, and the process ends.

(巻ばね認識)
図30〜図32は、図29のS2L、S2Rを実行するものであり、図30は、巻ばね認識のサブルーチンを示し、側面ハイライト及び端面ハイライトの検出に係るフローチャート、図31は、同側面ハイライトの仮グループ化に係るフローチャート、図32は、同側面ハイライトのグループ化に係るフローチャートである。
(Coil spring recognition)
30 to 32 execute S2L and S2R of FIG. 29, FIG. 30 shows a subroutine for winding spring recognition, a flowchart relating to detection of side highlight and end face highlight, and FIG. FIG. 32 is a flowchart relating to grouping of side highlights. FIG. 32 is a flowchart relating to temporary grouping of side highlights.

ステップS21において、二値化処理が実行される。この処理では、カメラ1005、1007による画像データが二値化処理により二値化画像データとされ、S22ヘ移行する。   In step S21, binarization processing is executed. In this process, the image data from the cameras 1005 and 1007 is converted into binarized image data by the binarization process, and the process proceeds to S22.

S22では、ハイライト抽出の処理により、二値化画像データにおいてラベリングにより得られた領域から、面積によって側面ハイライトと端面ハイライトとを抽出し、S23、S24ヘ移行する。ハイライトの抽出では、各側面ハイライトから前記の特徴量が抽出され記憶される。   In S22, side highlights and edge highlights are extracted according to area from the area obtained by labeling in the binarized image data by highlight extraction processing, and the process proceeds to S23 and S24. In highlight extraction, the feature amount is extracted from each side highlight and stored.

S23では、「側面ハイライトの仮グルーピング」の処理により、すべての側面ハイライトを対象に仮グルーピングが行なわれてS25ヘ移行する。S23での仮グルーピングは、図31のサブルーチンで実行される。   In S23, temporary grouping is performed for all side highlights by the process of “temporary grouping of side highlights”, and the process proceeds to S25. The temporary grouping in S23 is executed by the subroutine of FIG.

S24では、「端面ハイライトの検出」が行われる。S24での端面ハイライトの検出は、上記の通りである。   In S24, “end face highlight detection” is performed. The detection of the end face highlight in S24 is as described above.

S25では、「側面ハイライトのグルーピング」の処理により、側面ハイライトがグループ化され、処理は終了する。S25のグルーピングは、図32のサブルーチンで説明する。   In S25, the side highlights are grouped by the “side highlight grouping” process, and the process ends. The grouping in S25 will be described with reference to the subroutine of FIG.

図30のS23を実行する図31のサブルーチンでは、S2301の「ハイライトを一つ選ぶ」の処理により、側面ハイライトの一つが読み出され、S2302ヘ移行する。   In the subroutine of FIG. 31 for executing S23 of FIG. 30, one of the side highlights is read out by the process of “select one highlight” in S2301, and the process proceeds to S2302.

S2302では、「近傍のハイライトをリストアップ」の処理により、S2301で選ばれた一つの側面ハイライトに対し、ハイライト間距離、連続数等の閾値により近傍のハイライトを順にリストアップし、S2303ヘ移行する。このリストアップは、一つの側面ハイライトに対し、近傍の側面ハイライトを1個ずつリストとして読み込む。   In S2302, the list of neighboring highlights is listed in order according to thresholds such as the distance between highlights and the number of continuations for one side highlight selected in S2301 by the process of “listing neighboring highlights”. The process proceeds to S2303. In this list-up, one side highlight is read as a list for each side highlight.

S2303では、「形状が近い?」の判断処理により、リストアップされた側面ハイライトのグループに対し、側面ハイライトの形状が近いか否かにより判別される。「形状が近い」か否かは、ハイライト面積(ピクセル数)、ハイライトの長軸方向、湾曲情報(三次画像モーメント)が近いかどうかで判断される。形状が近いと判断されれば(YES)、S2304ヘ移行し、形状が近くないと判断されれば(NO)、S2305ヘ移行する。   In S2303, it is determined based on whether or not the shape of the side highlight is close to the group of side highlights listed by the determination processing of “close shape?”. Whether or not “the shape is close” is determined by whether or not the highlight area (number of pixels), the major axis direction of the highlight, and the curvature information (third image moment) are close. If it is determined that the shape is close (YES), the process proceeds to S2304, and if it is determined that the shape is not close (NO), the process proceeds to S2305.

S2304では、「仮グループに入れる」の処理により、形状が近い側面ハイライトが仮グループとして記憶され、S2305ヘ移行する。   In S2304, side highlights having similar shapes are stored as temporary groups by the process of “put into temporary group”, and the process proceeds to S2305.

S2305では、「近傍のハイライトをすべて調べ終えた?」の判断処理が行われ、調べ終えていないと判断されれば(NO)、S2302へ処理が戻され、S2302、S2303、S2305が繰り返される。調べ終えたと判断されれば(YES)、S2306へ移行する。   In S2305, a determination process of “has all the highlights in the vicinity been checked?” Is performed. If it is determined that the check has not been completed (NO), the process returns to S2302, and S2302, S2303, and S2305 are repeated. . If it is determined that the examination has been completed (YES), the process proceeds to S2306.

S2306では、「ハイライトをすべて調べ終えた?」の判断処理が行われ、調べ終えていないと判断されれば(NO)、S2301へ処理が戻され、S2301、S2302、S2303、S2305、S2306が繰り返される。調べ終えたと判断されれば(YES)、仮グルーピングの処理は終了する。   In S2306, a determination process of “has all the highlights been checked?” Is performed. If it is determined that the check has not been completed (NO), the process returns to S2301, and S2301, S2302, S2303, S2305, and S2306 are executed. Repeated. If it is determined that the examination has been completed (YES), the provisional grouping process ends.

図30のS25を実行する図32のサブルーチンでは、S2501の「仮グループを一つ選ぶ」の処理により、S23で仮グループ化された側面ハイライトの仮グループの一つが読み出され、S2502ヘ移行する。   In the subroutine of FIG. 32 for executing S25 of FIG. 30, one of the side highlight temporary groups temporarily grouped in S23 is read out by the process of “select one temporary group” in S2501, and the process proceeds to S2502. To do.

S2502では、「直線状に並んでいない構成ハイライトを削除」の処理により、S2501で選ばれた仮グループを構成する側面ハイライトで、構成ハイライトがほぼ同一直線上に乗っているか確認し、乗っていないものは削除し、S2503ヘ移行する。巻ばね3の側面ハイライトは、ほぼ同一直線上に乗っている性質を利用して判断するものである。   In S2502, it is confirmed whether or not the configuration highlight is on the same straight line by the side highlights constituting the temporary group selected in S2501 by the process of “delete configuration highlight not aligned in a straight line”. Those not on the board are deleted, and the process proceeds to S2503. The side highlight of the winding spring 3 is determined using the property of being on the substantially same straight line.

S2503では、「構成ハイライトが少ない?」の判断処理が行われる。S2502での削除の結果、巻ばね3の側面ハイライトを構成するには数が少ないと思われる仮グループか否かを判断する。構成ハイライトが少ないと判断されれば(YES)、S2504ヘ移行し、構成ハイライトが少なくないと判断されれば(NO)、S2505ヘ移行する。   In S2503, a determination process of “There are few configuration highlights?” Is performed. As a result of the deletion in S2502, it is determined whether or not the temporary group is considered to be small in number to constitute the side highlight of the winding spring 3. If it is determined that the configuration highlight is small (YES), the process proceeds to S2504. If it is determined that the configuration highlight is not small (NO), the process proceeds to S2505.

S2504では、「仮グループを削除」の処理により、側面ハイライトを構成するには数が少ないと思われる仮グループがデータとして削除され、S2505ヘ移行する。   In S2504, the temporary group that is considered to be small in number to form the side highlight is deleted as data by the process of “delete temporary group”, and the process proceeds to S2505.

S2505では、「すべての仮グループを調べ終えた?」の判断処理が行われ、調べ終えていないと判断されれば(NO)、S2501へ処理が戻され、S2501〜S2505が繰り返される。調べ終えたと判断されれば(YES)、S2506へ移行する。   In S2505, a determination process of “has all the temporary groups been checked?” Is performed. If it is determined that the check has not been completed (NO), the process returns to S2501, and S2501 to S2505 are repeated. If it is determined that the examination has been completed (YES), the flow proceeds to S2506.

S2506では、「構成ハイライト数の多い順(同じならハイライト面積の大きい順)でソート」の処理が行われる。この処理により、直線上に並んだ所定数の仮グループ群が、構成ハイライト数の多い順に整列され、S2507ヘ移行する。但し、構成ハイライト数が同じ時は、ハイライト面積の大きい順に並べられ、S2507ヘ移行する。   In S2506, the processing of “sort in descending order of the number of constituent highlights (in order of increasing highlight area if they are the same)” is performed. By this processing, a predetermined number of temporary group groups arranged on a straight line are arranged in descending order of the number of constituent highlights, and the process proceeds to S2507. However, when the number of configuration highlights is the same, the highlight areas are arranged in descending order, and the process proceeds to S2507.

S2507では、「仮グループを順に一つ選ぶ」の処理により、S2505でソートされた仮グループの一つが順に読み出され、S2508ヘ移行する。   In S2507, one of the temporary groups sorted in S2505 is sequentially read out by the process of “select one temporary group in order”, and the process proceeds to S2508.

S2508では、「登録済み他グループと重複する構成ハイライトを消す」の処理により、既にグループとして決定された側面ハイライトに対しデータとして重複する構成ハイライトを現処理の仮グループから削除され、S2509ヘ移行する。   In S2508, the configuration highlight that overlaps as data with respect to the side highlight that has already been determined as a group is deleted from the temporary group of the current processing by the process of “erasing configuration highlights that overlap with other registered groups”, and S2509. Move to F.

S2509では、「ハイライト間距離が一定でない構成ハイライトを消す」の処理が行われる。巻ばね3の側面において素線間距離は一定であるため、距離が一定でないハイライトをノイズとして除去し、S2510ヘ移行する。   In step S2509, a process of “erasing a configuration highlight whose distance between highlights is not constant” is performed. Since the distance between the strands is constant on the side surface of the winding spring 3, highlights whose distance is not constant are removed as noise, and the process proceeds to S2510.

S2510では、「構成ハイライト数が基準の範囲内?」の判断処理が行われる。巻ばね3の側面において素線の連続数は決まっており、仮グループを構成する側面ハイライトの数が、基準を越えていたり、少ない時は、グループとしての登録から排除される。したがって、S2510で構成ハイライト数が基準の範囲内であると判断されれば(YES)、S2511へ移行し、基準の範囲内ではないと判断されれば(NO)、S2512へ移行する。   In S2510, a determination process of “the number of configuration highlights is within the reference range?” Is performed. The number of continuous wires on the side surface of the winding spring 3 is determined, and when the number of side surface highlights constituting the temporary group exceeds or is less than the standard, it is excluded from registration as a group. Therefore, if it is determined in S2510 that the number of configuration highlights is within the reference range (YES), the process proceeds to S2511. If it is determined that the number is not within the reference range (NO), the process proceeds to S2512.

S2511では、「グループとして登録」の処理により、処理された仮グループがグループとして決定され、登録部23(図2)に登録され、S2512へ移行する。   In step S2511, the processed temporary group is determined as a group by the “register as group” process, is registered in the registration unit 23 (FIG. 2), and the process proceeds to step S2512.

S2512では、「すべての仮グループを調べ終えた?」の判断処理が行われ、調べ終えていないと判断されれば(NO)、S2507へ処理が戻され、S2507〜S2512が繰り返される。調べ終えたと判断されれば(YES)、グルーピングの処理は終了する。   In S2512, a determination process of “has all the temporary groups been checked?” Is performed. If it is determined that the checking has not been completed (NO), the process returns to S2507 and S2507 to S2512 are repeated. If it is determined that the examination has been completed (YES), the grouping process ends.

(側面ハイライトグループ間対応検出)
図33は、図29のS5を実行するものであり、側面ハイライトグループ間対応検出のサブルーチンを示し、左右グループの対応付けに係るフローチャートである。
(Detection of correspondence between side highlight groups)
FIG. 33, which executes S5 of FIG. 29, shows a subroutine for detecting correspondence between side highlight groups, and is a flowchart relating to correspondence between left and right groups.

S51では、「平均ハイライト面積がほぼ同じであるRのグループで最も重心間距離が近いものを探す」の処理により、S3で選択されたLの一つのグループに対し登録部23に登録されているRのグループから一つのグループが選択される。この選択は、グループの各側面ハイライトの面積の平均値がほぼ同じで、図16においてxtlgとxrgのずれであるグループ重心間距離gdisが近いものとされる。この選択によりS52、S53へと順次移行し、さらに絞り込みが行われる。 In S51, one group of L selected in S3 is registered in the registration unit 23 by the process of “search for the group of R having the same average highlight area and the closest distance between the centers of gravity”. One group is selected from the R groups. In this selection, the average values of the areas of the side highlights of the group are substantially the same, and the distance between the center of gravity g dis, which is the difference between x tlg and x rg in FIG. By this selection, the process proceeds to S52 and S53 sequentially, and further narrowing down is performed.

S52では、「ハイライトの並びの向きがほぼ同じで、かつグループ重心間距離がしきい値以下?」の判断処理が行われる。図15のように、LRのグループ間の側面ハイライトの向きがほぼ同じであり、かつグループ重心間距離gdisがしきい値以下であると判断されたとき(YES)、S53ヘ移行し、LRのグループ間の側面ハイライトの向きが同じではなく、かつグループ重心間距離gdisがしきい値を上回っていると判断されたとき(NO)、処理は終了し、図29のS7ヘ移行する。 In S <b> 52, a determination process of “the highlights are arranged in substantially the same direction and the distance between the group centroids is equal to or smaller than a threshold value?” Is performed. As shown in FIG. 15, when it is determined that the direction of the side highlight between the LR groups is substantially the same and the distance g dis between the group centroids is equal to or less than the threshold (YES), the process proceeds to S53. When it is determined that the direction of the side highlight between the LR groups is not the same and the distance g dis between the group centroids exceeds the threshold value (NO), the process ends, and the process proceeds to S7 in FIG. To do.

S53では、「ハイライト数が等しく、重心の縦方向位置がほぼ同じ?」の判断処理が行われる。LRのグループ間の側面ハイライトのハイライト数が等しく、グループ重心の縦方向位置がほぼ同じであると判断されたとき(YES)、S54ヘ移行し、LRのグループ間の側面ハイライトのハイライト数が異なり、グループ重心の縦方向位置が同じではないと判断されたとき(NO)、S55ヘ移行する。   In S53, a determination process of “the number of highlights is equal and the vertical position of the center of gravity is substantially the same?” Is performed. When it is determined that the number of side highlight highlights between the LR groups is equal and the vertical positions of the group centroids are substantially the same (YES), the flow shifts to S54, where the side highlight highlights between the LR groups are high. When it is determined that the number of lights is different and the vertical positions of the group centroids are not the same (NO), the process proceeds to S55.

S54では、「対応グループと見なす」の処理により、該当するRのグループがLのグループの一つに対応するものとして登録部23に登録され、処理は終了し、図29のS7ヘ移行する。   In S54, the “recognized as a corresponding group” process registers the corresponding R group as one corresponding to one of the L groups in the registration unit 23, the process ends, and the process proceeds to S7 in FIG.

S55では、「ハイライトの並びの向きがほぼ水平である?」の判断処理が行われる。対比されるLRのグループの側面ハイライトの向きが、図18のように水平ではないと判断されたとき(NO)、S56ヘ移行し、水平であると判断されたとき(YES)、S57ヘ移行する。   In S55, a determination process of “Is the direction of highlight alignment almost horizontal?” Is performed. When it is determined that the direction of the side highlight of the group of LR to be compared is not horizontal as shown in FIG. 18 (NO), the process proceeds to S56, and when it is determined to be horizontal (YES), to S57. Transition.

S56では、「ハイライト間対応検出」の処理により、LRのグループ間の側面ハイライトの対応が検出される。具体的には、図34のサブルーチンにより実行され、前記<グループ内のハイライト毎の対応付け方法>のように、LRグループ間の側面ハイライト毎の対応が取られ、処理は終了し、図29のS7ヘ移行する。   In S56, the correspondence of the side highlight between the LR groups is detected by the “detection between highlights” process. Specifically, it is executed by the subroutine of FIG. 34, and correspondence is taken for each side highlight between LR groups as in the above <association method for each highlight in group>. Go to 29 S7.

S57では、「画像マッチング対応検出」の処理が行われ、図29のS7ヘ移行する。S57は、図35のサブルーチンにより実行される。   In S57, an “image matching correspondence detection” process is performed, and the process proceeds to S7 in FIG. S57 is executed by the subroutine of FIG.

(ハイライト間対応検出)
図34は、側面ハイライトグループ間対応検出のサブルーチンを示し、ハイライト間対応検出に係るフローチャートである。LRのグループの認識が異なる場合は、対応を取ることができない。そこで、図17のように、ハイライト毎の対応を取る。
(Detection between highlights)
FIG. 34 shows a subroutine for detecting correspondence between side highlight groups, and is a flowchart relating to detection of correspondence between highlights. If the recognition of the LR group is different, no action can be taken. Therefore, as shown in FIG.

S5601では、「Lのハイライトを一つ選ぶ」の処理により、登録部23からLの側面ハイライトが一つ読み込まれ、S5602ヘ移行する。   In S5601, one L side highlight is read from the registration unit 23 by the process of “select one L highlight”, and the process proceeds to S5602.

S5602では、「縦方向の位置がほぼ同じであるRのハイライトで最も重心間距離が近いものを探す」の処理により、図17のようにLの一つの側面ハイライトに対しRの側面ハイライトで縦方向の位置がほぼ同じで最も重心間距離が近いものが抽出され、S5603ヘ移行する。   In S5602, the process of “search for R highlights having the same vertical position and the closest distance between the centroids” is performed on one side highlight of L as shown in FIG. Lights having the same vertical position and the shortest distance between the centers of gravity are extracted, and the flow shifts to S5603.

S5603では、「重心間距離が十分近い?」の判断処理が行われる。重心間距離が、同一の側面ハイライトであると見なせるほど近い場合は(YES)、S5604ヘ移行し、重心間距離が、同一の側面ハイライトと見なせない大きさであるとき(NO)、S5605へ移行する。   In S5603, a determination process of “Is the distance between the centers of gravity sufficiently close?” Is performed. When the distance between the centers of gravity is close enough to be regarded as the same side highlight (YES), the process proceeds to S5604, and when the distance between the centers of gravity is a size that cannot be regarded as the same side highlight (NO), S5605. Migrate to

S5604では、「対応ハイライトと見なす」の処理により、該当するRの側面ハイライトが、Lの側面ハイライトにS5601〜S5603のように対応付けられたので、これを対応ハイライトとして登録部23に登録し、S5605ヘ移行する。   In S5604, the corresponding R side highlight is associated with the L side highlight as shown in S5601 to S5603 by the process of “considering it as a corresponding highlight”. And the process proceeds to S5605.

S5605では、「すべてのLのハイライトを調べ終えた?」の判断処理が行われ、調べ終えていないと判断されれば(NO)、S5601へ処理が戻され、S5601〜S5605が繰り返される。調べ終えたと判断されれば(YES)、S5606ヘ移行する。   In S5605, a determination process of “has all the L highlights been checked?” Is performed. If it is determined that the check has not been completed (NO), the process returns to S5601, and S5601 to S5605 are repeated. If it is determined that the examination has been completed (YES), the flow shifts to S5606.

S5606では、「対応ハイライトのみを残して対応グループとする」の処理により、対応を確認できた側面ハイライトだけのRのグループを登録部23ヘ登録し、図29のS7ヘ移行する。   In S5606, the R group of only the side highlights whose correspondence has been confirmed is registered in the registration unit 23 by the process of “leaving only the corresponding highlights as a corresponding group”, and the process proceeds to S7 in FIG.

(画像マッチング対応検出)
図35は、側面ハイライトグループ間対応検出のサブルーチンを示し、画像マッチング検出に係るサブルーチンのフローチャートである。図18のように、巻ばねが完全に左右方向を向いている場合は、ハイライトの対応の候補が複数考えられ、ハイライトだけからでは一つに絞り込むことができない。そこで、この場合は一方のカメラ側の元画像で、図19のように、元画像に対し、ハイライトのグループより一回り大きい領域を考え、領域を拡大して判断する。
(Image matching support detection)
FIG. 35 shows a subroutine for detecting correspondence between side highlight groups, and is a flowchart of a subroutine relating to image matching detection. As shown in FIG. 18, when the winding spring is completely oriented in the left-right direction, a plurality of highlight correspondence candidates are conceivable, and it is not possible to narrow down to only one from the highlight alone. Therefore, in this case, the original image on one camera side is determined by enlarging the area by considering a region that is slightly larger than the highlight group with respect to the original image as shown in FIG.

S5701では、「Lのグループを含むLの元画像の領域をテンプレートとして設定」の処理により、選択されたLの一つのグループがほぼ水平であるとき、このグループを含む元画像の領域をテンプレートとして登録部23に登録し、S5702ヘ移行する。   In step S5701, when one of the selected L groups is substantially horizontal by the process of “setting the L original image area including the L group as a template”, the original image area including this group is used as the template. Registration is performed in the registration unit 23, and the process proceeds to S5702.

S5702では、「Rのグループを含むRの元画像に広めの探索領域を設定」の処理により、図19のように、Rのグループの回りに拡大した領域をそれぞれ設定し、登録部23に登録し、S5703ヘ移行する。   In S5702, by setting “a wide search area in the R original image including the R group”, the areas enlarged around the R group are respectively set and registered in the registration unit 23 as shown in FIG. Then, the process proceeds to S5703.

S5703では、「画像マッチングでマッチング位置を算出」の処理により、Rの拡大した各領域情報からLRの画像マッチングによりマッチング位置を算出し、S5704へ移行する。   In S5703, a “matching position is calculated by image matching” process is performed to calculate a matching position by LR image matching from each region information in which R is enlarged, and the process proceeds to S5704.

S5704では、「Lのハイライトを一つ選ぶ」の処理により、マッチング位置におけるLの側面ハイライトを一つ選択し、S5705ヘ移行する。   In S5704, one L side highlight at the matching position is selected by the process of “select one L highlight”, and the process proceeds to S5705.

S5705では、「Rのマッチング領域に位置の近いハイライトがある?」の判断処理が行われる。S5704で選ばれたLの側面ハイライトによりRの拡大されたマッチング領域でテンプレート・マッチングが行われる。このマッチングによりLの側面ハイライトに近いRの側面ハイライトがあれば(YES)、S5706ヘ移行し、なければ(NO)、S5707ヘ移行する。   In S5705, a determination process of “Is there a highlight close to the matching area in R?” Is performed. Template matching is performed in the matching region in which R is enlarged by the L side highlight selected in S5704. If there is an R side highlight close to the L side highlight by this matching (YES), the process proceeds to S5706, and if not (NO), the process proceeds to S5707.

S5706では、「対応ハイライトと見なす」の処理により、該当するRの側面ハイライトが、Lの側面ハイライトに対応付けられたので、これを対応ハイライトとして登録部23に登録し、S5707ヘ移行する。   In S5706, the corresponding “side highlight” is associated with the L side highlight by the process of “considering it as a corresponding highlight”, and is registered in the registration unit 23 as the corresponding highlight. Transition.

S5707では、「すべてのLのハイライトを調べ終えた?」の判断処理が行われ、調べ終えていないと判断されれば(NO)、S5704へ処理が戻され、S5704〜S5707が繰り返される。調べ終えたと判断されれば(YES)、S5708ヘ移行する。   In S5707, a determination process of “has all the L highlights been checked?” Is performed. If it is determined that the check has not been completed (NO), the process returns to S5704, and S5704 to S5707 are repeated. If it is determined that the examination has been completed (YES), the flow shifts to S5708.

S5708では、「対応ハイライトのみを残して対応グループとする」の処理により、対応を確認できた側面ハイライトだけのRのグループを登録部23ヘ登録し、図29のS7ヘ移行する。   In S5708, the R group of only the side highlight that has been confirmed to be supported is registered in the registration unit 23 by the process of “leaving only the corresponding highlight as a corresponding group”, and the process proceeds to S7 in FIG.

このようにして、対象物移動プログラムは、ばら積みの巻ばね3を特定しハンド1011により把持して移動する機能をコンピュータに実現させる対象物移動プログラムであって、ばら積みの巻ばね3・・・全体にLEDスポットライト7により照明光を当てた状態で2台のカメラにより撮像された各画像を二値化処理して各反射形状のハイライトを画像毎にそれぞれ抽出するハイライト抽出機能S2L、S2R、S21、S22と、巻ばね3の形状に対応させるための特徴量を各ハイライトから抽出する特徴量抽出機能S2L、S2R、S22と、特徴量によりハイライトを複数1組毎のグループとして画像毎に決定するグループ化機能S2L、S2R、S23、S25と、グループの画像間での対応を検出する対応検出機能S5と、検出により対応したグループで巻ばね3を認識し各カメラの位置を基準とした巻ばね3の位置、姿勢をステレオ画像処理により演算する位置・姿勢演算機能S8と、演算された巻ばね3の位置、姿勢によりハンド1011の動作を制御する動作制御機能S10、S11とを備えた。   In this way, the object moving program is an object moving program for causing the computer to realize the function of specifying the bulky spring 3 and grasping and moving it by the hand 1011, and the bulky spring 3. Highlight extraction functions S2L and S2R for binarizing each image picked up by two cameras in a state where illumination light is applied to the LED spotlight 7 and extracting highlights of each reflection shape for each image. , S21, S22, and feature quantity extraction functions S2L, S2R, S22 for extracting feature quantities corresponding to the shape of the winding spring 3 from each highlight, and a plurality of highlights as a group for each set based on the feature quantities Grouping functions S2L, S2R, S23, and S25 that are determined every time, a correspondence detection function S5 that detects correspondence between the images of the group, and detection A position / attitude calculation function S8 for recognizing the winding spring 3 in a more corresponding group and calculating the position and orientation of the winding spring 3 based on the position of each camera by stereo image processing, and the calculated position of the winding spring 3; Operation control functions S10 and S11 for controlling the operation of the hand 1011 according to the posture are provided.

したがって、ばら積みされた巻ばね3・・・の認識、位置、姿勢の演算による特定を正確に行わせることができ、ばら積みの巻ばね3・・・のピッキングの自動化に供することができる。   Therefore, it is possible to accurately identify the wound springs 3..., Which are recognized by the calculation of the position, the posture, and to automate the picking of the bulk springs 3.

対象物移動プログラムは、判別された端面のハイライトから最終的な端面のハイライトを決定する端面ハイライト検出機能S2L、S2R、S24を備え、対応検出処理機能S5は、端面のハイライトの画像間での対応を検出しS6、位置・姿勢演算機能S8は、検出により対応したグループ及び端面のハイライトにより巻ばね3を認識し各カメラ1005、1007の位置を基準とした巻ばね3の位置、姿勢をステレオ画像処理により演算する。   The object movement program includes end face highlight detection functions S2L, S2R, and S24 that determine the final end face highlight from the identified end face highlight, and the correspondence detection processing function S5 is an image of the end face highlight. S6, and the position / posture calculation function S8 recognizes the winding spring 3 based on the detected group and the highlight of the end face, and the position of the winding spring 3 with reference to the positions of the cameras 1005 and 1007. The posture is calculated by stereo image processing.

したがって、端面ハイライトからも巻ばね3・・・の認識、位置、姿勢の演算による特定を行わせることができる。   Therefore, identification by the calculation of recognition, position, and orientation of the winding springs 3.

本発明実施例は、対象物移動プログラムを坦持したコンピュータ読み取り可能な記録媒体とした。   The embodiment of the present invention is a computer-readable recording medium carrying an object moving program.

したがって、巻ばね3・・・のピッキングの自動化等のために、対象物移動プログラムをコンピュータに読み取らせることができる。   Therefore, the object moving program can be read by the computer for the automation of picking of the winding springs 3.

本発明の対象物移動方法は、ばら積みの巻ばね3を特定しハンド1011により把持して移動する対象物移動方法であって、ばら積みの巻ばね3・・・全体にLEDスポットライト7により照明光を当てた状態で2台のカメラにより撮像された各画像を二値化処理して各反射形状のハイライトを画像毎にそれぞれ抽出するハイライト抽出ステップS2L、S2R、S21、S22と、巻ばね3の形状に対応させるための特徴量を各ハイライトから抽出する特徴量抽出ステップS2L、S2R、S22と、特徴量によりハイライトを複数1組毎のグループとして画像毎に決定するグループ化ステップS2L、S2R、S23、S25と、グループの画像間での対応を検出する対応検出ステップS5と、検出により対応したグループで巻ばね3を認識し各カメラの位置を基準とした巻ばね3の位置、姿勢を決定する位置・姿勢決定ステップS8と、巻ばね3の位置、姿勢によりハンド1011の動作を行わせる動作ステップS10、S11とを備えた。   The object moving method of the present invention is an object moving method in which a bulk winding spring 3 is identified and gripped by the hand 1011 and moved. Highlight extraction steps S2L, S2R, S21, and S22 for binarizing each image picked up by two cameras in a state of being applied and extracting each reflection-shaped highlight for each image, and a winding spring Feature amount extraction steps S2L, S2R, and S22 for extracting feature amounts corresponding to the three shapes from the highlights, and a grouping step S2L for determining the highlights for each set as a group for each set based on the feature amounts. , S2R, S23, S25, the correspondence detection step S5 for detecting the correspondence between the images of the group, and the winding spring 3 in the group corresponding to the detection. A position / posture determination step S8 for determining the position and posture of the winding spring 3 based on the position of each camera, and operation steps S10 and S11 for operating the hand 1011 according to the position and posture of the winding spring 3. Prepared.

したがって、上記同様に、巻ばね3・・・のピッキングの自動化に供することができる。   Therefore, like the above, it is possible to automate the picking of the winding springs 3.

対象物移動方法は、判別された端面のハイライトから最終的な端面のハイライトを決定する端面ハイライト検出ステップS2L、S2R、S24を備え、対応検出ステップS5は、端面のハイライトの画像間での対応を検出しS6、位置・姿勢決定ステップS8は、検出により対応したグループ及び端面のハイライトにより巻ばね3を認識し各カメラ1005、1007位置を基準とした巻ばね3の位置、姿勢を決定する。   The object moving method includes end face highlight detection steps S2L, S2R, and S24 for determining the final end face highlight from the determined end face highlight, and the correspondence detection step S5 is performed between the images of the end face highlights. In step S6, a position / posture determination step S8 detects the position of the spring 3 by recognizing the corresponding group and the highlight of the end face and detecting the position of the spring 3 based on the positions of the cameras 1005 and 1007. To decide.

したがって、端面ハイライトからも巻ばね3・・・の認識、位置、姿勢の演算による特定を行わせることができる。   Therefore, identification by the calculation of recognition, position, and orientation of the winding springs 3.

[その他]
本発明は、対象物として巻ばねに限らず、その他、形状に空間部が存在して輪郭を分断された同一形状の対象物が不規則に集合した中で各対象物を認識する場合、例えば、巻ばねと同一形状であるがばね性を有しない対象物、矩形体、球体等で形状に空間部が存在して輪郭を分断された対象物の認識にも適用することができる。
[Others]
The present invention is not limited to a wound spring as an object, and in addition, when recognizing each object in a collection of irregularly shaped objects having the same shape and having a space portion, for example, The present invention can also be applied to recognition of an object having the same shape as that of a wound spring but having no spring property, a rectangular body, a sphere, or the like and having a space portion in the shape and the contour is divided.

上記実施例では、仮グループ化してからグループ化したが、仮グループ化せずに特徴量としてハイライトの形状、ハイライトの直線的な並び、間隔、及び数により直接にグループ化することもできる。   In the above-described embodiment, the grouping is performed after the temporary grouping. However, the grouping may be performed directly based on the highlight shape, the linear arrangement of the highlights, the interval, and the number as the feature amount without the temporary grouping. .

1001 対象物移動装置
1003 対象物特定装置
1005、1007 カメラ
1009 ロボット・コントローラ(制御部)
1011 ロボット/ハンド
1 対象物認識部
3 巻ばね(対象物)
7 LEDスポット・ライト
13 ハイライト抽出処理部
15 ハイライト判別処理部
17 特徴量抽出処理部
19 仮グループ化処理部
21 グループ化処理部
22 端面ハイライト検出部
25 対応検出処理部
27 位置・姿勢演算部
S2L、S2R ハイライト抽出機能、ハイライト判別機能、特徴量抽出機能、ハイライト抽出ステップ、ハイライト判別ステップ、特徴量抽出ステップ
S5 対応検出機能、対応検出ステップ
S8 位置・姿勢演算機能、位置・姿勢決定ステップ
S10、S11 動作制御機能、動作制御ステップ
S23 仮グループ化機能、仮グループ化ステップ
S24 端面ハイライト検出機能、端面ハイライト検出ステップ
S25 グループ化機能、グループ化ステップ
1001 Object moving device 1003 Object identifying device 1005, 1007 Camera 1009 Robot controller (control unit)
1011 Robot / Hand 1 Object recognition unit 3 Winding spring (object)
7 LED spot / light 13 Highlight extraction processing unit 15 Highlight discrimination processing unit 17 Feature amount extraction processing unit 19 Temporary grouping processing unit 21 Grouping processing unit 22 End face highlight detection unit 25 Corresponding detection processing unit 27 Position / attitude calculation Part S2L, S2R Highlight extraction function, highlight discrimination function, feature quantity extraction function, highlight extraction step, highlight discrimination step, feature quantity extraction step S5 Correspondence detection function, correspondence detection step S8 Position / attitude calculation function, position / Posture Determination Steps S10, S11 Motion Control Function, Motion Control Step S23 Temporary Grouping Function, Temporary Grouping Step S24 End Surface Highlight Detection Function, End Surface Highlight Detection Step S25 Grouping Function, Grouping Step

Claims (14)

形状に端面と空間部が存在して輪郭を分断された側面とを備える同一形状の対象物が不規則に集合した中で前記対象物を特定しハンドにより把持して移動する対象物移動装置であって、
前記集合した対象物全体に照明光を当てた状態で2台のカメラにより撮像された各画像を二値化処理して各反射形状のハイライトを前記画像毎にそれぞれ抽出するハイライト抽出処理部と、
前記抽出されたハイライトに面積の閾値処理を施し前記対象物の側面に対応する側面のハイライトと前記対象物の端面に対応する端面のハイライトとを判別するハイライト判別処理部と、
前記対象物の側面形状に対応させるための複数の特徴量を前記各側面のハイライトから抽出する特徴量抽出処理部と、
前記特徴量により前記側面のハイライトを複数1組毎のグループとして前記画像毎に決定するグループ化処理部と、
前記グループの前記画像間での対応を検出する対応検出処理部と、
前記検出により対応したグループで前記対象物を認識し前記各カメラの位置を基準とした該対象物の位置、姿勢をステレオ画像処理により演算する位置・姿勢演算部と、
前記演算された対象物の位置、姿勢により前記ハンドの動作を制御する制御部と、
を備えたことを特徴とする対象物移動装置。
An object moving device that identifies and moves the object with the hand while the object having the same shape having an end face and a side surface in which the shape is present and the contour is divided is irregularly assembled There,
A highlight extraction processing unit that binarizes each image captured by two cameras in a state where illumination light is applied to the entire target object and extracts highlights of each reflection shape for each image. When,
A highlight determination processing unit that performs threshold processing of an area on the extracted highlight and determines a highlight on a side surface corresponding to a side surface of the object and a highlight on an end surface corresponding to an end surface of the object;
A feature amount extraction processing unit for extracting a plurality of feature amounts for corresponding to the side surface shape of the object from highlights of the side surfaces ;
A grouping processing unit that determines, for each image, a plurality of sets of side highlights according to the feature amount;
A correspondence detection processing unit for detecting correspondence between the images of the group;
A position / attitude calculation unit that recognizes the object in a group corresponding to the detection and calculates the position and orientation of the object with reference to the position of each camera by stereo image processing;
A control unit that controls the operation of the hand according to the calculated position and orientation of the object;
An object moving apparatus comprising:
形状に端面と空間部が存在して輪郭を分断された側面とを備える同一形状の対象物が不規則に集合した中で前記対象物を特定しハンドにより把持して移動する対象物移動装置であって、
前記集合した対象物全体に照明光を当てた状態で2台のカメラにより撮像された各画像を二値化処理して各反射形状のハイライトを前記画像毎にそれぞれ抽出するハイライト抽出処理部と、
前記抽出されたハイライトに面積の閾値処理を施し前記対象物の側面に対応する側面のハイライトと前記対象物の端面に対応する端面のハイライトとを判別するハイライト判別処理部と、
前記対象物の側面形状に対応させるための複数の特徴量を前記各側面のハイライトから抽出する特徴量抽出処理部と、
前記特徴量により前記側面のハイライトを複数1組毎のグループとして前記画像毎に決定するグループ化処理部と、
前記グループの前記画像間での対応を検出する対応検出処理部と、
前記検出により対応したグループで前記対象物を認識し前記各カメラの位置を基準とした該対象物の位置、姿勢をステレオ画像処理により演算する位置・姿勢演算部と、
前記演算された対象物の位置、姿勢により前記ハンドの動作を制御する制御部と、
前記複数の特徴量から選択した特定の特徴量により前記側面のハイライトを複数1組毎の仮グループとする仮グループ化処理部と、を備え、
前記グループ化処理部は、前記仮グループとされた側面のハイライトを前記複数の特徴量から選択した特定の他の特徴量によりグループとして決定する、
ことを特徴とする対象物移動装置。
An object moving device that identifies and moves the object with the hand while the object having the same shape having an end face and a side surface in which the shape is present and the contour is divided is irregularly assembled There,
A highlight extraction processing unit that binarizes each image captured by two cameras in a state where illumination light is applied to the entire target object and extracts highlights of each reflection shape for each image. When,
A highlight determination processing unit that performs threshold processing of an area on the extracted highlight and determines a highlight on a side surface corresponding to a side surface of the object and a highlight on an end surface corresponding to an end surface of the object;
A feature amount extraction processing unit for extracting a plurality of feature amounts for corresponding to the side surface shape of the object from highlights of the side surfaces ;
A grouping processing unit that determines, for each image, a plurality of sets of side highlights according to the feature amount;
A correspondence detection processing unit for detecting correspondence between the images of the group;
A position / attitude calculation unit that recognizes the object in a group corresponding to the detection and calculates the position and orientation of the object with reference to the position of each camera by stereo image processing;
A control unit that controls the operation of the hand according to the calculated position and orientation of the object;
A temporary grouping processing unit that sets the side highlights as a temporary group for each of a plurality of sets according to a specific feature amount selected from the plurality of feature amounts;
The grouping processing unit determines a highlight of the side surface as the temporary group as a group based on another specific feature amount selected from the plurality of feature amounts.
The object moving apparatus characterized by the above-mentioned.
請求項1又は2記載の対象物移動装置であって、
前記判別された端面のハイライトから最終的な端面のハイライトを決定する端面ハイライト検出部を備え、
前記対応検出処理部は、前記端面のハイライトの前記画像間での対応を検出し、
前記位置・姿勢演算部は、前記検出により対応したグループ及び端面のハイライトにより前記対象物を認識し前記各カメラの位置を基準とした該対象物の位置、姿勢を演算する、
ことを特徴とする対象物移動装置。
The object moving device according to claim 1 or 2 ,
An end face highlight detection unit for determining a final end face highlight from the determined end face highlight;
The correspondence detection processing unit detects correspondence between the images of the highlight on the end face,
The position / attitude calculation unit recognizes the object by highlighting the corresponding group and end face by the detection, and calculates the position and attitude of the object based on the position of each camera.
The object moving apparatus characterized by the above-mentioned.
請求項1〜の何れか1項記載の対象物移動装置であって、
前記対応検出処理部は、前記グループの対応を前記ハイライトの面積、重心位置、並びの向き、グループ重心間距離、数、重心の縦方向位置の何れかの組み合わせにより検出する、
ことを特徴とする対象物移動装置。
The object moving device according to any one of claims 1 to 3 ,
The correspondence detection processing unit detects the correspondence of the group by any combination of the area of the highlight, the centroid position, the alignment direction, the distance between group centroids, the number, and the vertical position of the centroid.
The object moving apparatus characterized by the above-mentioned.
請求項1〜の何れか1項記載の対象物移動装置であって、
前記対応検出処理部は、前記ハイライトのグループの並びの向きが水平又は水平と看做されるとき前記カメラにより撮像された各元画像の対比により前記グループの対応を検出する、
ことを特徴とする対象物移動装置。
The object moving device according to any one of claims 1 to 4 ,
The correspondence detection processing unit detects the correspondence of the group by comparing each original image captured by the camera when the orientation of the highlight group is regarded as horizontal or horizontal.
The object moving apparatus characterized by the above-mentioned.
請求項記載の対象物移動装置であって、
前記対応検出処理部は、前記水平又は水平と看做されるグループを含む前記カメラにより撮像された元画像内の探索領域を周辺情報を含めるように設定する、
ことを特徴とする対象物移動装置。
The object moving device according to claim 5 ,
The correspondence detection processing unit sets the search area in the original image captured by the camera including the group regarded as horizontal or horizontal to include peripheral information.
The object moving apparatus characterized by the above-mentioned.
形状に空間部が存在して輪郭を分断された同一形状の対象物が不規則に集合した中で前記対象物を特定しハンドにより把持して移動する対象物移動装置であって、
前記集合した対象物全体に照明光を当てた状態で2台のカメラにより撮像された各画像を二値化処理して各反射形状のハイライトを前記画像毎にそれぞれ抽出するハイライト抽出処理部と、
前記対象物の形状に対応させるための特徴量を前記各ハイライトから抽出する特徴量抽出処理部と、
前記特徴量により前記ハイライトを複数1組毎のグループとして前記画像毎に決定するグループ化処理部と、
前記グループの前記画像間での対応を検出する対応検出処理部と、
前記検出により対応したグループで前記対象物を認識し前記各カメラの位置を基準とした該対象物の位置、姿勢をステレオ画像処理により演算する位置・姿勢演算部と、
前記演算された対象物の位置、姿勢により前記ハンドの動作を制御する制御部と、を備え、
前記対応検出処理部は、前記ハイライトのグループの並びの向きが水平又は水平と看做されるとき前記カメラにより撮像された各元画像の対比により前記グループの対応を検出する、
ことを特徴とする対象物移動装置。
An object moving device for moving the object by identifying the object and grasping it with a hand while the objects of the same shape, whose space part exists in the shape and whose outline is divided, are irregularly assembled,
A highlight extraction processing unit that binarizes each image captured by two cameras in a state where illumination light is applied to the entire target object and extracts highlights of each reflection shape for each image. When,
A feature amount extraction processing unit that extracts a feature amount corresponding to the shape of the object from each highlight;
A grouping processing unit that determines, for each image, the highlights as a group for each set by the feature amount;
A correspondence detection processing unit for detecting correspondence between the images of the group;
A position / attitude calculation unit that recognizes the object in a group corresponding to the detection and calculates the position and orientation of the object with reference to the position of each camera by stereo image processing;
A controller that controls the operation of the hand according to the calculated position and orientation of the object,
The correspondence detection processing unit detects the correspondence of the group by comparing each original image captured by the camera when the orientation of the highlight group is regarded as horizontal or horizontal.
The object moving apparatus characterized by the above-mentioned.
請求項記載の対象物移動装置であって、
前記対応検出処理部は、前記水平又は水平と看做されるグループを含む前記カメラにより撮像された元画像内の探索領域を周辺情報を含めるように設定する、
ことを特徴とする対象物移動装置。
The object moving device according to claim 7 ,
The correspondence detection processing unit sets the search area in the original image captured by the camera including the group regarded as horizontal or horizontal to include peripheral information.
The object moving apparatus characterized by the above-mentioned.
請求項1〜8の何れか1項記載の対象物移動装置であって、
前記対象物は、巻ばねである、
ことを特徴とする対象物移動装置。
The object moving device according to any one of claims 1 to 8,
The object is a coil spring.
The object moving apparatus characterized by the above-mentioned.
形状に端面と空間部が存在して輪郭を分断された側面とを備える同一形状の対象物が不規則に集合した中で前記対象物を特定しハンドにより把持して移動する対象物移動方法であって、
前記集合した対象物全体に照明光を当てた状態で2台のカメラにより撮像された各画像を二値化処理して各反射形状のハイライトを前記画像毎にそれぞれ抽出するハイライト抽出ステップと、
前記抽出されたハイライトに面積の閾値処理を施し前記対象物の側面に対応する側面のハイライトと前記対象物の端面に対応する端面のハイライトとを判別するハイライト判別ステップと、
前記判別された端面のハイライトから最終的な端面のハイライトを決定する端面ハイライト検出ステップと、
前記対象物の側面形状に対応させるための複数の特徴量を前記各側面のハイライトから抽出する特徴量抽出ステップと、
前記特徴量により前記側面のハイライトを複数1組毎のグループとして前記画像毎に決定するグループ化ステップと、
前記グループ及び端面のハイライトの前記画像間での対応を検出する対応検出ステップと、
前記検出により対応したグループ及び端面のハイライトにより前記対象物を認識し前記各カメラの位置を基準とした該対象物の位置、姿勢を決定する位置・姿勢決定ステップと、
前記対象物の位置、姿勢により前記ハンドの動作を行わせる動作ステップと、
を備えたことを特徴とする対象物移動方法。
In the object moving method in which the object of the same shape and a side end face and the space portion is divided the present contour shape moves gripped by a specific hand-said object in the assembled irregularly There,
A highlight extraction step of binarizing each image picked up by two cameras in a state in which illumination light is applied to the entire target object and extracting highlights of each reflection shape for each image; ,
A highlight determination step for performing threshold processing of an area on the extracted highlight to determine a highlight on a side surface corresponding to the side surface of the object and a highlight on an end surface corresponding to the end surface of the object;
An end face highlight detection step for determining a final end face highlight from the determined end face highlight;
A feature amount extracting step of extracting a plurality of feature amounts to correspond to the side surface shape of the object from highlights of the side surfaces ;
A grouping step of determining, for each image, a plurality of sets of side highlights according to the feature amount;
A correspondence detection step for detecting correspondence between the images of the group and end face highlights ;
A position / posture determination step for recognizing the target object by highlighting the corresponding group and end face by the detection and determining the position and posture of the target object based on the position of each camera;
An operation step of causing the hand to move according to the position and orientation of the object;
An object moving method characterized by comprising:
形状に端面と空間部が存在して輪郭を分断された側面とを備える同一形状の対象物が不規則に集合した中で前記対象物を特定しハンドにより把持して移動する機能をコンピュータに実現させる対象物移動プログラムであって、
前記集合した対象物全体に照明光を当てた状態で2台のカメラにより撮像された各画像を二値化処理して各反射形状のハイライトを前記画像毎にそれぞれ抽出するハイライト抽出機能と、
前記抽出されたハイライトに面積の閾値処理を施し前記対象物の側面に対応する側面のハイライトと前記対象物の端面に対応する端面のハイライトとを判別するハイライト判別機能と、
前記対象物の側面形状に対応させるための複数の特徴量を前記各側面のハイライトから抽出する特徴量抽出機能と、
前記特徴量により前記側面のハイライトを複数1組毎のグループとして前記画像毎に決定するグループ化機能と、
前記グループの前記画像間での対応を検出する対応検出機能と、
前記検出により対応したグループで前記対象物を認識し前記各カメラの位置を基準とした該対象物の位置、姿勢をステレオ画像処理により演算する位置・姿勢演算機能と、
前記演算された対象物の位置、姿勢により前記ハンドの動作を制御する動作制御機能と、
を前記機能として備えたことを特徴とする対象物移動プログラム。
Realizing the function of the object of the same shape and a side end face and the space portion is divided the present contour shape moves gripped by a specific hand-said object in the assembled irregularly to the computer An object movement program to cause
A highlight extraction function for binarizing each image picked up by two cameras in a state where illumination light is applied to the entire collected object and extracting highlights of each reflection shape for each image; ,
A highlight determination function for performing threshold processing of an area on the extracted highlight to determine a highlight on a side surface corresponding to a side surface of the object and a highlight on an end surface corresponding to an end surface of the object;
A feature amount extraction function for extracting a plurality of feature amounts to correspond to the side surface shape of the object from the highlights of the side surfaces ;
A grouping function for determining each side image as a group of a plurality of sets of side highlights based on the feature amount;
A correspondence detection function for detecting correspondence between the images of the group;
A position / attitude calculation function for recognizing the object in a group corresponding to the detection and calculating the position and orientation of the object with reference to the position of each camera by stereo image processing;
An operation control function for controlling the operation of the hand according to the calculated position and orientation of the object;
As a function of the object movement program.
形状に端面と空間部が存在して輪郭を分断された側面とを備える同一形状の対象物が不規則に集合した中で前記対象物を特定しハンドにより把持して移動する機能をコンピュータに実現させる対象物移動プログラムであって、The computer has a function to identify and hold the object with a hand and move it while the objects of the same shape, which have end faces and side faces that have a space portion and are divided in outline, are irregularly assembled. An object movement program to cause
前記集合した対象物全体に照明光を当てた状態で2台のカメラにより撮像された各画像を二値化処理して各反射形状のハイライトを前記画像毎にそれぞれ抽出するハイライト抽出機能と、A highlight extraction function for binarizing each image picked up by two cameras in a state where illumination light is applied to the entire collected object and extracting highlights of each reflection shape for each image; ,
前記抽出されたハイライトに面積の閾値処理を施し前記対象物の側面に対応する側面のハイライトと前記対象物の端面に対応する端面のハイライトとを判別するハイライト判別機能と、A highlight determination function for performing threshold processing of an area on the extracted highlight to determine a highlight on a side surface corresponding to a side surface of the object and a highlight on an end surface corresponding to an end surface of the object;
前記対象物の側面形状に対応させるための複数の特徴量を前記各側面のハイライトから抽出する特徴量抽出機能と、A feature amount extraction function for extracting a plurality of feature amounts to correspond to the side surface shape of the object from the highlights of the side surfaces;
前記特徴量により前記側面のハイライトを複数1組毎のグループとして前記画像毎に決定するグループ化機能と、A grouping function for determining each side image as a group of a plurality of sets of side highlights based on the feature amount;
前記グループの前記画像間での対応を検出する対応検出機能と、A correspondence detection function for detecting correspondence between the images of the group;
前記検出により対応したグループで前記対象物を認識し前記各カメラの位置を基準とした該対象物の位置、姿勢をステレオ画像処理により演算する位置・姿勢演算機能と、A position / attitude calculation function for recognizing the object in a group corresponding to the detection and calculating the position and orientation of the object with reference to the position of each camera by stereo image processing;
前記演算された対象物の位置、姿勢により前記ハンドの動作を制御する動作制御機能と、An operation control function for controlling the operation of the hand according to the calculated position and orientation of the object;
前記複数の特徴量から選択した特定の特徴量により前記側面のハイライトを複数1組毎の仮グループとする仮グループ化機能と、を前記機能として備え、A provisional grouping function as a temporary group for each one of a plurality of sets of highlights on the side surface according to a specific feature amount selected from the plurality of feature amounts;
前記グループ化機能は、前記仮グループとされた側面のハイライトを前記複数の特徴量から選択した特定の他の特徴量によりグループとして決定する、The grouping function determines a highlight of the side surface as the temporary group as a group based on another specific feature amount selected from the plurality of feature amounts.
ことを特徴とする対象物移動プログラム。An object moving program characterized by that.
形状に端面と空間部が存在して輪郭を分断された側面とを備える同一形状の対象物が不規則に集合した中で前記対象物を特定しハンドにより把持して移動する機能をコンピュータに実現させる対象物移動プログラムであって、
前記集合した対象物全体に照明光を当てた状態で2台のカメラにより撮像された各画像を二値化処理して各反射形状のハイライトを前記画像毎にそれぞれ抽出するハイライト抽出機能と、
前記抽出されたハイライトに面積の閾値処理を施し前記対象物の側面に対応する側面のハイライトと前記対象物の端面に対応する端面のハイライトとを判別するハイライト判別機能と、
前記対象物の側面形状に対応させるための複数の特徴量を前記各側面のハイライトから抽出する特徴量抽出機能と、
前記特徴量により前記側面のハイライトを複数1組毎のグループとして前記画像毎に決定するグループ化機能と、
前記判別された端面のハイライトから最終的な端面のハイライトを決定する端面ハイライト検出機能と、
前記グループ及び端面のハイライトの前記画像間での対応を検出する対応検出機能と、
前記検出により対応したグループ及び端面のハイライトで前記対象物を認識し前記各カメラの位置を基準とした該対象物の位置、姿勢をステレオ画像処理により演算する位置・姿勢演算機能と、
前記演算された対象物の位置、姿勢により前記ハンドの動作を制御する動作制御機能と、
を前記機能として備えたことを特徴とする対象物移動プログラム。
Realizing the function of the object of the same shape and a side end face and the space portion is divided the present contour shape moves gripped by a specific hand-said object in the assembled irregularly to the computer An object movement program to cause
A highlight extraction function for binarizing each image picked up by two cameras in a state where illumination light is applied to the entire collected object and extracting highlights of each reflection shape for each image; ,
A highlight determination function for performing threshold processing of an area on the extracted highlight to determine a highlight on a side surface corresponding to a side surface of the object and a highlight on an end surface corresponding to an end surface of the object;
A feature amount extraction function for extracting a plurality of feature amounts to correspond to the side surface shape of the object from the highlights of the side surfaces ;
A grouping function for determining each side image as a group of a plurality of sets of side highlights based on the feature amount;
An end face highlight detection function for determining a final end face highlight from the determined end face highlight;
A correspondence detection function for detecting correspondence between the group and the highlight of the end face between the images;
A position / attitude calculation function for recognizing the object by highlighting the corresponding group and end face by the detection and calculating the position and orientation of the object with reference to the position of each camera by stereo image processing;
An operation control function for controlling the operation of the hand according to the calculated position and orientation of the object;
As a function of the object movement program.
請求項11〜13の何れか1項記載の対象物移動プログラムを坦持したコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium carrying the object moving program according to any one of claims 11 to 13 .
JP2012263234A 2012-11-30 2012-11-30 Object moving apparatus, method, program, and recording medium Active JP6052871B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012263234A JP6052871B2 (en) 2012-11-30 2012-11-30 Object moving apparatus, method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012263234A JP6052871B2 (en) 2012-11-30 2012-11-30 Object moving apparatus, method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2014109466A JP2014109466A (en) 2014-06-12
JP6052871B2 true JP6052871B2 (en) 2016-12-27

Family

ID=51030186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012263234A Active JP6052871B2 (en) 2012-11-30 2012-11-30 Object moving apparatus, method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP6052871B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101919463B1 (en) 2016-11-24 2019-02-08 한국폴리텍7대학 산학협력단 Gripper robot control system for picking of atypical form package

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6777670B2 (en) 2018-03-27 2020-10-28 ファナック株式会社 A robot system that uses image processing to correct robot teaching
JP7388970B2 (en) 2020-04-06 2023-11-29 ファナック株式会社 robot system
CN112329540A (en) * 2020-10-10 2021-02-05 广西电网有限责任公司电力科学研究院 Identification method and system for overhead transmission line operation in-place supervision

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0763515A (en) * 1993-08-25 1995-03-10 Ishikawajima Harima Heavy Ind Co Ltd Method for automatically measuring position of cylinder
EP0812662B1 (en) * 1995-12-27 2008-01-23 Fanuc Ltd Composite sensor robot system
JP3768174B2 (en) * 2002-07-24 2006-04-19 ファナック株式会社 Work take-out device
JP2011167815A (en) * 2010-02-19 2011-09-01 Ihi Corp Object recognizing robot system
US8165403B1 (en) * 2010-11-19 2012-04-24 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining poses of specular objects

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101919463B1 (en) 2016-11-24 2019-02-08 한국폴리텍7대학 산학협력단 Gripper robot control system for picking of atypical form package

Also Published As

Publication number Publication date
JP2014109466A (en) 2014-06-12

Similar Documents

Publication Publication Date Title
JP5618569B2 (en) Position and orientation estimation apparatus and method
JP6721998B2 (en) Object state identification method, object state identification device, and transport vehicle
JP5458885B2 (en) Object detection method, object detection apparatus, and robot system
KR102056664B1 (en) Method for work using the sensor and system for performing thereof
JP5289087B2 (en) Work picking device
JP2013101045A (en) Recognition device and recognition method of three-dimensional position posture of article
CN103425988B (en) Real-time positioning and matching method with arc geometric primitives
CN108126914B (en) Deep learning-based robot sorting method for scattered multiple objects in material frame
JP6052871B2 (en) Object moving apparatus, method, program, and recording medium
US11654571B2 (en) Three-dimensional data generation device and robot control system
US20130058526A1 (en) Device for automated detection of feature for calibration and method thereof
CN111178138B (en) Distribution network wire operating point detection method and device based on laser point cloud and binocular vision
Jiang et al. Dual-camera-based method for identification and location of scattered self-plugging rivets for robot grasping
US9361695B2 (en) Method of recognizing a position of a workpiece from a photographed image
JPH08136220A (en) Method and device for detecting position of article
CN102788572A (en) Method, device and system for measuring attitude of lifting hook of engineering machinery
Bellandi et al. Roboscan: a combined 2D and 3D vision system for improved speed and flexibility in pick-and-place operation
JP2017217726A (en) robot
CN116494253B (en) Target object grabbing pose acquisition method and robot grabbing system
JP6624911B2 (en) Measuring device, measuring method and article manufacturing method
CN113269112A (en) Method and device for identifying capture area, electronic equipment and storage medium
JP5462662B2 (en) Position / orientation measurement apparatus, object identification apparatus, position / orientation measurement method, and program
JP2010243405A (en) Image processing marker, image processing apparatus for detecting position and attitude of marker displayed object, and image processing program
CN107330936B (en) Monocular vision-based double-circular marker positioning method and system
CN108262583B (en) Welding seam type judging and positioning method and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161124

R150 Certificate of patent or registration of utility model

Ref document number: 6052871

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250