JP6300571B2 - Harvest assistance device - Google Patents

Harvest assistance device Download PDF

Info

Publication number
JP6300571B2
JP6300571B2 JP2014036672A JP2014036672A JP6300571B2 JP 6300571 B2 JP6300571 B2 JP 6300571B2 JP 2014036672 A JP2014036672 A JP 2014036672A JP 2014036672 A JP2014036672 A JP 2014036672A JP 6300571 B2 JP6300571 B2 JP 6300571B2
Authority
JP
Japan
Prior art keywords
harvested
harvesting
edge
distance
geometric shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014036672A
Other languages
Japanese (ja)
Other versions
JP2015162073A (en
Inventor
毅彦 小川原
毅彦 小川原
石原 道章
道章 石原
謙二 大内
謙二 大内
良仁 安積
良仁 安積
和之 小林
和之 小林
聡 稲冨
聡 稲冨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hokuto Corp
Original Assignee
Hokuto Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hokuto Corp filed Critical Hokuto Corp
Priority to JP2014036672A priority Critical patent/JP6300571B2/en
Publication of JP2015162073A publication Critical patent/JP2015162073A/en
Application granted granted Critical
Publication of JP6300571B2 publication Critical patent/JP6300571B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、収穫補助装置に関する。特に、本発明は、収穫すべき収穫対象物を精度良く検知することができる収穫補助装置に関する。   The present invention relates to a harvesting assistance device. In particular, the present invention relates to a harvesting assistance device that can accurately detect a harvesting target to be harvested.

従来より、野菜や果実等の収穫対象物を撮像し、撮像画像に画像処理を施して収穫対象物を検知する収穫装置が種々提案されている。この種の収穫装置は、一般に、収穫対象物から反射する反射光量に応じた濃度値を有する画素から構成される濃淡画像を撮像手段で撮像し、撮像された濃淡画像の画素の濃淡差に基づいて収穫対象物を検知する方法である。   Conventionally, various harvesting apparatuses have been proposed that capture an image of a harvested object such as a vegetable or fruit and perform image processing on the captured image to detect the harvested object. In general, this type of harvesting apparatus captures a grayscale image composed of pixels having density values according to the amount of reflected light reflected from a harvested object by an imaging unit, and based on the grayscale difference between the pixels of the captured grayscale image. This is a method for detecting an object to be harvested.

上記のような収穫装置として、例えば、特許文献1には、CCDカメラで撮像した濃淡画像(RGB画像に所定の処理を施すことにより得られる濃淡画像)を2値化し、この2値化画像から収穫対象物の長さ(果実長)を推定し、推定した長さに基づいて収穫すべき収穫対象物を検知する収穫装置が提案されている。すなわち、特許文献1に記載の収穫装置において、収穫すべき収穫対象物は、専ら収穫対象物からの反射光量に応じた濃淡画像に基づいて検知されている(特許文献1の段落0016等)。なお、特許文献1には、収穫対象物までの距離を計測するための超音波距離センサが開示されているが、この超音波距離センサは、収穫すべき収穫対象物を検知するために用いられるものではなく、CCDカメラや切断手段(採果ハサミ)を搭載したマニピュレータを収穫対象物に接近させるために専ら用いられている(特許文献1の段落0015等)。   As a harvesting device as described above, for example, Patent Document 1 discloses that a grayscale image captured by a CCD camera (a grayscale image obtained by performing a predetermined process on an RGB image) is binarized, and the binarized image is used. There has been proposed a harvesting device that estimates the length (fruit length) of a harvesting object and detects the harvesting object to be harvested based on the estimated length. That is, in the harvesting device described in Patent Document 1, the harvesting target to be harvested is detected based on the grayscale image corresponding to the amount of reflected light from the harvesting target (paragraph 0016 and the like in Patent Document 1). In addition, although the ultrasonic distance sensor for measuring the distance to a harvest target object is disclosed by patent document 1, this ultrasonic distance sensor is used in order to detect the harvest target object which should be harvested. Instead, it is used exclusively to bring a manipulator equipped with a CCD camera and cutting means (fruit scissors) closer to the harvested object (paragraph 0015, etc. of Patent Document 1).

特許文献1に記載の装置など、濃淡画像に基づいて収穫すべき収穫対象物を検知する装置は、収穫対象物と背景との濃淡差が大きい場合には有効な手段であるといえる。しかしながら、収穫対象物が密集して生育している場合など、収穫対象物と背景との濃淡が近似していると、収穫対象物自体を背景と分離して検知することが困難であることから、収穫すべき収穫対象物の検知は困難となる。   An apparatus for detecting a harvested object to be harvested based on a grayscale image, such as the apparatus described in Patent Document 1, can be said to be an effective means when the grayscale difference between the harvested object and the background is large. However, it is difficult to detect the harvested object separately from the background if the harvested object and the background are close to each other, such as when the harvested object grows densely. Therefore, it is difficult to detect the harvest object to be harvested.

特許第3757279号公報Japanese Patent No. 3757279

本発明は、斯かる従来技術の問題点を解決するためになされたものであり、収穫すべき収穫対象物を精度良く検知することができる収穫補助装置を提供することを課題とする。   The present invention has been made in order to solve such problems of the prior art, and an object of the present invention is to provide a harvesting assisting device that can accurately detect a harvesting target to be harvested.

前記課題を解決するため、本発明は、収穫対象物の生育方向に直交する平面における収穫対象物の2次元座標と、前記収穫対象物の2次元座標における前記生育方向に沿った収穫対象物までの距離とを計測する3次元位置計測手段と、収穫すべき収穫対象物を決定する信号処理手段とを備える収穫補助装置であって、前記信号処理手段は、前記3次元位置計測手段により計測された2次元座標と前記3次元位置計測手段により計測された距離に応じた濃度値とを有する画素から構成される距離画像を形成する距離画像形成手段と、前記距離画像において、所定の距離以下に相当する濃度値を有する前記画素から構成される画素領域のエッジを検出するエッジ検出手段と、前記検出されたエッジに対して、収穫すべき収穫対象物に応じて予め定められた幾何学的形状をパターンマッチングさせ、前記距離画像において、マッチングした幾何学的形状が有する2次元座標に位置する画素を収穫すべき収穫対象物のエッジであると判定する判定手段とを具備することを特徴とする収穫補助装置を提供する。   In order to solve the above-described problem, the present invention includes a two-dimensional coordinate of a harvesting object on a plane orthogonal to a growing direction of the harvesting object and a harvesting object along the growing direction in the two-dimensional coordinate of the harvesting object. A three-dimensional position measuring means for measuring the distance between the two and a signal processing means for determining a harvesting target to be harvested, wherein the signal processing means is measured by the three-dimensional position measuring means. A distance image forming means for forming a distance image composed of pixels having two-dimensional coordinates and a density value corresponding to the distance measured by the three-dimensional position measuring means, and the distance image has a predetermined distance or less. Edge detection means for detecting an edge of a pixel area composed of the pixels having a corresponding density value, and the detected edge is determined in advance according to a harvest object to be harvested. And determining means for determining that the pixel located at the two-dimensional coordinates of the matched geometric shape is the edge of the harvested object to be harvested in the distance image by pattern matching. Provided is a harvesting assisting device.

本発明に係る収穫補助装置によれば、3次元位置計測手段によって、収穫対象物の生育方向に直交する平面における収穫対象物の2次元座標と、収穫対象物の2次元座標における生育方向に沿った収穫対象物までの距離とが計測される。また、信号処理手段の距離画像形成手段によって、3次元位置計測手段により計測された2次元座標と3次元位置計測手段により計測された距離に応じた濃度値とを有する画素から構成される距離画像が形成される。このため、距離画像の2次元座標は、収穫対象物の2次元座標に対応し、距離画像を構成する画素の濃度値は、当該画素が位置する2次元座標における収穫対象物までの距離に対応することになる。信号処理手段のエッジ検出手段は、距離画像において、所定の距離以下に相当する濃度値を有する画素から構成される画素領域のエッジを検出する。計測された収穫対象物までの距離(距離画像における濃度値に相当)は、収穫対象物が生育方向に延びている距離と負の相関を有するため、距離画像において所定の距離以下に相当する濃度値を有する画素から構成される画素領域のエッジを検出することにより、生育方向に所定の高さ以上に延びている収穫対象物のエッジのみを選択することができる。距離に対応する濃度値を有する画素から構成される距離画像は、従来のような反射光量に応じた濃度値を有する画素から構成される濃淡画像と異なり、収穫対象物の背景の反射光量による影響を受けない。このため、収穫対象物と背景とでは、3次元位置計測手段からの距離が異なるため、距離画像を用いることで、収穫対象物に相当する画素領域と収穫対象物の背景に相当する画素領域とを精度良く分離することができる。さらには、3次元位置計測手段とは別の距離計測手段を用いなくても、収穫対象物の中から生育方向に所定の高さ以上に延びている収穫対象物のみを精度良く選択することができる。   According to the harvesting assisting device of the present invention, the three-dimensional position measuring means moves along the two-dimensional coordinates of the harvesting object in a plane orthogonal to the growing direction of the harvesting object and the growing direction in the two-dimensional coordinates of the harvesting object. The distance to the harvested object is measured. Also, a distance image formed by pixels having two-dimensional coordinates measured by the three-dimensional position measuring means and a density value corresponding to the distance measured by the three-dimensional position measuring means by the distance image forming means of the signal processing means. Is formed. For this reason, the two-dimensional coordinates of the distance image correspond to the two-dimensional coordinates of the harvest object, and the density values of the pixels constituting the distance image correspond to the distance to the harvest object in the two-dimensional coordinates where the pixels are located. Will do. The edge detection means of the signal processing means detects an edge of a pixel area composed of pixels having density values corresponding to a predetermined distance or less in the distance image. Since the measured distance to the harvested object (corresponding to the density value in the distance image) has a negative correlation with the distance that the harvested object extends in the growth direction, the density corresponding to a predetermined distance or less in the distance image By detecting the edge of the pixel region composed of pixels having a value, only the edge of the harvesting object extending beyond a predetermined height in the growth direction can be selected. A distance image composed of pixels having a density value corresponding to the distance is different from a grayscale image composed of pixels having a density value corresponding to the amount of reflected light as in the conventional case, and is affected by the amount of reflected light of the background of the harvest target Not receive. For this reason, since the distance from the three-dimensional position measurement unit differs between the harvest object and the background, the pixel area corresponding to the harvest object and the pixel area corresponding to the background of the harvest object are obtained by using the distance image. Can be separated with high accuracy. Furthermore, it is possible to accurately select only the harvesting object extending beyond the predetermined height in the growing direction from the harvesting object without using a distance measuring means different from the three-dimensional position measuring means. it can.

信号処理手段の判定手段は、検出されたエッジに対して、収穫すべき収穫対象物(収穫するのに適するほど生育した収穫対象物)に応じて予め定められた幾何学的形状をパターンマッチングさせ、距離画像において、マッチングした幾何学的形状が有する2次元座標に位置する画素を収穫すべき収穫対象物のエッジであると判定する。検出されたエッジに対して、収穫すべき収穫対象物に応じて予め定められた幾何学的形状をパターンマッチングさせることにより、生育方向に直交する平面において所望する形状や寸法を有する収穫対象物を検出対象とすることができる。すなわち、前述のようにエッジ検出手段によって生育方向に所定の高さ以上に延びている収穫対象物のエッジのみを選択した後、選択したエッジのいずれかにマッチングする予め定められた幾何学的形状(距離画像において、マッチングする幾何学的形状が有する2次元座標に位置する画素)を最終的に収穫すべき収穫対象物のエッジであると判定(擬制)することになる。このため、単に生育方向に所定の高さ以上に延びているか否かで収穫すべきか否かを判定する場合に比べて、更に生育方向に直交する平面において所望する形状や寸法に合致するか否かで収穫すべきか否かを判定することになるため、収穫すべき収穫対象物を精度良く検出することが期待できる。例えば、エッジ検出手段によって検出した複数の収穫対象物のエッジが重なりあって、見かけ上、大き過ぎる寸法を有する(従って、収穫すべきではないと考えられる)一つのエッジになっていたとしても、予め定められた幾何学的形状をパターンマッチングすることにより、個々の収穫対象物の実際のエッジにマッチングする幾何学的形状が検出され、収穫すべき収穫対象物のエッジであると正しく判定されることが期待できる。また、逆に、エッジが重なりあった結果、見かけ上、適切な寸法を有する(従って、収穫すべきであると考えられる)エッジになっていたとしても、予め定められた幾何学的形状をパターンマッチングすることにより、個々の収穫対象物の実際のエッジにマッチングする幾何学的形状が検出され、収穫すべき収穫対象物のエッジではないと正しく判定されることが期待できる。   The determination means of the signal processing means pattern-matches a predetermined geometric shape with respect to the detected edge in accordance with a harvest object to be harvested (a harvest object that has grown to be suitable for harvesting). In the distance image, it is determined that the pixel located at the two-dimensional coordinate of the matched geometric shape is the edge of the harvested object to be harvested. By pattern matching a predetermined geometric shape according to the harvested object to be harvested with respect to the detected edge, a harvested object having a desired shape and size in a plane orthogonal to the growth direction can be obtained. It can be a detection target. That is, a predetermined geometric shape that matches only one of the selected edges after selecting only the edge of the harvesting object extending in the growth direction by a predetermined height or more by the edge detection unit as described above. (In the distance image, the pixel located at the two-dimensional coordinates of the matching geometric shape) is determined (imitation) as the edge of the harvested object to be finally harvested. For this reason, whether or not to match the desired shape and size in the plane orthogonal to the growth direction, compared to the case where it is determined whether or not to harvest based on whether or not it extends beyond the predetermined height in the growth direction. Therefore, it can be expected to accurately detect the harvest object to be harvested. For example, even if the edges of a plurality of harvesting objects detected by the edge detection means overlap and appear to have one edge that has an apparently too large dimension (thus considered not to be harvested), By pattern matching predetermined geometric shapes, the geometric shapes that match the actual edges of the individual harvested objects are detected and correctly determined to be the edges of the harvested objects to be harvested I can expect that. Conversely, even if the edges overlap, the result is a pattern with a predetermined geometric shape, even if the edges appear to have an appropriate dimension (and therefore should be harvested). By matching, it can be expected that a geometric shape that matches the actual edge of each harvested object is detected and correctly determined that it is not the edge of the harvested object to be harvested.

また、本発明に係る収穫補助装置によれば、一の3次元位置計測手段で得られる同じ距離画像を用いて、収穫すべき収穫対象物の分離が可能であると同時に、収穫すべき収穫対象物までの距離も算出可能である。このため、従来のように、切断手段を収穫対象物に接近させるために、収穫対象物の濃淡画像を得るためのCCDカメラとは別個に距離を計測するための超音波距離センサ等の距離センサを必要とせず、装置構成を簡易化することができる。   Further, according to the harvesting assisting device according to the present invention, it is possible to separate the harvesting target to be harvested using the same distance image obtained by the one three-dimensional position measuring means, and at the same time, the harvesting target to be harvested. The distance to the object can also be calculated. For this reason, a distance sensor such as an ultrasonic distance sensor for measuring the distance separately from a CCD camera for obtaining a grayscale image of the harvested object in order to bring the cutting means closer to the harvested object as in the prior art. Therefore, the apparatus configuration can be simplified.

好ましくは、前記判定手段は、前記検出されたエッジに対して、前記予め定められた幾何学的形状として、径の異なる複数の円形状又は楕円形状をパターンマッチングさせ、マッチングした幾何学的形状を、その中心の位置が互いに近接する幾何学的形状の集合体である幾何学的形状群に分類し、前記幾何学的形状群毎に、前記幾何学的形状群を構成する幾何学的形状のうち、マッチングの度合いが最も高い幾何学的形状を抽出し、前記幾何学的形状群毎に抽出した幾何学的形状の中から、予め定められた径を有する幾何学的形状を選択し、前記距離画像において、前記選択された幾何学的形状が有する2次元座標に位置する画素を、収穫すべき収穫対象物のエッジであると判定する。   Preferably, the determination means pattern-matches a plurality of circular or elliptical shapes having different diameters as the predetermined geometric shape with respect to the detected edge, and the matched geometric shape is obtained. Categorizing into geometric shape groups that are aggregates of geometric shapes whose center positions are close to each other, and for each geometric shape group, the geometric shapes constituting the geometric shape group Among them, a geometric shape having the highest degree of matching is extracted, and a geometric shape having a predetermined diameter is selected from the geometric shapes extracted for each of the geometric shape groups, In the distance image, it is determined that the pixel located at the two-dimensional coordinate of the selected geometric shape is the edge of the harvested object to be harvested.

斯かる好ましい構成によれば、信号処理手段の判定手段は、検出されたエッジに対して、予め定められた幾何学的形状として、径の異なる複数の円形状又は楕円形状をパターンマッチングさせる。予め定められた幾何学的形状として円形状又は楕円形状をパターンマッチングさせることにより、3次元位置計測手段により計測される収穫対象物の生育方向に直交する平面において(収穫対象物を生育方向から見て)円形状又は楕円形状の形状を有する収穫対象物(例えば、キノコ等)にマッチングする可能性が高まる。また、径の異なる複数の円形状又は楕円形状を用いることにより、収穫対象物の実際のエッジにより近い径を有する幾何学的形状がマッチングする可能性が高まる。   According to such a preferable configuration, the determination unit of the signal processing unit pattern-matches a plurality of circular or elliptical shapes having different diameters as a predetermined geometric shape with respect to the detected edge. By pattern-matching a circular shape or an elliptical shape as a predetermined geometric shape, a plane orthogonal to the growth direction of the harvested object measured by the three-dimensional position measuring means (seeing the harvested object from the growth direction). The possibility of matching with a harvested object having a circular or elliptical shape (for example, mushrooms, etc.) increases. Further, by using a plurality of circular or elliptical shapes having different diameters, the possibility of matching geometric shapes having diameters closer to the actual edges of the harvested object increases.

ただし、1つの収穫対象物の実際のエッジに対して、マッチングする幾何学的形状は1つであるとは限らず、複数の径の異なる幾何学的形状がマッチングすることも考えられる。例えば、1つの収穫すべきではない収穫対象物の実際のエッジに対して、収穫対象の径を有する幾何学的形状と収穫対象ではない径を有する幾何学的形状とがマッチングすることが考えられる。そこで、上記好ましい構成によれば、マッチングした幾何学的形状を、その中心の位置が互いに近接する幾何学的形状の集合体である幾何学的形状群に分類する。1つの収穫対象物の実際のエッジに対して、複数の幾何学的形状がマッチングする場合、マッチングした幾何学的形状の中心の位置が互いに近接していると考えられる。このため、このような幾何学的形状の集合体である幾何学的形状群に分類することにより、マッチングした幾何学的形状が、収穫対象物の実際のエッジ毎に幾何学的形状群として分類されることが期待できる。そして、上記好ましい構成によれば、幾何学的形状群毎に、幾何学的形状群を構成する幾何学的形状のうち、マッチングの度合いが最も高い幾何学的形状を抽出する。幾何学的形状群を構成する幾何学的形状(1つの収穫対象物の実際のエッジに対してマッチングしたと期待できる幾何学的形状)のうち、マッチングの度合いが最も高い幾何学的形状を抽出するため、収穫対象物の実際のエッジにより近い径を有する幾何学的形状を抽出することが期待できる。そして、上記好ましい構成によれば、幾何学的形状群毎に抽出した幾何学的形状の中から、予め定められた径(前述した収穫対象の径に相当する。)を有する幾何学的形状を選択し、距離画像において、選択された幾何学的形状が有する2次元座標に位置する画素を、収穫すべき収穫対象物のエッジであると判定する。前述のように、幾何学的形状群毎に抽出した幾何学的形状は、収穫対象物の実際のエッジにより近い径を有する幾何学的形状であることが期待できる。このため、幾何学的形状群毎に抽出した幾何学的形状の中から収穫対象の径を有する幾何学的形状を選択することにより、パターンマッチング後に選択される収穫対象の径を有する円形状又は楕円形状のみをパターンマッチングさせる場合に比べて、より精度良く収穫すべき収穫対象物のエッジであると判定することが期待できる。   However, the number of matching geometric shapes is not necessarily one for an actual edge of one harvesting target, and a plurality of geometric shapes having different diameters may be matched. For example, it is conceivable that a geometric shape having a diameter to be harvested matches a geometric shape having a diameter not to be harvested with respect to an actual edge of a harvested object that should not be harvested. . Therefore, according to the preferred configuration, the matched geometric shapes are classified into a geometric shape group that is an aggregate of geometric shapes whose central positions are close to each other. When a plurality of geometric shapes match an actual edge of one harvested object, the positions of the centers of the matched geometric shapes are considered to be close to each other. Therefore, by classifying into geometric shape groups that are aggregates of such geometric shapes, the matched geometric shapes are classified as geometric shape groups for each actual edge of the harvested object. Can be expected. And according to the said preferable structure, the geometric shape with the highest matching degree is extracted among the geometric shapes which comprise a geometric shape group for every geometric shape group. Of the geometric shapes that make up the geometric shape group (geometric shapes that can be expected to match the actual edge of one harvested object), the geometric shape with the highest degree of matching is extracted. Therefore, it can be expected to extract a geometric shape having a diameter closer to the actual edge of the harvested object. And according to the said preferable structure, the geometric shape which has a predetermined diameter (equivalent to the diameter of the harvesting object mentioned above) out of the geometric shapes extracted for every geometric shape group. A pixel that is selected and is located in the two-dimensional coordinates of the selected geometric shape in the distance image is determined to be the edge of the harvested object to be harvested. As described above, the geometric shape extracted for each geometric shape group can be expected to be a geometric shape having a diameter closer to the actual edge of the harvested object. For this reason, by selecting a geometric shape having a harvest target diameter from the geometric shapes extracted for each geometric shape group, a circular shape having a harvest target diameter selected after pattern matching or It can be expected that the edge of the harvested object is to be harvested with higher accuracy than in the case where only the elliptical shape is subjected to pattern matching.

具体的には、例えば、収穫すべき収穫対象物の寸法が、直径が40画素の円形状に相当する形状よりも大きい場合には、直径が37画素の円形状に相当する収穫対象物を収穫すべき収穫対象物ではないと決定することが望ましい。直径が37画素の円形状に相当する収穫対象物から検出されたエッジに対して、直径が40画素の円形状のみをパターンマッチングさせると、直径が40画素の円形状がマッチングすることで、収穫すべき収穫対象物のエッジであると判定するおそれがある。一方、直径が37画素の円形状に相当する収穫対象物から検出されたエッジに対して、直径が35画素の円形状と40画素の円形状との複数の円形状をパターンマッチングさせたときに、直径が35画素の円形状と40画素の円形状との双方がマッチングする場合がある。この場合、双方の円形状の中心の位置が互いに近接していると考えられる。そして、双方の円形状は、1つの幾何学的形状群に分類されることになる。1つの幾何学的形状群について、直径が40画素の円形状よりも、直径が35画素の円形状の方がマッチングの度合いが高いと算出されると考えられる。その結果、直径が35画素の円形状が抽出されることにより、収穫すべき収穫対象物の形状をより正確に検出することが期待できる。このため、抽出された幾何学的形状は、収穫対象の径を有する幾何学的形状として選択されないことが期待できる。つまり、収穫すべき収穫対象物のエッジではないと判定することが期待できる。このように、直径が40画素の円形状のみをパターンマッチングさせることよりも、直径が35画素の円形状と40画素の円形状との複数の円形状をパターンマッチングさせる方が、より精度良く収穫すべき収穫対象物を決定することが期待できる。   Specifically, for example, when the size of the harvested object to be harvested is larger than the shape corresponding to the circular shape having a diameter of 40 pixels, the harvesting target corresponding to the circular shape having a diameter of 37 pixels is harvested. It is desirable to determine that it is not a harvest object to be harvested. If only a circular shape with a diameter of 40 pixels is pattern-matched to an edge detected from a harvested object corresponding to a circular shape with a diameter of 37 pixels, the circular shape with a diameter of 40 pixels matches and the harvesting is performed. There is a risk that it is determined that the edge of the harvested object is to be harvested. On the other hand, when a plurality of circular shapes of a circular shape having a diameter of 35 pixels and a circular shape having a size of 40 pixels are subjected to pattern matching with respect to an edge detected from a harvested object corresponding to a circular shape having a diameter of 37 pixels. In some cases, a circular shape having a diameter of 35 pixels and a circular shape having a size of 40 pixels are matched. In this case, it is considered that the positions of the centers of both circular shapes are close to each other. Both circular shapes are classified into one geometric shape group. For one geometric shape group, it is considered that the circular shape having a diameter of 35 pixels has a higher matching degree than the circular shape having a diameter of 40 pixels. As a result, by extracting a circular shape having a diameter of 35 pixels, it can be expected to more accurately detect the shape of the harvested object to be harvested. For this reason, it can be expected that the extracted geometric shape is not selected as a geometric shape having a diameter to be harvested. That is, it can be expected that the edge is not the edge of the harvested object to be harvested. Thus, it is more accurate to pattern match a plurality of circular shapes of a 35 pixel diameter and a 40 pixel circular shape than to pattern match only a circular shape having a diameter of 40 pixels. It can be expected to determine what to harvest.

ここで、本発明において、中心の位置が互いに近接する幾何学的形状とは、各幾何学的形状の中心間の距離の何れもが所定の範囲内であることを例示できる。また、本発明において、マッチングした幾何学的形状を幾何学的形状群に分類するとは、マッチングした幾何学的形状を、複数の幾何学的形状群に分類することの他、1つの幾何学的形状群に分類することも含む概念である。この場合、マッチングした全ての幾何学的形状の中心が互いに近接していることになる。また、本発明において、幾何学的形状の集合体である幾何学的形状群とは、複数の幾何学的形状から構成されることの他、1つの幾何学的形状から構成されることも含む概念である。この場合、幾何学的形状群を構成する1つの幾何学的形状が、マッチングの度合いが最も高い幾何学的形状として抽出されることになる。   Here, in the present invention, the geometric shapes whose center positions are close to each other can be exemplified as any distance between the centers of the geometric shapes being within a predetermined range. In the present invention, the matching geometric shape is classified into the geometric shape group, in addition to classifying the matched geometric shape into a plurality of geometric shape groups. It is a concept including classification into shape groups. In this case, the centers of all matched geometric shapes are close to each other. In the present invention, the geometric shape group which is an aggregate of geometric shapes includes not only a plurality of geometric shapes but also a single geometric shape. It is a concept. In this case, one geometric shape constituting the geometric shape group is extracted as a geometric shape having the highest degree of matching.

好ましくは、収穫対象物を切断するための切断手段を更に備え、前記信号処理手段は、前記判定手段により収穫すべきと判定された収穫対象物のエッジを有する前記画素領域を構成する画素の2次元座標及び濃度値に基づいて、前記収穫すべきと判定された収穫対象物の切断位置を決定する切断位置決定手段を更に具備し、前記切断手段は、前記切断位置決定手段によって決定された切断位置に移動して、前記収穫すべきと判定された収穫対象物を切断する。   Preferably, the image processing device further includes a cutting unit for cutting the harvesting object, wherein the signal processing unit 2 of the pixels constituting the pixel region having the edge of the harvesting object determined to be harvested by the determination unit. The apparatus further comprises cutting position determining means for determining a cutting position of the harvested object determined to be harvested based on the dimensional coordinates and the density value, and the cutting means is the cutting determined by the cutting position determining means. It moves to a position and cuts the harvested object determined to be harvested.

斯かる好ましい構成によれば、信号処理手段の切断位置決定手段によって、収穫すべきと判定された収穫対象物のエッジ(距離画像において、マッチングした幾何学的形状が有する2次元座標に位置する画素)を有する画素領域を構成する画素の2次元座標及び濃度値に基づいて、収穫すべきと判定された収穫対象物の切断位置が決定される。前述のように、本発明によれば、収穫すべき収穫対象物を精度良く検知できる(収穫すべき収穫対象物のエッジを有する画素領域を精度良く検出できる)ため、これに基づき決定される収穫対象物の切断位置も精度良く決定可能である。   According to such a preferable configuration, the edge of the harvested object that has been determined to be harvested by the cutting position determining unit of the signal processing unit (the pixel located at the two-dimensional coordinate of the matched geometric shape in the distance image) The cutting position of the harvested object determined to be harvested is determined based on the two-dimensional coordinates and the density value of the pixels constituting the pixel area having (). As described above, according to the present invention, the harvest target to be harvested can be detected with high precision (the pixel region having the edge of the harvest target to be harvested can be detected with high precision). The cutting position of the object can also be determined with high accuracy.

好ましくは、前記切断位置決定手段は、前記距離画像において前記収穫すべきと判定された収穫対象物のエッジの中心に位置する画素を抽出し、抽出された画素の2次元座標及び濃度値に対応する3次元位置から前記生育方向に沿って前記3次元位置計測手段から更に一定距離だけ離間した3次元位置を前記切断位置に決定する。   Preferably, the cutting position determining means extracts a pixel located at the center of the edge of the harvested object determined to be harvested in the distance image, and corresponds to the two-dimensional coordinates and density value of the extracted pixel. A three-dimensional position further separated from the three-dimensional position measuring means by a certain distance along the growth direction from the three-dimensional position to be determined is determined as the cutting position.

斯かる好ましい構成によれば、切断位置決定手段によって、距離画像において収穫すべきと判定された収穫対象物のエッジ(マッチングした幾何学的形状が有する2次元座標に位置する画素)の中心に位置する画素が抽出される。すなわち、マッチングした幾何学的形状の中心に位置する画素が抽出される。例えば、幾何学的形状として円形状又は楕円形状を用いた場合には、マッチングした円形状又は楕円形状の中心に位置する画素が抽出されることになる。幾何学的形状の中心は、幾何学的形状に応じて自ずと決定される。つまり、幾何学的形状が有する2次元座標が決まれば、幾何学的形状の中心の2次元座標が自ずと決定される。マッチングした幾何学的形状の中心に位置する画素は、距離画像を構成する画素の濃度値に依らず、マッチングした幾何学的形状が有する2次元座標のみによって決定されるため、マッチングした幾何学的形状の中心に位置する画素を容易に決定することができる。
また、切断位置決定手段によって、抽出された画素の2次元座標及び濃度値に対応する3次元位置から生育方向に沿って3次元位置計測手段から更に一定距離だけ離間した3次元位置が切断位置に決定される。決定された切断位置に切断手段が移動して、収穫すべきと判定された収穫対象物を切断することにより、切断される収穫対象物の長さを一律にすることができる。また、前述のように、本発明によれば、マッチングした幾何学的形状の中心に位置する画素を容易に決定することができるため、これに基づき決定される切断位置も容易に決定可能である。
According to such a preferable configuration, the cutting position determining means is located at the center of the edge of the harvested object determined to be harvested in the distance image (the pixel located at the two-dimensional coordinates of the matched geometric shape). Pixels to be extracted are extracted. That is, the pixel located at the center of the matched geometric shape is extracted. For example, when a circular shape or an elliptical shape is used as the geometric shape, a pixel located at the center of the matched circular or elliptical shape is extracted. The center of the geometric shape is naturally determined according to the geometric shape. That is, if the two-dimensional coordinates of the geometric shape are determined, the two-dimensional coordinates at the center of the geometric shape are naturally determined. Since the pixel located at the center of the matched geometric shape is determined by only the two-dimensional coordinates of the matched geometric shape regardless of the density value of the pixels constituting the distance image, the matched geometric shape is determined. The pixel located at the center of the shape can be easily determined.
In addition, the cutting position determining means sets a three-dimensional position further separated from the three-dimensional position measuring means by a certain distance along the growth direction from the three-dimensional position corresponding to the extracted two-dimensional coordinates and density value of the pixel. It is determined. By moving the cutting means to the determined cutting position and cutting the harvested object determined to be harvested, the length of the harvested object to be cut can be made uniform. Further, as described above, according to the present invention, since the pixel located at the center of the matched geometric shape can be easily determined, the cutting position determined based on this can also be easily determined. .

前記好ましい構成に限らず、前記切断位置決定手段は、前記判定手段により収穫すべきと判定された収穫対象物のエッジを有する前記画素領域を構成する画素の2次元座標の平均値及び濃度値の平均値を算出し、算出された画素の2次元座標の平均値及び濃度値の平均値に対応する3次元位置から生育方向に沿って3次元位置計測手段から更に一定距離だけ離間した3次元位置を切断位置に決定してもよい。   The cutting position determination unit is not limited to the preferable configuration, and the cutting position determination unit is configured to calculate the average value and the density value of the two-dimensional coordinates of the pixels constituting the pixel region having the edge of the harvested object that is determined to be harvested by the determination unit. The average value is calculated, and the three-dimensional position further spaced apart from the three-dimensional position measuring means along the growth direction from the three-dimensional position corresponding to the average value of the two-dimensional coordinates and density value of the calculated pixel. May be determined as the cutting position.

以上に説明したように、本発明に係る収穫補助装置によれば、収穫すべき収穫対象物を精度良く検知することが可能である。   As described above, according to the harvesting assistance device according to the present invention, it is possible to accurately detect a harvesting target to be harvested.

図1は、本発明の一実施形態に係る収穫補助装置の概略構成を示す模式図である。FIG. 1 is a schematic diagram showing a schematic configuration of a harvesting assistance device according to an embodiment of the present invention. 図2は、3次元位置計測手段により計測された収穫対象物又は培地の2次元座標の一例を示す。FIG. 2 shows an example of the two-dimensional coordinates of the harvested object or medium measured by the three-dimensional position measuring means. 図3は、パターンマッチングさせる楕円形状の一例を示す。FIG. 3 shows an example of an elliptical shape for pattern matching. 図4は、検出されたエッジに対して円形状をパターンマッチングさせたときの一致度を説明する説明図である。FIG. 4 is an explanatory diagram for explaining the degree of coincidence when a circular shape is pattern-matched to a detected edge. 図5は、評価する重なり合いについて説明する説明図である。FIG. 5 is an explanatory diagram for explaining the overlap to be evaluated. 図6は、検出されたエッジに対してマッチングした円形状の一例を示す。FIG. 6 shows an example of a circular shape matched to the detected edge. 図7は、キノコの濃淡画像を用いてキノコのエッジを判定した場合の結果を示す。FIG. 7 shows the result when the edge of the mushroom is determined using the gray image of the mushroom. 図8は、キノコの距離画像を用いてキノコのエッジを判定した場合の結果を示す。FIG. 8 shows a result when a mushroom edge is determined using a mushroom distance image.

以下、添付図面を参照しつつ、本発明の一実施形態に係る収穫補助装置について、収穫対象物がキノコである場合を例に挙げて説明する。図1は、本発明の一実施形態に係る収穫補助装置100の概略構成を示す模式図である。図1に示すように、本実施形態に係る収穫補助装置100は、3次元位置計測手段1と、信号処理手段2とを備える。また、本実施形態に係る収穫補助装置100は、収穫対象物Kを切断するための切断手段3を更に備える。   Hereinafter, a harvesting assistance device according to an embodiment of the present invention will be described with reference to the accompanying drawings, taking as an example a case where a harvesting target is a mushroom. FIG. 1 is a schematic diagram showing a schematic configuration of a harvesting assistance device 100 according to an embodiment of the present invention. As shown in FIG. 1, the harvest assistance device 100 according to the present embodiment includes a three-dimensional position measurement unit 1 and a signal processing unit 2. Moreover, the harvest assistance apparatus 100 according to the present embodiment further includes a cutting means 3 for cutting the harvest target K.

図1は、収穫対象物Kの生育方向に垂直な方向から見た模式図である。図1に示すように、本実施形態の収穫対象物Kは、菌床と称される培地Bから上方に向かって生育している。本実施形態の収穫対象物Kの生育方向は、上下方向であり、具体的には、図1に示すZ方向である。また、本実施形態の収穫対象物Kの生育方向に直交する平面は、水平面であり、具体的には、図1に示すX方向とY方向とによって規定されるXY平面である。   FIG. 1 is a schematic view seen from a direction perpendicular to the growth direction of the harvested object K. FIG. As shown in FIG. 1, the harvest object K of the present embodiment grows upward from a medium B called a fungus bed. The growth direction of the harvested object K of the present embodiment is the vertical direction, specifically the Z direction shown in FIG. Moreover, the plane orthogonal to the growth direction of the harvested object K of the present embodiment is a horizontal plane, specifically, an XY plane defined by the X direction and the Y direction shown in FIG.

本実施形態では、収穫対象物K(キノコ群)は、図1に示すXY平面において、ランダムに配置された状態で培地Bから生育している。3次元位置計測手段1は、収穫対象物Kの生育方向に直交する平面(XY平面)における収穫対象物Kの2次元座標と、前記2次元座標における生育方向に沿った収穫対象物Kまでの距離とを計測する。信号処理手段2は、3次元位置計測手段1により計測された収穫対象物Kの2次元座標と収穫対象物Kまでの距離とに基づいて、収穫すべき収穫対象物Kを決定する。そして、切断手段3は、信号処理手段2により決定された収穫すべき収穫対象物Kを切断する。本実施形態では、3次元位置計測手段1が収穫対象物Kの2次元座標と収穫対象物Kまでの距離とを計測し、信号処理手段2が収穫すべき収穫対象物Kを決定し、切断手段3が決定された収穫すべき収穫対象物Kを切断するという一連の工程を計測単位領域ごとに実行する。つまり、3次元位置計測手段1は、計測単位領域ごとに、収穫対象物Kの2次元座標と、収穫対象物Kまでの距離とを計測できるように、収穫対象物Kの生育方向に垂直な方向(例えば、図1に示すX方向及びY方向)に移動可能である。   In the present embodiment, the harvest object K (mushroom group) grows from the medium B in a randomly arranged state on the XY plane shown in FIG. The three-dimensional position measuring means 1 includes a two-dimensional coordinate of the harvest target K on a plane (XY plane) orthogonal to the growth direction of the harvest target K, and the harvest target K along the growth direction in the two-dimensional coordinate. Measure distance. The signal processing means 2 determines the harvesting target K to be harvested based on the two-dimensional coordinates of the harvesting target K measured by the three-dimensional position measuring means 1 and the distance to the harvesting target K. Then, the cutting means 3 cuts the harvest target K to be harvested determined by the signal processing means 2. In the present embodiment, the three-dimensional position measuring unit 1 measures the two-dimensional coordinates of the harvesting target K and the distance to the harvesting target K, the signal processing unit 2 determines the harvesting target K to be harvested, and cuts it. A series of steps of cutting the harvesting target K to be harvested by the means 3 is executed for each measurement unit region. That is, the three-dimensional position measuring unit 1 is perpendicular to the growth direction of the harvesting target K so that the two-dimensional coordinates of the harvesting target K and the distance to the harvesting target K can be measured for each measurement unit region. It can move in a direction (for example, the X direction and the Y direction shown in FIG. 1).

ここで、計測単位領域とは、3次元位置計測手段1が配置される位置(3次元位置)において、3次元位置計測手段1が移動することなく、収穫対象物K(キノコ群)の生育方向に直交する平面(XY平面)での計測可能な領域を意味する。図1のW、Wは、計測単位領域を示す。Wはn番目に計測された計測単位領域を意味する。本実施形態では、計測単位領域は、矩形状に設定されている。また、図1に示すように、計測単位領域Wは、計測単位領域WとX方向に隣り合って、一部が重なり合っている。また、計測単位領域W(図示せず)は、計測単位領域WとY方向に隣り合って、一部が重なり合っている。各計測単位領域の寸法(X方向の寸法及びY方向の寸法)は、仮にXY平面において収穫すべき収穫対象物K(キノコの傘)の中心と計測単位領域の中心とを一致させた場合に、少なくとも、収穫すべき最大の径を有する収穫対象物K(キノコの傘)が収まるように設定される。 Here, the measurement unit region is the growth direction of the harvested object K (mushroom group) without moving the three-dimensional position measuring means 1 at the position (three-dimensional position) where the three-dimensional position measuring means 1 is arranged. Means a measurable region on a plane (XY plane) orthogonal to W 1 and W 2 in FIG. 1 indicate measurement unit areas. W n means an n-th measurement unit area. In this embodiment, the measurement unit area is set to a rectangular shape. Further, as shown in FIG. 1, the measurement unit area W 1 is adjacent to the measurement unit area W 2 and X-direction, are partially overlapping. In addition, the measurement unit region W 3 (not shown) is adjacent to the measurement unit region W 2 in the Y direction and partially overlaps. The dimensions of each measurement unit area (the dimension in the X direction and the dimension in the Y direction) are set when the center of the harvested object K (mushroom umbrella) to be harvested and the center of the measurement unit area coincide with each other on the XY plane. , At least the harvested object K (mushroom umbrella) having the largest diameter to be harvested is set.

上記一連の工程について具体的に説明すると、本実施形態では、まず初めに、計測単位領域Wに生育する収穫対象物Kについて、3次元位置計測手段1が収穫対象物Kの2次元座標と収穫対象物Kまでの距離とを計測し、信号処理手段2が収穫すべき収穫対象物Kを決定し、切断手段3が決定された収穫すべき収穫対象物Kを切断する。そして、3次元位置計測手段1は、収穫対象物Kの切断を行った計測単位領域Wとは別の計測単位領域Wに生育している収穫対象物K(キノコ群)の2次元座標と、収穫対象物Kまでの距離とを計測できるように、X方向に移動する。図1に破線で示す3次元位置計測手段1は、実線で示す3次元位置計測手段1がX方向に移動した状態を例示している。次に、計測単位領域Wに生育する収穫対象物Kについて、3次元位置計測手段1が収穫対象物Kの2次元座標と収穫対象物Kまでの距離とを計測し、信号処理手段2が収穫すべき収穫対象物Kを決定し、切断手段3が決定された収穫すべき収穫対象物Kを切断する。そして、3次元位置計測手段1は、収穫対象物Kの切断を行った計測単位領域Wとは別の計測単位領域W(図示せず)に生育している収穫対象物K(キノコ群)の2次元座標と、収穫対象物Kまでの距離とを計測できるように、Y方向に移動する。以上のような処理を、各計測単位領域に生育している収穫対象物K(キノコ群)ごとに繰り返すことによって、全ての収穫対象物Kについて、収穫すべき収穫対象物Kが決定され、切断されることになる。以下、詳細に説明する。 Specifically described above series of steps, in this embodiment, first, the crop object K which grow in the measurement unit area W 1, 3-dimensional position measuring means 1 and the two-dimensional coordinates of the crop object K The distance to the harvesting target K is measured, the signal processing means 2 determines the harvesting target K to be harvested, and the cutting means 3 cuts the determined harvesting target K to be harvested. Then, three-dimensional position measuring means 1, two-dimensional coordinates of crop object crop objects are growing in different units of measurement area W 2 is a measurement unit area W 1 which was cut in K K (Mushrooms) And the distance to the harvested object K is moved in the X direction so that it can be measured. The three-dimensional position measuring means 1 indicated by a broken line in FIG. 1 illustrates a state in which the three-dimensional position measuring means 1 indicated by a solid line has moved in the X direction. Next, the crop object K which grow in the measurement unit area W 2, 3-D position measuring means 1 measures the distance to the two-dimensional coordinates and harvesting object K crop object K, the signal processing means 2 The harvesting target K to be harvested is determined, and the cutting means 3 cuts the determined harvesting target K to be harvested. Then, the three-dimensional position measuring unit 1 is configured to collect the harvest target K (mushroom group) growing in a measurement unit region W 3 (not shown) different from the measurement unit region W 2 where the harvest target K is cut. ) And the distance to the harvesting target K so that it can be measured. By repeating the above processing for each harvesting target K (mushroom group) growing in each measurement unit region, the harvesting target K to be harvested is determined for all harvesting targets K and cut. Will be. Details will be described below.

前述したように、3次元位置計測手段1は、計測単位領域ごとに、収穫対象物Kの生育方向に直交する平面(XY平面)における収穫対象物Kの2次元座標と、前記2次元座標における生育方向に沿った収穫対象物Kまでの距離とを計測する。図1は、3次元位置計測手段1が、5つの収穫対象物K(K1〜K5)又は培地Bの2次元座標と、前記2次元座標における収穫対象物K(K1〜K5)又は培地Bまでの距離(z〜z7)とを計測する場合を例示している。図2は、図1に示す3次元位置計測手段1により計測された収穫対象物K(K1〜K5)又は培地Bの2次元座標の一例を示す。aは自然数であり、図2に示す(x,y)は収穫対象物Kの生育方向に直交する平面における収穫対象物K又は培地Bの2次元座標の一例であり、図1に示すzは前記2次元座標(x,y)における生育方向に沿った収穫対象物K又は培地Bまでの距離の一例である。また、図2に示す領域W、Wは、図1に示す3次元位置計測手段1により計測された計測単位領域W、Wを示す。3次元位置計測手段1としては、例えば、収穫対象物Kに向けて線状光を照射する照射部と、照射された線状光を照射方向とは異なる方向から撮像する撮像手段とを具備し、撮像された画像を用いて光切断法により、収穫対象物Kの生育方向に直交する平面における収穫対象物Kの2次元座標と、前記2次元座標における生育方向に沿った収穫対象物Kまでの距離とを計測する3次元距離計を例示することができる。 As described above, the three-dimensional position measuring unit 1 uses the two-dimensional coordinates of the harvesting target K on the plane (XY plane) orthogonal to the growth direction of the harvesting target K and the two-dimensional coordinates for each measurement unit region. The distance to the harvesting target K along the growth direction is measured. In FIG. 1, the three-dimensional position measuring means 1 includes five harvesting objects K (K1 to K5) or two-dimensional coordinates of the medium B and the harvesting object K (K1 to K5) or the medium B in the two-dimensional coordinates. The case of measuring the distance (z 1 to z 7 ) is illustrated. FIG. 2 shows an example of the two-dimensional coordinates of the harvest object K (K1 to K5) or the culture medium B measured by the three-dimensional position measuring means 1 shown in FIG. a is a natural number, and (x a , y a ) shown in FIG. 2 is an example of the two-dimensional coordinates of the harvested object K or the culture medium B in a plane orthogonal to the growth direction of the harvested object K, as shown in FIG. z a is an example of the distance to the harvested object K or the medium B along the growth direction in the two-dimensional coordinates (x a , y a ). The region W 1, W 2 shown in FIG. 2 shows a three-dimensional position measuring means measuring unit region W 1 measured by 1, W 2 shown in FIG. The three-dimensional position measuring unit 1 includes, for example, an irradiating unit that irradiates the harvested object K with linear light, and an imaging unit that images the irradiated linear light from a direction different from the irradiation direction. The two-dimensional coordinates of the harvesting target K on a plane orthogonal to the growth direction of the harvesting target K and the harvesting target K along the growth direction in the two-dimensional coordinates are obtained by optical cutting using the captured image. A three-dimensional distance meter that measures the distance between the two can be exemplified.

前述のように、信号処理手段2は、3次元位置計測手段1により計測された収穫対象物Kの2次元座標と、3次元位置計測手段1により計測された収穫対象物Kまでの距離とに基づいて、収穫すべき収穫対象物Kを決定するように構成されている。具体的には、本実施形態の信号処理手段2は、距離画像形成手段21と、エッジ検出手段22と、判定手段23を具備する。   As described above, the signal processing unit 2 uses the two-dimensional coordinates of the harvesting target K measured by the three-dimensional position measuring unit 1 and the distance to the harvesting target K measured by the three-dimensional position measuring unit 1. Based on this, the harvesting object K to be harvested is determined. Specifically, the signal processing unit 2 of the present embodiment includes a distance image forming unit 21, an edge detection unit 22, and a determination unit 23.

距離画像形成手段21は、3次元位置計測手段1により計測された2次元座標と、3次元位置計測手段1により計測された距離に応じた濃度値とを有する画素から構成される距離画像を形成する。また、距離画像形成手段21は、計測単位領域ごとに距離画像を形成する。具体的には、距離画像形成手段21は、計測単位領域Wでの距離画像(図2の計測単位領域W内に示す距離画像)を形成し、計測単位領域Wでの距離画像(図2の計測単位領域W内に示す距離画像)を形成するというように、各計測単位領域での距離画像を形成する。前述したように、距離画像は3次元位置計測手段1により計測された2次元座標と3次元位置計測手段1により計測された距離に応じた濃度値とを有する画素から構成される。このため、距離画像の2次元座標は、収穫対象物K又は培地Bの2次元座標に対応し、距離画像を構成する画素の濃度値は、当該画素が位置する2次元座標における収穫対象物K又は培地Bまでの距離に対応することになる。本実施形態では、3次元位置計測手段1により計測された距離が長くなれば、対応する距離画像の画素の濃度値は低くなる。具体的には、2次元座標における収穫対象物K又は培地Bまでの距離が短くなればなるほど、対応する距離画像の画素の濃度値は高くなり、2次元座標における収穫対象物K又は培地Bまでの距離が長くなればなるほど、対応する距離画像の画素の濃度値は低くなる。例えば、距離画像を構成する画素の濃度値が8ビットで表される場合には、2次元座標における収穫対象物K又は培地Bまでの距離に応じて、対応する距離画像の画素が、0(すなわち黒の画素)〜255(すなわち白の画素)の濃度値を有する。3次元位置計測手段1は、収穫対象物Kの生育方向に沿った収穫対象物Kまでの距離を計測しているため、収穫対象物Kが生育方向に延びる長さが長くなればなるほど、3次元位置計測手段1により計測される距離が短くなる。図1に示すように、収穫対象物K1〜K5のうち、収穫対象物K3が最も生育方向に延びる長さが長いため、距離画像形成手段21により形成される距離画像では、図2に示すように、収穫対象物K3の2次元座標に対応する距離画像の画素の濃度値が最も高くなる。なお、図2に示す距離画像では、距離に応じた濃度値を有する画素から構成される距離画像の理解を容易にするため、収穫対象物K1〜K5、培地Bのそれぞれの2次元座標に対応する距離画像の画素の濃度値を同じにしている。 The distance image forming unit 21 forms a distance image composed of pixels having two-dimensional coordinates measured by the three-dimensional position measuring unit 1 and density values corresponding to the distances measured by the three-dimensional position measuring unit 1. To do. Further, the distance image forming unit 21 forms a distance image for each measurement unit region. Specifically, the distance image forming unit 21 forms a distance image in the measurement unit region W 1 (a distance image shown in the measurement unit region W 1 in FIG. 2), and a distance image (in the measurement unit region W 2 ( so on to form a distance image) shown in the measurement unit area W 2 in FIG. 2, to form a distance image at each measurement unit areas. As described above, the distance image includes pixels having two-dimensional coordinates measured by the three-dimensional position measuring unit 1 and density values corresponding to the distance measured by the three-dimensional position measuring unit 1. For this reason, the two-dimensional coordinates of the distance image correspond to the two-dimensional coordinates of the harvest object K or the culture medium B, and the density value of the pixel constituting the distance image is the harvest object K in the two-dimensional coordinate where the pixel is located. Or it corresponds to the distance to the medium B. In the present embodiment, if the distance measured by the three-dimensional position measuring unit 1 becomes long, the density value of the pixel of the corresponding distance image becomes low. Specifically, the shorter the distance to the harvesting object K or the medium B in the two-dimensional coordinates, the higher the density value of the pixel of the corresponding distance image, to the harvesting object K or the medium B in the two-dimensional coordinates. The longer the distance, the lower the density value of the corresponding distance image pixel. For example, when the density value of the pixels constituting the distance image is represented by 8 bits, the corresponding distance image pixel is 0 (in accordance with the distance to the harvest target K or the culture medium B in the two-dimensional coordinates. That is, it has a density value of black pixels) to 255 (that is, white pixels). Since the three-dimensional position measuring means 1 measures the distance to the harvest target K along the growth direction of the harvest target K, the longer the length that the harvest target K extends in the growth direction, the more 3 The distance measured by the dimension position measuring means 1 is shortened. As shown in FIG. 1, among the harvesting objects K1 to K5, the harvesting object K3 has the longest length in the growth direction. Therefore, in the distance image formed by the distance image forming unit 21, as shown in FIG. Moreover, the density value of the pixel of the distance image corresponding to the two-dimensional coordinates of the harvested object K3 is the highest. The distance image shown in FIG. 2 corresponds to the two-dimensional coordinates of each of the harvest objects K1 to K5 and the culture medium B in order to facilitate understanding of the distance image composed of pixels having density values corresponding to the distance. The density values of the pixels of the distance image to be made are the same.

前述したように、本実施形態では、信号処理手段2は、計測単位領域ごとに収穫すべき収穫対象物Kを決定する。ここで、前述したように、収穫対象物K(キノコ群)は、図2に示すように、XY平面において、ランダムに配置された状態で培地Bから生育している。また、各計測単位領域は、培地Bの一部に相当する。このため、収穫すべき収穫対象物Kが計測単位領域に収まる場合のみならず、収穫すべき収穫対象物Kの一部が計測単位領域から外れる場合(例えば、図2に示す収穫対象物K3)が考えられる。
ここで、本実施形態では、図1に示すように、計測単位領域Wが計測単位領域Wと重なり合っている。具体的には、計測単位領域Wが計測単位領域Wと重なり合う寸法は、収穫すべき収穫対象物Kの寸法の最大値以上とされる。より具体的には、収穫すべき収穫対象物Kが計測単位領域において円形状である場合には、収穫すべき収穫対象物Kの直径の最大値以上とされる。また、収穫すべき収穫対象物Kが計測単位領域において楕円形状である場合には、収穫すべき収穫対象物Kの長径の最大値以上に設定される。重なり合う寸法を収穫すべき収穫対象物Kの寸法の最大値以上に設定することにより、収穫すべき収穫対象物Kは、何れかの計測単位領域に収まることになるため、信号処理手段2が収穫すべき収穫対象物Kであると決定することが期待できる。
計測単位領域Wが計測単位領域Wと重なり合う寸法が、収穫すべき収穫対象物Kの寸法の最大値以上である場合を説明したが、収穫すべき収穫対象物Kの寸法の最大値より小さい値であってもよい。重なり合う寸法が収穫すべき収穫対象物Kの寸法の最大値より小さい値のときには、何れの計測単位領域においても、収穫すべき収穫対象物Kの一部が計測単位領域から外れる場合が考えられる。この場合であっても、信号処理手段2が、後述するパターンマッチングを行うことで(具体的には、マッチングスコアを算出し、算出したマッチングスコアが所定のしきい値以上であるかを評価することで)、収穫すべき収穫対象物Kであると決定することが期待できる。
なお、本実施形態では、計測単位領域Wが計測単位領域Wと重なり合う部分が存在するが、本発明はこれに限られるものではなく、計測単位領域Wが計測単位領域Wと重なり合う部分が存在しなくてもよい。
As described above, in the present embodiment, the signal processing unit 2 determines the harvest object K to be harvested for each measurement unit region. Here, as described above, the harvest object K (mushroom group) grows from the medium B in a randomly arranged state on the XY plane, as shown in FIG. Each measurement unit region corresponds to a part of the culture medium B. For this reason, not only when the harvest target K to be harvested fits in the measurement unit region, but also when a part of the harvest target K to be harvested deviates from the measurement unit region (for example, the harvest target K3 shown in FIG. 2). Can be considered.
In the present embodiment, as shown in FIG. 1, the measurement unit area W 1 overlaps with the measurement unit area W 2. Specifically, the measurement unit area W 1 is sized to overlap with the measurement unit area W 2 is a more maximum dimensions of the crop object K to be harvested. More specifically, when the harvesting target K to be harvested has a circular shape in the measurement unit region, the value is equal to or greater than the maximum value of the diameter of the harvesting target K to be harvested. Further, when the harvesting target K to be harvested has an elliptical shape in the measurement unit region, it is set to be equal to or greater than the maximum value of the major axis of the harvesting target K to be harvested. By setting the overlapping dimension to be equal to or larger than the maximum value of the dimension of the harvesting target K to be harvested, the harvesting target K to be harvested will be contained in any measurement unit region, so that the signal processing means 2 harvests. It can be expected to determine that it is a harvesting target K.
Dimension measuring unit regions W 1 overlaps with the measurement unit area W 2 has a case has been described is greater than or equal to the maximum value of the dimension of the crop object K to be harvested, the maximum value of the dimension of the crop object K to be harvested It may be a small value. When the overlapping dimension is smaller than the maximum value of the dimension of the harvested object K to be harvested, it is conceivable that a part of the harvested object K to be harvested deviates from the measurement unit area in any measurement unit area. Even in this case, the signal processing means 2 performs pattern matching to be described later (specifically, a matching score is calculated, and whether the calculated matching score is a predetermined threshold value or more is evaluated. Therefore, it can be expected that it is the harvesting object K to be harvested.
In the present embodiment, although the measurement unit area W 1 is present measurement unit area W 2 and overlap portions, the present invention is not limited thereto, overlapping measurement unit area W 1 is a measurement unit area W 2 The portion may not exist.

エッジ検出手段22は、距離画像において、所定の距離以下に相当する濃度値を有する画素から構成される画素領域のエッジを検出する。本実施形態では、エッジ検出手段22は、所定の距離に相当する濃度値をしきい値として、距離画像から2値化画像を形成する。具体的には、3次元位置計測手段1からの距離が、所定の距離以下であることを示す白の画素(例えば、255の濃度値を有する画素)と、所定の距離よりも大きいことを示す黒の画素(例えば、0の濃度値を有する画素)とから構成される2値化画像がエッジ形成手段22によって形成される。3次元位置計測手段1からの距離が所定の距離以下となるのは、収穫対象物Kが生育方向に所定の高さ以上に延びているためであると考えられるため、収穫対象物Kの中から生育方向に所定の高さ以上に延びている収穫対象物Kのみを精度良く選択することができる。本実施形態では、3次元位置計測手段1からの距離が、所定の距離以下であることを示す白の画素と、所定の距離よりも大きいことを示す黒の画素とから構成される2値化画像を形成しているが、本発明はこれに限られるものではなく、3次元位置計測手段1からの距離が、所定の距離以下であることを示す黒の画素と、所定の距離よりも大きいことを示す白の画素とから構成される2値化画像を形成してもよい。   The edge detection means 22 detects an edge of a pixel area composed of pixels having density values corresponding to a predetermined distance or less in the distance image. In the present embodiment, the edge detection unit 22 forms a binarized image from a distance image using a density value corresponding to a predetermined distance as a threshold value. Specifically, it indicates that the distance from the three-dimensional position measuring unit 1 is a white pixel (for example, a pixel having a density value of 255) indicating that the distance is equal to or less than a predetermined distance, and is greater than the predetermined distance. A binary image composed of black pixels (for example, pixels having a density value of 0) is formed by the edge forming means 22. The reason why the distance from the three-dimensional position measuring means 1 is equal to or less than the predetermined distance is that the harvest object K extends beyond a predetermined height in the growth direction. It is possible to select only the harvesting object K extending from the height to the growth direction to a predetermined height or more with high accuracy. In the present embodiment, the binarization is composed of white pixels indicating that the distance from the three-dimensional position measuring means 1 is equal to or less than a predetermined distance and black pixels indicating that the distance is greater than the predetermined distance. Although the image is formed, the present invention is not limited to this, and the black pixel indicating that the distance from the three-dimensional position measuring means 1 is equal to or smaller than the predetermined distance and the predetermined distance is larger. A binarized image composed of white pixels indicating this may be formed.

また、エッジ検出手段22は、距離画像から形成された2値化画像において、所定の距離以下に相当する画素から構成される画素領域のエッジを検出する。所定の距離以下に相当する画素から構成される画素領域のエッジを検出するためには、例えば、Sobelフィルタを用いることを例示できる。具体的には、2値化画像を構成する画素と該画素と隣り合う画素との濃淡変化を検出することを例示できる。本実施形態では、エッジ検出手段22は、2値化画像においてエッジの検出を行っているが、本発明はこれに限られるものではなく、距離画像においてエッジの検出を行ってもよい。具体的には、距離画像を構成する画素と該画素と隣り合う画素との濃淡変化が所定以上となる画素を検出することを例示できる。   Moreover, the edge detection means 22 detects the edge of the pixel area comprised from the pixel corresponded below a predetermined distance in the binarized image formed from the distance image. In order to detect an edge of a pixel region composed of pixels corresponding to a predetermined distance or less, for example, use of a Sobel filter can be exemplified. Specifically, it is possible to exemplify detecting a change in shading between a pixel constituting the binarized image and a pixel adjacent to the pixel. In the present embodiment, the edge detection unit 22 detects edges in the binarized image, but the present invention is not limited to this, and may detect edges in the distance image. Specifically, it is possible to exemplify detection of a pixel in which a change in shading between a pixel constituting the distance image and a pixel adjacent to the pixel is greater than or equal to a predetermined value.

判定手段23は、エッジ検出手段22により検出されたエッジに対して、収穫すべき収穫対象物Kに応じて予め定められた幾何学的形状をパターンマッチングさせる。具体的には、検出されたエッジの所定箇所に予め定められた幾何学的形状をパターンマッチングさせることをあらゆる所定箇所について順次行うことで、距離画像から形成された2値化画像において検出されたエッジの中に、予め定められた幾何学的形状と類似する箇所があるか否かを検知する。本実施形態では、収穫すべき収穫対象物Kは、所定の寸法の傘を有するキノコである。キノコの傘を生育方向から見れば円形状又は楕円形状に近似した形状となるため、パターンマッチングさせる幾何学的形状として、円形状、楕円形状、又は、円形状及び楕円形状の両方が用いられることになる。以下、パターンマッチング処理について、具体的に説明する。   The determination unit 23 pattern-matches the edge detected by the edge detection unit 22 with a geometric shape predetermined according to the harvesting target K to be harvested. Specifically, it is detected in the binarized image formed from the distance image by sequentially performing pattern matching with a predetermined geometric shape at a predetermined portion of the detected edge for every predetermined portion. It is detected whether or not there is a portion similar to a predetermined geometric shape in the edge. In the present embodiment, the harvest object K to be harvested is a mushroom having an umbrella having a predetermined size. If you look at the mushroom umbrella from the growth direction, it becomes a shape that approximates a circular shape or an elliptical shape, so the geometric shape to be pattern-matched should be circular, elliptical, or both circular and elliptical become. Hereinafter, the pattern matching process will be specifically described.

本実施形態では、パターンマッチングさせる幾何学的形状として、径の異なる複数の円形状及び楕円形状が用いられる。具体的には、楕円形状の短径と長径との比は、0.8とされている。より具体的には、距離画像から形成された2値化画像において、直径が20画素から80画素までのそれぞれの円形状と、長径が20画素から80画素であって短径が16画素から64画素までのそれぞれの楕円形状が用いられる。また、図3に示すように、それぞれの楕円形状については、距離画像から形成された2値化画像のX軸方向(図3に示すX方向)と楕円形状の長径方向との成す角度(以下、回転角度という。)をθとした場合に、0°≦θ<180°の範囲を1°ピッチで変化させたそれぞれの楕円形状が用いられる。本実施形態では、幾何学的形状として前述したような径を有する円形状及び楕円形状を用いられているが、本発明はこれに限られるものではなく、収穫すべき収穫対象物Kの寸法に応じてパターンマッチングさせる円形状及び楕円形状の径や、楕円形状の短径と長径との比を変更することができる。また、本実施形態では、楕円形状の回転角度を1°ピッチで変化させているが、本発明はこれに限られるものではない。   In the present embodiment, a plurality of circular shapes and elliptical shapes having different diameters are used as geometric shapes for pattern matching. Specifically, the ratio between the minor axis and the major axis of the elliptical shape is 0.8. More specifically, in a binarized image formed from a distance image, each circular shape with a diameter of 20 to 80 pixels, a major axis of 20 to 80 pixels, and a minor axis of 16 to 64 pixels. Each elliptical shape up to the pixel is used. Further, as shown in FIG. 3, for each elliptical shape, an angle formed by the X-axis direction (X direction shown in FIG. 3) of the binarized image formed from the distance image and the major axis direction of the elliptical shape (hereinafter referred to as “the elliptical shape”). , The rotation angle) is θ, and each elliptical shape in which the range of 0 ° ≦ θ <180 ° is changed at a pitch of 1 ° is used. In the present embodiment, the circular shape and the elliptical shape having the diameter as described above are used as the geometric shape, but the present invention is not limited to this, and the size of the harvested object K to be harvested is limited. Accordingly, the circular and elliptical diameters to be pattern-matched and the ratio of the elliptical minor axis to the major axis can be changed. In this embodiment, the rotation angle of the elliptical shape is changed at a 1 ° pitch, but the present invention is not limited to this.

判定手段23は、以上に説明した径の異なる複数の円形状及び楕円形状を用いて、エッジ検出手段22により検出されたエッジとの一致度を評価する。図4(a)は検出されたエッジに対して円形状をパターンマッチングさせたときの一致度を説明する説明図であり、図4(b)は図4(a)に示す領域Sの拡大図である。図4(b)に示す画素G1〜G7は、パターンマッチングさせる円形状を構成する画素であり、画素E1〜E10は、検出されたエッジを構成する画素である。一致度は、パターンマッチングさせる円形状を構成する画素と、検出されたエッジを構成する画素との間の距離から算出される。具体的には、判定手段23は、画素G1の中心とパターンマッチングさせる円形状の中心に位置する画素(図4(a)に示す画素C)の中心とを結ぶ直線上にある検出されたエッジを構成する画素を抽出する。判定手段23は、抽出された画素の中心と画素G1の中心との距離を算出し、算出された距離を画素G1からの位置ズレ量として取得し、記憶する。抽出された画素が複数ある場合には、算出された距離の中から最も短い距離を画素G1からの位置ズレ量(図4(a)に示す矢印で挟まれた部分の長さであって、具体的には、図4(b)に示すd)として取得し、記憶する。パターンマッチングさせる円形状を構成する残りの全ての画素について、前述のように画素G2〜Gn(nはパターンマッチングさせる円形状を構成する画素数)からの位置ズレ量d〜dを取得し、記憶する。判定手段23は、記憶した画素G1〜Gnからの位置ズレ量d〜dの総和を、パターンマッチングさせる円形状を構成する画素数nで正規化して、一致度を算出する。パターンマッチングさせる幾何学的形状が楕円形状であっても、判定手段23は、同様に、一致度を算出することができる。算出された一致度を評価することにより、径や回転角度の異なる円形状や楕円形状について、一律に評価できることになる。判定手段23は、距離画像から形成された2値化画像において、所定以上の一致度と評価された円形状や楕円形状をマッチング候補として記憶する。 The determination unit 23 evaluates the degree of coincidence with the edge detected by the edge detection unit 22 using the plurality of circular shapes and elliptical shapes having different diameters described above. FIG. 4A is an explanatory diagram for explaining the degree of coincidence when the circular shape is pattern-matched to the detected edge, and FIG. 4B is an enlarged view of the region S shown in FIG. It is. Pixels G1 to G7 shown in FIG. 4B are pixels that form a circular pattern to be pattern-matched, and pixels E1 to E10 are pixels that form a detected edge. The degree of coincidence is calculated from the distance between the pixels forming the circular pattern to be pattern-matched and the pixels forming the detected edge. Specifically, the determination unit 23 detects the detected edge on a straight line connecting the center of the pixel G1 and the center of the pixel (pixel C shown in FIG. 4A) positioned at the center of the circular pattern to be pattern-matched. Are extracted. The determination unit 23 calculates a distance between the center of the extracted pixel and the center of the pixel G1, acquires the calculated distance as a positional deviation amount from the pixel G1, and stores it. When there are a plurality of extracted pixels, the shortest distance among the calculated distances is the amount of positional deviation from the pixel G1 (the length of the portion sandwiched between the arrows shown in FIG. 4 (a), Specifically, it is acquired and stored as d 1 ) shown in FIG. For all the pixels of the remaining composing the circular shape to the pattern matching, and obtains the positional shift amount d 2 to d n from the pixel G2~Gn as previously described (n is the number of pixels constituting the circular shape to the pattern matching) ,Remember. Judging means 23, the sum of the positional displacement amount d 1 to d n from the stored pixel G1 to Gn, normalized by the number of pixels n constituting the circular shape to the pattern matching, and calculates the matching degree. Even if the geometric shape to be pattern-matched is an elliptical shape, the determination unit 23 can calculate the degree of coincidence in the same manner. By evaluating the calculated degree of coincidence, it is possible to uniformly evaluate circular shapes and elliptical shapes having different diameters and rotation angles. The determination unit 23 stores, as matching candidates, a circular shape or an elliptical shape that is evaluated to have a degree of matching equal to or higher than a predetermined value in the binarized image formed from the distance image.

次に、判定手段23は、マッチング候補の中で、同じ形状(円形状の場合は同一の径の円形状であり、楕円形状の場合は同一の長径、短径及び回転角度の楕円形状)同士が重なり合っているか否かを評価する。図5は、評価する重なり合いについて説明する説明図である。具体的には、図5に示すように、マッチング候補の中の同じ形状同士について、X方向及びY方向のズレ量を評価する。例えば、楕円形状の場合、X方向のズレ量は、一方の楕円形状を構成する画素のうちX方向の端点と他方の楕円形状を構成する画素のX方向の端点との間のX方向での端点間の画素数(X方向の長さ)として算出される。具体的には、一方の楕円形状を構成する画素のX座標のうち最も大きいX座標の値と他方の楕円形状を構成する画素のX座標のうち最も大きいX座標の値との差の絶対値として算出される。Y方向のズレ量についても同様に算出される。判定手段23は、一方の楕円形状を構成する画素のX方向の両端点の間の画素数(X方向のサイズ)を算出する。算出されたX方向のズレ量が、算出されたX方向のサイズの10%以上の場合、判定手段23は、両方の楕円形状が重なり合っていないと評価し、両方の楕円形状をマッチング候補のまま残す。例えば、X方向のサイズが40画素のとき、X方向のズレ量が4画素以上の場合、重なり合っていないと評価される。Y方向のサイズについても同様に算出され、算出されたY方向のズレ量が、算出されたY方向のサイズの10%以上の場合、判定手段23は、両方の楕円形状が重なり合っていないと評価し、両方の楕円形状をマッチング候補のまま残す。一方、算出されたX方向のズレ量が算出されたX方向のサイズの10%未満であり、かつ、算出されたY方向のズレ量が算出されたY方向のサイズの10%未満である場合、判定手段23は、両者の楕円形状が重なり合っていると評価する。楕円形状が重なり合っていると評価された場合には、判定手段23は、一方の楕円形状の一致度と他方の楕円形状の一致度とを比較し、一致度の高い方の楕円形状をマッチング候補のまま残し、一致度の低い方の楕円形状をマッチング候補から除外する。これまで楕円形状の場合について説明したが、円形状の場合でも同様に重なり合っているか否かを評価することができる。なお、円形状の場合、X方向のサイズ及びY方向のサイズは、共に円形状の直径に相当する画素数となる。本実施形態では、重なり合っているか否かを評価するしきい値は、X方向及びY方向のサイズの10%とされているが、本発明はこれに限られるものではなく、適宜変更することができる。   Next, the determination means 23 is the same among the matching candidates (in the case of a circular shape, a circular shape having the same diameter, and in the case of an elliptical shape, elliptical shapes having the same major axis, minor axis, and rotation angle). Evaluate whether or not. FIG. 5 is an explanatory diagram for explaining the overlap to be evaluated. Specifically, as shown in FIG. 5, the amount of deviation in the X direction and the Y direction is evaluated for the same shapes in the matching candidates. For example, in the case of an elliptical shape, the amount of deviation in the X direction is the amount of X direction displacement between the end point in the X direction of the pixels constituting one elliptical shape and the end point in the X direction of the pixels constituting the other elliptical shape. It is calculated as the number of pixels between the end points (length in the X direction). Specifically, the absolute value of the difference between the largest X coordinate value among the X coordinates of the pixels constituting one elliptical shape and the largest X coordinate value among the X coordinates of the pixels constituting the other elliptical shape. Is calculated as The amount of deviation in the Y direction is calculated similarly. The determination unit 23 calculates the number of pixels (size in the X direction) between both end points in the X direction of the pixels constituting one elliptical shape. When the calculated amount of deviation in the X direction is 10% or more of the calculated size in the X direction, the determination unit 23 evaluates that both ellipse shapes do not overlap, and both ellipse shapes remain matching candidates. leave. For example, when the size in the X direction is 40 pixels and the amount of deviation in the X direction is 4 pixels or more, it is evaluated that they do not overlap. The size in the Y direction is calculated in the same manner, and when the calculated amount of deviation in the Y direction is 10% or more of the calculated size in the Y direction, the determination unit 23 evaluates that both elliptical shapes do not overlap. Then, both elliptical shapes are left as matching candidates. On the other hand, when the calculated displacement amount in the X direction is less than 10% of the calculated size in the X direction, and the calculated displacement amount in the Y direction is less than 10% of the calculated size in the Y direction. The determination means 23 evaluates that the two elliptical shapes overlap each other. When it is evaluated that the elliptical shapes overlap, the determination unit 23 compares the degree of coincidence of one elliptical shape with the degree of coincidence of the other elliptical shape, and selects the elliptical shape having the higher degree of coincidence as a matching candidate. The oval shape with the lower matching degree is left out of the matching candidates. Although the case of the elliptical shape has been described so far, it is possible to evaluate whether or not they are overlapped even in the case of the circular shape. In the case of a circular shape, the size in the X direction and the size in the Y direction are both the number of pixels corresponding to the diameter of the circular shape. In the present embodiment, the threshold for evaluating whether or not they overlap is 10% of the size in the X direction and the Y direction, but the present invention is not limited to this and can be changed as appropriate. it can.

次に、判定手段23は、マッチング候補のそれぞれについて、マッチングスコアを算出する。具体的には、マッチング候補が円形状の場合、前述のように、マッチング候補である円形状を構成する画素から、検出されたエッジを構成する画素までの位置ズレ量を取得する。取得した位置ズレ量が所定の値以下である場合(取得した位置ズレ量に相当する距離が所定の値より短い場合)、判定手段23は、該円形状を構成する該画素をマッチング画素として記憶する。同様に、マッチング候補である円形状を構成する全ての画素について、マッチング画素であるか否かを評価する。マッチング候補のマッチングスコアは、マッチング候補である円形状について、マッチング画素の総数と該円形状を構成する画素の総数との百分率により算出される。つまり、マッチング画素の総数が該円形状を構成する画素の総数と同じである場合(例えば、検出されたエッジがパターンマッチングさせる幾何学的形状と完全に一致する場合)、マッチングスコアは100%(最大値)である。ここで、収穫対象物Kの実際のエッジは、通常、完全な円形状又は楕円形状ではなく、円形状又は楕円形状に近似した形状となる。このため、マッチングスコアのしきい値を高めすぎると、収穫すべき収穫対象物Kではないと判定される場合がある。本実施形態では、判定手段23は、マッチング候補のマッチングスコアが50%以上の場合、そのマッチング候補をマッチングした円形状M(マッチングした幾何学的形状M)として記憶する。マッチングスコアのしきい値を50%と設定することにより、実際のエッジが円形状又は楕円形状に近似した形状となる収穫すべき収穫対象物Kについて、収穫すべき収穫対象物Kのエッジであると正しく判定されることが期待できる。
本実施形態では、計測単位領域Wが計測単位領域Wと重なり合う寸法を収穫すべき収穫対象物Kの寸法の最大値以上としているため、収穫すべき収穫対象物Kは、何れかの計測単位領域に収まることになる。ただし、エッジ検出手段22によって検出された複数の収穫対象物Kのエッジが重なり合っていることで、収穫対象物Kの実際のエッジの一部が検出されない場合がある。そこで、マッチングスコアのしきい値を50%とすることにより、エッジ検出手段22によって検出された複数の収穫対象物Kのエッジが重なり合っていても、収穫すべき収穫対象物Kのエッジであると正しく判定されることが期待できる。マッチング候補が楕円形状の場合であっても、同様に、判定手段23は、マッチングした楕円形状Mであるか否かを評価することができる。
Next, the determination unit 23 calculates a matching score for each of the matching candidates. Specifically, when the matching candidate has a circular shape, as described above, the amount of positional deviation from the pixel that forms the circular shape that is the matching candidate to the pixel that forms the detected edge is acquired. When the acquired positional deviation amount is equal to or smaller than a predetermined value (when the distance corresponding to the acquired positional deviation amount is shorter than the predetermined value), the determination unit 23 stores the pixels constituting the circular shape as matching pixels. To do. Similarly, it is evaluated whether or not all pixels constituting the circular shape that is a matching candidate are matching pixels. The matching score of the matching candidate is calculated by the percentage of the total number of matching pixels and the total number of pixels constituting the circular shape for the circular shape that is the matching candidate. That is, when the total number of matching pixels is the same as the total number of pixels constituting the circular shape (for example, when the detected edge completely matches the geometric shape to be pattern-matched), the matching score is 100% ( Maximum value). Here, the actual edge of the harvested object K is usually not a perfect circle or ellipse, but a shape approximated to a circle or ellipse. For this reason, if the threshold value of the matching score is increased too much, it may be determined that the target is not the harvesting target K to be harvested. In the present embodiment, when the matching score of the matching candidate is 50% or more, the determination unit 23 stores the matching candidate as a matched circular shape M (matched geometric shape M). By setting the threshold value of the matching score as 50%, the harvest target K to be harvested whose actual edge has a shape approximate to a circular shape or an elliptical shape is the edge of the harvest target K to be harvested. Can be expected to be correctly determined.
In the present embodiment, since the measurement unit area W 1 is not less than the maximum dimension of the crop object K to be harvested dimensions overlapping with the measurement unit area W 2, harvested object K to be harvest, either measurement It will fit in the unit area. However, since the edges of the plurality of harvesting objects K detected by the edge detection unit 22 overlap, some of the actual edges of the harvesting object K may not be detected. Therefore, by setting the threshold value of the matching score to 50%, even if the edges of the plurality of harvesting objects K detected by the edge detection means 22 are overlapped, it is the edge of the harvesting object K to be harvested. It can be expected to be judged correctly. Even if the matching candidate is an elliptical shape, the determination unit 23 can similarly evaluate whether or not the matching elliptical shape M is present.

計測単位領域の重なり合う寸法が、収穫すべき収穫対象物Kの寸法の最大値より小さい値である場合について説明する。この場合、計測単位領域の重なり合う寸法が小さくなればなるほど、何れの計測単位領域においても、収穫すべき収穫対象物Kの一部が計測単位領域から外れるおそれが高まる。そして、計測単位領域での収穫すべき収穫対象物Kのエッジの長さと実際の収穫すべき収穫対象物Kのエッジの長さとの比が小さくなる。このため、マッチングスコアのしきい値を高め過ぎると、収穫すべき収穫対象物Kであると決定されないおそれがある。そこで、収穫すべき収穫対象物Kの一部が計測単位領域から外れた場合であっても、収穫すべき収穫対象物Kのエッジであると判定することができるように、マッチングスコアのしきい値を下げる必要がある。ただし、マッチングスコアのしきい値を下げ過ぎると、ノイズ等による誤検出が生じ易くなることになる。しかしながら、計測単位領域の重なり合う寸法が小さくなればなるほど、収穫対象物Kの計測・収穫すべき収穫対象物Kの決定・収穫すべき収穫対象物Kの切断という一連の工程を繰り返す回数は少なくなるため、工程全体の要する時間は減少する。一方、計測単位領域の重なり合う寸法が大きくなればなるほど、何れかの計測単位領域において収穫すべき収穫対象物Kが収まる範囲が広くなる。つまり、何れかの計測単位領域において、計測単位領域での収穫すべき収穫対象物Kのエッジの長さと実際の収穫すべき収穫対象物Kのエッジの長さとの比が大きくなる。このため、ノイズ等による誤検出が生じ難くなる程度までマッチングスコアのしきい値を高めたとしても、収穫すべき収穫対象物Kのエッジであると判定されることが期待できる。しかしながら、計測単位領域の重なり合う寸法が大きくなればなるほど、上記一連の工程を繰り返す回数が多くなるため、工程全体の要する時間が増加することになる。本実施形態では、マッチングしたか否かを評価するマッチングスコアのしきい値が50%とされているが、本発明はこれに限られるものではなく、前述したように、誤検出の生じ難さと工程全体の要する時間とを鑑みて、つまり、計測単位領域の重なり合う寸法に基づいて、適宜変更することができる。例えば、計測単位領域の重なり合う部分が存在しない場合には、計測単位領域(XY平面)において、収穫すべき収穫対象物KのX座標及びY座標の何れもが、計測単位領域のX座標及びY座標の範囲から外れるおそれがある。この場合、収穫すべき収穫対象物Kは、4つの計測単位領域にまたがることになるため、何れかの計測単位領域には、少なくとも収穫すべき収穫対象物Kのエッジの25%が含まれることになる。このため、マッチングスコアのしきい値は25%より小さい値にされることになる。   A case will be described in which the overlapping dimension of the measurement unit regions is smaller than the maximum value of the dimension of the harvested object K to be harvested. In this case, the smaller the overlapping dimension of the measurement unit regions is, the higher the risk that a part of the harvested object K to be harvested will be removed from the measurement unit region in any measurement unit region. Then, the ratio of the length of the edge of the harvested object K to be harvested in the measurement unit region to the actual length of the edge of the harvested object K to be harvested becomes small. For this reason, if the threshold value of the matching score is increased too much, it may not be determined that it is the harvesting target K to be harvested. Therefore, the threshold of the matching score is set so that even when a part of the harvesting target K to be harvested deviates from the measurement unit region, it can be determined that it is the edge of the harvesting target K to be harvested. It is necessary to lower the value. However, if the threshold value of the matching score is lowered too much, erroneous detection due to noise or the like is likely to occur. However, the smaller the overlapping dimensions of the measurement unit regions are, the smaller the number of times that a series of steps of measuring the harvest target K, determining the harvest target K to be harvested, and cutting the harvest target K to be harvested is repeated. Therefore, the time required for the entire process is reduced. On the other hand, the larger the overlapping dimension of the measurement unit regions, the wider the range in which the harvested object K to be harvested is stored in any measurement unit region. That is, in any measurement unit region, the ratio between the length of the edge of the harvesting target K to be harvested in the measurement unit region and the actual length of the edge of the harvesting target K to be harvested is large. For this reason, even if the threshold value of the matching score is increased to the extent that erroneous detection due to noise or the like is unlikely to occur, it can be expected that the edge of the harvesting target K to be harvested is determined. However, the larger the overlapping dimensions of the measurement unit regions, the more times the above series of steps are repeated, and thus the time required for the entire process increases. In this embodiment, the threshold value of the matching score for evaluating whether or not matching is 50%. However, the present invention is not limited to this, and as described above, it is difficult to cause erroneous detection. In view of the time required for the entire process, that is, based on the overlapping dimensions of the measurement unit regions, it can be changed as appropriate. For example, when there is no overlapping portion of the measurement unit region, in the measurement unit region (XY plane), both the X coordinate and Y coordinate of the harvested object K to be harvested are the X coordinate and Y of the measurement unit region. There is a risk of deviating from the coordinate range. In this case, since the harvest object K to be harvested extends over four measurement unit areas, at least 25% of the edge of the harvest object K to be harvested is included in any measurement unit area. become. For this reason, the threshold value of the matching score is set to a value smaller than 25%.

図6は、検出されたエッジに対してマッチングした円形状の一例を示す。図6(a)は、マッチングした円形状M1〜M3と、それぞれの中心C1〜C3を示し、図6(b)は、マッチングした円形状M4〜M6と、それぞれの中心C4〜C6を示す。本実施形態では、判定手段23は、マッチングした円形状又は楕円形状Mを、その中心の位置が互いに近接する円形状又は楕円形状の集合体である幾何学的形状群に分類する。本実施形態では、マッチングした円形状又は楕円形状の中心間の距離の何れもが、所定の範囲内である場合、中心の位置が互いに近接する円形状又は楕円形状とする。具体的には、本実施形態では、所定の範囲内は、5画素分の距離(例えば、図4(b)に示す位置ズレ量dのような距離)以下に設定されている。図6(a)は、中心C1〜C3の間の距離の何れもが所定の範囲内である場合を例示している。具体的には、中心C1と中心C2との間の距離(中心C1に位置する画素の中心と中心C2に位置する画素の中心との間の距離)、中心C2と中心C3との間の距離、中心C1と中心C3との間の距離の何れもが所定の範囲内である。このため、図6(a)に示す円形状M1〜M3は、1つの幾何学的形状群に分類されることになる。一方、図6(b)は、中心C4と中心C5との間の距離と、中心C5と中心C6との間の距離は、所定の範囲内であるが、中心C4と中心C6との間の距離は所定の範囲内ではない場合を例示している。この場合、円形状M4〜M6は、中心の位置が互いに近接するとはいえないため、1つの幾何学的形状群に分類されない。具体的には、例えば、円形状M4と円形状M5は1つの幾何学的形状群に分類され、円形状M6は円形状M4と円形状M5とが分類された幾何学的形状群とは別の幾何学的形状群に分類される。本実施形態では、設定される所定の範囲内は5画素分の距離以下であるが、本発明はこれに限られるものではなく、適宜変更することができる。 FIG. 6 shows an example of a circular shape matched to the detected edge. 6A shows the matched circular shapes M1 to M3 and the respective centers C1 to C3, and FIG. 6B shows the matched circular shapes M4 to M6 and the respective centers C4 to C6. In the present embodiment, the determination unit 23 classifies the matched circular or elliptical shapes M into geometric shape groups that are aggregates of circular or elliptical shapes whose centers are close to each other. In the present embodiment, when any of the distances between the centers of the matched circular or elliptical shapes is within a predetermined range, the center positions are circular or elliptical shapes that are close to each other. Specifically, in the present embodiment, the predetermined range, the distance of 5 pixels (e.g., such distance as the position displacement amount d 3 shown in FIG. 4 (b)) are set as follows. FIG. 6A illustrates a case where all of the distances between the centers C1 to C3 are within a predetermined range. Specifically, the distance between the center C1 and the center C2 (the distance between the center of the pixel located at the center C1 and the center of the pixel located at the center C2), the distance between the center C2 and the center C3 Any of the distances between the center C1 and the center C3 is within a predetermined range. For this reason, the circular shapes M1 to M3 shown in FIG. 6A are classified into one geometric shape group. On the other hand, FIG. 6B shows that the distance between the center C4 and the center C5 and the distance between the center C5 and the center C6 are within a predetermined range, but between the center C4 and the center C6. The case where the distance is not within the predetermined range is illustrated. In this case, the circular shapes M4 to M6 are not classified into one geometric shape group because the center positions cannot be said to be close to each other. Specifically, for example, the circular shape M4 and the circular shape M5 are classified into one geometric shape group, and the circular shape M6 is different from the geometric shape group in which the circular shape M4 and the circular shape M5 are classified. It is classified into the geometric shape group. In the present embodiment, the set predetermined range is equal to or less than the distance of five pixels, but the present invention is not limited to this and can be changed as appropriate.

そして、判定手段23は、幾何学的形状群毎に、幾何学的形状群を構成する円形状又は楕円形状Mのうち、マッチングの度合いが最も高い円形状又は楕円形状Mを抽出する。本実施形態では、幾何学的形状群毎に、幾何学的形状群を構成する円形状又は楕円形状Mのうち、マッチングスコアが最も高い円形状又は楕円形状Mを抽出する。なお、マッチングした全ての円形状又は楕円形状Mの中心が互いに近接している場合には、全ての円形状又は楕円形状Mが1つの幾何学的形状群に分類されることになり、マッチングスコアが最も高い1つの円形状又は楕円形状Mが抽出されることになる。また、幾何学的形状群が1つの円形状又は楕円形状Mから構成されている場合には、この円形状又は楕円形状Mが、マッチングスコアが最も高い円形状又は楕円形状として抽出されることになる。そして、判定手段23は、幾何学的形状群毎に抽出した円形状又は楕円形状の中から予め定められた径(収穫対象の径)を有する円形状又は楕円形状を選択する。具体的には、収穫すべき収穫対象物K(キノコの傘)の寸法に応じて、選択される円形状又は楕円形状の径を予め定めておくことになる。   And the determination means 23 extracts the circular shape or elliptical shape M with the highest degree of matching among the circular shape or elliptical shape M which comprises a geometric shape group for every geometric shape group. In the present embodiment, for each geometric shape group, a circular shape or an elliptic shape M having the highest matching score is extracted from the circular shape or the elliptic shape M constituting the geometric shape group. When the centers of all matched circular or elliptical shapes M are close to each other, all the circular or elliptical shapes M are classified into one geometric shape group, and the matching score One circular shape or elliptical shape M having the highest is extracted. When the geometric shape group is composed of one circular shape or elliptical shape M, this circular shape or elliptical shape M is extracted as a circular shape or elliptical shape having the highest matching score. Become. And the determination means 23 selects the circular shape or elliptical shape which has a predetermined diameter (diameter of harvesting object) from the circular shape or elliptical shape extracted for every geometric shape group. Specifically, the diameter of the circular or elliptical shape to be selected is determined in advance according to the size of the harvesting target K (mushroom umbrella) to be harvested.

判定手段23は、距離画像から形成された2値化画像において、選択された円形状又は楕円形状が有する2次元座標に位置する画素を収穫すべき収穫対象物Kのエッジであると判定する。具体的には、判定手段23は、選択された円形状又は楕円形状(距離画像から形成された2値化画像において、選択された円形状又は楕円形状が有する2次元座標に位置する画素)を最終的に収穫すべき収穫対象物Kのエッジであると判定(擬制)する。このため、単に生育方向に所定の高さ以上に延びているか否かで収穫すべきか否かを判定する場合に比べて、更に生育方向に直交する平面において所望する形状や径に合致するか否かで収穫すべきか否かを判定することになるため、収穫すべき収穫対象物Kを精度良く検出することが期待できる。   The determination unit 23 determines that the pixel located at the two-dimensional coordinate of the selected circular or elliptical shape is the edge of the harvesting target K to be harvested in the binarized image formed from the distance image. Specifically, the determination unit 23 selects the selected circular shape or elliptical shape (pixels located at the two-dimensional coordinates of the selected circular shape or elliptical shape in the binarized image formed from the distance image). It is determined (imitation) that the edge of the harvesting target K to be finally harvested. For this reason, whether or not to match the desired shape or diameter in a plane perpendicular to the growth direction, compared with the case where it is determined whether or not to harvest based on whether or not it extends beyond the predetermined height in the growth direction. Therefore, it can be expected to accurately detect the harvest object K to be harvested.

また、幾何学的形状群毎に抽出した円形状又は楕円形状の中から収穫対象の径を有する円形状又は楕円形状を選択し、距離画像において、選択された円形状又は楕円形状が有する2次元座標に位置する画素を収穫すべき収穫対象物Kのエッジであると判定することにより、パターンマッチング後に選択される収穫対象の径を有する円形状又は楕円形状のみをパターンマッチングさせる場合に比べて、より精度良く収穫すべき収穫対象物Kのエッジであると判定することが期待できる。具体的には、例えば、収穫すべき収穫対象物Kの寸法が、直径が40画素の円形状に相当する形状よりも大きい場合には、直径が37画素の円形状に相当する収穫対象物Kを収穫すべき収穫対象物Kではないと決定することが望ましい。直径が37画素の円形状に相当する収穫対象物Kから検出されたエッジに対して、直径が40画素の円形状のみをパターンマッチングさせると、直径が40画素の円形状がマッチングすることで、収穫すべき収穫対象物Kのエッジであると判定するおそれがある。一方、直径が37画素の円形状に相当する収穫対象物Kから検出されたエッジに対して、直径が35画素の円形状と40画素の円形状との複数の円形状をパターンマッチングさせたときに、直径が35画素の円形状と40画素の円形状との双方がマッチングする場合がある。この場合、双方の円形状の中心の位置が互いに近接していると考えられる。そして、双方の円形状は、1つの幾何学的形状群に分類されることになる。1つの幾何学的形状群について、直径が40画素の円形状よりも、直径が35画素の円形状の方がマッチングの度合いが高いとして、直径が35画素の円形状が抽出されることで、収穫すべき収穫対象物Kの形状をより正確に検出することが期待できる。このため、抽出された幾何学的形状は、収穫対象の径を有する幾何学的形状として選択されないことが期待できる。つまり、収穫すべき収穫対象物Kのエッジではないと判定することが期待できる。このように、直径が40画素の円形状のみをパターンマッチングさせることよりも、直径が35画素の円形状と40画素の円形状との複数の円形状をパターンマッチングさせる方が、より精度良く収穫すべき収穫対象物Kを決定することが期待できる。本実施形態では、幾何学的形状群毎に抽出した円形状又は楕円形状の中から収穫対象の径を有する円形状又は楕円形状を選択し、選択された円形状又は楕円形状により収穫すべき収穫対象物Kのエッジを判定しているが、本発明はこれに限られるものではなく、マッチングした円形状又は楕円形状Mにより収穫すべき収穫対象物Kのエッジを判定してもよい。   Further, a circular shape or an elliptical shape having a diameter to be harvested is selected from a circular shape or an elliptical shape extracted for each geometric shape group, and the selected circular shape or elliptical shape has a two-dimensional shape in the distance image. By determining that the pixel located at the coordinates is the edge of the harvesting target K to be harvested, compared to pattern matching only a circular or elliptical shape having a diameter of the harvesting target selected after pattern matching, It can be expected that the edge of the harvesting target K is to be harvested with higher accuracy. Specifically, for example, when the size of the harvesting target K to be harvested is larger than a shape corresponding to a circular shape having a diameter of 40 pixels, the harvesting target K corresponding to a circular shape having a diameter of 37 pixels is used. It is desirable to determine that it is not the harvesting object K to be harvested. When only the circular shape with a diameter of 40 pixels is pattern-matched to the edge detected from the harvested object K corresponding to a circular shape with a diameter of 37 pixels, the circular shape with a diameter of 40 pixels is matched, There is a risk of determining that the edge of the harvesting target K is to be harvested. On the other hand, when a plurality of circular shapes of a circular shape having a diameter of 35 pixels and a circular shape having a size of 40 pixels are subjected to pattern matching with respect to an edge detected from the harvested object K corresponding to a circular shape having a diameter of 37 pixels. In addition, both a circular shape with a diameter of 35 pixels and a circular shape with 40 pixels may match. In this case, it is considered that the positions of the centers of both circular shapes are close to each other. Both circular shapes are classified into one geometric shape group. For one geometric shape group, a circular shape having a diameter of 35 pixels is extracted, assuming that a circular shape having a diameter of 35 pixels has a higher matching degree than a circular shape having a diameter of 40 pixels, It can be expected to more accurately detect the shape of the harvested object K to be harvested. For this reason, it can be expected that the extracted geometric shape is not selected as a geometric shape having a diameter to be harvested. That is, it can be expected that it is not the edge of the harvested object K to be harvested. Thus, it is more accurate to pattern match a plurality of circular shapes of a 35 pixel diameter and a 40 pixel circular shape than to pattern match only a circular shape having a diameter of 40 pixels. It can be expected that the harvesting object K to be determined is determined. In this embodiment, a circular shape or an elliptical shape having a diameter to be harvested is selected from a circular shape or an elliptical shape extracted for each geometric shape group, and the harvest to be harvested by the selected circular shape or elliptical shape. Although the edge of the target K is determined, the present invention is not limited to this, and the edge of the target K to be harvested may be determined based on the matched circular or elliptical shape M.

信号処理手段2は、切断位置決定手段24を更に具備する。切断位置決定手段24は、判定手段23により収穫すべきと判定された収穫対象物Kのエッジを有する画素領域を構成する画素の2次元座標及び濃度値に基づいて、収穫すべきと判定された収穫対象物Kの切断位置を決定する。本実施形態では、切断位置決定手段24は、距離画像から形成された2値化画像において、判定手段23により収穫すべきと判定された収穫対象物Kのエッジの中心に位置する画素を抽出する。そして、抽出された画素の2次元座標及び濃度値に対応する3次元位置から収穫対象物Kの生育方向に沿って3次元位置計測手段1から更に一定距離だけ離間した3次元位置を切断位置に決定する。
本実施形態では、切断位置決定手段24は、距離画像から形成された2値化画像において、判定手段判定手段23により収穫すべきと判定された収穫対象物Kのエッジの中心に位置する画素を抽出して切断位置を決定しているが、本発明はこれに限られるものではなく、例えば、判定手段23により収穫すべきと判定された収穫対象物Kのエッジを有する画素領域を構成する画素の2次元座標の平均値及び濃度値の平均値を算出し、算出された画素の2次元座標の平均値及び濃度値の平均値に対応する3次元位置から生育方向に沿って3次元位置計測手段1から更に一定距離だけ離間した3次元位置を切断位置に決定してもよい。
The signal processing means 2 further includes a cutting position determining means 24. The cutting position determination means 24 is determined to be harvested based on the two-dimensional coordinates and density values of the pixels constituting the pixel region having the edge of the harvested object K determined to be harvested by the determination means 23. The cutting position of the harvested object K is determined. In the present embodiment, the cutting position determination unit 24 extracts a pixel located at the center of the edge of the harvested object K determined to be harvested by the determination unit 23 in the binarized image formed from the distance image. . Then, a three-dimensional position further separated from the three-dimensional position measuring means 1 by a certain distance along the growth direction of the harvested object K from the three-dimensional position corresponding to the two-dimensional coordinates and density value of the extracted pixel is set as the cutting position. decide.
In the present embodiment, the cutting position determination unit 24 selects a pixel located at the center of the edge of the harvested object K determined to be harvested by the determination unit determination unit 23 in the binarized image formed from the distance image. Although the cutting position is determined by extraction, the present invention is not limited to this. For example, the pixels constituting the pixel region having the edge of the harvested object K determined to be harvested by the determination unit 23 The average value of the two-dimensional coordinate and the average value of the concentration value are calculated, and the three-dimensional position measurement is performed along the growth direction from the three-dimensional position corresponding to the calculated average value of the two-dimensional coordinate and the average value of the pixel. A three-dimensional position further apart from the means 1 by a certain distance may be determined as the cutting position.

前述したように、本実施形態に係る収穫補助装置100は、収穫対象物Kを切断するための切断手段3を更に備える。切断手段3は、切断位置決定手段24によって決定された切断位置に移動して、判定手段23により収穫すべきと判定された収穫対象物Kを切断する。切断位置は、収穫対象物Kの所定位置(判定手段23により抽出された画素の2次元座標及び濃度値に対応する3次元位置)から収穫対象物Kの生育方向に沿って3次元位置計測手段1から更に一定距離だけ離間した3次元位置であるため、切断手段3により切断される収穫対象物Kの長さを一律にすることができる。本実施形態では、切断手段3は超音波カッターとされているが、本発明はこれに限られるものではなく、例えば、ハサミやレーザーカッターであってもよい。切断手段3により切断された収穫対象物Kを適宜集めることにより、収穫対象物Kを収穫することができる。   As described above, the harvest assistance device 100 according to the present embodiment further includes the cutting means 3 for cutting the harvest target K. The cutting means 3 moves to the cutting position determined by the cutting position determination means 24 and cuts the harvested object K determined to be harvested by the determination means 23. The cutting position is a three-dimensional position measuring means along a growth direction of the harvested object K from a predetermined position of the harvested object K (a three-dimensional position corresponding to the two-dimensional coordinates and density value of the pixel extracted by the judging means 23). Since it is a three-dimensional position further apart from 1 by a certain distance, the length of the harvested object K cut by the cutting means 3 can be made uniform. In the present embodiment, the cutting means 3 is an ultrasonic cutter, but the present invention is not limited to this, and may be, for example, a scissor or a laser cutter. The harvesting target K can be harvested by appropriately collecting the harvesting target K cut by the cutting means 3.

本実施形態では、判定手段23は、距離画像から形成された2値化画像において検出されたエッジに対してパターンマッチングを行っているが、本発明はこれに限られるものではなく、距離画像において検出されたエッジに対してパターンマッチングを行ってもよい。   In the present embodiment, the determination unit 23 performs pattern matching on the edge detected in the binarized image formed from the distance image. However, the present invention is not limited to this, and the distance image Pattern matching may be performed on the detected edge.

以上に説明したように、本実施形態においては、距離画像を用いて収穫すべき収穫対象物Kを決定することを特徴としている。そこで、距離画像を用いることによる効果について確認する試験を行った。具体的には、距離画像から形成された2値化画像を用いて収穫すべき収穫対象物Kであるキノコのエッジを判定した場合と、キノコから反射する反射光量に応じた濃度値を有する画素から構成される濃淡画像から形成された2値化画像を用いて収穫すべきキノコのエッジを判定した場合とで、収穫すべきキノコを問題なく決定できるか否かについて確認する試験を行った。   As described above, the present embodiment is characterized in that the harvesting target K to be harvested is determined using the distance image. Then, the test which confirms about the effect by using a distance image was done. Specifically, a pixel having a density value corresponding to the amount of reflected light reflected from the mushroom when the edge of the mushroom that is the harvesting target K to be harvested is determined using the binarized image formed from the distance image A test was conducted to check whether or not the mushroom to be harvested can be determined without problems when the edge of the mushroom to be harvested is determined using the binarized image formed from the grayscale image composed of

図7は、キノコの濃淡画像を用いてキノコのエッジを判定した場合の結果を示す。図7(a)は、CCDカメラでキノコを撮像したキノコの濃淡画像を示す。図7(b)は、図7(a)に示すキノコの濃淡画像から形成された2値化画像を示す。図7(c)は、図7(b)に示す2値化画像において、エッジ検出手段22により検出されたエッジに対して、径の異なる複数の円形状又は楕円形状をパターンマッチングさせ、マッチングした楕円形状M7を示す結果図である。図7(c)に示すように、濃淡画像を用いてキノコのエッジを判定した場合には、図7(c)にA、B、Cで示す部分のキノコについて収穫すべきキノコであると判定されないという結果が得られた。これは、キノコの傘同士が重なっていたり、キノコと培地との濃淡が近似していることにより、キノコ同士やキノコと培地との濃淡差が小さくなるためであると考えられる。   FIG. 7 shows the result when the edge of the mushroom is determined using the gray image of the mushroom. FIG. 7A shows a grayscale image of a mushroom captured by a CCD camera. FIG. 7B shows a binarized image formed from the gray image of the mushroom shown in FIG. FIG. 7C shows a pattern in which a plurality of circular or elliptical shapes having different diameters are pattern-matched with the edges detected by the edge detecting means 22 in the binarized image shown in FIG. 7B. It is a result figure which shows elliptical shape M7. As shown in FIG. 7C, when the edge of the mushroom is determined using the grayscale image, it is determined that the mushrooms indicated by A, B, and C in FIG. The result of not being obtained. This is presumably because mushroom umbrellas overlap each other, or because the density of mushrooms and medium is similar, the difference in density between mushrooms or between mushrooms and medium is reduced.

図8は、キノコの距離画像を用いてキノコのエッジを判定した場合の結果を示す。図8(a)は、本実施形態の3次元位置計測手段1により計測されたキノコの距離画像を示す。図8(b)は、図8(a)に示すキノコの距離画像から形成された2値化画像を示す。図8(c)は、図8(b)に示す2値化画像において、エッジ検出手段22により検出されたエッジに対して、径の異なる複数の円形状又は楕円形状をパターンマッチングさせ、マッチングした楕円形状M8〜M11を示す結果図である。図8(c)に示すように、距離画像を用いてキノコのエッジを判定した場合には、収穫すべきキノコを問題なく決定できることがわかった。これは、距離画像は、反射光量の影響を受けないことから、3次元位置計測手段1からキノコの傘同士が重なっているそれぞれのキノコの傘までの距離やキノコの傘と培地との距離は異なるため、精度良くキノコのエッジを判定することができるからである。   FIG. 8 shows a result when a mushroom edge is determined using a mushroom distance image. FIG. 8A shows a mushroom distance image measured by the three-dimensional position measuring means 1 of the present embodiment. FIG. 8B shows a binarized image formed from the mushroom distance image shown in FIG. FIG. 8C shows a pattern in which a plurality of circular or elliptical shapes having different diameters are pattern-matched with the edges detected by the edge detecting means 22 in the binarized image shown in FIG. 8B. It is a result figure which shows elliptical shape M8-M11. As shown in FIG. 8C, it was found that when a mushroom edge is determined using a distance image, a mushroom to be harvested can be determined without problems. This is because the distance image is not affected by the amount of reflected light, so the distance from the three-dimensional position measuring means 1 to the mushroom umbrellas that overlap each other and the distance between the mushroom umbrellas and the medium are as follows: This is because the edges of the mushroom can be accurately determined because of the difference.

本発明は、上記実施形態の構成に限られるものではなく、発明の趣旨を変更しない範囲で種々の変形が可能である。例えば、本実施形態では、計測単位領域ごとに、収穫対象物Kの計測、収穫すべき収穫対象物Kの決定、収穫すべき収穫対象物Kの切断という一連の工程を実行しているが、本発明はこれに限られるものではなく、収穫すべき収穫対象物Kの決定や収穫すべき収穫対象物Kの切断は、例えば、各計測単位領域に生育している収穫対象物Kの計測が完了した後に行ってもよい。また、3次元位置計測手段1が計測単位領域ごとに収穫対象物Kの2次元座標と収穫対象物Kまでの距離とを計測できるように、3次元位置計測手段1が移動する順序は、上記説明した順序に限られるものではない。また、本実施形態では、計測単位領域は、培地Bよりも小さい範囲とされているが、本発明はこれに限られるものではなく、計測単位領域が培地Bと同等の範囲であってもよい。また、本実施形態では、幾何学的形状として、円形状又は楕円形状を用いているが、これに限られるものではなく、種々の収穫対象物Kに応じて種々の形状を用いることができる。   The present invention is not limited to the configuration of the above embodiment, and various modifications can be made without departing from the spirit of the invention. For example, in the present embodiment, for each measurement unit region, a series of steps of measuring the harvest target K, determining the harvest target K to be harvested, and cutting the harvest target K to be harvested are performed. The present invention is not limited to this, and the determination of the harvesting target K to be harvested and the cutting of the harvesting target K to be harvested include, for example, measurement of the harvesting target K growing in each measurement unit region. It may be done after completion. The order in which the three-dimensional position measuring unit 1 moves so that the three-dimensional position measuring unit 1 can measure the two-dimensional coordinates of the harvesting target K and the distance to the harvesting target K for each measurement unit region is as described above. The order is not limited. Further, in this embodiment, the measurement unit region is a range smaller than the medium B, but the present invention is not limited to this, and the measurement unit region may be a range equivalent to the medium B. . Moreover, in this embodiment, although circular shape or elliptical shape is used as geometric shape, it is not restricted to this, Various shapes can be used according to various harvesting objects K.

1・・・3次元位置計測手段
2・・・信号処理手段
3・・・切断手段
21・・・距離画像形成手段
22・・・エッジ検出手段
23・・・判定手段
24・・・切断位置決定手段
100・・・収穫補助装置
B・・・培地
K・・・収穫対象物
M・・・マッチングした幾何学的形状
DESCRIPTION OF SYMBOLS 1 ... Three-dimensional position measurement means 2 ... Signal processing means 3 ... Cutting means 21 ... Distance image formation means 22 ... Edge detection means 23 ... Determination means 24 ... Cutting position determination Means 100 ... Auxiliary harvesting device B ... Medium K ... Harvested object M ... Matched geometric shape

Claims (4)

収穫対象物の生育方向に直交する平面における収穫対象物の2次元座標と、前記2次元座標における前記生育方向に沿った前記収穫対象物までの距離とを計測する3次元位置計測手段と、
収穫すべき収穫対象物を決定する信号処理手段とを備える収穫補助装置であって、
前記信号処理手段は、
前記3次元位置計測手段により計測された2次元座標と前記3次元位置計測手段により計測された距離に応じた濃度値とを有する画素から構成される距離画像を形成する距離画像形成手段と、
前記距離画像において、所定の距離以下に相当する濃度値を有する前記画素から構成される画素領域のエッジを検出するエッジ検出手段と、
前記検出されたエッジに対して、収穫すべき収穫対象物に応じて予め定められた幾何学的形状をパターンマッチングさせ、前記距離画像において、マッチングした幾何学的形状が有する2次元座標に位置する画素を収穫すべき収穫対象物のエッジであると判定する判定手段とを具備することを特徴とする収穫補助装置。
Three-dimensional position measuring means for measuring the two-dimensional coordinates of the harvested object in a plane orthogonal to the growing direction of the harvested object and the distance to the harvested object along the growing direction in the two-dimensional coordinates;
A harvesting assisting device comprising signal processing means for determining a harvesting object to be harvested,
The signal processing means includes
Distance image forming means for forming a distance image composed of pixels having two-dimensional coordinates measured by the three-dimensional position measuring means and density values corresponding to the distance measured by the three-dimensional position measuring means;
Edge detecting means for detecting an edge of a pixel region composed of the pixels having a density value corresponding to a predetermined distance or less in the distance image;
The detected edge is subjected to pattern matching with a predetermined geometric shape according to the harvesting target to be harvested, and is located in the two-dimensional coordinates of the matching geometric shape in the distance image. A harvesting assisting device comprising: a determination unit that determines that a pixel is an edge of a harvested object to be harvested.
前記判定手段は、
前記検出されたエッジに対して、前記予め定められた幾何学的形状として、径の異なる複数の円形状又は楕円形状をパターンマッチングさせ、
マッチングした幾何学的形状を、その中心の位置が互いに近接する幾何学的形状の集合体である幾何学的形状群に分類し、
前記幾何学的形状群毎に、前記幾何学的形状群を構成する幾何学的形状のうち、マッチングの度合いが最も高い幾何学的形状を抽出し、
前記幾何学的形状群毎に抽出した幾何学的形状の中から、予め定められた径を有する幾何学的形状を選択し、
前記距離画像において、前記選択された幾何学的形状が有する2次元座標に位置する画素を、収穫すべき収穫対象物のエッジであると判定することを特徴とする請求項1に記載の収穫補助装置。
The determination means includes
For the detected edge, pattern matching a plurality of circular or elliptical shapes with different diameters as the predetermined geometric shape,
Classify the matched geometric shapes into geometric shapes that are collections of geometric shapes whose centers are close to each other;
For each geometric shape group, a geometric shape having the highest degree of matching is extracted from the geometric shapes constituting the geometric shape group,
Selecting a geometric shape having a predetermined diameter from the geometric shapes extracted for each of the geometric shape groups;
2. The harvest assistance according to claim 1, wherein in the distance image, it is determined that a pixel located at a two-dimensional coordinate of the selected geometric shape is an edge of a harvest target to be harvested. apparatus.
収穫対象物を切断するための切断手段を更に備え、
前記信号処理手段は、
前記判定手段により収穫すべきと判定された収穫対象物のエッジを有する前記画素領域を構成する画素の2次元座標及び濃度値に基づいて、前記収穫すべきと判定された収穫対象物の切断位置を決定する切断位置決定手段を更に具備し、
前記切断手段は、前記切断位置決定手段によって決定された切断位置に移動して、前記収穫すべきと判定された収穫対象物を切断することを特徴とする請求項1又は2に記載の収穫補助装置。
A cutting means for cutting the harvest object;
The signal processing means includes
The cutting position of the harvesting object determined to be harvested based on the two-dimensional coordinates and density values of the pixels constituting the pixel region having the edge of the harvesting object determined to be harvested by the determination means Cutting position determining means for determining
3. The harvesting assistance according to claim 1, wherein the cutting unit moves to the cutting position determined by the cutting position determination unit and cuts the harvested object determined to be harvested. apparatus.
前記切断位置決定手段は、前記距離画像において前記収穫すべきと判定された収穫対象物のエッジの中心に位置する画素を抽出し、抽出された画素の2次元座標及び濃度値に対応する3次元位置から前記生育方向に沿って前記3次元位置計測手段から更に一定距離だけ離間した3次元位置を前記切断位置に決定することを特徴とする請求項3に記載の収穫補助装置。   The cutting position determining means extracts a pixel located at the center of the edge of the harvested object determined to be harvested in the distance image, and a three-dimensional corresponding to the two-dimensional coordinates and density value of the extracted pixel. 4. The harvest assisting apparatus according to claim 3, wherein a three-dimensional position further spaced apart from the three-dimensional position measuring means by a certain distance along the growing direction from the position is determined as the cutting position.
JP2014036672A 2014-02-27 2014-02-27 Harvest assistance device Active JP6300571B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014036672A JP6300571B2 (en) 2014-02-27 2014-02-27 Harvest assistance device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014036672A JP6300571B2 (en) 2014-02-27 2014-02-27 Harvest assistance device

Publications (2)

Publication Number Publication Date
JP2015162073A JP2015162073A (en) 2015-09-07
JP6300571B2 true JP6300571B2 (en) 2018-03-28

Family

ID=54185131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014036672A Active JP6300571B2 (en) 2014-02-27 2014-02-27 Harvest assistance device

Country Status (1)

Country Link
JP (1) JP6300571B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020188735A (en) * 2019-05-23 2020-11-26 訓子府機械工業株式会社 Onion harvest implement and onion harvest work method
US11856898B2 (en) 2021-08-03 2024-01-02 4Ag Robotics Inc. Automated mushroom harvesting system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7184016B2 (en) * 2019-11-06 2022-12-06 株式会社デンソー crop harvesting system
JPWO2021171919A1 (en) * 2020-02-27 2021-09-02

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL9101205A (en) * 1991-07-09 1993-02-01 Ccm Beheer Bv DEVICE AND METHOD FOR AUTOMATIC SELECTIVE MUSHROOM HARVESTING.
KR101072950B1 (en) * 2004-07-30 2011-10-17 파나소닉 전공 주식회사 An individual detector and a tailgate detection device
FI20055187A (en) * 2005-04-22 2006-10-23 Green Automation Ltd Oy Hardware for picking walls

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020188735A (en) * 2019-05-23 2020-11-26 訓子府機械工業株式会社 Onion harvest implement and onion harvest work method
US11856898B2 (en) 2021-08-03 2024-01-02 4Ag Robotics Inc. Automated mushroom harvesting system

Also Published As

Publication number Publication date
JP2015162073A (en) 2015-09-07

Similar Documents

Publication Publication Date Title
Luo et al. Vision-based extraction of spatial information in grape clusters for harvesting robots
Xiang et al. Recognition of clustered tomatoes based on binocular stereo vision
CN102288613B (en) Surface defect detecting method for fusing grey and depth information
CN105784713B (en) Sealing ring detection method of surface flaw based on machine vision
CN102136061B (en) Method for automatically detecting, classifying and identifying defects of rectangular quartz wafer
JP6300571B2 (en) Harvest assistance device
CN102682286B (en) Fruit identification method of picking robots based on laser vision systems
KR101932227B1 (en) Method for detecting position of rebar in reinforced precast concrete and detecting apparatus the same
US20100119113A1 (en) Method and apparatus for detecting objects
CN103871053A (en) Vision conspicuousness-based cloth flaw detection method
CN108872997A (en) A kind of seabed line detecting method based on side scan sonar data fusion and accurate processing
CN109800619B (en) Image recognition method for citrus fruits in mature period
CN113096121B (en) Pavement crack detection method and system based on cross fracture mechanics and image processing
CN108320799B (en) Image analysis and recognition method for lateral flow paper strip disease diagnosis
CN109684941A (en) One kind picking region partitioning method based on MATLAB image procossing litchi fruits
CN116229265A (en) Method for automatically and nondestructively extracting phenotype of soybean plants
JP6191328B2 (en) Ultrasonic diagnostic apparatus, ultrasonic image analysis method, and program
CN107507192B (en) Portable device for in-vivo measurement of rice sword leaf included angle and in-vivo measurement method
CN104764402B (en) The visible detection method of citrus volume
CN105718929A (en) All-weather unknown environment high precision rapid circular object positioning method and system
CN110909751A (en) Visual identification method, system and medium for transformer substation insulator cleaning robot
CN115861220A (en) Cold-rolled strip steel surface defect detection method and system based on improved SSD algorithm
JP2004350508A (en) Method for cleaving bound nuclear region on recognition of nuclear region
CN112991327B (en) Steel grid welding system, method and terminal equipment based on machine vision
CN113052177B (en) Garlic scar identification method and device and sorting equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180227

R150 Certificate of patent or registration of utility model

Ref document number: 6300571

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250