JP2020155060A - Recognition method and recognition device of head-forming center of head-forming vegetable, and harvester - Google Patents

Recognition method and recognition device of head-forming center of head-forming vegetable, and harvester Download PDF

Info

Publication number
JP2020155060A
JP2020155060A JP2019055513A JP2019055513A JP2020155060A JP 2020155060 A JP2020155060 A JP 2020155060A JP 2019055513 A JP2019055513 A JP 2019055513A JP 2019055513 A JP2019055513 A JP 2019055513A JP 2020155060 A JP2020155060 A JP 2020155060A
Authority
JP
Japan
Prior art keywords
image
center
heading
hue
vegetable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019055513A
Other languages
Japanese (ja)
Other versions
JP7212936B2 (en
Inventor
千田 有一
Yuichi Senda
有一 千田
公俊 山崎
Kimitoshi Yamazaki
公俊 山崎
智之 宇佐美
Tomoyuki Usami
智之 宇佐美
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shinshu University NUC
Original Assignee
Shinshu University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shinshu University NUC filed Critical Shinshu University NUC
Priority to JP2019055513A priority Critical patent/JP7212936B2/en
Publication of JP2020155060A publication Critical patent/JP2020155060A/en
Application granted granted Critical
Publication of JP7212936B2 publication Critical patent/JP7212936B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Harvesting Machines For Specific Crops (AREA)
  • Image Analysis (AREA)

Abstract

To provide a recognition method and a recognition device capable of shortening total processing time compared to a conventional device regarding a head-forming center of head-forming vegetable (especially, lettuce) planted in a field, and a harvester including the recognition device.SOLUTION: A recognition method of a head-forming center of a head-forming vegetable: creating a resized image reducing the number of RGB image pixels of the head-forming vegetable (an image acquiring step and an image resizing step); creating an edge mask image from the resized image (an edge step, a color tone mask step, an opening/closing step, and an edge mask step); carrying out normal line voting processing regarding the edge mask image and extracting a center candidate region by carrying out binarization processing by superposing of the normal lines (a normal line drawing step and a center candidate extracting step); and recognizing an outline center of gravity of the center candidate region as the head-forming center of the head-forming vegetable (a center recognition step).SELECTED DRAWING: Figure 1

Description

本発明は、結球野菜の結球中心の認識方法および認識装置、より詳しくは、圃場において栽植されているレタス、キャベツ、白菜等の結球野菜の画像を取得し、当該画像に写る結球野菜の結球中心を認識する方法および当該方法を用いた認識装置に関する。 The present invention acquires an image of a heading vegetable such as lettuce, cabbage, and Chinese cabbage planted in a field, and obtains an image of the heading center of the heading vegetable, and more specifically, the heading center of the heading vegetable shown in the image. The present invention relates to a method for recognizing Chinese cabbage and a recognition device using the method.

レタス、キャベツ、白菜等の結球野菜は、わが国において広く圃場栽培されている。これら結球野菜は比較的重量があり、例えば手作業による収穫作業は腰をかがめて行うため重労働となる。したがって、収穫作業の機械化による省力化の確立が期待されている。 Heading vegetables such as lettuce, cabbage, and Chinese cabbage are widely cultivated in the field in Japan. These headed vegetables are relatively heavy, and for example, manual harvesting work is a heavy labor because it is performed by bending over. Therefore, it is expected that labor saving will be established by mechanization of harvesting work.

結球野菜の収穫作業の機械化に当たっては、圃場において栽植されている結球野菜の位置情報をリアルタイムで高精度に取得して一株ずつカットする技術が求められる。したがって、収穫機は各株の適切な位置に収穫刃が当たるように動作されなければならない。しかしながら、栽植されている株は、必ずしも直線軸上に位置しておらず、個体によっては直線軸から外れて位置している。したがって、単に収穫刃を備える収穫機を結球野菜の株列に沿って直進させた場合、収穫刃が適切な位置に当たらずに収穫できないことや不適切な位置に当たって葉を傷めてしまうおそれがある。以上のことから、栽植されている結球野菜の位置情報がリアルタイムで高精度に取得できれば、当該情報に応じて収穫機の収穫刃を各株の適切な位置に当たるように動作させることが可能になる。 In the mechanization of the harvesting work of headed vegetables, a technique of acquiring the position information of the headed vegetables planted in the field with high accuracy in real time and cutting one by one is required. Therefore, the harvester must be operated so that the harvesting blade hits the proper position of each strain. However, the planted plants are not necessarily located on the linear axis, and some individuals are located off the linear axis. Therefore, if a harvester equipped with a harvesting blade is simply moved straight along the line of headed vegetables, the harvesting blade may not hit the proper position for harvesting, or the harvesting blade may hit the wrong position and damage the leaves. .. From the above, if the position information of the headed vegetables being planted can be acquired with high accuracy in real time, it is possible to operate the harvesting blade of the harvester so as to hit the appropriate position of each strain according to the information. ..

ここで、非特許文献1(農業機械学会誌、農業食料工学会、平成8年7月、第58巻、第4号、p.35−43)には、圃場におけるレタスを、ビデオカメラを用いて二次元画像処理による認識を試みた例および三次元視覚センサを用いて三次元画像から認識を試みた例が記載されている。しかしながら、二次元画像による例では、実用化可能な程度に正確な位置や大きさを検出することには課題があり、三次元画像による例では、コストが高く、且つ装置が大型になり易いという課題がある。 Here, in Non-Patent Document 1 (Journal of Agricultural Machinery Society, Agricultural Food Engineering Society, July 1996, Vol. 58, No. 4, p.35-43), lettuce in the field is used as a video camera. An example of attempting recognition by two-dimensional image processing and an example of attempting recognition from a three-dimensional image using a three-dimensional visual sensor are described. However, in the example using a two-dimensional image, there is a problem in detecting the position and size as accurate as practical, and in the example using a three-dimensional image, the cost is high and the device tends to be large. There are challenges.

高衛民、藤浦建史、中尾清治、土肥誠、「ロボットによる結球野菜の選択収穫の研究(第1報)−二次元認識と三次元形状計測−」、農業機械学会誌、農業食料工学会、平成8年7月、第58巻、第4号、p.35−43Takaemin, Takeshi Fujiura, Kiyoji Nakao, Makoto Dohi, "Study of selective harvesting of headed vegetables by robot (1st report) -2D recognition and 3D shape measurement-", Journal of Agricultural Machinery Society, Agricultural Food Engineering Society, Heisei July 2008, Vol. 58, No. 4, p. 35-43

圃場に栽植される結球野菜のうち、特にレタスについては、キャベツと比較して結球と外葉との判別がし難く、実用化可能な程度に正確な位置や大きさを検出することは困難であると共に、装置も大型になり易い。そこで、本願発明者らは、レタスにおける結球中心を認識することによって、当該情報を基に収穫機の経路生成を可能とすることを目的とし、レタスの結球中心の認識方法について鋭意研究を行った。その結果、比較的識別率が高い方法を見出したが、結球外認識点数(結球中心でない位置を結球中心として検出してしまう点数)が多く、全体の識別精度が低いこと、および全処理時間が長いことが課題であった。 Of the headed vegetables planted in the field, especially lettuce, it is difficult to distinguish between headed and outer leaves compared to cabbage, and it is difficult to detect the position and size as accurate as practical. At the same time, the device tends to be large. Therefore, the inventors of the present application have conducted diligent research on a method of recognizing the heading center of lettuce, with the aim of enabling the route generation of the harvester based on the information by recognizing the heading center of lettuce. .. As a result, we found a method with a relatively high discrimination rate, but the number of non-heading recognition points (the number of points that detect a position other than the heading center as the heading center) is high, the overall discrimination accuracy is low, and the total processing time Long was a challenge.

本発明は、上記事情に鑑みてなされ、圃場において栽植されている結球野菜(特に、レタス)の結球中心について、従来と比較して全処理時間が短縮可能で且つ識別精度が向上可能な認識方法、認識装置、および認識装置を備える収穫機を提供することを目的とする。 The present invention has been made in view of the above circumstances, and is a recognition method capable of shortening the total processing time and improving the identification accuracy of the heading center of headed vegetables (particularly lettuce) planted in the field as compared with the conventional method. , A recognition device, and a harvester equipped with the recognition device.

本発明は、一実施形態として以下に記載するような解決手段により、前記課題を解決する。 The present invention solves the above-mentioned problems by means of a solution as described below as an embodiment.

本発明に係る結球野菜の結球中心の認識方法は、圃場において栽植されている結球野菜のRGB画像を取得する画像取得工程と、前記RGB画像の画素数を減少させてリサイズ画像を作成する画像リサイズ工程と、前記リサイズ画像に対して、エッジ検出を行ってエッジ画像を作成するエッジ工程と、前記リサイズ画像に対して、しきい値を設けた色相によるマスク処理を行って色相マスク画像を作成する色相マスク工程と、前記色相マスク画像に対して、オープニングおよびクロージングのいずれか一方または両方の処理を行って色相マスクフィルタ画像を作成するオープニング・クロージング工程と、前記エッジ画像に対して、前記色相マスクフィルタ画像を用いるマスク処理を行ってエッジマスク画像を作成するエッジマスク工程と、前記エッジマスク画像における各画素について法線投票処理を行って法線画像を作成する法線描画工程と、前記法線画像に対して、しきい値を設けた法線の重なりによる二値化処理を行って中心候補領域を抽出する中心候補抽出工程と、前記中心候補領域の輪郭重心を前記結球野菜の結球中心として認識する中心認識工程と、を備えること要件とする。 The method for recognizing the heading center of headed vegetables according to the present invention includes an image acquisition step of acquiring an RGB image of headed vegetables planted in a field and image resizing to create a resized image by reducing the number of pixels of the RGB image. The process, the edge step of performing edge detection on the resized image to create an edge image, and the resized image being masked by a hue with a threshold value to create a hue mask image. The hue mask step, the opening closing step of creating a hue mask filter image by performing either or both of the opening and closing processes on the hue mask image, and the hue mask for the edge image. An edge mask step of performing mask processing using a filter image to create an edge mask image, a normal drawing step of performing a normal voting process for each pixel in the edge mask image to create a normal image, and the normal line. A central candidate extraction step of extracting a central candidate region by performing a binarization process on the image by overlapping normal lines with thresholds, and using the contour center of the central candidate region as the heading center of the headed vegetable. It is a requirement to have a central recognition process for recognition.

これによれば、取得した画像の画素数を減少させたリサイズ画像を処理することによって、従来と比較して全処理時間を短縮させることができる。また、画素数を減少させることよって画像を粗くして境界領域をぼやけさせることができ、画像を平滑化することができる。そのため、エッジが丸みを帯びることによって法線投票処理において法線をより結球の中心点に向けて引くことが可能になると共に、画素数の減少により法線自体の数を減少させて法線画像の煩雑化を抑制することができる。したがって、従来と比較してより正確な中心候補領域の抽出が可能な法線画像を作成することができる。その結果、結球外認識点数を減少させることができ、識別精度を向上させることができる。 According to this, by processing the resized image in which the number of pixels of the acquired image is reduced, the total processing time can be shortened as compared with the conventional case. Further, by reducing the number of pixels, the image can be roughened and the boundary region can be blurred, and the image can be smoothed. Therefore, the rounded edge makes it possible to draw the normal toward the center point of the head in the normal voting process, and the number of pixels is reduced to reduce the number of normals themselves to obtain a normal image. It is possible to suppress the complexity of. Therefore, it is possible to create a normal image capable of extracting a central candidate region more accurately than in the past. As a result, the number of recognition points outside the head can be reduced, and the identification accuracy can be improved.

また、本発明に係る結球野菜の結球中心の認識装置は、RGB画像が取得可能なカメラと、画像処理装置と、演算装置と、前記カメラおよび前記画像処理装置、ならびに前記演算装置の動作を制御する制御部と、を備え、前記制御部は、前記カメラに対して、圃場において栽植されている結球野菜のRGB画像を取得させる制御を行い、且つ前記画像処理装置に対して、前記RGB画像の画素数を減少させてリサイズ画像を作成し、前記リサイズ画像に対して、エッジ検出を行ってエッジ画像を作成し、前記リサイズ画像に対して、しきい値を設けた色相によるマスク処理を行って色相マスク画像を作成し、前記色相マスク画像に対して、オープニングおよびクロージングのいずれか一方または両方の処理を行って色相マスクフィルタ画像を作成し、前記エッジ画像に対して、前記色相マスクフィルタ画像を用いるマスク処理を行ってエッジマスク画像を作成し、前記エッジマスク画像における各画素について法線投票処理を行って法線画像を作成し、前記法線画像に対して、しきい値を設けた法線の重なりによる二値化処理を行って中心候補領域を抽出させる制御を行い、且つ前記演算装置に対して、前記中心候補領域の輪郭重心を前記結球野菜の結球中心として算出させる制御を行うこと要件とする。 Further, the heading center recognition device for headed vegetables according to the present invention controls the operations of a camera capable of acquiring RGB images, an image processing device, a calculation device, the camera, the image processing device, and the calculation device. The control unit is provided with a control unit for controlling the camera to acquire an RGB image of the headed vegetables planted in the field, and the image processing device controls the RGB image. A resized image is created by reducing the number of pixels, edge detection is performed on the resized image to create an edge image, and the resized image is masked by a hue with a threshold value. A hue mask image is created, the hue mask image is processed with either or both of opening and closing to create a hue mask filter image, and the hue mask filter image is applied to the edge image. A method in which an edge mask image is created by performing mask processing to be used, a normal voting process is performed for each pixel in the edge mask image to create a normal image, and a threshold value is provided for the normal image. Controlling to extract the central candidate region by performing binarization processing by overlapping lines, and controlling the arithmetic unit to calculate the contour center of gravity of the central candidate region as the heading center of the heading vegetable. Make it a requirement.

これによれば、圃場において栽植されている結球野菜の結球中心の位置を、比較的短時間で且つ正確に認識することが可能になる。 According to this, the position of the heading center of the headed vegetables planted in the field can be recognized accurately in a relatively short time.

また、本発明に係る結球野菜の収穫機は、動力源を備えて走行可能な車体に、本発明に係る結球野菜の結球中心の認識装置と、前記結球野菜の茎を切断する収穫刃と、前記認識装置から前記結球野菜の結球中心の認識情報を受けて、前記収穫刃を前記結球野菜の茎に沿って位置させる経路制御を行う制御部と、が設けられていることを要件とする。 Further, the headed vegetable harvester according to the present invention has a body that is equipped with a power source and can travel, a recognition device for the heading center of the headed vegetable according to the present invention, and a harvesting blade that cuts the stem of the headed vegetable. It is a requirement that a control unit that receives recognition information of the heading center of the headed vegetable from the recognition device and controls a route for positioning the harvesting blade along the stem of the headed vegetable is provided.

これによれば、圃場において栽植されている結球野菜の結球中心の位置情報をリアルタイムで高精度に取得し、当該情報に応じて収穫刃を結球野菜の茎を切断する最適な位置に移動させることが可能になる。 According to this, the position information of the heading center of the headed vegetables planted in the field is acquired with high accuracy in real time, and the harvesting blade is moved to the optimum position for cutting the stem of the headed vegetables according to the information. Becomes possible.

本発明によれば、圃場において栽植されている結球野菜(特に、レタス)の結球中心について、従来と比較して全処理時間が短縮可能で且つ識別精度が向上可能な認識方法、認識装置、および認識装置を備える収穫機が実現可能となる。 According to the present invention, a recognition method, a recognition device, and a recognition device capable of shortening the total processing time and improving the identification accuracy of the heading center of headed vegetables (particularly lettuce) planted in the field as compared with the conventional case. A harvester equipped with a recognition device becomes feasible.

本発明の実施形態に係る結球野菜の結球中心の認識方法の例を示すフローチャートである。It is a flowchart which shows the example of the recognition method of the heading center of the heading vegetable which concerns on embodiment of this invention. 本発明の実施形態に係る結球野菜の結球中心の認識方法における画像取得工程から画像リサイズ工程までを説明する画像である。It is an image explaining from the image acquisition process to the image resizing process in the method of recognizing the heading center of a headed vegetable according to the embodiment of the present invention. 本発明の実施形態に係る結球野菜の結球中心の認識方法におけるエッジルートおよび色相マスクルートを説明する画像である。It is an image explaining the edge root and the hue mask root in the method of recognizing the heading center of a headed vegetable which concerns on embodiment of this invention. 本発明の実施形態に係る結球野菜の結球中心の認識方法におけるエッジマスク工程から中心候補抽出工程までを説明する画像である。It is an image explaining from the edge masking step to the center candidate extraction step in the method of recognizing the heading center of a headed vegetable which concerns on embodiment of this invention. 本発明の実施形態に係る結球野菜の結球中心の認識方法における中心認識工程を説明する画像である。It is an image explaining the center recognition process in the recognition method of the heading center of the headed vegetable which concerns on embodiment of this invention. 本発明の実施形態に係る結球野菜の結球中心の認識方法の他の例1であって、深度色相マスク工程を備える例を示すフローチャートである。It is another example 1 of the method of recognizing the heading center of a headed vegetable which concerns on embodiment of this invention, and is the flowchart which shows the example which includes the depth hue masking process. 本発明の実施形態に係る結球野菜の結球中心の認識方法の他の例2であって、中心識別工程を備える例を示すフローチャートである。It is another Example 2 of the method of recognizing the heading center of the headed vegetable which concerns on embodiment of this invention, and is the flowchart which shows the example which includes the center identification process. 本発明に係る結球野菜の結球中心の認識方法の実施例1の結果を示す画像である。It is an image which shows the result of Example 1 of the recognition method of the heading center of the headed vegetable which concerns on this invention. 本発明に係る結球野菜の結球中心の認識方法の実施例5の結果を示す画像である。It is an image which shows the result of Example 5 of the recognition method of the heading center of the headed vegetable which concerns on this invention. 本発明に係る結球野菜の結球中心の認識方法の比較例1の結果を示す画像である。It is an image which shows the result of the comparative example 1 of the recognition method of the heading center of the headed vegetable which concerns on this invention.

(結球野菜の結球中心の認識方法)
本発明は、圃場において栽植されている結球野菜(特に、レタス)の画像を取得し、当該画像に写る結球野菜の結球中心を認識する方法の発明である。以下、図面を参照して、本発明の実施形態について詳しく説明する。図1は、本実施形態に係る結球野菜の結球中心の認識方法の例を示すフローチャートである。また、図2は、本実施形態に係る認識方法における画像取得工程(S100)から画像リサイズ工程(S102)までを説明する画像である。図3は、本実施形態に係る認識方法におけるエッジルート(R1)および色相マスクルート(R2)を説明する画像である。図4は、本実施形態に係る認識方法におけるエッジマスク工程(S108)から中心候補抽出工程(S112)までを説明する画像である。図5は、本実施形態に係る認識方法における中心認識工程(S114)を説明する画像である。また、図6は、本実施形態に係る認識方法の他の例1であって、深度色相マスク工程を備える例を示すフローチャートである。また、図7は、本実施形態に係る認識方法の他の例2であって、中心識別工程を備える例を示すフローチャートである。なお、全図において表示する画像は、それぞれを見易くするため、あるいは比較し易くするために、適宜横縦寸法を拡大または縮小して表示している。また、全図において表示する画像は、説明のために出力したものであって、本発明の各工程で作成する各画像を出力(可視化)するか否かは任意である。
(How to recognize the heading center of headed vegetables)
The present invention is an invention of a method of acquiring an image of headed vegetables (particularly lettuce) planted in a field and recognizing the heading center of the headed vegetables shown in the image. Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a flowchart showing an example of a method of recognizing the heading center of headed vegetables according to the present embodiment. Further, FIG. 2 is an image illustrating the steps from the image acquisition step (S100) to the image resizing step (S102) in the recognition method according to the present embodiment. FIG. 3 is an image illustrating an edge root (R1) and a hue mask root (R2) in the recognition method according to the present embodiment. FIG. 4 is an image illustrating the steps from the edge mask step (S108) to the center candidate extraction step (S112) in the recognition method according to the present embodiment. FIG. 5 is an image illustrating the central recognition step (S114) in the recognition method according to the present embodiment. Further, FIG. 6 is a flowchart showing another example 1 of the recognition method according to the present embodiment, which includes a depth hue masking step. Further, FIG. 7 is a flowchart showing another example 2 of the recognition method according to the present embodiment, which includes a central identification step. The images displayed in all the drawings are displayed by appropriately enlarging or reducing the horizontal and vertical dimensions in order to make them easier to see or compare. Further, the images displayed in all the drawings are output for explanation, and it is optional whether or not to output (visualize) each image created in each step of the present invention.

また、本発明の実施形態が、特にレタス特有の課題に対して好適に適用されることから、適用対象として圃場においてマルチシートで覆った畝に栽植されているレタスを例にして説明するが、本発明の実施形態はレタスの他、キャベツ、白菜その他の結球野菜における種々の栽培形態に対しても適用可能である。また、本文中の「全処理時間」とは、本発明の実施形態に係る認識方法の全工程の総時間を表す。また、「識別率」は、識別率=[(結球数−未検出数)/結球数]×100で算出した値[%]である。ここで、結球数とは、認識対象であるレタスの数を表し、未検出数は検出できなかったレタス(結球中心)の数を表す。したがって、「識別率」は、結球中心の認識の強度を示す指標である。また、「識別精度」は、[(結球中心誤差25.5[ピクセル]以内の点数)/(結球数+結球外認識点数)]×100で算出した値[%]である。ここで、結球外認識点数とは、結球中心でない位置を結球中心として検出してしまった点数すなわち誤認識点数を表し、具体的には結球中心誤差25.5[ピクセル]を超える点数である。したがって、「識別精度」は、結球中心の認識の正確性を示す指標である。以下、[ピクセル]を、[px]と表記する。
以下、図1のフローチャートに沿って、各工程について詳しく説明する。
Further, since the embodiment of the present invention is particularly preferably applied to a problem peculiar to lettuce, lettuce planted in a ridge covered with a multi-sheet in a field as an application target will be described as an example. The embodiment of the present invention can be applied not only to lettuce but also to various cultivation forms of cabbage, Chinese cabbage and other headed vegetables. Further, the "total processing time" in the text represents the total time of all the steps of the recognition method according to the embodiment of the present invention. The "identification rate" is a value [%] calculated by the identification rate = [(number of heads-undetected number) / number of heads] × 100. Here, the number of heads represents the number of lettuce to be recognized, and the undetected number represents the number of lettuce (center of head) that could not be detected. Therefore, the "discrimination rate" is an index indicating the strength of recognition of the head center. Further, the "identification accuracy" is a value [%] calculated by [(points within the heading center error 25.5 [pixels]) / (number of heads + number of non-heading recognition points)] × 100. Here, the non-heading recognition point represents a point in which a position other than the heading center is detected as the heading center, that is, a false recognition point, and specifically, a score exceeding the heading center error of 25.5 [pixels]. Therefore, "discrimination accuracy" is an index indicating the accuracy of recognition of the head center. Hereinafter, [pixel] is referred to as [px].
Hereinafter, each step will be described in detail with reference to the flowchart of FIG.

本実施形態に係る認識方法として、先ず、圃場において栽植されているレタスのRGB画像(図2A)を取得する画像取得工程(S100)を実施する。これによって、本実施形態に係る認識方法の使用をする対象を取得することができる。画像の取得には、RGB画像(図2A)が取得可能な公知のカメラを使用することができる。画像に写るレタスの数は限定されないが、例えば上記カメラが結球野菜の収穫機に搭載されて前進する収穫機の経路生成に用いられる場合には、通常2乃至6程度と考えられる(本実施形態においては、3としている)。なお、本工程(S100)において取得されたRGB画像(図2A)を、以下、「無変換画像(図2A)」と称することがある。 As a recognition method according to the present embodiment, first, an image acquisition step (S100) for acquiring an RGB image (FIG. 2A) of lettuce planted in a field is carried out. As a result, it is possible to acquire an object for which the recognition method according to the present embodiment is used. A known camera capable of acquiring an RGB image (FIG. 2A) can be used to acquire the image. The number of lettuce shown in the image is not limited, but it is usually considered to be about 2 to 6 when the above camera is mounted on a heading vegetable harvester and used for path generation of a forward harvester (this embodiment). In, it is set to 3). The RGB image (FIG. 2A) acquired in this step (S100) may be hereinafter referred to as "unconverted image (FIG. 2A)".

画像取得工程(S100)の後、上記RGB画像(図2A)すなわち無変換画像(図2A)の画素数を減少させてリサイズ画像(図2B)を作成する画像リサイズ工程(S102)を実施する。これによって、次工程以後の処理について、データ量が少ないリサイズ画像(図2B)に対して演算処理を行うことができる。したがって、無変換画像(図2A)に対して演算処理を行う方法と比較して全処理時間を大幅に短縮することができる。なお、図2では、無変換画像(図2A)とリサイズ画像(図2B)とを同程度のサイズ(横縦寸法)で表示している。 After the image acquisition step (S100), an image resizing step (S102) is carried out to create a resized image (FIG. 2B) by reducing the number of pixels of the RGB image (FIG. 2A), that is, the unconverted image (FIG. 2A). As a result, it is possible to perform arithmetic processing on the resized image (FIG. 2B) having a small amount of data in the processing after the next step. Therefore, the total processing time can be significantly shortened as compared with the method of performing arithmetic processing on the unconverted image (FIG. 2A). In FIG. 2, the unconverted image (FIG. 2A) and the resized image (FIG. 2B) are displayed in the same size (horizontal and vertical dimensions).

また、リサイズ画像(図2B)は無変換画像(図2A)と比較して粗くなって境界領域がぼやけ、レタスの結球は丸みのある球体により近くなっている。すなわち、本工程(S102)によれば、画素数を減少させることより画像を平滑化することができる。 Further, the resized image (FIG. 2B) is rougher than the unconverted image (FIG. 2A) and the boundary region is blurred, and the lettuce head is closer to the rounded sphere. That is, according to this step (S102), the image can be smoothed by reducing the number of pixels.

なお、無変換画像(図2A)のリサイズ(縮小)は、本実施形態では一例としてバイリニア補間法を使用するがこれに限定されず、画素数を減少させる他の処理を用いてもよい。また、本実施形態では、一例として画像サイズ(横幅×縦幅)が720[px]×540[px]である無変換画像(図2A)に対して、画像サイズ(横幅×縦幅)を180[px]×135[px]にリサイズしているがこれに限定されない。本工程(S102)における縮小率については、後述の実施例で詳しく説明する。また、リサイズに際し、本実施形態では、一例として横縦比を一定にしているがこれに限定されず、適宜変更してもよい。 The resize (reduction) of the unconverted image (FIG. 2A) is not limited to the bilinear interpolation method as an example in the present embodiment, and other processing for reducing the number of pixels may be used. Further, in the present embodiment, as an example, the image size (width x height) is 180 for the unconverted image (FIG. 2A) in which the image size (width x height) is 720 [px] x 540 [px]. It is resized to [px] x 135 [px], but it is not limited to this. The reduction ratio in this step (S102) will be described in detail in Examples described later. Further, when resizing, in the present embodiment, the aspect ratio is fixed as an example, but the aspect ratio is not limited to this, and may be changed as appropriate.

画像リサイズ工程(S102)の後、適宜複製したリサイズ画像(図2B)から、それぞれエッジ画像(図3B)および色相マスクフィルタ画像(図3D)を作成する。ここで、リサイズ画像(図2B)からエッジ画像(図3B)を作成する一連の工程をエッジルート(R1)と称し、リサイズ画像(図2B)から色相マスクフィルタ画像(図3D)を作成する一連の工程を色相マスクルート(R2)と称する。これらエッジルート(R1)および色相マスクルート(R2)はいずれを先後に実施してもよく、または同時に実施してもよい。 After the image resizing step (S102), an edge image (FIG. 3B) and a hue mask filter image (FIG. 3D) are created from the appropriately duplicated resizing image (FIG. 2B), respectively. Here, a series of steps for creating an edge image (FIG. 3B) from the resized image (FIG. 2B) is referred to as an edge root (R1), and a series for creating a hue mask filter image (FIG. 3D) from the resized image (FIG. 2B). This process is referred to as a hue mask root (R2). The edge route (R1) and the hue mask route (R2) may be performed first or later, or may be performed at the same time.

先ず、エッジルート(R1)では、エッジ工程(104a)によってリサイズ画像(図2B)からエッジ画像(図3B)を作成する。具体的に、画像リサイズ工程(S102)の後、リサイズ画像(図2B)に対して、エッジ検出を行ってエッジ画像(図3B)を作成するエッジ工程(104a)を実施する。これによって、結球周囲(結球の輪郭)をエッジとして検出することができる。エッジ検出に使用するフィルタとして本実施形態では一例としてソーベルフィルタを使用するが、これに限定されない。ソーベルフィルタでは、横方向および縦方向の勾配を計算し、エッジ強度の二乗を計算する。ここで、さらにルート計算は行わず、二乗の状態で出力すると好適である。これによって、ルート計算に費やす時間を削減して全処理時間を短縮することができる。 First, in the edge root (R1), an edge image (FIG. 3B) is created from the resized image (FIG. 2B) by the edge step (104a). Specifically, after the image resizing step (S102), an edge step (104a) is performed on the resized image (FIG. 2B) to perform edge detection and create an edge image (FIG. 3B). As a result, the circumference of the head (outline of the head) can be detected as an edge. In this embodiment, a sobel filter is used as an example of the filter used for edge detection, but the present invention is not limited to this. The Sobel filter calculates the horizontal and vertical gradients and calculates the square of the edge strength. Here, it is preferable to output in a squared state without further performing route calculation. As a result, the time spent on route calculation can be reduced and the total processing time can be shortened.

ここで、本工程(104a)では、上記エッジ検出を行う前に、リサイズ画像(図2B)に対して、適宜、グレースケール化および平滑化のいずれか一方または両方の処理を行うと好適である。グレースケール化および平滑化の両方を行う場合、いずれを先後に行ってもよい。本実施形態では、一例としてリサイズ画像(図2B)に対して、グレースケール化を行い、次いで平滑化を行う。次いで「平滑化までを行ったリサイズ画像(図3A)」に対して、上記エッジ検出を行ってエッジ画像(図3B)を作成する。ただし、グレースケール化および平滑化はあくまで任意の処理である。 Here, in this step (104a), it is preferable to appropriately perform one or both of grayscale and smoothing on the resized image (FIG. 2B) before performing the edge detection. .. When both grayscale and smoothing are performed, either may be performed first or later. In the present embodiment, as an example, the resized image (FIG. 2B) is grayscaled and then smoothed. Next, the edge detection is performed on the “resized image (FIG. 3A) that has been smoothed” to create an edge image (FIG. 3B). However, grayscale and smoothing are arbitrary processes.

グレースケール化によれば、本工程(S104a)に不要な色情報を取り除くことができる。また、平滑化によれば、画像を粗くして境界領域をぼやけさせることができ、エッジにより丸みを付けることができる。ここで、特にレタスについては外葉の葉先が鋸刃状に細かく刻まれた形状を有しているため、後述するエッジ検出において外葉の葉先が高周波エッジ(エッジ強度の強い位置)として検出され易い。その結果、後述する法線投票処理では、そのような相対的にエッジ強度の強い位置を結球周囲(結球の輪郭)として計算した値に基づいて法線を引くため、最終的に識別精度が低下してしまうことになる。したがって、平滑化によりエッジにより丸みを付けることによって外葉等の結球以外のものが高周波エッジとして検出されることを抑制することができ、最終的な識別精度の低下を防止することができる。 According to the grayscale, color information unnecessary for this step (S104a) can be removed. Further, according to smoothing, the image can be roughened to blur the boundary region, and the edges can be rounded. Here, especially for lettuce, since the leaf tip of the outer leaf has a shape finely carved into a saw blade shape, the leaf tip of the outer leaf is regarded as a high-frequency edge (position with strong edge strength) in edge detection described later. Easy to detect. As a result, in the normal voting process described later, the normal is drawn based on the value calculated as the circumference of the head (contour of the head) at such a position where the edge strength is relatively strong, so that the identification accuracy is finally lowered. Will be done. Therefore, by rounding the edges by smoothing, it is possible to suppress the detection of non-heading objects such as outer leaves as high-frequency edges, and it is possible to prevent a decrease in final identification accuracy.

なお、平滑化に使用するフィルタとして本実施形態では一例としてガウシアンフィルタを使用するが、これに限定されない。例えば平均化フィルタ等を使用してもよい。また、画像のリサイズに際して、平滑化に使用するフィルタのパラメータを画像サイズの縮小比に合わせて適宜小さく調整すると好適である。これによって、過剰な平滑化によりエッジの区別が不明確になること、またはエッジが拡大され過ぎてしまうこと等を防止することができる。具体例として、仮に無変換画像(図2A)を平滑化する場合は、フィルタサイズ11×11、標準偏差11に対して、リサイズ画像(図2B)を平滑化する場合は、フィルタサイズ3×3、標準偏差3といった具合である。 In this embodiment, a Gaussian filter is used as an example of the filter used for smoothing, but the present invention is not limited to this. For example, an averaging filter or the like may be used. Further, when resizing the image, it is preferable to adjust the parameters of the filter used for smoothing to be appropriately small according to the reduction ratio of the image size. As a result, it is possible to prevent the edge distinction from becoming unclear due to excessive smoothing, or the edge from being enlarged too much. As a specific example, if the unconverted image (FIG. 2A) is smoothed, the filter size is 11 × 11, and the standard deviation is 11. If the resized image (FIG. 2B) is smoothed, the filter size is 3 × 3. , Standard deviation 3, and so on.

次に、色相マスクルート(R2)では、色相マスク工程(104b)からオープニング・クロージング工程(S106b)までの工程によってリサイズ画像(図2B)から色相マスクフィルタ画像(図3D)を作成する。具体的に、画像リサイズ工程(S102)の後、しきい値を設けた色相によるマスク処理を行って色相マスク画像(図3C)を作成する色相マスク工程(104b)を実施する。具体的には、一例としてRGB画像であるリサイズ画像(図2B)をHSV変換したHSV画像(不図示)を作成し、次いで当該HSV画像に対して、色相によるマスク処理を行って色相マスク画像(図3C)を作成する。ただし、これに限定されず、例えばHSV変換に代えてHSL変換を行う方法、または色相のみを計算し、その結果に基づいてマスク処理を行って色相マスク画像(図3C)を作成する方法を用いてもよい。ここで、しきい値として結球の色である所定の色(例えば緑色)の値を設定する。これによって、リサイズ画像(図2B)から結球領域を抽出することができる。また、色相によるマスク処理を行うことによって、例えばRGB情報によるマスク処理と比較して、晴天、曇天、雨天等の天気条件の影響を抑制することができ、天気に関わらず結球領域を安定して抽出することができる。 Next, in the hue mask root (R2), a hue mask filter image (FIG. 3D) is created from the resized image (FIG. 2B) by the steps from the hue masking step (104b) to the opening closing step (S106b). Specifically, after the image resizing step (S102), a hue masking step (104b) for creating a hue mask image (FIG. 3C) by performing mask processing with a hue set with a threshold value is performed. Specifically, as an example, an HSV image (not shown) obtained by HSV-converting a resized image (FIG. 2B) which is an RGB image is created, and then the HSV image is masked by hue to perform a hue mask image (FIG. 2B). Figure 3C) is created. However, the present invention is not limited to this, and for example, a method of performing HSL conversion instead of HSV conversion, or a method of calculating only the hue and performing mask processing based on the result to create a hue mask image (FIG. 3C) is used. You may. Here, a value of a predetermined color (for example, green), which is the color of the head, is set as the threshold value. Thereby, the head region can be extracted from the resized image (FIG. 2B). Further, by performing the mask processing based on hue, the influence of weather conditions such as fine weather, cloudy weather, and rainy weather can be suppressed as compared with the mask processing using RGB information, for example, and the heading region can be stabilized regardless of the weather. Can be extracted.

色相マスク工程(S104b)の後、色相マスク画像(図3C)に対して、オープニングおよびクロージングのいずれか一方または両方の処理を行って色相マスクフィルタ画像(図3D)を作成するオープニング・クロージング工程(S106b)を実施する。これによって、色相マスク画像(図3C)に対して、マスク処理で抽出することができなかった結球の一部(主として抽出した領域内に穴として形成された領域)をノイズ(結球領域)として埋めることができる。また、マスク処理で抽出してしまった結球以外のもの(例えば雑草および外葉の他、マルチシートと地面との境界領域)をノイズ(結球領域以外の領域)として消去することができる。 After the hue mask step (S104b), the hue mask image (FIG. 3C) is subjected to either or both of the opening and closing processes to create a hue mask filter image (FIG. 3D). S106b) is carried out. As a result, in the hue mask image (FIG. 3C), a part of the heads (mainly the region formed as a hole in the extracted region) that could not be extracted by the mask processing is filled as noise (head region). be able to. In addition, non-heading areas (for example, weeds and outer leaves, as well as the boundary area between the multi-sheet and the ground) extracted by the masking process can be erased as noise (areas other than the heading area).

本工程(S106b)におけるオープニング・クロージング処理は適宜オープニングおよびクロージングのいずれか一方または両方の処理を行えばよい。また、オープニングとは、一般に収縮処理を所定回数行い、次いで当該収縮処理と同回数だけ膨張処理を行うことを意味するが、特許請求の範囲を含め本文では、収縮処理に次いで膨張処理が収縮処理とは異なる回数(0回を含む)行われる場合を含む。また、クロージングとは、一般に膨張処理を所定回数行い、次いで当該膨張処理と同回数だけ収縮処理を行うことを意味するが、特許請求の範囲を含め本文では、膨張処理に次いで収縮処理が膨張処理とは異なる回数(0回を含む)行われる場合を含む。 The opening / closing process in this step (S106b) may be performed as appropriate for either or both of the opening and closing processes. Further, the opening generally means that the shrinkage treatment is performed a predetermined number of times, and then the expansion treatment is performed the same number of times as the shrinkage treatment. However, in the text including the scope of claims, the expansion treatment is followed by the shrinkage treatment. Including the case where it is performed a different number of times (including 0 times). Further, closing generally means that the expansion treatment is performed a predetermined number of times, and then the contraction treatment is performed the same number of times as the expansion treatment. However, in the text including the scope of claims, the contraction treatment is followed by the expansion treatment. Including the case where it is performed a different number of times (including 0 times).

また、画像のリサイズに際して、オープニング・クロージング処理のパラメータを画像サイズの縮小比に合わせて適宜小さく調整すると好適である。これによって、過剰なオープニング・クロージング処理により結球の形状が保たれなくなってしまうこと、または結球の一部(例えば周囲部分)が消去されてしまうことを防止することができる。具体例として、仮に無変換画像(図2A)に基づく色相マスク画像(図3C)のオープニング・クロージング処理を行う場合は、クロージングとして膨張3回次いで収縮3回行い、オープニングとして収縮7回次いで膨張0回行う。これに対して、リサイズ画像(図2B)に基づく色相マスク画像(図3C)のオープニング・クロージングを行う場合は、クロージングとして膨張1回次いで収縮1回行い、オープニングとして収縮2回次いで膨張0回といった具合である。 Further, when resizing the image, it is preferable to adjust the parameters of the opening / closing process appropriately small according to the reduction ratio of the image size. As a result, it is possible to prevent the shape of the head from being maintained due to the excessive opening / closing treatment, or to prevent a part of the head (for example, a peripheral portion) from being erased. As a specific example, when the opening / closing process of the hue mask image (FIG. 3C) based on the non-conversion image (FIG. 2A) is performed, the closing is performed 3 times and then the contraction 3 times, and the opening is 7 times contraction and then 0 expansion. Do it times. On the other hand, when opening and closing the hue mask image (FIG. 3C) based on the resized image (FIG. 2B), the closing is performed once for expansion and then once for contraction, and the opening is performed for two contractions and then 0 expansions. It is in good condition.

エッジルート(R1)および色相マスクルート(R2)の後、エッジ画像(図3B)に対して、色相マスクフィルタ画像(図3D)を用いるマスク処理を行ってエッジマスク画像(図4A)を作成するエッジマスク工程(S108)を実施する。これによって、エッジとして検出した結球周囲(結球の輪郭)を色相として抽出した結球領域でマスク処理を行うことにより、さらに選別された結球周囲(結球の輪郭)のエッジを検出することができる。 After the edge root (R1) and the hue mask root (R2), the edge image (FIG. 3B) is masked using the hue mask filter image (FIG. 3D) to create an edge mask image (FIG. 4A). The edge mask step (S108) is carried out. As a result, the edge around the head (contour of the head) further selected can be detected by performing the mask processing in the head region extracted as the hue around the head (contour of the head) detected as the edge.

エッジマスク工程(S108)の後、エッジマスク画像(図4A)における各画素について法線投票処理を行って法線画像(図4B)を作成する法線描画工程(S110)を実施する。本工程(S110)における法線投票処理では、法線の太さを、しきい値を設けた輝度値によって決定している。具体的には、相対的にエッジ強度の強い位置が結球周囲(結球の輪郭)の影である可能性が高いことから、エッジ強度が強い程法線の太さを太く設定している。すなわち、本実施形態では一例としてエッジ強度と相関する輝度をしきい値として、輝度値によって三種類の太さを設定し、輝度値が高い程太く設定している。また、輝度値が所定値以下の場合は法線を引かない(次の画素の処理へ移る)ように設定している。これによって、相対的にエッジ強度が強い位置に投票の影響力を大きく作用させることができる。なお、法線の太さの種類の数は限定されない。また、輝度値が所定値以下の場合(相対的に低い場合)であっても、法線の太さを相対的に細くして全ての画素について法線を引いてもよい。 After the edge masking step (S108), a normal drawing step (S110) is performed to create a normal image (FIG. 4B) by performing a normal voting process for each pixel in the edge mask image (FIG. 4A). In the normal voting process in this step (S110), the thickness of the normal is determined by the brightness value provided with the threshold value. Specifically, since there is a high possibility that the position where the edge strength is relatively strong is the shadow around the head (outline of the head), the thickness of the normal is set thicker as the edge strength is stronger. That is, in the present embodiment, as an example, the brightness that correlates with the edge strength is set as a threshold value, and three types of thickness are set according to the brightness value, and the higher the brightness value, the thicker the setting. Further, when the brightness value is less than or equal to a predetermined value, the normal is not drawn (the process proceeds to the next pixel). As a result, the influence of voting can be greatly exerted on the position where the edge strength is relatively strong. The number of types of normal thickness is not limited. Further, even when the luminance value is equal to or less than a predetermined value (relatively low), the thickness of the normal may be relatively thin and the normal may be drawn for all the pixels.

また、法線の角度については、ソーベルフィルタを用いて決定している。当該ソーベルフィルタによって横方向および縦方向の勾配を計算し、法線の角度を計算している。また、法線の方向については、結球中心は結球の周囲と比較して相対的に明るさが強いことから、法線の方向を、明るさの強い方向に設定している。また、法線の長さについては、画像サイズおよび画像に写る結球の大きさ等を考慮して、結球の周囲から結球中心まで到達し、且つ過剰にならない所定の長さで設定している。 The angle of the normal is determined by using a sobel filter. The horizontal and vertical gradients are calculated by the Sobel filter, and the normal angle is calculated. As for the direction of the normal, the center of the head is relatively brighter than the periphery of the head, so the direction of the normal is set to the direction of strong brightness. Further, the length of the normal is set to a predetermined length that reaches from the periphery of the head to the center of the head and does not become excessive in consideration of the image size, the size of the head that appears in the image, and the like.

以上の方法によって決定した太さ、角度、方向および長さで、一の画素毎に一本の法線を、描画用の画像(何も描かれていない画像)上に描画する。このような法線投票処理を全画素で行って法線画像(図4B)を作成する。 With the thickness, angle, direction and length determined by the above method, one normal line is drawn for each pixel on an image for drawing (an image in which nothing is drawn). Such a normal voting process is performed on all pixels to create a normal image (FIG. 4B).

本実施形態では、前述の画像リサイズ工程(S102)によって画素数を減少させているため、法線投票処理を行う画素数を減少させることができる。具体的に、本実施形態における縮小率(0.25)では、一画素における法線投票処理(当該法線の各パラメータの算出から法線描画までの処理)を1ループとすると、ループ回数を16分の1に低減することが可能になる。これによって、本工程(S110)に要する時間(投票処理時間)を減縮することができる。さらに、本願発明者らによって画像のリサイズを行わない(画像リサイズ工程(S102)を実施しない)場合では、全処理時間のうち、99[%]以上(後述する中心認識工程(S116)を実施した場合でも65[%]程度)が投票処理時間であることが明らかになっている。したがって、画像のリサイズにより投票処理時間を減縮することによって、ひいては全処理時間を大幅に短縮することができる。 In the present embodiment, since the number of pixels is reduced by the image resizing step (S102) described above, the number of pixels for performing the normal voting process can be reduced. Specifically, in the reduction ratio (0.25) in the present embodiment, assuming that the normal voting process (processing from the calculation of each parameter of the normal to the normal drawing) in one pixel is one loop, the number of loops is set. It is possible to reduce it to 1/16. Thereby, the time (voting processing time) required for this step (S110) can be reduced. Further, when the image is not resized by the inventors of the present application (the image resizing step (S102) is not performed), 99 [%] or more of the total processing time (the center recognition step (S116) described later) is performed. Even in this case, it has been clarified that about 65 [%]) is the voting processing time. Therefore, by reducing the voting processing time by resizing the image, the total processing time can be significantly reduced.

また、前述の通り、画像リサイズ工程(S102)によれば画像を平滑化することができる。さらにエッジ工程(104a)において任意の処理としてリサイズ画像(図2B)を平滑化している。したがって、これらの平滑化により画像のエッジが十分に丸みを帯びているため、法線投票処理において法線をより結球の中心に向けて引くことが可能になると共に、画素数の減少により法線自体の数を減少させて法線画像の煩雑化を抑制することができる。したがって、画像のリサイズを行わない方法と比較してより正確な中心候補領域の抽出が可能な法線画像(図4B)を作成することができる。その結果、結球外認識点数を減少させることができ、識別精度を向上させることができる。 Further, as described above, the image can be smoothed according to the image resizing step (S102). Further, in the edge step (104a), the resized image (FIG. 2B) is smoothed as an arbitrary process. Therefore, since the edges of the image are sufficiently rounded by these smoothings, the normal can be drawn toward the center of the head in the normal voting process, and the normal can be drawn by reducing the number of pixels. It is possible to reduce the number of itself and suppress the complexity of the normal image. Therefore, it is possible to create a normal image (FIG. 4B) capable of more accurately extracting the center candidate region as compared with the method without resizing the image. As a result, the number of recognition points outside the head can be reduced, and the identification accuracy can be improved.

なお、画像のリサイズに際して、法線の長さおよび太さパラメータを画像サイズの縮小比に合わせて適宜小さく調整すると好適である。これによって、法線が過剰に重なり合うこと、または画像からはみ出ること等を防止することができる。具体例として、仮に無変換画像(図2A)に基づくエッジマスク画像(図4A)の法線投票処理を行う場合は、長さ120[px]および太さ20[px]・40[px]・60[px]の三種類に対して、リサイズ画像(図2B)に基づくエッジマスク画像(図4A)の法線投票処理を行う場合は、長さ40[px]および太さ5[px]・10[px]・15[px]の三種類といった具合である。 When resizing the image, it is preferable to adjust the normal length and thickness parameters to be appropriately smaller according to the reduction ratio of the image size. As a result, it is possible to prevent the normals from overlapping excessively or protruding from the image. As a specific example, when the normal voting process of the edge mask image (FIG. 4A) based on the unconverted image (FIG. 2A) is performed, the length 120 [px] and the thickness 20 [px] · 40 [px] ·. When performing the normal voting process of the edge mask image (FIG. 4A) based on the resized image (FIG. 2B) for the three types of 60 [px], the length is 40 [px] and the thickness is 5 [px]. There are three types, 10 [px] and 15 [px].

法線描画工程(S110)の後、法線画像(図4B)に対して、しきい値を設けた法線の重なりによる二値化処理を行って中心候補領域を抽出する中心候補抽出工程(S112)を実施する。図4Dに、本工程(S112)によって抽出した中心候補領域を出力した画像(以下、「中心候補画像」と称する)を示す。本工程(S112)では、法線の重なりが相対的に強い領域が結球中心である可能性が高いことから、しきい値を設けた法線の重なりによる二値化処理を行って、法線の重なりが相対的に大きい領域を中心候補領域として抽出する。二値化処理には、Pタイル法を使用している。Pタイル法は、二値化後の領域面積が全領域面積に対して一定となるしきい値を決定する手法である。これによって、抽出する中心候補領域の過抽出を防止することができる。本実施形態では一例として二値化後の領域面積を全領域面積に対して3[%]となるように設定しているが、これに限定されない。例えば5[%]程度に設定してもよい。 After the normal drawing step (S110), the center candidate extraction step (center candidate extraction step) of extracting the center candidate region by performing a binarization process on the normal image (FIG. 4B) by overlapping normals provided with a threshold value. S112) is carried out. FIG. 4D shows an image (hereinafter, referred to as “center candidate image”) in which the center candidate region extracted by this step (S112) is output. In this step (S112), since there is a high possibility that the region where the overlap of normals is relatively strong is the center of the head, a binarization process is performed by overlapping the normals with a threshold value, and the normals are obtained. The region where the overlap of is relatively large is extracted as the central candidate region. The P-tile method is used for the binarization process. The P-tile method is a method of determining a threshold value at which the area after binarization is constant with respect to the total area. This makes it possible to prevent over-extraction of the central candidate region to be extracted. In the present embodiment, as an example, the area area after binarization is set to be 3 [%] with respect to the total area area, but the present invention is not limited to this. For example, it may be set to about 5 [%].

ここで、本工程(S112)では、上記二値化処理を行う前に、法線画像(図4B)に対して、適宜平滑化を行うと好適である。本実施形態では、一例として法線画像(図4B)に対して、平滑化を行う。次いで「平滑化を行った法線画像(図4C)」に対して、上記二値化処理を行って中心候補領域を抽出する。ただし、平滑化はあくまで任意の処理である。平滑化によれば、隣接する画素の輝度の差を低下させ、次工程の二値化処理において抽出する領域に欠損が生じることを防止することができる。したがって、結球領域を丸みのある球体に近付けることができる。ここで、平滑化に使用するフィルタとして本実施形態では一例として平均化フィルタを使用するが、これに限定されない。例えばガウシアンフィルタ等を使用してもよい。また、画像のリサイズに際して、平滑化に使用するフィルタのパラメータを画像サイズの縮小比に合わせて適宜小さく調整すると好適である。これによって、過剰な平滑化により次工程の二値化処理において抽出する領域の形状を相対的に大きく変えてしまうことを防止することができる。具体例として、仮に無変換画像(図2A)に基づく法線画像(図4B)を平滑化する場合は、フィルタサイズ11×11に対して、リサイズ画像(図2B)に基づく法線画像(図4B)を平滑化する場合は、フィルタサイズ3×3、といった具合である。 Here, in this step (S112), it is preferable to appropriately smooth the normal image (FIG. 4B) before performing the binarization process. In this embodiment, as an example, a normal image (FIG. 4B) is smoothed. Next, the above binarization process is performed on the "smoothed normal image (FIG. 4C)" to extract the central candidate region. However, smoothing is just an arbitrary process. According to the smoothing, it is possible to reduce the difference in the brightness of adjacent pixels and prevent a defect from occurring in the region to be extracted in the binarization process in the next step. Therefore, the heading region can be brought closer to a rounded sphere. Here, as the filter used for smoothing, an averaging filter is used as an example in the present embodiment, but the present invention is not limited to this. For example, a Gaussian filter or the like may be used. Further, when resizing the image, it is preferable to adjust the parameters of the filter used for smoothing to be appropriately small according to the reduction ratio of the image size. As a result, it is possible to prevent the shape of the region to be extracted in the binarization process of the next step from being relatively significantly changed due to excessive smoothing. As a specific example, when smoothing a normal image (FIG. 4B) based on an unconverted image (FIG. 2A), a normal image (FIG. 2B) based on a resized image (FIG. 2B) is used for a filter size of 11 × 11. When smoothing 4B), the filter size is 3 × 3, and so on.

中心候補抽出工程(S112)の後、中心候補領域の輪郭重心を結球野菜の結球中心として認識する中心認識工程(S114)を実施する。本工程(S114)においては、一例として、中心候補抽出工程(S112)で抽出した中心候補領域に対して、適宜領域の大きさにしきい値(例えば10[px])を設けて相対的に小さい領域を除外すると好適である。これによって、仮に相対的に小さい領域として抽出される飛び値(外れ値)をノイズとして除去することができ、より正確に結球中心を認識することができる。このフィルタリングは、輪郭重心の算出に際して行ってもよく、また、輪郭重心の算出の前後に行ってもよい。また、画像サイズの縮小比に合わせてしきい値を適宜変更してもよい。ただし、フィルタリングはあくまで任意の処理である。 After the center candidate extraction step (S112), a center recognition step (S114) for recognizing the contour center of gravity of the center candidate region as the heading center of the headed vegetable is carried out. In this step (S114), as an example, a threshold value (for example, 10 [px]) is appropriately provided for the size of the central candidate region extracted in the central candidate extraction step (S112) to make it relatively small. It is preferable to exclude the region. As a result, the jump value (outlier) extracted as a relatively small region can be removed as noise, and the heading center can be recognized more accurately. This filtering may be performed when calculating the contour center of gravity, or may be performed before or after the calculation of the contour center of gravity. Further, the threshold value may be appropriately changed according to the reduction ratio of the image size. However, filtering is just an arbitrary process.

また、本工程(S114)で認識した結球中心を出力(可視化)する場合、一例として画像取得工程(S100)で取得した結球野菜のRGB画像(図2A)(無変換画像(図2A))に打点して出力すると好適である。これによって、リサイズにより画像が粗くなっていない画像上に結球中心を打点することができ、認識結果を見易くすることができる。図5に、本工程(S114)によって認識した結球中心を無変換画像(図2A)に打点して出力した画像(以下、「中心認識画像」と称する)を示す。ただし、認識結果を打点する画像は無変換画像(図2A)に限定されず、任意に選択してもよい。また、認識結果の出力形式自体も限定されず、さらに認識結果そのものを出力するか否かも限定されない。 Further, when the heading center recognized in this step (S114) is output (visualized), as an example, the RGB image (FIG. 2A) (non-conversion image (FIG. 2A)) of the headed vegetable acquired in the image acquisition step (S100) is used. It is preferable to hit and output. As a result, the center of the head can be spotted on the image whose image is not roughened by resizing, and the recognition result can be easily seen. FIG. 5 shows an image (hereinafter, referred to as “center recognition image”) output by spotting the heading center recognized in this step (S114) on a non-conversion image (FIG. 2A). However, the image on which the recognition result is punctured is not limited to the unconverted image (FIG. 2A), and may be arbitrarily selected. Further, the output format of the recognition result itself is not limited, and whether or not the recognition result itself is output is not limited.

以上の工程によれば、圃場において栽植されている結球野菜の画像を取得し、当該画像に写る結球野菜の結球中心を認識することができ、従来と比較して全処理時間を短縮させ、且つ識別精度を向上させることが可能になる。 According to the above steps, an image of the headed vegetables planted in the field can be acquired, the heading center of the headed vegetables reflected in the image can be recognized, the total processing time can be shortened as compared with the conventional case, and the total processing time can be shortened. It becomes possible to improve the identification accuracy.

なお、他の例1として、画像リサイズ工程(S102)の後、色相マスク工程(S104b)に代えて、リサイズ画像(図2B)に対して、しきい値を設けた深度によるマスク処理およびしきい値を設けた色相によるマスク処理を行って深度色相マスク画像(不図示)を作成する深度色相マスク工程(S103b)を実施する。そして、深度色相マスク工程(S103b)の後、オープニング・クロージング工程(S106b)において、色相マスク画像(図3C)に代えて深度色相マスク画像に対して、オープニングおよびクロージングのいずれか一方または両方の処理を行って色相マスクフィルタ画像(図3D)を作成する方法としてもよい(図6参照)。本例における深度色相マスク工程(S103b)によれば、リサイズ画像(図2B)に対して色相に加えて深度によるマスク処理を行うことにより結球とは高さの異なる外葉や雑草を除外することができる。したがって、色相によるマスク処理だけを行う色相マスク工程(S104b)と比較してより選別された結球領域を抽出することができる。本例における深度情報は、画像取得工程(S100)において、RGB画像と共にこれに同期した深度画像を取得することができる公知のカメラを使用することによって簡易に取得することができる。当該カメラとして例えばIntel RealSense Depth Camera D435(インテル社製)等を使用することができる。また、深度のしきい値としては、カメラとレタスとの距離を考慮した所定の深度を設定すればよい。例えば上記カメラが結球野菜の収穫機に搭載されて前進する収穫機の経路生成に用いられる場合には、一例として取得距離を500[mm]〜780[mm]程度に設定すればよい。なお、色相によるマスク処理と深度によるマスク処理とは、いずれを先後に実施してもよい。 As another example 1, after the image resizing step (S102), instead of the hue masking step (S104b), the resized image (FIG. 2B) is masked by a depth with a threshold value and a threshold. A depth hue masking step (S103b) is carried out to create a depth hue mask image (not shown) by performing mask processing with hues provided with values. Then, after the depth hue masking step (S103b), in the opening closing step (S106b), one or both of the opening and closing processes are performed on the depth hue mask image instead of the hue mask image (FIG. 3C). May be used to create a hue mask filter image (FIG. 3D) (see FIG. 6). According to the depth hue masking step (S103b) in this example, outer leaves and weeds having a height different from that of the head are excluded by masking the resized image (FIG. 2B) according to the depth in addition to the hue. Can be done. Therefore, it is possible to extract a more selected heading region as compared with the hue masking step (S104b) in which only the hue masking process is performed. The depth information in this example can be easily acquired in the image acquisition step (S100) by using a known camera capable of acquiring a depth image synchronized with the RGB image. As the camera, for example, Intel RealSense Depth Camera D435 (manufactured by Intel) or the like can be used. Further, as the depth threshold value, a predetermined depth may be set in consideration of the distance between the camera and the lettuce. For example, when the camera is mounted on a headed vegetable harvester and used to generate a route for a harvester moving forward, the acquisition distance may be set to about 500 [mm] to 780 [mm] as an example. Either the hue-based masking process or the depth-based masking process may be performed first or later.

また、他の例2として、中心認識工程(S114)の後、中心認識工程(S114)で結球野菜の結球中心として認識した中心候補領域の輪郭重心を対象として、機械学習による識別処理を行って最終的な結球野菜の結球中心を決定する中心識別工程(S115)を実施する方法としてもよい(図7参照)。これによって、結球外認識点を除外することができる。ただし、中心識別工程(S115)の分、処理時間は長くなる。また、過学習が生じる可能性に留意する必要がある。なお、機械学習の例として、サポートベクターマシン、ディープラーニング等を採用し得る。本例(他の例2)の中心識別工程(S115)および前述(他の例1)の深度色相マスク工程(S103b)は、いずれも任意の工程である。また、これらの例(他の例1および他の例2)は、それぞれ一方だけでなく、両方を実施してもよい。 Further, as another example 2, after the center recognition step (S114), identification processing by machine learning is performed on the contour center of gravity of the center candidate region recognized as the heading center of the headed vegetable in the center recognition step (S114). It may be a method of carrying out the center identification step (S115) for determining the heading center of the final headed vegetable (see FIG. 7). As a result, the non-heading recognition point can be excluded. However, the processing time becomes longer due to the central identification step (S115). It is also necessary to be aware of the possibility of overfitting. As an example of machine learning, a support vector machine, deep learning, or the like can be adopted. The center identification step (S115) of this example (another example 2) and the depth hue masking step (S103b) of the above-mentioned (another example 1) are both arbitrary steps. Moreover, each of these examples (another example 1 and another example 2) may carry out not only one but both.

続いて、本発明に係る認識方法を用いる認識装置、および当該認識装置を備える結球野菜の収穫機について説明する。 Subsequently, a recognition device using the recognition method according to the present invention and a headed vegetable harvester equipped with the recognition device will be described.

(結球野菜の結球中心の認識装置)
先ず、本発明の実施形態に係る結球野菜の結球中心の認識装置について説明する。本実施形態に係る結球野菜の結球中心の認識装置は、RGB画像が取得可能なカメラと、画像処理装置と、演算装置とを備えている。さらに、これらのカメラおよび画像処理装置ならびに演算装置の動作を制御する制御部を備えている。この制御部は、カメラに対して圃場において栽植されている結球野菜のRGB画像を取得させる制御を行う。また、画像処理装置に対して、前述の認識方法と同一の方法による画像処理を行わせる制御を行って中心候補領域を抽出させる。さらに、演算装置に対して、当該中心候補領域輪の輪郭重心を結球野菜の結球中心として算出させる制御を行う。これによって、圃場において栽植されている結球野菜の結球中心の位置を、比較的短時間で且つ正確に認識することが可能になる。なお、認識結果が出力される場合、適宜、当該結果が出力されるモニタ等が設けられる。
(Recognizing device for heading center of heading vegetables)
First, a heading center recognition device for headed vegetables according to an embodiment of the present invention will be described. The heading center recognition device for headed vegetables according to the present embodiment includes a camera capable of acquiring RGB images, an image processing device, and an arithmetic unit. Further, it includes a control unit that controls the operation of these cameras, an image processing device, and an arithmetic unit. This control unit controls the camera to acquire an RGB image of the headed vegetables planted in the field. Further, the image processing apparatus is controlled to perform image processing by the same method as the above-mentioned recognition method, and the central candidate region is extracted. Further, the arithmetic unit is controlled to calculate the contour center of gravity of the center candidate region ring as the heading center of the headed vegetable. This makes it possible to accurately recognize the position of the heading center of the headed vegetables planted in the field in a relatively short time. When the recognition result is output, a monitor or the like for outputting the result is provided as appropriate.

(結球野菜の収穫機)
次に、本発明の実施形態に係る結球野菜の収穫機について説明する。本実施形態に係る結球野菜の収穫機は、動力源を備えて走行可能な車体に、前述の認識装置と、結球野菜の茎を切断する収穫刃と、当該認識装置から結球野菜の結球中心の認識情報を受けて、収穫刃を結球野菜の茎に沿って位置させる経路制御を行う制御部と、が設けられている。これによれば、圃場において栽植されている結球野菜の結球中心の位置情報をリアルタイムで高精度に取得し、当該情報に応じて収穫刃を結球野菜の茎を切断する最適な位置に移動させることが可能になる。より具体的には、例えば認識装置による位置情報を受けた制御部によって、車体の進行方向(進行角度)が変更される構成、または収穫刃を左右方向にスライド移動される構成等とすることが可能になる。
(Heading vegetable harvester)
Next, the headed vegetable harvester according to the embodiment of the present invention will be described. The headed vegetable harvester according to the present embodiment has the above-mentioned recognition device, a harvesting blade for cutting the stem of the headed vegetable, and a heading center of the headed vegetable from the recognition device on a vehicle body that can run with a power source. A control unit that receives recognition information and controls a route for positioning the harvesting blade along the stem of the headed vegetable is provided. According to this, the position information of the heading center of the headed vegetables planted in the field is acquired with high accuracy in real time, and the harvesting blade is moved to the optimum position for cutting the stem of the headed vegetables according to the information. Becomes possible. More specifically, for example, the structure may be such that the traveling direction (advancing angle) of the vehicle body is changed by the control unit that receives the position information by the recognition device, or the harvesting blade is slid and moved in the left-right direction. It will be possible.

続いて、本発明に係る結球野菜の結球中心の認識方法の実施例について説明する。ただし、本発明の範囲が当該実施例に限定されるものではない。 Subsequently, an example of the method for recognizing the heading center of the headed vegetable according to the present invention will be described. However, the scope of the present invention is not limited to the embodiment.

[方法]
前述の本発明の実施形態に基づいて圃場において栽植されているレタスの結球中心の認識を行った。
ここで、実施例として、画像リサイズ工程(S102)における画像サイズの縮小比をそれぞれ表1に示す値とした(実施例1〜実施例9)。なお、表1には横幅のみ示すが、横縦比は常時一定としており、リサイズに際し、表1に示す縮小率に応じて縦幅も縮小している。
一方、比較例として、画像リサイズ工程(S102)を実施しない例、すなわち画像取得工程(S100)で取得した無変換画像(図10A)を、元の画像サイズのまま後工程の各処理を行った(比較例1)。無変換画像(図10A)のサイズ(横幅×縦幅)は、720[px]×540[px]である。
[Method]
Based on the above-described embodiment of the present invention, the heading center of lettuce planted in the field was recognized.
Here, as an example, the reduction ratio of the image size in the image resizing step (S102) is set to the value shown in Table 1 (Examples 1 to 9). Although only the width is shown in Table 1, the aspect ratio is always constant, and the height is also reduced according to the reduction ratio shown in Table 1 when resizing.
On the other hand, as a comparative example, an example in which the image resizing step (S102) is not performed, that is, the unconverted image (FIG. 10A) acquired in the image acquisition step (S100) is subjected to each processing in the subsequent steps while maintaining the original image size. (Comparative example 1). The size (width x height) of the unconverted image (FIG. 10A) is 720 [px] x 540 [px].

全ての実施例および比較例において、上記画像リサイズ工程(S102)以外の工程ではいずれも同一の処理を行った。エッジ工程(S104a)においては、リサイズ画像のグレースケール化、次いで平滑化を行い、次いでエッジ検出を行った。平滑化にはガウシアンフィルタ、エッジ検出にはソーベルフィルタをそれぞれ使用した。また、色相マスク工程(S104b)においては、画像をHSV変換し、HSV画像に対してマスク処理を行った。また、法線描画工程(S110)における法線角度の決定にはソーベルフィルタを使用した。中心候補抽出工程(S112)においては、法線画像の平滑化を行い、次いで二値化処理を行った。平滑化には平均値フィルタ、二値化処理にはPタイル法をそれぞれ使用した。また、中心認識工程(S114)において、中心候補領域10[px]をしきい値として相対的に小さい領域は除外する設定とした。その他の工程および処理については、前述の実施形態に準じて行った。ただし、他の例として前述した深度色相マスク工程(S103b)および中心識別工程(S115)は実施していない。 In all the examples and comparative examples, the same processing was performed in all the steps other than the image resizing step (S102). In the edge step (S104a), the resized image was grayscaled, then smoothed, and then edge detection was performed. A Gaussian filter was used for smoothing, and a Sobel filter was used for edge detection. Further, in the hue masking step (S104b), the image was converted to HSV, and the HSV image was masked. Further, a sobel filter was used to determine the normal angle in the normal drawing step (S110). In the center candidate extraction step (S112), the normal image was smoothed and then binarized. An average filter was used for smoothing, and a P-tile method was used for binarization. Further, in the center recognition step (S114), a relatively small area is excluded with the center candidate area 10 [px] as a threshold value. Other steps and treatments were carried out according to the above-described embodiment. However, as another example, the depth hue masking step (S103b) and the center identification step (S115) described above are not carried out.

[結果]
結果を、表1および図8〜図10に示す。表1は、実施例1〜9および比較例1の識別率[%]、識別精度[%]および全処理時間[s]等を表示している。また、図8は、実施例1の結果の画像を示し、それぞれリサイズ画像(図8A)、法線画像(図8B)、中心候補画像(図8C)および中心認識画像(図8D)を表示している。また、図9は、実施例5の結果の画像を示し、それぞれリサイズ画像(図9A)、法線画像(図9B)、中心候補画像(図9C)および中心認識画像(図9D)を表示している。また、図10は、比較例1の結果の画像を示し、それぞれ無変換画像(図10A)、法線画像(図10B)、中心候補画像(図10C)および中心認識画像(図10D)を表示している。ここで、中心認識画像(図8D、図9Dおよび図10D)は、いずれも認識結果(認識した結球中心の位置)を無変換画像(図10A)上に打点した画像である。なお、全図において表示する画像は、それぞれを見易くするため、あるいは比較し易くするために、適宜横縦寸法を拡大または縮小して表示している。
[result]
The results are shown in Table 1 and FIGS. 8-10. Table 1 shows the identification rate [%], the identification accuracy [%], the total processing time [s], and the like of Examples 1 to 9 and Comparative Example 1. Further, FIG. 8 shows an image of the result of Example 1, and displays a resized image (FIG. 8A), a normal image (FIG. 8B), a center candidate image (FIG. 8C), and a center recognition image (FIG. 8D), respectively. ing. Further, FIG. 9 shows an image of the result of Example 5, and displays a resized image (FIG. 9A), a normal image (FIG. 9B), a center candidate image (FIG. 9C), and a center recognition image (FIG. 9D), respectively. ing. Further, FIG. 10 shows an image of the result of Comparative Example 1, and displays an unconverted image (FIG. 10A), a normal image (FIG. 10B), a center candidate image (FIG. 10C), and a center recognition image (FIG. 10D), respectively. are doing. Here, the center recognition images (FIGS. 8D, 9D, and 10D) are all images in which the recognition result (recognized position of the heading center) is dotted on the unconverted image (FIG. 10A). The images displayed in all the drawings are displayed by appropriately enlarging or reducing the horizontal and vertical dimensions in order to make them easier to see or compare.

表1に示すように、縮小比を大きくする程、投票処理時間および全処理時間が短縮された。また、全ての実施例においていずれも比較例1と比較して、結球外認識点数は減少した。また、実施例2〜9ではいずれも比較例1と比較して、識別率は概ね同程度を維持しつつ識別精度は向上した。これらの結果から、画像のリサイズ(画像リサイズ工程(S102)の実施)を行うことによって、投票処理時間および全処理時間を短縮させることができることが示された。また、画像のリサイズ(画像リサイズ工程(S102)の実施)を行うことによって、識別率を維持しつつ、結球外認識点数を減少させることができ、これによって識別精度を向上させることができることが示された。 As shown in Table 1, the larger the reduction ratio, the shorter the voting processing time and the total processing time. In addition, in all the examples, the number of non-heading recognition points decreased as compared with Comparative Example 1. Further, in each of Examples 2 to 9, the identification accuracy was improved while maintaining the identification rate at about the same level as compared with Comparative Example 1. From these results, it was shown that the voting processing time and the total processing time can be shortened by performing the image resizing (implementation of the image resizing step (S102)). Further, it is shown that by performing image resizing (implementation of the image resizing step (S102)), it is possible to reduce the number of recognition points outside the head while maintaining the identification rate, and thereby improve the identification accuracy. Was done.

具体的には、図9(実施例5)および図10(比較例1)を比較すると、画像のリサイズを行っていない比較例1では、画像のリサイズを行った実施例5に対して中心候補領域の抽出が不十分であって、これにより結球外認識点数が多くなっていることが示された。一方、画像のリサイズを行った実施例5では、エッジが適度に丸みを有し、中心候補領域がより正確に抽出されており、これにより結球外認識点数が少なくなっていることが示された。 Specifically, when FIG. 9 (Example 5) and FIG. 10 (Comparative Example 1) are compared, in Comparative Example 1 in which the image was not resized, the central candidate was compared with Example 5 in which the image was resized. It was shown that the extraction of the region was insufficient, which resulted in a high number of out-of-head recognition points. On the other hand, in Example 5 in which the image was resized, it was shown that the edges had moderate roundness and the central candidate region was extracted more accurately, which resulted in a reduction in the number of out-of-head recognition points. ..

さらに表1を詳しくみると、実施例3〜実施例7(無変換画像(図10A)の横幅を720[px]から90[px]〜240[px]に縮小)では、識別率96[%]および識別精度80[%]をともに上回り好適であった。また、実施例4〜実施例6(横幅を720[px]から120[px]〜180[px]に縮小)では、識別率96[%]および識別精度85[%]をともに上回りさらに好適であった。特に、実施例5(横幅を720[px]から150[px]に縮小)では、識別率(100.00[%])および識別精度(86.54[%])ともに全実施例および比較例に対して最も高い値を示し、最も好適であった。 Further looking at Table 1 in detail, in Examples 3 to 7 (the width of the unconverted image (FIG. 10A) was reduced from 720 [px] to 90 [px] to 240 [px]), the identification rate was 96 [%]. ] And the identification accuracy of 80 [%] were both exceeded and suitable. Further, in Examples 4 to 6 (the width is reduced from 720 [px] to 120 [px] to 180 [px]), both the identification rate 96 [%] and the identification accuracy 85 [%] are exceeded, which is more preferable. there were. In particular, in Example 5 (width reduced from 720 [px] to 150 [px]), both the identification rate (100.00 [%]) and the identification accuracy (86.54 [%]) are all Examples and Comparative Examples. It showed the highest value with respect to, and was the most suitable.

一方、実施例1(横幅を720[px]から50[px]に縮小)では、比較例1と比較して識別率および識別精度がいずれも低下した。これに関し、図8に示すように、縮小比が大き過ぎると、画像が過剰に粗くなってエッジが崩壊し、中心候補領域を正確に抽出することができなくなっており、これにより未検出が生じていることが示され、また、表1に示すように、未検出球数が多くなっていることが示された。また、実施例8〜実施例9(横幅を720[px]から360[px]〜540[px]に縮小)では、識別精度の増加の程度が実施例2〜実施例7と比較すると低かった。以上の結果から、画像のリサイズに関し、縮小比が大き過ぎると識別率および識別精度が低下し不適であり、一方縮小比が小さ過ぎると画像のリサイズの作用効果が十分に発揮されずに不適であることが示された。 On the other hand, in Example 1 (the width was reduced from 720 [px] to 50 [px]), the identification rate and the identification accuracy were both lower than those in Comparative Example 1. In this regard, as shown in FIG. 8, if the reduction ratio is too large, the image becomes excessively coarse and the edges collapse, making it impossible to accurately extract the central candidate region, which causes undetection. In addition, as shown in Table 1, it was shown that the number of undetected spheres was large. Further, in Examples 8 to 9 (the width was reduced from 720 [px] to 360 [px] to 540 [px]), the degree of increase in the identification accuracy was lower than that in Examples 2 to 7. .. From the above results, regarding image resizing, if the reduction ratio is too large, the identification rate and identification accuracy are lowered, which is unsuitable. On the other hand, if the reduction ratio is too small, the effect of image resizing is not sufficiently exerted, which is inappropriate. It was shown to be.

ここで、無変換画像(720[px]×540[px])における実寸値に基づいて1.0[mm]≒0.889[px](1.0[px]≒1.125[mm])であることを算出した。したがって、結球野菜における結球の直径を150[mm](133[px])として、本実施例の結果に基くと以下の数値範囲が示される。すなわち、画像リサイズ工程において、RGB画像は、好適には結球野菜の1株の結球の直径が15[px]〜45[px]の範囲内でリサイズされることが好ましく、さらに好適には20[px]〜35[px]の範囲内でリサイズされることが好ましい。 Here, 1.0 [mm] ≈ 0.889 [px] (1.0 [px] ≈ 1.125 [mm] based on the actual size value in the unconverted image (720 [px] × 540 [px]). ) Was calculated. Therefore, the following numerical range is shown based on the results of this example, assuming that the diameter of the head of the headed vegetable is 150 [mm] (133 [px]). That is, in the image resizing step, the RGB image is preferably resized within the range of 15 [px] to 45 [px] in the head diameter of one strain of the headed vegetable, and more preferably 20 [. It is preferable to resize within the range of px] to 35 [px].

以上、説明した通り、本発明に係る結球野菜の結球中心の認識方法によれば、圃場において栽植されている結球野菜の結球中心を比較的高い識別率および識別精度で認識することが可能になる。特に、取得した画像の画素数を減少させたリサイズ画像を処理することによって、従来と比較して全処理時間を短縮させることができる。また、画素数を減少させることよって画像を平滑化し、画像を粗くしてエッジを丸くすることができる。したがって、従来と比較してより正確な中心候補領域の抽出が可能となって、結球外認識点数を減少させ、識別精度を向上させることができる。 As described above, according to the method for recognizing the heading center of headed vegetables according to the present invention, it is possible to recognize the heading center of headed vegetables planted in a field with a relatively high discrimination rate and discrimination accuracy. .. In particular, by processing a resized image in which the number of pixels of the acquired image is reduced, the total processing time can be shortened as compared with the conventional case. Further, by reducing the number of pixels, the image can be smoothed, the image can be roughened, and the edges can be rounded. Therefore, it is possible to extract the central candidate region more accurately than in the conventional case, reduce the number of recognition points outside the head, and improve the identification accuracy.

また、本発明に係る結球野菜の結球中心の認識装置によれば、圃場において栽植されている結球野菜の結球中心の位置を、比較的短時間で且つ正確に認識することが可能になる。さらに、当該認識装置を備える結球野菜の収穫機によれば、圃場において栽植されている結球野菜の結球中心の位置情報をリアルタイムで高精度に取得することができる。したがって、当該情報に応じた最適な経路で前進させることが可能になる。また、当該情報に応じて収穫刃を最適な位置に移動させることが可能になる。 Further, according to the heading center recognition device of the headed vegetable according to the present invention, the position of the heading center of the headed vegetable planted in the field can be recognized accurately in a relatively short time. Further, according to the heading vegetable harvester equipped with the recognition device, it is possible to acquire the position information of the heading center of the heading vegetables planted in the field with high accuracy in real time. Therefore, it is possible to move forward by the optimum route according to the information. In addition, the harvesting blade can be moved to the optimum position according to the information.

なお、本発明は、以上説明した実施例に限定されることなく、本発明を逸脱しない範囲において種々変更可能である。特に、本発明はレタスに対して好適に適用される発明であるが、キャベツ、白菜に対して適用することも可能である。 The present invention is not limited to the examples described above, and various modifications can be made without departing from the present invention. In particular, the present invention is preferably applied to lettuce, but it can also be applied to cabbage and Chinese cabbage.

Claims (10)

圃場において栽植されている結球野菜のRGB画像を取得する画像取得工程と、
前記RGB画像の画素数を減少させてリサイズ画像を作成する画像リサイズ工程と、
前記リサイズ画像に対して、エッジ検出を行ってエッジ画像を作成するエッジ工程と、
前記リサイズ画像に対して、しきい値を設けた色相によるマスク処理を行って色相マスク画像を作成する色相マスク工程と、
前記色相マスク画像に対して、オープニングおよびクロージングのいずれか一方または両方の処理を行って色相マスクフィルタ画像を作成するオープニング・クロージング工程と、
前記エッジ画像に対して、前記色相マスクフィルタ画像を用いるマスク処理を行ってエッジマスク画像を作成するエッジマスク工程と、
前記エッジマスク画像における各画素について法線投票処理を行って法線画像を作成する法線描画工程と、
前記法線画像に対して、しきい値を設けた法線の重なりによる二値化処理を行って中心候補領域を抽出する中心候補抽出工程と、
前記中心候補領域の輪郭重心を前記結球野菜の結球中心として認識する中心認識工程と、を備えること
を特徴とする結球野菜の結球中心の認識方法。
An image acquisition process for acquiring RGB images of headed vegetables planted in the field,
An image resizing step of reducing the number of pixels of the RGB image to create a resized image, and
An edge process of performing edge detection on the resized image to create an edge image, and
A hue masking step of creating a hue mask image by masking the resized image with a hue set with a threshold value, and
An opening / closing step of performing either one or both of the opening and closing processes on the hue mask image to create a hue mask filter image, and
An edge masking step of creating an edge mask image by performing mask processing using the hue mask filter image on the edge image, and
A normal drawing step of creating a normal image by performing a normal voting process for each pixel in the edge mask image,
A central candidate extraction step of extracting a central candidate region by performing a binarization process on the normal image by overlapping normals provided with a threshold value, and
A method for recognizing a heading center of a heading vegetable, which comprises a center recognition step of recognizing the contour center of gravity of the center candidate region as the heading center of the heading vegetable.
前記画像リサイズ工程において、前記RGB画像は、前記結球野菜の1株の結球の直径が20[ピクセル]〜35[ピクセル]の範囲内でリサイズされること
を特徴とする請求項1記載の結球野菜の結球中心の認識方法。
The headed vegetable according to claim 1, wherein in the image resizing step, the RGB image is resized within the range of 20 [pixels] to 35 [pixels] in the heading diameter of one strain of the headed vegetable. How to recognize the center of the head.
前記画像リサイズ工程の後、前記オープニング・クロージング工程の前に、前記色相マスク工程に代えて、
前記リサイズ画像に対して、しきい値を設けた深度によるマスク処理およびしきい値を設けた色相によるマスク処理を行って深度色相マスク画像を作成する深度色相マスク工程を備え、
前記オープニング・クロージング工程において、前記色相マスク画像に代えて前記深度色相マスク画像に対して、オープニングおよびクロージングのいずれか一方または両方の処理を行って色相マスクフィルタ画像を作成すること
を特徴とする請求項1または請求項2記載の結球野菜の結球中心の認識方法。
After the image resizing step and before the opening closing step, instead of the hue masking step,
The resized image is provided with a depth hue masking step of creating a depth hue mask image by performing mask processing by a depth with a threshold value and mask processing with a hue with a threshold value.
A claim characterized in that, in the opening closing step, a hue mask filter image is created by performing either or both of opening and closing processing on the depth hue mask image instead of the hue mask image. The method for recognizing the heading center of a heading vegetable according to claim 1 or 2.
前記エッジ工程において、前記リサイズ画像に対して、グレースケール化および平滑化のいずれか一方または両方の処理を行って、次いでエッジ検出を行ってエッジ画像を作成すること
を特徴とする請求項1〜3いずれか一項に記載の結球野菜の結球中心の認識方法。
Claims 1 to 1, wherein in the edge step, one or both of grayscale and smoothing are performed on the resized image, and then edge detection is performed to create an edge image. 3. The method for recognizing the heading center of headed vegetables according to any one of the items.
前記中心候補抽出工程において、前記法線画像に対して、平滑化を行って、次いでしきい値を設けた法線の重なりによる二値化処理を行って中心候補領域を抽出すること
を特徴とする請求項1〜4いずれか一項に記載の結球野菜の結球中心の認識方法。
In the center candidate extraction step, the normal image is smoothed, and then binarization processing is performed by overlapping normals provided with threshold values to extract the center candidate region. The method for recognizing the heading center of a heading vegetable according to any one of claims 1 to 4.
前記法線描画工程において、各前記法線の太さを、しきい値を設けた輝度値により決定すること
を特徴とする請求項1〜5いずれか一項に記載の結球野菜の結球中心の認識方法。
The heading center of a headed vegetable according to any one of claims 1 to 5, wherein in the normal drawing step, the thickness of each normal is determined by a brightness value provided with a threshold value. Recognition method.
前記中心候補抽出工程において、前記二値化処理を、Pタイル法を用いて行うこと
を特徴とする請求項1〜6いずれか一項に記載の結球野菜の結球中心の認識方法。
The method for recognizing a heading center of a headed vegetable according to any one of claims 1 to 6, wherein in the center candidate extraction step, the binarization process is performed by using the P tile method.
前記中心認識工程の後、
前記中心認識工程で前記結球野菜の結球中心として認識した前記中心候補領域の輪郭重心を対象として、機械学習による識別処理を行って最終的な前記結球野菜の結球中心を決定する中心識別工程をさらに備えること
を特徴とする請求項1〜7いずれか一項に記載の結球野菜の結球中心の認識方法。
After the center recognition step
Further, a center identification step of determining the final heading center of the heading vegetable by performing identification processing by machine learning on the contour center of gravity of the center candidate region recognized as the heading center of the heading vegetable in the center recognition step. The method for recognizing a heading center of a heading vegetable according to any one of claims 1 to 7, wherein the heading vegetable is provided.
RGB画像が取得可能なカメラと、
画像処理装置と、
演算装置と、
前記カメラおよび前記画像処理装置、ならびに前記演算装置の動作を制御する制御部と、を備え、
前記制御部は、
前記カメラに対して、圃場において栽植されている結球野菜のRGB画像を取得させる制御を行い、且つ
前記画像処理装置に対して、前記RGB画像の画素数を減少させてリサイズ画像を作成し、
前記リサイズ画像に対して、エッジ検出を行ってエッジ画像を作成し、
前記リサイズ画像に対して、しきい値を設けた色相によるマスク処理を行って色相マスク画像を作成し、
前記色相マスク画像に対して、オープニングおよびクロージングのいずれか一方または両方の処理を行って色相マスクフィルタ画像を作成し、
前記エッジ画像に対して、前記色相マスクフィルタ画像を用いるマスク処理を行ってエッジマスク画像を作成し、
前記エッジマスク画像における各画素について法線投票処理を行って法線画像を作成し、
前記法線画像に対して、しきい値を設けた法線の重なりによる二値化処理を行って中心候補領域を抽出させる制御を行い、且つ
前記演算装置に対して、前記中心候補領域の輪郭重心を前記結球野菜の結球中心として算出させる制御を行うこと
を特徴とする結球野菜の結球中心の認識装置。
A camera that can acquire RGB images and
Image processing equipment and
Arithmetic logic unit and
The camera, the image processing device, and a control unit that controls the operation of the arithmetic unit are provided.
The control unit
The camera is controlled to acquire an RGB image of the headed vegetables planted in the field, and the image processing device is used to reduce the number of pixels of the RGB image to create a resized image.
Edge detection is performed on the resized image to create an edge image, and the image is created.
The resized image is masked by a hue with a threshold value to create a hue mask image.
The hue mask image is processed by either one or both of opening and closing to create a hue mask filter image.
An edge mask image is created by performing mask processing using the hue mask filter image on the edge image.
A normal voting process is performed for each pixel in the edge mask image to create a normal image.
The normal image is controlled to extract a central candidate region by performing a binarization process by overlapping normals provided with a threshold value, and the contour of the central candidate region is controlled by the arithmetic unit. A device for recognizing the heading center of a heading vegetable, which controls the calculation of the center of gravity as the heading center of the heading vegetable.
動力源を備えて走行可能な車体に、
請求項9記載の結球野菜の結球中心の認識装置と、
前記結球野菜の茎を切断する収穫刃と、
前記認識装置から前記結球野菜の結球中心の認識情報を受けて、前記収穫刃を前記結球野菜の茎に沿って位置させる経路制御を行う制御部と、が設けられていること
を特徴とする結球野菜の収穫機。
For a car body that can run with a power source
The recognition device for the heading center of the heading vegetable according to claim 9,
A harvesting blade that cuts the stems of the headed vegetables,
A heading feature is provided with a control unit that receives recognition information of the heading center of the heading vegetable from the recognition device and controls a route for positioning the harvesting blade along the stem of the heading vegetable. Vegetable harvester.
JP2019055513A 2019-03-22 2019-03-22 Heading center recognition method, recognition device, and harvester of headed vegetables Active JP7212936B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019055513A JP7212936B2 (en) 2019-03-22 2019-03-22 Heading center recognition method, recognition device, and harvester of headed vegetables

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019055513A JP7212936B2 (en) 2019-03-22 2019-03-22 Heading center recognition method, recognition device, and harvester of headed vegetables

Publications (2)

Publication Number Publication Date
JP2020155060A true JP2020155060A (en) 2020-09-24
JP7212936B2 JP7212936B2 (en) 2023-01-26

Family

ID=72559407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019055513A Active JP7212936B2 (en) 2019-03-22 2019-03-22 Heading center recognition method, recognition device, and harvester of headed vegetables

Country Status (1)

Country Link
JP (1) JP7212936B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113888397A (en) * 2021-10-08 2022-01-04 云南省烟草公司昆明市公司 Tobacco pond cleaning and plant counting method based on unmanned aerial vehicle remote sensing and image processing technology

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05304814A (en) * 1992-04-28 1993-11-19 Iseki & Co Ltd Vegetable harvester

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05304814A (en) * 1992-04-28 1993-11-19 Iseki & Co Ltd Vegetable harvester

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113888397A (en) * 2021-10-08 2022-01-04 云南省烟草公司昆明市公司 Tobacco pond cleaning and plant counting method based on unmanned aerial vehicle remote sensing and image processing technology

Also Published As

Publication number Publication date
JP7212936B2 (en) 2023-01-26

Similar Documents

Publication Publication Date Title
CN111325764B (en) Fruit image contour recognition method
CN109242791B (en) Batch repair method for damaged plant leaves
WO2015010451A1 (en) Method for road detection from one image
CN104794721B (en) A kind of quick optic disk localization method based on multiple dimensioned spot detection
CN109345554A (en) A kind of adhesion mushroom vision in-situ measuring method based on RGB-D camera
CN106096491B (en) Automatic identification method for microaneurysms in fundus color photographic image
CN104732536A (en) Sub-pixel edge detection method based on improved morphology
CN103364410A (en) Crack detection method of hydraulic concrete structure underwater surface based on template search
CN107527343B (en) A kind of agaricus bisporus stage division based on image procossing
CN103914836A (en) Farmland machine leading line extraction algorithm based on machine vision
CN105678749B (en) A kind of fresh fish discriminating direction method of view-based access control model
CN103413303A (en) Infrared target segmentation method based on joint obviousness
CN103839069A (en) Lawn miss cutting recognition method based on image analysis
CN106683098B (en) A kind of dividing method of overlapped blades image
CN112132821B (en) Cotter pin loss detection method based on image processing
CN112861654A (en) Famous tea picking point position information acquisition method based on machine vision
CN102663781A (en) Sub-pixel level welding center extraction method based on visual sense
CN112380926A (en) Weeding path planning system of field weeding robot
CN112884746A (en) Character defect intelligent detection algorithm based on edge shape matching
CN105335960A (en) Image segmentation method combining edge detection algorithm with watershed algorithm
JP7212936B2 (en) Heading center recognition method, recognition device, and harvester of headed vegetables
CN107239761B (en) Fruit tree branch pulling effect evaluation method based on skeleton angular point detection
CN113450402B (en) Navigation center line extraction method for vegetable greenhouse inspection robot
US20210090235A1 (en) Deposit detection device and deposit detection method
CN110852990B (en) Rubber tree oblique cutter mark detection method based on image processing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230106

R150 Certificate of patent or registration of utility model

Ref document number: 7212936

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150