JP2012198688A - Crop image processing program, crop image processing method and crop image processing system - Google Patents

Crop image processing program, crop image processing method and crop image processing system Download PDF

Info

Publication number
JP2012198688A
JP2012198688A JP2011061608A JP2011061608A JP2012198688A JP 2012198688 A JP2012198688 A JP 2012198688A JP 2011061608 A JP2011061608 A JP 2011061608A JP 2011061608 A JP2011061608 A JP 2011061608A JP 2012198688 A JP2012198688 A JP 2012198688A
Authority
JP
Japan
Prior art keywords
crop
image
straight line
height
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011061608A
Other languages
Japanese (ja)
Other versions
JP5626056B2 (en
Inventor
Masaki Ishihara
正樹 石原
Shugo Nakamura
秋吾 中村
Takayuki Baba
孝之 馬場
Susumu Endo
進 遠藤
Masahiko Sugimura
昌彦 杉村
Yusuke Uehara
祐介 上原
Daiki Masumoto
大器 増本
Shigemi Osada
茂美 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2011061608A priority Critical patent/JP5626056B2/en
Publication of JP2012198688A publication Critical patent/JP2012198688A/en
Application granted granted Critical
Publication of JP5626056B2 publication Critical patent/JP5626056B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a crop image processing program, a crop image processing method and a crop image processing system in which images of crop are processed.SOLUTION: Images of crop planted in a ridge are captured at appropriate timing of a sprouting period, a growing period and a harvest period, and the obtained images are acquired by an image acquisition part 11. An area separation processing part 13 separates an area expressing crop from an area expressing background such as soil/weed etc. In the case where the area separation is performed for images captured in the sprouting period, a ridge line detection part 14a detects a ridge line by performing straight line detection using an image after the area separation. Further, in the case where the area separation is performed for images in the growing period and the harvest period, a growth line detection part 14b detects a growth line by performing straight line detection. A calculation part 15 calculates the height of crop by using the ridge line and the growth line which are detected.

Description

本発明は、農作物の画像を処理する農作物画像処理プログラム、農作物画像処理方法及び農作物画像処理装置に関する。   The present invention relates to a crop image processing program, a crop image processing method, and a crop image processing apparatus for processing crop images.

大規模な圃場を抱える農業法人では、経営的観点から収穫量を予想することは重要である。現状では、収穫量を農業従事者の勘及び経験に頼って予測している。   In agricultural corporations with large-scale fields, it is important to predict the yield from a management perspective. At present, the yield is predicted based on the intuition and experience of farmers.

収穫量は天候、病害虫、実施作業など様々な要因に依存している。例えば、天候要因(落雷、強風、大雨、温度など)や生育要因(生理障害、病害虫、鳥獣害など)や人為的要因(植え忘れ、培土ミスなど)などが挙げられる。   The yield depends on various factors such as the weather, pests, and work performed. For example, weather factors (lightning strikes, strong winds, heavy rain, temperature, etc.), growth factors (physiological disorders, pests, wildlife damage, etc.) and human factors (forgetting planting, cultivating soil mistakes, etc.) can be mentioned.

一方で、航空・衛星画像を用いた収穫量の予測手法が開示されている(例えば、特許文献1を参照)。この場合、農作物が反射する特有の波長を取得するために分光反射光画像を用いる。この画像を解析することにより、観察対象の圃場における農作物面積や生育度を推定し、収穫量を予測する。   On the other hand, a yield prediction method using aerial / satellite images is disclosed (see, for example, Patent Document 1). In this case, a spectral reflected light image is used to acquire a specific wavelength reflected by the crop. By analyzing this image, the crop area and the degree of growth in the field to be observed are estimated, and the yield is predicted.

特開2010−140296号公報JP 2010-140296 A

しかしながら、特許文献1に記載された予測手法では、圃場面の真上から画像を撮影しているため、この画像から計算される農作物の収穫量は農作物面積を反映しているに過ぎず、農作物の高さを踏まえた正確な農作物の大きさを測定することはできない。   However, in the prediction method described in Patent Document 1, since an image is taken from directly above the field scene, the crop yield calculated from this image only reflects the crop area. It is not possible to measure the exact size of crops based on the height of the plant.

本願は、上記の課題を解決するため、圃場面に線状に植立された農作物の高さを画像を用いて算出し、農作物の収穫量予測に利用することができる農作物画像処理プログラム、農作物画像処理方法及び農作物画像処理装置を提供することを目的とする。   In order to solve the above-described problem, the present application calculates the height of a crop planted linearly in a farm scene using an image, and uses the crop image processing program and crop that can be used for crop yield prediction An object is to provide an image processing method and a crop image processing apparatus.

本願に開示する農作物画像処理プログラムは、コンピュータに、圃場にて線状に複数植立する農作物の画像が記憶された記憶手段を参照して、前記農作物の第1生育段階において撮像された第1画像から、予め定められた農作物の色を表す色相の範囲の情報を基に、前記農作物を表す領域の画像を分離し、前記第1画像から分離された農作物を表す領域の画像から、圃場面における前記農作物の植立地点に漸近する第1の直線を検出して前記記憶手段に記憶し、前記記憶手段を参照して、前記第1画像と実質的に同一の位置から、前記農作物の第1生育段階より遅い第2生育段階において撮像された第2画像から前記色相の範囲の情報と前記第1の直線とを基に前記第1の直線上の農作物を表す領域の画像を分離し、前記第2画像から分離された農作物を表わす領域の画像を基に前記農作物の上端部を通る第2の直線を検出し、前記第1の直線と前記第2の直線との間の距離に基づいて、前記農作物の高さを算出する処理を実行させることを特徴とする。   The crop image processing program disclosed in the present application is a first image captured at a first growth stage of the crop, with reference to storage means in which a plurality of crop images to be planted linearly in a field are stored in a computer. An image of a region representing the crop is separated from the image based on information on a hue range representing a predetermined color of the crop, and a field scene is derived from the image of the region representing the crop separated from the first image. The first straight line asymptotically approaching the planting point of the crop is detected and stored in the storage means. With reference to the storage means, the first straight line of the crop is detected from a position substantially the same as the first image. Separating an image of a region representing a crop on the first line based on the information on the hue range and the first line from a second image captured in a second growth stage slower than the one growth stage; Separated from the second image A second line passing through the upper end of the crop based on the image of the area representing the crop, and the height of the crop based on the distance between the first line and the second line. It is characterized in that a process for calculating is executed.

本願によれば、圃場面に線状に植立された農作物の高さを画像を用いて算出し、例えば、農作物の収穫量予測に利用することができる。   According to the present application, the height of a crop planted linearly in a farm scene can be calculated using an image, and can be used, for example, for crop yield prediction.

本実施の形態に係る農作物の高さ算出システムの概要を説明する説明図である。It is explanatory drawing explaining the outline | summary of the crop height calculation system which concerns on this Embodiment. 本実施の形態に係る算出装置の機能的構成を示す模式図である。It is a schematic diagram which shows the functional structure of the calculation apparatus which concerns on this Embodiment. 算出装置のハードウェア構成を示す模式図である。It is a schematic diagram which shows the hardware constitutions of a calculation apparatus. 畝線を検出する手順を説明するフローチャートである。It is a flowchart explaining the procedure which detects a shoreline. 処理対象の画像の一例を示す模式図である。It is a schematic diagram which shows an example of the image of a process target. 背景分離及びセグメンテーションを行った画像の一例を示す模式図である。It is a schematic diagram which shows an example of the image which performed background separation and segmentation. 畝線の検出結果の一例を示す模式図である。It is a schematic diagram which shows an example of the detection result of a shoreline. 農作物の高さを算出する手順を説明するフローチャートである。It is a flowchart explaining the procedure which calculates the height of agricultural products. 処理対象の画像の一例を示す模式図である。It is a schematic diagram which shows an example of the image of a process target. 透視変換を用いた高さの算出手法を説明する説明図である。It is explanatory drawing explaining the calculation method of the height using perspective transformation. 実施の形態2に係る収穫量予測装置の機能的構成を示す模式図である。It is a schematic diagram which shows the functional structure of the yield prediction apparatus which concerns on Embodiment 2. FIG. 重み関数の一例を示す模式図である。It is a schematic diagram which shows an example of a weight function. 収穫量予測装置による予測収穫量の算出手順を説明するフローチャートである。It is a flowchart explaining the calculation procedure of the predicted yield by the harvest amount prediction apparatus. 農作物面積の実測値の一例を示す図である。It is a figure which shows an example of the actual value of a crop area.

以下、本願をその実施の形態を示す図面に基づいて具体的に説明する。
実施の形態1.
図1は本実施の形態に係る農作物の高さ算出システムの概要を説明する説明図である。本実施の形態に係る農作物の高さ算出システムは、撮像装置1及び算出装置10を備える。撮像装置1は、例えば、デジタルカメラである。撮像装置1は、圃場又は圃場近傍の定点に設置され、圃場に植立された農作物を定期的に撮像し、得られた画像(デジタルカラー画像)を算出装置10へ送出する。このため、撮像装置1は有線又は無線の通信機能を備え、撮像して得られた画像を通信機能により算出装置10へ送信するように構成している。
Hereinafter, the present application will be specifically described with reference to the drawings illustrating embodiments thereof.
Embodiment 1 FIG.
FIG. 1 is an explanatory diagram for explaining the outline of the crop height calculation system according to the present embodiment. The crop height calculation system according to the present embodiment includes an imaging device 1 and a calculation device 10. The imaging device 1 is a digital camera, for example. The imaging device 1 is installed at a fixed point in the field or in the vicinity of the field, periodically images crops planted in the field, and sends the obtained image (digital color image) to the calculation device 10. For this reason, the imaging device 1 has a wired or wireless communication function, and is configured to transmit an image obtained by imaging to the calculation device 10 by the communication function.

圃場には畝が形成され、この畝に沿って農作物が適宜の間隔で植立されるものとする。すなわち、圃場には線状の農作物の列が複数形成されるものとする。撮像装置1は、撮像方向(カメラの光軸)がこの畝に略平行となるように、しかも成長した農作物の高さよりも高い固定位置から圃場を俯瞰的に撮像する。撮像装置1は、カメラアングルが固定された状態で、圃場又は圃場近傍の定点に設置される。
なお、撮像装置1が撮像する圃場範囲は、圃場内の一部であってもよい。また、撮像装置1を複数箇所に設置して圃場全体を撮像する構成としてもよい。
It is assumed that cocoons are formed in the field, and crops are planted along the cocoons at appropriate intervals. That is, it is assumed that a plurality of lines of linear crops are formed in the field. The imaging device 1 takes a bird's-eye view of the field from a fixed position higher than the height of the grown crop so that the imaging direction (the optical axis of the camera) is substantially parallel to the cocoon. The imaging device 1 is installed at a fixed point in the field or in the vicinity of the field with the camera angle fixed.
Note that the field range captured by the imaging device 1 may be a part of the field. Moreover, it is good also as a structure which installs the imaging device 1 in several places, and images the whole agricultural field.

圃場に植立される農作物は、例えば、葉菜類に属する農作物である。本実施の形態に係る農作物の高さ算出システムでは、農作物の育苗期、生育期又は収穫期に、ある程度の高さまで垂直方向に成長する農作物について高さを好適に算出することができる。また、対象の農作物は、収穫後に圃場から除去されるような農作物であることが好ましい。
例えば、しそ科葉菜類、せり科葉菜類に属する農作物、ニラ、ネギなどの農作物の高さを好適に算出することができる。また、稲、麦類、とうもろこし等の雑穀類、非結球レタス、カリフラワー、キャベツ、白菜、ブロッコリー、レタスなどの農作物についても高さを算出することができる。
一方、ジャガイモや人参といった根菜類については、本実施の形態の高さ算出の対象から除外される。
The crop planted in the field is, for example, a crop belonging to leafy vegetables. In the crop height calculation system according to the present embodiment, it is possible to suitably calculate the height of a crop that grows in a vertical direction up to a certain height during the seedling period, the growth period, or the harvest period of the crop. In addition, the target crop is preferably a crop that is removed from the field after harvesting.
For example, it is possible to suitably calculate the heights of crops belonging to Lamiaceae leafy vegetables, Lariaceae leafy vegetables, leek, leek and the like. Also, the height can be calculated for crops such as rice, wheat, corn and other cereals, non-heading lettuce, cauliflower, cabbage, Chinese cabbage, broccoli, lettuce and the like.
On the other hand, root vegetables such as potatoes and carrots are excluded from the height calculation targets of the present embodiment.

算出装置10は、パーソナルコンピュータ、サーバ装置などの情報処理装置であり、撮像装置1から送出される画像を取得し、画像の特徴を利用して農作物の高さを算出する。高さの算出手法については後に詳述することとするが、本実施の形態に係る算出装置10は、撮像装置1から取得した画像について、農作物を表す領域と背景領域とを分離する領域分離処理を実行する。また、算出装置10は、育苗期に撮像装置1によって撮像された画像から畝の位置を表す直線(畝線)を検出し、生育期又は収穫期に撮像装置1によって撮像された画像から農作物の上端部分を表す直線(成長線)を検出する処理(直線検出処理)を実行する。更に、算出装置10は、検出した畝線及び成長線を利用して透視変換を適用することにより、農作物の高さを算出する算出処理を実行する。   The calculation device 10 is an information processing device such as a personal computer or a server device. The calculation device 10 acquires an image sent from the imaging device 1 and calculates the height of the crop using the characteristics of the image. Although the calculation method of the height will be described in detail later, the calculation device 10 according to the present embodiment separates the region obtained from the image capturing device 1 from the region representing the agricultural product and the background region. Execute. Further, the calculation device 10 detects a straight line (a cocoon line) representing the position of the cocoon from the image captured by the imaging device 1 during the seedling raising period, and the crop of the crop from the image captured by the imaging device 1 during the growing season or the harvesting season. Processing for detecting a straight line (growth line) representing the upper end portion (straight line detection processing) is executed. Furthermore, the calculation device 10 executes a calculation process for calculating the height of the crop by applying perspective transformation using the detected shoreline and growth line.

なお、本実施の形態では、撮像装置1は、圃場に植立された農作物を定期的に撮像する構成とするが、算出装置10から撮像装置1に対して定期的に撮像指示を与え、撮像指示が与えられたときに撮像装置1が農作物の画像を撮像する構成としてもよい。また、農作物の育苗期、生育期、及び収穫期に適宜のタイミングで撮像する構成としてもよい。この場合、ユーザが指示するタイミングで撮像する構成としてもよい。更に、パスライトやビニールトンネルといった被覆を行う期間については、撮像の対象から除外してもよい。   In the present embodiment, the imaging device 1 is configured to periodically image crops planted on the farm field. However, the calculation device 10 periodically gives an imaging instruction to the imaging device 1 to perform imaging. It may be configured that the imaging device 1 captures an image of a crop when an instruction is given. Moreover, it is good also as a structure which images at an appropriate timing in the seedling growing season, the growing season, and the harvesting season. In this case, it is good also as a structure imaged at the timing which a user instruct | indicates. Furthermore, the period of covering such as a passlight or a vinyl tunnel may be excluded from the imaging target.

また、本実施の形態では、撮像装置1により撮像された画像を、有線又は無線の通信機能により算出装置10へ送信する構成としたが、撮像装置1にて適宜の期間に撮像された画像を可搬型記録媒体に蓄積しておき、この可搬型記録媒体を利用して算出装置10内に画像を取込む構成としてもよい。   In the present embodiment, the image captured by the imaging device 1 is configured to be transmitted to the calculation device 10 by a wired or wireless communication function. However, the image captured by the imaging device 1 in an appropriate period is used. A configuration may be adopted in which an image is stored in a portable recording medium and an image is taken into the calculation apparatus 10 using the portable recording medium.

図2は本実施の形態に係る算出装置10の機能的構成を示す模式図である。本実施の形態に係る算出装置10は、画像取得部11、画像記憶部12、領域分離処理部13、直線検出部14、算出部15、及び出力部16を備える。   FIG. 2 is a schematic diagram showing a functional configuration of the calculation apparatus 10 according to the present embodiment. The calculation device 10 according to the present embodiment includes an image acquisition unit 11, an image storage unit 12, a region separation processing unit 13, a straight line detection unit 14, a calculation unit 15, and an output unit 16.

画像取得部11は、撮像装置1が撮像した画像を取得する。そのため、画像取得部11は、撮像装置1から送信される画像を受信する機能、及び可搬型記録媒体に蓄積された画像を算出装置10内に取込む機能の少なくとも一方を備える。画像取得部11は、取得した画像を画像記憶部12へ出力する。   The image acquisition unit 11 acquires an image captured by the imaging device 1. Therefore, the image acquisition unit 11 has at least one of a function of receiving an image transmitted from the imaging device 1 and a function of taking an image stored in a portable recording medium into the calculation device 10. The image acquisition unit 11 outputs the acquired image to the image storage unit 12.

画像記憶部12は、画像取得部11が出力する画像を取得して記憶する。このとき、画像記憶部12は、算出装置10の備える図示しない記憶領域内の適宜の記憶場所を指定して画像を記憶すると共に、画像を識別する情報、画像の記憶場所を識別する情報、画像の撮像日時を示す情報を互いに関連付けて記憶する。また、画像記憶部12は、複数の撮像装置1の画像を取得し、記憶する場合には、画像を撮影した撮像装置1や画像の撮影位置など、同一のカメラアングルで撮影された圃場を特定可能な情報を更に関連付けて記憶することが好ましい。例えば、同一の撮像装置1や撮影位置で撮像した画像毎にディレクトリを分けて記憶領域内に記憶してもよい。   The image storage unit 12 acquires and stores the image output by the image acquisition unit 11. At this time, the image storage unit 12 stores an image by designating an appropriate storage location in a storage area (not shown) included in the calculation device 10, information for identifying the image, information for identifying the storage location of the image, image Are stored in association with each other. In addition, when acquiring and storing images of a plurality of imaging devices 1, the image storage unit 12 specifies a field that has been captured at the same camera angle, such as the imaging device 1 that captured the images and the imaging position of the images. Preferably, possible information is stored in further association. For example, a directory may be divided and stored in the storage area for each image captured at the same imaging device 1 or shooting position.

画像を識別する情報は、例えば、画像のファイル名であり、撮像装置1が画像を生成する際に付与する名称を用いることができる。画像の記憶場所を識別する情報は、画像記憶部12の記憶領域内での位置を特定するための情報であり、ディレクトリ、フォルダ等を含む階層情報により表される。撮像日時は、画像を生成する際に撮像装置1が埋め込む撮像条件に含まれる情報(メタデータ)である。画像記憶部12は、撮像日時を示す情報を画像のメタデータから抽出し、その画像を識別する情報、及び画像の記憶場所を識別する情報に関連付けて記憶する。
また、画像記憶部12は、これらの情報に加え、農作物の播種期、育苗期、生育期、及び収穫期を区別する情報を関連付けて記憶する構成としてもよい。例えば、それぞれの期間を予め定めておき、画像記憶部12は、メタデータから撮像日時の情報を取得した際、どの期間に属するかを判定し、判定した期間(播種期、育苗期、生育期、収穫期)を他の情報に関連付けて、算出装置10の備える図示しない記憶領域に記憶することができる。
The information for identifying the image is, for example, a file name of the image, and a name given when the imaging apparatus 1 generates the image can be used. The information for identifying the storage location of the image is information for specifying the position in the storage area of the image storage unit 12, and is represented by hierarchical information including directories, folders, and the like. The imaging date and time is information (metadata) included in imaging conditions embedded by the imaging device 1 when generating an image. The image storage unit 12 extracts information indicating the imaging date and time from the metadata of the image, and stores the information in association with information for identifying the image and information for identifying the storage location of the image.
Further, in addition to these pieces of information, the image storage unit 12 may be configured to associate and store information that distinguishes the sowing period, the seedling period, the growing period, and the harvest period of the crop. For example, each period is determined in advance, and the image storage unit 12 determines which period it belongs to when acquiring information on the imaging date and time from the metadata, and determines the determined period (seeding period, seedling period, growth period) , Harvest period) can be associated with other information and stored in a storage area (not shown) of the calculation device 10.

領域分離処理部13は、処理対象の画像について、農作物を表す領域と背景領域とを分離する処理を行う。本実施の形態において、農作物は、畝と呼ばれる盛り土の上に植立されるものであるが、その畝の間に雑草がしばしば発生する。単純に、画像処理で農作物の色(緑色)で抽出した場合、畝間に存在する雑草も同時に抽出してしまうことになる。そこで、本実施の形態に係る算出装置10は、領域分離処理部13において、畝の位置を検出し、検出した畝の位置を基準として、画像上で農作物を表す領域とそれ以外(土壌や雑草)の背景領域とを分離する。   The region separation processing unit 13 performs processing for separating a region representing a crop and a background region on the processing target image. In the present embodiment, the crop is planted on a bank called a reed, but weeds often occur between the reeds. Simply extracting the crop color (green) with image processing will simultaneously extract the weeds that exist in the furrows. Therefore, in the calculation device 10 according to the present embodiment, the region separation processing unit 13 detects the position of the cocoon, and uses the detected position of the cocoon as a reference, the region representing the crop on the image and the others (soil and weeds). ) Separate the background area.

領域分離処理部13は、処理した画像(すなわち、撮像画像から農作物を表す領域と背景領域とを分離した画像)を直線検出部14へ出力する。このとき、領域分離処理部13は、畝線の検出対象となる画像(例えば、育苗期に撮像された画像)を直線検出部14の畝線検出部14aへ出力し、成長線の検出対象となる画像(例えば、生育期又は収穫期に撮像された画像)を直線検出部14の成長線検出部14bへ出力する。   The region separation processing unit 13 outputs the processed image (that is, an image obtained by separating the region representing the crop and the background region from the captured image) to the straight line detection unit 14. At this time, the region separation processing unit 13 outputs an image (for example, an image captured during the seedling raising period) that is a target for detecting the wrinkle to the wrinkle detection unit 14a of the straight line detection unit 14, and The resulting image (for example, an image captured during the growing season or the harvesting season) is output to the growth line detector 14b of the straight line detector 14.

なお、領域分離処理部13は、ユーザが指定した範囲で領域分離を行えばよい。ユーザが適宜の範囲を設定することにより、領域分離処理部13は、例えば、遠近法により畝の判別が困難となる領域を除外して処理を行うことができる。以下では、領域分離処理の際にユーザが設定する範囲を観察領域という。   Note that the region separation processing unit 13 may perform region separation within a range specified by the user. When the user sets an appropriate range, the region separation processing unit 13 can perform processing by excluding a region in which it is difficult to determine wrinkles by perspective, for example. Hereinafter, the range set by the user during the region separation process is referred to as an observation region.

直線検出部14は、畝線検出部14a及び成長線検出部14bを備える。
畝線検出部14aは、領域分離処理部13が処理した画像のうち、育苗期に撮像された画像について畝線の検出を行う。畝線の検出には、直線検出の手法として一般的に知られるハフ変換を利用することができる。本実施の形態のように、検出したい線の形(直線)が予め決められており、代数方程式でその形状が表現できる場合には、畝線検出部14aは、線の形状を表すパラメータ空間に画像中の特徴点を写像するハフ変換を利用して直線検出を行うことができる。
例えば、畝線検出部14aは、領域分離した領域のうち、農作物を表す領域部分を画像中の特徴点としてハフ変換を適用することにより、直線(畝線)を検出することができる。このとき、畝線検出部14aは、各直線の傾きΔLiに関して、クラスタリングをする距離の閾値をΔdLth以下として、公知の階層的クラスタリングを適用し、各クラスタ毎に当該クラスタの重心値に最近傍となる傾きを持った直線を、農作物を表す領域部分を通る直線、すなわち、畝の領域内に多数存在する農作物の植立地点に漸近する直線として求めることができる。
本実施の形態では、ハフ変換を用いて畝線を検出する構成としたが、直線検出の手法はハフ変換に限定されるものではない。例えば、加重マトリクスを用いて画像をフィルタリングする手法、微分画像を用いて微分値が大きくなる領域を抽出し、細線化する手法、微分画像を用いて微分値の高い画素を逐次つなぎ合わせて領域の境界線を抽出する手法等を用いることができる。
The straight line detection unit 14 includes a shoreline detection unit 14a and a growth line detection unit 14b.
The shoreline detection unit 14a detects the shoreline of an image captured during the seedling raising period among the images processed by the region separation processing unit 13. For detection of the shoreline, Hough transform, which is generally known as a straight line detection method, can be used. When the shape (straight line) of a line to be detected is determined in advance as in the present embodiment and the shape can be expressed by an algebraic equation, the shoreline detection unit 14a has a parameter space representing the shape of the line. Straight line detection can be performed using Hough transform that maps feature points in an image.
For example, the shoreline detection unit 14a can detect a straight line (a shoreline) by applying Hough transform using a region portion representing an agricultural product as a feature point in the image among the region separated regions. At this time, the shoreline detection unit 14a applies a known hierarchical clustering with the threshold value of the clustering distance ΔdLth or less with respect to the slope ΔLi of each straight line, and for each cluster, the centroid value of the cluster Can be obtained as a straight line that passes through the region representing the crop, that is, a straight line that is asymptotic to the planting points of a large number of crops that exist in the cocoon region.
In the present embodiment, the shoreline is detected using the Hough transform, but the straight line detection method is not limited to the Hough transform. For example, a method of filtering an image using a weighted matrix, a method of extracting a region where a differential value is large using a differential image, a method of thinning, a pixel having a high differential value is sequentially connected using a differential image A technique for extracting a boundary line can be used.

撮像装置1が撮像する画像には複数の畝が含まれることが多い。また、領域分離処理部13で領域分離処理を行ったとしても、領域分離処理部13は、農作物以外の領域(例えば、雑草などを含む領域)を完全に除去できないこともある。したがって、畝線検出部14aが検出する直線には、畝線及び畝線以外の直線が複数含まれる。そこで、畝線検出部14aは、検出した直線のうち畝に相当する直線(畝線)を選択し、他の直線を除外する。
畝線の選択は、畝線検出部14aが自動で行ってもよく、ユーザによる選択を畝線検出部14aにて受付ける構成としてもよい。畝線検出部14aが畝線を自動で選択する手法としては、遠近法における消失点を利用した選択手法を用いることができる。畝は平行かつ等間隔に形成されることが多いので、画像上において、検出した直線が最も多く重なる点(消失点)が存在する。したがって、畝線検出部14aは、この消失点を通らない直線は畝以外の要素により検出された直線であるとして除外し、残りの直線を選択することにより、畝線のみを検出することができる。
畝線検出部14aは、検出した畝線の情報を算出装置10の備える図示しない記憶領域に記憶する。例えば、各畝線の画像上の端点の座標、各畝線を表す代数方程式の情報等を記憶する。
An image captured by the imaging device 1 often includes a plurality of wrinkles. Even if the region separation processing unit 13 performs the region separation processing, the region separation processing unit 13 may not be able to completely remove regions other than agricultural products (for example, regions including weeds). Therefore, the straight line detected by the shoreline detection unit 14a includes a plurality of straight lines other than the shoreline and the shoreline. Therefore, the shoreline detection unit 14a selects a straight line (coastline) corresponding to the heel among the detected straight lines, and excludes other straight lines.
The selection of the shoreline may be automatically performed by the shoreline detection unit 14a, or the selection by the user may be received by the shoreline detection unit 14a. As a method for automatically selecting the shoreline by the shoreline detection unit 14a, a selection method using a vanishing point in the perspective method can be used. Since wrinkles are often formed in parallel and at equal intervals, there are points (disappearance points) where the detected straight lines overlap most in the image. Therefore, the shoreline detection unit 14a can detect only the shoreline by excluding the straight line that does not pass through the vanishing point as a straight line detected by an element other than the heel, and selecting the remaining straight lines. .
The shoreline detection unit 14a stores the detected shoreline information in a storage area (not shown) included in the calculation device 10. For example, the coordinates of the end points on the image of each shoreline, information on algebraic equations representing each shoreline, and the like are stored.

一方、成長線検出部14bは、領域分離処理部13が処理した画像のうち、生育期又は収穫期に撮像された画像について成長線の検出を行う。
成長線検出部14bは、畝線検出部14aによって検出された畝線のうち、農作物の高さを算出しやすい畝線を選択する。畝線の選択は、成長線検出部14bが自動で行ってもよく、ユーザによる選択を成長線検出部14bにて受付ける構成としてもよい。成長線検出部14bが畝線を自動で選択する場合、例えば、成長線検出部14bは、画像上で傾きが最も大きい畝線の両隣りに存在する2つの畝線のうち、畝線の消失点から遠い方の終端が観察領域内に存在する畝線を選択することができる。
On the other hand, the growth line detection unit 14b detects a growth line for an image captured in the growing season or the harvesting season among the images processed by the region separation processing unit 13.
The growth line detection unit 14b selects a shoreline that can easily calculate the height of the crop among the shorelines detected by the shoreline detection unit 14a. Selection of the shoreline may be performed automatically by the growth line detection unit 14b, or the selection by the user may be received by the growth line detection unit 14b. When the growth line detection unit 14b automatically selects the shoreline, for example, the growth line detection unit 14b loses the shoreline among the two shorelines existing on both sides of the ridgeline having the largest inclination on the image. It is possible to select a shoreline whose end farther from the point exists in the observation region.

成長線検出部14bは、領域分離処理部13が領域分離を行った画像を用いて、選択した畝線上に存在する農作物部分を表す領域を抽出する。また、撮像装置1が撮像した画像を用いて、選択した畝線上の農作物の色をサンプリングし、農作物部分を表す色の領域を抽出し、農作物部分とそれ以外の部分(土壌や雑草)とを領域分離する処理を新たに行ってもよい。
成長線検出部14bは、選択した畝線のみを含む農作物の領域について畝線以外の直線を検出する。直線検出の手法は、畝線検出部14aで行う直線検出の手法と全く同様の手法を用いることができる。例えば、成長線検出部14bは、農作物を表す領域部分の輪郭を画像中の特徴点として、ハフ変換を適用することにより、直線(成長線)を検出することができる。このとき、成長線検出部14bは、各直線の傾きΔLiに関して、クラスタリングをする距離の閾値をΔdLth以下として、公知の階層的クラスタリングを適用し、各クラスタ毎に、当該クラスタの重心値に最遠傍となる傾きをもった直線であって、畝線の消失点近傍を通る直線を、成長線(すなわち、農作物の上端部を通る直線)として検出することができる。
成長線検出部14bは、検出した成長線の情報を算出装置10の備える図示しない記憶領域に記憶する。例えば、成長線検出部14bは、成長線の画像上の端点の座標、成長線を表す代数方程式の情報等を記憶する。
The growth line detection unit 14b extracts a region representing a crop portion existing on the selected shoreline using the image obtained by the region separation processing unit 13 performing region separation. Also, using the image captured by the imaging device 1, the color of the crop on the selected shoreline is sampled, the color region representing the crop portion is extracted, and the crop portion and other portions (soil and weeds) are extracted. You may perform the process which isolate | separates an area | region newly.
The growth line detection unit 14b detects a straight line other than the shoreline for the crop region including only the selected shoreline. The straight line detection method may be the same as the straight line detection method performed by the shoreline detection unit 14a. For example, the growth line detection unit 14b can detect a straight line (growth line) by applying the Hough transform using the contour of the region representing the crop as a feature point in the image. At this time, the growth line detection unit 14b applies a known hierarchical clustering with respect to the slope ΔLi of each straight line with the threshold of the distance for clustering being equal to or less than ΔdLth, and is farthest from the center of gravity of the cluster for each cluster. A straight line having a side inclination and passing through the vicinity of the vanishing point of the shoreline can be detected as a growth line (that is, a straight line passing through the upper end portion of the crop).
The growth line detection unit 14b stores information on the detected growth line in a storage area (not shown) included in the calculation device 10. For example, the growth line detection unit 14b stores the coordinates of end points on the growth line image, information on algebraic equations representing the growth line, and the like.

算出部15は、畝線検出部14aが検出した畝線、及び成長線検出部14bが検出した成長線を用いて、農作物の高さを算出する。算出部15は、成長線を検出する際に選択した畝線の手前側の端点と成長線とを垂直に結ぶ線分を求め、その線分の長さを農作物の画像上での高さとすることができる。また、算出部15は、得られた高さを撮像装置1の位置関係及び透視変換を用いて実際の高さに変換することで、農作物の実際の高さを算出することができる。   The calculation unit 15 calculates the height of the crop using the shoreline detected by the shoreline detection unit 14a and the growth line detected by the growth line detection unit 14b. The calculation unit 15 obtains a line segment that vertically connects the end point on the near side of the shoreline selected when detecting the growth line and the growth line, and sets the length of the line segment as the height on the crop image. be able to. Moreover, the calculation unit 15 can calculate the actual height of the crop by converting the obtained height into the actual height using the positional relationship of the imaging device 1 and perspective transformation.

出力部16は、算出部15による算出結果等、すなわち算出した農作物の高さ等を出力する。出力部16による算出結果の出力は、例えば、算出部15が算出した農作物の高さを文字情報として画面上に表示することによって行う。また、出力部16は、算出部15が算出した農作物の高さを外部の装置(例えば、ユーザが使用する端末装置)へ通知する構成としてもよい。   The output unit 16 outputs the calculation result or the like by the calculation unit 15, that is, the calculated height of the crop. For example, the output of the calculation result by the output unit 16 is performed by displaying the height of the crop calculated by the calculation unit 15 on the screen as character information. The output unit 16 may be configured to notify the height of the crop calculated by the calculation unit 15 to an external device (for example, a terminal device used by the user).

図3は算出装置10のハードウェア構成を示す模式図である。算出装置10は、CPU101、ROM102、RAM103、通信インタフェース104、ハードディスクドライブ105、光ディスクドライブ106、キーボード107、及びディスプレイ108を備える。   FIG. 3 is a schematic diagram illustrating a hardware configuration of the calculation apparatus 10. The calculation device 10 includes a CPU 101, ROM 102, RAM 103, communication interface 104, hard disk drive 105, optical disk drive 106, keyboard 107, and display 108.

ROM102には、上述したハードウェア各部の動作を制御するために必要な制御用プログラムが予め格納されている。また、ハードディスク105Dには、撮像画像から農作物の高さを算出する処理を算出装置10に実行させる算出用プログラムが予め格納されている。   The ROM 102 stores in advance a control program necessary for controlling the operation of each hardware unit described above. The hard disk 105D stores in advance a calculation program that causes the calculation apparatus 10 to execute processing for calculating the height of the crop from the captured image.

CPU101は、適宜のタイミングでROM102又はハードディスク105Dに格納されているコンピュータプログラムをRAM103上に読み出し、実行することにより、上述したハードウェア各部の動作を制御し、全体として本願の算出方法を実現する装置として動作させる。   The CPU 101 reads out a computer program stored in the ROM 102 or the hard disk 105D at an appropriate timing on the RAM 103 and executes it, thereby controlling the operation of each of the above-described hardware units and realizing the calculation method of the present application as a whole. To act as.

RAM103は、例えば、DRAM(Dynamic RAM)、SRAM(Static RAM)、フラッシュメモリなどであり、CPU101によるコンピュータプログラムの実行時に発生する種々のデータ(例えば、各種パラメータ、演算の途中経過、演算結果等)を一時的に記憶する。   The RAM 103 is, for example, a DRAM (Dynamic RAM), an SRAM (Static RAM), a flash memory, or the like, and various data generated when the CPU 101 executes a computer program (for example, various parameters, calculation progress, calculation results, etc.) Is temporarily stored.

通信インタフェース104は、通信ネットワーク(不図示)を介して、外部の装置と通信を行うためのインタフェースである。   The communication interface 104 is an interface for communicating with an external device via a communication network (not shown).

ハードディスクドライブ105は、ハードディスク105Dに対してデータの書き込み、及びハードディスク105Dからのデータの読み出しを制御する。ハードディスクドライブ105は、キーボード107を通じて受付けた情報、通信インタフェース104にて受信した情報、光ディスクドライブ106により光ディスク106Dから読み出された情報等をハードディスク105Dに書き込むことにより、ハードディスク105Dに各種情報を記憶させる。   The hard disk drive 105 controls data writing to the hard disk 105D and data reading from the hard disk 105D. The hard disk drive 105 stores various information in the hard disk 105D by writing information received through the keyboard 107, information received by the communication interface 104, information read from the optical disk 106D by the optical disk drive 106, and the like to the hard disk 105D. .

光ディスクドライブ106は、光ディスク106Dに対してデータの書き込み、及び光ディスク106Dに記録されたデータの読み出しを制御する。なお、本実施の形態では、本願のコンピュータプログラムがハードディスク105Dに記憶されているものとするが、光ディスク106Dに記録された状態で提供されるものであってもよい。   The optical disc drive 106 controls writing of data to the optical disc 106D and reading of data recorded on the optical disc 106D. In this embodiment, it is assumed that the computer program of the present application is stored in the hard disk 105D, but it may be provided in a state recorded in the optical disk 106D.

キーボード107は、ユーザによる操作及び文字入力を受付ける。ディスプレイ108は、ユーザに報知する情報を表示する。   The keyboard 107 accepts user operations and character input. The display 108 displays information notified to the user.

なお、算出装置10のハードウェア構成は上記のものに限定する必要はない。例えば、通信ネットワークを介して遠隔操作が可能である場合には、光ディスクドライブ106、キーボード107、ディスプレイ108等が省略されていてもよい。   Note that the hardware configuration of the calculation device 10 need not be limited to the above. For example, when remote control is possible via a communication network, the optical disk drive 106, the keyboard 107, the display 108, etc. may be omitted.

算出装置10は、ハードディスク105Dに格納された算出用プログラムをCPU101に実行させ、ROM102に格納された制御用プログラムに従ってハードウェア各部を制御することにより、図2に示す画像取得部11、画像記憶部12、領域分離処理部13、直線検出部14、算出部15、及び出力部16による各処理を実行する。   The calculation device 10 causes the CPU 101 to execute the calculation program stored in the hard disk 105D and controls each part of the hardware according to the control program stored in the ROM 102, whereby the image acquisition unit 11 and the image storage unit illustrated in FIG. 12, each process by the area separation processing unit 13, the straight line detection unit 14, the calculation unit 15, and the output unit 16 is executed.

次に、算出装置10による農作物の高さの算出手順について説明する。以下では、育苗期に撮像された画像を用いて畝線を検出する手順と、生育期又は収穫期に撮像された画像を用いて成長線の検出し、次いで農作物の高さを算出する手順とに分けて算出手順を説明する。   Next, the calculation procedure of the crop height by the calculation device 10 will be described. In the following, a procedure for detecting a wrinkle using an image captured during the seedling period, a procedure for detecting a growth line using an image captured during the growing season or the harvesting period, and then calculating the height of the crop The calculation procedure will be described separately.

図4は畝線を検出する手順を説明するフローチャートである。算出装置10の領域分離処理部13は、画像記憶部12に記憶されている育苗期に撮像された画像を取得する(ステップS11)。図5は処理対象の画像の一例を示す模式図である。図5(a)は、育苗期に撮像された画像の一例を示したものである。育苗期(特に、育苗期の初期)では、農作物の高さがあまり高くないため、画像中央付近の畝(画像上で傾きが大きな畝)は他の畝から分離しやすい。一方、画像の端部付近では遠近法により多数の畝が近接して見えるので、それらを互いに分離することは困難である。   FIG. 4 is a flowchart for explaining a procedure for detecting a shoreline. The region separation processing unit 13 of the calculation device 10 acquires an image captured during the seedling raising period stored in the image storage unit 12 (step S11). FIG. 5 is a schematic diagram illustrating an example of an image to be processed. Fig.5 (a) shows an example of the image imaged in the seedling raising period. In the seedling raising period (especially at the beginning of the seedling raising period), the height of the crop is not so high, so that the cocoon near the center of the image (the cocoon having a large inclination on the image) is easily separated from other cocoons. On the other hand, in the vicinity of the edge of the image, many wrinkles appear close to each other by perspective, and it is difficult to separate them from each other.

そこで、領域分離処理部13は、畝を分離しやすい領域を観察領域として指定する(ステップS12)。例えば、図5(b)のハッチングで示した領域を観察領域として指定する。この観察領域の指定は、ユーザの選択操作を受付けることにより領域分離処理部13が実行する。観察領域を指定することにより、領域分離処理部13は、多数の畝が接近して見え、互いに分離することが困難な畝の領域を除外することができる。   Therefore, the region separation processing unit 13 designates a region in which wrinkles are easily separated as an observation region (step S12). For example, the area indicated by hatching in FIG. 5B is designated as the observation area. The observation region is designated by the region separation processing unit 13 by accepting a user's selection operation. By designating the observation area, the area separation processing unit 13 can exclude areas of wrinkles that appear to approach each other and are difficult to separate from each other.

次いで、領域分離処理部13は、背景分離とセグメンテーションとを行う(ステップS13,S14)。領域分離処理部13は、農作物特有の色を表す色相の範囲(緑色)だけを抽出する処理を加えることにより、農作物の候補部分と土壌部分(背景)とを分離することができる。セグメンテーションでは、大域的に類似した画素値が連続している領域を抽出する。例えば、細かいノイズ変化を除去するために、画像サイズを縮小し、平滑化処理を行い、画像ピラミッドによる画像のセグメント化などの手法を利用する。なお、このようなセグメンテーションは一般的な手法であり、上記手法に依らずに他の手法を用いることも可能である。図6は背景分離及びセグメンテーションを行った画像の一例を示す模式図である。図6(a)及び図6(b)は、それぞれ背景分離及びセグメンテーションを行った画像の一例であり、画像中の白い部分が農作物の候補部分、黒い部分が土壌部分を表している。ここで、図6(a)は、平滑化処理前の画像を表し、図6(b)は平滑化処理後の画像を表している。   Next, the region separation processing unit 13 performs background separation and segmentation (steps S13 and S14). The region separation processing unit 13 can separate the crop candidate portion and the soil portion (background) by adding a process of extracting only a hue range (green) representing a color unique to the crop. In the segmentation, a region where pixel values that are globally similar are continuous is extracted. For example, in order to remove a fine noise change, the image size is reduced, smoothing processing is performed, and a method such as image segmentation by an image pyramid is used. Such segmentation is a general method, and other methods can be used without depending on the above method. FIG. 6 is a schematic diagram illustrating an example of an image subjected to background separation and segmentation. FIG. 6A and FIG. 6B are examples of images that have undergone background separation and segmentation, respectively, where white portions in the images represent crop candidate portions and black portions represent soil portions. Here, FIG. 6A represents an image before the smoothing process, and FIG. 6B represents an image after the smoothing process.

次いで、畝線検出部14aは、セグメンテーション後の画像において観察領域内に含まれる直線を検出する(ステップS15)。上述したように、畝線検出部14aは、直線検出の手法として一般的に知られるハフ変換をセグメンテーション後の画像に適用することによって、直線を検出することができる。検出した直線には畝線以外の直線も含まれる可能性があるため、畝線検出部14aは、例えば、遠近法における消失点を通らない直線を除外し、残りの直線を選択することにより、畝線を選択する(ステップS16)。図7は畝線の検出結果の一例を示す模式図である。図7は、遠近法における消失点Vpを通る直線のみを選択することで、L1〜L8までの8本の畝線を検出した様子を示している。   Next, the shoreline detection unit 14a detects a straight line included in the observation region in the segmented image (step S15). As described above, the shoreline detection unit 14a can detect a straight line by applying a Hough transform, which is generally known as a straight line detection method, to the image after segmentation. Since the detected straight line may include straight lines other than the shoreline, the shoreline detection unit 14a, for example, excludes a straight line that does not pass the vanishing point in the perspective method, and selects the remaining straight lines, A shoreline is selected (step S16). FIG. 7 is a schematic diagram showing an example of the detection result of the shoreline. FIG. 7 shows a state in which eight saddles L1 to L8 are detected by selecting only a straight line passing through the vanishing point Vp in the perspective method.

次に、成長線を検出する手順について説明する。図8は農作物の高さを算出する手順を説明するフローチャートである。算出装置10の領域分離処理部13は、画像記憶部12に記憶されている生育期又は収穫期に撮像された画像を取得する(ステップS21)。図9は処理対象の画像の一例を示す模式図である。図9(a)は、生育期に撮像された画像の一例を示したものである。本実施の形態では、育苗期、生育期、収穫期の全期間において、定点に設置された撮像装置1により常に同一のカメラアングルで圃場を撮像する構成としているため、領域分離処理部13は、育苗期で検出した畝線をそのまま育苗期及び生育期の畝線として用いることができる。
図9(b)は、生育期に撮像された画像に、育苗期で検出した畝線を重畳して描いた様子を示している。図9(b)からも理解できるように、農作物の高さを算出しやすい畝(畝線L5で示される畝)と、算出が困難又は不能な畝とが存在する。
Next, a procedure for detecting a growth line will be described. FIG. 8 is a flowchart for explaining the procedure for calculating the height of the crop. The region separation processing unit 13 of the calculation apparatus 10 acquires an image captured during the growing season or the harvesting season stored in the image storage unit 12 (step S21). FIG. 9 is a schematic diagram illustrating an example of an image to be processed. FIG. 9A shows an example of an image captured during the growing season. In the present embodiment, the region separation processing unit 13 is configured to always image the field with the same camera angle by the imaging device 1 installed at a fixed point in the whole period of the seedling growing season, the growing season, and the harvesting season. The shoreline detected in the seedling stage can be used as it is as the shoreline in the seedling stage and the growing stage.
FIG. 9B shows a state in which the wrinkle detected in the seedling season is superimposed on the image captured in the growth season. As can be understood from FIG. 9 (b), there are cocoons that can easily calculate the height of the crop (the cocoons indicated by the shoreline L5) and cocoons that are difficult or impossible to calculate.

そこで、領域分離処理部13は、農作物の高さを算出しやすい観察対象の畝線を選択する(ステップS22)。例えば、図9(b)に示す畝線L1〜L8のうち、傾きが最も大きな畝線は畝線L4である。この畝線L4上の農作物の成長線は畝線L4と略重なっているため、成長線の検出が困難となる。そこで、本実施の形態では、この最も傾きの大きな畝線L4の両隣りに存在する畝線L3及びL5に着目し、その両端点のうち、消失点から遠い方の端点が観察領域内に存在する畝線L5を観察対象の畝線として選択する。   Therefore, the region separation processing unit 13 selects an observation target shoreline from which the height of the crop can be easily calculated (step S22). For example, among the saddle lines L1 to L8 shown in FIG. 9B, the saddle line having the largest inclination is the saddle line L4. Since the growth line of the crop on the shoreline L4 substantially overlaps with the shoreline L4, it is difficult to detect the growth line. Therefore, in the present embodiment, attention is paid to the shorelines L3 and L5 existing on both sides of the ridgeline L4 having the largest inclination, and the end point far from the vanishing point is present in the observation region. The shoreline L5 to be selected is selected as the shoreline to be observed.

領域分離処理部13は、ステップS22で選択した畝線上の農作物部分の色をサンプリングし(ステップS23)、農作物領域のセグメンテーションを行う(ステップS24)。すなわち、領域分離処理部13は、観察対象の農作物部分とそれ以外の部分(土壌や雑草、観察対象外の農作物部分)とを領域分離する。   The region separation processing unit 13 samples the color of the crop portion on the shoreline selected in step S22 (step S23), and performs segmentation of the crop region (step S24). That is, the region separation processing unit 13 performs region separation on the crop portion to be observed and the other portions (soil, weeds, crop portions that are not to be observed).

次いで、成長線検出部14bは、選択した畝線のみを含む農作物の領域について畝線以外の直線を検出する(ステップS25)。直線検出の手法は、上述の通り、畝線検出部14aで行う直線検出の手法と全く同様の手法を用いることができる。更に、成長線検出部14bは、畝線の消失点近傍を通る直線のみを成長線として選択する(ステップS26)。図9(c)は、畝線L5、消失点Vpに対し、成長線L0を検出した様子を示している。   Next, the growth line detection unit 14b detects a straight line other than the shoreline for the crop region including only the selected shoreline (step S25). As described above, the straight line detection method may be the same as the straight line detection method performed by the shoreline detection unit 14a. Further, the growth line detection unit 14b selects only a straight line passing through the vicinity of the vanishing point of the shoreline as a growth line (step S26). FIG. 9C shows a state where the growth line L0 is detected with respect to the shoreline L5 and the vanishing point Vp.

次いで、算出部15は、畝線検出部14aが検出した畝線、及び成長線検出部14bが検出した成長線を用いて、農作物の画像上の高さを算出する(ステップS27)。例えば、算出部15は、図9(c)に示すように、成長線L0を検出する際に選択した畝線L5の手前側の端点X0と成長線L0とを垂直に結ぶ線分を求め、その線分の長さh1を農作物の画像上での高さとすることができる。   Next, the calculation unit 15 calculates the height of the crop image on the image using the shoreline detected by the shoreline detection unit 14a and the growth line detected by the growth line detection unit 14b (step S27). For example, as shown in FIG. 9C, the calculation unit 15 obtains a line segment that vertically connects the end point X0 on the near side of the shoreline L5 selected when detecting the growth line L0 and the growth line L0. The length h1 of the line segment can be the height of the crop image.

そして、算出部15は、得られた高さを透視変換を用いて実際の高さに変換することにより、農作物の実際の高さを算出する(ステップS28)。図10は透視変換を用いた高さの算出手法を説明する説明図である。図10に示すように、撮像装置1の高さをy0、撮像装置1から観察対象の畝線の終端までの水平距離をz2、画像投影面までの水平距離をz1、ステップS27で算出した農作物の画像上の高さをh1とした場合、算出部15は、農作物の実際の高さh2を、相似関係より算出することができる。   Then, the calculation unit 15 calculates the actual height of the crop by converting the obtained height to the actual height using perspective transformation (step S28). FIG. 10 is an explanatory diagram for explaining a height calculation method using perspective transformation. As shown in FIG. 10, the height of the imaging device 1 is y0, the horizontal distance from the imaging device 1 to the end of the shoreline to be observed is z2, the horizontal distance to the image projection plane is z1, and the crop calculated in step S27. When the height on the image is h1, the calculation unit 15 can calculate the actual height h2 of the crop from the similarity relationship.

以上のように、本実施の形態では、圃場を撮像した画像から農作物を表す領域を背景領域から分離する領域分離処理、及び育苗期に撮像された画像からは畝線、生育期又は収穫機に撮像された画像からは成長線をそれぞれ検出する直線検出処理を実行し、検出した畝線及び成長線を利用して、農作物の実際の高さを算出することができる。
畝の状態は、降雨、潅水、施肥などの影響を受けて時間の経過と共に変化し得るものであるが、本実施の形態では、初期の段階(育苗期)で畝線を決定しておき、高さ検出の際には、予め定めた畝線を基準として農作物の高さを算出するので、土壌などの周囲の影響を受けることなく農作物の実際の高さを正確に算出することが可能となる。
As described above, in the present embodiment, the region separation process that separates the region representing the crop from the background region from the image captured from the field, and the shoreline, the growing season, or the harvester from the image captured during the seedling growing season. A straight line detection process for detecting a growth line is executed from the captured image, and the actual height of the crop can be calculated using the detected shoreline and growth line.
The state of the cocoon can change over time due to the influence of rainfall, irrigation, fertilization, etc., but in this embodiment, the cocoon line is determined in the initial stage (nursing stage), When detecting the height, the height of the crop is calculated based on a predetermined shoreline, so the actual height of the crop can be accurately calculated without being affected by the surrounding environment such as soil. Become.

実施の形態2.
実施の形態1では、農作物の高さを算出する構成としたが、算出した高さと同時期の基準高さとを比較して農作物の収穫量を予測することが可能である。実施の形態2では、農作物の収穫量を予測する形態について説明を行う。
Embodiment 2. FIG.
In the first embodiment, the height of the crop is calculated. However, it is possible to predict the crop yield by comparing the calculated height with the reference height at the same time. In the second embodiment, a mode of predicting the crop yield will be described.

図11は実施の形態2に係る収穫量予測装置20の機能的構成を示す模式図である。実施の形態2に係る収穫量予測装置20は、実施の形態1で説明した画像取得部11、画像記憶部12、領域分離処理部13、直線検出部14、及び出力部16に加え、高さ算出部21、面積算出部22、標準指標DB23、圃場情報DB24、収穫量予測部25を備える。
画像取得部11、画像記憶部12、領域分離処理部13、直線検出部14、及び出力部16の機能については実施の形態1と同様であるため、その説明を省略することとする。また、高さ算出部21は、実施の形態1で説明した算出部15と全く同様であり、検出した畝線及び成長線を利用して農作物の高さを算出する処理部として機能する。
FIG. 11 is a schematic diagram showing a functional configuration of the yield prediction device 20 according to the second embodiment. In addition to the image acquisition unit 11, the image storage unit 12, the region separation processing unit 13, the straight line detection unit 14, and the output unit 16 described in the first embodiment, the yield prediction device 20 according to the second embodiment has a height. A calculation unit 21, an area calculation unit 22, a standard index DB 23, an agricultural field information DB 24, and a harvest amount prediction unit 25 are provided.
Since the functions of the image acquisition unit 11, the image storage unit 12, the region separation processing unit 13, the straight line detection unit 14, and the output unit 16 are the same as those in the first embodiment, description thereof will be omitted. The height calculation unit 21 is exactly the same as the calculation unit 15 described in the first embodiment, and functions as a processing unit that calculates the height of the crop using the detected shoreline and growth line.

面積算出部22は、育苗期、生育期、及び収穫期の夫々において撮像装置1が撮像した圃場の画像を用いて、農作物の面積を算出する。直線検出部14(畝線検出部14a)にて検出した畝線の数をn本とし、各畝線をLi(i=1〜n)により定義する。面積算出部22は、各畝線Li周辺に対して農作物の色を表す色相の範囲(緑色)の画素を算出する。なお、画素数を算出する領域は、各畝線Liを中心として水平方向の閾値を用いて固定領域としてもよく、農作物の生育段階に応じて領域を広げてもよい。算出した画素数をS(Li)とした場合、面積算出部22は、農作物の面積を、全畝線に対する農作物の画素数の合計ΣS(Li)により算出することができる。   The area calculation unit 22 calculates the area of the crop using the field image captured by the imaging device 1 in each of the seedling growing season, the growing season, and the harvesting season. The number of shore lines detected by the straight line detection unit 14 (the shore line detection unit 14a) is n, and each shore line is defined by Li (i = 1 to n). The area calculation unit 22 calculates pixels in the hue range (green) representing the color of the crops around each shoreline Li. The region for calculating the number of pixels may be a fixed region using a threshold in the horizontal direction around each shoreline Li, or may be expanded according to the growth stage of the crop. When the calculated number of pixels is S (Li), the area calculation unit 22 can calculate the area of the crop by a total ΣS (Li) of the number of pixels of the crop for all the shorelines.

標準指標DB23は、農作物の品目、品種毎に標準収穫量を記憶するデータベースである。また、圃場情報DB24は、圃場毎の実際の圃場面積を記憶するデータベースである。これらのデータベースは、外部からのアクセス要求に応じて、要求されている情報を返すように構成されている。   The standard index DB 23 is a database that stores a standard yield for each item and variety of agricultural products. The field information DB 24 is a database that stores an actual field area for each field. These databases are configured to return requested information in response to external access requests.

収穫量予測部25は、高さ算出部21が算出した農作物の高さ、面積算出部22が算出した農作物面積を用いて、収穫量の予測を行う。収穫量予測部25は、予測収穫量を、例えば、次式により算出することができる。   The harvest amount prediction unit 25 predicts the harvest amount using the crop height calculated by the height calculation unit 21 and the crop area calculated by the area calculation unit 22. The harvest amount prediction unit 25 can calculate the predicted yield, for example, by the following equation.

予測収穫量=標準収穫量×圃場面積×
{1+(農作物面積比−1)×重み1+(農作物高さ比−1)×重み2}
Predicted yield = standard yield x field area x
{1+ (Crop area ratio-1) × Weight 1+ (Crop height ratio-1) × Weight 2}

ここで、標準収穫量は、観察対象の圃場に作付けしている農作物の品目、品種によって異なるので、標準指標DB23から対応する標準収穫量を取得する。また、観察対象の圃場面積については、圃場情報DBから取得する。   Here, since the standard yield varies depending on the items and varieties of crops planted in the field to be observed, the corresponding standard harvest is acquired from the standard index DB 23. Further, the field area to be observed is acquired from the field information DB.

農作物面積比は、同時期の観察領域における標準農作物面積(例えば、収穫量が標準的であった年の農作物面積)に対する、面積算出部22で算出した農作物面積の比率を表す。一方、農作物高さ比も同様に、同時期の観察領域における標準農作物高さ(例えば、収穫量が標準的であった年の農作物の高さ)に対する、高さ算出部21で算出した農作物高さの比率を表す。   The crop area ratio represents the ratio of the crop area calculated by the area calculation unit 22 to the standard crop area (for example, the crop area in the year in which the yield was standard) in the observation region at the same time period. On the other hand, the crop height ratio is similarly calculated by the height calculation unit 21 with respect to the standard crop height (for example, the height of the crop in the year in which the yield was standard) in the observation region of the same period. Represents the ratio.

上記算出式における重み(重み1及び重み2)は、作付け日からの経過日数によって異なる。一般に、作付け直後(播種期〜育苗期)の生育の変動は収穫量へ寄与する確度が低いが、生育期〜収穫期の生育状況の変動は収穫量へ寄与する確度が高い。したがって、収穫量予測部25は、作付け日からの経過日数tが進むにつれて大きくなる関数を、重み関数Wi(t)(ただし、0≦Wi(t)≦1)として用いることが好ましい。図12は重み関数の一例を示す模式図である。播種期における重み関数Wi(t)の値はゼロに近いため、予測収穫量は標準収穫量を基にした値となる。また、収穫日が近づくにつれて重み関数Wi(t)の値が1に近づくため、高さ算出部21で算出した農作物の高さ、面積算出部22で算出した農作物の面積を反映した予測収穫量が上記算出式により求まることになる。   The weights (weight 1 and weight 2) in the above calculation formula differ depending on the number of days elapsed from the planting date. In general, the variation in growth immediately after planting (seeding period to seedling period) has a low probability of contributing to the yield, but the variation in the growth status from the growth period to the harvest period has a high probability of contributing to the yield. Therefore, it is preferable that the harvest amount prediction unit 25 uses a function that increases as the number of elapsed days t from the planting date advances as the weight function Wi (t) (where 0 ≦ Wi (t) ≦ 1). FIG. 12 is a schematic diagram illustrating an example of a weight function. Since the value of the weight function Wi (t) in the sowing period is close to zero, the predicted yield is a value based on the standard yield. Further, since the value of the weight function Wi (t) approaches 1 as the harvest date approaches, the predicted yield that reflects the height of the crop calculated by the height calculation unit 21 and the area of the crop calculated by the area calculation unit 22 Is obtained by the above calculation formula.

また、農作物の品目や品種によっても、重み関数は異なる。例えば、生育段階において最も大きさや高さが変化するタイミングは品目によって異なる。このように変化が顕著に表われるタイミングにて、重みが増えるような関数を設定する。なお、重み関数は既知であるものとし、標準指標DB23に予め登録されており、収穫量予測部25にて品目や品種に応じた重み関数を抽出するものとする。
また、農作物の品目や品種によって、農作物面積比に係る重み1及び農作物高さ比に係る重み2の関数を異ならせることができる。例えば、生育期に高さの変化が大きく、収穫期に面積の変化が大きい場合には、生育期での重み関数は、重み1<重み2となるように設定し、収穫期での重み関数は、重み1>重み2となるように設定することができる。したがって、重み関数は、品目数×品種数×重み種別(重み1及び重み2)の数だけ、標準指標DB23に登録される。
Also, the weight function varies depending on the item and variety of the crop. For example, the timing at which the size and height change most in the growth stage varies depending on the item. In this way, a function that increases the weight is set at a timing at which the change appears remarkably. It is assumed that the weighting function is already known and is registered in advance in the standard index DB 23, and the yield prediction unit 25 extracts the weighting function corresponding to the item and the product type.
Further, the function of the weight 1 related to the crop area ratio and the function of the weight 2 related to the crop height ratio can be made different depending on the item or variety of the crop. For example, when the height change is large during the growing season and the area change is large during the harvesting season, the weighting function in the growing season is set so that weight 1 <weight 2 and the weighting function in the harvesting season is set. Can be set such that weight 1> weight 2. Therefore, as many weight functions as the number of items × number of products × weight types (weight 1 and weight 2) are registered in the standard index DB 23.

以下、予測収穫量の算出手順について説明する。図13は収穫量予測装置20による予測収穫量の算出手順を説明するフローチャートである。画像取得部11は、育苗期、生育期、収穫期の定期的又は適宜のタイミングで撮像装置1から画像を取得し、随時、画像記憶部12に記憶しているものとする。
領域分離処理部13は、画像記憶部12から1つの画像を取得し(ステップS101)、初回判定であるか否かを判断する(ステップS102)。初回判定である場合のみ(S102:YES)、領域分離処理部13は、図5(b)に示すように観察領域の指定を受付ける(ステップS103)。
Hereinafter, the procedure for calculating the predicted yield will be described. FIG. 13 is a flowchart for explaining the procedure for calculating the predicted yield by the yield prediction device 20. It is assumed that the image acquisition unit 11 acquires images from the imaging apparatus 1 at regular or appropriate timings during the seedling period, the growing period, and the harvest period, and stores them in the image storage unit 12 as needed.
The region separation processing unit 13 acquires one image from the image storage unit 12 (step S101), and determines whether or not it is the first determination (step S102). Only in the case of the first determination (S102: YES), the region separation processing unit 13 accepts designation of the observation region as shown in FIG. 5B (step S103).

次いで、領域分離処理部13は、画像記憶部12から取得した画像が播種期に撮像された画像であるか否かを判断する(ステップS104)。播種期に撮像された画像であると判断した場合(S104:YES)、その時点での予測収穫量を収穫量予測部25にて算出し(ステップS110)、出力部16が予測結果を出力する(ステップS111)。   Next, the region separation processing unit 13 determines whether or not the image acquired from the image storage unit 12 is an image captured in the sowing period (step S104). When it is determined that the image is picked up in the sowing period (S104: YES), the predicted yield at that time is calculated by the yield prediction unit 25 (step S110), and the output unit 16 outputs the prediction result. (Step S111).

画像記憶部12から取得した画像が播種期に撮像された画像でないと判断した場合(S104:NO)、領域分離処理部13は、画像記憶部12から取得した画像が育苗期に撮像された画像であるか否かを判断する(ステップS105)。育苗期に撮像された画像であると判断した場合(S105:YES)、領域分離処理部13は、農作物を表す領域と、土壌・雑草などの背景を表す領域とを分離する領域分離処理を行い、領域分離した画像を畝線検出部14aへ出力する。   When it is determined that the image acquired from the image storage unit 12 is not an image captured in the sowing period (S104: NO), the region separation processing unit 13 is an image in which the image acquired from the image storage unit 12 is captured in the seedling period Is determined (step S105). When it is determined that the image is captured during the seedling raising period (S105: YES), the region separation processing unit 13 performs a region separation process for separating a region representing a crop and a region representing a background such as soil and weeds. The region-separated image is output to the shoreline detection unit 14a.

畝線検出部14aは、領域分離処理部13から出力される画像を用いて畝線検出を行う(ステップS107)。畝線の検出手順は、図4に示すフローチャートに従うものとする。次いで、畝線検出部14aは、領域分離された画像及び検出した畝線の情報を面積算出部22へ出力する。   The shoreline detection unit 14a performs shoreline detection using the image output from the region separation processing unit 13 (step S107). The shoreline detection procedure follows the flowchart shown in FIG. Next, the shoreline detection unit 14 a outputs the region-separated image and the detected shoreline information to the area calculation unit 22.

面積算出部22は、畝線検出部14aから出力される画像及び畝線の情報を用いて農作物の面積を算出する(ステップS109)。すなわち、面積算出部22は、畝線検出部14aによって検出された各畝線の周辺に対して農作物の色を表す色相の範囲(緑色)の画素を計数し、全ての畝線について合計することにより、農作物の面積を算出することができる。農作物の面積を算出した後、処理をステップS110へ移行させ、育苗期での予測収穫量を収穫量予測部25にて算出し(S110)、出力部16にて予測結果を出力する(S111)。   The area calculation unit 22 calculates the area of the crop using the image and the information on the shoreline output from the shoreline detection unit 14a (step S109). That is, the area calculation unit 22 counts the pixels in the hue range (green) representing the color of the crop with respect to the periphery of each shoreline detected by the shoreline detection unit 14a, and totals all the shorelines. Thus, the area of the crop can be calculated. After calculating the area of the crop, the process proceeds to step S110, the predicted yield in the seedling season is calculated by the yield prediction unit 25 (S110), and the prediction result is output by the output unit 16 (S111). .

ステップS105において、領域分離処理部13は、画像記憶部12から取得した画像が育苗期に撮像された画像でないと判断した場合(S105:NO)、領域分離処理部13は、画像記憶部12から取得した画像が生育期又は収穫期に撮像された画像であるか否かを判断する(ステップS106)。領域分離処理部13は、生育期又は収穫期に撮像された画像であると判断した場合(S106:YES)、領域分離処理部13は、農作物を表す領域と、土壌・雑草などの背景を表す領域とを分離する領域分離処理を行い、領域分離した画像を成長線検出部14bへ出力する。   In step S105, when the region separation processing unit 13 determines that the image acquired from the image storage unit 12 is not an image captured during the seedling raising period (S105: NO), the region separation processing unit 13 reads from the image storage unit 12. It is determined whether or not the acquired image is an image captured during the growing season or the harvesting season (step S106). When it is determined that the region separation processing unit 13 is an image captured in the growing season or the harvesting season (S106: YES), the region separation processing unit 13 represents a region representing a crop and a background such as soil / weed. A region separation process for separating the region is performed, and the region-separated image is output to the growth line detection unit 14b.

成長線検出部14bは、領域分離処理部13から出力される画像を用いて成長線の検出を行い、検出した成長線と既に検出されている畝線とを利用して農作物の高さを算出する(ステップS108)。農作物の高さ算出手順は、図8に示すフローチャートに従うものとする。次いで、成長線検出部14bは、領域分離された画像及び畝線の情報を面積算出部22へ出力し、面積算出部22にて農作物の面積を算出する(S109)。
農作物の面積を算出した後、処理をステップS110へ移行させ、収穫量予測部25が生育期又は収穫期での予測収穫量を算出し(S110)、出力部16が予測結果を出力する(S111)。なお、収穫量予測部25は、ステップS106において、生育期又は収穫期に撮像された画像でないと判断した場合にも(S106:NO)、予測収穫量の算出を実行する構成としてもよい。
The growth line detection unit 14b detects a growth line using the image output from the region separation processing unit 13, and calculates the height of the crop using the detected growth line and the already detected shoreline. (Step S108). The procedure for calculating the height of the crop is assumed to follow the flowchart shown in FIG. Next, the growth line detection unit 14b outputs the region-separated image and shoreline information to the area calculation unit 22, and the area calculation unit 22 calculates the area of the crop (S109).
After calculating the area of the crop, the process proceeds to step S110, the yield prediction unit 25 calculates the predicted harvest amount in the growing season or the harvest season (S110), and the output unit 16 outputs the prediction result (S111). ). Note that the harvest amount predicting unit 25 may calculate the predicted harvest amount even when it is determined in step S106 that the image is not an image captured during the growing season or the harvesting season (S106: NO).

以上のようにして、本実施の形態では、農作物の生育段階に応じた収穫量の予測が可能となる。特に、生育期及び収穫期では、農作物の面積及び高さの双方を反映させた収穫量の予測が可能となるため、農作物の実際の大きさや単位面積当たりの密度を反映した予測値を取得することができ、正確かつ客観的な収穫量の予測が可能となる。   As described above, according to the present embodiment, it is possible to predict the harvest amount according to the growth stage of the crop. In particular, in the growing season and the harvesting season, it is possible to predict the crop yield that reflects both the area and height of the crop, so obtain a predicted value that reflects the actual size of the crop and the density per unit area. It is possible to accurately and objectively predict the yield.

なお、画像の撮像タイミングによっては、風や降雨による農作物の葉や茎の向きが変化するため、見かけ上の農作物面積や高さが変化する。図14は、農作物面積の実測値の一例を示す図である。農作物面積の実測値は、図14に示すように撮像タイミングに応じて変動が生じるものであるが、例えば、直近の観測値を基に実測値を補正し、補正した値(補正値)を用いて収穫量を予測する構成としてもよい。補正値を用いることにより、撮像タイミングに伴う実測値の変動の影響を小さくすることができ、より正確な収穫量予測が可能となる。なお、上記の補正には、例えば、最小二乗法等の回帰分析を用いることができる。   Depending on the image capturing timing, the direction of the leaves and stems of the crop due to wind and rain changes, so the apparent crop area and height change. FIG. 14 is a diagram illustrating an example of an actual measurement value of a crop area. As shown in FIG. 14, the actual value of the crop area varies depending on the imaging timing. For example, the actual value is corrected based on the latest observed value, and the corrected value (corrected value) is used. The yield may be predicted. By using the correction value, it is possible to reduce the influence of the fluctuation of the actual measurement value accompanying the imaging timing, and it is possible to predict the harvest amount more accurately. For the above correction, for example, a regression analysis such as a least square method can be used.

本実施の形態において、収穫量予測の対象とする農作物は以下の特徴を備えていることが望ましい。実施の形態2においても、収穫量を予測するために農作物の高さを算出しているため、実施の形態1と同様に、ある程度の高さまで垂直に成長する農作物であり、収穫後は農作物全体を圃場から除去するものであることが好ましい。例えば、メロン等の地面に這う野菜は予測に適していない。また、果樹類は収穫後も樹木が残るため予測に適していない。
また、食用とする部分が地上に出ている農作物が好適である。例えば、ジャガイモ、サツマイモ、人参等の根菜類は予測に適していない。
更に、食用とする部分が作物の大分を占める農作物が好適である。例えば、果実や種子が食用となる農作物は、作物の高さ及び面積が収穫量と相関しない場合があるため、本実施の形態に係る収穫量の予測には適していない。
In the present embodiment, it is desirable that the crop to be targeted for yield prediction has the following characteristics. Also in the second embodiment, since the height of the crop is calculated in order to predict the yield, it is a crop that grows vertically to a certain height as in the first embodiment. Is preferably removed from the field. For example, vegetables that crawl on the ground, such as melons, are not suitable for prediction. In addition, fruit trees are not suitable for prediction because trees remain after harvesting.
In addition, crops with edible parts on the ground are suitable. For example, root vegetables such as potato, sweet potato and carrot are not suitable for prediction.
Furthermore, crops in which the edible portion occupies the majority of the crop are suitable. For example, crops that are edible for fruits and seeds are not suitable for predicting the yield according to the present embodiment because the height and area of the crop may not be correlated with the yield.

1 撮像装置
10 算出装置
11 画像取得部
12 画像記憶部
13 領域分離処理部
14 直線検出部
14a 畝線検出部
14b 成長線検出部
15 算出部
16 出力部
DESCRIPTION OF SYMBOLS 1 Imaging device 10 Calculation apparatus 11 Image acquisition part 12 Image memory | storage part 13 Area separation process part 14 Straight line detection part 14a Saddle line detection part 14b Growth line detection part 15 Calculation part 16 Output part

Claims (10)

コンピュータに、
圃場にて線状に複数植立する農作物の画像が記憶された記憶手段を参照して、前記農作物の第1生育段階において撮像された第1画像から、予め定められた農作物の色を表す色相の範囲の情報を基に、前記農作物を表す領域の画像を分離し、
前記第1画像から分離された農作物を表す領域の画像から、圃場面における前記農作物の植立地点に漸近する第1の直線を検出して前記記憶手段に記憶し、
前記記憶手段を参照して、前記第1画像と実質的に同一の位置から、前記農作物の第1生育段階より遅い第2生育段階において撮像された第2画像から前記色相の範囲の情報と前記第1の直線とを基に前記第1の直線上の農作物を表す領域の画像を分離し、
前記第2画像から分離された農作物を表わす領域の画像を基に前記農作物の上端部を通る第2の直線を検出し、
前記第1の直線と前記第2の直線との間の距離に基づいて、前記農作物の高さを算出する
処理を実行させることを特徴とする農作物画像処理プログラム。
On the computer,
A hue representing a predetermined color of the crop from the first image captured in the first growth stage of the crop with reference to storage means storing a plurality of crop images to be planted linearly in the field Based on the information of the range of, the image of the area representing the crop is separated,
From the image of the region representing the crop separated from the first image, a first straight line asymptotic to the planting point of the crop in a farm scene is detected and stored in the storage means,
With reference to the storage means, information on the hue range from a second image captured in a second growth stage that is slower than the first growth stage of the crop, from substantially the same position as the first image, and the Separating an image of a region representing a crop on the first line based on the first line;
Detecting a second straight line passing through the upper end of the crop based on the image of the region representing the crop separated from the second image;
A crop image processing program for executing a process of calculating a height of the crop based on a distance between the first straight line and the second straight line.
前記コンピュータに、
前記農作物を表す領域の画像に基づいて複数の直線を検出し、該複数の直線のうち、該直線の一方の端が前記画像上の同一の点に収束するか、または、前記複数の直線を前記画像外に延長した場合に同一の点を通過する、複数の直線を選択することにより、前記第1の直線を検出する
処理を実行させることを特徴とする請求項1に記載の農作物画像処理プログラム。
In the computer,
A plurality of straight lines are detected based on the image of the region representing the crop, and one end of the straight lines converges to the same point on the image among the plurality of straight lines, or the plurality of straight lines are 2. The crop image processing according to claim 1, wherein a process of detecting the first straight line is executed by selecting a plurality of straight lines that pass through the same point when extended outside the image. program.
前記コンピュータに、
前記複数の第1の直線のうち、前記同一の点から遠い方の端が前記画像上に存在する直線を前記第1の直線として検出する
処理を実行させることを特徴とする請求項2に記載の農作物画像処理プログラム。
In the computer,
3. The process of detecting, as the first straight line, a straight line having an end farther from the same point on the image among the plurality of first straight lines is executed. Crop image processing program.
前記コンピュータに、
前記第1の直線の前記画像内の撮像装置側の端点と前記第2の直線とを垂直に結ぶ線分を求め、前記線分の長さを基に前記農作物の高さを算出する
処理を実行させることを特徴とする請求項1から3のいずれか1つに記載の農作物画像処理プログラム。
In the computer,
A process of obtaining a line segment that vertically connects the end point on the imaging device side in the image of the first straight line and the second straight line, and calculating the height of the crop based on the length of the line segment The crop image processing program according to any one of claims 1 to 3, wherein the crop image processing program is executed.
前記コンピュータに、
前記農作物の高さと予め記憶してある基準高さとを比較して、前記農作物の収穫量を予測する
処理を実行させることを特徴とする請求項1から請求項4の何れか1つに記載の農作物画像処理プログラム。
In the computer,
5. The process according to claim 1, wherein a process for predicting a yield of the crop is executed by comparing the height of the crop with a reference height stored in advance. A crop image processing program.
前記コンピュータに、
前記農作物を表す領域の画像から、前記農作物の作物面積を算出し、
前記農作物の高さ及び前記作物面積を、予め記憶してある基準高さ及び基準面積と比較して、前記農作物の収穫量を予測する
処理を実行させることを特徴とする請求項1から請求項4の何れか1つに記載の農作物画像処理プログラム。
In the computer,
From the image of the area representing the crop, calculate the crop area of the crop,
The height of the said crop and the said crop area are compared with the reference | standard height and reference | standard area which were memorize | stored previously, The process which estimates the crop yield of the said crop is performed. The crop image processing program according to any one of 4 above.
前記コンピュータに、
予測する収穫量に対し、農作物の種類又は農作物の生育段階に応じた重み付けを行う処理
を実行させることを特徴とする請求項5又は請求項6に記載の農作物画像処理プログラム。
In the computer,
The crop image processing program according to claim 5 or 6, wherein a process for weighting the predicted yield is performed according to a type of crop or a growth stage of the crop.
前記コンピュータに、
予測すべき収穫量を、過去に予測した収穫量を用いて補正する処理
を実行させることを特徴とする請求項5から請求項7の何れか1つに記載のコンピュータプログラム。
In the computer,
The computer program according to any one of claims 5 to 7, wherein a process for correcting a harvest amount to be predicted is corrected using a harvest amount predicted in the past.
コンピュータが、
圃場にて線状に複数植立する農作物の画像が記憶された記憶手段を参照して、前記農作物の第1生育段階において撮像された第1画像から、予め定められた農作物の色を表す色相の範囲の情報を基に、前記農作物を表す領域の画像を分離し、
前記第1画像から分離された農作物を表す領域の画像から、圃場面における前記農作物の植立地点に漸近する第1の直線を検出して前記記憶手段に記憶し、
前記記憶手段を参照して、前記第1画像と実質的に同一の位置から、前記農作物の第1生育段階より遅い第2生育段階において撮像された第2画像から前記色相の範囲の情報と前記第1の直線とを基に前記第1の直線上の農作物を表す領域の画像を分離し、
前記第2画像から分離された農作物を表わす領域の画像を基に前記農作物の上端部を通る第2の直線を検出し、
前記第1の直線と前記第2の直線との間の距離に基づいて、前記農作物の高さを算出する
ことを特徴とする農作物画像処理方法。
Computer
A hue representing a predetermined color of the crop from the first image captured in the first growth stage of the crop with reference to storage means storing a plurality of crop images to be planted linearly in the field Based on the information of the range of, the image of the area representing the crop is separated,
From the image of the region representing the crop separated from the first image, a first straight line asymptotic to the planting point of the crop in a farm scene is detected and stored in the storage means,
With reference to the storage means, information on the hue range from a second image captured in a second growth stage that is slower than the first growth stage of the crop, from substantially the same position as the first image, and the Separating an image of a region representing a crop on the first line based on the first line;
Detecting a second straight line passing through the upper end of the crop based on the image of the region representing the crop separated from the second image;
A crop image processing method, wherein the height of the crop is calculated based on a distance between the first straight line and the second straight line.
圃場にて線状に複数植立する農作物の画像を記憶する記憶部と、
該記憶部を参照して、前記農作物の第1生育段階において撮像された第1画像から、予め定められた農作物の色を表す色相の範囲の情報を基に、前記農作物を表す領域の画像を分離する第1の領域分離処理部と、
前記第1画像から分離された農作物を表す領域の画像から、圃場面における前記農作物の植立地点に漸近する第1の直線を検出して前記記憶部に記憶する第1の直線検出部と、
前記記憶部を参照して、前記第1画像と実質的に同一の位置から、前記農作物の第1生育段階より遅い第2生育段階において撮像された第2画像から前記色相の範囲の情報と前記第1の直線とを基に前記第1の直線上の農作物を表す領域の画像を分離する第2の領域分離処理部と、
前記第2画像から分離された農作物を表わす領域の画像を基に前記農作物の上端部を通る第2の直線を検出する第2の直線検出部と、
前記第1の直線と前記第2の直線との間の距離に基づいて、前記農作物の高さを算出する算出部と
を備えることを特徴とする農作物画像処理装置。
A storage unit for storing images of a plurality of crops to be planted linearly in a field;
With reference to the storage unit, from the first image captured in the first growth stage of the crop, an image of a region representing the crop is obtained based on information on a hue range representing a predetermined color of the crop. A first region separation processing unit for separation;
A first straight line detection unit that detects a first straight line asymptotic to a planting point of the crop in a farm scene from an image of a region representing the crop separated from the first image, and stores the first straight line in the storage unit;
With reference to the storage unit, information on the hue range from a second image captured in a second growth stage that is slower than the first growth stage of the crop, from substantially the same position as the first image, and the information A second region separation processing unit for separating an image of a region representing the crop on the first straight line based on the first straight line;
A second straight line detector for detecting a second straight line passing through the upper end of the crop based on the image of the region representing the crop separated from the second image;
A crop image processing apparatus comprising: a calculation unit that calculates a height of the crop based on a distance between the first straight line and the second straight line.
JP2011061608A 2011-03-18 2011-03-18 Crop image processing program, crop image processing method, and crop image processing apparatus Active JP5626056B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011061608A JP5626056B2 (en) 2011-03-18 2011-03-18 Crop image processing program, crop image processing method, and crop image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011061608A JP5626056B2 (en) 2011-03-18 2011-03-18 Crop image processing program, crop image processing method, and crop image processing apparatus

Publications (2)

Publication Number Publication Date
JP2012198688A true JP2012198688A (en) 2012-10-18
JP5626056B2 JP5626056B2 (en) 2014-11-19

Family

ID=47180855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011061608A Active JP5626056B2 (en) 2011-03-18 2011-03-18 Crop image processing program, crop image processing method, and crop image processing apparatus

Country Status (1)

Country Link
JP (1) JP5626056B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106651844A (en) * 2016-12-16 2017-05-10 山东锋士信息技术有限公司 Apple growing period recognition method based on image analysis
US20180177123A1 (en) * 2016-12-27 2018-06-28 Kubota Corporation Work Vehicle
JP2018173917A (en) * 2017-03-31 2018-11-08 株式会社日本総合研究所 Information processing apparatus, program, information processing system and data structure
WO2018235486A1 (en) * 2017-06-23 2018-12-27 株式会社クボタ Harvester
JP2019004772A (en) * 2017-06-23 2019-01-17 株式会社クボタ Harvesting machine
JP2019004771A (en) * 2017-06-23 2019-01-17 株式会社クボタ Combine
JP2019004773A (en) * 2017-06-23 2019-01-17 株式会社クボタ Harvesting machine
EP3383160A4 (en) * 2015-12-02 2019-04-10 The Climate Corporation Forecasting field level crop yield during a growing season
JP2019097447A (en) * 2017-11-30 2019-06-24 株式会社デンソー Harvest robot system
JP2019193581A (en) * 2018-05-01 2019-11-07 株式会社クボタ Plant cultivation system
JP2020074141A (en) * 2020-01-08 2020-05-14 株式会社日本総合研究所 Information processing apparatus, program, information processing system and data structure
JPWO2020189553A1 (en) * 2019-03-18 2020-09-24
JP2020529686A (en) * 2017-10-27 2020-10-08 全北大学 産学協力団Industrial Cooperation Foundation Chonbuk National University Devices and methods for identifying crops and weeds by learning neural networks
WO2021100429A1 (en) * 2019-11-18 2021-05-27 ソニー株式会社 Information processing device, information processing method, and program
WO2021149355A1 (en) * 2020-01-21 2021-07-29 ソニーグループ株式会社 Information processing device, information processing method, and program
KR20220012108A (en) * 2020-07-22 2022-02-03 주식회사 굴리 Apparatus and method for determining sowing time of sprout crops using image reading

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4211921A (en) * 1978-02-03 1980-07-08 Iseki Agricultural Machinery Mfg. Co. Ltd. Sensor for use in controlling operation of mobile farming machine
JPH0488917A (en) * 1990-07-30 1992-03-23 Kubota Corp Guiding device of fruit vegetable harvester
JPH0614611A (en) * 1992-06-30 1994-01-25 Kubota Corp Device for detecting line of crop
US5442552A (en) * 1993-03-16 1995-08-15 The Regents Of The University Of California Robotic cultivator
JPH0981749A (en) * 1995-09-18 1997-03-28 Iseki & Co Ltd Fruit recognition device
US5911669A (en) * 1996-04-19 1999-06-15 Carnegie Mellon University Vision-based crop line tracking for harvesters
JP2002136223A (en) * 2000-11-06 2002-05-14 Mitsubishi Heavy Ind Ltd Method for predicting crop yield of field crop, apparatus for predicting crop yield of field crop and recording medium
JP2004012233A (en) * 2002-06-05 2004-01-15 Fuji Heavy Ind Ltd Apparatus and method for detecting agricultural product
JP2005229818A (en) * 2004-02-17 2005-09-02 Hitachi Ltd System and method each for analyzing plant growth
JP2006101816A (en) * 2004-10-08 2006-04-20 Univ Of Tokyo Method and apparatus for controlling steering
JP2007043919A (en) * 2005-08-08 2007-02-22 Kubota Corp Image processor for working vehicle

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4211921A (en) * 1978-02-03 1980-07-08 Iseki Agricultural Machinery Mfg. Co. Ltd. Sensor for use in controlling operation of mobile farming machine
JPH0488917A (en) * 1990-07-30 1992-03-23 Kubota Corp Guiding device of fruit vegetable harvester
JPH0614611A (en) * 1992-06-30 1994-01-25 Kubota Corp Device for detecting line of crop
US5442552A (en) * 1993-03-16 1995-08-15 The Regents Of The University Of California Robotic cultivator
JPH0981749A (en) * 1995-09-18 1997-03-28 Iseki & Co Ltd Fruit recognition device
US5911669A (en) * 1996-04-19 1999-06-15 Carnegie Mellon University Vision-based crop line tracking for harvesters
JP2002136223A (en) * 2000-11-06 2002-05-14 Mitsubishi Heavy Ind Ltd Method for predicting crop yield of field crop, apparatus for predicting crop yield of field crop and recording medium
JP2004012233A (en) * 2002-06-05 2004-01-15 Fuji Heavy Ind Ltd Apparatus and method for detecting agricultural product
JP2005229818A (en) * 2004-02-17 2005-09-02 Hitachi Ltd System and method each for analyzing plant growth
JP2006101816A (en) * 2004-10-08 2006-04-20 Univ Of Tokyo Method and apparatus for controlling steering
JP2007043919A (en) * 2005-08-08 2007-02-22 Kubota Corp Image processor for working vehicle

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3383160A4 (en) * 2015-12-02 2019-04-10 The Climate Corporation Forecasting field level crop yield during a growing season
US11062223B2 (en) 2015-12-02 2021-07-13 The Climate Corporation Forecasting field level crop yield during a growing season
CN106651844B (en) * 2016-12-16 2021-04-02 山东锋士信息技术有限公司 Apple growth period identification method based on image analysis
CN106651844A (en) * 2016-12-16 2017-05-10 山东锋士信息技术有限公司 Apple growing period recognition method based on image analysis
US20180177123A1 (en) * 2016-12-27 2018-06-28 Kubota Corporation Work Vehicle
US10524416B2 (en) * 2016-12-27 2020-01-07 Kubota Corporation Work vehicle
JP2018173917A (en) * 2017-03-31 2018-11-08 株式会社日本総合研究所 Information processing apparatus, program, information processing system and data structure
JP2019004772A (en) * 2017-06-23 2019-01-17 株式会社クボタ Harvesting machine
JP2019004773A (en) * 2017-06-23 2019-01-17 株式会社クボタ Harvesting machine
JP2019004771A (en) * 2017-06-23 2019-01-17 株式会社クボタ Combine
JP7068781B2 (en) 2017-06-23 2022-05-17 株式会社クボタ Harvester
WO2018235486A1 (en) * 2017-06-23 2018-12-27 株式会社クボタ Harvester
JP2020529686A (en) * 2017-10-27 2020-10-08 全北大学 産学協力団Industrial Cooperation Foundation Chonbuk National University Devices and methods for identifying crops and weeds by learning neural networks
JP2019097447A (en) * 2017-11-30 2019-06-24 株式会社デンソー Harvest robot system
JP7049814B2 (en) 2017-11-30 2022-04-07 株式会社デンソー Harvest robot system
JP2019193581A (en) * 2018-05-01 2019-11-07 株式会社クボタ Plant cultivation system
JP7130203B2 (en) 2018-05-01 2022-09-05 株式会社クボタ plant cultivation system
JPWO2020189553A1 (en) * 2019-03-18 2020-09-24
WO2020189553A1 (en) * 2019-03-18 2020-09-24 株式会社ナイルワークス Harvest amount prediction system, harvest amount prediction method, harvest amount prediction program, and harvest period prediction system
JP7169022B2 (en) 2019-03-18 2022-11-10 株式会社ナイルワークス Harvest forecast system, harvest forecast method, harvest forecast program, and harvest time forecast system
WO2021100429A1 (en) * 2019-11-18 2021-05-27 ソニー株式会社 Information processing device, information processing method, and program
JP7018464B2 (en) 2020-01-08 2022-02-10 株式会社日本総合研究所 Information processing equipment and programs
JP2020074141A (en) * 2020-01-08 2020-05-14 株式会社日本総合研究所 Information processing apparatus, program, information processing system and data structure
WO2021149355A1 (en) * 2020-01-21 2021-07-29 ソニーグループ株式会社 Information processing device, information processing method, and program
KR20220012108A (en) * 2020-07-22 2022-02-03 주식회사 굴리 Apparatus and method for determining sowing time of sprout crops using image reading
KR102446453B1 (en) * 2020-07-22 2022-09-22 주식회사 굴리 Apparatus and method for determining sowing time of sprout crops using image reading

Also Published As

Publication number Publication date
JP5626056B2 (en) 2014-11-19

Similar Documents

Publication Publication Date Title
JP5626056B2 (en) Crop image processing program, crop image processing method, and crop image processing apparatus
Boschetti et al. PhenoRice: A method for automatic extraction of spatio-temporal information on rice crops using satellite data time series
US11744189B2 (en) Plant treatment based on morphological and physiological measurements
Son et al. Classification of multitemporal Sentinel-2 data for field-level monitoring of rice cropping practices in Taiwan
Jin et al. High-throughput measurements of stem characteristics to estimate ear density and above-ground biomass
CN113223040B (en) Banana estimated yield method and device based on remote sensing, electronic equipment and storage medium
JP6960698B2 (en) Crop-related value derivation device and crop-related value derivation method
CN115620151B (en) Method and device for identifying phenological period, electronic equipment and storage medium
Zheng et al. Deep learning for strawberry canopy delineation and biomass prediction from high-resolution images
Narra et al. A data driven approach to decision support in farming
JP2022060277A (en) Crop related value derivation device and crop related value derivation method
KR102542660B1 (en) Apparatus and method for providing crop recommendation service
CN114663778A (en) Method and device for improving crop yield
Jovanović et al. Crop yield estimation in 2014 for Vojvodina using methods of remote sensing
Singla et al. Extraction of Crop Information from Reconstructed Landsat Data in Himalayan Foothills Region
Aktas et al. Phenology based NDVI time-series compensation for yield estimation analysis
Devi et al. Survey on Various Methods and Algorithms used for Plant Pest and Diseases
Rouault et al. Using high spatial resolution satellite imagery for improved agricultural management of Mediterranean orchards
WO2022209284A1 (en) Information processing device, information processing method, and program
KR102641014B1 (en) Apparatus and method of measuring crop water stress using an infrared camera
Vemula UAS-based remote sensing for weed identification and cover crop termination determination
Hatton et al. Comparison of aerial and ground remote sensing to quantify sudden death syndrome in soybeans
Lopez Regression analysis of UAV collected cotton crop data for yield prediction
Mouton Regional mapping of crops under agricultural nets using Sentinel-2
Vong Quantifying Corn Emergence Using UAV Imagery and Machine Learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140811

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140915

R150 Certificate of patent or registration of utility model

Ref document number: 5626056

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150