JP2828520B2 - Crop row detection device for work equipment - Google Patents

Crop row detection device for work equipment

Info

Publication number
JP2828520B2
JP2828520B2 JP3106975A JP10697591A JP2828520B2 JP 2828520 B2 JP2828520 B2 JP 2828520B2 JP 3106975 A JP3106975 A JP 3106975A JP 10697591 A JP10697591 A JP 10697591A JP 2828520 B2 JP2828520 B2 JP 2828520B2
Authority
JP
Japan
Prior art keywords
crop
representative point
pixel
pixel area
extracting means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP3106975A
Other languages
Japanese (ja)
Other versions
JPH04336383A (en
Inventor
正徳 藤原
保生 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kubota Corp
Original Assignee
Kubota Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kubota Corp filed Critical Kubota Corp
Priority to JP3106975A priority Critical patent/JP2828520B2/en
Publication of JPH04336383A publication Critical patent/JPH04336383A/en
Application granted granted Critical
Publication of JP2828520B2 publication Critical patent/JP2828520B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、列状に並ぶ複数個の作
物を含む所定範囲の圃場面を、機体進行方向斜め前方下
向きに撮像する撮像手段と、その撮像手段による撮像画
像情報に基づいて、前記作物に対応する画素領域を抽出
する画素領域抽出手段と、この画素領域抽出手段によっ
て抽出された画素領域情報に基づいて、前記画素領域の
代表点を抽出する代表点抽出手段と、前記代表点抽出手
段によって抽出された代表点を結ぶ線分を直線近似する
直線近似手段とが設けられている作業機用の作物列検出
装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image pickup means for picking up an image of a field scene of a predetermined range including a plurality of crops arranged in a row in an obliquely forward and downward direction in the body traveling direction, and image information obtained by the image pickup means. A pixel area extracting means for extracting a pixel area corresponding to the crop; a representative point extracting means for extracting a representative point of the pixel area based on the pixel area information extracted by the pixel area extracting means; The present invention relates to a crop line detection device for a working machine, provided with linear approximation means for linearly approximating a line segment connecting representative points extracted by representative point extraction means.

【0002】[0002]

【従来の技術】従来、この種の作業機用の作物列検出装
置においては、前記作物に対応して抽出された画素領域
情報に基づいて、各画素領域の代表点を抽出する場合、
その画素領域の重心位置を検出して代表点としていた。
そして、得られた代表点を結ぶ直線を、作物列の未植え
側と既植え側の境界線に対応する線分と判定していた。
2. Description of the Related Art Conventionally, in a crop row detecting apparatus for a work machine of this type, when a representative point of each pixel area is extracted based on pixel area information extracted corresponding to the crop,
The position of the center of gravity of the pixel area is detected and used as a representative point.
Then, the straight line connecting the obtained representative points was determined to be a line segment corresponding to the boundary line between the unplanted side and the already planted side of the crop row.

【0003】[0003]

【発明が解決しようとする課題】ところが、上記従来の
装置では、撮像手段の作物を撮像する方向が、機体進行
方向斜め前方下向きである為に、前記画素領域の重心位
置は作物の株元位置と一致しておらず、また、機体に近
い位置にある作物と遠い位置にある作物とでは、前記重
心位置と株元位置との距離のずれも異なり、結局、作物
の植え付け位置を正確に検出することができなかった。
更に、作物が傾いたり、あるいは倒れている場合等に
は、前記検出の精度はより悪いものになっていた。従っ
て、単に重心位置を代表点として結ぶ方法では、作物列
に対応する線分を正しく求められない虞があった。
However, in the above-mentioned conventional apparatus, the direction of imaging of the crop by the imaging means is obliquely forward and downward in the body traveling direction. In addition, the difference between the center of gravity position and the root position of the plant differs between the crop located closer to the aircraft and the crop located farther from the aircraft. I couldn't.
Further, when the crop is tilted or falls down, the accuracy of the detection is worse. Therefore, in the method of simply connecting the position of the center of gravity as a representative point, there is a possibility that a line segment corresponding to a crop row cannot be obtained correctly.

【0004】本発明は、上記実情に鑑みてなされたもの
であって、その目的は、作物迄の距離やその植え付け状
態による影響を受けずに、作物の植え付け位置を確実に
識別して、未植え側と既植え側の境界線を精度良く検出
できる作業機用の作物列検出装置を提供することにあ
る。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and an object of the present invention is to reliably identify a planting position of a crop without being influenced by a distance to the crop or a planting state of the crop. It is an object of the present invention to provide a crop line detecting device for a working machine that can accurately detect a boundary between a planting side and a planted side.

【0005】[0005]

【課題を解決するための手段】本発明の作物列検出装置
の第一の特徴構成は、前記代表点抽出手段が、前記画素
領域を構成する画素のうち、機体進行方向に沿う画面座
標軸方向で、前記作物の株元側に最も近く位置する画素
を、前記代表点とするように構成されている点にある。
According to a first characteristic configuration of the crop row detecting apparatus of the present invention, the representative point extracting means is arranged such that, among the pixels constituting the pixel area, the pixels are arranged in a screen coordinate axis direction along a body traveling direction. , A pixel located closest to the base of the crop is set as the representative point.

【0006】また第二の特徴構成は、前記画素領域の主
軸方向を検出する主軸方向検出手段が設けられており、
前記主軸方向のうちの長軸方向と、機体進行方向に沿う
画面座標軸とのなす角度が、所定の範囲から外れている
時には、前記代表点抽出手段が前記代表点を抽出しない
ように構成されている点にある。
A second characteristic configuration is that a main axis direction detecting means for detecting a main axis direction of the pixel region is provided.
When the angle between the major axis direction of the main axis direction and the screen coordinate axis along the body advancing direction is out of a predetermined range, the representative point extracting means is configured not to extract the representative point. There is in the point.

【0007】また第三の特徴構成は、前記代表点抽出手
段が、前記作物の株元側に最も近く位置する画素を複数
個抽出した場合には、これら複数個の各画素を通り、前
記機体進行方向に沿う画面座標軸に平行な方向で、前記
画素領域の画素数が多い方の画素を、前記代表点とする
ように構成されている点にある。
[0007] A third characteristic configuration is that, when the representative point extracting means extracts a plurality of pixels located closest to the root of the crop, the representative point extracting means passes through each of the plurality of pixels and passes through the airframe. The point is that the pixel having the larger number of pixels in the pixel area in the direction parallel to the screen coordinate axis along the traveling direction is configured as the representative point.

【0008】[0008]

【作用】第一の特徴構成によれば、撮像手段が列状に並
ぶ複数個の作物を含む所定範囲の圃場面を機体進行方向
斜め前方下向きに撮像した撮像画像情報に基づいて、画
素抽出手段が前記作物に対応して抽出した画素領域情報
に対し、代表点抽出手段が、前記画素領域を構成する画
素のうち、機体進行方向に沿う画面座標軸方向で、前記
作物の株元側に最も近く位置する画素を前記画素領域の
代表点として抽出し、次に、直線近似手段が、これらの
代表点を結んだ直線を、作物列の未植え側と既植え側の
境界線に対応する線分として直線近似する。
According to the first characteristic configuration, the pixel extracting means is based on image information obtained by imaging the field scene of a predetermined range including a plurality of crops arranged in a row obliquely forward and downward in the machine body traveling direction. In response to the pixel area information extracted corresponding to the crop, the representative point extracting means, among the pixels forming the pixel area, in the direction of the screen coordinate axis along the machine body traveling direction, closest to the root side of the crop. A pixel located is extracted as a representative point of the pixel area, and then a straight line approximation unit draws a straight line connecting these representative points as a line segment corresponding to a boundary between the unplanted side and the already planted side of the crop row. Is approximated by a straight line.

【0009】ここにおいて、作物の株元側に最も近く位
置する画素を代表点として抽出するのであるから、機体
と作物位置との距離の遠近に影響されず、確実に作物の
植え付け位置を代表点として識別出来ることになる。
Here, since the pixel located closest to the plant root side of the crop is extracted as the representative point, the planting position of the crop is surely determined by the representative point without being affected by the distance between the aircraft and the crop position. Can be identified as

【0010】また、第二の特徴構成によれば、撮像手段
が列状に並ぶ複数個の作物を含む所定範囲の圃場面を機
体進行方向斜め前方下向きに撮像した撮像画像情報に基
づいて、画素抽出手段が前記作物に対応して抽出した画
素領域情報に対し、主軸方向検出手段が前記画素領域の
主軸方向を検出し、その主軸方向のうちの長軸方向と機
体進行方向に沿う画面座標軸とのなす角度が、所定の範
囲内である時には、代表点抽出手段が、前記画素領域を
構成する画素のうち、機体進行方向に沿う画面座標軸方
向で、前記作物の株元側に最も近く位置する画素を代表
点として抽出し、一方、前記の角度が所定の範囲外であ
る時には、代表点抽出手段が、代表点の抽出をせず、次
に、直線近似手段が、抽出された代表点を結んだ直線
を、作物列の未植え側と既植え側の境界線に対応する線
分として直線近似する。
[0010] According to the second characteristic configuration, the image pickup means captures a pixel image of a predetermined range of field scenes including a plurality of crops arranged in a row in a diagonally forward and downward direction in the machine body traveling direction. With respect to the pixel area information extracted corresponding to the crop by the extraction means, the main axis direction detection means detects the main axis direction of the pixel area, and the screen coordinate axes along the long axis direction and the aircraft traveling direction among the main axis directions. When the angle formed is within a predetermined range, the representative point extracting means is located closest to the root side of the crop in the direction of the screen coordinate axis along the body moving direction among the pixels constituting the pixel area. The pixel is extracted as a representative point.On the other hand, when the angle is out of the predetermined range, the representative point extracting unit does not extract the representative point, and then the linear approximation unit extracts the extracted representative point. Connected straight line, unplanted crop row Linear approximation as a line segment corresponding to the already planted side of the boundary line between.

【0011】ここにおいて、作物に対応して抽出された
前記画素領域の長軸方向は、作物の茎方向に対応してい
ると考えられるので、上記長軸方向と機体進行方向に沿
う画面座標軸とのなす角度の判別により、大きく傾いた
り、あるいは倒れている作物が検出対象から除外出来る
ことになる。
Here, the major axis direction of the pixel region extracted corresponding to the crop is considered to correspond to the stem direction of the crop, so that the screen coordinate axis along the major axis direction and the machine body traveling direction is used. By judging the angle of the crop, a crop that is greatly inclined or falls can be excluded from the detection target.

【0012】また、第三の特徴構成によれば、撮像手段
が列状に並ぶ複数個の作物を含む所定範囲の圃場面を機
体進行方向斜め前方下向きに撮像した撮像画像情報に基
づいて、画素抽出手段が前記作物に対応して抽出した画
素領域情報に対し、代表点抽出手段が、前記画素領域を
構成する画素のうち、機体進行方向に沿う画面座標軸方
向で、前記作物の株元側に最も近く位置する画素を複数
個抽出した場合には、これら複数個の各画素を通り、前
記機体進行方向に沿う画面座標軸に平行な方向で、前記
画素領域の画素数が多い方の画素を、代表点として抽出
し、次に、直線近似手段が、これらの代表点を結んだ直
線を、作物列の未植え側と既植え側の境界線に対応する
線分として直線近似する。
[0012] According to the third characteristic configuration, the image pickup means captures the image of the field scene in a predetermined range including a plurality of crops arranged in a row in a diagonally forward and downward direction in the machine body traveling direction, based on the image information. With respect to the pixel area information extracted corresponding to the crop by the extraction means, the representative point extraction means sets the pixels included in the pixel area in the direction of the screen coordinate axis along the machine body traveling direction, on the stock source side of the crop. When a plurality of pixels located closest to each other are extracted, a pixel passing through each of the plurality of pixels and having a larger number of pixels in the pixel region in a direction parallel to a screen coordinate axis along the aircraft traveling direction is defined as: Then, the straight line approximation unit linearly approximates a straight line connecting these representative points as a line segment corresponding to the boundary between the unplanted side and the already planted side of the crop row.

【0013】ここにおいて、上記画素領域の画素数が多
い方向は、作物の茎方向に対応していると考えられるの
で、上記画素領域の画素数が多い方の株元側に最も近く
位置する画素を、代表点として抽出することで、より正
確に作物の植え付け位置を識別出来ることになる。
Here, since the direction in which the number of pixels in the pixel region is large is considered to correspond to the direction of the stem of the crop, the pixel located closest to the root side of the pixel region in which the number of pixels in the pixel region is large is considered. By extracting as a representative point, the planting position of the crop can be more accurately identified.

【0014】[0014]

【発明の効果】従って、作物迄の距離やその植え付け状
態による影響を受けずに、作物の植え付け位置を確実に
識別して、未植え側と既植え側の境界線を精度良く検出
できる作業機用の作物列検出装置を提供することがで
き、ひいては、作物植えつけ機等の作業機の操向制御を
安定に行えるものとなる。
Accordingly, the working machine which can reliably identify the planting position of the crop and can accurately detect the boundary between the unplanted side and the already planted side without being affected by the distance to the crop or the planting state thereof. The present invention can provide a crop row detection device for use, and can stably control the steering of a working machine such as a crop planting machine.

【0015】[0015]

【実施例】以下、本発明を作物植え付け機としての田植
え機に適用し、圃場に植え付けられた苗列の位置を検出
する装置の実施例を図面に基づいて説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a device for detecting the position of a seedling row planted in a field by applying the present invention to a rice planting machine as a crop planting machine will be described below with reference to the drawings.

【0016】図7及び図8に示すように、前輪1F及び
後輪1Rの何れをもステアリング操作自在に構成された
機体Vの後方に、苗植え付け装置2が昇降自在に設けら
れ、その苗植え付け装置2にて植え付けられた列状に並
ぶ複数個の作物としての複数個の既植苗Tを含む所定範
囲の圃場面を撮像する撮像手段としてのカラー式のイメ
ージセンサSが、前記機体Vの前方側に設けられてい
る。
As shown in FIG. 7 and FIG. 8, a seedling planting device 2 is provided at the rear of an airframe V having both front wheels 1F and rear wheels 1R operable for steering operation. A color image sensor S as an imaging unit for imaging a predetermined range of field scenes including a plurality of planted seedlings T as a plurality of crops planted in a row in the device 2 is provided in front of the machine body V. It is provided on the side.

【0017】前記イメージセンサSの取り付け構造につ
いて説明すれば、前記機体Vの横外側方に向かって突出
された支持部材4の先端部に、前記機体Vに対して機体
横外側方に隣接する既植苗列を機体進行方向に向かって
斜め上方から撮像するように設けられている。つまり、
前記機体Vが機体進行方向に沿って並ぶ複数個の既植苗
Tの列に対して適正に沿っている状態において、その既
植苗列に対応する線分Lが、前記イメージセンサSの撮
像視野の中央を前後方向に通る走行基準線Laに一致す
るようにしてある。又、前記イメージセンサSは、機体
Vの左右夫々に各一個が設けられ、使用する側のセンサ
を左右切り換え可能になっている。
The mounting structure of the image sensor S will be described. The front end of the support member 4 protruding laterally outward of the body V is provided adjacent to the body V laterally outward of the body V. It is provided so that an image of a seedling row may be taken obliquely from above in the machine traveling direction. That is,
In a state where the body V is properly aligned with a plurality of rows of the already-planted seedlings T arranged in the body traveling direction, a line segment L corresponding to the already-planted seedling row is a line segment L of the imaging field of the image sensor S. The running reference line La passes through the center in the front-rear direction. One image sensor S is provided on each of the right and left sides of the machine body V, and the sensor on the side to be used can be switched left and right.

【0018】前記機体Vの制御構成について説明すれ
ば、図1に示すように、エンジンEの出力が変速装置5
を介して前記前輪1F及び前記後輪1Rの夫々に伝達さ
れ、前記変速装置5による変速操作状態が予め設定され
た設定走行速度に対応する操作状態となるように、変速
状態検出用ポテンショメータR3 が設けられ、そして、
その変速状態検出用ポテンショメータR3 の検出情報に
基づいて、変速用電動モータ6を駆動するように構成さ
れている。又、前記前輪1F及び前記後輪1Rは、夫々
油圧シリンダ7F,7Rによって各別にパワーステアリ
ング操作されるように構成され、車輪のステアリング操
作に連動するステアリング角検出用ポテンショメータR
1,R2 による検出ステアリング角が目標ステアリング角
となるように、前記油圧シリンダ7F,7Rを作動させ
る電磁操作式の制御弁8F,8Rを駆動するように構成
されている。
The control structure of the machine body V will be described. As shown in FIG.
Is transmitted to the front wheel 1F and the rear wheel 1R via the transmission gear 5 so that the speed change operation state by the transmission 5 becomes the operation state corresponding to the preset set traveling speed. Provided, and
The shift electric motor 6 is driven based on the information detected by the shift state detecting potentiometer R3. Further, the front wheel 1F and the rear wheel 1R are configured to be individually power-steered by hydraulic cylinders 7F and 7R, respectively, and a steering angle detecting potentiometer R interlocked with the steering operation of the wheels.
The electromagnetically operated control valves 8F and 8R for operating the hydraulic cylinders 7F and 7R are driven so that the steering angle detected by 1, R2 becomes the target steering angle.

【0019】次に、前記イメージセンサSの撮像情報に
基づいて、前記既植苗列に対応する線分を直線近似する
情報を得るための制御構成について説明する。図1に示
すように、前記イメージセンサSは、三原色情報R,
G,Bを各別に出力するように構成され、そして、苗T
の色成分を含む緑色情報Gから苗Tの色成分を含まない
青色情報Bを減算して2値化することにより、前記苗T
に対応する画素領域Taを抽出するように構成されてい
る。説明を加えれば、前記緑色情報Gから前記青色情報
Bをアナログ信号の状態で減算する減算器9、その減算
器9の出力を前記苗Tの色に対応して予め設定された設
定閾値に基づいて2値化して前記画素領域Ta に対応す
る2値化情報を出力するコンパレータ10、そのコンパ
レータ10の出力信号を予め設定された画素密度(32×
32画素/1画面に設定してある)に対応した画像情報と
して記憶する画像メモリ11、及び、この画像メモリ1
1に記憶された情報に基づいて前記画素領域Ta を結ぶ
線分を直線近似する情報を求めると共に、その情報に基
づいて走行制御するマイクロコンピュータ利用の制御装
置12の夫々が設けられている。
Next, a control configuration for obtaining information that linearly approximates a line segment corresponding to the already planted seedling row based on the imaging information of the image sensor S will be described. As shown in FIG. 1, the image sensor S includes three primary color information R,
G and B are separately output, and the seedling T
By subtracting the blue information B not including the color component of the seedling T from the green information G including the color component
Is extracted. In addition, a subtracter 9 for subtracting the blue information B from the green information G in the form of an analog signal, and outputs the subtractor 9 based on a preset threshold value corresponding to the color of the seedling T A comparator 10 that binarizes the data to output binarized information corresponding to the pixel area Ta, and outputs an output signal of the comparator 10 to a predetermined pixel density (32 ×
An image memory 11 for storing image information corresponding to 32 pixels / 1 screen), and an image memory 1
A microcomputer-based control device 12 is provided for obtaining information for linearly approximating a line segment connecting the pixel regions Ta based on the information stored in 1 and controlling the running based on the information.

【0020】つまり、前記減算器9及び前記コンパレー
タ10が、前記苗Tに対応する前記画素領域Ta を抽出
する画素領域抽出手段100に対応することになり、そ
して、前記制御装置12を利用して、前記画素領域Ta
を結ぶ線分Lを直線近似する情報を求める直線近似手段
101、及び、前記画素領域Ta の画像上における位置
を代表する点の位置情報を求める代表点抽出手段102
の夫々が構成されることになる。
In other words, the subtractor 9 and the comparator 10 correspond to the pixel region extracting means 100 for extracting the pixel region Ta corresponding to the seedling T. , The pixel area Ta
Linear approximation means 101 for obtaining information for linear approximation of a line segment L connecting the two, and representative point extracting means 102 for obtaining position information of a point representing the position of the pixel area Ta on the image
Are configured.

【0021】次に、図2に示すフローチャートに基づい
て、前記制御装置12の動作を説明しながら、各部の構
成について詳述すれば、前記機体Vが設定距離を走行す
る毎、又は、設定時間毎に、前記イメージセンサSによ
る撮像処理が実行され、この後、前記画素領域抽出手段
100によって前記苗Tに対応する前記画素領域Taが
抽出されることになる(図3参照)。尚、図3中にある
画素Ta は、前記苗Tの既植え部分Mと未植え部分Nと
の境界に位置する画素を示す。
Next, the operation of the control device 12 will be described with reference to the flow chart shown in FIG. 2, and the configuration of each part will be described in detail. Each time, the image sensor S performs an imaging process, and thereafter, the pixel region Ta corresponding to the seedling T is extracted by the pixel region extracting means 100 (see FIG. 3). The pixel Ta in FIG. 3 indicates a pixel located at the boundary between the planted portion M and the unplanted portion N of the seedling T.

【0022】ここで、前記画素領域抽出手段100の動
作について説明を加えれば、イメージセンサSから出力
される三原色情報のうちの緑色成分Gと青色成分Bとの
強度について、苗Tが存在する部分、泥面に対応する部
分、自然光を反射する水面部分夫々に対して考察する
と、苗Tが存在する部分では、緑色成分Gの強度が大
で、且つ、青色成分Bの強度が小となる。又、泥面に対
応する部分では、緑色成分G及び青色成分Bのいずれの
強度も小となる。さらに、水面部分では、緑色成分G及
び青色成分Bのいずれの強度も大となる。そこで、緑色
信号Gから前記青色信号Bを減算した信号レベルの大き
さにより、水面で反射される自然光の影響並びに前記泥
面に対応する画像情報を除去するのである。つまり、前
記緑色信号Gから前記青色信号Bを減算した画像信号の
レベルが設定閾値以上のレベルとなる部分を抽出して2
値化することにより、前記苗Tのみに対応した画素を抽
出するのである。
Here, the operation of the pixel area extracting means 100 will be described in more detail. The intensity of the green component G and the blue component B in the three primary color information output from the image sensor S is determined in the portion where the seedling T exists. Considering the portion corresponding to the mud surface and the water surface portion that reflects natural light, in the portion where the seedlings T are present, the intensity of the green component G is high and the intensity of the blue component B is low. In the portion corresponding to the mud surface, the intensity of both the green component G and the blue component B becomes small. Further, in the water surface portion, the intensity of both the green component G and the blue component B is large. Therefore, the influence of natural light reflected on the water surface and the image information corresponding to the mud surface are removed based on the signal level obtained by subtracting the blue signal B from the green signal G. That is, a portion where the level of the image signal obtained by subtracting the blue signal B from the green signal G is equal to or higher than the set threshold value is extracted and 2
By converting to a value, a pixel corresponding to only the seedling T is extracted.

【0023】次に、前記画像メモリ11の記憶情報に基
づいて、前記複数個の苗Tに対応する画素領域Ta の夫
々において、機体進行方向に沿う画面座標軸であるy軸
方向で、前記苗Tの株元Tk側(撮像画面において下方
側になる)に最も近く位置する画素を前記各画素領域T
a の代表点Pとして抽出する(図3(イ),(ロ)参
照) 。つまり、この各画素領域Ta での上記代表点Pを
求める処理が、代表点抽出手段102に対応することに
なる。そして、画面上の画素領域Ta 全てについて、代
表点抽出処理が終了したら、これらの代表点P同士を結
ぶ線分を直線近似手段101で求めることになる。ここ
では、ハフ変換処理によって求める方法を示す。
Next, based on the information stored in the image memory 11, in each of the pixel regions Ta corresponding to the plurality of seedlings T, the seedlings T in the y-axis direction which is the screen coordinate axis along the machine body traveling direction. The pixel located closest to the stock source Tk side (below the imaging screen) is defined as the pixel region T
It is extracted as a representative point P of a (see FIGS. 3A and 3B). That is, the process of obtaining the representative point P in each pixel region Ta corresponds to the representative point extracting means 102. Then, when the representative point extraction processing is completed for all the pixel regions Ta on the screen, a line segment connecting these representative points P is obtained by the linear approximation means 101. Here, a method of obtaining by the Hough transform processing will be described.

【0024】ハフ変換について説明すれば、図6に示す
ように、前記イメージセンサSの撮像視野中心(x=1
6,y=16)を通るx軸を極座標系における基準線と
して、前記各代表点Pを通る複数本の直線Lnを、前記
x軸に対して0〜180度の範囲において予め複数段階
に設定された傾きθと、原点つまり前記撮像視野中心か
らの距離ρとの組み合わせ(これを直線パラメータと呼
ぶ)として、下式のように求めることになる。 ρ=x・cosθ+y・sinθ
The Hough transform will be described. As shown in FIG. 6, the center of the imaging field of view of the image sensor S (x = 1)
6, x = 16) as a reference line in the polar coordinate system, and a plurality of straight lines Ln passing through the respective representative points P are set in advance in a plurality of steps within a range of 0 to 180 degrees with respect to the x axis. The combination of the calculated inclination θ and the distance ρ from the origin, that is, the center of the imaging visual field, is referred to as a linear parameter. ρ = x · cos θ + y · sin θ

【0025】そして、前記代表点Pの全てについて、前
記複数段階に設定された傾きθの値が180度に達する
まで、前記直線パラメータ(ρ,θ)の頻度を計数する
ための二次元ヒストグラムを加算する処理を繰り返す。
そして、全代表点Pに対する直線Lnの頻度の計数が完
了すると、前記二次元ヒストグラムに加算された値か
ら、最大頻度となる傾きθと距離ρの組み合わせに対応
して一つ直線Lを決定し、その直線Lを前記イメージセ
ンサSの撮像画面において前記苗Tの未植え部分Nと既
植え部分Mの境界線に対応する線分Lの直線近似した情
報として求める。
Then, for all the representative points P, a two-dimensional histogram for counting the frequency of the linear parameter (ρ, θ) is obtained until the value of the inclination θ set in the plurality of steps reaches 180 degrees. The process of adding is repeated.
When the counting of the frequency of the straight line Ln with respect to all the representative points P is completed, one straight line L is determined from the value added to the two-dimensional histogram in accordance with the combination of the gradient θ and the distance ρ that has the maximum frequency. The straight line L is obtained as linearly approximated information of the line segment L corresponding to the boundary between the unplanted portion N and the already planted portion M of the seedling T on the image screen of the image sensor S.

【0026】そして、前記機体Vが適正状態で走行して
いる場合には、前記線分Lが、画面中央の走行基準線L
aに一致する状態となるなるように撮像視野が設定され
ていることから、機体Vの機体横幅方向の位置ずれ量
は、前記線分Lと走行基準線Laの画面中央での位置ず
れ量βに対応することになり、また、前記線分Lのy軸
とのなす角度αが、機体の進行方向のずれに対応する
(図3(ハ)参照)。従って、上記ずれ量β及び角度α
が、共に零となるように操向制御することにより、前記
機体Vを適正に自動走行させることができるのである。
When the body V is traveling in an appropriate state, the line segment L is a traveling reference line L at the center of the screen.
Since the imaging field of view is set so as to be in a state corresponding to a, the positional deviation amount of the aircraft V in the lateral direction of the aircraft is determined by the positional deviation amount β of the line segment L and the traveling reference line La at the center of the screen. The angle α between the line segment L and the y-axis corresponds to the deviation of the body in the traveling direction (see FIG. 3C). Therefore, the deviation amount β and the angle α
However, by performing the steering control so that both become zero, the aircraft V can be appropriately and automatically driven.

【0027】〔別実施例〕次に、前記制御装置12の動
作構成についての別実施例を、図4に基づいて説明す
る。この場合、イメージセンサSによる撮像処理から苗
Tに対応する画素領域Ta の抽出動作までは、前記の動
作構成例と同じ構成である。この後、前記苗Tの株元T
k側に最も近く位置する画素を前記各画素領域Ta の代
表点Pとして抽出する前に、前記制御装置12内に構成
されている主軸方向検出手段103によって前記各画素
領域Taの主軸方向を検出し、この主軸方向のうちの長
軸方向と機体進行方向に沿う画面座標軸であるy軸との
なす角度γが、所定の範囲(例えば、45度以下)に入
っているかどうかを判別し、所定の範囲から外れている
画素領域Ta1 については、苗Tが正常に植えられてい
ないと判断して代表点Pを抽出しないのである(図5
(イ)(ロ))。
Another Embodiment Next, another embodiment of the operation configuration of the control device 12 will be described with reference to FIG. In this case, the configuration from the image pickup processing by the image sensor S to the extraction operation of the pixel region Ta corresponding to the seedling T is the same as the above-described operation configuration example. Then, the seed T of the seedling T
Before extracting the pixel closest to the k side as the representative point P of each pixel area Ta, the main axis direction of each pixel area Ta is detected by the main axis direction detecting means 103 provided in the control device 12. Then, it is determined whether or not the angle γ between the major axis direction of the main axis direction and the y-axis which is the screen coordinate axis along the body advancing direction falls within a predetermined range (for example, 45 degrees or less). In the pixel area Ta1 out of the range, it is determined that the seedling T is not planted normally, and the representative point P is not extracted (FIG. 5).
(A) (b)).

【0028】そして、前記代表点抽出手段102によ
り、前記角度γが前記所定の範囲に入っている画素領域
Ta 全てについて、機体進行方向に沿う画面座標軸であ
るy軸方向で、前記苗Tの株元Tk側(撮像画面におい
ては下方側になる)に最も近く位置する画素を前記各画
素領域Ta の代表点Pとして抽出する(図5(ロ)) 。
代表点抽出処理が終了したら、これらの代表点P同士を
結ぶ線分を直線近似手段101で求めることになる。
Then, the representative point extracting means 102 determines the stock of the seedlings T in the y-axis direction, which is the screen coordinate axis along the body moving direction, for all the pixel regions Ta in which the angle γ is within the predetermined range. The pixel located closest to the original Tk side (downward in the imaging screen) is extracted as the representative point P of each of the pixel areas Ta (FIG. 5B).
When the representative point extraction processing is completed, a line segment connecting these representative points P is obtained by the straight line approximation means 101.

【0029】次に、前記制御装置12の動作構成につい
ての他の別実施例を、図9に基づいて説明する。この場
合、イメージセンサSによる撮像処理から苗Tに対応す
る画素領域Ta の抽出動作までは、前記の動作構成例と
同じ構成である。この後、前記代表点抽出手段102に
より、前記苗Tの株元Tk側に最も近く位置する画素を
前記各画素領域Ta の代表点Pとして抽出するのである
が、ここで、上記株元Tk側に最も近く位置する画素の
個数が1個であれば、前記動作構成と同じになる(図2
参照)。一方、2個以上の画素が抽出された場合には、
これら複数個の各画素を通り、前記機体進行方向に沿う
画面座標軸y軸に平行な方向で、前記画素領域Taの画
素数が多い方の画素を、前記代表点Pとするのである
(図10(イ)、(ロ))。図に基づいて具体的に述べ
ると、図10(ロ)中の3個の画素領域Taでは、前記
株元Tk側に最も近く位置する画素の個数は、画面上部
の画素領域Ta2 は2個であり、画面中央の画素領域T
a3 は3個であり、画面下部の画素領域Taは1個であ
る。そして、上記画面上部の画素領域Ta2 において
は、画面座標軸y軸に平行な方向の画素数は画面左側の
画素を通る方が多いので、画面左側の画素を代表点Pと
して選定する。また、画面中央の画素領域Ta3におい
ては、画面座標軸y軸に平行な方向の画素数は画面左右
方向の真ん中の画素を通る方が多いので、画面左右方向
の真ん中の画素を代表点Pとして選定する。画面下部の
画素領域Taについては、上記処理は不要である。そし
て、上記代表点抽出処理が終了したら、これらの代表点
P同士を結ぶ線分を直線近似手段101で求めることに
なる。
Next, another embodiment of the operation configuration of the control device 12 will be described with reference to FIG. In this case, the configuration from the image pickup processing by the image sensor S to the extraction operation of the pixel region Ta corresponding to the seedling T is the same as the above-described operation configuration example. After that, the representative point extracting means 102 extracts a pixel located closest to the seed root Tk side of the seedling T as a representative point P of each pixel region Ta. If the number of pixels located closest to is one, the operation configuration is the same (FIG. 2).
reference). On the other hand, when two or more pixels are extracted,
A pixel passing through the plurality of pixels and having a larger number of pixels in the pixel region Ta in a direction parallel to the screen coordinate axis y-axis along the aircraft traveling direction is set as the representative point P (FIG. 10). (A), (b)). More specifically, based on the drawing, in the three pixel regions Ta in FIG. 10B, the number of pixels closest to the stock source Tk is two in the pixel region Ta2 at the top of the screen. Yes, the pixel area T at the center of the screen
a3 is three, and the pixel area Ta at the bottom of the screen is one. In the pixel area Ta2 in the upper part of the screen, the number of pixels in the direction parallel to the screen coordinate axis y is more likely to pass through the pixel on the left side of the screen, so that the pixel on the left side of the screen is selected as the representative point P. Also, in the pixel area Ta3 at the center of the screen, the number of pixels in the direction parallel to the screen coordinate axis y is likely to pass through the center pixel in the screen left / right direction, so the center pixel in the screen left / right direction is selected as the representative point P. I do. The above processing is unnecessary for the pixel area Ta at the bottom of the screen. Then, when the representative point extraction processing is completed, a line segment connecting these representative points P is obtained by the straight line approximation means 101.

【0030】又、上記実施例では、緑色情報Gから青色
情報Bを減算して設定閾値に基づいて2値化することに
より、苗Tに対応する画素領域Ta を抽出するように構
成した場合を例示したが、例えば、三原色情報R,G,
Bの全部を用いて、それらの比が苗Tの色に対応する設
定比率範囲となる領域を画素領域Ta として抽出するよ
うにしてもよく、画素領域抽出手段100の具体構成
は、各種変更できる。
Further, in the above embodiment, the pixel information Ta corresponding to the seedling T is extracted by subtracting the blue information B from the green information G and binarizing it based on the set threshold value. Although illustrated, for example, three primary color information R, G,
Using all of B, a region in which the ratio falls within the set ratio range corresponding to the color of the seedling T may be extracted as the pixel region Ta. The specific configuration of the pixel region extracting means 100 can be variously changed. .

【0031】又、上記実施例では、ハフ変換を利用して
各画素領域Ta の代表点Pを結ぶ線分Lを直線近似する
場合を例示したが、例えば、最小二乗法等を用いて直線
近似して求めることもできるものであって、直線近似手
段101の具体構成は、各種変更できる。
Further, in the above embodiment, the case where the line segment L connecting the representative points P of the respective pixel regions Ta is linearly approximated by using the Hough transform, but the linear approximation is performed by using the least square method or the like. The specific configuration of the linear approximation means 101 can be variously changed.

【0032】又、上記実施例では、本発明を田植え機を
圃場に植え付けられた苗列に沿って自動走行させるため
の装置に適用し、そして、検出された作物列に対応する
近似直線の情報を、操向制御のための制御情報として利
用するように構成した場合を例示したが、本発明は各種
の作物列に対応する近似直線の情報を検出するための装
置に適用できるものであって、作物の種類や機体の走行
系の構成等、各部の具体構成、並びに、検出された作物
列に対応する近似直線の情報の利用形態は、各種変更で
きる。
Further, in the above embodiment, the present invention is applied to a device for automatically running a rice planting machine along a seedling row planted in a field, and information of an approximate straight line corresponding to a detected crop row is applied. Has been exemplified to be used as control information for steering control, but the present invention can be applied to an apparatus for detecting information on approximate straight lines corresponding to various crop rows. The specific configuration of each unit, such as the type of crop and the configuration of the traveling system of the machine, and the use form of the information of the approximate straight line corresponding to the detected crop row can be variously changed.

【0033】尚、特許請求の範囲の項に図面との対照を
便利にするために符号を記すが、該記入により本発明は
添付図面の構成に限定されるものではない。
Incidentally, reference numerals are written in the claims for convenience of comparison with the drawings, but the present invention is not limited to the configuration of the attached drawings by the entry.

【図面の簡単な説明】[Brief description of the drawings]

【図1】制御構成のブロック図FIG. 1 is a block diagram of a control configuration.

【図2】作物列検出のフローチャートFIG. 2 is a flowchart of crop row detection.

【図3】画面上の作物列検出処理の説明図FIG. 3 is an explanatory diagram of crop row detection processing on a screen.

【図4】別実施例の作物列検出のフローチャートFIG. 4 is a flowchart of crop row detection according to another embodiment.

【図5】別実施例の画面上の作物列検出処理の説明図FIG. 5 is an explanatory diagram of crop row detection processing on a screen according to another embodiment.

【図6】ハフ変換処理の説明図FIG. 6 is an explanatory diagram of a Hough transform process.

【図7】作物植え付け機の概略平面図FIG. 7 is a schematic plan view of a crop planting machine.

【図8】同正面図FIG. 8 is a front view of the same.

【図9】他の別実施例の作物列検出のフローチャートFIG. 9 is a flowchart of crop row detection according to another embodiment.

【図10】他の別実施例の画面上の作物列検出処理の説
明図
FIG. 10 is an explanatory diagram of crop row detection processing on a screen according to another embodiment.

【符号の説明】[Explanation of symbols]

100 画素領域抽出手段 101 直線近似手段 102 代表点抽出手段 103 主軸方向検出手段 L 線分 P 代表点 S 撮像手段 T 作物 Ta 画素領域 Tk 株元 REFERENCE SIGNS LIST 100 pixel area extracting means 101 straight line approximating means 102 representative point extracting means 103 main axis direction detecting means L line segment P representative point S imaging means T crop Ta pixel area Tk stock origin

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.6,DB名) G06T 1/00 G05D 1/00 - 1/12 A01C 11/02 331──────────────────────────────────────────────────続 き Continued on the front page (58) Fields investigated (Int. Cl. 6 , DB name) G06T 1/00 G05D 1/00-1/12 A01C 11/02 331

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 列状に並ぶ複数個の作物(T)を含む所
定範囲の圃場面を、機体進行方向斜め前方下向きに撮像
する撮像手段(S)と、その撮像手段(S)による撮像
画像情報に基づいて、前記作物(T)に対応する画素領
域(Ta)を抽出する画素領域抽出手段(100)と、
この画素領域抽出手段(100)によって抽出された画
素領域情報に基づいて、前記画素領域(Ta)の代表点
(P)を抽出する代表点抽出手段(102)と、前記代
表点抽出手段(102)によって抽出された代表点
(P)を結ぶ線分(L)を直線近似する直線近似手段
(101)とが設けられている作業機用の作物列検出装
置であって、前記代表点抽出手段(102)が、前記画
素領域(Ta)を構成する画素のうち、機体進行方向に
沿う画面座標軸方向で、前記作物(T)の株元(Tk)
側に最も近く位置する画素を、前記代表点(P)とする
ように構成されている作業機用の作物列検出装置。
1. An image pickup means (S) for picking up an image of a field scene in a predetermined range including a plurality of crops (T) lined up in a row in an obliquely forward and downward direction in a body traveling direction, and an image picked up by the image pickup means (S). A pixel region extracting means (100) for extracting a pixel region (Ta) corresponding to the crop (T) based on the information;
A representative point extracting means (102) for extracting a representative point (P) of the pixel area (Ta) based on the pixel area information extracted by the pixel area extracting means (100), and a representative point extracting means (102). A linear approximation means (101) for linearly approximating a line segment (L) connecting the representative points (P) extracted by the method (1). (102) is a stock origin (Tk) of the crop (T) in a direction of a screen coordinate axis along a body traveling direction among pixels constituting the pixel area (Ta).
A crop line detecting device for a working machine, wherein a pixel located closest to the side is set as the representative point (P).
【請求項2】 請求項1記載の作業機用の作物列検出装
置であって、前記画素領域(Ta)の主軸方向を検出す
る主軸方向検出手段(103)が設けられており、前記
主軸方向のうちの長軸方向と、機体進行方向に沿う画面
座標軸とのなす角度が、所定の範囲から外れている時に
は、前記代表点抽出手段(102)が前記代表点(P)
を抽出しないように構成されている作業機用の作物列検
出装置。
2. A crop line detecting device for a work machine according to claim 1, further comprising: a main axis direction detecting means (103) for detecting a main axis direction of the pixel area (Ta). When the angle between the long axis direction and the screen coordinate axis along the fuselage advancing direction is out of a predetermined range, the representative point extracting means (102) outputs the representative point (P).
Crop row detecting device for a working machine configured not to extract the crops.
【請求項3】 請求項1又は2記載の作業機用の作物列
検出装置であって、前記代表点抽出手段(102)が、
前記作物(T)の株元(Tk)側に最も近く位置する画
素を複数個抽出した場合には、これら複数個の各画素を
通り、前記機体進行方向に沿う画面座標軸に平行な方向
で、前記画素領域(Ta)の画素数が多い方の画素を、
前記代表点(P)とするように構成されている作業機用
の作物列検出装置。
3. The crop row detecting device for a work machine according to claim 1, wherein said representative point extracting means (102) comprises:
When a plurality of pixels located closest to the stock source (Tk) side of the crop (T) are extracted, the pixel passes through each of the plurality of pixels and is parallel to the screen coordinate axis along the aircraft traveling direction. The pixel having the larger number of pixels in the pixel area (Ta) is
A crop row detecting device for a working machine configured to be the representative point (P).
JP3106975A 1991-05-13 1991-05-13 Crop row detection device for work equipment Expired - Fee Related JP2828520B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3106975A JP2828520B2 (en) 1991-05-13 1991-05-13 Crop row detection device for work equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3106975A JP2828520B2 (en) 1991-05-13 1991-05-13 Crop row detection device for work equipment

Publications (2)

Publication Number Publication Date
JPH04336383A JPH04336383A (en) 1992-11-24
JP2828520B2 true JP2828520B2 (en) 1998-11-25

Family

ID=14447295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3106975A Expired - Fee Related JP2828520B2 (en) 1991-05-13 1991-05-13 Crop row detection device for work equipment

Country Status (1)

Country Link
JP (1) JP2828520B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113643231B (en) * 2021-06-24 2024-04-09 河南农业大学 Crop seedling emergence quality detection method based on depth image

Also Published As

Publication number Publication date
JPH04336383A (en) 1992-11-24

Similar Documents

Publication Publication Date Title
CN110243372B (en) Intelligent agricultural machinery navigation system and method based on machine vision
US4590607A (en) Image correspondence techniques using serial neighborhood processing
US20080314324A1 (en) Arrangement and Method for Determining Positions of the Teats of a Milking Animal
JP3505372B2 (en) Image processing device and image processing method for soft landing of moon and planet
JP2828520B2 (en) Crop row detection device for work equipment
JP3044141B2 (en) Planting condition detector for crop planting machines
JP2815760B2 (en) Crop row detector
JPS6270916A (en) Boundary detecting method for self-traveling truck
CN114359314B (en) Real-time visual key detection and positioning method for humanoid piano playing robot
JP2502981Y2 (en) Image processing system for crop row detection in rice transplanter
CN114359403A (en) Three-dimensional space vision positioning method, system and device based on non-integrity mushroom image
CN113065501A (en) Seedling line identification method and device and agricultural machine
JP3020734B2 (en) Boundary detection device for autonomous vehicles
JP2520104B2 (en) Boundary detection device for autonomous vehicles
JP2598580B2 (en) Crop row detector
JP2907612B2 (en) Crop row detector
JP2795454B2 (en) Boundary detection method using color information
JP2907613B2 (en) Crop row detector
JP2593164B2 (en) Seedling row detecting device in rice transplanter
JP2721072B2 (en) Crop row detector
JPS6261509A (en) Adjacent seedling detector for rice planter
JP2567410B2 (en) Boundary detection device for crop planting machine
JP2721071B2 (en) Crop row detector
Nakarmi et al. Inter-plant spacing sensing at early growth stages using a time-of-flight of light based 3D vision sensor
JP2583583B2 (en) Automatic rudder control device for agricultural work machine

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees