JPH0619541A - End detecting device for automatic travel working vehicle - Google Patents

End detecting device for automatic travel working vehicle

Info

Publication number
JPH0619541A
JPH0619541A JP4175853A JP17585392A JPH0619541A JP H0619541 A JPH0619541 A JP H0619541A JP 4175853 A JP4175853 A JP 4175853A JP 17585392 A JP17585392 A JP 17585392A JP H0619541 A JPH0619541 A JP H0619541A
Authority
JP
Japan
Prior art keywords
boundary
area
ridge
machine body
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4175853A
Other languages
Japanese (ja)
Inventor
Masanori Fujiwara
正徳 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kubota Corp
Original Assignee
Kubota Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kubota Corp filed Critical Kubota Corp
Priority to JP4175853A priority Critical patent/JPH0619541A/en
Publication of JPH0619541A publication Critical patent/JPH0619541A/en
Pending legal-status Critical Current

Links

Landscapes

  • Guiding Agricultural Machines (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PURPOSE:To judge an end after traveling in a working process along a ridge without any error by performing detecting processing of a 1st border detecting means according to an area processed by a selecting means. CONSTITUTION:An area extracting means 100 extracts an area corresponding to a nonwork place among plural areas which are arrayed in a direction crossing the travel direction of the machine body in a picked-up image as to each of plural lines. The 1st border detecting means 101 detects the 1st border between the nonwork place and a work place which adjoins in front of the machine body in its travel direction according to position information on the line where the number of areas As larger than a set number in the machine body travel direction. A judging means 104 judges the end of the working process according to the position information on the 1st border in the machine body travel. A 2nd detecting means 102 detects a 2nd border between the nonwork place and an adjacent work place in the direction crossing the machine body travel direction. A selecting means 103 selects only the area positioned more on the work place side than the 2nd border position and the 1st border detecting means 101 detects the 1st border according to this area.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、機体進行方向前方側を
撮像する撮像手段と、その撮像手段の撮像画像情報に基
づいて、機体進行方向に並ぶ複数ラインの夫々において
機体進行方向と交差する方向に並ぶ複数の領域のうちで
非作業地に対応する領域を抽出する領域抽出手段と、前
記複数ラインのうちで前記領域抽出手段によって抽出さ
れた前記領域の数が設定数以上となるラインの機体進行
方向での位置情報に基づいて、前記非作業地とこれに機
体進行方向の手前側で隣接する作業地との第1境界を検
出する第1境界検出手段と、この第1境界検出手段によ
って検出された前記第1境界の機体進行方向に沿った前
記撮像手段の画面座標軸上での位置情報に基づいて作業
行程の終端を判断する判断手段とが設けられた自動走行
作業車用の終端検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image pickup means for picking up an image of the front side of a machine body advancing direction, and a plurality of lines lined up in the machine body advancing direction intersect with the machine body advancing direction based on imaged image information of the image pickup means. An area extracting means for extracting an area corresponding to a non-working area among a plurality of areas arranged in a direction; and a line for which the number of the areas extracted by the area extracting means out of the plurality of lines is a set number or more. First boundary detection means for detecting a first boundary between the non-work site and a work site adjacent to the non-work site on the front side in the machine travel direction based on position information in the machine travel direction, and the first boundary detection means. End for a self-driving work vehicle provided with a judging means for judging the end of the work stroke based on position information on the screen coordinate axis of the image pickup means along the machine body traveling direction of the first boundary detected by Inspection Apparatus on.

【0002】[0002]

【従来の技術】この種の自動走行作業車用の終端検出装
置は、例えば、自動走行作業車としての田植え機によっ
て、作業地としての圃場に互いに平行に並ぶように設定
された複数の作業行程(以下圃場行程と呼ぶ)に沿って
往復走行させながら、苗を圃場の全面に列状に株単位で
設定間隔毎に植え付けるものに適用される。そして、従
来では、機体進行方向の前方側で圃場に隣接する非作業
地としての畦と圃場との第1境界を検出するために、機
体進行方向前方側を撮像するテレビカメラ等の撮像手段
の撮像画像情報において、例えば畦の大部分を占める草
と圃場の水面や泥面等の色情報の差に基づいて畦に対応
して抽出された領域の機体進行方向と交差する撮像画面
の各走査ライン上での数が設定数(例えば各走査ライン
での領域の数の3/4)以上であれば、そのラインは進
行方向前方側の畦であると判断され、それらの畦と判断
されたラインのうちで最も圃場寄りつまり手前側のライ
ンを上記第1境界として検出していた。そして、上記検
出された第1境界の進行方向に沿った画面座標軸上での
位置が、例えば進行方向の手前側である画面下端部から
所定間隔(例えば画面全縦方向幅の1/4)以内であれ
ば、圃場行程の終端に到達したと判断するように構成さ
れていた。
2. Description of the Related Art A terminal detecting device for an automatic traveling work vehicle of this type includes, for example, a plurality of work strokes set by a rice transplanter as an automatic traveling work vehicle so as to be parallel to each other in a field as a work site. The present invention is applied to a method in which seedlings are planted in rows on a whole surface of a field at every set interval while reciprocating along (hereinafter referred to as field field). Then, conventionally, in order to detect a first boundary between a field and a ridge as a non-working land adjacent to a field on the front side in the machine body traveling direction, an image capturing means such as a television camera for imaging the front side in the machine body traveling direction is used. In the captured image information, for example, each scan of the imaging screen that intersects with the aircraft traveling direction of the region extracted corresponding to the ridge based on the difference in color information of the grass and the field which occupy most of the ridge If the number on the line is equal to or larger than the set number (for example, 3/4 of the number of regions on each scanning line), the line is determined to be a ridge on the front side in the traveling direction, and is determined to be the ridge. Among the lines, the line closest to the field, that is, the line on the front side was detected as the first boundary. Then, the position on the screen coordinate axis along the traveling direction of the detected first boundary is within a predetermined interval (for example, 1/4 of the entire vertical width of the screen) from the lower end of the screen on the front side in the traveling direction, for example. If so, it is configured to determine that the end of the field process has been reached.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記従
来技術では、進行方向に交差する方向で圃場に隣接する
畦との境界(第2境界と呼ぶ)つまり畦際に沿った圃場
行程を走行させた後に、進行方向前方側の畦との前記第
1境界を検出する場合においては、その第1境界を確実
に検出できないおそれがあった。具体的に説明すれば、
図5(イ)(ロ)に示すように、機体進行方向の左側方
の畦に沿って走行させる場合を考えると、この左側方の
畦と前方側の畦がつながった部分では前方側の畦は画面
の全幅に存在せず左側が切れている。従って、その畦に
対応して抽出される領域の数は全幅に畦が存在したとき
の数より少なくなり、この場合には、前方側の畦に対応
する領域の各走査ライン上での数が前記設定数(例えば
各走査ラインでの領域の数の3/4)以上にならないの
で、上記設定数によっては前方側の畦を検出することが
できない。そこで、前記設定数を少なくして進行方向前
方側の畦を極力検出できるようにすることが考えられる
が、この場合には、前記設定数を少なくしすぎると、図
5(ホ)に示すように左側方の畦に対応する領域が比較
的多く抽出されている場合には、前方側の畦に対応する
領域の数と左側方の畦に対応する領域の数が同程度にな
ることがあり、この場合には、左側方の畦が前方側の畦
と誤って検出されて例えば画面の最下端が前記第1境界
と誤検出され、従って、この第1境界の検出に基づく作
業行程の終端判断を誤ることになる。
However, in the above-mentioned conventional technique, the field travels along the boundary (called the second boundary) with the ridge adjacent to the field in the direction intersecting the traveling direction, that is, along the ridge. Later, in the case of detecting the first boundary with the ridge on the front side in the traveling direction, there is a possibility that the first boundary cannot be reliably detected. Specifically,
As shown in FIGS. 5 (a) and (b), considering the case of traveling along the left ridge in the traveling direction of the aircraft, in the portion where the left ridge and the front ridge are connected, the front ridge is connected. Does not exist on the entire width of the screen and is cut off on the left side. Therefore, the number of regions extracted corresponding to the ridge is smaller than the number when the ridge exists in the entire width, and in this case, the number of the regions corresponding to the ridge on the front side on each scanning line is smaller. Since it does not exceed the set number (for example, 3/4 of the number of regions in each scan line), the ridge on the front side cannot be detected depending on the set number. Therefore, it is conceivable to reduce the set number so that the ridge on the front side in the traveling direction can be detected as much as possible. In this case, if the set number is too small, as shown in FIG. If a relatively large number of regions corresponding to the left ridge are extracted in, the number of regions corresponding to the front ridge may be approximately the same as the number of regions corresponding to the left ridge. In this case, the left ridge is erroneously detected as the front ridge and, for example, the bottom edge of the screen is erroneously detected as the first boundary. Therefore, the end of the work stroke based on the detection of the first boundary is detected. You will make a mistake in your judgment.

【0004】本発明は、上記実情に鑑みてなされたもの
であって、その目的は、畦際に沿って作業行程を走行さ
せた後に進行方向前方側の畦と圃場との第1境界を検出
して作業行程の終端を判断する場合において、第1境界
の検出を確実に行って前記終端の判断を誤り無く行うこ
とにある。
The present invention has been made in view of the above circumstances, and an object thereof is to detect a first boundary between a ridge on the front side in the traveling direction and a field after running a work stroke along the ridge. When determining the end of the work process, the first boundary is surely detected and the end is determined without error.

【0005】[0005]

【課題を解決するための手段】本発明による自動走行作
業車用の終端検出装置の特徴構成は、前記領域抽出手段
にて抽出された領域情報に基づいて、前記非作業地とこ
れに機体進行方向に交差する方向で隣接する前記作業地
との第2境界を検出する第2境界検出手段と、前記領域
抽出手段によって抽出された前記領域のうちで、前記第
2境界検出手段によって検出された前記第2境界の位置
よりも前記作業地側に位置する領域のみを選別する選別
手段とが設けられ、前記第1境界検出手段は、前記選別
手段によって選別処理された前記領域に基づいて、前記
第1境界の前記検出処理を実行するように構成されてい
る点にある。
A characteristic construction of an end detecting device for an automatic traveling work vehicle according to the present invention is based on the area information extracted by the area extracting means, and the non-working area and the machine body traveling therewith. A second boundary detecting means for detecting a second boundary with the work site adjacent in the direction intersecting the direction; and the area extracted by the area extracting means, detected by the second boundary detecting means. And a sorting unit that sorts only a region located closer to the work site than a position of the second border, and the first boundary detecting unit is configured to sort the region based on the region sorted by the sorting unit. It is configured to execute the detection processing of the first boundary.

【0006】[0006]

【作用】本発明の特徴構成によれば、非作業地である例
えば畦に対応して抽出された領域のうちで、畦とこれに
機体進行方向に交差する方向で隣接する作業地である例
えば圃場との第2境界の位置よりも圃場側に位置する領
域のみが選別され、この選別された領域にのみ基づいて
圃場と機体進行方向の前方側で隣接する畦との第1境界
が検出されるので、機体進行方向に交差する方向で隣接
する畦による領域の情報が上記第1境界の検出において
排除される。これにより、機体進行方向に並ぶ各ライン
において機体進行方向の前方側で隣接する畦による領域
の情報のウエイトが大きくなり、このウエイトが大きく
なった領域の数が設定数以上であるかどうかによって機
体進行方向の前方側の畦に対応するラインが確実に判別
され、例えばこれらの畦と判別されたラインの最も手前
側のラインを第1境界として検出する。そして、上記検
出された第1境界の画面座標軸上での位置情報、例えば
進行方向の手前側である画面下端部から所定間隔以内に
位置していること等、に基づいて作業行程の終端を判断
することになる。
According to the characterizing feature of the present invention, among the areas extracted corresponding to the ridges which are non-working areas, for example, the ridges and the work areas which are adjacent to the ridges in a direction intersecting with the aircraft traveling direction, for example, Only the region located on the field side with respect to the position of the second boundary with the field is selected, and the first boundary between the field and the adjacent ridge on the front side in the machine traveling direction is detected based on only this selected region. Therefore, the information on the region by the ridges adjacent to each other in the direction intersecting the traveling direction of the machine body is excluded in the detection of the first boundary. As a result, in each line lined up in the aircraft traveling direction, the weight of the information of the area due to the adjacent ridges on the front side in the aircraft traveling direction becomes large, and the aircraft is determined by whether or not the number of areas where the weight is large is the set number or more. The line corresponding to the ridge on the front side in the traveling direction is surely discriminated, and, for example, the frontmost line of the lines discriminated as these ridges is detected as the first boundary. Then, the end of the work process is determined based on the detected position information of the first boundary on the screen coordinate axis, for example, the position is within a predetermined interval from the lower end of the screen on the front side in the traveling direction. Will be done.

【0007】[0007]

【発明の効果】従って、本発明によれば、畦際に沿った
作業行程の走行後に進行方向前方側の畦と圃場との第1
境界を検出して作業行程の終端を判断する場合におい
て、第1境界の検出を確実に行って前記終端の判断を誤
り無く行うことができる。
Therefore, according to the present invention, the first ridge and the field on the front side in the traveling direction after the traveling of the work process along the ridge is performed.
When the boundary is detected to determine the end of the work process, the first boundary can be surely detected and the end can be determined without error.

【0008】[0008]

【実施例】以下、本発明を自動走行作業車としての田植
え機によって非作業地としての畦Nに隣接する作業地と
しての圃場Mに苗を植え付けたあと、その圃場行程の終
端を検出するための装置に適用した場合の実施例を、図
面に基づいて説明する。
EXAMPLES In order to detect the end of the field stroke after planting seedlings in a field M as a work site adjacent to a ridge N as a non-work site by the present invention, a rice transplanter as an automatic work vehicle is used. An embodiment when applied to the above device will be described with reference to the drawings.

【0009】図8及び図9に示すように、前輪1F及び
後輪1Rの何れをもステアリング操作自在に構成された
機体Vの後方に、苗植え付け装置2が昇降自在に設けら
れ、その苗植え付け装置2によって複数個の苗Tが6列
状に並んだ状態で植え付けられる。そして、機体進行方
向前方側の圃場M及びこれに隣接する畦Nを撮像する撮
像手段としてのカラー式のイメージセンサS1が、前記
機体Vの前方側に設けられている。
As shown in FIGS. 8 and 9, a seedling planting device 2 is provided at the rear of a machine body V in which both the front wheels 1F and the rear wheels 1R can be steered so that it can move up and down. A plurality of seedlings T are planted in a row in 6 rows by the device 2. Further, a color type image sensor S1 as an image pickup means for picking up an image of the farm field M on the front side in the traveling direction of the machine body and the ridge N adjacent thereto is provided on the front side of the machine body V.

【0010】前記イメージセンサS1の取り付け構造に
ついて説明すれば、前記機体Vの横外側方に向かって突
出された支持部材4の先端部に、前記機体Vに対して機
体横外側方に隣接する畦N及び圃場Mを機体進行方向に
向かって斜め上方から撮像するように設けられている。
つまり、畦Nとこれに機体進行方向に交差する方向で隣
接する圃場Mとの第2境界つまり畦際Nkに対して、前
記機体Vが適正に沿っている状態において、畦際Nkに
対応する線分Lが、前記イメージセンサS1の撮像視野
の中央を前後方向に通る走行基準線Laと一致するよう
にしてある。又、前記イメージセンサS1は、機体Vの
左右夫々に各1個が設けられ、使用する側のセンサを左
右切り換え可能になっている。
Explaining the mounting structure of the image sensor S1, the ridge adjacent to the lateral side of the machine body V on the lateral side of the machine body V is adjacent to the tip of the support member 4 projecting toward the lateral outer side of the machine body V. N and the farm field M are provided so as to be imaged obliquely from above in the traveling direction of the machine body.
That is, in the state in which the machine body V is properly aligned with the second boundary between the ridge N and the adjacent field M in the direction intersecting with the aircraft traveling direction, that is, the ridge Nk, it corresponds to the ridge Nk. The line segment L is made to coincide with a traveling reference line La that passes through the center of the image pickup visual field of the image sensor S1 in the front-rear direction. Further, one image sensor S1 is provided on each of the left and right sides of the machine body V, and the sensor on the side to be used can be switched between the left and right.

【0011】前記機体Vの構成について説明すれば、図
1に示すように、エンジンEの出力が変速装置5を介し
て前記前輪1F及び前記後輪1Rの夫々に伝達され、前
記変速装置5による変速操作状態が予め設定された設定
走行速度に対応する操作状態となるように、変速状態検
出用ポテンショメータR3 が設けられ、そして、その変
速状態検出用ポテンショメータR3 の検出情報に基づい
て、変速用電動モータ6を駆動するように構成されてい
る。
Explaining the structure of the machine body V, as shown in FIG. 1, the output of the engine E is transmitted to each of the front wheel 1F and the rear wheel 1R via a transmission device 5, and the transmission device 5 operates. as the operation state of the speed change operation state corresponds to a preset speed, the shifting state detection potentiometer R 3 provided, and, on the basis of the detection information of the shifting state detecting potentiometer R 3, shift It is configured to drive the electric motor 6 for use.

【0012】又、前記前輪1F及び前記後輪1Rは、夫
々油圧シリンダ7F,7Rによって各別にパワーステア
リング操作されるように構成され、車輪のステアリング
操作に連動するステアリング角検出用ポテンショメータ
1 ,R2 による検出ステアリング角が目標ステアリン
グ角となるように、前記油圧シリンダ7F,7Rを作動
させる電磁操作式の制御弁8F,8Rを駆動するように
構成されている。
Further, the front wheel 1F and the rear wheel 1R are constructed so that power steering is operated individually by hydraulic cylinders 7F and 7R, respectively, and steering angle detecting potentiometers R 1 and R interlocked with the steering operation of the wheels. The electromagnetically operated control valves 8F, 8R for operating the hydraulic cylinders 7F, 7R are driven so that the detected steering angle by 2 becomes the target steering angle.

【0013】従って、前輪1F及び後輪1Rを同位相で
且つ同角度に操向する平行ステアリング形式、前輪1F
及び後輪1Rを逆位相で且つ同角度に操向する4輪ステ
アリング形式、及び、前輪1Fのみを向き変更する2輪
ステアリング形式の三種類のステアリング形式を選択使
用できるようになっている。但し、前記イメージセンサ
S1の撮像情報に基づいて自動的に操向操作する時に
は、前記2輪ステアリング形式を用いると共に、1つの
圃場行程を終了して次の圃場行程に移動する時には、前
記4輪ステアリング形式や平行ステアリング形式を用い
るようになっている。尚、図1中、S2は前記変速装置
5の出力回転数に基づいて走行距離を検出するための距
離センサである。
Therefore, the front steering wheel 1F and the rear steering wheel 1R are parallel steering type steering systems which steer the front wheels 1F and the rear wheels 1R at the same phase and at the same angle.
It is possible to selectively use three types of steering types, that is, a four-wheel steering type in which the rear wheels 1R are operated in opposite phases and at the same angle, and a two-wheel steering type in which only the front wheels 1F are turned. However, when the steering operation is automatically performed based on the image pickup information of the image sensor S1, the two-wheel steering type is used, and when one field stroke is finished and the next field stroke is reached, the four wheels are used. The steering type and the parallel steering type are used. In FIG. 1, S2 is a distance sensor for detecting the traveling distance based on the output speed of the transmission 5.

【0014】次に、前記イメージセンサS1の撮像情報
に基づいて、前記畦際Nkに対応する線分Lの算出、及
び、前記畦際Nkに沿っての圃場行程の終端の検出を行
うための制御構成について説明する。図1に示すよう
に、前記イメージセンサS1は、三原色情報R,G,B
を各別に出力するように構成され、そして、畦Nの大部
分を占める草Kの色成分を含む緑色情報Gから草Kの色
成分を含まない青色情報Bを減算して2値化することに
より、前記畦Nに対応する領域Kaを抽出するように構
成されている(図4(イ)(ロ)参照)。
Next, the line segment L corresponding to the ridge Nk is calculated based on the imaging information of the image sensor S1 and the end of the field stroke along the ridge Nk is detected. The control configuration will be described. As shown in FIG. 1, the image sensor S1 includes three primary color information R, G, B.
And binarizing by subtracting blue information B not including the color component of grass K from green information G including the color component of grass K that occupies the majority of the ridge N. Thus, the area Ka corresponding to the ridge N is extracted (see FIGS. 4A and 4B).

【0015】上記領域Kaの抽出について説明を加えれ
ば、イメージセンサS1から出力される三原色情報のう
ちの緑色情報Gと青色情報Bとの強度について、草Kが
存在する部分、泥及び土面に対応する部分、自然光を反
射する水面部分夫々に対して考察すると、草Kが存在す
る部分では、緑色情報Gの強度が大で、且つ、青色情報
Bの強度が小となる。又、泥及び土面に対応する部分で
は、緑色情報G及び青色情報Bのいずれの強度も小とな
る。さらに、水面部分では、緑色情報G及び青色情報B
のいずれの強度も大となる。そこで、緑色情報Gから青
色情報Bを減算した信号レベルの大きさにより、水面で
反射される自然光の影響並びに泥及び土面に対応する画
像情報を除去するのである。つまり、前記緑色情報Gか
ら青色情報Bを減算した信号レベルが設定閾値以上のレ
ベルになる部分を抽出して2値化することにより、草K
に対応した領域Kaの情報を抽出できるのである。
Explaining the extraction of the above-mentioned area Ka, regarding the intensities of the green information G and the blue information B of the three primary color information output from the image sensor S1, in the portion where the grass K exists, in the mud and the soil surface. Considering each of the corresponding portion and the water surface portion that reflects natural light, in the portion where the grass K exists, the intensity of the green information G is high and the intensity of the blue information B is low. Further, in the portion corresponding to the mud and the soil surface, both the green information G and the blue information B have small intensities. Further, on the water surface part, green information G and blue information B
Both of the strengths are large. Therefore, the influence of the natural light reflected on the water surface and the image information corresponding to the mud and the soil surface are removed by the magnitude of the signal level obtained by subtracting the blue information B from the green information G. That is, the grass K is obtained by extracting and binarizing a portion in which the signal level obtained by subtracting the blue information B from the green information G is equal to or higher than the set threshold value.
The information of the area Ka corresponding to can be extracted.

【0016】そして、前記緑色情報Gから前記青色情報
Bをアナログ信号の状態で減算する減算器9、その減算
器9の出力を予め設定された設定閾値に基づいて2値化
して前記領域Kaに対応する2値化情報を出力するコン
パレータ10、そのコンパレータ10の出力信号を予め
設定された画素密度(横軸32画素×縦軸32画素/1
画面に設定してある)に対応した画素情報として記憶す
る画像メモリ11、及び、この画像メモリ11に記憶さ
れた情報に基づいて前記畦際Nkに対応する線分Lを直
線や曲線に近似する情報を求めると共にその情報に基づ
いて走行制御を実行し、且つ、進行方向前方側に画面横
方向に沿って位置する畦Nの位置情報に基づいて圃場行
程の終端を検出するマイクロコンピュータ利用の制御装
置12の夫々が設けられている。
Then, a subtracter 9 for subtracting the blue color information B from the green color information G in the state of an analog signal, and the output of the subtractor 9 is binarized based on a preset threshold value to be set in the area Ka. A comparator 10 that outputs corresponding binary information, and an output signal of the comparator 10 has a preset pixel density (horizontal axis 32 pixels × vertical axis 32 pixels / 1
Image memory 11 stored as pixel information corresponding to (set on the screen), and a line segment L corresponding to the edge Nk is approximated to a straight line or a curve based on the information stored in the image memory 11. A control using a microcomputer that obtains information, executes traveling control based on the information, and detects the end of the field stroke based on the positional information of the ridge N located along the lateral direction of the screen on the front side in the traveling direction. Each of the devices 12 is provided.

【0017】つまり、前記減算器9及び前記コンパレー
タ10を利用して、前記イメージセンサS1による撮像
画像情報に基づいて、機体進行方向に並ぶ複数ライン
(画面横座標軸であるx軸に平行な32本のライン)の
夫々において機体進行方向と交差する方向(x軸方向)
に並ぶ複数の領域のうちで草Kが大部分を占める畦Nに
対応する領域Kaを抽出する領域抽出手段100が構成
され、又、前記制御装置12を利用して、前記領域抽出
手段100によって抽出された前記領域Kaの情報に基
づいて、前記畦際Nk(第2境界)を検出する第2境界
検出手段102が構成されている。上記第2境界検出手
段102について具体的に説明すれば、前記領域Kaの
中で、上記32本の各ライン(y座標=1〜32)上に
おいて、連続する画素の個数が所定個数(例えば画面横
幅の1/4に対応する個数つまり8個)以上で、且つ、
最も前記圃場M側に寄って位置する画素列Krのみを選
別し、これらの選別された各画素列Krにおいて最も圃
場M側に寄って位置する点として抽出した代表点Pの情
報に基づいて、前記畦際Nkに対応する線分Lを求める
ように構成されている。
That is, using the subtractor 9 and the comparator 10, a plurality of lines (32 lines parallel to the x-axis which is the abscissa axis of the screen) are arranged in the machine advancing direction based on the imaged image information by the image sensor S1. Direction (x-axis direction) intersecting the aircraft traveling direction
Area extracting means 100 is configured to extract an area Ka corresponding to the ridge N in which the grass K occupies most of the plurality of areas arranged in line, and the area extracting means 100 uses the control device 12 to extract the area Ka. Second boundary detection means 102 for detecting the ridge Nk (second boundary) is configured based on the extracted information of the area Ka. The second boundary detecting means 102 will be described in detail. In the area Ka, on each of the 32 lines (y coordinates = 1 to 32), the number of consecutive pixels is a predetermined number (for example, a screen). The number corresponding to 1/4 of the width, that is, 8) or more, and
Based on the information of the representative point P extracted as a point located closest to the field M side in each of these selected pixel rows Kr, only the pixel row Kr closest to the field M side is selected, The line segment L corresponding to the edge Nk is obtained.

【0018】又、前記制御装置12を利用して、前記複
数ライン(32ライン)のうちで前記領域抽出手段10
0によって抽出された前記領域Kaの数が設定数(例え
ば画面横幅の3/4に対応する画素数)以上となるライ
ンの機体進行方向(画面y軸)での位置情報に基づい
て、進行方向前方側に画面横方向に沿って位置する畦N
とこれに手前側で隣接する圃場Mとの第1境界Nzを、
例えば上記設定数以上となるラインのうちで最も手前側
に位置するラインとして検出する第1境界検出手段10
1が構成されている。
Further, by utilizing the control device 12, the area extracting means 10 out of the plurality of lines (32 lines).
Based on the position information in the machine traveling direction (screen y axis) of a line in which the number of the areas Ka extracted by 0 is equal to or greater than a set number (for example, the number of pixels corresponding to 3/4 of the screen width), the traveling direction A ridge N located along the horizontal direction of the screen on the front side
And the first boundary Nz with the adjacent field M on the near side,
For example, the first boundary detecting means 10 for detecting the line located closest to the front among the lines having the set number or more.
1 is configured.

【0019】又、前記制御装置12を利用して、前記領
域抽出手段100によって抽出された前記領域Kaのう
ちで、前記第2境界検出手段102によって検出された
前記畦際Nk(第2境界)に対応する線分Lの位置より
も前記圃場M側に位置する領域Kaのみを選別する選別
手段103が構成されている。そして、前記第1境界検
出手段101は、前記選別手段103によって選別処理
された前記領域Kaに基づいて、前記第1境界Nzの前
記検出処理を実行するように構成されている。従って、
この場合には、前記設定数は上記線分Lの位置から圃場
M側方向の画面端までの横幅に対応する画面の画素数
(本来の画面の画素数32より少なくなる)が基準とな
り、例えばその画素数の3/4に設定される。
Further, utilizing the control device 12, the ridge Nk (second boundary) detected by the second boundary detecting means 102 in the area Ka extracted by the area extracting means 100. The selecting unit 103 is configured to select only the region Ka located on the side of the field M with respect to the position of the line segment L corresponding to. Then, the first boundary detection means 101 is configured to execute the detection processing of the first boundary Nz based on the area Ka selected by the selection means 103. Therefore,
In this case, the set number is based on the number of pixels on the screen corresponding to the horizontal width from the position of the line segment L to the screen edge in the field M side direction (less than the original number of pixels on the screen, 32). It is set to 3/4 of the number of pixels.

【0020】更に、前記制御装置12を利用して、前記
第1境界検出手段101によって検出された前記第1境
界Nzの機体進行方向に沿った前記イメージセンサS1
の画面座標軸(y軸)上での位置情報に基づいて作業行
程(即ち圃場行程)の終端を判断する判断手段104が
構成されている。具体的に説明すれば、例えば、前記第
1境界Nzに対応する前記ラインが進行方向の手前側に
なる画面下端位置から画面縦方向全幅(ライン数で言う
と32ライン)の1/4(8ライン)以内に位置してい
るときに、終端に到達したと判断するのである。
Further, by using the control device 12, the image sensor S1 along the airframe traveling direction of the first boundary Nz detected by the first boundary detecting means 101.
The determination means 104 is configured to determine the end of the work process (that is, the field process) based on the position information on the screen coordinate axis (y-axis). Specifically, for example, the line corresponding to the first boundary Nz is 1/4 (8) of the full width in the vertical direction of the screen (32 lines in terms of the number of lines) from the lower end position of the screen on the front side in the traveling direction. When it is located within the line), it is judged that the end has been reached.

【0021】次に、図2に示すフローチャートに基づい
て、前記制御装置12の動作を説明しながら、前記畦際
Nkの検出処理について詳述すれば、機体Vが設定距離
を走行する毎、又は、設定時間毎に、前記イメージセン
サS1による撮像処理が実行され、この撮像処理の後、
前記領域抽出手段100によって前記畦Nに対応する領
域Kaが抽出されることになる(図4(イ),(ロ)参
照)。尚、図では、畦N側だけでなく圃場Mにも草Kに
対応する領域Kaが抽出されているが、これは圃場M上
に存在する浮き草等によるものである。
Next, referring to the flow chart shown in FIG. 2, the operation of the control device 12 will be described, and the process of detecting the ridge Nk will be described in detail. Every time the machine body V travels a set distance, or The image pickup process by the image sensor S1 is executed every set time, and after the image pickup process,
The area extracting unit 100 extracts the area Ka corresponding to the ridge N (see FIGS. 4A and 4B). In the figure, the area Ka corresponding to the grass K is extracted not only on the side of the ridge N but also on the field M, but this is due to floating grass or the like existing on the field M.

【0022】次に、画面y座標軸のy=1〜32での各
水平走査ライン毎に、先ず、所定個数(例えば8個)以
上の連続する画素数で、最も圃場M側に寄って位置する
画素列Krが選別される。従って、所定個数以上の連続
する画素数の画素列Krが存在しなければ、その水平走
査ラインでは選別される画素列Krはない。そして、圃
場M上に存在する浮き草等による領域Kaはその画素数
が通常前記所定個数より少ないので、上記選別処理によ
って、浮き草等に対応する領域Kaは除去される。次
に、前記選別された各画素列Krにおいて最も圃場M側
に寄って位置する画素を代表点Pとして抽出する(図4
(ハ)参照)。
Next, with respect to each horizontal scanning line at y = 1 to 32 on the y coordinate axis of the screen, first, the number of consecutive pixels of a predetermined number (for example, 8) or more is located closest to the field M side. The pixel column Kr is selected. Therefore, if the pixel row Kr having the number of consecutive pixels equal to or larger than the predetermined number does not exist, there is no pixel row Kr to be selected in the horizontal scanning line. The area Ka of floating grass or the like existing on the field M usually has a smaller number of pixels than the predetermined number. Therefore, the area Ka corresponding to the floating grass or the like is removed by the above-described selection processing. Next, the pixel located closest to the field M side in each of the selected pixel rows Kr is extracted as the representative point P (FIG. 4).
(See (c)).

【0023】そして、画面座標軸の水平走査ラインの全
て(32本)について、上記選別処理と代表点抽出処理
が終了したら、画面座標軸のy軸つまり進行方向で隣接
する代表点Pの水平走査ライン上での位置が画面横幅の
1/4(画素数で8)以上異なっているような不連続箇
所が存在するか否かを調べる。上記不連続箇所がなけれ
ば圃場行程の終端には接近していないと判断されるの
で、前記抽出された代表点Pに基づいて前記線分Lを演
算処理して求めることになる。ここでは、ハフ変換処理
によって求めるように構成している。尚、上記不連続箇
所が存在した場合には、後述の終端検出処理を行うこと
になる。
After the above-mentioned selection processing and representative point extraction processing have been completed for all (32) horizontal scanning lines of the screen coordinate axis, on the y axis of the screen coordinate axis, that is, on the horizontal scanning line of the representative point P adjacent in the advancing direction. It is checked whether or not there is a discontinuous portion where the position at is different from the width of the screen by 1/4 (8 in number of pixels) or more. If there is no discontinuous portion, it is determined that the end of the field stroke is not approached, so the line segment L is calculated based on the extracted representative point P. In this case, the Hough transform process is used. When the discontinuous portion is present, the end detection processing described later will be performed.

【0024】ハフ変換について説明すれば図6に示すよ
うに、前記イメージセンサS1の撮像視野の中心(x=
16,y=16)を通るx軸を極座標系における基準線
として、前記各代表点Pを通る複数本の直線を、下記
(i)式に基づいて前記x軸に対して0乃至180度の
範囲において予め複数段階に設定された傾きθと、原点
つまり上記撮像視野中心に対応する画面中央からの距離
ρとの組み合わせとして求める。 ρ=y・sinθ+x・cosθ ……(i)
The Hough transform will be described. As shown in FIG. 6, the center of the image pickup field of the image sensor S1 (x =
16, y = 16) is used as a reference line in the polar coordinate system, and a plurality of straight lines passing through each of the representative points P are set to 0 to 180 degrees with respect to the x-axis based on the following formula (i). It is calculated as a combination of an inclination θ set in advance in a plurality of steps in the range and a distance ρ from the center of the screen corresponding to the origin, that is, the center of the imaging visual field. ρ = y · sin θ + x · cos θ …… (i)

【0025】そして、前記代表点Pの全てについて、前
記複数段階に設定された傾きθの値が180度に達する
まで、前記パラメータ(ρ,θ)の組み合わせに対応す
る各直線の頻度を計数するための二次元ヒストグラムを
加算する処理を繰り返す。全代表点Pに対する直線の頻
度の計数が完了すると、前記二次元ヒストグラムに加算
された値から、最大頻度となる前記傾きθと前記距離ρ
の組み合わせを求めることにより、最大頻度となる一つ
の直線Lxを決定し、その直線Lxを、前記イメージセ
ンサS1の撮像面において前記畦際Nkに対応する線分
Lを直線近似した情報として求める。
Then, for all of the representative points P, the frequency of each straight line corresponding to the combination of the parameters (ρ, θ) is counted until the value of the inclination θ set in the plurality of steps reaches 180 degrees. The process of adding the two-dimensional histogram for is repeated. When the counting of the frequencies of the straight lines for all the representative points P is completed, the slope θ and the distance ρ that are the maximum frequencies are calculated from the values added to the two-dimensional histogram.
One straight line Lx having the maximum frequency is determined by obtaining the combination of the above, and the straight line Lx is obtained as information obtained by linearly approximating the line segment L corresponding to the edge Nk on the imaging surface of the image sensor S1.

【0026】次に、前記撮像面における直線Lxを、予
め実測した地表面での前記イメージセンサS1の撮像視
野Aの形状と大きさの記憶情報と、前記最大頻度の直線
Lxが通る撮像面での画素の位置a,b,c(図7参
照) とに基づいて、地表面における直線Lの情報に変換
する。すなわち、図7に示すように、前記撮像視野Aの
横幅方向中央を前後方向に通る走行基準線Laに対する
傾きψと、横幅方向での位置δとの値として設定される
地表面上における直線Lの情報に変換することになる。
Next, a straight line Lx on the image pickup surface is stored on the image pickup surface through which the stored information of the shape and size of the image pickup field A of the image sensor S1 measured in advance on the ground surface and the straight line Lx having the maximum frequency pass. Based on the pixel positions a, b, and c (see FIG. 7), the information of the straight line L on the ground surface is converted. That is, as shown in FIG. 7, a straight line L on the ground surface that is set as a value of an inclination ψ with respect to a traveling reference line La that passes through the center of the imaging visual field A in the widthwise direction in the front-rear direction and a position δ in the widthwise direction. Will be converted into information.

【0027】説明を加えれば、前記畦際Nkに対応する
直線Lに交差する方向となる前記撮像視野Aの前後位置
(y=0及びy=32)での2辺の長さl0 ,l32、画
面中央(x=16,y=16となる画素位置)における
前記撮像視野Aの横幅方向での長さl16、及び、前記前
後2辺間の距離hの夫々を予め実測して、前記制御装置
12に記憶させておくことになる。
In addition, the lengths l 0 and l of the two sides at the front and rear positions (y = 0 and y = 32) of the imaging visual field A in the direction intersecting the straight line L corresponding to the ridge Nk are added. 32 , the length l 16 in the lateral width direction of the imaging visual field A at the center of the screen (pixel position where x = 16, y = 16) and the distance h between the front and rear sides are measured in advance, It will be stored in the control device 12.

【0028】そして、前記撮像面における直線Lxが、
前記撮像視野Aの前後位置での2辺に対応するx軸に交
差する画素の位置a,b(y=0,y=32となる位
置)のx座標の値X0,X32と、前記直線Lxが画面中央
を通るx軸に交差する画素の位置cのx座標の値X16
を、上記(i)式を変形した下記(ii)式から求めるこ
とになる。 Xi=(ρ−Yi・sinθ)/cosθ ……(ii) 但し、Yiは、夫々0,16,32を代入する。
Then, the straight line Lx on the imaging plane is
X coordinate values X 0 and X 32 of pixel positions a and b (positions where y = 0 and y = 32) intersecting the x axis corresponding to two sides at the front and rear positions of the imaging visual field A, and The value x 16 of the x-coordinate of the position c of the pixel where the straight line Lx intersects the x-axis passing through the center of the screen is obtained from the following formula (ii) which is a modification of the above formula (i). Xi = (ρ−Yi · sin θ) / cos θ (ii) However, Yi is 0, 16, and 32, respectively.

【0029】そして、上記(ii)式にて求められたx軸
での座標値に基づいて、下記(iii)式及び(iv)式か
ら、前記走行基準線Laに対する横幅方向での位置δ
と、傾きψとを求め、求めた位置δと傾きψとの値を、
地表面において前記畦際Nkに対応する直線Lの位置情
報として算出することになる。
Then, based on the coordinate value on the x-axis obtained by the above equation (ii), the position δ in the lateral width direction with respect to the traveling reference line La is calculated from the following equations (iii) and (iv).
And the slope ψ, and the values of the calculated position δ and the slope ψ are
It is calculated as the position information of the straight line L corresponding to the ridge Nk on the ground surface.

【0030】[0030]

【数1】 [Equation 1]

【0031】次に、図3に示すフローチャートに基づい
て、前記終端検出処理について説明する。この場合は、
例えば、図5(イ)に示すように、機体Vの左側方に位
置する畦際Nkに沿って走行しているときにその畦Nが
進行方向前方側で進行方向に交差する畦Nにつながって
圃場Mが区画されているような場合であり、前記畦Nに
対応して領域Kaを抽出した結果が図5(ロ)に示され
る。図では、畦N上の草Kの状態によって各水平走査ラ
インでの領域Kaの連続する画素数が変化し、又、畦N
だけでなく圃場Mにも浮き草等による領域Kaが抽出さ
れている。更に、前記と同様に、各水平走査ライン上に
おいて、所定個数(例えば8個)以上の連続する画素数
で、最も圃場M側に寄って位置する画素列Krが選別さ
れ(この処理で、圃場M上の浮き草等による領域Kaは
除去される)、この選別された各画素列Krにおいて最
も圃場M側に寄って位置する画素が代表点Pとして抽出
される(図5(ハ)参照)。そして、前方側の畦Nの手
前端に隣接する代表点Pの位置の不連続(x座標値でx
z の大きさ)が存在することが示されている。
Next, the end detection processing will be described with reference to the flow chart shown in FIG. in this case,
For example, as shown in FIG. 5 (a), when traveling along a ridge Nk located on the left side of the aircraft V, the ridge N is connected to a ridge N that intersects the traveling direction on the front side in the traveling direction. In this case, the field M is partitioned and the result of extracting the region Ka corresponding to the ridge N is shown in FIG. In the figure, the number of consecutive pixels of the area Ka on each horizontal scanning line changes depending on the state of the grass K on the ridge N.
Not only in the field M, but also in the field M, a region Ka due to floating grass or the like is extracted. Further, similarly to the above, on each horizontal scanning line, the pixel row Kr located closest to the field M side is selected by a predetermined number (for example, 8) or more continuous pixels (in this process, The area Ka on the M due to floating grass or the like is removed), and the pixel located closest to the field M side in each of the selected pixel rows Kr is extracted as the representative point P (see FIG. 5C). Then, the position of the representative point P adjacent to the front end of the ridge N on the front side is discontinuous (x coordinate value is x.
It is shown that the size z exists.

【0032】終端検出処理では、先ず、上記隣接する代
表点位置の不連続が存在する水平走査ラインよりも手前
側にある代表点Pのみを選別し、これら選別された代表
点Pに基づいて、前記畦際Nk(第2境界)を、前記と
同様に、ハフ変換処理によって求める。つまり、最大頻
度となる前記傾きθと前記距離ρの組み合わせによって
一つの直線Lxを決定し、その直線Lxを、前記イメー
ジセンサS1の撮像面において前記畦際Nkに対応する
線分Lを直線近似した情報として求める(図6参照)
In the end detection process, first, only the representative points P located on the front side of the horizontal scanning line in which the discontinuity of the adjacent representative point positions exists is selected, and based on these selected representative points P, The edge Nk (second boundary) is obtained by the Hough transform process as in the above. That is, one straight line Lx is determined based on the combination of the inclination θ and the distance ρ that have the maximum frequency, and the straight line Lx is linearly approximated to the line segment L corresponding to the edge Nk on the imaging surface of the image sensor S1. Requested information (see Figure 6)

【0033】次に、上記直線近似して求めた第2境界つ
まり線分Lの位置よりも圃場側に位置する前記領域Ka
のみを選別する。そして、この選別された領域Kaにつ
いて、縦軸を画面座標軸の各水平走査ラインの位置に、
又、横軸を各水平走査ラインでの前記領域Kaの画素数
w に設定したヒストグラム(尚、これを水平ヒストグ
ラムと呼ぶ)を算出する(図5(ニ)参照)。ここで、
横軸の最大値HW は前記線分Lの位置と画面右端との間
隔の画面座標値をとる。そして、上記画素数h w が下式
(v)を満たし且つ最も手前側に位置する領域Kaの水
平ライン位置を、前方側の畦Nとこれに機体進行方向の
手前側で隣接する圃場Mとの第1境界Nzとして判別す
る。 (hw /HW )>3/4……(v)
Next, the second boundary obtained by the above linear approximation
The area Ka located on the field side with respect to the position of the line segment L
Select only. Then, the area Ka
The vertical axis is the position of each horizontal scanning line of the screen coordinate axis,
Also, the horizontal axis represents the number of pixels in the area Ka in each horizontal scanning line.
hwHistogram set to (This is the horizontal histogram
(Referred to as Lamb) is calculated (see FIG. 5D). here,
Maximum value H on the horizontal axisWIs between the position of the line segment L and the right edge of the screen
Take the screen coordinate value of the distance. Then, the number of pixels h wIs the formula
Water in a region Ka that is located closest to the front and that satisfies (v)
Set the flat line position to the front ridge N and the ridge N
Determined as the first boundary Nz with the adjacent field M on the front side
It (Hw/ HW)> 3/4 ... (v)

【0034】そして、上記第1境界Nzの位置する水平
走査ラインと画面下端との間隔vdと画面縦方向幅VD
との比vd /VD が下式(vi)を満たせば終端であると
判断する。 (vd /VD )>1/4……(vi)
Then, the interval v d between the horizontal scanning line where the first boundary Nz is located and the lower end of the screen and the width V D in the vertical direction of the screen are set.
If the ratio v d / V D of the following satisfies the following expression (vi), it is determined to be the termination. (V d / V D )> 1/4 (vi)

【0035】尚、ここで、終端と判断されなかった場合
には、畦際Nkに沿っての操向制御用の情報を求めるた
めに、前記と同様に、撮像画面上での第2境界つまり線
分Lを、予め実測した地表面での前記イメージセンサS
1の撮像視野Aの形状と大きさの記憶情報と、前記線分
Lが通る撮像面での画素の位置a,b,c(図7参照)
とに基づいて、地表面における直線Lの情報に変換す
る。
Here, if it is not determined to be the end, in order to obtain information for steering control along the ridge Nk, the second boundary on the image pickup screen, that is, the same as the above, is obtained. The line segment L is the image sensor S on the ground surface measured in advance.
Memory information of the shape and size of the imaging field A of No. 1 and pixel positions a, b, c on the imaging surface through which the line segment L passes (see FIG. 7).
Based on and, it is converted into information of the straight line L on the ground surface.

【0036】以上より、前記機体Vを機体進行方向に沿
う畦際Nkに沿って自動走行させるための操向制御にお
いては、前記直線Lの前記走行基準線Laに対する傾き
ψと横幅方向での位置δとを共に零に近づけるように、
2輪ステアリング形式で操向操作することになる。
As described above, in the steering control for automatically traveling the vehicle body V along the ridge Nk along the traveling direction of the vehicle body, the inclination ψ of the straight line L with respect to the traveling reference line La and the position in the lateral width direction are controlled. so that both δ and 0 approach zero,
Steering operation will be done in a two-wheel steering system.

【0037】前記操向制御について説明すれば、前記直
線Lの前記走行基準線Laに対する傾きψと横幅方向で
の位置δ夫々の値、及び、前記前輪1Fの現在のステア
リング角φの値とから、下記(vii)式に基づいて、前
記前輪1Fの目標操向角θfを設定し、そして、前記前
輪用のステアリング角検出用ポテンショメータR1 にて
検出される現在のステアリング角φが、目標操向角θf
に対して設定不感帯内に維持されるように、前記前輪用
油圧シリンダ7Fの制御弁8Fを駆動することになる。 θf=K1・δ+K2・ψ+K3 ・φ ……(vii) 尚、K1,K2,K3 は、操向特性に応じて予め設定され
た定数である。
Explaining the steering control, from the values of the inclination ψ of the straight line L with respect to the traveling reference line La and the position δ in the lateral width direction, and the current steering angle φ of the front wheels 1F. The target steering angle θf of the front wheels 1F is set based on the following equation (vii), and the current steering angle φ detected by the steering angle detecting potentiometer R 1 for the front wheels is set to the target steering angle φf. Direction θf
On the other hand, the control valve 8F of the front wheel hydraulic cylinder 7F is driven so as to be maintained within the set dead zone. θf = K 1 δ + K 2 ψ + K 3 Φ (vii) Note that K 1 , K 2 and K 3 are constants set in advance according to the steering characteristics.

【0038】前記のように、イメージセンサS1の画像
情報から圃場行程の終端が判断されたときには、次の
(この場合は畦Nとは反対側の)圃場行程の始端に向け
てターンさせる。このターン制御の概要について説明す
れば、前記苗植え付け装置2による植え付け作業を中断
してから、前記2輪ステアリング形式から前記4輪ステ
アリング形式に切り換えると共に、設定時間の間最大切
り角に維持することにより次の圃場行程側に180度方
向転換させる。この際に、前の行程で使用した前記イメ
ージセンサS1とは反対側のイメージセンサS1に切り
換え、その画像情報から次の圃場行程に隣接する前の圃
場行程の既植苗Tの位置を検出しながら、次の圃場行程
における機体横幅方向での位置を修正させて、ターンを
終了することになる。尚、ターン終了後は、前記2輪ス
テアリング形式に復帰させて、次の圃場行程での操向制
御を再開することになる。
As described above, when it is determined from the image information of the image sensor S1 that the end of the field stroke is determined, the turn is made toward the start of the next field stroke (in this case, the side opposite to the ridge N). The outline of this turn control will be explained. After the planting work by the seedling planting device 2 is interrupted, the two-wheel steering system is switched to the four-wheel steering system and the maximum cutting angle is maintained for a set time. The direction of the next field is changed by 180 degrees. At this time, while switching to the image sensor S1 on the side opposite to the image sensor S1 used in the previous stroke, while detecting the position of the seedling T already planted in the previous field stroke adjacent to the next field stroke from the image information. , The position in the lateral direction of the machine body in the next field stroke is corrected, and the turn is ended. After the end of the turn, the two-wheel steering system is restored, and the steering control in the next field stroke is restarted.

【0039】〔別実施例〕上記実施例では、撮像手段と
してカラー式のイメージセンサS1を用いて、緑色情報
Gから青色情報Bを減算して設定閾値に基づいて2値化
することにより、草Kが大部分を占める畦Nに対応する
領域Kaを抽出するように構成した場合を例示したが、
例えば、三原色情報R,G,Bの全部を用いて、それら
の比が草Kの色に対応する設定比率範囲となる領域を前
記領域Kaとして抽出するようにしてもよく、あるい
は、前記撮像手段として白黒式のイメージセンサS1を
用いて、草Kと泥面等の他の箇所の明度信号を適当な閾
値設定に基づいて2値化することにより、簡便な装置で
領域を抽出するようにしてもよく、領域抽出手段100
の具体構成は、各種変更できる。
[Other Embodiments] In the above embodiment, the color type image sensor S1 is used as the image pickup means, and the blue color information B is subtracted from the green color information G and binarized based on the set threshold value. An example is shown in which the region Ka corresponding to the ridge N in which K occupies most of the area is extracted.
For example, all the three primary color information R, G, and B may be used to extract a region whose ratio is a set ratio range corresponding to the color of the grass K as the region Ka, or the image pickup means. As an example, the monochrome image sensor S1 is used to binarize the lightness signals of the grass K and other places such as the mud surface based on an appropriate threshold setting so that the area can be extracted by a simple device. The area extraction means 100
The specific configuration of can be changed in various ways.

【0040】又、上記実施例では、画面座標軸(y軸)
の各水平走査ライン(y=1〜32)のうちから第1境
界Nzに対応するラインを判別する際に、第1境界Nk
から圃場M側の画面端までの画面横幅の3/4に対応す
る画素数を設定数との大小により判別するようにした
が、その設定数は上記画面横幅の3/4に限らず、例え
ば2/3や4/5等状況に応じて第1境界検出手段10
1の構成は適宜変更することができる。
In the above embodiment, the screen coordinate axis (y axis)
When determining the line corresponding to the first boundary Nz from among the horizontal scanning lines (y = 1 to 32) of
The number of pixels corresponding to 3/4 of the screen width from the field edge to the field M side is determined by the size of the set number, but the set number is not limited to 3/4 of the screen width, The first boundary detection means 10 depending on the situation such as 2/3 or 4/5
The configuration of 1 can be changed as appropriate.

【0041】又、上記実施例では、ハフ変換を利用して
第2境界(畦際Nk)に対応する線分Lを直線近似する
ようにした場合を例示したが、例えば、最小二乗法等を
用いて直線近似あるいは曲線近似した情報を求めること
もできるものであって、第2境界検出手段102の具体
構成は、各種変更できる。
In the above embodiment, the Hough transform is used to linearly approximate the line segment L corresponding to the second boundary (edge Nk). However, for example, the least squares method is used. The linear approximation or the curve approximation can be used to obtain information, and the specific configuration of the second boundary detecting means 102 can be variously changed.

【0042】又、上記実施例では、第1境界Nzの機体
進行方向に沿った前記撮像手段S1の画面座標軸(y
軸)上での位置情報に基づいて作業行程(即ち圃場行
程)の終端を判断する際の判断基準として、前記第1境
界Nzに対応するラインが画面下端位置から画面縦方向
全幅(ライン数で言うと32ライン)の1/4(8ライ
ン)以内に位置しているかどうかを判断するようにした
が、この判断基準は上記画面縦方向全幅の1/4(8ラ
イン)に限らず、撮像手段S1の画面倍率や撮像角度等
の装置状況に応じて判断手段104の構成は適宜変更す
ることができる。
Further, in the above embodiment, the screen coordinate axis (y of the image pickup means S1 along the direction of travel of the first boundary Nz in the machine body (y
As a criterion for determining the end of the work process (that is, the field process) based on the position information on the axis, the line corresponding to the first boundary Nz is the entire width in the vertical direction of the screen from the lower end position of the screen (in number of lines). It is determined whether or not the position is within 1/4 (8 lines) of 32 lines). However, this criterion is not limited to 1/4 (8 lines) of the full width in the vertical direction of the screen. The configuration of the determination unit 104 can be appropriately changed according to the device status such as the screen magnification of the unit S1 and the imaging angle.

【0043】又、上記実施例では、本発明を自動走行作
業車としての田植え機に適用して、作業地としての圃場
Mとこれに隣接する非作業地としての畦Nとの第1境界
(終端検出用)及び第2境界(走行制御用)を検出し、
第2境界に沿って自動走行させながら終端の検出に伴い
旋回させるようにした場合を例示したが、本発明は、芝
刈り機等の他の自動走行作業車にも適用できるものであ
って、その際の作業地M及び非作業地Nの種類や機体の
走行系の構成等、各部の具体構成、並びに、検出された
作業地Mと非作業地Nとの前記第1境界(終端検出用)
及び第2境界(走行制御用)の情報の利用形態は、各種
変更できる。
Further, in the above embodiment, the present invention is applied to the rice transplanter as the automatic traveling work vehicle, and the first boundary between the field M as the work place and the ridge N as the non-work place adjacent thereto ( Detecting the end point) and the second boundary (for running control),
Although the case of turning along with the detection of the end while automatically traveling along the second boundary is illustrated, the present invention is also applicable to other automatic traveling work vehicles such as lawn mowers, At that time, the types of the work site M and the non-work site N, the configuration of each part of the traveling system of the machine body, and the like, and the first boundary between the detected work site M and the non-work site N (for detecting the end point) )
The usage pattern of the information of the second boundary (for traveling control) can be variously changed.

【0044】尚、特許請求の範囲の項に図面との対照を
便利にするために符号を記すが、該記入により本発明は
添付図面の構成に限定されるものではない。
It should be noted that reference numerals are given in the claims for convenience of comparison with the drawings, but the present invention is not limited to the configurations of the accompanying drawings by the entry.

【図面の簡単な説明】[Brief description of drawings]

【図1】制御構成のブロック図FIG. 1 is a block diagram of a control configuration.

【図2】畦際検出処理のフローチャートFIG. 2 is a flowchart of the edge detection process.

【図3】終端検出処理のフローチャートFIG. 3 is a flowchart of end detection processing.

【図4】画像処理の説明図FIG. 4 is an explanatory diagram of image processing.

【図5】画像処理の説明図FIG. 5 is an explanatory diagram of image processing.

【図6】ハフ変換の説明図FIG. 6 is an explanatory diagram of Hough transform.

【図7】撮像視野における機体進行方向と近似直線の関
係を示す説明図
FIG. 7 is an explanatory diagram showing the relationship between the aircraft traveling direction and the approximate straight line in the imaging field of view.

【図8】田植え機の概略平面図FIG. 8 is a schematic plan view of a rice transplanter.

【図9】田植え機の概略側面図FIG. 9 is a schematic side view of the rice transplanter.

【符号の説明】[Explanation of symbols]

S1 撮像手段 N 非作業地 Ka 領域 M 作業地 Nz 第1境界 Nk 第2境界 100 領域抽出手段 101 第1境界検出手段 102 第2境界検出手段 103 選別手段 104 判断手段 S1 image pickup means N non-working area Ka area M working area Nz first boundary Nk second boundary 100 area extracting means 101 first boundary detecting means 102 second boundary detecting means 103 selecting means 104 judging means

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 機体進行方向前方側を撮像する撮像手段
(S1)と、その撮像手段(S1)の撮像画像情報に基
づいて、機体進行方向に並ぶ複数ラインの夫々において
機体進行方向と交差する方向に並ぶ複数の領域のうちで
非作業地(N)に対応する領域(Ka)を抽出する領域
抽出手段(100)と、前記複数ラインのうちで前記領
域抽出手段(100)によって抽出された前記領域(K
a)の数が設定数以上となるラインの機体進行方向での
位置情報に基づいて、前記非作業地(N)とこれに機体
進行方向の手前側で隣接する作業地(M)との第1境界
(Nz)を検出する第1境界検出手段(101)と、こ
の第1境界検出手段(101)によって検出された前記
第1境界(Nz)の機体進行方向に沿った前記撮像手段
(S1)の画面座標軸上での位置情報に基づいて作業行
程の終端を判断する判断手段(104)とが設けられた
自動走行作業車用の終端検出装置であって、 前記領域抽出手段(100)にて抽出された領域情報に
基づいて、前記非作業地(N)とこれに機体進行方向に
交差する方向で隣接する前記作業地(M)との第2境界
(Nk)を検出する第2境界検出手段(102)と、前
記領域抽出手段(100)によって抽出された前記領域
(Ka)のうちで、前記第2境界検出手段(102)に
よって検出された前記第2境界(Nk)の位置よりも前
記作業地(M)側に位置する領域(Ka)のみを選別す
る選別手段(103)とが設けられ、 前記第1境界検出手段(101)は、前記選別手段(1
03)によって選別処理された前記領域(Ka)に基づ
いて、前記第1境界(Nz)の前記検出処理を実行する
ように構成されている自動走行作業車用の終端検出装
置。
1. An image pickup means (S1) for picking up an image of the front side of the machine body advancing direction, and a plurality of lines lined up in the machine body advancing direction intersect with the machine body advancing direction based on imaged image information of the image pickup means (S1). A region extracting means (100) for extracting a region (Ka) corresponding to the non-working place (N) among a plurality of regions arranged in the direction, and the region extracting means (100) for extracting the region among the plurality of lines. The area (K
Based on the position information in the machine advancing direction of the line in which the number of a) is equal to or more than the set number, the non-working area (N) and the work area (M) adjacent to the non-working area (N) adjacent to the non-working area First boundary detection means (101) for detecting one boundary (Nz), and the imaging means (S1) along the aircraft traveling direction of the first boundary (Nz) detected by the first boundary detection means (101). ) Is a terminal detecting device for an automated traveling work vehicle, which is provided with a judging means (104) for judging the end of the work stroke based on the position information on the screen coordinate axis, and the area extracting means (100) includes: A second boundary for detecting a second boundary (Nk) between the non-working site (N) and the work site (M) adjacent to the non-working site (N) in a direction intersecting with the non-working site (N) based on the extracted area information. The detecting means (102) and the area extracting means (100) Therefore, in the extracted area (Ka), an area (Ka) located closer to the work site (M) than the position of the second boundary (Nk) detected by the second boundary detecting means (102). ) Is provided, and the first boundary detection means (101) is provided with the selection means (1).
03) An end detection device for an automated work vehicle configured to execute the detection process of the first boundary (Nz) based on the region (Ka) that has been selected by the process 03).
JP4175853A 1992-07-03 1992-07-03 End detecting device for automatic travel working vehicle Pending JPH0619541A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4175853A JPH0619541A (en) 1992-07-03 1992-07-03 End detecting device for automatic travel working vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4175853A JPH0619541A (en) 1992-07-03 1992-07-03 End detecting device for automatic travel working vehicle

Publications (1)

Publication Number Publication Date
JPH0619541A true JPH0619541A (en) 1994-01-28

Family

ID=16003349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4175853A Pending JPH0619541A (en) 1992-07-03 1992-07-03 End detecting device for automatic travel working vehicle

Country Status (1)

Country Link
JP (1) JPH0619541A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022149408A1 (en) * 2021-01-05 2022-07-14 株式会社クボタ Travel assistance system for agricultural machine

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022149408A1 (en) * 2021-01-05 2022-07-14 株式会社クボタ Travel assistance system for agricultural machine

Similar Documents

Publication Publication Date Title
JP3044141B2 (en) Planting condition detector for crop planting machines
JPH0619541A (en) End detecting device for automatic travel working vehicle
JP2815760B2 (en) Crop row detector
JPH0759407A (en) Traveling controller of automatic traveling working car
JP3020734B2 (en) Boundary detection device for autonomous vehicles
JP2907613B2 (en) Crop row detector
JP2624390B2 (en) Crop row detector
JP2520104B2 (en) Boundary detection device for autonomous vehicles
JPH0628032A (en) Traveling control device for automatic traveling working vehicle
JP2510660B2 (en) Image-capturing type traveling control device for automated guided vehicles
JPH069011B2 (en) Travel control system for automated guided vehicles
JP2907612B2 (en) Crop row detector
JPH0610774B2 (en) Imaging type steering control device for automated driving vehicles
JP2721072B2 (en) Crop row detector
JPH07104720B2 (en) Image-capturing boundary detection device for self-driving work vehicles
JPH0619542A (en) Traveling controller for automatic travel working vehicle
JPH07222504A (en) Method for controlling travel of self-traveling working vehicle
JP2721071B2 (en) Crop row detector
JPH0575336B2 (en)
JP2828520B2 (en) Crop row detection device for work equipment
JPH0575335B2 (en)
JPH07184437A (en) Planting state detecting device for crop planting machine
JPH0624016B2 (en) Imaging type boundary detection device
JP2585471B2 (en) Boundary detection device for autonomous vehicles
JPH0575332B2 (en)