JP3020734B2 - Boundary detection device for autonomous vehicles - Google Patents

Boundary detection device for autonomous vehicles

Info

Publication number
JP3020734B2
JP3020734B2 JP4175178A JP17517892A JP3020734B2 JP 3020734 B2 JP3020734 B2 JP 3020734B2 JP 4175178 A JP4175178 A JP 4175178A JP 17517892 A JP17517892 A JP 17517892A JP 3020734 B2 JP3020734 B2 JP 3020734B2
Authority
JP
Japan
Prior art keywords
area
information
ridge
field
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP4175178A
Other languages
Japanese (ja)
Other versions
JPH0619540A (en
Inventor
正徳 藤原
正彦 林
保生 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kubota Corp
Original Assignee
Kubota Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kubota Corp filed Critical Kubota Corp
Priority to JP4175178A priority Critical patent/JP3020734B2/en
Publication of JPH0619540A publication Critical patent/JPH0619540A/en
Application granted granted Critical
Publication of JP3020734B2 publication Critical patent/JP3020734B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Guiding Agricultural Machines (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、機体進行方向前方側の
作業地及びこれに機体進行方向に交差する方向で隣接す
る非作業地を撮像する撮像手段と、その撮像手段による
撮像画像情報に基づいて、前記非作業地に対応する領域
を抽出する領域抽出手段と、この領域抽出手段によって
抽出された前記領域の情報に基づいて、前記作業地と前
記非作業地との境界に対応する線分を求める演算手段と
が設けられた自動走行作業車用の境界検出装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image pickup means for picking up an image of a work place in front of the fuselage advancing direction and a non-work place adjacent thereto in a direction intersecting with the fuselage advancing direction. Area extracting means for extracting an area corresponding to the non-working area based on the information of the area extracted by the area extracting means, and a line corresponding to a boundary between the working area and the non-working area. The present invention relates to a boundary detecting device for an automatic traveling work vehicle provided with a calculating means for calculating the minute.

【0002】[0002]

【従来の技術】この種の自動走行作業車用の境界検出装
置は、例えば、自動走行作業車としての田植え機によっ
て、非作業地としての畦に隣接する作業地としての圃場
に苗を株単位で設定間隔毎に植え付ける際に、機体を機
体進行方向に沿う畦と圃場との境界つまり畦際に沿って
自動走行させるための制御情報を得るために、機体進行
方向前方側を撮像する撮像手段の撮像画像情報におい
て、例えば畦の大部分を占める草と圃場である水面や泥
面等との色情報の差に基づいて畦に対応して抽出された
領域の情報から、上記畦際に対応する線分を直線や曲線
に演算処理して求めるものである。
2. Description of the Related Art A boundary detecting device for an automatic traveling work vehicle of this type uses, for example, a rice planting machine as an automatic traveling work vehicle, in which seedlings are planted in units of a plant in a field as a work site adjacent to a ridge as a non-work site. Imaging means for imaging the front side in the body traveling direction in order to obtain control information for automatically traveling along the boundary between the ridge and the field along the body traveling direction, that is, the ridge side, when planting at every set interval in In the captured image information, for example, from the information of the region extracted corresponding to the ridge based on the color information difference between grass occupying most of the ridge and the water surface or mud surface in the field, The calculated line segment is calculated and processed into a straight line or a curve.

【0003】そして、従来では、上記抽出された領域に
おいて、機体進行方向に交差する方向に沿った前記撮像
手段の画面座標軸の各走査線上で最も圃場側に寄って位
置する画素を代表点として抽出し、これらの代表点の情
報に基づいて、前記境界(畦際)に対応する線分を求め
るように構成されていた。
Conventionally, in the extracted area, a pixel located closest to the field side on each scanning line on the screen coordinate axis of the imaging means along a direction intersecting with the body moving direction is extracted as a representative point. Then, based on the information of these representative points, a line segment corresponding to the boundary (at the ridge) is obtained.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上記従
来技術では、圃場面上に畦上の草と色情報が共通する例
えば浮き草等が存在した場合には、畦上の草との区別が
つかず、しかも、この浮き草等は画面座標軸の走査線上
で畦上の草よりも必ず圃場側に寄って位置するために、
その浮き草等に対応する領域の中で最も圃場側に寄って
位置する画素が前記代表点として選別され、上記演算処
理の対象となる。従って、この場合は、正規の畦際の位
置よりも圃場側にずれた位置が畦際の位置として誤って
検出されることになり、この結果、畦際検出情報を操向
制御情報として活用しにくいという不利があった。
However, in the above-mentioned prior art, when there is, for example, a floating grass having the same color information as the grass on the ridge on the field scene, it cannot be distinguished from the grass on the ridge. However, since the floating grass is always located closer to the field than the grass on the ridge on the scanning line of the screen coordinate axis,
The pixel located closest to the field in the area corresponding to the floating grass or the like is selected as the representative point, and is subjected to the arithmetic processing. Therefore, in this case, a position shifted to the field side from the normal position of the ridge is erroneously detected as the position of the ridge, and as a result, the ridge detection information is used as steering control information. There was a disadvantage that it was difficult.

【0005】本発明は、上記実情に鑑みてなされたもの
であって、その目的は、畦際等の作業地と非作業地との
境界を浮き草等の外乱要因に左右されず、精度良く検出
できる自動走行作業用の境界検出装置を提供することに
ある。
The present invention has been made in view of the above circumstances, and an object of the present invention is to accurately detect a boundary between a work site such as a ridge and a non-work site without being affected by disturbance factors such as floating grass. It is an object of the present invention to provide a boundary detecting device for an automatic traveling operation.

【0006】[0006]

【課題を解決するための手段】本発明による自動走行作
業車用の境界検出装置の特徴構成は、前記領域抽出手段
によって抽出された前記領域の中で、機体進行方向に交
差する方向に沿った前記撮像手段の画面座標軸の各走査
線上において、連続する画素の個数が所定個数以上で、
且つ、最も前記作業地側に寄って位置する画素列のみを
選別する選別手段と、この選別手段によって選別された
前記各画素列において最も前記作業地側に寄って位置す
る画素を代表点として抽出する代表点抽出手段とが設け
られ、前記演算手段は、前記代表点抽出手段によって抽
出された前記代表点に基づいて前記線分を求めるように
構成されている点にある。
According to the present invention, a boundary detecting device for an automatic traveling work vehicle according to the present invention is characterized in that, in the region extracted by the region extracting means, the boundary detecting device extends along a direction intersecting with a body traveling direction. On each scanning line of the screen coordinate axis of the imaging unit, the number of continuous pixels is a predetermined number or more,
A selection unit that selects only a pixel row closest to the work place side; and a pixel positioned closest to the work place side in each of the pixel rows selected by the selection means is extracted as a representative point. And a calculating unit that calculates the line segment based on the representative points extracted by the representative point extracting unit.

【0007】[0007]

【作用】本発明の特徴構成によれば、撮像画像情報より
非作業地としての例えば畦等の大部分を占める草と作業
地としての例えば圃場の水面や泥面等の色情報の差に基
づいて畦に対応して抽出された領域の中で、作業地であ
る圃場上に非作業地である畦の画像情報と共通する情報
を持つ浮き草等の領域が存在した場合であっても、機体
進行方向に交差する方向に沿った画面座標軸の各走査線
上において連続する画素の個数が所定個数(例えば画面
横幅の1/4に相当する個数)以上の画素列のみが選別
されて所定個数以下の画素列は選別されないので、通常
連続する画素数が少ない上記浮き草等に対応する画素列
は除去されることになる。そして、浮き草等の誤差要因
が除去された各走査線上の画素列の中で最も作業地側に
寄って位置する画素列が選別され、更に、この選別され
た画素列において最も作業地側に寄って位置する画素が
代表点として抽出され、これらの代表点が作業地と非作
業地との境界に対応する線分を求める演算処理の対象と
されるので、本来の境界の位置から外れることなく、上
記境界に対応する線分の検出精度を高くすることができ
る。
According to the characteristic structure of the present invention, based on the difference between color information such as grass occupying most of the ridges as a non-working place and the water surface or muddy surface of a field as a working place, based on the captured image information. Even if there is an area such as floating grass that has the same information as the image information of the non-work area ridge on the field that is the work area, Only a pixel row in which the number of consecutive pixels on each scanning line of the screen coordinate axis along the direction intersecting with the traveling direction is equal to or greater than a predetermined number (for example, a number corresponding to 1 / of the screen width) is selected and is equal to or less than the predetermined number. Since the pixel rows are not sorted out, the pixel rows corresponding to the above-mentioned floating grass or the like, which usually have a small number of continuous pixels, are removed. Then, a pixel row closest to the work site is selected from among the pixel rows on each scanning line from which error factors such as floating grass have been removed, and further, the pixel row closest to the work site in the selected pixel rows is selected. Are extracted as representative points, and these representative points are subjected to an arithmetic processing for obtaining a line segment corresponding to the boundary between the work place and the non-work place, so that the representative points are not deviated from the original boundary position. The detection accuracy of the line segment corresponding to the boundary can be increased.

【0008】[0008]

【発明の効果】従って、畦際等の作業地と非作業地との
境界を浮き草等の外乱要因に左右されず精度良く検出で
き、もって自動走行作業車を作業地と非作業地との境界
に沿って走行させる際の操向制御情報として有効に活用
できるものとなった。
As described above, the boundary between the working area and the non-working area, such as on a ridge, can be accurately detected without being influenced by disturbance factors such as floating grass. Can be effectively used as steering control information when traveling along the road.

【0009】[0009]

【実施例】以下、本発明を自動走行作業車としての田植
え機によって非作業地としての畦Nに隣接する作業地と
しての圃場Mに苗を植え付けるときに、圃場Mと畦Nと
の境界つまり畦際Nkを検出するための装置に適用した
場合の実施例を、図面に基づいて説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in which a rice planter as an automatic traveling work vehicle is used to plant seedlings in a field M as a working place adjacent to a ridge N as a non-working place. An example in which the present invention is applied to a device for detecting a ridgeline Nk will be described with reference to the drawings.

【0010】図6及び図7に示すように、前輪1F及び
後輪1Rの何れをもステアリング操作自在に構成された
機体Vの後方に、苗植え付け装置2が昇降自在に設けら
れ、その苗植え付け装置2によって複数個の苗Tが6列
状に並んだ状態で植え付けられる。そして、機体進行方
向前方側の圃場M及びこれに機体進行方向に交差する方
向で隣接する畦Nを撮像する撮像手段としてのカラー式
のイメージセンサS1が、前記機体Vの前方側に設けら
れている。
As shown in FIGS. 6 and 7, a seedling planting apparatus 2 is provided at the rear of an airframe V having both front wheels 1F and rear wheels 1R operable for steering operation. The plurality of seedlings T are planted by the device 2 in a state of being arranged in six rows. A color-type image sensor S1 is provided in front of the machine body V as an image pickup means for imaging a field M on the front side of the machine body traveling direction and a ridge N adjacent to the field M in a direction intersecting the machine body traveling direction. I have.

【0011】前記イメージセンサS1の取り付け構造に
ついて説明すれば、前記機体Vの横外側方に向かって突
出された支持部材4の先端部に、前記機体Vに対して機
体横外側方に隣接する畦N及び圃場Mを機体進行方向に
向かって斜め上方から撮像するように設けられている。
つまり、前記機体Vが機体進行方向に沿う前記畦際Nk
に対して適正に沿っている状態において、畦際Nkに対
応する線分Lが、前記イメージセンサS1の撮像視野の
中央を前後方向に通る走行基準線Laと一致するように
してある。又、前記イメージセンサS1は、機体Vの左
右夫々に各1個が設けられ、使用する側のセンサを左右
切り換え可能になっている。
The mounting structure of the image sensor S1 will be described. A ridge adjacent to the body V laterally outside the body V is provided at the tip of the support member 4 projecting laterally outside the body V. N and the field M are provided so as to be imaged obliquely from above in the body traveling direction.
That is, the aircraft V is positioned at the ridge Nk along the aircraft traveling direction.
The line segment L corresponding to the ridgeline Nk coincides with the traveling reference line La passing through the center of the imaging field of view of the image sensor S1 in the front-rear direction in a state in which the line Lk is properly aligned. One image sensor S1 is provided on each of the right and left sides of the machine body V, and the sensor on the side to be used can be switched left and right.

【0012】前記機体Vの構成について説明すれば、図
1に示すように、エンジンEの出力が変速装置5を介し
て前記前輪1F及び前記後輪1Rの夫々に伝達され、前
記変速装置5による変速操作状態が予め設定された設定
走行速度に対応する操作状態となるように、変速状態検
出用ポテンショメータR3 が設けられ、そして、その変
速状態検出用ポテンショメータR3 の検出情報に基づい
て、変速用電動モータ6を駆動するように構成されてい
る。
To explain the structure of the body V, as shown in FIG. 1, the output of the engine E is transmitted to each of the front wheel 1F and the rear wheel 1R via a transmission 5, and as the operation state of the speed change operation state corresponds to a preset speed, the shifting state detection potentiometer R 3 provided, and, on the basis of the detection information of the shifting state detecting potentiometer R 3, shift It is configured to drive the electric motor 6 for use.

【0013】又、前記前輪1F及び前記後輪1Rは、夫
々油圧シリンダ7F,7Rによって各別にパワーステア
リング操作されるように構成され、車輪のステアリング
操作に連動するステアリング角検出用ポテンショメータ
1 ,R2 による検出ステアリング角が目標ステアリン
グ角となるように、前記油圧シリンダ7F,7Rを作動
させる電磁操作式の制御弁8F,8Rを駆動するように
構成されている。
[0013] Further, the front wheel 1F and the rear wheel 1R are respectively hydraulic cylinders 7F, is configured to be powered steering operation to each other by 7R, potentiometer R 1 for a steering angle detection interlocked with the steering operation of the wheel, R The electromagnetically operated control valves 8F and 8R for operating the hydraulic cylinders 7F and 7R are configured to be driven such that the steering angle detected by 2 becomes the target steering angle.

【0014】従って、前輪1F及び後輪1Rを同位相で
且つ同角度に操向する平行ステアリング形式、前輪1F
及び後輪1Rを逆位相で且つ同角度に操向する4輪ステ
アリング形式、及び、前輪1Fのみを向き変更する2輪
ステアリング形式の三種類のステアリング形式を選択使
用できるようになっている。但し、前記イメージセンサ
S1の撮像情報に基づいて自動的に操向操作する時に
は、前記2輪ステアリング形式を用いると共に、1つの
圃場行程を終了して次の圃場行程に移動する時には、前
記4輪ステアリング形式や平行ステアリング形式を用い
るようになっている。尚、図1中、S2は前記変速装置
5の出力回転数に基づいて走行距離を検出するための距
離センサである。
Therefore, a front steering wheel 1F is a parallel steering system in which the front wheel 1F and the rear wheel 1R are steered in the same phase and at the same angle.
It is possible to selectively use three types of steering types, that is, a four-wheel steering type in which the rear wheels 1R are steered in opposite phases and at the same angle, and a two-wheel steering type in which only the front wheels 1F are changed in direction. However, when the steering operation is automatically performed based on the imaging information of the image sensor S1, the two-wheel steering system is used. When one field trip is completed and the next field trip is performed, the four-wheel steering is used. Steering type and parallel steering type are used. In FIG. 1, S2 is a distance sensor for detecting a traveling distance based on the output rotation speed of the transmission 5.

【0015】次に、前記イメージセンサS1の撮像情報
に基づいて、前記畦際Nkに対応する線分Lを近似処理
するための制御構成について説明する。図1に示すよう
に、前記イメージセンサS1は、三原色情報R,G,B
を各別に出力するように構成され、そして、畦Nの大部
分を占める草Kの色成分を含む緑色情報Gから草Kの色
成分を含まない青色情報Bを減算して2値化することに
より、前記畦Nに対応する領域Kaを抽出するように構
成されている。
Next, a control configuration for approximating the line segment L corresponding to the ridgeline Nk based on the image pickup information of the image sensor S1 will be described. As shown in FIG. 1, the image sensor S1 includes three primary color information R, G, B
And binarizing by subtracting blue information B that does not include the color component of grass K from green information G that includes the color component of grass K that occupies most of the ridge N. Thus, a region Ka corresponding to the ridge N is extracted.

【0016】説明を加えれば、前記緑色情報Gから前記
青色情報Bをアナログ信号の状態で減算する減算器9、
その減算器9の出力を予め設定された設定閾値に基づい
て2値化して前記領域Kaに対応する2値化情報を出力
するコンパレータ10、そのコンパレータ10の出力信
号を予め設定された画素密度(32×32画素/1画面
に設定してある)に対応した画素情報として記憶する画
像メモリ11、及び、この画像メモリ11に記憶された
情報に基づいて前記畦際Nkに対応する線分Lを直線や
曲線に近似する情報を求めると共に、その情報に基づい
て走行制御するマイクロコンピュータ利用の制御装置1
2の夫々が設けられている。
In addition, a subtracter 9 for subtracting the blue information B from the green information G in the form of an analog signal,
A comparator 10 that binarizes the output of the subtracter 9 based on a preset threshold value and outputs binarized information corresponding to the area Ka, and outputs an output signal of the comparator 10 to a preset pixel density ( An image memory 11 that stores pixel information corresponding to (32 × 32 pixels / 1 screen), and a line segment L corresponding to the ridgeline Nk based on the information stored in the image memory 11. A control device 1 using a microcomputer that obtains information approximating a straight line or a curve and controls traveling based on the information.
2 are provided.

【0017】つまり、前記減算器9及び前記コンパレー
タ10を利用して、前記イメージセンサS1による撮像
画像情報に基づいて、草Kが大部分を占める畦Nに対応
する領域Kaを抽出する領域抽出手段100が構成さ
れ、又、前記制御装置12を利用して、前記領域抽出手
段100によって抽出された前記領域Kaの中で、機体
進行方向に沿った前記イメージセンサS1の画面座標軸
(y軸)の各走査線(y=1〜32の32本)上におい
て、連続する画素の個数が所定個数(例えば画面横幅の
1/4に対応する個数つまり8個)以上で、且つ、最も
前記圃場M側に寄って位置する画素列Krのみを選別す
る選別手段101と、この選別手段101によって選別
された前記各画素列Krにおいて最も前記圃場M側に寄
って位置する点を代表点Pとして抽出する代表点抽出手
段103と、前記領域抽出手段100によって抽出され
た前記領域Kaの情報に基づいて、前記圃場Mと前記畦
Nとの境界に対応する線分Lを求める演算手段102と
が夫々構成されている。そして、前記演算手段102
は、前記代表点抽出手段103によって抽出された前記
代表点Pに基づいて前記線分Lを求めるように構成され
ている。
That is, using the subtractor 9 and the comparator 10, an area extracting means for extracting an area Ka corresponding to the ridge N in which the grass K occupies most, based on image information taken by the image sensor S1. 100 is configured, and in the area Ka extracted by the area extracting means 100 using the control device 12, the screen coordinate axis (y-axis) of the image sensor S1 along the body traveling direction is set. On each scanning line (y = 1 to 32, 32 lines), the number of continuous pixels is equal to or more than a predetermined number (for example, a number corresponding to 1 / of the screen width, that is, 8), and Means 101 for selecting only the pixel row Kr located closer to the field, and a point which is closest to the field M side in each of the pixel rows Kr selected by the sorting means 101. Calculating means for obtaining a line segment L corresponding to a boundary between the field M and the ridge N based on information on the area Ka extracted by the area extracting means 100; And 102 respectively. And the calculating means 102
Is configured to obtain the line segment L based on the representative point P extracted by the representative point extracting means 103.

【0018】次に、図2に示すフローチャートに基づい
て、前記制御装置12の動作を説明しながら、各部の構
成について詳述すれば、前記機体Vが設定距離を走行す
る毎、又は、設定時間毎に、前記イメージセンサS1に
よる撮像処理が実行され、この撮像処理の後、前記領域
抽出手段100によって前記畦Nに対応する領域Kaが
抽出されることになる(図3(イ),(ロ)参照)。
Next, the operation of the control device 12 will be described with reference to the flow chart shown in FIG. 2, and the configuration of each part will be described in detail. Each time, the image sensor S1 performs an imaging process, and after this imaging process, the region Ka corresponding to the ridge N is extracted by the region extracting means 100 (FIGS. 3A and 3B). )reference).

【0019】ここで、前記領域抽出手段100の動作に
ついて説明を加えれば、イメージセンサS1から出力さ
れる三原色情報のうちの緑色情報Gと青色情報Bとの強
度について、草Kが存在する部分、泥及び土面に対応す
る部分、自然光を反射する水面部分夫々に対して考察す
ると、草Kが存在する部分では、緑色情報Gの強度が大
で、且つ、青色情報Bの強度が小となる。又、泥及び土
面に対応する部分では、緑色情報G及び青色情報Bのい
ずれの強度も小となる。さらに、水面部分では、緑色情
報G及び青色情報Bのいずれの強度も大となる。そこ
で、緑色情報Gから青色情報Bを減算した信号レベルの
大きさにより、水面で反射される自然光の影響並びに泥
及び土面に対応する画像情報を除去するのである。つま
り、前記緑色情報Gから青色情報Bを減算した信号レベ
ルが設定閾値以上のレベルになる部分を抽出して2値化
することにより、草Kに対応した領域Kaの情報を抽出
できるのである。尚、図では、畦N側だけでなく圃場M
にも草Kに対応する領域Kaが抽出されているが、これ
は圃場M上に存在する浮き草等によるものである。
Here, the operation of the region extracting means 100 will be described in more detail. The intensity of the green information G and the blue information B of the three primary color information output from the image sensor S1 indicates a portion where the grass K exists, Considering the portion corresponding to the mud and soil surfaces and the water surface portion reflecting natural light, the intensity of the green information G is high and the intensity of the blue information B is low in the portion where the grass K exists. . In the portion corresponding to the mud and the soil surface, the intensity of both the green information G and the blue information B is small. Further, in the water surface portion, the intensity of both the green information G and the blue information B is large. Therefore, the influence of natural light reflected on the water surface and the image information corresponding to the mud and soil surfaces are removed based on the signal level obtained by subtracting the blue information B from the green information G. That is, by extracting and binarizing a portion where the signal level obtained by subtracting the blue information B from the green information G is equal to or higher than the set threshold value, the information of the region Ka corresponding to the grass K can be extracted. In the figure, not only the ridge N side but also the field M
The region Ka corresponding to the grass K is also extracted in FIG.

【0020】次に、画面座標軸のy軸上の32本の各水
平走査線毎に、前記選別手段101によって前記選別処
理がなされ、この結果、各水平走査線上において、所定
個数(例えば8個)以上の連続する画素数で、最も圃場
M側に寄って位置する画素列Krが選別される。従っ
て、所定個数以上の連続する画素数の画素列Krが存在
しなければ、その水平走査ラインでは選別される画素列
Krはない。そして、圃場M上に存在する浮き草等によ
る領域Kaはその画素数が通常前記所定個数より少ない
ので、上記選別処理によって、浮き草等に対応する領域
Kaは除去される。次に、前記選別された各画素列Kr
において最も圃場M側に寄って位置する画素を代表点P
として抽出する代表点抽出処理が前記代表点抽出手段1
03によって実行される(以上、図3(ハ)参照)。そ
して、画面座標軸の水平走査ラインの全てについて、上
記選別処理と代表点抽出処理が終了したら、これらの代
表点Pに基づいて前記線分Lを演算手段102によって
求めることになる。ここでは、ハフ変換処理によって求
めるように構成している。
Next, for each of the 32 horizontal scanning lines on the y-axis of the screen coordinate axis, the selecting process is performed by the selecting means 101. As a result, a predetermined number (for example, 8) of the horizontal scanning lines are obtained. The pixel row Kr located closest to the field M side is selected based on the number of continuous pixels as described above. Therefore, if there is no pixel row Kr having a predetermined number or more of continuous pixels, no pixel row Kr is selected on the horizontal scanning line. Since the number of pixels of the region Ka of floating grass and the like existing on the field M is usually smaller than the predetermined number, the region Ka corresponding to the floating grass and the like is removed by the above-described sorting process. Next, the selected pixel rows Kr
The pixel located closest to the field M side in FIG.
The representative point extraction processing for extracting as
03 (see FIG. 3C). When the selection process and the representative point extraction process are completed for all the horizontal scanning lines on the screen coordinate axis, the line segment L is obtained by the calculating means 102 based on these representative points P. Here, it is configured to be obtained by the Hough transform processing.

【0021】ハフ変換について説明すれば図4に示すよ
うに、前記イメージセンサS1の撮像視野の中心(x=
16,y=16)を通るx軸を極座標系における基準線
として、前記各代表点Pを通る複数本の直線を、下記
(i)式に基づいて前記x軸に対して0乃至180度の
範囲において予め複数段階に設定された傾きθと、原点
つまり上記撮像視野中心に対応する画面中央からの距離
ρとの組み合わせとして求める。 ρ=y・sinθ+x・cosθ ……(i)
To explain the Hough transform, as shown in FIG. 4, the center of the field of view of the image sensor S1 (x =
16, y = 16) as a reference line in the polar coordinate system, a plurality of straight lines passing through the respective representative points P are defined by 0 to 180 degrees with respect to the x axis based on the following equation (i). It is determined as a combination of the inclination θ previously set in a plurality of steps in the range and the distance ρ from the origin, that is, the center of the screen corresponding to the center of the imaging visual field. ρ = y · sinθ + x · cosθ (i)

【0022】そして、前記代表点Pの全てについて、前
記複数段階に設定された傾きθの値が180度に達する
まで、前記パラメータ(ρ,θ)の組み合わせに対応す
る各直線の頻度を計数するための二次元ヒストグラムを
加算する処理を繰り返す。全代表点Pに対する直線の頻
度の計数が完了すると、前記二次元ヒストグラムに加算
された値から、最大頻度となる前記傾きθと前記距離ρ
の組み合わせを求めることにより、最大頻度となる一つ
の直線Lxを決定し、その直線Lxを、前記イメージセ
ンサS1の撮像面において前記畦際Nkに対応する線分
Lを直線近似した情報として求める。
Then, for all of the representative points P, the frequency of each straight line corresponding to the combination of the parameters (ρ, θ) is counted until the value of the inclination θ set in the plurality of steps reaches 180 degrees. Is repeated for adding the two-dimensional histogram. When the counting of the frequency of the straight line with respect to all the representative points P is completed, the slope θ and the distance ρ, which are the maximum frequencies, are obtained from the value added to the two-dimensional histogram.
Is determined, and one straight line Lx having the maximum frequency is determined, and the straight line Lx is obtained as information obtained by linearly approximating the line segment L corresponding to the ridgeline Nk on the imaging surface of the image sensor S1.

【0023】次に、前記撮像面における直線Lxを、予
め実測した地表面での前記イメージセンサS1の撮像視
野Aの形状と大きさの記憶情報と、前記最大頻度の直線
Lxが通る撮像面での画素の位置a,b,c(図5参
照) とに基づいて、地表面における直線Lの情報に変換
する。すなわち、図5に示すように、前記撮像視野Aの
横幅方向中央を前後方向に通る走行基準線Laに対する
傾きψと、横幅方向での位置δとの値として設定される
地表面上における直線Lの情報に変換することになる。
Next, the straight line Lx on the image pickup plane is calculated by using the storage information of the shape and size of the image pickup visual field A of the image sensor S1 on the ground surface measured in advance and the image pickup plane through which the straight line Lx of the maximum frequency passes. Are converted into information on a straight line L on the ground surface based on the pixel positions a, b, c (see FIG. 5). That is, as shown in FIG. 5, a straight line L on the ground surface set as a value of a slope に 対 す る with respect to a running reference line La passing through the center in the width direction of the imaging visual field A in the front-rear direction and a position δ in the width direction. Will be converted into information.

【0024】説明を加えれば、前記畦際Nkに対応する
直線Lに交差する方向となる前記撮像視野Aの前後位置
(y=0及びy=32)での2辺の長さl0 ,l32、画
面中央(x=16,y=16となる画素位置)における
前記撮像視野Aの横幅方向での長さl16、及び、前記前
後2辺間の距離hの夫々を予め実測して、前記制御装置
12に記憶させておくことになる。
In other words, the lengths l 0 , l 2 of the two sides at the front and rear positions (y = 0 and y = 32) of the imaging visual field A in the direction intersecting the straight line L corresponding to the ridge Nk 32 , the length l 16 of the imaging field of view A in the width direction at the center of the screen (the pixel position where x = 16, y = 16) and the distance h between the front and rear sides are each actually measured in advance. This will be stored in the control device 12.

【0025】そして、前記撮像面における直線Lxが、
前記撮像視野Aの前後位置での2辺に対応するx軸に交
差する画素の位置a,b(y=0,y=32となる位
置)のx座標の値X0,X32と、前記直線Lxが画面中央
を通るx軸に交差する画素の位置cのx座標の値X16
を、上記(i)式を変形した下記(ii)式から求めるこ
とになる。 Xi=(ρ−Yi・sinθ)/cosθ ……(ii) 但し、Yiは、夫々0,16,32を代入する。
Then, a straight line Lx on the imaging plane is
X-coordinate values X 0 and X 32 at pixel positions a and b (positions where y = 0, y = 32) intersecting the x-axis corresponding to two sides at the front and rear positions of the imaging visual field A; The value X 16 of the x coordinate of the position c of the pixel where the straight line Lx intersects the x axis passing through the center of the screen is obtained from the following equation (ii) obtained by modifying the above equation (i). Xi = (ρ−Yi · sin θ) / cos θ (ii) Here, 0, 16, and 32 are substituted for Yi, respectively.

【0026】そして、上記(ii)式にて求められたx軸
での座標値に基づいて、下記(iii)式及び(iv)式か
ら、前記走行基準線Laに対する横幅方向での位置δ
と、傾きψとを求め、求めた位置δと傾きψとの値を、
地表面において前記畦際Nkに対応する直線Lの位置情
報として算出することになる。
Then, based on the coordinate values on the x-axis obtained by the above equation (ii), the following formulas (iii) and (iv) are used to calculate the position δ in the lateral width direction with respect to the travel reference line La.
And the slope ψ, and the obtained values of the position δ and the slope ψ
The position information is calculated as the position information of the straight line L corresponding to the ridge Nk on the ground surface.

【0027】[0027]

【数1】 (Equation 1)

【0028】従って、前記機体Vを機体進行方向に沿う
畦際Nkに沿って自動走行させるための操向制御におい
ては、前記直線Lの前記走行基準線Laに対する傾きψ
と横幅方向での位置δとを共に零に近づけるように、2
輪ステアリング形式で操向操作することになる。
Therefore, in the steering control for automatically moving the body V along the ridge Nk along the body traveling direction, the inclination of the straight line L with respect to the traveling reference line La
And the position δ in the width direction are both close to zero.
The steering operation will be performed in the form of wheel steering.

【0029】前記操向制御について説明すれば、前記直
線Lの前記走行基準線Laに対する傾きψと横幅方向で
の位置δ夫々の値、及び、前記前輪1Fの現在のステア
リング角φの値とから、下記(v)式に基づいて、前記
前輪1Fの目標操向角θfを設定し、そして、前記前輪
用のステアリング角検出用ポテンショメータR1 にて検
出される現在のステアリング角φが、目標操向角θfに
対して設定不感帯内に維持されるように、前記前輪用油
圧シリンダ7Fの制御弁8Fを駆動することになる。 θf=K1・δ+K2・ψ+K3 ・φ ……(v) 尚、K1,K2,K3 は、操向特性に応じて予め設定され
た定数である。
The steering control will now be described. The inclination ψ of the straight line L with respect to the travel reference line La, the value of the position δ in the width direction, and the value of the current steering angle φ of the front wheel 1F are described below. , based on (v) below formula, and sets the target steering angle θf of the front wheel 1F, and the current steering angle φ is detected by the steering angle detecting potentiometer R 1 for the front wheel, the target steering The control valve 8F of the front wheel hydraulic cylinder 7F is driven so as to be maintained within the set dead zone with respect to the direction angle θf. θf = K 1 δ + K 2 ψ + K 3 φ (v) K 1 , K 2 , and K 3 are constants set in advance according to the steering characteristics.

【0030】圃場行程の終端部に達して次の(この場合
は畦Nとは反対側の)圃場行程の始端部に向けてターン
させるためのターン制御の概要について説明すれば、前
記距離センサS2にて検出される走行距離が、一つの圃
場行程の長さに対応して設定された設定距離を超えるに
伴って、前記イメージセンサS1の画像情報から、例え
ば、圃場Mに対して進行方向前方側で隣接する畦Nの画
面上での位置情報から圃場行程の終端部に達したことを
検出させる。そして、圃場行程の終端部に達したと判断
されると、前記苗植え付け装置2による植え付け作業を
中断して、前記2輪ステアリング形式から前記4輪ステ
アリング形式に切り換えると共に、設定時間の間最大切
り角に維持することにより次の圃場行程側に180度方
向転換させる。この際に、前の行程で使用した前記イメ
ージセンサS1とは反対側のイメージセンサS1の画像
情報から、次の圃場行程に隣接する前の圃場行程の既植
苗Kの位置を検出しながら、次の圃場行程における機体
横幅方向での位置を修正させて、ターンを終了すること
になる。尚、ターン終了後は、前記2輪ステアリング形
式に復帰させて、次の圃場行程での操向制御を再開する
ことになる。
An outline of the turn control for reaching the end of the field stroke and starting toward the beginning of the next field stroke (in this case, on the opposite side of the ridge N) will be described. As the traveling distance detected at the time exceeds the set distance corresponding to the length of one field stroke, the image information of the image sensor S1, for example, the front in the traveling direction with respect to the field M From the position information on the screen of the ridge N adjacent on the side, it is detected that the end of the field process has been reached. When it is determined that the end of the field process has been reached, the planting operation by the seedling planting apparatus 2 is interrupted, the two-wheel steering mode is switched to the four-wheel steering mode, and the maximum cutting time is set for a set time. By maintaining at the corner, the vehicle turns 180 degrees to the next field stroke side. At this time, from the image information of the image sensor S1 on the opposite side to the image sensor S1 used in the previous step, the position of the already planted seedling K in the previous field step adjacent to the next field step is detected. Then, the position in the lateral direction of the aircraft in the field stroke is corrected, and the turn is completed. After the end of the turn, the steering is returned to the two-wheel steering mode, and the steering control in the next field trip is restarted.

【0031】〔別実施例〕上記実施例では、撮像手段と
してカラー式のイメージセンサS1を用いて、緑色情報
Gから青色情報Bを減算して設定閾値に基づいて2値化
することにより、草Kが大部分を占める畦Nに対応する
領域Kaを抽出するように構成した場合を例示したが、
例えば、三原色情報R,G,Bの全部を用いて、それら
の比が草Kの色に対応する設定比率範囲となる領域を前
記領域Kaとして抽出するようにしてもよく、あるい
は、前記撮像手段として白黒式のイメージセンサS1を
用いて、草Kと泥面等の他の箇所の明度信号を適当な閾
値設定に基づいて2値化することにより、簡便な装置で
領域Kaを抽出するようにしてもよく、領域抽出手段1
00の具体構成は、各種変更できる。
[Alternative Embodiment] In the above embodiment, the color image sensor S1 is used as the image pickup means, and the blue information B is subtracted from the green information G and binarized based on the set threshold value. Although the case where K is configured to extract the region Ka corresponding to the ridge N that occupies the majority is illustrated,
For example, using all of the three primary color information R, G, and B, a region whose ratio is within a set ratio range corresponding to the color of the grass K may be extracted as the region Ka. By using a black-and-white image sensor S1 to binarize brightness signals of grass K and other places such as mud surface based on appropriate threshold settings, the area Ka can be extracted by a simple device. Area extraction means 1
The specific configuration of 00 can be variously changed.

【0032】又、上記実施例では、画面座標軸(y軸)
の各水平走査線上において、連続する画素の個数が画面
横幅の1/4に対応する個数つまり8個以上である画素
列を選別するように選別手段101を構成したが、この
個数の判断基準は8個に限らず、例えば、畦N上の草K
の疎密状態が密であれば検出精度を上げるべく8個以上
に設定する一方、草Kの疎密状態が疎であれば検出不能
にならないように8個以下に設定する等、適宜増減変更
することができる。
In the above embodiment, the screen coordinate axis (y-axis)
On each horizontal scanning line, the selecting means 101 is configured to select a pixel row in which the number of continuous pixels is equal to 1/4 of the screen width, that is, 8 or more. Not limited to eight, for example, grass K on ridge N
If the density of the grass K is dense, set it to 8 or more in order to increase the detection accuracy, while if the density of the grass K is sparse, set it to 8 or less so that detection is not possible. Can be.

【0033】又、上記実施例では、ハフ変換を利用して
畦際Nkに対応する線分Lを直線近似するようにした場
合を例示したが、例えば、最小二乗法等を用いて直線近
似あるいは曲線近似した情報を求めることもできるもの
であって、演算手段102の具体構成は、各種変更でき
る。
Further, in the above embodiment, the case where the line segment L corresponding to the ridgeline Nk is linearly approximated using the Hough transform has been exemplified. The information obtained by approximating a curve can also be obtained, and the specific configuration of the calculation means 102 can be variously changed.

【0034】又、上記実施例では、本発明を自動走行作
業車としての田植え機を作業地としての圃場とこれに隣
接する非作業地としての畦Nとの境界である畦際Nkに
沿って自動走行させるための装置に適用した場合を例示
したが、本発明は、芝刈り機等の他の自動走行作業車に
も適用できるものであって、その際の作業地M及び非作
業地Nの種類や機体の走行系の構成等、各部の具体構
成、並びに、検出された作業地Mと非作業地Nとの境界
に対応する線分Lの情報の利用形態は、各種変更でき
る。
In the above embodiment, the present invention is applied to a rice planter as an automatic traveling work vehicle along a ridge Nk which is a boundary between a field as a work place and a ridge N as a non-work land adjacent thereto. Although the case where the present invention is applied to an apparatus for automatic traveling has been exemplified, the present invention is also applicable to other automatic traveling work vehicles such as lawnmowers, and a work place M and a non-work place N at that time. The configuration of each part, such as the type of the vehicle and the configuration of the traveling system of the aircraft, and the use form of the information of the line segment L corresponding to the detected boundary between the work place M and the non-work place N can be variously changed.

【0035】尚、特許請求の範囲の項に図面との対照を
便利にするために符号を記すが、該記入により本発明は
添付図面の構成に限定されるものではない。
Incidentally, reference numerals are written in the claims for convenience of comparison with the drawings, but the present invention is not limited to the configuration of the attached drawings by the entry.

【図面の簡単な説明】[Brief description of the drawings]

【図1】制御構成のブロック図FIG. 1 is a block diagram of a control configuration.

【図2】制御作動のフローチャートFIG. 2 is a flowchart of a control operation;

【図3】画像処理の説明図FIG. 3 is an explanatory diagram of image processing.

【図4】ハフ変換の説明図FIG. 4 is an explanatory diagram of a Hough transform.

【図5】撮像視野における機体進行方向と近似直線の関
係を示す説明図
FIG. 5 is an explanatory diagram showing a relationship between an aircraft traveling direction and an approximate straight line in an imaging visual field.

【図6】田植え機の概略平面図FIG. 6 is a schematic plan view of a rice transplanter.

【図7】田植え機の概略側面図FIG. 7 is a schematic side view of a rice transplanter.

【符号の説明】[Explanation of symbols]

M 作業地 N 非作業地 S1 撮像手段 Ka 領域 L 線分 Kr 画素列 P 代表点 100 領域抽出手段 101 選別手段 102 演算手段 103 代表点抽出手段 M Work area N Non-work area S1 Imaging means Ka area L line segment Kr Pixel row P Representative point 100 Area extraction means 101 Selection means 102 Operation means 103 Representative point extraction means

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平2−110605(JP,A) 特開 平4−112276(JP,A) 特開 平2−242406(JP,A) 特開 平2−301809(JP,A) 特開 平2−301810(JP,A) (58)調査した分野(Int.Cl.7,DB名) G05D 1/02 A01B 69/00 303 G06F 15/70 330 ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-2-110605 (JP, A) JP-A-4-112276 (JP, A) JP-A-2-242406 (JP, A) JP-A-2- 301809 (JP, A) JP-A-2-301810 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G05D 1/02 A01B 69/00 303 G06F 15/70 330

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 機体進行方向前方側の作業地(M)及び
これに機体進行方向に交差する方向で隣接する非作業地
(N)を撮像する撮像手段(S1)と、その撮像手段
(S1)による撮像画像情報に基づいて、前記非作業地
(N)に対応する領域(Ka)を抽出する領域抽出手段
(100)と、この領域抽出手段(100)によって抽
出された前記領域(Ka)の情報に基づいて、前記作業
地(M)と前記非作業地(N)との境界に対応する線分
(L)を求める演算手段(102)とが設けられた自動
走行作業車用の境界検出装置であって、 前記領域抽出手段(100)によって抽出された前記領
域(Ka)の中で、機体進行方向に交差する方向に沿っ
た前記撮像手段(S1)の画面座標軸の各走査線上にお
いて、連続する画素の個数が所定個数以上で、且つ、最
も前記作業地(M)側に寄って位置する画素列(Kr)
のみを選別する選別手段(101)と、この選別手段
(101)によって選別された前記各画素列(Kr)に
おいて最も前記作業地(M)側に寄って位置する画素を
代表点(P)として抽出する代表点抽出手段(103)
とが設けられ、 前記演算手段(102)は、前記代表点抽出手段(10
3)によって抽出された前記代表点(P)に基づいて前
記線分(L)を求めるように構成されている自動走行作
業車用の境界検出装置。
1. An image pickup means (S1) for picking up an image of a work place (M) on the front side of the machine body traveling direction and a non-work area (N) adjacent thereto in a direction intersecting the machine body movement direction, and the image pickup means (S1). ), An area extracting means (100) for extracting an area (Ka) corresponding to the non-work place (N), and the area (Ka) extracted by the area extracting means (100). Based on the information of (1), a calculating means (102) for calculating a line segment (L) corresponding to the boundary between the work place (M) and the non-work place (N) is provided. In the detection device, in the area (Ka) extracted by the area extraction means (100), on each scanning line of a screen coordinate axis of the imaging means (S1) along a direction intersecting with a body traveling direction. , The number of consecutive pixels is a predetermined number Or more, and a pixel row positioned displaced in most said working areas (M) side (Kr)
Sorting means (101) for sorting only the pixels, and a pixel located closest to the work place (M) side in each of the pixel columns (Kr) selected by the sorting means (101) is set as a representative point (P). Representative point extracting means for extracting (103)
The calculating means (102) is provided with the representative point extracting means (10).
A boundary detection device for an automatic traveling work vehicle configured to obtain the line segment (L) based on the representative point (P) extracted in 3).
JP4175178A 1992-07-02 1992-07-02 Boundary detection device for autonomous vehicles Expired - Fee Related JP3020734B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4175178A JP3020734B2 (en) 1992-07-02 1992-07-02 Boundary detection device for autonomous vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4175178A JP3020734B2 (en) 1992-07-02 1992-07-02 Boundary detection device for autonomous vehicles

Publications (2)

Publication Number Publication Date
JPH0619540A JPH0619540A (en) 1994-01-28
JP3020734B2 true JP3020734B2 (en) 2000-03-15

Family

ID=15991638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4175178A Expired - Fee Related JP3020734B2 (en) 1992-07-02 1992-07-02 Boundary detection device for autonomous vehicles

Country Status (1)

Country Link
JP (1) JP3020734B2 (en)

Also Published As

Publication number Publication date
JPH0619540A (en) 1994-01-28

Similar Documents

Publication Publication Date Title
CN110243372B (en) Intelligent agricultural machinery navigation system and method based on machine vision
JP2815760B2 (en) Crop row detector
JP3044141B2 (en) Planting condition detector for crop planting machines
JP3020734B2 (en) Boundary detection device for autonomous vehicles
JP2624390B2 (en) Crop row detector
JP2907613B2 (en) Crop row detector
JPH0759407A (en) Traveling controller of automatic traveling working car
JPH0628032A (en) Traveling control device for automatic traveling working vehicle
JP2907612B2 (en) Crop row detector
JP2721072B2 (en) Crop row detector
JP2502981Y2 (en) Image processing system for crop row detection in rice transplanter
JP2828520B2 (en) Crop row detection device for work equipment
JPH0619541A (en) End detecting device for automatic travel working vehicle
JPH0619542A (en) Traveling controller for automatic travel working vehicle
JP2520104B2 (en) Boundary detection device for autonomous vehicles
JP2721071B2 (en) Crop row detector
JPH069011B2 (en) Travel control system for automated guided vehicles
JPH01161403A (en) Image pickup type steering control device for automatic traveling working vehicle
JP2510660B2 (en) Image-capturing type traveling control device for automated guided vehicles
JPH01319878A (en) Crop line detecting device
JP2567410B2 (en) Boundary detection device for crop planting machine
JPH07184437A (en) Planting state detecting device for crop planting machine
JPH0520042B2 (en)
JPH0624016B2 (en) Imaging type boundary detection device
JPS63293402A (en) Image pickup type border detecting device

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees