JPH0437443B2 - - Google Patents

Info

Publication number
JPH0437443B2
JPH0437443B2 JP62226087A JP22608787A JPH0437443B2 JP H0437443 B2 JPH0437443 B2 JP H0437443B2 JP 62226087 A JP62226087 A JP 62226087A JP 22608787 A JP22608787 A JP 22608787A JP H0437443 B2 JPH0437443 B2 JP H0437443B2
Authority
JP
Japan
Prior art keywords
boundary
image information
aircraft
hough transform
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP62226087A
Other languages
Japanese (ja)
Other versions
JPS63225808A (en
Inventor
Yasuo Fujii
Masahiko Hayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kubota Corp
Original Assignee
Kubota Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kubota Corp filed Critical Kubota Corp
Priority to JP62226087A priority Critical patent/JPS63225808A/en
Publication of JPS63225808A publication Critical patent/JPS63225808A/en
Publication of JPH0437443B2 publication Critical patent/JPH0437443B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Guiding Agricultural Machines (AREA)
  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、機体進行方向前方側の所定範囲の作
業地状態を撮像し、その撮像画像情報を明度変化
に基づいてエツジ画像情報に変換し、そのエツジ
画像情報を設定閾値に基づいて2値化し、その2
値化画像情報をハフ変化処理することにより、未
処理作業地と処理済作業地との境界を検出する自
動走行作業車用の境界検出方法に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention captures an image of the working area condition in a predetermined range on the forward side in the direction of movement of the aircraft, and converts the captured image information into edge image information based on changes in brightness. , binarize the edge image information based on the set threshold, and
The present invention relates to a boundary detection method for an automatic traveling work vehicle that detects a boundary between an untreated work area and a processed work area by subjecting digitized image information to Hough change processing.

〔従来の技術〕[Conventional technology]

上記この種の自動走行作業車、例えば、芝刈作
業車や刈取収穫機等の作業車においては、作業予
定範囲の外周を予め人為的に処理済作業地として
処理し、この処理済作業地で囲まれた内部の未処
理作業地部分を、未処理作業地と処理済作業地と
の境界に沿つて作業を行にながら走行し、未処理
作業地の一端より他端に至る一つの工程を走行
後、次工程方向へ回向して所定範囲の作業地を作
業を行いながら自動走行させる制御が行われてい
る。そして、各行程途上においては、機体横幅方
向での未処理作業地と処理済作業地の境界と、機
体との位置関係に基づいて走行を制御し、行程端
部においては機体前後方向での境界と機体との位
置関係に基づいて次行程への回向を制御してい
る。
In the above-mentioned types of autonomous work vehicles, such as lawn mowers and harvesters, the outer periphery of the scheduled work area is artificially treated as a treated work area in advance, and the area is surrounded by this treated work area. The vehicle travels along the untreated working area inside the area, along the boundary between the untreated working area and the treated working area, and runs in one process from one end of the untreated working area to the other. After that, the robot is controlled to automatically travel in the direction of the next process while working on a predetermined range of work areas. During each stroke, travel is controlled based on the boundary between the untreated work area and the treated work area in the width direction of the aircraft and the positional relationship with the aircraft, and at the end of the journey, the boundary in the longitudinal direction of the aircraft is controlled. The direction to the next leg is controlled based on the positional relationship between the aircraft and the aircraft.

そして、本出願人は、上記作業地を斜め上方か
ら見ると、未処理作業地は未刈り芝が有るために
暗く見え、処理済作業地は刈り取られた芝により
光が反射して明るく見えるという現象に着目し
て、未処理作業地と処理済作業地との境界を、実
際に走行することなく、かつ、その形状をも検出
可能な境界検出手段として、上記方法を適用した
境界検出装置を提案してある。(特願昭60−
163729号参照) 〔発明が解決しようとする問題点〕 しかしながら、上記境界検出方法においては、
撮像画像情報をその明度差に基づいてエツジ画像
に変換して2値化するので、得られた2値化画像
情報には検出すべき境界情報以外の情報ではある
が真の境界情報と区別しにくい情報が含まれるも
のである。又、真の境界情報であつても、その画
像情報が連続した線として得られるとは限らず、
画像のノイズ成分や局所的に存在する明暗変化等
の影響で断続したものとなる。
The applicant claims that when the work area is viewed diagonally from above, the untreated work area appears dark due to the presence of uncut grass, while the treated work area appears brighter due to the light reflected by the cut grass. Focusing on this phenomenon, we developed a boundary detection device that applies the above method as a boundary detection means that can detect the shape of the boundary between untreated and treated work areas without actually driving on it. I have suggested it. (Special application 1986-
(See No. 163729) [Problems to be solved by the invention] However, in the above boundary detection method,
Since captured image information is converted into an edge image and binarized based on the brightness difference, the obtained binarized image information contains information other than the boundary information to be detected, but cannot be distinguished from true boundary information. It contains difficult information. Furthermore, even if it is true boundary information, the image information is not necessarily obtained as a continuous line;
It becomes intermittent due to the influence of noise components in the image and locally existing changes in brightness and darkness.

このように、非連続な線分を連続した線分に結
合したり、孤立した線分を消去する手段として、
ハフ変換処理が有効なことが知られている。
In this way, as a means of combining discontinuous line segments into continuous line segments or erasing isolated line segments,
It is known that Hough transform processing is effective.

しかしながら、上記ハフ変換処理は、非連続な
線分情報から連続した一つの線分情報に近似する
処理としては有効な手段ではあるが、その処理に
要する演算が直交座標系の画像情報を極座標系に
変換して行う必要があり、処理負荷が重い演算処
理を伴うものとなる。更にその処理を全画素に亘
つて行わなければならないことから処理情報量が
多くなり、高速処理しにくいものであつた。
However, although the Hough transform processing described above is an effective means of approximating discontinuous line segment information to one continuous line segment information, the calculations required for this process convert image information in an orthogonal coordinate system to a polar coordinate system. It is necessary to perform the conversion into , which involves arithmetic processing with a heavy processing load. Furthermore, since the processing has to be performed over all pixels, the amount of information to be processed increases, making high-speed processing difficult.

本発明は、上記実情に鑑みてなされたものであ
つて、その目的は、上記ハフ変換処理を、簡単に
且つ高速に行えるようにすることにある。
The present invention has been made in view of the above-mentioned circumstances, and its purpose is to enable the above-mentioned Hough transform processing to be performed easily and at high speed.

〔問題点を解決するための手段〕[Means for solving problems]

本発明による自動走行作業車用の境界検出方法
の特徴は、前記ハフ変換処理を行うに、前記エツ
ジ画像情報の座標に対応して予め算出したハフ変
換用データをテーブル化し、前記座標の値に対応
して前記テーブル化されたハフ変換用データを読
み出し、その読み出し頻度が最も高いものを前記
境界に対応する情報とする点にあり、その作用な
らびに効果は以下の通りである。
The feature of the boundary detection method for an automatic driving work vehicle according to the present invention is that, when performing the Hough transform processing, Hough transform data calculated in advance corresponding to the coordinates of the edge image information is tabulated, and the values of the coordinates are converted into a table. The Hough transform data tabled in correspondence is read out, and the most frequently read out data is used as information corresponding to the boundary, and its functions and effects are as follows.

〔作用〕[Effect]

例えば、エツジ画像情報を記憶する画像メモリ
のアドレス値と予め算出したハフ変換用データを
テーブル化して記憶させたハフ変換用データメモ
リのアドレス値とが一致するように両メモリを構
成し、エツジ画像情報の読み出し処理と同時に対
応するハフ変換用データを読み出して、その頻度
を計数し、最大頻度となつたハフ変換用データを
もつて、検出境界情報とするのである。つまり、
必要なハフ変換用データを予め算出してテーブル
化しておくことにより、複雑な演算処理を行うこ
となく画像情報の読み出しとともにその画像情報
をハフ変換した結果を直接得ることがでさるので
ある。
For example, by configuring both memories so that the address value of the image memory that stores edge image information matches the address value of the Hough transform data memory that stores pre-calculated Hough transform data as a table, At the same time as the information is read out, the corresponding Hough transform data is read out, its frequency is counted, and the Hough transform data with the highest frequency is used as detection boundary information. In other words,
By calculating the necessary Hough transform data in advance and creating a table, it is possible to read the image information and directly obtain the Hough transform results of the image information without performing complicated arithmetic processing.

〔発明の効果〕〔Effect of the invention〕

従つて、予めテーブル化したハフ変換用データ
をエツジ画像情報の座標値に対応して読み出して
その読み出し頻度を計数するという、複雑な演算
処理を伴わない単純な計数処理のみで簡単且つ高
速に境界を特定した情報を得られるのである。
Therefore, it is possible to easily and quickly determine the boundary using only a simple counting process that does not involve complicated arithmetic processing, such as reading out Hough transform data that has been tabulated in advance in accordance with the coordinate values of edge image information and counting the readout frequency. This allows you to obtain specific information.

〔実施例〕〔Example〕

以下、本発明方法を自動走行作業車としての芝
刈作業車に適用した実施例を図面に基づいて説明
する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment in which the method of the present invention is applied to a lawn mowing vehicle as an automatically traveling vehicle will be described below with reference to the drawings.

第7図および第8図に示すように、前輪1Fお
よび後輪1Rの何れをもステアリング操作可能に
構成された機体Vの中間部に、芝刈装置2を上下
動自在に懸架するとともに、機体V進行方向前方
の所定範囲の作業地状態を撮像する撮像手段とし
てのビデオカメラ3を設け、このカメラ3による
撮像画像情報を、後述する境界検出装置Aにより
2値化して、車体横幅方向並びに車体前後方向
夫々での未処理作業地Bと処理済作業地Cの境界
L1,L2に対する機体Vの位置関係を検出し、こ
の境界検出装置Aによる前記境界L1,L2の検出
結果に基づいて、走行制御装置Hにより機体Vが
前記境界L1に沿つて自動的に走行するためのス
テアリング操作を行うように、又、一行程終了
後、次工程へ自動的に走行させるためのステアリ
ング操作及び変速操作を行うように構成してあ
る。
As shown in FIGS. 7 and 8, the lawn mower 2 is vertically movably suspended in the middle of the machine V, which is configured to be able to steer both the front wheels 1F and the rear wheels 1R. A video camera 3 is provided as an image capturing means for capturing an image of the working area in a predetermined range ahead in the direction of travel, and the image information captured by the camera 3 is binarized by a boundary detection device A to be described later. Boundary between untreated work area B and treated work area C in each direction
The positional relationship of the aircraft V with respect to L 1 and L 2 is detected, and based on the detection results of the boundaries L 1 and L 2 by the boundary detection device A, the travel control device H causes the aircraft V to move along the boundary L 1 . It is configured to perform a steering operation to automatically travel, and to perform a steering operation and a gear change operation to automatically travel to the next step after one stroke is completed.

前記カメラ3は、機体V前方上方に向かつて延
設された支持フレーム4の先端部に、機体前方側
の所定範囲の作業地を斜め上方より下方に向かつ
て撮像するように設けてあり、機体Vがその横幅
方向での境界L1に沿つた状態において、この境
界L1が前記カメラ3の撮像視野の上下方向中央
に位置するようにしてある。
The camera 3 is installed at the tip of a support frame 4 that extends toward the upper front of the aircraft V so as to take an image of a predetermined range of work area on the front side of the aircraft from diagonally upward to downward. In a state where V is along the boundary L 1 in the width direction, this boundary L 1 is located at the center of the imaging field of the camera 3 in the vertical direction.

そして、機体V横幅方向での境界L1を検出す
る場合は、前記カメラ3の撮像視野下端を基準と
して、前記カメラ3の撮像視野の上下方向中央を
縦断する基準線L0に対する検出境界L1位置の偏
差βを機体V横幅方向での位置ずれ情報とし、前
記カメラ3の撮像視野の上下方向中央を縦断する
基準線L0に対する検出境界L1の傾きαを機体V
向きの偏位情報として検出する。
When detecting the boundary L 1 in the width direction of the aircraft V, the detection boundary L 1 is determined with respect to a reference line L 0 that vertically traverses the center of the imaging field of the camera 3 in the vertical direction, with the lower end of the imaging field of the camera 3 as a reference. The positional deviation β is taken as the positional deviation information in the width direction of the aircraft V, and the inclination α of the detection boundary L 1 with respect to the reference line L 0 that vertically traverses the center of the imaging field of view of the camera 3 in the vertical direction is defined as the inclination α of the detection boundary L 1 of the aircraft V.
Detected as direction deviation information.

一方、前記機体V前後方向での境界L2を検出
する場合は、詳しくは後述するが、撮像画像情報
を90度座標変換して記憶させるために、前記カメ
ラ3の撮像視野の上下方向中央を縦断する基準線
Lに対する偏差βが、機体Vと境界L2との距離
情報となり、前記前記カメラ3の撮像視野の上下
方向中央を縦断する基準線Lに対する傾きαが、
前記機体V前後方向での境界L2に対する機体V
の傾きとなる。尚、この機体V前後方向での境界
L2を検出する場合には、前記検出偏差(β]の
値が直ちに行程終端部の位置情報とはならないの
で、前記検出偏差(β)の値および前記カメラ3
の機体Vに対する取り付け距離および撮像方向の
角度に基づいて撮像視野下端部から機体Vまでの
距離を予め設定し、この設定距離情報に基づいて
境界L2と機体Vとの実際の距離を算出すること
となる。
On the other hand, when detecting the boundary L 2 in the longitudinal direction of the aircraft V, the vertical center of the imaging field of the camera 3 is The deviation β with respect to the reference line L that runs vertically is the distance information between the aircraft V and the boundary L2 , and the inclination α with respect to the reference line L that runs vertically across the center of the imaging field of the camera 3 in the vertical direction is:
Aircraft V with respect to boundary L 2 in the longitudinal direction of the aircraft V
The slope is In addition, the boundary in the front and rear direction of this aircraft V
When detecting L 2 , the value of the detected deviation (β) does not immediately become the position information of the end of the stroke, so the value of the detected deviation (β) and the camera 3
The distance from the lower end of the imaging field of view to the aircraft V is set in advance based on the attachment distance to the aircraft V and the angle of the imaging direction, and the actual distance between the boundary L 2 and the aircraft V is calculated based on this set distance information. That will happen.

ところで、前記カメラ3による撮像画像は、互
いに隣接した画素間の明度差に基づいて2値化処
理されるために、局所的な明度変化の影響を除去
して平均化する必要があることから、前記カメラ
3の前部に撮像画像をぼかすためのソフトフオー
カス用フイルタ8を設けてある。
By the way, since the image captured by the camera 3 is binarized based on the brightness difference between adjacent pixels, it is necessary to remove the influence of local brightness changes and average it. A soft focus filter 8 is provided in front of the camera 3 to blur the captured image.

又、前記カメラ3が、機体Vの上方より斜めに
見下ろすようになるため、その撮像視野が手前側
より遠方側に向かつて拡がる台形となり、遠方側
ほど細かく写る状態となる。従つて、前記カメラ
3による撮像画像情報S0をそのまま標本化する
と、手前側の画像情報ほど局所変化が強調されて
ノイズ成分が増加することがあるので、撮像画像
全体が一様に平均化されるように、前記フイルタ
8のぼかし具合が、手前側より遠方側ほど粗くな
るようにしてある。
Furthermore, since the camera 3 looks down diagonally from above the aircraft V, its imaging field of view becomes a trapezoid that expands from the near side to the far side, and the further away the image becomes, the more detailed the image becomes. Therefore, if the image information S 0 captured by the camera 3 is sampled as is, local changes may be emphasized and noise components may increase as the image information is closer to the front, so the entire captured image may not be uniformly averaged. As shown in FIG.

又、自然光によつて生じる未処理芝の影等の大
きな明度変化の影響を除去するための手段とし
て、前記カメラ3の撮像に同期して発光されるス
トロボ装置9を設けてある。
Further, as a means for eliminating the influence of large brightness changes such as shadows of untreated grass caused by natural light, a strobe device 9 is provided which emits light in synchronization with the image taking by the camera 3.

第9図に示すように、エンジンEからの駆動力
は、変速装置4を介して、前記前輪1Fおよび後
輪1Rの夫々に伝達され、変速位置検出用ポテン
シヨメータR3による検出変速位置が所定の位置
となるように、モータ5を駆動して所定の走行速
度で走行するように構成してある。
As shown in FIG. 9, the driving force from the engine E is transmitted to each of the front wheels 1F and rear wheels 1R via the transmission 4, and the shift position detected by the shift position detection potentiometer R3 is The motor 5 is driven so that the vehicle travels at a predetermined speed so as to reach a predetermined position.

又、前記前輪1Fおよび後輪1Rは、夫々油圧
シリンダ6F,6Rによりパワーステアリング操
作されるように構成してあり、車輪のステアリン
グ操作に連動するステアリング角検出用ポテンシ
ヨメータR1,R2により検出ステアリング角が目
標ステアリング角に一致するように、前記油圧シ
リンダ6F,6Rを作動させる電磁バルブ7F,
7Rを駆動するようにしてある。そして、前記機
体前後方向での境界L1に対する機体V前後方向
の傾きαを修正する場合は、機体V向きを変化さ
せるために、前輪1Fと後輪1Rを相対的に逆方
向にステアリング操作する旋回ステアリングを行
い、前記境界L1に対する機体V横幅方向の偏差
βを修正する場合は、機体V向きを変えることな
く平行移動させるため、前輪1Fと後輪1Rが同
一方向に向くようにステアリング操作する平行ス
テアリングを行うようにして、基体Vが効率良く
境界L1に沿うように制御するのである。
The front wheels 1F and the rear wheels 1R are configured to be power-steering operated by hydraulic cylinders 6F and 6R, respectively, and are controlled by steering angle detection potentiometers R 1 and R 2 that are linked to the steering operation of the wheels. an electromagnetic valve 7F that operates the hydraulic cylinders 6F and 6R so that the detected steering angle matches the target steering angle;
It is designed to drive 7R. When correcting the tilt α of the aircraft V in the longitudinal direction with respect to the boundary L 1 in the aircraft longitudinal direction, the front wheels 1F and the rear wheels 1R are steered in relatively opposite directions in order to change the aircraft V direction. When performing turning steering and correcting the deviation β in the width direction of the aircraft V with respect to the boundary L 1 , perform steering operation so that the front wheels 1F and rear wheels 1R face in the same direction in order to move the aircraft parallel without changing the direction of the V. By performing parallel steering, the base body V is efficiently controlled to follow the boundary L1 .

以下、境界検出装置Aの構成およびその動作に
ついて説明する。
The configuration and operation of the boundary detection device A will be described below.

第1図に示すように、境界検出装置Aは、前記
カメラ3により撮像された画像情報S0を8ビツト
の分解能で量子化してデジタル値に変換するA/
D変換部10、デジタル化された画像情報を、そ
の座標x,yを90度変換して構成画素数が32×32
の画像情報として標本化して記憶する画像メモリ
11、この画像メモリ11に記憶された画像情報
S2と前記A/D変換部10から出力される画像情
報S1(ただし、構成画素数は32×32として処理す
る)の何れの画像情報を処理するかを切り換える
入力形態切り換え手段としての画像切り換え器1
2、この切り換え器12により出力され画像信号
F1を、機体横幅方向(x座標方向)での明度変
化に基づいて微分し、明度変化の方向性とその大
きさに対応するエツジ画像データF2に変換する
微分処理部20、この微分処理部20により微分
処理されたエツジ画像データF2の微分符号(正、
負)に基づいて正負一方の符号側のエツジ画像デ
ータF2と設定閾値(Fref)とを比較することに
より明度差の大きさに基づいて2値化し、明度変
化が大きい画像部分を抽出する2値化処理部3
0、この2値化処理部30で2値化された2値化
画像データF3を連続した直線として近似し、画
像上における境界L1,L2を特定するハフ変換部
40、このハフ変換部40からの情報に基づいて
検出境界L1,L2の機体Vに対する位置関係を表
す直線として近似された下記式()に変換する
境界パラメータ演算部50、各処理部の動作を制
御する制御部60、および、前記ストロボ9の発
光およびカメラ3の撮像を制御するITVコント
ローラ13、前記微分処理部20および2値化処
理部30による処理画像を表示するモニタテレビ
15の動作を制御するCRTコントローラ14、
の夫々より構成してある。
As shown in FIG. 1, the boundary detection device A quantizes the image information S0 captured by the camera 3 with an 8-bit resolution and converts it into a digital value.
The D conversion unit 10 transforms the digitized image information by 90 degrees in its x and y coordinates so that the number of constituent pixels is 32×32.
An image memory 11 that samples and stores image information as image information, and image information stored in this image memory 11.
An image serving as an input format switching means for switching which of image information S 2 and image information S 1 output from the A/D converter 10 (however, the number of constituent pixels is processed as 32×32) is to be processed. Switcher 1
2. The image signal output by this switch 12
A differentiation processing unit 20 that differentiates F 1 based on the brightness change in the aircraft width direction (x coordinate direction) and converts it into edge image data F 2 corresponding to the directionality and magnitude of the brightness change, and this differentiation processing The differential sign ( positive ,
By comparing the edge image data F2 on the sign side (positive and negative) with the set threshold value (Fref), binarization is performed based on the magnitude of the brightness difference, and image parts with large brightness changes are extracted2. Value processing unit 3
0, a Hough transform unit 40 that approximates the binarized image data F 3 binarized by this binarization processing unit 30 as a continuous straight line and identifies boundaries L 1 and L 2 on the image; A boundary parameter calculation unit 50 that converts the detection boundaries L 1 and L 2 into the following equation () approximated as a straight line representing the positional relationship with the aircraft V based on the information from the unit 40, and control that controls the operation of each processing unit. 60, an ITV controller 13 that controls the light emission of the strobe 9 and imaging of the camera 3, and a CRT controller that controls the operation of the monitor television 15 that displays images processed by the differential processing section 20 and the binarization processing section 30. 14,
It is composed of each of the following.

y=ax+b ……() ただし、 a:画像座標系での基準線L0に対する境界L1
L2の傾き、 b:画像座標系での基準線L0に対する境界L1
L2の横方向偏差、 x:機体V横幅方向画素の座標値 y:機体V前後方向画素の座標値 である。
y=ax+b...() However, a: Boundary L1 with respect to the reference line L0 in the image coordinate system,
Inclination of L 2 , b: Boundary L 1 with respect to reference line L 0 in image coordinate system,
Lateral deviation of L2 , x: coordinate value of a pixel in the width direction of the aircraft V y: coordinate value of a pixel in the longitudinal direction of the aircraft V.

以下、第2図に示すフローチヤートに基づい
て、全体的な動作を説明する。
The overall operation will be described below based on the flowchart shown in FIG.

すなわち、前記ぼかし用フイルタ8により画像
全体を平均化して撮像し、その撮像画像信号S0
A/D変換して、一画面当たり32×32画素で構成
される直交座標系x,yのデジタル化原画像信号
F1に変換する。
That is, the entire image is averaged and captured by the blurring filter 8, and the captured image signal S0 is A/D converted to produce a digital signal in the orthogonal coordinate system x, y consisting of 32 x 32 pixels per screen. Transformation image signal
Convert to F1 .

次に、行程途上の機体横幅方向での境界L1
検出するか、行程端部である機体前後方向の境界
L2を検出するかをチエツクし、前記行程端部の
境界L2を検出する場合は、前記画像メモリ11
のアドレス座標を90度変換して与えることによ
り、画像信号S1の座標を90度変換して記憶した画
像情報S2を使用し、行程途上の境界L1を検出す
る場合は、原画信号S0と同一座標系の画像信号S1
を使用して、微分処理部20により画像データを
微分処理して、その微分符号の方向が正負一方の
もののみを2値化処理部30において2値化す
る。
Next, detect the boundary L 1 in the width direction of the aircraft in the middle of the stroke, or detect the boundary L 1 in the longitudinal direction of the aircraft at the end of the stroke.
If the boundary L 2 at the end of the stroke is to be detected, the image memory 11
By converting the address coordinates of image signal S 1 by 90 degrees and giving the image information S 2 stored by converting the coordinates of image signal S 1 by 90 degrees, when detecting the boundary L 1 on the way, the original image signal S Image signal S 1 in the same coordinate system as 0
The differential processing unit 20 performs differential processing on the image data using the differential processing unit 20 , and only those whose differential sign direction is positive or negative are binarized in the binarization processing unit 30 .

この、微分符号が正負何れの側のものを2値化
するかの選択は、以下に説明するように、機体V
に対して左右何れの側に未処理作業値Bが存在す
るかに基づいて、設定されるようにしてある。す
なわち、例えば、作業方向が作業地外周部の各辺
を90度方向転換しながら左回りに内周方向へと走
行する回り刈りの場合を例に説明すると、この場
合には、機体Vは右側に処理済作業地Cを隣接し
て走行する状態となる。つまり、明度変化は、画
像上左側から右側方向に走査すると、境界L1
分において大きく暗→明の正の変化が生じること
となり、隣接する画素間の変化を微分すると、そ
の微分値の符号が正(+)のものが、未処理作業
地(B)側から処理済作業地(C)側へとその明度変化を
見た場合の境界L1のある方向性に対応し、負
(−)のものはノイズと見なして除去できること
となる。
This selection of whether the differential sign is positive or negative is to be binarized is made as explained below.
The setting is made based on whether the unprocessed work value B exists on the left or right side. That is, for example, if we take a case where the work direction is circular mowing, in which the work direction is to move counterclockwise toward the inner circumference while turning each side of the outer circumference of the work area by 90 degrees, in this case, the machine V will move to the right side. The vehicle is now running adjacent to the treated work area C. In other words, when the brightness change is scanned from the left side to the right side of the image, a large positive change from dark to bright will occur at the boundary L1 , and when the change between adjacent pixels is differentiated, the sign of the differential value will be A positive (+) value corresponds to a certain directionality of the boundary L 1 when looking at the brightness change from the untreated work area (B) side to the treated work area (C) side, and a negative (-) value This can be considered as noise and removed.

次に、この微分処理した画像データを2値化
し、更に下記式()に基づいて、直交座標系か
ら極座標系に変換してハフ変換し、その各極座標
(ρ、θ)において同一ハフ変換用データρをと
る2値化画像データの頻度を二次元ヒストグラム
としてカウントしてその最大値(Dmax)を求め
る。
Next, this differentially processed image data is binarized, and based on the following formula (), it is converted from an orthogonal coordinate system to a polar coordinate system and subjected to Hough transform, and the same Hough transform is applied at each polar coordinate (ρ, θ). The frequency of binarized image data that takes data ρ is counted as a two-dimensional histogram, and its maximum value (Dmax) is determined.

ρ=xcosθ+ysinθ ……() ただし、 0度≦θ≦180度 x:機体V横幅方向画素の座標値 y:機体V前後方向画素の座標値 である。 ρ=xcosθ+ysinθ……() however, 0 degree≦θ≦180 degree x: Coordinate value of the pixel in the width direction of the aircraft V y: Coordinate value of a pixel in the longitudinal direction of the aircraft V It is.

そして、前記最大値(Dmax)となる度数Dの
ハフ変換用データρの値から、一つの境界情報に
対応する境界パラメータである前記()式を決
定し、この()式の係数としての傾きaおよび
偏差bから、前記走行制御装置Hにおいて、境界
L1に対する機体Vの実際の傾きαと横幅方向の
偏差βに換算し、これら傾きαおよび偏差βが
夫々零となるように、前輪1Fおよび後輪1Rを
ステアリング操作して、機体Vが境界L1に沿つ
て自動的に走行するように制御するのである。
Then, from the value of the Hough transform data ρ of the frequency D that is the maximum value (Dmax), the above equation (), which is a boundary parameter corresponding to one boundary information, is determined, and the slope as a coefficient of this equation () is determined. From a and the deviation b, in the travel control device H, the boundary
Convert the actual inclination α and deviation β in the width direction of the aircraft V with respect to L 1 , and steer the front wheels 1F and rear wheels 1R so that these inclination α and deviation β become zero, respectively. It controls the vehicle to automatically travel along L1 .

ところで、機体横幅方向での境界L1を検出す
る場合は、カメラ3による撮像情報をそのまま微
分処理部20に入力して処理し、機体前後方向で
の境界L2を検出する場合は、原画像情報の上下
方向yを左右方向xに、左右方向xを上下方向y
に、夫々変換して前記画像メモリ11に記憶さ
せ、元の座標系x,yのままで読み出すことによ
り、撮像情報の座標x,yを90度変換して、微分
処理部20に入力して処理させるので、機体Vに
対して異なる方向の境界L1,L2検出を、微分処
理部20以降の各処理部をそのままで使用できる
のである。
By the way, when detecting the boundary L 1 in the width direction of the aircraft, the imaging information from the camera 3 is input as is to the differential processing unit 20 and processed, and when detecting the boundary L 2 in the longitudinal direction of the aircraft, the original image The vertical direction y of the information is the horizontal direction x, and the horizontal direction x is the vertical direction y.
The coordinates x, y of the imaging information are converted by 90 degrees by being converted and stored in the image memory 11, and read out with the original coordinate system x, y unchanged, and then input to the differential processing section 20. Since the processing is performed, each processing section after the differential processing section 20 can be used as is to detect boundaries L 1 and L 2 in different directions with respect to the aircraft V.

そして、機体前後方向での境界L2を検出する
場合は、前記同一ハフ変換用データρに一致する
頻度の最大値(Dmax)が設定閾値(Dref)以上
でないと、機体Vは未だ行程端の境界L2近傍に
到達していないと判断できるのである。一方、前
記最大値(Dmax)が設定閾値(Dref)以上であ
る場合は、前記()式の傾きaと偏差bおよび
撮像視野下端と機体V前端との距離に基づいて、
機体Vか行程端部境界L2までの距離を求め、回
向地点を正確に決定できる。
When detecting the boundary L 2 in the longitudinal direction of the aircraft, if the maximum value (Dmax) of the frequency matching the same Hough transform data ρ is not greater than the set threshold (Dref), the aircraft V is still at the end of the stroke. It can be determined that the area near the boundary L2 has not been reached. On the other hand, if the maximum value (Dmax) is greater than or equal to the set threshold (Dref), based on the slope a and deviation b of the equation () and the distance between the lower end of the imaging field of view and the front end of the aircraft V,
By determining the distance from the aircraft V to the end-of-stroke boundary L2 , the turning point can be determined accurately.

以下、各部の動作を第3図〜第6図に示す図面
に基づいて説明する。
Hereinafter, the operation of each part will be explained based on the drawings shown in FIGS. 3 to 6.

まず、前記制御部60の構成およびその動作を
第3図に示すブロツク図に基づいて説明する。
First, the configuration and operation of the control section 60 will be explained based on the block diagram shown in FIG.

制御部60は、クロツク発生器61aより発生
されるクロツク信号CLにより、その全体の動作
が同期して行われるようにしてあり、各部の動作
を制御する制御プロセツサとしてのCPU1(6
2a)と数値演算用プロセツサとしてのCPU2
(62b)の二つのプロセツサを設け、高速処理
が可能なように構成してある。そして、各制御信
号およびデータ等の演算結果はバスバツフア63
を介して、各処理部間を授受すうようにしてあ
る。同様に、前記走行制御装置Hとの間でのデー
タ授受は、シリアルインターフエース用のSIOポ
ート64aおよびそのSIOポート64aに接続さ
れた通信用インターフエース64bを介してオン
ラインで行われるように、又、オンライン用のス
イツチインターフエース64cおよびパラレルイ
ンターフエース用PIOポート64dを介してオフ
ラインで境界検出装置Aを起動させることもでき
るようにしてある。
The entire operation of the control section 60 is performed in synchronization with the clock signal CL generated by the clock generator 61a, and the CPU 1 (6) serves as a control processor that controls the operation of each section.
2a) and CPU2 as a processor for numerical calculations
Two processors (62b) are provided to enable high-speed processing. The calculation results of each control signal and data are sent to the bus buffer 63.
The information is exchanged between each processing unit via the . Similarly, data exchange with the travel control device H is performed online via an SIO port 64a for serial interface and a communication interface 64b connected to the SIO port 64a. , the boundary detection device A can also be activated offline via the online switch interface 64c and the parallel interface PIO port 64d.

又、前記プロセツサであるCPU1(62a)
およびCPU2(62b)間でのデータ授受およ
びバスバツフア63を介してのデータ授受やその
動作の制御は入出力コントローラ65により行わ
れるとともに、前記各ポート64a,64dから
のデータ授受の制御も、この入出力コントローラ
65からの制御信号によりCTCコントローラ6
6を介して行われるようにしてある。尚、第3図
中、61bはSIOポート64aおよびCTCコント
ローラ66の動作用クロツク信号を発生するクロ
ツク信号発生器、ROM67は境界検出装置Aの
動作プログラムが格納されているメモリ、RAM
68は各データを一時格納したり演算データのバ
ツフア等として使用するメモリ、LUT69はハ
フ変換部15で使用する画像情報の各画素の直交
座標値x,yから極座標系のハフ変換用データρ
に高速変換するための演算データすなわち前記座
標x,yの値からハフ変換用データρを直接得ら
れるように予めテーブル化して記憶してあるメモ
リである。
In addition, CPU1 (62a) which is the processor
The input/output controller 65 controls the data transfer and operation between the CPU 2 (62b) and the bus buffer 63, and also controls the data transfer from the ports 64a and 64d. The CTC controller 6 is controlled by the control signal from the output controller 65.
6. In FIG. 3, 61b is a clock signal generator that generates operating clock signals for the SIO port 64a and the CTC controller 66, and ROM 67 is a memory and RAM in which the operating program of the boundary detection device A is stored.
68 is a memory used for temporarily storing each data or as a buffer for calculation data, and LUT 69 is Hough transform data ρ in a polar coordinate system from the orthogonal coordinate values x, y of each pixel of image information used in the Hough transform unit 15.
This is a memory in which Hough transform data ρ can be directly obtained from the calculation data for high-speed conversion, that is, the values of the coordinates x and y.

そして、前記LUT69は、第4図に示すよう
に、前記()式に示す直交座標系の画像情報の
各座標値x,y毎に極座標(ρ、θ)の角度
(θ)(但し、0度≦θ≦180度である)を256等分
した各角度毎のハフ変換用データρを予め演算
し、各座標値x,yすなわち各画素毎に256個の
ハフ変換用データρをROM化して記憶してある
ものであつて、第5図に示すように、与えられた
前記各画素の座標値x,yに基づいて前記記憶し
てあるハフ変換用データρを読み出すためのアド
レス情報を生成する一対のxレジスタ69a,6
9b及びyレジスタ69c、各画素毎に256個の
θアドレス情報を生成するθカウンタ69d、前
記各レジスタ69a,69b,69c及びθカウ
ンタ69dにて生成されたアドレス情報に基づい
て前記ハフ変換用データρを記憶してあるハフ変
換用データメモリ69dの実アドレス情報を生成
するアドレスデコーダ69eから構成してある。
そして、与えられた各画素の座標値x,y毎に
256個のハフ変換用データρを、前記θカウンタ
69dにて生成される角度(θ)の情報と共にハ
フ変換結果として前記ハフ変換部40へ直接出力
するように構成してある。
As shown in FIG. 4, the LUT 69 calculates the angle (θ) of the polar coordinates (ρ, θ) (however, 0 Hough transform data ρ for each angle is calculated in advance by dividing the angle (degree ≦ θ ≦ 180 degrees) into 256 equal parts, and the 256 Hough transform data ρ for each coordinate value x, y, that is, each pixel, is stored in ROM. As shown in FIG. 5, address information for reading out the stored Hough transform data ρ based on the given coordinate values x, y of each pixel is stored. A pair of x registers 69a, 6 to generate
9b and y register 69c, a θ counter 69d that generates 256 θ address information for each pixel, and the Hough transform data based on the address information generated by each of the registers 69a, 69b, 69c and the θ counter 69d. The address decoder 69e generates real address information of a Hough transform data memory 69d storing ρ.
Then, for each given pixel coordinate value x, y,
The configuration is such that 256 pieces of Hough transform data ρ are directly output to the Hough transform unit 40 as Hough transform results together with information on the angle (θ) generated by the θ counter 69d.

次に、前記微分処理部20の動作を簡単に説明
する。
Next, the operation of the differential processing section 20 will be briefly explained.

前記カメラ3からの原画像情報であるビデオ信
号S0は、ビデオ増幅器10aおよびA/D変換器
10bよりなるA/D変換部10を介して直接
に、または、90度座標変換されて前記画像メモリ
11に記憶された画像情報として入力形態切り換
え器12を介して、32×32画素、一画素当たり8
ビツト長さで表現されるデジタル画像データF1
として、この微分処理部20に入力される。
The video signal S0 , which is the original image information from the camera 3, is transmitted directly through the A/D converter 10 consisting of a video amplifier 10a and an A/D converter 10b, or after 90 degree coordinate transformation, the video signal S0 is converted into the image. As image information stored in the memory 11, 32 x 32 pixels, 8 pixels per pixel, are input via the input format switch 12.
Digital image data F1 expressed in bit length
is input to this differential processing section 20 as follows.

そして、カメラ3の撮像視野の左上を原点とし
て左から右へと順次1ラスター(一つのy座標に
対する全x座標の画素32個)分の画像データF1
を取り込むことを32ラスター(32画素分のy座
標)分行いながら、各画素についての微分値を求
める処理を行う。この微分処理は、画素の明度に
基づいて、各画素について左右方向(x軸方向)
の微分値を演算して、全画像情報の明度変化の方
向性と大きさを求めるものであり、これにより、
画像の暗→明変化のエツジを抽出できるものとな
る。
Then, one raster (all 32 pixels of all x coordinates for one y coordinate) of image data F 1 is sequentially obtained from left to right with the upper left of the imaging field of camera 3 as the origin.
While importing 32 rasters (32 pixels worth of y coordinates), the process of calculating the differential value for each pixel is performed. This differential processing is performed in the left and right direction (x-axis direction) for each pixel based on the brightness of the pixel.
By calculating the differential value of , the direction and magnitude of the change in brightness of all image information is determined.
This makes it possible to extract the edges of the change from dark to bright in the image.

次に、第6図に示すブロツク図に基づいて、前
記微分処理部20により8ビツト/画素のエツジ
画像データF2に変換された画像情報を2値化す
る2値化処理部30、ハフ変換部40、および、
境界パラメータ演算部50の構成と、その動作を
説明する。
Next, based on the block diagram shown in FIG. 6, a binarization processing unit 30 that binarizes the image information converted into 8-bit/pixel edge image data F2 by the differential processing unit 20, and a Hough transform part 40, and
The configuration and operation of the boundary parameter calculation section 50 will be explained.

すなわち、バスバツフア41を介して入力され
る制御部60からの制御信号により全体の動作
が、前記微分処理部20の動作と同期して行われ
るように、入出力コントローラ42により、全体
の動作が制御されるように構成してある。
That is, the entire operation is controlled by the input/output controller 42 so that the entire operation is performed in synchronization with the operation of the differential processing section 20 based on the control signal from the control section 60 inputted via the bus buffer 41. It is configured so that

前記、エツジ画像データF2は、データバツフ
ア43aを介して2値化処理部30のコンパレー
タ31に入力され、バツフア32を介して入力さ
れる設定閾値(Fref)と比較されて明度変化が大
きい部分が2値化される。この2値化画像データ
F3は、データバス(BUS3)に接続されたデータ
バツフア43bを介して、前記境界パラメータ演
算部50のコンパレータ51に入力されるととも
に、2値化画像データメモリ33aに記憶され
る。
The edge image data F2 is input to the comparator 31 of the binarization processing unit 30 via the data buffer 43a, and is compared with a set threshold value (Fref) input via the buffer 32, and portions with large brightness changes are identified. Binarized. This binary image data
F 3 is input to the comparator 51 of the boundary parameter calculation section 50 via a data buffer 43b connected to a data bus (BUS 3 ), and is also stored in the binarized image data memory 33a.

ハフ変換部40は、前記LUT69よりデータ
バツフア43cを介して与えられるハフ変換用デ
ータρの値が、同一値となる角度(θ)の頻度数
Dを度数カウンタ44によりカウントし、その結
果を二次元ヒストグラムの度数メモリ45に記憶
させる。
The Hough transform unit 40 uses a frequency counter 44 to count the frequency D of angles (θ) at which the values of the Hough transform data ρ given from the LUT 69 via the data buffer 43c are the same value, and converts the result into a two-dimensional It is stored in the histogram frequency memory 45.

前記度数カウンタ44でカウントされた度数D
は、データバツフア43dを介して前記度数メモ
リ45の同一アドレス位置の内容に加算されると
ともに、その最大値(Dmax)を検出することに
よつて境界を特定する境界パラメータ演算部50
の最大値レジスタ52aに転送され、コンパレー
タ51により前記最大値レジスタ52aに格納さ
れている値と比較され、大きいほうの度数を新た
な最大値(Dmax)として再格納する。尚、この
最大値(Dmax)となる度数Dの前記度数メモリ
45のアドレスは、最大値アドレスレジスタ52
bに同時に格納しておき、全画素(32×32)のハ
フ変換終了後、最大値(Dmax)となつたハフ変
換用データρおよび角度(θ)から前記式()
の係数(a,b)を求めるようにしている。又、
第6図中、33bは前記デジタル化画像データ
F1を記憶する画像メモリ、33cはエツジ画像
データF2を記憶する画像メモリであり、ビデオ
RAM34およびCRTコントローラ14を介し
て、前記モニタテレビ15に各処理状態を表示で
きるようにしてある。
The frequency D counted by the frequency counter 44
is added to the contents of the same address position in the frequency memory 45 via the data buffer 43d, and a boundary parameter calculation unit 50 specifies the boundary by detecting its maximum value (Dmax).
The value is transferred to the maximum value register 52a, and compared with the value stored in the maximum value register 52a by the comparator 51, and the larger frequency is re-stored as the new maximum value (Dmax). The address of the frequency memory 45 for the frequency D that is the maximum value (Dmax) is stored in the maximum value address register 52.
b at the same time, and after Hough transformation of all pixels (32×32) is completed, the above formula () is calculated from the Hough transformation data ρ and angle (θ) that have reached the maximum value (Dmax).
The coefficients (a, b) of or,
In FIG. 6, 33b is the digitized image data.
33c is an image memory that stores edge image data F2 , and 33c is an image memory that stores edge image data F2 ;
Each processing status can be displayed on the monitor television 15 via the RAM 34 and the CRT controller 14.

そして、求められた式()の係数(a、b)
は、前記入出力コントローラ42およびバスバツ
フア41を介して前記制御部60に送られ、境界
L1,L2の有無判別やその後の処理のためのデー
タとされるのである。
Then, the coefficients (a, b) of the obtained formula ()
is sent to the control section 60 via the input/output controller 42 and bus buffer 41, and
It is used as data for determining the presence or absence of L 1 and L 2 and for subsequent processing.

〔別実施例〕[Another example]

上記実施例では、機体V前後方向での境界L2
の検出を行うか否かに基づいて、微分処理部20
への入力画像情報の座標を90度変換したものと90
度変換しないものとを、切り換えるようにしてい
るが、一画面分の画像情報を処理する毎に、入力
画像の座標を90度変換して、機体V横幅方向での
境界L1検出と、機体V前後方向での境界L2検出
とを、交互に繰り返し行うようにしてもよい。そ
の場合、カメラ3による撮像画像の1フイールド
毎に、交互に座標変換したものと変換しないもの
とを入力するようにすると、1フレーム毎に必要
な情報が同時に得られ、1画面分の撮像処理の間
に異なる方向の境界L1,L2を検出するための画
像情報を得ることができる。
In the above embodiment, the boundary L 2 in the longitudinal direction of the aircraft V
The differential processing unit 20
The coordinates of the input image information are converted by 90 degrees and 90
However, each time one screen's worth of image information is processed, the coordinates of the input image are converted 90 degrees, and the boundary L1 in the width direction of the aircraft V is detected. Detection of the boundary L2 in the V front and rear directions may be repeated alternately. In that case, if you alternately input the coordinates transformed and the coordinates not transformed for each field of the image captured by the camera 3, the necessary information can be obtained for each frame at the same time, and the imaging processing for one screen can be performed. Image information for detecting boundaries L 1 and L 2 in different directions between the two can be obtained.

あるいは、機体Vにその走行距離情報を検出す
る手段を設け、その検出走行距離情報と一行程の
走行予定距離情報とに基づいて、行程端近傍に達
しているか否かにより、機体V前後方向での境界
L2検出処理に切り換えるようにしてもよい。
Alternatively, the aircraft V is provided with means for detecting the travel distance information, and based on the detected travel distance information and the scheduled travel distance information for one stroke, the aircraft V is adjusted in the longitudinal direction depending on whether or not it has reached the vicinity of the end of the stroke. boundary of
It is also possible to switch to L2 detection processing.

又、上記実施例では、ハフ変換処理の式()
において、角度変化を0度≦θ≦180度の間で処
理しているが、境界L1,L2と機体Vと位置関係
から、境界L1,L2の方向が機体V進行方向から
大幅に変化することはないので、ハフ変換を行う
角度範囲を、例えば0度〜180度より狭い範囲に
限定して処理することにより、高精度にしたり、
あるいは、狭い特定範囲のみ処理することで、処
理速度を更に向上させたり、ノイズの影響を効果
的に除去させることができる。
In addition, in the above embodiment, the formula for Hough transform processing ()
In the above, the angle change is processed between 0 degrees ≦ θ ≦ 180 degrees, but due to the positional relationship between the boundaries L 1 and L 2 and the aircraft V, the directions of the boundaries L 1 and L 2 are significantly different from the traveling direction of the aircraft V. Therefore, by limiting the angle range for Hough transform to a range narrower than 0 degrees to 180 degrees, high accuracy can be achieved.
Alternatively, by processing only a narrow specific range, the processing speed can be further improved or the influence of noise can be effectively removed.

又、上記実施例では、撮像画像情報を、32×32
画素に標本化したが、必要に応じて更に細かく、
あるいは、粗く標本化してもよい。
In addition, in the above embodiment, the captured image information is 32×32
It was sampled into pixels, but if necessary, it can be made even more finely.
Alternatively, it may be roughly sampled.

又、境界L1,L2と機体Vとの位置関係を求め
るに、上記実施例で例示した撮像視野を上下方向
に縦断する基準線L0を基準にする他、撮像視野
の下端部、上端部、おび中央、あるいは画像情報
の座標原点位置等、どこを基準にしてもよい。
In addition, to determine the positional relationship between the boundaries L 1 and L 2 and the aircraft V, in addition to using the reference line L 0 that vertically traverses the imaging field of view as exemplified in the above embodiment, the lower and upper ends of the imaging field of view are used as a reference. Any reference may be used, such as the area, the center, or the coordinate origin position of the image information.

【図面の簡単な説明】[Brief explanation of drawings]

図面は本発明に係る自動走行作業車用の境界検
出装置の実施例を示し、第1図は境界検出装置の
構成を示すブロツク図、第2図はその全体的な動
作を示すフローチヤート、第3図は制御部の構成
を示すブロツク図、第4図はハフ変換用データを
記憶させたテーブルの説明図、第5図はハフ変換
用データメモリの構成を示すブロツク図、第6図
はハフ変換部の構成を示すブロツク図、第7図は
芝刈作業車の概略平面図、第8図はその側面図、
第9図は芝刈作業車の制御システムの全体構成を
示すブロツク図である。 S0……撮像画像情報、F2……エツジ画像情報、
F3……2値化画像情報、B……未処理作業地、
C……処理済作業地、L……境界、x,y……エ
ツジ画像情報の座標、ρ……ハフ変換用データ、
D……頻度。
The drawings show an embodiment of the boundary detection device for an automatic traveling work vehicle according to the present invention, and FIG. 1 is a block diagram showing the configuration of the boundary detection device, FIG. 2 is a flowchart showing its overall operation, and FIG. FIG. 3 is a block diagram showing the configuration of the control section, FIG. 4 is an explanatory diagram of a table storing data for Hough transformation, FIG. 5 is a block diagram showing the configuration of a data memory for Hough transformation, and FIG. A block diagram showing the configuration of the conversion section, FIG. 7 is a schematic plan view of the lawn mowing vehicle, and FIG. 8 is a side view thereof.
FIG. 9 is a block diagram showing the overall configuration of the control system for the lawn mowing vehicle. S 0 ... Captured image information, F 2 ... Edge image information,
F3 ...Binarized image information, B...Unprocessed work area,
C...processed work area, L...boundary, x, y...coordinates of edge image information, ρ...data for Hough transformation,
D... Frequency.

Claims (1)

【特許請求の範囲】[Claims] 1 機体進行方向前方側の所定範囲の作業地状態
を撮像し、その撮像画像情報S0を明度変化に基づ
いてエツジ画像情報F2に変換し、そのエツジ画
像情報F2を設定閾値に基づいて2値化し、その
2値化画像情報F3をハフ変換処理することによ
り、未処理作業地Bと処理済作業地Cとの境界L
を検出する自動走行作業車用の境界検出方法であ
つて、前記ハフ変換処理を行うに、前記エツジ画
像情報F2の座標x,yに対応して予め算出した
ハフ変換用データρをテーブル化し、前記座標
x,yの値に対応して前記テーブル化されたハフ
変換用データρを読み出し、その読み出し頻度D
が最も高いものを前記境界Lに対応する情報とす
る自動走行作業車用の境界検出方法。
1 Capture an image of the working area condition in a predetermined range in front of the aircraft in the forward direction, convert the captured image information S 0 to edge image information F 2 based on changes in brightness, and convert the edge image information F 2 based on a set threshold value. By binarizing the binarized image information F3 and subjecting it to Hough transform processing, the boundary L between the unprocessed work area B and the processed work area C is
This is a boundary detection method for an autonomous driving vehicle that detects the edge image information F2, and in order to perform the Hough transform processing, Hough transform data ρ calculated in advance corresponding to the coordinates x and y of the edge image information F2 is tabulated. , reads the tabulated Hough transform data ρ corresponding to the values of the coordinates x, y, and calculates the read frequency D.
A boundary detection method for an automatic traveling work vehicle in which the highest value is determined as information corresponding to the boundary L.
JP62226087A 1987-09-09 1987-09-09 Boundary detection for automatic running working vehicle Granted JPS63225808A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62226087A JPS63225808A (en) 1987-09-09 1987-09-09 Boundary detection for automatic running working vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62226087A JPS63225808A (en) 1987-09-09 1987-09-09 Boundary detection for automatic running working vehicle

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP60211583A Division JPS6270916A (en) 1985-09-24 1985-09-24 Boundary detecting method for self-traveling truck

Publications (2)

Publication Number Publication Date
JPS63225808A JPS63225808A (en) 1988-09-20
JPH0437443B2 true JPH0437443B2 (en) 1992-06-19

Family

ID=16839620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62226087A Granted JPS63225808A (en) 1987-09-09 1987-09-09 Boundary detection for automatic running working vehicle

Country Status (1)

Country Link
JP (1) JPS63225808A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2710644B2 (en) * 1988-10-20 1998-02-10 ヤンマー農機株式会社 Automatic steering control device for agricultural work machine

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3069654A (en) * 1960-03-25 1962-12-18 Paul V C Hough Method and means for recognizing complex patterns
JPS5398222A (en) * 1977-02-10 1978-08-28 Kubota Ltd Farm machine
JPS5626592A (en) * 1979-08-08 1981-03-14 Ebara Infilco Co Ltd Biological denitrifying method for waste water
JPS5629481A (en) * 1979-08-15 1981-03-24 Toshiba Corp Dynamic braking device for induction motor
JPS58160802A (en) * 1982-03-19 1983-09-24 Toshiba Corp Detector for stop position of moving machine
JPS5917103A (en) * 1982-07-20 1984-01-28 Kubota Ltd Position detector of moving body

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3069654A (en) * 1960-03-25 1962-12-18 Paul V C Hough Method and means for recognizing complex patterns
JPS5398222A (en) * 1977-02-10 1978-08-28 Kubota Ltd Farm machine
JPS5626592A (en) * 1979-08-08 1981-03-14 Ebara Infilco Co Ltd Biological denitrifying method for waste water
JPS5629481A (en) * 1979-08-15 1981-03-24 Toshiba Corp Dynamic braking device for induction motor
JPS58160802A (en) * 1982-03-19 1983-09-24 Toshiba Corp Detector for stop position of moving machine
JPS5917103A (en) * 1982-07-20 1984-01-28 Kubota Ltd Position detector of moving body

Also Published As

Publication number Publication date
JPS63225808A (en) 1988-09-20

Similar Documents

Publication Publication Date Title
US4868752A (en) Boundary detecting method and apparatus for automatic working vehicle
CN106682646B (en) Lane line identification method and device
CN113805571B (en) Robot walking control method, system, robot and readable storage medium
JP2888735B2 (en) Travel lane detection device
JPH0436405B2 (en)
JP2520104B2 (en) Boundary detection device for autonomous vehicles
JPH0437443B2 (en)
JPH0465402B2 (en)
JP3260503B2 (en) Runway recognition device and runway recognition method
JP2585471B2 (en) Boundary detection device for autonomous vehicles
JPS6261507A (en) Boundary detector for self-propelling type working vehicle
JPH0460242B2 (en)
Gong et al. Adaptive lane line detection and warning algorithm based on dynamic constraint
JPH0547161B2 (en)
JPH07222504A (en) Method for controlling travel of self-traveling working vehicle
JPH0575335B2 (en)
JPH0646886B2 (en) Steering control device for automated vehicle
JP2972311B2 (en) Roadside detection device for mobile vehicles
JP2677310B2 (en) Control device for unmanned self-propelled vehicle
JP2828520B2 (en) Crop row detection device for work equipment
JPH01161403A (en) Image pickup type steering control device for automatic traveling working vehicle
JPH0575336B2 (en)
JPH0661163B2 (en) Boundary detection device for self-driving work vehicles
JPS63279109A (en) Image pickup type boundary detector
JPH0624016B2 (en) Imaging type boundary detection device