JPH0575335B2 - - Google Patents

Info

Publication number
JPH0575335B2
JPH0575335B2 JP13023687A JP13023687A JPH0575335B2 JP H0575335 B2 JPH0575335 B2 JP H0575335B2 JP 13023687 A JP13023687 A JP 13023687A JP 13023687 A JP13023687 A JP 13023687A JP H0575335 B2 JPH0575335 B2 JP H0575335B2
Authority
JP
Japan
Prior art keywords
boundary
pixel
straight line
pixels
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP13023687A
Other languages
Japanese (ja)
Other versions
JPS63293402A (en
Inventor
Yasuo Fujii
Masahiko Hayashi
Sumihisa Tanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kubota Corp
Original Assignee
Kubota Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kubota Corp filed Critical Kubota Corp
Priority to JP13023687A priority Critical patent/JPS63293402A/en
Publication of JPS63293402A publication Critical patent/JPS63293402A/en
Publication of JPH0575335B2 publication Critical patent/JPH0575335B2/ja
Granted legal-status Critical Current

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E10/00Energy generation through renewable energy sources
    • Y02E10/10Geothermal energy

Landscapes

  • Guiding Agricultural Machines (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、未処理作業地と処理済作業地との境
界に対応する直線を検出する撮像式の境界検出装
置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to an imaging type boundary detection device that detects a straight line corresponding to the boundary between an untreated work site and a treated work site.

〔従来の技術〕[Conventional technology]

上記この種の撮像式の境界検出装置は、未処理
作業地と処理済作業地との明るさが異なつて見え
ることを利用して、撮像した画像情報を画像処理
することにより、明るさ変化が大きい部分を通る
直線を、未処理作業地と処理済作業地との境界に
対応した情報として検出するようにしたものであ
る。
This type of imaging-type boundary detection device described above takes advantage of the fact that the brightness of an untreated work area and a treated work area appears to be different, and processes the captured image information to detect changes in brightness. A straight line passing through a large portion is detected as information corresponding to the boundary between the untreated work area and the treated work area.

そして、従来では、作業地を二次元方向に亘つ
て撮像し、その撮像情報より、上記境界に交差す
る方向での明るさ変化の微分値を、2次元方向に
並ぶ各量子化画素について求め、その微分値に基
づいて、明るさ変化が大きい箇所の画素を2値化
処理により抽出し、そして、ハフ変換処理を利用
して、抽出された画素の夫々に対して、その画素
を通り且つ設定角度づつ方向の異なる多数本の直
線を求め、求めた全直線のうちの最大頻度をなる
ものを、境界に対応した直線を示す情報として検
出するようにしてあつた。
Conventionally, the work area is imaged in two-dimensional directions, and from the imaged information, the differential value of the brightness change in the direction intersecting the boundary is calculated for each quantized pixel arranged in the two-dimensional direction. Based on the differential value, pixels at locations where brightness changes are large are extracted by binarization processing, and then, using Hough transform processing, each extracted pixel is passed through and set. A large number of straight lines with different directions at different angles were found, and of all the straight lines found, the one with the highest frequency was detected as information indicating the straight line corresponding to the boundary.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

上記従来構成においては、撮像情報より、明る
さ変化が大きい部分を通る直線を境界に対応する
直線として検出するようにしているために、例え
ば、作業地近傍にある電柱や立木等の影が未処理
作業地と処理済作業地との境界と同じ方向に向い
た状態で撮像視野内に入つた場合、その影となる
部分では明るさ変化が大きいために、撮像された
影の部分を通る直線を、境界に対応する直線とし
て誤検出する虞れがある。
In the above conventional configuration, a straight line passing through a portion with a large brightness change is detected as a straight line corresponding to the boundary based on the imaging information. If you enter the imaging field of view while facing in the same direction as the boundary between the treatment work area and the treated work area, the brightness change will be large in the shadow area, so a straight line that passes through the imaged shadow area may be mistakenly detected as a straight line corresponding to the boundary.

そこで、影を消すために、ストロボ発光装置等
を用いることが考えられるが、撮像手段が作業地
を二次元方向に亘つて撮像するものであることか
ら、大光量のものを用いたとしても、撮像距離が
遠い部分にある影を完全に消すことは困難であ
る。
Therefore, it is conceivable to use a strobe light emitting device or the like to eliminate the shadows, but since the imaging means images the work area in two dimensions, even if one with a large amount of light is used, It is difficult to completely eliminate shadows in areas where the imaging distance is far.

本発明は、上記実情に鑑みてなされたものであ
つて、その目的は、画像情報の明暗変化が大きい
影が撮像されても、その影の影響を受けることな
く、境界に対応する直線を的確に検出できるよう
にする点にある。
The present invention has been made in view of the above-mentioned circumstances, and an object of the present invention is to accurately draw a straight line corresponding to a boundary without being affected by the shadow, even if a shadow with a large change in brightness in the image information is captured. The point is to make it possible to detect it.

〔問題点を解決するための手段〕[Means for solving problems]

本発明による撮像式の境界検出装置の特徴構成
は、作業地を二次元方向に亘つて撮像する撮像手
段と、その撮像手段の撮像画像より、前記境界と
交差する方向での明るさ変化に基づいて二次元方
向に並ぶ各量子化画素の微分値を求める微分手段
と、求められた微分値が大なる画素を抽出する2
値化手段と、前記境界と交差する方向で且つ暗か
ら明の方向に向けて検索して、前記2値化手段に
て抽出された画素のうちの最初に存在する画素を
抽出する画素抽出手段と、その画素抽出手段にて
抽出された画素を通る直線を求める直線演算手段
とが設けられている点にあり、その作用並びに効
果は以下の通りである。
The characteristic configuration of the imaging type boundary detection device according to the present invention includes an imaging means for imaging the work area in two-dimensional directions, and a method for detecting brightness based on the image taken by the imaging means in a direction intersecting the boundary. a differentiation means for obtaining the differential value of each quantized pixel arranged in a two-dimensional direction; and 2. extracting a pixel for which the obtained differential value is large.
a pixel extracting means for searching in a direction intersecting the boundary and from dark to bright, and extracting the first existing pixel among the pixels extracted by the binarizing means; and a straight line calculating means for calculating a straight line passing through the pixels extracted by the pixel extracting means, and the functions and effects thereof are as follows.

〔作用〕[Effect]

撮像画像の明るい部分に影が写つている場合に
は、その明るい部分と影の部分との明るさ変化は
大きいものとなり、2値化手段では除去できない
が、暗い部分に写つている場合には、明るさ変化
が小さいので上記2値化手段にて自動的に除去す
ることができる。又、明暗変化の大きい部分が作
業地の境界に対応することから、2値化手段にて
抽出された画素を、暗から明の方向に向けて検索
して、最初に存在する画素を抽出すれば、その抽
出された画素は境界部分に対応する画素となり、
その最初に存在する画素以降の画素を処理対象か
ら除外すれば、明るい部分にある影は自動的に除
去できる。
If a shadow appears in a bright part of the captured image, the brightness change between the bright part and the shadow part will be large and cannot be removed by binarization, but if a shadow appears in a dark part, Since the brightness change is small, it can be automatically removed by the binarization means. In addition, since the parts with large brightness changes correspond to the boundaries of the work area, the pixels extracted by the binarization means should be searched from dark to bright and the first existing pixel should be extracted. For example, the extracted pixel is a pixel corresponding to the boundary part,
By excluding pixels after the first pixel from processing, shadows in bright areas can be automatically removed.

つまり、二次元方向に亘つて撮像された画像情
報の各量子化画素毎に、未処理作業地と処理済作
業地との境界に交差する方向での明るさ変化に基
づいて二次元方向に並ぶ各量子化画素の微分値を
求め、その微分値が大なる画素を2値化手段にて
抽出することにより、明るさ変化が大きい部分を
抽出し、そして、未処理作業地と処理済作業地と
の境界と交差する方向で且つ暗から明の方向に向
けて検索して、前記2値化手段にて抽出された画
素のうちの最初に存在する画素を抽出し、その抽
出された画素を通る直線を求めることにより、影
の影響を受けることなく境界に対応する直線を検
出できるのである。
In other words, each quantized pixel of image information captured in a two-dimensional direction is arranged in a two-dimensional direction based on the brightness change in the direction that intersects the boundary between the unprocessed work area and the processed work area. By calculating the differential value of each quantized pixel and extracting pixels with large differential values using a binarization means, areas with large brightness changes are extracted, and unprocessed work areas and processed work areas are extracted. The first pixel among the pixels extracted by the binarization means is extracted by searching in the direction intersecting the boundary between the two and from dark to bright, and the extracted pixel is By finding the straight line that passes through it, it is possible to detect the straight line that corresponds to the boundary without being affected by shadows.

〔発明の効果〕〔Effect of the invention〕

従つて、未処理作業地と処理済作業地との境界
と交差する方向で且つ暗から明の方向に向けて検
索して、2値化手段にて抽出された画素のうちの
最初に存在する画素を抽出するという簡単な処理
で、影の影響を受けることなく、境界に対応する
直線を的確に検出することができるに至つた。
Therefore, the first existing pixel extracted by the binarization means is searched in the direction intersecting the boundary between the unprocessed work area and the processed work area and from dark to bright. Through the simple process of extracting pixels, it has become possible to accurately detect straight lines corresponding to boundaries without being affected by shadows.

〔実施例〕〔Example〕

以下、本発明の実施例を図面に基づいて説明す
る。
Embodiments of the present invention will be described below based on the drawings.

第7図に示すように、左右一対の前後輪1,2
が、その何れをもステアリング操作自在に設けら
れ、車体Vの下腹部に、芝刈り装置3が上下動自
在に懸架され、もつて、芝や雑草等の刈取作業に
用いる作業車が構成されている。
As shown in Fig. 7, a pair of left and right front and rear wheels 1, 2
However, each of them is provided so that the steering can be operated freely, and a lawn mowing device 3 is suspended on the lower abdomen of the vehicle body V so as to be movable up and down, thereby forming a work vehicle used for cutting grass, weeds, etc. There is.

作業地を二次元方向に亘つて撮像する撮像手段
としてのイメージセンサS1が、前記車体Vに対し
て前方側の作業地の所定範囲を撮像するように設
けられている。
An image sensor S1 serving as an imaging means for capturing an image of the work area in two-dimensional directions is provided so as to image a predetermined range of the work area on the front side with respect to the vehicle body V.

前記イメージセンサS1の撮像視野について説明
を加えれば、前記車体Vが、未処理作業地として
の未刈地Bと処理済作業地としての既刈地Cとの
境界Lに対して適正状態に沿つている状態におい
て、前記境界Lが、視野の横幅方向中央に位置す
る状態となるようにしてある。
To explain the imaging field of view of the image sensor S1 , the vehicle body V is in an appropriate state with respect to the boundary L between the unmown land B as an untreated work land and the mowed land C as a treated work land. The boundary L is positioned at the center of the field of view in the width direction.

前記車体Vの構成について説明すれば、第6図
に示すように、前記前後輪1,2を各別に操作す
るステアリング用の油圧シリンダ4,5、及び、
それに対する制御弁6,7が設けられ、前後進切
り換え自在で且つ前後進ともに変速自在な油圧式
無段変速装置8が、エンジンEに連動連結され、
そして、変速モータ9が、前記変速装置8の変速
アーム10に連動連結されている。
To explain the structure of the vehicle body V, as shown in FIG. 6, there are hydraulic cylinders 4 and 5 for steering that operate the front and rear wheels 1 and 2 separately, and
Control valves 6 and 7 are provided therefor, and a hydraulic continuously variable transmission 8, which can freely switch between forward and backward directions and can freely change speeds in both forward and backward directions, is interlocked with the engine E.
A speed change motor 9 is operatively connected to a speed change arm 10 of the speed change device 8.

又、前記車体Vの走行距離を検出するために、
単位回転数当たり設定個数のパルス信号を出力す
る回転数センサS2が、前記変速装置8の出力にて
回転駆動されるように設けられている。
Further, in order to detect the traveling distance of the vehicle body V,
A rotation speed sensor S 2 that outputs a set number of pulse signals per unit rotation speed is provided so as to be rotationally driven by the output of the transmission 8 .

前記前後輪1,2夫々のステアリング位置を検
出するステアリング位置検出用ポテンシヨメータ
R1,R2と、前記変速装置8の操作状態を検出す
る変速位置検出用ポテンシヨメータR3とが設け
られ、それらの検出情報、前記イメージセンサS1
の撮像情報に基づいて求められる境界Lに対応す
る直線の情報、及び、前記回転数センサS2の検出
情報に基づいて、前記車体Vが未刈地Bと既刈地
Cとの境界Lに沿つて自動走行するように制御す
るマイクロコンピユータ利用の制御装置11が設
けられている。
A steering position detection potentiometer that detects the steering position of each of the front and rear wheels 1 and 2.
R 1 , R 2 , and a shift position detection potentiometer R 3 that detects the operating state of the transmission 8 are provided, and the detection information thereof and the image sensor S 1 are provided.
Based on information on a straight line corresponding to the boundary L determined based on the imaging information of A control device 11 using a microcomputer is provided to control the vehicle to automatically travel along the same route.

尚、図中、Hは搭乗操縦用のステアリングハン
ドル、R0はその操作位置検出用ポテンシヨメー
タ、12は搭乗操縦用の変速ペダルである。
In the figure, H is a steering handle for boarding operation, R 0 is a potentiometer for detecting its operation position, and 12 is a speed change pedal for boarding operation.

但し、前記イメージセンサS1の撮像画像情報を
画像処理して、前記境界Lに対応した直線を検出
するための各種手段が、前記制御装置11を利用
して構成されている。
However, various means for performing image processing on image information captured by the image sensor S 1 and detecting a straight line corresponding to the boundary L are configured using the control device 11 .

前記車体Vの自動走行について説明すれば、第
8図に示すように、既刈地Cで囲まれた四角状の
未刈地Bの一辺から対辺に至る部分を、一つの作
業行程として、車体Vが作業行程の長さ方向に沿
う側の前記未刈地Bと既刈地Cとの境界L1に沿
つて自動走行するように、前記画像処理にて検出
されて情報に基づいて操向制御されることにな
り、そして、一つの作業行程の終端側の境界L2
つまり前記未刈地Bの対辺に達すするに伴つて、
その作業行程に交差する次の作業行程の始端部に
向けて自動的にターンさせることを繰り返すこと
により、いわゆる回り刈り形式で、所定範囲の芝
刈り作業を自動的に行わせるようにしてある。
To explain automatic driving of the vehicle body V, as shown in FIG. The vehicle is steered based on the information detected by the image processing so that V automatically travels along the boundary L1 between the uncut area B and the cut area C along the length direction of the work process. to be controlled, and the boundary L 2 on the end side of one working stroke
In other words, as one reaches the opposite side of the uncut land B,
By repeating the automatic turn toward the starting end of the next working stroke that intersects with the previous working stroke, the lawn mowing work in a predetermined range is automatically performed in a so-called circular mowing style.

前記制御装置11の作動を述べながら説明を加
えると、走行が開始されると、前記回転数センサ
S2の検出情報に基づいて設定距離走行する毎に、
後述の境界検出処理が行われ、その検出情報に基
づいて、車体Vが前記境界L1に沿つて自動走行
するように操向制御されることになる。
To explain the operation of the control device 11, when traveling is started, the rotation speed sensor
Every time you travel a set distance based on the detection information of S 2 ,
Boundary detection processing, which will be described later, is performed, and based on the detected information, steering control is performed so that the vehicle body V automatically travels along the boundary L1 .

そして、前記回転数センサS2の検出情報に基づ
いて、一つの作業行程の長さに相当する距離に対
して設定範囲内まで走行するに伴つて、その作業
行程の終端側の境界L2を検出する処理を行い、
それの画像上の位置情報に基づいて、車体Vの現
在位置に対する終端位置を算出して、その算出さ
れた位まで前記前後輪1,2をステアリングニユ
ートラルの状態に維持することにより、直進させ
た後、予め設定記憶されたターンパターンに基づ
いて、次の作業行程に向けてターンさせることに
なる。
Based on the detection information of the rotation speed sensor S2 , as the distance corresponding to the length of one working stroke is within the set range, the boundary L2 on the end side of the working stroke is determined. Perform the process to detect,
Based on the position information on the image, the end position of the vehicle body V relative to the current position is calculated, and the front and rear wheels 1 and 2 are maintained in the steering neutral state until the calculated position, thereby driving the vehicle straight ahead. After that, the robot turns for the next work process based on a preset and stored turn pattern.

又、例えば、予め設定された行程数を走行した
か否か、あるいは、設定された走行距離に達した
か否か等を判別することにより、作業終了か否か
を判断して、作業終了でない場合は、前述の境界
検出処理以降の処理を繰り返すことになり、一
方、作業終了の場合は、前記車体Vを停止させ
て、全処理を終了することになる。
Also, for example, by determining whether a preset number of strokes has been traveled or whether a preset distance has been reached, it is possible to determine whether the work is complete or not. In this case, the processes after the boundary detection process described above will be repeated. On the other hand, if the work is finished, the vehicle body V will be stopped and the entire process will be completed.

前記行程側の境界L1に対するずれの算出につ
いて説明を加えれば、車体横幅方向に向かう位置
のずれと、境界L1の向きに対する傾きのずれと
があるが、それらを定量的な値として算出しても
よく、又、単にずれの方向だけを算出するように
してもよい。
To explain the calculation of the deviation with respect to the boundary L 1 on the stroke side, there is a deviation in the position in the width direction of the vehicle body and a deviation in the inclination with respect to the direction of the boundary L 1 , but these are calculated as quantitative values. Alternatively, only the direction of deviation may be calculated.

又、操向制御の処理について説明を加えれば、
平行ステアリング形式にて、車体横幅方向の位置
のずれを修正し、4輪ステアリング形式にて、向
きのずれを修正することになる。但し、前記前後
輪1,2のステアリング量に差を付けて、位置と
向きのずれを同時に修正するようにしてもよい。
Also, if we add an explanation about the steering control process,
The parallel steering type corrects positional deviations in the width direction of the vehicle body, and the four-wheel steering type corrects directional deviations. However, the steering amounts of the front and rear wheels 1 and 2 may be made different to correct the positional and orientation deviations at the same time.

次に、第1図に示すフローチヤートに基づい
て、前記境界検出の処理について詳述する。
Next, the boundary detection process will be described in detail based on the flowchart shown in FIG.

但し、以下に説明する境界検出の処理は、前記
未刈地Bが既刈地Cよりも暗く見える現象を利用
して行われるものである。
However, the boundary detection process described below is performed by utilizing the phenomenon that the unmoved area B appears darker than the mowed area C.

すなわち、境界検出処理が開始されるに伴つ
て、前記イメージセンサS1による撮像処理が行わ
れると共に、その撮像画像情報が、予め設定され
た画素密度(32×32画素に設定してある)に対応
して量子化される。
That is, as the boundary detection process is started, the image sensor S 1 performs imaging processing, and the captured image information is adjusted to a preset pixel density (set to 32 x 32 pixels). Correspondingly quantized.

次に、処理対象となる画素eの周囲に隣接する
8画素(a〜d,f〜i)を含む9画素を覆う3
×3画素分のマスクを用いて、下記(i)式に基づい
て、画像上のx軸方向における明るさ変化の微分
値SXを演算する処理が、二次元方向に並ぶ各画
素について行われる(第3図参照)。
Next, 3
Using a mask for ×3 pixels, the process of calculating the differential value SX of the brightness change in the x-axis direction on the image is performed for each pixel arranged in the two-dimensional direction based on the following equation (i) ( (See Figure 3).

SX(x,y)=(c+2f+i)−(a+2d+g)…(i
) 但し、この微分処理において、前記車体Vに対
して前記境界Lが左右何れの側に位置するかに基
づいて、前記微分値SXの符号を判別して、正負
いずれか一方の符号となる値のみを求めるように
してある。
SX(x,y)=(c+2f+i)−(a+2d+g)…(i
) However, in this differentiation process, the sign of the differential value SX is determined based on whether the boundary L is located on the left or right side with respect to the vehicle body V, and a value that has either a positive or negative sign is determined. It is designed to only seek the following.

つまり、前記式(i)において、画像上右側に位置
する画素の明るさから左側に位置する画素の明る
さを減算するようにしているので、右側のほうが
明るい場合(第4図参照)には、前記微分値SX
の正の値となり、左側のほうが明るい場合(第5
図参照)には負の値となる。
In other words, in equation (i) above, the brightness of the pixel located on the left side of the image is subtracted from the brightness of the pixel located on the right side of the image, so if the right side is brighter (see Figure 4), , the differential value SX
is a positive value, and if the left side is brighter (5th
(see figure) has a negative value.

従つて、前記車体Vに対して境界L1が右側に
位置する状態で走行させる場合には、前記微分値
SXが正の値となるものを抽出し、左側に位置す
る状態で走行させる場合には、前記微分値SXが
負の値となるものを抽出することになる。
Therefore, when driving with the boundary L1 located on the right side of the vehicle body V, the differential value
When extracting a vehicle whose SX is a positive value and causing the vehicle to run while positioned on the left side, a vehicle whose differential value SX is a negative value will be extracted.

尚、このx軸方向における明るさ変化の微分値
SXを演算する処理が、微分手段100に対応す
ることになる。
In addition, the differential value of the brightness change in this x-axis direction
The process of calculating SX corresponds to the differentiating means 100.

そして、前記微分値SXの絶対値が予め設定さ
れた設定閾値以上の大きさとなる画素のみを抽出
するように2値化することにより、明るさ変化が
大なる箇所の画素を抽出する。
Then, by performing binarization so as to extract only pixels for which the absolute value of the differential value SX is greater than or equal to a preset threshold value, pixels at locations where brightness changes are large are extracted.

尚、この2値化処理が、2値化手段101に対
応することになる。
Note that this binarization process corresponds to the binarization means 101.

次に、前記2値化手段101にて抽出された画
素を、前記境界Lと交差する方向で且つ暗から明
の方向に向けて検索して、前記2値化手段101
にて抽出された画素のうちの最初に存在する画素
を抽出することにより、明るい部分つまり前記既
刈地C内に写つた影A(第4図及び第5図参照)
を除去する影除去の処理を行う。
Next, the pixels extracted by the binarization means 101 are searched in a direction intersecting the boundary L and from dark to bright, and the pixels extracted by the binarization means 101 are
By extracting the first existing pixel among the pixels extracted in , the bright part, that is, the shadow A reflected in the above-mentioned mowed area C (see Figures 4 and 5)
Performs shadow removal processing to remove.

尚、この影を除去する処理が、画素抽出手段1
02に対応することになる。
Note that the process of removing this shadow is carried out by the pixel extraction means 1.
This corresponds to 02.

そして、ハフ変換処理を用いて、影を除去した
各画素毎に、その画素を通る設定角度毎に分割さ
れた多数本の直線を、下記式(ii)に基づいて極座標
系(ρ,θ)に投影し、同一座標値をとる頻度を
ヒストグラムにとり、そして、そのヒストグラム
から、最大頻度となる一つの直線を求めて、その
直線を、前記作業行程に沿う方向に向かう境界
L1に対応する直線として検出する。
Then, using Hough transform processing, for each pixel from which the shadow has been removed, a number of straight lines that pass through that pixel and are divided at each set angle are plotted in the polar coordinate system (ρ, θ) based on the following formula (ii). Project it onto the screen, make a histogram of the frequency of the same coordinate values, find a straight line with the maximum frequency from the histogram, and use that straight line as a boundary in the direction along the work process.
Detect as a straight line corresponding to L 1 .

ρ=x・cosθ+y・sinθ …(ii) 尚、このハフ変換処理を用いて直線を求める処
理が、直線演算手段103に対応することにな
る。
ρ=x·cosθ+y·sinθ (ii) Note that the process of finding a straight line using this Hough transform process corresponds to the straight line calculation means 103.

但し、この境界検出の処理において、説明のた
めに用いた画面は仮想上のものであり、前記各境
界L1,L2に対応した直線が、実際に引かれるこ
とはなく、最大頻度となる前記(ii)式にて求められ
た値ρと、その値となる角度θの値とを、検出し
た直線に対応する情報として使用することにな
る。そして、境界に対するずれの算出や終端位置
の算出の処理において、それらの値ρ,θから、
実際の地面の座標系に写像することにより、車体
Vに対する実際の境界L1,L2の位置を算出する
ことになる。
However, in this boundary detection process, the screen used for explanation is a virtual one, and the straight lines corresponding to each of the boundaries L 1 and L 2 are not actually drawn, but the lines that correspond to the maximum frequency The value ρ obtained by the above equation (ii) and the value of the angle θ that corresponds to the value ρ are used as information corresponding to the detected straight line. Then, in the process of calculating the deviation with respect to the boundary and calculating the end position, from those values ρ and θ,
By mapping to the coordinate system of the actual ground, the actual positions of the boundaries L 1 and L 2 with respect to the vehicle body V are calculated.

そして、実際の地面に写像された情報に基づい
て、前述の如く操向制御することにより、前記車
体Vが境界L1に沿つて自動走行し、且つ終端側
の境界L2に達するに伴つて、次の作業行程の始
端部に向けて自動的にターンするように、誘導す
ることになる。
Then, by controlling the steering as described above based on the information mapped on the actual ground, the vehicle body V automatically travels along the boundary L1 , and as it reaches the terminal side boundary L2 . , the robot will be guided to automatically turn toward the starting end of the next working stroke.

ところで、前記終端側の境界L2を検出する場
合には、明るさ変化が車体Vに対して前後方向と
なり、且つ、画面上、上方から下方に向かつて明
から暗へ変化することになるために、前述の微分
処理において、y軸方向での明るさ変化の微分値
を求めて、前記x軸方向での微分値SXの代わり
に使用すれば、同一処理で終端側の境界L2を検
出することができる。
By the way, when detecting the boundary L2 on the terminal side, the brightness changes in the front and back direction with respect to the vehicle body V, and also changes from bright to dark from the top to the bottom on the screen. In addition, in the differential processing described above, if the differential value of the brightness change in the y-axis direction is found and used in place of the differential value SX in the x-axis direction, the terminal side boundary L 2 can be detected with the same processing. can do.

前記終端側の境界L2が検出されたか否かの判
別について説明すれば、前述の境界検出処理が設
定距離毎に行われることから、今回の境界検出処
理において検出された終端側の境界L2の位置が、
前回の境界検出処理において検出された終端側の
境界L2の位置に、車体前後方向に向けて前記設
定距離を加算した位置の近傍にあるか否かを判別
することにより、検出された直線が、終端側の境
界L2であるか否かを判断することができる。
To explain the determination of whether or not the terminal side boundary L 2 has been detected, since the aforementioned boundary detection process is performed for each set distance, the terminal side boundary L 2 detected in the current boundary detection process The position of
The detected straight line is determined by determining whether or not it is in the vicinity of the position where the set distance is added in the longitudinal direction of the vehicle to the position of the boundary L2 on the terminal side detected in the previous boundary detection process. , it can be determined whether or not the boundary L2 is on the terminal side.

ところで、前記イメージセンサS1が車体前方側
の作業地を斜め上方から撮像するように取り付け
られていることから、その撮像画像情報から得ら
れる各境界L1,L2の画面上の位置変化は、車体
Vに対する実際の境界L1,L2の位置までの距離
に反比例して、遠方ほど小さくなる状態となる。
By the way, since the image sensor S 1 is installed so as to image the work area on the front side of the vehicle from diagonally above, the position changes on the screen of each boundary L 1 and L 2 obtained from the captured image information are as follows. , in inverse proportion to the distance to the actual positions of boundaries L 1 and L 2 with respect to the vehicle body V, and becomes smaller as the distance increases.

従つて、前記終端側の境界L2の判別、その終
端側の境界L2までの距離の算出、並びに、検出
された行程側の境界L1に対するずれの算出の
夫々において、画面上の検出位置に対応して、車
体Vに対する実際の位置に換算することになる。
Therefore, in each of the determination of the terminal side boundary L2 , the calculation of the distance to the terminal side boundary L2 , and the calculation of the deviation from the detected stroke side boundary L1 , the detected position on the screen is Corresponding to this, the actual position with respect to the vehicle body V is converted.

前記影除去の処理について説明すれば、第2図
に示すように、前記行程側の境界L1が、車体V
に対して左右何れの側にあるかに基づいて、明暗
変化の検索方向が、前記境界L1と交差する方向
であるx軸方向で且つ暗から明の方向となるよう
に、画面上左右何れの方向から検索するかを判別
する(第4図及び第5図参照)。
To explain the shadow removal process, as shown in FIG .
Based on whether it is on the left or right side of the screen, the search direction for the brightness change is in the x-axis direction, which is the direction that intersects the boundary L1 , and from dark to bright. It is determined whether the search is to be performed from the direction of (see FIGS. 4 and 5).

第4図に示すように、画面上、左側部分が未刈
地Bで暗い場合における検索処理について説明す
れば、画面の左側から右側に向かつて検索するよ
うに、x軸方向に向かう各ラインの座標値の初期
値を1としてそれが32に達するまで、暗から明の
方向つまり左側から右側へと1画素毎に走査し
て、前記2値化手段101にて抽出された2値化
画素の値IPが、2値化画素が存在することを示
す“1”であるか否かを判別する。
As shown in Fig. 4, the search process when the left side of the screen is uncut land B and is dark is explained below.In order to search from the left side of the screen to the right side, each line in the x-axis direction is The initial value of the coordinate value is set to 1, and scanning is performed pixel by pixel from dark to bright, that is, from left to right, until the coordinate value reaches 32, and the binarized pixels extracted by the binarizing means 101 are It is determined whether the value IP is "1" indicating that a binarized pixel exists.

前記2値化画素の値IPが“1”となる最初に
存在する画素が抽出されるに伴つて、影Aを除去
した画像情報として用いる2値化画素の値DPを
“1”にして、一つのラインにおけるx軸方向の
検索を終了する。
As the first existing pixel for which the value IP of the binarized pixel becomes "1" is extracted, the value DP of the binarized pixel used as image information from which the shadow A has been removed is set to "1", The search in the x-axis direction for one line is completed.

一つのラインにおける検索が終了すると、前記
y軸方向の座標値が32に達するまで、1づつ加算
して、次のラインにおける2値化画素の値IPの
判別処理を繰り返すことになる。
When the search for one line is completed, the process of determining the value IP of the binarized pixel in the next line is repeated by adding one at a time until the coordinate value in the y-axis direction reaches 32.

一方、第5図に示すように、画面上、右側に暗
く見える未刈地Bがある場合には、x軸方向の座
標値の初期値を最終座標値の32に設定し、そし
て、その値から1づつ減算することにより、前記
x軸方向の検索が、右側から左側へと逆方向に向
けて行われるように、検索方向を左右逆転させる
ことになる。
On the other hand, as shown in Figure 5, if there is uncut land B that looks dark on the right side of the screen, the initial value of the coordinate value in the x-axis direction is set to the final coordinate value of 32, and the value By subtracting one from , the search direction is reversed left and right so that the search in the x-axis direction is performed in the opposite direction from right to left.

従つて、前記2値化画素の値IPが“1”とな
る最初に存在する画素が抽出されるに伴つて、一
つのラインに対する検索処理を終えるようにして
いるために、明るい部分である前記既刈地C内に
影Aが写つていても、その影Aの部分となる画素
が抽出されることはなく、自動的に影Aが除去さ
れるのである。
Therefore, the search process for one line is completed when the first existing pixel whose value IP of the binarized pixel is "1" is extracted. Even if a shadow A appears in the mown area C, the pixels corresponding to the shadow A are not extracted, and the shadow A is automatically removed.

又、この影除去処理を行うことにより、前記2
値化画素の値IPが“1”となる最初に存在する
画素以降の画素も処理対象から除去されることに
なり、直線演算手段103での処理対象となる画
素数を減少させることができ、結果的に、高速処
理が可能となる。
Also, by performing this shadow removal process, the above 2.
Pixels after the first pixel whose value IP is "1" are also removed from the processing target, and the number of pixels to be processed by the linear calculation means 103 can be reduced. As a result, high-speed processing becomes possible.

〔別実施例〕[Another example]

上記実施例では、前記回転数センサS2の検出情
報を利用して、車体Vが作業行程の終端近傍に近
づいた場合に行うようにした場合を例示したが、
例えば、境界検出の処理を行う毎に、終端の検出
を交互に又は同時に行うようにしてもよい。
In the above embodiment, the detection information of the rotation speed sensor S 2 is used to exemplify the case where the operation is performed when the vehicle body V approaches the end of the working stroke.
For example, each time boundary detection processing is performed, end detection may be performed alternately or simultaneously.

又、上記実施例では、2値化手段101を、x
軸方向の微分値SXの大きさに基づいて、2値化
するようにした場合を例示したが、例えば、y軸
方向の微分値をも用いて、明るさ変化の方向を考
慮するようにしてもよい。
Further, in the above embodiment, the binarization means 101 is
Although we have illustrated a case where binarization is performed based on the magnitude of the differential value SX in the axial direction, for example, the differential value in the y-axis direction may also be used to consider the direction of brightness change. Good too.

又、上記実施例では、境界Lに対応する直線を
求める直線演算手段103として、ハフ変換処理
を用いた場合を例示したが、直線演算手段103
の具体構成は各種変更できる。
Furthermore, in the above embodiment, the case where Hough transform processing is used as the straight line calculating means 103 for calculating the straight line corresponding to the boundary L is illustrated, but the straight line calculating means 103
The specific configuration of can be changed in various ways.

又、上記実施例では、本発明を芝刈り用の作業
車を自動走行させるための手段として用いた場合
を例示したが、本発明は、各種の作業地の境界を
検出する手段として適用できるものであつて、各
部の具体構成は、各種変更できる。
Further, in the above embodiment, the present invention is used as a means for automatically driving a lawn mowing work vehicle, but the present invention can also be applied as a means for detecting the boundaries of various work areas. The specific configuration of each part can be changed in various ways.

尚、特許請求の範囲の項に図面との対照を便利
にするために符号を記すが、該記入により本発明
は添付図面の構造に限定されるものではない。
Incidentally, although reference numerals are written in the claims section for convenient comparison with the drawings, the present invention is not limited to the structure shown in the accompanying drawings by the reference numerals.

【図面の簡単な説明】[Brief explanation of drawings]

図面は本発明に係る撮像式の境界検出装置の実
施例を示し、第1図は境界検出処理のフローチヤ
ート、第2図は影除去処理のフローチヤート、第
3図は微分処理の説明図、第4図及び第5図は撮
像画像の説明図、第6図は制御構成を示すブロツ
ク図、第7図は作業車の全体側面図、第8図は作
業地の説明図である。 B……未処理作業地、C……処理済作業地、L
……境界、S1……撮像手段、SX……微分値、1
00……微分手段、101……2値化手段、10
2……画素抽出手段、103……直線演算手段。
The drawings show an embodiment of the imaging type boundary detection device according to the present invention, and FIG. 1 is a flowchart of boundary detection processing, FIG. 2 is a flowchart of shadow removal processing, and FIG. 3 is an explanatory diagram of differential processing. 4 and 5 are explanatory diagrams of captured images, FIG. 6 is a block diagram showing the control configuration, FIG. 7 is an overall side view of the working vehicle, and FIG. 8 is an explanatory diagram of the working area. B... Untreated working area, C... Treated working area, L
... Boundary, S 1 ... Imaging means, SX ... Differential value, 1
00...differentiation means, 101...binarization means, 10
2... Pixel extraction means, 103... Linear calculation means.

Claims (1)

【特許請求の範囲】[Claims] 1 未処理作業地Bと処理済作業地Cとの境界L
に対応する直線を検出する撮像式の境界検出装置
であつて、作業地を二次方向に亘つて撮像する撮
像手段S1と、その撮像手段S1の撮像画像より、前
記境界Lと交差する方向での明るさ変化に基づい
て二次元方向に並ぶ各量子化画素の微分値SXを
求める微分手段100と、求められた微分値SX
が大なる画素を抽出する2値化手段101と、前
記境界Lと交差する方向で且つ暗から明の方向に
向けて検索して、前記2値化手段101にて抽出
された画素のうちの最初に存在する画素を抽出す
る画素抽出手段102と、その画素抽出手段10
2にて抽出された画素を通る直線を求める直線演
算手段103とが設けられている撮像式の境界検
出装置。
1 Boundary L between untreated working area B and treated working area C
This is an imaging type boundary detection device that detects a straight line corresponding to the boundary L, and includes an imaging means S1 that images the work area in a secondary direction, and a straight line that intersects the boundary L from the image taken by the imaging means S1 . a differentiating means 100 for obtaining a differential value SX of each quantized pixel arranged in a two-dimensional direction based on a brightness change in the direction; and a differential value SX that is obtained.
A binarizing means 101 extracts pixels with a large value, and a binarizing means 101 searches in a direction intersecting the boundary L and from dark to bright, and extracts pixels from among the pixels extracted by the binarizing means 101. Pixel extraction means 102 for extracting the first existing pixel, and the pixel extraction means 10
An imaging type boundary detection device is provided with a straight line calculation means 103 for determining a straight line passing through the pixels extracted in step 2.
JP13023687A 1987-05-27 1987-05-27 Image pickup type border detecting device Granted JPS63293402A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13023687A JPS63293402A (en) 1987-05-27 1987-05-27 Image pickup type border detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13023687A JPS63293402A (en) 1987-05-27 1987-05-27 Image pickup type border detecting device

Publications (2)

Publication Number Publication Date
JPS63293402A JPS63293402A (en) 1988-11-30
JPH0575335B2 true JPH0575335B2 (en) 1993-10-20

Family

ID=15029368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13023687A Granted JPS63293402A (en) 1987-05-27 1987-05-27 Image pickup type border detecting device

Country Status (1)

Country Link
JP (1) JPS63293402A (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5527462A (en) * 1994-11-15 1996-06-18 Delaware Capital Formation, Inc. Filter with axially movable wiper
US5569383A (en) * 1994-12-15 1996-10-29 Delaware Capital Formation, Inc. Filter with axially and rotatably movable wiper

Also Published As

Publication number Publication date
JPS63293402A (en) 1988-11-30

Similar Documents

Publication Publication Date Title
JPH0436405B2 (en)
JPH0575335B2 (en)
JPH0759407A (en) Traveling controller of automatic traveling working car
JPH0610774B2 (en) Imaging type steering control device for automated driving vehicles
JPH069011B2 (en) Travel control system for automated guided vehicles
JP2520104B2 (en) Boundary detection device for autonomous vehicles
JPH0575336B2 (en)
JP2510660B2 (en) Image-capturing type traveling control device for automated guided vehicles
JPH0547161B2 (en)
JPH07104720B2 (en) Image-capturing boundary detection device for self-driving work vehicles
JPH0575333B2 (en)
JPH0575334B2 (en)
JPH0575330B2 (en)
JPH0575329B2 (en)
JPH0575332B2 (en)
JP2624390B2 (en) Crop row detector
JP2721072B2 (en) Crop row detector
JP3020734B2 (en) Boundary detection device for autonomous vehicles
JP2585471B2 (en) Boundary detection device for autonomous vehicles
JP2907612B2 (en) Crop row detector
JPH0634229B2 (en) Imaging type boundary detection device
JPH01161402A (en) Image pickup type steering control device for automatic traveling working vehicle
JPH01231809A (en) Photographing type travel control device for automatic travel working car
JPH01187015A (en) Mowing, working vehicle of automatic steering type
JPH0646886B2 (en) Steering control device for automated vehicle