JPH0634229B2 - Imaging type boundary detection device - Google Patents

Imaging type boundary detection device

Info

Publication number
JPH0634229B2
JPH0634229B2 JP62176411A JP17641187A JPH0634229B2 JP H0634229 B2 JPH0634229 B2 JP H0634229B2 JP 62176411 A JP62176411 A JP 62176411A JP 17641187 A JP17641187 A JP 17641187A JP H0634229 B2 JPH0634229 B2 JP H0634229B2
Authority
JP
Japan
Prior art keywords
boundary
pixel
image
value
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP62176411A
Other languages
Japanese (ja)
Other versions
JPS6419481A (en
Inventor
保生 藤井
正彦 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kubota Corp
Original Assignee
Kubota Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kubota Corp filed Critical Kubota Corp
Priority to JP62176411A priority Critical patent/JPH0634229B2/en
Publication of JPS6419481A publication Critical patent/JPS6419481A/en
Publication of JPH0634229B2 publication Critical patent/JPH0634229B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、車体進行方向前方側の未処理作業地と処理済
作業地との境界を二次元方向に亘って撮像する撮像手段
と、その撮像手段の撮像範囲を照光する照光手段とが、
前記境界を斜め上方から望む状態で、作業車に設けら
れ、前記撮像手段の撮像情報から二次元方向に並ぶ各画
素の明るさの検出値に基づいて各画素の微分値を求める
微分手段と、各画素における前記微分値の絶対値と設定
閾値とを比較してその設定閾値以上となる箇所の画素を
抽出する2値化手段と、前記2値化手段で抽出された画
素情報から境界に相当する直線抽出を行う直線抽出処理
手段とを備えた撮像式の境界検出装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Industrial field of use] The present invention relates to an imaging means for imaging a boundary between an unprocessed work site and a processed work site on the front side in the vehicle body traveling direction in a two-dimensional direction, and an imaging device. Illuminating means for illuminating the imaging range of the imaging means,
Differentiating means for determining the differential value of each pixel based on the detected value of the brightness of each pixel arranged in the two-dimensional direction from the image pickup information of the image pickup means, in a state where the boundary is viewed obliquely from above, A binarization unit that compares the absolute value of the differential value of each pixel with a set threshold value to extract pixels at a location that is greater than or equal to the set threshold value, and pixel information extracted by the binarization unit corresponds to a boundary. And a line extraction processing means for performing line extraction.

〔従来の技術〕[Conventional technology]

上記この種の撮像式の境界検出装置は、作業車を未処理
作業地と処理済作業地との境界に沿って自動走行させる
ための操向制御情報等として用いるために、未処理作業
地と処理済作業地とは明るさが異なって見えることか
ら、その境界部分で明るさ変化が大きくなることを利用
して、境界に対応した2値化画像情報を得るようにした
ものである。
The above-mentioned imaging-type boundary detection device uses the unprocessed work site as the unprocessed work site in order to use the work vehicle as steering control information for automatically traveling along the boundary between the unprocessed work site and the processed work site. Since the brightness looks different from that of the processed work site, the fact that the brightness changes greatly at the boundary portion is used to obtain the binarized image information corresponding to the boundary.

そして、走行前方側の境界の情報を、その地点まで走行
する前に得られるようにするために、上記境界を斜め上
方から望む状態で撮像するようにしてある。
Then, in order to obtain information on the boundary on the front side of traveling before the vehicle travels to that point, the boundary is imaged in a desired state from diagonally above.

ところで、この種の撮像式の境界検出装置においては、
画像情報の明るさ変化を利用して境界に対応する2値化
画像情報を得るようにしているために、撮像条件つまり
撮像視野内の明るさが変わると、同一箇所を撮像して
も、その明るさ変化が異なる状態となり、適正な2値化
が行えなくなる虞れがあることから、撮像処理に同期し
て撮像視野内を照光するストロボ発光装置等の照光手段
が設けられている。
By the way, in this type of imaging type boundary detection device,
Since the binarized image information corresponding to the boundary is obtained by utilizing the change in the brightness of the image information, if the imaging condition, that is, the brightness within the imaging field of view changes, even if the same portion is imaged, Since there is a risk that the change in brightness will be different and proper binarization may not be possible, an illumination unit such as a strobe light emitting device that illuminates the inside of the imaging field of view in synchronization with the imaging process is provided.

ちなみに、この種の撮像式の境界検出装置は、作業車が
一般に屋外で使用されることからも、天候の影響を受け
ないようにすることが望まれるものであり、従って、天
候に拘らず一定の明るさで撮像できるようにすることが
望まれている。
By the way, this type of imaging-type boundary detection device is desired to be unaffected by the weather because the work vehicle is generally used outdoors, so that it is constant regardless of the weather. It is desired to be able to image with the brightness of.

しかしながら、撮像視野が、斜め上方から走行前方側の
作業地を望む状態となるために、照光手段が設けられる
位置において均一な強度で照光したとしても、地面上で
は、撮像距離が遠い箇所ほど、近い箇所よりも照光量が
低下する状態となり、得られる二次元の撮像画像は、撮
像距離が遠い箇所ほど暗くなる状態となる。
However, since the imaging field of view is a state in which the work site on the traveling front side is viewed from diagonally above, even if the image is illuminated with uniform intensity at the position where the illumination means is provided, on the ground, the farther the imaging distance is, The amount of illumination becomes lower than that at a closer location, and the obtained two-dimensional captured image becomes darker at a location at a longer capturing distance.

上記境界として、芝地における未刈地と既刈地との境界
を検出する場合を例に説明を加えれば、未刈地よりも既
刈地が明るく見える状態となることが知られている。
It is known that when the boundary between the uncut land and the already-cut land on the lawn is detected as the boundary, the already-cut land looks brighter than the uncut land.

そして、第2図(イ)に示すように、画面上、未刈地(B)が
左側に且つ既刈地(C)が右側に、夫々位置し、その境界
(L)が上下方向に見える状態で撮像した場合には、撮像
距離が遠い箇所つまり画面上、上方側ほど下方側よりも
暗くなり、各画素毎にその明るさの値に基づいて微分値
を求めると、微分値が上方側ほど小さい値と成って、画
面全体に対して一定の閾値で2値化すると、第2図(ロ)
に示すように、上方側つまり遠方側箇所に位置する境界
部分に対応する画素(図中、破線で示す)に対応する情
報が欠落する不利が生じる。
Then, as shown in FIG. 2 (a), the uncut land (B) is located on the left side and the already cut land (C) is located on the right side of the screen, and the boundary
When (L) is imaged in the vertical direction, it is darker on the part where the imaging distance is farther on the screen, that is, the upper side is darker than the lower side, and the differential value is calculated for each pixel based on the brightness value. When it is found, the differential value becomes smaller toward the upper side, and if the entire screen is binarized with a constant threshold value, it is shown in Fig. 2 (b).
As shown in, there is a disadvantage that information corresponding to the pixel (indicated by a broken line in the drawing) corresponding to the boundary located at the upper side, that is, the far side is missing.

そこで、従来では、例えば、大光量の照光手段を設け、
その照光範囲を撮像視野よりも拡げて、撮像視野内にお
ける明るさ変化が極力小さくなるようにすることが考え
られている。
Therefore, in the past, for example, an illumination means with a large amount of light is provided,
It is considered that the illumination range is expanded beyond the imaging field of view so that the change in brightness within the imaging field of view becomes as small as possible.

〔発明が解決しようとする問題点〕[Problems to be solved by the invention]

しかしながら、大光量の照光手段を設け、その照光範囲
を撮像視野よりも拡げるようにする構成では、照光手段
が大型化するばかりか、装置が高価になる不利がある。
However, in the configuration in which the illumination means with a large amount of light is provided and the illumination range is expanded beyond the imaging field of view, not only the illumination means becomes large, but also the device becomes expensive.

又、遠近に拘らず地面での照光量が一定になるように、
照光手段の照光強度を、撮像箇所の遠近に対応して、可
変するようにすることも考えられるが、照光手段の構成
が複雑になる不利がある。
Also, regardless of the distance, so that the amount of illumination on the ground is constant,
It may be possible to change the illumination intensity of the illumination means in accordance with the distance of the imaging location, but this has the disadvantage of complicating the configuration of the illumination means.

本発明は、上記実情に鑑みてなされたものであって、そ
の目的は、特別な照光手段を用いることなく、境界に対
応した2値化画像情報を的確に得られるようにすること
にある。
The present invention has been made in view of the above circumstances, and an object thereof is to accurately obtain binarized image information corresponding to a boundary without using a special illumination means.

〔問題点を解決するための手段〕[Means for solving problems]

本発明による撮像式の境界検出装置の特徴構成は、前記
閾値の値が、撮像距離が遠い箇所に対応する画素の方が
近い箇所に対応する画素よりも小となるように、前記各
画素に対する2値化の閾値を設定する閾値設定手段が設
けられている点にあり、その作用並びに効果は以下の通
りである。
The characteristic configuration of the image-capturing boundary detection apparatus according to the present invention is such that the value of the threshold is smaller for each pixel so that a pixel corresponding to a portion with a longer imaging distance is smaller than a pixel corresponding to a closer portion. A threshold value setting means for setting a threshold value for binarization is provided, and its action and effect are as follows.

〔作用〕[Action]

撮像距離が遠い箇所の画素ほど照光量が低下する状態と
なって、その明るさ変化が小さくなることから、微分値
の大きさに基づいて2値化するための閾値の値を、撮像
距離が遠い箇所の画素ほど近い箇所の画素よりも小とな
るように設定すれば、撮像距離の遠近に起因する明るさ
の違いに拘らず、的確な2値化が行えるものとなる。
Since the amount of illumination decreases as the distance to the pixel increases, and the brightness change decreases, the threshold value for binarization based on the magnitude of the differential value If the pixel at the farther place is set to be smaller than the pixel at the closer place, the accurate binarization can be performed regardless of the difference in brightness due to the perspective of the imaging distance.

〔発明の効果〕〔The invention's effect〕

撮像距離の遠近に起因する明るさの違いに拘らず、的確
な2値化が行えるので、撮像距離が近い箇所において適
正光量となる照光手段を用いることができる。もって、
特別な照光手段を用いることなく、境界に対応する画像
情報を全撮像視野内において的確に得られるに至った。
Since accurate binarization can be performed irrespective of the difference in brightness caused by the distance of the imaging distance, it is possible to use an illuminating unit that provides an appropriate amount of light at a location where the imaging distance is short. So,
The image information corresponding to the boundary can be accurately obtained within the entire imaging field of view without using a special illumination means.

〔実施例〕〔Example〕

以下、本発明の実施例を図面に基づいて説明する。 Embodiments of the present invention will be described below with reference to the drawings.

第4図に示すように、左右一対の前後輪(1),(2)が、そ
の何れをもステアリング操作自在に設けられ、車体の下
腹部に、芝刈り装置(3)が縣架され、もって、芝や雑草
等の刈取作業に用いる作業車(V)が構成されている。
As shown in FIG. 4, a pair of left and right front and rear wheels (1) and (2) are provided so that both steering can be operated, and a lawnmower (3) is suspended on the lower abdomen of the vehicle body. Therefore, a work vehicle (V) used for cutting grass and weeds is constructed.

そして、車体進行方向前方側の未処理作業地としての未
刈地(B)と処理済作業地としての既刈地(C)との境界(L)
を二次元方向に亘って撮像する撮像手段としてのイメー
ジセンサ(S1)が、車体進行方向前方側の境界(L)を含む
所定範囲の作業地を斜め上方から望む状態で、車体前端
部に取り付けられている。
The boundary (L) between the uncut land (B) as the unprocessed work site and the already cut land (C) as the processed work site on the front side in the vehicle traveling direction.
The image sensor (S 1 ) as an image pickup means for picking up the image in the two-dimensional direction of It is installed.

前記イメージセンサ(S1)の撮像視野について説明すれ
ば、前記作業者(V)が、前記境界(L)に対して適正に沿っ
ている状態において、前記境界(L)が、視野の横幅方向
中央に位置する状態となるようにしてある。
Explaining the imaging field of view of the image sensor (S 1 ), the worker (V) is in a state of being properly along the boundary (L), the boundary (L) is the lateral direction of the field of view. It is arranged so that it is located in the center.

尚、図中、(13)は、前記イメージセンサ(S1)の撮像作動
に同期して、その撮像視野内を設定光量で照光するスト
ロボ発光装置等の照光装置である。
In the figure, (13) is an illumination device such as a stroboscopic light emitting device that illuminates the imaging field of view with a set light amount in synchronization with the imaging operation of the image sensor (S 1 ).

前記作業車(V)の構成について説明すれば、第6図に示
すように、前記前後輪(1),(2)の夫々を各別に操作する
ステアリング用の油圧シリンダ(4),(5)及び、それに対
する制御弁(6),(7)が設けられ、前後進切り換え自在で
且つ前後進ともに変速自在な油圧式無段変速装置(8)
が、エンジン(E)に連動連結され、そして、変速モータ
(9)が、前記変速装置(8)の変速アーム(10)に連動連結さ
れている。
Explaining the structure of the work vehicle (V), as shown in FIG. 6, steering hydraulic cylinders (4) and (5) for individually operating the front and rear wheels (1) and (2) respectively. Further, a control valve (6), (7) for it is provided, and a hydraulic continuously variable transmission (8) that is switchable between forward and reverse and is capable of shifting forward and backward.
Is linked to the engine (E) and the variable speed motor
(9) is linked to the speed change arm (10) of the speed change device (8).

前記変速装置(8)の出力回転数を検出する回転数センサ
(S2)が設けられ、その検出情報に基づいて、前記作業車
(V)の走行距離を検出できるように構成されている。
A rotation speed sensor for detecting the output rotation speed of the transmission (8)
(S 2 ) is provided, and the work vehicle is based on the detection information.
It is configured so that the traveling distance of (V) can be detected.

又、前記前後輪(1),(2)夫々のステアリング位置を検出
するステアリング位置検出用ポテンショメータ(R1),
(R2)、及び、前記変速装置(8)の操作状態を検出するこ
とにより間接的に車速を検出する車速検出用ポテンショ
ーメータ(R3)が設けられ、それらの検出情報、前記イメ
ージセンサ(S1)による撮像情報に基づいて求められる前
記境界(L)に対応する情報、及び、前記回転数センサ
(S2)の検出情報に基づいて、前記作業者(V)が前記未刈
地(B)と既刈地(C)との境界(L)に沿って自動走行するよ
うに制御するマイクロコンピュータ利用の制御装置(11)
が設けられている。
Further, a steering position detecting potentiometer (R 1 ) for detecting the steering position of each of the front and rear wheels (1), (2),
(R 2), and said transmission (8) potentiometer over the meter speed detector for detecting indirectly the vehicle speed by detecting the operation state of the (R 3) is provided, their detection information, the image sensor (S 1 ) information corresponding to the boundary (L) obtained based on the imaging information, and the rotation speed sensor
(S 2 ) based on the detection information, the microcomputer controls the worker (V) to automatically run along the boundary (L) between the uncut land (B) and the already cut land (C) Utilization Control Equipment (11)
Is provided.

尚、図中、(H)は搭乗操縦用のステアリングハンドル、
(R0)はその操作位置検出用ポテンショメータ、(12)は搭
乗操縦用の変速ペダルである。
In the figure, (H) is a steering handle for boarding operation,
(R 0 ) is a potentiometer for detecting the operation position, and (12) is a speed change pedal for boarding operation.

但し、前記イメージセンサ(S1)の撮像情報を画像処理し
て、前記境界(L)に対応した情報を検出するための各種
手段が、前記制御装置(11)を利用して構成されることに
なる。
However, various means for image-processing the image pickup information of the image sensor (S 1 ) and detecting information corresponding to the boundary (L) are configured by using the control device (11). become.

前記作業車(V)の自動走行について説明すれば、第5図
に示すように、既刈地(C)で囲まれた四角状の未刈地(B)
の一辺から対辺に至る部分を、一つの作業行程として、
前記作業車(V)が作業行程の長さ方向に沿う側の前記未
刈地(B)と既刈地(C)との境界(L1)に沿って自動走行する
ように、前記画像処理にて検出された情報に基づいて操
向制御されることになり、一つの作業行程の終端側の境
界(L2)つまり前記未刈地(B)の対辺に達するに伴って、
その作業行程に交差する方向の次の作業行程の始端部に
向けて自動的にターンさせることを繰り返すことによ
り、いわゆる回り刈り形式で、所定範囲の芝刈り作業を
自動的に行わせることになる。
Explaining the automatic running of the work vehicle (V), as shown in FIG. 5, a square uncut land (B) surrounded by the already cut land (C).
The part from one side to the opposite side as one work process,
The image processing is performed so that the work vehicle (V) automatically travels along the boundary (L 1 ) between the uncut land (B) and the already cut land (C) on the side along the length direction of the work stroke. Steering control will be performed based on the information detected at, with the end side of one work stroke (L 2 ), that is, with reaching the opposite side of the uncut land (B),
By repeating the automatic turn toward the starting end of the next work stroke in the direction intersecting with the work stroke, it is possible to automatically perform the lawn mowing work within a predetermined range in the so-called turning style. .

前記制御装置(11)の作業を述べながら説明を加えると、
前記作業行程の始端部側から走行開始するに伴って、前
記回転数センサ(S2)の検出情報に基づいて設定距離を走
行する毎に、後述の境界検出処理が行われ、その検出情
報に基づいて、前記作業車(V)が前記境界(L1)に沿って
自動走行するように操向制御されることになる。
Adding an explanation while describing the work of the control device (11),
With the start of traveling from the start end side of the work stroke, each time the vehicle travels a set distance based on the detection information of the rotation speed sensor (S 2 ), the boundary detection processing described below is performed, and the detection information is Based on this, the steering control is performed so that the work vehicle (V) automatically travels along the boundary (L 1 ).

そして、前記回転数センサ(S2)の検出情報に基づいて、
一つの作業行程の長さに相当する距離に対して設定範囲
内に達したことを検出するに伴って、その作業行程の終
端側の境界(L2)を検出する処理を行い、それの検出情報
に基づいて、前記作業車(V)の現在位置に対する終端位
置を算出して、その算出された終端位置まで走行するに
伴って、予め設定記憶されたターンパターンに基づい
て、次の作業行程に向けてターンさせることになる。
Then, based on the detection information of the rotation speed sensor (S 2 ),
Upon detecting that the distance within the set range has been reached for the distance corresponding to the length of one work stroke, the process of detecting the boundary (L 2 ) on the end side of that work stroke is performed and detected. Based on the information, the end position relative to the current position of the work vehicle (V) is calculated, and as the vehicle travels to the calculated end position, based on the preset turn pattern, the next work stroke is calculated. Will turn towards.

但し、前記ターンした回数等に基づいて、予め設定され
た行程数を走行したか否かを判別することにより、作業
終了か否かを判断することになる。作業終了でない場合
には、前述の境界検出処理及びその検出情報による操向
制御を繰り返すことになり、作業終了の場合には、前記
作業車(V)を停止させて、全処理を終了することにな
る。
However, it is determined whether or not the work is finished by determining whether or not the vehicle has traveled the preset number of strokes based on the number of turns and the like. If the work is not finished, the boundary detection process and the steering control based on the detection information are repeated.If the work is finished, the work vehicle (V) is stopped and the whole process is finished. become.

前記作業行程の長さ方向に沿う境界(L1)に対する車体の
ずれについて説明を加えれば、車体横幅方向に向かう位
置のずれと、前記境界(L1)の向きに対する傾きのずれと
があるが、それらを定量的な値として算出してもよく、
又、単にずれの方向だけを算出するようにしてもよい。
To explain the displacement of the vehicle body with respect to the boundary (L 1 ) along the length direction of the work process, there is a displacement of the position toward the lateral direction of the vehicle body and a displacement of the inclination with respect to the direction of the boundary (L 1 ). , They may be calculated as quantitative values,
Alternatively, only the deviation direction may be calculated.

前記操向制御について説明を加えれば、前記前後輪(1),
(2)を同方向に向き変更して車体を平行移動させる平行
ステアリング形式にて、車体横幅方向の位置のずれを修
正し、前記前後輪(1),(2)を逆方向に向き変更して車体
を急旋回させる4輪ステアリング形式にて、向きのずれ
を修正することになる。但し、前記前後輪(1),(2)のス
テアリング量に差を付けて、位置と向きのずれを同時に
修正するようにしてもよい。
If the steering control is further explained, the front and rear wheels (1),
In the parallel steering type in which (2) is turned in the same direction and the vehicle body is translated, the positional deviation in the vehicle width direction is corrected, and the front and rear wheels (1), (2) are turned in the opposite direction. By using the four-wheel steering system in which the vehicle turns sharply by using the four-wheel steering system, the misalignment is corrected. However, the steering amounts of the front and rear wheels (1) and (2) may be different so that the positional and orientational deviations can be corrected at the same time.

次に、第1図に示すフローチャートに基づいて、前記境
界(L)に対応する情報を検出するための各手段について
説明する。
Next, each means for detecting the information corresponding to the boundary (L) will be described based on the flowchart shown in FIG.

すなわち、境界検出処理が開始されるに伴って、前記イ
メージセンサ(S1)による撮像処理が行われると共に、そ
の撮像画像情報が、予め設定された画素密度(32×32画
素に設定してある)に対応して量子化される。但し、こ
の撮像処理に同期して、前記照光装置(13)が作動して、
設定光量で、前記イメージセンサ(S1)の撮像視野を照光
することになる。
That is, along with the start of the boundary detection process, the image sensor (S 1 ) performs the image capturing process, and the captured image information is set to a preset pixel density (32 × 32 pixels). ) Is quantized according to. However, in synchronization with this imaging process, the illumination device (13) operates,
The image pickup field of the image sensor (S 1 ) is illuminated with the set light amount.

次に、第3図にも示すように、処理対象となる画素(e)
の周囲に隣接する8画素(a〜d,f〜i)を含む9画素を覆
う3×3画素分のマスクを用いて、下記(i)式に基づい
て、前記境界(L1)に交差する方向となる画像上のx軸方
向における明るさ変化の微分値(SX)を演算する処理が、
二次元方向に並ぶ各画素について行われる。
Next, as shown in FIG. 3, the pixel (e) to be processed
The boundary (L 1 ) is crossed based on the following formula (i) using a mask for 3 × 3 pixels covering 9 pixels including 8 pixels (a to d, f to i) adjacent to The process of calculating the differential value (SX) of the brightness change in the x-axis direction on the image that is the direction
This is performed for each pixel arranged in the two-dimensional direction.

SX(x,y)=(c+2f+i)-(a+2d+g)……(i) 但し、この微分処理において、前記作業車(V)に対して
前記境界(L1)が左右何れの側に位置するかに基づいて、
前記微分値(SX)の符号を判別して、正負いずれか一方の
符号となる値のみを求めることになる。
SX (x, y) = (c + 2f + i)-(a + 2d + g) ... (i) However, in this differentiation, the boundary (L 1 ) with respect to the work vehicle (V) is Based on which side it is located,
The sign of the differential value (SX) is discriminated, and only the value having one of the positive and negative signs is obtained.

つまり、前記(i)式において、画像上右側に位置する画
素の明るさから左側に位置する画素の明るさを減算する
ようにしているので、右側のほうが明るい場合には、前
記微分値(SX)は正の値となり、左側の方が明るい場合に
は負の値となるのである。
That is, in the equation (i), since the brightness of the pixel located on the left side is subtracted from the brightness of the pixel located on the right side of the image, when the right side is brighter, the differential value (SX ) Is a positive value, and is negative when the left side is brighter.

尚、このx軸方向における明るさ変化の微分値(SX)を演
算する処理が、微分手段(100)に対応することになる。
The process of calculating the differential value (SX) of the brightness change in the x-axis direction corresponds to the differentiating means (100).

そして、前記微分値(SX)の絶対値が予め設定された閾値
以上の大きさとなる画素のみを抽出することにより、明
るさ変化が大なる箇所の画素を抽出する。
Then, by extracting only the pixels whose absolute value of the differential value (SX) is greater than or equal to a preset threshold value, the pixels at the location where the brightness change is large are extracted.

但し、前述の如く、前記照光装置(13)による照光量は、
画像上、撮像距離が遠い箇所に対応する上方側ほど近い
箇所に対応する下方側よりも小さくなるために、y軸方
向における明るさが、距離に応じて低下する状態で撮像
される状態となっている(第2図(イ)参照)。
However, as described above, the amount of illumination by the illumination device (13) is
In the image, since the upper side corresponding to the farther distance in the image is smaller than the lower side corresponding to the closer distance, the brightness in the y-axis direction is reduced in accordance with the distance. (See Fig. 2 (a)).

従って、一定の閾値で2値化すると、第2図(ハ)にも示
すように、撮像距離が遠い箇所の境界部分に対応する画
素(図中、破線で示す)が欠落する虞れがあることか
ら、撮像距離つまり前記y軸方向に座標値に応じて、前
記閾値を変更するようにしてある。
Therefore, if binarization is performed with a constant threshold value, as shown in FIG. 2C, there is a possibility that the pixel (indicated by a broken line in the figure) corresponding to the boundary portion of the portion where the imaging distance is long may be missing. Therefore, the threshold value is changed according to the imaging distance, that is, the coordinate value in the y-axis direction.

つまり、一定の光量で照光すると、その照光量は距離の
二乗に反比例することから、下記(ii)式に基づいて、各
画素のy軸方向における座標の値(y)に応じて、2値化
の閾値(Vth)を自動的に変更するのである。
In other words, when illuminated with a fixed amount of light, the amount of illumination is inversely proportional to the square of the distance. Therefore, based on the following formula (ii), the binary value is calculated according to the coordinate value (y) of each pixel in the y-axis direction. The threshold for conversion (Vth) is automatically changed.

但し、上式において、Vrefは、最も近距離となる画像
上、最下段(y=32)に位置する画素に対する適正閾値の値
である。
However, in the above equation, Vref is the value of the appropriate threshold value for the pixel located at the lowest stage (y = 32) on the image at the shortest distance.

尚、33からy軸方向における座標の値(y)を減算するの
は、y軸方向の座標値を、最上段を1として、下方に向
かって増加するように設定しているために、その値が1
の場合が、撮像距離が最も遠い箇所に対応することにな
るのである。
It should be noted that the reason why the coordinate value (y) in the y-axis direction is subtracted from 33 is that the coordinate value in the y-axis direction is set so as to increase downward with the uppermost stage being set to 1. The value is 1
In this case, this corresponds to the location with the longest imaging distance.

従って、y軸方向における座標の値(y)に応じて、撮像
距離が遠い箇所の画素ほど閾値(Vth)が小さくなるよう
に自動設定されることになり、画面上、上下方向におけ
る各画素夫々の明るさに対応して適正に2値化が行われ
て、第2図(ロ)にも示すように、撮像距離が遠い箇所の
境界部分に対応する画像情報が欠落することはないので
ある。
Therefore, in accordance with the coordinate value (y) in the y-axis direction, the threshold value (Vth) is automatically set to be smaller for pixels at a longer imaging distance, and each pixel in the vertical direction on the screen 2 is appropriately binarized according to the brightness of the image information, and as shown in FIG. 2B, the image information corresponding to the boundary portion of the portion having a long imaging distance is not lost. .

もって、この2値化の処理が、2値化手段(101)に対応
することになり、前記y軸方向における座標の値(y)に
基づいて、閾値(Vth)を設定変更する処理が、撮像距離
が遠い箇所に対応する画素の方が近い箇所に対応する画
素よりも小となるように、前記各画素に対する2値化の
閾値を設定する閾値設定手段(102)に対応することにな
る。
Therefore, this binarizing process corresponds to the binarizing means (101), and the process of changing the setting of the threshold value (Vth) based on the coordinate value (y) in the y-axis direction is It corresponds to the threshold value setting means (102) for setting the binarization threshold value for each pixel so that the pixel corresponding to the far imaging distance becomes smaller than the pixel corresponding to the closer distance. .

そして、第1図及び第6図に示すように、直線抽出処理
手段(103)によって、例えば、ハフ変換処理等を利用し
て、2値化された各画素を通る直線のうちで最大頻度と
なる一つの直線を抽出することにより、前記境界(L1)に
対応した情報を求めることになる。
Then, as shown in FIG. 1 and FIG. 6, the straight line extraction processing means (103) uses, for example, Hough transform processing to determine the maximum frequency among straight lines passing through each binarized pixel. By extracting the one straight line, the information corresponding to the boundary (L 1 ) is obtained.

但し、前記作業行程の終端側の境界(L2)を検出する場合
には、明るさ変化が、画面上、上下方向に大きくなるこ
とから、前記微分値(SX)を求める処理において、y軸方
向における画素間の明るさの値を減算することになる。
However, when the boundary (L 2 ) on the end side of the work process is detected, the change in brightness increases in the vertical direction on the screen, so in the process of calculating the differential value (SX), the y-axis The brightness value between pixels in the direction will be subtracted.

そして、求められた直線の位置や傾きから、前記作業車
(V)と各境界(L1),(L2)の実際の位置関係を算出して、操
向制御したり、ターンさせる位置を制御することにな
る。
Then, from the position and the inclination of the obtained straight line, the work vehicle
The actual positional relationship between (V) and each boundary (L 1 ) and (L 2 ) is calculated, and steering control and turning position control are performed.

ところで、前記イメージセンサ(S1)が車体前方側の作業
地を斜め上方から撮像する状態で取り付けられているこ
とから、その撮像画像情報から得られる各境界(L1),
(L2)の画面上の位置変化は、作業車(V)に対する実際の
境界(L1),(L2)の位置までの距離に反比例して、遠方ほ
ど小さくなる状態となる。
By the way, since the image sensor (S 1 ) is attached in a state of imaging the work site on the front side of the vehicle body from obliquely above, each boundary (L 1 ) obtained from the captured image information,
The position change of (L 2 ) on the screen is inversely proportional to the distance to the actual positions of the boundaries (L 1 ) and (L 2 ) with respect to the work vehicle (V), and becomes smaller as the distance increases.

従って、前記終端側の境界(L2)の位置算出、並びに、行
程側の境界(L1)に対するずれの算出の夫々において、画
面上の検出位置に対応して、作業車(V)に対する実際の
位置に換算することになる。
Therefore, in each of the calculation of the position of the boundary (L 2 ) on the end side and the calculation of the deviation with respect to the boundary (L 1 ) of the stroke side, the actual position for the work vehicle (V) is corresponding to the detected position on the screen. Will be converted to the position.

〔別実施例〕[Another embodiment]

上記実施例では、閾値設定手段(102)を、撮像距離に対
応して、y軸方向における1画素毎に閾値を設定するよ
うにした場合を例示したが、数画素毎に同じ閾値を用い
るように簡略化してもよい。又、予めy軸方向の座標値
に対応して閾値を算出した結果をテーブル化して記憶さ
せておき、y軸方向の座標値に対応して、その値を読み
出すようにしてもよく、具体構成は、各種変更できる。
In the above embodiment, the threshold setting means (102) sets the threshold for each pixel in the y-axis direction corresponding to the imaging distance, but the same threshold is used for every several pixels. May be simplified to Further, the result of calculating the threshold value corresponding to the coordinate value in the y-axis direction may be made into a table and stored, and the value may be read out corresponding to the coordinate value in the y-axis direction. Can be changed in various ways.

又、上記実施例では、得られた2値化画像情報から、境
界(L)に対応する直線を求めて、その直線の情報に基づ
いて芝刈り用の作業車(V)の走行を制御するようにした
場合を例示したが、得られた2値化画像情報を利用する
ための各部の具体構成は、本発明を適用する作業車の構
成に応じて各種変更できる。
Further, in the above embodiment, a straight line corresponding to the boundary (L) is obtained from the obtained binary image information, and the traveling of the work vehicle (V) for lawn mowing is controlled based on the information of the straight line. Although the case has been described as an example, the specific configuration of each unit for utilizing the obtained binarized image information can be variously changed according to the configuration of the work vehicle to which the present invention is applied.

尚、特許請求の範囲の項に図面との対照を便利にするた
めに符号を記すが、該記入により本発明は添付図面の構
造に限定されるものではない。
It should be noted that reference numerals are added to the claims for convenience of comparison with the drawings, but the present invention is not limited to the structures of the accompanying drawings by the entry.

【図面の簡単な説明】[Brief description of drawings]

図面は本発明に係る撮像式の境界検出装置の実施例を示
し、第1図は境界検出処理のフローチャート、第2図
(イ),(ロ),(ハ)は画像の説明図、第3図は微分処理の説明
図、第4図は作業車の全体側面図、第5図は作業地の説
明図、第6図は制御構成のブロック図である。 (B)……未処理作業地、(C)……処理済作業地、(L)……
境界、(V)……作業車、(S1)……撮像手段、(SX)……微
分値、(13)……照光手段、(100)……微分手段、(101)…
…2値化手段、(102)……閾値設定手段、(103)……直線
抽出処理手段。
The drawings show an embodiment of an image pickup type boundary detection apparatus according to the present invention, and FIG. 1 is a flowchart of boundary detection processing, and FIG.
(A), (B), (C) are explanatory views of the image, FIG. 3 is an explanatory view of the differential processing, FIG. 4 is an overall side view of the work vehicle, FIG. 5 is an explanatory view of the work site, and FIG. The figure is a block diagram of the control configuration. (B) …… Unprocessed work site, (C) …… Processed work site, (L) ……
Boundary, (V) .... working vehicle, (S 1) ... imaging unit, (SX) .... differential value, (13) .... illuminating means, (100) .... differentiation means, (101) ...
... binarization means, (102) ... threshold value setting means, (103) ... straight line extraction processing means.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】車体進行方向前方側の未処理作業地(B)と
処理済作業地(C)との境界(L)を二次元方向に亘って撮像
する撮像手段(S1)と、その撮像手段(S1)の撮像範囲を照
光する照光手段(13)とが、前記境界(L)を斜め上方から
望む状態で、作業車(V)に設けられ、前記撮像手段(S1)
の撮像情報から二次元方向に並ぶ各画素の明るさの検出
値に基づいて各画素の微分値(SX)を求める微分手段(10
0)と、各画素における前記微分値(SX)の絶対値と設定閾
値とを比較してその設定閾値以上となる箇所の画素を抽
出する2値化手段(101)と、前記2値化手段(101)で抽出
された画素情報から境界に相当する直線抽出を行う直線
抽出処理手段(103)とを備えた撮像式の境界検出装置で
あって、前記閾値の値が、撮像距離が遠い箇所に対応す
る画素の方が近い箇所に対応する画素よりも小となるよ
うに、前記各画素に対する2値化の閾値を設定する閾値
設定手段(102)が設けられている撮像式の境界検出装
置。
1. An image pickup means (S 1 ) for picking up an image of a boundary (L) between an unprocessed work site (B) and a processed work site (C) on the front side in the vehicle body traveling direction in a two-dimensional direction, and Illuminating means (13) for illuminating the image pickup range of the image pickup means (S 1 ) is provided in the work vehicle (V) in a state where the boundary (L) is viewed obliquely from above, and the image pickup means (S 1 )
Differentiating means (10) for obtaining the differential value (SX) of each pixel based on the detected value of the brightness of each pixel arranged in the two-dimensional direction from the imaging information of
0) and the absolute value of the differential value (SX) in each pixel, and a set threshold value are compared with each other to extract a pixel at a location where the set threshold value is exceeded, and the binarization means (101). (101) is an image-capturing type boundary detection device comprising a straight line extraction processing means (103) for extracting a straight line corresponding to a boundary from the pixel information extracted in (101), where the threshold value is a portion where the imaging distance is long. An image-capturing boundary detection device provided with threshold setting means (102) for setting a binarization threshold for each pixel so that the pixel corresponding to .
JP62176411A 1987-07-15 1987-07-15 Imaging type boundary detection device Expired - Lifetime JPH0634229B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62176411A JPH0634229B2 (en) 1987-07-15 1987-07-15 Imaging type boundary detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62176411A JPH0634229B2 (en) 1987-07-15 1987-07-15 Imaging type boundary detection device

Publications (2)

Publication Number Publication Date
JPS6419481A JPS6419481A (en) 1989-01-23
JPH0634229B2 true JPH0634229B2 (en) 1994-05-02

Family

ID=16013212

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62176411A Expired - Lifetime JPH0634229B2 (en) 1987-07-15 1987-07-15 Imaging type boundary detection device

Country Status (1)

Country Link
JP (1) JPH0634229B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4740199B2 (en) * 2007-06-27 2011-08-03 株式会社藤商事 Bullet ball machine

Also Published As

Publication number Publication date
JPS6419481A (en) 1989-01-23

Similar Documents

Publication Publication Date Title
CN110243372B (en) Intelligent agricultural machinery navigation system and method based on machine vision
DE102008064934B3 (en) Device for controlling the direction of light emitted by headlights
DE10019462B4 (en) Road sensor system, road detection system and method for determining the road surface
JPH0634229B2 (en) Imaging type boundary detection device
JP3044141B2 (en) Planting condition detector for crop planting machines
JPH0759407A (en) Traveling controller of automatic traveling working car
JP2502981Y2 (en) Image processing system for crop row detection in rice transplanter
JPH069011B2 (en) Travel control system for automated guided vehicles
JPS63293402A (en) Image pickup type border detecting device
JP2510660B2 (en) Image-capturing type traveling control device for automated guided vehicles
JPS61139304A (en) Steering controller of self-propelling working machine
JPH09259388A (en) Vehicle information detection device and car type judging device
JPS63277908A (en) Image pickup type border detection device
CN113096145B (en) Target boundary detection method and device based on Hough transformation and linear regression
JPH0646886B2 (en) Steering control device for automated vehicle
JPS63279109A (en) Image pickup type boundary detector
JP3020734B2 (en) Boundary detection device for autonomous vehicles
JP3502652B2 (en) Travel control method for autonomous traveling work vehicle
JPH0575336B2 (en)
JP2721072B2 (en) Crop row detector
JPH0575332B2 (en)
JP2721071B2 (en) Crop row detector
JPH05165519A (en) Crop string detector
JPH07104720B2 (en) Image-capturing boundary detection device for self-driving work vehicles
JPH0575330B2 (en)