JP2520104B2 - Boundary detection device for autonomous vehicles - Google Patents

Boundary detection device for autonomous vehicles

Info

Publication number
JP2520104B2
JP2520104B2 JP60163729A JP16372985A JP2520104B2 JP 2520104 B2 JP2520104 B2 JP 2520104B2 JP 60163729 A JP60163729 A JP 60163729A JP 16372985 A JP16372985 A JP 16372985A JP 2520104 B2 JP2520104 B2 JP 2520104B2
Authority
JP
Japan
Prior art keywords
boundary
image
information
machine
brightness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP60163729A
Other languages
Japanese (ja)
Other versions
JPS6224310A (en
Inventor
正彦 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kubota Corp
Original Assignee
Kubota Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kubota Corp filed Critical Kubota Corp
Priority to JP60163729A priority Critical patent/JP2520104B2/en
Publication of JPS6224310A publication Critical patent/JPS6224310A/en
Application granted granted Critical
Publication of JP2520104B2 publication Critical patent/JP2520104B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Guiding Agricultural Machines (AREA)
  • Character Input (AREA)
  • Image Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、自動走行作業車用の境界検出装置に関す
る。
TECHNICAL FIELD The present invention relates to a boundary detection device for an automated work vehicle.

〔従来の技術〕[Conventional technology]

上記この種の自動走行作業車、例えば、芝刈作業車や
刈取収穫機等の作業車においては、作業予定範囲の外周
を予め人為的に処理済作業地として処理し、この処理済
作業地で囲まれた内部の未処理作業地部分を、未処理作
業地と処理済作業地との境界に沿って作業を行いながら
走行し、未処理作業地の一端より他端に至る一つの行程
を走行後、次行程方向へ回向して所定範囲の作業地を作
業を行いながら自動走行させる制御が行われている。そ
して、各行程途上においては、機体横幅方向での未処理
作業地と処理済作業地の境界と、機体との位置関係に基
づいて走行を制御し、行程端部においては機体前後方向
での境界と機体との位置関係に基づいて次行程への回向
を制御している。
In the above-mentioned automatic traveling work vehicle of this kind, for example, in a work vehicle such as a lawn mowing work vehicle or a reaper harvesting machine, the outer circumference of the planned work range is artificially processed in advance as a processed work site and surrounded by this processed work site. After traveling through the unprocessed work site inside the ground while working along the boundary between the unprocessed work site and the treated work site, one travel from the one end to the other end of the unprocessed work site The control is performed such that the vehicle automatically turns while working in a predetermined range by turning in the direction of the next stroke. In the middle of each stroke, traveling is controlled based on the boundary between the unprocessed work place and the processed work place in the lateral direction of the aircraft and the positional relationship with the aircraft, and at the end of the travel, the boundary in the longitudinal direction of the aircraft. The direction to the next stroke is controlled based on the positional relationship between the vehicle and the aircraft.

前記機体横幅方向での境界と前記機体前後方向での境
界とを検出するに、例えば芝が植えられた作業地におい
ては、未処理作業地では未刈り芝が有るため暗く見え、
処理済作業地では刈り取られた芝により光が反射して明
るく見えることになる等、未処理作業地と処理済作業地
とでは明るさが異なることを利用して検出することが考
えられる。例えば特開昭52-153531号公報に開示される
ように、機体横幅方向での境界を検出するために、その
境界部分を撮像する撮像手段と、機体前後方向での境界
を検出するために、その境界部分を撮像する撮像手段と
を各別に設けて、両種の境界を検出するように構成する
ことが考えられる。ちなみに、この従来例では、撮像手
段としてのカメラのスクリーンでの明るさを一対の光電
素子にて検出することにより、機体の境界に対する位置
関係を判別するようにしている。尚、境界部分を撮像す
るためのカメラとは別個に、境界から離れた地面を撮像
するカメラを設けて、基準となる明るさを求めるように
している。
To detect the boundary in the machine width direction and the boundary in the machine front-back direction, for example, in a work site where grass is planted, it looks dark because there is uncut grass in the unprocessed work site,
It can be considered that the unprocessed work site and the processed work site are different in brightness from each other, such that light is reflected by the cut grass to make the processed work site look brighter. For example, as disclosed in Japanese Patent Laid-Open No. 52-153531, in order to detect the boundary in the lateral direction of the machine body, in order to detect the boundary part, and in order to detect the boundary in the longitudinal direction of the machine body, It is conceivable that an image pickup means for picking up an image of the boundary portion is separately provided to detect the boundaries of both types. By the way, in this conventional example, the positional relationship with respect to the boundary of the body is determined by detecting the brightness on the screen of the camera as the image pickup means by the pair of photoelectric elements. It should be noted that a camera for picking up an image of the ground away from the boundary is provided separately from a camera for picking up an image of the boundary to obtain the reference brightness.

又、機体横幅方向及び機体前後方向での各境界検出用
に各別に撮像手段を設けた別の従来技術が、例えば特開
昭52-152026号公報に記載され、この従来例では、撮像
手段としてのカメラに入力された境界箇所の映像を、境
界方向と交差する方向に並べた複数個の光電素子で受光
して、その明暗変化の箇所に対応する受光素子の位置に
よって境界位置を検出している。
Further, another conventional technique in which an image pickup means is separately provided for each boundary detection in the machine body width direction and the machine body front-rear direction is described in, for example, Japanese Patent Application Laid-Open No. 52-152026. The image of the boundary point input to the camera is received by a plurality of photoelectric elements arranged in the direction intersecting the boundary direction, and the boundary position is detected by the position of the light receiving element corresponding to the location of the change in brightness. There is.

〔発明が解決しようとする課題〕[Problems to be Solved by the Invention]

上記従来手段では、境界部分を撮像する撮像手段とし
て、機体横幅方向及び機体前後方向夫々の境界に対応し
て各別に撮像する二個の撮像手段を設けるものであるた
め、全体構成が複雑・高価になる不利がある。又、上記
二個の撮像手段の撮像画像情報に基づいて境界検出のた
めの画像処理を行う場合に、例えば未処理作業地の一端
から他端に至る各行程の途中部分つまり行程端部よりも
手前側を機体横幅方向での境界に沿って走行していると
きに、上記両方の境界検出を行うと、機体横幅方向での
境界検出の処理時間以外に、機体前後方向での境界検出
の処理時間が必要となって、適切なステアリング操作を
行うのに必要な機体横幅方向での境界情報が迅速に得ら
れない不利がある。尚、上記行程の途中部分を走行して
いるときに、機体横幅方向での境界検出だけを行う場合
には、機体前後方向での境界検出用の撮像手段が全く使
われないという不具合が発生する。
In the above-mentioned conventional means, as the image pickup means for picking up the image of the boundary portion, two image pickup means for individually picking up images respectively corresponding to the boundaries in the machine body width direction and the machine body front-rear direction are provided. There is a disadvantage. Further, when performing image processing for boundary detection based on the imaged image information of the two image pickup means, for example, rather than an intermediate portion of each stroke from one end to the other end of the unprocessed work site, that is, a stroke end portion. If both of the above boundary detections are performed while traveling on the front side along the boundary in the machine width direction, processing for boundary detection in the machine front-rear direction is performed in addition to the boundary detection processing time in the machine width direction. It takes time, and there is a disadvantage that the boundary information in the lateral direction of the airframe necessary for performing an appropriate steering operation cannot be quickly obtained. If only the boundary detection in the machine width direction is performed while traveling in the middle part of the above-mentioned travel, there is a problem that the image pickup means for boundary detection in the machine front-back direction is not used at all. .

本発明は、上記実情に鑑みてなされたものであって、
その目的は、装置構成の簡略化とその有効利用とを図り
ながら、機体前後方向及び機体横幅方向夫々における両
種の境界を、誤検出を抑制する状態で且つその各境界情
報の必要性に対応して適切に検出することができる自動
走行作業車用の境界検出装置を提供することにある。
The present invention has been made in view of the above circumstances,
The purpose is to simplify the device configuration and effectively utilize it, and to cope with the necessity of each boundary information in a state in which erroneous detection of the boundaries of both types in the machine longitudinal direction and the machine width direction is suppressed. SUMMARY OF THE INVENTION It is an object of the present invention to provide a boundary detection device for an automated guided vehicle that can appropriately detect the boundary.

〔問題点を解決するための手段〕[Means for solving problems]

本発明による自動走行作業車用の境界検出装置の特徴
は、 機体進行方向前方側の所定範囲の作業地状態を撮像す
る一つの撮像手段と、 その撮像手段の撮像画像情報に基づいて、機体横幅方
向での未処理作業地と処理済作業地との境界、及び機体
前後方向での未処理作業地と処理済作業地との境界を検
出する画像処理手段とが設けられ、 その画像処理手段は、 前記機体横幅方向での境界を検出する場合には、前記
撮像画像情報を明るさに基づいて機体横幅方向に対応す
る方向沿って微分処理して、その微分処理した情報に基
づいて前記機体横幅方向での境界を検出し、 前記機体前後方向での境界を検出する場合には、前記
撮像画像情報を明るさに基づいて機体前後方向に対応す
る方向に沿って微分処理して、その微分処理した情報に
基づいて前記機体前後方向での境界を検出するように構
成されると共に、 前記機体横幅方向での境界を検出する処理状態と、前
記機体前後方向での境界を検出する処理状態とに切り換
え自在に構成されている点にあり、その作用ならびに効
果は以下の通りである。
The feature of the boundary detection device for an automated guided vehicle according to the present invention is that one image pickup means for picking up an image of a work ground condition in a predetermined range on the front side in the traveling direction of the machine body, and a lateral width of the body based on the imaged image information of the image pickup means. Image processing means for detecting the boundary between the unprocessed work site and the processed work site in the direction and the boundary between the unprocessed work site and the processed work site in the machine front-rear direction, and the image processing means is provided. When detecting a boundary in the machine width direction, the captured image information is differentiated along the direction corresponding to the machine width direction based on the brightness, and the machine width based on the differentiated information. In the case of detecting a boundary in a direction and detecting a boundary in the machine front-rear direction, the captured image information is differentiated along a direction corresponding to the machine front-rear direction based on brightness, and the differentiation processing is performed. Based on the information It is configured to detect a boundary in the machine longitudinal direction, and is configured to be switchable between a processing state in which the boundary in the machine lateral width direction is detected and a processing state in which a boundary in the machine longitudinal direction is detected. The action and effect are as follows.

〔作用〕[Action]

すなわち、一つの撮像手段により撮像された画像情報
に基づいて、画像処理手段が、撮像画像情報を明るさに
基づいて微分処理して、この微分処理した情報に基づい
て、機体横幅方向での境界及び機体前後方向での境界を
その両境界のうちのいずれを検出する処理状態かを切り
換えながら検出する。
That is, based on the image information captured by one image capturing unit, the image processing unit differentially processes the captured image information based on the brightness, and based on the differentially processed information, the boundary in the lateral direction of the machine body. And a boundary in the front-rear direction of the machine body is detected by switching which of the two boundaries is being processed.

つまり、機体横幅方向での境界を検出する場合には、
前記撮像画像情報を機体横幅方向に対応する方向に沿っ
て微分処理して、その微分処理した情報に基づいて前記
機体横幅方向での境界を検出する。また、機体前後方向
での境界を検出する場合には、前記撮像画像情報を機体
前後方向に対応する方向に沿って微分処理して、その微
分処理した情報に基づいて機体前後方向での境界を検出
する。
In other words, when detecting the boundary in the machine width direction,
The captured image information is differentiated along a direction corresponding to the lateral direction of the machine body, and a boundary in the lateral direction of the machine body is detected based on the differentiated information. Further, when detecting the boundary in the machine front-rear direction, the captured image information is differentiated along the direction corresponding to the machine front-rear direction, and the boundary in the machine front-rear direction is determined based on the differentiated information. To detect.

機体横幅方向での境界を検出するのに、撮像画像情報
を機体横幅方向に対応する方向に沿って微分処理するこ
とについて説明を加えると、機体横幅方向に対応する方
向に沿って微分処理すると、機体前後方向での明るさの
変化に対応する情報は除去されて、機体横幅方向の明る
さの変化を示す情報が得られることになる。もちろん、
その明るさの変化の大きいところが境界に対応すること
になるのであり、画像処理手段は、微分処理された情報
つまり明るさの変化を示す情報に基づいて境界を検出す
る。
In order to detect the boundary in the machine width direction, adding a description about differentiating the captured image information along the direction corresponding to the machine width direction, if the differentiation process is performed along the direction corresponding to the machine width direction, The information corresponding to the change in brightness in the front-back direction of the machine is removed, and the information indicating the change in brightness in the lateral direction of the machine is obtained. of course,
The place where the change in brightness is large corresponds to the boundary, and the image processing means detects the boundary based on the information obtained by the differential processing, that is, the information indicating the change in brightness.

又、機体前後方向での境界を検出するのに、撮像画像
情報を機体前後方向に対応する方向に沿って微分処理す
ることについて説明を加えると、機体前後方向に対応す
る方向に沿って微分処理すると、機体横幅方向での明る
さの変化に対応する情報は除去されて、機体前後方向の
明るさの変化を示す情報が得られることになる。もちろ
ん、その明るさの変化に大きいところが境界に対応する
ことになるのであり、画像処理手段は、微分処理された
情報つまり明るさの変化を示す情報に基づいて境界を検
出する。
In addition, in order to detect the boundary in the front-back direction of the machine body, the description will be made regarding that the captured image information is differentiated along the direction corresponding to the front-back direction of the machine body. Then, the information corresponding to the change in brightness in the lateral direction of the machine is removed, and the information indicating the change in brightness in the front-rear direction of the machine is obtained. Of course, a portion having a large change in brightness corresponds to the boundary, and the image processing means detects the boundary on the basis of the differentiated information, that is, the information indicating the change in brightness.

要するに、画像処理手段は、一つの撮像手段からの撮
像画像情報より、機体横幅方向での境界と機体前後方向
での境界とを検出するにあたって、機体横幅方向での境
界を検出する場合には、機体横幅方向に対応する方向に
沿って微分処理することにより、機体横幅方向での境界
を検出するのに不要で、且つ、誤検出を招く原因となる
虞がある。機体前後方向での明るさの変化の対応する情
報を除去した情報を得て、その情報より境界を検出する
ことになり、同様に、機体前後方向での境界を検出する
場合には、機体前後方向に対応する方向に沿って微分処
理することにより、機体前後方向での境界を検出するの
に不要で、且つ、誤検出を招く原因となる虞がある、機
体横幅方向での明るさの変化に対応する情報を除去した
情報を得て、その情報より境界を検出することになる。
In short, the image processing means, when detecting the boundary in the machine lateral direction and the boundary in the machine longitudinal direction from the captured image information from one imaging means, when detecting the boundary in the machine lateral direction, By differentiating along the direction corresponding to the machine width direction, it is unnecessary for detecting the boundary in the machine width direction and may cause erroneous detection. The information obtained by removing the information corresponding to the change in the brightness in the front-rear direction of the aircraft will be obtained, and the boundary will be detected from the information. Similarly, when the boundary in the front-rear direction of the aircraft is detected, By differentiating along the direction corresponding to the direction, it is unnecessary to detect the boundary in the front-back direction of the aircraft and may cause erroneous detection. The information obtained by removing the information corresponding to is obtained, and the boundary is detected from the information.

さらに、例えば未処理作業地の一端より他端に至るよ
うに設定された各行程を機体横幅方向での境界に沿って
走行する場合に、その行程端部よりも手前側の行程部分
を走行しているときには、機体横幅方向での境界検出だ
けを行う処理状態に切り換えて機体横幅方向での境界情
報を迅速に得るようにし、行程端部近くに走行すると、
機体横幅方向での境界検出と共に機体前後方向での境界
検出を行う処理状態、あるいは、機体前後方向での境界
検出だけを行う処理状態に切り換えて、行程端部に達し
たことを適切に検出するようにする。
Furthermore, for example, when traveling along each boundary in the machine lateral width direction, which is set so as to reach from one end to the other end of the unprocessed work site, the travel portion on the front side of the travel end is traveled. When it is, it switches to a processing state that only performs boundary detection in the machine width direction so as to quickly obtain boundary information in the machine width direction, and when traveling near the end of the stroke,
Switch to a processing state in which boundary detection in the machine width direction and boundary detection in the machine front-rear direction is performed, or a processing state in which only boundary detection in the machine front-rear direction is performed is switched to appropriately detect that the stroke end has been reached. To do so.

〔発明の効果〕〔The invention's effect〕

従って、一つの撮像手段の撮像画像情報から機体横幅
方向での境界と機体前後方向での境界とを、その両境界
のいずれを検出するかを適宜切り換えながら検出するよ
うにするから、両種の境界検出のために各別の撮像手段
を設けるに比べて装置構成の簡略化を図りながら、同時
に、一方の境界検出だけを行っているときに他方の境界
検出用の撮像手段が全く使われないという不具合も回避
して、装置の有効利用を図ることができ、しかも、撮像
画像情報を明るさに基づいて各境界の方向に夫々合わせ
微分方向に沿って微分した情報に基づいて各境界を検出
するものであるから、各境界の検出のために不要で且つ
誤検出を招く原因となる虞がある情報を除去して誤検出
を抑制する状態で両境界を検出することができ、さら
に、機体前後方向及び機体横幅方向夫々における両種の
境界を、作業地内のいずれの箇所を走行しているかの走
行状態等に対応して、各境界をその必要性に応じて適切
に検出するこができる、実用上の利点の大なる自動走行
作業車用の境界検出装置を得るに至った。
Therefore, the boundary in the lateral direction of the machine body and the boundary in the longitudinal direction of the machine body are detected by appropriately switching which of the two boundaries is detected from the imaged image information of one imaging means. While simplifying the device configuration as compared with providing separate image pickup means for boundary detection, at the same time, when only one boundary detection is performed, the other image pickup means for boundary detection is not used at all. The problem can be avoided and the device can be effectively used. Moreover, each boundary is detected based on the information obtained by aligning the captured image information with the direction of each boundary based on the brightness and differentiating along the differentiating direction. Therefore, it is possible to detect both boundaries in a state in which information that is unnecessary for detecting each boundary and that may cause erroneous detection is removed and erroneous detection is suppressed. Front-back direction and In practical use, the boundaries of both types in the lateral direction of the body can be appropriately detected according to the necessity, depending on the running state of which place in the work site the vehicle is traveling. It has come to obtain a boundary detection device for an automatic traveling work vehicle having a great advantage of.

〔実施例〕〔Example〕

以下、本発明を自動走行作業車としての芝刈作業車に
適用した実施例を図面に基づいて説明する。
Hereinafter, an embodiment in which the present invention is applied to a lawn mowing work vehicle as an automatic traveling work vehicle will be described with reference to the drawings.

第7図および第8図に示すように、前輪(IF)および
後輪(1R)の何れをもステアリング操作可能に構成され
た機体(V)の中間部に、芝刈装置(2)を上下動自在
に懸架するとともに、機体(V)進行方向前方の所定範
囲の作業地状態を撮像する撮像手段としてのビデオカメ
ラ(3)を設け、このカメラ(3)による撮像画像情報
を、後述する画像処理手段としての境界検出装置(A)
により2値化して、車体横幅方向並びに車体前後方向夫
々での未処理作業地(B)と処理済作業地(C)の境界
(L1),(L2)に対する機体(V)の位置関係を検出し、こ
の境界検出装置(A)による前記境界(L1),(L2)の検出
結果に基づいて、走行制御装置(H)により機体(V)
が前記境界(L1)に沿って自動的に走行するためのステ
アリング操作を行うように、又、一行程終了後、次行程
へ自動的に走行させるためのステアリング操作及び変速
操作を行うように構成してある。
As shown in FIG. 7 and FIG. 8, the lawn mowing device (2) is moved up and down in the middle part of the machine body (V) configured to be able to steer both front wheels (IF) and rear wheels (1R). A video camera (3) is provided as an imaging means for freely suspending and imaging a work area condition in a predetermined range in front of the traveling direction of the machine body (V), and image information captured by the camera (3) is subjected to image processing described later. Boundary detection device as means (A)
And the boundary between the unprocessed work site (B) and the processed work site (C) in the lateral direction of the vehicle body and the longitudinal direction of the vehicle body.
(L 1), (L 2 ) to detect the positional relationship between the body (V) with respect to the boundary by the boundary detection unit (A) (L 1), based on the detection result of (L 2), the travel control device Aircraft (V) by (H)
To perform steering operation for automatically traveling along the boundary (L 1 ), and to perform steering operation and speed change operation for automatically traveling to the next stroke after the end of one stroke. Configured.

前記カメラ(3)は、機体(V)前方上方に向かって
延設された支持フレーム(4)の先端部に、機体前方側
の所定範囲の作業地を斜め上方より下方に向かって撮像
するように設けてあり、機体(V)がその横幅方向での
境界(L1)に沿った状態において、この境界(L1)が前
記カメラ(3)の撮像視野の上下方向中央に位置するよ
うにしてある。
The camera (3) captures an image of a work area in a predetermined range on the front side of the machine body from a diagonally upper side to a lower side of the work frame at a front end portion of a support frame (4) extending upward and forward of the machine body (V). is provided with, in a state where the body (V) is along the boundary (L 1) in its width direction, the boundary (L 1) is to be located in the vertical center of the imaging field of view of the camera (3) There is.

そして、機体(V)横幅方向での境界(L1)を検出す
る場合は、前記カメラ(3)の撮像視野下端を基準とし
て、前記カメラ(3)の撮像視野の上下方向中央を縦断
する基準線(L0)に対する検出境界(L1)位置の偏差
(β)を機体(V)横幅方向での位置ずれ情報とし、前
記カメラ(3)の撮像視野の上下方向中央を縦断する基
準線(L0)に対する検出境界(L1)の傾き(α)を機体
(V)向きの偏位情報として検出する。
When detecting the boundary (L 1 ) in the lateral direction of the vehicle body (V), the reference is the lower end of the imaging field of view of the camera (3) as a reference, and a reference that vertically cuts the vertical center of the imaging field of view of the camera (3). A deviation (β) of the detection boundary (L 1 ) position with respect to the line (L 0 ) is used as positional deviation information in the lateral direction of the machine body (V), and a reference line (longitudinal direction) that vertically crosses the vertical center of the imaging field of view of the camera (3) ( The inclination (α) of the detection boundary (L 1 ) with respect to L 0 ) is detected as the displacement information in the airframe (V) direction.

一方、前記機体(V)前後方向での境界(L2)を検出
する場合は、詳しくは後述するが、撮像画像情報を90度
座標変換して記憶させるために、前記カメラ(3)の撮
像視野の上下方向中央を縦断する基準線(L0)に対する
偏差(β)が、機体(V)と境界(L2)との距離情報と
なり、前記前記カメラ(3)の撮像視野の上下方向中央
を縦断する基準線(L0)に対する傾き(α)が、前記機
体(V)前後方向での境界(L2)に対する機体(V)の
傾きとなる。尚、この機体(V)前後方向での境界
(L2)を検出する場合には、前記検出偏差(β)の値が
直ちに行程終端部の位置情報とはならないので、前記検
出偏差(β)の値および前記カメラ(3)の機体(V)
に対する取り付け距離および撮像方向の角度に基づいて
撮像視野下端部から機体(V)までの距離を予め設定
し、この設定距離情報に基づいて境界(L2)と機体
(V)との実際の距離を算出することとなる。
On the other hand, in the case of detecting the boundary (L 2 ) in the front-back direction of the machine body (V), as will be described in detail later, in order to store the captured image information after 90-degree coordinate conversion, the image captured by the camera (3). A deviation (β) with respect to a reference line (L 0 ) that crosses the vertical center of the visual field becomes distance information between the aircraft (V) and the boundary (L 2 ), and the vertical center of the visual field of the camera (3). The inclination (α) with respect to the reference line (L 0 ) that crosses the vertical axis is the inclination of the vehicle body (V) with respect to the boundary (L 2 ) in the longitudinal direction of the vehicle body (V). When the boundary (L 2 ) in the front-rear direction of the machine body (V) is detected, the value of the detection deviation (β) does not immediately serve as the position information at the end of the stroke, so the detection deviation (β) is detected. Value and the fuselage (V) of the camera (3)
The distance from the lower end of the imaging field of view to the aircraft (V) is set in advance based on the attachment distance and the angle of the imaging direction, and the actual distance between the boundary (L 2 ) and the aircraft (V) is set based on this set distance information. Will be calculated.

ところで、前記カメラ(3)による撮像画像は、互い
に隣接した画素間の明度差に基づいて2値化処理される
ために、局所的な明度変化の影響を除去して平均化する
必要があり、その手段として、前記カメラ(3)の前部
に撮像画像をぼかすためのソフトフォーカス用フィルタ
(8)を設けてある。そして、このフィルタ(8)のぼ
かし具合は、前記カメラ(3)の撮像視野が、機体
(V)の上方より前方下方の作業地を斜めに見下ろすよ
うになるため、機体(V)に対して前方方向に扇形に広
がるものとなり、撮像画像の機体(V)に対して遠方と
なる部分の画素密度が、機体(V)に近い部分より粗く
なるために、撮像画像が撮像視野の上方より下方に向か
うほど粗くなるように連続して変化するようにして、撮
像画像全体が一様に平均化されるようにしてある。
By the way, since the image picked up by the camera (3) is binarized based on the difference in brightness between pixels adjacent to each other, it is necessary to remove the influence of the local change in brightness and average it. As a means therefor, a soft focus filter (8) for blurring a captured image is provided on the front part of the camera (3). Then, the degree of blurring of the filter (8) is such that the imaging field of view of the camera (3) looks down diagonally over the work area in front of and below the aircraft (V). The image spreads like a fan in the front direction, and the pixel density of the portion of the captured image that is distant with respect to the airframe (V) is coarser than that of the portion near the airframe (V). The whole captured image is uniformly averaged by continuously changing so as to become coarser toward.

又、自然光によって生じる未処理芝の影等の大きな明
度変化の影響を除去するための手段として、前記カメラ
(3)の撮像に同期して発光されるストロボ装置(9)
を設けてある。
A strobe device (9) that emits light in synchronization with the image pickup of the camera (3) is provided as means for removing the effect of a large change in brightness such as the shadow of unprocessed grass caused by natural light.
Is provided.

第9図に示すように、エンジン(E)からの駆動力
は、変速装置(4)を介して、前記前輪(1F)および後
輪(1R)の夫々に伝達され、変速位置検出用ポテンショ
メータ(R3)による検出変速位置が所定の位置となるよ
うに、モータ(5)を駆動して所定の走行速度で走行す
るように構成してある。
As shown in FIG. 9, the driving force from the engine (E) is transmitted to each of the front wheels (1F) and the rear wheels (1R) via the transmission (4), and the transmission position detecting potentiometer ( The motor (5) is driven so as to travel at a predetermined traveling speed so that the shift position detected by R 3 ) becomes a predetermined position.

また、前記前輪(1F)および後輪(1R)は、夫々油圧
シリンダ(6F)(6R)によりパワーステアリング操作さ
れるように構成してあり、車輪のステアリング操作に連
動するステアリング角検出用ポテンショメータ(R1),
(R2)による検出ステアリング角が目標ステアリング角に
一致するように、前記油圧シリンダ(6F)(6R)を作動
させる電磁バルブ(7F)(7R)を駆動するようにしてあ
る。そして、前記機体横幅方向での境界(L1)に対する
機体(V)前後方向の傾き(α)を修正する場合は、機
体(V)向きを変化させるために、前輪(1F)と後輪
(1R)を相対的に逆方向にステアリング操作する旋回ス
テアリングを行い、前記境界(L1)に対する機体(V)
横幅方向の偏差(β)を修正する場合は、機体(V)向
きを変えることなく平行移動させるために、前輪(1F)
と後輪(1R)が同一方向に向くようにステアリング操作
する平行ステアリングを行うようにして、機体(V)が
効率良く境界(L1)に沿うように制御するのである。
Further, the front wheel (1F) and the rear wheel (1R) are configured to be power-steered by hydraulic cylinders (6F, 6R) respectively, and a steering angle detection potentiometer ( R 1 ),
The electromagnetic valves (7F) (7R) for operating the hydraulic cylinders (6F) (6R) are driven so that the steering angle detected by (R 2 ) matches the target steering angle. When correcting the inclination (α) in the longitudinal direction of the vehicle (V) with respect to the boundary (L 1 ) in the lateral direction of the vehicle, in order to change the direction of the vehicle (V), the front wheels (1F) and the rear wheels ( 1R) is relatively steered in the opposite direction to perform turning steering, and the body (V) with respect to the boundary (L 1 )
When correcting the deviation (β) in the width direction, the front wheel (1F) is used to move in parallel without changing the direction of the aircraft (V).
By performing parallel steering in which the rear wheels (1R) are steered to face in the same direction, the body (V) is efficiently controlled so as to follow the boundary (L 1 ).

以下、境界検出装置(A)の構成およびその動作につ
いて説明する。
The configuration and operation of the boundary detection device (A) will be described below.

第1図に示すように、境界検出装置(A)は、前記カ
メラ(3)により撮像された画像情報(S0)を8ビット
の分解能で量子化してデジタル値に変換するA/D変換部
(10)、デジタル化された画像情報を、その座標(x,
y)を90度変換して構成画素数が32×32の画像情報とし
て標本化して記憶する画像メモリ(11)、この画像メモ
リ(11)に記憶された画像情報(S2)と前記A/D変換部
(10)から出力される画像情報(S1)(ただし、構成画
素数は32×32として処理する)の何れの画像情報を処理
するかを切り換える入力形態切り換え手段としての画像
切り換え部(12)、この切り換え器(12)より出力され
る画像信号(F1)を、機体横幅方向(x座標方向)での
明度変化に基づいて微分し、明度変化の方向性とその大
きさに対応するエッジ画像データ(F2)に変換する微分
処理部(20)、この微分処理部(20)により微分処理さ
れたエッジ画像データ(F2)の微分符号(正,負)に基
づいて正負一方の符号側のエッジ画像データ(F2)と設
定閾値(Fref)とを比較することにより明度差の大きさ
に基づいて2値化し、明度変化が大きい画像部分を抽出
する2値化処理部(30)、この2値化処理部(30)で2
値化された2値化画像データ(F3)を連続した直線とし
て近似し、画像上における境界(L1),(L2)を特定するハ
フ変換部(40)、このハフ変換部(40)からの情報に基
づいて検出境界(L1),(L2)の機体(V)に対する位置関
係を表す直線として近似された下記式(i)に変換する
境界パラメータ演算部(50)、各処理部の動作を制御す
る制御部(60)、および、前記ストロボ(9)の発光お
よびカメラ(3)の撮像を制御するITVコントローラ(1
3)、前記微分処理部(20)および2値化処理部(30)
による処理画像を表示するモニタテレビ(15)の動作を
制御するCRTコントローラ(14)、の夫々より構成して
ある。
As shown in FIG. 1, the boundary detection device (A) is an A / D converter that quantizes image information (S 0 ) captured by the camera (3) with 8-bit resolution and converts it into a digital value. (10), the digitized image information is converted into its coordinates (x,
y) is converted by 90 degrees and sampled and stored as image information having 32 × 32 constituent pixels, the image memory (11), the image information (S 2 ) stored in the image memory (11) and the A / An image switching unit as an input mode switching unit for switching which image information of the image information (S 1 ) output from the D conversion unit (10) (however, the number of constituent pixels is processed as 32 × 32) (12) The image signal (F 1 ) output from the switch (12) is differentiated based on the brightness change in the machine width direction (x coordinate direction) to determine the direction and the magnitude of the brightness change. A differential processing unit (20) for converting into corresponding edge image data (F 2 ), and a positive / negative value based on the differential sign (positive, negative) of the edge image data (F 2 ) differentially processed by the differential processing unit (20). comparing the one code side of the edge image data (F 2) and setting the threshold value (Fref) Binarization processing section for binarizing based on the magnitude of the brightness difference, and extracts an image portion brightness change is large by the (30), 2 in the binarization processing unit (30)
A Hough transform unit (40) that approximates the binarized image data (F 3 ) that has been binarized as a continuous straight line and specifies the boundaries (L 1 ) and (L 2 ) on the image. ), A boundary parameter calculation unit (50) for converting the detection boundaries (L 1 ) and (L 2 ) into the following equation (i) approximated as a straight line representing the positional relationship between the vehicle and the vehicle (V), A control unit (60) that controls the operation of the processing unit, and an ITV controller (1 that controls the light emission of the strobe (9) and the imaging of the camera (3).
3), the differentiation processing section (20) and the binarization processing section (30)
And a CRT controller (14) for controlling the operation of a monitor television (15) displaying a processed image by the CRT.

y=ax+b……(i) ただし、 a:画像座標系での基準線(L0)に対する境界(L1),(L2)
の傾き、 b:画像座標系での基準線(L0)に対する境界(L1),(L2)
の縦方向偏差、 x:機体(V)横幅方向画素の座標値 y:機体(V)前後方向画素の座標値 である。
y = ax + b (i) where a: boundaries (L 1 ) and (L 2 ) with respect to the reference line (L 0 ) in the image coordinate system
, B: Boundary (L 1 ), (L 2 ) with respect to the reference line (L 0 ) in the image coordinate system
X is the coordinate value of the pixel in the machine width direction (V), and y is the coordinate value of the pixel in the front-rear direction of the machine body (V).

以下、第2図に示すフローチャートに基づいて、全体
的な動作を説明する。
The overall operation will be described below based on the flowchart shown in FIG.

すなわち、前記ぼかし用フィルタ(8)により画像全
体を平均化して撮像し、その撮像画像信号(S0)をA/D
変換して、一画面当たり32×32画素で構成される直交座
標系(x,y)のデジタル化原画像信号(F1)に変換す
る。
That is, the entire image is averaged by the blurring filter (8) to be captured, and the captured image signal (S 0 ) is A / D.
It is converted into a digitized original image signal (F 1 ) in a rectangular coordinate system (x, y) composed of 32 × 32 pixels per screen.

次に、行程途上の機体横幅方向での境界(L1)を検出
するか、行程端部である機体前後方向の境界(L2)を検
出するかをチェックし、前記行程端部の境界(L2)を検
出する場合は、前記画像メモリ(11)のアドレス座標を
90度変換して与えることにより、画像信号(S1)の座標
を90度変換して記憶した画像情報(S2)を使用し、行程
途上の境界(L1)を検出する場合は、原画像信号(S0
と同一座標系の画像信号(S1)を使用して、微分処理部
(20)により画像データを微分処理して、その微分符号
の方向が正負一方のもののみを2値化処理部(30)にお
いて2値化する。
Next, it is checked whether the boundary (L 1 ) in the lateral direction of the aircraft on the way of travel or the boundary (L 2 ) in the longitudinal direction of the aircraft, which is the end of the travel, is detected. L 2 ) is detected, the address coordinates of the image memory (11) are
When the image information (S 2 ) stored by converting the coordinates of the image signal (S 1 ) by 90 ° is used by converting the image signal (S 1 ) and giving the boundary (L 1 ) on the way, Image signal (S 0 )
The image data (S 1 ) having the same coordinate system as the above is used to perform differential processing on the image data by the differential processing section (20), and only the one having a positive or negative differential code direction is binarized. ) Is binarized.

この、微分符号が正負何れの側のものを2値化するか
の選択は、以下に説明するように、機体(V)に対して
左右何れの側に未処理作業地(B)が存在するかに基づ
いて、設定されるようにしてある。すなわち、例えば、
作業方法が作業地外周部の各辺を90度方向転換しながら
左回りに内周方向へと走行する回り刈りの場合を例に説
明すると、この場合には、機体(V)は右側に処理済作
業地(C)を隣接して走行する状態となる。つまり、明
度変化は、画像上左側から右側方向に走査すると、境界
(L1)部分において大きく暗→明の正の変化が生じるこ
ととなり、隣接する画素間の変化を微分すると、その微
分値の符号が正(+)のものが、未処理作業地(B)側
から処理済作業地(C)側へとその明度変化を見た場合
の境界(L1)のある方向性に対応し、負(−)のものは
ノイズと見なして除去できることとなる。
As described below, the selection of whether the differential sign is positive or negative is binarized, as described below, the unprocessed work site (B) exists on either the left or right side of the machine body (V). It is set based on the crab. That is, for example,
As an example of the case where the working method is turning around in which each side of the work area is turned 90 degrees in the counterclockwise direction while traveling inward, the machine body (V) is processed to the right. It is in a state of traveling adjacent to the completed work site (C). In other words, the change in lightness causes a large positive change from dark to light at the boundary (L 1 ) when scanning from the left side to the right side on the image, and when the change between adjacent pixels is differentiated, the differential value The one with a positive sign (+) corresponds to a certain directionality of the boundary (L 1 ) when the brightness change is seen from the unprocessed work site (B) side to the processed work site (C) side, Negative (-) is regarded as noise and can be removed.

次に、この微分処理した画像データを2値化し、更に
下記式(ii)に基づいて、直交座標系(x,y)から極座
標系(ρ,θ)に変換してハフ変換し、つまり、その各
極座標(ρ,θ)において同一極座標(ρ,θ)をとる
2値化画像データの頻度を二次元ヒストグラムとしてカ
ウントしてその最大値(Dmax)を求める。
Next, this differentially processed image data is binarized, and further, based on the following equation (ii), the Cartesian coordinate system (x, y) is transformed into the polar coordinate system (ρ, θ) and Hough transformed, that is, The frequency of the binarized image data having the same polar coordinate (ρ, θ) at each polar coordinate (ρ, θ) is counted as a two-dimensional histogram to obtain the maximum value (Dmax).

ρ=xcosθ+ysinθ……(ii) ただし、 0度≦θ≦180度 x:機体(V)横幅方向画素の座標値 y:機体(V)前後方向画素の座標値 である。ρ = xcos θ + ysin θ (ii) where 0 ° ≦ θ ≦ 180 ° x: coordinate value of the lateral (W) pixel of the vehicle (V) y: coordinate value of the forward / backward pixel of the vehicle (V)

そして、前記最大値(Dmax)となる度数(D)の極座
標(ρ,θ)の値から、一つの境界情報に対応する境界
パラメータである前記(i)式を決定し、この(i)式
の係数としての傾き(a)および偏差(b)から、前記
走行制御装置(H)において、境界(L1)に対する機体
(V)の実際の傾き(α)と横幅方向の偏差(β)に換
算し、これら傾き(α)および偏差(β)が夫々零とな
るように、前輪(1F)および後輪(1R)をステアリング
操作して、機体(V)が境界(L1)に沿って自動的に走
行するように制御するのである。
Then, from the value of the polar coordinate (ρ, θ) of the frequency (D) that is the maximum value (Dmax), the equation (i) which is the boundary parameter corresponding to one piece of boundary information is determined, and the equation (i) is determined. From the inclination (a) and the deviation (b) as the coefficient of, the actual inclination (α) of the vehicle (V) with respect to the boundary (L 1 ) and the deviation (β) in the lateral direction in the traveling control device (H) are obtained. Converting the steering wheel, the front wheel (1F) and rear wheel (1R) are steered so that the inclination (α) and deviation (β) are zero respectively, and the aircraft (V) follows the boundary (L 1 ). It controls to run automatically.

ところで、機体横幅方向での境界(L1)を検出する場
合は、カメラ(3)による撮像情報をそのまま微分処理
部(20)に入力して処理し、機体前後方向での境界
(L2)を検出する場合は、原画像情報の上下方向(y)
を左右方向(x)に、左右方向(x)を上下方向(y)
に、夫々変換して前記画像メモリ(11)に記憶させ、元
の座標系(x,y)のままで読み出すことにより、撮像情
報の座標(x,y)を90度変換して、微分処理部(20)に
入力して処理させるので、機体(V)に対して異なる方
向の境界(L1),(L2)検出を、微分処理部(20)以降の各
処理部をそのままで使用できるのである。
By the way, when detecting the boundary (L 1 ) in the lateral direction of the aircraft, the image pickup information from the camera (3) is directly input to the differential processing unit (20) for processing, and the boundary (L 2 ) in the longitudinal direction of the aircraft is detected. When detecting, the vertical direction (y) of the original image information
In the left-right direction (x), in the left-right direction (x) in the up-down direction (y)
To the image memory (11) and read them in the original coordinate system (x, y), thereby converting the coordinates (x, y) of the imaging information by 90 degrees and performing the differential processing. Since it is input to the unit (20) and processed, the boundary (L 1 ) and (L 2 ) detection in different directions with respect to the aircraft (V) can be used without changing the processing units after the differentiation processing unit (20). You can do it.

そして、機体前後方向での境界(L2)を検出する場合
は、前記同一極座標(ρ,θ)に一致する頻度の最大値
(Dmax)が設定閾値(Dref)以上でないと、機体(V)
は未だ行程端の境界(L2)近傍に到達していないと判断
できるのである。一方、前記最大値(Dmax)が設定閾値
(Dref)以上である場合は、前記(i)式の傾き(a)
と偏差(b)および撮像視野下端と機体(V)前端との
距離に基づいて、機体(V)から行程端部境界(L2)ま
での距離を求め、回向地点を正確に決定できる。
When detecting the boundary (L 2 ) in the front-back direction of the machine, if the maximum value (Dmax) of the frequencies matching the same polar coordinates (ρ, θ) is not greater than or equal to the set threshold (Dref), the machine (V)
It can be judged that has not reached the vicinity of the boundary (L 2 ) at the end of the stroke. On the other hand, when the maximum value (Dmax) is equal to or larger than the set threshold value (Dref), the slope (a) of the equation (i)
Based on the deviation (b) and the distance between the lower end of the imaging field of view and the front end of the vehicle body (V), the distance from the vehicle body (V) to the stroke end boundary (L 2 ) can be obtained, and the turning point can be accurately determined.

以下、各部の動作を第3図〜第6図に示す図面に基づ
いて説明する。
The operation of each unit will be described below with reference to the drawings shown in FIGS.

まず、前記制御部(60)の構成およびその動作を第3
図に示すブロック図に基づいて説明する。
First, the configuration and operation of the control section (60) will be described in a third section.
A description will be given based on the block diagram shown in the figure.

制御部(60)は、クロック発生部(61a)より発生さ
れるクロック信号(CL)により、その全体の動作が同期
して行われるようにしてあり、各部の動作を制御する制
御プロセッサとしてのCPU1(62a)と数値演算用プロセ
ッサとしてのCPU2(62b)の二つのプロセッサを設け、
高速処理が可能なように構成してある。そして、各制御
信号およびデータ等の演算結果はバスバッファ(63)を
介して、各処理部と授受するようにしてある。同様に、
前記走行制御装置(H)との間でのデータ授受は、シリ
アルインターフェス用のSIOポート(64a)およびこのSI
Oポート(64a)に接続された通信用インターフェース
(64b)を介してオンラインで行われるように、又、オ
フライン用のスイッチインターフェース(64c)および
パラレルインターフェース用PIOポート(64d)を介して
オフラインで境界検出装置(A)を起動させることもで
きるようにしてある。
The control unit (60) is designed so that the entire operation is performed in synchronization by the clock signal (CL) generated by the clock generation unit (61a), and the CPU 1 as a control processor that controls the operation of each unit. (62a) and CPU2 (62b) as a numerical operation processor are provided.
It is configured for high speed processing. Then, the calculation results of each control signal and data are transmitted / received to / from each processing unit via the bus buffer (63). Similarly,
Data is exchanged with the travel control device (H) by the SIO port (64a) for serial interface and the SI.
Boundary as done online via the communication interface (64b) connected to the O port (64a) and offline via the switch interface (64c) for offline and the PIO port (64d) for parallel interface. The detector (A) can also be activated.

又、前記プロセッサであるCPU1(62a)およびCPU2(6
2b)間でのデータ授受およびパスバッファ(63)を介し
てのデータ授受やその動作の制御は入出力コントローラ
(65)により行われるとともに、前記各ポート(64
a),(64d)からのデータ授受の制御も、この入出力コ
ントローラ(65)からの制御信号によりCTCコントロー
ラ(66)を介して行われるようにしてある。尚、第3図
中、(61b)はSIOポート(64a)およびCTCコントローラ
(66)の動作用クロック信号を発生するクロック信号発
生器、ROM(67)は境界検出装置(A)の動作プログラ
ムが格納されているメモリ、RAM(68)は各データを一
時格納したり演算データのバッファ等として使用するメ
モリ、LUT(69)はハフ変換部(40)で使用する画像情
報を直交座標(x,y)からハフ変換用の極座標(ρ,
θ)に高速変換するための演算データ、つまり、直交座
標(x,y)を通り且つ傾きが異なる直線を表す複数の極
座標(ρ,θ)を求めるためのデータを予めテーブルと
して記憶してあるメモリである。
In addition, CPU1 (62a) and CPU2 (6
The data transfer between the 2b) and the data transfer via the path buffer (63) and the control of the operation are performed by the input / output controller (65) and at the same time as each of the ports (64).
The control of data transmission / reception from a) and (64d) is also performed through the CTC controller (66) by the control signal from the input / output controller (65). In FIG. 3, (61b) is a clock signal generator that generates clock signals for operating the SIO port (64a) and CTC controller (66), and ROM (67) is the operating program of the boundary detection device (A). A stored memory, a RAM (68) is a memory that temporarily stores each data and is used as a buffer for calculation data, etc., and a LUT (69) is the image information used by the Hough transform unit (40) in orthogonal coordinates (x, y) to Hough transform polar coordinates (ρ,
The calculation data for high-speed conversion into θ), that is, the data for obtaining a plurality of polar coordinates (ρ, θ) representing straight lines passing through the rectangular coordinates (x, y) and having different inclinations are stored in advance as a table. It is a memory.

次に、前記微分処理部(20)の動作を、第4図に示す
ブロック図および第5図(イ),(ロ)に示す説明図に
基づいて説明する。
Next, the operation of the differentiation processing section (20) will be described based on the block diagram shown in FIG. 4 and the explanatory diagrams shown in FIGS. 5 (a) and 5 (b).

前記カメラ(3)からの原画像情報であるビデオ信号
(S0)は、ビデオ増幅器(10a)およびA/D変換器(10
b)よりなるA/D変換部(10)を介して直接に、または、
90度座標変換されて前記画像メモリ(11)に記憶された
画像情報として入力形態切り換え部(12)を介して、32
×32画素、一画素当たり8ビット長で表現されるデジタ
ル画像データ(F1)として、この微分処理部(20)に入
力される。
The video signal (S 0 ) which is the original image information from the camera (3) is supplied to the video amplifier (10a) and the A / D converter (10
b) directly via the A / D converter (10), or
Image information stored in the image memory (11) after 90-degree coordinate conversion is passed through the input form switching unit (12) to the 32
Digital image data (F 1 ) represented by × 32 pixels, each pixel having an 8-bit length, is input to the differentiation processing section (20).

そして、カメラ(3)の撮像視野の左上を原点として
左から右へと順位1ラスター(一つのy座標に対するx
座標の画素32個)分の画像データ(F1)を取り込み、3
ラスター(i−2,i−1,i)分の画像データ(F1)が入力
されると、第5図(イ),(ロ)に示すように、注目す
る画素の左側及び右側に位置する2画素並びにその左側
及び右側の各画素の上下両側に位置する4画素からなる
合計6つの画素について、左右方向(x軸方向)の対応
画素間の明度差を演算してその微分値を求める処理を行
い、この微分処理を32ラスター(32画素分のy座標)夫
々について繰り返し行って、32×32画素の全画像情報の
明度変化とその方向性を演算する。つまり、左右方向
(x軸方向)に方向性のあるマスクで微分処理し、画像
の暗→明変化のエッジを抽出するのである。
Then, from the left to the right with the upper left of the imaging field of view of the camera (3) as the origin, the rank 1 raster (x for one y coordinate is
Import image data (F 1 ) for 32 pixels of coordinates 3
When the image data (F 1 ) for the raster (i−2, i−1, i) is input, as shown in FIGS. 5 (a) and 5 (b), the positions on the left and right sides of the pixel of interest are displayed. 2 pixels and 4 pixels located on both the upper and lower sides of the left and right pixels, a total of 6 pixels, the brightness difference between corresponding pixels in the left-right direction (x-axis direction) is calculated, and the differential value is obtained. A process is performed, and this differentiation process is repeated for each of 32 rasters (y-coordinates of 32 pixels) to calculate the lightness change of all image information of 32 × 32 pixels and its directionality. That is, differential processing is performed using a mask having directionality in the left-right direction (x-axis direction) to extract edges of the image that change from dark to light.

すなわち、前記制御部(60)よりバスバッファ(21)
を介して入力される制御信号等の情報に基づいてその動
作を制御される入出力コントローラ(22)からの動作制
御信号のタイミングに同期して、前記90度座標変換しな
い画像信号(S1)または90度座標変換した画像信号
(S2)であるデジタル化原画像データ(F1)の1ラスタ
ー(i−2)中の1画素(j−2)の明度情報(Dj-2
が第1レジスタ(REG1)に入力される。次のステップ
で、この第1レジスタ(REG1)の内容(Dj-2)が第2レ
ジスタ(REG2)に転送され、同時に前記第1レジスタ
(REG1)に次の画素(j−1)の明度情報(Dj-1)が入
力される。更に次のステップで、第1レジスタ(REG1
の内容(Dj-1)が前記第2レジスタ(REG2)に転送さ
れ、この第2レジスタ(REG2)に転送された現在の画素
(j)に対して2画素分前の画素(j−2)の明度情報
(Dj-2)と現在の画素(j)との差分を、減算器(23)
により演算するのである。
That is, the control unit (60) causes the bus buffer (21)
An image signal (S 1 ) that does not undergo the 90-degree coordinate conversion in synchronization with the timing of an operation control signal from an input / output controller (22) whose operation is controlled based on information such as a control signal input via Alternatively, the brightness information (D j-2 ) of one pixel (j-2) in one raster (i-2) of the digitized original image data (F 1 ) which is the image signal (S 2 ) converted by 90 degree coordinates
Is input to the first register (REG 1 ). In the next step, the contents of the first register (REG 1) (D j- 2) is transferred to the second register (REG 2), the next pixel in the first register (REG 1) at the same time (j-1 ) Brightness information (D j-1 ) is input. In the next step, the first register (REG 1 )
The contents of (D j-1) is transferred to the second register (REG 2), the second register (REG 2) of the transferred current pixel (j) with respect to two pixels before the pixel (j -2) brightness information (D j-2 ) and the current pixel (j) are subtracted by a subtractor (23)
Is calculated by

そして、その結果を、データバッファ(24a)を介し
て1ラスター(i−2)分の明度差データを記憶する第
1ラスターメモリ(25a)にx座標方向32画素分の明度
差データを順次転送しながら、減算器(23)より出力さ
れる次のラスター(i−1)とx座標が同一の画素(j,
i−2),(j,i−1)間のデータを第一加算器(ALU1
により加算して、その結果をデータバッファ(24b)を
介して第2ラスターメモリ(25b)に転送する。更に、
上記第2ラスターメモリ(25b)への明度差データの転
送と同時に、その転送データつまり現在のラスター
(i)より2つ前のラスター(i−2)と1つ前のラス
ター(i−1)のx座標が同一の画素(j,i−2),
(j,i−1)間の明度差データと、第一加算器(ALU1
によって加算された1つ前のラスター(i−1)と現在
のラスター(i)のx座標が同一の画素(j,i−1),
(j,i)間の明度差データとを、第二加算器(ALU2)に
より加算して第3ラスターメモリ(25c)に記憶する。
Then, the result is sequentially transferred through the data buffer (24a) to the first raster memory (25a) that stores the brightness difference data for one raster (i-2), and the brightness difference data for 32 pixels in the x coordinate direction is sequentially transferred. However, the next raster (i-1) output from the subtractor (23) has the same x coordinate as the pixel (j,
The data between i-2) and (j, i-1) is added to the first adder (ALU 1 )
And the result is transferred to the second raster memory (25b) via the data buffer (24b). Furthermore,
Simultaneously with the transfer of the brightness difference data to the second raster memory (25b), the transfer data, that is, the raster (i-2) two before and the raster (i-1) one before the current raster (i). The pixels (j, i-2) having the same x coordinate of
Brightness difference data between (j, i-1) and the first adder (ALU 1 )
Pixel (j, i-1) whose x coordinate of the previous raster (i-1) and the current raster (i) added by
The brightness difference data between (j, i) is added by the second adder (ALU 2 ) and stored in the third raster memory (25c).

従って、各ラスターメモリ(25a),(25b),(25
c)には下記内容の明度差データが夫々格納されること
となる。
Therefore, each raster memory (25a), (25b), (25
In c), the brightness difference data with the following contents will be stored respectively.

第1ラスターメモリ←D(x,i) 第2ラスターメモリ←D(x,i−1)+D(x,i) 第3ラスターメモリ←D(x,i−2)+D(x,i−1) +D(x,i−1)+D(x,i) (ただし、x=j,j=1〜32である。) 尚、前記第3ラスターメモリ(25c)に格納されるデ
ータは、最終演算データであること、および、1ラスタ
ー前のデータが二回加算されたものとなるので、微分符
号選択部(26)により予め設定した微分符号(正負何れ
か一方)のみのデータを選択して格納される。そして、
マルチプライヤ(27)でゲイン設定スイッチ(28)によ
り設定されたレベルのデータに変換され、1画素分のデ
ジタル化原画像データ(F1)が入力される毎にデータバ
ッファ(24c)を介して8ビット/1画素のエッジ画像デ
ータ(F2)に変換されて次の2値化処理部(30)に出力
される。
First raster memory ← D (x, i) Second raster memory ← D (x, i-1) + D (x, i) Third raster memory ← D (x, i-2) + D (x, i-1) ) + D (x, i−1) + D (x, i) (where x = j, j = 1 to 32) The data stored in the third raster memory (25c) is the final operation. Since it is data and the data of one raster before is added twice, only the data of the differential code (either positive or negative) preset by the differential code selection unit (26) is selected and stored. To be done. And
It is converted by the multiplier (27) into the data of the level set by the gain setting switch (28), and is input via the data buffer (24c) every time the digitized original image data (F 1 ) for one pixel is input. It is converted to 8-bit / 1-pixel edge image data (F 2 ) and output to the next binarization processing unit (30).

以上説明した処理を、各画素毎に順次連続的に繰り返
し行うことで、いわゆるパイプライン処理を行い、画像
データをリアルタイムで微分処理するように構成してあ
る。尚、第4図中、(24d)は前記エッジ画像データ(F
2)が演算の結果、オーバーフローした場合に、8ビッ
ト長で表現できる最大値(16進表記でFF)に置換するた
めのデータバッファである。
The processing described above is sequentially and repeatedly performed for each pixel, so-called pipeline processing is performed, and image data is differentiated in real time. In FIG. 4, (24d) is the edge image data (F
2 ) is a data buffer for substituting the maximum value (FF in hexadecimal notation) that can be expressed in 8-bit length when overflow occurs as a result of the operation.

次に、第6図に示すブロック図に基づいて、前記微分
処理部(20)により8ビット/画素のエッジ画像データ
(F2)に変換された画像情報を2値化する2値化処理部
(30)、ハフ変換部(40)、および、境界パラメータ演
算部(50)の構成と、その動作を説明する。
Next, based on the block diagram shown in FIG. 6, a binarization processing unit for binarizing the image information converted into the 8-bit / pixel edge image data (F 2 ) by the differentiation processing unit (20). The configurations and operations of the (30), the Hough transform section (40), and the boundary parameter computing section (50) will be described.

すなわち、前記微分処理部(20)同様に、バスバッフ
ァ(41)を介して入力される制御部(60)からの制御信
号により全体の動作が、前記微分処理部(20)の動作と
同期して行われるように、入出力コントローラ(42)に
より、全体の動作が制御されるように構成してある。
That is, like the differential processing section (20), the entire operation is synchronized with the operation of the differential processing section (20) by the control signal from the control section (60) input via the bus buffer (41). The entire operation is controlled by the input / output controller (42).

前記、エッジ画像データ(F2)は、データバッファ
(43a)を介して2値化処理部(30)のコンパレータ(3
1)に入力され、バッファ(32)を介して入力される設
定閾値(Fref)と比較されて明度変化が大きい部分が2
値化される。この2値画像データ(F3)は、データバス
(BUS3)に接続されたデータバッファ(43b)を介し
て、前記境界パラメータ演算部(50)のコンパレータ
(51)に入力されるとともに、前記度数カウンタ(44)
でカウントされた度数(D)は、データバッファ(43
d)を介して前記度数メモリ(45)の同一アドレス位置
の内容に加算されるとともに、その最大値(Dmax)を検
出することによって境界を特定する境界パラメータ演算
部(50)の最大値レジスタ(52a)に転送され、コンパ
レータ(51)により前記最大値レジスタ(52a)に格納
されている値と比較され、大きいほうの度数を新たな最
大値(Dmax)として再格納する。尚、この最大値(Dma
x)となる度数(D)の前記度数メモリ(45)のアドレ
スは、最大値アドレスレジスタ(52b)に同時に格納し
ておき、全画素(32×32)のハフ変換終了後、最大値
(Dmax)に対応する座標(ρ,θ)から前記式(ii)を
介して前記式(i)の係数(a,b)を求めるようにして
いる。又、第6図中、(33b)は前記デジタル化画像デ
ータ(F1)を記憶する画像メモリ、(33c)はエッジ画
像データ(F2)を記憶する画像メモリであり、ビデオRA
M(34)およびCRTコントローラ(14)を介して、前記モ
ニタテレビ(15)に各処理状態の画像を表示できるよう
にしてある。
The edge image data (F 2 ) is transferred to the comparator (3) of the binarization processing unit (30) via the data buffer (43a).
1) is compared with the set threshold value (Fref) that is input via the buffer (32), and there are 2
Valued. This binary image data (F 3 ) is input to the comparator (51) of the boundary parameter calculation section (50) via the data buffer (43b) connected to the data bus (BUS 3 ) and Frequency counter (44)
The frequency (D) counted in is stored in the data buffer (43
The maximum value register (50) of the boundary parameter calculation unit (50) that specifies the boundary by adding to the contents of the same address position of the frequency memory (45) via d) and detecting the maximum value (Dmax). 52a) and is compared with the value stored in the maximum value register (52a) by the comparator (51), and the larger frequency is stored again as a new maximum value (Dmax). This maximum value (Dma
The address of the frequency memory (45) having the frequency (D) of x) is stored in the maximum value address register (52b) at the same time, and after the Hough conversion of all pixels (32 × 32) is completed, the maximum value (Dmax ), The coefficient (a, b) of the equation (i) is obtained from the coordinate (ρ, θ) via the equation (ii). Further, in FIG. 6, (33b) is an image memory for storing the digitized image data (F 1 ), (33c) is an image memory for storing the edge image data (F 2 ) and is a video RA.
An image of each processing state can be displayed on the monitor television (15) via the M (34) and the CRT controller (14).

そして、求められた式(i)の係数(a,b)は、前記
入出力コントローラ(42)およびバスバッファ(41)を
介して前記制御部(60)に送られ、境界(L1),(L2)の有
無判別やその後の処理のためのデータとされるのであ
る。
Then, the obtained coefficient (a, b) of the equation (i) is sent to the control unit (60) via the input / output controller (42) and the bus buffer (41), and the boundary (L 1 ) The data is used for determining the presence or absence of (L 2 ) and the subsequent processing.

〔別実施例〕[Another embodiment]

上記実施例では、機体(V)前後方向での境界(L2
の検出を行うか否かに基づいて、微分処理部(20)への
入力画像情報の座標を90度変換したものと90度変換しな
いものとを、切り換えるようにしているが、一画面分の
画像情報を処理する毎に、入力画像の座標を90度変換し
て、機体(V)横幅方向での境界(L1)検出と、機体
(V)前後方向での境界(L2)検出とを、交互に繰り返
し行うようにしてもよい。その場合、カメラ(3)によ
る撮像画像の1フィールド毎に、交互に座標変換したも
のと変換しないものとを入力するようにすると、1フレ
ーム毎に必要な情報が同時に得られ、1画面分の撮像処
理の間に異なる方向の境界(L1),(L2)を検出するための
画像情報を得ることができる。
In the above embodiment, the boundary (L 2 ) in the longitudinal direction of the aircraft (V)
Based on whether or not the detection is performed, the coordinates of the input image information to the differential processing section (20) are switched between those converted by 90 degrees and those not converted by 90 degrees. Each time the image information is processed, the coordinates of the input image are converted by 90 degrees to detect the boundary (L 1 ) in the width direction of the machine body (V) and the boundary (L 2 ) in the front and rear direction of the machine body (V). May be alternately repeated. In that case, if the coordinate-converted image and the non-converted image are alternately input for each field of the image captured by the camera (3), necessary information can be simultaneously obtained for each frame, and one frame worth of information can be obtained at the same time. Image information for detecting boundaries (L 1 ) and (L 2 ) in different directions can be obtained during the imaging process.

あるいは、機体(V)にその走行距離情報を検出する
手段を設け、その検出走行距離情報と一行程の走行予定
距離情報とに基づいて、行程端近傍に達しているか否か
により、機体(V)前後方向での境界(L2)検出処理に
切り換えるようにしてもよい。
Alternatively, the vehicle body (V) is provided with a means for detecting the traveling distance information, and based on the detected traveling distance information and the planned traveling distance information of one stroke, the vehicle body (V) is detected depending on whether or not it has reached the vicinity of the travel end. ) boundary in the longitudinal direction (L 2) may be switched to the detection process.

又、上記実施例では、ハフ変換処理の式(ii)におい
て、角度変化を0度≦θ≦180度の間で処理している
が、境界(L1),(L2)と機体(V)と位置関係から、境界
(L1),(L2)の方向が機体(V)進行方向から大幅に変化
することはないので、ハフ変換を行う角度範囲を、例え
ば0度〜180度より狭い範囲に限定して処理することに
より、高精度にしたり、あるいは、狭い特定範囲のみ処
理することで、処理速度を向上させたり、ノイズの影響
を効果的に除去させることができる。
Further, in the above embodiment, in the Hough transform processing equation (ii), the angle change is processed within the range of 0 ° ≦ θ ≦ 180 °, but the boundaries (L 1 ), (L 2 ) and the aircraft (V 2 ) And the positional relationship
Since the directions of (L 1 ) and (L 2 ) do not change significantly from the traveling direction of the aircraft (V), the angle range for Hough conversion is limited to, for example, a range narrower than 0 degrees to 180 degrees. By doing so, the processing speed can be improved and the influence of noise can be effectively removed by improving the accuracy or processing only a narrow specific range.

又、上記実施例では、撮像画像情報を、32×32画素に
標本化したが、必要に応じて更に細かく、あるいは、粗
く標本化してもよい。
Further, in the above-mentioned embodiment, the captured image information is sampled into 32 × 32 pixels, but it may be sampled more finely or coarsely if necessary.

又、境界(L1),(L2)と機体(V)との位置関係を求め
るに、上記実施例で例示した撮像視野を上下方向に縦断
する基準線(L0)を基準にする他、撮像視野の下端部、
上端部、および中央、あるいは画像情報の座標原点位置
等、どこを基準にしてもよい。
In addition, in order to obtain the positional relationship between the boundaries (L 1 ) and (L 2 ) and the body (V), the reference line (L 0 ) that vertically crosses the imaging field of view illustrated in the above embodiment is used as a reference. , The lower end of the imaging field of view,
The upper end, the center, or the coordinate origin position of the image information may be used as a reference.

【図面の簡単な説明】[Brief description of drawings]

図面は本発明に係る自動走行作業車用の境界検出装置の
実施例を示し、第1図は境界検出装置の構成を示すブロ
ック図、第2図はその全体的な動作を示すフローチャー
ト、第3図は制御部の構成を示すブロック図、第4図は
微分処理部の構成を示すブロック図、第5図(イ)、
(ロ)はその処理動作の説明図、第6図はハフ変換部の
構成を示すブロック図、第7図は芝刈作業車の概略平面
図、第8図はその側面図、第9図は芝刈作業車の制御シ
ステムの全体構成を示すブロック図である。 (3)……撮像手段、(A)……画像処理手段、(B)
……未処理作業地、(C)……処理済作業地、(L1),
(L2)……境界。
The drawings show an embodiment of a boundary detection device for an automated guided vehicle according to the present invention, FIG. 1 is a block diagram showing the configuration of the boundary detection device, FIG. 2 is a flowchart showing the overall operation thereof, and FIG. FIG. 4 is a block diagram showing the configuration of the control unit, FIG. 4 is a block diagram showing the configuration of the differential processing unit, FIG.
(B) is an explanatory view of the processing operation, FIG. 6 is a block diagram showing the configuration of the Hough conversion unit, FIG. 7 is a schematic plan view of a lawn mowing work vehicle, FIG. 8 is a side view thereof, and FIG. 9 is lawn mowing. It is a block diagram which shows the whole structure of the control system of a working vehicle. (3) ... Imaging means, (A) ... Image processing means, (B)
…… Unprocessed work site, (C) …… Processed work site, (L 1 ),
(L 2 ) …… Boundary.

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】機体進行方向前方側の所定範囲の作業地状
態を撮像する一つの撮像手段(3)と、 その撮像手段(3)の撮像画像情報に基づいて、機体横
幅方向での未処理作業地(B)と処理済作業地(C)と
の境界(L1)、及び機体前後方向での未処理作業地
(B)と処理済作業地(C)との境界(L2)を検出する
画像処理手段(A)とが設けられ、 その画像処理手段(A)は、 前記機体横幅方向での境界(L1)を検出する場合には、
前記撮像画像情報を明るさに基づいて機体横幅方向に対
応する方向に沿って微分処理して、その微分処理した情
報に基づいて前記機体横幅方向での境界(L1)を検出
し、 前記機体前後方向での境界(L2)を検出する場合には、
前記撮像画像情報を明るさに基づいて機体前後方向に対
応する方向に沿って微分処理して、その微分処理した情
報に基づいて前記機体前後方向での境界(L2)を検出す
るように構成されると共に、 前記機体横幅方向での境界(L1)を検出する処理状態
と、前記機体前後方向での境界(L2)を検出する処理状
態とに切り換え自在に構成されている 自動走行作業車用の境界検出装置。
1. An image pickup means (3) for picking up an image of a work ground condition in a predetermined range on the front side in the traveling direction of the machine body, and unprocessed in the lateral direction of the machine body based on imaged image information of the image pickup means (3). The boundary (L 1 ) between the work site (B) and the processed work site (C), and the boundary (L 2 ) between the unprocessed work site (B) and the processed work site (C) in the machine front-rear direction. The image processing means (A) for detecting is provided, and when the image processing means (A) detects the boundary (L 1 ) in the machine lateral direction,
The captured image information is differentiated along the direction corresponding to the lateral width direction of the body based on the brightness, and the boundary (L 1 ) in the lateral width direction of the body is detected based on the differentiated information. When detecting the boundary (L 2 ) in the front-back direction,
The imaged image information is differentiated along the direction corresponding to the front-rear direction of the body based on the brightness, and the boundary (L 2 ) in the front-rear direction of the body is detected based on the differentiated information. In addition, the automatic traveling work is configured to be switchable between a processing state in which the boundary (L 1 ) in the lateral direction of the machine body is detected and a processing state in which the boundary (L 2 ) in the longitudinal direction of the machine body is detected. Border detection device for cars.
JP60163729A 1985-07-23 1985-07-23 Boundary detection device for autonomous vehicles Expired - Lifetime JP2520104B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60163729A JP2520104B2 (en) 1985-07-23 1985-07-23 Boundary detection device for autonomous vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60163729A JP2520104B2 (en) 1985-07-23 1985-07-23 Boundary detection device for autonomous vehicles

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP3028235A Division JP2585471B2 (en) 1991-02-22 1991-02-22 Boundary detection device for autonomous vehicles

Publications (2)

Publication Number Publication Date
JPS6224310A JPS6224310A (en) 1987-02-02
JP2520104B2 true JP2520104B2 (en) 1996-07-31

Family

ID=15779553

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60163729A Expired - Lifetime JP2520104B2 (en) 1985-07-23 1985-07-23 Boundary detection device for autonomous vehicles

Country Status (1)

Country Link
JP (1) JP2520104B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5172315A (en) * 1988-08-10 1992-12-15 Honda Giken Kogyo Kabushiki Kaisha Automatic travelling apparatus and method
US5359666A (en) * 1988-09-28 1994-10-25 Honda Giken Kogyo Kabushiki Kaisha Driving way judging device and method
US7287884B2 (en) 2002-02-07 2007-10-30 Toyota Jidosha Kabushiki Kaisha Vehicle operation supporting device and vehicle operation supporting system
JP5010627B2 (en) * 2009-02-19 2012-08-29 三菱重工業株式会社 Character recognition device and character recognition method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS52153531A (en) * 1976-06-15 1977-12-20 Iseki & Co Ltd Control sensor for movable agricultural implement

Also Published As

Publication number Publication date
JPS6224310A (en) 1987-02-02

Similar Documents

Publication Publication Date Title
US4868752A (en) Boundary detecting method and apparatus for automatic working vehicle
CN113805571B (en) Robot walking control method, system, robot and readable storage medium
JP2888735B2 (en) Travel lane detection device
JPH0436405B2 (en)
JP2520104B2 (en) Boundary detection device for autonomous vehicles
JP3868915B2 (en) Forward monitoring apparatus and method
JP2962799B2 (en) Roadside detection device for mobile vehicles
JP2585471B2 (en) Boundary detection device for autonomous vehicles
JPH0757200A (en) Method and device for recognizing travel course
JPH0465402B2 (en)
JPH0437443B2 (en)
JPH0520593A (en) Travelling lane recognizing device and precedence automobile recognizing device
JP2677310B2 (en) Control device for unmanned self-propelled vehicle
JPH07222504A (en) Method for controlling travel of self-traveling working vehicle
JP2624390B2 (en) Crop row detector
JPS6270917A (en) Boundary detecting device for self-traveling truck
JPS6261507A (en) Boundary detector for self-propelling type working vehicle
JP2972311B2 (en) Roadside detection device for mobile vehicles
JPH0624016B2 (en) Imaging type boundary detection device
JPH0991594A (en) Rear white line recognition device
JPH0575336B2 (en)
JP3020734B2 (en) Boundary detection device for autonomous vehicles
JP2907613B2 (en) Crop row detector
JPH0619541A (en) End detecting device for automatic travel working vehicle
JPH07105473A (en) White line recognition device for road picture