JPH07160331A - Position self-detecting method for autonomous traveling working vehicle - Google Patents

Position self-detecting method for autonomous traveling working vehicle

Info

Publication number
JPH07160331A
JPH07160331A JP5302951A JP30295193A JPH07160331A JP H07160331 A JPH07160331 A JP H07160331A JP 5302951 A JP5302951 A JP 5302951A JP 30295193 A JP30295193 A JP 30295193A JP H07160331 A JPH07160331 A JP H07160331A
Authority
JP
Japan
Prior art keywords
marker
area
sign
focus
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5302951A
Other languages
Japanese (ja)
Other versions
JP3314109B2 (en
Inventor
Takeshi Torii
毅 鳥居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Priority to JP30295193A priority Critical patent/JP3314109B2/en
Publication of JPH07160331A publication Critical patent/JPH07160331A/en
Application granted granted Critical
Publication of JP3314109B2 publication Critical patent/JP3314109B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Guiding Agricultural Machines (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PURPOSE:To accurately detect a local position at all times without being affected by the distance between the vehicle and a marker by adjusting the focus of an image pickup means so that the area of the marker in a picked-up image reaches reference area and expanding a marker detection range. CONSTITUTION:Information regarding the apparent are of the marker in an image pickup screen, i.e., picked-up marker area is compared with a marker area reference value which is previously set to an optimum value so that stable marker recognition is enabled to judge whether or not the picked-up marker area is equal to the marker area reference value. Then when the picked-up marker area is larger, a motor for adjusting the focus of a CCD camera 8s is moved with a previously set controlled variable to move the focus away, thereby increasing luminance per unit area. When the picked-up marker area is smaller to the contrary, the focus adjusting motor of the CCD camera 8a is moved with the previously set controlled variable to move the focus in the near direction, and the marker is photographed large intentionally in an out-of-focus state. Consequently, the marker can securely be recognized by the CCD even in a state wherein the marker is positioned distantly exceeding the focus range wherein a sharp image is obtained by the CCD camera 8a.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、特定の作業領域周辺に
設置された複数の標識を撮像して自己位置を検出し、草
刈、芝刈作業等における作業走行を行なう自律走行作業
車の自己位置検出方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention detects the self-position of a plurality of markers installed around a specific work area, detects the self-position, and self-positions an autonomous traveling work vehicle for carrying out work traveling in grass cutting, lawn mowing, etc. It relates to a detection method.

【0002】[0002]

【従来の技術】近年、ゴルフ場、河川敷堤防、公園等の
各種フィールドで行う草刈、芝刈作業等を無人で行なう
ことのできる自律走行作業車が開発されている。この自
律走行作業車の自律走行制御においては、作業領域周辺
に立設した標識を利用して自己位置を検出する技術を採
用するものがあり、例えば、特開平3−135606号
公報には、特定区域内に立設した複数の再帰性反射ポー
ル(光反射標識)に投光し、反射光を光センサで受光し
て隣合う反射ポールを臨む角度を検出し、検出した角度
と標識の既知の座標とから三点挟角法(三角測量法)に
より自己位置を検出する技術が開示されている。
2. Description of the Related Art In recent years, autonomous traveling work vehicles have been developed which are capable of unmanned grass cutting, lawn mowing and the like in various fields such as golf courses, river banks, parks and the like. In the autonomous traveling control of this autonomous traveling work vehicle, there is one that employs a technique of detecting a self position by using a sign erected around the work area. For example, Japanese Patent Laid-Open No. 3-135606 discloses Light is projected onto a plurality of retroreflective poles (light reflective markers) installed upright in the area, the reflected light is received by an optical sensor, and the angle facing the adjacent reflective poles is detected. A technique of detecting a self-position from coordinates and a three-point included angle method (triangulation method) is disclosed.

【0003】この場合、光センサによって標識を検出す
る技術では、作業領域に不整地やうねりがあると、車輌
の傾斜や車輌の振動等の影響によって、投光した光ビー
ムが標識をはずれたり、標識からの反射光を受光するこ
とが困難な場合があるため、最近では、標識を含む周囲
の風景を撮像して画像処理することにより標識を認識
し、自己位置を検出する技術が提案されており、例え
ば、特開平3−71312号公報には、農用トラクタの
自動的な操向制御において、農用トラクタに登載したカ
メラで指標(標識)を撮影し、その画像認識位置の、設
定基準位置に対するずれに基づいて自己位置を検出する
技術が開示されている。
In this case, in the technique of detecting a sign by an optical sensor, if the work area has uneven terrain or swell, the projected light beam may deviate from the sign due to the influence of the inclination of the vehicle, the vibration of the vehicle, or the like. Since it may be difficult to receive the reflected light from the sign, recently, a technique has been proposed in which the sign is recognized and the self-position is detected by imaging the surrounding scenery including the sign and processing the image. However, for example, in Japanese Unexamined Patent Publication No. 3-71312, in automatic steering control of an agricultural tractor, an index (sign) is photographed by a camera mounted on the agricultural tractor, and its image recognition position with respect to a set reference position. A technique for detecting the self-position based on the displacement is disclosed.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、一般
に、撮像画像から標識を認識する場合には多くの画像情
報が必要であるため、標識に焦点の合った鮮明な撮像画
像から標識を認識するようにしているが、通常のカメラ
等の撮像手段では、鮮明な撮像画像が得られる範囲には
制限がある。
However, in general, when recognizing a sign from a picked-up image, a large amount of image information is required. Therefore, the sign should be recognized from a clear picked-up image focused on the sign. However, there is a limit to the range in which a clear captured image can be obtained by an image capturing means such as a normal camera.

【0005】従って、自車輌に対して標識が遠方に位置
するような状況では、撮像画像内で標識が小さくなり過
ぎて見えにくい状態となり、撮像画像から標識を抽出す
るための情報が不足して標識を見失うおそれがある。
Therefore, in a situation where the sign is located far from the vehicle, the sign becomes too small in the captured image to make it difficult to see, and there is insufficient information for extracting the sign from the captured image. You may lose sight of the sign.

【0006】本発明は上記事情に鑑みてなされたもの
で、標識検知範囲を拡大し、自車輌と標識との距離に影
響されることなく常に正確に自己位置を検出することの
できる自律走行作業車の自己位置検出方法を提供するこ
とを目的としている。
The present invention has been made in view of the above circumstances, and an autonomous traveling work capable of always detecting the self-position accurately by expanding the sign detection range and being not affected by the distance between the vehicle and the sign. It is an object of the present invention to provide a vehicle self-position detecting method.

【0007】[0007]

【課題を解決するための手段】本発明は、特定の作業領
域周辺に設置した複数の標識を撮像し、撮像画像から標
識を認識して三角測量により自己位置を検出する自律走
行作業車の自己位置検出方法において、前記撮像画像上
の標識の面積を予め設定した基準面積と比較し、前記撮
像画像上の標識の面積が前記基準面積となるよう撮像手
段の焦点を調整して標識検知範囲を拡大することを特徴
とする。
SUMMARY OF THE INVENTION The present invention is a self-propelled vehicle for self-propelled vehicles that images a plurality of signs installed around a specific work area, recognizes the signs from the picked-up images, and detects the self-position by triangulation. In the position detection method, the area of the marker on the captured image is compared with a preset reference area, and the focus of the image pickup means is adjusted so that the area of the marker on the captured image becomes the reference area to determine the marker detection range. It is characterized by expanding.

【0008】[0008]

【作用】本発明では、標識を含む風景を撮像した画像上
の標識の面積を予め設定した基準面積と比較し、前記撮
像画像上の標識の面積が前記基準面積となるよう撮像手
段の焦点を調整して遠方の標識が大きく写るようにし、
遠方の標識に対する検知範囲を拡大する。
In the present invention, the area of the sign on the image of the landscape including the sign is compared with a preset reference area, and the focus of the image pickup means is adjusted so that the area of the sign on the captured image becomes the reference area. Adjust to make the distant sign larger,
Expand the detection range for distant signs.

【0009】[0009]

【実施例】以下、図面を参照して本発明の実施例を説明
する。図面は本発明の一実施例に係わり、図1は撮像制
御ルーチンのフローチャート、図2は主制御ルーチンの
フローチャート、図3は自己位置検出ルーチンのフロー
チャート、図4は芝刈作業車の外観を示す概略説明図、
図5は制御系のブロック図、図6は自車輌位置検出部の
回路構成図、図7は走行経路及び作業領域を示す説明
図、図8は三角測量による自己位置検出の説明図であ
る。
Embodiments of the present invention will be described below with reference to the drawings. The drawings relate to one embodiment of the present invention. FIG. 1 is a flowchart of an imaging control routine, FIG. 2 is a flowchart of a main control routine, FIG. 3 is a flowchart of a self-position detection routine, and FIG. Illustration,
5 is a block diagram of a control system, FIG. 6 is a circuit configuration diagram of a vehicle position detection unit, FIG. 7 is an explanatory diagram showing a travel route and a work area, and FIG. 8 is an explanatory diagram of self-position detection by triangulation.

【0010】図4において、符号1は無人で自律走行が
可能な自律走行作業車を示し、本実施例においてはゴル
フ場等の草・芝刈り作業を行う芝刈作業車である。この
芝刈作業車1は、エンジン駆動で走行し、前後輪の操舵
角を独立して制御することができるようになっており、
車輌本体下部に、草・芝刈作業を行うためのモーア等の
刈刃機構部2を備えるとともに、走行履歴に基づいて現
在位置を測定するための推測航法用センサ、走行障害物
を検出するための障害物検出用センサ、草・芝刈作業領
域において刈跡境界に沿った倣い走行を行うための倣い
走行用センサ等が搭載されるとともに、草・芝刈作業領
域の周辺に立設された複数の標識を撮像し、この撮像画
像から標識を認識して三角測量により自己位置を検出す
るための撮像手段を備えている。
In FIG. 4, reference numeral 1 indicates an autonomous traveling work vehicle which is capable of autonomous driving by an unmanned vehicle, and in the present embodiment is a lawn mowing work vehicle for performing grass and lawn mowing work on a golf course or the like. This lawnmower vehicle 1 is driven by an engine, and the steering angles of the front and rear wheels can be independently controlled.
In the lower part of the vehicle body, a cutting blade mechanism 2 such as a mower for performing grass / lawn mowing work is provided, a dead reckoning sensor for measuring the current position based on the traveling history, and a traveling obstacle for detecting an obstacle. A sensor for detecting obstacles, a sensor for profile travel for performing profile travel along the cutting boundary in the grass / lawn mowing work area, etc. are installed, and a plurality of markers standing upright around the grass / lawn mowing work area. It is provided with an image pickup means for picking up an image, recognizing the sign from the picked-up image, and detecting the self-position by triangulation.

【0011】前記推測航法用センサとしては、地磁気セ
ンサ3と車輪エンコーダ4とが前記芝刈作業車1に備え
られ、前記障害物検出用センサとしては、超音波センサ
あるいは光センサ等からなる無接触型センサ5a,5b
が前記芝刈作業車1の前後部に取り付けられるととも
に、マイクロスイッチ等を使用した接触型センサ6a,
6bが前記芝刈作業車1の前後端に取り付けられてい
る。
As the dead reckoning sensor, a geomagnetic sensor 3 and a wheel encoder 4 are provided in the lawnmower work vehicle 1, and as the obstacle detecting sensor, a non-contact type including an ultrasonic sensor or an optical sensor. Sensors 5a, 5b
Are attached to the front and rear parts of the lawn mowing work vehicle 1, and a contact type sensor 6a using a micro switch or the like,
6b are attached to the front and rear ends of the lawnmower working vehicle 1.

【0012】また、倣い走行用センサとしては、例え
ば、草・芝丈に応じて上下するそり状の板と、このそり
状の板を支持する部材の回動角を検出するロータリエン
コーダ等を組合わせて既刈部と未刈部との刈跡境界を検
出する刈跡境界検出センサ7が前記芝刈作業車1の車輌
本体下部に備えられている。
Further, as the copying traveling sensor, for example, a sled plate which moves up and down according to the length of grass and grass and a rotary encoder which detects a rotation angle of a member which supports the sled plate are combined. In addition, a cut mark boundary detection sensor 7 for detecting a cut mark boundary between the already cut portion and the uncut portion is provided at the lower portion of the vehicle body of the lawnmower work vehicle 1.

【0013】また、標識を撮像するための撮像手段とし
ては、例えば固体撮像素子(CCD)を使用したCCD
カメラが使用される。このCCDカメラは、芝刈作業車
1の前方側に立設された回転機構部10に、CCDカメ
ラの視野をカバーする照明用ライトと一体になった撮像
ユニット8として取付軸と直角方向に撮像面を向けた状
態で取付けられており、取付軸に対して360°全周に
回転させられて全周撮像が可能なようになっている。さ
らに、前記CCDカメラには、カメラレンズ部にレンズ
焦点及び絞り調整機構が内蔵されており、後述するよう
に、遠方にある標識に対して焦点及び絞りを制御し、標
識認識能力を拡大することができるようになっている。
As an image pickup means for picking up an image of a sign, for example, a CCD using a solid-state image pickup device (CCD)
A camera is used. This CCD camera is an image pickup unit 8 integrated with an illumination light for covering the field of view of the CCD camera on a rotating mechanism portion 10 standing upright on the front side of the lawn mowing vehicle 1, and has an image pickup surface perpendicular to the mounting axis. It is mounted with the camera facing to, and is rotated by 360 ° with respect to the mounting shaft so that imaging can be performed on the entire circumference. Further, the CCD camera has a lens focus and aperture adjustment mechanism built in the camera lens portion, and as described later, the focus and aperture are controlled for a distant sign to expand the sign recognition ability. You can do it.

【0014】以上の芝刈作業車1における自己位置検出
・自律走行制御は、図5に示す制御装置30によって行
なわれ、この制御装置30は、複数のマイクロコンピュ
ータからなる検出部と制御部とで構成される。
The above-described self-position detection / autonomous traveling control in the lawnmower work vehicle 1 is performed by the control device 30 shown in FIG. 5, and this control device 30 is composed of a detection part and a control part which are composed of a plurality of microcomputers. To be done.

【0015】各センサ・アクチュエータ類の信号を処理
する検出部としては、自車輌位置検出部31、刈跡境界
検出部35、及び、障害物検出部36が備えられ、前記
各検出部31,35,36からの信号に基づいて制御を
行なう制御部としては、走行制御を行なうための走行制
御部37、この走行制御部37によって参照される作業
データ・マップが格納されている作業データ蓄積部3
8、前記走行制御部37からの指示によって車輌制御を
行う車輌制御部39が備えられ、さらに、この車輌制御
部39からの出力に基づいて芝刈作業車1の各機構部を
駆動するため、駆動制御部40、操舵制御部41、刈刃
制御部42が備えられている。
As a detection section for processing the signals of the respective sensors and actuators, a vehicle position detection section 31, a cut boundary detection section 35, and an obstacle detection section 36 are provided, and the detection sections 31, 35 are provided. , 36 as a control unit for performing control based on signals from the vehicle, a traveling control unit 37 for performing traveling control, and a work data storage unit 3 in which a work data map referred to by the traveling control unit 37 is stored.
8. A vehicle control unit 39 for controlling the vehicle in accordance with an instruction from the traveling control unit 37 is provided. Further, based on the output from the vehicle control unit 39, each mechanical unit of the lawnmower working vehicle 1 is driven. A control unit 40, a steering control unit 41, and a cutting blade control unit 42 are provided.

【0016】さらに、前記自車輌位置検出部31は、前
記車輪エンコーダ4によって検出される車速を積分して
走行距離を求め、この走行距離を前記地磁気センサ3に
より検出した走行方向の変化に対応させて累積すること
により、基準地点からの走行履歴を算出して自車輌の現
在位置を測定する推測航法位置検出部32と、前記撮像
ユニット8のCCDカメラ8aによる撮像のための各種
信号、すなわち、CCDカメラ8aに対する電子シャッ
タ制御信号、焦点制御信号、絞り制御信号、照明用ライ
ト8bの駆動信号、前記回転機構部10に内蔵されたス
テップモータあるいはサーボモータ等の回転駆動用モー
タ11に対する駆動信号を出力する標識撮像制御部33
と、前記CCDカメラ8aからのビデオ信号を処理して
複数の標識を認識し、前記回転機構部10に取付けられ
た回転角センサ12からの回転角度信号、前記推測航法
位置検出部32からの測位データ、及び、予め記憶して
ある各標識の位置データを照らし合わせて個々の標識を
識別して予め記憶してある標識の位置データから三角測
量原理により自己位置を検出する三角測量位置検出部3
4とから構成されている。
Further, the vehicle position detecting section 31 integrates the vehicle speed detected by the wheel encoder 4 to obtain a traveling distance, and makes this traveling distance correspond to a change in traveling direction detected by the geomagnetic sensor 3. The dead reckoning position detection unit 32 that calculates the traveling history from the reference point and measures the current position of the vehicle by accumulating the accumulated data, and various signals for imaging by the CCD camera 8a of the imaging unit 8, that is, An electronic shutter control signal, a focus control signal, a diaphragm control signal for the CCD camera 8a, a drive signal for the illumination light 8b, and a drive signal for a rotation drive motor 11 such as a step motor or a servo motor built in the rotation mechanism section 10 are provided. Sign imaging control unit 33 for outputting
And a video signal from the CCD camera 8a is processed to recognize a plurality of markers, a rotation angle signal from a rotation angle sensor 12 attached to the rotation mechanism section 10, and positioning from the dead reckoning position detection section 32. A triangulation position detection unit 3 that compares the data and the position data of each sign that has been stored in advance to identify each sign and detects the self-position based on the triangulation principle from the position data of the sign that is stored in advance.
4 and.

【0017】一方、前記刈跡境界検出部35は、刈跡境
界検出センサ7からの草・芝丈に応じた信号を処理して
草・芝の境界位置を検出する。前記刈跡境界検出センサ
7が、前述したように、草・芝丈に応じて上下するそり
状の板と、このそり状の板を支持する部材の回動角を検
出するロータリエンコーダ等から構成される場合、草・
芝丈に応じたそり状の板の上下の変位が回動角に変換さ
れてロータリエンコーダからの検出信号が入力される
と、前記刈跡境界検出部35では、この検出信号から草
・芝刈作業済みの領域と未作業領域とを識別して刈跡境
界を検出し、その位置データを前記走行制御部37に出
力する。
On the other hand, the cut boundary detection unit 35 processes the signal from the cut boundary detection sensor 7 according to the grass / turf height to detect the grass / turf boundary position. As described above, the cut boundary detecting sensor 7 is composed of a sled-shaped plate that moves up and down according to the length of grass / turf, and a rotary encoder that detects a rotation angle of a member that supports the sled-shaped plate. If so, grass
When the vertical displacement of the sled-shaped plate corresponding to the lawn height is converted into a rotation angle and a detection signal is input from the rotary encoder, the cut boundary detection unit 35 uses the detection signal to detect grass and lawn mowing work. The cut area boundary is detected by distinguishing the completed area and the unworked area, and the position data is output to the traveling control unit 37.

【0018】また、前記障害物検出部36は、無接触型
センサ5a,5b,接触型センサ6a,6bによって予
測できない障害物を検出し、検出信号を前記走行制御部
37に出力する。
The obstacle detecting section 36 detects an unpredictable obstacle by the non-contact type sensors 5a, 5b and the contact type sensors 6a, 6b, and outputs a detection signal to the traveling control section 37.

【0019】前記走行制御部37では、前記推測航法位
置検出部32、前記三角測量位置検出部34、前記刈跡
境界検出部35、前記障害物検出部36からの情報に基
づいて、作業データ蓄積部38のマップ(作業内容及び
草・芝刈り作業を行う作業領域の地形データ等の走行用
地図)を参照して自己の現在位置と目標位置との誤差量
を算出し、この誤差量分を補正すべく走行経路指示や車
輌制御指示を決定し、前記車輌制御部39に出力する。
The traveling control unit 37 stores work data based on the information from the dead reckoning position detecting unit 32, the triangulation position detecting unit 34, the cut mark boundary detecting unit 35, and the obstacle detecting unit 36. The amount of error between the current position of the user and the target position is calculated by referring to the map of the section 38 (the work content and the map for traveling such as the terrain data of the work area where grass and lawn mowing work are performed), and this error amount is calculated. A travel route instruction and a vehicle control instruction are determined to be corrected and output to the vehicle control unit 39.

【0020】前記車輌制御部39では、前記走行制御部
37からの指示を具体的な制御指示量に変換し、この制
御指示量を前記駆動制御部40、操舵制御部41、刈刃
制御部42に出力する。これにより、前記駆動制御部4
0で油圧モータ13を駆動して芝刈作業車1の各機構部
を駆動するための油圧を発生させ、前記操舵制御部41
で、それぞれ、前輪操舵用油圧制御弁14、後輪操舵用
油圧制御弁15を介して、図示しない前輪操舵機構、後
輪操舵機構をそれぞれサーボ制御し、また、前記刈刃制
御部42で、刈刃制御用油圧制御弁16を介して刈刃機
構部2をサーボ制御する。
The vehicle control unit 39 converts the instruction from the traveling control unit 37 into a specific control instruction amount, and the control instruction amount is drive control unit 40, steering control unit 41, cutting blade control unit 42. Output to. Accordingly, the drive control unit 4
At 0, the hydraulic motor 13 is driven to generate hydraulic pressure for driving each mechanism section of the lawnmower working vehicle 1, and the steering control section 41 is operated.
Then, the front wheel steering mechanism and the rear wheel steering mechanism (not shown) are servo-controlled via the front wheel steering hydraulic control valve 14 and the rear wheel steering hydraulic control valve 15, respectively, and the cutting blade control section 42 The cutting blade mechanism 2 is servo-controlled via the cutting blade control hydraulic control valve 16.

【0021】図6は、前記自車輌位置検出部31の具体
的回路構成を示し、CPU50に、ワークデータを保持
するためのRAM51、作業対象となる特定の領域の周
辺に設置された標識の位置データやその他の制御用固定
データ、及び、制御用プログラムが格納されているRO
M52、各種のデータ、制御信号の入出力のためのI/
Oインターフェース53が、データバス54及びアドレ
スバス55を介して接続されたマイクロコンピュータを
中心として構成され、CCDカメラ8aで撮像した画像
を処理して三角測量による自己位置検出を行なう際に、
CCDカメラ8aの焦点及び絞りを制御し、標識が遠方
にある場合においても標識認識能力を拡大することによ
り、常に正確な自車輌位置検出を実現する。
FIG. 6 shows a concrete circuit configuration of the vehicle position detecting section 31. The CPU 50 has a RAM 51 for holding work data and the positions of markers installed around a specific area to be worked. RO that stores data and other fixed data for control, and control program
I / O for input / output of M52, various data and control signals
The O interface 53 is mainly composed of a microcomputer connected via a data bus 54 and an address bus 55, and when an image picked up by the CCD camera 8a is processed to perform self-position detection by triangulation,
By controlling the focus and aperture of the CCD camera 8a and expanding the sign recognition ability even when the sign is distant, accurate vehicle position detection is always realized.

【0022】すなわち、CPU50で後述する図1の撮
像制御ルーチン及び図3の自己位置検出ルーチンのプロ
グラムを時分割で実行し、I/Oインターフェース53
からCCDカメラ8aの焦点調整用モータ及び絞り調整
用モータに、それぞれ、焦点制御信号、絞り制御信号を
出力してレンズ焦点及び絞りを設定した後、I/Oイン
ターフェース53からモータ駆動回路56、ライト駆動
回路57へ制御信号を出力して照明用ライト8bを点灯
させるとともに回転駆動用モータ11により回転機構部
10を駆動して照明用ライト8b及びCCDカメラ8a
を回転させ、設定した時間間隔毎に電子シャッタ制御信
号をCCDカメラ8aに出力して全周の撮像を行なう。
That is, the CPU 50 executes the programs of the image pickup control routine of FIG. 1 and the self-position detection routine of FIG.
After outputting the focus control signal and the aperture control signal from the CCD camera 8a to the focus adjustment motor and the aperture adjustment motor, respectively, to set the lens focus and the aperture, the I / O interface 53 drives the motor drive circuit 56 and the light. A control signal is output to the drive circuit 57 to turn on the illumination light 8b, and the rotation drive motor 11 drives the rotation mechanism unit 10 to drive the illumination light 8b and the CCD camera 8a.
Is rotated and an electronic shutter control signal is output to the CCD camera 8a at every set time interval to capture an image of the entire circumference.

【0023】CCDカメラ8aで撮像した画像はNTS
C方式のビデオ信号としてアンプ58に送られ、増幅さ
れて同期回路59、AD変換器60にそれぞれ供給され
る。同期回路59では、ビデオ信号から同期信号を分離
してタイミング信号を生成し、AD変換器60及びアド
レス制御回路61に供給する。
The image taken by the CCD camera 8a is NTS
It is sent to the amplifier 58 as a C type video signal, amplified and supplied to the synchronizing circuit 59 and the AD converter 60, respectively. The synchronizing circuit 59 separates the synchronizing signal from the video signal to generate a timing signal and supplies it to the AD converter 60 and the address control circuit 61.

【0024】AD変換器60ではアンプ58からのビデ
オ信号を、タイミング信号に同期してデジタル画像デー
タに変換し、データバス62を介して切換回路64に出
力する。また、アドレス制御回路61では、タイミング
信号に同期してアドレスデータを生成し、アドレスバス
63を介して切換回路64に供給する。
The AD converter 60 converts the video signal from the amplifier 58 into digital image data in synchronization with the timing signal and outputs it to the switching circuit 64 via the data bus 62. Further, the address control circuit 61 generates address data in synchronization with the timing signal and supplies it to the switching circuit 64 via the address bus 63.

【0025】切換回路64は、CPU50側のデータバ
ス54及びアドレスバス55と、AD変換器60側のデ
ータバス62及びアドレスバス63とのいずれか一方を
選択的にビデオメモリ65に接続するものであり、アド
レス制御回路61から切換回路64にアドレスデータが
供給されている間は、AD変換器60側のデータバス6
2をビデオメモリ65に接続して画像データが書込まれ
るようにし、この間、CPU50によるビデオメモリ6
5へのアクセスを禁止する。
The switching circuit 64 selectively connects either one of the data bus 54 and address bus 55 on the CPU 50 side and the data bus 62 and address bus 63 on the AD converter 60 side to the video memory 65. Yes, while the address data is being supplied from the address control circuit 61 to the switching circuit 64, the data bus 6 on the AD converter 60 side is provided.
2 is connected to the video memory 65 so that the image data can be written.
Access to 5 is prohibited.

【0026】そして、CCDカメラ8aからのビデオ信
号の供給が停止し、CPU50のビデオメモリ65への
アクセスが可能になると、ビデオメモリ65から画像デ
ータが読出され、この画像データが処理されて作業領域
周辺の複数の標識が認識された後、I/Oインターフェ
ース53を介して読込んだ地磁気センサ3、車輪エンコ
ーダ4、回転角センサ12からの各信号に基づいて個々
の標識を識別し、三角測量により自車輌の位置を算出し
てI/Oインターフェース53から前記走行制御部37
に自車輌位置情報が出力される。
When the supply of the video signal from the CCD camera 8a is stopped and the video memory 65 of the CPU 50 can be accessed, the image data is read from the video memory 65, the image data is processed, and the work area is processed. After a plurality of surrounding signs are recognized, each sign is identified based on each signal from the geomagnetic sensor 3, the wheel encoder 4, and the rotation angle sensor 12 read via the I / O interface 53, and triangulation is performed. The position of the vehicle is calculated by the I / O interface 53 and the traveling control unit 37 is operated.
The vehicle position information is output to.

【0027】以下、図7に示すような作業領域に対し、
無人で草・芝刈作業を行なう場合について説明する。こ
の場合、芝刈作業車1は、作業開始に当たって、予め任
意の準備位置70から作業領域72の草・芝刈作業の開
始点74に有人運転により移動させられているものと
し、作業領域72における草・芝刈作業が図1及び図2
のフローチャートに示すプログラムに従って自律的に行
われる。そして、作業終了後には、作業終了点75から
待機位置78に再び有人運転により移動させられる。
Hereinafter, for the work area as shown in FIG.
Explain the case where unmanned grass and lawn mowing work is performed. In this case, the lawn mowing vehicle 1 is assumed to have been moved in advance by manned operation from an arbitrary preparation position 70 to the grass / lawn mowing start point 74 in the work area 72 before starting work. Lawn mowing work is shown in Figs. 1 and 2.
It is performed autonomously according to the program shown in the flow chart. Then, after the work is completed, the work is moved from the work end point 75 to the standby position 78 again by manned driving.

【0028】尚、図7において符号PA,PB,PC
は、作業領域72の周辺に予め設置した標識であり、本
実施例においては光反射型の標識であるが、自発光型の
標識でも良く、その場合には、撮像ユニット8内の照明
用ライト8bは不要となる。
In FIG. 7, reference numerals PA, PB, PC
Is a sign installed in advance around the work area 72 and is a light reflection type sign in the present embodiment, but it may be a self-luminous type sign. In that case, the illumination light in the imaging unit 8 is used. 8b is unnecessary.

【0029】図2は走行制御部37で実行される主制御
ルーチンであり、この主制御ルーチンでは、まず、ステ
ップS101で、後述する図1の撮像制御ルーチン及び図3
の自己位置検出ルーチンを自車輌位置検出部31で実行
させ、標識PA,PB,PCを認識して三角測量により
自己位置を計測すると、草・芝刈作業の開始点74に芝
刈作業車1が到達していることを確認し、ステップS102
で、刈刃制御用油圧制御弁16を開弁して刈刃機構部2
に油圧を供給し、刈刃を作動させて草・芝刈り作業を開
始する。
FIG. 2 shows a main control routine executed by the traveling control unit 37. In this main control routine, first in step S101, the image pickup control routine of FIG.
When the self-position detecting routine is executed by the self-vehicle position detecting unit 31, the signs PA, PB, and PC are recognized and the self-position is measured by triangulation, the lawn mowing vehicle 1 reaches the starting point 74 of the grass and lawn mowing work. Is confirmed, step S102
Then, the hydraulic control valve 16 for controlling the cutting blade is opened to cut the cutting blade mechanism 2
Hydraulic pressure is supplied to the blade to activate the cutting blade and start grass and lawn mowing work.

【0030】次に、ステップS103へ進み、芝刈作業が1
回目であるか否かを調べ、作業一回目の第1の行程(第
1列)であればステップS104に進み、また2回目以後の
第2列以後であればステップS109へ分岐する。
Next, the process proceeds to step S103, and the lawn mowing work is 1
It is checked whether or not it is the first time, and if the work is the first stroke (first column), the process proceeds to step S104, and if it is the second or later second column, the process branches to step S109.

【0031】ここで作業一回目であり、ステップS103か
らステップS104へ進むと、再び自車輌位置検出部31で
撮像制御ルーチン及び自己位置検出ルーチンを実行さ
せ、三角測量及び推測航法により自車輌の車輌位置及び
進行方向を検出した後、続くステップS105で作業データ
蓄積部38を参照し、作業領域72における1回目(第
1列)の終端点位置を目標位置として現在位置との誤差
量を求める。
This is the first operation, and when the process proceeds from step S103 to step S104, the vehicle position detecting section 31 again executes the image capturing control routine and the self position detecting routine, and the vehicle of the vehicle is subjected to triangulation and dead reckoning. After detecting the position and the traveling direction, in the subsequent step S105, the work data storage unit 38 is referred to, and the amount of error from the current position is obtained with the end point position of the first time (first row) in the work area 72 as the target position.

【0032】次にステップS106へ進むと、前記ステップ
S105にて求められた誤差量に応じて前後輪の各目標操舵
量を決定し、続くステップS107で、前輪操舵用油圧制御
弁14、後輪操舵用油圧制御弁15を介して前輪操舵機
構、後輪操舵機構をそれぞれ駆動し、目標舵角を得るよ
う制御する。
Next, when the process proceeds to step S106,
Each target steering amount of the front and rear wheels is determined according to the error amount obtained in S105, and in the subsequent step S107, the front wheel steering mechanism is operated via the front wheel steering hydraulic control valve 14 and the rear wheel steering hydraulic control valve 15. The rear wheel steering mechanism is driven to control the target steering angle.

【0033】その後、ステップS108で、芝刈作業車1が
1回目(第1列)の終端点位置に達したか否かを調べ、
終端点位置に達していないときには前述のステップS104
へ戻って草・芝刈作業を続行し、終端点に達したとき、
ステップS116へ進んで、全作業を終了したか否かを調べ
る。この場合、作業1回目であるため、前述のステップ
S103へ戻って、再び作業1回目か否かを調べ、作業2回
目以降になると、ステップS109へ分岐して刈跡境界に沿
った作業経路73の倣い走行を行なう。
Then, in step S108, it is checked whether or not the lawnmower work vehicle 1 has reached the end point position of the first time (first row),
When the end point position is not reached, the above-mentioned step S104
Return to and continue grass and lawn mowing work, and when the end point is reached,
In step S116, it is checked whether or not all the work has been completed. In this case, since it is the first work, the above steps
Returning to S103, it is checked again whether or not the work is the first time. When the work is the second time or later, the process branches to step S109, and the work route 73 along the cut boundary is followed.

【0034】すなわち、ステップS109で刈刃の幅分だけ
車体を横シフトさせて次作業位置へ移動すると、ステッ
プS110で刈跡境界検出センサ7によって前回作業による
刈跡境界を検出し、ステップS111で、この刈跡境界と車
輌位置とを比較して設定された芝刈りオーバラップ量を
実現するための誤差量を求める。
That is, in step S109, when the vehicle body is laterally shifted by the width of the cutting blade and moved to the next work position, the cut mark boundary detection sensor 7 detects the cut mark boundary by the previous work in step S110, and in step S111. , The amount of error for realizing the set lawn mowing overlap amount is calculated by comparing the cut mark boundary with the vehicle position.

【0035】続くステップS112では、前記ステップS111
で求めた誤差量に応じて前後輪の各目標操舵量を決定
し、ステップS113において、前輪操舵用油圧制御弁1
4、後輪操舵用油圧制御弁15を介して前輪操舵機構、
後輪操舵機構をそれぞれ駆動し、目標舵角を得るよう制
御する。
In the following step S112, the above step S111
Each target steering amount of the front and rear wheels is determined according to the error amount obtained in step S113, and in step S113, the front wheel steering hydraulic control valve 1
4, front wheel steering mechanism via the rear wheel steering hydraulic control valve 15,
The rear wheel steering mechanism is driven to control the target steering angle.

【0036】その後、ステップS114へ進み、自車輌位置
検出部31で撮像制御ルーチン及び自己位置検出ルーチ
ンを実行させて三角測量及び推測航法により自車輌の車
輌位置及び進行方向を検出すると、ステップS115で、芝
刈作業車1が2回目以後(第2列以後)の終端点位置に
達したか否かを調べる。
After that, the process proceeds to step S114, where the vehicle position detecting section 31 executes the imaging control routine and the self position detecting routine to detect the vehicle position and the traveling direction of the vehicle by triangulation and dead reckoning, and then in step S115. , It is checked whether the lawnmower 1 has reached the end point position after the second time (after the second row).

【0037】そして、終端点位置に達していないときに
は、ステップS115から前述のステップS110へ戻って刈跡
境界に沿った倣い走行を続け、2回目以後(第2列以
後)の終端点位置に達すると、ステップS115からステッ
プS116へ進んで、作業領域72の草・芝刈作業が終了し
たか否かを判断する。
When the end point position has not been reached, the process returns from step S115 to step S110 described above to continue the contour traveling along the cut boundary, and reaches the end point position after the second time (after the second row). Then, the process proceeds from step S115 to step S116, and it is determined whether or not the grass / lawn mowing work in the work area 72 is completed.

【0038】その結果、作業領域72の草・芝刈作業が
終了していなければステップS116からステップS103に戻
って作業を継続し、作業領域72の草・芝刈作業が終了
したとき、この主制御ルーチンによる草・芝刈作業を終
了して車輌を停止させる。
As a result, if the grass / lawn mowing work in the work area 72 is not finished, the process returns from step S116 to step S103 to continue the work, and when the grass / lawn mowing work in the work area 72 is finished, this main control routine Stop grass and lawn mowing work by and stop the vehicle.

【0039】次に、CCDカメラ8aの撮像制御処理及
び標識認識処理について説明する。これらの処理は、自
車輌位置検出部31のCPU50において時分割で実行
される撮像制御ルーチン及び自己位置検出ルーチンのマ
ルチタスクであり、CCDカメラ8aにより標識を含む
周辺の風景を撮像する際に、CCDカメラ8aの焦点及
び絞りが制御され、遠方にある標識に対しても検知範囲
が拡大される。
Next, the image pickup control processing and the sign recognition processing of the CCD camera 8a will be described. These processes are multitasks of the image pickup control routine and the self-position detection routine that are executed by the CPU 50 of the vehicle position detection unit 31 in a time-division manner, and when the CCD camera 8a images the surrounding scenery including the sign, The focus and diaphragm of the CCD camera 8a are controlled, and the detection range is expanded even for a distant sign.

【0040】まず、図3の自己位置検出ルーチンについ
て説明すると、ステップS201で、ライト駆動回路57を
介して照明用ライト8bを点灯させ、モータ駆動回路5
6を介してモータ11を駆動し、回転機構部10を介し
て撮像ユニット8(照明用ライト8b及びCCDカメラ
8a)を設定速度で回転させる。
First, the self-position detecting routine shown in FIG. 3 will be described. In step S201, the illumination light 8b is turned on via the light driving circuit 57 to turn on the motor driving circuit 5.
The motor 11 is driven via 6 and the image pickup unit 8 (illumination light 8b and CCD camera 8a) is rotated at a set speed via the rotation mechanism section 10.

【0041】次いで、ステップS202へ進むと、CCDカ
メラ8aの回転速度とCCDカメラ8aの横方向の視野
角とから死角のできない撮像時間間隔を求め、この撮像
時間間隔毎に、CCDカメラ8aの電子シャッタをトリ
ガして周囲の風景を全周に渡って撮像し、AD変換器6
0でデジタル信号に変換してビデオメモリ65に書込
む。
Next, in step S202, an imaging time interval at which a blind spot is not obtained is obtained from the rotational speed of the CCD camera 8a and the lateral viewing angle of the CCD camera 8a, and the electronic camera of the CCD camera 8a is determined for each imaging time interval. The shutter is triggered to capture the surrounding landscape over the entire circumference, and the AD converter 6
When it is 0, it is converted into a digital signal and written in the video memory 65.

【0042】そして、画像データのビデオメモリ65へ
の書込みが終了すると切換回路64によってCPU50
によるビデオメモリ65のアクセスが可能となるため、
ステップS203で、撮像画像データを読込み、読込んだ撮
像画像の輝度情報や色情報、あるいは形状等から標識に
対応する特徴量を求めて標識を認識し、後述する撮像制
御ルーチンに対する標識認識情報としてRAM51にス
トアするとともに、個々の標識PA,PB,PCを識別
する。
When the writing of the image data into the video memory 65 is completed, the switching circuit 64 causes the CPU 50 to
Since the video memory 65 can be accessed by
In step S203, the captured image data is read, the feature information corresponding to the marker is obtained from the brightness information and color information of the read captured image, or the shape or the like to recognize the marker, and as marker recognition information for an imaging control routine described later. The individual markers PA, PB, and PC are stored while being stored in the RAM 51.

【0043】すなわち、各標識PA,PB,PCを、例
えば再帰性反射板を所定の長さに渡って貼った光反射標
識として標識撮像部分の輝度を大きくし、画像を2値化
して標識を抽出した後、推測航法により推測される現在
位置と予め記憶してある標識との位置を比較することに
より、個々の標識を識別することができる。あるいは、
また、例えば各標識PA,PB,PCを異なる色の標識
とすることにより、撮像画像の色情報から標識の抽出及
び識別を行なうことができる。さらには、例えば各標識
PA,PB,PCの形状をそれぞれ異なるものとし、撮
像画像の輝度情報に基づいて抽出した形状が記憶してあ
る個々の標識の形状に一致するか否かを調べることによ
り、個々の標識を識別することができる。
That is, each of the markers PA, PB, and PC is used as a light-reflective marker in which, for example, a retroreflector is applied over a predetermined length, the brightness of the marker image pickup portion is increased, and the image is binarized to mark the marker. After the extraction, by comparing the position of the current position estimated by dead reckoning with the position of the previously stored sign, the individual signs can be identified. Alternatively,
Further, for example, by setting each of the markers PA, PB, and PC to have different colors, the markers can be extracted and identified from the color information of the captured image. Furthermore, for example, the shapes of the markers PA, PB, and PC are made different, and it is checked whether or not the shape extracted based on the brightness information of the captured image matches the shape of the stored individual markers. , Individual signs can be identified.

【0044】この場合、CCDカメラ8aから得られる
画像は水平方向及び垂直方向に画角を持っているため、
不整地やうねりのある作業領域での車輌の傾斜や車輌自
身の振動によって標識を見失うことがなく、確実に標識
を認識することができる。
In this case, since the image obtained from the CCD camera 8a has the angle of view in the horizontal and vertical directions,
It is possible to reliably recognize the sign without losing sight of the sign due to the inclination of the vehicle or the vibration of the vehicle itself in a work area with uneven terrain or undulations.

【0045】次に、ステップS2O4へ進み、認識した標識
の画像上の重心と、回転機構部10に取り付けれた回転
角センサ12からの回転角度信号によって得られる芝刈
作業車1に対する各画像撮像時のカメラ角度とから各標
識の方角を算出し、自車輌を中心として標識PAと標識
PBとによって形成される角度α、標識PB,PC間の
角度βを算出して予め記憶してある各標識PA,PB,
PCの位置から周知の三角測量法により現在の車輌位置
を算出すると、算出した自己位置データを、ステップS2
05で走行制御部37に送出してステップS202へ戻る。
Next, in step S2O4, the center of gravity on the recognized image of the sign and the image of each image of the lawn mowing vehicle 1 obtained by the rotation angle signal from the rotation angle sensor 12 attached to the rotation mechanism 10 are taken. The direction of each sign is calculated from the camera angle, and the angle α formed by the sign PA and the sign PB centering on the vehicle and the angle β between the signs PB and PC are calculated and stored in advance in the sign PA. , PB,
When the current vehicle position is calculated from the PC position by the well-known triangulation method, the calculated self-position data is calculated in step S2.
At 05, it is sent to the traveling control unit 37 and the process returns to step S202.

【0046】すなわち、図8に示すように、標識PAを
原点とするX,Y座標系において、予めROM52に記
憶してある各データに基づき、標識PA(座標原点)か
ら自車輌中心位置までの距離L、及び、標識PA(座標
原点)から自車輌中心を結ぶ線と標識PA,PB間を結
ぶ線とのなす角度θ1を以下の(1),(2)式で求め、自車
輌位置(X1、Y1)を(3),(4)式で求めることができ
る。 L =L1×sin(α+θ1)/sinα …(1) θ1=atn(−L2×sinα×sin(θB+α+β) /(L1×sinβ+L2×sinα×cos(θB+α+β)))…(2) L1;標識PA,PB間の距離 L2;標識PB,PC間の距離 θB;標識PA,PB間を結ぶ線と標識PB,PC間を
結ぶ線のなす角度 θA;標識PA,PBを結ぶ線のX軸に対する角度 X1=L×cos(θA−θ1) …(3) Y1=L×sin(θA−θ1) …(4)
That is, as shown in FIG. 8, in the X, Y coordinate system having the marker PA as the origin, the distance from the marker PA (coordinate origin) to the center position of the vehicle is based on each data stored in the ROM 52 in advance. The distance L and the angle θ1 formed by the line connecting the center of the vehicle from the marker PA (coordinate origin) and the line connecting the markers PA and PB are calculated by the following equations (1) and (2), and the vehicle position ( X1, Y1) can be calculated by the equations (3) and (4). L = L1 × sin (α + θ1) / sinα (1) θ1 = atn (-L2 × sinα × sin (θB + α + β) / (L1 × sinβ + L2 × sinα × cos (θB + α + β))) (2) L1; Label PA, Distance between PBs L2; Distance between signs PB and PC θB; Angle formed by line connecting signs PA and PB and line connecting signs PB and PC θA; Angle of line connecting signs PA and PB with respect to X axis X1 = L × cos (θA−θ1) (3) Y1 = L × sin (θA−θ1) (4)

【0047】一方、この自己位置検出ルーチンと時分割
して実行される図1の撮像制御ルーチンでは、まず、ス
テップS301で、CCDカメラ8aのカメラレンズ部のモ
ータを制御し、予め全ての標識に対して適切な値に設定
されたピント(焦点)・絞り位置に固定する。
On the other hand, in the image pickup control routine of FIG. 1 which is executed in a time-sharing manner with this self-position detection routine, first, in step S301, the motor of the camera lens portion of the CCD camera 8a is controlled to preliminarily display all the markers. On the other hand, fix the focus / aperture position set to an appropriate value.

【0048】次いで、前述の自己位置検出ルーチンによ
って撮像ユニット8が回転させられている状態で、ステ
ップS302において標識を撮像し、ステップS303で、前述
の自己位置検出ルーチンのステップS203でRAM51に
ストアした標識認識情報を読出し、撮像画面上での標識
の見掛け上の面積に関する情報すなわち撮像標識面積
と、この撮像標識面積における輝度(平均値)情報すな
わち撮像標識輝度とを得る。
Next, in the state where the image pickup unit 8 is rotated by the above-mentioned self-position detection routine, the sign is imaged in step S302 and stored in the RAM 51 in step S203 of the above-mentioned self-position detection routine in step S303. The sign recognition information is read to obtain information about the apparent area of the sign on the image pickup screen, that is, the image pickup sign area, and luminance (average value) information at the image pickup sign area, that is, the image pickup sign luminance.

【0049】次に、ステップS304へ進み、前記ステップ
S303で得た撮像標識面積と、安定した標識認識が可能な
よう最適な値に予め設定された標識面積基準値とを比較
し、ステップS305で、撮像標識面積と標識面積基準値が
等しいか否かを判断し、等しいときステップS308へジャ
ンプし、大きいときにはステップS306へ、小さいときに
はステップS307へと進む。
Next, the process proceeds to step S304, and the step
The imaged marker area obtained in S303 is compared with the marker area reference value set in advance to an optimum value for stable marker recognition, and in step S305, whether the imaged marker area and the marker area reference value are equal or not. If so, the process jumps to step S308, if larger, to step S306, and if smaller, to step S307.

【0050】撮像標識面積が標識面積基準値より大き
く、ステップS306へ進んだときには、標識に対してCC
Dカメラ8aの焦点が近距離側に合っており、ピントが
ぼけて標識が大きく見え過ぎる状態であるため、単位面
積当たりの輝度が低下して標識を誤認識する可能性が高
い。このため、ステップS306では、予め設定した制御量
でCCDカメラ8aの焦点調整用モータを動かすことに
より焦点を遠方向に移動し、単位面積当たりの輝度を増
加させてステップS308へ進む。
When the imaged sign area is larger than the sign area reference value and the process proceeds to step S306, CC is applied to the sign.
Since the focus of the D camera 8a is on the short distance side and the sign is out of focus and the sign looks too large, the brightness per unit area is low and the sign is likely to be erroneously recognized. Therefore, in step S306, the focus is moved in the far direction by moving the focus adjustment motor of the CCD camera 8a by a preset control amount, the brightness per unit area is increased, and the process proceeds to step S308.

【0051】また、撮像標識面積が標識面積基準値より
小さく、ステップS307へ進んだときには、遠方にある標
識に対してもCCDカメラ8aの焦点が合い、撮像画面
上で標識が小さくなり過ぎて見えにくい状態であるため
撮像画像から標識を抽出するための情報が不足し、標識
を見失うおそれがある。このため、ステップS307では、
予め設定した制御量でCCDカメラ8aの焦点調整用モ
ータを動かすことにより焦点を近方向に移動し、標識に
対して意図的にピントをぼけさせて大きく写るように
し、ステップS308へ進む。
When the image-pickup sign area is smaller than the sign-area reference value and the process proceeds to step S307, the CCD camera 8a focuses on a sign located far away, and the sign looks too small on the image-pickup screen. Since it is in a difficult state, there is a risk that the information for extracting the sign from the captured image is insufficient and the sign is lost. Therefore, in step S307,
By moving the focus adjustment motor of the CCD camera 8a with a preset control amount, the focus is moved in the near direction to intentionally defocus the mark so that a large image can be obtained, and the process proceeds to step S308.

【0052】ステップS308では、前記ステップS303で得
た撮像標識輝度と、安定した標識認識が可能なよう最適
な値に予め設定された標識輝度基準値とを比較し、ステ
ップS309で、撮像標識輝度が標識輝度基準値と等しいか
否かを判断する。すなわち、焦点を移動して撮像標識面
積を増減させると、その増減に応じて単位面積当たりの
輝度も増減するため、標識認識に適した明るさか否かを
判断するのである。
In step S308, the image pickup sign luminance obtained in step S303 is compared with the sign luminance reference value preset to an optimum value for stable sign recognition, and in step S309, the image pickup sign luminance is set. Is equal to the sign brightness reference value. That is, when the focus is moved to increase or decrease the area of the imaged sign, the brightness per unit area also increases or decreases according to the increase or decrease, and therefore it is determined whether or not the brightness is suitable for sign recognition.

【0053】そして、撮像標識輝度が標識輝度基準値と
等しいときには前述のステップS302へ戻って同様に処理
を繰返し、撮像標識輝度が標識輝度基準値より明るいと
きには、ステップS309からステップS310へ進み、予め設
定した制御量でCCDカメラ8aの絞り調整用モータを
動かすことにより絞りを絞り、前述のステップS302へ戻
る。
When the imaged marker brightness is equal to the marker brightness reference value, the process returns to step S302 and the same process is repeated. When the imaged marker brightness is brighter than the marker brightness reference value, the process proceeds from step S309 to step S310 in advance. The aperture is stopped by moving the aperture adjusting motor of the CCD camera 8a with the set control amount, and the process returns to step S302.

【0054】また、撮像標識輝度が標識輝度基準値より
暗いときには、ステップS309からステップS311へ進み、
予め設定された制御量でCCDカメラ8aの絞り調整用
モータを動かすことにより絞りを開け、前述のステップ
S302へ戻る。
If the image pickup sign luminance is darker than the sign luminance reference value, the process proceeds from step S309 to step S311.
The aperture is opened by moving the aperture adjustment motor of the CCD camera 8a with a preset control amount, and the above-mentioned steps are performed.
Return to S302.

【0055】これにより、芝刈作業車1に対して標識P
A,PB,PCの全てあるいは一部が、CCDカメラ8
aによって鮮明な画像が得られる焦点範囲を越えて遠方
に位置するような状況となっても、撮像画像上で標識を
認識するための情報を確保することができ、確実に標識
を認識することができるのである。
As a result, the marker P is attached to the lawnmower work vehicle 1.
All or part of A, PB, PC is CCD camera 8
Even in a situation in which a clear image is obtained by a and the subject is located far away from the focal range, information for recognizing the sign can be secured on the captured image, and the sign can be surely recognized. Can be done.

【0056】尚、前記ステップS306,S307において、焦
点調整用モータを撮像標識面積と標識面積基準値との差
分に応じた制御量で動かし、前記ステップS310,S311に
おいて、絞り調整用モータを撮像標識輝度と標識輝度基
準値との差分に応じた制御量で動かすようにしても良
い。
In steps S306 and S307, the focus adjustment motor is moved by a control amount according to the difference between the image-pickup marker area and the marker-area reference value, and in steps S310 and S311, the aperture-adjustment motor is changed to the image-pickup marker. You may make it move with the control amount according to the difference of brightness | luminance and a sign brightness | luminance reference value.

【0057】[0057]

【発明の効果】以上述べたように本発明によれば、撮像
画像上の標識の面積を予め設定した基準面積と比較し、
撮像画像上の標識の面積が基準面積となるよう撮像手段
の焦点を調整して遠方の標識が大きく写るようにするた
め、遠方の標識に対する検知範囲を拡大して自車輌と標
識との距離に影響されることなく常に正確に自己位置を
検出することができる等優れた効果が得られる。
As described above, according to the present invention, the area of a sign on a captured image is compared with a preset reference area,
In order to adjust the focus of the imaging means so that the area of the sign on the captured image becomes the reference area so that the distant sign can be seen large, the detection range for the distant sign is expanded and the distance between the vehicle and the sign is increased. An excellent effect is obtained such that the self-position can always be detected accurately without being affected.

【図面の簡単な説明】[Brief description of drawings]

【図1】撮像制御ルーチンのフローチャートFIG. 1 is a flowchart of an imaging control routine.

【図2】主制御ルーチンのフローチャートFIG. 2 is a flowchart of a main control routine.

【図3】自己位置検出ルーチンのフローチャートFIG. 3 is a flowchart of a self-position detection routine.

【図4】芝刈作業車の外観を示す概略説明図FIG. 4 is a schematic explanatory view showing the appearance of a lawnmower work vehicle.

【図5】制御系のブロック図FIG. 5 is a block diagram of a control system

【図6】自車輌位置検出部の回路構成図FIG. 6 is a circuit configuration diagram of a vehicle position detection unit.

【図7】走行経路及び作業領域を示す説明図FIG. 7 is an explanatory diagram showing a travel route and a work area.

【図8】三角測量による自己位置検出の説明図FIG. 8 is an explanatory diagram of self-position detection by triangulation.

【符号の説明】[Explanation of symbols]

1 芝刈作業車(自律走行作業車) 8a CCDカメラ(撮像手段) PA,PB,PC 標識 1 Lawn mowing work vehicle (autonomous traveling work vehicle) 8a CCD camera (imaging means) PA, PB, PC sign

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 特定の作業領域周辺に設置した複数の標
識を撮像し、撮像画像から標識を認識して三角測量によ
り自己位置を検出する自律走行作業車の自己位置検出方
法において、 前記撮像画像上の標識の面積を予め設定した基準面積と
比較し、前記撮像画像上の標識の面積が前記基準面積と
なるよう撮像手段(8a)の焦点を調整して標識検知範囲を
拡大することを特徴とする自律走行作業車の自己位置検
出方法。
1. A self-position detecting method for an autonomously traveling work vehicle, which picks up a plurality of signs installed around a specific work area, recognizes the signs from the picked-up image, and detects the self-position by triangulation. The area of the sign above is compared with a preset reference area, and the focus of the imaging means (8a) is adjusted so that the area of the sign on the captured image becomes the reference area, thereby expanding the sign detection range. A method for detecting the self-position of an autonomous vehicle.
JP30295193A 1993-12-02 1993-12-02 Self-position detection method for autonomous mobile work vehicles Expired - Fee Related JP3314109B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30295193A JP3314109B2 (en) 1993-12-02 1993-12-02 Self-position detection method for autonomous mobile work vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30295193A JP3314109B2 (en) 1993-12-02 1993-12-02 Self-position detection method for autonomous mobile work vehicles

Publications (2)

Publication Number Publication Date
JPH07160331A true JPH07160331A (en) 1995-06-23
JP3314109B2 JP3314109B2 (en) 2002-08-12

Family

ID=17915118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30295193A Expired - Fee Related JP3314109B2 (en) 1993-12-02 1993-12-02 Self-position detection method for autonomous mobile work vehicles

Country Status (1)

Country Link
JP (1) JP3314109B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2003102706A1 (en) * 2002-05-31 2005-09-29 富士通株式会社 Remote operation robot and robot self-position identification method
JP2008187935A (en) * 2007-02-02 2008-08-21 Matsushita Electric Ind Co Ltd Microorganism counter and chip for inspection
CN110888452A (en) * 2018-09-11 2020-03-17 杨扬 Obstacle avoidance method for autonomous flight of unmanned aerial vehicle power inspection

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2003102706A1 (en) * 2002-05-31 2005-09-29 富士通株式会社 Remote operation robot and robot self-position identification method
JP2008187935A (en) * 2007-02-02 2008-08-21 Matsushita Electric Ind Co Ltd Microorganism counter and chip for inspection
CN110888452A (en) * 2018-09-11 2020-03-17 杨扬 Obstacle avoidance method for autonomous flight of unmanned aerial vehicle power inspection
CN110888452B (en) * 2018-09-11 2023-03-17 杨扬 Obstacle avoidance method for autonomous flight of unmanned aerial vehicle power inspection

Also Published As

Publication number Publication date
JP3314109B2 (en) 2002-08-12

Similar Documents

Publication Publication Date Title
EP3187953B1 (en) Autonomous working machine such as autonomous lawn mower
KR101241651B1 (en) Image recognizing apparatus and method, and position determining apparatus, vehicle controlling apparatus and navigation apparatus using the image recognizing apparatus or method
US8089512B2 (en) Driving support device, driving support method and computer program
US9880560B2 (en) Vehicle auto-motion control system
CN100462835C (en) Camera unit and apparatus for monitoring vehicle periphery
EP1961613B1 (en) Driving support method and driving support device
CN107600067A (en) A kind of autonomous parking system and method based on more vision inertial navigation fusions
JP2010097360A (en) Autonomous mobile robot device, operation auxiliary device for moving object, method of controlling the autonomous mobile robot device and operation auxiliary method for the moving object
US20080143833A1 (en) Image Pickup Device and Image Pickup Method
JP7003224B2 (en) Autonomous traveling work machine
JP2012235712A (en) Automatic mower with mowing situation monitoring function
JP2005038407A (en) Apparatus of identifying outside world for vehicle
JP2002074339A (en) On-vehicle image pickup unit
JP4483305B2 (en) Vehicle periphery monitoring device
CN112537294B (en) Automatic parking control method and electronic equipment
US20220363250A1 (en) Vehicular driving assistance system with lateral motion control
KR102260975B1 (en) Apparatus and method for controlling automatic driving using 3d grid map
JP3722486B1 (en) Vehicle lane marking recognition device
JPH07270518A (en) Distance measuring instrument
JP4265931B2 (en) Leading vehicle detection device
CN108107897A (en) Real time sensor control method and device
JP2020187474A (en) Traveling lane recognition device, traveling lane recognition method and program
JP4005679B2 (en) Ambient environment recognition device for autonomous vehicles
JP4978799B2 (en) Straight-forward guidance system for moving vehicles
JP3314109B2 (en) Self-position detection method for autonomous mobile work vehicles

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees