JPH07152434A - Own position detecting method for autonomously traveling work wagon - Google Patents

Own position detecting method for autonomously traveling work wagon

Info

Publication number
JPH07152434A
JPH07152434A JP5302058A JP30205893A JPH07152434A JP H07152434 A JPH07152434 A JP H07152434A JP 5302058 A JP5302058 A JP 5302058A JP 30205893 A JP30205893 A JP 30205893A JP H07152434 A JPH07152434 A JP H07152434A
Authority
JP
Japan
Prior art keywords
light
picture
image
vehicle
sign
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5302058A
Other languages
Japanese (ja)
Inventor
Takayuki Sogawa
能之 十川
Takeshi Torii
毅 鳥居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Priority to JP5302058A priority Critical patent/JPH07152434A/en
Publication of JPH07152434A publication Critical patent/JPH07152434A/en
Pending legal-status Critical Current

Links

Landscapes

  • Guiding Agricultural Machines (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PURPOSE:To surely recognize a light reflecting mark even at an uneven ground or an area where there is undulation so that correct own position can be detected by recognizing the light reflecting mark by using a picture when light is projected from a projecting means and the picture when the light is not projected. CONSTITUTION:A stroboscope 8 and a CCD camera 9 are fitted coaxially to a rotating mechanism part 10 erected vertically at the front side of a work wagon 1. The stroboscope 8 and the CCD camera 9 are made to face the light reflecting mark 20, and the picture at the time of the non-light emission of the stroboscope and the picture at the time of the light emission of the stroboscope are image-picked up. The difference of luminance is determined for every corresponding picture element between these pictures, and a luminance difference picture is generated. Then, a binarized picture is generated by extracting the picture element exceeding a slice level set beforehand from the generated luminance difference picture. A picture element group to form a mass on this binarized picture is extracted, and the number of the picture elements to form this picture element group is calculated. Then, the picture element group in which the number of the picture elements is over a set value is extracted, and this picture element group is judged to be the mark 20.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、特定の作業領域周辺に
設置された複数の標識を認識して自己位置を検出し、草
刈、芝刈作業等における作業走行を行なう自律走行作業
車の自己位置検出方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention recognizes a plurality of signs installed around a specific work area to detect its own position, and performs self-positioning of an autonomous traveling work vehicle for carrying out work traveling in grass cutting, lawn mowing, etc. It relates to a detection method.

【0002】[0002]

【従来の技術】従来、無人で自律走行する自律走行車に
対しては、自律走行のための自己位置検出として、電線
を地下に埋設し、この電線が発する磁界を磁気センサで
検出する技術が提案されているが、ゴルフ場、河川敷堤
防、公園等の各種フィールドで草刈、芝刈等の作業を無
人で行なう自律走行作業車等のように、自律走行領域が
広大な場合、領域の地下全てに電線を埋設することは困
難であり、設置費用も大きなものとなる。
2. Description of the Related Art Conventionally, for an autonomous vehicle that is autonomously autonomously traveling, there is a technique in which an electric wire is buried underground and a magnetic sensor detects a magnetic field generated by the electric wire as self-position detection for autonomous traveling. Although it has been proposed, if the autonomous driving area is large, such as an autonomous vehicle that performs unmanned grass cutting, lawn cutting, etc. in various fields such as golf courses, river banks, parks, etc. It is difficult to embed the electric wire, and the installation cost becomes large.

【0003】このため、複数の標識を自律走行させる領
域の周辺に設置し、この標識を認識して自車輌位置を検
出する技術が開発されており、例えば、特開平3−13
5606号公報には、特定区域内に立設した複数の再帰
性反射ポール(光反射標識)に投光し、反射光を光セン
サで受光して隣合う反射ポールを臨む角度を検出し、検
出した角度と標識の既知の座標とから三点挟角法(三角
測量法)により自己位置を検出する技術が開示されてい
る。
For this reason, a technique has been developed in which a plurality of signs are installed in the vicinity of an autonomously traveling area and the position of the vehicle is detected by recognizing the signs.
In Japanese Patent No. 5606, a plurality of retroreflective poles (light reflective markers) standing upright in a specific area are projected, the reflected light is received by an optical sensor, and an angle facing adjacent reflective poles is detected and detected. There is disclosed a technique for detecting the self-position by the three-point angle method (triangulation method) from the angle thus obtained and the known coordinates of the sign.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、自律走
行作業車が自律走行する領域には不整地やうねりがある
場合が多く、このような領域内では、車輌が傾斜し、光
反射標識からの反射光を光センサで検出できないおそれ
がある。
However, there are many cases where an autonomously traveling work vehicle autonomously travels on an uneven terrain or swell. In such an area, the vehicle tilts and is reflected from a light reflecting sign. Light may not be detected by the optical sensor.

【0005】さらに、不整地やうねりがあるような領域
では、光反射標識から水平方向に反射光が反射されるよ
うに設置できないため、反射光が仰角、俯角を持ってし
まい、光センサによる標識の検出が困難となる。
Further, in an area with uneven terrain or swell, the light reflecting sign cannot be installed so that the reflected light is reflected in the horizontal direction, so that the reflected light has an elevation angle and a depression angle, and the sign by the optical sensor. Becomes difficult to detect.

【0006】本発明は上記事情に鑑みてなされたもの
で、不整地やうねりのある領域においても確実に光反射
標識を認識し、正確な自己位置検出を行なうことのでき
る自律走行作業車の自己位置検出方法を提供することを
目的としている。
The present invention has been made in view of the above circumstances, and the self-propelled vehicle is capable of accurately recognizing the light reflecting sign even in an uneven terrain or a swelling area and accurately detecting the self-position. It is intended to provide a position detection method.

【0007】[0007]

【課題を解決するための手段】第1の発明は、特定の作
業領域周辺に設置した複数の光反射標識を認識し、三角
測量により自己位置を検出する自律走行作業車の自己位
置検出方法において、前記自律走行作業車に、前記光反
射標識に投光するための投光手段と、前記光反射標識を
撮像するための撮像手段とを備え、前記光反射標識に対
し、前記投光手段から投光したときの画像と投光しない
ときの画像とを前記撮像手段で撮像して一対の画像を得
た後、前記一対の画像の対応する位置における特徴量を
求め、この特徴量から前記光反射標識を認識することを
特徴とする。
According to a first aspect of the present invention, there is provided a self-position detecting method for an autonomous traveling work vehicle, which recognizes a plurality of light reflecting signs installed around a specific work area and detects the self-position by triangulation. The autonomous mobile work vehicle includes a light projecting unit for projecting light onto the light reflective sign, and an image capturing unit for imaging the light reflective sign. After capturing the image when the light is projected and the image when the light is not projected by the image pickup means to obtain a pair of images, a feature amount at a corresponding position of the pair of images is obtained, and the light amount is calculated from the feature amount. Characterized by recognizing a reflective sign.

【0008】第2の発明は、第1の発明において、前記
一対の画像の対応する位置の画素毎に、設定レベルを越
えた輝度差を前記特徴量として求め、前記設定レベルを
越えた輝度差の画素を抽出して2値化画像を生成し、こ
の2値化画像における設定数以上の画素の集合を前記光
反射標識として認識することを特徴とする。
In a second aspect based on the first aspect, a brightness difference exceeding a set level is obtained as the characteristic amount for each pixel at corresponding positions of the pair of images, and the brightness difference exceeding the set level is obtained. Is extracted to generate a binarized image, and a set of pixels equal to or more than a set number in the binarized image is recognized as the light reflection sign.

【0009】[0009]

【作用】第1の発明では、投光手段から投光したときの
画像と投光しないときの画像とを撮像手段で撮像して一
対の画像を得、この一対の画像の対応する位置における
特徴量を求めて特定の作業領域周辺に設置した複数の光
反射標識を認識し、三角測量により自己位置を検出す
る。
According to the first aspect of the invention, a pair of images are obtained by picking up an image when the light is projected from the light projecting unit and an image when the light is not projected by the image sensing unit, and the feature at the corresponding position of the pair of images is obtained. A plurality of light-reflecting signs installed around a specific work area are recognized to find the quantity, and the self-position is detected by triangulation.

【0010】第2の発明では、第1の発明において、投
光手段から投光して撮像した画像と投光しないで撮像し
た画像との対応する位置の画素毎に、設定レベルを越え
た輝度差を特徴量として求め、設定レベルを越えた輝度
差の画素を抽出して2値化画像を生成する。そして、こ
の2値化画像における設定数以上の画素の集合を光反射
標識として認識する。
According to a second aspect of the present invention, in the first aspect of the present invention, the luminance exceeding the set level is set for each pixel at a position corresponding to the image projected by the light projecting means and the image captured without projecting the light. The difference is obtained as the feature amount, and the pixel having the brightness difference exceeding the set level is extracted to generate the binarized image. Then, a set of pixels equal to or more than the set number in this binarized image is recognized as a light reflection marker.

【0011】[0011]

【実施例】以下、図面を参照して本発明の実施例を説明
する。図面は本発明の一実施例に係わり、図1及び図2
は自己位置検出ルーチンのフローチャート、図3は主制
御ルーチンのフローチャート、図4は芝刈作業車の外観
を示す概略説明図、図5は芝刈作業車のCCDカメラに
よる標識撮像を示す説明図、図6は制御系のブロック
図、図7は自車輌位置検出部の回路構成図、図8は走行
経路及び作業領域を示す説明図、図9は三角測量による
自己位置検出の説明図である。
Embodiments of the present invention will be described below with reference to the drawings. 1 and 2 relate to an embodiment of the present invention.
6 is a flow chart of a self-position detection routine, FIG. 3 is a flow chart of a main control routine, FIG. 4 is a schematic explanatory view showing the appearance of a lawnmower vehicle, FIG. 5 is an explanatory view showing marker imaging by a CCD camera of the lawnmower vehicle, and FIG. Is a block diagram of a control system, FIG. 7 is a circuit configuration diagram of a vehicle position detection unit, FIG. 8 is an explanatory diagram showing a travel route and a work area, and FIG. 9 is an explanatory diagram of self-position detection by triangulation.

【0012】図4において、符号1は無人で自律走行が
可能な自律走行作業車を示し、本実施例においてはゴル
フ場等の草・芝刈り作業を行う芝刈作業車である。この
芝刈作業車1は、エンジン駆動で走行し、前後輪の操舵
角を独立して制御することができるようになっており、
車輌本体下部に、草・芝刈作業を行うためのモーア等の
刈刃機構部2を備えるとともに、走行履歴に基づいて現
在位置を測定するための推測航法用センサ、走行障害物
を検出するための障害物検出用センサ、草・芝刈作業領
域において刈跡境界に沿った倣い走行を行うための倣い
走行用センサ等が搭載されるとともに、草・芝刈作業領
域の周辺に立設された複数の光反射標識を撮像し、この
撮像画像から標識を認識して三角測量により自己位置を
検出するための投光手段及び撮像手段を備えている。
In FIG. 4, reference numeral 1 denotes an autonomous traveling work vehicle which is capable of autonomous driving by an unmanned vehicle. In this embodiment, it is a lawn mowing work vehicle for performing grass and lawn mowing work on a golf course or the like. This lawnmower vehicle 1 is driven by an engine, and the steering angles of the front and rear wheels can be independently controlled.
In the lower part of the vehicle body, a cutting blade mechanism 2 such as a mower for performing grass / lawn mowing work is provided, a dead reckoning sensor for measuring the current position based on the traveling history, and a traveling obstacle for detecting an obstacle. A sensor for obstacle detection, a sensor for profile travel for performing profile travel along the cutting boundary in the grass / lawn mowing work area, etc. are installed, and a plurality of lights installed upright around the grass / lawn mowing work area. It is provided with a light projecting means and an imaging means for imaging the reflective sign, recognizing the sign from the picked-up image, and detecting the self-position by triangulation.

【0013】前記推測航法用センサとしては、地磁気セ
ンサ3と車輪エンコーダ4とが前記芝刈作業車1に備え
られ、前記障害物検出用センサとしては、超音波センサ
あるいは光センサ等からなる無接触型センサ5a,5b
が前記芝刈作業車1の前後部に取り付けられるととも
に、マイクロスイッチ等を使用した接触型センサ6a,
6bが前記芝刈作業車1の前後端に取り付けられてい
る。
As the dead reckoning sensor, a geomagnetic sensor 3 and a wheel encoder 4 are provided in the lawnmower work vehicle 1, and the obstacle detecting sensor is a non-contact type including an ultrasonic sensor or an optical sensor. Sensors 5a, 5b
Are attached to the front and rear parts of the lawn mowing work vehicle 1, and a contact type sensor 6a using a micro switch or the like,
6b are attached to the front and rear ends of the lawnmower working vehicle 1.

【0014】また、倣い走行用センサとしては、例え
ば、草・芝丈に応じて上下するそり状の板と、このそり
状の板を支持する部材の回動角を検出するロータリエン
コーダ等を組合わせて既刈部と未刈部との刈跡境界を検
出する刈跡境界検出センサ7が前記芝刈作業車1の車輌
本体下部に備えられている。
As the copying traveling sensor, for example, a sled plate which moves up and down according to the length of grass and grass and a rotary encoder which detects a rotation angle of a member supporting the sled plate are combined. In addition, a cut mark boundary detection sensor 7 for detecting a cut mark boundary between the already cut portion and the uncut portion is provided at the lower portion of the vehicle body of the lawnmower work vehicle 1.

【0015】また、光反射標識を撮像するための投光手
段及び撮像手段としては、投光手段として例えばストロ
ボ8、撮像手段として例えば固体撮像素子(CCD)を
使用したCCDカメラ9が採用され、芝刈作業車1の前
方側に立設された回転機構部10に同一方向を指向した
状態で同軸的に取付けられている。そして、図5に示さ
れるように、前記ストロボ8及び前記CCDカメラ9
を、例えばコーナキューブ型光反射シート等のように光
が常に入射方向に反射される性質を持った再帰性反射板
を所定の長さに渡って貼った光反射標識20に向け、ス
トロボ非発光時の画像とストロボ発光時の画像とを撮像
するようになっている。
As the light projecting means and the image capturing means for capturing the image of the light reflecting sign, a strobe 8 is used as the light projecting means, and a CCD camera 9 using a solid-state image sensor (CCD) is used as the image capturing means. The lawn mowing work vehicle 1 is coaxially attached to a rotating mechanism portion 10 provided upright on the front side in the same direction. Then, as shown in FIG. 5, the strobe 8 and the CCD camera 9 are provided.
Toward a light reflection sign 20 having a retroreflector having a property of constantly reflecting light in the incident direction, such as a corner cube type light reflection sheet, for a predetermined length, and strobe non-light emission. A time image and an image at the time of strobe light emission are picked up.

【0016】また、図6に示すように、前記芝刈作業車
1には、複数のマイクロコンピュータを使用した制御装
置30が搭載されており、この制御装置30には、各セ
ンサ・アクチュエータ類の信号を処理する各検出部、す
なわち、自車輌位置検出部31、刈跡境界検出部35、
及び、障害物検出部36が備えられ、また、これらの各
検出部31,35,36からの信号に基づいて走行制御
を行なうための走行制御部37、この走行制御部37に
よって参照される作業データ・マップが格納されている
作業データ蓄積部38、前記走行制御部37からの指示
によって車輌制御を行う車輌制御部39が備えられると
ともに、この車輌制御部39からの出力に基づいて芝刈
作業車1の各機構部を駆動するため、駆動制御部40、
操舵制御部41、刈刃制御部42が備えられている。
Further, as shown in FIG. 6, the lawnmower working vehicle 1 is equipped with a control device 30 using a plurality of microcomputers, and the control device 30 receives signals from respective sensors and actuators. Each of the detection units for processing, that is, the vehicle position detection unit 31, the cut mark boundary detection unit 35,
Further, an obstacle detection unit 36 is provided, and a traveling control unit 37 for performing traveling control based on signals from these detection units 31, 35, 36, and work referred to by the traveling control unit 37. A work data storage unit 38 in which a data map is stored, a vehicle control unit 39 for performing vehicle control according to an instruction from the traveling control unit 37, and a lawnmower work vehicle based on an output from the vehicle control unit 39 are provided. 1 to drive each mechanism unit, the drive control unit 40,
A steering control unit 41 and a cutting blade control unit 42 are provided.

【0017】さらに、前記自車輌位置検出部31は、前
記車輪エンコーダ4によって検出される車速を積分して
走行距離を求め、この走行距離を前記地磁気センサ3に
より検出した走行方向の変化に対応させて累積すること
により、基準地点からの走行履歴を算出して自車輌の現
在位置を測定する推測航法位置検出部32と、前記スト
ロボ8、前記CCDカメラ9、及び、前記回転機構部1
0を駆動するためのステップモータ11に対し、標識撮
像のための各駆動信号を出力する標識撮像制御部33
と、前記CCDカメラ9からのビデオ信号を処理して複
数の標識を認識し、前記回転機構部10に取付けられた
回転角度センサ12からの回転角度信号、前記推測航法
位置検出部32からの測位データ、及び、予め記憶して
ある各標識の位置データを照らし合わせて個々の標識を
識別して予め記憶してある標識の位置データから三角測
量原理により自己位置を検出する三角測量位置検出部3
4とから構成されている。
Further, the vehicle position detecting section 31 integrates the vehicle speed detected by the wheel encoder 4 to obtain a traveling distance, and makes the traveling distance correspond to a change in traveling direction detected by the geomagnetic sensor 3. The dead reckoning position detection unit 32 that calculates the traveling history from the reference point and measures the current position of the vehicle by accumulating the accumulated data, the strobe 8, the CCD camera 9, and the rotation mechanism unit 1.
A sign imaging control unit 33 that outputs each drive signal for sign imaging to the step motor 11 for driving 0.
And a video signal from the CCD camera 9 is processed to recognize a plurality of signs, and a rotation angle signal from a rotation angle sensor 12 attached to the rotation mechanism section 10 and positioning from the dead reckoning position detection section 32. A triangulation position detection unit 3 that compares the data and the position data of each sign that has been stored in advance to identify each sign and detects the self-position based on the triangulation principle from the position data of the sign that is stored in advance.
4 and.

【0018】一方、前記刈跡境界検出部35は、刈跡境
界検出センサ7からの草・芝丈に応じた信号を処理して
草・芝の境界位置を検出する。前記刈跡境界検出センサ
7が、前述したように、草・芝丈に応じて上下するそり
状の板と、このそり状の板を支持する部材の回動角を検
出するロータリエンコーダ等から構成される場合、草・
芝丈に応じたそり状の板の上下の変位が回動角に変換さ
れてロータリエンコーダからの検出信号が入力される
と、前記刈跡境界検出部35では、この検出信号から草
・芝刈作業済みの領域と未作業領域とを識別して刈跡境
界を検出し、その位置データを前記走行制御部37に出
力する。
On the other hand, the cut boundary detection unit 35 processes the signal from the cut boundary detection sensor 7 according to the grass / turf height to detect the grass / turf boundary position. As described above, the cut boundary detecting sensor 7 is composed of a sled-shaped plate that moves up and down according to the length of grass / turf, and a rotary encoder that detects a rotation angle of a member that supports the sled-shaped plate. If so, grass
When the vertical displacement of the sled-shaped plate corresponding to the lawn height is converted into a rotation angle and a detection signal is input from the rotary encoder, the cut boundary detection unit 35 uses the detection signal to detect grass and lawn mowing work. The cut area boundary is detected by distinguishing the completed area and the unworked area, and the position data is output to the traveling control unit 37.

【0019】また、前記障害物検出部36は、無接触型
センサ5a,5b,接触型センサ6a,6bによって予
測できない障害物を検出し、検出信号を前記走行制御部
37に出力する。
Further, the obstacle detecting section 36 detects an unpredictable obstacle by the non-contact type sensors 5a, 5b and the contact type sensors 6a, 6b, and outputs a detection signal to the traveling control section 37.

【0020】前記走行制御部37では、前記推測航法位
置検出部32、前記三角測量位置検出部34、前記刈跡
境界検出部35、前記障害物検出部36からの情報に基
づいて、作業データ蓄積部38のマップ(作業内容及び
草・芝刈り作業を行う作業領域の地形データ等の走行用
地図)を参照して自己の現在位置と目標位置との誤差量
を算出し、この誤差量分を補正すべく走行経路指示や車
輌制御指示を決定し、前記車輌制御部39に出力する。
The traveling control unit 37 stores work data based on the information from the dead reckoning position detecting unit 32, the triangulation position detecting unit 34, the cut mark boundary detecting unit 35, and the obstacle detecting unit 36. The amount of error between the current position of the user and the target position is calculated by referring to the map of the section 38 (the work content and the map for traveling such as the terrain data of the work area where grass and lawn mowing work are performed), and this error amount is calculated. A travel route instruction and a vehicle control instruction are determined to be corrected and output to the vehicle control unit 39.

【0021】前記車輌制御部39では、前記走行制御部
37からの指示を具体的な制御指示量に変換し、この制
御指示量を前記駆動制御部40、操舵制御部41、刈刃
制御部42に出力する。これにより、前記駆動制御部4
0で油圧モータ13を駆動して芝刈作業車1の各機構部
を駆動するための油圧を発生させ、前記操舵制御部41
で、それぞれ、前輪操舵用油圧制御弁14、後輪操舵用
油圧制御弁15を介して、図示しない前輪操舵機構、後
輪操舵機構をそれぞれサーボ制御し、また、前記刈刃制
御部42で、刈刃制御用油圧制御弁16を介して刈刃機
構部2をサーボ制御する。
In the vehicle control unit 39, the instruction from the traveling control unit 37 is converted into a specific control instruction amount, and this control instruction amount is drive control unit 40, steering control unit 41, cutting blade control unit 42. Output to. Accordingly, the drive control unit 4
At 0, the hydraulic motor 13 is driven to generate hydraulic pressure for driving each mechanism section of the lawnmower working vehicle 1, and the steering control section 41 is operated.
Then, the front wheel steering mechanism and the rear wheel steering mechanism (not shown) are servo-controlled via the front wheel steering hydraulic control valve 14 and the rear wheel steering hydraulic control valve 15, respectively, and the cutting blade control section 42 The cutting blade mechanism 2 is servo-controlled via the cutting blade control hydraulic control valve 16.

【0022】図7は、前記自車輌位置検出部31の具体
的回路構成を示し、CPU50に、ワークデータを保持
するためのRAM51、作業対象となる特定の領域の周
辺に設置された光反射標識の位置データやその他の制御
用固定データ、及び、制御用プログラムが格納されてい
るROM52、各種のデータ、制御信号の入出力のため
のI/Oインターフェース53が、データバス54及び
アドレスバス55を介して接続されたマイクロコンピュ
ータを中心として構成され、ストロボ8及びCCDカメ
ラ9による撮像を制御するとともにビデオメモリ65に
格納された撮像画像を処理し、標識認識・三角測量によ
る自車輌位置検出を行なうようになっている。
FIG. 7 shows a concrete circuit configuration of the vehicle position detecting section 31. The CPU 50 has a RAM 51 for holding work data, and a light reflection marker installed around a specific area to be worked. Position data and other fixed data for control, and a ROM 52 in which a control program is stored, an I / O interface 53 for inputting / outputting various data and control signals, a data bus 54 and an address bus 55. A microcomputer mainly connected via the electronic flash controls the imaging by the strobe 8 and the CCD camera 9 and processes the captured image stored in the video memory 65 to detect the vehicle position by sign recognition and triangulation. It is like this.

【0023】すなわち、CPU50で後述する図1及び
図2の自己位置検出ルーチンのプログラムを実行し、I
/Oインターフェース53からステップモータ駆動回路
56、ストロボ駆動回路57へ制御信号を出力して回転
機構部10に同軸的に取付けられたストロボ8及びCC
Dカメラ9を所定の方向に向けた後、電子シャッタ制御
信号をCCDカメラ9に出力し、ストロボ点灯時の画像
とストロボ非点灯時の画像とを撮像する。
That is, the CPU 50 executes the program of the self-position detecting routine shown in FIGS.
The strobe 8 and the CC coaxially attached to the rotation mechanism unit 10 by outputting a control signal from the / O interface 53 to the step motor drive circuit 56 and the strobe drive circuit 57.
After pointing the D camera 9 in a predetermined direction, an electronic shutter control signal is output to the CCD camera 9 to capture an image when the strobe is on and an image when the strobe is not lit.

【0024】CCDカメラ9からのNTSC方式のビデ
オ信号はアンプ58で増幅され、同期回路59、AD変
換器60にそれぞれ供給される。同期回路59では、ビ
デオ信号から同期信号を分離してタイミング信号を生成
し、AD変換器60及びアドレス制御回路61に供給す
る。
An NTSC video signal from the CCD camera 9 is amplified by an amplifier 58 and supplied to a synchronizing circuit 59 and an AD converter 60, respectively. The synchronizing circuit 59 separates the synchronizing signal from the video signal to generate a timing signal and supplies it to the AD converter 60 and the address control circuit 61.

【0025】AD変換器60ではアンプ58からのビデ
オ信号を、タイミング信号に同期してデジタル画像デー
タに変換し、データバス62を介して切換回路64に出
力する。また、アドレス制御回路61では、タイミング
信号に同期してアドレスデータを生成し、アドレスバス
63を介して切換回路64に供給する。
The AD converter 60 converts the video signal from the amplifier 58 into digital image data in synchronization with the timing signal and outputs it to the switching circuit 64 via the data bus 62. Further, the address control circuit 61 generates address data in synchronization with the timing signal and supplies it to the switching circuit 64 via the address bus 63.

【0026】切換回路64は、CPU50側のデータバ
ス54及びアドレスバス55と、AD変換器60側のデ
ータバス62及びアドレスバス63とのいずれか一方を
選択的にビデオメモリ65に接続するものであり、アド
レス制御回路61から切換回路64にアドレスデータが
供給されている間は、AD変換器60側のデータバス6
2をビデオメモリ65に接続して画像データが書込まれ
るようにし、この間、CPU50によるビデオメモリ6
5へのアクセスを禁止する。
The switching circuit 64 selectively connects either one of the data bus 54 and address bus 55 on the CPU 50 side and the data bus 62 and address bus 63 on the AD converter 60 side to the video memory 65. Yes, while the address data is being supplied from the address control circuit 61 to the switching circuit 64, the data bus 6 on the AD converter 60 side is provided.
2 is connected to the video memory 65 so that the image data can be written.
Access to 5 is prohibited.

【0027】そして、CCDカメラ9からのビデオ信号
の供給が停止し、CPU50のビデオメモリ65へのア
クセスが可能になると、ビデオメモリ65から画像デー
タ(ストロボ点灯時の画像とストロボ非点灯時の画像)
が読出され、この画像データが処理されて作業領域周辺
の複数の標識が認識された後、I/Oインターフェース
53を介して読込んだ地磁気センサ3、車輪エンコーダ
4、回転角度センサ12からの各信号に基づいて個々の
標識を識別し、三角測量により自車輌の位置を算出して
I/Oインターフェース53から前記走行制御部37に
自車輌位置情報が出力される。
When the supply of the video signal from the CCD camera 9 is stopped and the video memory 65 of the CPU 50 can be accessed, the image data (the image when the strobe is lit and the image when the strobe is not lit) is output from the video memory 65. )
Is read out, and after this image data is processed to recognize a plurality of markers around the work area, each of the geomagnetic sensor 3, the wheel encoder 4, and the rotation angle sensor 12 read via the I / O interface 53. Each sign is identified based on the signal, the position of the vehicle is calculated by triangulation, and the vehicle position information is output from the I / O interface 53 to the traveling control unit 37.

【0028】以下、図8に示すような作業領域に対し、
無人で草・芝刈作業を行なう場合について説明する。こ
の場合、芝刈作業車1は、作業開始に当たって、予め任
意の準備位置70から作業領域72の草・芝刈作業の開
始点74に有人運転により移動させられているものと
し、作業領域72における草・芝刈作業が図1〜図3の
フローチャートに示すプログラムに従って自律的に行わ
れる。そして、作業終了後、作業終了点75から待機位
置78に再び有人運転により移動させられる。
Below, with respect to the work area as shown in FIG.
Explain the case where unmanned grass and lawn mowing work is performed. In this case, the lawn mowing vehicle 1 is assumed to have been moved in advance by manned operation from an arbitrary preparation position 70 to the grass / lawn mowing start point 74 in the work area 72 before starting work. The lawn mowing work is autonomously performed according to the programs shown in the flowcharts of FIGS. After the work is completed, the work is moved from the work end point 75 to the standby position 78 again by manned driving.

【0029】尚、図8において符号PA,PB,PC
は、作業領域72の周辺に予め設置した光反射標識で、
前述した光反射標識20と同様のものであり、以下、単
に標識PA,PB,PCと称する。
In FIG. 8, reference numerals PA, PB, PC
Is a light-reflective sign previously installed around the work area 72,
It is similar to the light reflection sign 20 described above, and will be simply referred to as signs PA, PB, and PC hereinafter.

【0030】まず、図3に示す主制御ルーチンでは、ス
テップS101で、後述する図1及び図2の自己位置検出ル
ーチンを実行し、標識PA,PB,PCを認識して三角
測量により自己位置を計測し、草・芝刈作業の開始点7
4に芝刈作業車1が到達していることを確認すると、ス
テップS102で、刈刃制御用油圧制御弁16を開弁して刈
刃機構部2に油圧を供給し、刈刃を作動させて草・芝刈
り作業を開始する。
First, in the main control routine shown in FIG. 3, in step S101, a self-position detecting routine shown in FIGS. 1 and 2 which will be described later is executed to recognize the marks PA, PB and PC and to detect the self-position by triangulation. Measure and start the grass / lawn mowing work 7
When it is confirmed that the lawn mowing work vehicle 1 has reached step 4, in step S102, the cutting blade control hydraulic control valve 16 is opened to supply hydraulic pressure to the cutting blade mechanism section 2 to operate the cutting blade. Start grass and lawn mowing work.

【0031】次に、ステップS103へ進み、芝刈作業が1
回目であるか否かを調べ、作業一回目の第1の行程(第
1列)であればステップS104に進み、また2回目以後の
第2列以後であればステップS109へ分岐する。
Next, in step S103, the lawn mowing work is performed 1
It is checked whether or not it is the first time, and if the work is the first stroke (first column), the process proceeds to step S104, and if it is the second or later second column, the process branches to step S109.

【0032】ここで作業一回目であり、ステップS103か
らステップS104へ進むと、再び自己位置検出ルーチンを
実行し、三角測量及び推測航法により自車輌の車輌位置
及び進行方向を検出した後、続くステップS105で作業デ
ータ蓄積部38を参照し、作業領域72における1回目
(第1列)の終端点位置を目標位置として現在位置との
誤差量を求める。
This is the first operation, and when the process proceeds from step S103 to step S104, the self-position detecting routine is executed again, and after detecting the vehicle position and traveling direction of the own vehicle by triangulation and dead reckoning, the following steps are performed. In S105, the work data storage unit 38 is referred to, and the amount of error from the current position is obtained with the end point position of the first time (first column) in the work area 72 as the target position.

【0033】次にステップS106へ進むと、前記ステップ
S105にて求められた誤差量に応じて前後輪の各目標操舵
量を決定し、続くステップS107で、前輪操舵用油圧制御
弁14、後輪操舵用油圧制御弁15を介して前輪操舵機
構、後輪操舵機構をそれぞれ駆動し、目標舵角を得るよ
う制御する。
Next, when the process proceeds to step S106,
Each target steering amount of the front and rear wheels is determined according to the error amount obtained in S105, and in the subsequent step S107, the front wheel steering mechanism is operated via the front wheel steering hydraulic control valve 14 and the rear wheel steering hydraulic control valve 15. The rear wheel steering mechanism is driven to control the target steering angle.

【0034】その後、ステップS108で、芝刈作業車1が
1回目(第1列)の終端点位置に達したか否かを調べ、
終端点位置に達していないときには前述のステップS104
へ戻って草・芝刈作業を続行し、終端点に達したとき、
ステップS116へ進んで、全作業を終了したか否かを調べ
る。この場合、作業1回目であるため、前述のステップ
S103へ戻って、再び作業業1回目か否かを調べ、作業2
回目以降になると、ステップS109へ分岐して刈跡境界に
沿った作業経路73の倣い走行を行なう。
Then, in step S108, it is checked whether or not the lawnmower work vehicle 1 has reached the end point position of the first time (first row),
When the end point position is not reached, the above-mentioned step S104
Return to and continue grass and lawn mowing work, and when the end point is reached,
In step S116, it is checked whether or not all the work has been completed. In this case, since it is the first work, the above steps
Return to S103, check again whether it is the first work operation, work 2
After the first time, the process branches to step S109 to follow the working path 73 along the cut boundary.

【0035】すなわち、ステップS109で刈刃の幅分だけ
車体を横シフトさせて次作業位置へ移動すると、ステッ
プS110で刈跡境界検出センサ7によって前回作業による
刈跡境界を検出し、ステップS111で、この刈跡境界と車
輌位置とを比較して設定された芝刈りオーバラップ量を
実現するための誤差量を求める。
That is, in step S109, when the vehicle body is laterally shifted by the width of the cutting blade and moved to the next work position, the cut mark boundary detection sensor 7 detects the cut mark boundary of the previous work in step S110, and in step S111. , The amount of error for realizing the set lawn mowing overlap amount is calculated by comparing the cut mark boundary with the vehicle position.

【0036】続くステップS112では、前記ステップS111
で求めた誤差量に応じて前後輪の各目標操舵量を決定
し、ステップS113において、前輪操舵用油圧制御弁1
4、後輪操舵用油圧制御弁15を介して前輪操舵機構、
後輪操舵機構をそれぞれ駆動し、目標舵角を得るよう制
御する。
In the following step S112, the above step S111
Each target steering amount of the front and rear wheels is determined according to the error amount obtained in step S113, and in step S113, the front wheel steering hydraulic control valve 1
4, front wheel steering mechanism via the rear wheel steering hydraulic control valve 15,
The rear wheel steering mechanism is driven to control the target steering angle.

【0037】その後、ステップS114で、後述する自己位
置検出ルーチンを実行して三角測量及び推測航法により
自車輌の車輌位置及び進行方向を検出し、ステップS115
で、芝刈作業車1が2回目以後(第2列以後)の終端点
位置に達したか否かを調べ、終端点位置に達していない
ときには、前述のステップS110へ戻って刈跡境界に沿っ
た倣い走行を続け、2回目以後(第2列以後)の終端点
位置に達すると、ステップS115からステップS116へ進
み、作業領域72の草・芝刈作業が終了したか否かを判
断する。
Then, in step S114, a self-position detecting routine, which will be described later, is executed to detect the vehicle position and traveling direction of the own vehicle by triangulation and dead reckoning.
Then, it is checked whether or not the lawn mowing vehicle 1 has reached the end point position after the second time (after the second row), and if it has not reached the end point position, the process returns to step S110 described above and follows the cut boundary. When the end point position of the second time or later (after the second row) is reached, the process proceeds from step S115 to step S116, and it is determined whether or not the grass / lawn mowing work in the work area 72 is completed.

【0038】そして、作業領域72の草・芝刈作業が終
了していなければステップS116からステップS103に戻っ
て作業を継続し、作業領域72の草・芝刈作業が終了し
たとき、この主制御ルーチンによる草・芝刈作業を終了
して車輌を停止させる。
If the grass / lawn mowing work in the work area 72 is not completed, the process returns from step S116 to step S103 to continue the work, and when the grass / lawn mowing work in the work area 72 is completed, this main control routine is executed. Stop grass and lawn mowing work and stop the vehicle.

【0039】次に、図1及び図2の自己位置検出ルーチ
ンによる標識認識・三角測量による自己位置検出につい
て説明する。
Next, self-position detection by sign recognition / triangulation by the self-position detection routine of FIGS. 1 and 2 will be described.

【0040】この自己位置検出ルーチンでは、まず、ス
テップS201で、ステップモータ駆動回路56を介してス
テップモータ11を駆動し、回転機構部10を設定角度
まで回転させてストロボ8及びCCDカメラ9を設定方
向に向ける。
In this self-position detection routine, first, in step S201, the step motor 11 is driven through the step motor drive circuit 56 to rotate the rotating mechanism 10 to a set angle to set the strobe 8 and the CCD camera 9. Turn in the direction.

【0041】次いで、ステップS202へ進み、ストロボ駆
動回路57を介してストロボ8を作動させると、ステッ
プS203で、ストロボ8の発光と同期してCCDカメラ9
の電子シャッタをトリガしてストロボ点灯時の画像を撮
像し、ステップS204で、このストロボ点灯時の画像を入
力する。すなわち、AD変換器60でCCDカメラ9か
らのアナログビデオ信号を、例えば約8MHzのサンプ
ル速度で同期回路59からのタイミング信号に同期して
デジタル信号に変換し、例えば1フレーム512画素×
512画素の画像データとしてビデオメモリ65に書込
む。
Next, in step S202, the strobe 8 is operated via the strobe drive circuit 57. In step S203, the CCD camera 9 is synchronized with the light emission of the strobe 8.
The electronic shutter is triggered to capture an image when the strobe is lit, and in step S204, the image when the strobe is lit is input. That is, the AD converter 60 converts the analog video signal from the CCD camera 9 into a digital signal in synchronization with the timing signal from the synchronizing circuit 59 at a sample rate of, for example, about 8 MHz, and for example, 512 pixels × 1 frame.
It is written in the video memory 65 as image data of 512 pixels.

【0042】その後、ステップS205へ進むと、ストロボ
8の駆動を停止し、ステップS206で、CCDカメラ9の
電子シャッタをトリガしてストロボ非点灯時の画像を撮
像すると、このストロボ非点灯時の画像を、ステップS2
07で、同様にビデオメモリ65に書込み、ステップS208
へ進む。
Thereafter, when the operation proceeds to step S205, the driving of the strobe 8 is stopped, and in step S206, the electronic shutter of the CCD camera 9 is triggered to pick up an image when the strobe is not lit. , Step S2
In step 07, the same is written in the video memory 65 in step S208.
Go to.

【0043】ステップS208では、ストロボ点灯時及び非
点灯時の2枚の画像のビデオメモリ65への書込みが終
了すると切換回路64によってCPU50によるビデオ
メモリ65のアクセスが可能となるため、ストロボ点灯
時の画像データ及びストロボ非点灯時の画像データを読
込み、これらの画像間の対応する画素毎に輝度の差分を
求めて輝度差画像を生成する。
In step S208, when the writing of the two images to the video memory 65 with and without the strobe lighting is completed, the switching circuit 64 enables the CPU 50 to access the video memory 65. The image data and the image data when the strobe is not lit are read, the difference in brightness is obtained for each corresponding pixel between these images, and a brightness difference image is generated.

【0044】次に、ステップS209へ進み、予め設定した
スライスレベルを越えている画素を前記ステップS208で
生成した輝度差画像から抽出して2値化画像を生成す
る。そして、ステップS210で、この2値化画像上で塊と
なっている画素群を抽出し、この画素群を形成する画素
の個数を計算すると、ステップS211で、画素の個数が設
定値以上の画素群を抽出し、この画素群を標識と判断す
る。
Next, in step S209, pixels exceeding the preset slice level are extracted from the luminance difference image generated in step S208 to generate a binarized image. Then, in step S210, a pixel group that is a block on the binarized image is extracted, and the number of pixels forming this pixel group is calculated. In step S211, the number of pixels is equal to or greater than the set value. A group is extracted, and this pixel group is determined as a marker.

【0045】すなわち、標識PA,PB,PCのいずれ
かがCCDカメラ9の画角内にあれば、ストロボ点灯時
の画像とストロボ非点灯時の画像とで標識が写っている
画素に大きな輝度差が生じ、この輝度差を取出した2値
化画像上では、標識は設定スライスレベルを越える画素
の塊となっている。従って、この画素の塊を形成する個
数が設定値以上であれば、標識と判断することができる
のである。
That is, if any of the markers PA, PB, and PC is within the angle of view of the CCD camera 9, there is a large difference in brightness between the pixels with the marker in the image when the strobe is lit and the image when the strobe is not lit. Occurs, and on the binarized image in which this brightness difference is extracted, the marker is a cluster of pixels exceeding the set slice level. Therefore, if the number of pixels forming the cluster of pixels is equal to or larger than the set value, it can be determined as a marker.

【0046】次いで、ステップS212へ進み、画素群の画
像上の重心(X0,Y0)を算出すると、ステップS213
で、画像上の重心のX軸位置X0と、回転機構部10に
取り付けれた回転角度センサ12からの回転角度信号に
よって得られる芝刈作業車1に対するカメラ角度θとか
ら標識の方角を算出する。
Next, in step S212, the center of gravity (X0, Y0) of the pixel group on the image is calculated.
Then, the direction of the sign is calculated from the X-axis position X0 of the center of gravity on the image and the camera angle θ with respect to the lawn mower 1 obtained from the rotation angle signal from the rotation angle sensor 12 attached to the rotation mechanism section 10.

【0047】この場合、CCDカメラ9から得られる画
像は、水平方向及び垂直方向に画角を持っているため、
作業領域に不整地やうねりがあり、車輌が傾斜した場
合、あるいは標識PA,PB,PCが傾いて設置されて
おり、標識からの反射光が仰角、俯角を持っている場合
においても、確実に標識を認識できる。さらに、ストロ
ボ8から標識PA,PB,PCに光を投光した時の画像
と投光しない時の画像とをCCDカメラ9で撮像するた
め、昼夜を問わず標識認識が可能となる。
In this case, the image obtained from the CCD camera 9 has an angle of view in the horizontal and vertical directions.
Even if the work area has uneven terrain or swell and the vehicle is tilted, or the signs PA, PB, PC are installed tilted and the reflected light from the sign has an elevation angle and a depression angle, Can recognize the sign. Further, since the CCD camera 9 captures an image when light is projected from the strobe 8 to the markers PA, PB, and PC, and an image when light is not projected, the marker can be recognized regardless of day or night.

【0048】その後、ステップS214で、1回転分(36
0度)の処理が終了したか否かを判断し、1回転分の処
理が終了していなければ、ステップS201へ戻ってストロ
ボ8及びCCDカメラ9を設定した角度だけさらに回転
させて同様の処理を行ない、1回転分の処理が終了して
全ての標識PA,PB,PCを認識すると、ステップS2
15へ進む。
Then, in step S214, one rotation (36
It is judged whether the processing of 0 degree) is completed, and if the processing for one rotation is not completed, the procedure returns to step S201 and the strobe 8 and the CCD camera 9 are further rotated by the set angle and the same processing is performed. When all the markers PA, PB and PC are recognized after the processing for one rotation is completed, step S2
Proceed to 15.

【0049】ステップS215では、前回までに計算した車
輌の位置及び方向から、推測航法により現在の車輌位置
及び方向を推測し、ステップS216で、検出した標識と記
憶してある標識との位置を比較して検出した標識がどの
標識に対応するかの判断を行ない、自車輌を中心として
標識PAと標識PBとによって形成される角度α、標識
PB,PC間の角度βを検出してステップS217へ進む。
In step S215, the current vehicle position and direction is estimated by dead reckoning from the position and direction of the vehicle calculated up to the previous time, and in step S216, the detected sign and the position of the stored sign are compared. Then, it is determined which sign the detected sign corresponds to, and the angle α formed between the sign PA and the sign PB and the angle β between the signs PB and PC centering on the vehicle are detected, and the process proceeds to step S217. move on.

【0050】ステップS217では、ROM52に予め記憶
してある各標識PA,PB,PCの位置から周知の三角
測量法により現在の車輌位置を算出する。
In step S217, the current vehicle position is calculated by the known triangulation method from the positions of the markers PA, PB and PC stored in advance in the ROM 52.

【0051】すなわち、図9に示すように、標識PAを
原点とするX,Y座標系において、予めROM52に記
憶してある各データに基づき、標識PA(座標原点)か
ら自車輌中心位置までの距離L、及び、標識PA(座標
原点)から自車輌中心を結ぶ線と標識PA,PB間を結
ぶ線とのなす角度θ1を以下の(1),(2)式で求め、自車
輌位置(X1、Y1)を(3),(4)式で求めることができ
る。 L =L1×sin(α+θ1)/sinα …(1) θ1=atn(−L2×sinα×sin(θB+α+β) /(L1×sinβ+L2×sinα×cos(θB+α+β)))…(2) L1;標識PA,PB間の距離 L2;標識PB,PC間の距離 θB;標識PA,PB間を結ぶ線と標識PB,PC間を
結ぶ線のなす角度 θA;標識PA,PBを結ぶ線のX軸に対する角度 X1=L×cos(θA−θ1) …(3) Y1=L×sin(θA−θ1) …(4)
That is, as shown in FIG. 9, in the X, Y coordinate system with the marker PA as the origin, the distance from the marker PA (coordinate origin) to the center position of the vehicle is based on each data stored in advance in the ROM 52. The distance L and the angle θ1 formed by the line connecting the center of the vehicle from the marker PA (coordinate origin) and the line connecting the markers PA and PB are calculated by the following equations (1) and (2), and the vehicle position ( X1, Y1) can be calculated by the equations (3) and (4). L = L1 × sin (α + θ1) / sinα (1) θ1 = atn (-L2 × sinα × sin (θB + α + β) / (L1 × sinβ + L2 × sinα × cos (θB + α + β))) (2) L1; Label PA, Distance between PBs L2; Distance between signs PB and PC θB; Angle formed by line connecting signs PA and PB and line connecting signs PB and PC θA; Angle of line connecting signs PA and PB with respect to X axis X1 = L × cos (θA−θ1) (3) Y1 = L × sin (θA−θ1) (4)

【0052】[0052]

【発明の効果】以上述べたように本発明によれば、投光
手段から投光したときの撮像画像と投光しないときの撮
像画像とから、対応する位置における特徴量を求めて光
反射標識を認識するため、自律走行する領域に不整地や
うねりがあって車輌が傾斜した場合や光反射標識からの
反射光が仰角、俯角を持つ場合であっても、確実に光反
射標識を認識することができ、正確に自己位置を検出で
きる等優れた効果が得られる。
As described above, according to the present invention, the light reflection marker is obtained by obtaining the feature amount at the corresponding position from the imaged image when the light is projected from the light projecting means and the imaged image when the light is not projected. Therefore, even if the vehicle is tilted due to uneven terrain or swell in the autonomous driving area or the light reflected from the light reflective sign has an elevation angle and a depression angle, the light reflective sign is reliably recognized. It is possible to obtain an excellent effect such that the self position can be accurately detected.

【図面の簡単な説明】[Brief description of drawings]

【図1】自己位置検出ルーチンのフローチャートFIG. 1 is a flowchart of a self-position detection routine.

【図2】自己位置検出ルーチンのフローチャート(続
き)
FIG. 2 is a flowchart of a self-position detection routine (continued)

【図3】主制御ルーチンのフローチャートFIG. 3 is a flowchart of a main control routine.

【図4】芝刈作業車の外観を示す概略説明図FIG. 4 is a schematic explanatory view showing the appearance of a lawnmower work vehicle.

【図5】芝刈作業車のCCDカメラによる標識撮像を示
す説明図
FIG. 5 is an explanatory diagram showing image capturing of a marker by a CCD camera of a lawnmower work vehicle.

【図6】制御系のブロック図FIG. 6 is a block diagram of a control system

【図7】自車輌位置検出部の回路構成図FIG. 7 is a circuit configuration diagram of a vehicle position detection unit.

【図8】走行経路及び作業領域を示す説明図FIG. 8 is an explanatory diagram showing a travel route and a work area.

【図9】三角測量による自己位置検出の説明図FIG. 9 is an explanatory diagram of self-position detection by triangulation.

【符号の説明】[Explanation of symbols]

1 芝刈作業車(自律走行作業車) 8 ストロボ(投光手段) 9 CCDカメラ(撮像手段) PA,PB,PC 光反射標識 1 Lawn mowing work vehicle (autonomous traveling work vehicle) 8 Strobe (light projecting means) 9 CCD camera (imaging means) PA, PB, PC Light reflective sign

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 特定の作業領域周辺に設置した複数の光
反射標識を認識し、三角測量により自己位置を検出する
自律走行作業車の自己位置検出方法において、 前記自律走行作業車に、前記光反射標識に投光するため
の投光手段(8)と、前記光反射標識を撮像するための撮
像手段(9)とを備え、 前記光反射標識に対し、前記投光手段(8)から投光した
ときの画像と投光しないときの画像とを前記撮像手段
(9)で撮像して一対の画像を得た後、 前記一対の画像の対応する位置における特徴量を求め、
この特徴量から前記光反射標識を認識することを特徴と
する自律走行作業車の自己位置検出方法。
1. A self-position detecting method for an autonomous traveling work vehicle, which recognizes a plurality of light reflecting signs installed around a specific work area and detects the self-position by triangulation, comprising: A light projecting means (8) for projecting light on a reflective sign, and an imaging means (9) for imaging the light reflective sign are provided, and the light projecting means (8) projects the light reflective sign. The image capturing means displays an image when light is emitted and an image when light is not emitted.
After obtaining a pair of images by imaging in (9), obtain the feature amount at the corresponding positions of the pair of images,
A self-position detecting method for an autonomously traveling work vehicle, characterized in that the light reflection sign is recognized from the characteristic amount.
【請求項2】 前記一対の画像の対応する位置の画素毎
に、設定レベルを越えた輝度差を前記特徴量として求
め、 前記設定レベルを越えた輝度差の画素を抽出して2値化
画像を生成し、この2値化画像における設定数以上の画
素の集合を前記光反射標識として認識することを特徴と
する請求項1記載の自律走行作業車の自己位置検出方
法。
2. A binarized image in which a brightness difference exceeding a set level is obtained as the feature amount for each pixel at corresponding positions of the pair of images, and pixels having a brightness difference exceeding the set level are extracted. The self-position detecting method for an autonomously traveling work vehicle according to claim 1, wherein a set of pixels equal to or more than a set number in the binarized image is recognized as the light reflection sign.
JP5302058A 1993-12-01 1993-12-01 Own position detecting method for autonomously traveling work wagon Pending JPH07152434A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5302058A JPH07152434A (en) 1993-12-01 1993-12-01 Own position detecting method for autonomously traveling work wagon

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5302058A JPH07152434A (en) 1993-12-01 1993-12-01 Own position detecting method for autonomously traveling work wagon

Publications (1)

Publication Number Publication Date
JPH07152434A true JPH07152434A (en) 1995-06-16

Family

ID=17904413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5302058A Pending JPH07152434A (en) 1993-12-01 1993-12-01 Own position detecting method for autonomously traveling work wagon

Country Status (1)

Country Link
JP (1) JPH07152434A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009131210A1 (en) 2008-04-25 2009-10-29 株式会社 日立製作所 Object recognizing device and object recognizing method
JP2016035653A (en) * 2014-08-01 2016-03-17 株式会社大林組 Movement control device, movement control method, movement control program, and target member for use in the same movement control method
JP2019045382A (en) * 2017-09-05 2019-03-22 日本電気株式会社 Space recognition device, space recognition method, and program
JP2019045381A (en) * 2017-09-05 2019-03-22 日本電気株式会社 Space recognition device, space recognition method, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009131210A1 (en) 2008-04-25 2009-10-29 株式会社 日立製作所 Object recognizing device and object recognizing method
US8818026B2 (en) 2008-04-25 2014-08-26 Hitachi Automotive Systems, Ltd. Object recognition device and object recognition method
JP2016035653A (en) * 2014-08-01 2016-03-17 株式会社大林組 Movement control device, movement control method, movement control program, and target member for use in the same movement control method
JP2019045382A (en) * 2017-09-05 2019-03-22 日本電気株式会社 Space recognition device, space recognition method, and program
JP2019045381A (en) * 2017-09-05 2019-03-22 日本電気株式会社 Space recognition device, space recognition method, and program
US11579296B2 (en) 2017-09-05 2023-02-14 Nec Corporation Spatial recognition device, spatial recognition method, and program
US11585924B2 (en) 2017-09-05 2023-02-21 Nec Corporation Spatial recognition device, spatial recognition method, and program

Similar Documents

Publication Publication Date Title
US11024055B2 (en) Vehicle, vehicle positioning system, and vehicle positioning method
JP5227139B2 (en) Construction machinery
KR101241651B1 (en) Image recognizing apparatus and method, and position determining apparatus, vehicle controlling apparatus and navigation apparatus using the image recognizing apparatus or method
CN111856491B (en) Method and apparatus for determining geographic position and orientation of a vehicle
CN102368158B (en) Navigation positioning method of orchard machine
CN108226938A (en) A kind of alignment system and method for AGV trolleies
JP2007183432A (en) Map creation device for automatic traveling and automatic traveling device
EP3842751B1 (en) System and method of generating high-definition map based on camera
US20120143429A1 (en) Distributed Robotic Guidance
CN208323361U (en) A kind of positioning device and robot based on deep vision
TWI754808B (en) Vehicle, vehicle positioning system, and vehicle positioning method
JP2010097360A (en) Autonomous mobile robot device, operation auxiliary device for moving object, method of controlling the autonomous mobile robot device and operation auxiliary method for the moving object
US20210394782A1 (en) In-vehicle processing apparatus
Cui et al. Real-time global localization of intelligent road vehicles in lane-level via lane marking detection and shape registration
Manandhar et al. Vehicle-borne laser mapping system (VLMS) for 3-D GIS
JP2001195698A (en) Device for detecting pedestrian
JP6834401B2 (en) Self-position estimation method and self-position estimation device
JP2000293693A (en) Obstacle detecting method and device
JP4005679B2 (en) Ambient environment recognition device for autonomous vehicles
JPH07152434A (en) Own position detecting method for autonomously traveling work wagon
JP4116116B2 (en) Ranging origin recognition device for moving objects
KR101065960B1 (en) Mobile system for recogning position of mobile device and method for estimating position
JP2005003445A (en) Position identification system in mobile unit apparatus, and position identification method thereof
Shacklock et al. Visual guidance for autonomous vehicles: capability and challenges
JP3245284B2 (en) Self-position detection method for autonomous mobile work vehicles