JP6497546B2 - Travel control device - Google Patents
Travel control device Download PDFInfo
- Publication number
- JP6497546B2 JP6497546B2 JP2015022555A JP2015022555A JP6497546B2 JP 6497546 B2 JP6497546 B2 JP 6497546B2 JP 2015022555 A JP2015022555 A JP 2015022555A JP 2015022555 A JP2015022555 A JP 2015022555A JP 6497546 B2 JP6497546 B2 JP 6497546B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- reference area
- vehicle
- unit
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012937 correction Methods 0.000 claims description 140
- 238000009826 distribution Methods 0.000 claims description 53
- 238000000034 method Methods 0.000 claims description 47
- 238000001514 detection method Methods 0.000 claims description 33
- 238000003384 imaging method Methods 0.000 claims description 27
- 238000012545 processing Methods 0.000 claims description 27
- 238000004364 calculation method Methods 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 13
- 230000008859 change Effects 0.000 claims description 12
- 238000006073 displacement reaction Methods 0.000 claims description 8
- 230000007246 mechanism Effects 0.000 description 24
- 238000003860 storage Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 6
- 239000002689 soil Substances 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000009331 sowing Methods 0.000 description 2
- 230000037303 wrinkles Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003306 harvesting Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Guiding Agricultural Machines (AREA)
- Steering Control In Accordance With Driving Conditions (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Description
本発明は、車両の走行を制御する走行制御装置に関する。 The present invention relates to a traveling control device that controls traveling of a vehicle.
農用車両による播種、移植、畝立て、畦塗りおよび資材散布などの作業では、その作業の精度や能率向上のため、また、それ以降の管理や収穫などの作業のために、各行程を直進かつ平行に行うことが重要である。これらの作業は広い圃場で長時間にわたることが多く、やり直すことができない作業もあるため、作業者への肉体的、精神的な負担が大きく、熟練を必要とする。そのため、農用車両を直進かつ隣の畝と平行に走行する自動直進技術へのニーズが多い。 In operations such as sowing, transplanting, setting up, padding, and material dispersal using agricultural vehicles, in order to improve the accuracy and efficiency of the operation, and for subsequent operations such as management and harvesting, each process goes straight forward. It is important to do so in parallel. Since these operations often take a long time in a wide field and cannot be performed again, there are large physical and mental burdens on the worker, and skill is required. For this reason, there is a great need for an automatic straight traveling technology that travels straight on agricultural vehicles and in parallel with the adjacent fence.
車両の走行を制御する技術として、以下に示すような技術がある。たとえば、特許文献1には、画像処理により撮像画像から圃場の畝や畦を目標追従ラインとして検出して、目標追従ラインに沿って走行するように制御する走行制御装置が開示される。 As a technique for controlling the running of the vehicle, there are techniques as shown below. For example, Patent Literature 1 discloses a travel control device that detects a vine or cocoon in a field as a target tracking line from a captured image by image processing and performs control so as to travel along the target tracking line.
特許文献2には、トラクタにGPS装置や方位センサを設けて、それらの検出結果にもとづいて舵角を操舵角センサを用いて制御して自動走行させる技術が開示される。 Patent Document 2 discloses a technique in which a tractor is provided with a GPS device and a direction sensor, and a steering angle is controlled using a steering angle sensor based on the detection results to automatically travel.
特許文献3には、2つの車線認識カメラで検出される車線から、自車両の走行路における走行横目標経路を設定して、自車両が走行横目標経路に沿って走行するように制御する車両用走行制御装置が開示される。 Patent Document 3 discloses a vehicle that sets a traveling lateral target route on a traveling path of the host vehicle from lanes detected by two lane recognition cameras and controls the host vehicle to travel along the traveling lateral target route. A traveling control device for a vehicle is disclosed.
傾斜した圃場では車両が走行するにつれて横滑りする状態が生じ得る。特許文献1に記載の技術において、車両を目標追従ラインに追従させる自動走行制御時に車両の横滑りが継続して生じると、車両が目標追従ラインから離れるおそれがある。 In an inclined field, a skidding condition may occur as the vehicle travels. In the technique described in Patent Document 1, if the side skid of the vehicle continues during automatic traveling control that causes the vehicle to follow the target tracking line, the vehicle may move away from the target tracking line.
特許文献2に記載の技術は、予め設定された経路でトラクタを走行させて作業を行うものであり、隣接する畝や畦などの行程は反映されないため、隣接する行程の位置が変化する場合に隣接する行程の間隔や平行度合いが低下するおそれがある。 The technique described in Patent Document 2 is to perform work by running a tractor on a preset route, and since the process of an adjacent kite or kite is not reflected, the position of the adjacent process changes. There is a risk that the interval between adjacent strokes and the degree of parallelism will decrease.
特許文献3に記載の技術は、舗装路を走行する車両を対象としており、傾斜した圃場でタイヤの横滑りする状態の対応を開示していない。また特許文献3に記載の技術は、タイヤと舗装路面には高い摩擦があるため、ある操舵角を保持することで前方の目標位置に対して円弧状の軌跡で補正することなく到達する操舵方法を開示する。一方、柔らかい土壌を走行するトラクタは、タイヤと土壌の間の摩擦が低く不安定で、また、土壌中の土塊の影響などで、トラクタの方向が不意に変化する場合がある。このため、トラクタの操舵方法としては、目標位置に対してトラクタの方向を目標位置に向け、目標位置に向かって直進させる手法の適用が必要になる。 The technique described in Patent Document 3 is intended for a vehicle traveling on a paved road, and does not disclose the correspondence of a state in which a tire skids on an inclined field. Further, the technique described in Patent Document 3 has a high friction between the tire and the paved road surface, so that the steering method can be reached without correcting the front target position with an arc-shaped locus by maintaining a certain steering angle. Is disclosed. On the other hand, a tractor traveling on soft soil has an unstable friction between the tire and the soil, and the direction of the tractor may change unexpectedly due to the influence of a soil mass in the soil. For this reason, as a method for steering the tractor, it is necessary to apply a method in which the direction of the tractor is directed to the target position with respect to the target position, and the head is moved straight toward the target position.
本発明はこうした状況に鑑みてなされたものであり、その目的は、追従目標とするラインの位置に精度良く追従走行が可能な走行制御装置を提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a travel control device capable of accurately following the position of a line to be followed.
上記課題を解決するために、本発明のある態様の走行制御装置は、車両が走行する地面とその遠方を撮像する撮像部と、撮像部により撮像した撮像画像を処理して車両が追従走行する目標位置を特定して目標舵角を算出する画像処理部と、目標舵角で走行するように車両を制御する走行制御部と、を備える。画像処理部は、撮像画像から消失点を定め、撮像画像中の地面上に設定される基準領域の位置の変化を、消失点の位置と比較することで車両の前後、左右の移動量を算出する消失点追跡部と、消失点追跡部で算出された車両の左右方向の位置ずれ量にもとづいて第1補正量を算出する第1補正部と、消失点追跡部で算出された車両の移動量にもとづいて、撮像画像の視野外に出た過去の目標位置の現在の位置情報を推定し、車両と過去の目標位置との位置ずれ量にもとづいて第2補正量を算出する第2補正部と、目標位置を撮像画像の輝度分布情報を用いて遠方に向かって追跡した位置情報と、過去の目標位置の位置情報とを組合せて目標追従ラインを特定し、目標追従ラインの曲率にもとづいて第3補正量を算出する第3補正部と、目標位置と第1補正量と第2補正量と第3補正量とのいずれかにもとづいて目標舵角を算出する目標舵角算出部と、を有する。 In order to solve the above-described problem, a travel control device according to an aspect of the present invention includes an imaging unit that captures an image of the ground on which the vehicle travels and a distance from the vehicle, a captured image captured by the imaging unit, and the vehicle follows the vehicle. An image processing unit that specifies a target position and calculates a target rudder angle, and a travel control unit that controls the vehicle to travel at the target rudder angle. The image processing unit determines the vanishing point from the captured image, and compares the change in the position of the reference area set on the ground in the captured image with the position of the vanishing point to calculate the amount of movement before and after the vehicle and to the left and right A vanishing point tracking unit, a first correction unit that calculates a first correction amount based on a lateral displacement amount of the vehicle calculated by the vanishing point tracking unit, and a vehicle movement calculated by the vanishing point tracking unit Based on the amount, the current position information of the past target position that has gone out of the field of view of the captured image is estimated, and a second correction amount is calculated based on the amount of positional deviation between the vehicle and the past target position. The target tracking line is identified by combining the position information obtained by tracking the target position toward the distance using the luminance distribution information of the captured image and the positional information of the past target position, and based on the curvature of the target tracking line. A third correction unit for calculating a third correction amount and a target position To have a first correction amount and the target steering angle calculating section for calculating a target steering angle based on either the second correction amount and the third correction amount.
この態様によると、撮像部により撮像した撮像画像を処理して走行を制御できるため、走行制御を簡易に低コストで実現できる。また、傾斜した圃場などで車両に横滑りが生じる場合に、車両の横滑りを撮像画像から検出して補正量を算出し、また、目標追従ラインが曲率を持つ場合には、目標追従ラインの曲率を撮像画像から検出して補正量を算出し、それらの補正量を反映した車両の目標舵角を算出することで、実空間上の目標位置に向かって精度良く移動させることができる。 According to this aspect, since it is possible to process the captured image captured by the imaging unit and control the traveling, the traveling control can be easily realized at low cost. In addition, when a side slip occurs in an inclined field or the like, the side slip of the vehicle is detected from the captured image and a correction amount is calculated.If the target follow line has a curvature, the curvature of the target follow line is calculated. By detecting from the captured image, calculating the correction amount, and calculating the target steering angle of the vehicle reflecting the correction amount, the vehicle can be moved with high accuracy toward the target position in the real space.
本発明によれば、車両の走行制御装置において目標とする追従ラインに精度良く追従走行させることができる。 ADVANTAGE OF THE INVENTION According to this invention, it can be made to carry out a follow-up driving | running | working with the target follow-up line accurately in the travel control apparatus of a vehicle.
作業車両は、通常の一般車両と比べて、牽引力および旋回力に優れる一方、直進性能が低い場合がある。また、運転者は、作業車両の後部に備えられる作業機の作業状態を確認するため、後方に振り返りつつ、直進運転をすることを強いられる。圃場によっては500m以上の長さがあり、この距離を直進させるのは運転者の負担が大きい。そこで、実施形態の走行制御装置は、進行方向を撮像した画像から、畝や畦などの追従走行すべき目標位置を算出し、その目標位置に向かうように車両を走行させることで、運転者の負担を軽減させる。さらに、傾斜した圃場では車両が走行中に滑り得るため、撮像画像から得られた情報をもとに目標位置に向かう舵角を補正する。 The work vehicle may be superior in traction force and turning force as compared with a normal general vehicle, but may have low straight-ahead performance. In addition, the driver is forced to perform a straight-ahead operation while looking back, in order to confirm the working state of the work machine provided at the rear of the work vehicle. Some fields have a length of 500 m or more, and it is burdensome for the driver to go straight through this distance. Therefore, the travel control device of the embodiment calculates a target position that should be followed by traveling such as wrinkles and wrinkles from an image obtained by capturing the traveling direction, and causes the vehicle to travel toward the target position. Reduce the burden. Further, since the vehicle can slip while traveling in an inclined farm field, the steering angle toward the target position is corrected based on information obtained from the captured image.
図1は、実施形態に係る走行制御装置20の側面図である。図2は、走行制御装置20の上面図である。図面の説明において同一の要素には同一の符号を付し、重複する説明を適宜省略する。車両1は、車両操縦室3、左前輪8aと右前輪8b(以下、総称する場合は「前輪8」という)、左後輪10aと右後輪10b(以下、総称する場合は「後輪10」という)、作業機16を有する。走行制御装置20は、車両1に搭載され、左ブレーキ機構6aと右ブレーキ機構(不図示)(以下、総称する場合は「ブレーキ機構6」という)、カメラ11、ECU(Electronic control unit)12、操舵駆動機構14およびステアリング機構15を備える。 FIG. 1 is a side view of a travel control device 20 according to the embodiment. FIG. 2 is a top view of the travel control device 20. In the description of the drawings, the same elements are denoted by the same reference numerals, and repeated descriptions are omitted as appropriate. The vehicle 1 includes a vehicle cockpit 3, a left front wheel 8a and a right front wheel 8b (hereinafter collectively referred to as “front wheel 8”), a left rear wheel 10a and a right rear wheel 10b (hereinafter collectively referred to as “rear wheel 10”). The working machine 16. The travel control device 20 is mounted on the vehicle 1, and includes a left brake mechanism 6a and a right brake mechanism (not shown) (hereinafter collectively referred to as “brake mechanism 6”), a camera 11, an ECU (Electronic control unit) 12, A steering drive mechanism 14 and a steering mechanism 15 are provided.
車両1は、農用トラクタや土木用作業車両などの作業車両であってよく、車両1の後方には作業機16が取り付けられる。作業機16は、たとえば、圃場4において播種や畝立てなどの作業をする。 The vehicle 1 may be a work vehicle such as an agricultural tractor or a civil engineering work vehicle, and a work machine 16 is attached to the rear of the vehicle 1. The work machine 16 performs operations such as sowing and setting in the farm field 4, for example.
ステアリング機構15は、ステアリングホイール、ステアリングシャフト、およびステアリングシャフトの動きを前輪の動きに変換するギヤ装置と、を有する。ステアリング機構15は、ハンドルとしてのステアリングホイールの回動を前輪8の転舵運動に変換する。ステアリングホイールは、車両操縦室3内に設けられ、運転者によって回動操作される。ステアリングシャフトは、ステアリングホイールとともに回転するように一端がステアリングホイールに連結されており、ステアリングホイールの回転をギヤ装置に伝達する回転軸として機能する。 The steering mechanism 15 includes a steering wheel, a steering shaft, and a gear device that converts the movement of the steering shaft into the movement of the front wheels. The steering mechanism 15 converts the rotation of the steering wheel as a handle into the turning motion of the front wheels 8. The steering wheel is provided in the vehicle cockpit 3 and is turned by the driver. The steering shaft has one end connected to the steering wheel so as to rotate together with the steering wheel, and functions as a rotating shaft that transmits the rotation of the steering wheel to the gear device.
操舵駆動機構14は、舵角センサ(不図示)およびモータ(不図示)を備える。操舵駆動機構14は、モータを駆動し、ステアリング機構15に転舵力を与える。舵角センサは、ステアリングシャフトや前輪8などに設けられ、ステアリングホイールの操舵角および操舵方向を検出する。操舵駆動機構14はECU12に接続されている。舵角センサの検出値は、ECU12に出力される。なお、操舵駆動機構14は、液圧式であってよく、液圧ポンプを駆動して、ステアリング機構15に転舵力を与えてよい。 The steering drive mechanism 14 includes a steering angle sensor (not shown) and a motor (not shown). The steering drive mechanism 14 drives a motor and gives a steering force to the steering mechanism 15. The steering angle sensor is provided on the steering shaft, the front wheel 8, and the like, and detects the steering angle and steering direction of the steering wheel. The steering drive mechanism 14 is connected to the ECU 12. The detection value of the steering angle sensor is output to the ECU 12. The steering drive mechanism 14 may be a hydraulic type, and may drive a hydraulic pump to give a steering force to the steering mechanism 15.
ブレーキ機構6は、運転者のブレーキペダル(不図示)の操作量に応じて後輪10に制動力を与える。ブレーキペダルは、左後輪用ブレーキペダルと右後輪用ブレーキペダルを有する。運転者が各ブレーキペダルを操作することで、左後輪10aと右後輪10bに対して個別に制動力を与えることができる。たとえば、車両1を右方向に旋回するとき、運転者が、右後輪用ブレーキペダルを踏み込んで右後輪10bに制動力を与えることで、右後輪10bを軸として車両1を小回りさせることができる。ブレーキ機構6は、ECU12に接続され、ECU12により後輪10に与える制動力を制御することができ、ECU12によって左または右のブレーキ機構6が動作され、車両1を旋回できる。なお、車両1の前輪8に、ブレーキ機構は無くてよい。 The brake mechanism 6 applies a braking force to the rear wheel 10 in accordance with an operation amount of a driver's brake pedal (not shown). The brake pedal includes a left rear wheel brake pedal and a right rear wheel brake pedal. When the driver operates each brake pedal, a braking force can be individually applied to the left rear wheel 10a and the right rear wheel 10b. For example, when turning the vehicle 1 in the right direction, the driver depresses the brake pedal for the right rear wheel to apply a braking force to the right rear wheel 10b, thereby turning the vehicle 1 around the right rear wheel 10b. Can do. The brake mechanism 6 is connected to the ECU 12, and the braking force applied to the rear wheel 10 by the ECU 12 can be controlled. The left or right brake mechanism 6 is operated by the ECU 12 and the vehicle 1 can be turned. The front wheel 8 of the vehicle 1 may not have a brake mechanism.
車両操縦室3の上部には、単眼のカメラ11が配置される。カメラ11は、撮像部として機能し、車両走行の目標となる進行方向の地面および地平線を撮像する。カメラ11は、撮像した画像をECU12に出力する。 A monocular camera 11 is disposed at the upper part of the vehicle cockpit 3. The camera 11 functions as an imaging unit and images the ground and the horizon in the traveling direction, which are targets for vehicle travel. The camera 11 outputs the captured image to the ECU 12.
図2では、1行程目の段部18、2行程目の段部19、3行程目の段部22および4行程目の段部24が圃場4に設けられており、車両1が3行程目の段部22上を走行している。各段部は、例えば圃場4に予め形成された畝、耕耘作業における前行程の作業跡や耕耘境界、あるいは、走行の目標として形成されたライン上の溝である。図2に示す車両1の例では、カメラ11により段部22を検出して、段部22を目標走行ラインとし、そのライン上に走行の目標位置26を設定し、目標位置26に向かって走行するように制御される。段部22は例えば走行の目標として形成されたライン状の溝である。 In FIG. 2, the step 18 in the first stroke, the step 19 in the second stroke, the step 22 in the third stroke, and the step 24 in the fourth stroke are provided in the farm field 4, and the vehicle 1 is in the third stroke. The vehicle is traveling on the step 22. Each step portion is, for example, a ridge formed in advance in the field 4, a work trace or a tilling boundary of a previous stroke in a cultivating operation, or a groove on a line formed as a traveling target. In the example of the vehicle 1 shown in FIG. 2, the step portion 22 is detected by the camera 11, the step portion 22 is set as a target travel line, a travel target position 26 is set on the line, and the vehicle travels toward the target position 26. To be controlled. The step portion 22 is a line-shaped groove formed as a target for traveling, for example.
運転者がECU12に接続された自動走行スイッチ(不図示)をオンしたときの車両1の位置を車両1の初期位置といい、走行制御装置20による走行制御を開始する位置をいう。運転者は1つの行程を終えた後、自動走行スイッチをオフし、車両1を操舵して方向転換し、次の行程を走行するための位置に車両1を移動させ、自動走行スイッチをオンして、走行制御装置20により自動走行を開始して次の行程の走行を開始する。 The position of the vehicle 1 when the driver turns on an automatic travel switch (not shown) connected to the ECU 12 is referred to as an initial position of the vehicle 1 and refers to a position at which travel control by the travel control device 20 is started. After the driver completes one stroke, the driver turns off the automatic travel switch, steers the vehicle 1 to change direction, moves the vehicle 1 to a position for traveling the next stroke, and turns on the automatic travel switch. Then, the traveling control device 20 starts automatic traveling and starts traveling in the next stroke.
なお、運転者による自動走行スイッチのオン/オフにより、走行制御装置20による走行制御が実行/停止される。たとえば運転者が自動走行スイッチをオンすると、ECU12は、カメラ11から出力された撮像画像から段部22を目標走行ラインとして検出し、目標走行ラインに追従する走行制御が実行される。段部18、段部19および段部24を目標追従ラインとして検出し、この目標追従ラインに追従する走行制御が実行されてもよい。目標走行ラインは目標追従ラインに含まれるものであり、概ね車両の正面に位置して目標位置26が設定され、走行目標となるラインである。一方、目標追従ラインが前行程の作業跡や耕耘境界などで、車両の側方に位置する場合には、これにオフセットを加えることで走行目標ラインが設定される。図2では、段部22が目標走行ラインかつ目標追従ラインである。また、作業により段部が形成されるのであれば、先に形成された段部18、段部19および段部24は目標追従ラインとしてよい。 The traveling control by the traveling control device 20 is executed / stopped by turning on / off the automatic traveling switch by the driver. For example, when the driver turns on the automatic travel switch, the ECU 12 detects the step 22 from the captured image output from the camera 11 as a target travel line, and travel control that follows the target travel line is executed. The step control which detects the step part 18, the step part 19, and the step part 24 as a target tracking line, and tracks this target tracking line may be performed. The target travel line is included in the target follow-up line, and is a line that is a travel target with the target position 26 set almost at the front of the vehicle. On the other hand, when the target follow-up line is located on the side of the vehicle at the work track or tilling boundary in the previous stroke, the travel target line is set by adding an offset thereto. In FIG. 2, the step portion 22 is a target travel line and a target follow-up line. Further, if the step is formed by the work, the step 18, the step 19 and the step 24 formed earlier may be the target follow-up line.
ECU12は、撮像された撮像画像を処理する画像処理手段として機能し、また、車両1の舵角を制御する走行制御手段として機能する。ECU12は、各種演算処理を実行するCPU、各種制御プログラムを格納するROM、データ格納やプログラム実行のためのワークエリアとして利用されるRAM、エンジン停止時にも記憶内容を保持できるバックアップRAM等の不揮発性メモリ、入出力インターフェース、各種センサ等から入力されたアナログ信号をデジタル信号に変換して取り込むためのA/Dコンバータ、計時用のタイマ等を備えるものである。なお、画像処理手段と走行制御手段は、それぞれ画像処理装置と走行制御装置とする、別のユニットであってよい。 The ECU 12 functions as an image processing unit that processes a captured image, and also functions as a travel control unit that controls the steering angle of the vehicle 1. The ECU 12 is a nonvolatile memory such as a CPU that executes various arithmetic processes, a ROM that stores various control programs, a RAM that is used as a work area for data storage and program execution, and a backup RAM that can retain stored contents even when the engine is stopped. An A / D converter for converting an analog signal input from a memory, an input / output interface, various sensors, and the like into a digital signal and taking it in, a timer for timing, and the like are provided. Note that the image processing unit and the travel control unit may be separate units that are an image processing device and a travel control device, respectively.
図3は、実施形態に係るECU12の機能構成を示す。ECU12は、画像取得部30、画像処理部32、記憶部34および走行制御部36を備える。画像取得部30は、カメラ11が所定の撮像周期で撮像した撮像画像を取得する。 FIG. 3 shows a functional configuration of the ECU 12 according to the embodiment. The ECU 12 includes an image acquisition unit 30, an image processing unit 32, a storage unit 34, and a travel control unit 36. The image acquisition unit 30 acquires a captured image captured by the camera 11 at a predetermined imaging cycle.
画像処理部32は、画像取得部30から受け取った撮像画像を処理する。画像処理部32は、撮像画像から段部22上の目標位置26を導出するとともに、目標位置を補正する補正量を導出し、補正を加えた目標位置に向かって車両が走行するための目標舵角を算出して、走行制御部36に供給する。記憶部34には撮像画像の情報が記憶される。 The image processing unit 32 processes the captured image received from the image acquisition unit 30. The image processing unit 32 derives the target position 26 on the step unit 22 from the captured image, derives a correction amount for correcting the target position, and targets the steering for the vehicle to travel toward the corrected target position. The angle is calculated and supplied to the traveling control unit 36. The storage unit 34 stores captured image information.
走行制御部36は、操舵駆動機構14を介して操舵を制御する操舵制御部と、ブレーキ機構6を介して制動力を制御して旋回力を発生させるブレーキ制御部とを備える。ブレーキ制御部は、左右の後輪10に設けられたブレーキ機構6の制動力を独立に制御して旋回力を発生させる。操舵制御部は、操舵駆動機構14を駆動し、前輪8の操舵を制御する。 The travel control unit 36 includes a steering control unit that controls steering via the steering drive mechanism 14 and a brake control unit that generates a turning force by controlling a braking force via the brake mechanism 6. The brake control unit independently controls the braking force of the brake mechanism 6 provided on the left and right rear wheels 10 to generate a turning force. The steering control unit drives the steering drive mechanism 14 and controls the steering of the front wheels 8.
走行制御部36は、画像処理部32から受け取った目標舵角にもとづいて車両1を走行するように制御する。走行制御部36は、初期位置1では目標舵角が算出されておらず、目標舵角を受け取っていない場合は、車両1を直進させる。なお、走行制御部36が駆動中であっても、操舵者は操舵可能である。走行制御部36は、目標舵角が算出されると、目標舵角で前輪8を操舵し、目標位置26に向かうように舵角を制御する。 The travel control unit 36 controls the vehicle 1 to travel based on the target steering angle received from the image processing unit 32. When the target rudder angle has not been calculated at the initial position 1 and the target rudder angle has not been received, the travel control unit 36 moves the vehicle 1 straight. Even if the travel control unit 36 is being driven, the steering person can steer. When the target rudder angle is calculated, the travel control unit 36 steers the front wheel 8 at the target rudder angle and controls the rudder angle so as to go to the target position 26.
図4は、実施形態に係る画像処理部32の機能構成を示す。画像処理部32は、地平線検出部38、基準領域設定部40、消失点追跡部41、テンプレート生成部42、基準領域追跡部44、目標補正部46、凹凸検出部48、目標位置検出部50および目標舵角算出部51を有する。 FIG. 4 shows a functional configuration of the image processing unit 32 according to the embodiment. The image processing unit 32 includes a horizon detection unit 38, a reference region setting unit 40, a vanishing point tracking unit 41, a template generation unit 42, a reference region tracking unit 44, a target correction unit 46, an unevenness detection unit 48, a target position detection unit 50, and A target rudder angle calculation unit 51 is included.
地平線検出部38は、撮像画像上の地平線を設定する。例えば地平線検出部38は、水平角度を検出するセンサの検出結果から撮像した時のカメラ11の水平角度を取得し、撮像時の水平角度をもとに撮像画像上で水平となる高さを算出し、その高さの付近で横方向に伸びる線分要素を検出し、これを地平線として設定する。横方向に伸びる線分要素が検出されない場合は、取得した水平角度をもとに算出される撮像画像上の位置に、地平線を設定する。地平線は、例えば撮像画像上で直線状に輝度差を持って表れる。 The horizon detection unit 38 sets a horizon on the captured image. For example, the horizon detection unit 38 obtains the horizontal angle of the camera 11 at the time of imaging from the detection result of the sensor that detects the horizontal angle, and calculates the horizontal height on the captured image based on the horizontal angle at the time of imaging. Then, a line segment element extending in the horizontal direction near the height is detected, and this is set as the horizon. When a line segment element extending in the horizontal direction is not detected, a horizon is set at a position on the captured image calculated based on the acquired horizontal angle. The horizon appears, for example, with a luminance difference in a straight line on the captured image.
基準領域設定部40は、撮像画像の複数の画素値から構成される基準領域を複数設定する。基準領域設定部40に設定される複数の基準領域は、横一列に直線状に配列された集合であり、その画素値と位置などの情報を記憶部34に記憶させる。直線状の基準領域の集合は、新たな撮像画像に対し、新しい基準領域を設定する空間があると判断される場合には、新しい基準領域の集合が設定され、複数列になる。新たに設定される基準領域の集合は、上下方向に隣り合う基準領域の集合と重複する領域を持って設定されてよい。また、基準領域設定部40は、所定の条件を満たすと該基準領域を破棄する。所定の条件として、例えば基準領域設定部40は基準領域に対するテンプレートの拡大率が所定値を越える、または撮像画像の下端に接近すると、基準領域を破棄し、その基準領域の集合の追跡を終了する。 The reference area setting unit 40 sets a plurality of reference areas composed of a plurality of pixel values of the captured image. The plurality of reference regions set in the reference region setting unit 40 is a set arranged in a straight line in a horizontal row, and information such as pixel values and positions is stored in the storage unit 34. When it is determined that there is a space for setting a new reference area for a new captured image, the set of linear reference areas is set to a plurality of columns. A set of newly set reference areas may be set with an area overlapping with a set of reference areas adjacent in the vertical direction. In addition, the reference area setting unit 40 discards the reference area when a predetermined condition is satisfied. As a predetermined condition, for example, when the enlargement ratio of the template with respect to the reference area exceeds a predetermined value or approaches the lower end of the captured image, the reference area setting unit 40 discards the reference area and ends the tracking of the set of reference areas. .
基準領域は、相対的に大きな第1基準領域と、相対的に小さな第2基準領域とを含む。第1基準領域と第2基準領域をとくに区別しない場合は、単に「基準領域」という。第2基準領域は、1つの第1基準領域を複数に細かく分けたものであり、第1基準領域内で横一列に直線状に配列された集合である。例えば、一つの第1基準領域は、縦10画素、横40画素の領域であり、第2基準領域は、縦10画素、横5画素の領域である。各第2基準領域は、第1基準領域に含まれるが、隣り合う第2基準領域と重複してよい。第1基準領域および第2基準領域の画素値および位置情報は記憶部34に記憶される。 The reference area includes a relatively large first reference area and a relatively small second reference area. When the first reference area and the second reference area are not particularly distinguished, they are simply referred to as “reference areas”. The second reference area is obtained by dividing one first reference area into a plurality of pieces, and is a set arranged linearly in a horizontal row within the first reference area. For example, one first reference area is an area having 10 pixels in the vertical direction and 40 pixels in the horizontal direction, and the second reference area is an area having 10 pixels in the vertical direction and 5 pixels in the horizontal direction. Each second reference region is included in the first reference region, but may overlap with the adjacent second reference region. Pixel values and position information of the first reference area and the second reference area are stored in the storage unit 34.
消失点追跡部41は、撮像画像上の消失点を含み、実空間上で遠方にある遠方領域を設定して追跡する。遠方領域は、目標位置より実空間上で遠方であり、車両1の初期位置で撮像された撮像画像上の地平線と車両1の正面方向の交点として設定される消失点(無限遠点)を含む領域であってよい。消失点追跡部41は、消失点を含む遠方領域を設定して追跡することで、車両1の正面方向が初期位置からずれたことを検出できる。消失点追跡部41は、所定の設定条件を満たした場合に遠方領域を再設定してもよい。例えば車両1が所定距離だけ移動するたびに消失点追跡部41は遠方領域を再設定してもよい。消失点を再設定する場合には、消失点の位置の変化量を、記憶部34に記憶された各々の基準領域と参照領域の位置の情報に反映させて更新する。参照領域は、基準領域を設定した撮像画像とは別の撮像画像において、実空間上で基準領域と同じ領域をいう。 The vanishing point tracking unit 41 sets and tracks a distant area that includes the vanishing point on the captured image and is far in the real space. The far region is far from the target position in real space, and includes a vanishing point (infinite point) set as an intersection of the horizon on the captured image captured at the initial position of the vehicle 1 and the front direction of the vehicle 1. It may be an area. The vanishing point tracking unit 41 can detect that the front direction of the vehicle 1 has deviated from the initial position by setting and tracking a far region including the vanishing point. The vanishing point tracking unit 41 may reset the far region when a predetermined setting condition is satisfied. For example, the vanishing point tracking unit 41 may reset the far region every time the vehicle 1 moves by a predetermined distance. When resetting the vanishing point, the amount of change in the position of the vanishing point is updated by reflecting the information on the position of each reference area and reference area stored in the storage unit 34. The reference area refers to the same area as the reference area in real space in a captured image different from the captured image in which the reference area is set.
テンプレート生成部42は、記憶されている基準領域の画素値に対して拡大、変形などの処理を施し、テンプレートを生成する。これは、新たに撮像された撮像画像では、車両1の前進に伴い、撮像する位置が前方に移動するため、基準領域と実空間上で同じである領域は、撮像画像の下側に移動すると共に、撮像画像上で拡大および変形するためである。 The template generation unit 42 performs a process such as enlargement or deformation on the stored pixel value of the reference area to generate a template. This is because, in a newly captured image, the position where the image is captured moves forward as the vehicle 1 moves forward, so the region that is the same in the real space as the reference region moves to the lower side of the captured image. At the same time, it is for enlargement and deformation on the captured image.
テンプレート生成部42は、最初に記憶された基準領域をもとに、同じ領域であると判定された時の撮像画像上の変位量に応じて拡大、変形、補間が行われて基準領域のテンプレートが生成され、記憶部34に記憶される。また、テンプレート生成部42は、生成されるテンプレートと元の基準領域の差が所定値以上に大きくなると、基準領域およびそのテンプレートを破棄し、追跡を終了してよい。 The template generation unit 42 performs enlargement, deformation, and interpolation in accordance with the amount of displacement on the captured image when it is determined that the same region is based on the reference region stored first, and the template of the reference region Is generated and stored in the storage unit 34. Further, when the difference between the generated template and the original reference area becomes larger than a predetermined value, the template generation unit 42 may discard the reference area and the template and end the tracking.
基準領域追跡部44は、新たな撮像画像が取得されるたびに、設定された基準領域のテンプレートと類似する画素値分布を持つ領域を探索して追跡する。新たな撮像画像において基準領域と実空間上の同じ領域は、無限遠点と基準領域とを結ぶ放射状の直線上を概ね移動すると推定されるので、その線上にテンプレートの推定位置を設定する。基準領域追跡部44は、推定位置の周囲の領域に対し、テンプレートと類似する輝度分布をもつ領域があるかどうか探索する。 Each time a new captured image is acquired, the reference area tracking unit 44 searches and tracks an area having a pixel value distribution similar to the set reference area template. In the new captured image, it is estimated that the same area in the real space as the reference area moves on a radial straight line connecting the infinity point and the reference area, and therefore the estimated position of the template is set on the line. The reference area tracking unit 44 searches the area around the estimated position for an area having a luminance distribution similar to the template.
基準領域追跡部44は、新たな撮像画像上の推定位置の周辺から取り出したウィンドウ状の領域と、設定されたテンプレートの画素値が、正規化相関法などの手法を用いて、一致度が所定レベル以上で、かつ一致度が最も高い領域を、テンプレートと実空間上の同じ領域であると判定して参照領域とする。基準領域は直線状に設定された領域であるのに対し、参照領域は、地面の凹凸などに起因して直線に対して位置のずれが生じる場合があるが、どちらも実空間上では概ね同じ領域であると判断する。第1基準領域には第1参照領域が対応し、第2基準領域には第2参照領域が対応する。 The reference area tracking unit 44 uses a technique such as a normalized correlation method to determine the degree of coincidence between the window-like area extracted from the vicinity of the estimated position on the new captured image and the pixel value of the set template. An area that is equal to or higher than the level and has the highest degree of coincidence is determined as the same area in the real space as the template and is set as a reference area. While the reference area is an area set in a straight line, the reference area may be displaced with respect to the straight line due to unevenness of the ground, etc., both of which are almost the same in real space Judged to be an area. The first reference area corresponds to the first reference area, and the second reference area corresponds to the second reference area.
基準領域追跡部44は、第1基準領域を追跡した後、第2基準領域と実空間上で同じ領域である第2参照領域の位置を、撮像画像上で探索する。つまり、基準領域追跡部44は、第1基準領域でおおまかな追跡をした後、第1基準領域内に設定した複数のより小さい第2基準領域によって、細かな位置の変動を検出する。これにより、最初から第2基準領域で追跡をするより、第2参照領域の位置はより安定して検出され、また、より小さい画素単位、例えば1/4画素や1/16画素の単位で位置ずれが算出され、この結果、地面の凹凸をより高い精度で効率的に算出することが可能となる。なお、基準領域を追跡するとは、撮像画像上で基準領域と実空間上で同じ領域を探索してその領域の画素値および位置情報を検出することをいう。 After tracking the first reference area, the reference area tracking unit 44 searches the captured image for the position of the second reference area, which is the same area in real space as the second reference area. In other words, the reference area tracking unit 44 performs rough tracking in the first reference area, and then detects minute position fluctuations using a plurality of smaller second reference areas set in the first reference area. As a result, the position of the second reference area is detected more stably than when the second reference area is tracked from the beginning, and the position is determined in smaller pixel units, for example, 1/4 pixel or 1/16 pixel units. The deviation is calculated, and as a result, the unevenness of the ground can be efficiently calculated with higher accuracy. Note that tracking the reference area means searching for the same area in the real space as the reference area on the captured image and detecting the pixel value and position information of the area.
凹凸検出部48は、基準領域の位置情報と、新たな撮像画像において基準領域と実空間上で同じ領域である参照領域の複数の位置情報にもとづいて、基準領域の集合の実空間上の地面の高さ分布を算出する。高さ分布は、実空間上の地面の凹凸を表し、撮像画像上で直線状に設定された基準領域に対する凹凸を表す。具体的には凹凸検出部48は、第2基準領域に対応する第2参照領域の位置情報にもとづいて、実空間上の地面の凹凸を検出する。詳細な凹凸算出方法は後述する。基準領域設定部40において直線状の第2基準領域の集合を複数列設定しているため、高さ分布もその集合の列数に応じた数だけ算出される。地面の高さ分布をもとに地面の凹凸を算出するため、天候や日照などの条件による土壌表面の色や影に影響されずに、精度良く地面の凹凸を算出できる。 The concavo-convex detection unit 48 is based on the position information of the reference area and the plurality of pieces of position information of the reference area that is the same area as the reference area in the new captured image. The height distribution of is calculated. The height distribution represents the unevenness of the ground in the real space, and represents the unevenness with respect to the reference region set linearly on the captured image. Specifically, the unevenness detection unit 48 detects the unevenness of the ground in the real space based on the position information of the second reference region corresponding to the second reference region. A detailed unevenness calculation method will be described later. Since the reference area setting unit 40 sets a plurality of sets of linear second reference areas, the height distribution is calculated by the number corresponding to the number of columns in the set. Since the unevenness of the ground is calculated based on the height distribution of the ground, the unevenness of the ground can be accurately calculated without being affected by the color and shadow of the soil surface due to conditions such as weather and sunlight.
凹凸検出部48は、算出した高さ分布から特徴的な地面の凹凸(段部)を検出する。たとえば凹凸検出部48は、高さのデータ列を分析し、所定値以上の高低差を有する部分を段部として抽出し、あるいは、予め記憶された凹凸形状のパターンと一致する部分の探索を行う。段部は、凹部でも凸部であってもよい。最初に第2基準領域を直線状に設定しているため、段部を精度良く検出することができる。凹凸検出部48は、検出した段部の位置情報および形状を記憶部34に記憶させる。 The unevenness detector 48 detects characteristic ground unevenness (steps) from the calculated height distribution. For example, the concavo-convex detection unit 48 analyzes the height data string, extracts a part having a height difference of a predetermined value or more as a stepped part, or searches for a part that matches a pre-stored concavo-convex pattern. . The stepped portion may be a concave portion or a convex portion. Since the second reference region is set to be linear at first, the step portion can be detected with high accuracy. The unevenness detection unit 48 stores the detected position information and shape of the stepped portion in the storage unit 34.
凹凸検出部48は、撮像画像上で複数の第2基準領域が上下に並列に設定される場合に、ある第2基準領域の高さ分布で検出した段部の形状の情報をもとに、別の第2基準領域の高さ分布から、パターンマッチングの手法を用いて同様の段部形状を持つ部分を検出する。検出される段部の多くは、前行程の作業で畝を作った際に形成された段差や溝であるため、撮像画像上では上下方向に連続している。複数の高さ分布から検出された段部を連結して、撮像画像上の上下に延びる段部のラインを検出する。 When the plurality of second reference regions are set up and down in parallel on the captured image, the unevenness detection unit 48 is based on the information on the shape of the step detected by the height distribution of a certain second reference region. A portion having the same step shape is detected from the height distribution of another second reference region using a pattern matching method. Many of the detected stepped portions are steps and grooves formed when a ridge is made in the previous process, and thus are continuous in the vertical direction on the captured image. By connecting the step portions detected from the plurality of height distributions, the line of the step portion extending in the vertical direction on the captured image is detected.
目標位置検出部50は、検出された段部にもとづいて車両走行の目標となる目標位置を算出する。具体的には、目標位置検出部50は、実空間上で同じ種類の段部であると判定された複数の高さ分布の段部をつないで目標走行ラインを生成する。次に、目標位置検出部50は、車両1から所定の間隔だけ前方にある目標走行ライン上の位置を目標位置として設定する。あるいは、複数の高さ分布の段部の位置を加重平均して1個の位置に集約し、これを目標位置として設定する。 The target position detection unit 50 calculates a target position that is a target for vehicle travel based on the detected stepped portion. Specifically, the target position detection unit 50 generates a target travel line by connecting a plurality of height distribution steps determined to be the same type of steps in real space. Next, the target position detection unit 50 sets a position on the target travel line that is ahead of the vehicle 1 by a predetermined interval as a target position. Alternatively, a plurality of height distribution step positions are weighted and averaged into one position, which is set as a target position.
目標補正部46は、設定した目標位置に対して車両を精確に誘導するための、目標位置の補正量を算出し、補正した目標位置を目標舵角算出部51に送出する。目標補正部46は、車両の横ずれを検出することで第1補正量を算出する第1補正部52と、過去の目標位置と車両の位置とを比べて第2補正量を算出する第2補正部54と、目標走行ラインの曲率にもとづいて第3補正量を算出する第3補正部56を有する。 The target correction unit 46 calculates a correction amount of the target position for accurately guiding the vehicle to the set target position, and sends the corrected target position to the target steering angle calculation unit 51. The target correction unit 46 compares the first correction unit 52 that calculates the first correction amount by detecting the lateral shift of the vehicle, and the second correction that calculates the second correction amount by comparing the past target position and the vehicle position. And a third correction unit 56 that calculates a third correction amount based on the curvature of the target travel line.
第1補正部52は、まず、第1基準領域の設定時の撮像画像上での位置を消失点の位置と比較し、実空間で第1基準領域に相当する地面の位置を算出する。続いて、新たに撮像した撮像画像上での第1参照領域の位置を消失点の位置と比較し、実空間で第1参照領域に相当する地面の位置を算出する。これらの地面の位置は車両1に搭載されたカメラ11からの相対位置であり、第1基準領域に相当する地面と第1参照領域に相当する地面は、実空間で同じ地面であるので、二つの相対位置の差から、車両1の前後方向と左右方向の移動量が算出される。また、撮像画像上での消失点の左右方向の移動量から、車両1の旋回量が算出され、車両1の前後方向と左右方向の移動量と旋回量から、車両1の横ずれの発生量が算出される。横ずれとは、車両の前後方向への走行に対し、車輪が横方向に滑ることで車両が左右方向にずれ動く状況である。 First, the first correction unit 52 compares the position on the captured image when the first reference area is set with the position of the vanishing point, and calculates the position of the ground corresponding to the first reference area in real space. Subsequently, the position of the first reference area on the newly captured image is compared with the position of the vanishing point, and the position of the ground corresponding to the first reference area in the real space is calculated. These ground positions are relative positions from the camera 11 mounted on the vehicle 1, and the ground corresponding to the first reference area and the ground corresponding to the first reference area are the same ground in real space. The amount of movement of the vehicle 1 in the front-rear direction and the left-right direction is calculated from the difference between the two relative positions. Further, the turning amount of the vehicle 1 is calculated from the amount of movement of the vanishing point in the left-right direction on the captured image, and the amount of lateral deviation of the vehicle 1 is calculated from the amount of movement and turning of the vehicle 1 in the front-rear direction and the left-right direction. Calculated. The lateral displacement is a situation in which the vehicle moves in the left-right direction due to the wheels sliding in the lateral direction as the vehicle travels in the front-rear direction.
横ずれの発生は、車両1が目標位置へ追従走行する精度を低下させるので、第1補正部52は横ずれを打ち消すように、第1補正量を算出する。第1補正部52は、実空間で同じ領域を撮像画像上で追跡し、それらの領域の位置ずれにもとづいて第1補正量を算出する。第1補正量は、例えば車両1が目標位置までの距離を前進する間に、左側に10cmほど横ずれを生じていると算出されると、目標位置を右側に10cmほど移動して補正し、補正した目標位置に向かうように操舵角を算出する。この補正により、車両1は横ずれが発生しても、目標位置に精確に追従することができる。 Since the occurrence of the lateral shift reduces the accuracy with which the vehicle 1 follows the target position, the first correction unit 52 calculates the first correction amount so as to cancel the lateral shift. The first correction unit 52 tracks the same area in the real space on the captured image, and calculates the first correction amount based on the positional deviation of these areas. The first correction amount is corrected by moving the target position about 10 cm to the right side and correcting if the lateral displacement of about 10 cm occurs on the left side while the vehicle 1 advances the distance to the target position, for example. The steering angle is calculated so as to go to the target position. With this correction, the vehicle 1 can accurately follow the target position even if a lateral shift occurs.
第2補正部54は、過去の目標位置と車両の位置との位置ずれ量にもとづいて、目標位置を補正する第2補正量を算出する。過去の目標位置は、目標位置検出部50により検出された目標走行ライン上の目標位置で、仮想2次元空間上の位置情報として記憶部34に記憶される。仮想2次元空間の位置情報は、実空間の前後左右の距離に対応し、各時刻での車両1を原点に設定してよい。第1補正部52で算出される車両1の前後、左右の移動量と旋回量により、過去の目標位置と車両1の相対位置が仮想2次元空間上で算出される。これにより、撮像画像に写らない車両1の直下付近での目標走行ラインの位置が算出され、車両1と目標走行ラインの位置のずれ量が把握される。この位置のずれ量に応じて、現在の目標位置に補正を加えることで、目標走行ラインへの追従精度を高めることができる。 The second correction unit 54 calculates a second correction amount for correcting the target position based on the positional deviation amount between the past target position and the vehicle position. The past target position is a target position on the target travel line detected by the target position detection unit 50, and is stored in the storage unit 34 as position information in the virtual two-dimensional space. The position information in the virtual two-dimensional space corresponds to the distances in the front, rear, left and right of the real space, and the vehicle 1 at each time may be set as the origin. The past target position and the relative position of the vehicle 1 are calculated in the virtual two-dimensional space based on the movement amount and the turning amount of the vehicle 1 before and after and calculated by the first correction unit 52. Thereby, the position of the target travel line in the vicinity immediately below the vehicle 1 that is not shown in the captured image is calculated, and the amount of deviation between the position of the vehicle 1 and the target travel line is grasped. By correcting the current target position according to the position shift amount, it is possible to improve the tracking accuracy to the target travel line.
具体的には、第2補正部54は、撮像毎に撮像画像から算出される車両1の移動量にもとづき、仮想2次元空間上で過去の目標位置の位置を計算する。例えば、車両1が前方に30cm、左方向に5cm移動したと算出されると、過去の目標位置は手前に30cm、右方向に5cmほど仮想2次元空間上で移動させることにより、車両1に対する相対位置が推定される。また、過去の目標位置が車両1の直下付近に達した時、例えば、過去の目標位置が車両1の10cmほど左側に位置していた場合には、目標位置を右側に10cmほど移動して補正し、補正した目標位置に向かうように操舵角を算出する。この補正により、車両1は目標位置に精確に追従することができる。なお、過去の目標位置との偏差を判定する車両側の位置は、車両の中心や、車両の後部に接続した作業機の中心などに設定してよい。 Specifically, the second correction unit 54 calculates the position of the past target position in the virtual two-dimensional space based on the movement amount of the vehicle 1 calculated from the captured image for each imaging. For example, if it is calculated that the vehicle 1 has moved 30 cm forward and 5 cm to the left, the past target position is moved 30 cm forward and 5 cm to the right to move relative to the vehicle 1. The position is estimated. Further, when the past target position has reached a position immediately below the vehicle 1, for example, if the past target position is located about 10 cm to the left of the vehicle 1, the target position is moved about 10 cm to the right and corrected. Then, the steering angle is calculated so as to go to the corrected target position. By this correction, the vehicle 1 can accurately follow the target position. The position on the vehicle side for determining the deviation from the past target position may be set at the center of the vehicle, the center of the work machine connected to the rear part of the vehicle, or the like.
第3補正部56は、目標追従ラインがカーブしている際に、目標追従ラインの曲率にもとづいて、目標位置を補正する第3補正量を算出する。目標走行ラインがカーブしている場合に、目標位置を目標走行ライン上に設定し、さらに、車両1の方向を目標位置に向ける操舵方法を行うと、車両1は常に目標走行ラインの内径側を走行し、目標走行ラインに対して偏差を生じる可能性がある。そこで、目標走行ラインがカーブしている場合は、目標位置を目標走行ラインの径方向外側に補正する第3補正量を算出する。これにより目標走行ラインへの追従精度を高めることができる。 The third correction unit 56 calculates a third correction amount for correcting the target position based on the curvature of the target tracking line when the target tracking line is curved. If the target position is set on the target travel line when the target travel line is curved, and the steering method for directing the direction of the vehicle 1 to the target position is performed, the vehicle 1 always keeps the inner diameter side of the target travel line. There is a possibility that the vehicle travels and a deviation occurs from the target travel line. Therefore, when the target travel line is curved, a third correction amount for correcting the target position radially outward of the target travel line is calculated. Thereby, the follow-up accuracy to the target travel line can be increased.
具体的には、第3補正部56は、目標追従ラインの曲率にもとづいて第3補正量を算出する。第3補正部56は、目標追従ラインが車両1の右方向に曲がっている場合、車両1が目標位置より左側に進む第3補正量を算出する。また、第3補正部56は、目標追従ラインが車両1の左方向に曲がっている場合、車両1が目標位置より右側に進む第3補正量を算出する。このように、目標追従ラインが曲がっている場合、目標追従ラインの外側に向かって車両の舵角を補正する。 Specifically, the third correction unit 56 calculates the third correction amount based on the curvature of the target tracking line. The third correction unit 56 calculates a third correction amount in which the vehicle 1 advances to the left side from the target position when the target tracking line is bent in the right direction of the vehicle 1. Moreover, the 3rd correction | amendment part 56 calculates the 3rd correction amount which the vehicle 1 advances to the right side from a target position, when the target tracking line is turning in the left direction of the vehicle 1. FIG. As described above, when the target tracking line is bent, the steering angle of the vehicle is corrected toward the outside of the target tracking line.
また、第3補正部56は、目標位置とその周囲の画素値の分布パターンの情報により、目標位置より遠方側の目標追従ラインの位置を探索し、仮想2次元空間上の位置を算出する。さらに、第2補正部54で算出された過去の目標位置の仮想2次元空間上の位置情報を加えることで、目標追従ラインの位置を前後方向に渡って検出し、その2次元的な形状からカーブの曲率を算出する。 Further, the third correction unit 56 searches for the position of the target tracking line farther from the target position based on the distribution pattern of the target position and the surrounding pixel values, and calculates the position in the virtual two-dimensional space. Further, by adding position information of the past target position calculated in the second correction unit 54 in the virtual two-dimensional space, the position of the target follow-up line is detected in the front-rear direction, and the two-dimensional shape is detected. Calculate the curvature of the curve.
ここで、車両1の操舵方法を説明する。舗装路を走行する乗用車などの車両では、通常時はタイヤと路面の摩擦が大きく、スリップはほとんど発生しないので、ある目標位置に移動しようとする場合には、ある舵角を保持して旋回しながら目標位置に到達する操舵方法が採用される。一方、柔らかい土壌上を走行する農用車両では、タイヤの摩擦が小さく、舵角と旋回半径の関係は不安定となる。そこで、車両の走行を制御する方法として、目標位置を定め、その目標位置に向かって車両の方向を制御する操舵方法を採用する。 Here, a steering method of the vehicle 1 will be described. In a car such as a passenger car traveling on a paved road, the friction between the tire and the road surface is usually large and slip hardly occurs. Therefore, when trying to move to a certain target position, the vehicle turns with a certain rudder angle. However, a steering method that reaches the target position is adopted. On the other hand, in agricultural vehicles that run on soft soil, tire friction is small, and the relationship between the steering angle and the turning radius becomes unstable. Therefore, as a method for controlling the travel of the vehicle, a steering method is adopted in which a target position is determined and the direction of the vehicle is controlled toward the target position.
目標補正部46は、算出した目標位置の各補正量を単独に、あるいは合計して、目標舵角算出部51に送出する。なお、目標補正部46は、第1補正量、第2補正量および第3補正量のうち、いずれかひとつ目標舵角算出部51に送出、またはいずれか2つを合計して目標舵角算出部51に送出してよい。また、目標補正部46は、第1補正量、第2補正量および第3補正量の各補正量にそれぞれ閾値を設け、閾値以下の補正量を用いないとしてもよい。これにより、敏感な補正により操舵がふらつくことを抑えることができる。目標補正部46は、目標位置の補正量に応じた舵角の補正量を算出し、舵角補正量として目標舵角算出部51に送出してもよい。また、目標補正部46は、各補正量にそれぞれの係数を掛けて統合化した補正量を算出してもよい。 The target correction unit 46 sends the calculated correction amounts of the target position individually or in total to the target rudder angle calculation unit 51. The target correction unit 46 sends one of the first correction amount, the second correction amount, and the third correction amount to the target rudder angle calculation unit 51, or adds any two to calculate the target rudder angle. You may send to the part 51. Further, the target correction unit 46 may set a threshold value for each of the first correction amount, the second correction amount, and the third correction amount, and may not use a correction amount equal to or less than the threshold value. Thereby, it is possible to prevent the steering from fluctuating due to sensitive correction. The target correction unit 46 may calculate a steering angle correction amount according to the correction amount of the target position, and send it to the target steering angle calculation unit 51 as the steering angle correction amount. Further, the target correction unit 46 may calculate a correction amount integrated by multiplying each correction amount by the respective coefficient.
目標補正部46で算出される第1補正量、第2補正量、第3補正量のそれぞれの特徴を説明する。過去の目標位置にもとづく第2補正量は、車両の横ずれやカーブに起因する目標ラインとの誤差も補正する効果を有しているが、過去の目標位置が車両1の直下まで移動しないと、目標ラインとの誤差が検出されないため、補正が遅れる欠点がある。一方、車両の横ずれにもとづく第1補正量は、車両が走行を開始して直に横ずれの発生を検知することも可能であるため、目標ラインとの誤差が顕著に拡大する前に、補正を加えることが可能となる。また、目標ラインのカーブに起因する第3補正量は、車両がカーブに進入する以前に、カーブを検知して補正を加えることが可能となる。また、第1補正量、第3補正量の効果が不十分で、目標ラインとの誤差が発生した場合には、第2補正量によって追加の補正がなされることが期待される。このように複数の補正を加えることで、目標ラインへの追従の精度を確実に高めることができる。 The characteristics of the first correction amount, the second correction amount, and the third correction amount calculated by the target correction unit 46 will be described. The second correction amount based on the past target position has an effect of correcting an error with respect to the target line caused by a lateral shift or a curve of the vehicle, but if the past target position does not move to just below the vehicle 1, Since an error from the target line is not detected, there is a drawback that correction is delayed. On the other hand, the first correction amount based on the lateral deviation of the vehicle can also detect the occurrence of lateral deviation immediately after the vehicle starts running, so the correction is made before the error from the target line increases significantly. It becomes possible to add. Further, the third correction amount resulting from the curve of the target line can be corrected by detecting the curve before the vehicle enters the curve. In addition, when the effects of the first correction amount and the third correction amount are insufficient and an error from the target line occurs, it is expected that additional correction is performed by the second correction amount. By adding a plurality of corrections in this way, the accuracy of following the target line can be reliably increased.
目標舵角算出部51は、目標位置検出部50で検出された目標位置に、目標補正部46で算出された補正量を加えて目標位置を補正し、補正後の目標位置に向かって車両の方向を制御する目標舵角を算出する。一般的な形態として、カメラ11は車両1の中心線上に設置され、また、カメラ11の正面方向は、車両1の正面方向と一致するように調整されるため、目標舵角算出部51は、補正後の目標位置が撮像画像の中心線と重なるように、車両1の舵角を算出する。このように撮像画像を画像処理部32により処理することで車両1の目標舵角を算出できる。撮像画像を参照して画像処理について詳細に説明する。 The target rudder angle calculation unit 51 corrects the target position by adding the correction amount calculated by the target correction unit 46 to the target position detected by the target position detection unit 50, and moves the vehicle toward the corrected target position. A target rudder angle for controlling the direction is calculated. As a general form, the camera 11 is installed on the center line of the vehicle 1, and the front direction of the camera 11 is adjusted so as to coincide with the front direction of the vehicle 1. The steering angle of the vehicle 1 is calculated so that the corrected target position overlaps the center line of the captured image. Thus, the target steering angle of the vehicle 1 can be calculated by processing the captured image by the image processing unit 32. Image processing will be described in detail with reference to the captured image.
図5(a)は、基準領域104を設定した過去の時点での撮像画像59を示す図である。図5(b)は、基準領域104を設定した後に、トラクタを前進させた位置での撮像画像60を示し、図5(c)は図5(b)に示す撮像画像60の部分拡大図である。また、図6(a)〜図6(c)は、図5(a)〜図5(c)に示す撮像画像を写真で示す図である。撮像画像59には、地平線62、第1段部64および第2段部66が撮像されている。 FIG. 5A is a diagram illustrating a captured image 59 at a past time point when the reference region 104 is set. FIG. 5B shows a captured image 60 at a position where the tractor is advanced after setting the reference region 104, and FIG. 5C is a partially enlarged view of the captured image 60 shown in FIG. 5B. is there. Moreover, Fig.6 (a)-FIG.6 (c) are figures which show the picked-up image shown to Fig.5 (a)-FIG.5 (c) with a photograph. In the captured image 59, the horizon 62, the first step portion 64, and the second step portion 66 are picked up.
消失点追跡部41は、図5(a)の撮像画像に対して、地平線62と撮像画像上の車両の正面方向63の交点に消失点70を設定し、消失点70を含む遠方の風景が写る領域に遠方領域71を設定する。遠方領域71は複数の画素値で構成され、撮像毎に撮像画像上で類似する画素値の分布を持つ領域として追跡され、その遠方領域71の上下、左右の位置の変化にもとづいて、撮像画像上の消失点70の位置を撮像毎に特定する。図5(a)に示す一つの基準領域104は複数の画素からなる領域であり、基準領域設定部40に設定された複数の基準領域104が、直線状に一列に配列された集合102を構成する。 The vanishing point tracking unit 41 sets a vanishing point 70 at the intersection of the horizon 62 and the front direction 63 of the vehicle on the captured image with respect to the captured image of FIG. A far field 71 is set in the image area. The far region 71 is composed of a plurality of pixel values, and is tracked as a region having a similar distribution of pixel values on the captured image for each imaging, and the captured image is based on the change in the vertical and horizontal positions of the far region 71. The position of the upper vanishing point 70 is specified for each imaging. One reference area 104 shown in FIG. 5A is an area composed of a plurality of pixels, and a plurality of reference areas 104 set in the reference area setting unit 40 constitutes a set 102 arranged in a straight line. To do.
図5(b)には、設定された基準領域104が直線状の集合102として示されている。車両1が第1段部64に沿って前進すると撮像位置が移動し、集合102の基準領域と実空間上で同じである集合108の参照領域は、撮像画像中で下方に移動する。移動後の画像である図5(b)には、図5(a)で設定した基準領域104と同じ位置に集合102を示すと共に、集合102の基準領域と実空間上で同じ地面を、参照領域110およびその集合108として示す。集合108は、集合102と類似する輝度分布パターンを画像上で探索することによって追跡される。 In FIG. 5B, the set reference area 104 is shown as a linear set 102. When the vehicle 1 moves forward along the first step portion 64, the imaging position moves, and the reference area of the set 108 that is the same as the reference area of the set 102 in real space moves downward in the captured image. FIG. 5B, which is the image after movement, shows the set 102 at the same position as the reference area 104 set in FIG. 5A, and refers to the same ground in real space as the reference area of the set 102. Shown as region 110 and its collection 108. The set 108 is tracked by searching the image for a luminance distribution pattern similar to the set 102.
図5(c)に示すように、3つの基準領域104は直線状の一列の集合102として設定されており、1つの基準領域104内に複数の第2の基準領域106が直線状の集合として設定される。基準領域104を、以降では第1基準領域104と呼ぶ。第1基準領域104および第2基準領域106は地平線62に平行に設定される。また、第2基準領域106は、第1基準領域104と同じ縦幅の画素を有するが、横幅は狭くなっており、例えば第1基準領域104の横幅が40画素であるのに対し、第2基準領域106の横幅は5画素であり、横方向に重複しながら3〜4画素の間隔で設定される。図5(b)では各々の第2基準領域106の中心点を示す。設定した各々の基準領域の画素値および位置情報は記憶部34に記憶される。 As shown in FIG. 5C, the three reference regions 104 are set as a linear set 102, and a plurality of second reference regions 106 are set as a linear set in one reference region 104. Is set. Hereinafter, the reference area 104 is referred to as a first reference area 104. The first reference area 104 and the second reference area 106 are set parallel to the horizon 62. The second reference area 106 has pixels having the same vertical width as the first reference area 104, but the horizontal width is narrow. For example, the first reference area 104 has a horizontal width of 40 pixels, whereas the second reference area 106 has a second width. The width of the reference area 106 is 5 pixels, and is set at an interval of 3 to 4 pixels while overlapping in the horizontal direction. FIG. 5B shows the center point of each second reference region 106. The set pixel value and position information of each reference area are stored in the storage unit 34.
図5(c)に示す第1参照領域110は、第1基準領域104と実空間上で同じ領域(地面)であると判定された領域であり、また、第2参照領域112は第2基準領域106と同じ領域(地面)であると判定された領域である。 The first reference area 110 shown in FIG. 5C is an area determined to be the same area (ground) in the real space as the first reference area 104, and the second reference area 112 is the second reference area 112. This is an area determined to be the same area (ground) as the area 106.
ここで画像上のij座標を説明する。図5(b)に示すように画像の左下隅を原点とし、上方向にj座標、右方向にi座標を設定する。ij座標の単位は画素であり、図6に例示する写真画像は、横640画素、縦480画素のサイズである。図5(b)に示すように地平線62の縦座標はjvであり、また、集合102の第2基準領域106は、いずれも縦座標jaである。 Here, the ij coordinates on the image will be described. As shown in FIG. 5B, the lower left corner of the image is set as the origin, and the j coordinate is set in the upward direction and the i coordinate is set in the right direction. The unit of ij coordinates is a pixel, and the photographic image illustrated in FIG. 6 has a size of 640 pixels wide and 480 pixels high. As shown in FIG. 5B, the ordinate of the horizon 62 is jv, and all the second reference areas 106 of the set 102 are ordinate ja.
第1段部64の地面の断面形状は、例えば図6(c)に示すような、V字形の溝であり、各部に高低差のある形状である。第1段部64の高い部分にある第2参照領域の縦座標はjbhとなり、一方、溝の底などの低い部分の第2参照領域の縦座標はjblとなる。第2基準領域106が設定された縦座標jaに対して、より低い部分の第2参照領域の縦方向の移動量は小さくなる。これは、実空間での同じ移動量に対して、低い部分は高い部分に比べてカメラ11からの距離が遠くなるので、画像上での移動量が小さくなるためである。このように図5(a)の画像上では、一本の直線上にあった基準領域の集合が、図5(b)のような新たな撮像画像では、地面の凹凸に応じて直線上の位置から変化が生じる。 The cross-sectional shape of the ground of the first step portion 64 is, for example, a V-shaped groove as shown in FIG. 6C, and each portion has a height difference. The ordinate of the second reference region at the high portion of the first step 64 is jbh, while the ordinate of the second reference region at the lower portion such as the bottom of the groove is jbl. The amount of movement in the vertical direction of the lower reference portion of the second reference area becomes smaller than the ordinate ja in which the second reference area 106 is set. This is because, with respect to the same movement amount in the real space, the lower part has a longer distance from the camera 11 than the higher part, and thus the movement amount on the image becomes smaller. As described above, in the image of FIG. 5A, a set of reference areas that existed on one straight line is shown on the straight line in a new captured image as shown in FIG. Change occurs from position.
基準領域追跡部44は、第1基準領域104と実空間上で同じ領域を追跡し、第1基準領域104と最も類似する輝度分布をもつ領域を探索する。基準領域追跡部44は、第1基準領域104と類似度が最も高い領域を実空間上で同じ領域であると判定し、その領域を第1参照領域110として、その画素値および位置情報を記憶部34に記憶させる。 The reference area tracking unit 44 tracks the same area in the real space as the first reference area 104 and searches for an area having a luminance distribution most similar to the first reference area 104. The reference area tracking unit 44 determines that the area having the highest degree of similarity with the first reference area 104 is the same area in the real space, and stores the pixel value and position information as the first reference area 110. Stored in the unit 34.
基準領域追跡部44は、第1基準領域104の追跡をして第1参照領域110を探索した後、所定条件を満たせば、第1基準領域104の中に第2基準領域106を設定し、第1参照領域110の周辺の探索を行う。所定条件は、例えば第1基準領域を設定した後、車両が前方に移動して撮像画像上で第1参照領域が下方へ移動して行き、その縦座標の移動量が所定値以上となった場合や、車両が前方に移動量が所定値以上となった場合である。基準領域追跡部44は、第1参照領域110の周辺で第2基準領域106と類似度が最も高い領域を、実空間上で同じ領域であると判定して第2参照領域112を検出する。複数の第2参照領域112は、横一列の直線上から縦方向に位置ずれが生じており、凹凸検出部48は、その位置ずれにもとづいて実空間上の地面の凹凸を検出する。 After the reference area tracking unit 44 tracks the first reference area 104 and searches for the first reference area 110 and satisfies a predetermined condition, the reference area tracking unit 44 sets the second reference area 106 in the first reference area 104, A search around the first reference area 110 is performed. The predetermined condition is, for example, after setting the first reference area, the vehicle moves forward, the first reference area moves downward on the captured image, and the amount of movement of the ordinate becomes a predetermined value or more. Or when the amount of movement of the vehicle forward is greater than or equal to a predetermined value. The reference area tracking unit 44 determines that the area having the highest similarity with the second reference area 106 around the first reference area 110 is the same area in the real space, and detects the second reference area 112. The plurality of second reference regions 112 are displaced in the vertical direction from the horizontal line, and the unevenness detection unit 48 detects the unevenness of the ground in the real space based on the displacement.
図7は、撮像画像から地面の高さ分布を算出する方法を説明するための図である。第1基準領域104が設定された撮像画像59を撮像したカメラ位置をCa、新たな撮像画像60を撮像したカメラ位置をCbとする。一方、それぞれの位置での地面からの高さCAHは既知である。カメラ11が向く方向は、説明の簡素化のため水平方向とする。 FIG. 7 is a diagram for explaining a method of calculating the height distribution of the ground from the captured image. Assume that the camera position at which the captured image 59 in which the first reference area 104 is set is captured is Ca, and the camera position at which the new captured image 60 is captured is Cb. On the other hand, the height CAH from the ground at each position is known. The direction in which the camera 11 faces is the horizontal direction for simplicity of explanation.
車両1が、撮像画像59と撮像画像60の間に前進した距離Z0は、その時間差と車速から算出することができる。また、第1参照領域110の縦座標jbhに相当する角度θbh、または縦座標jblに相当する角度θblと、第1基準領域104の縦座標jaに相当する角度θaとの差から、距離Z0を算出することもできる。 The distance Z0 that the vehicle 1 has advanced between the captured image 59 and the captured image 60 can be calculated from the time difference and the vehicle speed. Further, the distance Z0 is calculated from the difference between the angle θbh corresponding to the ordinate jbh of the first reference region 110 or the angle θbl corresponding to the ordinate jbl and the angle θa corresponding to the ordinate ja of the first reference region 104. It can also be calculated.
例えば、高さGlの平坦な地面の上に高さdHの畝が存在したとする。この高さdHが求まれば、高さ分布が算出できる。高さ分布は、実空間上の地面の凹凸を表し、撮像画像上で直線状に設定された基準領域に対する凹凸を表す。カメラ位置Caから撮像した撮像画像59には、角度θaの方向に畝の上の領域Phがあり、また、平坦な地面の上の領域Plがある。撮像画像上では領域Phと領域Plは同じ縦座標ja上にあるが、領域Phおよび領域Plは実空間では異なる高さである。カメラ位置Caから領域Ph、領域Plまでの実空間上の水平距離Zah、Zalは下式で計算される。
Zal=CAH/tan(θa) ・・・(1)
Zah=(CAH−dH)/tan(θa) ・・・(2)
また、画像との関係は、式(3)で計算される。ここで、PWVは1画素の垂直方向の視野角のtan値である。
tan(θa)=PWV(jv−ja) ・・・(3)
For example, it is assumed that a ridge having a height dH exists on a flat ground having a height G1. If this height dH is obtained, the height distribution can be calculated. The height distribution represents the unevenness of the ground in the real space, and represents the unevenness with respect to the reference region set linearly on the captured image. The captured image 59 captured from the camera position Ca includes a region Ph above the ridge in the direction of the angle θa and a region Pl above the flat ground. In the captured image, the region Ph and the region Pl are on the same ordinate ja, but the region Ph and the region Pl have different heights in the real space. Horizontal distances Zah and Zal in real space from the camera position Ca to the region Ph and the region Pl are calculated by the following equations.
Zal = CAH / tan (θa) (1)
Zah = (CAH−dH) / tan (θa) (2)
Further, the relationship with the image is calculated by Expression (3). Here, PWV is the tan value of the viewing angle in the vertical direction of one pixel.
tan (θa) = PWV (jv−ja) (3)
車両が距離Z0ほど前進した点Cbの位置から実空間上の領域Ph、領域Plを見ると、上から見下ろす形となり、その方向には差異が生じる。領域Ph、領域Plについて、それぞれの角度をθbh、θbll、撮像画像上の縦座標をjbh、jblを用いて実空間上の水平距離Zbh、Zblは (1)〜(3)式と同様に下式の関係になる。
Zbl=CAH/tan(θbl) ・・・(4)
Zbh=(CAH−dH)/tan(θbh) ・・・(5)
tan(θbl)=PWV(jv−jbl) ・・・(6)
tan(θbh)=PWV(jv−jbh) ・・・(7)
When the region Ph and the region Pl in the real space are viewed from the position of the point Cb where the vehicle has advanced by a distance Z0, the shape looks down from above, and the direction is different. For the region Ph and the region Pl, the horizontal distances Zbh and Zbl in the real space using the angles θbh and θbl and the ordinates on the captured image jbh and jbl are the same as in the equations (1) to (3) below. It becomes an expression relationship.
Zbl = CAH / tan (θbl) (4)
Zbh = (CAH−dH) / tan (θbh) (5)
tan (θbl) = PWV (jv−jbl) (6)
tan (θbh) = PWV (jv−jbh) (7)
領域Phと領域Plの水平距離Zblは変化しないので、下式が得られる。
Zbl=Zal−Zah=Zbl−Zbh ・・・(8)
(8)式に(1)(2)(4)(5)式を代入して高低差dHで整理すると(9)式になる。
Zbl = Zal-Zah = Zbl-Zbh (8)
Substituting the equations (1), (2), (4), and (5) into the equation (8) and arranging them by the height difference dH yields the equation (9).
(9)式に(3)(6)(7)式を代入すると(10)式になり、jbhを(11)式のように書きかえて整理すると(12)式になる。djは、領域Phと領域Plの撮像画像60上の縦座標の差である。(12)式を見ると走行距離Z0とカメラ11の視野角PWVの値が直接的には不要となる点が注目される。
jbh=jbl−dj ・・・(11)
jbh = jbl-dj (11)
ここで、CAH=1970mm、jv=380画素、ja=250画素、jbl=230画素を(12)式に代入すると(13)式になる。
高さdHは縦座標差djに依存する値となる。第2基準領域106を横一直線に設定しているため、同じ集合であれば(jv−ja)の値も同じであり、djの値の分布のみからその地面の高さ分布が算出できる。
Here, when CAH = 1970 mm, jv = 380 pixels, ja = 250 pixels, and jbl = 230 pixels are substituted into equation (12), equation (13) is obtained.
The height dH is a value that depends on the ordinate difference dj. Since the second reference area 106 is set in a horizontal straight line, the value of (jv-ja) is the same for the same set, and the height distribution of the ground can be calculated from the distribution of the value of dj.
撮像画像60上での領域Plの撮像画像上の縦座標差djを式(11)により算出するにあたって、領域Phは、領域Plの横方向に隣接する領域であってよく、また、横方向に離れた位置の領域であってよい。また、縦座標差djは、領域Plの縦座標と、同じ集合の第2参照領域112の縦座標の平均値との差であってもよい。また、同じ集合の第2参照領域112の位置情報から最少二乗法により標準直線を算出し、その標準直線と、領域Plの縦座標との差により縦座標差djを算出してもよい。このような領域Phを比較対象となる領域といい、比較領域は、領域Plと同じ集合の第2参照領域112から定められ、任意の第2参照領域112であってよく、同じ第2参照領域112の集合を平均化または標準化した第2参照領域112であってよい。これにより、元は直線状に設定した第2基準領域106から、撮像位置が移動したことによる第2参照領域112の縦方向の相対的な位置の比較により算出された縦座標差djにもとづいて高さ分布を算出することができる。 In calculating the ordinate difference dj on the picked-up image of the region Pl on the picked-up image 60 by the equation (11), the region Ph may be a region adjacent to the region Pl in the horizontal direction, or in the horizontal direction. It may be a remote area. The ordinate difference dj may be a difference between the ordinate of the region Pl and the average value of the ordinates of the second reference region 112 of the same set. Alternatively, a standard line may be calculated from the position information of the second reference area 112 in the same set by the least square method, and the ordinate difference dj may be calculated from the difference between the standard line and the ordinate of the area Pl. Such a region Ph is referred to as a region to be compared, and the comparison region is determined from the second reference region 112 of the same set as the region Pl and may be an arbitrary second reference region 112, and the same second reference region The second reference region 112 may be an averaged or standardized set of 112. Thus, based on the ordinate difference dj calculated by comparing the relative position in the vertical direction of the second reference region 112 due to the movement of the imaging position from the second reference region 106 that was originally set in a straight line. The height distribution can be calculated.
なお、各参照領域は高さ方向(縦座標)のみでなく、前後方向の位置Z、左右方向(横座標)の位置Xの3次元位置も下式で計算される。
Z=(CAH−dH)/(PWV・(jv−jbh)) ・・・(14)
X=Z・PWH(ibh−iv) ・・・(15)
ここで、PWHは1画素の水平方向の視野角のtan値、ibhは撮像画像60の第2参照領域112の横座標、ivは撮像画像上で車両の前方正面の横座標である。これにより、目標追従ラインの三次元位置も算出できる。ここで、3次元空間でのXYZ座標は次のように設定する。まず、カメラ11の直下の地面上を原点とし、垂直上向きにY座標または高さH、車両の前方正面方向をZ座標、左右方向をX座標とする。
Each reference area is calculated not only in the height direction (ordinate), but also in the three-dimensional position of the position Z in the front-rear direction and the position X in the left-right direction (abscissa).
Z = (CAH−dH) / (PWV · (jv−jbh)) (14)
X = Z · PWH (ibh-iv) (15)
Here, PWH is the tan value of the horizontal viewing angle of one pixel, ibh is the abscissa of the second reference region 112 of the captured image 60, and iv is the abscissa of the front front of the vehicle on the captured image. Thereby, the three-dimensional position of the target tracking line can also be calculated. Here, the XYZ coordinates in the three-dimensional space are set as follows. First, the origin directly on the ground directly below the camera 11 is the Y coordinate or height H in the vertical upward direction, the front front direction of the vehicle is the Z coordinate, and the left and right direction is the X coordinate.
このように凹凸検出部48は、集合102が設定された実空間上の地面の高さ分布を第2参照領域112の縦座標にもとづいて算出し、算出された高さ分布から凹んだ第1段部64や段差を検出する。 As described above, the unevenness detection unit 48 calculates the height distribution of the ground in the real space where the set 102 is set based on the ordinate of the second reference region 112, and the first indented from the calculated height distribution. The step 64 and the step are detected.
図8は、連続的な画像処理により、複数の高さ分布を同時に算出する方法を説明するための図である。また、図9は、図8に示す撮像画像を写真で示す図である。図8(c)は、図8(b)に示す撮像画像72の部分拡大図である。図8(a)では、図5(b)で示した基準領域の追跡を繰り返し行ったことを示す。 FIG. 8 is a diagram for explaining a method of simultaneously calculating a plurality of height distributions by continuous image processing. Moreover, FIG. 9 is a figure which shows the captured image shown in FIG. 8 with a photograph. FIG. 8C is a partially enlarged view of the captured image 72 shown in FIG. FIG. 8A shows that the tracking of the reference region shown in FIG.
基準領域追跡部44は、図8(a)のように、撮像画像の下端から数十画素ほど上方の位置に第1基準領域104を設定し、引き続き一定の時間間隔で連続的に撮像される撮像画像に対して、第1基準領域104と実空間上で同じ領域である参照領域の追跡を行う。車両が前進するとともに、参照領域は撮像画像上で下方に移動して行き、参照領域が10画素ほど下方に移動すれば、撮像画像上の開いた部分に新しい基準領域を設定する。また、参照領域が撮像画像の下端に近づくと、その基準領域と参照領域を破棄し、画素値や位置などの情報を消去する。 As shown in FIG. 8A, the reference region tracking unit 44 sets the first reference region 104 at a position several tens of pixels above the lower end of the captured image, and continuously captures images at regular time intervals. A reference area that is the same area in the real space as the first reference area 104 is tracked for the captured image. As the vehicle moves forward, the reference area moves downward on the captured image, and if the reference area moves downward by about 10 pixels, a new reference area is set in an open portion on the captured image. When the reference area approaches the lower end of the captured image, the reference area and the reference area are discarded, and information such as pixel values and positions are deleted.
図8(a)には撮像画像72に対して新たに設定した第1基準領域104と、以前の撮像画像において第1基準領域104と概ね同じ位置にあったが、車両1の前進によって下方に移動した第1参照領域113、さらに以前の撮像画像において第1基準領域が設定された第1参照領域114、第1参照領域116、第1参照領域118を示す。 In FIG. 8A, the first reference area 104 newly set for the captured image 72 and the first reference area 104 in the previous captured image are substantially at the same position as the first reference area 104, but the vehicle 1 moves downward as the vehicle 1 advances The moved first reference area 113, and the first reference area 114, the first reference area 116, and the first reference area 118 in which the first reference area is set in the previous captured image are shown.
図8(b)および(c)では、第1参照領域114、第1参照領域116、第1参照領域118の追跡後に、各領域内で第2参照領域の追跡を行い、凹凸検出部48が第2参照領域の位置にもとづいて算出した実空間上の高さ分布を示す。第1高さ分布120、第2高さ分布122および第3高さ分布124は、第1参照領域114、第1参照領域116および第1参照領域118にそれぞれ対応する。 8B and 8C, after tracking the first reference area 114, the first reference area 116, and the first reference area 118, the second reference area is tracked in each area, and the unevenness detecting unit 48 The height distribution in the real space calculated based on the position of the second reference area is shown. The first height distribution 120, the second height distribution 122, and the third height distribution 124 correspond to the first reference region 114, the first reference region 116, and the first reference region 118, respectively.
高さ分布の算出において、基準領域と参照領域の画像縦方向の位置の移動量が小さいと、算出結果の誤差が大きくなる傾向がある。そこで、凹凸検出部48は、第1参照領域の縦方向の移動量が閾値以上である場合に、高さ分布を算出する。図8(b)では、上から2番目の第1参照領域113は移動量が閾値に達していないため、高さ分布を算出せず、上から3番目以降の第1参照領域は移動量が閾値に達しているため、高さ分布を算出する。これにより、高さ分布の算出結果の誤差を抑えることができ、第1段部64を精度良く検出できる。 In calculating the height distribution, if the amount of movement of the position in the image vertical direction between the reference region and the reference region is small, the error in the calculation result tends to increase. Therefore, the unevenness detection unit 48 calculates the height distribution when the amount of vertical movement of the first reference region is equal to or greater than the threshold value. In FIG. 8B, since the movement amount does not reach the threshold value in the second reference area 113 that is the second from the top, the height distribution is not calculated, and the movement amount is not calculated in the third and subsequent first reference areas from the top. Since the threshold is reached, the height distribution is calculated. Thereby, the error of the calculation result of height distribution can be suppressed, and the 1st step part 64 can be detected accurately.
図10は、検出された凹凸から溝を検出する方法について説明するための図である。図11は、図10に示す撮像画像74を写真で示す図である。図10は、図8で検出された第1高さ分布120、第2高さ分布122および第3高さ分布124が示される。 FIG. 10 is a diagram for explaining a method of detecting a groove from the detected unevenness. FIG. 11 is a diagram showing the captured image 74 shown in FIG. 10 as a photograph. FIG. 10 shows the first height distribution 120, the second height distribution 122, and the third height distribution 124 detected in FIG.
ここで目標走行ラインとして圃場に形成される溝などは、予め設定された溝の形成装置を使用することで、そのおおまかな形状は既知である。このように予め推測できる形状は、その代表的な形状を記憶部34に登録させ、検出される高さ分布に対してパターンマッチングの手法を適用し、一致度が所定レベル以上で、最も高い部分を同じ領域であると判定して検出してよい。これにより容易に追跡すべき地面の凹凸を検出することができる。 Here, the rough shape of the groove formed in the field as the target travel line is known by using a preset groove forming device. In this way, the shape that can be estimated in advance is registered in the storage unit 34, the pattern matching method is applied to the detected height distribution, and the degree of coincidence is a predetermined level or higher and the highest part. May be detected by determining that they are in the same region. Thereby, it is possible to easily detect the unevenness of the ground to be tracked.
記憶部34は、例えばV字状の溝に対応する登録形状126を保持する。目標位置検出部50は、第1高さ分布120、第2高さ分布122および第3高さ分布124に対してV字状の登録形状126でパターンマッチングを行って類似の形状を特定し、撮像画像上で上下に連なった段部を検出する。図10では、各々の高さ分布について、登録形状126との一致度が最も高い位置に、V字状の形状を図示する。 The storage unit 34 holds a registered shape 126 corresponding to, for example, a V-shaped groove. The target position detection unit 50 performs pattern matching with the V-shaped registered shape 126 on the first height distribution 120, the second height distribution 122, and the third height distribution 124 to identify similar shapes, A stepped portion that is continuous in the vertical direction on the captured image is detected. FIG. 10 illustrates a V-shaped shape at a position where the degree of coincidence with the registered shape 126 is the highest for each height distribution.
目標位置検出部50は、高さ分布に対して最も一致度の高い位置の登録形状126の底の部分の位置情報を段部として検出する。目標位置検出部50は、第1高さ分布120、第2高さ分布122および第3高さ分布124のそれぞれについて段部の位置情報を検出し、それらの位置を平均化することで目標位置26を算出する。これにより、圃場に形成された溝の段部を目標位置にできる。予め記憶された登録形状を用いてパターンマッチングすることで、容易に段部を検出することができ、段部の検出速度を向上することができる。 The target position detection unit 50 detects the position information of the bottom portion of the registered shape 126 at the position having the highest degree of coincidence with the height distribution as a stepped portion. The target position detection unit 50 detects the position information of the step portion for each of the first height distribution 120, the second height distribution 122, and the third height distribution 124, and averages the positions to thereby obtain the target position. 26 is calculated. Thereby, the step part of the groove | channel formed in the agricultural field can be made into a target position. By performing pattern matching using a pre-stored registered shape, it is possible to easily detect the stepped portion and improve the detection speed of the stepped portion.
図12は、基準領域の追跡により車両1の移動軌跡を算出する方法を説明するための図である。図12(a)では、時刻t1での車両1と第1基準領域104との位置関係を示す。第1基準領域104は、車両1の中心ライン128の延長線上に設定された状態である。カメラ11は車両1の中心ライン128上に設置されるため、撮像画像の中心ラインは、車両1の中心ライン128と一致する。なお、中心ライン128は車両1の中心を通り、車両1の正面方向に沿って延びる。 FIG. 12 is a diagram for explaining a method of calculating the movement trajectory of the vehicle 1 by tracking the reference area. FIG. 12A shows the positional relationship between the vehicle 1 and the first reference area 104 at time t1. The first reference area 104 is a state set on an extension line of the center line 128 of the vehicle 1. Since the camera 11 is installed on the center line 128 of the vehicle 1, the center line of the captured image matches the center line 128 of the vehicle 1. The center line 128 passes through the center of the vehicle 1 and extends along the front direction of the vehicle 1.
図12(b)では、時刻t2の車両1と第1参照領域110との位置関係を示す。第1参照領域110は、第1基準領域104と実空間上で同じ領域である。時刻t2では、車両1の前進により、第1参照領域110は車両1に接近するとともに、車両1の中心ライン128より右側に位置する状態とする。 FIG. 12B shows the positional relationship between the vehicle 1 and the first reference area 110 at time t2. The first reference area 110 is the same area in the real space as the first reference area 104. At time t <b> 2, the first reference area 110 approaches the vehicle 1 and moves to the right of the center line 128 of the vehicle 1 due to the forward movement of the vehicle 1.
図12(c)に示すように第1参照領域110を、図12(c)の左右中央の位置になるように配置すると、車両1は左方向に少し旋回した状態となる。続いて、第1基準領域104と第1参照領域110は実空間上で同じ領域であるので、これを重ね合わせると図12(d)に示すようになり、時刻t1から時刻t2の間での車両1の移動軌跡129、つまり移動量および旋回量がわかる。このように撮像画像上で基準領域を追跡することで、車両1の移動軌跡を算出できる。また、基準領域追跡部44は、図8(a)に示すような複数の基準領域を同時に追跡し、それぞれの算出結果を平均化することで、車両1の移動軌跡を精度よく算出できる。 As shown in FIG. 12C, when the first reference region 110 is disposed so as to be in the center of the left and right in FIG. 12C, the vehicle 1 is slightly turned leftward. Subsequently, since the first reference area 104 and the first reference area 110 are the same area in the real space, when they are overlapped, the result becomes as shown in FIG. 12D, and between time t1 and time t2. The movement locus 129 of the vehicle 1, that is, the movement amount and the turning amount can be known. By tracking the reference area on the captured image in this way, the movement locus of the vehicle 1 can be calculated. Further, the reference area tracking unit 44 can simultaneously calculate the movement locus of the vehicle 1 by tracking a plurality of reference areas as shown in FIG. 8A and averaging the calculation results.
図13は、第1補正部52による補正量の算出について説明するための図である。例えば圃場が左側に傾斜し、車両1の前進に伴って車両1が左方向に横ずれを起こす状況では、図13(a)に示すように、車両1の方向を目標位置26aに向かうように走行制御しても、目標走行ライン76aに対して、車両1は横ずれ77を継続的に生じる状態となる。 FIG. 13 is a diagram for explaining calculation of the correction amount by the first correction unit 52. For example, in a situation where the farm field is tilted to the left and the vehicle 1 causes a lateral shift in the left direction as the vehicle 1 moves forward, the vehicle 1 travels toward the target position 26a as shown in FIG. Even if it controls, the vehicle 1 will be in the state which produces the lateral shift 77 continuously with respect to the target travel line 76a.
複数の基準領域の追跡によって、車両1の横ずれ77が検出された場合には、図13(b)に示すように、目標走行ライン76a上の目標位置26aに対し、横ずれ77の分を加算して補正した目標位置26cを設定する。続いて、この目標位置26cに向けて車両1の方向が制御されるように操舵角を算出することにより、車両1の目標走行ライン76aへの追従精度を高めることができる。つまり、斜面などで車両1の横ずれ77が発生する状況においても、横ずれ77にもとづいて目標位置26aを補正することで、車両1を目標走行ライン76a上を走行させることができる。 When a lateral deviation 77 of the vehicle 1 is detected by tracking a plurality of reference areas, as shown in FIG. 13B, the lateral deviation 77 is added to the target position 26a on the target travel line 76a. The corrected target position 26c is set. Subsequently, by calculating the steering angle so that the direction of the vehicle 1 is controlled toward the target position 26c, the follow-up accuracy of the vehicle 1 to the target travel line 76a can be increased. In other words, even in a situation where the lateral displacement 77 of the vehicle 1 occurs on a slope or the like, the vehicle 1 can travel on the target travel line 76a by correcting the target position 26a based on the lateral displacement 77.
図14は、第2補正部54による補正量の算出について説明するための図であり、地面を俯瞰した平面図である。カメラ11の視野に入る地面上の範囲は、撮像範囲80のようになる。撮像範囲80より手前に位置する目標走行ラインはカメラ11の視野外となり撮像できない。そこで撮像範囲80内の境界付近で検出された目標走行ライン上の段部82に対し、その位置を記憶する。続いて、図12で示したように、撮像画像から撮像毎の車両1の移動軌跡を算出できるので、その移動軌跡を車両1の位置情報に反映すると、撮像範囲80の外に出た段部の位置82aが推算される。この計算処理を撮像毎に連続して行うことで、過去の段部の位置82aを継続的に追跡することができ、位置82aの追跡を、車両1の直下まで継続することにより、車両1と目標走行ラインの位置ずれ量78が算出される。この位置ずれ量78に応じて、第2補正部54により補正量79を算出し、段部82の位置を補正した補正目標位置83を算出する。 FIG. 14 is a diagram for explaining the calculation of the correction amount by the second correction unit 54, and is a plan view overlooking the ground. The range on the ground that falls within the field of view of the camera 11 is an imaging range 80. The target travel line located in front of the imaging range 80 is out of the field of view of the camera 11 and cannot be imaged. Therefore, the position of the step 82 on the target travel line detected near the boundary in the imaging range 80 is stored. Subsequently, as shown in FIG. 12, since the movement trajectory of the vehicle 1 for each imaging can be calculated from the captured image, if the movement trajectory is reflected in the position information of the vehicle 1, the stepped portion outside the imaging range 80 Position 82a is estimated. By continuously performing this calculation process for each imaging, it is possible to continuously track the position 82a of the past stepped portion. By continuing to track the position 82a directly below the vehicle 1, A positional deviation amount 78 of the target travel line is calculated. A correction amount 79 is calculated by the second correction unit 54 in accordance with the positional deviation amount 78, and a correction target position 83 obtained by correcting the position of the stepped portion 82 is calculated.
図14には、車両1の前進に伴い、過去の段部の位置82aが車両1に接近して来る状態を示す。記憶部34は、車両1の位置1aと過去の段部の位置82aとの縦横の偏差を位置情報として保持してよく、車両1の位置1aを仮想2次元空間上で常に原点に設定して過去の段部の位置82aの位置情報を変えてもよい。いずれにしても、記憶部34は過去の段部の位置82aと車両1の位置1aの位置関係を示す位置情報を保持する。新しい段部82の位置の記憶は、例えば、ある参照領域が撮像画像の下端に近づいて破棄される際に行い、また、位置82aが車両1の後方に達した時に、その記憶された情報を破棄してよい。このように同時に複数の段部の位置が記憶され、各々の段部の位置が並行して追跡される。 FIG. 14 shows a state where the past stepped portion position 82 a approaches the vehicle 1 as the vehicle 1 moves forward. The storage unit 34 may hold vertical and horizontal deviations between the position 1a of the vehicle 1 and the position 82a of the previous step as position information, and the position 1a of the vehicle 1 is always set as the origin in the virtual two-dimensional space. The position information of the past step position 82a may be changed. In any case, the storage unit 34 holds position information indicating the positional relationship between the position 82a of the previous stepped portion and the position 1a of the vehicle 1. The position of the new step 82 is stored when, for example, a certain reference area approaches the lower end of the captured image and is discarded, and when the position 82a reaches the rear of the vehicle 1, the stored information is stored. It can be discarded. In this way, the positions of a plurality of steps are stored at the same time, and the positions of the steps are tracked in parallel.
追跡される複数の段部の位置82aのうち、車両1との距離が閾値以内で、最も接近している段部の位置82aに対し、車両1の位置1aとの位置ずれ量78を算出する。位置ずれ量78は、実空間上の車両1の直下での目標走行ラインの位置ずれとして推定できる。第2補正部54は、撮像範囲内で検出される目標走行ライン上の目標位置に対し、位置ずれ量78だけ加算して目標位置を補正すように第2補正量を算出する。このように車両の位置と過去の目標位置とのずれを操舵に反映することで、フィードバック制御のように細かな位置ずれを精度よく修正することができ、目標走行ラインへの追従精度を高めることができる。 A positional deviation amount 78 from the position 1a of the vehicle 1 is calculated with respect to the closest position 82a of the step 1a that is closest to the vehicle 1 among the tracked positions 82a of the plurality of steps. . The positional deviation amount 78 can be estimated as the positional deviation of the target travel line immediately below the vehicle 1 in real space. The second correction unit 54 calculates the second correction amount so as to correct the target position by adding the positional deviation amount 78 to the target position on the target travel line detected within the imaging range. By reflecting the deviation between the vehicle position and the past target position in steering in this way, it is possible to accurately correct a small positional deviation like feedback control, and to improve the tracking accuracy to the target travel line. Can do.
図15は、遠方の段部を検出する方法を説明するための図である。また、図16は、図15に示す撮像画像84を写真で示す図である。図10および図11で説明したように、ひとたび目標走行ライン65上の段部と目標位置26が検出されると、図15に示すように目標位置26の位置に段部領域132を設定し、段部領域132の位置情報と画素値を記憶部34に記憶させる。段部領域132は、基準領域と同じように直線状の複数の画素値で構成されてよい。第3補正部56は、撮像画像84において段部領域132の上方の位置、実空間では遠方の位置で、段部領域132と類似する画素値の分布を有する領域である参照段部領域130を探索する。 FIG. 15 is a diagram for explaining a method of detecting a distant stepped portion. FIG. 16 is a view showing the captured image 84 shown in FIG. 15 as a photograph. 10 and 11, once the stepped portion on the target travel line 65 and the target position 26 are detected, the stepped region 132 is set at the position of the target position 26 as shown in FIG. The position information and pixel value of the stepped region 132 are stored in the storage unit 34. The step region 132 may be composed of a plurality of linear pixel values in the same manner as the reference region. The third correction unit 56 sets the reference step region 130, which is a region having a distribution of pixel values similar to that of the step region 132, at a position above the step region 132 in the captured image 84 and a distant position in the real space. Explore.
第3補正部56は、パターンマッチングの手法で段部領域132と最も一致度の高い輝度分布を有する参照段部領域130を探索する。図16は、撮像画像84上で上方に20画素の間隔で10箇所の位置を探索した状況である。まず、検出した目標位置26を中心として、基準領域と同じ横幅で段部領域132を設定し、その画素値の分布を記憶する。続いて予め設定した間隔、図16では20画素ほど上方の位置に参照段部領域130を設定する。撮像画像84上では上方に位置するほど物体の画像は小さくなるので、地平線62からの高低差に比例させて段部領域132を縮小して画像パターンを生成する。参照段部領域130の横幅は、生成した画像パターンの横幅に、一定の探索範囲を左右に加えた範囲とする。この参照段部領域130の中で、生成した画像パターンとパターンマッチングを行い、最も類似度が高い位置を、位置130aとして抽出する。続いて、さらに20画素上方の位置に参照段部領域130を設定し、同様に画像パターンの生成とパターンマッチングの処理を行い、位置130aの抽出を行う。この処理を繰返して、上方の10箇所で位置130aを抽出し、記憶部34に記憶する。目標位置26と、その上方の10箇所の位置130aをつないだ位置に、実空間上で連なった段部があると推定でき、これを目標走行ラインとする。 The third correction unit 56 searches for a reference step region 130 having a luminance distribution having the highest degree of coincidence with the step region 132 by a pattern matching method. FIG. 16 shows a situation in which 10 positions are searched upward at intervals of 20 pixels on the captured image 84. First, with the detected target position 26 as the center, the step region 132 is set with the same width as the reference region, and the distribution of the pixel values is stored. Subsequently, the reference step region 130 is set at a preset interval, that is, at a position approximately 20 pixels above in FIG. Since the image of the object becomes smaller as the position is higher on the captured image 84, the stepped region 132 is reduced in proportion to the height difference from the horizon 62 to generate an image pattern. The width of the reference step region 130 is a range obtained by adding a certain search range to the left and right to the width of the generated image pattern. In the reference step region 130, pattern matching is performed with the generated image pattern, and a position having the highest similarity is extracted as a position 130a. Subsequently, a reference step region 130 is set at a position 20 pixels above, and image pattern generation and pattern matching processing are similarly performed to extract the position 130a. This process is repeated to extract the positions 130a at the upper 10 locations and store them in the storage unit 34. It can be estimated that there is a stepped portion in real space at the position connecting the target position 26 and the ten positions 130a above it, and this is the target travel line.
図17は、目標走行ラインの曲率を説明するための図であり、図15および図16で説明した撮像画像84を地面上に投影した平面図に、撮像範囲86および検出した目標位置26、参照段部領域130の位置130aを示す。参照段部領域130の位置130aは、撮像画像上では一定の間隔であるが、投影される地面上では、遠方になるにつれて互いの間隔が広くなる。 FIG. 17 is a diagram for explaining the curvature of the target travel line. In the plan view of the captured image 84 described in FIGS. 15 and 16 projected on the ground, the imaging range 86 and the detected target position 26 are referred. The position 130a of the stepped region 130 is shown. The positions 130a of the reference step region 130 are constant on the captured image, but on the projected ground, the distance between the positions 130a increases as the distance increases.
図17には、撮像範囲86の手前に出た、複数の過去の段部の位置134も示す。図17に示した目標位置26および複数の位置130a、位置134の点列を繋ぐと、平面図上での目標走行ライン88が連続的に算出される。第3補正部56は、目標走行ライン88の曲率を算出する。これらの点列に対して最小二乗法などを適用して2次方程式に当てはめ、その2乗の項の係数から、目標走行ラインの曲率を近似値として算出する。 FIG. 17 also shows a plurality of past step positions 134 that appear before the imaging range 86. When the target position 26 shown in FIG. 17 and the point sequences of the plurality of positions 130a and 134 are connected, the target travel line 88 on the plan view is continuously calculated. The third correction unit 56 calculates the curvature of the target travel line 88. The least square method or the like is applied to these point sequences and applied to a quadratic equation, and the curvature of the target travel line is calculated as an approximate value from the coefficient of the square term.
図18は、目標走行ライン90が曲がっている場合の、操舵の補正方法について説明するための地面上の平面図である。例えば、山際にある圃場では、山の形状に沿って湾曲している場合があり、目標走行ライン90も曲がった状態となる。図18では目標走行ライン90は、中心C、半径R1の円弧とする。図18には走行する車両1の移動軌跡94を示し、また、車両1の各位置において目標位置92a,92b,92c(これらを区別しない場合「目標位置92」という)が検出される状態を示す。 FIG. 18 is a plan view on the ground for explaining a steering correction method when the target travel line 90 is bent. For example, in an agricultural field on the mountainside, it may be curved along the shape of the mountain, and the target travel line 90 is also bent. In FIG. 18, the target travel line 90 is a circular arc having a center C and a radius R1. FIG. 18 shows a movement locus 94 of the traveling vehicle 1, and shows a state in which target positions 92 a, 92 b, and 92 c (referred to as “target position 92” when these are not distinguished) are detected at each position of the vehicle 1. .
各目標位置92は、車両1から所定の間隔Dだけ離れた目標走行ライン90上に検出される。間隔Dは、車両1の後輪車軸から目標位置92までの距離である。まず、車両1は正面方向が目標位置92aに向くように操舵制御される。続いて車両1の前進と共に、目標位置も目標走行ライン90上を間隔Dを保って前方に移動して行き、目標位置92aから目標位置92b,92cへと前方に移動して行く。このような走行制御が行われると、車両1の走行軌跡は目標走行ライン90の内側の軌跡94を通る結果となる。 Each target position 92 is detected on a target travel line 90 that is separated from the vehicle 1 by a predetermined distance D. The distance D is the distance from the rear wheel axle of the vehicle 1 to the target position 92. First, the vehicle 1 is steered so that the front direction faces the target position 92a. Subsequently, as the vehicle 1 moves forward, the target position also moves forward with a distance D on the target travel line 90, and then moves forward from the target position 92a to the target positions 92b and 92c. When such traveling control is performed, the traveling locus of the vehicle 1 passes through the locus 94 inside the target traveling line 90.
そのため、目標走行ライン90と車両1の軌跡94の間に横方向の横ずれ95が生じる。車両1の軌跡94の半径R2は(16)式で計算され、また横ずれ95は(17)式のように、半径R2と目標走行ライン90の半径R1の差として算出される。
R2=(R12 −D2)1/2 ・・・(16)
横ずれ95=R1−R2 ・・・(17)
Therefore, a lateral shift 95 occurs between the target travel line 90 and the track 94 of the vehicle 1. The radius R2 of the trajectory 94 of the vehicle 1 is calculated by the equation (16), and the lateral deviation 95 is calculated as a difference between the radius R2 and the radius R1 of the target travel line 90 as in the equation (17).
R2 = (R1 2 −D 2 ) 1/2 (16)
Side shift 95 = R1-R2 (17)
図19は、第3補正部56の補正について説明するための図である。図19に示す第3補正では、図18で示したように車両1の旋回が生じる状況で、車両1が目標走行ライン90の径方向外側を走行するように目標走行ライン90の曲率に応じて第3補正部56による補正をすることで、車両1が目標走行ライン90上を走行し、目標走行ライン90への追従精度を高めることができる。目標走行ライン90上に各目標位置92が検出され、また、目標走行ラインの曲率から半径R1が算出されると、(16)式と(17)式によって横ずれ95を算出する。続いて図19に示すように、各目標位置92を目標走行ライン90の径方向外側に、横ずれ95だけ移動させた目標位置96a,96b,96cを設定する。このような補正後の目標位置96a,96b,96cに対して、車両1の正面が向くように操舵制御することで、車両1の軌道が目標走行ライン90上を通るようになる。第3補正部56は、目標走行ライン90の曲率にもとづいて、目標走行ライン90の円弧の外側に目標位置を移動させる第3補正量を算出する。 FIG. 19 is a diagram for explaining the correction of the third correction unit 56. In the third correction shown in FIG. 19, according to the curvature of the target travel line 90 so that the vehicle 1 travels radially outside the target travel line 90 in a situation where the vehicle 1 turns as shown in FIG. 18. By performing the correction by the third correction unit 56, the vehicle 1 travels on the target travel line 90, and the follow-up accuracy to the target travel line 90 can be increased. When each target position 92 is detected on the target travel line 90 and the radius R1 is calculated from the curvature of the target travel line, the lateral deviation 95 is calculated by the equations (16) and (17). Subsequently, as shown in FIG. 19, target positions 96 a, 96 b, and 96 c are set by moving the respective target positions 92 to the outside in the radial direction of the target travel line 90 by the lateral deviation 95. Steering control is performed such that the front of the vehicle 1 faces the corrected target positions 96a, 96b, and 96c, so that the track of the vehicle 1 passes on the target travel line 90. The third correction unit 56 calculates a third correction amount for moving the target position to the outside of the arc of the target travel line 90 based on the curvature of the target travel line 90.
なお、第3補正部56は、目標走行ラインの曲率が小さく、所定値以下の場合には、目標走行ラインはほぼ直線と判断して第3補正量を算出しなくてよい。このように目標補正部46は、段部の検出位置にもとづく目標位置に対して、その位置を横方向に移動させる第1、第2、第3の補正量を算出し、各補正量を合算した値によって、目標位置の補正を行い、補正した目標位置に車両の正面が向くように操舵制御の角度を算出する。 When the curvature of the target travel line is small and is equal to or less than a predetermined value, the third correction unit 56 does not have to calculate the third correction amount by determining that the target travel line is substantially a straight line. As described above, the target correction unit 46 calculates the first, second, and third correction amounts for moving the position in the horizontal direction with respect to the target position based on the detection position of the stepped portion, and adds the correction amounts. The target position is corrected based on the calculated value, and the steering control angle is calculated so that the front of the vehicle faces the corrected target position.
別の態様の走行制御装置は、車両が走行する地面とその遠方を撮像する撮像部と、撮像部により撮像した撮像画像を処理して車両が追従走行する目標位置を特定して目標舵角を算出する画像処理部と、目標舵角で走行するように車両を制御する走行制御部と、を備える。画像処理部は、撮像画像上の地面に基準領域を設定する基準領域設定部と、撮像毎に基準領域を追跡して参照領域を特定する基準領域追跡部と、参照領域の位置から地面の凹凸を算出する凹凸検出部と、地面の凹凸形状を分析して車両が追従すべき目標位置を特定する目標位置検出部を有し、さらに、画像処理部は、撮像画像の消失点の位置を特定する消失点追跡部を備え、基準領域と参照領域の位置の変化を消失点の位置と比較することで車両の位置の変化量を算出し、車両の横滑りにもとづいて第1補正量を算出する第1補正部と、車両の位置の変化量から過去の目標位置を推定し、車両との位置関係から第2補正量を算出する第2補正部とを有し、算出された目標位置補正量で補正された目標位置にもとづいて目標舵角を算出する目標舵角算出部と、を有する。このように別の態様では、第1補正量および第2補正量にもとづいて補正して目標舵角を算出してよい。 In another aspect, the travel control device includes an image capturing unit that captures an image of the ground on which the vehicle travels and a distance from the ground, a captured image captured by the image capturing unit, and a target position at which the vehicle follows and identifies a target rudder angle. An image processing unit to calculate, and a travel control unit that controls the vehicle to travel at the target rudder angle. The image processing unit includes a reference region setting unit that sets a reference region on the ground on the captured image, a reference region tracking unit that tracks the reference region for each imaging and identifies a reference region, and unevenness of the ground from the position of the reference region And a target position detection unit that analyzes the uneven shape of the ground and identifies the target position that the vehicle should follow, and the image processing unit identifies the position of the vanishing point of the captured image A vanishing point tracking unit that calculates the amount of change in the position of the vehicle by comparing the change in the position of the reference area and the reference area with the position of the vanishing point, and calculates the first correction amount based on the skidding of the vehicle. The calculated target position correction amount includes a first correction unit and a second correction unit that estimates a past target position from the amount of change in the position of the vehicle and calculates a second correction amount from the positional relationship with the vehicle. Target that calculates the target rudder angle based on the target position corrected by It has a corner calculation unit, the. As described above, in another aspect, the target rudder angle may be calculated with correction based on the first correction amount and the second correction amount.
以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素の組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 In the above, this invention was demonstrated based on the Example. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements, and such modifications are also within the scope of the present invention.
実施形態では、運転者がアクセルペダルなどで車両の走行速度を制御しつつ、自動走行スイッチを押すことにより走行制御装置20が操舵量を制御する態様を示したが、この態様に限られない。車両1の操舵と走行速度の両方を同時に制御してもよい。 In the embodiment, the driving control device 20 controls the steering amount by pressing the automatic driving switch while the driver controls the driving speed of the vehicle with an accelerator pedal or the like, but is not limited to this mode. Both the steering of the vehicle 1 and the traveling speed may be controlled simultaneously.
また、走行制御装置20は、撮像時の車両のロール角を検出するセンサ、車両のピッチ角を検出するセンサを有してよい。画像処理部32は、新たな撮像画像を取得すると、該撮像画像の撮像時の車両状態(ロール角およびピッチ角)にもとづいて新たな撮像画像を補正してもよい。地平線検出部38は、補正した撮像画像から水平線を検出する。これにより、撮像画像ごとの水平線の位置ずれを抑えることができる。 The traveling control device 20 may include a sensor that detects a roll angle of the vehicle at the time of imaging and a sensor that detects a pitch angle of the vehicle. When the image processing unit 32 acquires a new captured image, the image processing unit 32 may correct the new captured image based on the vehicle state (roll angle and pitch angle) at the time of capturing the captured image. The horizon detection unit 38 detects a horizontal line from the corrected captured image. Thereby, the position shift of the horizontal line for every captured image can be suppressed.
実施形態では、仮想2次元空間における目標走行ライン上の目標位置に対し、目標補正部46で算出される各補正量によって目標位置を補正し、補正された目標位置に車両が向かうように目標舵角を算出する態様を示したが、この態様に限られない。例えば、目標舵角算出部51が目標位置に向かう仮目標舵角を算出し、目標補正部46では舵角補正量を算出し、仮目標舵角を舵角補正量で補正して目標舵角を算出してよい。いずれにしても、目標補正部46により算出される補正量は、車両の舵角に換算可能な値である。 In the embodiment, the target position is corrected with respect to the target position on the target travel line in the virtual two-dimensional space by each correction amount calculated by the target correction unit 46, and the target rudder is set so that the vehicle is directed to the corrected target position. Although the aspect which calculates a corner was shown, it is not restricted to this aspect. For example, the target rudder angle calculation unit 51 calculates the temporary target rudder angle toward the target position, the target correction unit 46 calculates the rudder angle correction amount, and the temporary target rudder angle is corrected by the rudder angle correction amount to obtain the target rudder angle. May be calculated. In any case, the correction amount calculated by the target correction unit 46 is a value that can be converted into the steering angle of the vehicle.
1 車両、 3 車両操縦室、 4 圃場、 6 ブレーキ機構、 8 前輪、 10 後輪、 11 カメラ、 12 ECU、 14 操舵駆動機構、 15 ステアリング機構、 16 作業機、 20 走行制御装置、 22 段部、 26 目標位置、 30 画像取得部、 32 画像処理部、 34 記憶部、 36 走行制御部、 38 地平線検出部、 40 基準領域設定部、 41 消失点追跡部、 42 テンプレート生成部、 44 基準領域追跡部、 46 目標補正部、 48 凹凸検出部、 50 目標位置検出部、 51 目標舵角算出部、 52 第1補正部、 54 第2補正部、 56 第3補正部、 60 撮像画像、 62 地平線、 64 第1段部、 66 第2段部、 70 消失点。 DESCRIPTION OF SYMBOLS 1 Vehicle, 3 Vehicle cockpit, 4 Farm field, 6 Brake mechanism, 8 Front wheel, 10 Rear wheel, 11 Camera, 12 ECU, 14 Steering drive mechanism, 15 Steering mechanism, 16 Working machine, 20 Travel control device, 22 Step part, 26 target position, 30 image acquisition unit, 32 image processing unit, 34 storage unit, 36 travel control unit, 38 horizon detection unit, 40 reference region setting unit, 41 vanishing point tracking unit, 42 template generation unit, 44 reference region tracking unit , 46 target correction unit, 48 unevenness detection unit, 50 target position detection unit, 51 target rudder angle calculation unit, 52 first correction unit, 54 second correction unit, 56 third correction unit, 60 captured image, 62 horizon, 64 First step, 66 Second step, 70 Vanishing point.
Claims (2)
前記撮像部により撮像した撮像画像を処理して作業車両が追従走行する目標位置を特定して目標舵角を算出する画像処理部と、
前記目標舵角で走行するように作業車両を制御する走行制御部と、を備え、
前記画像処理部は、
撮像画像から算出された地平線をもとに消失点を算出し、撮像画像中の地面上に設定される基準領域の位置の変化を、消失点の位置と比較することで作業車両の前後、左右の移動量を算出する消失点追跡部と、
前記消失点追跡部で算出された作業車両の左右方向の位置ずれ量にもとづいて第1補正量を算出する第1補正部と、
前記消失点追跡部で算出された作業車両の移動量にもとづいて、撮像画像の視野外に出た過去の目標位置の現在の作業車両の位置情報を推定し、作業車両と過去の目標位置との位置ずれ量にもとづいて第2補正量を算出する第2補正部と、
前記目標位置を撮像画像の輝度分布情報を用いて遠方に向かって追跡した位置情報と、前記過去の目標位置の位置情報とを組合せて目標追従ラインを特定し、前記目標追従ラインの曲率にもとづいて第3補正量を算出する第3補正部と、
前記目標位置または前記目標位置にもとづく仮目標舵角を、前記第1補正量と前記第2補正量と前記第3補正量の少なくともいずれかにもとづいて補正して前記目標舵角を算出する目標舵角算出部と、を有することを特徴とする走行制御装置。 An imaging unit that captures an image of the ground on which the work vehicle travels in the field and its distance;
An image processing unit that processes a captured image captured by the imaging unit to identify a target position where the work vehicle follows and calculates a target steering angle;
A travel control unit for controlling the work vehicle so as to travel at the target rudder angle,
The image processing unit
The vanishing point is calculated based on the horizon calculated from the captured image, and the change in the position of the reference area set on the ground in the captured image is compared with the position of the vanishing point, before and after the work vehicle. A vanishing point tracking unit that calculates the movement amount of
A first correction unit that calculates a first correction amount based on a lateral displacement amount of the work vehicle calculated by the vanishing point tracking unit;
Based on the movement amount of the work vehicle calculated by the vanishing point tracking unit, the current work vehicle position information of the past target position outside the field of view of the captured image is estimated, and the work vehicle , the past target position, and A second correction unit that calculates a second correction amount based on the amount of positional deviation;
Based on the curvature of the target tracking line, the target tracking line is identified by combining the positional information obtained by tracking the target position in the distance using the luminance distribution information of the captured image and the positional information of the past target position. A third correction unit that calculates a third correction amount;
A target for calculating the target rudder angle by correcting the target position or a temporary target rudder angle based on the target position based on at least one of the first correction amount, the second correction amount, and the third correction amount. And a steering angle calculation unit.
撮像画像から作業車両の追従走行の目標となる目標位置を検出する目標位置検出部と、
撮像画像中の地面上に複数の画素値から構成される複数の基準領域を、直線状に一列に配列して設定する基準領域設定部と、
車両走行中に新たに撮像された撮像画像において、前記基準領域と同じ領域である参照領域を撮像画像上で追跡して位置情報を算出する基準領域追跡部と、
作業車両の移動による撮像位置の変化により生じた前記参照領域の直線からの位置ずれを前記参照領域の複数の位置情報にもとづいて算出し、前記参照領域の位置ずれにもとづいて実空間上の圃場に形成された段差および溝などの地面の凹凸を検出する凹凸検出部と、を有し、
前記基準領域設定部は、前記基準領域として、第1基準領域と、前記第1基準領域を細分化して少ない個数の画素値で構成される複数の第2基準領域とを設定し、
前記基準領域追跡部は、前記第1基準領域を追跡した後、前記第1基準領域内の前記第2基準領域の撮像画像上の位置情報を算出し、
前記凹凸検出部は、前記第2基準領域の位置情報にもとづいて実空間上の地面の凹凸を検出し、
前記目標位置検出部は、前記凹凸の形状にもとづいて前記目標位置を検出することを特徴とする請求項1に記載の走行制御装置。 The image processing unit
A target position detection unit that detects a target position that is a target of following traveling of the work vehicle from the captured image;
A reference area setting unit that sets a plurality of reference areas composed of a plurality of pixel values on the ground in the captured image, arranged in a line in a straight line; and
In a captured image newly captured during vehicle travel, a reference area tracking unit that calculates a position information by tracking a reference area that is the same area as the reference area on the captured image;
A field deviation in a real space is calculated based on a plurality of pieces of positional information of the reference area, and a position deviation from the straight line of the reference area caused by a change in the imaging position due to the movement of the work vehicle is calculated. An unevenness detecting unit for detecting unevenness on the ground such as steps and grooves formed in
The reference area setting unit sets, as the reference area, a first reference area and a plurality of second reference areas composed of a small number of pixel values by subdividing the first reference area,
The reference area tracking unit calculates position information on the captured image of the second reference area in the first reference area after tracking the first reference area;
The unevenness detecting unit detects unevenness of the ground in real space based on position information of the second reference region,
The travel control device according to claim 1, wherein the target position detection unit detects the target position based on the shape of the unevenness.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015022555A JP6497546B2 (en) | 2015-02-06 | 2015-02-06 | Travel control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015022555A JP6497546B2 (en) | 2015-02-06 | 2015-02-06 | Travel control device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016146061A JP2016146061A (en) | 2016-08-12 |
JP6497546B2 true JP6497546B2 (en) | 2019-04-10 |
Family
ID=56685690
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015022555A Active JP6497546B2 (en) | 2015-02-06 | 2015-02-06 | Travel control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6497546B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210077122A (en) * | 2019-12-17 | 2021-06-25 | 주식회사 에스더블유엠 | Apparatus of the auto guidance for tractor |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10191493B2 (en) * | 2016-09-27 | 2019-01-29 | Baidu Usa Llc | Vehicle position point forwarding method for autonomous vehicles |
US10019008B2 (en) * | 2016-09-28 | 2018-07-10 | Baidu Usa Llc | Sideslip compensated control method for autonomous vehicles |
JP6905173B2 (en) * | 2016-10-31 | 2021-07-21 | キヤノンマーケティングジャパン株式会社 | Information processing system, information processing method |
JP6782895B2 (en) * | 2017-03-09 | 2020-11-11 | 国立研究開発法人農業・食品産業技術総合研究機構 | In-vehicle camera mounting direction parameter calculation device and mounting direction parameter calculation method |
CA2990943C (en) | 2017-03-31 | 2020-06-16 | Komatsu Ltd. | Control system of transporter vehicle, transporter vehicle, and control method of transporter vehicle |
JP2019061510A (en) * | 2017-09-27 | 2019-04-18 | 国立研究開発法人農業・食品産業技術総合研究機構 | Mounting height parameter calculation device for car-mounted camera and mounting height parameter calculation method therefor |
CN109141954A (en) * | 2018-09-20 | 2019-01-04 | 加藤(中国)工程机械有限公司 | A kind of hydraulic crawler excavator crawler travel running deviation value test device and its application method |
CN110968087B (en) * | 2018-09-30 | 2023-05-23 | 百度(美国)有限责任公司 | Calibration method and device for vehicle control parameters, vehicle-mounted controller and unmanned vehicle |
EP3874926B1 (en) * | 2018-10-30 | 2022-12-21 | Tokyo Keiki Inc. | Error correction apparatus |
JP6761845B2 (en) * | 2018-11-02 | 2020-09-30 | 株式会社小松製作所 | Dump truck control system and dump truck |
JP7072496B2 (en) | 2018-12-20 | 2022-05-20 | 株式会社クボタ | Control device for self-driving work vehicles |
JP7260412B2 (en) * | 2019-06-20 | 2023-04-18 | ヤンマーパワーテクノロジー株式会社 | Automated driving system for work vehicles |
JP7227112B2 (en) * | 2019-09-27 | 2023-02-21 | 日立Astemo株式会社 | OBJECT DETECTION DEVICE, TRIP CONTROL SYSTEM, AND TRIP CONTROL METHOD |
JP7489836B2 (en) * | 2020-06-23 | 2024-05-24 | 株式会社クボタ | Harvesting Machine |
WO2022190585A1 (en) * | 2021-03-11 | 2022-09-15 | 日立Astemo株式会社 | Vehicle control device, vehicle control method, and vehicle control system |
EP4335266A1 (en) * | 2021-06-29 | 2024-03-13 | Kubota Corporation | Row detection system, farm machine provided with row detection system, and method for detecting row |
CN117881275A (en) * | 2021-08-27 | 2024-04-12 | 株式会社久保田 | Working machine |
CN117881276A (en) * | 2021-08-27 | 2024-04-12 | 株式会社久保田 | Working machine |
JPWO2023120182A1 (en) * | 2021-12-24 | 2023-06-29 | ||
WO2023120183A1 (en) * | 2021-12-24 | 2023-06-29 | 株式会社クボタ | Agricultural machine |
JP2023137518A (en) * | 2022-03-18 | 2023-09-29 | 日野自動車株式会社 | Reference steering angle determination method and vehicle controller |
KR102456083B1 (en) * | 2022-04-19 | 2022-10-19 | 한국생산기술연구원 | An apparatus for riding velocity and direction estimation based on image sequences and a method for riding velocity and direction estimation using the same |
WO2024095993A1 (en) * | 2022-11-02 | 2024-05-10 | 株式会社クボタ | Row detection system, agricultural machine provided with row detection system, and row detection method |
WO2024095802A1 (en) * | 2022-11-02 | 2024-05-10 | 株式会社クボタ | Driving control system, work vehicle, and driving control method |
WO2024135019A1 (en) * | 2022-12-21 | 2024-06-27 | 株式会社クボタ | State estimation system and agriculture machine |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4157620B2 (en) * | 1998-06-19 | 2008-10-01 | 株式会社東芝 | Moving object detection apparatus and method |
JP5593606B2 (en) * | 2008-11-28 | 2014-09-24 | 株式会社ジェイテクト | Driving support device |
JP6046327B2 (en) * | 2010-04-15 | 2016-12-14 | 矢崎エナジーシステム株式会社 | Meandering operation detection device for vehicle |
JP5952611B2 (en) * | 2012-03-28 | 2016-07-13 | 国立研究開発法人農業・食品産業技術総合研究機構 | Travel control device |
-
2015
- 2015-02-06 JP JP2015022555A patent/JP6497546B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210077122A (en) * | 2019-12-17 | 2021-06-25 | 주식회사 에스더블유엠 | Apparatus of the auto guidance for tractor |
Also Published As
Publication number | Publication date |
---|---|
JP2016146061A (en) | 2016-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6497546B2 (en) | Travel control device | |
JP5952611B2 (en) | Travel control device | |
CN110243372B (en) | Intelligent agricultural machinery navigation system and method based on machine vision | |
JP6587172B2 (en) | Steering control device and turning state estimation method | |
US10696301B2 (en) | Vehicle control device | |
JP6533619B2 (en) | Sensor calibration system | |
US9349058B2 (en) | Vehicular path sensing system and method | |
US10508923B2 (en) | Vehicle position estimation device, vehicle position estimation method | |
JP5328427B2 (en) | Travel control device | |
JP6735303B2 (en) | Work vehicle and crop row recognition program | |
WO2017037752A1 (en) | Vehicle position estimation device, vehicle position estimation method | |
Zhang et al. | Mapping orchards for autonomous navigation | |
JP5363920B2 (en) | Vehicle white line recognition device | |
WO2018179281A1 (en) | Object detection device and vehicle | |
JP2009143546A (en) | Vehicular travel speed controller and control method | |
JP7153895B2 (en) | Autonomous mobile system and controller | |
JP6408935B2 (en) | Traveling line recognition device | |
TWI665114B (en) | Vehicle detecting method and vehicle detecting system | |
WO2017204009A1 (en) | Traveling control apparatus of moving vehicle | |
Hanawa et al. | Development of a stereo vision system to assist the operation of agricultural tractors | |
Park et al. | Lane estimation by particle-filtering combined with likelihood computation of line boundaries and motion compensation | |
JP7070905B2 (en) | Travel control device for traveling vehicles | |
KR101396886B1 (en) | Method and apparatus for optimal-drivable path detection with multi-layer laser range sensor | |
KR20040067584A (en) | Steering angle of the vehicle due to a travelling deviation revision / speed control data creation system and method | |
EP3244233B1 (en) | Apparatus and method for automated parking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20180117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181016 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181017 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190227 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6497546 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |