JP2016173634A - Steering control device and turning state estimation method - Google Patents

Steering control device and turning state estimation method Download PDF

Info

Publication number
JP2016173634A
JP2016173634A JP2015052148A JP2015052148A JP2016173634A JP 2016173634 A JP2016173634 A JP 2016173634A JP 2015052148 A JP2015052148 A JP 2015052148A JP 2015052148 A JP2015052148 A JP 2015052148A JP 2016173634 A JP2016173634 A JP 2016173634A
Authority
JP
Japan
Prior art keywords
vehicle
target
unit
captured image
feature region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015052148A
Other languages
Japanese (ja)
Other versions
JP2016173634A5 (en
JP6587172B2 (en
Inventor
塙 圭二
Keiji Hanawa
圭二 塙
貴史 山下
Takashi Yamashita
貴史 山下
山田 祐一
Yuichi Yamada
祐一 山田
淳一 林田
Junichi Hayashida
淳一 林田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Agriculture and Food Research Organization
Mitsubishi Mahindra Agricultural Machinery Co Ltd
Original Assignee
National Agriculture and Food Research Organization
Mitsubishi Mahindra Agricultural Machinery Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Agriculture and Food Research Organization, Mitsubishi Mahindra Agricultural Machinery Co Ltd filed Critical National Agriculture and Food Research Organization
Priority to JP2015052148A priority Critical patent/JP6587172B2/en
Publication of JP2016173634A publication Critical patent/JP2016173634A/en
Publication of JP2016173634A5 publication Critical patent/JP2016173634A5/ja
Application granted granted Critical
Publication of JP6587172B2 publication Critical patent/JP6587172B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a steering control device for calculating a turning state of a vehicle from a picked-up image with high accuracy.SOLUTION: A feature area setting unit 48 sets a feature area composed of a plurality of pixel values of a picked-up image. A feature area tracking unit 50 derives the position information of the feature area in the picked-up image which is newly picked up during vehicle traveling. A travel distance calculation unit 52 calculates a travel distance of the vehicle on the basis of a position change amount of the feature area. A target area detection unit 40 detects a target area composed of a plurality of pixel values of the picked-up image to be a target of vehicle traveling. A target area tracking unit 44 derives the position information of the target area of the picked-up image which is newly picked up during vehicle traveling. A turning angle calculation unit 46 calculates a turning angle of the vehicle on the basis of the position change amount of the target area. A turning state estimation unit 54 estimates a turning state of the vehicle on the basis of the travel distance and the turning angle.SELECTED DRAWING: Figure 4

Description

本発明は、車両の操舵を制御する操舵制御装置および車両の旋回状態を推定する旋回状態推定方法に関する。   The present invention relates to a steering control device that controls steering of a vehicle and a turning state estimation method that estimates a turning state of a vehicle.

農用車両による播種、移植、畝立て、畦塗りおよび資材散布などの作業では、その作業の精度や能率向上のため、また、それ以降の管理や収穫などの作業のために、各行程を直進かつ平行に行うことが重要である。これらの作業は広い圃場で長時間にわたることが多く、やり直すことができない作業もあるため、作業者への肉体的、精神的な負担が大きく、熟練を必要とする。そのため、農用車両を自動的に操舵する技術へのニーズが多い。   In operations such as sowing, transplanting, setting up, padding, and material dispersal using agricultural vehicles, in order to improve the accuracy and efficiency of the operation, and for subsequent operations such as management and harvesting, each process goes straight forward. It is important to do so in parallel. Since these operations often take a long time in a wide field and cannot be performed again, there are large physical and mental burdens on the worker, and skill is required. For this reason, there is a great need for a technology for automatically steering agricultural vehicles.

車両の操舵を制御する技術として、以下に示すような技術がある。例えば特許文献1には、トラクタにGPS装置や方位センサを設けて、それらの検出結果にもとづいて目標操舵角を算出し、操舵角センサを用いて操舵角を目標操舵角になるよう制御して自動走行させる技術が開示される。   As a technique for controlling the steering of the vehicle, there are the following techniques. For example, in Patent Document 1, a tractor is provided with a GPS device and an orientation sensor, a target steering angle is calculated based on the detection results, and the steering angle is controlled using the steering angle sensor so that the steering angle becomes the target steering angle. A technique for automatic driving is disclosed.

特許文献2には、車両に設置されたカメラにより車両の周辺を撮影し、移動中に取得した複数のカメラ画像を処理して車両の移動速度と回転角(操舵角)を推定し、移動速度と回転角にもとづいて車両進行ガイドラインを算出する運転支援システムが開示される。具体的にこの運転支援システムは、3つの時刻で取得したカメラ画像から実空間で同じ特徴点を抽出して、3つの特徴点の位置座標から得られる2つの移動ベクトルを車両の移動軌跡として算出する。そして、カメラ画像を鳥瞰画像に変換し、鳥瞰画像上の2つの移動ベクトルにもとづいて車両の移動速度と回転角を推定することが開示される。   In Patent Document 2, the periphery of the vehicle is photographed by a camera installed in the vehicle, a plurality of camera images acquired during movement are processed to estimate the moving speed and rotation angle (steering angle) of the vehicle, and the moving speed And a driving support system for calculating a vehicle travel guideline based on the rotation angle. Specifically, this driving support system extracts the same feature points in real space from camera images acquired at three times, and calculates two movement vectors obtained from the position coordinates of the three feature points as vehicle movement trajectories. To do. Then, it is disclosed that a camera image is converted into a bird's-eye view image, and a moving speed and a rotation angle of the vehicle are estimated based on two movement vectors on the bird's-eye view image.

特許文献3には、目標地点に設置された目標ランプをカメラで撮像し、撮像画像から目標ランプを検出し、目標ランプに向かって車両を自動的に直進走行させる車両の走行制御装置が開示される。   Patent Document 3 discloses a vehicle travel control device that captures a target lamp installed at a target point with a camera, detects the target lamp from the captured image, and automatically travels the vehicle straight toward the target lamp. The

特開2002−186309号公報JP 2002-186309 A 特開2009−17462号公報JP 2009-17462 A 特開2010−200674号公報JP 2010-200674 A

特許文献1の技術では、GPS情報等により目標操舵角を算出し、操舵角センサを用いて車両の操舵角を目標操舵角に合わせるように制御するが、圃場などの柔らかい地面では車輪のグリップ力が低下し、操舵角に対して車両の旋回量が不足し、走行制御の精度が低下するおそれがある。   In the technique of Patent Document 1, a target steering angle is calculated based on GPS information or the like, and control is performed so that the steering angle of the vehicle matches the target steering angle using a steering angle sensor. , The amount of turning of the vehicle relative to the steering angle is insufficient, and the accuracy of travel control may be reduced.

特許文献2の技術は、車両周辺を撮影したカメラ画像を用いて2つの移動ベクトルを算出し、2つの移動ベクトルの長さと角度差から車両の旋回半径を推定する方法である。この技術は、駐車時に小さい旋回半径で走行する場合に有効であるが、車両を自動的に直進走行させる際に発生する大きな旋回半径を検出することは困難である   The technique of Patent Document 2 is a method of calculating two movement vectors using a camera image obtained by photographing the periphery of a vehicle and estimating the turning radius of the vehicle from the length and angle difference between the two movement vectors. This technique is effective when traveling with a small turning radius when parked, but it is difficult to detect a large turning radius that occurs when the vehicle automatically travels straight.

本発明はこうした状況に鑑みてなされたものであり、その目的は、車両の旋回状態を精度良く推定することにより、車両の走行制御の精度を高めると同時に、舵角センサを不要化して、装置のコストを低減する技術を提供することにある。   The present invention has been made in view of such a situation, and an object of the present invention is to accurately estimate the turning state of the vehicle, thereby improving the accuracy of vehicle travel control and eliminating the need for a steering angle sensor. It is to provide a technique for reducing the cost of the system.

上記課題を解決するために、本発明のある態様の操舵制御装置は、車両が走行する地面を車両前方の遠景を含んで撮像する撮像部と、撮像部により撮像した撮像画像を処理する画像処理部と、画像処理部の処理結果にもとづいて車両の操舵を制御する操舵制御部と、を備える。画像処理部は、撮像画像の複数の画素値から構成される特徴領域を設定する特徴領域設定部と、車両走行中に新たに撮像された撮像画像において特徴領域の位置情報を導出する特徴領域追跡部と、特徴領域の位置変化量にもとづいて車両の走行距離を算出する走行距離算出部と、撮像画像の複数の画素値から構成され、車両走行の目標となる目標領域を検出する目標領域検出部と、車両走行中に新たに撮像された撮像画像の目標領域の位置情報を導出する目標領域追跡部と、目標領域の位置変化量にもとづいて車両の旋回角を算出する旋回角算出部と、走行距離および旋回角にもとづいて車両の旋回状態を推定する旋回状態推定部と、を有する。   In order to solve the above-described problem, a steering control device according to an aspect of the present invention includes an imaging unit that captures an image of a ground on which a vehicle travels including a distant view in front of the vehicle, and an image process that processes a captured image captured by the imaging unit. And a steering control unit that controls steering of the vehicle based on the processing result of the image processing unit. The image processing unit includes a feature region setting unit that sets a feature region composed of a plurality of pixel values of the captured image, and a feature region tracking that derives position information of the feature region in the captured image newly captured while the vehicle is traveling A target area detection unit configured to detect a target area that is a target of vehicle travel, and includes a travel distance calculation unit that calculates a travel distance of the vehicle based on a position change amount of the characteristic region, and a plurality of pixel values of the captured image A target region tracking unit that derives position information of a target region of a captured image that is newly captured while the vehicle is traveling, and a turning angle calculation unit that calculates a turning angle of the vehicle based on a position change amount of the target region A turning state estimation unit that estimates the turning state of the vehicle based on the travel distance and the turning angle.

この態様によると、撮像画像を用いて走行距離と旋回角をそれぞれ算出し、それらにもとづいて車両の旋回状態を算出することで、車両の旋回状態を精度良く推定することができる。   According to this aspect, it is possible to accurately estimate the turning state of the vehicle by calculating the travel distance and the turning angle using the captured image, and calculating the turning state of the vehicle based on them.

本発明によれば、車両に設けられた撮像部によって撮像した撮像画像から車両の旋回状態を精度良く推定することができ、舵角センサを不要化して装置のコストを低減できる。   ADVANTAGE OF THE INVENTION According to this invention, the turning state of a vehicle can be estimated with sufficient accuracy from the captured image imaged with the imaging part provided in the vehicle, a steering angle sensor becomes unnecessary and the cost of an apparatus can be reduced.

圃場における実施形態に係る操舵制御装置を側方から見たときの説明図である。It is explanatory drawing when the steering control apparatus which concerns on embodiment in an agricultural field is seen from the side. 圃場における実施形態に係る操舵制御装置を上方から見たときの説明図である。It is explanatory drawing when the steering control apparatus which concerns on embodiment in a farm field is seen from upper direction. 実施形態に係るECUの機能構成を示す図である。It is a figure which shows the function structure of ECU which concerns on embodiment. 実施形態に係る画像処理部の機能構成を示す図である。It is a figure which shows the function structure of the image process part which concerns on embodiment. 撮像画像上の目標領域および特徴領域を説明するための図である。It is a figure for demonstrating the target area | region and characteristic area | region on a captured image. 図5に示す撮像画像を写真で示す図である。It is a figure which shows the captured image shown in FIG. 5 with a photograph. 時刻t1の撮像画像の目標領域および特徴領域の位置を時刻t2の撮像画像に上書きした時刻t2の撮像画像を示す図である。It is a figure which shows the captured image of the time t2 which overwrites the captured image of the time t2 with the position of the target area | region and characteristic area of the captured image of the time t1. 図7に示す撮像画像を写真で示す図である。It is a figure which shows the captured image shown in FIG. 7 with a photograph. 特徴領域の追跡により車両の移動軌跡を算出する方法を説明するための図である。It is a figure for demonstrating the method of calculating the movement locus | trajectory of a vehicle by tracking a feature area. 旋回する車両の動きを説明するための図である。It is a figure for demonstrating the motion of the vehicle which turns. 変形例の操舵制御装置の画像処理を説明するための図である。It is a figure for demonstrating the image processing of the steering control apparatus of a modification. 図11に示す撮像画像を写真で示す図である。It is a figure which shows the captured image shown in FIG. 11 with a photograph. 時刻t1の撮像画像の目標領域および特徴領域の位置を時刻t2の撮像画像に上書きした時刻t2の撮像画像を示す図である。It is a figure which shows the captured image of the time t2 which overwrites the captured image of the time t2 with the position of the target area | region and characteristic area of the captured image of the time t1. 図13に示す撮像画像を写真で示す図である。It is a figure which shows the captured image shown in FIG. 13 with a photograph.

農業用の作業車両によって圃場に畝立てや播種などの作業を行う場合には、作業車両の運転者は、作業車両の後部に備えられる作業機の作業状態を確認するため、後方に振り返りつつ、直進運転をすることを強いられる。農場によっては500m以上の長さがあり、この距離を直進させるのは運転者の負担が大きい。そこで、実施形態の操舵制御装置は、進行方向を撮像した画像から車両走行の目標となる目標ランプを検出し、その目標ランプに向かって車両を自動的に操舵させることで、運転者の負担を軽減させる。   When performing work such as setting up and sowing on a farm field with an agricultural work vehicle, the driver of the work vehicle looks back to check the work state of the work machine provided at the rear of the work vehicle, Forced to drive straight ahead. Some farms have a length of more than 500 meters, and driving this distance straight places a heavy burden on the driver. Therefore, the steering control device of the embodiment detects a target ramp that is a target of vehicle travel from an image obtained by capturing the traveling direction, and automatically steers the vehicle toward the target ramp, thereby reducing the burden on the driver. Reduce.

圃場を走行する作業車両は、地面の傾斜や凹凸、土塊などの影響を受けて、車両の向きまたは進行方向の変化や横滑りが頻繁に発生するので、作業車両を元の目標とするラインに戻すために、頻繁に前輪を操舵する必要がある。従来の一般的な操舵制御方法では、まず、車両を戻すために必要な走行軌跡、次に、その走行軌跡を得るための旋回半径、その旋回半径を得るための前輪の操舵角(以下、単に「舵角」という場合がある。)の順に計算し、その舵角を目標舵角として設定する。続いて、舵角センサから現在の舵角を読み取り、舵角が目標舵角となるようにモータ等を駆動しフィードバック制御を行う。このとき、車両の舵角と旋回半径の関係は、地面の硬さなどによって変化する。例えば、硬い舗装路などと比べて、柔らかい地面ではタイヤのグリップ力が低下するため、同じ舵角に対して旋回半径は大きくなる。このため、所望の旋回半径を得るには、地面の硬さなどに応じて舵角を変化させる必要がある。例えば目標とする旋回半径から舵角を計算する際に、地面の柔らかさなどに応じて予め設定した定数を乗算し、操舵量を一定割合で増減させる手法が用いられる。しかし、適切な定数を設定することは難しく、また、圃場内の地面も均一でないため、作業車両の走行軌跡の誤差が拡大する要因となる。そこで実施形態の操舵制御装置は、車両に搭載したカメラによる複数の撮像画像から現在の旋回半径を算出し、これを目標とする旋回半径となるように、舵角を増減される制御方法である。これにより、舵角センサが不要になると共に、旋回半径をフィードバックの制御対象とするため、地面の硬さなどの影響を受け難く、走行軌跡の誤差をより小さくすることが出来る。   A work vehicle traveling on a farm field is affected by the inclination of the ground, unevenness, and clumps, and frequently changes in the direction or traveling direction of the vehicle or skids, so return the work vehicle to the original target line. Therefore, it is necessary to frequently steer the front wheels. In a conventional general steering control method, first, a travel locus necessary for returning the vehicle, then a turning radius for obtaining the traveling locus, a steering angle of the front wheels for obtaining the turning radius (hereinafter simply referred to as a steering radius). In some cases, it may be referred to as “steering angle.”), And the steering angle is set as the target steering angle. Subsequently, the current steering angle is read from the steering angle sensor, and feedback control is performed by driving a motor or the like so that the steering angle becomes the target steering angle. At this time, the relationship between the steering angle of the vehicle and the turning radius varies depending on the hardness of the ground. For example, compared with a hard pavement or the like, the grip force of the tire is reduced on a soft ground, so that the turning radius is increased for the same rudder angle. For this reason, in order to obtain a desired turning radius, it is necessary to change the rudder angle according to the hardness of the ground or the like. For example, when calculating the rudder angle from the target turning radius, a method of multiplying a constant set in advance according to the softness of the ground and the like to increase or decrease the steering amount at a constant rate is used. However, it is difficult to set an appropriate constant, and the ground in the field is not uniform, which causes an increase in the error in the travel trajectory of the work vehicle. Therefore, the steering control device according to the embodiment is a control method in which the current turning radius is calculated from a plurality of captured images by a camera mounted on the vehicle, and the steering angle is increased or decreased so that the turning radius becomes a target turning radius. . As a result, the steering angle sensor becomes unnecessary, and the turning radius is set as a feedback control target, so that it is difficult to be affected by the hardness of the ground, and the error of the travel locus can be further reduced.

図1は、圃場における実施形態に係る操舵制御装置20を側方から見たときの説明図である。図2は、圃場における実施形態に係る操舵制御装置20を上方から見たときの説明図である。図面の説明において同一の要素には同一の符号を付し、重複する説明を適宜省略する。車両1は、操縦室3、左前輪8aと右前輪8b(以下、総称する場合は「前輪8」という)、左後輪10aと右後輪10b(以下、総称する場合は「後輪10」という)を有し、作業機16が装着される。操舵制御装置20は、車両1に搭載され、左ブレーキ機構6aと右ブレーキ機構(不図示)(以下、総称する場合は「ブレーキ機構6」という)、カメラ11、ECU(Electronic control unit)12、操舵駆動機構14およびステアリング機構15を備える。   Drawing 1 is an explanatory view when steering control device 20 concerning an embodiment in a field is seen from the side. Drawing 2 is an explanatory view when steering control device 20 concerning an embodiment in a field is seen from the upper part. In the description of the drawings, the same elements are denoted by the same reference numerals, and repeated descriptions are omitted as appropriate. The vehicle 1 includes a cockpit 3, a left front wheel 8a and a right front wheel 8b (hereinafter collectively referred to as “front wheel 8”), a left rear wheel 10a and a right rear wheel 10b (hereinafter collectively referred to as “rear wheel 10”). The working machine 16 is mounted. The steering control device 20 is mounted on the vehicle 1, and includes a left brake mechanism 6a and a right brake mechanism (not shown) (hereinafter collectively referred to as “brake mechanism 6”), a camera 11, an ECU (Electronic control unit) 12, A steering drive mechanism 14 and a steering mechanism 15 are provided.

車両1は、農用トラクタや土木用作業車両などの作業車両であってよく、車両1の後方には作業機16が取り付けられる。作業機16は、たとえば、圃場4において播種や畝立てなどの作業をする。   The vehicle 1 may be a work vehicle such as an agricultural tractor or a civil engineering work vehicle, and a work machine 16 is attached to the rear of the vehicle 1. The work machine 16 performs operations such as sowing and setting in the farm field 4, for example.

ステアリング機構15は、ステアリングホイール(不図示)、ステアリングシャフト(不図示)、およびステアリングシャフトの動きを前輪の動きに変換するギヤ装置(不図示)と、を有する。ステアリング機構15は、ハンドルとしてのステアリングホイールの回動を前輪8の転舵運動に変換する。ステアリングホイールは、操縦室3内に設けられ、運転者によって回動操作される。ステアリングシャフトは、ステアリングホイールとともに回転するように一端がステアリングホイールに連結されており、ステアリングホイールの回転をギヤ装置に伝達する回転軸として機能する。   The steering mechanism 15 includes a steering wheel (not shown), a steering shaft (not shown), and a gear device (not shown) that converts the movement of the steering shaft into the movement of the front wheels. The steering mechanism 15 converts the rotation of the steering wheel as a handle into the turning motion of the front wheels 8. The steering wheel is provided in the cockpit 3 and is turned by a driver. The steering shaft has one end connected to the steering wheel so as to rotate together with the steering wheel, and functions as a rotating shaft that transmits the rotation of the steering wheel to the gear device.

操舵駆動機構14は、モータを駆動し、ステアリング機構15に転舵力を与える。操舵駆動機構14はECU12に接続されている。なお、操舵駆動機構14は、液圧式であってよく、液圧ポンプを駆動して、ステアリング機構15に転舵力を与えてよい。   The steering drive mechanism 14 drives a motor and gives a steering force to the steering mechanism 15. The steering drive mechanism 14 is connected to the ECU 12. The steering drive mechanism 14 may be a hydraulic type, and may drive a hydraulic pump to give a steering force to the steering mechanism 15.

ブレーキ機構6は、運転者のブレーキペダル(不図示)の操作量に応じて後輪10に制動力を与える。ブレーキペダルは、左後輪用ブレーキペダルと右後輪用ブレーキペダルを有する。運転者が各ブレーキペダルを操作することで、左後輪10aと右後輪10bに対して個別に制動力を与えることができる。たとえば、車両1を右方向に旋回するとき、運転者が、右後輪用ブレーキペダルを踏み込んで右後輪10bに制動力を与えることで、右後輪10bを軸として車両1を小回りさせることができる。ブレーキ機構6は、ECU12に接続され、ECU12により後輪10に与える制動力を制御されてよい。なお、車両1の前輪8に、ブレーキ機構は無くてよい。更に、ブレーキ機構6はECU12に接続され、ECU12によって左または右のブレーキ機構6が動作され、車両1を旋回させることができる。   The brake mechanism 6 applies a braking force to the rear wheel 10 in accordance with an operation amount of a driver's brake pedal (not shown). The brake pedal includes a left rear wheel brake pedal and a right rear wheel brake pedal. When the driver operates each brake pedal, a braking force can be individually applied to the left rear wheel 10a and the right rear wheel 10b. For example, when turning the vehicle 1 in the right direction, the driver depresses the brake pedal for the right rear wheel to apply a braking force to the right rear wheel 10b, thereby turning the vehicle 1 around the right rear wheel 10b. Can do. The brake mechanism 6 may be connected to the ECU 12 and the braking force applied to the rear wheel 10 may be controlled by the ECU 12. The front wheel 8 of the vehicle 1 may not have a brake mechanism. Further, the brake mechanism 6 is connected to the ECU 12, and the left or right brake mechanism 6 is operated by the ECU 12 to turn the vehicle 1.

目標ランプ2は、発光部21および発光部21を収容する筐体24を備える。発光部21は、筐体24の開口から発光する。発光部21は、発光ダイオード(LED)であってよく、所定の大きさを有し、目標部として機能する。発光部21は、所定の制御周期で点滅してよい。目標部は、ECU12が既知の大きさであって、カメラ11によって撮像した画像からECU12にて目標部を認識できるように発光する。   The target lamp 2 includes a light emitting unit 21 and a housing 24 that houses the light emitting unit 21. The light emitting unit 21 emits light from the opening of the housing 24. The light emitting unit 21 may be a light emitting diode (LED), has a predetermined size, and functions as a target unit. The light emitting unit 21 may blink at a predetermined control cycle. The target unit emits light so that the ECU 12 has a known size and the ECU 12 can recognize the target unit from an image captured by the camera 11.

操縦室3の上部には、単眼のカメラ11が配置される。カメラ11は、撮像部として機能し、車両走行の目標となる目標ランプ2および進行方向の地面を撮像し、前方の遠景と、前方の地面とを撮像する。前方の遠景とは、例えば地平線を含む車両前方の遠景をいう。カメラ11の向きは車両の正面方向に合わせられる。カメラ11は、撮像した画像をECU12に出力する。またカメラ11には傾斜センサが設けられ、撮像時の地面に対する傾斜角として、車両のロール角およびピッチ角をECU12に出力してよい。またカメラ11はステレオカメラであってよい。   A monocular camera 11 is arranged on the upper part of the cockpit 3. The camera 11 functions as an imaging unit and images the target lamp 2 that is a target of vehicle travel and the ground in the traveling direction, and images a distant view in front and a ground in front. The front distant view refers to a distant view in front of the vehicle including the horizon, for example. The direction of the camera 11 is adjusted to the front direction of the vehicle. The camera 11 outputs the captured image to the ECU 12. The camera 11 may be provided with a tilt sensor, and the roll angle and pitch angle of the vehicle may be output to the ECU 12 as the tilt angle with respect to the ground at the time of imaging. The camera 11 may be a stereo camera.

図2に示す目標走行ライン26は、撮像画像に含まれる目標ランプ2の位置と車両1の初期位置との関係で定まる。図2では目標ランプ2が車両走行の目標とする方向の位置に配置されている。車両1の初期位置とは、運転者がECU12に接続された自動操舵開始スイッチ(不図示)をオンしたときの車両1の位置をいい、操舵制御装置20による操舵制御を開始する位置をいう。運転者による自動操舵開始スイッチのオン/オフにより、操舵制御装置20による制御が実行/停止される。   A target travel line 26 shown in FIG. 2 is determined by the relationship between the position of the target lamp 2 included in the captured image and the initial position of the vehicle 1. In FIG. 2, the target lamp 2 is disposed at a position in a target direction for vehicle travel. The initial position of the vehicle 1 refers to the position of the vehicle 1 when the driver turns on an automatic steering start switch (not shown) connected to the ECU 12 and refers to a position at which steering control by the steering control device 20 is started. The control by the steering control device 20 is executed / stopped by turning on / off the automatic steering start switch by the driver.

運転者が自動操舵開始スイッチをオンすると、ECU12は、カメラ11から撮像画像を受け取り、目標ランプ2が撮像された画像から目標ランプ2の位置を算出し、車両1の初期位置と目標ランプ2の位置とを結ぶラインを目標走行ライン26として定める。   When the driver turns on the automatic steering start switch, the ECU 12 receives the captured image from the camera 11, calculates the position of the target lamp 2 from the captured image of the target lamp 2, and sets the initial position of the vehicle 1 and the target lamp 2. A line connecting the positions is defined as the target travel line 26.

ECU12は、撮像された撮像画像を処理する画像処理手段として機能するとともに、車両1の操舵を制御する操舵制御手段としても機能する。ECU12は、各種演算処理を実行するCPU、各種制御プログラムを格納するROM、データ格納やプログラム実行のためのワークエリアとして利用されるRAM、エンジン停止時にも記憶内容を保持できるバックアップRAM等の不揮発性メモリ、入出力インターフェース、各種センサ等から入力されたアナログ信号をデジタル信号に変換して取り込むためのA/Dコンバータ、計時用のタイマ等を備えるものである。なお、画像処理手段と走行制御手段は、それぞれ画像処理装置と操舵制御装置とする、別のユニットであってよい。   The ECU 12 functions as an image processing unit that processes the captured image, and also functions as a steering control unit that controls the steering of the vehicle 1. The ECU 12 is a nonvolatile memory such as a CPU that executes various arithmetic processes, a ROM that stores various control programs, a RAM that is used as a work area for data storage and program execution, and a backup RAM that can retain stored contents even when the engine is stopped. An A / D converter for converting an analog signal input from a memory, an input / output interface, various sensors, and the like into a digital signal and taking it in, a timer for timing, and the like are provided. Note that the image processing unit and the travel control unit may be separate units that are an image processing device and a steering control device, respectively.

図3は、実施形態に係るECU12の機能構成を示す。ECU12は、画像取得部30、画像処理部32、記憶部34および操舵制御部36を備える。画像取得部30は、カメラ11が所定の撮像周期で撮像した撮像画像を取得する。   FIG. 3 shows a functional configuration of the ECU 12 according to the embodiment. The ECU 12 includes an image acquisition unit 30, an image processing unit 32, a storage unit 34, and a steering control unit 36. The image acquisition unit 30 acquires a captured image captured by the camera 11 at a predetermined imaging cycle.

画像処理部32は、画像取得部30から受け取った撮像画像を処理する。画像処理部32は、特開2010−200674号公報に記載するように、撮像画像から目標走行ライン26に対する横偏差と、目標ランプ2に対する車両のヨー角を算出し、算出した横偏差とヨー角にもとづいて目標舵角を算出して、操舵制御部36に供給する。また、画像処理部32は、撮像画像から車両の旋回状態を算出して、操舵制御部36に供給する。記憶部34には撮像画像の情報が記憶される。   The image processing unit 32 processes the captured image received from the image acquisition unit 30. The image processing unit 32 calculates a lateral deviation with respect to the target travel line 26 and a yaw angle of the vehicle with respect to the target lamp 2 from the captured image, as described in Japanese Patent Application Laid-Open No. 2010-200674, and calculates the calculated lateral deviation and yaw angle. Based on this, the target rudder angle is calculated and supplied to the steering control unit 36. Further, the image processing unit 32 calculates the turning state of the vehicle from the captured image and supplies it to the steering control unit 36. The storage unit 34 stores captured image information.

ヨー角は、車両1の向きと、目標ランプ2と車両1の位置とを結ぶラインと、にもとづく鋭角である。たとえば、車両1の前後方向が目標ランプ2に対して真っ直ぐ向いていれば、ヨー角をゼロとしてよい。車両1の左右への横偏差がそれぞれプラスとマイナスで算出される場合に、横偏差がゼロである位置が目標走行ライン26上の位置となる。車両の旋回状態は、車両の走行距離および旋回角にもとづく状態量であり、例えば車両の旋回半径または推定舵角であってよい。推定舵角は、撮像画像から算出した車両の旋回状態を示す状態量であって、目標舵角と比較するため舵角として換算した数値である。画像処理部32は、車両の旋回状態として推定舵角を操舵制御部36に供給する。   The yaw angle is an acute angle based on the direction of the vehicle 1 and a line connecting the target lamp 2 and the position of the vehicle 1. For example, if the front-rear direction of the vehicle 1 is straight with respect to the target lamp 2, the yaw angle may be zero. When the lateral deviation of the vehicle 1 to the left and right is calculated as plus and minus, respectively, the position where the lateral deviation is zero is the position on the target travel line 26. The turning state of the vehicle is a state quantity based on the travel distance and turning angle of the vehicle, and may be a turning radius or an estimated steering angle of the vehicle, for example. The estimated steering angle is a state quantity indicating the turning state of the vehicle calculated from the captured image, and is a numerical value converted as a steering angle for comparison with the target steering angle. The image processing unit 32 supplies the estimated steering angle to the steering control unit 36 as the turning state of the vehicle.

目標舵角は、目標位置に向かう目標走行ライン26上を車両が走行するように算出される。たとえば、操舵制御部36は、目標ランプ2に対するヨー角がゼロであり車両1の進行方向が目標ランプ2に真っ直ぐ向いている場合であっても、横偏差にもとづいて横偏差を小さくするように前輪8を操舵する。   The target rudder angle is calculated so that the vehicle travels on the target travel line 26 toward the target position. For example, the steering control unit 36 reduces the lateral deviation based on the lateral deviation even when the yaw angle with respect to the target ramp 2 is zero and the traveling direction of the vehicle 1 is directed straight toward the target ramp 2. The front wheel 8 is steered.

操舵制御部36は、操舵駆動機構14を駆動して前輪8の舵角を制御する。操舵制御部36は、画像処理部32から受け取った目標舵角と推定舵角とにもとづいて車両1を走行するように制御する。操舵制御部36は、目標舵角から推定舵角を減算して舵角修正量を算出し、舵角修正量に応じたモータの駆動量を操舵駆動機構14に送出する。例えば圃場の地面が想定以上に軟弱なために、目標舵角で操舵制御を行っても車両の旋回量が不足するような場合には、推定舵角は目標舵角より低い値が算出され、舵角修正量が生成されて追加の操舵制御が行われることで所望の旋回量を得ることができる。   The steering control unit 36 drives the steering drive mechanism 14 to control the steering angle of the front wheels 8. The steering control unit 36 controls the vehicle 1 to travel based on the target steering angle and the estimated steering angle received from the image processing unit 32. The steering control unit 36 calculates the steering angle correction amount by subtracting the estimated steering angle from the target steering angle, and sends the driving amount of the motor corresponding to the steering angle correction amount to the steering drive mechanism 14. For example, if the ground of the field is softer than expected and the amount of turning of the vehicle is insufficient even when steering control is performed at the target rudder angle, the estimated rudder angle is calculated to be lower than the target rudder angle, A desired turning amount can be obtained by generating a steering angle correction amount and performing additional steering control.

実施形態の操舵制御装置20を既存の作業車両に取り付ける場合、一般のユーザがステアリング機構15のステアリングシャフトなどに舵角センサを取り付けることは難しい。そこで、例えば舵角センサを取付容易な前輪8に取り付けてもよいが、泥などにより耐久性が低くなるという問題がある。操舵制御装置20は、圃場の凹凸により前輪8が転舵されても、画像処理結果によって舵角を修正し、舵角センサを用いずとも精度良く操舵を制御でき、コストを抑えることができる。   When attaching the steering control device 20 of the embodiment to an existing work vehicle, it is difficult for a general user to attach a steering angle sensor to the steering shaft of the steering mechanism 15 or the like. Therefore, for example, the rudder angle sensor may be attached to the front wheel 8 which is easy to attach, but there is a problem that durability is lowered due to mud or the like. Even if the front wheel 8 is steered due to the unevenness of the field, the steering control device 20 can correct the steering angle based on the image processing result, can control the steering accurately without using the steering angle sensor, and can suppress the cost.

図4は、実施形態に係る画像処理部32の機能構成を示す。画像処理部32は、目標領域検出部40、目標舵角算出部42、目標領域追跡部44、旋回角算出部46、特徴領域設定部48、特徴領域追跡部50、走行距離算出部52および旋回状態推定部54を有する。   FIG. 4 shows a functional configuration of the image processing unit 32 according to the embodiment. The image processing unit 32 includes a target region detection unit 40, a target rudder angle calculation unit 42, a target region tracking unit 44, a turning angle calculation unit 46, a feature region setting unit 48, a feature region tracking unit 50, a travel distance calculation unit 52, and a turning A state estimation unit 54 is included.

目標領域検出部40は、画像取得部30から受け取った撮像画像における画像上の発光部21(以下、「目標領域」という)を検出する。具体的には、目標領域検出部40は、所定の閾値以上の輝度を示す画素の集合を目標ランプ2として検出し、それらの画素の集合を含む領域を目標領域として検出する。目標領域検出部40において、点滅する発光部21を撮像した撮像画像を受け取り、点灯した発光部21の撮像画像と消灯した発光部21の撮像画像の輝度を比較し、所定の輝度差以上の画素の集合を目標ランプ2として判定してよく、所定の輝度差以上の画素の集合が所定の面積および所定のアスペクト比を満たせば、目標ランプ2であると判定してよい。さらに、点滅する発光部21の撮像画像を受け取り、目標領域検出部40が検出した目標領域において、発光部21の点滅の周期に応じた輝度の時間的変化を満たすかどうか判定し、目標領域の検出が妥当であるかどうか判定してよい。   The target area detection unit 40 detects the light emitting unit 21 (hereinafter referred to as “target area”) on the image in the captured image received from the image acquisition unit 30. Specifically, the target area detection unit 40 detects a set of pixels exhibiting a luminance equal to or higher than a predetermined threshold as the target lamp 2, and detects an area including the set of pixels as a target area. In the target area detection unit 40, a captured image obtained by capturing the flashing light emitting unit 21 is received, and the luminance of the captured image of the light emitting unit 21 that is turned on is compared with the luminance of the captured image of the light emitting unit 21 that is turned off. May be determined as the target lamp 2, and may be determined as the target lamp 2 if a set of pixels having a predetermined luminance difference or more satisfies a predetermined area and a predetermined aspect ratio. Furthermore, the captured image of the flashing light emitting unit 21 is received, and it is determined whether or not the target area detected by the target area detecting unit 40 satisfies a temporal change in luminance according to the flashing cycle of the light emitting unit 21. It may be determined whether the detection is valid.

目標領域検出部40は、撮像画像と、検出した目標領域の位置情報を記憶部34に記憶させる。目標領域検出部40は、目標舵角算出部42および目標領域追跡部44に目標領域の位置情報を供給する。なお、位置情報は、実空間の距離に対応する仮想2次元空間または仮想3次元空間の座標であってよい。また、位置情報は、撮像画像の画素を単位とする仮想2次元空間の座標であってよく、撮像画像上の所定の位置を基準とした座標であってよい。   The target area detection unit 40 causes the storage unit 34 to store the captured image and the position information of the detected target area. The target area detection unit 40 supplies position information of the target area to the target rudder angle calculation unit 42 and the target area tracking unit 44. Note that the position information may be coordinates in a virtual two-dimensional space or a virtual three-dimensional space corresponding to the distance in the real space. Further, the position information may be coordinates in a virtual two-dimensional space in units of pixels of the captured image, or may be coordinates based on a predetermined position on the captured image.

目標舵角算出部42は、目標領域検出部40から目標領域の位置情報を受け取り、車両1の向きと目標領域の位置から目標ランプ2に対する車両1のヨー角を算出する。車両1の向きは、あらかじめ設定されたカメラ11の撮像方向であってよく、たとえば撮像画像の中心位置を通る縦方向のベクトルであってよい。また、目標舵角算出部42は、撮像画像から目標走行ライン26からの横偏差を算出する。目標舵角算出部42は、算出したヨー角および横偏差にもとづいて目標走行ライン26上に目標位置を設定し、車両1が目標位置に直進するように目標舵角を算出する。   The target rudder angle calculation unit 42 receives the position information of the target area from the target area detection unit 40 and calculates the yaw angle of the vehicle 1 with respect to the target lamp 2 from the direction of the vehicle 1 and the position of the target area. The orientation of the vehicle 1 may be a preset imaging direction of the camera 11, for example, a vertical vector passing through the center position of the captured image. Further, the target rudder angle calculation unit 42 calculates a lateral deviation from the target travel line 26 from the captured image. The target rudder angle calculation unit 42 sets a target position on the target travel line 26 based on the calculated yaw angle and lateral deviation, and calculates the target rudder angle so that the vehicle 1 goes straight to the target position.

目標領域追跡部44は、車両走行中に新たに撮像された撮像画像から目標領域を検出し、目標領域の位置情報を導出する。目標領域追跡部44は、新たに撮像された撮像画像の目標領域の位置情報を記憶部34に記憶させる。   The target area tracking unit 44 detects a target area from a captured image newly captured while the vehicle is traveling, and derives position information of the target area. The target area tracking unit 44 causes the storage unit 34 to store the position information of the target area of the newly captured image.

旋回角算出部46は、過去の目標領域の位置情報と新たに算出した目標領域の位置情報から、撮像画像上の横座標の位置変化量を算出し、その位置変化量にもとづいて車両の旋回角を算出する。旋回角算出部46は、実空間上で遠方にある目標ランプ2の位置変化を用いて車両の旋回角を算出するため、車両の近傍に位置する領域の位置変化を用いる場合と比べて、車両の旋回角を精度良く算出できる。旋回角算出部46は、算出した旋回角を旋回状態推定部54に送出する。   The turning angle calculation unit 46 calculates the position change amount of the abscissa on the captured image from the position information of the past target area and the newly calculated position information of the target area, and turns the vehicle based on the position change amount. Calculate the corner. Since the turning angle calculation unit 46 calculates the turning angle of the vehicle by using the change in position of the target lamp 2 that is far away in the real space, the turning angle calculation unit 46 is compared with the case of using the change in position of the region located in the vicinity of the vehicle. Can be accurately calculated. The turning angle calculation unit 46 sends the calculated turning angle to the turning state estimation unit 54.

ここで、凹凸の多い圃場を走行したときは、走行に伴って車体が頻繁に振動する状態で撮像する場合が想定され、算出した目標領域の位置情報には、ノイズ状の細かい変動が含まれる。旋回角算出部46は、例えば0.1秒間隔で撮像される撮像画像に対し、過去5回分の位置変化量を移動平均処理した値から車両の旋回角を算出する。また、0.1秒毎に算出される位置変化量をフィルター処理によって平滑化してよい。これにより、ノイズ状の細かい振動の影響を抑えることができ、旋回角を精度よく算出できる。   Here, when traveling on a field with many irregularities, it is assumed that imaging is performed in a state in which the vehicle body frequently vibrates with traveling, and the calculated target area position information includes fine fluctuations in noise. . The turning angle calculation unit 46 calculates the turning angle of the vehicle from, for example, a value obtained by moving and averaging the position change amounts for the past five times with respect to captured images taken at intervals of 0.1 seconds. The position change amount calculated every 0.1 second may be smoothed by filtering. Thereby, the influence of the noise-like fine vibration can be suppressed and the turning angle can be calculated with high accuracy.

特徴領域設定部48は、画像取得部30から目標領域検出部40と並行して、撮像画像を供給される。特徴領域設定部48は、撮像画像から特徴的な部分画像を検出し、それを撮像画像の複数の画素値から構成される特徴領域として設定する。特徴領域とは、所定の閾値以上の輝度勾配が分布している領域であってよく、大きさが定められたウィンドウ内の部分画像であってよい。   The feature region setting unit 48 is supplied with a captured image in parallel with the target region detection unit 40 from the image acquisition unit 30. The feature region setting unit 48 detects a characteristic partial image from the captured image and sets it as a feature region composed of a plurality of pixel values of the captured image. The feature region may be a region in which a luminance gradient equal to or greater than a predetermined threshold is distributed, and may be a partial image in a window having a predetermined size.

特徴領域設定部48は、目標領域より実空間上で車両に近い位置に特徴領域を設定してよい。つまり、特徴領域設定部48は、特徴領域が撮像画像上で目標領域より縦方向下側に位置するよう設定する。   The feature region setting unit 48 may set the feature region at a position closer to the vehicle in real space than the target region. That is, the feature area setting unit 48 sets the feature area so as to be positioned on the lower side in the vertical direction from the target area on the captured image.

特徴領域設定部48は、特徴領域追跡部50が設定された特徴領域を追跡できなくなった場合に、新たに特徴領域を設定する。特徴領域として検出した領域は、車両1が進行すれば、大きくなり、変形する。そこで、特徴領域の形状は縦方向に短い長方形に定められてよい。特徴領域設定部48は、設定した特徴領域をテンプレートとして、画素値情報および位置情報を記憶部34に記憶させる。なお、特徴領域は複数設定されてよい。   The feature region setting unit 48 sets a new feature region when the feature region tracking unit 50 can no longer track the set feature region. The area detected as the characteristic area becomes larger and deforms as the vehicle 1 advances. Therefore, the shape of the feature region may be set to a rectangle that is short in the vertical direction. The feature region setting unit 48 causes the storage unit 34 to store pixel value information and position information using the set feature region as a template. A plurality of feature areas may be set.

特徴領域追跡部50は、新たな撮像画像が撮像される度に、設定された特徴領域のテンプレートと同じような輝度勾配等をもつ領域を探索して追跡する。特徴領域追跡部50は、テンプレートの位置の周囲の位置座標の範囲を探索する。特徴領域追跡部50は、テンプレートと新たな撮像画像上のウィンドウで取り出した領域との画素値分布が所定の閾値以上に一致していれば、新たな撮像画像上のウィンドウがテンプレートと実空間上の同じ領域であると判定する。たとえば、特徴領域追跡部50は、正規化相関法などの手法を用いて、新たな撮像画像上のウィンドウがテンプレートと実空間上の同じ領域であるかどうか判定する。   Each time a new captured image is captured, the feature region tracking unit 50 searches and tracks a region having a brightness gradient or the like similar to the template of the set feature region. The feature region tracking unit 50 searches for a range of position coordinates around the template position. If the pixel value distribution between the template and the region extracted in the window on the new captured image matches a predetermined threshold or more, the feature region tracking unit 50 displays the window on the new captured image in the real space. Are determined to be in the same area. For example, the feature region tracking unit 50 determines whether the window on the new captured image is the same region in the real space as the template using a method such as a normalized correlation method.

特徴領域追跡部50は、テンプレートと実空間上の同じ領域であると判定すれば、その新たな撮像画像上のウィンドウの位置情報を走行距離算出部52に送出する。特徴領域追跡部50は、テンプレートと実空間上で同じ領域である新たな撮像画像上の領域がなければ、特徴領域設定部48に新たな特徴領域を設定するよう指令信号を供給する。   If it is determined that the feature region tracking unit 50 is the same region in the real space as the template, the feature region tracking unit 50 sends the position information of the window on the new captured image to the travel distance calculation unit 52. The feature region tracking unit 50 supplies a command signal to the feature region setting unit 48 to set a new feature region if there is no region on the new captured image that is the same region in the real space as the template.

特徴領域のテンプレートは、同じ領域であると判定されるたびに、その撮像画像上の位置が記憶部34に記憶され、また、次回の撮像までの間に車両が移動する量を推算し、次回の撮像画像において推定されるテンプレートの位置と、その位置での変位量に応じて特徴領域を拡大、変形して新たなテンプレートを生成し、記憶部34に記憶する。   Each time the template of the feature area is determined to be the same area, the position on the captured image is stored in the storage unit 34, and the amount of movement of the vehicle before the next imaging is estimated. A new template is generated by enlarging and deforming the feature region according to the position of the template estimated in the captured image and the amount of displacement at that position, and is stored in the storage unit 34.

走行距離算出部52は、追跡する特徴領域の位置の変化量から車両の走行距離を算出する。ある特徴領域の、前回の処理で追跡した位置と、今回の処理で追跡した位置の変化量を算出し、その位置変化量にもとづいて車両の走行距離を算出する。特徴領域は、車両に近い領域ほど撮像画像上の縦方向の位置変化量が大きくなる。実空間上で目標領域より車両に近い位置で特徴領域の位置変化量を算出することで、走行距離を精度良く算出できる。走行距離算出部52は、算出した走行距離を旋回状態推定部54に送出する。   The travel distance calculation unit 52 calculates the travel distance of the vehicle from the amount of change in the position of the feature area to be tracked. The amount of change in the position tracked in the previous process and the position tracked in the current process of a certain feature area is calculated, and the travel distance of the vehicle is calculated based on the position change amount. The feature region has a greater amount of vertical position change on the captured image as the region is closer to the vehicle. By calculating the position change amount of the feature region at a position closer to the vehicle than the target region in the real space, the travel distance can be calculated with high accuracy. The travel distance calculation unit 52 sends the calculated travel distance to the turning state estimation unit 54.

旋回状態推定部54は、算出された走行距離および旋回角にもとづいて車両の旋回状態を推定する。旋回状態推定部54は、走行距離および旋回角により車両の旋回半径を算出し、旋回半径と車両のホイールベースにもとづいて推定舵角を算出する。   The turning state estimation unit 54 estimates the turning state of the vehicle based on the calculated travel distance and turning angle. The turning state estimation unit 54 calculates the turning radius of the vehicle based on the travel distance and the turning angle, and calculates the estimated steering angle based on the turning radius and the wheel base of the vehicle.

操舵制御部36は、目標舵角と推定舵角にもとづいて操舵を制御する。このように、撮像画像から車両の旋回状態を推定して舵角を修正することで、車両の実際の挙動を操舵に反映し、精度良く操舵制御ができる。撮像画像を参照して画像処理について詳細に説明する。   The steering control unit 36 controls the steering based on the target rudder angle and the estimated rudder angle. Thus, by estimating the turning state of the vehicle from the captured image and correcting the steering angle, the actual behavior of the vehicle is reflected in the steering, and steering control can be performed with high accuracy. Image processing will be described in detail with reference to the captured image.

図5は、撮像画像上の目標領域および特徴領域を説明するための図である。図5(a)に示す撮像画像60は車両走行中の時刻t1に撮像され、図5(b)に示す撮像画像62は時刻t1より後の時刻t2に撮像された画像である。また、図6は、図5に示す撮像画像を写真で示す図である。   FIG. 5 is a diagram for explaining a target area and a characteristic area on a captured image. A captured image 60 illustrated in FIG. 5A is captured at time t1 while the vehicle is traveling, and a captured image 62 illustrated in FIG. 5B is an image captured at time t2 after time t1. Moreover, FIG. 6 is a figure which shows the captured image shown in FIG. 5 with a photograph.

撮像画像60および撮像画像62には、圃場にて車両走行の目標となる目標ランプ2および進行方向の地面が撮像されている。図5(a)に示す目標領域64aは目標ランプ2を含む領域であり、点滅する発光部21が点灯した状態であり、図5(b)に示す目標領域64bは発光部21が消灯した状態である。目標領域64aは発光部21が中央に位置するように設定される。また、発光部21は点灯と消灯の異なる状態があるため、撮像画像上で追跡するには、目標領域64aは目標ランプ2より広く、周囲の風景も含むように設定され、発光部21の形状に応じて縦方向jに長尺の長方形状のウィンドウに設定される。このように、カメラ11により撮像される撮像画像は、進行方向の少し先の地面だけでなく、進行方向の先の遠景まで含む。   In the picked-up image 60 and the picked-up image 62, the target lamp 2 and the ground in the traveling direction, which are targets for vehicle travel in the field, are picked up. A target area 64a shown in FIG. 5 (a) is an area including the target lamp 2, in which the flashing light emitting section 21 is turned on, and in the target area 64b shown in FIG. 5 (b), the light emitting section 21 is turned off. It is. The target area 64a is set so that the light emitting unit 21 is located at the center. In addition, since the light emitting unit 21 is turned on and off, the target area 64a is set to be wider than the target lamp 2 and include the surrounding scenery for tracking on the captured image. Accordingly, a rectangular window elongated in the vertical direction j is set. Thus, the captured image captured by the camera 11 includes not only the ground slightly ahead in the traveling direction but also a distant view ahead in the traveling direction.

図5(a)に示す特徴領域66a、特徴領域68a、特徴領域70a、特徴領域72aおよび特徴領域74aは、目標ランプ2より手前の地面上で、予め設定した閾値以上に明暗の変化が大きい撮像画像上の特徴的な領域に設定され、また、横方向iに長尺の長方形状のウィンドウに設定される。図5(a)に示す各特徴領域は、縦方向jに離れて複数設定される。図5(b)に示す特徴領域66b、特徴領域68b、特徴領域70b、特徴領域72bおよび特徴領域74bは、パターンマッチングによる追跡処理により、特徴領域66a、特徴領域68a、特徴領域70a、特徴領域72aおよび特徴領域74aのそれぞれと実空間上で同じ領域であると判定された領域である。   The feature area 66a, the feature area 68a, the feature area 70a, the feature area 72a, and the feature area 74a shown in FIG. 5A are images on the ground in front of the target lamp 2 that have a change in brightness that is greater than or equal to a preset threshold value. A characteristic area on the image is set, and a rectangular window elongated in the horizontal direction i is set. A plurality of feature regions shown in FIG. 5A are set apart in the vertical direction j. The feature region 66b, the feature region 68b, the feature region 70b, the feature region 72b, and the feature region 74b shown in FIG. 5B are traced by pattern matching, and the feature region 66a, the feature region 68a, the feature region 70a, and the feature region 72a. In addition, the region is determined to be the same region in real space as each of the feature regions 74a.

図7は、時刻t2の撮像画像62であって、時刻t2の撮像画像62に時刻t1の撮像画像60で検出された目標領域および特徴領域の位置を、説明用として重ね書きしたものである。また、図8は、図7に示す撮像画像を写真で示す図である。   FIG. 7 shows a captured image 62 at time t2, in which the positions of the target area and the feature area detected in the captured image 60 at time t1 are overwritten on the captured image 62 at time t2 for explanation. Moreover, FIG. 8 is a figure which shows the captured image shown in FIG. 7 with a photograph.

車両の進行による撮像位置の変化により、時刻t1で撮像された各特徴領域が、時刻t2での撮像画像62上では下側に移動する。各特徴領域の位置変化量は、最も下側にある特徴領域74aと特徴領域74bが最も大きくなる。車両から遠方にある領域ほど、縦方向jの位置変化量が小さく、車両に近い領域ほど縦方向jの位置変化量が大きくなり、車両に近い領域ほど縦方向jの位置変化量を精度良く算出できる。   Due to the change of the imaging position due to the traveling of the vehicle, each feature area captured at time t1 moves downward on the captured image 62 at time t2. The position change amount of each feature region is greatest in the feature region 74a and the feature region 74b on the lowermost side. The position change amount in the vertical direction j is smaller in the region farther from the vehicle, the position change amount in the vertical direction j is larger in the region closer to the vehicle, and the position change amount in the vertical direction j is calculated more accurately in the region closer to the vehicle. it can.

目標領域64aと目標領域64bの横方向iの位置ずれは、カメラ11の向き、つまり車両の進行方向が変化したことを示す。撮像画像上での横方向iの変化量は、車両の方向の変化と、車両の前後・左右の移動の両方が影響する。車両から遠い領域ほど、前後・左右の移動の影響は小さくなり、車両の方向の変化を精度よく抽出できるようになる。このように、特徴領域より車両から遠方にある目標領域の位置変化量をもとに旋回角を算出することで、旋回角を精度良く算出できる。   The displacement in the lateral direction i between the target area 64a and the target area 64b indicates that the direction of the camera 11, that is, the traveling direction of the vehicle has changed. The amount of change in the lateral direction i on the captured image is affected by both the change in the direction of the vehicle and the movement of the vehicle in the front-rear and left-right directions. The farther away from the vehicle, the smaller the influence of forward / backward / left / right movement, and the change in the direction of the vehicle can be extracted with high accuracy. As described above, the turning angle can be calculated with high accuracy by calculating the turning angle based on the position change amount of the target area farther from the vehicle than the characteristic area.

図9は、特徴領域の追跡により車両1の移動軌跡を算出する方法を説明するための平面図である。図9(a)では、時刻t1での車両1と特徴領域66aとの位置関係を示す。特徴領域66aは、車両1の中心ライン76aの延長線上に設定された状態である。カメラ11は車両1の中心ライン76a上に設置されるため、撮像画像の中心ラインは、車両1の中心ライン76aと一致している。   FIG. 9 is a plan view for explaining a method of calculating the movement trajectory of the vehicle 1 by tracking the feature region. FIG. 9A shows the positional relationship between the vehicle 1 and the feature region 66a at time t1. The characteristic region 66a is a state set on an extension line of the center line 76a of the vehicle 1. Since the camera 11 is installed on the center line 76 a of the vehicle 1, the center line of the captured image coincides with the center line 76 a of the vehicle 1.

図9(b)では、時刻t2の車両1と特徴領域66bとの位置関係を示す。特徴領域66bは、特徴領域66aと実空間上で同じ領域である。時刻t2では、車両1の前進により特徴領域66bは車両1に接近するとともに、撮像画像の中心ライン76bから右側に位置した状態となる。   FIG. 9B shows the positional relationship between the vehicle 1 and the feature region 66b at time t2. The feature region 66b is the same region in the real space as the feature region 66a. At time t2, the feature region 66b approaches the vehicle 1 due to the forward movement of the vehicle 1, and is located on the right side from the center line 76b of the captured image.

図9(c)に示すように特徴領域66bを、図9(c)の左右中央の位置になるように配置すると、車両1は左方向に少し旋回した状態となる。続いて、特徴領域66aと特徴領域66bは実空間上で同じ領域であるので、これを重ね合わせると図9(d)に示すようになり、時刻t1から時刻t2の間での車両1の移動軌跡78、つまり移動量および旋回量がわかる。このように撮像画像から特徴領域を追跡することで、車両1の移動軌跡を算出できる。また、特徴領域追跡部50は、図5(a)に示すような複数の特徴領域を追跡し、その算出結果を平均化することで、車両1の移動軌跡を精度よく算出できる。   As shown in FIG. 9C, when the feature region 66b is arranged so as to be positioned at the center of the left and right in FIG. 9C, the vehicle 1 turns slightly to the left. Subsequently, since the feature region 66a and the feature region 66b are the same region in the real space, when they are overlapped, the result is as shown in FIG. 9D, and the movement of the vehicle 1 between the time t1 and the time t2 The locus 78, that is, the movement amount and the turning amount can be known. By tracking the feature region from the captured image in this way, the movement locus of the vehicle 1 can be calculated. The feature region tracking unit 50 can accurately calculate the movement locus of the vehicle 1 by tracking a plurality of feature regions as shown in FIG. 5A and averaging the calculation results.

走行距離の算出方法を詳細に説明する。撮像画像上での縦座標jbの実空間での車両前後方向の座標Zは、下記式(1)により算出され、横座標ibの実空間での横座標Xは、下記式(2)により算出される。ここで、実3次元空間でのXYZ座標は次のように設定する。まず、カメラ11の直下の地面上を原点とし、垂直上向きにY座標または高さH、車両の前後方向をZ座標、左右方向をX座標とする。
Z=(CAH)/(PWV・(jv−jb)) ・・・(1)
X=Z・PWH(ib−iv) ・・・(2)
CAHは地面からカメラまでの高さ、PWVは1画素の上下方向の視野角のtan値、jvは撮像画像上での地平線の縦座標、PWHは1画素の左右方向の視野角のtan値、ivは撮像画像上の車両の正面方向の横座標である。これにより、撮像画像上の位置を実空間での位置に変換でき、式(1)を用いて撮像画像上の縦方向jの位置変化量から、車両の走行距離を算出できる。
A method for calculating the travel distance will be described in detail. The vehicle longitudinal direction coordinate Z in the real space of the ordinate jb on the captured image is calculated by the following equation (1), and the abscissa X in the real space of the abscissa ib is calculated by the following equation (2). Is done. Here, the XYZ coordinates in the actual three-dimensional space are set as follows. First, the origin directly on the ground directly below the camera 11 is defined as the Y coordinate or height H in the vertical upward direction, the vehicle longitudinal direction as the Z coordinate, and the left and right direction as the X coordinate.
Z = (CAH) / (PWV · (jv−jb)) (1)
X = Z · PWH (ib-iv) (2)
CAH is the height from the ground to the camera, PWV is the tan value of the vertical viewing angle of one pixel, jv is the ordinate of the horizon on the captured image, PWH is the tan value of the horizontal viewing angle of one pixel, iv is the abscissa of the front direction of the vehicle on the captured image. As a result, the position on the captured image can be converted to a position in the real space, and the travel distance of the vehicle can be calculated from the amount of change in the vertical direction j on the captured image using Equation (1).

旋回角の算出方法を詳細に説明する。車両1の旋回角dSは、撮像画像上の目標領域の横方向iの位置変化量n1にもとづいて、下記式(3)により算出できる。
dS=n1×PWH ・・・(3)
次に走行距離と旋回角から推定舵角を算出する方法を詳細に説明する。
A method for calculating the turning angle will be described in detail. The turning angle dS of the vehicle 1 can be calculated by the following equation (3) based on the position change amount n1 in the lateral direction i of the target area on the captured image.
dS = n1 × PWH (3)
Next, a method for calculating the estimated steering angle from the travel distance and the turning angle will be described in detail.

図10は、旋回する車両の動きを説明するための図である。図10では、旋回する車両に設けられた時刻t1でのカメラ11と時刻t2でのカメラ11の位置を示す。なお、実際には車両の中央付近にカメラ11が設けられているが、ここでは説明の簡略化のためカメラ11が後輪車軸の中央の真上に設定されているものとして、推定舵角の算出方法を説明する。   FIG. 10 is a diagram for explaining the movement of a turning vehicle. FIG. 10 shows the positions of the camera 11 at the time t1 and the camera 11 at the time t2 provided in the turning vehicle. Actually, the camera 11 is provided in the vicinity of the center of the vehicle, but for the sake of simplification of explanation, it is assumed that the camera 11 is set right above the center of the rear wheel axle. A calculation method will be described.

車両が旋回半径Rrで旋回する場合のZ軸方向の走行距離dZと旋回角dSとの関係は下記式(4)となり、式(4)から旋回半径Rrを算出する下記式(5)が導かれる。
dZ=Rr×sin(dS) ・・・(4)
Rr=dZ/sin(dS) ・・・(5)
When the vehicle turns with the turning radius Rr, the relationship between the travel distance dZ in the Z-axis direction and the turning angle dS is expressed by the following equation (4), and the following equation (5) for calculating the turning radius Rr from the equation (4) is derived. It is burned.
dZ = Rr × sin (dS) (4)
Rr = dZ / sin (dS) (5)

旋回半径Rrと車両のホイールベースWbと舵角Swの関係は、以下の式(6)を満たす。
tan(Sw)=Wb/Rr ・・・(6)
式(5)と式(6)から下記式(7)が導かれる。
tan(Sw)=Wb×sin(dS) ・・・(7)
式(7)は、旋回角dS、走行距離dZ、舵角Swの関係を示し、旋回角dSおよび走行距離dZから舵角Swが算出される。舵角Swを推定舵角に置き換えることで推定舵角が算出できる。このように、旋回角dSおよび走行距離dZから舵角を推定でき、車両の旋回状態を推定できる。
The relationship among the turning radius Rr, the vehicle wheel base Wb, and the steering angle Sw satisfies the following expression (6).
tan (Sw) = Wb / Rr (6)
The following equation (7) is derived from the equations (5) and (6).
tan (Sw) = Wb × sin (dS) (7)
Equation (7) shows the relationship between the turning angle dS, the travel distance dZ, and the steering angle Sw, and the steering angle Sw is calculated from the turning angle dS and the travel distance dZ. The estimated steering angle can be calculated by replacing the steering angle Sw with the estimated steering angle. Thus, the steering angle can be estimated from the turning angle dS and the travel distance dZ, and the turning state of the vehicle can be estimated.

図11は、変形例の操舵制御装置20の画像処理を説明するための図である。図11(a)に示す撮像画像80は車両走行中の時刻t1に撮像され、図11(b)に示す撮像画像82は、時刻t1より後の時刻t2に撮像された画像である。また、図12は、図11に示す撮像画像を写真で示す図である。   FIG. 11 is a diagram for explaining image processing of the steering control device 20 according to the modification. A captured image 80 illustrated in FIG. 11A is captured at time t1 while the vehicle is traveling, and a captured image 82 illustrated in FIG. 11B is an image captured at time t2 after time t1. Moreover, FIG. 12 is a figure which shows the captured image shown in FIG. 11 with a photograph.

変形例の操舵制御装置20では目標ランプ2を使用せず、圃場に形成された畝や溝などの凹凸を撮像画像から走行の目標となる目標走行ライン26として検出し、車両が目標走行ライン26上を走行するように操舵を制御する。そのため、変形例の操舵制御装置20は、図5で示した実施形態の操舵制御装置20と比べて、目標領域および特徴領域の設定方法が異なる。   The modified steering control device 20 does not use the target ramp 2 but detects irregularities such as ridges and grooves formed on the farm field as a target travel line 26 that is a target of travel from the captured image, and the vehicle detects the target travel line 26. Steering is controlled to travel on the top. Therefore, the steering control device 20 of the modified example is different from the steering control device 20 of the embodiment shown in FIG. 5 in the setting method of the target area and the characteristic area.

図11(a)に示す車両走行の目標となる目標領域84は、消失点85を含む複数の画素値から構成される。また、特徴領域86a、特徴領域88aおよび特徴領域90aは、横方向iに並んで設定される。   A target area 84 that is a target of vehicle travel shown in FIG. 11A is composed of a plurality of pixel values including a vanishing point 85. Further, the feature region 86a, the feature region 88a, and the feature region 90a are set side by side in the horizontal direction i.

目標領域検出部40は、操舵制御を開始時に撮像画像80から消失点85を検出し、消失点85を含む複数の画素値を目標領域84として設定する。消失点85の縦座標jは水平線87上にあり、横座標iは車両の正面方向の横座標ivに位置する。検出した目標領域84の画素値および位置情報を記憶部34に記憶する。目標領域検出部40は、特徴領域より実空間上で遠方に位置する特徴的な領域であって、操舵制御の開始時に撮像画像の横座標iの中央に位置する目標領域として検出してもよい。また、水平線87の縦座標jは、車両1に取り付けた傾斜センサの検出結果にもとづいて、撮像画像上の水平線87の縦座標jを算出してよい。   The target area detection unit 40 detects a vanishing point 85 from the captured image 80 at the start of steering control, and sets a plurality of pixel values including the vanishing point 85 as the target area 84. The ordinate j of the vanishing point 85 is on the horizontal line 87, and the abscissa i is located at the abscissa iv in the front direction of the vehicle. The detected pixel value and position information of the target area 84 are stored in the storage unit 34. The target area detection unit 40 is a characteristic area located farther in the real space than the characteristic area, and may be detected as a target area located at the center of the abscissa i of the captured image at the start of the steering control. . Further, the ordinate j of the horizontal line 87 may be calculated based on the detection result of the inclination sensor attached to the vehicle 1.

特徴領域設定部48は、撮像画像80の複数の画素値から構成される領域を横一列に直線状に複数設定し、特徴領域86a、特徴領域88aおよび特徴領域90aは横一列に直線状に設定される。特徴領域設定部48は、横一列の特徴領域に集合に限定されず、上下方向に直線状の特徴領域の集合を複数設定してよい。   The feature region setting unit 48 sets a plurality of regions composed of a plurality of pixel values of the captured image 80 in a horizontal line, and sets the feature region 86a, the feature region 88a, and the feature region 90a in a horizontal line. Is done. The feature region setting unit 48 is not limited to a set of feature regions in a horizontal row, and may set a plurality of sets of linear feature regions in the vertical direction.

図11(b)において、目標領域追跡部44は、車両走行中に新たに撮像された撮像画像82から目標領域88を検出し、目標領域88の位置情報を導出する。目標領域追跡部44は、新たな撮像画像82の目標領域88の位置情報を記憶部34に記憶させる。目標領域追跡部44は、パターンマッチングにより、目標領域84の画素値と最も一致する撮像画像82の領域を目標領域84と、実空間上で同じ領域であると判定する。   In FIG. 11B, the target area tracking unit 44 detects the target area 88 from the captured image 82 newly captured while the vehicle is traveling, and derives position information of the target area 88. The target area tracking unit 44 stores the position information of the target area 88 of the new captured image 82 in the storage unit 34. The target area tracking unit 44 determines that the area of the captured image 82 that most closely matches the pixel value of the target area 84 is the same area as the target area 84 in real space by pattern matching.

また、特徴領域追跡部50は、新たな撮像画像が取得されるたびに、特徴領域86a、特徴領域88aおよび特徴領域90aのそれぞれの画素値と最も一致する領域を実空間上で同じ領域であると判定して、特徴領域86b、特徴領域88bおよび特徴領域90bを導出する。   In addition, each time a new captured image is acquired, the feature region tracking unit 50 has the same region in real space as the region that most closely matches the pixel values of the feature region 86a, the feature region 88a, and the feature region 90a. And the feature region 86b, the feature region 88b, and the feature region 90b are derived.

図11(a)に示す横一列の直線状に設定した各特徴領域が、図11(b)では、縦方向jにずれている。これは、地面の凹凸によりカメラ11と各特徴領域との実空間の間隔が異なるためである。特徴領域86b、特徴領域88bおよび特徴領域90bのうち、溝の底に設定された特徴領域88bが実空間で最もカメラ11から離れているためである。変形例の操舵制御装置20は、特徴領域86b、特徴領域88bおよび特徴領域90bの縦方向jの位置変化により地面の凹凸(畝や溝)を検出することができ、畝や溝に沿って車両が走行するように操舵を制御する。   Each characteristic region set in a straight line in a horizontal row shown in FIG. 11A is shifted in the vertical direction j in FIG. 11B. This is because the space of the real space between the camera 11 and each feature region differs due to the unevenness of the ground. This is because the feature region 88b set at the bottom of the groove among the feature region 86b, the feature region 88b, and the feature region 90b is farthest from the camera 11 in real space. The steering control device 20 according to the modified example can detect the unevenness of the ground (the ridge or groove) by changing the position of the feature region 86b, the feature region 88b, and the feature region 90b in the vertical direction j. The steering is controlled so that the vehicle travels.

図13は、時刻t2の撮像画像であって、時刻t1の撮像画像80の目標領域および特徴領域を、時刻t2の撮像画像82に説明用として重ね書きしたものである。時刻t2の撮像画像82に上書きした撮像画像80の目標領域および特徴領域は、撮像画像80上での位置情報である。また、図14は、図13に示す撮像画像を写真で示す図である。   FIG. 13 is a captured image at time t2, in which the target area and the feature area of the captured image 80 at time t1 are overwritten on the captured image 82 at time t2 for explanation. The target area and feature area of the captured image 80 overwritten on the captured image 82 at time t2 is position information on the captured image 80. Moreover, FIG. 14 is a figure which shows the captured image shown in FIG. 13 with a photograph.

時刻t1の目標領域84aの位置と時刻t2の目標領域84bの位置が移動しており、時刻t1の特徴領域86a、88a、90aと、時刻t2の特徴領域86b、88b、90bとの位置が移動している。   The position of the target area 84a at time t1 and the position of the target area 84b at time t2 have moved, and the positions of the characteristic areas 86a, 88a, 90a at time t1 and the characteristic areas 86b, 88b, 90b at time t2 have moved. doing.

旋回角算出部46は、時刻t1の目標領域84aと時刻t2の目標領域84bの横座標の位置変化量を算出し、その位置変化量にもとづいて車両の旋回角を算出する。   The turning angle calculation unit 46 calculates the position change amount of the abscissa of the target area 84a at time t1 and the target area 84b at time t2, and calculates the turning angle of the vehicle based on the position change amount.

走行距離算出部52は、時刻t1の特徴領域86a、88a、90aと、時刻t2の特徴領域86b、88b、90bとのそれぞれの縦座標の位置変化量を算出し、それらの位置変化量を平均化し、平均化して位置変化量にもとづいて車両の走行距離を算出する。   The travel distance calculation unit 52 calculates the position change amounts of the ordinates of the feature areas 86a, 88a, 90a at the time t1 and the feature areas 86b, 88b, 90b at the time t2, and averages the position change amounts. And averaged to calculate the travel distance of the vehicle based on the position change amount.

旋回状態推定部54は、旋回角と走行距離から推定舵角を算出し、車両の旋回状態を推定する。操舵制御部36は、推定舵角を目標舵角に反映して操舵を制御する。このように変形例の操舵制御装置20においては、目標ランプ2を用いることなく操舵を制御でき、コストを抑えることができる。   The turning state estimation unit 54 calculates the estimated steering angle from the turning angle and the travel distance, and estimates the turning state of the vehicle. The steering control unit 36 controls steering by reflecting the estimated steering angle on the target steering angle. Thus, in the steering control device 20 of the modified example, the steering can be controlled without using the target ramp 2, and the cost can be suppressed.

以上、本発明について実施例をもとに説明した。この実施例は例示であり、それらの各構成要素の組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on the embodiments. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements, and such modifications are also within the scope of the present invention.

実施形態では、スイッチを押せば操舵制御装置20が車両を自動で走行させる制御、つまり操舵量および走行を制御する態様を示したが、この態様に限られない。操舵制御装置20が車両1の操舵量を制御して、運転者がアクセルペダルなどで車両進行を制御してもよい。   In the embodiment, a mode in which the steering control device 20 automatically drives the vehicle by pressing a switch, that is, a mode in which the steering amount and the travel are controlled has been described. The steering control device 20 may control the steering amount of the vehicle 1 and the driver may control the vehicle progress with an accelerator pedal or the like.

実施形態では、傾斜センサの検出結果にもとづいて撮像画像を補正する態様も示したが、この態様に限られない。画像処理部32は、撮像画像から水平線を検出してもよい。画像処理部32は、撮像画像上で直線状に輝度差を持つ境界線で、横軸に対する傾斜角が所定の範囲内にある画素値の集合を水平線として検出する。画像処理部32は、地平線が横軸と平行になるように撮像画像を回転させる補正をしてよい。   In the embodiment, the aspect in which the captured image is corrected based on the detection result of the tilt sensor is also shown, but the present invention is not limited to this aspect. The image processing unit 32 may detect a horizontal line from the captured image. The image processing unit 32 detects, as a horizontal line, a set of pixel values with a boundary line having a linear luminance difference on the captured image and having an inclination angle with respect to the horizontal axis within a predetermined range. The image processing unit 32 may perform correction to rotate the captured image so that the horizon is parallel to the horizontal axis.

1 車両、 2 目標ランプ、 3 操縦室、 4 圃場、 6 ブレーキ機構、 8 前輪、 10 後輪、 11 カメラ、 12 ECU、 14 操舵駆動機構、 15 ステアリング機構、 16 作業機、 20 操舵制御装置、 21 発光部、 26 目標走行ライン、 30 画像取得部、 32 画像処理部、 34 記憶部、 36 操舵制御部、 40 目標領域検出部、 42 目標舵角算出部、 44 目標領域追跡部、 46 旋回角算出部、 48 特徴領域設定部、 50 特徴領域追跡部、 52 走行距離算出部、 54 旋回状態推定部。   DESCRIPTION OF SYMBOLS 1 Vehicle, 2 Target lamp, 3 Control room, 4 Farm, 6 Brake mechanism, 8 Front wheel, 10 Rear wheel, 11 Camera, 12 ECU, 14 Steering drive mechanism, 15 Steering mechanism, 16 Working machine, 20 Steering control device, 21 Light emitting section, 26 target travel line, 30 image acquisition section, 32 image processing section, 34 storage section, 36 steering control section, 40 target area detection section, 42 target rudder angle calculation section, 44 target area tracking section, 46 turning angle calculation 48 feature region setting unit, 50 feature region tracking unit, 52 travel distance calculating unit, and 54 turning state estimating unit.

Claims (4)

車両が走行する地面を車両前方の遠景を含んで撮像する撮像部と、
前記撮像部により撮像した撮像画像を処理する画像処理部と、
前記画像処理部の処理結果にもとづいて車両の操舵を制御する操舵制御部と、を備え、
前記画像処理部は、
前記撮像画像の複数の画素値から構成される特徴領域を設定する特徴領域設定部と、
車両走行中に新たに撮像された撮像画像において前記特徴領域の位置情報を導出する特徴領域追跡部と、
前記特徴領域の位置変化量にもとづいて車両の走行距離を算出する走行距離算出部と、
前記撮像画像の複数の画素値から構成され、車両走行の目標となる目標領域を検出する目標領域検出部と、
車両走行中に新たに撮像された撮像画像の前記目標領域の位置情報を導出する目標領域追跡部と、
前記目標領域の位置変化量にもとづいて車両の旋回角を算出する旋回角算出部と、
前記走行距離および前記旋回角にもとづいて車両の旋回状態を推定する旋回状態推定部と、を有する操舵制御装置。
An imaging unit for imaging the ground on which the vehicle travels, including a distant view in front of the vehicle;
An image processing unit that processes a captured image captured by the imaging unit;
A steering control unit for controlling steering of the vehicle based on the processing result of the image processing unit,
The image processing unit
A feature region setting unit that sets a feature region composed of a plurality of pixel values of the captured image;
A feature region tracking unit for deriving positional information of the feature region in a captured image newly captured during vehicle travel;
A mileage calculating unit that calculates the mileage of the vehicle based on the position change amount of the feature region;
A target area detection unit configured by a plurality of pixel values of the captured image and detecting a target area as a target of vehicle travel;
A target area tracking unit for deriving position information of the target area of a captured image newly captured while the vehicle is running;
A turning angle calculation unit for calculating a turning angle of the vehicle based on a position change amount of the target area;
And a turning state estimating unit that estimates a turning state of the vehicle based on the travel distance and the turning angle.
前記画像処理部は、算出された前記目標領域の位置情報にもとづいて目標舵角を算出する目標舵角算出部と、
前記操舵制御部は、前記目標舵角および推定された前記旋回状態にもとづいて車両の操舵を制御することを特徴とする請求項1に記載の操舵制御装置。
The image processing unit calculates a target rudder angle based on the calculated position information of the target area;
The steering control device according to claim 1, wherein the steering control unit controls steering of the vehicle based on the target steering angle and the estimated turning state.
前記特徴領域設定部は、前記目標領域より実空間上で車両に近い位置に前記特徴領域を設定することを特徴とする請求項1または2に記載の操舵制御装置。   The steering control device according to claim 1, wherein the feature region setting unit sets the feature region at a position closer to the vehicle in real space than the target region. 車両に設けられた撮像部により撮像した撮像画像を処理して車両の旋回状態を推定する旋回状態推定方法であって、
前記撮像画像の複数の画素値から構成される特徴領域を設定するステップと、
前記撮像画像の複数の画素値から構成され、車両走行の目標となる目標領域を検出するステップと、
車両走行中に新たに撮像された撮像画像において前記特徴領域の位置情報および前記目標領域の位置情報を導出するステップと、
前記特徴領域の位置変化量にもとづいて車両の走行距離を算出し、前記目標領域の位置変化量にもとづいて車両の旋回角を算出するステップと、
前記走行距離および前記旋回角にもとづいて車両の旋回状態を推定するステップと、を備えることを特徴とする旋回状態推定方法。
A turning state estimation method for estimating a turning state of a vehicle by processing a captured image captured by an imaging unit provided in the vehicle,
Setting a feature region composed of a plurality of pixel values of the captured image;
A step of detecting a target area which is composed of a plurality of pixel values of the captured image and which is a target of vehicle travel;
Deriving position information of the feature region and position information of the target region in a captured image newly captured during vehicle travel;
Calculating a mileage of the vehicle based on a position change amount of the feature region, and calculating a turning angle of the vehicle based on a position change amount of the target region;
And a step of estimating a turning state of the vehicle based on the travel distance and the turning angle.
JP2015052148A 2015-03-16 2015-03-16 Steering control device and turning state estimation method Active JP6587172B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015052148A JP6587172B2 (en) 2015-03-16 2015-03-16 Steering control device and turning state estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015052148A JP6587172B2 (en) 2015-03-16 2015-03-16 Steering control device and turning state estimation method

Publications (3)

Publication Number Publication Date
JP2016173634A true JP2016173634A (en) 2016-09-29
JP2016173634A5 JP2016173634A5 (en) 2018-03-01
JP6587172B2 JP6587172B2 (en) 2019-10-09

Family

ID=57009641

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015052148A Active JP6587172B2 (en) 2015-03-16 2015-03-16 Steering control device and turning state estimation method

Country Status (1)

Country Link
JP (1) JP6587172B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190046551A (en) * 2017-10-26 2019-05-07 현대자동차주식회사 Apparatus and method for drive controlling of vehicle
JP2019139666A (en) * 2018-02-15 2019-08-22 株式会社豊田自動織機 Unmanned carrier and control method therefor
CN110539748A (en) * 2019-08-27 2019-12-06 北京纵目安驰智能科技有限公司 congestion car following system and terminal based on look around
KR20200030476A (en) * 2018-09-12 2020-03-20 한국로봇융합연구원 Straight device in mobile robot and thereof method
KR20200030477A (en) * 2018-09-12 2020-03-20 한국로봇융합연구원 Apparatus for controlling movement of mobile robot and thereof method
JP2020054317A (en) * 2018-10-04 2020-04-09 株式会社クボタ Work vehicle
EP3495246B1 (en) 2017-12-08 2020-07-15 Toyota Material Handling Manufacturing Sweden AB System and method for determining a first steering angle of an agv-automated guide vehicle
JP2020140646A (en) * 2019-03-01 2020-09-03 オムロン株式会社 Controller and positioning device
JP2021037905A (en) * 2019-09-05 2021-03-11 スズキ株式会社 Behavior control device for vehicle
CN114279410A (en) * 2021-12-02 2022-04-05 合肥晟泰克汽车电子股份有限公司 Camera ranging method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110796118B (en) * 2019-11-12 2022-06-10 深圳创维数字技术有限公司 Method for obtaining attitude adjustment parameters of transportation equipment, transportation equipment and storage medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10253372A (en) * 1997-03-13 1998-09-25 Murata Mach Ltd Recognition apparatus for position of moving body
JP2002186309A (en) * 2000-12-19 2002-07-02 Yanmar Agricult Equip Co Ltd Working vehicle for agriculture
US20050288834A1 (en) * 2004-03-19 2005-12-29 Rhs, Inc. Automatic steering system and method
JP2009017462A (en) * 2007-07-09 2009-01-22 Sanyo Electric Co Ltd Driving support system and vehicle
JP2010200674A (en) * 2009-03-03 2010-09-16 National Agriculture & Food Research Organization Traveling vehicle control system
JP2011136662A (en) * 2009-12-28 2011-07-14 Equos Research Co Ltd Device and method for supporting traveling
JP2013045298A (en) * 2011-08-24 2013-03-04 Hitachi Plant Technologies Ltd Unmanned carrier
JP2013201958A (en) * 2012-03-28 2013-10-07 National Agriculture & Food Research Organization Travel control apparatus

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10253372A (en) * 1997-03-13 1998-09-25 Murata Mach Ltd Recognition apparatus for position of moving body
JP2002186309A (en) * 2000-12-19 2002-07-02 Yanmar Agricult Equip Co Ltd Working vehicle for agriculture
US20050288834A1 (en) * 2004-03-19 2005-12-29 Rhs, Inc. Automatic steering system and method
JP2009017462A (en) * 2007-07-09 2009-01-22 Sanyo Electric Co Ltd Driving support system and vehicle
JP2010200674A (en) * 2009-03-03 2010-09-16 National Agriculture & Food Research Organization Traveling vehicle control system
JP2011136662A (en) * 2009-12-28 2011-07-14 Equos Research Co Ltd Device and method for supporting traveling
JP2013045298A (en) * 2011-08-24 2013-03-04 Hitachi Plant Technologies Ltd Unmanned carrier
JP2013201958A (en) * 2012-03-28 2013-10-07 National Agriculture & Food Research Organization Travel control apparatus

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102335987B1 (en) 2017-10-26 2021-12-07 현대자동차주식회사 Apparatus and method for drive controlling of vehicle
KR20190046551A (en) * 2017-10-26 2019-05-07 현대자동차주식회사 Apparatus and method for drive controlling of vehicle
EP3495246B1 (en) 2017-12-08 2020-07-15 Toyota Material Handling Manufacturing Sweden AB System and method for determining a first steering angle of an agv-automated guide vehicle
EP3495314B1 (en) 2017-12-08 2020-07-22 Toyota Material Handling Manufacturing Sweden AB System and method for determining a first steering angle of a forklift truck
JP2019139666A (en) * 2018-02-15 2019-08-22 株式会社豊田自動織機 Unmanned carrier and control method therefor
JP7052398B2 (en) 2018-02-15 2022-04-12 株式会社豊田自動織機 Automated guided vehicle control method
KR102262845B1 (en) 2018-09-12 2021-06-09 한국로봇융합연구원 Apparatus for controlling movement of mobile robot and thereof method
KR20200030477A (en) * 2018-09-12 2020-03-20 한국로봇융합연구원 Apparatus for controlling movement of mobile robot and thereof method
KR102262844B1 (en) 2018-09-12 2021-06-09 한국로봇융합연구원 Straight device in mobile robot and thereof method
KR20200030476A (en) * 2018-09-12 2020-03-20 한국로봇융합연구원 Straight device in mobile robot and thereof method
JP2020054317A (en) * 2018-10-04 2020-04-09 株式会社クボタ Work vehicle
JP7179565B2 (en) 2018-10-04 2022-11-29 株式会社クボタ work vehicle
JP2020140646A (en) * 2019-03-01 2020-09-03 オムロン株式会社 Controller and positioning device
WO2020179507A1 (en) * 2019-03-01 2020-09-10 オムロン株式会社 Control device and alignment device
EP3933542A4 (en) * 2019-03-01 2022-11-16 Omron Corporation Control device and alignment device
CN113508352A (en) * 2019-03-01 2021-10-15 欧姆龙株式会社 Control device and alignment device
JP7059968B2 (en) 2019-03-01 2022-04-26 オムロン株式会社 Control device and alignment device
CN110539748A (en) * 2019-08-27 2019-12-06 北京纵目安驰智能科技有限公司 congestion car following system and terminal based on look around
JP2021037905A (en) * 2019-09-05 2021-03-11 スズキ株式会社 Behavior control device for vehicle
JP7279588B2 (en) 2019-09-05 2023-05-23 スズキ株式会社 Vehicle behavior control device
CN114279410A (en) * 2021-12-02 2022-04-05 合肥晟泰克汽车电子股份有限公司 Camera ranging method
CN114279410B (en) * 2021-12-02 2024-02-02 合肥晟泰克汽车电子股份有限公司 Camera ranging method

Also Published As

Publication number Publication date
JP6587172B2 (en) 2019-10-09

Similar Documents

Publication Publication Date Title
JP6587172B2 (en) Steering control device and turning state estimation method
JP6497546B2 (en) Travel control device
JP5952611B2 (en) Travel control device
US10696301B2 (en) Vehicle control device
US10147003B2 (en) Lane detection device and method thereof, curve starting point detection device and method thereof, and steering assistance device and method thereof
JP5328427B2 (en) Travel control device
US10179608B2 (en) Parking assist device
JP6062609B1 (en) Method and apparatus for monitoring the outer dimensions of a vehicle
JP4868964B2 (en) Running state determination device
JP6414337B2 (en) Vehicle position estimation device and vehicle position estimation method
US20170341582A1 (en) Method and device for the distortion-free display of an area surrounding a vehicle
JP2010191661A (en) Traveling path recognition device, automobile, and traveling path recognition method
US11403767B2 (en) Method and apparatus for detecting a trailer, tow-ball, and coupler for trailer hitch assistance and jackknife prevention
JP6408935B2 (en) Traveling line recognition device
JP6782895B2 (en) In-vehicle camera mounting direction parameter calculation device and mounting direction parameter calculation method
WO2017204009A1 (en) Traveling control apparatus of moving vehicle
JP2014522589A (en) Method for defining the pitching of a camera incorporated in a vehicle and method for controlling the light emission of at least one headlight of a vehicle
KR101738425B1 (en) Apparatus and method for setting region of interest for detecting traffic lanes
JP6763198B2 (en) Image processing equipment, imaging equipment, mobile device control systems, image processing methods, and programs
US10536646B2 (en) Imaging control device and imaging control method
JP7009945B2 (en) Image processing equipment and vehicles
JP2013213792A (en) Road surface condition estimation device
JP4872791B2 (en) Parking assistance device
KR20040067584A (en) Steering angle of the vehicle due to a travelling deviation revision / speed control data creation system and method
GB2595983A (en) Acquisition and tracking method and apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190830

R150 Certificate of patent or registration of utility model

Ref document number: 6587172

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250