JP6707984B2 - Work vehicle control system - Google Patents

Work vehicle control system Download PDF

Info

Publication number
JP6707984B2
JP6707984B2 JP2016097996A JP2016097996A JP6707984B2 JP 6707984 B2 JP6707984 B2 JP 6707984B2 JP 2016097996 A JP2016097996 A JP 2016097996A JP 2016097996 A JP2016097996 A JP 2016097996A JP 6707984 B2 JP6707984 B2 JP 6707984B2
Authority
JP
Japan
Prior art keywords
vehicle
work
drone
tractor
positioning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016097996A
Other languages
Japanese (ja)
Other versions
JP2017207815A (en
Inventor
小野 弘喜
弘喜 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Iseki and Co Ltd
Original Assignee
Iseki and Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iseki and Co Ltd filed Critical Iseki and Co Ltd
Priority to JP2016097996A priority Critical patent/JP6707984B2/en
Publication of JP2017207815A publication Critical patent/JP2017207815A/en
Application granted granted Critical
Publication of JP6707984B2 publication Critical patent/JP6707984B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)

Description

本発明は、作業車両の制御システムに関する。 The present invention relates to a work vehicle control system.

圃場などで作業する作業車両を自律制御させる際に、測位衛星からの信号に基づいて作業車両の位置を測位する技術が知られている。このような技術に関して、例えば、特開平11−248816号公報に記載の技術が公知である。 There is known a technique of positioning the position of a work vehicle based on a signal from a positioning satellite when autonomously controlling the work vehicle working in a field or the like. Regarding such a technique, for example, the technique described in JP-A No. 11-248816 is known.

特許文献1には、移動体を監視する移動体監視システムが記載されている。特許文献1では、走行車両などの移動体にGPS装置を取り付け、GPS装置から送られてくる移動軌跡のデータを受信する監視センター局を移動体の移動範囲近傍の空中を飛行するヘリコプターに設けている。これにより、例えば、自律走行により無人で農作業等を行う作業車両が、予定していた経路に沿って走行し、作業を行っているかを監視することができる。 Patent Document 1 describes a mobile body monitoring system that monitors a mobile body. In Patent Document 1, a GPS device is attached to a moving body such as a traveling vehicle, and a monitoring center station for receiving data of a movement locus sent from the GPS device is provided in a helicopter flying in the air near the moving range of the moving body. There is. Thus, for example, it is possible to monitor whether or not a work vehicle that performs unmanned agricultural work or the like by autonomous traveling travels along a planned route and is performing work.

特開平11−248816号公報(「0057」〜「0064」、図7、図3〜図5)JP-A-11-248816 (“0057” to “0064”, FIG. 7, and FIGS. 3 to 5)

しかし、従来の技術では、GPS装置自体は作業車両に備えられている。したがって、買い換えなどにより作業車両を更新したり、複数の作業車両を所有したりする場合、それらの作業車両で測位をするには、測位装置を付け替えるか、それぞれ個別に測位装置を備え付ける必要があった。特に、高精度の測位を行なう場合には、高精度の高価なGPSアンテナなどを備えた測位装置が必要である。よって、個別に測位装置を備え付ける場合には、高費用化し易い問題があった。また、測位装置を付け替える場合には、付け替え作業が生じ手間がかかるという問題があった。 However, in the related art, the GPS device itself is provided in the work vehicle. Therefore, when a work vehicle is updated or a plurality of work vehicles are owned by replacement, etc., in order to perform positioning with these work vehicles, it is necessary to replace the positioning device or individually install the positioning device. It was In particular, in the case of performing highly accurate positioning, a positioning device equipped with a highly accurate and expensive GPS antenna or the like is required. Therefore, when the positioning device is individually installed, there is a problem that the cost is easily increased. Further, when replacing the positioning device, there is a problem that replacement work takes time and labor.

本発明は、更新した作業車両や複数の作業車両を測位する場合に、測位装置を付け替えたり、個別に測位装置を備え付けたりせずに測位することを技術的課題とする。 An object of the present invention is, when positioning an updated work vehicle or a plurality of work vehicles, to perform positioning without replacing a positioning device or separately providing a positioning device.

本発明の上記課題は、次の解決手段により解決される。
すなわち、請求項1に記載の作業車両の制御システムは、
圃場(H)で作業をする作業車両(1)と、
前記作業車両(1)に対応して空中を飛行する無人航空機(31)と、
前記無人航空機(31)に支持されて、測位衛星から信号を受信して測位を行う測位装置(33)と、
前記測位装置(33)の測位結果に基づいて前記作業車両(1)の測位をする車両測位手段(CC4)と、
前記作業車両(1)に付された車両位置特定マーク(23)と、
前記無人航空機(31)に支持され、前記車両位置特定マーク(23)を撮像する撮像部材(37)と、
前記撮像部材(37)が撮像する撮像画像において、前記車両位置特定マーク(23)の位置を予め設定された領域内に保持するように自律制御されて飛行する前記無人航空機(31)と、
を備えたことを特徴とする。
The above problems of the present invention can be solved by the following solving means.
That is, the control system for a work vehicle according to claim 1 is
A work vehicle (1) for working in the field (H),
An unmanned aerial vehicle (31) flying in the air corresponding to the work vehicle (1);
A positioning device (33) that is supported by the unmanned aerial vehicle (31) and receives signals from positioning satellites to perform positioning;
Vehicle positioning means (CC4) for positioning the work vehicle (1) based on the positioning result of the positioning device (33);
A vehicle position specifying mark (23) attached to the work vehicle (1),
An imaging member (37) supported by the unmanned aerial vehicle (31) and imaging the vehicle position specifying mark (23);
In the captured image captured by the imaging member (37), the unmanned aerial vehicle (31) that autonomously flies so as to hold the position of the vehicle position identification mark (23) within a preset area;
It is characterized by having.

請求項2に記載の発明は、
複数の前記作業車両(1)と、
各作業車両(1)に付され、各作業車両(1)毎に異なる車両識別マーク(22)と、
各作業車両(1)毎に、予め設定された作業工程の情報を記憶する工程記憶手段(CB16)と、
前記車両識別マーク(22)を撮像する前記撮像部材(37)と、
前記撮像部材(37)が撮像した前記車両識別マーク(22)の撮像画像に基づいて、前記作業車両(1)を特定する車両特定手段(CB15)と、
特定された作業車両(1)に対応する作業工程に基づく画像を表示する表示部(43)と、
を備えたことを特徴とする請求項1に記載の作業車両の制御システムである。
The invention according to claim 2 is
A plurality of the work vehicles (1),
A vehicle identification mark (22) attached to each work vehicle (1) and different for each work vehicle (1);
A process storage means (CB16) for storing information on a preset work process for each work vehicle (1),
An imaging member (37) for imaging the vehicle identification mark (22);
Vehicle identifying means (CB15) for identifying the work vehicle (1) based on the captured image of the vehicle identification mark (22) captured by the image capturing member (37);
A display unit (43) for displaying an image based on a work process corresponding to the specified work vehicle (1);
The control system for a work vehicle according to claim 1 , further comprising:

請求項3に記載の発明は、
前記無人航空機(31)を遠隔操作する操作部(44,46)と、
前記操作部(44,46)の操作に基づいて飛行するマニュアル操作モードと、前記自律制御により飛行する自律制御モードと、を切り替え可能な前記無人航空機(31)と、
を備えたことを特徴とする請求項1または2に記載の作業車両の制御システムである。
The invention according to claim 3 is
An operation unit (44, 46) for remotely operating the unmanned aerial vehicle (31),
An unmanned aerial vehicle (31) capable of switching between a manual operation mode of flying based on an operation of the operation section (44, 46) and an autonomous control mode of flying by the autonomous control;
The work vehicle control system according to claim 1 or 2 , further comprising:

請求項4に記載の発明は、
自律制御により走行作業をする前記作業車両(1)であって、前記車両測位手段(CC4)の測位結果に基づいて、走行方向を制御する前記作業車両(1)、
を備えたことを特徴とする請求項1ないしのいずれか1項に記載の作業車両の制御システムである。
The invention according to claim 4 is
The working vehicle (1) performing traveling work by autonomous control, wherein the working vehicle (1) controls a traveling direction based on a positioning result of the vehicle positioning means (CC4),
The control system for a work vehicle according to any one of claims 1 to 3 , further comprising:

請求項1に記載の発明によれば、作業車両(1)に対応して空中を飛行する無人航空機(31)の測位装置(33)の測位結果に基づいて、作業車両(1)の測位をすることができる。したがって、更新した作業車両(1)や複数の作業車両(1)を測位する場合に、測位装置を付け替えたり、個別に測位装置を備え付けたりせずに、測位することができる。 According to the invention described in claim 1, the positioning of the work vehicle (1) is performed based on the positioning result of the positioning device (33) of the unmanned aerial vehicle (31) flying in the air corresponding to the work vehicle (1). can do. Therefore, when positioning the updated work vehicle (1) or a plurality of work vehicles (1), it is possible to perform positioning without replacing the positioning device or separately equipping the positioning device.

また、請求項1に記載の発明によれば作業車両(1)に付された車両位置特定マーク(23)を撮像して自律制御されない場合に比べて、無人航空機(31)と作業車両(1)との位置関係を保持し易くすることができる。 Further , according to the invention described in claim 1 , as compared with the case where the vehicle position identification mark (23) attached to the work vehicle (1) is imaged and not autonomously controlled, the unmanned aerial vehicle (31) and the work vehicle ( The positional relationship with 1) can be easily maintained.

請求項2に記載の発明によれば、請求項1に記載の発明の効果に加えて、車両識別マーク(22)に基づいて、作業車両(1)の作業工程を自動で表示部(43)に表示することが可能となる。よって、作業者が作業工程を確認し易くなる。また、作業者が、誤って作業車両に対応していない作業工程を使用することを抑制できる。 According to the invention described in claim 2 , in addition to the effect of the invention described in claim 1 , based on the vehicle identification mark (22), the work process of the work vehicle (1) is automatically displayed on the display unit (43). It is possible to display in. Therefore, the operator can easily confirm the work process. Further, it is possible to prevent the worker from accidentally using a work process that does not correspond to the work vehicle.

請求項3に記載の発明によれば、請求項1または2に記載の発明の効果に加えて、無人航空機(31)を、操作部(44,46)の操作に基づいて遠隔操作することができる。
請求項4に記載の発明によれば、請求項1ないしのいずれか1項に記載の発明の効果に加えて、無人航空機(31)の測位装置(33)の測位結果に基づいて、前記作業車両(1)の測位をして作業車両(1)の自律制御をすることができる。
According to the invention described in claim 3 , in addition to the effect of the invention described in claim 1 or 2 , it is possible to remotely operate the unmanned aerial vehicle (31) based on the operation of the operation unit (44, 46). it can.
According to the invention described in claim 4 , in addition to the effect of the invention described in any one of claims 1 to 3 , based on the positioning result of the positioning device (33) of the unmanned aerial vehicle (31), The work vehicle (1) can be positioned and the work vehicle (1) can be autonomously controlled.

本発明の実施例1の作業車両システムの全体説明図である。It is the whole work vehicle system explanatory view of Example 1 of the present invention. 図1のトラクタを上方から見た場合の説明図である。It is explanatory drawing at the time of seeing the tractor of FIG. 1 from upper direction. 本発明の実施例1の作業車両の制御システムが有する機能ブロック図の説明図である。It is explanatory drawing of the functional block diagram which the control system of the working vehicle of Example 1 of this invention has. 図3の要部説明図であり各制御部の説明図である。FIG. 4 is an explanatory diagram of a main part of FIG. 3 and an explanatory diagram of each control unit. コントローラのタッチパネルに表示された画像の説明図であり、ドローンが撮像した画像の説明図である。It is explanatory drawing of the image displayed on the touch panel of a controller, and is explanatory drawing of the image which the drone imaged. 図6は撮像される物体と撮像画像との大きさの関係を示す説明図であり、(a)は斜視図、(b)は(a)を断面方向から見た図である。6A and 6B are explanatory views showing the relationship between the size of an imaged object and the size of an imaged image. FIG. 6A is a perspective view and FIG. 6B is a view of FIG. 本発明の実施例1の圃場情報の説明図である。It is explanatory drawing of the farm field information of Example 1 of this invention. 圃場の外形情報を入力する場合の説明図であり、(a)はドローンが圃場の上空を飛行している場合の説明図、(b)は(a)に対応するコントローラに表示される画像の説明図である。It is explanatory drawing in the case of inputting the outline information of a farm field, (a) is an explanatory view when a drone is flying over the farm field, (b) is an image displayed on the controller corresponding to (a). FIG. 図8の続きの説明図であり、(a)はドローンが圃場の上空を飛行している場合の説明図、(b)は(a)に対応するコントローラに表示される画像の説明図である。FIG. 9 is a continuation of FIG. 8, in which (a) is an illustration when the drone is flying over the field, and (b) is an illustration of an image displayed on the controller corresponding to (a). .. 圃場の外形情報と入出路と障害位置の説明図であり、(a)は圃場の角位置が4つの場合の説明図、(b)は(a)の圃場に障害位置が設定された場合の説明図である。It is explanatory drawing of the outline information of an agricultural field, an entrance/exit path|route, and an obstacle position, (a) is explanatory drawing in case the corner position of an agricultural field is four, (b) shows the obstacle position in the agricultural field of (a). FIG. 圃場の外形情報の入力処理のフローチャートの説明図である。It is explanatory drawing of the flowchart of the input process of the outer shape information of a farm field. ドローンの追従制御処理のフローチャートの説明図である。It is explanatory drawing of the flowchart of a tracking control process of a drone. トラクタの自律制御処理のフローチャートの説明図である。It is explanatory drawing of the flowchart of the autonomous control process of a tractor. 実施例1の作業車両の制御システムの作用説明図である。FIG. 3 is an operation explanatory view of the work vehicle control system according to the first embodiment. 図15は図3の要部説明図であり他の形態の各制御部の説明図である。FIG. 15 is an explanatory view of a main part of FIG. 3 and is an explanatory view of each control unit of another embodiment. 図16はドローンの姿勢が傾斜した場合に撮像される物体と撮像画像との大きさの関係を示す説明図である。FIG. 16 is an explanatory diagram showing a size relationship between an imaged object and a captured image when the drone is tilted. 図17はドローンがズレ量の方向に傾斜した場合のズレ量と移動量の関係の説明図であり、(a)は下方カメラの向きが真下の場合の説明図、(b)はドローンが傾斜して下方カメラの撮像方向が傾斜した場合の説明図、(c)は(b)とは異なる場合の説明図、(d)は(b),(c)とは異なる場合の説明図である。FIG. 17 is an explanatory diagram of the relationship between the shift amount and the movement amount when the drone is tilted in the direction of the shift amount. (a) is an explanatory diagram when the lower camera is oriented right below, and (b) is the drone tilted. FIG. 6 is an explanatory view when the imaging direction of the lower camera is inclined, (c) is an explanatory view when it is different from (b), and (d) is an explanatory view when it is different from (b) and (c). .. 他の形態の作業車両の制御システムの説明図である。It is explanatory drawing of the control system of the work vehicle of another form. 図18とは別の形態の作業車両の制御システムの説明図である。It is explanatory drawing of the control system of the working vehicle of a form different from FIG.

(作業車両の制御システム)
図1は本発明の実施例1の作業車両システムの全体説明図である。
以下、図面に基づき、本発明の好ましい実施の形態について説明する。
なお、各図において、発明の説明に不要な部材は適宜図示や説明を省略している。また、本明細書では作業車両の前進方向を向いて左右方向をそれぞれ左、右と言い、前進方向を前、後退方向を後と言うことにする。
(Work vehicle control system)
1 is an overall explanatory diagram of a work vehicle system according to a first embodiment of the present invention.
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
In addition, in each drawing, illustration and description of members unnecessary for the description of the invention are appropriately omitted. In this specification, the left and right directions facing the forward direction of the work vehicle are referred to as left and right, respectively, and the forward direction is referred to as the front and the backward direction is referred to as the rear.

(トラクタ)
図1において、作業車両の制御システムSは、作業車両の一例として、農業機械のトラクタ1を有する。トラクタ1は、機体の前後部に前輪2,2と後輪3,3とを備え、機体前部のエンジンルーム4内に搭載したエンジンEの回転動力をトランスミッションケース5内の変速装置によって適宜減速して、これら前輪2,2と後輪3,3に伝えるように構成している。前記エンジンルーム4はボンネット6で覆う構成である。また、機体後部にロータリなどの作業機(図示せず)を装着し、PTO軸で作業機を駆動する構成としている。
(Tractor)
In FIG. 1, the control system S of the work vehicle has a tractor 1 of an agricultural machine as an example of the work vehicle. The tractor 1 is provided with front wheels 2 and 2 and rear wheels 3 and 3 at the front and rear parts of the machine body, and appropriately decelerates rotational power of an engine E mounted in an engine room 4 at the front part of the machine body by a transmission in a transmission case 5. The front wheels 2 and 2 and the rear wheels 3 and 3 are then transmitted. The engine room 4 is covered with a bonnet 6. Further, a working machine such as a rotary (not shown) is mounted on the rear part of the machine body, and the working machine is driven by the PTO shaft.

機体の上部には、キャビン7が支持されている。キャビン7の内部では、トランスミッションケース5の上部位置に運転座席8が配置され、この運転座席8の前方には、ステアリングハンドル11や、駐車ブレーキ(図示せず)や作業機の回転速度を変更するPTO変速レバー(図示せず)等を配置して構成されている。また、運転座席8の前方には、速度メータ(図示せず)や、操作用の各種スイッチ(図示せず)、外部との通信用の通信ユニット(図示せず)などが配置されている。運転座席8の前方下部には、クラッチペダル12や、アクセルペダル13、左右ブレーキペダル(図示せず)等の走行操作具が配置されている。 A cabin 7 is supported on the upper part of the machine body. Inside the cabin 7, a driver's seat 8 is arranged at an upper position of the transmission case 5, and in front of the driver's seat 8, the steering wheel 11, a parking brake (not shown), and the rotation speed of the working machine are changed. A PTO gear shift lever (not shown) and the like are arranged. Further, in front of the driver's seat 8, a speedometer (not shown), various operating switches (not shown), a communication unit (not shown) for communication with the outside, and the like are arranged. A traveling operation tool such as a clutch pedal 12, an accelerator pedal 13, and left and right brake pedals (not shown) is arranged at a lower front portion of the driver's seat 8.

図2は図1のトラクタを上方から見た場合の説明図である。
図2において、キャビン7のルーフ7a上面には、車両の測位装置の一例として、測位衛星から信号を受信して測位を行うGPSユニット21が配置されている。GPSユニット21は、車幅方向中央部に対応して配置されている。GPSユニット21の右側には、車両識別マークの一例としての数字マーク22が付されている。なお、車両識別マークとして数字マーク22を例示したが、図形マークとする構成も可能である。
FIG. 2 is an explanatory view when the tractor of FIG. 1 is viewed from above.
In FIG. 2, on the upper surface of the roof 7a of the cabin 7, a GPS unit 21 that receives a signal from a positioning satellite and performs positioning is arranged as an example of a positioning device for a vehicle. The GPS unit 21 is arranged corresponding to the central portion in the vehicle width direction. On the right side of the GPS unit 21, a number mark 22 as an example of a vehicle identification mark is attached. Although the numeral mark 22 is illustrated as the vehicle identification mark, a configuration in which it is a graphic mark is also possible.

また、前記GPSユニット21に対して、後部には車両位置特定マーク23が付されている。実施例1の車両位置特定マーク23は、長方形部23aと、三角形部23bとを有する。実施例1では、長方形部23aは、黒の右前部23a1と、白の左前部23a2と、黒の左後部23a3と、白の右後部23a4とで構成されており、白黒の市松模様状に構成されている。また、三角形部23bは、右前部23a1と左前部23a2の中央前方に付されており、前方が鋭角状に形成されている。 A vehicle position identification mark 23 is attached to the rear of the GPS unit 21. The vehicle position specifying mark 23 of the first embodiment has a rectangular portion 23a and a triangular portion 23b. In the first embodiment, the rectangular portion 23a is composed of the black right front portion 23a1, the white left front portion 23a2, the black left rear portion 23a3, and the white right rear portion 23a4, and is configured in a black and white checkered pattern. Has been done. The triangular portion 23b is attached to the center front of the right front portion 23a1 and the left front portion 23a2, and the front portion is formed in an acute angle shape.

(ドローン)
図1において、作業車両の制御システムSは、無人航空機の一例としてのドローン31を有する。実施例1のドローン31は、制御部(図示せず)や、バッテリー(図示せず)、通信ユニット(図示せず)等が備えられた本体部32を有する。本体部32には、測位装置の一例として、測位衛星から信号を受信して測位を行う高精度GPSユニット33が支持されている。前記高精度GPSユニット33は、作業車両のGPSユニット21に比べて高精度に測位可能に構成されている。前記本体部32には、本体部から水平方向外側に向かって延びるアーム部34が支持されている。
(Drone)
In FIG. 1, a work vehicle control system S includes a drone 31 as an example of an unmanned aerial vehicle. The drone 31 according to the first embodiment includes a main body 32 including a control unit (not shown), a battery (not shown), a communication unit (not shown), and the like. A high-precision GPS unit 33 that receives a signal from a positioning satellite and performs positioning is supported by the main body 32 as an example of a positioning device. The high-accuracy GPS unit 33 is configured to be able to perform positioning with higher accuracy than the GPS unit 21 of the work vehicle. The main body 32 supports an arm 34 that extends horizontally outward from the main body.

アーム部34の先端には、駆動源(図示せず)が配置されており、上下方向に延びる駆動軸には、回転翼36が支持されている。実施例1では、アーム部34が十字方向に延びて、各アーム部34の先端には各回転翼36が支持されている。すなわち、実施例1のドローン1は、いわゆる、クアドコプターとして構成されている。本体部32の下部には、撮像部材の一例としてのドローン31の下方を撮像する下方カメラ37が支持されている。また、本体部32の下部には、下方との距離を測定するレーダ38が支持されている。 A drive source (not shown) is arranged at the tip of the arm portion 34, and a rotary blade 36 is supported by a drive shaft extending in the vertical direction. In the first embodiment, the arm portions 34 extend in the cross direction, and the rotary blades 36 are supported at the tips of the arm portions 34. That is, the drone 1 of the first embodiment is configured as a so-called quadcopter. A lower camera 37 that captures an image of the lower portion of the drone 31, which is an example of an image capturing member, is supported below the main body 32. In addition, a radar 38 that measures the distance to the lower side is supported at the bottom of the main body 32.

(コントローラ)
作業車両の制御システムSは、操作部材の一例としてのコントローラ41を有する。コントローラ41は、本体部の一例としてのタブレット端末部42を有する。タブレット端末部42は、制御部(図示せず)や、通信ユニット(図示せず)を有する。また、タブレット端末部42は、表示部の一例であり、入力部の一例としてのタッチパネル43を有する。タッチパネル43には、前記ドローン31の下方カメラ37の撮像画像等が表示される。タブレット端末部42に対して左右には、操作部の一例としてのジョイスティック44,46が支持されている。左右のジョイスティック44,46が操作されることで、前記ドローン31を作業者が遠隔操作可能に構成されている。
(controller)
The work vehicle control system S includes a controller 41 as an example of an operation member. The controller 41 has a tablet terminal unit 42 as an example of a main body unit. The tablet terminal unit 42 has a control unit (not shown) and a communication unit (not shown). The tablet terminal unit 42 is an example of a display unit and has a touch panel 43 as an example of an input unit. On the touch panel 43, a captured image of the lower camera 37 of the drone 31 and the like are displayed. Joysticks 44 and 46 as an example of an operation unit are supported on the left and right sides of the tablet terminal unit 42. An operator can remotely operate the drone 31 by operating the left and right joysticks 44 and 46.

(機能ブロック図の説明)
図3は本発明の実施例1の作業車両の制御システムが有する機能ブロック図の説明図である。
(Explanation of functional block diagram)
FIG. 3 is an explanatory diagram of a functional block diagram included in the work vehicle control system according to the first embodiment of the present invention.

図3において、実施例1の作業車両の制御システムSは、ドローンの制御部CA、コントローラの制御部CB、トラクタの位置情報処理制御部CC、トラクタの車両制御部CDを有する。各制御部CA〜CDは、外部との信号の入出力等を行う入出力インターフェース(I/O)、必要な処理を行うためのプログラムおよび情報等が記憶されたROM(リードオンリーメモリ)、必要なデータを一時的に記憶するためのRAM(ランダムアクセスメモリ)、ROM等に記憶されたプログラムに応じた処理を行うCPU(中央演算処理装置)、ならびに発振器等を有する小型情報処理装置、いわゆる、マイクロコンピュータにより構成されており、前記ROMやRAM、不揮発性メモリ等の記憶部材に記憶されたプログラムを実行することにより種々の機能を実現することができる。 In FIG. 3, the control system S of the working vehicle of the first embodiment includes a drone control unit CA, a controller control unit CB, a tractor position information processing control unit CC, and a tractor vehicle control unit CD. Each of the control units CA to CD requires an input/output interface (I/O) for inputting/outputting signals to/from the outside, a ROM (read only memory) in which programs and information for performing necessary processing are stored, and necessary. A small information processing device having a RAM (random access memory) for temporarily storing various data, a CPU (central processing unit) for performing processing according to a program stored in a ROM, an oscillator, etc. It is composed of a microcomputer, and various functions can be realized by executing a program stored in a storage member such as the ROM, the RAM, or the non-volatile memory.

ここで、実施例1のトラクタ1において、位置情報処理制御部CCと、車両制御部CDとは、いわゆる、ECU:Electronic Control Unitで構成されており、通信回線としてのCAN:Controller Area Networkで接続されている。CANには、外部メモリMeが接続されており、トラクタ1の制御部CC,CDが、外部メモリMeに対して互いにアクセス可能に構成されている。 Here, in the tractor 1 of the first embodiment, the position information processing control unit CC and the vehicle control unit CD are so-called ECU: Electronic Control Unit, and are connected by CAN: Controller Area Network as a communication line. Has been done. An external memory Me is connected to the CAN so that the control units CC and CD of the tractor 1 can access each other with respect to the external memory Me.

図3において、ドローンの制御部CAには、高精度GPSユニット33や、下方カメラ37、下方距離測定用のレーダ38、飛行状態センサSN1、通信ユニット(図示せず)などの出力信号が入力されている。 In FIG. 3, the control signal CA of the drone is supplied with output signals of the high-accuracy GPS unit 33, the downward camera 37, the downward distance measuring radar 38, the flight state sensor SN1, and a communication unit (not shown). ing.

ここで、実施例1の飛行状態センサSN1は、いわゆる、6軸ジャイロセンサにより構成されている。飛行状態センサSN1は、ドローン31に固定された3軸直交方向について、各軸方向の加速度と、各軸周りの角速度とを検出して、ドローン31の加速度や姿勢状態などの飛行状態を検出する。実施例1では、ドローンの姿勢状態は、角速度の時間積分により重力方向に対する各軸の回転角度として検出可能である。すなわち、重力方向(重力加速度方向)を基準とする各軸周りの回転角度により、ドローン31の姿勢状態を検出することが可能である。なお、実施例1では、6軸ジャイロセンサの構成を例示するが、加速度を検出するセンサと角速度を検出するセンサとを、別々に設ける構成も可能である。 Here, the flight state sensor SN1 of the first embodiment is configured by a so-called 6-axis gyro sensor. The flight state sensor SN1 detects the acceleration in each axis and the angular velocity around each axis in the directions orthogonal to the three axes fixed to the drone 31, and detects the flight state such as the acceleration and attitude of the drone 31. .. In the first embodiment, the attitude state of the drone can be detected as the rotation angle of each axis with respect to the gravity direction by time integration of the angular velocity. That is, it is possible to detect the attitude state of the drone 31 from the rotation angle around each axis with the gravity direction (gravitational acceleration direction) as a reference. Although the configuration of the 6-axis gyro sensor is illustrated in the first embodiment, a configuration in which a sensor for detecting acceleration and a sensor for detecting angular velocity are separately provided is also possible.

また、制御部CAは、回転翼36のモータM1〜M4の制御信号や、通信ユニットの制御信号などを出力している。 The control unit CA also outputs control signals for the motors M1 to M4 of the rotary blade 36, control signals for the communication unit, and the like.

図4は図3の要部説明図であり各制御部の説明図である。
図4において、ドローンの制御部CAは、前記信号出力要素からの出力信号に応じた処理を実行して、前記制御要素に制御信号を出力する機能を有している。すなわち、制御部CAは下記の機能手段を有している。
FIG. 4 is an explanatory view of a main part of FIG. 3 and is an explanatory view of each control unit.
In FIG. 4, the control unit CA of the drone has a function of executing processing according to an output signal from the signal output element and outputting a control signal to the control element. That is, the control unit CA has the following functional means.

ドローンの測位手段CA1は、高精度GPSユニット33の測位結果に基づいて、ドローン1の位置Dαを測位する。
飛行制御手段CA2は、コントローラ41からの制御信号と、飛行状態センサSN1とに基づいて、各モータM1〜M4の回転数を制御して、ドローン1の飛行高度、飛行方向、飛行速度、飛行姿勢を制御する。なお、実施例1の飛行制御手段CA2では、ドローン31の上下方向が重力方向に対して成す傾斜角度が予め設定された範囲となるように制御される。すなわち、下方カメラ37が重力方向に沿った下方を撮像するように飛行姿勢が制御される。
The drone positioning means CA1 measures the position Dα of the drone 1 based on the positioning result of the high precision GPS unit 33.
The flight control means CA2 controls the rotation speeds of the motors M1 to M4 based on the control signal from the controller 41 and the flight state sensor SN1 to control the flight altitude, flight direction, flight speed, and flight attitude of the drone 1. To control. The flight control unit CA2 of the first embodiment controls the drone 31 so that the vertical angle of the drone 31 with respect to the gravity direction falls within a preset range. That is, the flight attitude is controlled so that the lower camera 37 images the lower side along the direction of gravity.

情報送信手段CA3は、下方カメラ37で撮像した画像情報や、ドローン1の位置情報、ドローン31の姿勢情報など、対応する時期に取得された情報を他の制御部に送信する。 The information transmitting unit CA3 transmits information acquired at a corresponding time such as image information captured by the lower camera 37, position information of the drone 1, attitude information of the drone 31 to another control unit.

(コントローラの制御部CB)
図3において、コントローラの制御部CBには、タッチパネル43や、ジョイスティック44,46、通信ユニット(図示せず)などの出力信号が入力されている。
また、制御部CBは、通信ユニットの制御信号などを出力している。
(Controller CB of controller)
In FIG. 3, output signals from the touch panel 43, the joysticks 44 and 46, a communication unit (not shown), etc. are input to the control unit CB of the controller.
The control unit CB also outputs a control signal for the communication unit.

図4において、モード設定手段CB1は、ドローン31を、ジョイスティック44,46の操作に基づいて飛行させるマニュアル操作モードか、自律制御により飛行させる自律制御モードかを設定する。実施例1では、タッチパネル43に表示されたメニューボタン(図示せず)が押されることで、マニュアル操作モードか、自律制御モードかを切り替え可能に構成されている。
マニュアル制御の送信手段CB2は、マニュアル操作モードが設定されている場合に、ジョイスティック44,46の操作に応じたドローン31の制御信号を、ドローン31に送信する。
In FIG. 4, the mode setting means CB1 sets the drone 31 to either a manual operation mode in which the drone 31 is made to fly based on the operation of the joysticks 44, 46 or an autonomous control mode in which the drone 31 is made to fly by autonomous control. In the first embodiment, by pressing a menu button (not shown) displayed on the touch panel 43, it is possible to switch between the manual operation mode and the autonomous control mode.
The manual control transmission unit CB2 transmits to the drone 31 a control signal for the drone 31 in response to the operation of the joysticks 44 and 46 when the manual operation mode is set.

図5はコントローラのタッチパネルに表示された画像の説明図であり、ドローンが撮像した画像の説明図である。
空撮表示手段CB3は、ドローン31の下方カメラ37の撮像画像43aをタッチパネル43に表示する。図5において、実施例1では、前記撮像画像43aには、ドローン31の下方に対応する領域に枠画像43b,43cを重ねて表示する。ここで、枠画像43b,43cは、ドローン31が、トラクタ1の上方の予め設定された基準位置に移動した場合に、マーク23,22が内側となる位置に設定されている。
FIG. 5 is an explanatory diagram of an image displayed on the touch panel of the controller, and is an explanatory diagram of an image captured by the drone.
The aerial image display means CB3 displays the captured image 43a of the lower camera 37 of the drone 31 on the touch panel 43. In FIG. 5, in the first embodiment, in the captured image 43a, frame images 43b and 43c are displayed so as to overlap with each other in an area corresponding to the lower side of the drone 31. Here, the frame images 43b and 43c are set to positions where the marks 23 and 22 are inside when the drone 31 moves to a preset reference position above the tractor 1.

画像処理手段CB4は、マーク検出手段CB4aと、トラクタ姿勢検出手段CB4bとを有し、下方カメラ37の撮像画像43aを画像処理する。
マーク検出手段CB4aは、下方カメラ37の撮像画像43aを画像処理して、数字マーク22と、車両位置特定マーク23と、を検出する。
The image processing means CB4 has a mark detection means CB4a and a tractor attitude detection means CB4b, and performs image processing on the captured image 43a of the lower camera 37.
The mark detecting means CB4a performs image processing on the captured image 43a of the lower camera 37 to detect the numeral mark 22 and the vehicle position specifying mark 23.

トラクタ姿勢検出手段CB4bは、撮像画像43aを画像処理して、撮像されたマーク23の形状に基づきトラクタ1の姿勢変化を検出する。すなわち、図2において、前方部23a1,23a2が、後方部23a3,23a4よりも大きく撮像された場合には、トラクタ1が傾斜面を上っている姿勢と判別可能である。また、後方部23a3,23a4が、前方部23a1,23a2よりも大きく撮像された場合には、トラクタ1が傾斜面を下っている姿勢と判別可能である。さらに、右側部23a1,23a4が左側部23a2,23a3よりも大きく撮像された場合には、トラクタ1が左下に傾斜している姿勢と判別可能である。また、左側部23a2,23a3が右側部23a1,23a4よりも大きく撮像された場合には、トラクタ1が右下に傾斜している姿勢と判別可能である。すなわち、撮像画像43a上の長方形部23a1〜23a4間の面積の大小に応じてトラクタ1の傾斜姿勢を判別可能である。よって、実施例1のトラクタ姿勢検出手段CB4bは、撮像画像43aにおける長方形部23aの各部23a1〜23a4の面積の割合を算出する。そして、算出された面積の割合に応じて、水平面に対するトラクタ1の姿勢を検出する。 The tractor attitude detection means CB4b performs image processing on the captured image 43a and detects the attitude change of the tractor 1 based on the shape of the imaged mark 23. That is, in FIG. 2, when the front portions 23a1, 23a2 are imaged larger than the rear portions 23a3, 23a4, it is possible to determine that the tractor 1 is in the posture of climbing the inclined surface. Further, when the rear portions 23a3 and 23a4 are imaged larger than the front portions 23a1 and 23a2, it is possible to determine that the tractor 1 is in the posture of descending the inclined surface. Furthermore, when the right side portions 23a1, 23a4 are imaged larger than the left side portions 23a2, 23a3, it is possible to determine that the tractor 1 is tilted to the lower left. Further, when the left side portions 23a2 and 23a3 are imaged larger than the right side portions 23a1 and 23a4, it is possible to determine that the tractor 1 is tilted to the lower right. That is, the tilted posture of the tractor 1 can be determined according to the size of the area between the rectangular portions 23a1 to 23a4 on the captured image 43a. Therefore, the tractor posture detection means CB4b of the first embodiment calculates the ratio of the area of each part 23a1 to 23a4 of the rectangular part 23a in the captured image 43a. Then, the posture of the tractor 1 with respect to the horizontal plane is detected according to the calculated ratio of the area.

自律制御手段CB5は、高さ測定手段CB5aと、前方特定手段CB5bと、ズレ量演算手段CB5cと、移動量演算手段CB5dと、初期制御手段CB5eと、制御量演算手段CB5fと、制御量送信手段CB5gとを有する。自律制御手段CB5は、自律制御モードが設定されている場合に、ドローン31の制御信号を、ドローン31に送信する。すなわち、ジョイスティック44,46の操作に基づかずに、ドローン31を飛行させる自律制御の制御信号を送信する。 The autonomous control means CB5 includes a height measuring means CB5a, a front specifying means CB5b, a shift amount calculating means CB5c, a moving amount calculating means CB5d, an initial control means CB5e, a control amount calculating means CB5f, and a control amount transmitting means. With 5 g CB. The autonomous control means CB5 transmits the control signal of the drone 31 to the drone 31 when the autonomous control mode is set. That is, the control signal of the autonomous control for flying the drone 31 is transmitted without being based on the operation of the joysticks 44 and 46.

高さ測定手段CB5aは、レーダ38の測定結果に基づいて、トラクタ1や地面に対するドローン31の高さLを測定する。
前方特定手段CB5bは、検出された車両位置特定マーク23において、長方径部23aに対する三角形部23bの先端の向きを、トラクタ1の前方と特定する。
The height measuring means CB5a measures the height L of the drone 31 with respect to the tractor 1 and the ground based on the measurement result of the radar 38.
The front specifying means CB5b specifies the direction of the tip of the triangular portion 23b with respect to the long diameter portion 23a in the detected vehicle position specifying mark 23 as the front of the tractor 1.

ズレ量演算手段CB5cは、撮像画像43a上において、ドローン31と、トラクタ1との位置のズレ量uを演算する。図5において、実施例1のズレ量演算手段CB5cは、下方カメラ37の真下に対応する十字位置Dから、車両位置特定マーク23の三角部23aに対応して予め設定された目標位置Tまでのベクトル量をズレ量uとして演算する。すなわち、十字位置Dが目標位置Tに到達した場合には、撮像画像43a上では、枠画像43b,43cの内側にマーク23,22が移動する。 The shift amount calculation means CB5c calculates the shift amount u between the drone 31 and the tractor 1 on the captured image 43a. In FIG. 5, the shift amount calculating means CB5c of the first embodiment extends from the cross position D corresponding to directly below the lower camera 37 to the target position T preset corresponding to the triangular portion 23a of the vehicle position specifying mark 23. The vector amount is calculated as the shift amount u. That is, when the cross position D reaches the target position T, the marks 23 and 22 move inside the frame images 43b and 43c on the captured image 43a.

図6は撮像される物体と撮像画像との大きさの関係を示す説明図であり、(a)は斜視図、(b)は(a)を断面方向から見た図である。
移動量演算手段CB5dは、ズレ量uに基づいて、ドローン31が基準位置に移動する場合に水平方向に移動すべき移動量mを演算する。図6において、撮像画像43aは、実際のトラクタ1が投影面α上に透視投影されて得られた画像と考えられる。よって、ズレ量uを、撮像された元のトラクタ1の大きさに変換する。実施例1では、下方カメラ37の焦点距離と、ドローン31が移動すべき基準の高さとに基づいて予め設定された係数aに対して、ベクトル量である移動量mを、m=a・uと演算する。
6A and 6B are explanatory views showing the relationship between the size of an imaged object and the size of an imaged image. FIG. 6A is a perspective view and FIG. 6B is a view of FIG.
The movement amount calculation means CB5d calculates the movement amount m to move in the horizontal direction when the drone 31 moves to the reference position, based on the deviation amount u. In FIG. 6, the captured image 43a is considered to be an image obtained by perspective projection of the actual tractor 1 on the projection surface α. Therefore, the shift amount u is converted into the size of the original imaged tractor 1. In the first embodiment, with respect to the coefficient a preset based on the focal length of the lower camera 37 and the reference height to which the drone 31 should move, the moving amount m, which is a vector amount, is m=a·u. And calculate.

初期制御手段CB5eは、自律制御モードが設定された場合に、撮像画像43a上にマーク23が検出されるまで、ドローン41を上昇させる制御信号を送信する。
制御量演算手段CB5fは、レーダ38の測定結果に基づいて、ドローン31がトラクタ1に対して予め設定された高さとなるようにモータM1〜M4の制御量を演算する。また、制御量演算手段CB5fは、ドローン31の向きを、トラクタ1の前方に合わせるためのモータM1〜M4の制御量を演算する。さらに、制御量演算手段CB5fは、移動量mに基づいてモータM1〜M4の制御量を演算する。すなわち、制御量演算手段CB5fは、ドローン31が、前記基準位置に飛行移動する制御量を演算する。これにより、自律制御モードの場合には、数字マーク22や車両位置特定マーク23が下方カメラ37の撮像範囲内に保持されるようにドローン31が制御される。
When the autonomous control mode is set, the initial control unit CB5e transmits a control signal for raising the drone 41 until the mark 23 is detected on the captured image 43a.
The control amount calculation means CB5f calculates the control amounts of the motors M1 to M4 based on the measurement result of the radar 38 so that the drone 31 has a height set in advance with respect to the tractor 1. Further, the control amount calculation means CB5f calculates the control amounts of the motors M1 to M4 for adjusting the direction of the drone 31 to the front of the tractor 1. Further, the control amount calculation means CB5f calculates the control amounts of the motors M1 to M4 based on the movement amount m. That is, the control amount calculation means CB5f calculates the control amount for the drone 31 to fly and move to the reference position. Accordingly, in the autonomous control mode, the drone 31 is controlled so that the numeral mark 22 and the vehicle position specifying mark 23 are held within the image pickup range of the lower camera 37.

制御量送信手段CB5gは、演算された制御量に応じた制御信号を、ドローン31に送信する。
到達判別手段CB6は、ドローン31が前記基準位置に到達したか否かを判別する。実施例1では、自律制御モードが設定された後に、ドローン31がトラクタ1に対して予め設定された高さに移動し、且つ、トラクタ1のマーク23,22が、枠画像43b,43cの内側に移動したことが検出された場合にドローン1が基準位置に到達したと判別する。なお、実施例1では、枠画像43b,43cの内側に移動したか否かは、移動量mの大きさが所定の閾値以下であるか否かに基づいて判断される。
The control amount transmitting means CB5g transmits a control signal according to the calculated control amount to the drone 31.
The arrival determination means CB6 determines whether or not the drone 31 has reached the reference position. In the first embodiment, after the autonomous control mode is set, the drone 31 moves to a preset height with respect to the tractor 1, and the marks 23 and 22 of the tractor 1 are inside the frame images 43b and 43c. It is determined that the drone 1 has reached the reference position when it is detected that the drone 1 has moved. In the first embodiment, whether or not the image has moved to the inside of the frame images 43b and 43c is determined based on whether or not the magnitude of the movement amount m is less than or equal to a predetermined threshold value.

図7は本発明の実施例1の圃場情報の説明図である。
圃場情報の記憶手段CB11は、複数の圃場Hを識別する圃場の識別情報や、各圃場の位置情報や外形情報、進入路(退出路)としての入出路P1情報等の圃場に関する圃場情報を記憶する。
FIG. 7 is an explanatory diagram of farm field information according to the first embodiment of this invention.
The field information storage unit CB11 stores field identification information for identifying a plurality of fields H, position information and outline information of each field, and field information related to fields such as entry/exit path P1 information as an entry path (exit path). To do.

図8は圃場の外形情報を入力する場合の説明図であり、(a)はドローンが圃場の上空を飛行している場合の説明図、(b)は(a)に対応するコントローラに表示される画像の説明図である。
図9は図8の続きの説明図であり、(a)はドローンが圃場の上空を飛行している場合の説明図、(b)は(a)に対応するコントローラに表示される画像の説明図である。
圃場外形設定手段CB12は、開始の判別手段CB12aと、画像表示手段CB12bと、位置入力手段CB12cと、を有する。圃場外形設定手段CB12は、圃場の外形を設定する。
FIG. 8 is an explanatory diagram for inputting the outline information of the field, (a) is an explanatory diagram when the drone is flying over the field, and (b) is displayed on the controller corresponding to (a). FIG.
FIG. 9 is an explanatory view following FIG. 8, in which (a) is an explanatory view when the drone is flying over the field, and (b) is an explanation of an image displayed on the controller corresponding to (a). It is a figure.
The field contour setting means CB12 has a start determination means CB12a, an image display means CB12b, and a position input means CB12c. The field contour setting means CB12 sets the contour of the field.

開始の判別手段CB12aは、圃場の外形情報の設定を開始するか否かを判別する。実施例1では、タッチパネル43に表示された外形を設定するためのボタン(図示せず)が入力された場合に、圃場Hを選択するボタン(図示せず)が入力された場合、選択された圃場Hについて圃場の外形情報の入力を開始する。 The start determination means CB12a determines whether or not to start setting the outline information of the field. In the first embodiment, when the button (not shown) for setting the outer shape displayed on the touch panel 43 is input, and when the button (not shown) for selecting the field H is input, it is selected. For the field H, input of field outline information is started.

画像表示手段CB12bは、タッチパネル43に、撮像画像43aと、ドローン31の位置Dαの情報画像43dと、ボタン43e,43fと、を表示する。なお、実施例1では、設定終了ボタン43fは、位置設定ボタン43eが4回入力された場合に表示する。 The image display unit CB12b displays the captured image 43a, the information image 43d of the position Dα of the drone 31, and the buttons 43e and 43f on the touch panel 43. In the first embodiment, the setting end button 43f is displayed when the position setting button 43e is input four times.

図10は圃場の外形情報と入出路と障害位置の説明図であり、(a)は圃場の角位置が4つの場合の説明図、(b)は(a)の圃場に障害位置が設定された場合の説明図である。
位置入力手段CB12cは、位置設定ボタン43eが入力される度に、ドローン31の測位された位置Dαを圃場の外形情報の一例としての角位置Hαとして取得する。そして、設定終了ボタン43fが入力された場合に、角位置Hαの入力の受付を終了する。これにより、例えば、図8〜図10において、角位置Hα1,Hα2,Hα3,Hα4を順に直線で結んで圃場の外形が設定される。
FIG. 10 is an explanatory diagram of the outline information of the field, the entrance/exit path, and the obstacle position. (a) is an explanatory diagram in the case where there are four corner positions of the field, and (b) shows the obstacle position set in the field of (a). FIG.
The position input means CB12c acquires the measured position Dα of the drone 31 as the angular position Hα as an example of the outline information of the field every time the position setting button 43e is input. Then, when the setting end button 43f is pressed, the acceptance of the input of the angular position Hα is ended. Thereby, for example, in FIGS. 8 to 10, the outer shape of the field is set by sequentially connecting the angular positions Hα1, Hα2, Hα3, and Hα4 by straight lines.

追加情報の設定手段CB13は、角位置追加手段CB13aと、入出路設定手段CB13bと、障害位置設定手段CB13cと、を有する。追加情報の設定手段CB13では、タッチパネル43上に圃場Hの画像を表示し、タッチされた圃場Hの位置に追加情報を設定する。 The additional information setting unit CB13 includes an angular position adding unit CB13a, an entry/exit path setting unit CB13b, and an obstacle position setting unit CB13c. The additional information setting means CB13 displays the image of the field H on the touch panel 43 and sets the additional information at the position of the field H touched.

角位置追加手段CB13aは、追加情報として、追加の角位置Hαを設定する。
入出路設定手段CB13bは、追加情報として、入出路P1を設定する。
障害位置入力手段CB13cは、図10(b)において、追加情報として、電柱などの位置を示す障害位置P2を設定する。
The angular position adding means CB13a sets an additional angular position Hα as additional information.
The entrance/exit path setting means CB13b sets the entrance/exit path P1 as additional information.
The fault position input means CB13c sets a fault position P2 indicating the position of a utility pole or the like as additional information in FIG. 10B.

登録手段CB14は、タッチパネル43のボタン(図示せず)が入力されると、設定された圃場Hに関する情報Hα、P1,P2を登録する。実施例1では、圃場情報の記憶手段CB11に記憶された情報を更新する。 When the button (not shown) on the touch panel 43 is input, the registration unit CB14 registers the information Hα, P1, P2 regarding the set field H. In the first embodiment, the information stored in the field information storage means CB11 is updated.

車両特定手段CB15は、下方カメラ37が撮像した数字マーク22の撮像画像と、予め設定された複数の作業車両と数字マークとを対応させた参照情報と、に基づいて、数字マーク22に対応する作業車両を特定する。例えば、実施例1の車両特定手段CB15では、「01」の数字マーク22が検出されると、撮像された作業車両がトラクタ1であると特定する。 The vehicle identifying means CB15 corresponds to the number mark 22 based on the captured image of the number mark 22 imaged by the lower camera 37 and the reference information that associates a plurality of preset work vehicles with the number mark. Identify the work vehicle. For example, when the vehicle identification means CB15 of the first embodiment detects the numeral mark 22 of "01", the imaged work vehicle is identified as the tractor 1.

工程記憶手段CB16は、作業車両毎に予め設定された作業工程の情報を記憶する。図7、図10において、実施例1では、工程記憶手段CB16は、作業工程の情報として、圃場Hの作業順が設定された作業順番H1〜H6情報や、圃場毎の作業を開始する作業起点P3情報、作業車両毎の車幅W情報などを記憶している。 The process storage means CB16 stores information on work processes preset for each work vehicle. 7 and 10, in the first embodiment, the process storage unit CB16 uses the work order H1 to H6 information in which the work order of the field H is set as the work process information, and the work starting point for starting the work for each field. P3 information, vehicle width W information for each work vehicle, and the like are stored.

作業情報の表示手段CB17は、特定された作業車両に対応する作業工程に基づく画像を、表示部の一例としてのタッチパネル43に表示する。図7、図10において、実施例1では、作業工程に基づく画像として、圃場Hの案内経路R1、R2や、トラクタ1の作業中の位置Tα,Tβ、後述する作業マップ情報などの画像を、位置情報処理制御部CCの処理に基づいて表示する。これにより、作業者に、作業工程を認識させ易くなる。また、作業者が、誤って作業車両に対応していない作業工程を参照してしまうことも抑制できる。さらに、図7において、作業順番H1〜H6に沿って圃場H間を移動する場合などに作業者にトラクタ1の位置を認識させ易くなっている。 The work information display means CB17 displays an image based on the work process corresponding to the specified work vehicle on the touch panel 43 as an example of the display unit. 7 and 10, in the first embodiment, as images based on the work process, images of the guide routes R1 and R2 of the field H, the positions Tα and Tβ of the tractor 1 during work, work map information described later, and the like are displayed. It is displayed based on the processing of the position information processing control unit CC. This makes it easier for the worker to recognize the work process. Further, it is possible to prevent the worker from mistakenly referring to a work process that does not correspond to the work vehicle. Further, in FIG. 7, it is easy for the worker to recognize the position of the tractor 1 when moving between the fields H along the work order H1 to H6.

(トラクタの位置情報処理制御部CC)
図3において、位置情報処理制御部CCは、GPSユニット21や、通信ユニット(図示せず)などの出力信号が入力されている。
また、位置情報処理制御部CCは、通信ユニットの制御信号などを出力している。
図4において、位置情報処理制御部CCは、前記信号出力要素からの出力信号に応じた処理を実行して、前記制御要素に制御信号を出力する機能を有している。
圃場情報の取得手段CC1は、コントローラ41に記憶されている圃場情報や、作業工程の情報を取得して、外部メモリMeに記憶させる。
(Tractor position information processing control unit CC)
In FIG. 3, an output signal of the GPS unit 21, a communication unit (not shown), or the like is input to the position information processing control unit CC.
Further, the position information processing control unit CC outputs a control signal of the communication unit and the like.
In FIG. 4, the position information processing control unit CC has a function of executing processing according to an output signal from the signal output element and outputting a control signal to the control element.
The field information acquisition unit CC1 acquires the field information and the work process information stored in the controller 41 and stores them in the external memory Me.

図10において、作業予定情報の作成手段CC2は、車幅Wと、圃場の外形情報Hαと、入出路P1と、障害位置P2と、作業起点P3と、に基づいて、入出路P1から作業起点P3までの進入案内経路R1と、作業起点P3から入出路P1までの作業案内経路R2と、を作成する。ここで、作業予定情報の作成手段CC2では、障害位置P2が設定されている場合には、図10(b)に示すように、障害位置P2を回避した経路R1,R2を作成する。なお、経路R1,R2の作成については従来公知であり、例えば、特開平10−66405号公報などに記載されている。よって、経路R1,R2の作成についての詳細な説明は省略する。 In FIG. 10, the work schedule information creating means CC2 uses the vehicle width W, the outer shape information Hα of the field, the entry/exit path P1, the obstacle position P2, and the work starting point P3 to determine the work starting point from the entry/exit path P1. An approach guide route R1 to P3 and a work guide route R2 from the work starting point P3 to the entrance/exit route P1 are created. Here, when the failure position P2 is set, the work schedule information creating means CC2 creates the routes R1 and R2 avoiding the failure position P2, as shown in FIG. 10B. The creation of the routes R1 and R2 is conventionally known, and is described in, for example, Japanese Patent Laid-Open No. 10-66405. Therefore, detailed description of creating the routes R1 and R2 is omitted.

自律作業情報の作成手段CC3は、特定された作業車両に対応する自律作業情報を作成する。実施例1の自律作業情報の作成手段CC3は、作業案内経路R2に沿った各位置に応じてトラクタ1の予定走行速度を設定する。また、自律作業情報の作成手段CC3は、作業案内経路R2に沿った各位置に応じてトラクタ1に装着された作業機(図示せず)の予定作業位置を設定する。 The autonomous work information creating means CC3 creates autonomous work information corresponding to the specified work vehicle. The autonomous work information creating unit CC3 according to the first embodiment sets the planned traveling speed of the tractor 1 according to each position along the work guide route R2. Further, the autonomous work information creating means CC3 sets the planned work position of the work machine (not shown) mounted on the tractor 1 in accordance with each position along the work guide route R2.

車両測位手段CC4は、測位可能フラグFLと、高精度測位手段CC4aと、簡易測位手段CC4bとを有する。車両測位手段CC4はトラクタ1の位置Tα,Tβを測位する。 The vehicle positioning means CC4 has a positioning possible flag FL, a high-precision positioning means CC4a, and a simple positioning means CC4b. The vehicle positioning means CC4 measures the positions Tα and Tβ of the tractor 1.

測位可能フラグFLは、初期値は「0」であり、自律制御モードが設定されてドローン31が基準位置に到達したと判別された場合に「1」になる。そして、自律制御モードが終了した場合、すなわち、マニュアル操作モードに設定された場合に「0」となる。 The positioning possible flag FL has an initial value of “0” and becomes “1” when it is determined that the autonomous control mode is set and the drone 31 has reached the reference position. Then, when the autonomous control mode ends, that is, when the manual operation mode is set, it becomes “0”.

高精度測位手段CC4aは、測位可能フラグFLが「1」の場合に、高精度GPSユニット33の測位結果に基づいて、トラクタ1の位置Tαを測位する。図2において、実施例1では、実際のトラクタ1上の位置T′からGPS受信機21の配置位置までのズレを示すベクトル量u0に基づいて、トラクタ1の位置Tαを測位する。すなわち、水平方向について、Tα=Dα+u0と演算する。 The high-accuracy positioning means CC4a measures the position Tα of the tractor 1 based on the positioning result of the high-accuracy GPS unit 33 when the positioning possible flag FL is “1”. In FIG. 2, in the first embodiment, the position Tα of the tractor 1 is measured based on the vector amount u0 indicating the deviation from the actual position T′ on the tractor 1 to the position where the GPS receiver 21 is arranged. That is, Tα=Dα+u0 is calculated in the horizontal direction.

簡易測位手段CC4bは、測位可能フラグFLが「0」の場合に、車載のGPSユニット21の測位結果に基づいて、トラクタ1の位置Tβを測位する。
作業マップ情報の作成手段CC5は、トラクタ1の位置Tα,Tβと、前記測位位置Tα,Tβで作業したか否かと、を記録した作業マップ情報を作成する。なお、実施例1の作業マップ情報には、測位位置Tα,Tβに対応させて、トラクタ1の姿勢変化に基づいて圃場表面の傾斜状態を記録する構成も可能である。
When the positioning possible flag FL is “0”, the simple positioning means CC4b positions the position Tβ of the tractor 1 based on the positioning result of the vehicle-mounted GPS unit 21.
The work map information creation means CC5 creates work map information that records the positions Tα and Tβ of the tractor 1 and whether or not the work was performed at the positioning positions Tα and Tβ. Note that the work map information of the first embodiment may have a configuration in which the tilted state of the field surface is recorded based on the posture change of the tractor 1 in association with the positioning positions Tα and Tβ.

(トラクタの車両制御部CD)
車両制御部CDは、車速センサSN11、ハンドル切れ角センサSN12、変速センサSN13等の信号出力要素からの出力信号が入力されている。
車両制御部CDは、エンジンEや、ステアリングモータM11、変速装置HS、ブレーキシリンダBS、その他の図示しない制御要素に接続されている。
(Vehicle control unit CD of tractor)
Output signals from signal output elements such as a vehicle speed sensor SN11, a steering wheel turning angle sensor SN12, and a shift sensor SN13 are input to the vehicle control unit CD.
The vehicle control unit CD is connected to the engine E, the steering motor M11, the transmission HS, the brake cylinder BS, and other control elements (not shown).

自律制御手段CD1は、スリップの回避手段CD1aと、オーバーランの回避手段CD1bと、を有する。自律制御手段CD1は、トラクタ1の位置Tαや、外部メモリMeに記憶された作業案内経路R2、予定走行速度、そして、トラクタの姿勢変化などに基づいて、エンジンEや、ステアリングモータM11、変速装置HS、ブレーキシリンダBSなどを制御する。これにより、作業案内経路R2に沿ってトラクタ1を自動で走行させる。また、実施例1の自律制御手段CD1は、測位位置Tαと、予定作業位置と、に基づいて、作業予定経路R2に沿って作業機1a(後述の図14参照)に作業させる。ここで、自律制御手段CD1では、トラクタ1が傾斜面を上っている場合にはエンジンEの回転数を上げ、トラクタ1が傾斜面を下っている場合にはエンジンEの回転数を下げ、予定走行速度に合わせ易くする。 The autonomous control means CD1 has slip avoidance means CD1a and overrun avoidance means CD1b. The autonomous control means CD1 is based on the position Tα of the tractor 1, the work guide route R2 stored in the external memory Me, the planned traveling speed, the posture change of the tractor, the engine E, the steering motor M11, and the transmission. It controls the HS, the brake cylinder BS, etc. As a result, the tractor 1 is automatically driven along the work guide route R2. Further, the autonomous control means CD1 of the first embodiment causes the working machine 1a (see FIG. 14 described later) to work along the planned work route R2 based on the positioning position Tα and the planned work position. Here, in the autonomous control means CD1, the rotation speed of the engine E is increased when the tractor 1 is on the slope, and the rotation speed of the engine E is decreased when the tractor 1 is on the slope. Make it easier to match the planned traveling speed.

なお、実施例1では、作業案内経路R2に沿ってトラクタ1を自律制御させる構成を例示するが、これに限定されない。例えば、進入案内経路R1に沿って自律制御させる構成が可能である。また、図7において、圃場の情報や作業順番H1〜H6に基づいて、圃場の入出路P1から次の圃場の入出路P1までが設定された経路に基づいて自律制御によりトラクタ1を移動させる構成も可能である。 Although the first embodiment exemplifies a configuration in which the tractor 1 is autonomously controlled along the work guide route R2, the present invention is not limited to this. For example, a configuration is possible in which autonomous control is performed along the approach guide route R1. Further, in FIG. 7, a configuration in which the tractor 1 is moved by autonomous control based on a route in which an entry/exit path P1 of a field is set to an entry/exit path P1 of the next field based on the field information and work orders H1 to H6. Is also possible.

スリップの回避手段CD1aは、トラクタ1の走行速度が、設定された予定走行速度に比べて所定の速度以上遅い場合に、エンジンEの回転を低下させる。なお、実施例1ではエンジンEの回転を低下させる構成を例示したが、これに限定されず、エンジンEの回転は低下させずに、伝達速度を切り替えて車輪2,2,3,3の回転を低下させる構成も可能である。 The slip avoiding means CD1a reduces the rotation of the engine E when the traveling speed of the tractor 1 is lower than the set planned traveling speed by a predetermined speed or more. In addition, in the first embodiment, the configuration in which the rotation of the engine E is reduced has been exemplified, but the invention is not limited to this, and the rotation speed of the engine E is not reduced, and the transmission speed is switched to rotate the wheels 2, 2, 3, 3. It is also possible to use a configuration that lowers.

オーバーランの回避手段CD1bは、トラクタ1の走行速度が、設定された予定走行速度に比べて所定の速度以上速い場合に、エンジンEの回転を低下させる。なお、実施例1ではエンジンEの回転を低下させる構成を例示したが、これに限定されず、エンジンEの回転は低下させずに、伝達速度を切り替えて車輪2〜3の回転を低下させる構成も可能である。 The overrun avoiding means CD1b lowers the rotation of the engine E when the traveling speed of the tractor 1 is higher than a preset traveling speed by a predetermined speed or more. In the first embodiment, the configuration that reduces the rotation of the engine E is illustrated, but the configuration is not limited to this, and the configuration in which the transmission speed is switched and the rotation of the wheels 2 to 3 is reduced without reducing the rotation of the engine E. Is also possible.

なお、トラクタ1などの作業車両を作業案内経路R2などに基づいて、自律制御により無人走行作業させる構成は、従来公知の構成を適用可能である。よって、回避手段CD1a,CD1b以外についての自律制御手段CD1の詳細な説明は省略する。なお、作業車両を自律制御させる構成は、例えば、特開平10−66405号公報等に記載されている。 A conventionally known configuration can be applied to a configuration in which a work vehicle such as the tractor 1 is caused to perform unmanned traveling work by autonomous control based on the work guide route R2 and the like. Therefore, detailed description of the autonomous control means CD1 other than the avoidance means CD1a and CD1b will be omitted. A configuration for autonomously controlling the work vehicle is described in, for example, Japanese Patent Laid-Open No. 10-66405.

(実施例1の流れ図の説明)
次に、実施例1の作業車両の制御システムにおける制御の流れを流れ図、いわゆるフローチャートを使用して説明する。なお、以下では、圃場の外形情報の入力処理と、ドローンの追従制御処理と、トラクタの自律制御処理とについて説明する。圃場の外形情報の入力処理と、ドローンの追従制御処理と、トラクタの自律制御処理以外の他の処理は簡単であるため、フローチャートを用いた説明は省略する。
(Explanation of the flow chart of Example 1)
Next, a flow of control in the control system for a working vehicle according to the first embodiment will be described using a flow chart, which is a so-called flowchart. In addition, below, the input process of the outline information of the field, the tracking control process of the drone, and the autonomous control process of the tractor will be described. Since the processes other than the input process of the outline information of the field, the drone tracking control process, and the tractor autonomous control process are simple, description using the flowchart is omitted.

(圃場の外形情報の入力処理のフローチャートの説明)
図11は圃場の外形情報の入力処理のフローチャートの説明図である。
図11のフローチャートの各ステップSTの処理は、作業車両の制御システムSの制御部CA〜CDに記憶されたプログラムに従って行われる。また、この処理は作業車両の制御システムSの他の各種処理と並行して実行される。
図11に示すフローチャートはドローン31およびコントローラ41の電源投入により開始される。
(Explanation of the flowchart of the input process of the outline information of the field)
FIG. 11 is an explanatory diagram of a flowchart of the input process of the outline information of the field.
The process of each step ST in the flowchart of FIG. 11 is performed according to a program stored in the control units CA to CD of the control system S of the work vehicle. Further, this process is executed in parallel with other various processes of the control system S of the work vehicle.
The flowchart shown in FIG. 11 is started when the drone 31 and the controller 41 are turned on.

図11のST1において、圃場の外形情報の設定の開始の入力があるか否かを判別する。イエス(Y)の場合はST2に進み、ノー(N)の場合はST1を繰り返す。
ST2において、外形情報の設定をする圃場が選択されたか否かを判別する。イエス(Y)の場合はST3に進み、ノー(N)の場合はST2を繰り返す。
ST3において、入力数nを1とする(n=1とする。)。そして、ST4に進む。
In ST1 of FIG. 11, it is determined whether or not there is an input to start setting the outline information of the field. If yes (Y), the process proceeds to ST2, and if no (N), ST1 is repeated.
In ST2, it is determined whether or not the field for which the outer shape information is set is selected. If yes (Y), the process proceeds to ST3, and if no (N), ST2 is repeated.
In ST3, the number of inputs n is set to 1 (n=1). Then, it proceeds to ST4.

ST4において、入力数nが4以下(n≦4)か否かを判別する。イエス(Y)の場合はST5に進み、ノー(N)の場合はST9に進む。
ST5において、次の(1)〜(3)の処理を実行する。そして、ST6に進む。
(1)撮像画像43aを表示する。
(2)ドローン31の位置Dαの情報画像43dを表示する。
(3)位置設定ボタン43eを表示する。
In ST4, it is determined whether or not the number of inputs n is 4 or less (n≦4). If yes (Y), the process proceeds to ST5, and if no (N), the process proceeds to ST9.
In ST5, the following processes (1) to (3) are executed. Then, it proceeds to ST6.
(1) Display the captured image 43a.
(2) The information image 43d at the position Dα of the drone 31 is displayed.
(3) The position setting button 43e is displayed.

ST6において、位置設定ボタン43eの入力があるか否かを判別する。イエス(Y)の場合はST7に進み、ノー(N)の場合はST6を繰り返す。
ST7において、次の(1),(2)の処理を実行する。そして、ST8に進む。
(1)入力数nを記憶する。
(2)ドローン31の位置Dαを角位置Hαnとして記憶する。
In ST6, it is determined whether or not the position setting button 43e is input. If yes (Y), the process proceeds to ST7, and if no (N), ST6 is repeated.
In ST7, the following processes (1) and (2) are executed. Then, the process proceeds to ST8.
(1) The number of inputs n is stored.
(2) The position Dα of the drone 31 is stored as the angular position Hαn.

ST8において、入力数nに1加算する(n=n+1)。そして、ST4に戻る。
ST9において、次の(1)〜(4)の処理を実行する。そして、ST10に進む。
(1)撮像画像43aを表示する。
(2)ドローン31の位置Dαの情報画像43dを表示する。
(3)位置設定ボタン43eを表示する。
(4)設定終了ボタン43fを表示する。
In ST8, 1 is added to the input number n (n=n+1). Then, the process returns to ST4.
In ST9, the following processes (1) to (4) are executed. Then, the process proceeds to ST10.
(1) Display the captured image 43a.
(2) The information image 43d at the position Dα of the drone 31 is displayed.
(3) The position setting button 43e is displayed.
(4) The setting end button 43f is displayed.

ST10において、位置設定ボタン43eの入力があるか否かを判別する。イエス(Y)の場合はST7に進み、ノー(N)の場合はST11に進む。
ST11において、設定終了ボタン43fの入力があるか否かを判別する。イエス(Y)の場合はST1に戻り、ノー(N)の場合はST10に戻る。
In ST10, it is determined whether or not the position setting button 43e is input. If yes (Y), the process proceeds to ST7, and if no (N), the process proceeds to ST11.
In ST11, it is determined whether or not the setting end button 43f is input. If yes (Y), the process returns to ST1, and if no (N), the process returns to ST10.

(ドローンの追従制御処理のフローチャートの説明)
図12はドローンの追従制御処理のフローチャートの説明図である。
図12のフローチャートの各ステップSTの処理は、作業車両の制御システムSの制御部CA〜CDに記憶されたプログラムに従って行われる。また、この処理は作業車両の制御システムSの他の各種処理と並行して実行される。
(Explanation of the flow chart of the drone tracking control process)
FIG. 12 is an explanatory diagram of a flowchart of the drone follow-up control processing.
The process of each step ST in the flowchart of FIG. 12 is performed according to a program stored in the control units CA to CD of the control system S of the work vehicle. Further, this process is executed in parallel with other various processes of the control system S of the work vehicle.

図12に示すフローチャートはドローン31およびコントローラ41の電源投入により開始される。
図12のST51において、自律制御モードの設定が入力されたか否かを判別する。イエス(Y)の場合はST52に進み、ノー(N)の場合はST51を繰り返す。
The flowchart shown in FIG. 12 is started when the power of the drone 31 and the controller 41 is turned on.
In ST51 of FIG. 12, it is determined whether or not the setting of the autonomous control mode is input. If yes (Y), the process proceeds to ST52, and if no (N), ST51 is repeated.

ST52において、ドローン31を上昇させる。そして、ST53に進む。
ST53において、撮像画像43a上においてマーク23が検出されたか否かを判別する。イエス(Y)の場合はST54に進み、ノー(N)の場合はST52に戻る。
In ST52, the drone 31 is raised. Then, the process proceeds to ST53.
In ST53, it is determined whether or not the mark 23 is detected on the captured image 43a. If yes (Y), the process proceeds to ST54, and if no (N), the process returns to ST52.

ST54において、次の(1),(2)の処理を実行する。そして、ST55に進む。
(1)車両位置特定マーク23の三角形部23bに基づいて、トラクタ1の向きを検出する。
(2)十字位置Dと目標位置Tとのズレ量uを演算する。
In ST54, the following processes (1) and (2) are executed. Then, it proceeds to ST55.
(1) The direction of the tractor 1 is detected based on the triangular portion 23b of the vehicle position specifying mark 23.
(2) A deviation amount u between the cross position D and the target position T is calculated.

ST55において、ズレ量uを移動量mに変換する。そして、ST56に進む。
ST56において、高さと、向きと、ズレ量と、に基づいてドローン31が基準位置に移動する制御量を演算する。そして、ST57に進む。
In ST55, the shift amount u is converted into the movement amount m. Then, the process proceeds to ST56.
In ST56, the control amount for moving the drone 31 to the reference position is calculated based on the height, the direction, and the amount of deviation. Then, the process proceeds to ST57.

ST57において、演算された制御量に基づいた制御信号をドローン31に送信する。すなわち、ドローン31を基準位置に飛行させる。そして、ST58に進む。
ST58において、自律制御モードが終了したか否かを判別する。イエス(Y)の場合はST51に戻り、ノー(N)の場合はST54に戻る。
In ST57, a control signal based on the calculated control amount is transmitted to the drone 31. That is, the drone 31 is caused to fly to the reference position. Then, the process proceeds to ST58.
In ST58, it is determined whether or not the autonomous control mode has ended. If yes (Y), the process returns to ST51, and if no (N), the process returns to ST54.

(トラクタの自律制御処理)
図13はトラクタの自律制御処理のフローチャートの説明図である。
図13のフローチャートの各ステップSTの処理は、作業車両の制御システムSの制御部CA〜CDに記憶されたプログラムに従って行われる。また、この処理は作業車両の制御システムSの他の各種処理と並行して実行される。
(Autonomous control processing of tractor)
FIG. 13 is an explanatory diagram of a flowchart of the autonomous control processing of the tractor.
The process of each step ST in the flowchart of FIG. 13 is performed according to a program stored in the control units CA to CD of the control system S of the work vehicle. Further, this process is executed in parallel with other various processes of the control system S of the work vehicle.

図13に示すフローチャートはトラクタ1のキーがオンになった場合に開始される。
図13のST101において、自律制御のスイッチ(図示せず)が入力されたか否かを判別する。イエス(Y)の場合はST102に進み、ノー(N)の場合はST101を繰り返す。
ST102において、測位可能フラグFLが「1」であるか否かを判別する。イエス(Y)の場合はST103に進み、ノー(N)の場合はST102を繰り返す。
The flowchart shown in FIG. 13 is started when the key of the tractor 1 is turned on.
In ST101 of FIG. 13, it is determined whether or not an autonomous control switch (not shown) is input. If yes (Y), the process proceeds to ST102, and if no (N), ST101 is repeated.
In ST102, it is determined whether or not the positioning possible flag FL is "1". If yes (Y), the process proceeds to ST103, and if no (N), ST102 is repeated.

ST103において、ドローン31の高精度GPSユニット33の測位結果に基づいてトラクタ1の位置Tαを測位する。そして、ST104に進む。
ST104において、次の(1),(2)の処理を実行する。そして、ST105に進む。
(1)トラクタ1の位置Tαに基づいて、トラクタ1を作業案内経路R2に沿って自律走行させる。
(2)トラクタ1の位置Tαに基づいて、トラクタ1を作業案内経路R2に沿って作業させる。
In ST103, the position Tα of the tractor 1 is measured based on the positioning result of the high precision GPS unit 33 of the drone 31. Then, the process proceeds to ST104.
In ST104, the following processes (1) and (2) are executed. Then, the process proceeds to ST105.
(1) Based on the position Tα of the tractor 1, the tractor 1 is caused to travel autonomously along the work guide route R2.
(2) The tractor 1 is caused to work along the work guide route R2 based on the position Tα of the tractor 1.

ST105において、作業案内経路R2に沿った自律制御が終了したか否かを判別する。イエス(Y)の場合はST101に戻り、ノー(N)の場合はST103に戻る。 In ST105, it is determined whether or not the autonomous control along the work guide route R2 is completed. If yes (Y), the process returns to ST101, and if no (N), the process returns to ST103.

図14は実施例1の作業車両の制御システムの作用説明図である。
図14において、前記構成を備えた実施例1の作業車両の制御システムSでは、ドローン31の自律制御モードに設定されると、ドローン31が上昇して下方カメラ37で下方を撮像する。下方カメラ37で撮像された撮像画像43aは画像処理されて、トラクタ1のマーク22,23が検出されると、検出された数字マーク22に基づいて作業車両が特定される。また、検出された車両位置特定マーク23に基づいてトラクタ1の向きや移動量などが演算される。
FIG. 14 is an operation explanatory view of the work vehicle control system according to the first embodiment.
14, in the work vehicle control system S of the first embodiment having the above configuration, when the drone 31 is set to the autonomous control mode, the drone 31 moves up and the lower camera 37 captures an image of the lower side. When the captured image 43a captured by the lower camera 37 is image-processed and the marks 22 and 23 of the tractor 1 are detected, the work vehicle is specified based on the detected number marks 22. Further, the direction, the movement amount, etc. of the tractor 1 are calculated based on the detected vehicle position specifying mark 23.

そして、向きや移動量に基づいてドローン31は、トラクタ1の走行に追従するように飛行制御される。よって、実施例1の作業車両の制御システムSでは、自律制御により、ドローン31が、トラクタ1の位置に対応して飛行する。 Then, the drone 31 is flight-controlled so as to follow the traveling of the tractor 1 based on the direction and the movement amount. Therefore, in the work vehicle control system S according to the first embodiment, the drone 31 flies corresponding to the position of the tractor 1 by autonomous control.

ここで、実施例1の作業車両の制御システムSでは、トラクタ1が自律制御により予定案内経路R2に沿って移動する場合に、ドローン31に備えられた高精度GPSユニット33の測位結果に基づいて、トラクタ1の位置Tαが測位される。すなわち、トラクタ1は、トラクタ1自体ではなくドローン31に搭載されたGPSユニット33で位置Tαが測位され、ステアリングやエンジンが制御される。 Here, in the work vehicle control system S of the first embodiment, when the tractor 1 moves along the scheduled guide route R2 by autonomous control, based on the positioning result of the high precision GPS unit 33 provided in the drone 31. The position Tα of the tractor 1 is measured. That is, in the tractor 1, the position Tα is measured by the GPS unit 33 mounted on the drone 31, not by the tractor 1 itself, and the steering and the engine are controlled.

ここで、従来の技術では、GPS装置自体は作業車両に備えられていた。したがって、買い換えなどにより作業車両を更新したり、複数の作業車両を所有したりする場合に、それらの作業車両で測位しようとすると、測位装置を付け替えるか、それぞれ個別に測位装置を備える必要があった。特に、高精度の測位を行なう場合には、高価な測位装置が必要となり易い。よって、個別に測位装置を備え付ける場合には、高費用化し易いという問題があった。また、測位装置を付け替える場合には、付け替え作業が生じて手間がかかるという問題があった。 Here, in the conventional technology, the GPS device itself is provided in the work vehicle. Therefore, when updating a work vehicle by purchasing a new one or owning a plurality of work vehicles, when attempting to perform positioning with these work vehicles, it is necessary to replace the positioning device or provide a positioning device individually. It was In particular, when performing highly accurate positioning, an expensive positioning device is likely to be needed. Therefore, there is a problem that the cost is easily increased when the positioning device is individually provided. Further, when replacing the positioning device, there is a problem that replacement work takes time and labor.

これに対して、実施例1の作業車両の制御システムSでは、ドローン31に備えられた高精度GPSユニット33の測位結果に基づいて、トラクタ1の位置Tαが測位される。したがって、更新後の作業車両や、複数の作業車両で測位をする場合にも、共通のドローン31を使用して測位が可能である。よって、測位装置を付け替える作業や、個別に測位装置を備え付ける必要性が抑制されている。特に、実施例1では、ドローン31に高精度GPSユニット33が備えられており、高価な高精度GPSユニット33の数が少なくて済む。よって、作業車両毎に高精度GPSユニットを設ける場合に比べて、費用を抑制し易くなっている。 On the other hand, in the work vehicle control system S according to the first embodiment, the position Tα of the tractor 1 is positioned based on the positioning result of the high-accuracy GPS unit 33 included in the drone 31. Therefore, the positioning can be performed using the common drone 31 even when the positioning is performed by the updated work vehicle or a plurality of work vehicles. Therefore, the work of replacing the positioning device and the necessity of individually installing the positioning device are suppressed. Particularly, in the first embodiment, the drone 31 is provided with the high precision GPS unit 33, and the number of expensive high precision GPS units 33 may be small. Therefore, as compared with the case where a high-precision GPS unit is provided for each work vehicle, it is easier to reduce costs.

なお、トラクタ1には、GPSユニット21が備えられている。よって、作業者が運転する場合など、高精度の位置Tαが必要でない場合には、ドローン31を飛行させずに、車載のGPSユニット21に基づいて位置Tβを測位可能である。したがって、例えば、作業者がトラクタ1を作業起点P3まで運転して移動させる場合でも、進入案内経路R1と、トラクタ1の位置Tβとを作業者が参照して、精度良くトラクタ1を作業起点P3まで運転し易くなっている。 The tractor 1 is equipped with a GPS unit 21. Therefore, when the highly accurate position Tα is not required, such as when a worker drives, the position Tβ can be measured based on the vehicle-mounted GPS unit 21 without flying the drone 31. Therefore, for example, even when the worker drives and moves the tractor 1 to the work starting point P3, the worker refers to the approach guide route R1 and the position Tβ of the tractor 1 to accurately move the tractor 1 to the work starting point P3. It is easy to drive up to.

また、実施例1では、ドローン31が基準位置に到達したと判別され測位可能フラグFLが「1」になった場合に、ドローン31でトラクタ1の位置Tαが測位される。すなわち、移動量mが小さい値の範囲に収まり、トラクタ1とドローン31との位置関係が安定した場合に、ドローン31の高精度GPSユニット33に基づいて測位される。よって、ドローン31がトラクタ1から離間しているにも関わらず、ドローン31の位置Dαに基づいてトラクタ1が測位される場合に比べて、トラクタ1の位置Tαの信頼性が向上している。 Further, in the first embodiment, when it is determined that the drone 31 has reached the reference position and the positioning possible flag FL is “1”, the drone 31 measures the position Tα of the tractor 1. That is, when the movement amount m is within a small value range and the positional relationship between the tractor 1 and the drone 31 is stable, positioning is performed based on the high-accuracy GPS unit 33 of the drone 31. Therefore, the reliability of the position Tα of the tractor 1 is improved as compared with the case where the tractor 1 is positioned based on the position Dα of the drone 31 even though the drone 31 is separated from the tractor 1.

なお、本実施例では、測位可能フラグFLが「1」になった場合、トラクタ1とドローン31の位置関係が安定し易くなるため、ドローン31が基準位置に一致したか否かに関わらず、ドローン31の位置Dαに基づいてトラクタ1の位置Tαを測位する構成を例示したが、これに限定されない。例えば、ドローン31が基準位置に移動したか否かを判別し続ける構成とし、基準位置に移動したと判別された場合にのみ、ドローン31の位置Dαに基づいてトラクタ1の位置Tαを測位する構成も可能である。 In the present embodiment, when the positioning possible flag FL is “1”, the positional relationship between the tractor 1 and the drone 31 is likely to be stable, so regardless of whether or not the drone 31 matches the reference position, Although the configuration for positioning the position Tα of the tractor 1 based on the position Dα of the drone 31 has been illustrated, the present invention is not limited to this. For example, it is configured to continue to determine whether or not the drone 31 has moved to the reference position, and to position the position Tα of the tractor 1 based on the position Dα of the drone 31 only when it is determined that the drone 31 has moved to the reference position. Is also possible.

さらに、実施例1では、ドローン31の自律制御に使用される画像処理は、ドローン31の制御部CAではなく、コントローラ41の制御部CBで行われる。よって、ドローン31の制御部CAで画像処理する場合に比べて、ドローン31の制御部CAの処理能力を低くすることが可能であり、構成を簡素にし易い。したがって、実施例1では、ドローン31を軽量化し易くなっている。 Further, in the first embodiment, the image processing used for the autonomous control of the drone 31 is performed by the control unit CB of the controller 41 instead of the control unit CA of the drone 31. Therefore, as compared with the case where image processing is performed by the control unit CA of the drone 31, the processing capability of the control unit CA of the drone 31 can be reduced, and the configuration can be easily simplified. Therefore, in the first embodiment, it is easy to reduce the weight of the drone 31.

また、ドローン31は上下方向が重力方向に対して傾斜し過ぎないように姿勢制御される。よって、下方カメラ37は重力方向下方を向いた状態で保持され易い。したがって、撮像された車両識別マーク23の形状、すなわち、長方形部23aの各部23a1〜23a4の面積比に応じて、トラクタ1の姿勢を検出することが可能である。よって、トラクタ1の姿勢に基づいて精度良くトラクタ1を自律制御走行可能となっている。 Further, the attitude of the drone 31 is controlled so that the vertical direction does not tilt too much with respect to the gravity direction. Therefore, the lower camera 37 is easily held in a state of facing downward in the direction of gravity. Therefore, it is possible to detect the posture of the tractor 1 according to the shape of the imaged vehicle identification mark 23, that is, the area ratio of the portions 23a1 to 23a4 of the rectangular portion 23a. Therefore, the tractor 1 can be accurately autonomously traveled based on the posture of the tractor 1.

また、実施例1では、ドローン31に備えられたレーダ38で、トラクタ1に対する高さを測定して、ドローン31とトラクタ1との間の高さが一定となるようにドローン31が制御される。よって、ドローン31とトラクタ1の位置関係が安定し易く、ドローン31の高精度GPSユニット33に基づくトラクタ1の位置Tαの信頼性が向上し易くなっている。 In the first embodiment, the radar 38 provided in the drone 31 measures the height with respect to the tractor 1 and controls the drone 31 so that the height between the drone 31 and the tractor 1 becomes constant. .. Therefore, the positional relationship between the drone 31 and the tractor 1 is easily stabilized, and the reliability of the position Tα of the tractor 1 based on the high-accuracy GPS unit 33 of the drone 31 is easily improved.

なお、実施例1ではレーダ38により、トラクタ1のキャビン7に対する高さを測定する構成を例示したが、これに限定されない。例えば、レーダ38に替えて、ステレオ撮像可能なカメラを設け、トラクタ1やマーク23のステレオ視に基づいて、トラクタ1とドローン31の距離を測定する構成が可能である。また、カメラのオートフォーカス機構により、車両位置マークにピントがあった焦点距離に基づいて、ドローン31とトラクタ1の距離を測定することも可能である。なお、下方カメラ37やレーダ38に替えて、高度センサに基づいて、ドローン31の高度を検出する構成も可能である。 In the first embodiment, the radar 38 measures the height of the tractor 1 with respect to the cabin 7, but the present invention is not limited to this. For example, instead of the radar 38, a camera capable of capturing a stereo image may be provided, and the distance between the tractor 1 and the drone 31 may be measured based on the stereoscopic view of the tractor 1 and the mark 23. It is also possible to measure the distance between the drone 31 and the tractor 1 based on the focal length where the vehicle position mark is in focus by the autofocus mechanism of the camera. Note that instead of the lower camera 37 and the radar 38, a configuration in which the altitude of the drone 31 is detected based on an altitude sensor is also possible.

さらに、実施例1のトラクタ1のCANには、各制御部CC,CDでアクセス可能な外部メモリMeが接続されており、外部メモリMeに圃場情報や、作業工程の情報、作成された経路R1,R2の情報などが記憶される。ここで、圃場情報などはデータ量が大きくなり易い。よって、各制御部CC,CDの内部メモリに圃場情報などを保持する構成では、各制御部CC,CDが必要な情報にアクセスする場合に、CANを流れるデータ通信量が増加し易い。これに対して、外部メモリに保持される実施例1では、制御部CC,CD間の相互通信が不要となり易く、CANの負荷を減らし易くなっている。したがって、実施例1のCANでは通信遅延などが生じ難くなっている。 Further, the CAN of the tractor 1 according to the first embodiment is connected to an external memory Me accessible by the control units CC and CD, and the external memory Me has field information, work process information, and a created route R1. , R2 information and the like are stored. Here, the amount of data of the field information and the like tends to be large. Therefore, in the configuration in which the field information or the like is held in the internal memory of each control unit CC, CD, when each control unit CC, CD accesses necessary information, the amount of data communication flowing through the CAN easily increases. On the other hand, in the first embodiment held in the external memory, mutual communication between the control units CC and CD is easily unnecessary, and the load on the CAN is easily reduced. Therefore, the CAN of the first embodiment is less likely to cause a communication delay.

また、実施例1では、実際にドローン31を圃場上空を飛行させ、圃場の外形形状に関する情報Hαを設定可能である。ここで、航空写真に基づいて圃場の形状などの位置情報を設定することも考えられるが、航空写真は、圃場表面から遠い上空から撮像されていることが多い。よって、航空写真に基づく構成では、設定した位置情報のズレが生じ易い。これに対して、実施例1では、ドローン31を低空で飛行させることが可能であり、作業者が撮像映像43aを見ながらジョイスティック44,46を操作することでドローン31を圃場外周に合わせて飛行させ易い。特に、ドローン31には高精度GPSユニット33が備えられている。よって、高精度の角情報Hαを取得し易くなっている。なお、実施例1では、追加の角情報Hαや、入出路P1、障害位置P2などを入力可能であり、圃場Hの情報を修正することが可能である。よって、圃場の情報の精度を改善し易くなっている。 Further, in the first embodiment, it is possible to actually fly the drone 31 over the field and set the information Hα regarding the outer shape of the field. Here, it is conceivable to set position information such as the shape of the field based on the aerial photograph, but the aerial photograph is often taken from the sky far from the surface of the field. Therefore, in the configuration based on the aerial photograph, deviation of the set position information is likely to occur. On the other hand, in the first embodiment, it is possible to fly the drone 31 at a low altitude, and the operator operates the joysticks 44 and 46 while watching the captured image 43a to fly the drone 31 in accordance with the outer circumference of the field. Easy to make. In particular, the drone 31 is equipped with a high precision GPS unit 33. Therefore, it is easy to obtain the highly accurate angle information Hα. In the first embodiment, the additional corner information Hα, the entry/exit path P1, the obstacle position P2, and the like can be input, and the information of the field H can be corrected. Therefore, it is easy to improve the accuracy of the field information.

また、実施例1では、トラクタ1の走行速度が、予定走行速度に比べて所定の速度以上遅い場合には、スリップが多いと判断して、エンジンEの回転を低下させる。よって、車輪2,3の回転が遅くなり、トラクタ1が大きくスリップすることが回避され易くなっている。また、実施例1では、トラクタ1の走行速度が、設定された予定走行速度に比べて所定の速度以上速い場合には、圃場の斜面でオーバーランしていると判断して、エンジンEの回転を低下させる。よって、トラクタ1が減速されており、急な斜面などでオーバーランすることが回避され易くなっている。 Further, in the first embodiment, when the traveling speed of the tractor 1 is lower than the planned traveling speed by a predetermined speed or more, it is determined that the slip is large, and the rotation of the engine E is reduced. Therefore, the rotation of the wheels 2 and 3 becomes slow, and it is easy to prevent the tractor 1 from slipping significantly. Further, in the first embodiment, when the traveling speed of the tractor 1 is higher than the set planned traveling speed by a predetermined speed or more, it is determined that the slope of the field is overrun, and the engine E rotates. Lower. Therefore, the tractor 1 is decelerated, and it is easy to avoid overrun on a steep slope.

(他の形態)
図15は図3の要部説明図であり他の形態の各制御部の説明図である。
図16はドローンの姿勢が傾斜した場合に撮像される物体と撮像画像との関係を示す説明図である。
(Other forms)
FIG. 15 is an explanatory view of a main part of FIG. 3 and is an explanatory view of each control unit of another embodiment.
FIG. 16 is an explanatory diagram showing a relationship between an imaged object and a captured image when the drone is tilted.

(コントローラの制御部CB)
図15に示すコントローラの制御部CBは、図4に示す画像処理手段CB4と、自律制御手段CB5と、に替えて、画像処理手段CB4′と、自律制御手段CB5′と、を有する。
本形態の画像処理手段CB4′は、図4のトラクタ姿勢検出手段CB4bに替えて、トラクタ姿勢検出手段CB4b′を有する。また、本形態の画像処理手段CB4′には、再現手段CB4c′が追加されている。
(Controller CB of controller)
The controller CB of the controller shown in FIG. 15 has image processing means CB4′ and autonomous control means CB5′ in place of the image processing means CB4 and autonomous control means CB5 shown in FIG.
The image processing means CB4' of this embodiment has a tractor attitude detecting means CB4b' instead of the tractor attitude detecting means CB4b of FIG. Further, a reproduction unit CB4c' is added to the image processing unit CB4' of this embodiment.

再現手段CB4c′は、ドローン31の姿勢情報と、撮像画像43aとに基づいて、元の撮像された物体を仮想三次元空間上に再現する。図16において、本形態の再現手段CB4c′は、ドローン31の姿勢状態に関する姿勢情報に基づいて下方カメラ37の撮像方向、すなわち、ドローン31の下方(図16のnで示す方向)を取得する。また、再現手段CB4c′は、方向nに沿って測定レーダ38が測定した距離Lだけ、下方カメラ37から離れた位置D′を特定する。さらに、前記位置D′において重力方向(図16のgで示す方向)に垂直な平面状の仮想面βを設定する。すなわち、距離Lの部分にトラクタ1のキャビン7に対応する仮想面βを設定する。そして、投影面α上の撮像画像43aを仮想面β上に逆投影する。本形態では、撮像画像43a上のズレ量uと、車両位置特定マーク23とを、仮想面βに逆投影する。また、ドローン31の位置Dαから重力方向に沿って仮想面βに垂れた垂線の足の位置HDも演算する。 The reproducing unit CB4c' reproduces the original imaged object in the virtual three-dimensional space based on the attitude information of the drone 31 and the captured image 43a. In FIG. 16, the reproducing means CB4c′ of the present embodiment acquires the image pickup direction of the lower camera 37, that is, the lower side of the drone 31 (direction indicated by n in FIG. 16) based on the posture information regarding the posture state of the drone 31. Further, the reproduction means CB4c' specifies the position D'which is separated from the lower camera 37 by the distance L measured by the measurement radar 38 along the direction n. Further, at the position D′, a plane virtual plane β perpendicular to the direction of gravity (direction indicated by g in FIG. 16) is set. That is, the virtual plane β corresponding to the cabin 7 of the tractor 1 is set at the portion of the distance L. Then, the captured image 43a on the projection surface α is back-projected on the virtual surface β. In the present embodiment, the deviation amount u on the captured image 43a and the vehicle position identification mark 23 are back projected onto the virtual plane β. In addition, the foot position HD of a perpendicular line that hangs from the position Dα of the drone 31 to the virtual plane β along the gravity direction is also calculated.

本形態のトラクタ姿勢検出手段CB4b′は、撮像画像43aに替えて、仮想面β上に変換された車両位置特定マーク23に基づいてトラクタ1の姿勢を検出する。すなわち、前述した図4に示すトラクタ姿勢検出手段CB4bでは、撮像画像43aにおける各部23a1〜23a4の面積比に基づいて姿勢情報を検出した。しかし、下方カメラ37の撮像方向が重力方向に対して傾斜している場合、水平のキャビン7上面から撮像される画像の形状は歪む。そこで、本形態では、仮想面βに投影変換された画像に基づいて、トラクタ1の姿勢を検出する。よって、図4のトラクタ姿勢検出手段CB4bに比べて、本形態のトラクタ姿勢検出手段CB4b′は、より正確にトラクタ1の姿勢を検出し易くなっている。 The tractor posture detecting means CB4b' of this embodiment detects the posture of the tractor 1 based on the vehicle position specifying mark 23 converted on the virtual plane β in place of the captured image 43a. That is, in the tractor posture detecting means CB4b shown in FIG. 4 described above, the posture information is detected based on the area ratio of the respective parts 23a1 to 23a4 in the captured image 43a. However, when the imaging direction of the lower camera 37 is inclined with respect to the gravity direction, the shape of the image captured from the upper surface of the horizontal cabin 7 is distorted. Therefore, in the present embodiment, the attitude of the tractor 1 is detected based on the image projected and converted into the virtual surface β. Therefore, as compared with the tractor attitude detecting means CB4b of FIG. 4, the tractor attitude detecting means CB4b' of the present embodiment can detect the attitude of the tractor 1 more accurately.

図17はドローンがズレ量の方向に傾斜した場合のズレ量と移動量の関係の説明図であり、(a)は下方カメラの向きが真下の場合の説明図、(b)はドローンが傾斜して下方カメラの撮像方向が傾斜した場合の説明図、(c)は(b)とは異なる場合の説明図、(d)は(b),(c)とは異なる場合の説明図である。 FIG. 17 is an explanatory diagram of the relationship between the shift amount and the movement amount when the drone is tilted in the direction of the shift amount. (a) is an explanatory diagram when the lower camera is oriented right below, and (b) is the drone tilted. FIG. 6 is an explanatory view when the imaging direction of the lower camera is inclined, (c) is an explanatory view when it is different from (b), and (d) is an explanatory view when it is different from (b) and (c). ..

移動量演算手段CB5d′は、ドローンの姿勢情報と、ズレ量uとに基づいて、ドローン31が基準位置に移動する場合に水平方向に移動すべき移動量mを演算する。図16、図17において、ドローン31が傾斜している場合、ドローン31の水平方向の位置HDは、下方カメラ37の撮像方向nが示す位置D′とは異なる。そこで、本形態の移動量演算手段CB5d′では、実際の位置関係に対応する仮想面βにおいて、投影されたズレ量u′の終点を目標位置T′とする。そして、位置HDから目標位置T′までのベクトル量をドローン31が水平方向に移動すべき移動量mとして演算する。 The movement amount calculation means CB5d' calculates the movement amount m to be moved in the horizontal direction when the drone 31 moves to the reference position, based on the drone posture information and the shift amount u. 16 and 17, when the drone 31 is tilted, the horizontal position HD of the drone 31 is different from the position D′ indicated by the imaging direction n of the lower camera 37. Therefore, in the movement amount calculating means CB5d' of this embodiment, the end point of the projected displacement amount u'is set as the target position T'on the virtual plane β corresponding to the actual positional relationship. Then, the vector amount from the position HD to the target position T'is calculated as the moving amount m for the drone 31 to move in the horizontal direction.

(トラクタの位置情報処理制御部CC)
図15に示すトラクタの位置情報処理制御部CCは、図4に示す高精度測位手段CC4aに替えて、高精度測位手段CC4a′を有する。
高精度測位手段CC4a′は、測位可能フラグFLが「1」の場合に、高精度GPSユニット33の測位結果に基づいて、トラクタ1の位置Tαを測位する。本形態では、ドローン31の位置Dαと、ベクトル量u0と、移動量mとに基づいて、トラクタ1の位置Tαを測位する。すなわち、水平方向について、Tα=Dα+u0+mと演算する。よって、本形態では、基準位置から離れた位置でドローン31の位置Dαが測位されても、離れてずれた分がmで補正されており、誤差が少なくなっている。
(Tractor position information processing control unit CC)
The position information processing control unit CC of the tractor shown in FIG. 15 has high-precision positioning means CC4a′ instead of the high-precision positioning means CC4a shown in FIG.
The high-accuracy positioning means CC4a' measures the position Tα of the tractor 1 based on the positioning result of the high-accuracy GPS unit 33 when the positioning possible flag FL is "1". In the present embodiment, the position Tα of the tractor 1 is measured based on the position Dα of the drone 31, the vector amount u0, and the movement amount m. That is, Tα=Dα+u0+m is calculated in the horizontal direction. Therefore, in the present embodiment, even if the position Dα of the drone 31 is located at a position distant from the reference position, the amount of misalignment is corrected by m, and the error is reduced.

本形態の作業車両の制御システムSでも、図1〜図14で説明した作業車両の制御システムSと同様に、ドローン31に備えられた高精度GPSユニット33の測位結果に基づいて、トラクタ1の位置Tαが測位される。よって、測位装置の付け替え作業や、個別に測位装置を備え付ける必要性を抑制しつつ、トラクタ1の位置Tαを高精度に測位可能になっている。 Also in the control system S of the work vehicle of the present embodiment, similar to the control system S of the work vehicle described in FIGS. 1 to 14, the tractor 1 of the tractor 1 is based on the positioning result of the high-accuracy GPS unit 33 provided in the drone 31. The position Tα is measured. Therefore, it is possible to position the position Tα of the tractor 1 with high accuracy while suppressing the work of replacing the positioning device and the need to individually install the positioning device.

特に、本形態では、ドローン31の姿勢情報に基づいて撮像画像43aが処理される。ドローン31の姿勢が傾斜した場合、ドローン31に固定された下方カメラ37の撮像方向も変化する。このとき、物体が透視投影される撮像画像43a上では、図16、図17に示すように、位置関係が実際の三次元空間とは異なる情報として認識され易い。 Particularly, in the present embodiment, the captured image 43a is processed based on the attitude information of the drone 31. When the attitude of the drone 31 is tilted, the imaging direction of the lower camera 37 fixed to the drone 31 also changes. At this time, on the captured image 43a in which the object is perspectively projected, as shown in FIGS. 16 and 17, the positional relationship is easily recognized as information different from the actual three-dimensional space.

これに対して、本形態では、ドローン31の姿勢情報に基づいて撮像画像43aを、トラクタ1にキャビン7上面に対応する仮想面βに逆投影させており、実際の元の位置関係を正確に取得し易くなっている。したがって、本形態では下方カメラ37が真下を向いている前提で撮像画像43aを処理する構成に比べて、より正確にトラクタ1の位置Tαが測定され易くなっている。よって、ドローン31が高速に移動する場合や、気象条件が悪い場合など、ドローン31の姿勢が傾斜し易い場合にも有効である。 On the other hand, in the present embodiment, the captured image 43a is back-projected on the virtual plane β corresponding to the upper surface of the cabin 7 on the tractor 1 based on the attitude information of the drone 31, and the actual original positional relationship is accurately obtained. It's easy to get. Therefore, in the present embodiment, the position Tα of the tractor 1 can be more accurately measured as compared to the configuration in which the captured image 43a is processed on the assumption that the lower camera 37 faces downward. Therefore, it is also effective when the drone 31 moves at high speed, when the weather conditions are bad, or when the attitude of the drone 31 is easily inclined.

なお、本形態では、高さLに基づいて移動量mが演算される。また、移動量mと、ドローン31の位置Dαとに基づいて、トラクタ1の位置Tαが測位される。よって、移動量mやトラクタ1の位置Tαが、Lやmに基づかない場合に比べて精度が高くなり易い。 In this embodiment, the movement amount m is calculated based on the height L. Further, the position Tα of the tractor 1 is measured based on the movement amount m and the position Dα of the drone 31. Therefore, the accuracy is likely to be higher than when the movement amount m or the position Tα of the tractor 1 is not based on L or m.

(他の形態2)
図18は他の形態の作業車両の制御システムの説明図である。
図18に示す作業車両の制御システムSでは、図1〜図17で説明した作業車両の制御システムSの構成に加えて、下記の構成を有する。すなわち、図18において、トラクタ1のキャビン7には、送電側の共振コイル61が支持されている。送電側の共振コイル61は、LC共振コイルとして構成されている。送電側の共振コイル61は、キャビン7のルーフ7a内部の中央部に配置されている。図18に示す構成では、ドローン31が自律制御モードの場合に、送電側の共振コイル61に高周波電力が供給される。
(Other form 2)
FIG. 18 is an explanatory diagram of a control system for a work vehicle in another form.
The work vehicle control system S shown in FIG. 18 has the following configuration in addition to the configuration of the work vehicle control system S described in FIGS. That is, in FIG. 18, the resonance coil 61 on the power transmission side is supported in the cabin 7 of the tractor 1. The resonance coil 61 on the power transmission side is configured as an LC resonance coil. The resonance coil 61 on the power transmission side is arranged in the central portion inside the roof 7 a of the cabin 7. In the configuration shown in FIG. 18, when the drone 31 is in the autonomous control mode, high frequency power is supplied to the resonance coil 61 on the power transmission side.

ドローン31の下部には、前記送電側の共振コイル61に対して磁界共振可能な受電側の共振コイル62が支持されている。受電側の共振コイル62はバッテリー(図示せず)に電気的に接続されている。また、ドローン31の上部には、太陽電池パネル63が支持されている。受電側の共振コイル62や太陽電池パネル63はバッテリー(図示せず)に電気的に接続されている。 A resonance coil 62 on the power receiving side capable of magnetic field resonance with the resonance coil 61 on the power transmission side is supported below the drone 31. The resonance coil 62 on the power receiving side is electrically connected to a battery (not shown). A solar cell panel 63 is supported on the drone 31. The resonance coil 62 and the solar cell panel 63 on the power receiving side are electrically connected to a battery (not shown).

よって、図18に示す作業車両の制御システムSでは、図1〜図17に示す構成の作用に加えて、ドローン31が基準位置に移動して、トラクタ1の送電側の共振コイル61とドローン31の受電側の共振コイル62とが対向すると、磁界共鳴の作用により、受電側の共振コイル62には電流が流れバッテリーが充電される。また、太陽光などを太陽電池パネル63が受けると、バッテリーが充電される。よって、本形態では、ドローン31のバッテリー切れが生じ難くなっており、充電可能でない場合に比べて長時間飛行し易くなっている。 Therefore, in the work vehicle control system S shown in FIG. 18, in addition to the operation of the configuration shown in FIGS. 1 to 17, the drone 31 moves to the reference position, and the resonance coil 61 on the power transmission side of the tractor 1 and the drone 31. When the resonance coil 62 on the power receiving side faces each other, a current flows through the resonance coil 62 on the power receiving side by the action of magnetic field resonance, and the battery is charged. When the solar cell panel 63 receives sunlight or the like, the battery is charged. Therefore, in this embodiment, the battery of the drone 31 is less likely to run out, and it is easier to fly for a long time as compared with the case where the drone 31 cannot be charged.

特に、図18では、送電側の共振コイル61はルーフ7a内部に配置されており、ルーフ7a上部に配置する場合に比べて、防水性を確保するのが容易である。また、送電側の共振コイル61はルーフ7a中央部に配置されている。ここで、キャビン7にはエアコンが配置されることが多い。このとき、エアコンはキャビン7の前方または後方に設置され、送風ダクトが両側に配置される。よって、ルーフ7aの中央部に空間が生じ易い。したがって、図18に示す構成では、ルーフ7aの空間内部を有効に活用し易くなっている。 In particular, in FIG. 18, the resonance coil 61 on the power transmission side is arranged inside the roof 7a, and it is easier to ensure waterproofness as compared with the case where it is arranged above the roof 7a. The resonance coil 61 on the power transmission side is arranged in the central portion of the roof 7a. Here, an air conditioner is often arranged in the cabin 7. At this time, the air conditioner is installed in front of or behind the cabin 7, and the air ducts are arranged on both sides. Therefore, a space is likely to be formed in the central portion of the roof 7a. Therefore, in the configuration shown in FIG. 18, it is easy to effectively utilize the inside of the space of the roof 7a.

(他の形態3)
図19は図18とは別の形態の作業車両の制御システムの説明図である。
図18に示す形態では、キャビン7のルーフ7a中央部に送電側の共振コイル61を配置する構成を例示したが、これに限定されない。図19に示すように、キャビン7のルーフ7a外周に送電側の共振コイル61を配置することも可能である。ここで、ルーフ7a外周はデザイン要素として作成されることが多く、外周内部にはデッドスペースが存在し易い。そこで、図19に示すように、ルーフ7a外周に送電側の共振コイル61を配置して、ルーフ7a内の空間を有効利用することも可能である。
(Other form 3)
FIG. 19 is an explanatory diagram of a control system for a work vehicle which is different from that of FIG.
In the form shown in FIG. 18, a configuration in which the resonance coil 61 on the power transmission side is arranged in the central portion of the roof 7a of the cabin 7 is illustrated, but the configuration is not limited to this. As shown in FIG. 19, it is possible to dispose the resonance coil 61 on the power transmission side on the outer periphery of the roof 7a of the cabin 7. Here, the outer periphery of the roof 7a is often created as a design element, and a dead space easily exists inside the outer periphery. Therefore, as shown in FIG. 19, it is possible to arrange the resonance coil 61 on the power transmission side on the outer periphery of the roof 7a to effectively use the space in the roof 7a.

なお、ルーフ7a内側にコイル61を配置する構成に替えて、ルーフ7a表面上部に送電側の共振コイル61を配置する構成も可能である。また、図18、図19では、磁界共鳴方式のコイル61,62で電力を供給する構成を例示したが、これに替えて、電磁誘導方式に対応した送電側のコイルと、受電側のコイルとにより、電力を供給する構成が可能である。 Note that, instead of the configuration in which the coil 61 is arranged inside the roof 7a, a configuration in which the resonance coil 61 on the power transmission side is arranged above the surface of the roof 7a is also possible. 18 and 19 illustrate a configuration in which electric power is supplied by the magnetic field resonance type coils 61 and 62. However, instead of this, a coil on the power transmission side and a coil on the power receiving side compatible with the electromagnetic induction system. By this, it is possible to supply power.

また、コイル61,62を用いた構成に限定されず、マイクロ波を送信するアンテナをキャビン7に設け、ドローン31に前記マイクロ波を受信するアンテナを設けることも可能である。これにより、電波方式で、ドローン31のバッテリーを充電する構成も可能である。 Further, the configuration using the coils 61 and 62 is not limited, and it is possible to provide an antenna for transmitting microwaves in the cabin 7 and provide the drone 31 with an antenna for receiving the microwaves. Accordingly, a configuration in which the battery of the drone 31 is charged by the radio wave method is also possible.

また、この場合、ドローン31に、前記マイクロ波とは周波数が異なる電波など発信する構成を設ける。そして、ドローン31が送信アンテナからマイクロ波を受信可能な位置に移動した場合に、ドローン31から前記周波数が異なる電波を発信する。そして、トラクタ1が前記電波を受信した場合に、マイクロ波を送信する構成が可能である。 Further, in this case, the drone 31 is provided with a configuration for transmitting radio waves having a frequency different from the microwave. Then, when the drone 31 moves to a position where microwaves can be received from the transmitting antenna, the drone 31 transmits radio waves having different frequencies. Then, a configuration is possible in which the tractor 1 transmits microwaves when it receives the radio waves.

さらに、例えば、ドローン31のバッテリーの残量を判別する制御手段を設け、バッテリーの残量が少ない場合にのみ給電する構成とすることが可能である。これにより、常時給電する構成に比べて、トラクタの燃料消費が抑制され易くなる。 Further, for example, it is possible to provide a control means for discriminating the remaining amount of the battery of the drone 31 and supply power only when the remaining amount of the battery is low. This makes it easier to suppress fuel consumption of the tractor as compared with the configuration in which power is constantly supplied.

(変更例)
以上、本発明の実施例を詳述したが、本発明は、前記実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲で、種々の変更を行うことが可能である。本発明の変更例を下記に例示する。
(Example of change)
Although the embodiments of the present invention have been described in detail above, the present invention is not limited to the above embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims. Is possible. Modifications of the present invention will be exemplified below.

実施例1の作業車両の制御システムSにおいて、各制御部CA〜CDが備える手段は、他の制御部CA〜CDが備える構成も可能であり、分散処理などが可能である。また、外部のサーバなどと情報を送受信可能として、外部のサーバで処理した情報を各制御部CA〜CDに送信する構成も可能である。よって、例えば、サーバで、マーク22,23の検出処理などの画像処理を行う構成が可能である。また、圃場情報などはサーバに登録してサーバから各制御部CA〜CDに送信する構成が可能である。さらに、実施例1では、ドローン31の自律制御の制御量を演算する場合には、コントローラ41の制御部CBで処理したが、これに替えて、ドローン31の制御部CAで処理する構成も可能である。 In the control system S of the working vehicle of the first embodiment, the means included in each of the control units CA to CD can be configured to be included in the other control units CA to CD, and distributed processing can be performed. It is also possible to transmit/receive information to/from an external server or the like, and transmit the information processed by the external server to each control unit CA to CD. Therefore, for example, the server can be configured to perform image processing such as detection processing of the marks 22 and 23. Further, the field information and the like can be registered in the server and transmitted from the server to the control units CA to CD. Further, in the first embodiment, when the control amount of the autonomous control of the drone 31 is calculated, it is processed by the control unit CB of the controller 41. However, instead of this, it is also possible to perform processing by the control unit CA of the drone 31. Is.

前記実施例では、ドローン31が一台のトラクタ1を撮像する構成を例示したが、これに限定されない。例えば、一機のドローン31で複数台の作業車両を同時に撮像し、作業車両毎のマーク22,23に基づいて、作業車両を特定すると共に、各作業車両のズレ量と、ドローン31の位置Dαとに基づいて作業車両の位置を測位する構成が可能である。 In the above-described embodiment, the configuration in which the drone 31 images one tractor 1 is illustrated, but the configuration is not limited to this. For example, one drone 31 images a plurality of work vehicles at the same time, the work vehicles are specified based on the marks 22 and 23 of each work vehicle, the deviation amount of each work vehicle and the position Dα of the drone 31 are determined. It is possible to determine the position of the work vehicle based on and.

また、コントローラ41ではジョイスティック44,46を省略し、タッチパネル43で操作する構成も可能である。さらに、ドローン31のマニュアル操作を不能とし、電源投入時から自律制御でのみドローン31を飛行させる構成も可能である。また、作業者がトラクタ1を運転する場合に、ドローン31を飛行させて、高精度GPSユニット33でトラクタ1の位置Tαを測位する構成も可能である。さらに、通常時は車載のGPSユニット21に基づく位置Tβで作業し、高精度の作業が必要な場合にのみ、ドローン31を飛行させてトラクタ1の位置Tαを測位する構成も可能である。この場合、ドローン31の消費電力を抑制し易くなる。 Further, the controller 41 may be configured such that the joysticks 44 and 46 are omitted and the touch panel 43 is used for operation. Further, a configuration is possible in which the manual operation of the drone 31 is disabled and the drone 31 flies only by autonomous control after the power is turned on. Further, when the worker drives the tractor 1, it is also possible to fly the drone 31 and measure the position Tα of the tractor 1 with the high precision GPS unit 33. Further, it is also possible to normally work at the position Tβ based on the in-vehicle GPS unit 21 and to fly the drone 31 to position the position Tα of the tractor 1 only when highly accurate work is required. In this case, it becomes easy to suppress the power consumption of the drone 31.

1 トラクタ(作業車両) 1a 作業機
2,2 前輪 3,3 後輪
4 エンジンルーム
5 トランスミッションケース 6 ボンネット
7 キャビン 8 運転座席
11 ステアリングハンドル 12 クラッチペダル
13 アクセルペダル 21 GPSユニット
22 数字マーク 23 車両位置特定マーク
23a 長方形部 23a1 右前部
23a2 左前部 23a3 左後部
23a4 右後部 23b 三角形部
31 ドローン(無人航空機) 32 本体部
33 高精度GPSユニット(測位装置)
34 アーム部
36 回転翼 37 カメラ
38 レーダ 41 コントローラ
42 タブレット端末部 43 タッチパネル
43a 撮像画像 43b,43c 枠画像
43d ドローンの位置の情報画像
43e 位置設定ボタン 43f 設定終了ボタン
44 ジョイスティック 46 ジョイスティック
61 送電共振コイル 62 受信共振コイル
63 太陽電池パネル BS ブレーキシリンダ
CA ドローンの制御部 CA1 ドローンの測位手段
CA2 飛行制御手段 CB コントローラの制御部
CB1 モード設定手段 CB2 マニュアル制御の送信手段
CB3 空撮表示手段 CB4 画像処理手段
CB4a マーク検出手段
CB4b,CB4b′ トラクタ姿勢検出手段
CB4c′ 再現手段
CB5 自律制御手段 CB5a 高さ測定手段
CB5b 前方特定手段 CB5c ズレ量演算手段
CB5d 初期制御手段 CB5e 制御量演算手段
CB5f 制御量送信手段 CB6 到達判別手段
CB11 圃場情報の記憶手段 CB12 圃場外形設定手段
CB12a 開始の判別手段 CB12b 画像表示手段
CB12c 位置入力手段 CB13 追加情報の設定手段
CB13a 角位置追加手段 CB13b 入出路設定手段
CB13c 障害位置設定手段 CB14 登録手段
CB15 車両特定手段 CB16 工程記憶手段
CB17 作業情報の表示手段 CC トラクタの位置情報処理制御部
CC1 圃場情報の取得手段 CC2 作業予定情報の作成手段
CC3 自律作業情報の作成手段 CC4 車両測位手段
CC4a 高精度測位手段 CC4b 簡易測位手段
CC5 作業マップ情報の作成手段
CD トラクタの車両制御部 CD1 自律制御手段
CD1a スリップの回避手段 CD1b オーバーランの回避手段
D 十字位置
Dα ドローンの位置 FL 測位可能フラグ
E エンジン H 圃場
H1,H2,H3,H4,H5,H6 作業順番
HD ドローンの真下の位置
HS 変速装置
Hα(Hα1,Hα2,Hα3,Hα4,…,Hαn) 角位置
P1 入出路 P2 障害位置
P3 作業起点 R1 進入案内経路
R2 作業案内経路
S 作業車両の制御システム SN1 加速度センサ
SN11 車速センサ SN12 ハンドル切れ角センサ
SN13 変速センサ M11 ステアリングモータ
T 目標位置
Tα 高精度GPSユニットに基づくトラクタの位置
Tβ GPSユニットに基づくトラクタの位置
u ズレ量 W 車幅
m 移動量
M1,M2,M3,M4 モータ
Me 外部メモリ
1 tractor (work vehicle) 1a work equipment 2,2 front wheels 3,3 rear wheels 4 engine room 5 transmission case 6 bonnet 7 cabin 8 driver's seat 11 steering wheel 12 clutch pedal 13 accelerator pedal 21 GPS unit 22 number mark 23 vehicle position identification Mark 23a Rectangular part 23a1 Right front part 23a2 Left front part 23a3 Left rear part 23a4 Right rear part 23b Triangular part 31 Drone (unmanned aerial vehicle) 32 Main body part 33 High precision GPS unit (positioning device)
34 Arm 36 Rotating Blade 37 Camera 38 Radar 41 Controller 42 Tablet Terminal 43 Touch Panel 43a Captured Image 43b, 43c Frame Image 43d Drone Position Information Image 43e Position Setting Button 43f Setting End Button 44 Joystick 46 Joystick 61 Power Transmission Resonant Coil 62 Receiving resonance coil 63 Solar cell panel BS Brake cylinder CA drone control unit CA1 Drone positioning means CA2 Flight control means CB controller control unit CB1 Mode setting means CB2 Manual control transmission means CB3 Aerial image display means CB4 Image processing means CB4a mark Detecting means CB4b, CB4b' Tractor attitude detecting means CB4c' Reproducing means CB5 Autonomous control means CB5a Height measuring means CB5b Front specifying means CB5c Displacement amount calculating means CB5d Initial control means CB5e Control amount calculating means CB5f Control amount transmitting means CB6 Arrival determining means CB11 Field information storage means CB12 Field outline setting means CB12a Start determination means CB12b Image display means CB12c Position input means CB13 Additional information setting means CB13a Angular position addition means CB13b In/out route setting means CB13c Obstacle position setting means CB14 Registration means CB15 Vehicle Identification means CB16 Process storage means CB17 Work information display means CC Tractor position information processing control unit CC1 Field information acquisition means CC2 Work schedule information creation means CC3 Autonomous work information creation means CC4 Vehicle positioning means CC4a High precision positioning means CC4b Simplified positioning means CC5 Work map information creation means CD Tractor vehicle control unit CD1 Autonomous control means CD1a Slip avoidance means CD1b Overrun avoidance means D Cross position Dα Drone position FL Positionable flag E Engine H Fields H1, H2 H3, H4, H5, H6 Work order Position just below HD drone HS Transmission Hα (Hα1, Hα2, Hα3, Hα4,..., Hαn) Angular position P1 Entry/exit path P2 Obstacle position P3 Work start point R1 Entry guide path R2 Work guidance Route S Work vehicle control system SN1 Acceleration sensor SN11 Vehicle speed sensor SN12 Steering wheel angle sensor SN13 Gear shift sensor M11 Steering motor T Target position Tα High-precision GPS unit based Position of tractor Tβ Position of tractor based on GPS unit u Amount of displacement W Vehicle width m Movement amount M1, M2, M3, M4 Motor Me External memory

Claims (4)

圃場(H)で作業をする作業車両(1)と、
前記作業車両(1)に対応して空中を飛行する無人航空機(31)と、
前記無人航空機(31)に支持されて、測位衛星から信号を受信して測位を行う測位装置(33)と、
前記測位装置(33)の測位結果に基づいて前記作業車両(1)の測位をする車両測位手段(CC4)と、
前記作業車両(1)に付された車両位置特定マーク(23)と、
前記無人航空機(31)に支持され、前記車両位置特定マーク(23)を撮像する撮像部材(37)と、
前記撮像部材(37)が撮像する撮像画像において、前記車両位置特定マーク(23)の位置を予め設定された領域内に保持するように自律制御されて飛行する前記無人航空機(31)と、
を備えたことを特徴とする作業車両の制御システム。
A work vehicle (1) for working in the field (H),
An unmanned aerial vehicle (31) flying in the air corresponding to the work vehicle (1);
A positioning device (33) that is supported by the unmanned aerial vehicle (31) and receives signals from positioning satellites to perform positioning;
Vehicle positioning means (CC4) for positioning the work vehicle (1) based on the positioning result of the positioning device (33);
A vehicle position specifying mark (23) attached to the work vehicle (1),
An imaging member (37) supported by the unmanned aerial vehicle (31) and imaging the vehicle position specifying mark (23);
In the captured image captured by the imaging member (37), the unmanned aerial vehicle (31) that autonomously flies so as to hold the position of the vehicle position identification mark (23) within a preset area;
A control system for a work vehicle, comprising:
複数の前記作業車両(1)と、
各作業車両(1)に付され、各作業車両(1)毎に異なる車両識別マーク(22)と、
各作業車両(1)毎に、予め設定された作業工程の情報を記憶する工程記憶手段(CB16)と、
前記車両識別マーク(22)を撮像する前記撮像部材(37)と、
前記撮像部材(37)が撮像した前記車両識別マーク(22)の撮像画像に基づいて、前記作業車両(1)を特定する車両特定手段(CB15)と、
特定された作業車両(1)に対応する作業工程に基づく画像を表示する表示部(43)と、
を備えたことを特徴とする請求項1に記載の作業車両の制御システム。
A plurality of the work vehicles (1),
A vehicle identification mark (22) attached to each work vehicle (1) and different for each work vehicle (1);
A process storage means (CB16) for storing information on a preset work process for each work vehicle (1),
An imaging member (37) for imaging the vehicle identification mark (22);
Vehicle identification means (CB15) for identifying the work vehicle (1) based on the captured image of the vehicle identification mark (22) captured by the imaging member (37);
A display unit (43) for displaying an image based on a work process corresponding to the specified work vehicle (1);
The control system for a work vehicle according to claim 1 , further comprising:
前記無人航空機(31)を遠隔操作する操作部(44,46)と、
前記操作部(44,46)の操作に基づいて飛行するマニュアル操作モードと、前記自律制御により飛行する自律制御モードと、を切り替え可能な前記無人航空機(31)と、
を備えたことを特徴とする請求項1または2に記載の作業車両の制御システム。
An operation unit (44, 46) for remotely operating the unmanned aerial vehicle (31),
An unmanned aerial vehicle (31) capable of switching between a manual operation mode for flying based on an operation of the operation section (44, 46) and an autonomous control mode for flying by the autonomous control;
The control system for a work vehicle according to claim 1, further comprising:
自律制御により走行作業をする前記作業車両(1)であって、前記車両測位手段(CC4)の測位結果に基づいて、走行方向を制御する前記作業車両(1)、
を備えたことを特徴とする請求項1ないしのいずれか1項に記載の作業車両の制御システム。
The working vehicle (1) performing traveling work by autonomous control, wherein the working vehicle (1) controls a traveling direction based on a positioning result of the vehicle positioning means (CC4),
The control system for a work vehicle according to any one of claims 1 to 3 , further comprising:
JP2016097996A 2016-05-16 2016-05-16 Work vehicle control system Active JP6707984B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016097996A JP6707984B2 (en) 2016-05-16 2016-05-16 Work vehicle control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016097996A JP6707984B2 (en) 2016-05-16 2016-05-16 Work vehicle control system

Publications (2)

Publication Number Publication Date
JP2017207815A JP2017207815A (en) 2017-11-24
JP6707984B2 true JP6707984B2 (en) 2020-06-10

Family

ID=60417069

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016097996A Active JP6707984B2 (en) 2016-05-16 2016-05-16 Work vehicle control system

Country Status (1)

Country Link
JP (1) JP6707984B2 (en)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7023492B2 (en) * 2017-12-02 2022-02-22 学校法人早稲田大学 Follow-up image presentation system for moving objects
JP6875269B2 (en) * 2017-12-22 2021-05-19 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Information processing equipment, flight control instruction method, program, and recording medium
JP7003699B2 (en) * 2018-01-31 2022-01-21 井関農機株式会社 Field work vehicle management system
CN108427433B (en) * 2018-02-05 2021-04-16 中山大学 Unmanned aerial vehicle quantity optimization method for cooperative spraying of medicine by formation of multiple plant protection unmanned aerial vehicles
JP7003798B2 (en) * 2018-03-29 2022-01-21 井関農機株式会社 Field work vehicle management system
JP7006449B2 (en) * 2018-03-29 2022-01-24 井関農機株式会社 Work vehicle management system
JP6973889B2 (en) * 2018-04-10 2021-12-01 株式会社クボタ Work equipment monitoring system
JP7059831B2 (en) * 2018-06-29 2022-04-26 井関農機株式会社 Field work machine
US11131614B2 (en) * 2018-07-18 2021-09-28 Caterpillar Paving Products Inc. Autonomous compaction testing systems and methods
CN110825102A (en) * 2018-08-10 2020-02-21 宝沃汽车(中国)有限公司 Method and device for controlling unmanned aerial vehicle based on vehicle seat, storage medium and vehicle
KR101957958B1 (en) * 2018-08-28 2019-03-14 주식회사 에이엠 특장 Safety apparatus of a trash truck using a drone
US11995995B2 (en) 2018-09-04 2024-05-28 Sony Corporation Information processing device, information processing method, program, and mobile device
CN111142552A (en) * 2018-11-06 2020-05-12 宝沃汽车(中国)有限公司 Method and device for controlling unmanned aerial vehicle, storage medium and vehicle
CN109343567A (en) * 2018-11-06 2019-02-15 深圳市翔农创新科技有限公司 The accurate operating system of plant protection drone and method
JP2022068886A (en) * 2018-12-05 2022-05-11 株式会社ナイルワークス Drone system
WO2020116341A1 (en) * 2018-12-05 2020-06-11 株式会社ナイルワークス Drone system
JP2022107078A (en) * 2019-02-08 2022-07-21 株式会社ナイルワークス Drone system
JP7242077B2 (en) * 2019-02-08 2023-03-20 株式会社ナイルワークス Drone system, drone system control method, drone system control program, and control device
JP2022107079A (en) * 2019-02-08 2022-07-21 株式会社ナイルワークス Drone system
CN113412053B (en) * 2019-02-12 2023-04-04 株式会社尼罗沃克 Unmanned aerial vehicle system, control method of unmanned aerial vehicle system, and computer-readable recording medium
JP6680450B1 (en) * 2019-02-22 2020-04-15 三菱ロジスネクスト株式会社 Unmanned aerial vehicle power supply system and unmanned power supply vehicle
JP7043471B2 (en) * 2019-09-30 2022-03-29 日立建機株式会社 Work machine
JP7472013B2 (en) * 2020-12-29 2024-04-22 株式会社クボタ Agricultural machines
JP7538716B2 (en) 2020-12-29 2024-08-22 株式会社クボタ Agricultural machinery
AU2021412656A1 (en) * 2020-12-29 2023-07-06 Kubota Corporation Agricultural machine
CN113359700B (en) * 2021-05-08 2022-12-20 安徽泗州拖拉机制造有限公司 Intelligent operation system of unmanned tractor based on 5G
JP7414772B2 (en) * 2021-06-04 2024-01-16 プライムプラネットエナジー&ソリューションズ株式会社 Method and device for measuring displacement of object

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3656332B2 (en) * 1996-08-28 2005-06-08 独立行政法人農業・生物系特定産業技術研究機構 Unmanned work method by unmanned working vehicle
JP2005207862A (en) * 2004-01-22 2005-08-04 Fuji Heavy Ind Ltd Target position information acquiring system and target position information acquiring method

Also Published As

Publication number Publication date
JP2017207815A (en) 2017-11-24

Similar Documents

Publication Publication Date Title
JP6707984B2 (en) Work vehicle control system
JP6594805B2 (en) Work vehicle
EP3392801A1 (en) Systems and methods for driver assistance
WO2019158261A1 (en) Vehicle control system and control method
CN113261274B (en) Image processing method and related terminal device
JP5366711B2 (en) Semi-autonomous vehicle remote control system
CN111532257A (en) Method and system for compensating for vehicle calibration errors
JP6888340B2 (en) Work site map data creation device for agricultural work vehicles
CN110023144A (en) Gondola for automatic driving vehicle sensor connects
JP7003699B2 (en) Field work vehicle management system
CN106660584A (en) Method and device for moving a vehicle into a target position
JP7142597B2 (en) Running area shape registration system
JP2008074275A (en) Operation assistant device, operation assistant system and operation assistant method
JP2013033379A (en) Remote control method and remote control system
JP2017056903A (en) Control system, control method and control program for unmanned flight body
CN115698637B (en) Method and system for performing inter-track re-linearization of an evolving reference path with respect to an autonomous vehicle
CN110901315A (en) Trailer position, heading angle and level measurement using intelligent device
JP2017011614A (en) Driving support control device
CN108458712A (en) Unmanned trolley navigation system and air navigation aid, unmanned trolley
CN110850864A (en) System and method for trailer height adjustment
CN212950462U (en) Unmanned system and vehicle
WO2018150492A1 (en) Image display method, image display system, flying object, program, and recording medium
JP7006449B2 (en) Work vehicle management system
JP7003798B2 (en) Field work vehicle management system
JP2017010445A (en) Driving support control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200504

R150 Certificate of patent or registration of utility model

Ref document number: 6707984

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150