JP7003699B2 - Field work vehicle management system - Google Patents

Field work vehicle management system Download PDF

Info

Publication number
JP7003699B2
JP7003699B2 JP2018015563A JP2018015563A JP7003699B2 JP 7003699 B2 JP7003699 B2 JP 7003699B2 JP 2018015563 A JP2018015563 A JP 2018015563A JP 2018015563 A JP2018015563 A JP 2018015563A JP 7003699 B2 JP7003699 B2 JP 7003699B2
Authority
JP
Japan
Prior art keywords
vehicle
work vehicle
information
drone
tractor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018015563A
Other languages
Japanese (ja)
Other versions
JP2019133441A (en
Inventor
浩史 加茂田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Iseki and Co Ltd
Original Assignee
Iseki and Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iseki and Co Ltd filed Critical Iseki and Co Ltd
Priority to JP2018015563A priority Critical patent/JP7003699B2/en
Publication of JP2019133441A publication Critical patent/JP2019133441A/en
Application granted granted Critical
Publication of JP7003699B2 publication Critical patent/JP7003699B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Selective Calling Equipment (AREA)

Description

本発明は、圃場で走行しながら作業を行う作業車両の管理システムに関する。 The present invention relates to a work vehicle management system for working while traveling in a field.

重機等の移動機器に追従して移動機器の上空を飛行可能な飛行体と、飛行体に搭載したカメラ等の周囲状況検出手段と、移動機器に搭載または遠隔地に設置され周囲状況検出手段からの検出データを表示する表示手段を備えることにより、移動機器の振動等の影響等を受けることなく、移動機器の周囲を精度よく表示する技術が公知である(例えば、特許文献1)。 From an air vehicle that can fly over mobile equipment by following mobile equipment such as heavy equipment, an ambient condition detection means such as a camera mounted on the air vehicle, and an ambient condition detection means mounted on the mobile equipment or installed in a remote location. A technique for accurately displaying the surroundings of a mobile device without being affected by vibration of the mobile device or the like by providing a display means for displaying the detection data of the above is known (for example, Patent Document 1).

特開2016-181119号公報Japanese Unexamined Patent Publication No. 2016-181119

しかし、上記の技術では、上空から移動機器の周囲の映像をできるが、カメラ映像では確認できない情報を同時に取得できなかった。本発明では、作業車両の周辺の状況を目視しながら車両に関する情報を同時に取得可能な作業車両の管理システムを提供することを目的とする。 However, with the above technology, although it is possible to obtain an image of the surroundings of a mobile device from the sky, it is not possible to simultaneously acquire information that cannot be confirmed by a camera image. An object of the present invention is to provide a work vehicle management system capable of simultaneously acquiring information about a vehicle while visually observing the situation around the work vehicle.

本発明は、上記課題を解決すべく次のような特徴を有する。 The present invention has the following features in order to solve the above problems.

第1の発明は、自律制御により予定案内経路(R2)に沿って圃場を走行する作業車両(1)と、カメラ(37)を搭載し、前記作業車両(1)に対応して空中を飛行する無人航空機(31)と、前記作業車両(1)と前記無人航空機(31)と通信する携帯端末装置(41)とを備え、前記作業車両は車両識別情報(ID)と、車速センサ(SN11)と、PTO回転数センサ(SN14)を有し、前記携帯端末装置(41)は表示部(43)に前記無人航空機(31)から受信したカメラ映像(43a)を表示するとともに、取得した車両識別情報(ID)に対応する作業車両(1)から取得した車速情報(51)およびPTO回転情報(52)を前記カメラ映像(43a)に重ねて表示することを特徴とする。 The first invention is equipped with a work vehicle (1) traveling in a field along a planned guide route (R2) by autonomous control and a camera (37), and flies in the air corresponding to the work vehicle (1). The unmanned aerial vehicle (31) is provided with a mobile terminal device (41) that communicates with the work vehicle (1) and the unmanned aerial vehicle (31), and the work vehicle has a vehicle identification information (ID) and a vehicle speed sensor (SN11). ) And the PTO rotation speed sensor (SN14), the mobile terminal device (41) displays the camera image (43a) received from the unmanned aerial vehicle (31) on the display unit (43), and the acquired vehicle. It is characterized in that the vehicle speed information (51) and the PTO rotation information (52) acquired from the work vehicle (1) corresponding to the identification information (ID) are superimposed and displayed on the camera image (43a) .

これにより、車両周辺を上空から撮影した映像に車両情報(50)を重ねて表示するため、作業車両(1)の周辺の状況を目視しながら車両に関する情報を同時に取得できる。 As a result, since the vehicle information (50) is superimposed and displayed on the image taken from the sky around the vehicle, it is possible to simultaneously acquire the information about the vehicle while visually observing the situation around the work vehicle (1).

また、撮影対象の作業車両(1)の車両情報(50)を取得して携帯端末装置(41)の表示部(43)に表示されるカメラ映像(43a)に重ねて表示するので、作業車両(1)の周辺の状況を目視しながら車両に関する情報を同時に取得可能となる。 Further , since the vehicle information (50) of the work vehicle (1) to be photographed is acquired and displayed on the camera image (43a) displayed on the display unit (43) of the mobile terminal device (41), the work vehicle is displayed. Information about the vehicle can be acquired at the same time while visually observing the situation around (1).

また、作業車両(1)の車速情報(51)とPTO回転数情報(52)を取得して携帯端末装置(41)の表示部(43)にカメラ映像(43a)に重ねて表示するので、作業車両(1)の周辺の状況を目視しながら車両の車速とPTO回転数に関する情報を同時に取得可能となる。 Further , since the vehicle speed information (51) and the PTO rotation speed information (52) of the work vehicle (1) are acquired and displayed on the display unit (43) of the mobile terminal device (41) on the camera image ( 43a ). It is possible to simultaneously acquire information on the vehicle speed and the PTO rotation speed while visually observing the surrounding conditions of the work vehicle (1).

の発明は、第1の特徴を有する作業車両の管理システム(S)において、前記作業車両(1)は選択された変速段を検出する変速センサ(SN13)を有し、前記携帯端末装置(41)の前記表示部(43)に表示されるカメラ映像に変速段情報(53)を重ねて表示することを特徴とする。 According to the second aspect of the present invention, in the work vehicle management system (S) having the first feature, the work vehicle (1) has a shift sensor (SN13) for detecting a selected shift stage, and the portable terminal device. It is characterized in that the shift stage information (53) is superimposed and displayed on the camera image displayed on the display unit (43) of (41).

これにより、作業車両(1)の変速段情報(53)を取得して携帯端末装置(41)の表示部(43)にカメラ映像(43a)と同時に表示するので、作業車両(1)の周辺の状況を目視しながら車両の変速段に関する情報を同時に取得可能となる。 As a result, the shift stage information (53) of the work vehicle (1) is acquired and displayed on the display unit (43) of the mobile terminal device (41) at the same time as the camera image (43a). It is possible to simultaneously acquire information on the gear shift of the vehicle while visually observing the situation.

以上の発明の特徴を有する作業車両の管理システムによれば、作業車両の周辺の状況を目視しながら車両に関する情報を同時に取得できる。 According to the work vehicle management system having the characteristics of the above invention, it is possible to simultaneously acquire information about the vehicle while visually observing the situation around the work vehicle.

本発明の実施例の作業車両システムの全体説明図である。It is an overall explanatory view of the work vehicle system of the Example of this invention. 図1のトラクタを上方から見た場合の説明図である。It is explanatory drawing when the tractor of FIG. 1 is seen from above. 本発明の実施例の作業車両の制御システムが有する機能ブロック図の説明図である。It is explanatory drawing of the functional block diagram which the control system of the work vehicle of an Example of this invention has. コントローラのタッチパネルに表示された画像の説明図であり、ドローンが撮像した画像の説明図である。It is explanatory drawing of the image displayed on the touch panel of a controller, and is explanatory drawing of the image which the drone captured. 実施例の作業車両の制御システムの作用説明図である。It is operation explanatory drawing of the control system of the work vehicle of an Example.

図1は本発明の実施例の作業車両システムの全体説明図である。 FIG. 1 is an overall explanatory view of a work vehicle system according to an embodiment of the present invention.

以下、図面に基づき、本発明の好ましい実施の形態について説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

なお、各図において、発明の説明に不要な部材は適宜図示や説明を省略している。また、本明細書では作業車両の前進方向を向いて左右方向をそれぞれ左、右と言い、前進方向を前、後退方向を後と言うことにする。 In each figure, the members unnecessary for the description of the invention are not shown or described as appropriate. Further, in the present specification, the left and right directions facing the forward direction of the work vehicle are referred to as left and right, respectively, the forward direction is referred to as front, and the backward direction is referred to as rear.

図1において、作業車両の管理システムSは、作業車両の一例として、農業機械のトラクタ1を有する。トラクタ1は、機体の前後部に前輪2,2と後輪3,3とを備え、機体前部のエンジンルーム4内に搭載したエンジンEの回転動力をトランスミッションケース5内の変速装置によって適宜減速して、これら前輪2,2と後輪3,3に伝えるように構成している。前記エンジンルーム4はボンネット6で覆う構成である。また、機体後部にロータリなどの作業機200を装着し、PTO軸で作業機を駆動する構成としている。 In FIG. 1, the work vehicle management system S has an agricultural machine tractor 1 as an example of a work vehicle. The tractor 1 is provided with front wheels 2 and 2 and rear wheels 3 and 3 in the front and rear portions of the airframe, and appropriately decelerates the rotational power of the engine E mounted in the engine room 4 in the front part of the airframe by a transmission device in the transmission case 5. Then, it is configured to transmit to these front wheels 2, 2 and rear wheels 3, 3. The engine room 4 is covered with a bonnet 6. Further, a work machine 200 such as a rotary is mounted on the rear part of the machine body, and the work machine is driven by the PTO shaft.

機体の上部には、キャビン7が支持されている。キャビン7の内部では、トランスミッションケース5の上部位置に運転座席8が配置され、この運転座席8の前方には、ステアリングハンドル11や、駐車ブレーキ(図示せず)や作業機の回転速度を変更するPTO変速レバー(図示せず)等を配置して構成されている。また、運転座席8の前方には、速度メータ(図示せず)や、操作用の各種スイッチ(図示せず)、外部との通信用の通信ユニット(図示せず)などが配置されている。運転座席8の前方下部には、クラッチペダル12や、アクセルペダル13が配置されている。 A cabin 7 is supported on the upper part of the fuselage. Inside the cabin 7, the driver's seat 8 is arranged at the upper position of the transmission case 5, and in front of the driver's seat 8, the steering handle 11, the parking brake (not shown), and the rotation speed of the work equipment are changed. It is configured by arranging a PTO shift lever (not shown) and the like. Further, in front of the driver's seat 8, a speed meter (not shown), various switches for operation (not shown), a communication unit for communication with the outside (not shown), and the like are arranged. A clutch pedal 12 and an accelerator pedal 13 are arranged in the lower front portion of the driver's seat 8.

図2において、キャビン7のルーフ7a上面には、車両の測位装置の一例として、測位衛星から信号を受信して測位を行うGPSユニット21が配置されている。GPSユニット21は、車幅方向中央部に対応して配置されている。GPSユニット21の右側には、車両認識手段の一例としての一例としての数字マーク22が付されている。なお、車両識別マークとして数字マーク22を例示したが、図形マークとする構成も可能である。 In FIG. 2, a GPS unit 21 that receives a signal from a positioning satellite and performs positioning is arranged on the upper surface of the roof 7a of the cabin 7 as an example of a vehicle positioning device. The GPS unit 21 is arranged corresponding to the central portion in the vehicle width direction. On the right side of the GPS unit 21, a number mark 22 is attached as an example of the vehicle recognition means. Although the number mark 22 is exemplified as the vehicle identification mark, it is also possible to use it as a graphic mark.

また、前記GPSユニット21に対して、後部には車両位置特定マーク23が付されている。実施例の車両位置特定マーク23は、長方形部23aと、三角形部23bとを有する。実施例では、長方形部23aは、黒の右前部23a1と、白の左前部23a2と、黒の左後部23a3と、白の右後部23a4とで構成されており、白黒の市松模様状に構成されている。また、三角形部23bは、右前部23a1と左前部23a2の中央前方に付されており、前方が鋭角状に形成されている。 Further, a vehicle position specifying mark 23 is attached to the rear of the GPS unit 21. The vehicle position specifying mark 23 of the embodiment has a rectangular portion 23a and a triangular portion 23b. In the embodiment, the rectangular portion 23a is composed of a black right front portion 23a1, a white left front portion 23a2, a black left rear portion 23a3, and a white right rear portion 23a4, and is configured in a black and white checkered pattern. ing. Further, the triangular portion 23b is attached to the front center of the right front portion 23a1 and the left front portion 23a2, and the front portion is formed in an acute angle shape.

図1において、作業車両の制御システムSは、無人航空機の一例としてのドローン31を有する。実施例のドローン31は、制御部(図示せず)や、バッテリー(図示せず)、通信ユニット(図示せず)等が備えられた本体部32を有する。本体部32には、測位装置の一例として、測位衛星から信号を受信して測位を行う高精度GPSユニット33が支持されている。前記本体部32には、本体部から水平方向外側に向かって延びるアーム部34が支持されている。 In FIG. 1, the work vehicle control system S has a drone 31 as an example of an unmanned aerial vehicle. The drone 31 of the embodiment has a main body unit 32 provided with a control unit (not shown), a battery (not shown), a communication unit (not shown), and the like. As an example of the positioning device, the main body 32 supports a high-precision GPS unit 33 that receives a signal from a positioning satellite and performs positioning. The main body portion 32 is supported by an arm portion 34 extending from the main body portion toward the outside in the horizontal direction.

アーム部34の先端には、駆動源(図示せず)が配置されており、上下方向に延びる駆動軸には、回転翼36が支持されている。実施例では、アーム部34が十字方向に延びて、各アーム部34の先端には各回転翼36が支持されている。すなわち、実施例のドローン1は、いわゆる、クアドコプターとして構成されている。本体部32の下部には、撮像部材の一例としてのドローン31の下方を撮像する下方カメラ37が支持されている。また、本体部32の下部には、下方との距離を測定するレーダ38が支持されている。 A drive source (not shown) is arranged at the tip of the arm portion 34, and a rotary blade 36 is supported by a drive shaft extending in the vertical direction. In the embodiment, the arm portion 34 extends in the cross direction, and each rotary blade 36 is supported at the tip of each arm portion 34. That is, the drone 1 of the embodiment is configured as a so-called quadcopter. A lower camera 37 that images the lower part of the drone 31 as an example of the image pickup member is supported in the lower part of the main body portion 32. Further, a radar 38 for measuring the distance to the lower part is supported in the lower part of the main body portion 32.

作業車両の制御システムSは、携帯端末装置の一例としてのコントローラ41を有する。コントローラ41は、本体部の一例としてのタブレット端末部42を有する。タブレット端末部42は、制御部(図示せず)や、通信ユニット(図示せず)を有する。また、タブレット端末部42は、表示部の一例であり、入力部の一例としてのタッチパネル43を有する。タッチパネル43には、前記ドローン31の下方カメラ37のカメラ映像等が表示される。タブレット端末部42に対して左右には、操作部の一例としてのジョイスティック44,46が支持されている。左右のジョイスティック44,46が操作されることで、前記ドローン31を作業者が遠隔操作可能に構成されている。 The work vehicle control system S has a controller 41 as an example of a mobile terminal device. The controller 41 has a tablet terminal unit 42 as an example of the main body unit. The tablet terminal unit 42 has a control unit (not shown) and a communication unit (not shown). Further, the tablet terminal unit 42 is an example of a display unit, and has a touch panel 43 as an example of an input unit. On the touch panel 43, a camera image or the like of the lower camera 37 of the drone 31 is displayed. Joysticks 44 and 46 as an example of the operation unit are supported on the left and right sides of the tablet terminal unit 42. By operating the left and right joysticks 44 and 46, the drone 31 can be remotely controlled by an operator.

図3は本発明の実施例の作業車両の制御システムが有する機能ブロック図の説明図である。 FIG. 3 is an explanatory diagram of a functional block diagram included in the control system of the work vehicle according to the embodiment of the present invention.

図3において、実施例の作業車両の制御システムSは、ドローンの制御部CA、コントローラの制御部CB、トラクタの位置情報処理制御部CC、トラクタの車両制御部CDを有する。各制御部CA~CDは、外部との信号の入出力等を行う入出力インターフェース(I/O)、必要な処理を行うためのプログラムおよび情報等が記憶されたROM(リードオンリーメモリ)、必要なデータを一時的に記憶するためのRAM(ランダムアクセスメモリ)、ROM等に記憶されたプログラムに応じた処理を行うCPU(中央演算処理装置)、ならびに発振器等を有する小型情報処理装置、いわゆる、マイクロコンピュータにより構成されており、前記ROMやRAM、不揮発性メモリ等の記憶部材に記憶されたプログラムを実行することにより種々の機能を実現することができる。 In FIG. 3, the work vehicle control system S of the embodiment includes a drone control unit CA, a controller control unit CB, a tractor position information processing control unit CC, and a tractor vehicle control unit CD. Each control unit CA to CD has an input / output interface (I / O) for inputting / outputting signals to and from the outside, a ROM (read-only memory) in which programs and information for performing necessary processing are stored, and necessary. A small information processing device having a RAM (random access memory) for temporarily storing various data, a CPU (central processing unit) that performs processing according to a program stored in a ROM or the like, and an oscillator or the like, so-called It is composed of a microcomputer, and various functions can be realized by executing a program stored in a storage member such as the ROM, RAM, or non-volatile memory.

ここで、実施例のトラクタ1において、位置情報処理制御部CCと、車両制御部CDとは、いわゆる、ECU:Electronic Control Unitで構成されており、通信回線としてのCAN:Controller Area Networkで接続されている。CANには、外部メモリMeが接続されており、トラクタ1の制御部CC,CDが、外部メモリMeに対して互いにアクセス可能に構成されている。 Here, in the tractor 1 of the embodiment, the position information processing control unit CC and the vehicle control unit CD are configured by a so-called ECU: Electronic Control Unit, and are connected by a CAN: Controller Area Network as a communication line. ing. An external memory Me is connected to the CAN, and the control units CC and CD of the tractor 1 are configured to be accessible to each other to the external memory Me.

図3において、ドローンの制御部CAには、高精度GPSユニット33や、下方カメラ37、下方距離測定用のレーダ38、飛行状態センサSN1、通信ユニット(図示せず)などの出力信号が入力されている。 In FIG. 3, output signals of a high-precision GPS unit 33, a lower camera 37, a radar 38 for lower distance measurement, a flight state sensor SN1, a communication unit (not shown), and the like are input to the drone control unit CA. ing.

ここで、実施例の飛行状態センサSN1は、いわゆる、6軸ジャイロセンサにより構成されている。飛行状態センサSN1は、ドローン31に固定された3軸直交方向について、各軸方向の加速度と、各軸周りの角速度とを検出して、ドローン31の加速度や姿勢状態などの飛行状態を検出する。 Here, the flight state sensor SN1 of the embodiment is composed of a so-called 6-axis gyro sensor. The flight state sensor SN1 detects the acceleration in each axis direction and the angular velocity around each axis in the three-axis orthogonal directions fixed to the drone 31, and detects the flight state such as the acceleration and the attitude state of the drone 31. ..

実施例では、ドローンの姿勢状態は、角速度の時間積分により重力方向に対する各軸の回転角度として検出可能である。すなわち、重力方向(重力加速度方向)を基準とする各軸周りの回転角度により、ドローン31の姿勢状態を検出することが可能である。なお、実施例では、6軸ジャイロセンサの構成を例示するが、加速度を検出するセンサと角速度を検出するセンサとを、別々に設ける構成も可能である。また、制御部CAは、回転翼36のモータM1~M4の制御信号や、通信ユニットの制御信号などを出力している。 In the embodiment, the attitude state of the drone can be detected as the rotation angle of each axis with respect to the direction of gravity by time integration of the angular velocity. That is, it is possible to detect the posture state of the drone 31 by the rotation angle around each axis with respect to the gravity direction (gravitational acceleration direction). In the embodiment, the configuration of the 6-axis gyro sensor is illustrated, but it is also possible to separately provide the sensor for detecting the acceleration and the sensor for detecting the angular velocity. Further, the control unit CA outputs control signals of the motors M1 to M4 of the rotary blade 36, control signals of the communication unit, and the like.

図3において、位置情報処理制御部CCは、GPSユニット21や、通信ユニット(図示せず)などの出力信号が入力されている。また、位置情報処理制御部CCは、通信ユニットの制御信号などを出力している。 In FIG. 3, the position information processing control unit CC is input with output signals such as a GPS unit 21 and a communication unit (not shown). Further, the position information processing control unit CC outputs a control signal of the communication unit and the like.

図3において、位置情報処理制御部CCは、前記信号出力要素からの出力信号に応じた処理を実行して、前記制御要素に制御信号を出力する機能を有しおり、コントローラ41に記憶されている圃場情報や、作業工程の情報を取得して、外部メモリMeに記憶させる。 In FIG. 3, the position information processing control unit CC has a function of executing processing according to an output signal from the signal output element and outputting a control signal to the control element, which is stored in the controller 41. The field information and the work process information are acquired and stored in the external memory Me.

車両制御部CDは、車速センサSN11から車速情報、ハンドル切れ角センサSN12から前輪2,2の操舵角情報、変速センサSN13から変速段情報、PTO回転数センサSN14からPTO回転情報が入力されている。また車両制御部CDは、エンジンEや、ステアリングモータM11、変速装置HS、ブレーキシリンダBS、その他の図示しない制御要素に接続されている。 The vehicle control unit CD inputs vehicle speed information from the vehicle speed sensor SN11, steering angle information of the front wheels 2 and 2 from the steering wheel turning angle sensor SN12, shift stage information from the shift sensor SN13, and PTO rotation information from the PTO rotation speed sensor SN14. .. Further, the vehicle control unit CD is connected to the engine E, the steering motor M11, the transmission HS, the brake cylinder BS, and other control elements (not shown).

位置情報処理制御部CCと車両制御部はCDは有線接続により情報通信を行い、ドローン制御部CA、コントローラ制御部CB、車両制御部CDはそれぞれドローン通信ユニットAU、コントローラ通信ユニットBU、車両通信ユニットDUを有しており、相互に無線通信を行う。車両制御部CDは車両認識手段の一例としての車両識別情報IDを有しており、これをドローン制御部CAとコントローラ制御部CBが受信して撮影対象車両を認識できる。 In the position information processing control unit CC and the vehicle control unit, the CD communicates information via a wired connection, and the drone control unit CA, controller control unit CB, and vehicle control unit CD are the drone communication unit AU, controller communication unit BU, and vehicle communication unit, respectively. It has a DU and communicates wirelessly with each other. The vehicle control unit CD has a vehicle identification information ID as an example of the vehicle recognition means, and the drone control unit CA and the controller control unit CB can receive the vehicle identification information ID and recognize the vehicle to be photographed.

図4はコントローラのタッチパネルに表示された画像の説明図であり、ドローンが撮像した画像の説明図である。ドローン31の下方カメラ37のカメラ映像43aがタッチパネル43に表示する。図4において、実施例では、前記カメラ映像43aには、ドローン31の下方に対応する領域に枠画像43b,43cを重ねて表示する。ここで、枠画像43b,43cは、ドローン31が、トラクタ1の上方の予め設定された基準位置に移動した場合に、マーク23,22が内側となる位置に設定されている。 FIG. 4 is an explanatory diagram of an image displayed on the touch panel of the controller, and is an explanatory diagram of an image captured by the drone. The camera image 43a of the lower camera 37 of the drone 31 is displayed on the touch panel 43. In FIG. 4, in the embodiment, the frame images 43b and 43c are superimposed and displayed on the region corresponding to the lower part of the drone 31 on the camera image 43a. Here, the frame images 43b and 43c are set at positions where the marks 23 and 22 are inside when the drone 31 moves to a preset reference position above the tractor 1.

コントローラ41の制御部CBは、下方カメラ37のカメラ映像43aを画像処理して、数字マーク22と、車両位置特定マーク23と、を検出する。数字マーク22を検出することによりコントローラ41の制御部CBが撮影対象車両を認識することができる。 The control unit CB of the controller 41 processes the camera image 43a of the lower camera 37 to detect the number mark 22 and the vehicle position specifying mark 23. By detecting the number mark 22, the control unit CB of the controller 41 can recognize the vehicle to be photographed.

コントローラ41の制御部CBは、カメラ映像43aを画像処理して、撮像されたマーク23の形状に基づきトラクタ1の姿勢変化を検出する。すなわち、図2において、前方部23a1,23a2が、後方部23a3,23a4よりも大きく撮像された場合には、トラクタ1が傾斜面を上っている姿勢と判別可能である。また、後方部23a3,23a4が、前方部23a1,23a2よりも大きく撮像された場合には、トラクタ1が傾斜面を下っている姿勢と判別可能である。 The control unit CB of the controller 41 performs image processing on the camera image 43a and detects a change in the posture of the tractor 1 based on the shape of the captured mark 23. That is, in FIG. 2, when the front portions 23a1, 23a2 are imaged larger than the rear portions 23a3, 23a4, it can be determined that the tractor 1 is in a posture of climbing an inclined surface. Further, when the rear portions 23a3 and 23a4 are imaged larger than the front portions 23a1,23a2, it can be determined that the tractor 1 is in a posture of descending the inclined surface.

さらに、右側部23a1,23a4が左側部23a2,23a3よりも大きく撮像された場合には、トラクタ1が左下に傾斜している姿勢と判別可能である。また、左側部23a2,23a3が右側部23a1,23a4よりも大きく撮像された場合には、トラクタ1が右下に傾斜している姿勢と判別可能である。すなわち、カメラ映像43a上の長方形部23a1~23a4間の面積の大小に応じてトラクタ1の傾斜姿勢を判別可能である。 Further, when the right side portions 23a1, 23a4 are imaged larger than the left side portions 23a2, 23a3, it can be determined that the tractor 1 is tilted to the lower left. Further, when the left side portions 23a2 and 23a3 are imaged larger than the right side portions 23a1,23a4, it can be determined that the tractor 1 is tilted to the lower right. That is, the tilted posture of the tractor 1 can be discriminated according to the size of the area between the rectangular portions 23a1 to 23a4 on the camera image 43a.

コントローラ41の制御部CBは、タッチパネル43にドローン制御部CAから受信したカメラ37の撮影画像43aを表示するとともに、認識している撮影対象車両の車両制御部CDから受信した車速情報51、PTO回転情報52、変速段情報53を含む車両情報50を撮影画像43aに重ねて表示する。 The control unit CB of the controller 41 displays the captured image 43a of the camera 37 received from the drone control unit CA on the touch panel 43, and the vehicle speed information 51 and PTO rotation received from the vehicle control unit CD of the recognition target vehicle. The vehicle information 50 including the information 52 and the shift stage information 53 is superimposed and displayed on the captured image 43a.

これにより、タッチパネル43に作業車両1の周辺の状況を目視確認できるカメラ映像と同時に、映像からだけでは把握することが困難な車速情報、PTO回転情報、変速情報を表示できるため、作業車両の周辺の状況を目視しながら車両に関する情報を同時に取得可能となる。 As a result, the touch panel 43 can display the vehicle speed information, the PTO rotation information, and the shift information, which are difficult to grasp only from the image, at the same time as the camera image that can visually confirm the situation around the work vehicle 1, so that the area around the work vehicle can be displayed. It is possible to acquire information about the vehicle at the same time while visually observing the situation.

また、撮影画像43aの数字マーク22または車両識別情報IDにより撮影対象車両を認識して車両情報を表示するため、撮影の対象車両と表示された車両情報の対象車両とが異なる不具合を回避することができる。 Further, since the vehicle to be photographed is recognized by the numerical mark 22 of the photographed image 43a or the vehicle identification information ID and the vehicle information is displayed, it is necessary to avoid a problem that the vehicle to be photographed and the vehicle to be displayed in the vehicle information are different from each other. Can be done.

図5は実施例の作業車両の制御システムの作用説明図である。図5において、前記構成を備えた実施例の作業車両の制御システムSでは、ドローン31の自律制御モードに設定されると、ドローン31が上昇して下方カメラ37で下方を撮像する。下方カメラ37で撮像されたカメラ映像43aは画像処理されて、トラクタ1のマーク22,23が検出されると、検出された数字マーク22に基づいて作業車両が特定される。また、検出された車両位置特定マーク23に基づいてトラクタ1の向きや移動量などが演算される。 FIG. 5 is an operation explanatory diagram of the control system of the work vehicle of the embodiment. In FIG. 5, in the work vehicle control system S of the embodiment having the above configuration, when the drone 31 is set to the autonomous control mode, the drone 31 rises and the lower camera 37 takes an image of the lower part. The camera image 43a captured by the lower camera 37 is image-processed, and when the marks 22 and 23 of the tractor 1 are detected, the work vehicle is specified based on the detected number marks 22. Further, the direction and the amount of movement of the tractor 1 are calculated based on the detected vehicle position specifying mark 23.

そして、向きや移動量に基づいてドローン31は、トラクタ1の走行に追従するように飛行制御される。よって、実施例の作業車両の制御システムSでは、自律制御により、ドローン31は、トラクタ1の位置に対応して飛行する。 Then, the drone 31 is flight-controlled so as to follow the running of the tractor 1 based on the direction and the amount of movement. Therefore, in the work vehicle control system S of the embodiment, the drone 31 flies corresponding to the position of the tractor 1 by autonomous control.

ここで、実施例の作業車両の制御システムSでは、トラクタ1が自律制御により予定案内経路R2に沿って移動する場合に、GPSユニット21の測位結果に基づいて、トラクタ1の位置Tαが測位される。例えば、作業者がトラクタ1を作業起点P3まで運転して移動させる場合でも、進入案内経路R1と、トラクタ1の位置Tβとを作業者が参照して、精度良くトラクタ1を作業起点P3まで運転し易くなっている。 Here, in the work vehicle control system S of the embodiment, when the tractor 1 moves along the scheduled guide path R2 by autonomous control, the position Tα of the tractor 1 is positioned based on the positioning result of the GPS unit 21. To. For example, even when the operator drives the tractor 1 to the work starting point P3 and moves the tractor 1, the operator refers to the approach guide path R1 and the position Tβ of the tractor 1 and drives the tractor 1 to the working starting point P3 with high accuracy. It is easy to do.

また、実施例では、ドローン31が基準位置に到達したと判別された場合に、ドローン31でトラクタ1の位置Tαが測位される。さらに、実施例では、ドローン31の自律制御に使用される画像処理は、ドローン31の制御部CAではなく、コントローラ41の制御部CBで行われる。よって、ドローン31の制御部CAで画像処理する場合に比べて、ドローン31の制御部CAの処理能力を低くすることが可能であり、構成を簡素にし易い。したがって、実施例では、ドローン31を軽量化し易くなっている。 Further, in the embodiment, when it is determined that the drone 31 has reached the reference position, the position Tα of the tractor 1 is positioned by the drone 31. Further, in the embodiment, the image processing used for the autonomous control of the drone 31 is performed not by the control unit CA of the drone 31 but by the control unit CB of the controller 41. Therefore, it is possible to reduce the processing capacity of the control unit CA of the drone 31 as compared with the case of image processing by the control unit CA of the drone 31, and it is easy to simplify the configuration. Therefore, in the embodiment, it is easy to reduce the weight of the drone 31.

また、ドローン31は上下方向が重力方向に対して傾斜し過ぎないように姿勢制御される。よって、下方カメラ37は重力方向下方を向いた状態で保持され易い。したがって、撮像された車両識別マーク23の形状、すなわち、長方形部23aの各部23a1~23a4の面積比に応じて、トラクタ1の姿勢を検出することが可能である。 Further, the attitude of the drone 31 is controlled so that the vertical direction does not tilt too much with respect to the gravity direction. Therefore, the lower camera 37 is likely to be held in a state of facing downward in the direction of gravity. Therefore, it is possible to detect the posture of the tractor 1 according to the shape of the captured vehicle identification number 23, that is, the area ratio of each portion 23a1 to 23a4 of the rectangular portion 23a.

また、実施例では、ドローン31に備えられたレーダ38で、トラクタ1に対する高さを測定して、ドローン31とトラクタ1との間の高さが一定となるようにドローン31が制御される。よって、ドローン31とトラクタ1の位置関係が安定し易くなっている。 Further, in the embodiment, the radar 38 provided in the drone 31 measures the height with respect to the tractor 1, and the drone 31 is controlled so that the height between the drone 31 and the tractor 1 becomes constant. Therefore, the positional relationship between the drone 31 and the tractor 1 is likely to be stable.

なお、実施例ではレーダ38により、トラクタ1のキャビン7に対する高さを測定する構成を例示したが、これに限定されない。例えば、レーダ38に替えて、ステレオ撮像可能なカメラを設け、トラクタ1やマーク23のステレオ視に基づいて、トラクタ1とドローン31の距離を測定する構成が可能である。また、カメラのオートフォーカス機構により、車両位置マークにピントがあった焦点距離に基づいて、ドローン31とトラクタ1の距離を測定することも可能である。なお、下方カメラ37やレーダ38に替えて、高度センサに基づいて、ドローン31の高度を検出する構成も可能である。 In the embodiment, a configuration in which the height of the tractor 1 with respect to the cabin 7 is measured by the radar 38 is illustrated, but the present invention is not limited to this. For example, instead of the radar 38, a camera capable of stereo imaging can be provided, and the distance between the tractor 1 and the drone 31 can be measured based on the stereo vision of the tractor 1 and the mark 23. It is also possible to measure the distance between the drone 31 and the tractor 1 based on the focal length in which the vehicle position mark is in focus by the autofocus mechanism of the camera. Instead of the lower camera 37 and the radar 38, it is possible to detect the altitude of the drone 31 based on the altitude sensor.

さらに、実施例のトラクタ1のCANには、各制御部CC,CDでアクセス可能な外部メモリMeが接続されており、外部メモリMeに圃場情報や、作業工程の情報、作成された経路R1,R2の情報などが記憶される。ここで、圃場情報などはデータ量が大きくなり易い。よって、各制御部CC,CDの内部メモリに圃場情報などを保持する構成では、各制御部CC,CDが必要な情報にアクセスする場合に、CANを流れるデータ通信量が増加し易い。これに対して、外部メモリに保持される実施例では、制御部CC,CD間の相互通信が不要となり易く、CANの負荷を減らし易くなっている。したがって、実施例のCANでは通信遅延などが生じ難くなっている。 Further, an external memory Me accessible by each control unit CC and CD is connected to the CAN of the tractor 1 of the embodiment, and the field information, work process information, and the created route R1 are connected to the external memory Me. Information such as R2 is stored. Here, the amount of data such as field information tends to be large. Therefore, in a configuration in which field information or the like is stored in the internal memory of each control unit CC or CD, the amount of data communication flowing through the CAN tends to increase when each control unit CC or CD accesses necessary information. On the other hand, in the embodiment held in the external memory, mutual communication between the control unit CC and the CD tends to be unnecessary, and the load on the CAN can be easily reduced. Therefore, in the CAN of the embodiment, communication delay and the like are less likely to occur.

以上の構成により、本実施例に係る作業車両の管理システムは作業車両の周辺の状況を目視しながら車両に関する情報を同時に取得できる。 With the above configuration, the work vehicle management system according to the present embodiment can simultaneously acquire information about the vehicle while visually observing the situation around the work vehicle.

1 トラクタ(作業車両)
22 数字マーク(車両認識手段)
31 ドローン(無人航空機)
37 カメラ
41 コントローラ(携帯端末装置)
42 タブレット端末部
43 タッチパネル(表示部)
43a カメラ映像
50 車両情報
51 車速情報
52 PTO回転情報
53 変速段情報
ID 車両識別情報
SN11 車速センサ
SN13 変速センサ
SN14 PTO回転数センサ
1 Tractor (working vehicle)
22 Number mark (vehicle recognition means)
31 Drone (unmanned aerial vehicle)
37 Camera 41 Controller (mobile terminal device)
42 Tablet terminal 43 Touch panel (display)
43a Camera image 50 Vehicle information 51 Vehicle speed information 52 PTO rotation information 53 Shift stage information ID Vehicle identification information SN11 Vehicle speed sensor SN13 Speed change sensor SN14 PTO rotation speed sensor

Claims (2)

自律制御により予定案内経路に沿って圃場を走行する作業車両と、
カメラを搭載し、前記作業車両に対応して空中を飛行する無人航空機と、
前記作業車両と前記無人航空機と通信する携帯端末装置とを備え、
前記作業車両は車両識別情報と、車速センサと、PTO回転数センサを有し、
前記携帯端末装置は表示部に前記無人航空機から受信したカメラ映像を表示するとともに、取得した車両識別情報に対応する作業車両から取得した車速情報およびPTO回転情報を前記カメラ映像に重ねて表示する、
圃場作業車両の管理システム。
A work vehicle that travels in the field along the planned guidance route by autonomous control ,
An unmanned aerial vehicle equipped with a camera and flying in the air corresponding to the work vehicle,
A mobile terminal device that communicates with the work vehicle and the unmanned aerial vehicle.
The work vehicle has vehicle identification information, a vehicle speed sensor, and a PTO rotation speed sensor.
The mobile terminal device displays a camera image received from the unmanned aerial vehicle on a display unit, and displays vehicle speed information and PTO rotation information acquired from a work vehicle corresponding to the acquired vehicle identification information superimposed on the camera image .
Field work vehicle management system.
前記作業車両は選択された変速段を検出する変速センサを有し、
前記携帯端末装置の前記表示部に表示される前記カメラ映像に変速段情報を重ねて表示する
請求項1に記載の圃場作業車両の管理システム。
The work vehicle has a shift sensor that detects the selected shift stage.
The shift stage information is superimposed and displayed on the camera image displayed on the display unit of the mobile terminal device.
The management system for field work vehicles according to claim 1.
JP2018015563A 2018-01-31 2018-01-31 Field work vehicle management system Active JP7003699B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018015563A JP7003699B2 (en) 2018-01-31 2018-01-31 Field work vehicle management system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018015563A JP7003699B2 (en) 2018-01-31 2018-01-31 Field work vehicle management system

Publications (2)

Publication Number Publication Date
JP2019133441A JP2019133441A (en) 2019-08-08
JP7003699B2 true JP7003699B2 (en) 2022-01-21

Family

ID=67546248

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018015563A Active JP7003699B2 (en) 2018-01-31 2018-01-31 Field work vehicle management system

Country Status (1)

Country Link
JP (1) JP7003699B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7440272B2 (en) 2020-01-15 2024-02-28 住友重機械工業株式会社 Aircraft, 3D position/attitude measurement device, and 3D position/attitude measurement method
JP7463158B2 (en) * 2020-03-26 2024-04-08 住友重機械工業株式会社 Work Management System
WO2022145331A1 (en) 2020-12-29 2022-07-07 株式会社クボタ Agricultural machine
JP7414772B2 (en) * 2021-06-04 2024-01-16 プライムプラネットエナジー&ソリューションズ株式会社 Method and device for measuring displacement of object

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015221615A (en) 2014-05-22 2015-12-10 ヤンマー株式会社 Display device
JP2017027396A (en) 2015-07-23 2017-02-02 三菱自動車工業株式会社 Vehicular driving support device
JP2017081498A (en) 2015-10-30 2017-05-18 井関農機株式会社 Fuel supply system for work vehicle
JP2017167995A (en) 2016-03-18 2017-09-21 ヤンマー株式会社 Route generation system for work vehicle
JP2017207815A (en) 2016-05-16 2017-11-24 井関農機株式会社 Control system of work vehicle
JP2018196066A (en) 2017-05-19 2018-12-06 株式会社ユピテル Drive recorder, display device for drive recorder, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015221615A (en) 2014-05-22 2015-12-10 ヤンマー株式会社 Display device
JP2017027396A (en) 2015-07-23 2017-02-02 三菱自動車工業株式会社 Vehicular driving support device
JP2017081498A (en) 2015-10-30 2017-05-18 井関農機株式会社 Fuel supply system for work vehicle
JP2017167995A (en) 2016-03-18 2017-09-21 ヤンマー株式会社 Route generation system for work vehicle
JP2017207815A (en) 2016-05-16 2017-11-24 井関農機株式会社 Control system of work vehicle
JP2018196066A (en) 2017-05-19 2018-12-06 株式会社ユピテル Drive recorder, display device for drive recorder, and program

Also Published As

Publication number Publication date
JP2019133441A (en) 2019-08-08

Similar Documents

Publication Publication Date Title
JP6707984B2 (en) Work vehicle control system
JP7003699B2 (en) Field work vehicle management system
US10248116B2 (en) Remote operation of autonomous vehicle in unexpected environment
US9933515B2 (en) Sensor calibration for autonomous vehicles
JP6594805B2 (en) Work vehicle
KR102144244B1 (en) Route generating device
JP6507109B2 (en) Running area shape registration system for work vehicle
JP6452801B2 (en) Method and apparatus for moving a car to a target position
WO2015151982A1 (en) Coordinated travel work system
US11145112B2 (en) Method and vehicle control system for producing images of a surroundings model, and corresponding vehicle
JP6078025B2 (en) Parallel work system
JP2019133701A (en) Travel area shape registration system
JP7006449B2 (en) Work vehicle management system
JP6605375B2 (en) Autonomous traveling work vehicle
JP7003798B2 (en) Field work vehicle management system
JP7223552B2 (en) Display device and automatic driving system
JP2022118330A (en) Work assist system and work assist complex system
JP6258781B2 (en) Emergency stop device
JP2005207862A (en) Target position information acquiring system and target position information acquiring method
JP2019135670A (en) Travel area registration system for work vehicle
US20210300395A1 (en) Accommodation area management device
US11748790B2 (en) Accommodation area management device
JP2006282034A (en) Horizontal speed heading indicator
WO2023144988A1 (en) Work robot system
WO2021020333A1 (en) Automatic traveling system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211213

R150 Certificate of patent or registration of utility model

Ref document number: 7003699

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150