JP7504015B2 - Vehicle - Google Patents

Vehicle Download PDF

Info

Publication number
JP7504015B2
JP7504015B2 JP2020210559A JP2020210559A JP7504015B2 JP 7504015 B2 JP7504015 B2 JP 7504015B2 JP 2020210559 A JP2020210559 A JP 2020210559A JP 2020210559 A JP2020210559 A JP 2020210559A JP 7504015 B2 JP7504015 B2 JP 7504015B2
Authority
JP
Japan
Prior art keywords
unit
vehicle
change
vehicle body
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020210559A
Other languages
Japanese (ja)
Other versions
JP2022097149A (en
Inventor
竣也 高瀬
実 平岡
淳一 石川
裕介 井田
俊介 江戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kubota Corp
Original Assignee
Kubota Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kubota Corp filed Critical Kubota Corp
Priority to JP2020210559A priority Critical patent/JP7504015B2/en
Publication of JP2022097149A publication Critical patent/JP2022097149A/en
Application granted granted Critical
Publication of JP7504015B2 publication Critical patent/JP7504015B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Emergency Alarm Devices (AREA)

Description

本発明は、車載カメラによる撮影画像に基づいて周辺状況の監視を行う走行車両に関する。 The present invention relates to a traveling vehicle that monitors the surrounding situation based on images captured by an onboard camera.

特許文献1には、車載カメラによる撮影画像を入力して、圃場に存在する、人物、倒伏穀稈、雑草、畦などの認識対象物を認識し、認識された認識対象物の地図上の位置を示す認識対象物位置情報を生成する収穫機が開示されている。生成された認識対象物位置情報に基づいて、予め設定された走行作業制御や警告報知が行われる。 Patent Document 1 discloses a harvester that inputs images captured by an on-board camera, recognizes objects present in a field, such as people, fallen stalks, weeds, and ridges, and generates object position information indicating the position of the recognized objects on a map. Based on the generated object position information, preset driving operation control and warning notifications are performed.

特開2019-004772号公報JP 2019-004772 A

特許文献1では、人物、倒伏穀稈、雑草、畦を認識対象物とする画像認識モジュールは、深層学習タイプのニューラルネットワークなど機械学習技術を用いて構築されている。この画像認識モジュールは、適切な学習を行うことで、圃場での人物、倒伏穀稈、雑草、畦を高い信頼性で認識することはできるが、認識対象が物体ではなく、地面の陥没や石垣や斜面の崩れなどの状態変動を認識することはできない。 In Patent Document 1, the image recognition module that recognizes people, fallen culms, weeds, and ridges is constructed using machine learning techniques such as a deep learning type neural network. With appropriate learning, this image recognition module can recognize people, fallen culms, weeds, and ridges in a field with high reliability, but since the recognition targets are not physical objects, it cannot recognize state changes such as sinking of the ground or the collapse of stone walls or slopes.

上記実情に鑑み、本発明の目的は、車両周辺を監視する際に、車両周辺領域における地面の陥没や石垣や斜面の崩れなどの状態変動を検知する走行車両を提供することである。 In view of the above-mentioned circumstances, the object of the present invention is to provide a traveling vehicle that detects changes in conditions, such as subsidence of the ground or the collapse of stone walls or slopes, in the area surrounding the vehicle when monitoring the area around the vehicle.

本発明による、周辺状況の監視を行う走行車両は、車体位置を算出する車体位置算出部と、車両周辺領域を撮影するカメラユニットと、前記カメラユニットからの複数の経時的な撮影画像に基づいて前記車両周辺領域における状態変化を検知して、状態変化情報を出力する周辺状態検知ユニットと、前記状態変化情報に基づいて、前記状態変化が異常事態の発生であるかどうかを判定する異常判定部と、前記異常事態の発生を示す報知情報を出力する報知情報出力部とを備え、前記カメラユニットが、特定作業地での作業開始時及び作業終了時に前記撮影画像を撮影する。 The traveling vehicle according to the present invention, which monitors the surrounding conditions, comprises a vehicle body position calculation unit which calculates the vehicle body position, a camera unit which photographs the area around the vehicle, a surrounding condition detection unit which detects condition changes in the area around the vehicle based on multiple images taken over time from the camera unit and outputs condition change information, an abnormality determination unit which determines whether the condition change is the occurrence of an abnormality based on the condition change information, and a notification information output unit which outputs notification information indicating the occurrence of the abnormality , and the camera unit takes the images when work starts and ends at a specific work site .

この構成では、車両に搭載されたカメラユニットからの複数の経時的な撮影画像を比較することで、それらの撮影画像の時間間隔で生じた状態変化が検知される。その状態変化を示す情報(状態変化の検知対象となった撮影画像の各撮影時刻、各撮影間隔における2つの撮影画像の差分情報、検知された状態変化の空間位置など)に基づいて、その状態変化が異常事態の発生とみなされるかどうかが判定される。例えば、経時的な撮影画像間で色情報が異なっていても、それが時刻変化による色変化に基づくなら、その状態変化は異常事態ではない。撮影方向の微妙な違いに基づく特定の物体の少なくとも一部の消失や現出がわずかの位置ずれで当該物体の現出または消失とともに生じているような状態変化は、異常事態とはみなされない。差分情報や色情報によって、撮影時刻の遅い撮影画像において、特定の物体の少なくとも一部の消失や現出が確認される場合には、異常事態とみなされる。異常判定部によって、異常事態の発生とみなされた状態変化は、異常事態の発生として報知される。
また、走行車両が、農場や果樹園などの特定作業地で日々繰り返して使用される場合、作業が一旦終了し、次に作業が開始されるまでの作業が行われていない間の状態変化も検知することができる。作業終了と作業開始との間に、夜間を挟む場合、その間隔は長時間となり、多くの状態変化が発生する可能性が高い。この作業終了時から作業開始時までの間の生じた状態変化を迅速に検知するためには、作業終了時及び作業開始時に撮影画像が取得され、これらの撮影画像を比較することが好ましい。
In this configuration, a plurality of images captured over time by a camera unit mounted on a vehicle are compared to detect a state change that occurs during a time interval between the captured images. Based on information indicating the state change (such as the capture time of the captured image that is the detection target of the state change, the difference information between the two captured images at each capture interval, and the spatial position of the detected state change), it is determined whether the state change is considered to be an abnormal situation. For example, even if color information differs between the captured images captured over time, if the color change is based on a color change due to a time change, the state change is not an abnormal situation. A state change in which at least a part of a specific object disappears or appears due to a subtle difference in the shooting direction, along with the appearance or disappearance of the object with a slight positional shift, is not considered to be an abnormal situation. If at least a part of a specific object disappears or appears in an image captured at a later time based on the difference information or color information, it is considered to be an abnormal situation. A state change that is considered to be an abnormal situation by the abnormality determination unit is notified as an abnormal situation.
In addition, when a traveling vehicle is used repeatedly on a daily basis in a specific work area such as a farm or orchard, it is possible to detect changes in the state between the end of one work and the start of the next work. If night falls between the end of a work and the start of the next work, the interval is long and there is a high possibility that many changes in the state will occur. In order to quickly detect changes in the state that occur between the end of a work and the start of the next work, it is preferable to capture images at the end of the work and the start of the work and compare these captured images.

複数の経時的な撮影画像から特定領域における小さな状態変化を検知するためには、大きな撮影視野を有する撮影画像よりは、小さな撮影視野であっても高解像度の撮影画像で車両周辺領域をカバーすることが好ましい。そのためには、複数の経時的な撮影画像が撮影視野別に区分けして経時的に取得され、比較されなければならない。このことから、本発明の好適な実施形態では、前記周辺状態検知ユニットは、撮影時の前記車体位置と前記カメラユニットの撮影方向とに基づいて前記撮影画像の撮影視野を算出する撮影視野算出部と、前記撮影画像に撮影時刻と前記撮影視野とを付与して格納する画像管理格納部と、前記撮影視野が同じかほぼ同じ前記撮影画像を経時的に比較して前記状態変化を検知する経時変化検知部とを含む。 In order to detect small changes in a specific area from multiple images taken over time, it is preferable to cover the area around the vehicle with high-resolution images with a small field of view rather than images with a large field of view. To achieve this, multiple images taken over time must be acquired over time and compared, divided by field of view. For this reason, in a preferred embodiment of the present invention, the surrounding condition detection unit includes a field of view calculation unit that calculates the field of view of the captured image based on the vehicle body position at the time of capture and the shooting direction of the camera unit, an image management storage unit that stores the captured image by adding the capture time and the field of view, and a time-dependent change detection unit that detects the state change by comparing the captured images with the same or nearly the same field of view over time.

さらに、状態変化は瞬間に生じることが多い。また、変化後の状態が直ぐに消えてしまうような状態変化は、無視できることが多い。したがって、特に必要とする状態変化に合った撮影タイミングで撮影することが好ましい。このことから、前記カメラユニットは、所定タイミングで、異なる撮影視野を有する複数の撮影画像を全周囲撮影画像として撮影するのが好適である。 Furthermore, state changes often occur instantaneously. State changes that disappear immediately after the change can often be ignored. Therefore, it is preferable to capture images at a timing that matches the state change that is particularly required. For this reason, it is preferable for the camera unit to capture multiple images with different fields of view as a panoramic image at a specified timing.

走行車両が、農場や果樹園などの特定作業地で日々繰り返して使用される場合、作業が一旦終了し、次に作業が開始されるまでの作業が行われていない間の状態変化も検知することができる。作業終了と作業開始との間に、夜間を挟む場合、その間隔は長時間となり、多くの状態変化が発生する可能性が高い。この作業終了時から作業開始時までの間の生じた状態変化を迅速に検知するためには、作業終了時及び作業開始時に撮影画像が取得され、これらの撮影画像画を比較することが好ましい。このことから、好適な実施形態では、前記所定タイミングは、前記特定作業地での作業開始時及び作業終了時である When a traveling vehicle is used repeatedly on a daily basis in a specific work site such as a farm or orchard, it is possible to detect changes in the state between the end of a work task and the start of the next work task. If night falls between the end of a work task and the start of the next work task, the interval is long and there is a high possibility that many changes in the state will occur. In order to quickly detect changes in the state that occur between the end of a work task and the start of the work task, it is preferable that images are taken at the end of the work task and the start of the work task, and these taken images are compared. For this reason, in a preferred embodiment , the predetermined timing is the start of work at the specific work site and the end of work.

周辺状況の監視を行う走行車両が森林や果樹園や農場に投入される場合、走行車両の周辺に現れた人物や動物を、警戒すべき状態変化とみなすことは、重要である。このことから好適な実施形態では、前記周辺状態検知ユニットは、前記状態変化の検知として、前記撮影画像から人物検知及び動物検知を行う画像認識部を含む。 When a vehicle that monitors the surrounding conditions is deployed in a forest, orchard, or farm, it is important to consider people or animals that appear around the vehicle as a change in condition that requires caution. For this reason, in a preferred embodiment, the surrounding condition detection unit includes an image recognition section that detects people and animals from the captured image to detect the change in condition.

走行車両の周辺に出現した人物は、走行車両との衝突の危険性があるため、車両の接近を当該人物に知らせる必要がある。また、走行車両の周辺に現れた動物は、車両との衝突だけでなく、走行車両の周辺にいる人物に危害を加える恐れがあるので、当該動物を追い払うための報知が必要となる。このことから、前記異常事態が前記人物検知または前記動物検知に基づく場合、警告音が出力されることが好適である。 A person who appears near a moving vehicle poses a risk of collision with the moving vehicle, so it is necessary to notify the person of the approaching vehicle. In addition, an animal that appears near a moving vehicle poses a risk of not only colliding with the vehicle, but also harming the person near the moving vehicle, so a warning is required to scare off the animal. For this reason, when the abnormal situation is based on the detection of a person or animal, it is preferable that a warning sound is output.

異常事態の発生が判定された場合、当該異常事態に的確に対処する必要がある。このためには、判定された異常事態の発生場所が特定され、特定された発生場所も報知情報に含まれることが必要である。このことから、好適な実施形態では、前記異常事態の発生時の前記車体位置と前記カメラユニットの撮影方向とに基づいて前記異常事態の発生場所を特定する異常場所特定部が備えられ、前記発生場所が前記報知情報に含まれる。 When it is determined that an abnormality has occurred, it is necessary to deal with the abnormality appropriately. To do this, it is necessary to identify the location where the abnormality has occurred, and to include the identified location in the notification information. For this reason, in a preferred embodiment, an abnormality location identification unit is provided that identifies the location where the abnormality has occurred based on the vehicle body position and the shooting direction of the camera unit at the time when the abnormality occurred, and the location is included in the notification information.

果樹園で監視走行する作業車を示す模式図である。FIG. 1 is a schematic diagram showing a work vehicle traveling for surveillance in an orchard. 作業車の全体側面図である。FIG. 作業車の全体平面図である。FIG. 作業車の制御系を示す機能ブロック図である。FIG. 2 is a functional block diagram showing a control system of the work vehicle. 監視制御におけるデータの流れを説明する模式図である。FIG. 2 is a schematic diagram illustrating a data flow in monitoring control.

以下では、本発明に係る走行車両の実施形態として、農場や果樹園や森林等の特定作業地で監視走行する作業車を取り上げる。尚、以下の説明においては、特に断りがない限り、図2と図3とに示す矢印Fの方向を「前」、矢印Bの方向を「後」とする。また、図3に示す矢印Lの方向を「左」、矢印Rの方向を「右」とする。また、図2に示す矢印Uの方向を「上」、矢印Dの方向を「下」とする。 In the following, as an embodiment of a traveling vehicle according to the present invention, a work vehicle that travels to monitor specific work areas such as farms, orchards, and forests will be taken up. In the following explanation, unless otherwise specified, the direction of arrow F shown in Figures 2 and 3 will be referred to as "forward" and the direction of arrow B as "rear." Furthermore, the direction of arrow L shown in Figure 3 will be referred to as "left" and the direction of arrow R as "right." Furthermore, the direction of arrow U shown in Figure 2 will be referred to as "up" and the direction of arrow D as "down."

図1に示すように、この作業車1は、果樹園及びその周辺領域の状況を監視しながら走行する。監視対象は、果樹園及びその周辺領域で生じた状態変化である。例えば、監視される状態変化には、人物や動物の果樹園への進入、果樹の倒れ、果樹の実り具合、柵や生垣の損傷、さらには、地面の陥没や石垣や斜面の崩れなどが含まれる。これらの状態変化は、撮影画像に基づいて検知される。作業車1は、単に監視だけの目的で走行してもよい。もちろん、監視走行時に、非図示の作業装置を搭載して、草刈り、薬剤散布、荷物搬送などの作業をおこなってもよい。 As shown in FIG. 1, the work vehicle 1 travels while monitoring the condition of the orchard and its surrounding area. The objects of monitoring are changes in condition that occur in the orchard and its surrounding area. For example, changes in condition that are monitored include people or animals entering the orchard, fallen fruit trees, the state of fruit trees, damage to fences and hedges, and even subsidence of the ground and collapse of stone walls and slopes. These changes in condition are detected based on captured images. The work vehicle 1 may travel simply for the purpose of monitoring. Of course, during monitoring driving, it may be equipped with a work device (not shown) to perform tasks such as weeding, spraying pesticides, and transporting luggage.

〔作業車の全体構成〕
図2及び図3に示すように、本実施形態における作業車1は、車体10と、左右の前脚装置2と、左右の後脚装置3と、を備えている。車体10は、箱状の外形を有している。前脚装置2は、車体10の前端部における下端部から前下方へ延びる状態で設けられている。後脚装置3は、車体10の後端部における下端部から後下方へ延びる状態で設けられている。前脚装置2は、車体10の前部を支持している。また、後脚装置3は、車体10の後部を支持している。
[Overall configuration of the work vehicle]
As shown in Figures 2 and 3, the work vehicle 1 in this embodiment includes a vehicle body 10, left and right front leg devices 2, and left and right rear leg devices 3. The vehicle body 10 has a box-shaped external shape. The front leg devices 2 are provided so as to extend downward and forward from the lower end at the front end of the vehicle body 10. The rear leg devices 3 are provided so as to extend downward and rear from the lower end at the rear end of the vehicle body 10. The front leg devices 2 support the front part of the vehicle body 10. The rear leg devices 3 support the rear part of the vehicle body 10.

車体10の上面部の中央には、作業車1の位置を測定するための衛星測位モジュール8が設けられている。衛星測位モジュール8には、GNSS(global navigation satellite system)信号(GPS信号を含む)を受信するための衛星用アンテナが含まれている。
車体10の上面部の前端には、車両周辺領域を撮影するカメラユニット7が設けられている。
A satellite positioning module 8 for measuring the position of the work vehicle 1 is provided in the center of the top surface of the vehicle body 10. The satellite positioning module 8 includes a satellite antenna for receiving GNSS (global navigation satellite system) signals (including GPS signals).
A camera unit 7 that captures images of the area around the vehicle is provided at the front end of the top surface of the vehicle body 10 .

前脚装置2は、前アーム21、前車輪22、前モータ23を有している。前アーム21は、車体10の前端部における下端部から前下方へ延びる長尺の部材である。前車輪22及び前モータ23は、前アーム21の下端部に設けられている。即ち、前車輪22及び前モータ23は、前脚装置2の下部に設けられている。なお、本実施形態において、前モータ23は、油圧モータである。 The front leg device 2 has a front arm 21, a front wheel 22, and a front motor 23. The front arm 21 is a long member that extends downward and forward from the lower end at the front end of the vehicle body 10. The front wheel 22 and the front motor 23 are provided at the lower end of the front arm 21. In other words, the front wheel 22 and the front motor 23 are provided at the bottom of the front leg device 2. In this embodiment, the front motor 23 is a hydraulic motor.

前車輪22は、前アーム21よりも車体左右方向内側に位置している。また、前モータ23は、前アーム21よりも車体左右方向外側に位置している。そして、前モータ23の駆動力が前車輪22に伝達されることにより、前車輪22が駆動する。 The front wheels 22 are positioned inward in the left-right direction of the vehicle body from the front arm 21. The front motor 23 is positioned outward in the left-right direction of the vehicle body from the front arm 21. The driving force of the front motor 23 is transmitted to the front wheels 22, thereby driving the front wheels 22.

後脚装置3は、後アーム31、後車輪32、後モータ33を有している。後アーム31は、車体10の後端部における下端部から後下方へ延びる長尺の部材である。後車輪32及び後モータ33は、後アーム31の下端部に設けられている。即ち、後車輪32及び後モータ33は、後脚装置3の下部に設けられている。なお、本実施形態において、後モータ33は、油圧モータである。前モータ23である油圧モータ及び後モータ33である油圧モータへの油圧は、非図示のエンジンによって駆動する油圧ポンプによって供給される。 The rear leg device 3 has a rear arm 31, a rear wheel 32, and a rear motor 33. The rear arm 31 is a long member that extends rearward and downward from the lower end at the rear end of the vehicle body 10. The rear wheel 32 and the rear motor 33 are provided at the lower end of the rear arm 31. In other words, the rear wheel 32 and the rear motor 33 are provided at the bottom of the rear leg device 3. In this embodiment, the rear motor 33 is a hydraulic motor. Hydraulic pressure to the hydraulic motor that is the front motor 23 and the hydraulic motor that is the rear motor 33 is supplied by a hydraulic pump driven by an engine (not shown).

後車輪32は、後アーム31よりも車体左右方向内側に位置している。また、後モータ33は、後アーム31よりも車体左右方向外側に位置している。そして、後モータ33の駆動力が後車輪32に伝達されることにより、後車輪32が駆動する。 The rear wheels 32 are positioned inward in the left-right direction of the vehicle body from the rear arms 31. The rear motor 33 is positioned outward in the left-right direction of the vehicle body from the rear arms 31. The driving force of the rear motor 33 is transmitted to the rear wheels 32, thereby driving the rear wheels 32.

図2及び図3に示すように、前アーム21の上端部は、車体10に接続している。即ち、前脚装置2の上部は、車体10に接続している。前アーム21は、機体左右方向に沿う第1軸芯P1周りに、車体10に対して揺動可能である。また、前車輪22及び前モータ23は、前アーム21と一体的に、第1軸芯P1周りに揺動する。 As shown in Figures 2 and 3, the upper end of the front arm 21 is connected to the vehicle body 10. That is, the upper part of the front landing gear 2 is connected to the vehicle body 10. The front arm 21 can swing relative to the vehicle body 10 around a first axis P1 along the left-right direction of the vehicle body. In addition, the front wheel 22 and the front motor 23 swing integrally with the front arm 21 around the first axis P1.

後アーム31の上端部は、車体10に接続している。即ち、後脚装置3の上部は、車体10に接続している。後アーム31は、機体左右方向に沿う第2軸芯P2周りに、車体10に対して揺動可能である。また、後車輪32及び後モータ33は、後アーム31と一体的に、第2軸芯P2周りに揺動する。 The upper end of the rear arm 31 is connected to the vehicle body 10. That is, the upper part of the rear leg device 3 is connected to the vehicle body 10. The rear arm 31 can swing relative to the vehicle body 10 around a second axis P2 that runs along the left-right direction of the vehicle body. In addition, the rear wheel 32 and the rear motor 33 swing integrally with the rear arm 31 around the second axis P2.

また、本実施形態において、前モータ23及び後モータ33は、何れも、正転駆動と逆転駆動とが可能である。前モータ23及び後モータ33が正転駆動することにより、作業車1は前進走行する。前モータ23及び後モータ33が逆転駆動することにより、作業車1は後進走行する。また、前モータ23及び後モータ33の駆動が停止することにより、作業車1は停車する。 In addition, in this embodiment, both the front motor 23 and the rear motor 33 can be driven in both forward and reverse rotation. When the front motor 23 and the rear motor 33 are driven in forward rotation, the work vehicle 1 travels forward. When the front motor 23 and the rear motor 33 are driven in reverse, the work vehicle 1 travels backward. When the drive of the front motor 23 and the rear motor 33 is stopped, the work vehicle 1 stops.

〔制御系に関する構成〕
図4は、本発明に関係する制御機能部を示す制御機能ブロック図である。この制御系の中核要素である制御ユニット6は、電子回路及びコンピュータシステムから構成されており、入力処理部6Aと出力処理部6Bとを備えている。入力処理部6Aは、作業車1の各部に配置されたセンサやスイッチなどからなる走行状態検出センサ群41や、車体10の姿勢を検知する姿勢検出センサ群42などから入力される信号を処理して、制御ユニット6の各機能部に転送する。出力処理部6Bは、制御ユニット6の各機能部で生成された信号を処理して、走行制御部6Cや報知デバイス44に出力する。図5には、この制御系におけるデータの流れが示されている。
[Control system configuration]
Fig. 4 is a control function block diagram showing the control function sections related to the present invention. The control unit 6, which is the core element of this control system, is composed of electronic circuits and a computer system, and has an input processing section 6A and an output processing section 6B. The input processing section 6A processes signals input from a group of traveling state detection sensors 41 consisting of sensors and switches arranged in various parts of the work vehicle 1, a group of attitude detection sensors 42 that detects the attitude of the vehicle body 10, and the like, and transfers the signals to each functional section of the control unit 6. The output processing section 6B processes signals generated in each functional section of the control unit 6, and outputs the signals to a traveling control section 6C and an alarm device 44. Fig. 5 shows the flow of data in this control system.

制御ユニット6には、車体位置算出部61、周辺状態検知ユニット5、異常判定部62、異常場所特定部63、報知情報出力部64、走行指令生成部65が含まれている。車体位置算出部61は、衛星測位モジュール8から逐次送られてくる測位データに基づいて、車体10の地図座標(又は果樹園座標における位置座標)である車体位置を算出する。 The control unit 6 includes a vehicle body position calculation unit 61, a surrounding condition detection unit 5, an abnormality determination unit 62, an abnormality location identification unit 63, a notification information output unit 64, and a driving command generation unit 65. The vehicle body position calculation unit 61 calculates the vehicle body position, which is the map coordinates (or position coordinates in the orchard coordinate system) of the vehicle body 10, based on the positioning data successively sent from the satellite positioning module 8.

周辺状態検知ユニット5は、カメラユニット7からの複数の経時的な撮影画像に基づいて車両周辺領域における状態変化を検知して、当該状態変化の内容を示す状態変化情報を出力する。この目的のため、周辺状態検知ユニット5は、撮影視野算出部51と、画像管理格納部52と、経時変化検知部53と、画像認識部54とを含む。なお、この実施形態では、前脚装置2及び後脚装置3の揺動位置によって、車体10の姿勢が変動するので、車体10の姿勢を姿勢検出センサ群42からの信号に基づいて算出する車体姿勢算出部55が、周辺状態検知ユニット5に含まれている。 The surrounding condition detection unit 5 detects changes in conditions in the area surrounding the vehicle based on multiple images captured over time by the camera unit 7, and outputs condition change information indicating the content of the change in condition. For this purpose, the surrounding condition detection unit 5 includes an imaging field of view calculation unit 51, an image management storage unit 52, a time-varying change detection unit 53, and an image recognition unit 54. In this embodiment, since the attitude of the vehicle body 10 varies depending on the swinging positions of the front leg unit 2 and the rear leg unit 3, the surrounding condition detection unit 5 includes a vehicle body attitude calculation unit 55 that calculates the attitude of the vehicle body 10 based on signals from the attitude detection sensor group 42.

撮影視野算出部51は、車体位置算出部61によって算出された撮影時の車体位置と、カメラユニット7の撮影方向と、車体姿勢算出部55によって算出された車体姿勢に基づいて撮影画像の撮影視野を算出する。もちろん、撮影時の車体姿勢が常にデフォルトの姿勢に保持される場合には、撮影視野の算出において、車体姿勢は無視される。画像管理格納部52は、撮影画像に撮影時刻と撮影視野とを付与して格納する。 The field of view calculation unit 51 calculates the field of view of the captured image based on the vehicle position at the time of capture calculated by the vehicle position calculation unit 61, the capture direction of the camera unit 7, and the vehicle attitude calculated by the vehicle attitude calculation unit 55. Of course, if the vehicle attitude at the time of capture is always held in the default attitude, the vehicle attitude is ignored in calculating the field of view. The image management storage unit 52 stores the captured image with the capture time and field of view.

経時変化検知部53は、撮影視野が同じか、ほぼ同じ撮影画像を画像管理格納部52から読み出して、それらの撮影画像を経時的に比較して、撮影画像に写されている車両周辺領域の状態変化を検知する。撮影画像の比較による状態変化の検知には、種々の方法を用いることができる。例えば、時間差のある2つの撮影画像の差分を演算し、その差分データから、状態変化を推定する方法、時間差のある2つの撮影画像を入力して、状態変化を出力するように学習されたニューラルネットワークを用いる方法などである。 The time-dependent change detection unit 53 reads out captured images with the same or nearly the same field of view from the image management storage unit 52, compares these captured images over time, and detects changes in the state of the area around the vehicle captured in the captured images. Various methods can be used to detect state changes by comparing captured images. For example, there is a method of calculating the difference between two captured images taken with a time lag and estimating state changes from the difference data, or a method of using a neural network that is trained to input two captured images taken with a time lag and output state changes.

画像認識部54は、機械学習されたニューラルネットワーク認識機能を有しており、カメラユニット7から取得した撮影画像から人物検知及び動物検知を行う。周辺状態検知ユニット5は、画像認識部54による認識結果も、車両周辺領域に生じた状態変化の検知として、取り扱う。したがって、周辺状態検知ユニット5は、経時変化検知部53によって検知された状態変化及び画像認識部54によって認識された人物や動物を示す情報を、状態変化情報として出力する。 The image recognition unit 54 has a machine-learned neural network recognition function, and detects people and animals from the captured images acquired by the camera unit 7. The surrounding condition detection unit 5 also treats the recognition results by the image recognition unit 54 as detection of state changes that have occurred in the area around the vehicle. Therefore, the surrounding condition detection unit 5 outputs information indicating the state changes detected by the time-change detection unit 53 and the people and animals recognized by the image recognition unit 54 as state change information.

図5に示されているように、周辺状態検知ユニット5から出力された状態変化情報は、異常判定部62に送られる。異常判定部62は、状態変化情報に基づいて、状態変化情報に示されている状態変化が異常事態の発生であるかどうかを判定する。状態変化の時間経過、状態変化した領域の大きさや色などのデータが入力されると、ルールベースアルゴリズム(ルールベースAI)によって、異常事態の発生であるかどうかが判定される。異常状態が発生したとみなされた場合には、異常事態の内容を示す情報が出力される。異常事態としては、樹木の倒れ、果実の散乱、雑草の異常生育、柵や生垣の崩壊などの人為的災害や自然災害が挙げられる。画像認識部54によって進行方向手前に存在する人物、クマやイノシシなどの大形の動物が認識されている場合は、即座に異常事態の発生とみなされる。もちろん、周辺状態検知ユニット5によって、人物や動物などの出現を状態変化として検知された場合にも同様の処理がなされる。 As shown in FIG. 5, the status change information output from the surrounding status detection unit 5 is sent to the abnormality determination unit 62. The abnormality determination unit 62 determines whether the status change indicated in the status change information is an abnormal situation based on the status change information. When data such as the time lapse of the status change, the size and color of the area where the status change has occurred, etc. are input, a rule-based algorithm (rule-based AI) determines whether an abnormal situation has occurred. If it is determined that an abnormal situation has occurred, information indicating the content of the abnormal situation is output. Examples of abnormal situations include man-made disasters and natural disasters such as fallen trees, scattered fruit, abnormal growth of weeds, and collapse of fences and hedges. If the image recognition unit 54 recognizes a person or a large animal such as a bear or wild boar that is present in the direction of travel, it is immediately determined that an abnormal situation has occurred. Of course, the same process is performed when the surrounding status detection unit 5 detects the appearance of a person or animal as a status change.

異常判定部62によって異常事態の内容を示す情報が出力されると、報知情報出力部64は、異常事態の発生を示す報知情報を出力する。報知情報出力部64からの報知情報の出力先は、異常情報によっても異なる。例えば、異常事態が人物や動物の出現であれば、ブザーやスピーカなどの報知デバイス44を通じて、警告音を発する。 When the abnormality determination unit 62 outputs information indicating the content of the abnormality, the notification information output unit 64 outputs notification information indicating the occurrence of an abnormality. The destination of the notification information from the notification information output unit 64 differs depending on the abnormality information. For example, if the abnormality is the appearance of a person or animal, a warning sound is issued through the notification device 44, such as a buzzer or speaker.

異常事態が人為的災害や自然災害などであれば、報知情報出力部64は、異常状態を示す情報に、異常場所特定部63によって特定された異常事態の発生場所を含めた報知情報を生成し、内部メモリに記録する。さらに、報知情報は、リアルタイム処理またはバッチ処理で、外部通信部43によるデータ通信により、作業管理センタコンピュータ100の状況管理部101に送られ、そこで管理される。なお、異常場所特定部63は、異常事態の発生時の車体位置と異常事態の発生時のカメラユニット7の撮影方向とに基づいて異常事態の発生場所を特定する。 If the abnormality is a man-made disaster or a natural disaster, the notification information output unit 64 generates notification information including the location where the abnormality occurred identified by the abnormality location identification unit 63 in addition to the information indicating the abnormal state, and records it in internal memory. Furthermore, the notification information is sent to the situation management unit 101 of the work management center computer 100 by data communication via the external communication unit 43 in real-time processing or batch processing, and is managed there. The abnormality location identification unit 63 identifies the location where the abnormality occurred based on the vehicle body position when the abnormality occurred and the shooting direction of the camera unit 7 when the abnormality occurred.

さらに、異常事態が進行方向手前における人物や動物の出現の場合、作業車1は停車または減速する必要があるので、報知情報出力部64または異常判定部62は、そのような走行制御を要求する緊急指令を走行指令生成部65に送る。走行指令生成部65は、緊急指令に応答して、作業車1の停車や減速を命じる走行指令を生成し、走行制御部6Cに送る。走行制御部6Cは、走行指令に基づいて、車両走行機器群7Aを制御する。 Furthermore, if the abnormality is the appearance of a person or animal ahead in the direction of travel, the work vehicle 1 needs to stop or slow down, so the notification information output unit 64 or the abnormality determination unit 62 sends an emergency command requesting such driving control to the driving command generation unit 65. In response to the emergency command, the driving command generation unit 65 generates a driving command to stop or slow down the work vehicle 1, and sends it to the driving control unit 6C. The driving control unit 6C controls the vehicle driving equipment group 7A based on the driving command.

走行制御部6Cは、走行指令に基づいて、左前モータ23a、右前モータ23b、左後モータ33a、右後モータ33bをそれぞれ独立して制御することができる。左前モータ23a及び左後モータ33aの速度と、右前モータ23b及び右後モータ33bの速度とに、差を与えることにより、作業車1の操舵を行うことができる。もちろん、前車輪22や後車輪32の操舵輪として構成することも可能である。 The driving control unit 6C can independently control the left front motor 23a, the right front motor 23b, the left rear motor 33a, and the right rear motor 33b based on a driving command. The work vehicle 1 can be steered by creating a difference between the speed of the left front motor 23a and the left rear motor 33a and the speed of the right front motor 23b and the right rear motor 33b. Of course, it is also possible to configure the front wheels 22 and the rear wheels 32 as steering wheels.

この作業車1は、予め設定された目標走行経路と、自車位置と、走行状態検出センサ群41からの信号とに基づいて自動走行する自動走行モードと、リモコンを用いた遠隔手動走行モードとを有する。自動走行モードでは、走行指令生成部65は、自動走行プログラムに基づいて、走行指令を生成して、走行制御部6Cに与える。遠隔手動走行モードでは、受信した作業者によるリモコン操作信号に基づいて、走行指令を生成して、走行制御部6Cに与える。 This work vehicle 1 has an automatic driving mode in which it drives automatically based on a preset target driving route, its own vehicle position, and signals from the driving state detection sensor group 41, and a remote manual driving mode using a remote control. In the automatic driving mode, the driving command generation unit 65 generates driving commands based on the automatic driving program and provides them to the driving control unit 6C. In the remote manual driving mode, it generates driving commands based on a remote control operation signal received from the worker and provides them to the driving control unit 6C.

カメラユニット7の撮影視野が周辺領域の監視に不十分な場合は、カメラユニット7に複数のカメラが備えられるか、1台のカメラの撮影方向を変更するカメラ雲台が備えられる。この場合、カメラユニット7は、所定タイミングで、異なる撮影視野を有する複数の撮影画像を全周囲撮影画像として撮影することができ、周辺領域の監視範囲が拡大される。 If the field of view of the camera unit 7 is insufficient for monitoring the surrounding area, the camera unit 7 may be equipped with multiple cameras or may be equipped with a camera head that changes the shooting direction of a single camera. In this case, the camera unit 7 can capture multiple images with different fields of view as a full-surrounding image at a specified timing, expanding the monitoring range of the surrounding area.

作業車1による果樹園の監視作業が一旦終了し、次に監視作業が開始されるまで間に、この果樹園に生じた状態変化を迅速に検知するため、カメラユニット7は作業終了時及び作業開始時に撮影を行い、得られた監視作業終了時と監視作業開始時との撮影画像が比較される。監視作業終了時と監視作業開始時との間に種々の場所で種々の状態変化が生じる可能性が高いので、カメラユニット7は、作業開始時及び作業終了時に全周囲撮影画像を撮影する。 When the work vehicle 1 finishes monitoring the orchard and before the next monitoring operation is started, the camera unit 7 takes images at the end and start of the operation to quickly detect any changes in the condition of the orchard, and the images taken at the end and start of the monitoring operation are compared. Since it is highly likely that various changes in condition will occur in various places between the end and start of the monitoring operation, the camera unit 7 takes all-around images at the start and end of the operation.

〔その他の実施形態〕
(1)上記実施形態において、周辺状況の監視を行う走行車両として、作業車1を例示したが、特別な作業を行わずに監視だけを行う車両であってもよい。
Other embodiments
(1) In the above embodiment, the work vehicle 1 is given as an example of a traveling vehicle that monitors the surrounding conditions. However, the vehicle may be one that only monitors without performing any special work.

(2)前脚装置2の駆動装置である前モータ23は、油圧モータに代えて、電気モータであっても良い。また、後脚装置3の駆動装置である後モータ33も、油圧モータに代えて、電気モータであっても良い。電気モータへの給電には、エンジン式の自家発電機やバッテリが用いられる。 (2) The front motor 23, which is the drive device for the front leg unit 2, may be an electric motor instead of a hydraulic motor. Also, the rear motor 33, which is the drive device for the rear leg unit 3, may be an electric motor instead of a hydraulic motor. An engine-type private generator or a battery is used to supply power to the electric motor.

(3)カメラユニット7だけを車体10に搭載し、周辺状態検知ユニット5や異常判定部62を、車体10との間で通信を用いたデータ交換可能な外部のコンピュータに備えてもよい。 (3) Only the camera unit 7 may be mounted on the vehicle body 10, and the surrounding condition detection unit 5 and the abnormality determination unit 62 may be provided on an external computer capable of exchanging data with the vehicle body 10 via communication.

尚、上述の実施形態(別実施形態を含む、以下同じ)で開示される構成は、矛盾が生じない限り、他の実施形態で開示される構成と組み合わせて適用することが可能である。また、本明細書において開示された実施形態は例示であって、本発明の実施形態はこれに限定されず、本発明の目的を逸脱しない範囲内で適宜改変することが可能である。 The configurations disclosed in the above-mentioned embodiments (including other embodiments, the same applies below) can be applied in combination with configurations disclosed in other embodiments, so long as no contradiction occurs. Furthermore, the embodiments disclosed in this specification are merely examples, and the present invention is not limited to these embodiments, and can be modified as appropriate within the scope of the purpose of the present invention.

本発明は、カメラを搭載した全ての走行車両に適用できる。 This invention can be applied to all moving vehicles equipped with cameras.

1 :作業車
5 :周辺状態検知ユニット
6 :制御ユニット
7 :カメラユニット
8 :衛星測位モジュール
10 :車体
41 :走行状態検出センサ群
42 :姿勢検出センサ群
43 :外部通信部
51 :撮影視野算出部
52 :画像管理格納部
53 :経時変化検知部
54 :画像認識部
55 :車体姿勢算出部
60 :走行制御部
61 :車体位置算出部
62 :異常判定部
63 :異常場所特定部
64 :報知情報出力部
65 :走行指令生成部
91 :報知デバイス
100 :作業管理センタコンピュータ
101 :状況管理部
1: Work vehicle 5: Surrounding condition detection unit 6: Control unit 7: Camera unit 8: Satellite positioning module 10: Vehicle body 41: Group of driving condition detection sensors 42: Group of attitude detection sensors 43: External communication unit 51: Shooting field of view calculation unit 52: Image management storage unit 53: Time-dependent change detection unit 54: Image recognition unit 55: Vehicle body attitude calculation unit 60: Driving control unit 61: Vehicle body position calculation unit 62: Abnormality determination unit 63: Abnormal location identification unit 64: Notification information output unit 65: Driving command generation unit 91: Notification device 100: Work management center computer 101: Situation management unit

Claims (7)

周辺状況の監視を行う走行車両であって、
車体位置を算出する車体位置算出部と、
車両周辺領域を撮影するカメラユニットと、
前記カメラユニットからの複数の経時的な撮影画像に基づいて前記車両周辺領域における状態変化を検知して、状態変化情報を出力する周辺状態検知ユニットと、
前記状態変化情報に基づいて、前記状態変化が異常事態の発生であるかどうかを判定する異常判定部と、
前記異常事態の発生を示す報知情報を出力する報知情報出力部と、を備え
前記カメラユニットが、特定作業地での作業開始時及び作業終了時に前記撮影画像を撮影する走行車両。
A traveling vehicle that monitors the surrounding situation,
A vehicle body position calculation unit that calculates a vehicle body position;
A camera unit for capturing images of the area around the vehicle;
a surrounding condition detection unit that detects a change in a state in the surrounding area of the vehicle based on a plurality of images captured by the camera unit over time, and outputs information on the change in state;
an abnormality determination unit that determines whether the state change is an occurrence of an abnormal situation based on the state change information;
a notification information output unit that outputs notification information indicating the occurrence of the abnormal situation ,
A traveling vehicle in which the camera unit captures the images at the start and end of work in a specific work area .
前記カメラユニットは、所定タイミングで、異なる撮影視野を有する複数の前記撮影画像を全周囲撮影画像として撮影する請求項に記載の走行車両。 The traveling vehicle according to claim 1 , wherein the camera unit captures a plurality of images having different photographing fields of view as a whole surrounding image at a predetermined timing. 前記所定タイミングは、前記特定作業地での作業開始時及び作業終了時である請求項に記載の走行車両。 The traveling vehicle according to claim 2 , wherein the predetermined timing is a start time and an end time of work at the specific work site. 前記周辺状態検知ユニットは、撮影時の前記車体位置と前記カメラユニットの撮影方向とに基づいて前記撮影画像の撮影視野を算出する撮影視野算出部と、前記撮影画像に撮影時刻と前記撮影視野とを付与して格納する画像管理格納部と、前記撮影視野が同じかほぼ同じ前記撮影画像を経時的に比較して前記状態変化を検知する経時変化検知部とを含む請求項1から3のいずれか一項に記載の走行車両。 4. A traveling vehicle as claimed in any one of claims 1 to 3, wherein the surrounding condition detection unit includes a field of view calculation unit that calculates a field of view of the captured image based on the vehicle body position at the time of shooting and the shooting direction of the camera unit, an image management storage unit that stores the captured image by assigning the shooting time and the field of view, and a time-change detection unit that detects the change in the condition by comparing the captured images having the same or approximately the same field of view over time. 前記周辺状態検知ユニットは、前記状態変化の検知として、前記撮影画像から人物検知及び動物検知を行う画像認識部を含む請求項1から4のいずれか一項に記載の走行車両。 The traveling vehicle according to any one of claims 1 to 4, wherein the surrounding condition detection unit includes an image recognition unit that detects people and animals from the captured image as the detection of the change in condition. 前記異常事態が前記人物検知または前記動物検知に基づく場合、警告音が出力される請求項5に記載の走行車両。 The traveling vehicle according to claim 5, wherein an alarm sound is output when the abnormal situation is based on the detection of a person or an animal. 前記異常事態の発生時の前記車体位置と前記カメラユニットの撮影方向とに基づいて前記異常事態の発生場所を特定する異常場所特定部が備えられ、前記発生場所が前記報知情報に含まれる請求項1から6のいずれか一項に記載の走行車両。 A traveling vehicle according to any one of claims 1 to 6, further comprising an abnormality location identification unit that identifies the location of the abnormality based on the vehicle body position and the shooting direction of the camera unit at the time of the abnormality occurrence, and the occurrence location is included in the notification information.
JP2020210559A 2020-12-18 2020-12-18 Vehicle Active JP7504015B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020210559A JP7504015B2 (en) 2020-12-18 2020-12-18 Vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020210559A JP7504015B2 (en) 2020-12-18 2020-12-18 Vehicle

Publications (2)

Publication Number Publication Date
JP2022097149A JP2022097149A (en) 2022-06-30
JP7504015B2 true JP7504015B2 (en) 2024-06-21

Family

ID=82165304

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020210559A Active JP7504015B2 (en) 2020-12-18 2020-12-18 Vehicle

Country Status (1)

Country Link
JP (1) JP7504015B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002357557A (en) 2001-06-04 2002-12-13 Riosu Corp:Kk Control system of road, surrounding facility, and the like
JP2011182059A (en) 2010-02-26 2011-09-15 Mitsubishi Motors Corp Vehicle periphery monitoring device
JP2013109505A (en) 2011-11-18 2013-06-06 Toyota Motor Corp Periphery monitoring device
JP2013134230A (en) 2011-12-27 2013-07-08 Fujitsu Ltd Investigation device, investigation program and investigation method
JP2017107429A (en) 2015-12-10 2017-06-15 三菱電機株式会社 Road abnormality determination device, road abnormality notification system, and road abnormality notification method
CN108597232A (en) 2018-05-03 2018-09-28 张梦雅 Road traffic safety monitoring system and its monitoring method
JP2020021110A (en) 2018-07-30 2020-02-06 株式会社トヨタシステムズ Warning system, warning control device, and warning method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002357557A (en) 2001-06-04 2002-12-13 Riosu Corp:Kk Control system of road, surrounding facility, and the like
JP2011182059A (en) 2010-02-26 2011-09-15 Mitsubishi Motors Corp Vehicle periphery monitoring device
JP2013109505A (en) 2011-11-18 2013-06-06 Toyota Motor Corp Periphery monitoring device
JP2013134230A (en) 2011-12-27 2013-07-08 Fujitsu Ltd Investigation device, investigation program and investigation method
JP2017107429A (en) 2015-12-10 2017-06-15 三菱電機株式会社 Road abnormality determination device, road abnormality notification system, and road abnormality notification method
CN108597232A (en) 2018-05-03 2018-09-28 张梦雅 Road traffic safety monitoring system and its monitoring method
JP2020021110A (en) 2018-07-30 2020-02-06 株式会社トヨタシステムズ Warning system, warning control device, and warning method

Also Published As

Publication number Publication date
JP2022097149A (en) 2022-06-30

Similar Documents

Publication Publication Date Title
US12223739B2 (en) Obstacle detection system, agricultural work vehicle, obstacle detection program, recording medium on which obstacle detection program is recorded, and obstacle detection method
JP7034866B2 (en) Harvester
US10635100B2 (en) Autonomous travelling work vehicle, and method for controlling autonomous travelling work vehicle
US10912253B2 (en) Robotic gardening device and method for controlling the same
US20150268338A1 (en) Tracking from a vehicle
EP3948467B1 (en) Autonomous working machine with computer vision-based monitoring and security system
JP7183121B2 (en) work vehicle
JP2020178659A (en) Harvester
JP2019004772A (en) Harvesting machine
JP2021007386A (en) Automatic travel system
WO2023276340A1 (en) Management system for agricultural machines
JP7504015B2 (en) Vehicle
WO2020262416A1 (en) Automatic traveling system, agricultural work machine, program, recording medium with program recorded thereon, and method
EP4111839A1 (en) Agricultural machine, and device and method for controlling agricultural machine
WO2023164349A1 (en) Work machine 3d exclusion zone
CN113382905A (en) Autonomous operation of a vehicle in a safe working area
JP7482838B2 (en) Work Support System
JP2019083755A (en) Autonomous operation type working machine and field management system
WO2018024593A1 (en) System for monitoring a piece of land, such as a golf course
JP7601069B2 (en) Obstacle Monitoring System
US20250115272A1 (en) Systems and methods for protecting a first vehicle using a second vehicle
JP2024082938A (en) Vehicle control system and work vehicle
US20250065879A1 (en) Gesture-Based Systems For Human Following
US20250037217A1 (en) Construction management system and construction management method
WO2024095798A1 (en) Obstacle detection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221229

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240229

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240611

R150 Certificate of patent or registration of utility model

Ref document number: 7504015

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150