JP2021075359A - Periphery monitoring device for work vehicle having boom - Google Patents

Periphery monitoring device for work vehicle having boom Download PDF

Info

Publication number
JP2021075359A
JP2021075359A JP2019203006A JP2019203006A JP2021075359A JP 2021075359 A JP2021075359 A JP 2021075359A JP 2019203006 A JP2019203006 A JP 2019203006A JP 2019203006 A JP2019203006 A JP 2019203006A JP 2021075359 A JP2021075359 A JP 2021075359A
Authority
JP
Japan
Prior art keywords
boom
image
person
images
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019203006A
Other languages
Japanese (ja)
Inventor
巖 石川
Gen Ishikawa
巖 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tadano Ltd
Original Assignee
Tadano Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tadano Ltd filed Critical Tadano Ltd
Priority to JP2019203006A priority Critical patent/JP2021075359A/en
Publication of JP2021075359A publication Critical patent/JP2021075359A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Jib Cranes (AREA)

Abstract

To provide a periphery monitoring device for a work vehicle having a boom that detects a person based on a plurality of images photographed by a plurality of cameras provided on a traveling body while suppressing costs.SOLUTION: A periphery monitoring device 10 of a crane 1 having a boom 7 includes four cameras 11a to 11d provided to photograph the periphery of the crane and a person detection unit 17 for detecting a person H based on images Pa to Pd photographed by the cameras 11a to 11d. The person detection unit 17 includes a revolving position detection unit 17a for detecting a revolving position of the boom 7, an image selection unit 17b for selecting one of the images Pa to Pd having a predetermined positional relationship relative to the revolving position of the boom 7 in accordance with the revolving position of the boom 7, and a parameter adjustment unit 17c for changing a parameter of processing such that detection accuracy of the person H of the processing with respect to the image selected by the image selection unit 17b is increased more than the detection accuracy of the processing with respect to another images that are not selected by the image selection unit 17b.SELECTED DRAWING: Figure 4

Description

本発明は、ブームを有する作業車両の周囲監視装置に関する。 The present invention relates to a peripheral monitoring device for a work vehicle having a boom.

ブームを備えたクレーンや高所作業車等の作業車両には、複数のカメラを設けて、作業車両の周囲を監視するものがある。例えば、作業車両の走行体の前部、右側部、後部及び左側部にそれぞれカメラを設け、これらのカメラにより、走行体の前方、右側方、後方、左側方を撮影し、得られた4つ画像を合成して、作業車両の全周囲に対応した全周画像を生成し、この全周画像をモニタに表示することが行われている(例えば、特許文献1参照)。 Some work vehicles such as cranes and aerial work platforms equipped with a boom are provided with a plurality of cameras to monitor the surroundings of the work vehicle. For example, cameras are provided at the front, right, rear, and left sides of the traveling body of the work vehicle, and these cameras are used to photograph the front, right, rear, and left sides of the traveling body. Images are combined to generate an all-around image corresponding to the entire circumference of the work vehicle, and this all-around image is displayed on a monitor (see, for example, Patent Document 1).

オペレータは、この全周画像を見て、作業車両の周囲に、作業者や他の人がいないことを確認することができる。 The operator can see this all-around image and confirm that there are no workers or other people around the work vehicle.

特開2018−042205号公報JP-A-2018-042205

また、車両に設けられたカメラで撮影された画像を単にモニタに表示するだけではなく、撮影された画像に基づいて、歩行者を自動的に検出し、検出した歩行者を強調した表示とすることにより、運転者に注意喚起を行うこともある。 In addition, the image taken by the camera provided in the vehicle is not simply displayed on the monitor, but the pedestrian is automatically detected based on the taken image, and the detected pedestrian is emphasized. This may alert the driver.

ここで、上述した歩行者を自動的に検出する人検知は、各カメラの画像ごとに処理を行うため、カメラごとに別個の処理部(CPU)を備えることが一般的である。 Here, since the above-mentioned person detection for automatically detecting a pedestrian performs processing for each image of each camera, it is common to provide a separate processing unit (CPU) for each camera.

しかし、カメラの数と同じ数だけ処理部を備えると高いコストを負担する必要がある。一方、複数のカメラで撮影された複数の画像を、単一の処理部で処理することも考えられる。しかし、この場合、処理部に掛かる負荷が高くなるため、所望とする処理速度を得るためには、高いスペックの処理部を設ける必要があり、コストが掛かる。 However, it is necessary to bear a high cost if the number of processing units is the same as the number of cameras. On the other hand, it is also conceivable to process a plurality of images taken by a plurality of cameras with a single processing unit. However, in this case, since the load applied to the processing unit becomes high, it is necessary to provide a processing unit having high specifications in order to obtain a desired processing speed, which is costly.

本発明は上記事情に鑑みなされたものであって、コストを抑えて、走行体に設けられた複数のカメラで撮影された複数の画像に基づいて人検知を行うことができる、ブームを有する作業車両の周囲監視装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and is a work having a boom capable of performing human detection based on a plurality of images taken by a plurality of cameras provided on a traveling body while suppressing costs. An object of the present invention is to provide a vehicle surrounding monitoring device.

本発明は、ブームを有する作業車両の周囲を撮影するために設けられた複数のカメラと、複数の前記カメラでそれぞれ撮影して得られた複数の画像に基づいて、人を検出する処理を行う人検出部と、を備え、前記人検出部は、前記ブームの旋回位置を検出する旋回位置検出部と、前記旋回位置検出部により検出された前記ブームの旋回位置に応じて、複数の前記画像のうち、前記ブームの旋回位置と所定の位置関係の画像を選択する画像選択部と、前記画像選択部により選択された画像に対する前記処理を、前記画像選択部により選択されなかった他の画像に対する前記処理よりも、前記人の検出精度を高めるように処理のパラメータを変化させるパラメータ調整部と、を備えたブームを有する作業車両の周囲監視装置である。 The present invention performs a process of detecting a person based on a plurality of cameras provided for photographing the surroundings of a work vehicle having a boom and a plurality of images obtained by photographing with the plurality of cameras. The person detection unit includes a person detection unit, and the person detection unit includes a plurality of the images according to the rotation position detection unit that detects the rotation position of the boom and the rotation position of the boom detected by the rotation position detection unit. Among the images, the image selection unit that selects an image having a predetermined positional relationship with the turning position of the boom, and the processing for the image selected by the image selection unit are performed on other images that are not selected by the image selection unit. It is a peripheral monitoring device for a work vehicle having a boom provided with a parameter adjusting unit that changes processing parameters so as to improve the detection accuracy of the person rather than the processing.

本発明に係る、ブームを有する作業車両の周囲監視装置によれば、コストを抑えて、走行体に設けられた複数のカメラで撮影された複数の画像に基づいて人検知を行うことができる。 According to the peripheral monitoring device for a work vehicle having a boom according to the present invention, it is possible to suppress the cost and perform human detection based on a plurality of images taken by a plurality of cameras provided on the traveling body.

作業車両の一例としてのクレーン1を右側方から見た側面図である。It is a side view which saw the crane 1 as an example of a work vehicle from the right side. 図1のクレーン1を上方から見た平面図である。It is a top view of the crane 1 of FIG. キャビンの内部の一例を示す模式図である。It is a schematic diagram which shows an example of the inside of a cabin. クレーンに設けられた周囲監視装置を示すブロック図である。It is a block diagram which shows the surroundings monitoring device provided in a crane. 全周俯瞰画像を示す模式図である。It is a schematic diagram which shows the all-around bird's-eye view image. 周囲監視装置の動作の流れ(作用)を示すフローチャートである。It is a flowchart which shows the flow (action) of the operation of the surroundings monitoring device.

以下、本発明に係るブームを有する作業車両の周囲監視装置の具体的な実施形態について、図面を用いて説明する。 Hereinafter, a specific embodiment of the surrounding monitoring device for a work vehicle having a boom according to the present invention will be described with reference to the drawings.

<クレーンの概略構成>
図1は、作業車両の一例としてのクレーン1を右側方から見た側面図、図2は図1のクレーン1を上方から見た平面図である。
<Outline configuration of crane>
FIG. 1 is a side view of a crane 1 as an example of a work vehicle viewed from the right side, and FIG. 2 is a plan view of the crane 1 of FIG. 1 viewed from above.

図示のクレーン1は、走行体(キャリヤ)2と旋回体3とを備える。走行体2は、走行機能を有する部分であり、複数の車輪と、車輪および旋回体3を駆動するエンジン等の駆動源とを有する。 The illustrated crane 1 includes a traveling body (carrier) 2 and a swivel body 3. The traveling body 2 is a portion having a traveling function, and has a plurality of wheels and a driving source such as an engine for driving the wheels and the turning body 3.

図示を省略しているが、走行体2は、前側及び後側に各々左右一対のアウトリガを備えていて、このアウトリガを車幅方向Wに張り出して接地することで、ブーム7を用いた作業時(作業モード)に走行体2の安定性を高めている。 Although not shown, the traveling body 2 is provided with a pair of left and right outriggers on the front side and the rear side, respectively, and by projecting the outriggers in the vehicle width direction W and touching the ground, when working with the boom 7. The stability of the traveling body 2 is improved in (work mode).

旋回体3は、図1に示すように、走行体2の上方に配置されて、走行体2に対して、鉛直軸C回りに旋回可能に設けられている。旋回体3は、キャビン5とブームサポート6とを有している。キャビン5は、クレーン作業を行うオペレータOpが各種の操作を行うための車室であり、車幅方向Wの右側に偏って配置されている。 As shown in FIG. 1, the swivel body 3 is arranged above the traveling body 2 and is provided so as to be able to swivel around the vertical axis C with respect to the traveling body 2. The swivel body 3 has a cabin 5 and a boom support 6. The cabin 5 is a passenger compartment for the operator Op who performs the crane work to perform various operations, and is arranged unevenly on the right side in the vehicle width direction W.

図3はキャビン5の内部の一例を示す模式図である。キャビン5の内部には、各種の操作に対応した操作部が設けられている。各種の操作としては、例えば、旋回体3の旋回、ブーム7の起伏及び伸縮、ブームサポート6に設けられたウインチドラムによる吊り荷用のワイヤロープ8の巻上げ及び巻下げ、アウトリガの張り出し及び格納、駆動源であるエンジンの始動及び停止等がある。 FIG. 3 is a schematic view showing an example of the inside of the cabin 5. Inside the cabin 5, an operation unit corresponding to various operations is provided. Various operations include, for example, turning the swivel body 3, undulating and expanding and contracting the boom 7, hoisting and lowering the wire rope 8 for suspension by a winch drum provided on the boom support 6, and extending and storing the outrigger. There are starting and stopping of the engine, which is the drive source.

また、キャビン5の内部には、後述する周囲監視装置10(後述の図4参照)のディスプレイ14、コントローラ13及びブザー16などが配置されている。 Further, inside the cabin 5, a display 14, a controller 13, a buzzer 16 and the like of a surrounding monitoring device 10 (see FIG. 4 described later) described later are arranged.

ブームサポート6は、伏した状態で前後方向Lに延びたブーム7を支持する部材であり、ブーム7の基端部がブーム根本支点ピンを介してブームサポート6に取り付けられている。ブーム7は、ブーム根本支点ピンを中心にして鉛直面内で起伏するように回転自在に支持されている。 The boom support 6 is a member that supports the boom 7 extending in the front-rear direction L in a prone state, and the base end portion of the boom 7 is attached to the boom support 6 via a boom root fulcrum pin. The boom 7 is rotatably supported so as to undulate in a vertical plane about a boom root fulcrum pin.

ブームサポート6とブーム7との間に起伏用シリンダが設けられていて、起伏用シリンダを伸ばすことにより、ブーム7はブーム根本支点ピンを中心に回転して伏した状態から立ち上がり、また、立ち上がった状態から起伏用シリンダを縮めることにより、伏した状態に起伏動作する。 An undulating cylinder is provided between the boom support 6 and the boom 7, and by extending the undulating cylinder, the boom 7 rotates around the boom root fulcrum pin and rises from the prone state, and then rises again. By contracting the undulating cylinder from the state, the undulating operation is performed in the undulating state.

ブーム7は、例えば、内部で伸縮シリンダにより連結された基端ブーム7aと4段の中間ブーム7b,7c,7d,7eと先端ブーム7fとを有している。伸縮シリンダが縮んだ状態では、基端ブーム7aの内側に中間ブーム7b〜7eが配置され、中間ブーム7eの内側に先端ブーム7fが配置された入れ子式に組み合わされて、ブーム7は縮んだ状態となる。 The boom 7 has, for example, a base end boom 7a connected internally by a telescopic cylinder, four-stage intermediate booms 7b, 7c, 7d, 7e, and a tip boom 7f. In the contracted state of the telescopic cylinder, the intermediate booms 7b to 7e are arranged inside the base end boom 7a, and the tip boom 7f is arranged inside the intermediate boom 7e in a nested manner, and the boom 7 is in the contracted state. Will be.

図1に示す縮んだ状態から伸縮シリンダが伸びると、基端ブーム7aの内側から各中間ブーム7b〜7eが突出し、中間ブーム7eの内側から先端ブーム7fが突出して、ブーム7は伸びた状態となる。 When the telescopic cylinder is extended from the contracted state shown in FIG. 1, each intermediate boom 7b to 7e protrudes from the inside of the base end boom 7a, the tip boom 7f protrudes from the inside of the intermediate boom 7e, and the boom 7 is extended. Become.

先端ブーム7fの先端部の先端ブロック7gに配置されたシーブに、ウインチドラムに巻回されたワイヤロープ8が掛け回され、このワイヤロープ8には、フックブロック9が設けられている。フックブロック9のフック9aには、玉掛け用具により荷物が掛けられる。 A wire rope 8 wound around a winch drum is hung on a sheave arranged at the tip block 7g at the tip of the tip boom 7f, and the wire rope 8 is provided with a hook block 9. Luggage is hung on the hook 9a of the hook block 9 by a slinging tool.

フック9aに掛けられた荷物は、ブーム7の起伏及び伸縮、旋回体3の旋回並びにワイヤロープ8の巻上げ及び巻下げの各動作の1つ以上により、吊り上げ、移動、吊り下しというクレーン作業に供される。 The load hung on the hook 9a can be lifted, moved, and hung by one or more of the undulations and expansions and contractions of the boom 7, the swivel of the swivel body 3, and the hoisting and lowering of the wire rope 8. Served.

<周囲監視装置>
図4はクレーン1に設けられた周囲監視装置10を示すブロック図である。クレーン1に設けられた周囲監視装置10は、クレーン1の周囲をカメラ11により撮影し、その撮影して得られた周囲の画像をディスプレイ14に表示して、オペレータOpに視認できるようにするとともに、その画像に存在する人を自動的に検出して、強調処理してディスプレイ14に表示したり、ブザー16を鳴らしたりして、オペレータOpに注意を促すものである。
<Around monitoring device>
FIG. 4 is a block diagram showing a surrounding monitoring device 10 provided on the crane 1. The surroundings monitoring device 10 provided on the crane 1 photographs the surroundings of the crane 1 with a camera 11, displays the image of the surroundings obtained by the images on the display 14, and makes it visible to the operator Op. , The person present in the image is automatically detected, highlighted and displayed on the display 14, or the buzzer 16 is sounded to alert the operator Op.

周囲監視装置10は、図4に示すように、複数のカメラ11と、複数のセンサ12(動体検出部)と、コントローラ13と、ディスプレイ14と、ブザー16と、を備えている。 As shown in FIG. 4, the ambient monitoring device 10 includes a plurality of cameras 11, a plurality of sensors 12 (moving object detection units), a controller 13, a display 14, and a buzzer 16.

複数のカメラ11は、前部カメラ11a、後部カメラ11b、右側部カメラ11c及び左側部カメラ11dである。各カメラ11a,11b,11c,11dは、いずれも180[度]程度の広い画角を有する魚眼レンズを有するカメラである。 The plurality of cameras 11 are a front camera 11a, a rear camera 11b, a right side camera 11c, and a left side camera 11d. Each of the cameras 11a, 11b, 11c, and 11d is a camera having a fisheye lens having a wide angle of view of about 180 [degrees].

図5は全周俯瞰画像Pを示す模式図である。図2に示すように、前部カメラ11aは、走行体2の前部に設けられていて、クレーン1の周囲のうち主に前方の画像(前方画像)Paを撮影する。後部カメラ11bは、走行体2の後部に設けられていて、クレーン1の周囲のうち主に後方の画像(後方画像)Pbを撮影する。 FIG. 5 is a schematic view showing an all-around bird's-eye view image P. As shown in FIG. 2, the front camera 11a is provided at the front portion of the traveling body 2, and mainly captures a front image (front image) Pa of the periphery of the crane 1. The rear camera 11b is provided at the rear of the traveling body 2, and mainly captures a rear image (rear image) Pb around the crane 1.

右側部カメラ11cは、走行体2の右側部に設けられていて、クレーン1の周囲のうち主に右側方の画像(右側方画像)Pcを撮影する。左側部カメラ11dは、走行体2の左側部に設けられていて、クレーン1の周囲のうち主に左側方の画像(左側方画像)Pdを撮影する。 The right side camera 11c is provided on the right side of the traveling body 2, and mainly captures the right side image (right side image) Pc around the crane 1. The left side camera 11d is provided on the left side of the traveling body 2, and mainly captures the left side image (left side image) Pd around the crane 1.

前部カメラ11aによる撮影領域と右側部カメラ11cによる撮影領域は、右側部カメラ11cの撮影領域の前側に対応する一部において重複する。前部カメラ11aによる撮影領域と左側部カメラ11dによる撮影領域も、左側部カメラ11dの撮影領域の前側に対応する一部において重複する。 The photographing area by the front camera 11a and the photographing area by the right side camera 11c overlap in a part corresponding to the front side of the photographing area of the right side camera 11c. The photographing area by the front camera 11a and the photographing area by the left side camera 11d also overlap in a part corresponding to the front side of the photographing area of the left side camera 11d.

後部カメラ11bによる撮影領域と右側部カメラ11cによる撮影領域は、右側部カメラ11cの撮影領域の後側に対応する一部において重複する。後部カメラ11bによる撮影領域と左側部カメラ11dによる撮影領域も、左側部カメラ11dの撮影領域の後側に対応する一部において重複する。 The photographing area by the rear camera 11b and the photographing area by the right side camera 11c overlap in a part corresponding to the rear side of the photographing area of the right side camera 11c. The photographing area by the rear camera 11b and the photographing area by the left side camera 11d also overlap in a part corresponding to the rear side of the photographing area of the left side camera 11d.

このように、4つのカメラ11a〜11dにより、クレーン1の周囲を全周に亘って撮影する、 In this way, the four cameras 11a to 11d photograph the circumference of the crane 1 over the entire circumference.

複数のセンサ12は、前部センサ12a、後部センサ12b、右側部センサ12c及び左側部センサ12dである。各センサ12a,12b,12c,12dは、所定の範囲における動体を検出するセンサである。各センサ12a,12b,12c,12dは、各カメラ11a、11b、11c、11dに対応して設けられている。 The plurality of sensors 12 are a front sensor 12a, a rear sensor 12b, a right side sensor 12c, and a left side sensor 12d. Each sensor 12a, 12b, 12c, 12d is a sensor that detects a moving object in a predetermined range. The sensors 12a, 12b, 12c, and 12d are provided corresponding to the cameras 11a, 11b, 11c, and 11d.

すなわち、前部センサ12aは、走行体2の前部に設けられていて、前部カメラ11aが撮影する前方を、動体の検出範囲とする。 That is, the front sensor 12a is provided in the front part of the traveling body 2, and the front side taken by the front camera 11a is set as the detection range of the moving body.

同様に、後部センサ12bは走行体2の後部に設けられていて、後部カメラ11bが撮影する後方を動体の検出範囲とし、右側部センサ12cは走行体2の右側部に設けられていて、右側部カメラ11cが撮影する右側方を検出範囲とし、左側部センサ12dは走行体2の左側部に設けられていて、左側部カメラ11dが撮影する左側方を検出範囲とする。 Similarly, the rear sensor 12b is provided at the rear of the traveling body 2 and the rear portion photographed by the rear camera 11b is set as the detection range of the moving object, and the right side sensor 12c is provided at the right side of the traveling body 2 and is on the right side. The right side taken by the camera 11c is the detection range, the left side sensor 12d is provided on the left side of the traveling body 2, and the left side taken by the left side camera 11d is the detection range.

コントローラ13は、各カメラ11a〜11dで撮影された画像が入力されるとともに、各センサ12a〜12dで検出された動体の検出結果が入力される。 Images taken by the cameras 11a to 11d are input to the controller 13, and the detection results of moving objects detected by the sensors 12a to 12d are input to the controller 13.

コントローラ13は、各カメラ11a〜11dで撮影された4つの画像Pa,Pb,Pc,Pdを、クレーン1の上方から鉛直下方に見下ろしたと想定される俯瞰画像PA,PB,PC,PDに視点変換処理する。さらに、コントローラ13は、視点変換処理して得られた4つの俯瞰画像PA〜PDを、図5に示すように、クレーン1を中心とした全周囲が繋がった単一の画像(全周俯瞰画像P)に合成処理する。 The controller 13 converts the four images Pa, Pb, Pc, and Pd taken by the cameras 11a to 11d into bird's-eye view images PA, PB, PC, and PD, which are assumed to look down vertically from above the crane 1. To process. Further, the controller 13 combines the four bird's-eye view images PA to PD obtained by the viewpoint conversion process into a single image (entire-circumferential bird's-eye view image) in which the entire circumference around the crane 1 is connected as shown in FIG. Synthesize processing is performed in P).

また、コントローラ13は、人検出部17を備えている。人検出部17は、画像Pa〜Pdに基づいて、又は俯瞰画像PA〜PDに基づいて、それらの画像中の人Hを検出する。画像からの人Hの検出は、例えば、画像中のエッジを検出して、そのエッジの繋がりである輪郭を、人Hの形状と比較することにより検出することができる。人Hの検出は、上述した輪郭形状のマッチング等以外の方法で検出してもよい。 Further, the controller 13 includes a person detection unit 17. The person detection unit 17 detects the person H in those images based on the images Pa to Pd or based on the bird's-eye view images PA to PD. The detection of the person H from the image can be performed, for example, by detecting an edge in the image and comparing the contour which is the connection of the edges with the shape of the person H. The human H may be detected by a method other than the above-mentioned contour shape matching or the like.

コントローラ13は、人検出部17が人Hを検出したときは、図5に示すように、検出した人Hの外側を囲む矩形枠Fを生成する。また、コントローラ13は、人検出部17が人Hを検出したときは、キャビン5に設けられたブザー16を鳴らす。 When the person detection unit 17 detects the person H, the controller 13 generates a rectangular frame F that surrounds the outside of the detected person H, as shown in FIG. Further, when the person detection unit 17 detects the person H, the controller 13 sounds the buzzer 16 provided in the cabin 5.

このように、周囲監視装置10は、写っている人Hを矩形枠Fで囲んで表示することにより、全周俯瞰画像P中に単に人Hが表示されている場合に比べて、全周俯瞰画像Pにおける人Hを強調することができ、ディスプレイ14を見たオペレータOpに対して、人Hの存在を気づき易くさせることができる。 In this way, the surrounding monitoring device 10 displays the person H in the image surrounded by the rectangular frame F, so that the whole-around bird's-eye view is compared with the case where the person H is simply displayed in the all-around bird's-eye view image P. The person H in the image P can be emphasized, and the presence of the person H can be easily noticed by the operator Op who sees the display 14.

また、周囲監視装置10は、ブザー16を鳴らすことにより、オペレータOpは聴覚で人Hの存在を確認することができる。したがって、周囲監視装置10は、オペレータOpがディスプレイ14を見ていない状況で、検出した人Hを囲う矩形枠Fの表示に気づかなかった場合でも、人Hの存在を気づかせることができる。 Further, by sounding the buzzer 16 in the surrounding monitoring device 10, the operator Op can confirm the existence of the person H by hearing. Therefore, the surrounding monitoring device 10 can make the presence of the person H notice even if the operator Op does not notice the display of the rectangular frame F surrounding the detected person H when the operator Op is not looking at the display 14.

ここで、1つの人検出部17が、4つのカメラ11a〜11dの対応する4つの画像Pa〜Pd又は4つの俯瞰画像PA〜PDに対して人Hの検出処理を行う。したがって、本実施形態の人検出部17は、4つのカメラ11a〜11dに1つずつ対応する人検出部を備えたものに比べて、処理の負荷が大きい。 Here, one person detection unit 17 performs detection processing of the person H on the corresponding four images Pa to Pd or the four bird's-eye view images PA to PD of the four cameras 11a to 11d. Therefore, the processing load of the person detection unit 17 of the present embodiment is larger than that of the person detection unit 17 having a person detection unit corresponding to each of the four cameras 11a to 11d.

このため、単一の人検出部17が、4つの画像Pa〜Pd又は4つの俯瞰画像PA〜PDの全てに対して、精度の良い検出処理を行おうとすると、処理が間に合わなくなる可能性も生じ得る。 Therefore, if the single person detection unit 17 tries to perform accurate detection processing on all four images Pa to Pd or all four bird's-eye view images PA to PD, the processing may not be in time. obtain.

そこで、本実施形態の人検出部17は、人Hの検出処理の負荷を軽減するために、4つの画像Pa〜Pd又は4つの俯瞰画像PA〜PDに対して均等に精度の良い処理を行うのではなく、優先的に設定された1つ又は2つの画像Pa〜Pd又は俯瞰画像PA〜PDに対してのみ精度の良い検出処理を行い、残りの他の2つまたは3つの画像Pa〜Pd又は俯瞰画像PA〜PDに対しては、精度を低下させた検出処理を行う。 Therefore, the person detection unit 17 of the present embodiment performs equally accurate processing on the four images Pa to Pd or the four bird's-eye view images PA to PD in order to reduce the load of the detection processing of the person H. However, accurate detection processing is performed only on one or two images Pa to Pd or bird's-eye view images PA to PD that are set preferentially, and the remaining two or three images Pa to Pd are performed. Alternatively, the bird's-eye view images PA to PD are subjected to detection processing with reduced accuracy.

具体的には、人検出部17は、ブーム7の旋回位置に対応した所定の1つの画像Pa〜Pd(又は1つの俯瞰画像PA〜PD)を選択して、その選択した1つの画像Pa〜Pd(又は1つの俯瞰画像PA〜PD)に対しては精度の良い処理を行い、残りの他の3つの画像Pa〜Pd(又は3つの俯瞰画像PA〜PD)に対しては、選択した1つの画像Pa〜Pd(又は1つの俯瞰画像PA〜PD)よりは精度の低い処理とする。 Specifically, the person detection unit 17 selects a predetermined one image Pa to Pd (or one bird's-eye view image PA to PD) corresponding to the turning position of the boom 7, and the selected one image Pa to Accurate processing is performed on Pd (or one bird's-eye view image PA to PD), and the selected 1 is applied to the remaining three other images Pa to Pd (or three bird's-eye view images PA to PD). The processing is less accurate than one images Pa to Pd (or one bird's-eye view images PA to PD).

このような処理を行うために、人検出部17は、旋回位置検出部17aと、画像選択部17bと、パラメータ調整部17cとを備えている。 In order to perform such processing, the person detection unit 17 includes a turning position detection unit 17a, an image selection unit 17b, and a parameter adjustment unit 17c.

旋回位置検出部17aは、ブーム7(旋回体3)の旋回位置(旋回角度)を検出するものである。ブーム7の旋回位置はブーム7の先端が向いている向きであり、例えば、ブーム7の先端が、クレーン1の走行体2の前方を向いたときの旋回位置は0[度]であり、走行体2の右側方を向いたときの旋回位置は90[度]であり、走行体2の後方を向いたときの旋回位置は180[度]であり、走行体2の左側方を向いたときの旋回位置は270[度]である。 The swivel position detection unit 17a detects the swivel position (swivel angle) of the boom 7 (swivel body 3). The turning position of the boom 7 is the direction in which the tip of the boom 7 is facing. For example, the turning position when the tip of the boom 7 is facing the front of the traveling body 2 of the crane 1 is 0 [degree], and the traveling body 7 is running. The turning position when facing the right side of the body 2 is 90 [degrees], the turning position when facing the rear of the traveling body 2 is 180 [degrees], and when facing the left side of the traveling body 2. The turning position of is 270 [degrees].

旋回位置検出部17aは、クレーン1の旋回体3の旋回角度(図1における鉛直軸C回りの角度)を、入力されたクレーン情報に基づいて検出するが、クレーン1の過負荷を検出する装置(AML)のために予め設けられている既存の検出器によって検出してもよいし、新たに設けたもので検出してもよい。 The swivel position detection unit 17a detects the swivel angle of the swivel body 3 of the crane 1 (the angle around the vertical axis C in FIG. 1) based on the input crane information, but is a device for detecting the overload of the crane 1. It may be detected by an existing detector provided in advance for (AML), or may be detected by a newly provided one.

画像選択部17bは、ブーム7の旋回位置に対して所定の位置関係に対応した画像を、注目画像として選択するものである。画像選択部17bが選択する、ブーム7の旋回位置に対する所定の位置関係としては、例えば、ブーム7の旋回位置に対して180[度]の位置関係である。 The image selection unit 17b selects an image corresponding to a predetermined positional relationship with respect to the turning position of the boom 7 as an image of interest. The predetermined positional relationship with respect to the turning position of the boom 7 selected by the image selection unit 17b is, for example, a positional relationship of 180 [degrees] with respect to the turning position of the boom 7.

つまり、画像選択部17bは、ブーム7の先端が向いた向きと反対側の向きに存在する1つの画像Pa〜Pd(又は1つの俯瞰画像PA〜PD)を選択する。本実施形態の人検出部17の画像選択部17bは、キャビン5内において操作を行うオペレータOpが、キャビン5から目視で直接視認することができない、旋回体3の後方(ブーム7の旋回位置に対して180[度]の位置関係の方向)の画像Pa〜Pd(又は1つの俯瞰画像PA〜PD)を選択する。 That is, the image selection unit 17b selects one image Pa to Pd (or one bird's-eye view image PA to PD) existing in the direction opposite to the direction in which the tip of the boom 7 faces. The image selection unit 17b of the person detection unit 17 of the present embodiment is behind the swivel body 3 (at the swivel position of the boom 7), which the operator Op operating in the cabin 5 cannot directly visually recognize from the cabin 5. On the other hand, images Pa to Pd (or one bird's-eye view images PA to PD) of 180 [degrees] of the positional relationship are selected.

そして、パラメータ調整部17cは、画像選択部17bが選択した、ブーム7の旋回位置に対して180[度]の位置関係の1つの画像Pa〜Pd(又は1つの俯瞰画像PA〜PD)に対して、選択されなかった他の3つの画像Pa〜Pd(又は他の3つの俯瞰画像PA〜PD)に対する処理よりも、人Hを精度よく検出するための処理のパラメータを設定する。 Then, the parameter adjusting unit 17c refers to one image Pa to Pd (or one bird's-eye view image PA to PD) having a positional relationship of 180 [degrees] with respect to the turning position of the boom 7 selected by the image selection unit 17b. Therefore, the parameters of the process for detecting the person H more accurately than the process for the other three images Pa to Pd (or the other three bird's-eye view images PA to PD) that are not selected are set.

また、パラメータ調整部17cは、画像選択部17bが選択しなかった他の3つの画像Pa〜Pd(又は他の3つの俯瞰画像PA〜PD)に対する、人Hを検出するための処理のパラメータを、選択した1つの画像Pa〜Pd(又は1つの俯瞰画像PA〜PD)に対する処理よりも、人Hを検出する精度が低くなるように、パラメータを設定する。 Further, the parameter adjusting unit 17c sets parameters for processing for detecting the person H with respect to the other three images Pa to Pd (or the other three bird's-eye view images PA to PD) not selected by the image selection unit 17b. , The parameters are set so that the accuracy of detecting the person H is lower than the processing for one selected images Pa to Pd (or one bird's-eye view images PA to PD).

パラメータ調整部17cが設定する処理のパラメータは、例えば、カメラ11で撮影された画像に対する処理を行う周期(フレームレート[fps])や解像度である。つまり、人Hを精度よく検出するための処理のパラメータとしてのフレームレートを大きくする(例えば)、30[fps]ことで、人Hを検出することができる周期を短くすることができ、これにより人Hを検出する精度を高めることができる。 The processing parameters set by the parameter adjusting unit 17c are, for example, the period (frame rate [fps]) and the resolution for processing the image captured by the camera 11. That is, by increasing the frame rate as a processing parameter for accurately detecting the person H (for example), 30 [fps], the cycle in which the person H can be detected can be shortened, thereby shortening the period in which the person H can be detected. The accuracy of detecting the person H can be improved.

また、人Hを精度よく検出するための処理のパラメータとしての解像度を大きくすることで、人Hを検出することができる画像の精度を高めることができる。 Further, by increasing the resolution as a processing parameter for accurately detecting the person H, the accuracy of the image capable of detecting the person H can be improved.

このようにして、本実施形態の人検出部17は、クレーン1の全周俯瞰画像Pのうち、ブーム7の旋回位置に対して180[度]の位置関係にある1つの画像Pa〜Pd(又は1つの俯瞰画像PA〜PD)を注目画像として精度よく人Hを検出することができる。 In this way, the person detection unit 17 of the present embodiment has one image Pa to Pd (1 degree] in the positional relationship of 180 [degrees] with respect to the turning position of the boom 7 in the all-around bird's-eye view image P of the crane 1. Alternatively, the person H can be detected accurately by using one bird's-eye view image (PA to PD) as the image of interest.

一方、本実施形態の人検出部17は、注目画像以外の他の3つの画像Pa〜Pd(又は3つの俯瞰画像PA〜PD)については、注目度が低いため、精度を落として(フレームレートを低くしたり(例えば10[fps])、画像の解像度を低くしたりして)処理することができるため、コントローラ13の処理の負荷を低減することができる。 On the other hand, the person detection unit 17 of the present embodiment reduces the accuracy (frame rate) of the three images Pa to Pd (or the three bird's-eye view images PA to PD) other than the image of interest because the degree of attention is low. (For example, 10 [fps]) or the image resolution can be lowered, so that the processing load of the controller 13 can be reduced.

なお、本実施形態の人検出部17は、人Hの検出精度を高くする注目画像を、ブーム7の旋回位置に対して180[度]の位置関係にあるものとしたが、ブーム7の旋回位置に対して0[度]の位置関係にあるものとしてもよいし、オペレータOpによる選択によって、任意に選択することができるようにしてもよい。 The person detection unit 17 of the present embodiment assumes that the image of interest that enhances the detection accuracy of the person H has a positional relationship of 180 [degrees] with respect to the turning position of the boom 7, but the turning of the boom 7 It may be in a positional relationship of 0 [degrees] with respect to the position, or may be arbitrarily selected by selection by the operator Op.

この場合、例えば、ディスプレイ14を、受付部15としてのタッチパネルとし、オペレータOpが、ディスプレイ14に表示された全周俯瞰画像Pを構成する4つの俯瞰画像PA〜PDのうち1つを、オペレータOpが人Hの検出精度を高くする注目画像として、受付部15に触って選択することで、選択された1つの俯瞰画像PA〜PDの、注目画像として選択することもできる。 In this case, for example, the display 14 is used as a touch panel as the reception unit 15, and the operator Op sets one of the four bird's-eye view images PA to PD constituting the all-around bird's-eye view image P displayed on the display 14 as the operator Op. Can be selected as a attention image of one selected bird's-eye view images PA to PD by touching and selecting the reception unit 15 as a attention image for increasing the detection accuracy of the person H.

この場合、2つの俯瞰画像PA〜PDを注目画像として選択することもできる。 In this case, the two bird's-eye view images PA to PD can be selected as the attention image.

また、上述したように、いずれか1つの画像Pa〜Pd(又は1つの俯瞰画像PA〜PD)が注目画像として、ブーム7の旋回位置に応じて自動的に又はオペレータOpの任意に選択により選択されている場合であっても、いずれかのセンサ12a〜12dが、動体を検出したときは、画像選択部17bは、注目画像を、既存の選択されている画像から、その動体を検出したセンサ12a〜12dの検出範囲に対応した1つの画像(センサ12a〜12dの設置位置に対応したカメラ11a〜11dにより撮影された画像)Pa〜Pdに切り替えるようにしてもよい。 Further, as described above, any one of the images Pa to Pd (or one bird's-eye view image PA to PD) is selected as the image of interest automatically or arbitrarily by the operator Op according to the turning position of the boom 7. Even if it is, when any of the sensors 12a to 12d detects a moving object, the image selection unit 17b detects the moving object from the existing selected image by the image selection unit 17b. One image corresponding to the detection range of 12a to 12d (image taken by the cameras 11a to 11d corresponding to the installation position of the sensors 12a to 12d) may be switched to Pa to Pd.

クレーン1の周囲の、オペレータOpの注目度が低かった画像に、動体が検出された場合、その動体は人Hである可能性があるため、その画像を、検出精度の良い処理で人Hを検出することで、オペレータOpが注目すべき画像を迅速に切り替えることができる。 If a moving object is detected in the image around the crane 1 where the operator Op has a low degree of attention, the moving object may be a human H. Therefore, the image is displayed as a human H by a process with good detection accuracy. By detecting, the operator Op can quickly switch the image of interest.

図6は周囲監視装置10の動作の流れ(作用)を示すフローチャートである。上述した、本実施形態の周囲監視装置10の作用を、図6のフローチャートに従って説明する。 FIG. 6 is a flowchart showing an operation flow (action) of the surrounding monitoring device 10. The operation of the ambient monitoring device 10 of the present embodiment described above will be described with reference to the flowchart of FIG.

各カメラ11a〜11dから撮影された画像Pa〜Pdが、コントローラ13の人検出部17に入力される(S1)。また、人検出部17に、クレーン情報としてブーム7の旋回位置が入力される(S2)。 The images Pa to Pd taken from the cameras 11a to 11d are input to the person detection unit 17 of the controller 13 (S1). Further, the turning position of the boom 7 is input to the person detection unit 17 as crane information (S2).

人検出部17の旋回位置検出部17aが、入力されたブーム7の旋回位置を検出し、画像選択部17bが、入力された4つの画像Pa〜Pdのうち、ブーム7の検出位置に対して予め設定された位置関係の1つの画像Pa〜Pdを選択する(S3)。 The swivel position detection unit 17a of the person detection unit 17 detects the swivel position of the input boom 7, and the image selection unit 17b refers to the detection position of the boom 7 among the four input images Pa to Pd. One image Pa to Pd having a preset positional relationship is selected (S3).

オペレータOpによる、受付部15を通じての画像Pa〜Pdの選択があったとき(S4においてYES)は、画像選択部17bは、S3において選択した画像Pa〜Pdを、オペレータOpにより選択された画像Pa〜Pdに切り替える(S5)。 When the operator Op selects the images Pa to Pd through the reception unit 15 (YES in S4), the image selection unit 17b selects the images Pa to Pd selected in S3 by the operator Op. Switch to ~ Pd (S5).

オペレータOpによる、受付部15を通じての画像Pa〜Pdの選択がなかったとき(S4においてNO)及び選択した画像を切り替えたとき(S5)は、いずれかのセンサ12a〜12dにより、動体が検出されたことを示す入力があったか否かを判断する(S6)。 When the operator Op does not select the images Pa to Pd through the reception unit 15 (NO in S4) and when the selected image is switched (S5), the moving object is detected by any of the sensors 12a to 12d. It is determined whether or not there is an input indicating that (S6).

動体が検出されたことを示す入力があったとき(S6においてYES)は、画像選択部17bは、S3において選択した画像Pa〜Pd又はS5において切り替えた画像Pa〜Pdを、動体を検出したセンサ12a〜12dに対応したカメラ11a〜11bの画像Pa〜Pdに切り替える(S7)。 When there is an input indicating that a moving object has been detected (YES in S6), the image selection unit 17b uses the images Pa to Pd selected in S3 or the images Pa to Pd switched in S5 as a sensor for detecting the moving object. The images Pa to Pd of the cameras 11a to 11b corresponding to 12a to 12d are switched (S7).

動体が検出されたことを示す入力が無かったとき(S6においてNO)は、S3、S5、又はS7で選択された画像を、注目画像として選択した状態とする。 When there is no input indicating that a moving object has been detected (NO in S6), the image selected in S3, S5, or S7 is set as the image of interest.

人検出部17は、全ての画像Pa〜Pd(又は俯瞰画像PA〜PD)に基づいて、人Hを検出する処理を行う(S9)が、このとき、人Hを検出する処理のためのパラメータを調整するパラメータ調整部17cは、選択された1つの画像Pa〜Pd(又は1つの俯瞰画像PA〜PD)については、選択されていない他の3つの画像Pa〜Pd(又は3つの俯瞰画像PA〜PD)よりも、人Hの検出処理を精度の良い処理とするようにパラメータを調整する(S8)。 The person detection unit 17 performs a process of detecting the person H based on all the images Pa to Pd (or the bird's-eye view images PA to PD) (S9). At this time, the parameter for the process of detecting the person H is performed. The parameter adjusting unit 17c for adjusting the above adjusts the selected images Pa to Pd (or one bird's-eye view image PA to PD) to the other three images Pa to Pd (or three bird's-eye view images PA) that are not selected. -PD), the parameters are adjusted so that the detection process of the person H is a more accurate process (S8).

反対に、パラメータ調整部17cは、選択されていない3つの画像Pa〜Pd(又は3つの俯瞰画像PA〜PD)については、選択された1つの画像Pa〜Pd(又は1つの俯瞰画像PA〜PD)よりも、人Hの検出処理を精度の低い処理とするようにパラメータを調整して(S8)、人検出部17は人Hの検出処理を行う(S9)。 On the contrary, the parameter adjusting unit 17c has the selected one image Pa to Pd (or one bird's-eye view image PA to PD) for the three unselected images Pa to Pd (or three bird's-eye view images PA to PD). ), The parameter is adjusted so that the detection process of the person H is a process with lower accuracy (S8), and the person detection unit 17 performs the detection process of the person H (S9).

人検出部17による、各画像Pa〜Pd(又俯瞰画像PA〜PD)に基づいた、対応する処理のパラメータでの人Hの検出処理を行い、人Hが検出されたとき(S10においてYES)は、人検出部17は、4つの俯瞰画像PA〜PDを合成して得られた単一の全周俯瞰画像Pにおいて、検出した人Hの周囲を囲む矩形枠Fを重畳させて、ディスプレイ14に、その矩形枠Fが重畳された全周俯瞰画像Pを出力する(S11)。 When the person H is detected by the person detection unit 17 with the corresponding processing parameters based on the images Pa to Pd (also the bird's-eye view images PA to PD) (YES in S10). In the single all-around bird's-eye view image P obtained by synthesizing the four bird's-eye view images PA to PD, the person detection unit 17 superimposes a rectangular frame F surrounding the detected person H on the display 14 An all-around bird's-eye view image P on which the rectangular frame F is superimposed is output (S11).

人検出部17は、矩形枠Fが重畳された全周俯瞰画像Pをディスプレイ14に出力するのに並行して、ブザー16を鳴らし(S12)、処理を終了するとき(S13においてYES)は終了し、終了しないとき(S13においてNO)は、S1に戻って、処理を繰り返す。 The person detection unit 17 sounds the buzzer 16 (S12) in parallel with outputting the all-around bird's-eye view image P on which the rectangular frame F is superimposed to the display 14, and ends when the process ends (YES in S13). If it does not end (NO in S13), the process returns to S1 and the process is repeated.

人検出部17は、人Hを検出しなかった場合(S10においてNO)、処理を終了するとき(S13においてYES)は終了し、終了しないとき(S13においてNO)は、S1に戻って、処理を繰り返す。 When the person detection unit 17 does not detect the person H (NO in S10), it ends when the process ends (YES in S13), and when it does not end (NO in S13), it returns to S1 and processes. repeat.

なお、本実施形態の周囲監視装置10は、注目画像については他の画像よりも人Hの検出精度が良くなるように、処理のパラメータを調整するが、注目画像を除いた他の画像も含めて、画像全体として人Hの検出の処理が間に合わなくなるような状況が発生したときは、処理が間に合うように、ブーム7の旋回速度に応じて、フレームレートや画像の解像度を調整してもよい。 The surrounding monitoring device 10 of the present embodiment adjusts the processing parameters of the attention image so that the detection accuracy of the person H is better than that of the other images, but includes other images excluding the attention image. When a situation occurs in which the processing for detecting the person H cannot be completed in time for the entire image, the frame rate and the resolution of the image may be adjusted according to the turning speed of the boom 7 so that the processing can be performed in time. ..

本実施形態の周囲監視装置10は、ディスプレイ14に表示する画像が全周俯瞰画像Pであるが、本発明に係る周囲監視装置は、ディスプレイに表示する画像が全周俯瞰画像に限定されるものではなく、視点変換処理前の、カメラ11により撮影された通常の画像Pa〜Pdであってもよい。この場合、人検出部17は、これら通常の画像Pa〜Pdに対して人Hを検出する処理を施せばよい。 In the ambient monitoring device 10 of the present embodiment, the image displayed on the display 14 is an all-around bird's-eye view image P, but in the ambient monitoring device according to the present invention, the image displayed on the display is limited to the all-around bird's-eye view image. Instead, the normal images Pa to Pd taken by the camera 11 before the viewpoint conversion process may be used. In this case, the person detection unit 17 may perform a process of detecting the person H on these normal images Pa to Pd.

本実施形態の周囲監視装置10は、人検出部17により人Hが検出されたとき、ブザー16を鳴らすが、ブザー16は無くてもよい。 The surrounding monitoring device 10 of the present embodiment sounds the buzzer 16 when the person H is detected by the person detection unit 17, but the buzzer 16 may be omitted.

1 クレーン
7 ブーム
10 周囲監視装置
11,11a,11b,11c,11d カメラ
12,12a,1b,12c,12d センサ
13 コントローラ
14 ディスプレイ
15 受付部
16 ブザー
17 人検出部
17a 旋回位置検出部
17b 画像選択部
17c パラメータ調整部
F 矩形枠
H 人
L 前後方向
Op オペレータ
P 全周俯瞰画像
PA,PB,PC,PD 俯瞰画像
Pa,Pb,Pc,Pd 画像
W 車幅方向
L 前後方向
1 Crane 7 Boom 10 Surrounding monitoring device 11, 11a, 11b, 11c, 11d Camera 12, 12a, 1b, 12c, 12d Sensor 13 Controller 14 Display 15 Reception 16 Buzzer 17 Person detection 17a Swivel position detection 17b Image selection 17c Parameter adjustment unit F Rectangular frame H Person L Front-back direction Op Operator P All-around bird's-eye view image PA, PB, PC, PD Bird's-eye view image Pa, Pb, Pc, Pd Image W Vehicle width direction L Front-back direction

Claims (3)

ブームを有する作業車両の周囲を撮影するために設けられた複数のカメラと、
複数の前記カメラでそれぞれ撮影して得られた複数の画像に基づいて、人を検出する処理を行う人検出部と、を備え、
前記人検出部は、
前記ブームの旋回位置を検出する旋回位置検出部と、
前記旋回位置検出部により検出された前記ブームの旋回位置に応じて、複数の前記画像のうち、前記ブームの旋回位置と所定の位置関係の画像を選択する画像選択部と、
前記画像選択部により選択された画像に対する前記処理を、前記画像選択部により選択されなかった他の画像に対する前記処理よりも、前記人の検出精度を高めるように処理のパラメータを変化させるパラメータ調整部と、を備えたブームを有する作業車両の周囲監視装置。
Multiple cameras provided to photograph the surroundings of a work vehicle with a boom,
A person detection unit that performs a process of detecting a person based on a plurality of images obtained by taking pictures with the plurality of cameras, respectively, is provided.
The person detection unit
A swivel position detection unit that detects the swivel position of the boom,
An image selection unit that selects an image having a predetermined positional relationship with the rotation position of the boom among a plurality of the images according to the rotation position of the boom detected by the rotation position detection unit.
A parameter adjustment unit that changes the processing parameters so that the processing for the image selected by the image selection unit is higher than the processing for other images not selected by the image selection unit so as to improve the detection accuracy of the person. And, a work vehicle surroundings monitoring device with a boom.
前記所定の位置関係を指定する入力を受け付ける受付部を備え、
前記画像選択部は、前記受付部に入力された前記指定に基づいて、前記所定の位置関係の画像を選択する請求項1に記載のブームを有する作業車両の周囲監視装置。
It is equipped with a reception unit that accepts inputs that specify the predetermined positional relationship.
The image selection unit is a peripheral monitoring device for a work vehicle having a boom according to claim 1, wherein an image having a predetermined positional relationship is selected based on the designation input to the reception unit.
前記複数のカメラがそれぞれ撮影する範囲の動体を検出する、前記複数のカメラの設置位置にそれぞれ対応して設けられた複数の動体検出部を備え、
前記画像選択部は、前記複数の動体検出部のうちいずれかの動体検出部が動体を検出したときは、前記複数のカメラのうち、前記動体を検出した動体検出部が設けられた設置位置に対応するカメラにより撮影して得られた画像を選択する請求項1又は2に記載の、ブームを有する作業車両の周囲監視装置。
It is provided with a plurality of moving object detecting units provided corresponding to the installation positions of the plurality of cameras, which detect moving objects in a range to be photographed by the plurality of cameras.
When any one of the plurality of moving object detection units detects a moving object, the image selection unit is placed at an installation position where the moving object detecting unit that has detected the moving object is provided among the plurality of cameras. The peripheral monitoring device for a work vehicle having a boom according to claim 1 or 2, wherein an image obtained by taking a picture with a corresponding camera is selected.
JP2019203006A 2019-11-08 2019-11-08 Periphery monitoring device for work vehicle having boom Pending JP2021075359A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019203006A JP2021075359A (en) 2019-11-08 2019-11-08 Periphery monitoring device for work vehicle having boom

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019203006A JP2021075359A (en) 2019-11-08 2019-11-08 Periphery monitoring device for work vehicle having boom

Publications (1)

Publication Number Publication Date
JP2021075359A true JP2021075359A (en) 2021-05-20

Family

ID=75899062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019203006A Pending JP2021075359A (en) 2019-11-08 2019-11-08 Periphery monitoring device for work vehicle having boom

Country Status (1)

Country Link
JP (1) JP2021075359A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023162201A1 (en) * 2022-02-28 2023-08-31 株式会社エムエムアイ Crane equipment control system and crane equipment control method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002327470A (en) * 2001-05-02 2002-11-15 Komatsu Ltd Display device for working machine
JP2017160027A (en) * 2016-03-10 2017-09-14 株式会社タダノ Crane operation support device
JP2018039476A (en) * 2016-09-09 2018-03-15 株式会社タダノ Image display system
JP2019028481A (en) * 2017-07-25 2019-02-21 矢崎エナジーシステム株式会社 On-vehicle device and driving support apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002327470A (en) * 2001-05-02 2002-11-15 Komatsu Ltd Display device for working machine
JP2017160027A (en) * 2016-03-10 2017-09-14 株式会社タダノ Crane operation support device
JP2018039476A (en) * 2016-09-09 2018-03-15 株式会社タダノ Image display system
JP2019028481A (en) * 2017-07-25 2019-02-21 矢崎エナジーシステム株式会社 On-vehicle device and driving support apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023162201A1 (en) * 2022-02-28 2023-08-31 株式会社エムエムアイ Crane equipment control system and crane equipment control method

Similar Documents

Publication Publication Date Title
US9836938B2 (en) Shovel having audio output device installed in cab
JP5876679B2 (en) Performance line display device
JP5462008B2 (en) Image display system
CN107454891B (en) Display device of mobile crane and synchronization device of mobile crane
CN110383831B (en) Person detection system for work vehicle and work vehicle provided with same
JP6589468B2 (en) Perimeter display device for mobile crane
JP6486596B2 (en) Specified range monitoring system
JP2013142037A (en) Suspended load monitoring camera device for working vehicle
JP6507501B2 (en) Obstacle notification system for crane car
JP6897075B2 (en) Overwinding detector
JP6352797B2 (en) Work machine ambient monitoring device
JP6766516B2 (en) Obstacle detector
JP5243760B2 (en) Outrigger extension amount detection device
JP2016013889A (en) Obstacle notification system of crane vehicle
JP5575571B2 (en) Image generation system
JP6162481B2 (en) Work area line display device
EP3786102A1 (en) Crane vehicle
JP2021075359A (en) Periphery monitoring device for work vehicle having boom
JP5595822B2 (en) Image generation system
JP2017061283A (en) Periphery monitoring device of work vehicle
WO2019163875A1 (en) Camera device, suspended-load monitoring system, and working machine
JP6686561B2 (en) Crane operation support device
JP6756554B2 (en) Image display system
JP2016013890A (en) Obstacle notification system of crane vehicle
JP2016013888A (en) Obstacle notification system of crane vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240220