JP6940906B1 - Peripheral monitoring device for work machines - Google Patents

Peripheral monitoring device for work machines Download PDF

Info

Publication number
JP6940906B1
JP6940906B1 JP2021055104A JP2021055104A JP6940906B1 JP 6940906 B1 JP6940906 B1 JP 6940906B1 JP 2021055104 A JP2021055104 A JP 2021055104A JP 2021055104 A JP2021055104 A JP 2021055104A JP 6940906 B1 JP6940906 B1 JP 6940906B1
Authority
JP
Japan
Prior art keywords
work machine
person
image data
distance
alarm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021055104A
Other languages
Japanese (ja)
Other versions
JP2022152362A (en
Inventor
将 酒井
将 酒井
翔 佐々木
翔 佐々木
哲也 森住
哲也 森住
隆志 前田
隆志 前田
裕太 長谷川
裕太 長谷川
大樹 村上
大樹 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Regulus Co Ltd
Original Assignee
Regulus Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Regulus Co Ltd filed Critical Regulus Co Ltd
Priority to JP2021055104A priority Critical patent/JP6940906B1/en
Application granted granted Critical
Publication of JP6940906B1 publication Critical patent/JP6940906B1/en
Publication of JP2022152362A publication Critical patent/JP2022152362A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】低コストで簡単に作業機械に設置できるとともに、作業機械とその周囲の人物との接触を抑制可能な周辺監視装置を提供する。【解決手段】本開示の作業機械の周辺監視装置100は、1以上の単眼カメラ210を含んだ撮影装置200と、撮影された作業機械10の周囲画像を表す撮影画像データに基づいて所定の処理を実行するプロセッサ303と、所定の警報信号又は/及び所定の発報を出力する発報装置400と、を備える。そして、プロセッサ303は、撮影画像データから人物画像を抽出し、該人物画像と、撮影装置200の設置パラメータと、に基づいて、作業機械10とその周囲の人物との距離を測定する。そして、測定された距離に基づいて、発報装置400による警報信号又は/及び発報の出力を制御する。【選択図】図1PROBLEM TO BE SOLVED: To provide a peripheral monitoring device which can be easily installed on a work machine at low cost and can suppress contact between the work machine and a person around the work machine. A peripheral monitoring device 100 for a work machine according to the present disclosure is a predetermined process based on a photographing device 200 including one or more monocular cameras 210 and photographed image data representing a photographed peripheral image of the working machine 10. A processor 303 for executing the above, and an alarm device 400 for outputting a predetermined alarm signal and / and a predetermined alarm. Then, the processor 303 extracts a person image from the photographed image data, and measures the distance between the work machine 10 and the person around it based on the person image and the installation parameters of the photographing device 200. Then, based on the measured distance, the output of the alarm signal and / and the alarm by the alarm device 400 is controlled. [Selection diagram] Fig. 1

Description

本発明は、作業機械の周辺監視装置に関する。 The present invention relates to a peripheral monitoring device for a work machine.

ショベル、フォークリフト等の作業機械が用いられる現場では、作業機械とその周囲の人物との接触事故の防止が図られている。例えば、作業機械の車体の周辺に存在する障害物をオペレータが視認できるように、ミラーやカメラを設置した作業機械が実用化されている。そして、カメラが撮影した画像を作業機械の運転室内のディスプレイに表示するシステムが知られている。 At sites where work machines such as excavators and forklifts are used, contact accidents between the work machines and people around them are prevented. For example, a work machine equipped with a mirror or a camera has been put into practical use so that an operator can visually recognize an obstacle existing around the vehicle body of the work machine. Then, there is known a system that displays an image taken by a camera on a display in the driver's cab of a work machine.

また、作業機械の周辺に存在する障害物を検出する技術として、レーザレーダやミリ波レーダ等の距離センサを用いて障害物を検知することが知られている。例えば、特許文献1には、移動体の移動方向軸に対する全周方向で距離検出を行うことができる移動体用周辺監視装置が開示されている。そして、この周辺監視装置では、距離センサとして、支持軸まわりに等角度で複数配置された撮像部等を有する3Dカメラが備えられている。 Further, as a technique for detecting an obstacle existing around a work machine, it is known to detect an obstacle by using a distance sensor such as a laser radar or a millimeter wave radar. For example, Patent Document 1 discloses a peripheral monitoring device for a moving body that can detect a distance in the entire circumferential direction with respect to the moving direction axis of the moving body. The peripheral monitoring device is provided with a 3D camera having a plurality of imaging units and the like arranged at equal angles around the support axis as a distance sensor.

一方、特許文献2には、下部走行体と上部旋回体とを有するショベルにおいて、上部旋回体に複数のステレオカメラを配置する技術が開示されている。当該技術では、ステレオカメラによって、ショベルの周囲に存在する物体の距離情報が取得される。 On the other hand, Patent Document 2 discloses a technique of arranging a plurality of stereo cameras on an upper swing body in a shovel having a lower traveling body and an upper swing body. In this technology, a stereo camera acquires distance information of an object existing around the excavator.

特開2016−180674号公報Japanese Unexamined Patent Publication No. 2016-180674 特開2020−127217号公報Japanese Unexamined Patent Publication No. 2020-127217

レーザレーダやミリ波レーダ等の距離センサは、所定の一方向にレーザ光や電波を照射し、その反射波からレーザ光等が照射された物体との距離を検出するものである。そのため、このような距離センサを用いて、ショベル、フォークリフト等の作業機械の周囲の物体を検出しようとする場合、複数の方向に距離センサを配置する必要があり、作業機械の周囲物体を検出するためのコストが高くなってしまう。ここで、特許文献1に記載の技術によれば、3Dカメラによって支持軸まわりの全周方向で距離検出を行うことができるものの、これは、あくまで支持軸に対する全周方向である。そのため、この場合にも、作業機械の周囲の物体を検出しようとすると、複数の方向に支持軸を配置する必要があり、作業機械の周囲物体を検出するためのコストが高くなってしまう。 A distance sensor such as a laser radar or a millimeter wave radar irradiates a laser beam or a radio wave in a predetermined direction, and detects the distance from the reflected wave to an object irradiated with the laser beam or the like. Therefore, when trying to detect an object around a work machine such as a shovel or a forklift using such a distance sensor, it is necessary to arrange the distance sensor in a plurality of directions to detect an object around the work machine. The cost for this will be high. Here, according to the technique described in Patent Document 1, the distance can be detected in the all-around direction around the support axis by the 3D camera, but this is only the all-around direction with respect to the support axis. Therefore, even in this case, when trying to detect an object around the work machine, it is necessary to arrange the support shafts in a plurality of directions, and the cost for detecting the object around the work machine becomes high.

また、特許文献2に記載の技術によれば、カメラが撮影した画像に基づいて、ショベルの周囲に存在する物体の距離情報を取得することができるものの、ショベルに設置されるカメラはステレオカメラであって、設置のためのコストとスペースが問題となり得る。このように、作業機械の周囲物体を検出するための技術については、未だ改善の余地を残すものである。 Further, according to the technique described in Patent Document 2, although the distance information of the objects existing around the excavator can be acquired based on the image taken by the camera, the camera installed in the excavator is a stereo camera. Therefore, the cost and space for installation can be an issue. As described above, there is still room for improvement in the technique for detecting the surrounding objects of the work machine.

本開示の目的は、低コストで簡単に作業機械に設置できるとともに、作業機械とその周囲の人物との接触を抑制可能な周辺監視装置を提供することにある。 An object of the present disclosure is to provide a peripheral monitoring device that can be easily installed on a work machine at low cost and can suppress contact between the work machine and a person around it.

本開示の作業機械の周辺監視装置は、作業機械に設置され、該作業機械の周囲を撮影する撮影装置と、前記撮影装置によって撮影された前記作業機械の周囲画像を表す撮影画像データを取得し、該撮影画像データに基づいて所定の処理を実行するプロセッサと、所定の警報信号又は/及び所定の発報を出力する発報装置と、を備える。ここで、前記撮影装置は、1以上の単眼カメラを含み、該単眼カメラの光軸が地面に対して所定の角度で配置されるように構成される。そして、前記プロセッサは、前記撮影画像データから人物画像を抽出する抽出処理と、抽出された前記人物画像と、前記撮影装置の設置パラメータと、に基づいて、前記作業機械とその周囲の人物との距離を測定する測距処理と、前記測距処理によって測定された前記作業機械とその周囲の人物との距離に基づいて、前記発報装置による前記警報信号又は/及び前記発報の出力を制御する発報制御処理と、を実行する。 The peripheral monitoring device of the work machine of the present disclosure is installed in the work machine and acquires a photographing device for photographing the surroundings of the work machine and photographed image data representing the surrounding image of the work machine photographed by the photographing device. A processor that executes a predetermined process based on the captured image data, and an alarm device that outputs a predetermined alarm signal and / or a predetermined alarm are provided. Here, the photographing device includes one or more monocular cameras, and is configured such that the optical axis of the monocular cameras is arranged at a predetermined angle with respect to the ground. Then, the processor extracts the person image from the captured image data, and based on the extracted person image and the installation parameters of the photographing device, the working machine and the surrounding person The alarm signal and / and the output of the alarm are controlled by the alarm device based on the distance measurement process for measuring the distance and the distance between the work machine and a person around it measured by the distance measurement process. The alert control process to be executed and the execution are performed.

ここで、上記の作業機械とは、ショベル等の建設機械や、作業機を備えた機械(フォークリフト等)である。そして、このような作業機械に設置される本開示の周辺監視装置では、該作業機械に撮影装置が配置される。この撮影装置は、単眼カメラの光軸が地面に対して所定の角度をなすように配置される。ここで、上記の所定の角度とは、撮影装置によって地面付近の人を撮影可能な角度として定義され、例えば、地面と略平行又は地面との平行線に対して下方に向いた角度である。そして、本開示の作業機械の周辺監視装置は、撮影装置、画像処理装置、および発報装置といった簡易な構成によって実現され、これらを既存の作業機械に配置するだけで、作業機械に周辺監視装置を簡単に設置することができる。また、撮影装置が単眼カメラによって構成されるため、例えば、撮影装置がステレオカメラによって構成される場合と比較して、作業機械の周辺を監視するためのコストを抑制することができる。更に、このような周辺監視装置では、抽出処理によって抽出された人物画像と、撮影装置の設置パラメータと、に基づいて測距処理が実行され、該測距処理の結果に基づいて、発報装置による警報信号又は/及び発報の出力が制御される。なお、発報装置が出力する発報は、例えば、警告灯や警告音である。これにより、作業機械とその周囲の人物との接触を抑制することができる。なお、前記発報制御処理において、前記プロセッサは、前記作業機械とその周囲の人物との距離が所定値以下となった場合に、前記発報装置から、該作業機械とその周囲の人物との接触を回避するための所定の回避動作を指令する信号を出力させてもよい。ここで、上記の回避動作とは、作業機械の作動が減速する動作や、作業機械の作動が停止する動作などである。このような発報制御処理では、発報装置からの上記信号が、作業機械の動作を制御する制御装置に入力されることで、作業機械は、オペレータの操作によらず自動で回避動作を行うことになる。これによれば、オペレータによる運転動作によらずに作業機械の回避動作を行うことができ、作業機械とその周囲の人物との接触をより好適に回避することができる。 Here, the above-mentioned work machine is a construction machine such as an excavator or a machine equipped with a work machine (forklift or the like). Then, in the peripheral monitoring device of the present disclosure installed on such a work machine, a photographing device is arranged on the work machine. This photographing device is arranged so that the optical axis of the monocular camera forms a predetermined angle with respect to the ground. Here, the above-mentioned predetermined angle is defined as an angle at which a person near the ground can be photographed by the photographing device, and is, for example, an angle substantially parallel to the ground or an angle facing downward with respect to a parallel line with the ground. The peripheral monitoring device for the work machine of the present disclosure is realized by a simple configuration such as a photographing device, an image processing device, and an alarm device. Can be easily installed. Further, since the photographing device is composed of a monocular camera, the cost for monitoring the periphery of the work machine can be suppressed as compared with the case where the photographing device is composed of a stereo camera, for example. Further, in such a peripheral monitoring device, distance measurement processing is executed based on the person image extracted by the extraction processing and the installation parameters of the photographing device, and the alarm device is issued based on the result of the distance measurement processing. The output of the alarm signal and / and the alarm is controlled. The alarm output by the alarm device is, for example, a warning light or a warning sound. As a result, contact between the work machine and a person around it can be suppressed. In the alarm control process, when the distance between the work machine and a person around it becomes equal to or less than a predetermined value, the processor causes the work machine and the people around it to move from the alarm device. A signal for instructing a predetermined avoidance operation for avoiding contact may be output. Here, the above-mentioned avoidance operation is an operation in which the operation of the work machine is decelerated, an operation in which the operation of the work machine is stopped, and the like. In such an alarm control process, the signal from the alarm device is input to the control device that controls the operation of the work machine, so that the work machine automatically performs an avoidance operation regardless of the operator's operation. It will be. According to this, it is possible to perform the avoidance operation of the work machine without the operation operation by the operator, and it is possible to more preferably avoid the contact between the work machine and the person around it.

そして、上記の作業機械の周辺監視装置では、前記測距処理において、前記プロセッサは、前記撮影画像データにおける前記人物画像の足元の二次元座標である足元座標を取得するとともに、該足元座標に基づいて、前記作業機械の周囲の人物の足元と前記撮影装置との間の所定の角度である足元角度を算出し、算出された前記足元角度と、前記撮影装置の設置高さと、に基づいて、前記作業機械とその周囲の人物との距離を測定してもよい。これによれば、単眼カメラによって、低コストながら精度よく測距処理を行うことができる。なお、このような足元座標に基づく測距によれば、該足元座標を比較的正確に取得することができるため、上記距離の測定精度を可及的に高くすることができる。また、前記測距処理において、前記プロセッサは、前記撮影画像データにおける前記人物画像の頭の画像を取得するとともに、該頭の画像の大きさに基づいて、前記作業機械とその周囲の人物との距離を測定してもよい。これによっても、単眼カメラによって、低コストながら精度よく測距処理を行うことができる。なお、このような頭の画像の大きさに基づく測距によれば、撮影画像データに周囲人物の足元が含まれていない場合であったり、高所に人が登っているなどして人物が地上にいない場合であっても、作業機械とその周囲の人物との距離を測定することができる。 Then, in the peripheral monitoring device of the work machine, in the distance measurement process, the processor acquires the foot coordinates, which are the two-dimensional coordinates of the foot of the person image in the captured image data, and is based on the foot coordinates. Then, a foot angle, which is a predetermined angle between the feet of a person around the work machine and the photographing device, is calculated, and based on the calculated foot angle and the installation height of the photographing device, The distance between the work machine and a person around it may be measured. According to this, it is possible to perform distance measurement processing with high accuracy at low cost by using a monocular camera. According to the distance measurement based on the foot coordinates, the foot coordinates can be obtained relatively accurately, so that the measurement accuracy of the distance can be made as high as possible. Further, in the distance measuring process, the processor acquires an image of the head of the person image in the captured image data, and based on the size of the image of the head, the working machine and the person around it The distance may be measured. Even with this, the monocular camera can perform distance measurement processing with high accuracy at low cost. According to the distance measurement based on the size of the head image, the photographed image data does not include the feet of surrounding persons, or the person is climbing to a high place. Even when not on the ground, the distance between the work machine and the people around it can be measured.

また、上記の作業機械の周辺監視装置では、前記抽出処理において、前記プロセッサは、所定の画像データの入力を受け付ける入力層と、入力された該画像データから人物を表す特徴量を抽出する中間層と、該特徴量に基づく識別結果を出力する出力層と、を有するニューラルネットワークモデルであって、人物を表す画像を含んだデータを用いて学習を行うことにより構築された事前学習モデルに、前記撮影画像データを入力することで、前記人物画像を抽出してもよい。これによれば、事前学習モデルを用いることで、撮影画像データから人物画像を精度よく抽出することができる。 Further, in the peripheral monitoring device of the work machine, in the extraction process, the processor has an input layer that accepts input of predetermined image data and an intermediate layer that extracts a feature amount representing a person from the input image data. The pre-learning model, which is a neural network model having an output layer that outputs an identification result based on the feature amount and is constructed by performing training using data including an image representing a person, is described above. The person image may be extracted by inputting the captured image data. According to this, by using the pre-learning model, it is possible to accurately extract a person image from the captured image data.

以上に述べた作業機械の周辺監視装置において、前記プロセッサは、前記撮影画像データに含まれる画素値の頻度を示す撮影画像ヒストグラムを生成し、前記撮影画像ヒストグラムを平滑化した平滑化ヒストグラムに基づいて取得される平滑化画像データと、前記撮影画像データと、を所定の比率で合成することで前記撮影画像データの鮮明化を行う、画像鮮明化処理を更に実行してもよい。これによれば、環境に応じて鮮明化された撮影画像データに基づいて人物画像を抽出することができる。したがって、撮影画像データからの人物画像の抽出精度を可及的に高くすることができる。 In the peripheral monitoring device of the work machine described above, the processor generates a captured image histogram showing the frequency of pixel values included in the captured image data, and is based on the smoothed histogram obtained by smoothing the captured image histogram. An image sharpening process that sharpens the captured image data by synthesizing the acquired smoothed image data and the captured image data at a predetermined ratio may be further executed. According to this, it is possible to extract a person image based on the photographed image data which is sharpened according to the environment. Therefore, the accuracy of extracting a person image from the captured image data can be made as high as possible.

本開示によれば、低コストで簡単に作業機械に設置できるとともに、作業機械とその周囲の人物との接触を抑制可能な周辺監視装置を提供することができる。 According to the present disclosure, it is possible to provide a peripheral monitoring device that can be easily installed on a work machine at low cost and can suppress contact between the work machine and a person around it.

第1実施形態における作業機械の周辺監視装置の概略構成を示す図である。It is a figure which shows the schematic structure of the peripheral monitoring device of the work machine in 1st Embodiment. 第1実施形態に係る周辺監視装置において、作業機械とその周囲の人物との接触を回避するために制御部が行う処理フローを示すフローチャートである。It is a flowchart which shows the processing flow which the control part performs in order to avoid the contact between a work machine and a person around it in the peripheral monitoring apparatus which concerns on 1st Embodiment. 第1実施形態における事前学習モデルに対する入力から得られる識別結果と、該事前学習モデルを構成するニューラルネットワークを説明するための図である。It is a figure for demonstrating the identification result obtained from the input to the pre-learning model in 1st Embodiment, and the neural network which constitutes the pre-learning model. 表示装置に表示される撮影画像データおよび人物画像を説明するための図である。It is a figure for demonstrating photographed image data and a person image displayed on a display device. 足元角度と、撮影装置の設置高さと、周囲人物との距離と、の関係を説明するための図である。It is a figure for demonstrating the relationship between the foot angle, the installation height of the photographing apparatus, and the distance with the surrounding person. 第1実施形態に係る測距処理の一つである足元測距において、測距処理部が行う処理フローを示すフローチャートである。It is a flowchart which shows the processing flow performed by the distance measurement processing unit in the foot distance measurement which is one of the distance measurement processing which concerns on 1st Embodiment. カメラの内部パラメータとともに、該カメラのセンサ上に投影される被写体を説明するための図である。It is a figure for demonstrating the subject projected on the sensor of the camera together with the internal parameters of a camera. 第1実施形態の変形例2に係る周辺監視装置において、作業機械とその周囲の人物との接触を回避するために制御部が行う処理フローを示す第1のフローチャートである。It is a 1st flowchart which shows the processing flow which the control part performs in order to avoid the contact between a work machine and a person around it in the peripheral monitoring apparatus which concerns on modification 2 of 1st Embodiment. 第1実施形態の変形例2に係る周辺監視装置において、作業機械とその周囲の人物との接触を回避するために制御部が行う処理フローを示す第2のフローチャートである。2 is a second flowchart showing a processing flow performed by a control unit in order to avoid contact between a work machine and a person around the work machine in the peripheral monitoring device according to the second modification of the first embodiment. 第2実施形態に係る画像鮮明化処理において、制御部が行う処理フローを示すフローチャートである。It is a flowchart which shows the process flow which a control part performs in the image sharpening process which concerns on 2nd Embodiment. 本開示における作業機械の周辺監視装置の概略構成の変形例を示す図である。It is a figure which shows the modification of the schematic structure of the peripheral monitoring device of a work machine in this disclosure.

以下、図面に基づいて、本開示の実施の形態を説明する。以下の実施形態の構成は例示であり、本開示は実施形態の構成に限定されない。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. The configurations of the following embodiments are exemplary, and the present disclosure is not limited to the configurations of the embodiments.

<第1実施形態>
第1実施形態における作業機械の周辺監視装置の概要について、図1を参照しながら説明する。図1は、本実施形態における作業機械の周辺監視装置の概略構成を示す図である。本実施形態に係る作業機械の周辺監視装置100は、作業機械10に設置され、該作業機械10の周辺を監視するための装置である。ここで、作業機械10とは、ショベル等の建設機械や、作業機を備えた機械(フォークリフト等)である。そして、周辺監視装置100は、撮影装置200と、画像処理装置300と、発報装置400と、を備える。
<First Embodiment>
The outline of the peripheral monitoring device for the work machine according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram showing a schematic configuration of a peripheral monitoring device for a work machine according to the present embodiment. The peripheral monitoring device 100 for a work machine according to the present embodiment is a device installed on the work machine 10 for monitoring the periphery of the work machine 10. Here, the work machine 10 is a construction machine such as an excavator or a machine equipped with a work machine (forklift or the like). The peripheral monitoring device 100 includes a photographing device 200, an image processing device 300, and a reporting device 400.

撮影装置200は、作業機械10に設置され該作業機械10の周囲を撮影する装置であって、静止画や動画等の画像の入力を受け付ける機能を有し、具体的には、Charged-Coupled Devices(CCD)、Metal-oxide-semiconductor(MOS)あるいはComplementary Metal-Oxide-Semiconductor(CMOS)等のイメージセンサを用いたカメラにより実現される。本開示の撮影装置200は、1以上の単眼カメラ210を含み、該単眼カメラ210の光軸が地面に対して所定の角度で配置されるように構成される。ここで、本実施形態では、図1(a)に示すように、単眼カメラ210は、作業機械10の上部旋回体11の上面に配置され、該単眼カメラ210の光軸L2が、地面との平行線L1に対して所定の鋭角で下方に向けられている。なお、上記の鋭角は、撮影装置200によって地面付近の人を撮影可能な角度として定義され、例えば、図1(a)に示すように、単眼カメラ210が上部旋回体11の上面に配置される場合には、該上部旋回体11の上面の高さに基づいて定められる。また、仮に単眼カメラ210が上部旋回体11における下部領域(下部走行体12付近の上部旋回体)に配置される場合には、該単眼カメラ210の光軸L2が地面と略平行に向けられてもよい。そして、本実施形態では、図1(b)に示すように、4つの単眼カメラ210が、上部旋回体11の側面から周囲4方向(90°間隔の4方向)に向けられて配置されている。このように、4つの単眼カメラ210が配置されることで、作業機械10の周囲を視野が欠けることなく撮影することができる。なお、本開示の撮影装置を4つの単眼カメラを含んだ構成に限定する意図はない。例えば、作業機械10のオペレータが運転室内で正面を向いた方向は、オペレータが直接視認できる方向であるため、この方向に向けられた単眼カメラは省略され得る。 The photographing device 200 is a device installed on the work machine 10 and photographs the surroundings of the work machine 10, and has a function of accepting an input of an image such as a still image or a moving image. Specifically, the charged-coupled devices It is realized by a camera using an image sensor such as (CCD), Metal-oxide-semiconductor (MOS) or Complementary Metal-Oxide-Semiconductor (CMOS). The photographing apparatus 200 of the present disclosure includes one or more monocular cameras 210, and is configured such that the optical axis of the monocular camera 210 is arranged at a predetermined angle with respect to the ground. Here, in the present embodiment, as shown in FIG. 1A, the monocular camera 210 is arranged on the upper surface of the upper swing body 11 of the work machine 10, and the optical axis L2 of the monocular camera 210 is with respect to the ground. It is directed downward at a predetermined acute angle with respect to the parallel line L1. The acute angle is defined as an angle at which a person near the ground can be photographed by the photographing device 200. For example, as shown in FIG. 1A, the monocular camera 210 is arranged on the upper surface of the upper swivel body 11. In the case, it is determined based on the height of the upper surface of the upper swing body 11. Further, if the monocular camera 210 is arranged in the lower region of the upper swivel body 11 (the upper swivel body near the lower traveling body 12), the optical axis L2 of the monocular camera 210 is directed substantially parallel to the ground. May be good. Then, in the present embodiment, as shown in FIG. 1B, four monocular cameras 210 are arranged so as to face four directions (four directions at 90 ° intervals) from the side surface of the upper swing body 11. .. By arranging the four monocular cameras 210 in this way, it is possible to take a picture of the periphery of the work machine 10 without losing the field of view. It should be noted that there is no intention of limiting the photographing apparatus of the present disclosure to a configuration including four monocular cameras. For example, since the direction in which the operator of the work machine 10 faces the front in the driver's cab is a direction in which the operator can directly see, a monocular camera directed in this direction can be omitted.

画像処理装置300は、撮影装置200によって撮影された作業機械10の周囲画像を表す撮影画像データを取得し、該撮影画像データに基づいて所定の処理を実行する。 The image processing device 300 acquires photographed image data representing the surrounding image of the work machine 10 photographed by the photographing device 200, and executes a predetermined process based on the photographed image data.

ここで、画像処理装置300は、データの取得、生成、更新等の演算処理及び加工処理のための処理能力のある機器であればどの様な電子機器でもよく、例えば、コンピュータである。すなわち、画像処理装置300は、CPUやGPU等のプロセッサ、RAMやROM等の主記憶装置、EPROM、ハードディスクドライブ、リムーバブルメディア等の補助記憶装置を有するコンピュータとして構成することができる。なお、リムーバブルメディアは、例えば、USBメモリ、あるいは、CDやDVDのようなディスク記録媒体であってもよい。補助記憶装置には、オペレーティングシステム(OS)、各種プログラム、各種テーブル等が格納されている。 Here, the image processing device 300 may be any electronic device as long as it has processing capacity for arithmetic processing such as data acquisition, generation, and update, and processing processing, and is, for example, a computer. That is, the image processing device 300 can be configured as a computer having a processor such as a CPU or GPU, a main storage device such as RAM or ROM, and an auxiliary storage device such as EPROM, a hard disk drive, or removable media. The removable media may be, for example, a USB memory or a disc recording medium such as a CD or DVD. The auxiliary storage device stores an operating system (OS), various programs, various tables, and the like.

発報装置400は、所定の警報信号又は/及び所定の発報を出力する装置である。ここで、所定の発報とは、警告灯や警告音などである。本実施形態では、図1(a)および図1(b)に示すように、発報装置400として、例えば、パトライト(登録商標)が上部旋回体11の上面に配置されてもよい。そうすると、周辺監視装置100は、例えば、パトライト(登録商標)が発する警告灯によって、作業機械10の周囲の人物に対して警告を行うことができる。また、作業機械10のオペレータに対して、該作業機械10への人の接近を認知させることができる。なお、発報装置400は、例えば、パトライト(登録商標)とスピーカーとを含んでもよい。この場合、周辺監視装置100は、警告灯と警告音によって、警告を行うことができる。 The alarm device 400 is a device that outputs a predetermined alarm signal and / and a predetermined alarm. Here, the predetermined alarm is a warning light, a warning sound, or the like. In the present embodiment, as shown in FIGS. 1 (a) and 1 (b), as the alarm device 400, for example, a patrol light (registered trademark) may be arranged on the upper surface of the upper swing body 11. Then, the peripheral monitoring device 100 can give a warning to a person around the work machine 10 by, for example, a warning light emitted by Patrite (registered trademark). In addition, the operator of the work machine 10 can be made aware of the approach of a person to the work machine 10. The alarm device 400 may include, for example, a patrol light (registered trademark) and a speaker. In this case, the peripheral monitoring device 100 can give a warning by the warning light and the warning sound.

また、周辺監視装置100は、表示装置500を更に備えてもよい。ここで、表示装置500は、撮影装置200によって撮影された撮影画像データ又は/及び該撮影画像データに基づく処理により取得された所定のデータを表示可能に構成された装置である。このような表示装置500は、例えば、作業機械10の運転室内に設けられる。これにより、作業機械10のオペレータは、該作業機械10の車体の周辺に存在する障害物を、表示装置500を介して視認できるようになる。 Further, the peripheral monitoring device 100 may further include a display device 500. Here, the display device 500 is a device configured to be able to display the captured image data taken by the photographing device 200 and / or predetermined data acquired by processing based on the captured image data. Such a display device 500 is provided, for example, in the cab of the work machine 10. As a result, the operator of the work machine 10 can visually recognize the obstacles existing around the vehicle body of the work machine 10 through the display device 500.

以上に述べたように、本開示の作業機械の周辺監視装置100は、撮影装置200、画像処理装置300、および発報装置400といった簡易な構成によって実現され、これらを既存の作業機械10に配置するだけで、作業機械10に周辺監視装置100を簡単に設置することができる。また、上述したように、撮影装置200が単眼カメラ210によって構成されるため、例えば、撮影装置がステレオカメラによって構成される場合と比較して、作業機械10の周辺を監視するためのコストを抑制することができる。 As described above, the peripheral monitoring device 100 of the work machine of the present disclosure is realized by a simple configuration such as a photographing device 200, an image processing device 300, and an alarm device 400, and these are arranged in the existing work machine 10. The peripheral monitoring device 100 can be easily installed on the work machine 10 simply by doing so. Further, as described above, since the photographing device 200 is composed of the monocular camera 210, the cost for monitoring the periphery of the work machine 10 is suppressed as compared with the case where the photographing device is composed of, for example, a stereo camera. can do.

次に、図1(c)に基づいて、画像処理装置300の構成要素の詳細な説明を行う。図1(c)は、第1実施形態における、周辺監視装置100に含まれる画像処理装置300の構成要素をより詳細に示した図である。 Next, the components of the image processing apparatus 300 will be described in detail based on FIG. 1 (c). FIG. 1C is a diagram showing in more detail the components of the image processing device 300 included in the peripheral monitoring device 100 in the first embodiment.

画像処理装置300は、機能部として記憶部302、制御部303を有しており、補助記憶装置に格納されたプログラムを主記憶装置の作業領域にロードして実行し、プログラムの実行を通じて各機能部等が制御されることによって、各機能部における所定の目的に合致した各機能を実現することができる。ただし、一部または全部の機能はASICやFPGAのようなハードウェア回路によって実現されてもよい。 The image processing device 300 has a storage unit 302 and a control unit 303 as functional units, loads the program stored in the auxiliary storage device into the work area of the main storage device, executes the program, and executes each function through the execution of the program. By controlling the units and the like, it is possible to realize each function that meets a predetermined purpose in each functional unit. However, some or all of the functions may be realized by hardware circuits such as ASICs and FPGAs.

記憶部302は、主記憶装置と補助記憶装置を含んで構成される。主記憶装置は、制御部303によって実行されるプログラムや、当該制御プログラムが利用するデータが展開されるメモリである。補助記憶装置は、制御部303において実行されるプログラムや、当該制御プログラムが利用するデータが記憶される装置である。 The storage unit 302 includes a main storage device and an auxiliary storage device. The main storage device is a memory in which a program executed by the control unit 303 and data used by the control program are expanded. The auxiliary storage device is a device that stores a program executed by the control unit 303 and data used by the control program.

また、記憶部302は、後述する事前学習モデルを記憶してもよい。この事前学習モデルは、後述する抽出処理に用いることができる。ここで、画像処理装置300の機能がFPGAのようなハードウェア回路によって実現される場合、事前学習モデルはFPGAに内蔵されたメモリに記憶されてもよい。 Further, the storage unit 302 may store the pre-learning model described later. This pre-learning model can be used for the extraction process described later. Here, when the function of the image processing device 300 is realized by a hardware circuit such as FPGA, the pre-learning model may be stored in the memory built in the FPGA.

制御部303は、画像処理装置300が行う処理を司る機能部である。制御部303は、CPUなどの演算処理装置によって実現することができる。制御部303は、更に、取得部3031と、抽出処理部3032と、測距処理部3033と、発報制御処理部3034と、の4つの機能部を有して構成される。各機能部は、記憶されたプログラムをCPUによって実行することで実現してもよい。なお、制御部303が、取得部3031、抽出処理部3032、測距処理部3033、および発報制御処理部3034の処理を実行することで、本開示に係るプロセッサとして機能する。そして、このプロセッサが、画像処理装置300を構成する集積回路に実装されることで、上記機能部の処理を実行するプロセッサが作業機械10に設置されることになる。 The control unit 303 is a functional unit that controls the processing performed by the image processing device 300. The control unit 303 can be realized by an arithmetic processing unit such as a CPU. The control unit 303 is further composed of four functional units: an acquisition unit 3031, an extraction processing unit 3032, a distance measuring processing unit 3033, and a notification control processing unit 3034. Each functional unit may be realized by executing the stored program by the CPU. The control unit 303 functions as the processor according to the present disclosure by executing the processes of the acquisition unit 3031, the extraction processing unit 3032, the distance measuring processing unit 3033, and the alarm control processing unit 3034. Then, by mounting this processor on the integrated circuit constituting the image processing device 300, the processor that executes the processing of the functional unit is installed in the work machine 10.

ここで、制御部303が行う処理フローについて、図2に基づいて説明する。図2は、本実施形態に係る周辺監視装置100において、作業機械10とその周囲の人物との接触を回避するために制御部303が行う処理フローを示すフローチャートである。本実施形態では、周辺監視装置100の電源が入れられると本フローの実行が開始され、周辺監視装置100の作動中に所定の演算周期で繰り返し実行される。 Here, the processing flow performed by the control unit 303 will be described with reference to FIG. FIG. 2 is a flowchart showing a processing flow performed by the control unit 303 in order to avoid contact between the work machine 10 and a person around the work machine 10 in the peripheral monitoring device 100 according to the present embodiment. In the present embodiment, when the power of the peripheral monitoring device 100 is turned on, the execution of this flow is started, and the execution is repeatedly executed at a predetermined calculation cycle while the peripheral monitoring device 100 is operating.

本フローでは、先ず、S101において、取得部3031が、撮影装置200によって撮影された作業機械10の周囲画像を表す撮影画像データを取得する。ここで、撮影装置200および画像処理装置300は通信部を有しており、これらの通信部がネットワークを介して接続されることで、取得部3031が上記の撮影画像データを取得することが可能になる。なお、ネットワークは、無線であっても有線であっても無線と有線の組み合わせであってもよい。 In this flow, first, in S101, the acquisition unit 3031 acquires photographed image data representing the surrounding image of the work machine 10 photographed by the photographing device 200. Here, the photographing device 200 and the image processing device 300 have a communication unit, and by connecting these communication units via a network, the acquisition unit 3031 can acquire the above-mentioned captured image data. become. The network may be wireless, wired, or a combination of wireless and wired.

次に、S102において、抽出処理部3032が、撮影画像データから人物画像を抽出する抽出処理を実行する。この抽出処理では、作業機械10の周囲に人が存在して、その人が撮影装置200によって撮影されている場合には、撮影画像データから人物画像を抽出することができる。なお、この抽出処理の詳細については、後述する。そして、抽出処理部3032は、S103において、S102で実行した抽出処理の結果に基づいて、作業機械10の周囲に人が存在するか否かを判別する。S103において肯定判定された場合、制御部303はS104の処理へ進み、S103において否定判定された場合、本フローの実行が終了される。 Next, in S102, the extraction processing unit 3032 executes an extraction process for extracting a person image from the captured image data. In this extraction process, when a person exists around the work machine 10 and the person is photographed by the photographing apparatus 200, a person image can be extracted from the photographed image data. The details of this extraction process will be described later. Then, the extraction processing unit 3032 determines in S103 whether or not a person exists around the work machine 10 based on the result of the extraction processing executed in S102. If an affirmative determination is made in S103, the control unit 303 proceeds to the process of S104, and if a negative determination is made in S103, the execution of this flow is terminated.

S103において肯定判定された場合、次に、S104において、測距処理部3033が、作業機械10とその周囲の人物との距離を測定する測距処理を実行する。この測距処理では、抽出処理によって抽出された人物画像と、撮影装置200の設置パラメータと、に基づいて、作業機械10とその周囲の人物との距離が測定される。なお、この測距処理の詳細については、後述する。また、S104では、上記の測距処理と併せて、S102の抽出処理によって抽出された人物画像の画像データである抽出画像データの出力が実行される。このとき、表示装置500には、後述するように、撮影装置200によって撮影された撮影画像データに加えて、抽出処理によって抽出された人物画像が矩形とともに表示される。 If an affirmative determination is made in S103, then in S104, the distance measuring processing unit 3033 executes a distance measuring process for measuring the distance between the work machine 10 and a person around it. In this distance measuring process, the distance between the work machine 10 and the people around it is measured based on the person image extracted by the extraction process and the installation parameters of the photographing device 200. The details of this distance measurement process will be described later. Further, in S104, in addition to the distance measuring process described above, the output of the extracted image data, which is the image data of the person image extracted by the extraction process of S102, is executed. At this time, as will be described later, the display device 500 displays the captured image data captured by the photographing device 200 and the person image extracted by the extraction process together with the rectangle.

次に、S105において、発報制御処理部3034は、測距処理によって測定された上記の距離が所定値以下であるか否かを判別する。ここで、上記の所定値とは、作業機械10の作動により該作業機械10とその周囲人物との接触が懸念される距離の値であって、例えば、作業機械10の大きさや作動範囲に基づいて、予め定められる。そして、S105において肯定判定された場合、制御部303はS106の処理へ進み、S105において否定判定された場合、本フローの実行が終了される。 Next, in S105, the alarm control processing unit 3034 determines whether or not the above distance measured by the distance measuring process is equal to or less than a predetermined value. Here, the above-mentioned predetermined value is a value of a distance at which contact between the work machine 10 and a person around it is feared due to the operation of the work machine 10, and is based on, for example, the size and the operating range of the work machine 10. It is decided in advance. Then, if an affirmative determination is made in S105, the control unit 303 proceeds to the process of S106, and if a negative determination is made in S105, the execution of this flow is terminated.

S105において肯定判定された場合、発報制御処理部3034は、次に、S106において、発報装置400の出力を制御する。本実施形態では、発報制御処理部3034は、発報装置400(例えば、パトライト(登録商標))から警告灯を出力させる。なお、発報装置400が、例えば、パトライト(登録商標)およびスピーカーによって構成される場合には、発報制御処理部3034は、パトライト(登録商標)から警告灯を出力させ、スピーカーから警告音を出力させてもよい。そして、S106の処理の後、本フローの実行が終了される。 If a positive determination is made in S105, the alarm control processing unit 3034 then controls the output of the alarm device 400 in S106. In the present embodiment, the alarm control processing unit 3034 outputs a warning light from the alarm device 400 (for example, Patrite (registered trademark)). When the alarm device 400 is composed of, for example, a patrol light (registered trademark) and a speaker, the alarm control processing unit 3034 outputs a warning light from the patrol light (registered trademark) and emits a warning sound from the speaker. It may be output. Then, after the processing of S106, the execution of this flow is completed.

以上に述べた処理によれば、抽出処理によって抽出された人物画像に基づいて、作業機械10の周囲の人物との距離が測距され、その測距距離の結果に基づいて発報制御処理が実行される。そして、発報装置400から所定の発報が出力されることで、作業機械10の周囲の人物に対して、該作業機械10との接触を回避するための警告を行うことができる。また、作業機械10のオペレータは、発報装置400からの発報の出力を認知すると、作業機械10とその周囲の人物との接触を回避するための運転動作を行うことができる。これにより、作業機械10とその周囲の人物との接触を抑制することができる。 According to the process described above, the distance to the person around the work machine 10 is measured based on the person image extracted by the extraction process, and the alarm control process is performed based on the result of the distance measurement distance. Will be executed. Then, by outputting a predetermined alarm from the alarm device 400, it is possible to give a warning to a person around the work machine 10 in order to avoid contact with the work machine 10. Further, when the operator of the work machine 10 recognizes the output of the alarm from the alarm device 400, the operator can perform an operation operation for avoiding contact between the work machine 10 and a person around it. As a result, contact between the work machine 10 and a person around it can be suppressed.

(抽出処理)
次に、抽出処理部3032が実行する抽出処理の詳細について説明する。本実施形態の抽出処理では、事前学習モデルに撮影画像データが入力されることで、人物画像が抽出される。そして、事前学習モデルは、人物を表す画像を含んだデータを用いて学習を行うことにより構築される。
(Extraction process)
Next, the details of the extraction process executed by the extraction process unit 3032 will be described. In the extraction process of the present embodiment, a person image is extracted by inputting captured image data into the pre-learning model. Then, the pre-learning model is constructed by learning using data including an image representing a person.

ここで、図3は、本実施形態における事前学習モデルに対する入力から得られる識別結果と、該事前学習モデルを構成するニューラルネットワークを説明するための図である。本実施形態では、事前学習モデルとして、ディープラーニングにより生成されるニューラルネットワークモデルを用いる。本実施形態における事前学習モデル30は、所定の画像データの入力を受け付ける入力層31と、入力層31に入力された該画像データから人物を表す特徴量を抽出する中間層(隠れ層)32と、特徴量に基づく識別結果を出力する出力層33とを有する。なお、図3の例では、事前学習モデル30は、1層の中間層32を有しており、入力層31の出力が中間層32に入力され、中間層32の出力が出力層33に入力されている。ただし、中間層32の数は、1層に限られなくてもよく、事前学習モデル30は、2層以上の中間層32を有してもよい。 Here, FIG. 3 is a diagram for explaining the identification result obtained from the input to the pre-learning model in the present embodiment and the neural network constituting the pre-learning model. In this embodiment, a neural network model generated by deep learning is used as the pre-learning model. The pre-learning model 30 in the present embodiment includes an input layer 31 that accepts input of predetermined image data, and an intermediate layer (hidden layer) 32 that extracts a feature amount representing a person from the image data input to the input layer 31. It has an output layer 33 that outputs an identification result based on a feature amount. In the example of FIG. 3, the pre-learning model 30 has one intermediate layer 32, the output of the input layer 31 is input to the intermediate layer 32, and the output of the intermediate layer 32 is input to the output layer 33. Has been done. However, the number of intermediate layers 32 is not limited to one, and the pre-learning model 30 may have two or more intermediate layers 32.

また、図3によると、各層31〜33は、1又は複数のニューロンを備えている。例えば、入力層31のニューロンの数は、入力される画像データに応じて設定することができる。また、出力層33のニューロンの数は、識別結果である人物画像に応じて設定することができる。 Also, according to FIG. 3, each layer 31-33 comprises one or more neurons. For example, the number of neurons in the input layer 31 can be set according to the input image data. Further, the number of neurons in the output layer 33 can be set according to the person image which is the identification result.

そして、隣接する層のニューロン同士は適宜結合され、各結合には重み(結合荷重)が機械学習の結果に基づいて設定される。図3の例では、各ニューロンは、隣接する層の全てのニューロンと結合されているが、ニューロンの結合は、このような例に限定されなくてもよく、適宜設定することができる。 Then, neurons in adjacent layers are appropriately connected to each other, and a weight (connection load) is set for each connection based on the result of machine learning. In the example of FIG. 3, each neuron is connected to all neurons in the adjacent layer, but the connection of neurons does not have to be limited to such an example and can be appropriately set.

このような事前学習モデル30は、例えば、人物を表す画像を含んだ画像データと、人物を表す画像のラベルと、の組みである教師データを用いて教師あり学習を行うことで構築される。具体的には、特徴量とラベルとの組みをニューラルネットワークに与え、ニューラルネットワークの出力がラベルと同じとなるように、ニューロン同士の結合の重みがチューニングされる。このようにして、教師データの特徴を学習し、入力から結果を推定するための事前学習モデルが帰納的に獲得される。 Such a pre-learning model 30 is constructed by performing supervised learning using, for example, supervised learning that is a set of image data including an image representing a person and a label of an image representing a person. Specifically, a set of a feature amount and a label is given to the neural network, and the weight of the connection between neurons is tuned so that the output of the neural network becomes the same as the label. In this way, a pre-learning model for learning the characteristics of the teacher data and estimating the result from the input is inductively acquired.

なお、事前学習モデル30は、教師なし学習を行うことで構築されてもよい。教師なし学習には、例えば、転移学習の一種であるドメイン適応を用いることができる。これによれば、ラベルが付された教師データを大量に用意することなく、事前学習モデルを獲得することができる。 The pre-learning model 30 may be constructed by performing unsupervised learning. For unsupervised learning, for example, domain adaptation, which is a type of transfer learning, can be used. According to this, the pre-learning model can be acquired without preparing a large amount of labeled teacher data.

そして、本実施形態では、上述した表示装置500に、撮影装置200によって撮影された撮影画像データに加えて、抽出処理によって抽出された人物画像が矩形とともに表示される。ここで、図4は、表示装置500に表示される撮影画像データおよび人物画像を説明するための図である。作業機械10のオペレータは、表示装置500の画面SC1を介して、該作業機械10の周囲を視認することができる。 Then, in the present embodiment, in addition to the captured image data captured by the photographing device 200, the person image extracted by the extraction process is displayed together with the rectangle on the display device 500 described above. Here, FIG. 4 is a diagram for explaining captured image data and a person image displayed on the display device 500. The operator of the work machine 10 can visually recognize the surroundings of the work machine 10 through the screen SC1 of the display device 500.

図4(a)は、表示装置500に表示された撮影画像データを示す図である。図4(a)に示すように、表示装置500の画面SC1には、撮影画像データSC11が表示される。そして、図4(b)は、表示装置500に、撮影画像データとともに、抽出処理によって抽出された人物画像が表示される例を示す図である。図4(b)に示すように、表示装置500の画面SC1には、撮影画像データSC11、および人物画像SC12が表示される。このように、抽出処理によって抽出された人物画像SC12は、矩形とともに表示される。これによれば、作業機械10のオペレータは、表示装置500の画面SC1に表示された人物画像SC12を視認し易くなる。なお、上述した事前学習モデルを用いて人物画像が抽出されることで、撮影画像データからの人物画像の抽出精度、具体的には、撮影画像データSC11に含んで表示される人物画像SC12を表す矩形の位置精度が向上する。 FIG. 4A is a diagram showing captured image data displayed on the display device 500. As shown in FIG. 4A, the captured image data SC11 is displayed on the screen SC1 of the display device 500. FIG. 4B is a diagram showing an example in which a person image extracted by the extraction process is displayed on the display device 500 together with the captured image data. As shown in FIG. 4B, the captured image data SC11 and the person image SC12 are displayed on the screen SC1 of the display device 500. In this way, the person image SC12 extracted by the extraction process is displayed together with the rectangle. According to this, the operator of the work machine 10 can easily visually recognize the person image SC12 displayed on the screen SC1 of the display device 500. By extracting the person image using the above-mentioned pre-learning model, the extraction accuracy of the person image from the photographed image data, specifically, the person image SC12 included in the photographed image data SC11 and displayed is represented. The position accuracy of the rectangle is improved.

ここで、本実施形態の画像処理装置300では、単眼カメラ210のレンズの歪み補正値を用いて、撮影画像データの歪み補正が行われる。そして、表示装置500の画面SC1には、歪み補正が行われた撮影画像データSC11が表示される。また、歪み補正が行われた撮影画像データから人物画像が抽出される。そのため、事前学習モデルを構成するにあたっては、学習に用いられる人物を表す画像を含んだ画像データとして、歪み補正が行われた画像が使用される。ただし、本開示をこれに限定する意図はなく、本開示の周辺監視装置では、上記の歪み補正が実行されなくてもよい。この場合、表示装置500には、歪みを含んだ撮影画像データが表示されることになるが、この歪みを含んだ撮影画像データからも精度よく人物画像を抽出することができれば、作業機械10のオペレータは、矩形とともに表示された人物画像を視認することができる。そこで、このような場合には、事前学習モデルを構成するにあたって、学習に用いられる人物を表す画像を含んだ画像データとして、歪みを含んだ画像が使用される。そうすると、歪みを含んだ撮影画像データからも精度よく人物画像を抽出することができる。これによれば、画像処理装置300は、撮影装置200から取得した撮影画像データを歪み補正する必要がなく、以て、周辺監視装置における画像処理の処理負担が軽減されるため、より迅速に作業機械10の周辺を監視することができる。 Here, in the image processing device 300 of the present embodiment, the distortion correction value of the lens of the monocular camera 210 is used to correct the distortion of the captured image data. Then, the captured image data SC11 with distortion correction is displayed on the screen SC1 of the display device 500. In addition, a person image is extracted from the captured image data that has been subjected to distortion correction. Therefore, in constructing the pre-learning model, a distortion-corrected image is used as image data including an image representing a person used for learning. However, there is no intention of limiting the present disclosure to this, and the above-mentioned distortion correction may not be executed in the peripheral monitoring device of the present disclosure. In this case, the captured image data including the distortion is displayed on the display device 500, but if the person image can be accurately extracted from the captured image data including the distortion, the working machine 10 can display the captured image data. The operator can visually recognize the person image displayed together with the rectangle. Therefore, in such a case, in constructing the pre-learning model, an image including distortion is used as image data including an image representing a person used for learning. Then, the person image can be accurately extracted from the captured image data including the distortion. According to this, the image processing device 300 does not need to correct the distortion of the captured image data acquired from the photographing device 200, and thus the processing load of the image processing in the peripheral monitoring device is reduced, so that the work can be performed more quickly. The surroundings of the machine 10 can be monitored.

また、図4(c)は、人物画像SC12を表す矩形のバリエーションを示す図である。図4(c)に示すように、人物画像SC12を表す矩形は、人の全身を囲う矩形SC121であってもよいし、人の上半身を囲う矩形SC122であってもよいし、人の首上を囲う矩形SC123であってもよい。作業機械10のオペレータは、いずれの矩形であっても人物画像を認知することができるが、例えば、人の全身を囲う矩形SC121の場合は、その人の大きさを認知し易くなる。また、例えば、撮影画像データに複数の人物画像が含まれる場合には、人の首上を囲う矩形SC123が用いられることで、人の数が認知され易くなる。つまり、撮影画像データに複数の人物画像が含まれる場合に、好ましくは人の首上を囲う矩形SC123が用いられ得る。 Further, FIG. 4C is a diagram showing variations of a rectangle representing the person image SC12. As shown in FIG. 4C, the rectangle representing the person image SC12 may be a rectangle SC121 that surrounds the whole body of a person, a rectangle SC122 that surrounds the upper body of a person, or a rectangle SC122 that surrounds the upper body of a person. It may be a rectangle SC123 that surrounds. The operator of the work machine 10 can recognize a person image regardless of the rectangle, but for example, in the case of the rectangle SC121 that surrounds the whole body of a person, it becomes easier to recognize the size of the person. Further, for example, when a plurality of person images are included in the captured image data, the number of people can be easily recognized by using the rectangular SC123 that surrounds the neck of the person. That is, when the captured image data includes a plurality of person images, a rectangular SC123 that surrounds the neck of the person can be preferably used.

なお、本実施形態では、上述したように、画像処理装置300の機能をFPGAのようなハードウェア回路によって実現することができる。この場合、事前学習モデルはFPGAに内蔵されたメモリに記憶され得る。これによれば、事前学習モデルを用いた抽出処理を可及的速やかに実行することができ、以て、より迅速に作業機械10の周辺を監視することができる。 In the present embodiment, as described above, the function of the image processing device 300 can be realized by a hardware circuit such as an FPGA. In this case, the pre-learning model can be stored in the memory built into the FPGA. According to this, the extraction process using the pre-learning model can be executed as quickly as possible, and thus the periphery of the work machine 10 can be monitored more quickly.

このように、本実施形態の抽出処理によれば、事前学習モデルを用いることで、撮影画像データから人物画像を精度よく抽出することができるとともに、抽出した人物画像を作業機械10のオペレータに好適に視認させることができる。 As described above, according to the extraction process of the present embodiment, by using the pre-learning model, a person image can be accurately extracted from the captured image data, and the extracted person image is suitable for the operator of the work machine 10. Can be visually recognized.

(測距処理)
次に、測距処理部3033が実行する測距処理の詳細について説明する。本実施形態の測距処理では、抽出処理によって抽出された人物画像と、撮影装置200の設置パラメータと、に基づいて、作業機械10とその周囲の人物との距離が測定される。そして、このような測距処理について、本実施形態では、人物画像の足元の画像に基づいて測距する足元測距と、人物画像の頭の画像に基づいて測距する頭測距と、が用いられる。本実施形態では、これら測距方法のうちのいずれかの方法が用いられてもよいし、これら測距方法の両方が用いられてもよい。足元測距および頭測距について、以下に詳しく説明する。
(Distance measurement processing)
Next, the details of the distance measuring process executed by the distance measuring processing unit 3033 will be described. In the distance measuring process of the present embodiment, the distance between the work machine 10 and the person around it is measured based on the person image extracted by the extraction process and the installation parameters of the photographing device 200. Regarding such distance measurement processing, in the present embodiment, foot distance measurement based on the foot image of the person image and head distance measurement based on the head image of the person image are used. Used. In the present embodiment, any one of these distance measuring methods may be used, or both of these distance measuring methods may be used. Foot distance measurement and head distance measurement will be described in detail below.

先ず、足元測距について説明する。足元測距では、測距処理部3033は、撮影画像データにおける人物画像の足元の二次元座標である足元座標を取得する。そして、足元座標に基づいて、作業機械10の周囲の人物の足元と撮影装置200との間の所定の角度である足元角度を算出する。そうすると、測距処理部3033は、算出された足元角度と、撮影装置200の設置高さと、に基づいて、作業機械10とその周囲の人物との距離を測定することができる。 First, foot distance measurement will be described. In foot distance measurement, the distance measurement processing unit 3033 acquires the foot coordinates, which are the two-dimensional coordinates of the foot of the person image in the captured image data. Then, based on the foot coordinates, the foot angle, which is a predetermined angle between the feet of a person around the work machine 10 and the photographing device 200, is calculated. Then, the distance measuring processing unit 3033 can measure the distance between the work machine 10 and the person around it based on the calculated foot angle and the installation height of the photographing device 200.

図5は、足元角度と、撮影装置200の設置高さと、周囲人物との距離と、の関係を説明するための図である。ここで、周囲人物とは、作業機械10の周囲の人物であって、この周囲人物と作業機械10との距離である周囲人物との距離が、図5における距離Dとして表される。そして、地面からの撮影装置200の設置高さが、図5における高さhとして表される。また、上述した、周囲人物の足元と撮影装置200との間の足元角度が、図5における角度θとして表される。そうすると、周囲人物との距離Dを下記式1で算出することができる。

Figure 0006940906
D:周囲人物との距離(mm)
h:撮影装置200の設置高さ(mm)
θ:足元角度(degree) FIG. 5 is a diagram for explaining the relationship between the foot angle, the installation height of the photographing device 200, and the distance to the surrounding people. Here, the surrounding person is a person around the work machine 10, and the distance between the surrounding person and the surrounding person, which is the distance between the surrounding person and the work machine 10, is represented as the distance D in FIG. Then, the installation height of the photographing device 200 from the ground is represented as the height h in FIG. Further, the above-mentioned foot angle between the feet of the surrounding person and the photographing device 200 is represented as the angle θ in FIG. Then, the distance D to the surrounding people can be calculated by the following equation 1.
Figure 0006940906
D: Distance to surrounding people (mm)
h: Installation height (mm) of the photographing device 200
θ: Foot angle (degree)

そして、測距処理部3033は、上記式1に基づく周囲人物との距離Dを算出するために、図6に示す処理フローを実行する。図6は、本実施形態に係る測距処理の一つである足元測距において、測距処理部3033が行う処理フローを示すフローチャートである。本フローは、上記の図2に示したS104における測距処理の内部処理として実行される。 Then, the distance measuring processing unit 3033 executes the processing flow shown in FIG. 6 in order to calculate the distance D with the surrounding person based on the above equation 1. FIG. 6 is a flowchart showing a processing flow performed by the distance measuring processing unit 3033 in the foot distance measuring, which is one of the distance measuring processes according to the present embodiment. This flow is executed as an internal process of the distance measurement process in S104 shown in FIG. 2 above.

本フローでは、先ず、S1041において、足元座標(撮影画像データにおける人物画像の足元の二次元座標)が取得される。これについて、図7に基づいて説明する。図7は、カメラの内部パラメータとともに、該カメラのセンサ上に投影される被写体を説明するための図である。図7に示す例では、周囲人物が、カメラの光軸L2からY軸方向にずれた位置に存在している。この場合、測距処理部3033は、センサ上に投影された周囲人物の足元の座標yを足元座標として取得する。なお、上述した抽出処理の説明で述べたように、人物画像は矩形とともに表示され得る。そこで、例えば、人の全身を囲う矩形の下端を足元座標として取得してもよい。また、足元座標が取得される撮影画像データが歪み補正されていない場合には、取得した足元座標に対して歪み補正処理を行うことができる。 In this flow, first, in S1041, the foot coordinates (two-dimensional coordinates of the foot of the person image in the captured image data) are acquired. This will be described with reference to FIG. FIG. 7 is a diagram for explaining a subject projected on the sensor of the camera together with the internal parameters of the camera. In the example shown in FIG. 7, a surrounding person exists at a position deviated from the optical axis L2 of the camera in the Y-axis direction. In this case, the distance measuring processing unit 3033 acquires the coordinates y of the feet of the surrounding people projected on the sensor as the feet coordinates. As described in the above description of the extraction process, the person image can be displayed together with the rectangle. Therefore, for example, the lower end of the rectangle surrounding the whole body of a person may be acquired as the foot coordinates. Further, when the captured image data for which the foot coordinates are acquired is not distortion-corrected, the acquired foot coordinates can be subjected to the distortion correction processing.

そして、図6に戻って、次に、S1042において、足元角度(作業機械10の周囲の人物の足元と撮影装置200との間の角度)が算出される。ここで、上記の図5によると、足元角度θは、下記式2で表される。

Figure 0006940906
θ:足元角度(degree)
θ1:カメラ中心からの角度(degree)
θ2:撮影装置200の設置角度(degree)
なお、カメラ中心からの角度θ1は後述する。また、撮影装置200の設置角度θ2は、図5に示すように、地面との平行線L1とカメラの光軸L2との間の角度であって、周辺監視装置100が設置される作業機械10に応じて予め定められる。 Then, returning to FIG. 6, next, in S1042, the foot angle (the angle between the foot of a person around the work machine 10 and the photographing device 200) is calculated. Here, according to FIG. 5 above, the foot angle θ is expressed by the following equation 2.
Figure 0006940906
θ: Foot angle (degree)
θ1: Angle from the center of the camera (degree)
θ2: Installation angle of the imaging device 200 (degree)
The angle θ1 from the center of the camera will be described later. Further, as shown in FIG. 5, the installation angle θ2 of the photographing device 200 is an angle between the parallel line L1 with the ground and the optical axis L2 of the camera, and the work machine 10 on which the peripheral monitoring device 100 is installed is installed. It is predetermined according to.

ここで、カメラ中心からの角度θ1は、上記の図7に基づいて、下記式3で算出することができる。

Figure 0006940906
θ1:カメラ中心からの角度(degree)
f:レンズの焦点距離(mm)
y:足元座標(pixel)
N:カメラの画素サイズ(mm/pixel) Here, the angle θ1 from the center of the camera can be calculated by the following equation 3 based on FIG. 7 above.
Figure 0006940906
θ1: Angle from the center of the camera (degree)
f: Focal length of the lens (mm)
y: Foot coordinates (pixel)
N: Camera pixel size (mm / pixel)

そして、図6に戻って、次に、S1043において、撮影装置200の設置高さが取得される。撮影装置200の設置高さは、周辺監視装置100が設置される作業機械10に応じて予め定められる。なお、測距処理部3033は、S1043の処理をS1041の処理の前に行ってもよい。 Then, returning to FIG. 6, next, in S1043, the installation height of the photographing apparatus 200 is acquired. The installation height of the photographing device 200 is predetermined according to the work machine 10 in which the peripheral monitoring device 100 is installed. The distance measuring processing unit 3033 may perform the processing of S1043 before the processing of S1041.

次に、S1044において、S1042の処理で算出された足元角度と、S1043の処理で取得された撮影装置200の設置高さと、に基づいて、作業機械10とその周囲の人物との距離が測定される。詳しくは、測距処理部3033は、上記式1に基づいて、作業機械10とその周囲の人物との距離を算出する。そして、S1044の処理の後、制御部303はS105の処理へ進む。なお、上述したように、S104では、このような測距処理と併せて抽出画像データの出力が実行される。 Next, in S1044, the distance between the work machine 10 and the people around it is measured based on the foot angle calculated by the process of S1042 and the installation height of the photographing device 200 acquired by the process of S1043. NS. Specifically, the distance measuring processing unit 3033 calculates the distance between the work machine 10 and a person around it based on the above equation 1. Then, after the processing of S1044, the control unit 303 proceeds to the processing of S105. As described above, in S104, the output of the extracted image data is executed in addition to the distance measuring process.

以上によれば、単眼カメラ210によって、低コストながら精度よく測距処理を行うことができる。なお、このような足元測距によれば、足元座標を比較的正確に取得することができるため、上述した距離の算出精度を可及的に高くすることができる。 Based on the above, the monocular camera 210 can perform distance measurement processing with high accuracy at low cost. In addition, according to such foot distance measurement, since the foot coordinates can be acquired relatively accurately, the above-mentioned distance calculation accuracy can be made as high as possible.

次に、頭測距について説明する。頭測距では、測距処理部3033は、撮影画像データにおける人物画像の頭の画像を取得するとともに、該頭の画像の大きさに基づいて、作業機械10とその周囲の人物との距離を測定する。 Next, head distance measurement will be described. In the head distance measurement, the distance measurement processing unit 3033 acquires the head image of the person image in the captured image data, and based on the size of the head image, determines the distance between the work machine 10 and the people around it. taking measurement.

詳しくは、測距処理部3033は、撮影画像データにおける人物画像の頭の画像の縦画素数を取得する。ここで、頭の画像の縦画素数は、例えば、人の首上を囲う矩形の縦方向の画素数から取得することができる。そして、本開示人は、人の頭の大きさは個人差が少ないことを利用して、頭の大きさを表す上記の縦画素数に基づいて測距できることを見出した。そこで、測距処理部3033は、下記式4に基づいて、作業機械10とその周囲の人物との距離を算出する。

Figure 0006940906
D´:周囲人物との距離(mm)
Dref:基準距離(mm)
Nref:基準距離での縦画素数(pixel)
Nhead:頭の画像の縦画素数(pixel)
なお、基準距離Drefおよび該基準距離での縦画素数Nrefは、予め定められる。そして、このように予め定められた基準と、撮影画像データから取得したの頭の画像の縦画素数Nheadと、を比較することで、周囲人物との距離D´が算出される。 Specifically, the distance measuring processing unit 3033 acquires the number of vertical pixels of the head image of the person image in the captured image data. Here, the number of vertical pixels of the head image can be obtained from, for example, the number of vertical pixels of a rectangle surrounding the neck of a person. Then, the present disclosure person has found that the distance can be measured based on the above-mentioned number of vertical pixels representing the size of the head by utilizing the fact that the size of the head of a person has little individual difference. Therefore, the distance measuring processing unit 3033 calculates the distance between the work machine 10 and a person around it based on the following equation 4.
Figure 0006940906
D': Distance to surrounding people (mm)
Dref: Reference distance (mm)
Nref: Number of vertical pixels at reference distance (pixel)
Nhead: Number of vertical pixels (pixel) of the head image
The reference distance Dref and the number of vertical pixels Nref at the reference distance are predetermined. Then, the distance D'with the surrounding person is calculated by comparing the predetermined standard with the number of vertical pixels Nhead of the head image acquired from the captured image data.

以上によれば、単眼カメラ210によって、低コストながら精度よく測距処理を行うことができる。なお、このような頭測距によれば、仮に、撮影画像データに周囲人物の足元が含まれていない場合であったり、高所に人が登っているなどして人物が地上にいない場合であっても、作業機械10とその周囲の人物との距離を算出することができる。 Based on the above, the monocular camera 210 can perform distance measurement processing with high accuracy at low cost. According to such head distance measurement, if the captured image data does not include the feet of surrounding people, or if the person is climbing to a high place and the person is not on the ground. Even if there is, the distance between the work machine 10 and the people around it can be calculated.

そして、以上に述べた足元測距と頭測距の両方が用いられて、作業機械10とその周囲の人物との距離が算出されてもよい。例えば、上記式1に基づく周囲人物との距離Dが足元測距により算出され、上記式4に基づく周囲人物との距離D´が頭測距により算出された場合には、測距処理部3033は、下記式5に基づいて算出される周囲人物との距離Doutを、作業機械10とその周囲の人物との距離として出力する。

Figure 0006940906
Dout:出力される周囲人物との距離(mm)
D:足元測距により算出される周囲人物との距離(mm)
D´:頭測距により算出される周囲人物との距離(mm)
w:ブレンド係数
ここで、ブレンド係数wは、下記式6および下記式7に基づいて算出される。
Figure 0006940906
Figure 0006940906
Then, both the foot distance measurement and the head distance measurement described above may be used to calculate the distance between the work machine 10 and a person around it. For example, when the distance D to the surrounding person based on the above formula 1 is calculated by the foot distance measurement and the distance D'to the surrounding person based on the above formula 4 is calculated by the head distance measurement, the distance measurement processing unit 3033. Outputs the distance Dout to the surrounding person calculated based on the following equation 5 as the distance between the work machine 10 and the surrounding person.
Figure 0006940906
Dout: Distance to the output surrounding person (mm)
D: Distance to surrounding people calculated by foot distance measurement (mm)
D': Distance to surrounding people calculated by head distance measurement (mm)
w: Blend coefficient Here, the blend coefficient w is calculated based on the following formula 6 and the following formula 7.
Figure 0006940906
Figure 0006940906

これによれば、例えば、距離Dと距離D´とが500mmずれている場合には、ブレンド係数wが0.5となり、足元測距により算出される周囲人物との距離Dと頭測距により算出される周囲人物との距離D´の平均値が、作業機械10とその周囲の人物との距離Doutとして出力される。また、例えば、距離Dと距離D´とが1000mm以上ずれている場合には、ブレンド係数wが1.0となり、頭測距により算出される周囲人物との距離D´が、作業機械10とその周囲の人物との距離Doutとして出力される。なお、距離Dと距離D´とが等しい場合には、ブレンド係数wが0となり、足元測距により算出される周囲人物との距離Dが、作業機械10とその周囲の人物との距離Doutとして出力される。 According to this, for example, when the distance D and the distance D'are deviated by 500 mm, the blend coefficient w becomes 0.5, and the distance D to the surrounding person calculated by the foot distance measurement and the head distance measurement are used. The calculated average value of the distance D'with the surrounding person is output as the distance Dout between the work machine 10 and the surrounding person. Further, for example, when the distance D and the distance D'are deviated by 1000 mm or more, the blend coefficient w becomes 1.0, and the distance D'with the surrounding person calculated by the head distance measurement is the same as that of the work machine 10. It is output as the distance Dout with the surrounding people. When the distance D and the distance D'are equal, the blend coefficient w becomes 0, and the distance D with the surrounding person calculated by the foot distance measurement is set as the distance Dout between the work machine 10 and the surrounding person. It is output.

以上に述べたように、本実施形態では、抽出処理によって撮影画像データから人物画像を精度よく抽出することができ、測距処理によって低コストながら精度よく周囲人物との距離を測定することができる。そして、本実施形態によれば、低コストで簡単に作業機械に設置できるとともに、作業機械とその周囲の人物との接触を抑制可能な周辺監視装置を提供することができる。 As described above, in the present embodiment, the person image can be accurately extracted from the captured image data by the extraction process, and the distance to the surrounding person can be accurately measured at low cost by the distance measurement process. .. According to the present embodiment, it is possible to provide a peripheral monitoring device that can be easily installed on a work machine at low cost and can suppress contact between the work machine and a person around it.

なお、本実施形態の周辺監視装置100は、上述した撮影装置200の設置パラメータ等を記憶した記憶装置を備えていてもよい。この場合、記憶装置には、作業機械10の機種毎の撮影装置200の設置パラメータが記憶され得る。そして、記憶装置に記憶された上記の設置パラメータは、作業機械10の機種とともに表示装置500に表示され得る。そうすると、ユーザは、作業機械10の機種に応じて簡単に周辺監視装置100を設置することができる。 The peripheral monitoring device 100 of the present embodiment may include a storage device that stores the installation parameters and the like of the photographing device 200 described above. In this case, the storage device can store the installation parameters of the photographing device 200 for each model of the work machine 10. Then, the above-mentioned installation parameters stored in the storage device can be displayed on the display device 500 together with the model of the work machine 10. Then, the user can easily install the peripheral monitoring device 100 according to the model of the work machine 10.

また、上記の実施形態では、周辺監視装置100が表示装置500を備える構成を例にして説明したが、本開示の周辺監視装置をこれに限定する意図はない。本開示の周辺監視装置は、上述した表示装置を備えていなくてもよく、この場合でも、抽出処理によって抽出された人物画像と、撮影装置の設置パラメータと、に基づいて測距処理が実行され、該測距処理の結果に基づいて発報制御処理が実行されることで、作業機械とその周囲の人物との接触を抑制することができる。 Further, in the above embodiment, the configuration in which the peripheral monitoring device 100 includes the display device 500 has been described as an example, but the peripheral monitoring device of the present disclosure is not intended to be limited to this. The peripheral monitoring device of the present disclosure does not have to include the above-mentioned display device, and even in this case, the distance measuring process is executed based on the person image extracted by the extraction process and the installation parameters of the photographing device. By executing the alarm control process based on the result of the distance measurement process, it is possible to suppress contact between the work machine and a person around it.

<第1実施形態の変形例1>
上記第1実施形態の変形例1について説明する。上述した第1実施形態では、作業機械10とその周囲の人物との距離が所定値以下となった場合に、発報装置400から警告灯や警告音が出力される。これにより、作業機械10の周囲の人物に対して、該作業機械10との接触を回避するための警告を行うことができる。また、作業機械10のオペレータは、発報装置400からの発報の出力を認知すると、作業機械10とその周囲の人物との接触を回避するための運転動作を行うことができる。ここで、オペレータによる運転動作によらずに作業機械10の回避動作を行うことができれば、作業機械10とその周囲の人物との接触をより好適に回避することができる。
<Modification 1 of the first embodiment>
A modification 1 of the first embodiment will be described. In the first embodiment described above, when the distance between the work machine 10 and a person around it becomes a predetermined value or less, a warning light or a warning sound is output from the alarm device 400. As a result, it is possible to give a warning to a person around the work machine 10 in order to avoid contact with the work machine 10. Further, when the operator of the work machine 10 recognizes the output of the alarm from the alarm device 400, the operator can perform an operation operation for avoiding contact between the work machine 10 and a person around it. Here, if the avoidance operation of the work machine 10 can be performed without the operation operation by the operator, the contact between the work machine 10 and a person around the work machine 10 can be more preferably avoided.

そこで、本変形例では、上記第1実施形態の説明で述べた発報制御処理部3034が、作業機械10とその周囲の人物との距離が所定値以下となった場合に、発報装置400から、該作業機械10とその周囲の人物との接触を回避するための所定の回避動作を指令する信号を出力させる。 Therefore, in the present modification, when the alarm control processing unit 3034 described in the description of the first embodiment has a distance between the work machine 10 and a person around it of a predetermined value or less, the alarm device 400 Therefore, a signal for instructing a predetermined avoidance operation for avoiding contact between the work machine 10 and a person around the work machine 10 is output.

ここで、本変形例の発報装置400は、所定の警報信号を出力可能に構成される。そして、所定の警報信号とは、例えば、上記の回避動作を指令する信号であって、該信号は、Controller Area Network(CAN)等によって作業機械10の制御コントローラに送信される。そうすると、作業機械10は、オペレータの操作によらず自動で回避動作を行うことになる。ここで、回避動作とは、作業機械10の作動が減速する動作や、作業機械10の作動が停止する動作などである。これによれば、オペレータによる運転動作によらずに作業機械10の回避動作を行うことができ、作業機械10とその周囲の人物との接触をより好適に回避することができる。なお、発報装置400は、電気的もしくは機械的な接点または入出力信号を出力可能に構成されてもよい。 Here, the alarm device 400 of this modification is configured to be able to output a predetermined alarm signal. The predetermined alarm signal is, for example, a signal for instructing the avoidance operation, and the signal is transmitted to the control controller of the work machine 10 by the Controller Area Network (CAN) or the like. Then, the work machine 10 automatically performs the avoidance operation regardless of the operation of the operator. Here, the avoidance operation is an operation in which the operation of the work machine 10 is decelerated, an operation in which the operation of the work machine 10 is stopped, and the like. According to this, it is possible to perform the avoidance operation of the work machine 10 without the operation operation by the operator, and it is possible to more preferably avoid the contact between the work machine 10 and the person around it. The alarm device 400 may be configured to be capable of outputting electrical or mechanical contacts or input / output signals.

また、発報装置400は、このような回避動作を指令する信号を出力する機能のみを有していてもよいし、当該機能に加えて上記第1実施形態の説明で述べた警告灯や警告音を出力する機能を有していてもよい。また、警報信号として、作業機械10とその周囲の人物との距離が所定値以下となった旨の情報が、所定の通信手段(例えば、イーサネット)を介して所定の端末に通知されてもよい。 Further, the alarm device 400 may have only a function of outputting a signal for instructing such an avoidance operation, and in addition to the function, a warning light or a warning described in the above description of the first embodiment may be provided. It may have a function of outputting sound. Further, as an alarm signal, information indicating that the distance between the work machine 10 and a person around it is equal to or less than a predetermined value may be notified to a predetermined terminal via a predetermined communication means (for example, Ethernet). ..

<第1実施形態の変形例2>
上記第1実施形態の変形例2について説明する。上述した第1実施形態では、周辺監視装置100の電源が入れられると、上記図2に示したフローが実行される。これに対して、本変形例では、周辺監視装置100の電源が入れられると、以下に説明する図8に示すフローが実行される。
<Modification 2 of the first embodiment>
The second modification of the first embodiment will be described. In the first embodiment described above, when the power of the peripheral monitoring device 100 is turned on, the flow shown in FIG. 2 is executed. On the other hand, in this modification, when the power of the peripheral monitoring device 100 is turned on, the flow shown in FIG. 8 described below is executed.

本変形例において、制御部303が行う処理フローについて、図8に基づいて説明する。図8は、本変形例に係る周辺監視装置100において、作業機械10とその周囲の人物との接触を回避するために制御部303が行う処理フローを示す第1のフローチャートである。なお、本変形例において、上述した第1実施形態の図2に示した処理と実質的に同一の処理については、同一の符号を付してその詳細な説明を省略する。 In this modification, the processing flow performed by the control unit 303 will be described with reference to FIG. FIG. 8 is a first flowchart showing a processing flow performed by the control unit 303 in order to avoid contact between the work machine 10 and a person around the work machine 10 in the peripheral monitoring device 100 according to the present modification. In this modification, substantially the same processing as that shown in FIG. 2 of the first embodiment described above will be designated by the same reference numerals and detailed description thereof will be omitted.

図8に示すフローでは、S101の処理の後に、S201において、周辺監視装置100の電源が入れられてから所定時間が経過したか否かが判別される。ここで、所定時間とは、例えば、抽出処理に用いられる事前学習モデルやプログラムが画像処理装置300の作業領域にロードされるまでの時間であって、モデルの規模に応じて予め定められる。そして、S201において肯定判定された場合、この場合はすぐに抽出処理が実行され得る場合であって、制御部303はS102の処理へ進む。一方、S201において否定判定された場合、制御部303はS202の処理へ進む。 In the flow shown in FIG. 8, after the processing of S101, it is determined in S201 whether or not a predetermined time has elapsed since the power of the peripheral monitoring device 100 was turned on. Here, the predetermined time is, for example, the time until the pre-learning model or program used for the extraction process is loaded into the work area of the image processing apparatus 300, and is predetermined according to the scale of the model. Then, when an affirmative determination is made in S201, in this case, the extraction process can be executed immediately, and the control unit 303 proceeds to the process in S102. On the other hand, if a negative determination is made in S201, the control unit 303 proceeds to the process of S202.

S201において否定判定された場合、次に、S202において、S101の処理で取得された撮影画像データのみが表示装置500に出力される。そして、S202の処理の後、本フローの実行が終了される。 If a negative determination is made in S201, then in S202, only the captured image data acquired in the process of S101 is output to the display device 500. Then, after the processing of S202, the execution of this flow is completed.

ここで、周辺監視装置100の電源が入れられてから所定時間が経過するまでは、制御部303は抽出処理をすぐに実行することができない。このような場合、仮に、抽出処理が実行可能になるまで制御部303の処理が待機され、作業機械10のオペレータが表示装置500を介して周囲を視認することができないとすると、この間に作業機械10とその周囲の人物との接触が生じ得る虞がある。これに対して、本フローによれば、周辺監視装置100の電源が入れられてから所定時間が経過するまでは、抽出処理および測距処理により取得され得るデータは表示装置500に出力されずに撮影画像データのみが表示装置500に出力される。つまり、周辺監視装置100の電源が入れられてから可及的速やかに作業機械10の周囲画像が表示装置500に出力されることになる。そのため、作業機械10のオペレータは、周辺監視装置100の電源が入れられてから可及的速やかに、表示装置500を介して周囲を視認することができる。これによれば、作業機械10とその周囲の人物との接触をより好適に回避することができる。 Here, the control unit 303 cannot immediately execute the extraction process until a predetermined time elapses after the power of the peripheral monitoring device 100 is turned on. In such a case, if the process of the control unit 303 is waited until the extraction process can be executed and the operator of the work machine 10 cannot visually recognize the surroundings via the display device 500, the work machine during this period. There is a risk that contact between 10 and a person around it may occur. On the other hand, according to this flow, the data that can be acquired by the extraction process and the distance measurement process is not output to the display device 500 until a predetermined time elapses after the power of the peripheral monitoring device 100 is turned on. Only the captured image data is output to the display device 500. That is, the surrounding image of the work machine 10 is output to the display device 500 as soon as possible after the power of the peripheral monitoring device 100 is turned on. Therefore, the operator of the work machine 10 can visually recognize the surroundings via the display device 500 as soon as possible after the power of the peripheral monitoring device 100 is turned on. According to this, it is possible to more preferably avoid contact between the work machine 10 and a person around it.

なお、このように撮影画像データのみが表示装置500に出力される場合には、撮影画像データに含まれる人物には矩形が表示されない。そうすると、作業機械10のオペレータは、抽出処理および測距処理が未だ実行されていないことを認識できる。 When only the captured image data is output to the display device 500 in this way, the rectangle is not displayed on the person included in the captured image data. Then, the operator of the work machine 10 can recognize that the extraction process and the distance measurement process have not been executed yet.

また、本変形例では、周辺監視装置100の電源が入れられると、以下に説明する図9に示すフローが実行されてもよい。図9は、本変形例に係る周辺監視装置100において、作業機械10とその周囲の人物との接触を回避するために制御部303が行う処理フローを示す第2のフローチャートである。なお、上述した第1実施形態の図2に示した処理と実質的に同一の処理については、同一の符号を付してその詳細な説明を省略する。 Further, in this modification, when the power of the peripheral monitoring device 100 is turned on, the flow shown in FIG. 9 described below may be executed. FIG. 9 is a second flowchart showing a processing flow performed by the control unit 303 in order to avoid contact between the work machine 10 and a person around the work machine 10 in the peripheral monitoring device 100 according to the present modification. The processes substantially the same as those shown in FIG. 2 of the first embodiment described above are designated by the same reference numerals, and detailed description thereof will be omitted.

図9に示すフローでは、S102の処理の後に、S203において、S102の処理における抽出処理の結果を取得可能か否かが判別される。ここで、抽出処理の結果を取得できない場合とは、例えば、抽出処理に用いられる事前学習モデルやプログラムが画像処理装置300の作業領域に未だロードされていない(作業領域へのロードが完了していない)場合である。この場合、図9に示すフローでは、上記のロードの完了の有無にかかわらずS102の処理が実行されている。なお、S102において、上記のロードが完了していないために周囲人物の抽出を行うことができない場合には、制御部303は、抽出処理を実行できないとして即座にS102の処理を終了させる。このとき、制御部303は、抽出処理を実行したか否かを判別するフラグを立ててもよい。そうすると、S203では、このフラグに基づいて上記を判定することができる。そして、S203において肯定判定された場合、制御部303はS103の処理へ進み、S203において否定判定された場合、制御部303はS204の処理へ進む。 In the flow shown in FIG. 9, after the processing of S102, it is determined in S203 whether or not the result of the extraction processing in the processing of S102 can be acquired. Here, when the result of the extraction process cannot be obtained, for example, the pre-learning model or program used for the extraction process has not yet been loaded into the work area of the image processing device 300 (loading to the work area has been completed). Not) if. In this case, in the flow shown in FIG. 9, the process of S102 is executed regardless of whether or not the above loading is completed. If the extraction of surrounding people cannot be performed because the above loading is not completed in S102, the control unit 303 immediately terminates the processing of S102, assuming that the extraction processing cannot be executed. At this time, the control unit 303 may set a flag for determining whether or not the extraction process has been executed. Then, in S203, the above can be determined based on this flag. Then, if an affirmative determination is made in S203, the control unit 303 proceeds to the process of S103, and if a negative determination is made in S203, the control unit 303 proceeds to the process of S204.

S203において否定判定された場合、次に、S204において、S101の処理で取得された撮影画像データのみが表示装置500に出力される。そして、S204の処理の後、本フローの実行が終了される。 If a negative determination is made in S203, then in S204, only the captured image data acquired in the process of S101 is output to the display device 500. Then, after the processing of S204, the execution of this flow is completed.

以上に述べた処理によっても、作業機械10のオペレータは、周辺監視装置100の電源が入れられてから可及的速やかに、表示装置500を介して周囲を視認することができ、以て、作業機械10とその周囲の人物との接触をより好適に回避することができる。 Even with the above-described processing, the operator of the work machine 10 can visually recognize the surroundings via the display device 500 as soon as possible after the power of the peripheral monitoring device 100 is turned on. It is possible to more preferably avoid contact between the machine 10 and a person around it.

<第2実施形態>
第2実施形態について説明する。本実施形態では、制御部303が画像鮮明化処理を更に実行する。詳しくは、制御部303は、撮影画像データに含まれる画素値の頻度を示す撮影画像ヒストグラムを生成する。そして、撮影画像ヒストグラムを平滑化した平滑化ヒストグラムに基づいて取得される平滑化画像データと、撮影画像データと、を所定の比率で合成することで撮影画像データの鮮明化を行う。これについて、図10に基づいて説明する。
<Second Embodiment>
The second embodiment will be described. In the present embodiment, the control unit 303 further executes the image sharpening process. Specifically, the control unit 303 generates a captured image histogram showing the frequency of pixel values included in the captured image data. Then, the captured image data is sharpened by synthesizing the smoothed image data acquired based on the smoothed smoothed image histogram and the captured image data at a predetermined ratio. This will be described with reference to FIG.

本実施形態の制御部303は、画像鮮明化処理を実行するために、図10に示す処理フローを実行する。図10は、本実施形態に係る画像鮮明化処理において、制御部303が行う処理フローを示すフローチャートである。本フローは、上記図2に示したフローのS101の処理の後に実行される。 The control unit 303 of the present embodiment executes the processing flow shown in FIG. 10 in order to execute the image sharpening processing. FIG. 10 is a flowchart showing a processing flow performed by the control unit 303 in the image sharpening process according to the present embodiment. This flow is executed after the processing of S101 of the flow shown in FIG. 2 above.

本フローでは、S101の処理の後に、S301において、撮影画像ヒストグラムが生成される。上述したように、撮影画像ヒストグラムは、撮影画像データに含まれる画素値の頻度を示すヒストグラムであって、周知の技術に基づいて生成される。 In this flow, after the processing of S101, a captured image histogram is generated in S301. As described above, the captured image histogram is a histogram showing the frequency of pixel values included in the captured image data, and is generated based on a well-known technique.

次に、S302において、平滑化画像データが生成される。S302の処理において、制御部303は、先ず、撮影画像ヒストグラムを平滑化した平滑化ヒストグラムを生成し、該平滑化ヒストグラムに基づいて平滑化画像データを取得する。ここで、平滑化ヒストグラムは、撮影画像ヒストグラムを画素値の範囲全体(256階調)に亘って引き伸ばすことによって生成され、例えば、或る画素値の範囲に頻度が集中しているヒストグラムを画素値の範囲全体(256階調)に亘って引き伸ばすことによって、コントラストの高い画像を取得することができる。つまり、平滑化画像データは、撮影画像データのコントラストが高められた画像データである。 Next, in S302, smoothed image data is generated. In the process of S302, the control unit 303 first generates a smoothed histogram obtained by smoothing the captured image histogram, and acquires smoothed image data based on the smoothed histogram. Here, the smoothing histogram is generated by stretching the captured image histogram over the entire range of pixel values (256 gradations). For example, a histogram in which the frequency is concentrated in a certain pixel value range is a pixel value. A high-contrast image can be obtained by stretching over the entire range (256 gradations). That is, the smoothed image data is image data in which the contrast of the captured image data is enhanced.

このような平滑化画像データによれば、夜間や霧天時であっても画像のコントラストを確保することができる。しかしながら、作業機械10は様々な環境下で使用されるため、その環境に応じてコントラストが調整される必要がある。 According to such smoothed image data, it is possible to secure the contrast of the image even at night or in foggy weather. However, since the work machine 10 is used in various environments, it is necessary to adjust the contrast according to the environment.

そこで、本実施形態では、S303の処理において、鮮明化強度が取得される。そして、S304の処理において、撮影画像データに平滑化画像データが所定の比率で合成される。この比率が鮮明化強度に基づく比率であって、該強度の区分が、例えば、弱・中・強の3段階で設定され得る。例えば、鮮明化強度の区分が弱の場合に、平滑化画像データと撮影画像データとが1:3の比率で合成され、鮮明化強度の区分が中の場合に、平滑化画像データと撮影画像データとが1:1の比率で合成され、鮮明化強度の区分が強の場合に、平滑化画像データと撮影画像データとが3:1の比率で合成される。なお、S303の処理では、このような区分に応じた強度の値、例えば、強度区分が弱の場合は、強度の値が0.25として取得されてもよいし(この場合、鮮明化された撮影画像データの25%が平滑化画像データによるもので、75%が元の撮影画像データによるものとなる。)、区分によらない任意の値(0よりも大きくて1よりも小さい値)が取得されてもよい。また、鮮明化強度は、作業機械10のオペレータによって手動で設定されてもよいし、環境に応じて自動で設定されてもよい。そして、S304の処理の後、制御部303はS102の処理へ進む。 Therefore, in the present embodiment, the sharpening intensity is acquired in the processing of S303. Then, in the process of S304, the smoothed image data is combined with the captured image data at a predetermined ratio. This ratio is a ratio based on the sharpening intensity, and the intensity classification can be set in, for example, three stages of weak, medium, and strong. For example, when the sharpening intensity classification is weak, the smoothed image data and the captured image data are combined at a ratio of 1: 3, and when the sharpening intensity classification is medium, the smoothed image data and the captured image data are combined. When the data and the data are combined at a ratio of 1: 1 and the sharpening intensity classification is strong, the smoothed image data and the captured image data are combined at a ratio of 3: 1. In the processing of S303, the strength value corresponding to such a classification, for example, when the strength classification is weak, the strength value may be acquired as 0.25 (in this case, it is clarified). Twenty-five percent of the captured image data is from the smoothed image data, 75% is from the original captured image data), and any value regardless of classification (value greater than 0 and less than 1) May be obtained. Further, the sharpening intensity may be manually set by the operator of the work machine 10, or may be automatically set according to the environment. Then, after the processing of S304, the control unit 303 proceeds to the processing of S102.

このように、S301〜S304の処理によって撮影画像データの鮮明化が行われ、次のS102の処理によって抽出処理が実行される場合には、環境に応じて鮮明化された撮影画像データに基づいて人物画像が抽出されることになる。これによれば、撮影画像データからの人物画像の抽出精度を可及的に高くすることができる。また、作業機械10のオペレータは、該作業機械10の車体の周辺に存在する障害物を、表示装置500を介して視認し易くなる。 In this way, when the captured image data is sharpened by the processes of S301 to S304 and the extraction process is executed by the next process of S102, it is based on the captured image data that has been sharpened according to the environment. A person image will be extracted. According to this, the accuracy of extracting a person image from the captured image data can be made as high as possible. Further, the operator of the work machine 10 can easily visually recognize an obstacle existing around the vehicle body of the work machine 10 via the display device 500.

そして、以上に述べた周辺監視装置によっても、作業機械とその周囲の人物との接触を好適に抑制することができる。 Further, the peripheral monitoring device described above can also suitably suppress the contact between the work machine and the person around it.

<その他の変形例>
上記の実施形態はあくまでも一例であって、本開示はその要旨を逸脱しない範囲内で適宜変更して実施しうる。例えば、本開示において説明した処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
<Other variants>
The above embodiment is merely an example, and the present disclosure may be appropriately modified and implemented without departing from the gist thereof. For example, the processes and means described in the present disclosure can be freely combined and carried out as long as there is no technical contradiction.

上記の実施形態では、撮影装置200が4つの単眼カメラ210を含んで構成される例を説明したが、本開示の撮影装置はこれに限定されない。図11は、本開示における作業機械の周辺監視装置の概略構成の変形例を示す図である。本開示の撮影装置は、図11に示すように、3つの単眼カメラ210と1つの半天球カメラ220とを含んで構成されてもよい。この場合、半天球カメラ220は、作業機械10の所定の装備により死角が生じ易い領域を撮影可能な位置(例えば、作業機械10の運転室の上面)に配置され得る。 In the above embodiment, an example in which the photographing device 200 is configured to include four monocular cameras 210 has been described, but the photographing device of the present disclosure is not limited to this. FIG. 11 is a diagram showing a modified example of the schematic configuration of the peripheral monitoring device for the work machine in the present disclosure. As shown in FIG. 11, the photographing apparatus of the present disclosure may include three monocular cameras 210 and one hemispherical camera 220. In this case, the hemispherical camera 220 may be arranged at a position (for example, the upper surface of the driver's cab of the work machine 10) where a region where a blind spot is likely to occur can be photographed by a predetermined equipment of the work machine 10.

また、1つの装置が行うものとして説明した処理が、複数の装置によって分担して実行されてもよい。例えば、抽出処理部3032を画像処理装置300とは別の集積回路に形成してもよい。このとき当該別の集積回路は画像処理装置300と好適に協働可能に構成される。また、異なる装置が行うものとして説明した処理が、1つの装置によって実行されても構わない。集積回路において、各機能をどのようなハードウェア構成によって実現するかは柔軟に変更可能である。 Further, the processing described as being performed by one device may be shared and executed by a plurality of devices. For example, the extraction processing unit 3032 may be formed in an integrated circuit different from the image processing device 300. At this time, the other integrated circuit is configured to be suitably cooperative with the image processing device 300. Further, the processing described as being performed by different devices may be executed by one device. In an integrated circuit, it is possible to flexibly change what kind of hardware configuration is used to realize each function.

本開示は、上記の実施形態で説明した機能を実装したコンピュータプログラムをコンピュータに供給し、当該コンピュータが有する1つ以上のプロセッサがプログラムを読み出して実行することによっても実現可能である。このようなコンピュータプログラムは、コンピュータのシステムバスに接続可能な非一時的なコンピュータ可読記憶媒体によってコンピュータに提供されてもよい。非一時的なコンピュータ可読記憶媒体は、例えば、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスクドライブ(HDD)等)、光ディスク(CD−ROM、DVDディスク・ブルーレイディスク等)など任意のタイプのディスク、読み込み専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気カード、フラッシュメモリ、光学式カード、電子的命令を格納するために適した任意のタイプの媒体を含む。 The present disclosure can also be realized by supplying a computer program having the functions described in the above-described embodiment to a computer, and having one or more processors of the computer read and execute the program. Such computer programs may be provided to the computer by a non-temporary computer-readable storage medium that can be connected to the computer's system bus. Non-temporary computer-readable storage media include, for example, any type of disc such as a magnetic disc (floppy (registered trademark) disc, hard disk drive (HDD), etc.), an optical disc (CD-ROM, DVD disc, Blu-ray disc, etc.). Includes read-only memory (ROM), random access memory (RAM), EPROM, EEPROM, magnetic cards, flash memory, optical cards, and any type of medium suitable for storing electronic instructions.

10・・・・作業機械
100・・・周辺監視装置
200・・・撮影装置
210・・・単眼カメラ
300・・・画像処理装置
303・・・制御部
400・・・発報装置
10 ... Work machine 100 ... Peripheral monitoring device 200 ... Imaging device 210 ... Monocular camera 300 ... Image processing device 303 ... Control unit 400 ... Alarm device

Claims (8)

作業機械に設置され、該作業機械の周囲を撮影する撮影装置と、
前記撮影装置によって撮影された前記作業機械の周囲画像を表す撮影画像データを取得し、該撮影画像データに基づいて所定の処理を実行するプロセッサと、
所定の警報信号又は/及び所定の発報を出力する発報装置と、
を備え、
前記撮影装置は、1以上の単眼カメラを含み、該単眼カメラの光軸が地面に対して所定の角度で配置されるように構成され、
前記プロセッサは、
前記撮影画像データから人物画像を抽出する抽出処理と、
抽出された前記人物画像と、前記撮影装置の設置パラメータと、に基づいて、前記作業機械とその周囲の人物との距離を測定する測距処理と、
前記測距処理によって測定された前記作業機械とその周囲の人物との距離に基づいて、前記発報装置による前記警報信号又は/及び前記発報の出力を制御する発報制御処理と、を実行し、
前記測距処理において、前記プロセッサは、
前記撮影画像データにおける前記人物画像の足元の二次元座標である足元座標を取得するとともに、該足元座標と、前記作業機械の周囲の人物の足元と前記単眼カメラの光軸との間の角度と、前記撮影装置の設置角度と、に基づいて、前記作業機械の周囲の人物の足元と前記撮影装置との間の所定の角度である足元角度を算出し、
算出された前記足元角度と、前記撮影装置の設置高さと、に基づいて、前記作業機械とその周囲の人物との距離を測定する、
作業機械の周辺監視装置。
An imaging device installed on a work machine that photographs the surroundings of the work machine,
A processor that acquires photographed image data representing the surrounding image of the work machine photographed by the photographing apparatus and executes a predetermined process based on the photographed image data.
An alarm device that outputs a predetermined alarm signal and / and a predetermined alarm, and
With
The imaging device includes one or more monocular cameras, and is configured such that the optical axis of the monocular camera is arranged at a predetermined angle with respect to the ground.
The processor
An extraction process for extracting a person image from the captured image data, and
A distance measuring process for measuring the distance between the work machine and a person around it based on the extracted person image and the installation parameters of the photographing device.
Based on the distance between the work machine and a person around it measured by the distance measuring process, the alarm signal and / and the alarm control process for controlling the output of the alarm by the alarm device are executed. death,
In the distance measuring process, the processor
The foot coordinates, which are the two-dimensional coordinates of the feet of the person image in the captured image data, are acquired, and the foot coordinates and the angle between the feet of the person around the work machine and the optical axis of the monocular camera are used. Based on the installation angle of the photographing device, the foot angle, which is a predetermined angle between the feet of a person around the work machine and the photographing device, is calculated.
The distance between the work machine and a person around it is measured based on the calculated foot angle and the installation height of the photographing device.
Peripheral monitoring device for work machines.
作業機械に設置され、該作業機械の周囲を撮影する撮影装置と、
前記撮影装置によって撮影された前記作業機械の周囲画像を表す撮影画像データを取得し、該撮影画像データに基づいて所定の処理を実行するプロセッサと、
所定の警報信号又は/及び所定の発報を出力する発報装置と、
を備え、
前記撮影装置は、1以上の単眼カメラを含み、該単眼カメラの光軸が地面に対して所定の角度で配置されるように構成され、
前記プロセッサは、
前記撮影画像データから人物画像を抽出する抽出処理と、
抽出された前記人物画像と、前記撮影装置の設置パラメータと、に基づいて、前記作業機械とその周囲の人物との距離を測定する測距処理と、
前記測距処理によって測定された前記作業機械とその周囲の人物との距離に基づいて、前記発報装置による前記警報信号又は/及び前記発報の出力を制御する発報制御処理と、を実行し、
前記測距処理において、前記プロセッサは、
前記撮影画像データにおける前記人物画像の頭の画像を取得するとともに、該頭の画像の画素数に基づいて、前記作業機械とその周囲の人物との距離を測定する、
作業機械の周辺監視装置。
An imaging device installed on a work machine that photographs the surroundings of the work machine,
A processor that acquires photographed image data representing the surrounding image of the work machine photographed by the photographing apparatus and executes a predetermined process based on the photographed image data.
An alarm device that outputs a predetermined alarm signal and / and a predetermined alarm, and
With
The imaging device includes one or more monocular cameras, and is configured such that the optical axis of the monocular camera is arranged at a predetermined angle with respect to the ground.
The processor
An extraction process for extracting a person image from the captured image data, and
A distance measuring process for measuring the distance between the work machine and a person around it based on the extracted person image and the installation parameters of the photographing device.
Based on the distance between the work machine and a person around it measured by the distance measuring process, the alarm signal and / and the alarm control process for controlling the output of the alarm by the alarm device are executed. death,
In the distance measuring process, the processor
The head image of the person image in the captured image data is acquired, and the distance between the work machine and the surrounding person is measured based on the number of pixels of the head image.
Peripheral monitoring device for work machines.
前記発報制御処理において、前記プロセッサは、
前記作業機械とその周囲の人物との距離が所定値以下となった場合に、前記発報装置から、該作業機械とその周囲の人物との接触を回避するための所定の回避動作を指令する信号を出力させる、
請求項1又は請求項2に記載の作業機械の周辺監視装置。
In the alarm control process, the processor
When the distance between the work machine and a person around it becomes equal to or less than a predetermined value, the alarm device commands a predetermined avoidance operation for avoiding contact between the work machine and a person around it. Output a signal,
The peripheral monitoring device for a work machine according to claim 1 or 2.
前記抽出処理において、前記プロセッサは、
所定の画像データの入力を受け付ける入力層と、入力された該画像データから人物を表す特徴量を抽出する中間層と、該特徴量に基づく識別結果を出力する出力層と、を有するニューラルネットワークモデルであって、人物を表す画像を含んだデータを用いて学習を行うことにより構築された事前学習モデルに、前記撮影画像データを入力することで、前記人物画像を抽出する、
請求項1から請求項3の何れか1項に記載の作業機械の周辺監視装置。
In the extraction process, the processor
A neural network model having an input layer that accepts input of predetermined image data, an intermediate layer that extracts a feature amount representing a person from the input image data, and an output layer that outputs an identification result based on the feature amount. The person image is extracted by inputting the photographed image data into the pre-learning model constructed by performing the training using the data including the image representing the person.
The peripheral monitoring device for a work machine according to any one of claims 1 to 3.
前記撮影装置によって撮影された前記撮影画像データ又は/及び該撮影画像データに基づく処理により取得された所定のデータを表示可能に構成された表示装置を、更に備える、
請求項1から請求項4の何れか1項に記載の作業機械の周辺監視装置。
A display device configured to be able to display the captured image data and / or predetermined data acquired by processing based on the captured image data taken by the photographing device is further provided.
The peripheral monitoring device for a work machine according to any one of claims 1 to 4.
前記プロセッサは、
前記周辺監視装置の電源が入れられてから所定時間経過するまでは、前記抽出処理及び前記測距処理により取得され得るデータを前記表示装置に出力せず、前記撮影画像データのみを前記表示装置に出力する処理を実行する、
請求項5に記載の作業機械の周辺監視装置。
The processor
Until a predetermined time elapses after the power of the peripheral monitoring device is turned on, the data that can be acquired by the extraction process and the distance measurement process is not output to the display device, and only the captured image data is displayed on the display device. Execute the output process,
The peripheral monitoring device for a work machine according to claim 5.
前記プロセッサは、
前記撮影画像データに含まれる画素値の頻度を示す撮影画像ヒストグラムを生成し、
前記撮影画像ヒストグラムを平滑化した平滑化ヒストグラムに基づいて取得される平滑化画像データと、前記撮影画像データと、を所定の比率で合成することで前記撮影画像データの鮮明化を行う、画像鮮明化処理を更に実行する、
請求項1から請求項6の何れか1項に記載の作業機械の周辺監視装置。
The processor
A captured image histogram showing the frequency of pixel values included in the captured image data is generated.
Image sharpening that sharpens the captured image data by synthesizing the smoothed image data acquired based on the smoothed smoothed histogram of the captured image histogram and the captured image data at a predetermined ratio. Further execute the conversion process,
The peripheral monitoring device for a work machine according to any one of claims 1 to 6.
前記プロセッサは、前記作業機械に設置された集積回路に実装される、
請求項1から請求項7の何れか1項に記載の作業機械の周辺監視装置。
The processor is mounted on an integrated circuit installed in the working machine.
The peripheral monitoring device for a work machine according to any one of claims 1 to 7.
JP2021055104A 2021-03-29 2021-03-29 Peripheral monitoring device for work machines Active JP6940906B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021055104A JP6940906B1 (en) 2021-03-29 2021-03-29 Peripheral monitoring device for work machines

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021055104A JP6940906B1 (en) 2021-03-29 2021-03-29 Peripheral monitoring device for work machines

Publications (2)

Publication Number Publication Date
JP6940906B1 true JP6940906B1 (en) 2021-09-29
JP2022152362A JP2022152362A (en) 2022-10-12

Family

ID=77846982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021055104A Active JP6940906B1 (en) 2021-03-29 2021-03-29 Peripheral monitoring device for work machines

Country Status (1)

Country Link
JP (1) JP6940906B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7437835B1 (en) 2023-10-17 2024-02-26 株式会社レグラス Work machine safety equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012164712A1 (en) * 2011-06-02 2012-12-06 日立建機株式会社 Device for monitoring area around working machine
WO2016159012A1 (en) * 2015-03-31 2016-10-06 株式会社小松製作所 Work-machine periphery monitoring device
WO2016158255A1 (en) * 2015-03-31 2016-10-06 株式会社小松製作所 Work-machine periphery monitoring device
WO2018151280A1 (en) * 2017-02-17 2018-08-23 住友重機械工業株式会社 Work machine surroundings monitoring system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012164712A1 (en) * 2011-06-02 2012-12-06 日立建機株式会社 Device for monitoring area around working machine
WO2016159012A1 (en) * 2015-03-31 2016-10-06 株式会社小松製作所 Work-machine periphery monitoring device
WO2016158255A1 (en) * 2015-03-31 2016-10-06 株式会社小松製作所 Work-machine periphery monitoring device
WO2018151280A1 (en) * 2017-02-17 2018-08-23 住友重機械工業株式会社 Work machine surroundings monitoring system

Also Published As

Publication number Publication date
JP2022152362A (en) 2022-10-12

Similar Documents

Publication Publication Date Title
US8373751B2 (en) Apparatus and method for measuring location and distance of object by using camera
JP6062122B2 (en) Driving support device, driving support method and program
JP2009187135A (en) Vehicle periphery monitoring device, vehicle, program for monitoring vehicle periphery, and vehicle periphery monitoring method
JP5809751B2 (en) Object recognition device
US10949946B2 (en) Image processing apparatus, image processing method, and storage medium
JP2007235485A (en) Device and method for monitoring image
JP6940906B1 (en) Peripheral monitoring device for work machines
JP7104452B1 (en) Peripheral monitoring device for work machines
JP2019052889A (en) Image processor
JP6991045B2 (en) Image processing device, control method of image processing device
JP2007139564A (en) Obstacle detection system, obstacle detection method and computer program
JP2014142832A (en) Image processing apparatus, control method of image processing apparatus, and program
JP2006041939A (en) Monitor device and monitor program
JP2008026999A (en) Obstacle detection system and obstacle detection method
JP6940907B1 (en) Peripheral monitoring device for work machines
JP4765113B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
CN115526897A (en) Flame positioning method and system for fire-fighting robot of extra-high voltage converter station
JP5946125B2 (en) Image processing apparatus, image processing method, program, and recording medium
KR20230015429A (en) Obstacle detection device and obstacle detection method
KR101531313B1 (en) Apparatus and method for object detection of vehicle floor
JP2020088688A (en) Monitoring device, monitoring system, monitoring method, and monitoring program
WO2023002776A1 (en) Image processing device, image processing system, image processing method, and image processing program
JP2011131740A (en) Driving support device of vehicle
JP6587253B2 (en) Image processing apparatus and image processing method
WO2023042604A1 (en) Dimension measurement device, dimension measurement method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210406

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210827

R150 Certificate of patent or registration of utility model

Ref document number: 6940906

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150