JP6940907B1 - Peripheral monitoring device for work machines - Google Patents

Peripheral monitoring device for work machines Download PDF

Info

Publication number
JP6940907B1
JP6940907B1 JP2021055106A JP2021055106A JP6940907B1 JP 6940907 B1 JP6940907 B1 JP 6940907B1 JP 2021055106 A JP2021055106 A JP 2021055106A JP 2021055106 A JP2021055106 A JP 2021055106A JP 6940907 B1 JP6940907 B1 JP 6940907B1
Authority
JP
Japan
Prior art keywords
work machine
person
image data
predetermined
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021055106A
Other languages
Japanese (ja)
Other versions
JP2022152363A (en
Inventor
将 酒井
将 酒井
翔 佐々木
翔 佐々木
哲也 森住
哲也 森住
隆志 前田
隆志 前田
裕太 長谷川
裕太 長谷川
大樹 村上
大樹 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Regulus Co Ltd
Original Assignee
Regulus Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Regulus Co Ltd filed Critical Regulus Co Ltd
Priority to JP2021055106A priority Critical patent/JP6940907B1/en
Application granted granted Critical
Publication of JP6940907B1 publication Critical patent/JP6940907B1/en
Publication of JP2022152363A publication Critical patent/JP2022152363A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】低コスト及び可及的に少ないカメラ数で作業機械の周囲を広範囲に亘って監視できるとともに、作業機械とその周囲の人物との接触を抑制可能な周辺監視装置を提供する。【解決手段】本開示の作業機械の周辺監視装置100は、1以上の半天球カメラ220を含んだ撮影装置200と、撮影された作業機械10の周囲画像を表す撮影画像データに基づいて所定の処理を実行するプロセッサ303と、所定の警報信号又は/及び所定の発報を出力する発報装置400と、を備える。そして、プロセッサ303は、撮影画像データから人物画像を抽出し、該人物画像と、撮影装置200の設置パラメータと、に基づいて、作業機械10とその周囲の人物との距離を測定する。そして、測定された距離に基づいて、発報装置400による警報信号又は/及び発報の出力を制御する。【選択図】図1PROBLEM TO BE SOLVED: To provide a peripheral monitoring device capable of monitoring the surroundings of a work machine over a wide range with a low cost and as few cameras as possible, and capable of suppressing contact between the work machine and a person around the work machine. A peripheral monitoring device 100 for a work machine according to the present disclosure is determined based on a photographing device 200 including one or more hemispherical cameras 220 and photographed image data representing a photographed peripheral image of the working machine 10. It includes a processor 303 that executes processing, and an alarm device 400 that outputs a predetermined alarm signal and / and a predetermined alarm. Then, the processor 303 extracts a person image from the photographed image data, and measures the distance between the work machine 10 and the person around it based on the person image and the installation parameters of the photographing device 200. Then, based on the measured distance, the output of the alarm signal and / and the alarm by the alarm device 400 is controlled. [Selection diagram] Fig. 1

Description

本発明は、作業機械の周辺監視装置に関する。 The present invention relates to a peripheral monitoring device for a work machine.

ショベル、フォークリフト等の作業機械が用いられる現場では、作業機械とその周囲の人物との接触事故の防止が図られている。例えば、作業機械の車体の周辺に存在する障害物をオペレータが視認できるように、ミラーやカメラを設置した作業機械が実用化されている。そして、カメラが撮影した画像を作業機械の運転室内のディスプレイに表示するシステムが知られている。 At sites where work machines such as excavators and forklifts are used, contact accidents between the work machines and people around them are prevented. For example, a work machine equipped with a mirror or a camera has been put into practical use so that an operator can visually recognize an obstacle existing around the vehicle body of the work machine. Then, there is known a system that displays an image taken by a camera on a display in the driver's cab of a work machine.

また、カメラが撮影した画像に基づいて、作業機械の周囲に存在する物体との距離を測定する技術として、特許文献1には、下部走行体と上部旋回体とを有するショベルにおいて、上部旋回体に複数のステレオカメラを配置する技術が開示されている。当該技術では、ステレオカメラによって、ショベルの周囲に存在する物体の距離情報が取得される。 Further, as a technique for measuring the distance to an object existing around the work machine based on an image taken by a camera, Patent Document 1 describes an upper swivel body in a shovel having a lower traveling body and an upper swivel body. A technique for arranging a plurality of stereo cameras is disclosed. In this technology, a stereo camera acquires distance information of an object existing around the excavator.

一方、作業機械に広視野角カメラを設置して、該作業機械の運転室内でオペレータにとって死角となる範囲の視野を得るようにする技術が知られている。例えば、特許文献2には、作業機械に取り付けて直ちに死角全体の状況を把握できる魚眼レンズ利用の作業機械周囲監視方法及びシステムが開示されている。また、特許文献3には、1台のカメラを利用するだけで簡単かつ適正に後進移動時のガイダンスを行うことができる建設機械が開示されている。そして、この建設機械では、油圧ショベルの上部旋回体に、全方位カメラや魚眼カメラ等の広視野角カメラが備えられている。 On the other hand, there is known a technique of installing a wide viewing angle camera in a work machine so as to obtain a field of view in a range that is a blind spot for an operator in the driver's cab of the work machine. For example, Patent Document 2 discloses a work machine surrounding monitoring method and system using a fisheye lens that can be attached to a work machine to immediately grasp the state of the entire blind spot. Further, Patent Document 3 discloses a construction machine capable of easily and appropriately giving guidance at the time of reverse movement by using only one camera. In this construction machine, a wide viewing angle camera such as an omnidirectional camera or a fisheye camera is provided on the upper swing body of the hydraulic excavator.

特開2020−127217号公報Japanese Unexamined Patent Publication No. 2020-127217 特開2012−172350号公報Japanese Unexamined Patent Publication No. 2012-172350 特開2008−240362号公報Japanese Unexamined Patent Publication No. 2008-240362

ショベル、フォークリフト等の作業機械とその周囲の人物との接触を抑制するためには、作業機械の周囲を広範囲に亘って監視する必要がある。ここで、特許文献2や特許文献3に記載の作業機械では、広視野角カメラを用いて作業機械の周囲の画像を取得することができる。つまり、これらは、作業機械の車体の周辺に存在する障害物をオペレータが視認できるようにしたものであるが、オペレータは、運転室内のディスプレイ等に表示された画像を確認しながら、作業機械とその周囲の人物とが接触しないように操作しなければならない。 In order to suppress contact between work machines such as excavators and forklifts and people around them, it is necessary to monitor the surroundings of the work machines over a wide area. Here, in the work machines described in Patent Documents 2 and 3, it is possible to acquire an image of the surroundings of the work machine by using a wide viewing angle camera. In other words, these are intended to allow the operator to visually recognize obstacles existing around the vehicle body of the work machine, but the operator can see the work machine while checking the image displayed on the display or the like in the driver's cab. It must be operated so that it does not come into contact with the people around it.

一方、特許文献1に記載の技術によれば、カメラが撮影した画像に基づいて、ショベルの周囲に存在する物体の距離情報を取得することができるものの、ショベルに設置されるカメラはステレオカメラであって、作業機械の周囲を広範囲に亘って監視するためには、複数のステレオカメラを配置する必要がある。そのため、コストとスペースが問題となり得る。 On the other hand, according to the technique described in Patent Document 1, although the distance information of the objects existing around the excavator can be acquired based on the image taken by the camera, the camera installed in the excavator is a stereo camera. Therefore, in order to monitor the surroundings of the work machine over a wide area, it is necessary to arrange a plurality of stereo cameras. Therefore, cost and space can be an issue.

本開示の目的は、低コスト及び可及的に少ないカメラ数で作業機械の周囲を広範囲に亘って監視できるとともに、作業機械とその周囲の人物との接触を抑制可能な周辺監視装置を提供することにある。 An object of the present disclosure is to provide a peripheral monitoring device capable of monitoring the surroundings of a work machine over a wide range at low cost and with as few cameras as possible, and capable of suppressing contact between the work machine and people around it. There is.

本開示の作業機械の周辺監視装置は、作業機械に設置され、該作業機械の周囲を撮影する撮影装置と、前記撮影装置によって撮影された前記作業機械の周囲画像を表す撮影画像データを取得し、該撮影画像データに基づいて所定の処理を実行するプロセッサと、所定の警報信号又は/及び所定の発報を出力する発報装置と、を備える。ここで、前記撮影装置は、1以上の半天球カメラを含み、該半天球カメラの光軸が地面に対して所定の角度で配置されるように構成される。そして、前記プロセッサは、前記撮影画像データから人物画像を抽出する抽出処理と、抽出された前記人物画像と、前記撮影装置の設置パラメータと、に基づいて、前記作業機械とその周囲の人物との距離を測定する測距処理と、前記測距処理によって測定された前記作業機械とその周囲の人物との距離に基づいて、前記発報装置による前記警報信号又は/及び前記発報の出力を制御する発報制御処理と、を実行する。 The peripheral monitoring device of the work machine of the present disclosure is installed in the work machine and acquires a photographing device for photographing the surroundings of the work machine and photographed image data representing the surrounding image of the work machine photographed by the photographing device. A processor that executes a predetermined process based on the captured image data, and an alarm device that outputs a predetermined alarm signal and / or a predetermined alarm are provided. Here, the photographing device includes one or more hemispherical cameras, and is configured such that the optical axis of the hemispherical cameras is arranged at a predetermined angle with respect to the ground. Then, the processor extracts the person image from the captured image data, and based on the extracted person image and the installation parameters of the photographing device, the working machine and the surrounding person The alarm signal and / and the output of the alarm are controlled by the alarm device based on the distance measurement process for measuring the distance and the distance between the work machine and a person around it measured by the distance measurement process. The alert control process to be executed and the execution are performed.

ここで、上記の作業機械とは、ショベル等の建設機械や、作業機を備えた機械(フォークリフト等)である。そして、このような作業機械に設置される本開示の周辺監視装置では、該作業機械に撮影装置が配置される。この撮影装置は、半天球カメラの光軸が地面に対して所定の角度をなすように配置される。ここで、上記の所定の角度とは、撮影装置によって地面付近の人を撮影可能な角度として定義され、例えば、地面と略垂直に向いた角度である。そして、本開示の作業機械の周辺監視装置は、撮影装置、画像処理装置、および発報装置といった簡易な構成によって実現され、これらを既存の作業機械に配置するだけで、作業機械に周辺監視装置を簡単に設置することができる。また、撮影装置が、作業機械の周囲を広範囲に亘って撮影可能な半天球カメラによって構成されるため、例えば、撮影装置が複数のステレオカメラによって構成される場合と比較して、作業機械の周辺を監視するためのコストを抑制することができる。更に、このような周辺監視装置では、抽出処理によって抽出された人物画像と、撮影装置の設置パラメータと、に基づいて測距処理が実行され、該測距処理の結果に基づいて、発報装置による警報信号又は/及び発報の出力が制御される。なお、発報装置が出力する発報は、例えば、警告灯や警告音である。これにより、作業機械とその周囲の人物との接触を抑制することができる。なお、前記発報制御処理において、前記プロセッサは、前記作業機械とその周囲の人物との距離が所定値以下となった場合に、前記発報装置から、該作業機械とその周囲の人物との接触を回避するための所定の回避動作を指令する信号を出力させてもよい。ここで、上記の回避動作とは、作業機械の作動が減速する動作や、作業機械の作動が停止する動作などである。このような発報制御処理では、発報装置からの上記信号が、作業機械の動作を制御する制御装置に入力されることで、作業機械は、オペレータの操作によらず自動で回避動作を行うことになる。これによれば、オペレータによる運転動作によらずに作業機械の回避動作を行うことができ、作業機械とその周囲の人物との接触をより好適に回避することができる。 Here, the above-mentioned work machine is a construction machine such as an excavator or a machine equipped with a work machine (forklift or the like). Then, in the peripheral monitoring device of the present disclosure installed on such a work machine, a photographing device is arranged on the work machine. This photographing device is arranged so that the optical axis of the hemispherical camera forms a predetermined angle with respect to the ground. Here, the above-mentioned predetermined angle is defined as an angle at which a person near the ground can be photographed by the photographing device, and is, for example, an angle oriented substantially perpendicular to the ground. The peripheral monitoring device for the work machine of the present disclosure is realized by a simple configuration such as a photographing device, an image processing device, and an alarm device. Can be easily installed. Further, since the photographing device is composed of a hemispherical camera capable of photographing the surroundings of the work machine over a wide range, for example, the periphery of the work machine is compared with the case where the photographing device is composed of a plurality of stereo cameras. The cost of monitoring the camera can be reduced. Further, in such a peripheral monitoring device, distance measurement processing is executed based on the person image extracted by the extraction processing and the installation parameters of the photographing device, and the alarm device is issued based on the result of the distance measurement processing. The output of the alarm signal and / and the alarm is controlled. The alarm output by the alarm device is, for example, a warning light or a warning sound. As a result, contact between the work machine and a person around it can be suppressed. In the alarm control process, when the distance between the work machine and a person around it becomes equal to or less than a predetermined value, the processor causes the work machine and the people around it to move from the alarm device. A signal for instructing a predetermined avoidance operation for avoiding contact may be output. Here, the above-mentioned avoidance operation is an operation in which the operation of the work machine is decelerated, an operation in which the operation of the work machine is stopped, and the like. In such an alarm control process, the signal from the alarm device is input to the control device that controls the operation of the work machine, so that the work machine automatically performs an avoidance operation regardless of the operator's operation. It will be. According to this, it is possible to perform the avoidance operation of the work machine without the operation operation by the operator, and it is possible to more preferably avoid the contact between the work machine and the person around it.

そして、上記の作業機械の周辺監視装置では、前記測距処理において、前記プロセッサは、前記撮影画像データにおける前記人物画像の足元の二次元座標である足元座標を取得するとともに、該足元座標に基づいて、前記作業機械の周囲の人物の足元と前記撮影装置との間の所定の角度である足元角度を算出し、算出された前記足元角度と、前記撮影装置の設置高さと、に基づいて、前記作業機械とその周囲の人物との距離を測定してもよい。これによれば、半天球カメラによって、低コスト及び可及的に少ないカメラ数ながら精度よく測距処理を行うことができる。なお、このような足元座標に基づく測距によれば、該足元座標を比較的正確に取得することができるため、上記距離の測定精度を可及的に高くすることができる。また、前記測距処理において、前記プロセッサは、前記撮影画像データにおける前記人物画像の頭の画像を取得するとともに、該頭の画像の大きさに基づいて、前記作業機械とその周囲の人物との距離を測定してもよい。これによっても、半天球カメラによって、低コスト及び可及的に少ないカメラ数ながら精度よく測距処理を行うことができる。なお、このような頭の画像の大きさに基づく測距によれば、撮影画像データに周囲人物の足元が含まれていない場合であったり、高所に人が登っているなどして人物が地上にいない場合であっても、作業機械とその周囲の人物との距離を測定することができる。 Then, in the peripheral monitoring device of the work machine, in the distance measurement process, the processor acquires the foot coordinates, which are the two-dimensional coordinates of the foot of the person image in the captured image data, and is based on the foot coordinates. Then, a foot angle, which is a predetermined angle between the feet of a person around the work machine and the photographing device, is calculated, and based on the calculated foot angle and the installation height of the photographing device, The distance between the work machine and a person around it may be measured. According to this, the hemispherical camera enables accurate distance measurement processing at low cost and with as few cameras as possible. According to the distance measurement based on the foot coordinates, the foot coordinates can be obtained relatively accurately, so that the measurement accuracy of the distance can be made as high as possible. Further, in the distance measuring process, the processor acquires an image of the head of the person image in the captured image data, and based on the size of the image of the head, the working machine and the person around it The distance may be measured. Even with this, the hemispherical camera can perform distance measurement processing accurately at low cost and with as few cameras as possible. According to the distance measurement based on the size of the head image, the photographed image data does not include the feet of surrounding persons, or the person is climbing to a high place. Even when not on the ground, the distance between the work machine and the people around it can be measured.

また、上記の作業機械の周辺監視装置では、前記抽出処理において、前記プロセッサは、所定の画像データの入力を受け付ける入力層と、入力された該画像データから人物を表す特徴量を抽出する中間層と、該特徴量に基づく識別結果を出力する出力層と、を有するニューラルネットワークモデルであって、人物を表す画像を含んだデータを用いて学習を行うことにより構築された事前学習モデルに、前記撮影画像データを入力することで、前記人物画像を抽出してもよい。これによれば、事前学習モデルを用いることで、撮影画像データから人物画像を精度よく抽出することができる。 Further, in the peripheral monitoring device of the work machine, in the extraction process, the processor has an input layer that accepts input of predetermined image data and an intermediate layer that extracts a feature amount representing a person from the input image data. The pre-learning model, which is a neural network model having an output layer that outputs an identification result based on the feature amount and is constructed by performing training using data including an image representing a person, is described above. The person image may be extracted by inputting the captured image data. According to this, by using the pre-learning model, it is possible to accurately extract a person image from the captured image data.

以上に述べた作業機械の周辺監視装置において、前記プロセッサは、前記撮影画像データに含まれる画素値の頻度を示す撮影画像ヒストグラムを生成し、前記撮影画像ヒストグラムを平滑化した平滑化ヒストグラムに基づいて取得される平滑化画像データと、前記撮影画像データと、を所定の比率で合成することで前記撮影画像データの鮮明化を行う、画像鮮明化処理を更に実行してもよい。これによれば、環境に応じて鮮明化された撮影画像データに基づいて人物画像を抽出することができる。したがって、撮影画像データからの人物画像の抽出精度を可及的に高くすることができる。 In the peripheral monitoring device of the work machine described above, the processor generates a captured image histogram showing the frequency of pixel values included in the captured image data, and is based on the smoothed histogram obtained by smoothing the captured image histogram. An image sharpening process that sharpens the captured image data by synthesizing the acquired smoothed image data and the captured image data at a predetermined ratio may be further executed. According to this, it is possible to extract a person image based on the photographed image data which is sharpened according to the environment. Therefore, the accuracy of extracting a person image from the captured image data can be made as high as possible.

また、以上に述べた作業機械の周辺監視装置において、前記撮影装置は、被写体の輝度に応じて前記半天球カメラの露出を所定の基準値に自動制御する装置であってもよい。この場合、前記撮影装置は、更に、前記作業機械の周囲の地面の輝度を取得し、前記地面の輝度が所定の第1輝度以上の場合には、前記半天球カメラの露出が前記基準値よりも大きくなるように補正し、前記地面の輝度が前記第1輝度よりも低い所定の第2輝度以下の場合には、前記半天球カメラの露出が前記基準値よりも小さくなるように補正してもよい。一方、前記地面の輝度が前記第2輝度よりも高くて前記第1輝度よりも低い場合には、前記撮影装置は、前記半天球カメラの露出を補正しなくてもよい。これによれば、作業機械の周囲人物を適切な明るさで撮影することができるため、撮影画像データからの人物画像の抽出精度を可及的に高くすることができる。 Further, in the peripheral monitoring device of the work machine described above, the photographing device may be a device that automatically controls the exposure of the hemispherical camera to a predetermined reference value according to the brightness of the subject. In this case, the photographing apparatus further acquires the brightness of the ground around the work machine, and when the brightness of the ground is equal to or higher than the predetermined first brightness, the exposure of the hemispherical camera is more than the reference value. When the brightness of the ground is lower than the first brightness and is equal to or less than the predetermined second brightness, the exposure of the hemispherical camera is corrected to be smaller than the reference value. May be good. On the other hand, when the brightness of the ground is higher than the second brightness and lower than the first brightness, the photographing device does not have to correct the exposure of the hemispherical camera. According to this, since the person around the work machine can be photographed with an appropriate brightness, the accuracy of extracting the person image from the photographed image data can be made as high as possible.

本開示によれば、低コスト及び可及的に少ないカメラ数で作業機械の周囲を広範囲に亘って監視できるとともに、作業機械とその周囲の人物との接触を抑制可能な周辺監視装置を提供することができる。 According to the present disclosure, there is provided a peripheral monitoring device capable of monitoring the surroundings of a work machine over a wide range at low cost and with as few cameras as possible, and capable of suppressing contact between the work machine and people around it. be able to.

第1実施形態における作業機械の周辺監視装置の概略構成を示す図である。It is a figure which shows the schematic structure of the peripheral monitoring device of the work machine in 1st Embodiment. 第1実施形態に係る周辺監視装置において、作業機械とその周囲の人物との接触を回避するために制御部が行う処理フローを示すフローチャートである。It is a flowchart which shows the processing flow which the control part performs in order to avoid the contact between a work machine and a person around it in the peripheral monitoring apparatus which concerns on 1st Embodiment. 撮影画像データから除外されるエリアを説明するための図である。It is a figure for demonstrating the area excluded from photographed image data. 第1実施形態における事前学習モデルに対する入力から得られる識別結果と、該事前学習モデルを構成するニューラルネットワークを説明するための図である。It is a figure for demonstrating the identification result obtained from the input to the pre-learning model in 1st Embodiment, and the neural network which constitutes the pre-learning model. 表示装置に表示される撮影画像データおよび人物画像を説明するための図である。It is a figure for demonstrating photographed image data and a person image displayed on a display device. 足元角度と、撮影装置の設置高さと、周囲人物との距離と、の関係を説明するための図である。It is a figure for demonstrating the relationship between the foot angle, the installation height of the photographing apparatus, and the distance with the surrounding person. 第1実施形態に係る測距処理の一つである足元測距において、測距処理部が行う処理フローを示すフローチャートである。It is a flowchart which shows the processing flow performed by the distance measurement processing unit in the foot distance measurement which is one of the distance measurement processing which concerns on 1st Embodiment. カメラの内部パラメータとともに、該カメラのセンサ上に投影される被写体を説明するための図である。It is a figure for demonstrating the subject projected on the sensor of the camera together with the internal parameters of a camera. 第1実施形態の変形例2に係る周辺監視装置において、作業機械とその周囲の人物との接触を回避するために制御部が行う処理フローを示す第1のフローチャートである。It is a 1st flowchart which shows the processing flow which the control part performs in order to avoid the contact between a work machine and a person around it in the peripheral monitoring apparatus which concerns on modification 2 of 1st Embodiment. 第1実施形態の変形例2に係る周辺監視装置において、作業機械とその周囲の人物との接触を回避するために制御部が行う処理フローを示す第2のフローチャートである。2 is a second flowchart showing a processing flow performed by a control unit in order to avoid contact between a work machine and a person around the work machine in the peripheral monitoring device according to the second modification of the first embodiment. 第2実施形態に係る画像鮮明化処理において、制御部が行う処理フローを示すフローチャートである。It is a flowchart which shows the process flow which a control part performs in the image sharpening process which concerns on 2nd Embodiment. 第3実施形態に係る半天球カメラの露出補正のフローを示すフローチャートである。It is a flowchart which shows the flow of the exposure compensation of the hemisphere camera which concerns on 3rd Embodiment. 本開示における作業機械の周辺監視装置の概略構成の変形例を示す図である。It is a figure which shows the modification of the schematic structure of the peripheral monitoring device of a work machine in this disclosure.

以下、図面に基づいて、本開示の実施の形態を説明する。以下の実施形態の構成は例示であり、本開示は実施形態の構成に限定されない。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. The configurations of the following embodiments are exemplary, and the present disclosure is not limited to the configurations of the embodiments.

<第1実施形態>
第1実施形態における作業機械の周辺監視装置の概要について、図1を参照しながら説明する。図1は、本実施形態における作業機械の周辺監視装置の概略構成を示す図である。本実施形態に係る作業機械の周辺監視装置100は、作業機械10に設置され、該作業機械10の周辺を監視するための装置である。ここで、作業機械10とは、ショベル等の建設機械や、作業機を備えた機械(フォークリフト等)である。そして、周辺監視装置100は、撮影装置200と、画像処理装置300と、発報装置400と、を備える。
<First Embodiment>
The outline of the peripheral monitoring device for the work machine according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram showing a schematic configuration of a peripheral monitoring device for a work machine according to the present embodiment. The peripheral monitoring device 100 for a work machine according to the present embodiment is a device installed on the work machine 10 for monitoring the periphery of the work machine 10. Here, the work machine 10 is a construction machine such as an excavator or a machine equipped with a work machine (forklift or the like). The peripheral monitoring device 100 includes a photographing device 200, an image processing device 300, and a reporting device 400.

撮影装置200は、作業機械10に設置され該作業機械10の周囲を撮影する装置であって、静止画や動画等の画像の入力を受け付ける機能を有し、具体的には、Charged-Coupled Devices(CCD)、Metal-oxide-semiconductor(MOS)あるいはComplementary Metal-Oxide-Semiconductor(CMOS)等のイメージセンサを用いたカメラにより実現される。本開示の撮影装置200は、1以上の半天球カメラ220を含み、該半天球カメラ220の光軸が地面に対して所定の角度で配置されるように構成される。ここで、本実施形態では、図1(a)に示すように、半天球カメラ220は、作業機械10(例えば、ミニショベル)の上部旋回体11の上面に配置され、該半天球カメラ220の光軸L2が、地面との平行線L1に対して所定の角度で下方に向けられている。なお、この角度は、撮影装置200によって地面付近の人を撮影可能な角度として定義され、例えば、図1(a)に示すように、半天球カメラ220が上部旋回体11の上面に配置される場合には、該半天球カメラ220の光軸L2が地面に対して略垂直に向けられる。ただし、このように半天球カメラ220が地面に対して略垂直に向けられる態様に限定する意図はなく、半天球カメラ220は、前後左右いずれかの方向に傾けられてもよい。そして、本実施形態では、図1(b)に示すように、1つの半天球カメラ220が、作業機械10の運転室の上面に配置されている。このように、作業機械10に半天球カメラ220が設置されることで、可及的に少ないカメラ数で作業機械10の周囲を広範囲に亘って視野が欠けることなく撮影することができ、また、該半天球カメラ220が運転室の上面に配置されることで、該運転室の存在により生じ得る死角の影響を可及的に抑制することができる。なお、本開示の撮影装置を1つの半天球カメラを含んだ構成に限定する意図はない。例えば、作業機械10が大型の建設機械の場合には、該作業機械10の前後に1つずつ半天球カメラが配置されてもよい。 The photographing device 200 is a device installed on the work machine 10 and photographs the surroundings of the work machine 10, and has a function of accepting an input of an image such as a still image or a moving image. Specifically, the charged-coupled devices It is realized by a camera using an image sensor such as (CCD), Metal-oxide-semiconductor (MOS) or Complementary Metal-Oxide-Semiconductor (CMOS). The photographing apparatus 200 of the present disclosure includes one or more hemispherical cameras 220, and is configured such that the optical axis of the hemispherical camera 220 is arranged at a predetermined angle with respect to the ground. Here, in the present embodiment, as shown in FIG. 1A, the hemispherical camera 220 is arranged on the upper surface of the upper swivel body 11 of the work machine 10 (for example, a mini excavator), and the hemispherical camera 220 is arranged. The optical axis L2 is directed downward at a predetermined angle with respect to the parallel line L1 with the ground. This angle is defined as an angle at which a person near the ground can be photographed by the photographing device 200. For example, as shown in FIG. 1A, the hemispherical camera 220 is arranged on the upper surface of the upper swivel body 11. In this case, the optical axis L2 of the hemispherical camera 220 is oriented substantially perpendicular to the ground. However, there is no intention of limiting the mode in which the hemispherical camera 220 is oriented substantially perpendicular to the ground in this way, and the hemispherical camera 220 may be tilted in any direction of front, back, left, and right. Then, in the present embodiment, as shown in FIG. 1B, one hemispherical camera 220 is arranged on the upper surface of the driver's cab of the work machine 10. By installing the hemispherical camera 220 on the work machine 10 in this way, it is possible to take a picture of the periphery of the work machine 10 over a wide area without losing the field of view with as few cameras as possible. By arranging the hemispherical camera 220 on the upper surface of the driver's cab, the influence of the blind spot that may occur due to the presence of the driver's cab can be suppressed as much as possible. It should be noted that there is no intention of limiting the photographing apparatus of the present disclosure to a configuration including one hemispherical camera. For example, when the work machine 10 is a large construction machine, one hemispherical camera may be arranged in front of and behind the work machine 10.

画像処理装置300は、撮影装置200によって撮影された作業機械10の周囲画像を表す撮影画像データを取得し、該撮影画像データに基づいて所定の処理を実行する。 The image processing device 300 acquires photographed image data representing the surrounding image of the work machine 10 photographed by the photographing device 200, and executes a predetermined process based on the photographed image data.

ここで、画像処理装置300は、データの取得、生成、更新等の演算処理及び加工処理のための処理能力のある機器であればどの様な電子機器でもよく、例えば、コンピュータである。すなわち、画像処理装置300は、CPUやGPU等のプロセッサ、RAMやROM等の主記憶装置、EPROM、ハードディスクドライブ、リムーバブルメディア等の補助記憶装置を有するコンピュータとして構成することができる。なお、リムーバブルメディアは、例えば、USBメモリ、あるいは、CDやDVDのようなディスク記録媒体であってもよい。補助記憶装置には、オペレーティングシステム(OS)、各種プログラム、各種テーブル等が格納されている。 Here, the image processing device 300 may be any electronic device as long as it has processing capacity for arithmetic processing such as data acquisition, generation, and update, and processing processing, and is, for example, a computer. That is, the image processing device 300 can be configured as a computer having a processor such as a CPU or GPU, a main storage device such as RAM or ROM, and an auxiliary storage device such as EPROM, a hard disk drive, or removable media. The removable media may be, for example, a USB memory or a disc recording medium such as a CD or DVD. The auxiliary storage device stores an operating system (OS), various programs, various tables, and the like.

発報装置400は、所定の警報信号又は/及び所定の発報を出力する装置である。ここで、所定の発報とは、警告灯や警告音などである。本実施形態では、図1(a)および図1(b)に示すように、発報装置400として、例えば、パトライト(登録商標)が上部旋回体11の上面に配置されてもよい。そうすると、周辺監視装置100は、例えば、パトライト(登録商標)が発する警告灯によって、作業機械10の周囲の人物に対して警告を行うことができる。また、作業機械10のオペレータに対して、該作業機械10への人の接近を認知させることができる。なお、発報装置400は、例えば、パトライト(登録商標)とスピーカーとを含んでもよい。この場合、周辺監視装置100は、警告灯と警告音によって、警告を行うことができる。 The alarm device 400 is a device that outputs a predetermined alarm signal and / and a predetermined alarm. Here, the predetermined alarm is a warning light, a warning sound, or the like. In the present embodiment, as shown in FIGS. 1 (a) and 1 (b), as the alarm device 400, for example, a patrol light (registered trademark) may be arranged on the upper surface of the upper swing body 11. Then, the peripheral monitoring device 100 can give a warning to a person around the work machine 10 by, for example, a warning light emitted by Patrite (registered trademark). In addition, the operator of the work machine 10 can be made aware of the approach of a person to the work machine 10. The alarm device 400 may include, for example, a patrol light (registered trademark) and a speaker. In this case, the peripheral monitoring device 100 can give a warning by the warning light and the warning sound.

また、周辺監視装置100は、表示装置500を更に備えてもよい。ここで、表示装置500は、撮影装置200によって撮影された撮影画像データ又は/及び該撮影画像データに基づく処理により取得された所定のデータを表示可能に構成された装置である。このような表示装置500は、例えば、作業機械10の運転室内に設けられる。これにより、作業機械10のオペレータは、該作業機械10の車体の周辺に存在する障害物を、表示装置500を介して視認できるようになる。 Further, the peripheral monitoring device 100 may further include a display device 500. Here, the display device 500 is a device configured to be able to display the captured image data taken by the photographing device 200 and / or predetermined data acquired by processing based on the captured image data. Such a display device 500 is provided, for example, in the cab of the work machine 10. As a result, the operator of the work machine 10 can visually recognize the obstacles existing around the vehicle body of the work machine 10 through the display device 500.

以上に述べたように、本開示の作業機械の周辺監視装置100は、撮影装置200、画像処理装置300、および発報装置400といった簡易な構成によって実現され、これらを既存の作業機械10に配置するだけで、作業機械10に周辺監視装置100を簡単に設置することができる。また、上述したように、撮影装置200が半天球カメラ220によって構成されるため、低コスト及び可及的に少ないカメラ数で作業機械10の周囲を広範囲に亘って監視することができる。 As described above, the peripheral monitoring device 100 of the work machine of the present disclosure is realized by a simple configuration such as a photographing device 200, an image processing device 300, and an alarm device 400, and these are arranged in the existing work machine 10. The peripheral monitoring device 100 can be easily installed on the work machine 10 simply by doing so. Further, as described above, since the photographing device 200 is composed of the hemispherical camera 220, the surroundings of the work machine 10 can be monitored over a wide range at low cost and with as few cameras as possible.

次に、図1(c)に基づいて、画像処理装置300の構成要素の詳細な説明を行う。図1(c)は、第1実施形態における、周辺監視装置100に含まれる画像処理装置300の構成要素をより詳細に示した図である。 Next, the components of the image processing apparatus 300 will be described in detail based on FIG. 1 (c). FIG. 1C is a diagram showing in more detail the components of the image processing device 300 included in the peripheral monitoring device 100 in the first embodiment.

画像処理装置300は、機能部として記憶部302、制御部303を有しており、補助記憶装置に格納されたプログラムを主記憶装置の作業領域にロードして実行し、プログラムの実行を通じて各機能部等が制御されることによって、各機能部における所定の目的に合致した各機能を実現することができる。ただし、一部または全部の機能はASICやFPGAのようなハードウェア回路によって実現されてもよい。 The image processing device 300 has a storage unit 302 and a control unit 303 as functional units, loads the program stored in the auxiliary storage device into the work area of the main storage device, executes the program, and executes each function through the execution of the program. By controlling the units and the like, it is possible to realize each function that meets a predetermined purpose in each functional unit. However, some or all of the functions may be realized by hardware circuits such as ASICs and FPGAs.

記憶部302は、主記憶装置と補助記憶装置を含んで構成される。主記憶装置は、制御部303によって実行されるプログラムや、当該制御プログラムが利用するデータが展開されるメモリである。補助記憶装置は、制御部303において実行されるプログラムや、当該制御プログラムが利用するデータが記憶される装置である。 The storage unit 302 includes a main storage device and an auxiliary storage device. The main storage device is a memory in which a program executed by the control unit 303 and data used by the control program are expanded. The auxiliary storage device is a device that stores a program executed by the control unit 303 and data used by the control program.

また、記憶部302は、後述する事前学習モデルを記憶してもよい。この事前学習モデルは、後述する抽出処理に用いることができる。ここで、画像処理装置300の機能がFPGAのようなハードウェア回路によって実現される場合、事前学習モデルはFPGAに内蔵されたメモリに記憶されてもよい。 Further, the storage unit 302 may store the pre-learning model described later. This pre-learning model can be used for the extraction process described later. Here, when the function of the image processing device 300 is realized by a hardware circuit such as FPGA, the pre-learning model may be stored in the memory built in the FPGA.

制御部303は、画像処理装置300が行う処理を司る機能部である。制御部303は、CPUなどの演算処理装置によって実現することができる。制御部303は、更に、取得部3031と、抽出処理部3032と、測距処理部3033と、発報制御処理部3034と、の4つの機能部を有して構成される。各機能部は、記憶されたプログラムをCPUによって実行することで実現してもよい。なお、制御部303が、取得部3031、抽出処理部3032、測距処理部3033、および発報制御処理部3034の処理を実行することで、本開示に係るプロセッサとして機能する。そして、このプロセッサが、画像処理装置300を構成する集積回路に実装されることで、上記機能部の処理を実行するプロセッサが作業機械10に設置されることになる。 The control unit 303 is a functional unit that controls the processing performed by the image processing device 300. The control unit 303 can be realized by an arithmetic processing unit such as a CPU. The control unit 303 is further composed of four functional units: an acquisition unit 3031, an extraction processing unit 3032, a distance measuring processing unit 3033, and a notification control processing unit 3034. Each functional unit may be realized by executing the stored program by the CPU. The control unit 303 functions as the processor according to the present disclosure by executing the processes of the acquisition unit 3031, the extraction processing unit 3032, the distance measuring processing unit 3033, and the alarm control processing unit 3034. Then, by mounting this processor on the integrated circuit constituting the image processing device 300, the processor that executes the processing of the functional unit is installed in the work machine 10.

ここで、制御部303が行う処理フローについて、図2に基づいて説明する。図2は、本実施形態に係る周辺監視装置100において、作業機械10とその周囲の人物との接触を回避するために制御部303が行う処理フローを示すフローチャートである。本実施形態では、周辺監視装置100の電源が入れられると本フローの実行が開始され、周辺監視装置100の作動中に所定の演算周期で繰り返し実行される。 Here, the processing flow performed by the control unit 303 will be described with reference to FIG. FIG. 2 is a flowchart showing a processing flow performed by the control unit 303 in order to avoid contact between the work machine 10 and a person around the work machine 10 in the peripheral monitoring device 100 according to the present embodiment. In the present embodiment, when the power of the peripheral monitoring device 100 is turned on, the execution of this flow is started, and the execution is repeatedly executed at a predetermined calculation cycle while the peripheral monitoring device 100 is operating.

本フローでは、先ず、S101において、取得部3031が、撮影装置200によって撮影された作業機械10の周囲画像を表す撮影画像データを取得する。ここで、撮影装置200および画像処理装置300は通信部を有しており、これらの通信部がネットワークを介して接続されることで、取得部3031が上記の撮影画像データを取得することが可能になる。なお、ネットワークは、無線であっても有線であっても無線と有線の組み合わせであってもよい。 In this flow, first, in S101, the acquisition unit 3031 acquires photographed image data representing the surrounding image of the work machine 10 photographed by the photographing device 200. Here, the photographing device 200 and the image processing device 300 have a communication unit, and by connecting these communication units via a network, the acquisition unit 3031 can acquire the above-mentioned captured image data. become. The network may be wireless, wired, or a combination of wireless and wired.

ここで、取得部3031は、撮影装置200によって撮影される作業機械10の周囲画像のうち、予め定められた或るエリアの画像を除外して撮影画像データを取得してもよい。図3は、撮影画像データから除外されるエリアを説明するための図である。図3に示すように、取得部3031は、作業機械10が撮影され得る領域であるエリアαを除外して撮影画像データを取得することができる。これによれば、作業機械10の運転室内のオペレータを含めることなく撮影画像データを取得することができ、後述する抽出処理において、作業機械10の周囲人物のみを適切に抽出することが可能となる。また、図3に示すように、取得部3031は、作業機械10の上方(周囲の空など)が撮影され得る領域であるエリアβを除外して撮影画像データを取得することができる。これによれば、作業機械10の周囲に人物が存在し得ない領域を含めることなく撮影画像データを取得することができ、後述する抽出処理における処理負担を軽減することが可能となる。このように、取得部3031は、撮影装置200によって撮影される作業機械10の周囲画像のうち、所定のエリア(例えば、図3に示す取得エリア)の画像のみを撮影画像データとして取得してもよい。なお、上述したような除外エリアは、作業機械10の機種と、各作業機械10における撮影装置200の設置パラメータと、に応じて予め調整され得る。例えば、図3(a)に示すように、半天球カメラ220の光軸L2が地面に対して略垂直に向けられる場合に対して、図3(b)に示すように、半天球カメラ220の光軸L2が後方に傾けられる場合には、その傾きに応じてエリアαおよびエリアβが予め調整され得る。なお、図3では、作業機械10がミニショベルである場合を例にして説明したが、作業機械10がフォークリフト等である場合も同様にして除外エリアが設定され得る。 Here, the acquisition unit 3031 may acquire the captured image data by excluding the image of a certain area predetermined from the surrounding images of the work machine 10 captured by the photographing device 200. FIG. 3 is a diagram for explaining an area excluded from the captured image data. As shown in FIG. 3, the acquisition unit 3031 can acquire captured image data by excluding the area α, which is an area where the work machine 10 can be photographed. According to this, it is possible to acquire the captured image data without including the operator in the driver's cab of the work machine 10, and it is possible to appropriately extract only the people around the work machine 10 in the extraction process described later. .. Further, as shown in FIG. 3, the acquisition unit 3031 can acquire the captured image data by excluding the area β, which is an area where the upper part of the work machine 10 (such as the surrounding sky) can be photographed. According to this, it is possible to acquire the captured image data without including the area where a person cannot exist around the work machine 10, and it is possible to reduce the processing load in the extraction process described later. In this way, the acquisition unit 3031 may acquire only the image of a predetermined area (for example, the acquisition area shown in FIG. 3) as the captured image data among the surrounding images of the work machine 10 captured by the imaging device 200. good. The exclusion area as described above can be adjusted in advance according to the model of the work machine 10 and the installation parameters of the photographing device 200 in each work machine 10. For example, as shown in FIG. 3A, the optical axis L2 of the hemispherical camera 220 is oriented substantially perpendicular to the ground, whereas as shown in FIG. 3B, the hemispherical camera 220 When the optical axis L2 is tilted backward, the area α and the area β can be adjusted in advance according to the tilt. In FIG. 3, the case where the work machine 10 is a mini excavator has been described as an example, but the exclusion area can be set in the same manner when the work machine 10 is a forklift or the like.

次に、S102において、抽出処理部3032が、撮影画像データから人物画像を抽出する抽出処理を実行する。この抽出処理では、作業機械10の周囲に人が存在して、その人が撮影装置200によって撮影されている場合には、撮影画像データから人物画像を抽出することができる。ここで、抽出処理部3032は、作業機械10の運転室内のオペレータを除外して人物画像を抽出する。例えば、上述したように、取得部3031が、作業機械10が撮影され得る領域を除外して撮影画像データを取得する場合には、該撮影画像データに作業機械10の運転室内のオペレータが含まれないので、抽出処理部3032は、作業機械10の運転室内のオペレータを除外して人物画像を抽出することができる。一方、取得部3031が、撮影装置200によって撮影される作業機械10の周囲画像をそのまま撮影画像データとして取得する場合には、抽出処理部3032は、撮影画像データのうちの作業機械10の運転室内のオペレータを除外して抽出処理を実行する。なお、この抽出処理の詳細については、後述する。そして、抽出処理部3032は、S103において、S102で実行した抽出処理の結果に基づいて、作業機械10の周囲に人が存在するか否かを判別する。S103において肯定判定された場合、制御部303はS104の処理へ進み、S103において否定判定された場合、本フローの実行が終了される。 Next, in S102, the extraction processing unit 3032 executes an extraction process for extracting a person image from the captured image data. In this extraction process, when a person exists around the work machine 10 and the person is photographed by the photographing apparatus 200, a person image can be extracted from the photographed image data. Here, the extraction processing unit 3032 extracts a person image by excluding the operator in the driver's cab of the work machine 10. For example, as described above, when the acquisition unit 3031 acquires the photographed image data by excluding the area where the work machine 10 can be photographed, the photographed image data includes the operator in the driver's cab of the work machine 10. Therefore, the extraction processing unit 3032 can extract a person image by excluding the operator in the driver's cab of the work machine 10. On the other hand, when the acquisition unit 3031 acquires the surrounding image of the work machine 10 photographed by the photographing apparatus 200 as it is as the photographed image data, the extraction processing unit 3032 is in the cab of the work machine 10 in the photographed image data. The extraction process is executed excluding the operator of. The details of this extraction process will be described later. Then, the extraction processing unit 3032 determines in S103 whether or not a person exists around the work machine 10 based on the result of the extraction processing executed in S102. If an affirmative determination is made in S103, the control unit 303 proceeds to the process of S104, and if a negative determination is made in S103, the execution of this flow is terminated.

S103において肯定判定された場合、次に、S104において、測距処理部3033が、作業機械10とその周囲の人物との距離を測定する測距処理を実行する。この測距処理では、抽出処理によって抽出された人物画像と、撮影装置200の設置パラメータと、に基づいて、作業機械10とその周囲の人物との距離が測定される。なお、この測距処理の詳細については、後述する。また、S104では、上記の測距処理と併せて、S102の抽出処理によって抽出された人物画像の画像データである抽出画像データの出力が実行される。このとき、表示装置500には、後述するように、撮影装置200によって撮影された撮影画像データに加えて、抽出処理によって抽出された人物画像が矩形とともに表示される。 If an affirmative determination is made in S103, then in S104, the distance measuring processing unit 3033 executes a distance measuring process for measuring the distance between the work machine 10 and a person around it. In this distance measuring process, the distance between the work machine 10 and the people around it is measured based on the person image extracted by the extraction process and the installation parameters of the photographing device 200. The details of this distance measurement process will be described later. Further, in S104, in addition to the distance measuring process described above, the output of the extracted image data, which is the image data of the person image extracted by the extraction process of S102, is executed. At this time, as will be described later, the display device 500 displays the captured image data captured by the photographing device 200 and the person image extracted by the extraction process together with the rectangle.

次に、S105において、発報制御処理部3034は、測距処理によって測定された上記の距離が所定値以下であるか否かを判別する。ここで、上記の所定値とは、作業機械10の作動により該作業機械10とその周囲人物との接触が懸念される距離の値であって、例えば、作業機械10の大きさや作動範囲に基づいて、予め定められる。そして、S105において肯定判定された場合、制御部303はS106の処理へ進み、S105において否定判定された場合、本フローの実行が終了される。 Next, in S105, the alarm control processing unit 3034 determines whether or not the above distance measured by the distance measuring process is equal to or less than a predetermined value. Here, the above-mentioned predetermined value is a value of a distance at which contact between the work machine 10 and a person around it is feared due to the operation of the work machine 10, and is based on, for example, the size and the operating range of the work machine 10. It is decided in advance. Then, if an affirmative determination is made in S105, the control unit 303 proceeds to the process of S106, and if a negative determination is made in S105, the execution of this flow is terminated.

S105において肯定判定された場合、発報制御処理部3034は、次に、S106において、発報装置400の出力を制御する。本実施形態では、発報制御処理部3034は、発報装置400(例えば、パトライト(登録商標))から警告灯を出力させる。なお、発報装置400が、例えば、パトライト(登録商標)およびスピーカーによって構成される場合には、発報制御処理部3034は、パトライト(登録商標)から警告灯を出力させ、スピーカーから警告音を出力させてもよい。そして、S106の処理の後、本フローの実行が終了される。 If a positive determination is made in S105, the alarm control processing unit 3034 then controls the output of the alarm device 400 in S106. In the present embodiment, the alarm control processing unit 3034 outputs a warning light from the alarm device 400 (for example, Patrite (registered trademark)). When the alarm device 400 is composed of, for example, a patrol light (registered trademark) and a speaker, the alarm control processing unit 3034 outputs a warning light from the patrol light (registered trademark) and emits a warning sound from the speaker. It may be output. Then, after the processing of S106, the execution of this flow is completed.

以上に述べた処理によれば、抽出処理によって抽出された人物画像に基づいて、作業機械10の周囲の人物との距離が測距され、その測距距離の結果に基づいて発報制御処理が実行される。そして、発報装置400から所定の発報が出力されることで、作業機械10の周囲の人物に対して、該作業機械10との接触を回避するための警告を行うことができる。また、作業機械10のオペレータは、発報装置400からの発報の出力を認知すると、作業機械10とその周囲の人物との接触を回避するための運転動作を行うことができる。これにより、作業機械10とその周囲の人物との接触を抑制することができる。 According to the process described above, the distance to the person around the work machine 10 is measured based on the person image extracted by the extraction process, and the alarm control process is performed based on the result of the distance measurement distance. Will be executed. Then, by outputting a predetermined alarm from the alarm device 400, it is possible to give a warning to a person around the work machine 10 in order to avoid contact with the work machine 10. Further, when the operator of the work machine 10 recognizes the output of the alarm from the alarm device 400, the operator can perform an operation operation for avoiding contact between the work machine 10 and a person around it. As a result, contact between the work machine 10 and a person around it can be suppressed.

(抽出処理)
次に、抽出処理部3032が実行する抽出処理の詳細について説明する。本実施形態の抽出処理では、事前学習モデルに撮影画像データが入力されることで、人物画像が抽出される。そして、事前学習モデルは、人物を表す画像を含んだデータを用いて学習を行うことにより構築される。
(Extraction process)
Next, the details of the extraction process executed by the extraction process unit 3032 will be described. In the extraction process of the present embodiment, a person image is extracted by inputting captured image data into the pre-learning model. Then, the pre-learning model is constructed by learning using data including an image representing a person.

ここで、図4は、本実施形態における事前学習モデルに対する入力から得られる識別結果と、該事前学習モデルを構成するニューラルネットワークを説明するための図である。本実施形態では、事前学習モデルとして、ディープラーニングにより生成されるニューラルネットワークモデルを用いる。本実施形態における事前学習モデル30は、所定の画像データの入力を受け付ける入力層31と、入力層31に入力された該画像データから人物を表す特徴量を抽出する中間層(隠れ層)32と、特徴量に基づく識別結果を出力する出力層33とを有する。なお、図4の例では、事前学習モデル30は、1層の中間層32を有しており、入力層31の出力が中間層32に入力され、中間層32の出力が出力層33に入力されている。ただし、中間層32の数は、1層に限られなくてもよく、事前学習モデル30は、2層以上の中間層32を有してもよい。 Here, FIG. 4 is a diagram for explaining the identification result obtained from the input to the pre-learning model in the present embodiment and the neural network constituting the pre-learning model. In this embodiment, a neural network model generated by deep learning is used as the pre-learning model. The pre-learning model 30 in the present embodiment includes an input layer 31 that accepts input of predetermined image data, and an intermediate layer (hidden layer) 32 that extracts a feature amount representing a person from the image data input to the input layer 31. It has an output layer 33 that outputs an identification result based on a feature amount. In the example of FIG. 4, the pre-learning model 30 has one intermediate layer 32, the output of the input layer 31 is input to the intermediate layer 32, and the output of the intermediate layer 32 is input to the output layer 33. Has been done. However, the number of intermediate layers 32 is not limited to one, and the pre-learning model 30 may have two or more intermediate layers 32.

また、図4によると、各層31〜33は、1又は複数のニューロンを備えている。例えば、入力層31のニューロンの数は、入力される画像データに応じて設定することができる。また、出力層33のニューロンの数は、識別結果である人物画像に応じて設定することができる。 Also, according to FIG. 4, each layer 31-33 comprises one or more neurons. For example, the number of neurons in the input layer 31 can be set according to the input image data. Further, the number of neurons in the output layer 33 can be set according to the person image which is the identification result.

そして、隣接する層のニューロン同士は適宜結合され、各結合には重み(結合荷重)が機械学習の結果に基づいて設定される。図4の例では、各ニューロンは、隣接する層の全てのニューロンと結合されているが、ニューロンの結合は、このような例に限定されなくてもよく、適宜設定することができる。 Then, neurons in adjacent layers are appropriately connected to each other, and a weight (connection load) is set for each connection based on the result of machine learning. In the example of FIG. 4, each neuron is connected to all neurons in the adjacent layer, but the connection of neurons does not have to be limited to such an example and can be appropriately set.

このような事前学習モデル30は、例えば、人物を表す画像を含んだ画像データと、人物を表す画像のラベルと、の組みである教師データを用いて教師あり学習を行うことで構築される。具体的には、特徴量とラベルとの組みをニューラルネットワークに与え、ニューラルネットワークの出力がラベルと同じとなるように、ニューロン同士の結合の重みがチューニングされる。このようにして、教師データの特徴を学習し、入力から結果を推定するための事前学習モデルが帰納的に獲得される。 Such a pre-learning model 30 is constructed by performing supervised learning using, for example, supervised learning that is a set of image data including an image representing a person and a label of an image representing a person. Specifically, a set of a feature amount and a label is given to the neural network, and the weight of the connection between neurons is tuned so that the output of the neural network becomes the same as the label. In this way, a pre-learning model for learning the characteristics of the teacher data and estimating the result from the input is inductively acquired.

なお、上記の図1に示したように、半天球カメラ220が作業機械10の上部旋回体11の上面に配置される場合には、撮影装置200によって撮影される作業機械10の周囲画像は、該作業機械10の上方からの俯瞰画像になる傾向がある。そこで、本実施形態では、事前学習モデルを構築するために学習される画像データに俯瞰画像が用いられてもよい。このように、事前学習モデルを構築するために学習される画像データに俯瞰画像が用いられることで、撮影画像データから人物画像をより精度よく抽出することが可能となる。 As shown in FIG. 1, when the hemispherical camera 220 is arranged on the upper surface of the upper swivel body 11 of the work machine 10, the peripheral image of the work machine 10 taken by the photographing device 200 is displayed. There is a tendency for the work machine 10 to be a bird's-eye view image from above. Therefore, in the present embodiment, a bird's-eye view image may be used as the image data to be learned in order to build the pre-learning model. In this way, by using the bird's-eye view image as the image data learned to build the pre-learning model, it is possible to more accurately extract a person image from the captured image data.

また、事前学習モデル30は、教師なし学習を行うことで構築されてもよい。教師なし学習には、例えば、転移学習の一種であるドメイン適応を用いることができる。これによれば、ラベルが付された教師データを大量に用意することなく、事前学習モデルを獲得することができる。 Further, the pre-learning model 30 may be constructed by performing unsupervised learning. For unsupervised learning, for example, domain adaptation, which is a type of transfer learning, can be used. According to this, the pre-learning model can be acquired without preparing a large amount of labeled teacher data.

そして、本実施形態では、上述した表示装置500に、撮影装置200によって撮影された撮影画像データに加えて、抽出処理によって抽出された人物画像が矩形とともに表示される。ここで、図5は、表示装置500に表示される撮影画像データおよび人物画像を説明するための図である。作業機械10のオペレータは、表示装置500の画面SC1を介して、該作業機械10の周囲を視認することができる。 Then, in the present embodiment, in addition to the captured image data captured by the photographing device 200, the person image extracted by the extraction process is displayed together with the rectangle on the display device 500 described above. Here, FIG. 5 is a diagram for explaining photographed image data and a person image displayed on the display device 500. The operator of the work machine 10 can visually recognize the surroundings of the work machine 10 through the screen SC1 of the display device 500.

図5(a)は、表示装置500に表示された撮影画像データを示す図である。図5(a)に示すように、表示装置500の画面SC1には、撮影画像データSC11が表示される。そして、図5(b)は、表示装置500に、撮影画像データとともに、抽出処理によって抽出された人物画像が表示される例を示す図である。図5(b)に示すように、表示装置500の画面SC1には、撮影画像データSC11、および人物画像SC12が表示される。このように、抽出処理によって抽出された人物画像SC12は、矩形とともに表示される。これによれば、作業機械10のオペレータは、表示装置500の画面SC1に表示された人物画像SC12を視認し易くなる。なお、上述した事前学習モデルを用いて人物画像が抽出されることで、撮影画像データからの人物画像の抽出精度、具体的には、撮影画像データSC11に含んで表示される人物画像SC12を表す矩形の位置精度が向上する。 FIG. 5A is a diagram showing captured image data displayed on the display device 500. As shown in FIG. 5A, the captured image data SC11 is displayed on the screen SC1 of the display device 500. FIG. 5B is a diagram showing an example in which a person image extracted by the extraction process is displayed on the display device 500 together with the captured image data. As shown in FIG. 5B, the captured image data SC11 and the person image SC12 are displayed on the screen SC1 of the display device 500. In this way, the person image SC12 extracted by the extraction process is displayed together with the rectangle. According to this, the operator of the work machine 10 can easily visually recognize the person image SC12 displayed on the screen SC1 of the display device 500. By extracting the person image using the above-mentioned pre-learning model, the extraction accuracy of the person image from the photographed image data, specifically, the person image SC12 included in the photographed image data SC11 and displayed is represented. The position accuracy of the rectangle is improved.

ここで、本実施形態の画像処理装置300では、半天球カメラ220のレンズの歪み補正値を用いて、撮影画像データの歪み補正が行われる。そして、表示装置500の画面SC1には、歪み補正が行われた撮影画像データSC11が表示される。また、歪み補正が行われた撮影画像データから人物画像が抽出される。そのため、事前学習モデルを構成するにあたっては、学習に用いられる人物を表す画像を含んだ画像データとして、歪み補正が行われた画像が使用される。ただし、本開示をこれに限定する意図はなく、本開示の周辺監視装置では、上記の歪み補正が実行されなくてもよい。この場合、表示装置500には、歪みを含んだ撮影画像データが表示されることになるが、この歪みを含んだ撮影画像データからも精度よく人物画像を抽出することができれば、作業機械10のオペレータは、矩形とともに表示された人物画像を視認することができる。そこで、このような場合には、事前学習モデルを構成するにあたって、学習に用いられる人物を表す画像を含んだ画像データとして、歪みを含んだ画像が使用される。そうすると、歪みを含んだ撮影画像データからも精度よく人物画像を抽出することができる。これによれば、画像処理装置300は、撮影装置200から取得した撮影画像データを歪み補正する必要がなく、以て、周辺監視装置における画像処理の処理負担が軽減されるため、より迅速に作業機械10の周辺を監視することができる。 Here, in the image processing device 300 of the present embodiment, the distortion correction value of the lens of the hemispherical camera 220 is used to correct the distortion of the captured image data. Then, the captured image data SC11 with distortion correction is displayed on the screen SC1 of the display device 500. In addition, a person image is extracted from the captured image data that has been subjected to distortion correction. Therefore, in constructing the pre-learning model, a distortion-corrected image is used as image data including an image representing a person used for learning. However, there is no intention of limiting the present disclosure to this, and the above-mentioned distortion correction may not be executed in the peripheral monitoring device of the present disclosure. In this case, the captured image data including the distortion is displayed on the display device 500, but if the person image can be accurately extracted from the captured image data including the distortion, the working machine 10 can display the captured image data. The operator can visually recognize the person image displayed together with the rectangle. Therefore, in such a case, in constructing the pre-learning model, an image including distortion is used as image data including an image representing a person used for learning. Then, the person image can be accurately extracted from the captured image data including the distortion. According to this, the image processing device 300 does not need to correct the distortion of the captured image data acquired from the photographing device 200, and thus the processing load of the image processing in the peripheral monitoring device is reduced, so that the work can be performed more quickly. The surroundings of the machine 10 can be monitored.

また、図5(c)は、人物画像SC12を表す矩形のバリエーションを示す図である。図5(c)に示すように、人物画像SC12を表す矩形は、人の全身を囲う矩形SC121であってもよいし、人の上半身を囲う矩形SC122であってもよいし、人の首上を囲う矩形SC123であってもよい。作業機械10のオペレータは、いずれの矩形であっても人物画像を認知することができるが、例えば、人の全身を囲う矩形SC121の場合は、その人の大きさを認知し易くなる。また、例えば、撮影画像データに複数の人物画像が含まれる場合には、人の首上を囲う矩形SC123が用いられることで、人の数が認知され易くなる。つまり、撮影画像データに複数の人物画像が含まれる場合に、好ましくは人の首上を囲う矩形SC123が用いられ得る。 Further, FIG. 5C is a diagram showing variations of a rectangle representing the person image SC12. As shown in FIG. 5C, the rectangle representing the person image SC12 may be a rectangle SC121 that surrounds the whole body of a person, a rectangle SC122 that surrounds the upper body of a person, or a rectangle SC122 that surrounds the upper body of a person. It may be a rectangle SC123 that surrounds. The operator of the work machine 10 can recognize a person image regardless of the rectangle, but for example, in the case of the rectangle SC121 that surrounds the whole body of a person, it becomes easier to recognize the size of the person. Further, for example, when a plurality of person images are included in the captured image data, the number of people can be easily recognized by using the rectangular SC123 that surrounds the neck of the person. That is, when the captured image data includes a plurality of person images, a rectangular SC123 that surrounds the neck of the person can be preferably used.

なお、本実施形態では、上述したように、画像処理装置300の機能をFPGAのようなハードウェア回路によって実現することができる。この場合、事前学習モデルはFPGAに内蔵されたメモリに記憶され得る。これによれば、事前学習モデルを用いた抽出処理を可及的速やかに実行することができ、以て、より迅速に作業機械10の周辺を監視することができる。 In the present embodiment, as described above, the function of the image processing device 300 can be realized by a hardware circuit such as an FPGA. In this case, the pre-learning model can be stored in the memory built into the FPGA. According to this, the extraction process using the pre-learning model can be executed as quickly as possible, and thus the periphery of the work machine 10 can be monitored more quickly.

このように、本実施形態の抽出処理によれば、事前学習モデルを用いることで、撮影画像データから人物画像を精度よく抽出することができるとともに、抽出した人物画像を作業機械10のオペレータに好適に視認させることができる。 As described above, according to the extraction process of the present embodiment, by using the pre-learning model, a person image can be accurately extracted from the captured image data, and the extracted person image is suitable for the operator of the work machine 10. Can be visually recognized.

(測距処理)
次に、測距処理部3033が実行する測距処理の詳細について説明する。本実施形態の測距処理では、抽出処理によって抽出された人物画像と、撮影装置200の設置パラメータと、に基づいて、作業機械10とその周囲の人物との距離が測定される。そして、このような測距処理について、本実施形態では、人物画像の足元の画像に基づいて測距する足元測距と、人物画像の頭の画像に基づいて測距する頭測距と、が用いられる。本実施形態では、これら測距方法のうちのいずれかの方法が用いられてもよいし、これら測距方法の両方が用いられてもよい。足元測距および頭測距について、以下に詳しく説明する。
(Distance measurement processing)
Next, the details of the distance measuring process executed by the distance measuring processing unit 3033 will be described. In the distance measuring process of the present embodiment, the distance between the work machine 10 and the person around it is measured based on the person image extracted by the extraction process and the installation parameters of the photographing device 200. Regarding such distance measurement processing, in the present embodiment, foot distance measurement based on the foot image of the person image and head distance measurement based on the head image of the person image are used. Used. In the present embodiment, any one of these distance measuring methods may be used, or both of these distance measuring methods may be used. Foot distance measurement and head distance measurement will be described in detail below.

先ず、足元測距について説明する。足元測距では、測距処理部3033は、撮影画像データにおける人物画像の足元の二次元座標である足元座標を取得する。そして、足元座標に基づいて、作業機械10の周囲の人物の足元と撮影装置200との間の所定の角度である足元角度を算出する。そうすると、測距処理部3033は、算出された足元角度と、撮影装置200の設置高さと、に基づいて、作業機械10とその周囲の人物との距離を測定することができる。 First, foot distance measurement will be described. In foot distance measurement, the distance measurement processing unit 3033 acquires the foot coordinates, which are the two-dimensional coordinates of the foot of the person image in the captured image data. Then, based on the foot coordinates, the foot angle, which is a predetermined angle between the feet of a person around the work machine 10 and the photographing device 200, is calculated. Then, the distance measuring processing unit 3033 can measure the distance between the work machine 10 and the person around it based on the calculated foot angle and the installation height of the photographing device 200.

図6は、足元角度と、撮影装置200の設置高さと、周囲人物との距離と、の関係を説明するための図である。ここで、周囲人物とは、作業機械10の周囲の人物であって、この周囲人物と作業機械10との距離である周囲人物との距離が、図6における距離Dとして表される。そして、地面からの撮影装置200の設置高さが、図6における高さhとして表される。また、上述した、周囲人物の足元と撮影装置200との間の足元角度が、図6における角度θとして表される。そうすると、周囲人物との距離Dを下記式1で算出することができる。

Figure 0006940907
D:周囲人物との距離(mm)
h:撮影装置200の設置高さ(mm)
θ:足元角度(degree) FIG. 6 is a diagram for explaining the relationship between the foot angle, the installation height of the photographing device 200, and the distance to the surrounding people. Here, the surrounding person is a person around the work machine 10, and the distance between the surrounding person and the surrounding person, which is the distance between the surrounding person and the work machine 10, is represented as the distance D in FIG. Then, the installation height of the photographing device 200 from the ground is represented as the height h in FIG. Further, the above-mentioned foot angle between the feet of the surrounding person and the photographing device 200 is represented as the angle θ in FIG. Then, the distance D to the surrounding people can be calculated by the following equation 1.
Figure 0006940907
D: Distance to surrounding people (mm)
h: Installation height (mm) of the photographing device 200
θ: Foot angle (degree)

そして、測距処理部3033は、上記式1に基づく周囲人物との距離Dを算出するために、図7に示す処理フローを実行する。図7は、本実施形態に係る測距処理の一つである足元測距において、測距処理部3033が行う処理フローを示すフローチャートである。本フローは、上記の図2に示したS104における測距処理の内部処理として実行される。 Then, the distance measuring processing unit 3033 executes the processing flow shown in FIG. 7 in order to calculate the distance D with the surrounding person based on the above equation 1. FIG. 7 is a flowchart showing a processing flow performed by the distance measuring processing unit 3033 in the foot distance measuring, which is one of the distance measuring processes according to the present embodiment. This flow is executed as an internal process of the distance measurement process in S104 shown in FIG. 2 above.

本フローでは、先ず、S1041において、足元座標(撮影画像データにおける人物画像の足元の二次元座標)が取得される。これについて、図8に基づいて説明する。図8は、カメラの内部パラメータとともに、該カメラのセンサ上に投影される被写体を説明するための図である。図8に示す例では、周囲人物が、カメラの光軸L2からY軸方向にずれた位置に存在している。この場合、測距処理部3033は、センサ上に投影された周囲人物の足元の座標yを足元座標として取得する。なお、上述した抽出処理の説明で述べたように、人物画像は矩形とともに表示され得る。そこで、例えば、人の全身を囲う矩形の下端を足元座標として取得してもよい。また、足元座標が取得される撮影画像データが歪み補正されていない場合には、取得した足元座標に対して歪み補正処理を行うことができる。 In this flow, first, in S1041, the foot coordinates (two-dimensional coordinates of the foot of the person image in the captured image data) are acquired. This will be described with reference to FIG. FIG. 8 is a diagram for explaining a subject projected on the sensor of the camera together with the internal parameters of the camera. In the example shown in FIG. 8, a surrounding person exists at a position deviated from the optical axis L2 of the camera in the Y-axis direction. In this case, the distance measuring processing unit 3033 acquires the coordinates y of the feet of the surrounding people projected on the sensor as the feet coordinates. As described in the above description of the extraction process, the person image can be displayed together with the rectangle. Therefore, for example, the lower end of the rectangle surrounding the whole body of a person may be acquired as the foot coordinates. Further, when the captured image data for which the foot coordinates are acquired is not distortion-corrected, the acquired foot coordinates can be subjected to the distortion correction processing.

そして、図7に戻って、次に、S1042において、足元角度(作業機械10の周囲の人物の足元と撮影装置200との間の角度)が算出される。ここで、周囲人物が、カメラの光軸L2からX軸およびY軸方向にずれた位置に存在している場合を仮定すると、上記のS1041の処理において、測距処理部3033は、センサ上に投影された周囲人物の足元のx座標およびy座標を取得する。そして、S1042の処理では、先ず、これら座標の光軸L2からの距離が下記式2で算出される。

Figure 0006940907
dist:足元座標の光軸からの距離(pixel)
x:足元座標のx座標(pixel)
y:足元座標のy座標(pixel)
xcen:センサ上の光軸のx座標(pixel)
ycen:センサ上の光軸のy座標(pixel)
なお、センサ上の光軸の座標(xcen、ycen)は、カメラの内部パラメータとして予め定められる。 Then, returning to FIG. 7, next, in S1042, the foot angle (the angle between the foot of a person around the work machine 10 and the photographing device 200) is calculated. Here, assuming that the surrounding person exists at a position deviated from the optical axis L2 of the camera in the X-axis and Y-axis directions, in the above-mentioned processing of S1041, the distance measuring processing unit 3033 is placed on the sensor. The x-coordinate and y-coordinate of the projected foot of the surrounding person are acquired. Then, in the process of S1042, first, the distances of these coordinates from the optical axis L2 are calculated by the following equation 2.
Figure 0006940907
dist: Distance from the optical axis of the foot coordinates (pixel)
x: x-coordinate (pixel) of the foot coordinate
y: y-coordinate (pixel) of the foot coordinate
xcent: x-coordinate (pixel) of the optical axis on the sensor
yfen: y-coordinate (pixel) of the optical axis on the sensor
The coordinates of the optical axis on the sensor (xcen, ycen) are predetermined as internal parameters of the camera.

そして、足元角度θは、上記の図8に基づいて、下記式3で算出することができる。

Figure 0006940907
θ:足元角度(degree)
f:レンズの焦点距離(mm)
dist:足元座標の光軸からの距離(pixel)
N:カメラの画素サイズ(mm/pixel) Then, the foot angle θ can be calculated by the following equation 3 based on FIG. 8 above.
Figure 0006940907
θ: Foot angle (degree)
f: Focal length of the lens (mm)
dist: Distance from the optical axis of the foot coordinates (pixel)
N: Camera pixel size (mm / pixel)

そして、図7に戻って、次に、S1043において、撮影装置200の設置高さが取得される。撮影装置200の設置高さは、周辺監視装置100が設置される作業機械10に応じて予め定められる。なお、測距処理部3033は、S1043の処理をS1041の処理の前に行ってもよい。 Then, returning to FIG. 7, next, in S1043, the installation height of the photographing apparatus 200 is acquired. The installation height of the photographing device 200 is predetermined according to the work machine 10 in which the peripheral monitoring device 100 is installed. The distance measuring processing unit 3033 may perform the processing of S1043 before the processing of S1041.

次に、S1044において、S1042の処理で算出された足元角度と、S1043の処理で取得された撮影装置200の設置高さと、に基づいて、作業機械10とその周囲の人物との距離が測定される。詳しくは、測距処理部3033は、上記式1に基づいて、作業機械10とその周囲の人物との距離を算出する。そして、S1044の処理の後、制御部303はS105の処理へ進む。なお、上述したように、S104では、このような測距処理と併せて抽出画像データの出力が実行される。 Next, in S1044, the distance between the work machine 10 and the people around it is measured based on the foot angle calculated by the process of S1042 and the installation height of the photographing device 200 acquired by the process of S1043. NS. Specifically, the distance measuring processing unit 3033 calculates the distance between the work machine 10 and a person around it based on the above equation 1. Then, after the processing of S1044, the control unit 303 proceeds to the processing of S105. As described above, in S104, the output of the extracted image data is executed in addition to the distance measuring process.

以上によれば、半天球カメラ220によって、低コスト及び可及的に少ないカメラ数ながら精度よく測距処理を行うことができる。なお、このような足元測距によれば、足元座標を比較的正確に取得することができるため、上述した距離の算出精度を可及的に高くすることができる。 Based on the above, the hemispherical camera 220 can perform distance measurement processing accurately at low cost and with as few cameras as possible. In addition, according to such foot distance measurement, since the foot coordinates can be acquired relatively accurately, the above-mentioned distance calculation accuracy can be made as high as possible.

次に、頭測距について説明する。頭測距では、測距処理部3033は、撮影画像データにおける人物画像の頭の画像を取得するとともに、該頭の画像の大きさに基づいて、作業機械10とその周囲の人物との距離を測定する。 Next, head distance measurement will be described. In the head distance measurement, the distance measurement processing unit 3033 acquires the head image of the person image in the captured image data, and based on the size of the head image, determines the distance between the work machine 10 and the people around it. taking measurement.

詳しくは、測距処理部3033は、撮影画像データにおける人物画像の頭の画像の縦画素数を取得する。ここで、頭の画像の縦画素数は、例えば、人の首上を囲う矩形の縦方向の画素数から取得することができる。そして、本開示人は、人の頭の大きさは個人差が少ないことを利用して、頭の大きさを表す上記の縦画素数に基づいて測距できることを見出した。そこで、測距処理部3033は、下記式4に基づいて、作業機械10とその周囲の人物との距離を算出する。

Figure 0006940907
D´:周囲人物との距離(mm)
Dref:基準距離(mm)
Nref:基準距離での縦画素数(pixel)
Nhead:頭の画像の縦画素数(pixel)
なお、基準距離Drefおよび該基準距離での縦画素数Nrefは、予め定められる。そして、このように予め定められた基準と、撮影画像データから取得したの頭の画像の縦画素数Nheadと、を比較することで、周囲人物との距離D´が算出される。 Specifically, the distance measuring processing unit 3033 acquires the number of vertical pixels of the head image of the person image in the captured image data. Here, the number of vertical pixels of the head image can be obtained from, for example, the number of vertical pixels of a rectangle surrounding the neck of a person. Then, the present disclosure person has found that the distance can be measured based on the above-mentioned number of vertical pixels representing the size of the head by utilizing the fact that the size of the head of a person has little individual difference. Therefore, the distance measuring processing unit 3033 calculates the distance between the work machine 10 and a person around it based on the following equation 4.
Figure 0006940907
D': Distance to surrounding people (mm)
Dref: Reference distance (mm)
Nref: Number of vertical pixels at reference distance (pixel)
Nhead: Number of vertical pixels (pixel) of the head image
The reference distance Dref and the number of vertical pixels Nref at the reference distance are predetermined. Then, the distance D'with the surrounding person is calculated by comparing the predetermined standard with the number of vertical pixels Nhead of the head image acquired from the captured image data.

以上によれば、半天球カメラ220によって、低コスト及び可及的に少ないカメラ数ながら精度よく測距処理を行うことができる。なお、このような頭測距によれば、仮に、撮影画像データに周囲人物の足元が含まれていない場合であったり、高所に人が登っているなどして人物が地上にいない場合であっても、作業機械10とその周囲の人物との距離を算出することができる。 Based on the above, the hemispherical camera 220 can perform distance measurement processing accurately at low cost and with as few cameras as possible. According to such head distance measurement, if the captured image data does not include the feet of surrounding people, or if the person is climbing to a high place and the person is not on the ground. Even if there is, the distance between the work machine 10 and the people around it can be calculated.

そして、以上に述べた足元測距と頭測距の両方が用いられて、作業機械10とその周囲の人物との距離が算出されてもよい。例えば、上記式1に基づく周囲人物との距離Dが足元測距により算出され、上記式4に基づく周囲人物との距離D´が頭測距により算出された場合には、測距処理部3033は、下記式5に基づいて算出される周囲人物との距離Doutを、作業機械10とその周囲の人物との距離として出力する。

Figure 0006940907
Dout:出力される周囲人物との距離(mm)
D:足元測距により算出される周囲人物との距離(mm)
D´:頭測距により算出される周囲人物との距離(mm)
w:ブレンド係数
ここで、ブレンド係数wは、下記式6および下記式7に基づいて算出される。
Figure 0006940907
Figure 0006940907
Then, both the foot distance measurement and the head distance measurement described above may be used to calculate the distance between the work machine 10 and a person around it. For example, when the distance D to the surrounding person based on the above formula 1 is calculated by the foot distance measurement and the distance D'to the surrounding person based on the above formula 4 is calculated by the head distance measurement, the distance measurement processing unit 3033. Outputs the distance Dout to the surrounding person calculated based on the following equation 5 as the distance between the work machine 10 and the surrounding person.
Figure 0006940907
Dout: Distance to the output surrounding person (mm)
D: Distance to surrounding people calculated by foot distance measurement (mm)
D': Distance to surrounding people calculated by head distance measurement (mm)
w: Blend coefficient Here, the blend coefficient w is calculated based on the following formula 6 and the following formula 7.
Figure 0006940907
Figure 0006940907

これによれば、例えば、距離Dと距離D´とが500mmずれている場合には、ブレンド係数wが0.5となり、足元測距により算出される周囲人物との距離Dと頭測距により算出される周囲人物との距離D´の平均値が、作業機械10とその周囲の人物との距離Doutとして出力される。また、例えば、距離Dと距離D´とが1000mm以上ずれている場合には、ブレンド係数wが1.0となり、頭測距により算出される周囲人物との距離D´が、作業機械10とその周囲の人物との距離Doutとして出力される。なお、距離Dと距離D´とが等しい場合には、ブレンド係数wが0となり、足元測距により算出される周囲人物との距離Dが、作業機械10とその周囲の人物との距離Doutとして出力される。 According to this, for example, when the distance D and the distance D'are deviated by 500 mm, the blend coefficient w becomes 0.5, and the distance D to the surrounding person calculated by the foot distance measurement and the head distance measurement are used. The calculated average value of the distance D'with the surrounding person is output as the distance Dout between the work machine 10 and the surrounding person. Further, for example, when the distance D and the distance D'are deviated by 1000 mm or more, the blend coefficient w becomes 1.0, and the distance D'with the surrounding person calculated by the head distance measurement is the same as that of the work machine 10. It is output as the distance Dout with the surrounding people. When the distance D and the distance D'are equal, the blend coefficient w becomes 0, and the distance D with the surrounding person calculated by the foot distance measurement is set as the distance Dout between the work machine 10 and the surrounding person. It is output.

以上に述べたように、本実施形態では、抽出処理によって撮影画像データから人物画像を精度よく抽出することができ、測距処理によって精度よく周囲人物との距離を測定することができる。そして、本実施形態によれば、低コスト及び可及的に少ないカメラ数で作業機械の周囲を広範囲に亘って監視できるとともに、作業機械とその周囲の人物との接触を抑制可能な周辺監視装置を提供することができる。 As described above, in the present embodiment, the person image can be accurately extracted from the captured image data by the extraction process, and the distance to the surrounding person can be accurately measured by the distance measurement process. According to the present embodiment, a peripheral monitoring device capable of monitoring the surroundings of the work machine over a wide range at low cost and with as few cameras as possible, and suppressing contact between the work machine and people around it. Can be provided.

なお、本実施形態の周辺監視装置100は、上述した撮影装置200の設置パラメータ等を記憶した記憶装置を備えていてもよい。この場合、記憶装置には、作業機械10の機種毎の撮影装置200の設置パラメータが記憶され得る。そして、記憶装置に記憶された上記の設置パラメータは、作業機械10の機種とともに表示装置500に表示され得る。そうすると、ユーザは、作業機械10の機種に応じて簡単に周辺監視装置100を設置することができる。 The peripheral monitoring device 100 of the present embodiment may include a storage device that stores the installation parameters and the like of the photographing device 200 described above. In this case, the storage device can store the installation parameters of the photographing device 200 for each model of the work machine 10. Then, the above-mentioned installation parameters stored in the storage device can be displayed on the display device 500 together with the model of the work machine 10. Then, the user can easily install the peripheral monitoring device 100 according to the model of the work machine 10.

また、上記の実施形態では、周辺監視装置100が表示装置500を備える構成を例にして説明したが、本開示の周辺監視装置をこれに限定する意図はない。本開示の周辺監視装置は、上述した表示装置を備えていなくてもよく、この場合でも、抽出処理によって抽出された人物画像と、撮影装置の設置パラメータと、に基づいて測距処理が実行され、該測距処理の結果に基づいて発報制御処理が実行されることで、作業機械とその周囲の人物との接触を抑制することができる。 Further, in the above embodiment, the configuration in which the peripheral monitoring device 100 includes the display device 500 has been described as an example, but the peripheral monitoring device of the present disclosure is not intended to be limited to this. The peripheral monitoring device of the present disclosure does not have to include the above-mentioned display device, and even in this case, the distance measuring process is executed based on the person image extracted by the extraction process and the installation parameters of the photographing device. By executing the alarm control process based on the result of the distance measurement process, it is possible to suppress contact between the work machine and a person around it.

<第1実施形態の変形例1>
上記第1実施形態の変形例1について説明する。上述した第1実施形態では、作業機械10とその周囲の人物との距離が所定値以下となった場合に、発報装置400から警告灯や警告音が出力される。これにより、作業機械10の周囲の人物に対して、該作業機械10との接触を回避するための警告を行うことができる。また、作業機械10のオペレータは、発報装置400からの発報の出力を認知すると、作業機械10とその周囲の人物との接触を回避するための運転動作を行うことができる。ここで、オペレータによる運転動作によらずに作業機械10の回避動作を行うことができれば、作業機械10とその周囲の人物との接触をより好適に回避することができる。
<Modification 1 of the first embodiment>
A modification 1 of the first embodiment will be described. In the first embodiment described above, when the distance between the work machine 10 and a person around it becomes a predetermined value or less, a warning light or a warning sound is output from the alarm device 400. As a result, it is possible to give a warning to a person around the work machine 10 in order to avoid contact with the work machine 10. Further, when the operator of the work machine 10 recognizes the output of the alarm from the alarm device 400, the operator can perform an operation operation for avoiding contact between the work machine 10 and a person around it. Here, if the avoidance operation of the work machine 10 can be performed without the operation operation by the operator, the contact between the work machine 10 and a person around the work machine 10 can be more preferably avoided.

そこで、本変形例では、上記第1実施形態の説明で述べた発報制御処理部3034が、作業機械10とその周囲の人物との距離が所定値以下となった場合に、発報装置400から、該作業機械10とその周囲の人物との接触を回避するための所定の回避動作を指令する信号を出力させる。 Therefore, in the present modification, when the alarm control processing unit 3034 described in the description of the first embodiment has a distance between the work machine 10 and a person around it of a predetermined value or less, the alarm device 400 Therefore, a signal for instructing a predetermined avoidance operation for avoiding contact between the work machine 10 and a person around the work machine 10 is output.

ここで、本変形例の発報装置400は、所定の警報信号を出力可能に構成される。そして、所定の警報信号とは、例えば、上記の回避動作を指令する信号であって、該信号は、Controller Area Network(CAN)等によって作業機械10の制御コントローラに送信される。そうすると、作業機械10は、オペレータの操作によらず自動で回避動作を行うことになる。ここで、回避動作とは、作業機械10の作動が減速する動作や、作業機械10の作動が停止する動作などである。これによれば、オペレータによる運転動作によらずに作業機械10の回避動作を行うことができ、作業機械10とその周囲の人物との接触をより好適に回避することができる。なお、発報装置400は、電気的もしくは機械的な接点または入出力信号を出力可能に構成されてもよい。 Here, the alarm device 400 of this modification is configured to be able to output a predetermined alarm signal. The predetermined alarm signal is, for example, a signal for instructing the avoidance operation, and the signal is transmitted to the control controller of the work machine 10 by the Controller Area Network (CAN) or the like. Then, the work machine 10 automatically performs the avoidance operation regardless of the operation of the operator. Here, the avoidance operation is an operation in which the operation of the work machine 10 is decelerated, an operation in which the operation of the work machine 10 is stopped, and the like. According to this, it is possible to perform the avoidance operation of the work machine 10 without the operation operation by the operator, and it is possible to more preferably avoid the contact between the work machine 10 and the person around it. The alarm device 400 may be configured to be capable of outputting electrical or mechanical contacts or input / output signals.

なお、発報装置400は、このような回避動作を指令する信号を出力する機能のみを有していてもよいし、当該機能に加えて上記第1実施形態の説明で述べた警告灯や警告音を出力する機能を有していてもよい。また、警報信号として、作業機械10とその周囲の人物との距離が所定値以下となった旨の情報が、所定の通信手段(例えば、イーサネット)を介して所定の端末に通知されてもよい。 The alarm device 400 may have only a function of outputting a signal for instructing such an avoidance operation, and in addition to the function, a warning light or a warning described in the above description of the first embodiment may be provided. It may have a function of outputting sound. Further, as an alarm signal, information indicating that the distance between the work machine 10 and a person around it is equal to or less than a predetermined value may be notified to a predetermined terminal via a predetermined communication means (for example, Ethernet). ..

<第1実施形態の変形例2>
上記第1実施形態の変形例2について説明する。上述した第1実施形態では、周辺監視装置100の電源が入れられると、上記図2に示したフローが実行される。これに対して、本変形例では、周辺監視装置100の電源が入れられると、以下に説明する図9に示すフローが実行される。
<Modification 2 of the first embodiment>
The second modification of the first embodiment will be described. In the first embodiment described above, when the power of the peripheral monitoring device 100 is turned on, the flow shown in FIG. 2 is executed. On the other hand, in this modification, when the power of the peripheral monitoring device 100 is turned on, the flow shown in FIG. 9 described below is executed.

本変形例において、制御部303が行う処理フローについて、図9に基づいて説明する。図9は、本変形例に係る周辺監視装置100において、作業機械10とその周囲の人物との接触を回避するために制御部303が行う処理フローを示す第1のフローチャートである。なお、本変形例において、上述した第1実施形態の図2に示した処理と実質的に同一の処理については、同一の符号を付してその詳細な説明を省略する。 In this modification, the processing flow performed by the control unit 303 will be described with reference to FIG. FIG. 9 is a first flowchart showing a processing flow performed by the control unit 303 in order to avoid contact between the work machine 10 and a person around the work machine 10 in the peripheral monitoring device 100 according to the present modification. In this modification, substantially the same processing as that shown in FIG. 2 of the first embodiment described above will be designated by the same reference numerals and detailed description thereof will be omitted.

図9に示すフローでは、S101の処理の後に、S201において、周辺監視装置100の電源が入れられてから所定時間が経過したか否かが判別される。ここで、所定時間とは、例えば、抽出処理に用いられる事前学習モデルやプログラムが画像処理装置300の作業領域にロードされるまでの時間であって、モデルの規模に応じて予め定められる。そして、S201において肯定判定された場合、この場合はすぐに抽出処理が実行され得る場合であって、制御部303はS102の処理へ進む。一方、S201において否定判定された場合、制御部303はS202の処理へ進む。 In the flow shown in FIG. 9, after the processing of S101, it is determined in S201 whether or not a predetermined time has elapsed since the power of the peripheral monitoring device 100 was turned on. Here, the predetermined time is, for example, the time until the pre-learning model or program used for the extraction process is loaded into the work area of the image processing apparatus 300, and is predetermined according to the scale of the model. Then, when an affirmative determination is made in S201, in this case, the extraction process can be executed immediately, and the control unit 303 proceeds to the process in S102. On the other hand, if a negative determination is made in S201, the control unit 303 proceeds to the process of S202.

S201において否定判定された場合、次に、S202において、S101の処理で取得された撮影画像データのみが表示装置500に出力される。そして、S202の処理の後、本フローの実行が終了される。 If a negative determination is made in S201, then in S202, only the captured image data acquired in the process of S101 is output to the display device 500. Then, after the processing of S202, the execution of this flow is completed.

ここで、周辺監視装置100の電源が入れられてから所定時間が経過するまでは、制御部303は抽出処理をすぐに実行することができない。このような場合、仮に、抽出処理が実行可能になるまで制御部303の処理が待機され、作業機械10のオペレータが表示装置500を介して周囲を視認することができないとすると、この間に作業機械10とその周囲の人物との接触が生じ得る虞がある。これに対して、本フローによれば、周辺監視装置100の電源が入れられてから所定時間が経過するまでは、抽出処理および測距処理により取得され得るデータは表示装置500に出力されずに撮影画像データのみが表示装置500に出力される。つまり、周辺監視装置100の電源が入れられてから可及的速やかに作業機械10の周囲画像が表示装置500に出力されることになる。そのため、作業機械10のオペレータは、周辺監視装置100の電源が入れられてから可及的速やかに、表示装置500を介して周囲を視認することができる。これによれば、作業機械10とその周囲の人物との接触をより好適に回避することができる。 Here, the control unit 303 cannot immediately execute the extraction process until a predetermined time elapses after the power of the peripheral monitoring device 100 is turned on. In such a case, if the process of the control unit 303 is waited until the extraction process can be executed and the operator of the work machine 10 cannot visually recognize the surroundings via the display device 500, the work machine during this period. There is a risk that contact between 10 and a person around it may occur. On the other hand, according to this flow, the data that can be acquired by the extraction process and the distance measurement process is not output to the display device 500 until a predetermined time elapses after the power of the peripheral monitoring device 100 is turned on. Only the captured image data is output to the display device 500. That is, the surrounding image of the work machine 10 is output to the display device 500 as soon as possible after the power of the peripheral monitoring device 100 is turned on. Therefore, the operator of the work machine 10 can visually recognize the surroundings via the display device 500 as soon as possible after the power of the peripheral monitoring device 100 is turned on. According to this, it is possible to more preferably avoid contact between the work machine 10 and a person around it.

なお、このように撮影画像データのみが表示装置500に出力される場合には、撮影画像データに含まれる人物には矩形が表示されない。そうすると、作業機械10のオペレータは、抽出処理および測距処理が未だ実行されていないことを認識できる。 When only the captured image data is output to the display device 500 in this way, the rectangle is not displayed on the person included in the captured image data. Then, the operator of the work machine 10 can recognize that the extraction process and the distance measurement process have not been executed yet.

また、本変形例では、周辺監視装置100の電源が入れられると、以下に説明する図10に示すフローが実行されてもよい。図10は、本変形例に係る周辺監視装置100において、作業機械10とその周囲の人物との接触を回避するために制御部303が行う処理フローを示す第2のフローチャートである。なお、上述した第1実施形態の図2に示した処理と実質的に同一の処理については、同一の符号を付してその詳細な説明を省略する。 Further, in this modification, when the power of the peripheral monitoring device 100 is turned on, the flow shown in FIG. 10 described below may be executed. FIG. 10 is a second flowchart showing a processing flow performed by the control unit 303 in order to avoid contact between the work machine 10 and a person around the work machine 10 in the peripheral monitoring device 100 according to the present modification. The processes substantially the same as those shown in FIG. 2 of the first embodiment described above are designated by the same reference numerals, and detailed description thereof will be omitted.

図10に示すフローでは、S102の処理の後に、S203において、S102の処理における抽出処理の結果を取得可能か否かが判別される。ここで、抽出処理の結果を取得できない場合とは、例えば、抽出処理に用いられる事前学習モデルやプログラムが画像処理装置300の作業領域に未だロードされていない(作業領域へのロードが完了していない)場合である。この場合、図10に示すフローでは、上記のロードの完了の有無にかかわらずS102の処理が実行されている。なお、S102において、上記のロードが完了していないために周囲人物の抽出を行うことができない場合には、制御部303は、抽出処理を実行できないとして即座にS102の処理を終了させる。このとき、制御部303は、抽出処理を実行したか否かを判別するフラグを立ててもよい。そうすると、S203では、このフラグに基づいて上記を判定することができる。そして、S203において肯定判定された場合、制御部303はS103の処理へ進み、S203において否定判定された場合、制御部303はS204の処理へ進む。 In the flow shown in FIG. 10, after the processing of S102, it is determined in S203 whether or not the result of the extraction processing in the processing of S102 can be acquired. Here, when the result of the extraction process cannot be obtained, for example, the pre-learning model or program used for the extraction process has not yet been loaded into the work area of the image processing device 300 (loading to the work area has been completed). Not) if. In this case, in the flow shown in FIG. 10, the process of S102 is executed regardless of whether or not the above loading is completed. If the extraction of surrounding people cannot be performed because the above loading is not completed in S102, the control unit 303 immediately terminates the processing of S102, assuming that the extraction processing cannot be executed. At this time, the control unit 303 may set a flag for determining whether or not the extraction process has been executed. Then, in S203, the above can be determined based on this flag. Then, if an affirmative determination is made in S203, the control unit 303 proceeds to the process of S103, and if a negative determination is made in S203, the control unit 303 proceeds to the process of S204.

S203において否定判定された場合、次に、S204において、S101の処理で取得された撮影画像データのみが表示装置500に出力される。そして、S204の処理の後、本フローの実行が終了される。 If a negative determination is made in S203, then in S204, only the captured image data acquired in the process of S101 is output to the display device 500. Then, after the processing of S204, the execution of this flow is completed.

以上に述べた処理によっても、作業機械10のオペレータは、周辺監視装置100の電源が入れられてから可及的速やかに、表示装置500を介して周囲を視認することができ、以て、作業機械10とその周囲の人物との接触をより好適に回避することができる。 Even with the above-described processing, the operator of the work machine 10 can visually recognize the surroundings via the display device 500 as soon as possible after the power of the peripheral monitoring device 100 is turned on. It is possible to more preferably avoid contact between the machine 10 and a person around it.

<第2実施形態>
第2実施形態について説明する。本実施形態では、制御部303が画像鮮明化処理を更に実行する。詳しくは、制御部303は、撮影画像データに含まれる画素値の頻度を示す撮影画像ヒストグラムを生成する。そして、撮影画像ヒストグラムを平滑化した平滑化ヒストグラムに基づいて取得される平滑化画像データと、撮影画像データと、を所定の比率で合成することで撮影画像データの鮮明化を行う。これについて、図11に基づいて説明する。
<Second Embodiment>
The second embodiment will be described. In the present embodiment, the control unit 303 further executes the image sharpening process. Specifically, the control unit 303 generates a captured image histogram showing the frequency of pixel values included in the captured image data. Then, the captured image data is sharpened by synthesizing the smoothed image data acquired based on the smoothed smoothed image histogram and the captured image data at a predetermined ratio. This will be described with reference to FIG.

本実施形態の制御部303は、画像鮮明化処理を実行するために、図11に示す処理フローを実行する。図11は、本実施形態に係る画像鮮明化処理において、制御部303が行う処理フローを示すフローチャートである。本フローは、上記図2に示したフローのS101の処理の後に実行される。 The control unit 303 of the present embodiment executes the processing flow shown in FIG. 11 in order to execute the image sharpening process. FIG. 11 is a flowchart showing a processing flow performed by the control unit 303 in the image sharpening process according to the present embodiment. This flow is executed after the processing of S101 of the flow shown in FIG. 2 above.

本フローでは、S101の処理の後に、S301において、撮影画像ヒストグラムが生成される。上述したように、撮影画像ヒストグラムは、撮影画像データに含まれる画素値の頻度を示すヒストグラムであって、周知の技術に基づいて生成される。 In this flow, after the processing of S101, a captured image histogram is generated in S301. As described above, the captured image histogram is a histogram showing the frequency of pixel values included in the captured image data, and is generated based on a well-known technique.

次に、S302において、平滑化画像データが生成される。S302の処理において、制御部303は、先ず、撮影画像ヒストグラムを平滑化した平滑化ヒストグラムを生成し、該平滑化ヒストグラムに基づいて平滑化画像データを取得する。ここで、平滑化ヒストグラムは、撮影画像ヒストグラムを画素値の範囲全体(256階調)に亘って引き伸ばすことによって生成され、例えば、或る画素値の範囲に頻度が集中しているヒストグラムを画素値の範囲全体(256階調)に亘って引き伸ばすことによって、コントラストの高い画像を取得することができる。つまり、平滑化画像データは、撮影画像データのコントラストが高められた画像データである。 Next, in S302, smoothed image data is generated. In the process of S302, the control unit 303 first generates a smoothed histogram obtained by smoothing the captured image histogram, and acquires smoothed image data based on the smoothed histogram. Here, the smoothing histogram is generated by stretching the captured image histogram over the entire range of pixel values (256 gradations). For example, a histogram in which the frequency is concentrated in a certain pixel value range is a pixel value. A high-contrast image can be obtained by stretching over the entire range (256 gradations). That is, the smoothed image data is image data in which the contrast of the captured image data is enhanced.

このような平滑化画像データによれば、夜間や霧天時であっても画像のコントラストを確保することができる。しかしながら、作業機械10は様々な環境下で使用されるため、その環境に応じてコントラストが調整される必要がある。 According to such smoothed image data, it is possible to secure the contrast of the image even at night or in foggy weather. However, since the work machine 10 is used in various environments, it is necessary to adjust the contrast according to the environment.

そこで、本実施形態では、S303の処理において、鮮明化強度が取得される。そして、S304の処理において、撮影画像データに平滑化画像データが所定の比率で合成される。この比率が鮮明化強度に基づく比率であって、該強度の区分が、例えば、弱・中・強の3段階で設定され得る。例えば、鮮明化強度の区分が弱の場合に、平滑化画像データと撮影画像データとが1:3の比率で合成され、鮮明化強度の区分が中の場合に、平滑化画像データと撮影画像データとが1:1の比率で合成され、鮮明化強度の区分が強の場合に、平滑化画像データと撮影画像データとが3:1の比率で合成される。なお、S303の処理では、このような区分に応じた強度の値、例えば、強度区分が弱の場合は、強度の値が0.25として取得されてもよいし(この場合、鮮明化された撮影画像データの25%が平滑化画像データによるもので、75%が元の撮影画像データによるものとなる。)、区分によらない任意の値(0よりも大きくて1よりも小さい値)が取得されてもよい。また、鮮明化強度は、作業機械10のオペレータによって手動で設定されてもよいし、環境に応じて自動で設定されてもよい。そして、S304の処理の後、制御部303はS102の処理へ進む。 Therefore, in the present embodiment, the sharpening intensity is acquired in the processing of S303. Then, in the process of S304, the smoothed image data is combined with the captured image data at a predetermined ratio. This ratio is a ratio based on the sharpening intensity, and the intensity classification can be set in, for example, three stages of weak, medium, and strong. For example, when the sharpening intensity classification is weak, the smoothed image data and the captured image data are combined at a ratio of 1: 3, and when the sharpening intensity classification is medium, the smoothed image data and the captured image data are combined. When the data and the data are combined at a ratio of 1: 1 and the sharpening intensity classification is strong, the smoothed image data and the captured image data are combined at a ratio of 3: 1. In the processing of S303, the strength value corresponding to such a classification, for example, when the strength classification is weak, the strength value may be acquired as 0.25 (in this case, it is clarified). Twenty-five percent of the captured image data is from the smoothed image data, 75% is from the original captured image data), and any value regardless of classification (value greater than 0 and less than 1) May be obtained. Further, the sharpening intensity may be manually set by the operator of the work machine 10, or may be automatically set according to the environment. Then, after the processing of S304, the control unit 303 proceeds to the processing of S102.

このように、S301〜S304の処理によって撮影画像データの鮮明化が行われ、次のS102の処理によって抽出処理が実行される場合には、環境に応じて鮮明化された撮影画像データに基づいて人物画像が抽出されることになる。これによれば、撮影画像データからの人物画像の抽出精度を可及的に高くすることができる。また、作業機械10のオペレータは、該作業機械10の車体の周辺に存在する障害物を、表示装置500を介して視認し易くなる。 In this way, when the captured image data is sharpened by the processes of S301 to S304 and the extraction process is executed by the next process of S102, it is based on the captured image data that has been sharpened according to the environment. A person image will be extracted. According to this, the accuracy of extracting a person image from the captured image data can be made as high as possible. Further, the operator of the work machine 10 can easily visually recognize an obstacle existing around the vehicle body of the work machine 10 via the display device 500.

そして、以上に述べた周辺監視装置によっても、作業機械とその周囲の人物との接触を好適に抑制することができる。 Further, the peripheral monitoring device described above can also suitably suppress the contact between the work machine and the person around it.

<第3実施形態>
第3実施形態について説明する。本実施形態の撮影装置200は、被写体の輝度に応じて半天球カメラ220の露出を所定の基準値に自動制御する装置である。半天球カメラ220の露出を自動制御するに際しては、半天球カメラ220の周囲に空や街灯が写った場合、それらの明るさが、車体の周辺に存在する人物や障害物に影響しないような露出制御を行うことを目的とする。そして、このような撮影装置200は、更に、作業機械10の周囲の地面の輝度を取得し、その地面の輝度が所定の第1輝度以上の場合には、半天球カメラ220の露出が上記の基準値よりも大きくなるように補正する。一方で、地面の輝度が上記の第1輝度よりも低い所定の第2輝度以下の場合には、半天球カメラ220の露出が上記の基準値よりも小さくなるように補正する。
<Third Embodiment>
A third embodiment will be described. The photographing device 200 of the present embodiment is a device that automatically controls the exposure of the hemispherical camera 220 to a predetermined reference value according to the brightness of the subject. When automatically controlling the exposure of the hemisphere camera 220, if the sky or streetlights appear around the hemisphere camera 220, the brightness will not affect the people or obstacles around the vehicle body. The purpose is to control. Then, such a photographing device 200 further acquires the brightness of the ground around the work machine 10, and when the brightness of the ground is equal to or higher than the predetermined first brightness, the exposure of the hemispherical camera 220 is described above. Correct so that it is larger than the reference value. On the other hand, when the brightness of the ground is lower than the above-mentioned first brightness and is equal to or less than the predetermined second brightness, the exposure of the hemispherical camera 220 is corrected so as to be smaller than the above-mentioned reference value.

ここで、露出が自動制御される撮影装置では、カメラの光軸付近を重点的に側光した露出にされる傾向がある。しかしながら、本実施形態の撮影装置200では、上記第1実施形態の説明で述べたように、例えば、半天球カメラ220の光軸L2が地面に対して略垂直に向けられる。そうすると、半天球カメラ220の光軸L2付近には、作業機械10が存在することになる。このような場合に、仮に、半天球カメラ220の光軸L2付近を重点的に側光した露出のままにされると、作業機械10の周囲人物を適切な明るさで撮影できなくなる虞がある。また、このような作業機械10が撮影され得る領域は、上述した取得部3031によって、撮影画像データから除外され得る。 Here, in a photographing apparatus in which the exposure is automatically controlled, the exposure tends to be focused on the side light near the optical axis of the camera. However, in the photographing apparatus 200 of the present embodiment, as described in the description of the first embodiment, for example, the optical axis L2 of the hemispherical camera 220 is oriented substantially perpendicular to the ground. Then, the work machine 10 exists in the vicinity of the optical axis L2 of the hemispherical camera 220. In such a case, if the vicinity of the optical axis L2 of the hemispherical camera 220 is left with the exposure focused on the side light, there is a possibility that the person around the work machine 10 cannot be photographed with an appropriate brightness. .. Further, the area where such a work machine 10 can be photographed can be excluded from the photographed image data by the acquisition unit 3031 described above.

そこで、本開示人は、鋭意検討を行った結果、作業機械10の周囲の地面の輝度に基づいて半天球カメラ220の露出を補正することで、作業機械10の周囲人物を適切な明るさで撮影できることを新たに見出した。これについて、図12に基づいて説明する。 Therefore, as a result of diligent studies, the present disclosure person corrects the exposure of the hemispherical camera 220 based on the brightness of the ground around the work machine 10, so that the person around the work machine 10 has an appropriate brightness. I found out that I can shoot. This will be described with reference to FIG.

本実施形態の撮影装置200では、図12に示す処理フローに従って半天球カメラ220の露出が補正される。図12は、本実施形態に係る半天球カメラ220の露出補正のフローを示すフローチャートである。本フローは、上記図2に示したフローのS101の処理の前に、例えば、撮影装置200が備える所定のプロセッサによって実行される。 In the photographing apparatus 200 of the present embodiment, the exposure of the hemispherical camera 220 is corrected according to the processing flow shown in FIG. FIG. 12 is a flowchart showing a flow of exposure compensation of the hemispherical camera 220 according to the present embodiment. This flow is executed by, for example, a predetermined processor included in the photographing apparatus 200 before the processing of S101 of the flow shown in FIG.

本フローでは、先ず、S401において、半天球カメラ220の露出が所定の基準値に自動制御される。S401の処理では、周知の技術に基づいて、半天球カメラ220によって撮影される被写体の輝度に応じた露出に自動制御される。なお、被写体の輝度は、例えば、周知の側光センサによって取得することができる。ここで、上述したように、半天球カメラ220は概ね地面の方向に向けられるため、半天球カメラ220によって撮影される被写体の多くを地面が占めることになる。そうすると、本フローでは、先ず、S401の処理において、主に地面の輝度に応じた露出に自動制御される傾向にある。 In this flow, first, in S401, the exposure of the hemispherical camera 220 is automatically controlled to a predetermined reference value. In the process of S401, the exposure is automatically controlled according to the brightness of the subject photographed by the hemispherical camera 220 based on a well-known technique. The brightness of the subject can be acquired by, for example, a well-known side light sensor. Here, as described above, since the hemispherical camera 220 is generally directed toward the ground, the ground occupies most of the subject photographed by the hemispherical camera 220. Then, in this flow, first, in the processing of S401, there is a tendency that the exposure is automatically controlled mainly according to the brightness of the ground.

次に、S402において、作業機械10の周囲の地面の輝度が取得される。S402の処理では、例えば、予め定められたルールに基づいて地面の領域が判別され、その領域の輝度が側光センサ等によって取得される。この場合、撮影装置200の設置パラメータ等に基づいて予め定められる所定の撮影領域を地面の領域として判定してもよいし、半天球カメラ220によって撮影される被写体における輝度の占有率に基づいて地面の領域を判定してもよい。 Next, in S402, the brightness of the ground around the work machine 10 is acquired. In the process of S402, for example, a region of the ground is determined based on a predetermined rule, and the brightness of the region is acquired by a side light sensor or the like. In this case, a predetermined shooting area determined in advance based on the installation parameters of the shooting device 200 may be determined as the ground area, or the ground may be determined based on the occupancy rate of the brightness in the subject shot by the hemispherical camera 220. The area of may be determined.

次に、S403において、S402の処理で取得した地面の輝度が所定の第1輝度以上であるか否かが判別される。ここで、上記の第1輝度は、地面の材質に基づいて定められる。詳しくは、本実施形態では、第1輝度は、地面の材質が白色のコンクリートである場合に相当する輝度として予め定められる。そして、S403において肯定判定された場合はS404の処理へ進み、S403において否定判定された場合はS405の処理へ進む。 Next, in S403, it is determined whether or not the brightness of the ground acquired by the process of S402 is equal to or higher than the predetermined first brightness. Here, the above-mentioned first brightness is determined based on the material of the ground. Specifically, in the present embodiment, the first brightness is predetermined as the brightness corresponding to the case where the ground material is white concrete. Then, if an affirmative determination is made in S403, the process proceeds to S404, and if a negative determination is made in S403, the process proceeds to S405.

S403において肯定判定された場合、次に、S404において、半天球カメラ220の露出が上記の基準値よりも大きくなるように補正される。ここで、S403において肯定判定される場合、この場合は、地面が白色のコンクリートのように明るい材質で構成されている場合であって、S401の処理において、半天球カメラ220の露出の基準値として、カメラのシャッタースピードが速く又は絞り値が大きくされる傾向にある。このような場合に、仮に半天球カメラ220の露出が基準値のままにされると、作業機械10の周囲人物が極端に暗く撮影されてしまう虞がある。一方で、S404の処理による補正が行われると、半天球カメラ220の露出が上記の基準値よりも大きくされるので、作業機械10の周囲人物を適切な明るさで撮影することができる。そして、S404の処理の後、本フローの実行が終了される。 If an affirmative judgment is made in S403, then in S404, the exposure of the hemispherical camera 220 is corrected so as to be larger than the above reference value. Here, when an affirmative judgment is made in S403, in this case, the ground is made of a bright material such as white concrete, and in the processing of S401, it is used as a reference value for the exposure of the hemispherical camera 220. , The shutter speed of the camera tends to be high or the aperture value tends to be large. In such a case, if the exposure of the hemispherical camera 220 is left at the reference value, there is a risk that the person around the work machine 10 will be photographed extremely dark. On the other hand, when the correction by the process of S404 is performed, the exposure of the hemispherical camera 220 is made larger than the above reference value, so that the person around the work machine 10 can be photographed with an appropriate brightness. Then, after the processing of S404, the execution of this flow is completed.

一方、S403において否定判定された場合、次に、S405において、S402の処理で取得した地面の輝度が所定の第2輝度以下であるか否かが判別される。ここで、上記の第2輝度は、上記の第1輝度よりも低い輝度であって、地面の材質に基づいて定められる。詳しくは、本実施形態では、第2輝度は、地面の材質が黒色のアスファルトである場合に相当する輝度として予め定められる。そして、S405において肯定判定された場合はS406の処理へ進み、S405において否定判定された場合は本フローの実行が終了される。 On the other hand, if a negative determination is made in S403, then in S405, it is determined whether or not the brightness of the ground acquired by the process of S402 is equal to or less than a predetermined second brightness. Here, the second brightness is lower than the first brightness and is determined based on the material of the ground. Specifically, in the present embodiment, the second brightness is predetermined as the brightness corresponding to the case where the ground material is black asphalt. Then, if an affirmative determination is made in S405, the process proceeds to S406, and if a negative determination is made in S405, the execution of this flow is terminated.

S405において肯定判定された場合、次に、S406において、半天球カメラ220の露出が上記の基準値よりも小さくなるように補正される。ここで、S405において肯定判定される場合、この場合は、地面が黒色のアスファルトのように暗い材質で構成されている場合であって、S401の処理において、半天球カメラ220の露出の基準値として、カメラのシャッタースピードが遅く又は絞り値が小さくされる傾向にある。このような場合に、仮に半天球カメラ220の露出が基準値のままにされると、作業機械10の周囲人物が極端に明るく撮影されてしまう虞がある。一方で、S406の処理による補正が行われると、半天球カメラ220の露出が上記の基準値よりも小さくされるので、作業機械10の周囲人物を適切な明るさで撮影することができる。そして、S406の処理の後、本フローの実行が終了される。 If an affirmative judgment is made in S405, then in S406, the exposure of the hemispherical camera 220 is corrected so as to be smaller than the above reference value. Here, when an affirmative judgment is made in S405, in this case, the ground is made of a dark material such as black asphalt, and in the processing of S401, it is used as a reference value for the exposure of the hemispherical camera 220. , The shutter speed of the camera tends to be slow or the aperture value tends to be small. In such a case, if the exposure of the hemispherical camera 220 is left at the reference value, there is a risk that a person around the work machine 10 will be photographed extremely brightly. On the other hand, when the correction by the processing of S406 is performed, the exposure of the hemispherical camera 220 is made smaller than the above reference value, so that a person around the work machine 10 can be photographed with an appropriate brightness. Then, after the processing of S406, the execution of this flow is completed.

なお、S405において否定判定される場合、この場合は、S402の処理で取得した地面の輝度が第2輝度よりも高くて第1輝度よりも低い場合であって、半天球カメラ220の露出は補正されない。つまり、半天球カメラ220の露出が基準値のままにされる。 If a negative determination is made in S405, in this case, the brightness of the ground acquired in the process of S402 is higher than the second brightness and lower than the first brightness, and the exposure of the hemispherical camera 220 is corrected. Not done. That is, the exposure of the hemispherical camera 220 is left at the reference value.

このような半天球カメラ220の露出の補正が行われる場合には、作業機械10の周囲人物を適切な明るさで撮影することができるため、撮影画像データからの人物画像の抽出精度を可及的に高くすることができる。また、作業機械10のオペレータは、該作業機械10の周囲人物を、表示装置500を介して視認し易くなる。 When the exposure of the hemispherical camera 220 is corrected in this way, the person around the work machine 10 can be photographed with an appropriate brightness, so that the accuracy of extracting the person image from the photographed image data can be achieved. Can be raised. Further, the operator of the work machine 10 can easily visually recognize the people around the work machine 10 via the display device 500.

そして、以上に述べた周辺監視装置によっても、作業機械とその周囲の人物との接触を好適に抑制することができる。 Further, the peripheral monitoring device described above can also suitably suppress the contact between the work machine and the person around it.

<その他の変形例>
上記の実施形態はあくまでも一例であって、本開示はその要旨を逸脱しない範囲内で適宜変更して実施しうる。例えば、本開示において説明した処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
<Other variants>
The above embodiment is merely an example, and the present disclosure may be appropriately modified and implemented without departing from the gist thereof. For example, the processes and means described in the present disclosure can be freely combined and carried out as long as there is no technical contradiction.

上記の実施形態では、撮影装置200が1つの半天球カメラ220を含んで構成される例を説明したが、本開示の撮影装置はこれに限定されない。図13は、本開示における作業機械の周辺監視装置の概略構成の変形例を示す図である。本開示の撮影装置は、図13に示すように、2つの半天球カメラ220を含んで構成されてもよい。この場合、作業機械10の前後に1つずつ半天球カメラ220が配置され得る。 In the above embodiment, an example in which the photographing device 200 is configured to include one hemispherical camera 220 has been described, but the photographing device of the present disclosure is not limited to this. FIG. 13 is a diagram showing a modified example of the schematic configuration of the peripheral monitoring device for the work machine in the present disclosure. As shown in FIG. 13, the photographing apparatus of the present disclosure may be configured to include two hemispherical cameras 220. In this case, one hemispherical camera 220 may be arranged before and after the work machine 10.

また、1つの装置が行うものとして説明した処理が、複数の装置によって分担して実行されてもよい。例えば、抽出処理部3032を画像処理装置300とは別の集積回路に形成してもよい。このとき当該別の集積回路は画像処理装置300と好適に協働可能に構成される。また、異なる装置が行うものとして説明した処理が、1つの装置によって実行されても構わない。集積回路において、各機能をどのようなハードウェア構成によって実現するかは柔軟に変更可能である。 Further, the processing described as being performed by one device may be shared and executed by a plurality of devices. For example, the extraction processing unit 3032 may be formed in an integrated circuit different from the image processing device 300. At this time, the other integrated circuit is configured to be suitably cooperative with the image processing device 300. Further, the processing described as being performed by different devices may be executed by one device. In an integrated circuit, it is possible to flexibly change what kind of hardware configuration is used to realize each function.

本開示は、上記の実施形態で説明した機能を実装したコンピュータプログラムをコンピュータに供給し、当該コンピュータが有する1つ以上のプロセッサがプログラムを読み出して実行することによっても実現可能である。このようなコンピュータプログラムは、コンピュータのシステムバスに接続可能な非一時的なコンピュータ可読記憶媒体によってコンピュータに提供されてもよい。非一時的なコンピュータ可読記憶媒体は、例えば、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスクドライブ(HDD)等)、光ディスク(CD−ROM、DVDディスク・ブルーレイディスク等)など任意のタイプのディスク、読み込み専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気カード、フラッシュメモリ、光学式カード、電子的命令を格納するために適した任意のタイプの媒体を含む。 The present disclosure can also be realized by supplying a computer program having the functions described in the above-described embodiment to a computer, and having one or more processors of the computer read and execute the program. Such computer programs may be provided to the computer by a non-temporary computer-readable storage medium that can be connected to the computer's system bus. Non-temporary computer-readable storage media include, for example, any type of disc such as a magnetic disc (floppy (registered trademark) disc, hard disk drive (HDD), etc.), an optical disc (CD-ROM, DVD disc, Blu-ray disc, etc.). Includes read-only memory (ROM), random access memory (RAM), EPROM, EEPROM, magnetic cards, flash memory, optical cards, and any type of medium suitable for storing electronic instructions.

10・・・・作業機械
100・・・周辺監視装置
200・・・撮影装置
220・・・半天球カメラ
300・・・画像処理装置
303・・・制御部
400・・・発報装置
10 ... Work machine 100 ... Peripheral monitoring device 200 ... Imaging device 220 ... Hemispherical camera 300 ... Image processing device 303 ... Control unit 400 ... Alarm device

Claims (9)

作業機械に設置され、該作業機械の周囲を撮影する撮影装置と、
前記撮影装置によって撮影された前記作業機械の周囲画像を表す撮影画像データを取得し、該撮影画像データに基づいて所定の処理を実行するプロセッサと、
所定の警報信号又は/及び所定の発報を出力する発報装置と、
を備え、
前記撮影装置は、1以上の半天球カメラを含み、該半天球カメラの光軸が地面に対して所定の角度で配置されるように構成され、
前記プロセッサは、
前記撮影画像データから人物画像を抽出する抽出処理と、
抽出された前記人物画像と、前記撮影装置の設置パラメータと、に基づいて、前記作業機械とその周囲の人物との距離を測定する測距処理と、
前記測距処理によって測定された前記作業機械とその周囲の人物との距離に基づいて、前記発報装置による前記警報信号又は/及び前記発報の出力を制御する発報制御処理と、を実行し、
前記測距処理において、前記プロセッサは、
前記撮影画像データにおける前記人物画像の足元の二次元座標である足元座標を取得するとともに、該足元座標の前記半天球カメラの光軸からの距離と、前記半天球カメラのレンズの焦点距離と、に基づいて、前記作業機械の周囲の人物の足元と前記撮影装置との間の所定の角度である足元角度を算出し、
算出された前記足元角度と、前記撮影装置の設置高さと、に基づいて、前記作業機械とその周囲の人物との距離を測定する、
作業機械の周辺監視装置。
An imaging device installed on a work machine that photographs the surroundings of the work machine,
A processor that acquires photographed image data representing the surrounding image of the work machine photographed by the photographing apparatus and executes a predetermined process based on the photographed image data.
An alarm device that outputs a predetermined alarm signal and / and a predetermined alarm, and
With
The photographing device includes one or more hemispherical cameras, and is configured such that the optical axis of the hemispherical camera is arranged at a predetermined angle with respect to the ground.
The processor
An extraction process for extracting a person image from the captured image data, and
A distance measuring process for measuring the distance between the work machine and a person around it based on the extracted person image and the installation parameters of the photographing device.
Based on the distance between the work machine and a person around it measured by the distance measuring process, the alarm signal and / and the alarm control process for controlling the output of the alarm by the alarm device are executed. death,
In the distance measuring process, the processor
The foot coordinates, which are the two-dimensional coordinates of the feet of the person image in the captured image data, are acquired, the distance of the foot coordinates from the optical axis of the hemisphere camera, and the focal length of the lens of the hemisphere camera. Based on, the foot angle, which is a predetermined angle between the feet of a person around the work machine and the imaging device, is calculated.
The distance between the work machine and a person around it is measured based on the calculated foot angle and the installation height of the photographing device.
Peripheral monitoring device for work machines.
作業機械に設置され、該作業機械の周囲を撮影する撮影装置と、
前記撮影装置によって撮影された前記作業機械の周囲画像を表す撮影画像データを取得し、該撮影画像データに基づいて所定の処理を実行するプロセッサと、
所定の警報信号又は/及び所定の発報を出力する発報装置と、
を備え、
前記撮影装置は、1以上の半天球カメラを含み、該半天球カメラの光軸が地面に対して所定の角度で配置されるように構成され、
前記プロセッサは、
前記撮影画像データから人物画像を抽出する抽出処理と、
抽出された前記人物画像と、前記撮影装置の設置パラメータと、に基づいて、前記作業機械とその周囲の人物との距離を測定する測距処理と、
前記測距処理によって測定された前記作業機械とその周囲の人物との距離に基づいて、前記発報装置による前記警報信号又は/及び前記発報の出力を制御する発報制御処理と、を実行し、
前記測距処理において、前記プロセッサは、
前記撮影画像データにおける前記人物画像の頭の画像を取得するとともに、該頭の画像の画素数に基づいて、前記作業機械とその周囲の人物との距離を測定する、
作業機械の周辺監視装置。
An imaging device installed on a work machine that photographs the surroundings of the work machine,
A processor that acquires photographed image data representing the surrounding image of the work machine photographed by the photographing apparatus and executes a predetermined process based on the photographed image data.
An alarm device that outputs a predetermined alarm signal and / and a predetermined alarm, and
With
The photographing device includes one or more hemispherical cameras, and is configured such that the optical axis of the hemispherical camera is arranged at a predetermined angle with respect to the ground.
The processor
An extraction process for extracting a person image from the captured image data, and
A distance measuring process for measuring the distance between the work machine and a person around it based on the extracted person image and the installation parameters of the photographing device.
Based on the distance between the work machine and a person around it measured by the distance measuring process, the alarm signal and / and the alarm control process for controlling the output of the alarm by the alarm device are executed. death,
In the distance measuring process, the processor
The head image of the person image in the captured image data is acquired, and the distance between the work machine and the surrounding person is measured based on the number of pixels of the head image.
Peripheral monitoring device for work machines.
前記発報制御処理において、前記プロセッサは、
前記作業機械とその周囲の人物との距離が所定値以下となった場合に、前記発報装置から、該作業機械とその周囲の人物との接触を回避するための所定の回避動作を指令する信号を出力させる、
請求項1又は請求項2に記載の作業機械の周辺監視装置。
In the alarm control process, the processor
When the distance between the work machine and a person around it becomes equal to or less than a predetermined value, the alarm device commands a predetermined avoidance operation for avoiding contact between the work machine and a person around it. Output a signal,
The peripheral monitoring device for a work machine according to claim 1 or 2.
前記抽出処理において、前記プロセッサは、
所定の画像データの入力を受け付ける入力層と、入力された該画像データから人物を表す特徴量を抽出する中間層と、該特徴量に基づく識別結果を出力する出力層と、を有するニューラルネットワークモデルであって、人物を表す画像を含んだデータを用いて学習を行うことにより構築された事前学習モデルに、前記撮影画像データを入力することで、前記人物画像を抽出する、
請求項1から請求項3の何れか1項に記載の作業機械の周辺監視装置。
In the extraction process, the processor
A neural network model having an input layer that accepts input of predetermined image data, an intermediate layer that extracts a feature amount representing a person from the input image data, and an output layer that outputs an identification result based on the feature amount. The person image is extracted by inputting the photographed image data into the pre-learning model constructed by performing the training using the data including the image representing the person.
The peripheral monitoring device for a work machine according to any one of claims 1 to 3.
前記撮影装置によって撮影された前記撮影画像データ又は/及び該撮影画像データに基づく処理により取得された所定のデータを表示可能に構成された表示装置を、更に備える、
請求項1から請求項4の何れか1項に記載の作業機械の周辺監視装置。
A display device configured to be able to display the captured image data and / or predetermined data acquired by processing based on the captured image data taken by the photographing device is further provided.
The peripheral monitoring device for a work machine according to any one of claims 1 to 4.
前記プロセッサは、
前記周辺監視装置の電源が入れられてから所定時間経過するまでは、前記抽出処理及び前記測距処理により取得され得るデータを前記表示装置に出力せず、前記撮影画像データのみを前記表示装置に出力する処理を実行する、
請求項5に記載の作業機械の周辺監視装置。
The processor
Until a predetermined time elapses after the power of the peripheral monitoring device is turned on, the data that can be acquired by the extraction process and the distance measurement process is not output to the display device, and only the captured image data is displayed on the display device. Execute the output process,
The peripheral monitoring device for a work machine according to claim 5.
前記プロセッサは、
前記撮影画像データに含まれる画素値の頻度を示す撮影画像ヒストグラムを生成し、
前記撮影画像ヒストグラムを平滑化した平滑化ヒストグラムに基づいて取得される平滑化画像データと、前記撮影画像データと、を所定の比率で合成することで前記撮影画像データの鮮明化を行う、画像鮮明化処理を更に実行する、
請求項1から請求項6の何れか1項に記載の作業機械の周辺監視装置。
The processor
A captured image histogram showing the frequency of pixel values included in the captured image data is generated.
Image sharpening that sharpens the captured image data by synthesizing the smoothed image data acquired based on the smoothed smoothed histogram of the captured image histogram and the captured image data at a predetermined ratio. Further execute the conversion process,
The peripheral monitoring device for a work machine according to any one of claims 1 to 6.
前記プロセッサは、前記作業機械に設置された集積回路に実装される、
請求項1から請求項7の何れか1項に記載の作業機械の周辺監視装置。
The processor is mounted on an integrated circuit installed in the working machine.
The peripheral monitoring device for a work machine according to any one of claims 1 to 7.
前記撮影装置は、
被写体の輝度に応じて前記半天球カメラの露出を所定の基準値に自動制御する装置であって、
更に、
前記作業機械の周囲の地面の輝度を取得し、前記地面の輝度が所定の第1輝度以上の場合には、前記半天球カメラの露出が前記基準値よりも大きくなるように補正し、前記地面の輝度が前記第1輝度よりも低い所定の第2輝度以下の場合には、前記半天球カメラの露出が前記基準値よりも小さくなるように補正し、前記地面の輝度が前記第2輝度よりも高くて前記第1輝度よりも低い場合には、前記半天球カメラの露出を補正しない、
請求項1から請求項8の何れか1項に記載の作業機械の周辺監視装置。
The photographing device is
A device that automatically controls the exposure of the hemispherical camera to a predetermined reference value according to the brightness of the subject.
In addition
The brightness of the ground around the work machine is acquired, and when the brightness of the ground is equal to or higher than the predetermined first brightness, the exposure of the hemispherical camera is corrected so as to be larger than the reference value, and the ground is corrected. When the brightness of is lower than the first brightness and is equal to or less than the predetermined second brightness, the exposure of the hemispherical camera is corrected so as to be smaller than the reference value, and the brightness of the ground is higher than the second brightness. If the brightness is higher than the first brightness, the exposure of the hemispherical camera is not corrected.
The peripheral monitoring device for a work machine according to any one of claims 1 to 8.
JP2021055106A 2021-03-29 2021-03-29 Peripheral monitoring device for work machines Active JP6940907B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021055106A JP6940907B1 (en) 2021-03-29 2021-03-29 Peripheral monitoring device for work machines

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021055106A JP6940907B1 (en) 2021-03-29 2021-03-29 Peripheral monitoring device for work machines

Publications (2)

Publication Number Publication Date
JP6940907B1 true JP6940907B1 (en) 2021-09-29
JP2022152363A JP2022152363A (en) 2022-10-12

Family

ID=77846984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021055106A Active JP6940907B1 (en) 2021-03-29 2021-03-29 Peripheral monitoring device for work machines

Country Status (1)

Country Link
JP (1) JP6940907B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012164712A1 (en) * 2011-06-02 2012-12-06 日立建機株式会社 Device for monitoring area around working machine
WO2016159012A1 (en) * 2015-03-31 2016-10-06 株式会社小松製作所 Work-machine periphery monitoring device
WO2016158255A1 (en) * 2015-03-31 2016-10-06 株式会社小松製作所 Work-machine periphery monitoring device
WO2018151280A1 (en) * 2017-02-17 2018-08-23 住友重機械工業株式会社 Work machine surroundings monitoring system
JP2019186597A (en) * 2018-04-02 2019-10-24 株式会社ザクティ Circumference confirmation system of movable body
JP2020127217A (en) * 2018-08-07 2020-08-20 住友建機株式会社 Shovel

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012164712A1 (en) * 2011-06-02 2012-12-06 日立建機株式会社 Device for monitoring area around working machine
WO2016159012A1 (en) * 2015-03-31 2016-10-06 株式会社小松製作所 Work-machine periphery monitoring device
WO2016158255A1 (en) * 2015-03-31 2016-10-06 株式会社小松製作所 Work-machine periphery monitoring device
WO2018151280A1 (en) * 2017-02-17 2018-08-23 住友重機械工業株式会社 Work machine surroundings monitoring system
JP2019186597A (en) * 2018-04-02 2019-10-24 株式会社ザクティ Circumference confirmation system of movable body
JP2020127217A (en) * 2018-08-07 2020-08-20 住友建機株式会社 Shovel

Also Published As

Publication number Publication date
JP2022152363A (en) 2022-10-12

Similar Documents

Publication Publication Date Title
CN104954664B (en) Image processing apparatus and image processing method
US8134614B2 (en) Image processing apparatus for detecting an image using object recognition
JP5071198B2 (en) Signal recognition device, signal recognition method, and signal recognition program
JP4780455B2 (en) Video surveillance apparatus and method
JP6729572B2 (en) Image processing device, image processing method, and program
JP2009157581A (en) Pedestrian detection device
JP6265602B2 (en) Surveillance camera system, imaging apparatus, and imaging method
JP6940906B1 (en) Peripheral monitoring device for work machines
JP2019061303A (en) Periphery monitoring apparatus and periphery monitoring method for vehicle
JP6991045B2 (en) Image processing device, control method of image processing device
JP4412929B2 (en) Face detection device
JP7104452B1 (en) Peripheral monitoring device for work machines
JP2014142832A (en) Image processing apparatus, control method of image processing apparatus, and program
JP6940907B1 (en) Peripheral monitoring device for work machines
JP4741019B2 (en) Intercom device
JP4765113B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
WO2016121406A1 (en) Image processing apparatus, image processing system, vehicle, imaging apparatus, and image processing method
CN115526897A (en) Flame positioning method and system for fire-fighting robot of extra-high voltage converter station
JP7040627B2 (en) Calculator, information processing method and program
KR101531313B1 (en) Apparatus and method for object detection of vehicle floor
JP4445311B2 (en) Object detection device
US20220148208A1 (en) Image processing apparatus, image processing method, program, and storage medium
JP6587253B2 (en) Image processing apparatus and image processing method
WO2023002776A1 (en) Image processing device, image processing system, image processing method, and image processing program
WO2023042604A1 (en) Dimension measurement device, dimension measurement method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210406

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210827

R150 Certificate of patent or registration of utility model

Ref document number: 6940907

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150