JP6940906B1 - Peripheral monitoring device for work machines - Google Patents
Peripheral monitoring device for work machines Download PDFInfo
- Publication number
- JP6940906B1 JP6940906B1 JP2021055104A JP2021055104A JP6940906B1 JP 6940906 B1 JP6940906 B1 JP 6940906B1 JP 2021055104 A JP2021055104 A JP 2021055104A JP 2021055104 A JP2021055104 A JP 2021055104A JP 6940906 B1 JP6940906 B1 JP 6940906B1
- Authority
- JP
- Japan
- Prior art keywords
- work machine
- person
- image data
- distance
- alarm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Abstract
【課題】低コストで簡単に作業機械に設置できるとともに、作業機械とその周囲の人物との接触を抑制可能な周辺監視装置を提供する。【解決手段】本開示の作業機械の周辺監視装置100は、1以上の単眼カメラ210を含んだ撮影装置200と、撮影された作業機械10の周囲画像を表す撮影画像データに基づいて所定の処理を実行するプロセッサ303と、所定の警報信号又は/及び所定の発報を出力する発報装置400と、を備える。そして、プロセッサ303は、撮影画像データから人物画像を抽出し、該人物画像と、撮影装置200の設置パラメータと、に基づいて、作業機械10とその周囲の人物との距離を測定する。そして、測定された距離に基づいて、発報装置400による警報信号又は/及び発報の出力を制御する。【選択図】図1PROBLEM TO BE SOLVED: To provide a peripheral monitoring device which can be easily installed on a work machine at low cost and can suppress contact between the work machine and a person around the work machine. A peripheral monitoring device 100 for a work machine according to the present disclosure is a predetermined process based on a photographing device 200 including one or more monocular cameras 210 and photographed image data representing a photographed peripheral image of the working machine 10. A processor 303 for executing the above, and an alarm device 400 for outputting a predetermined alarm signal and / and a predetermined alarm. Then, the processor 303 extracts a person image from the photographed image data, and measures the distance between the work machine 10 and the person around it based on the person image and the installation parameters of the photographing device 200. Then, based on the measured distance, the output of the alarm signal and / and the alarm by the alarm device 400 is controlled. [Selection diagram] Fig. 1
Description
本発明は、作業機械の周辺監視装置に関する。 The present invention relates to a peripheral monitoring device for a work machine.
ショベル、フォークリフト等の作業機械が用いられる現場では、作業機械とその周囲の人物との接触事故の防止が図られている。例えば、作業機械の車体の周辺に存在する障害物をオペレータが視認できるように、ミラーやカメラを設置した作業機械が実用化されている。そして、カメラが撮影した画像を作業機械の運転室内のディスプレイに表示するシステムが知られている。 At sites where work machines such as excavators and forklifts are used, contact accidents between the work machines and people around them are prevented. For example, a work machine equipped with a mirror or a camera has been put into practical use so that an operator can visually recognize an obstacle existing around the vehicle body of the work machine. Then, there is known a system that displays an image taken by a camera on a display in the driver's cab of a work machine.
また、作業機械の周辺に存在する障害物を検出する技術として、レーザレーダやミリ波レーダ等の距離センサを用いて障害物を検知することが知られている。例えば、特許文献1には、移動体の移動方向軸に対する全周方向で距離検出を行うことができる移動体用周辺監視装置が開示されている。そして、この周辺監視装置では、距離センサとして、支持軸まわりに等角度で複数配置された撮像部等を有する3Dカメラが備えられている。 Further, as a technique for detecting an obstacle existing around a work machine, it is known to detect an obstacle by using a distance sensor such as a laser radar or a millimeter wave radar. For example, Patent Document 1 discloses a peripheral monitoring device for a moving body that can detect a distance in the entire circumferential direction with respect to the moving direction axis of the moving body. The peripheral monitoring device is provided with a 3D camera having a plurality of imaging units and the like arranged at equal angles around the support axis as a distance sensor.
一方、特許文献2には、下部走行体と上部旋回体とを有するショベルにおいて、上部旋回体に複数のステレオカメラを配置する技術が開示されている。当該技術では、ステレオカメラによって、ショベルの周囲に存在する物体の距離情報が取得される。 On the other hand, Patent Document 2 discloses a technique of arranging a plurality of stereo cameras on an upper swing body in a shovel having a lower traveling body and an upper swing body. In this technology, a stereo camera acquires distance information of an object existing around the excavator.
レーザレーダやミリ波レーダ等の距離センサは、所定の一方向にレーザ光や電波を照射し、その反射波からレーザ光等が照射された物体との距離を検出するものである。そのため、このような距離センサを用いて、ショベル、フォークリフト等の作業機械の周囲の物体を検出しようとする場合、複数の方向に距離センサを配置する必要があり、作業機械の周囲物体を検出するためのコストが高くなってしまう。ここで、特許文献1に記載の技術によれば、3Dカメラによって支持軸まわりの全周方向で距離検出を行うことができるものの、これは、あくまで支持軸に対する全周方向である。そのため、この場合にも、作業機械の周囲の物体を検出しようとすると、複数の方向に支持軸を配置する必要があり、作業機械の周囲物体を検出するためのコストが高くなってしまう。 A distance sensor such as a laser radar or a millimeter wave radar irradiates a laser beam or a radio wave in a predetermined direction, and detects the distance from the reflected wave to an object irradiated with the laser beam or the like. Therefore, when trying to detect an object around a work machine such as a shovel or a forklift using such a distance sensor, it is necessary to arrange the distance sensor in a plurality of directions to detect an object around the work machine. The cost for this will be high. Here, according to the technique described in Patent Document 1, the distance can be detected in the all-around direction around the support axis by the 3D camera, but this is only the all-around direction with respect to the support axis. Therefore, even in this case, when trying to detect an object around the work machine, it is necessary to arrange the support shafts in a plurality of directions, and the cost for detecting the object around the work machine becomes high.
また、特許文献2に記載の技術によれば、カメラが撮影した画像に基づいて、ショベルの周囲に存在する物体の距離情報を取得することができるものの、ショベルに設置されるカメラはステレオカメラであって、設置のためのコストとスペースが問題となり得る。このように、作業機械の周囲物体を検出するための技術については、未だ改善の余地を残すものである。 Further, according to the technique described in Patent Document 2, although the distance information of the objects existing around the excavator can be acquired based on the image taken by the camera, the camera installed in the excavator is a stereo camera. Therefore, the cost and space for installation can be an issue. As described above, there is still room for improvement in the technique for detecting the surrounding objects of the work machine.
本開示の目的は、低コストで簡単に作業機械に設置できるとともに、作業機械とその周囲の人物との接触を抑制可能な周辺監視装置を提供することにある。 An object of the present disclosure is to provide a peripheral monitoring device that can be easily installed on a work machine at low cost and can suppress contact between the work machine and a person around it.
本開示の作業機械の周辺監視装置は、作業機械に設置され、該作業機械の周囲を撮影する撮影装置と、前記撮影装置によって撮影された前記作業機械の周囲画像を表す撮影画像データを取得し、該撮影画像データに基づいて所定の処理を実行するプロセッサと、所定の警報信号又は/及び所定の発報を出力する発報装置と、を備える。ここで、前記撮影装置は、1以上の単眼カメラを含み、該単眼カメラの光軸が地面に対して所定の角度で配置されるように構成される。そして、前記プロセッサは、前記撮影画像データから人物画像を抽出する抽出処理と、抽出された前記人物画像と、前記撮影装置の設置パラメータと、に基づいて、前記作業機械とその周囲の人物との距離を測定する測距処理と、前記測距処理によって測定された前記作業機械とその周囲の人物との距離に基づいて、前記発報装置による前記警報信号又は/及び前記発報の出力を制御する発報制御処理と、を実行する。 The peripheral monitoring device of the work machine of the present disclosure is installed in the work machine and acquires a photographing device for photographing the surroundings of the work machine and photographed image data representing the surrounding image of the work machine photographed by the photographing device. A processor that executes a predetermined process based on the captured image data, and an alarm device that outputs a predetermined alarm signal and / or a predetermined alarm are provided. Here, the photographing device includes one or more monocular cameras, and is configured such that the optical axis of the monocular cameras is arranged at a predetermined angle with respect to the ground. Then, the processor extracts the person image from the captured image data, and based on the extracted person image and the installation parameters of the photographing device, the working machine and the surrounding person The alarm signal and / and the output of the alarm are controlled by the alarm device based on the distance measurement process for measuring the distance and the distance between the work machine and a person around it measured by the distance measurement process. The alert control process to be executed and the execution are performed.
ここで、上記の作業機械とは、ショベル等の建設機械や、作業機を備えた機械(フォークリフト等)である。そして、このような作業機械に設置される本開示の周辺監視装置では、該作業機械に撮影装置が配置される。この撮影装置は、単眼カメラの光軸が地面に対して所定の角度をなすように配置される。ここで、上記の所定の角度とは、撮影装置によって地面付近の人を撮影可能な角度として定義され、例えば、地面と略平行又は地面との平行線に対して下方に向いた角度である。そして、本開示の作業機械の周辺監視装置は、撮影装置、画像処理装置、および発報装置といった簡易な構成によって実現され、これらを既存の作業機械に配置するだけで、作業機械に周辺監視装置を簡単に設置することができる。また、撮影装置が単眼カメラによって構成されるため、例えば、撮影装置がステレオカメラによって構成される場合と比較して、作業機械の周辺を監視するためのコストを抑制することができる。更に、このような周辺監視装置では、抽出処理によって抽出された人物画像と、撮影装置の設置パラメータと、に基づいて測距処理が実行され、該測距処理の結果に基づいて、発報装置による警報信号又は/及び発報の出力が制御される。なお、発報装置が出力する発報は、例えば、警告灯や警告音である。これにより、作業機械とその周囲の人物との接触を抑制することができる。なお、前記発報制御処理において、前記プロセッサは、前記作業機械とその周囲の人物との距離が所定値以下となった場合に、前記発報装置から、該作業機械とその周囲の人物との接触を回避するための所定の回避動作を指令する信号を出力させてもよい。ここで、上記の回避動作とは、作業機械の作動が減速する動作や、作業機械の作動が停止する動作などである。このような発報制御処理では、発報装置からの上記信号が、作業機械の動作を制御する制御装置に入力されることで、作業機械は、オペレータの操作によらず自動で回避動作を行うことになる。これによれば、オペレータによる運転動作によらずに作業機械の回避動作を行うことができ、作業機械とその周囲の人物との接触をより好適に回避することができる。 Here, the above-mentioned work machine is a construction machine such as an excavator or a machine equipped with a work machine (forklift or the like). Then, in the peripheral monitoring device of the present disclosure installed on such a work machine, a photographing device is arranged on the work machine. This photographing device is arranged so that the optical axis of the monocular camera forms a predetermined angle with respect to the ground. Here, the above-mentioned predetermined angle is defined as an angle at which a person near the ground can be photographed by the photographing device, and is, for example, an angle substantially parallel to the ground or an angle facing downward with respect to a parallel line with the ground. The peripheral monitoring device for the work machine of the present disclosure is realized by a simple configuration such as a photographing device, an image processing device, and an alarm device. Can be easily installed. Further, since the photographing device is composed of a monocular camera, the cost for monitoring the periphery of the work machine can be suppressed as compared with the case where the photographing device is composed of a stereo camera, for example. Further, in such a peripheral monitoring device, distance measurement processing is executed based on the person image extracted by the extraction processing and the installation parameters of the photographing device, and the alarm device is issued based on the result of the distance measurement processing. The output of the alarm signal and / and the alarm is controlled. The alarm output by the alarm device is, for example, a warning light or a warning sound. As a result, contact between the work machine and a person around it can be suppressed. In the alarm control process, when the distance between the work machine and a person around it becomes equal to or less than a predetermined value, the processor causes the work machine and the people around it to move from the alarm device. A signal for instructing a predetermined avoidance operation for avoiding contact may be output. Here, the above-mentioned avoidance operation is an operation in which the operation of the work machine is decelerated, an operation in which the operation of the work machine is stopped, and the like. In such an alarm control process, the signal from the alarm device is input to the control device that controls the operation of the work machine, so that the work machine automatically performs an avoidance operation regardless of the operator's operation. It will be. According to this, it is possible to perform the avoidance operation of the work machine without the operation operation by the operator, and it is possible to more preferably avoid the contact between the work machine and the person around it.
そして、上記の作業機械の周辺監視装置では、前記測距処理において、前記プロセッサは、前記撮影画像データにおける前記人物画像の足元の二次元座標である足元座標を取得するとともに、該足元座標に基づいて、前記作業機械の周囲の人物の足元と前記撮影装置との間の所定の角度である足元角度を算出し、算出された前記足元角度と、前記撮影装置の設置高さと、に基づいて、前記作業機械とその周囲の人物との距離を測定してもよい。これによれば、単眼カメラによって、低コストながら精度よく測距処理を行うことができる。なお、このような足元座標に基づく測距によれば、該足元座標を比較的正確に取得することができるため、上記距離の測定精度を可及的に高くすることができる。また、前記測距処理において、前記プロセッサは、前記撮影画像データにおける前記人物画像の頭の画像を取得するとともに、該頭の画像の大きさに基づいて、前記作業機械とその周囲の人物との距離を測定してもよい。これによっても、単眼カメラによって、低コストながら精度よく測距処理を行うことができる。なお、このような頭の画像の大きさに基づく測距によれば、撮影画像データに周囲人物の足元が含まれていない場合であったり、高所に人が登っているなどして人物が地上にいない場合であっても、作業機械とその周囲の人物との距離を測定することができる。 Then, in the peripheral monitoring device of the work machine, in the distance measurement process, the processor acquires the foot coordinates, which are the two-dimensional coordinates of the foot of the person image in the captured image data, and is based on the foot coordinates. Then, a foot angle, which is a predetermined angle between the feet of a person around the work machine and the photographing device, is calculated, and based on the calculated foot angle and the installation height of the photographing device, The distance between the work machine and a person around it may be measured. According to this, it is possible to perform distance measurement processing with high accuracy at low cost by using a monocular camera. According to the distance measurement based on the foot coordinates, the foot coordinates can be obtained relatively accurately, so that the measurement accuracy of the distance can be made as high as possible. Further, in the distance measuring process, the processor acquires an image of the head of the person image in the captured image data, and based on the size of the image of the head, the working machine and the person around it The distance may be measured. Even with this, the monocular camera can perform distance measurement processing with high accuracy at low cost. According to the distance measurement based on the size of the head image, the photographed image data does not include the feet of surrounding persons, or the person is climbing to a high place. Even when not on the ground, the distance between the work machine and the people around it can be measured.
また、上記の作業機械の周辺監視装置では、前記抽出処理において、前記プロセッサは、所定の画像データの入力を受け付ける入力層と、入力された該画像データから人物を表す特徴量を抽出する中間層と、該特徴量に基づく識別結果を出力する出力層と、を有するニューラルネットワークモデルであって、人物を表す画像を含んだデータを用いて学習を行うことにより構築された事前学習モデルに、前記撮影画像データを入力することで、前記人物画像を抽出してもよい。これによれば、事前学習モデルを用いることで、撮影画像データから人物画像を精度よく抽出することができる。 Further, in the peripheral monitoring device of the work machine, in the extraction process, the processor has an input layer that accepts input of predetermined image data and an intermediate layer that extracts a feature amount representing a person from the input image data. The pre-learning model, which is a neural network model having an output layer that outputs an identification result based on the feature amount and is constructed by performing training using data including an image representing a person, is described above. The person image may be extracted by inputting the captured image data. According to this, by using the pre-learning model, it is possible to accurately extract a person image from the captured image data.
以上に述べた作業機械の周辺監視装置において、前記プロセッサは、前記撮影画像データに含まれる画素値の頻度を示す撮影画像ヒストグラムを生成し、前記撮影画像ヒストグラムを平滑化した平滑化ヒストグラムに基づいて取得される平滑化画像データと、前記撮影画像データと、を所定の比率で合成することで前記撮影画像データの鮮明化を行う、画像鮮明化処理を更に実行してもよい。これによれば、環境に応じて鮮明化された撮影画像データに基づいて人物画像を抽出することができる。したがって、撮影画像データからの人物画像の抽出精度を可及的に高くすることができる。 In the peripheral monitoring device of the work machine described above, the processor generates a captured image histogram showing the frequency of pixel values included in the captured image data, and is based on the smoothed histogram obtained by smoothing the captured image histogram. An image sharpening process that sharpens the captured image data by synthesizing the acquired smoothed image data and the captured image data at a predetermined ratio may be further executed. According to this, it is possible to extract a person image based on the photographed image data which is sharpened according to the environment. Therefore, the accuracy of extracting a person image from the captured image data can be made as high as possible.
本開示によれば、低コストで簡単に作業機械に設置できるとともに、作業機械とその周囲の人物との接触を抑制可能な周辺監視装置を提供することができる。 According to the present disclosure, it is possible to provide a peripheral monitoring device that can be easily installed on a work machine at low cost and can suppress contact between the work machine and a person around it.
以下、図面に基づいて、本開示の実施の形態を説明する。以下の実施形態の構成は例示であり、本開示は実施形態の構成に限定されない。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. The configurations of the following embodiments are exemplary, and the present disclosure is not limited to the configurations of the embodiments.
<第1実施形態>
第1実施形態における作業機械の周辺監視装置の概要について、図1を参照しながら説明する。図1は、本実施形態における作業機械の周辺監視装置の概略構成を示す図である。本実施形態に係る作業機械の周辺監視装置100は、作業機械10に設置され、該作業機械10の周辺を監視するための装置である。ここで、作業機械10とは、ショベル等の建設機械や、作業機を備えた機械(フォークリフト等)である。そして、周辺監視装置100は、撮影装置200と、画像処理装置300と、発報装置400と、を備える。
<First Embodiment>
The outline of the peripheral monitoring device for the work machine according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram showing a schematic configuration of a peripheral monitoring device for a work machine according to the present embodiment. The
撮影装置200は、作業機械10に設置され該作業機械10の周囲を撮影する装置であって、静止画や動画等の画像の入力を受け付ける機能を有し、具体的には、Charged-Coupled Devices(CCD)、Metal-oxide-semiconductor(MOS)あるいはComplementary Metal-Oxide-Semiconductor(CMOS)等のイメージセンサを用いたカメラにより実現される。本開示の撮影装置200は、1以上の単眼カメラ210を含み、該単眼カメラ210の光軸が地面に対して所定の角度で配置されるように構成される。ここで、本実施形態では、図1(a)に示すように、単眼カメラ210は、作業機械10の上部旋回体11の上面に配置され、該単眼カメラ210の光軸L2が、地面との平行線L1に対して所定の鋭角で下方に向けられている。なお、上記の鋭角は、撮影装置200によって地面付近の人を撮影可能な角度として定義され、例えば、図1(a)に示すように、単眼カメラ210が上部旋回体11の上面に配置される場合には、該上部旋回体11の上面の高さに基づいて定められる。また、仮に単眼カメラ210が上部旋回体11における下部領域(下部走行体12付近の上部旋回体)に配置される場合には、該単眼カメラ210の光軸L2が地面と略平行に向けられてもよい。そして、本実施形態では、図1(b)に示すように、4つの単眼カメラ210が、上部旋回体11の側面から周囲4方向(90°間隔の4方向)に向けられて配置されている。このように、4つの単眼カメラ210が配置されることで、作業機械10の周囲を視野が欠けることなく撮影することができる。なお、本開示の撮影装置を4つの単眼カメラを含んだ構成に限定する意図はない。例えば、作業機械10のオペレータが運転室内で正面を向いた方向は、オペレータが直接視認できる方向であるため、この方向に向けられた単眼カメラは省略され得る。
The photographing
画像処理装置300は、撮影装置200によって撮影された作業機械10の周囲画像を表す撮影画像データを取得し、該撮影画像データに基づいて所定の処理を実行する。
The
ここで、画像処理装置300は、データの取得、生成、更新等の演算処理及び加工処理のための処理能力のある機器であればどの様な電子機器でもよく、例えば、コンピュータである。すなわち、画像処理装置300は、CPUやGPU等のプロセッサ、RAMやROM等の主記憶装置、EPROM、ハードディスクドライブ、リムーバブルメディア等の補助記憶装置を有するコンピュータとして構成することができる。なお、リムーバブルメディアは、例えば、USBメモリ、あるいは、CDやDVDのようなディスク記録媒体であってもよい。補助記憶装置には、オペレーティングシステム(OS)、各種プログラム、各種テーブル等が格納されている。
Here, the
発報装置400は、所定の警報信号又は/及び所定の発報を出力する装置である。ここで、所定の発報とは、警告灯や警告音などである。本実施形態では、図1(a)および図1(b)に示すように、発報装置400として、例えば、パトライト(登録商標)が上部旋回体11の上面に配置されてもよい。そうすると、周辺監視装置100は、例えば、パトライト(登録商標)が発する警告灯によって、作業機械10の周囲の人物に対して警告を行うことができる。また、作業機械10のオペレータに対して、該作業機械10への人の接近を認知させることができる。なお、発報装置400は、例えば、パトライト(登録商標)とスピーカーとを含んでもよい。この場合、周辺監視装置100は、警告灯と警告音によって、警告を行うことができる。
The
また、周辺監視装置100は、表示装置500を更に備えてもよい。ここで、表示装置500は、撮影装置200によって撮影された撮影画像データ又は/及び該撮影画像データに基づく処理により取得された所定のデータを表示可能に構成された装置である。このような表示装置500は、例えば、作業機械10の運転室内に設けられる。これにより、作業機械10のオペレータは、該作業機械10の車体の周辺に存在する障害物を、表示装置500を介して視認できるようになる。
Further, the
以上に述べたように、本開示の作業機械の周辺監視装置100は、撮影装置200、画像処理装置300、および発報装置400といった簡易な構成によって実現され、これらを既存の作業機械10に配置するだけで、作業機械10に周辺監視装置100を簡単に設置することができる。また、上述したように、撮影装置200が単眼カメラ210によって構成されるため、例えば、撮影装置がステレオカメラによって構成される場合と比較して、作業機械10の周辺を監視するためのコストを抑制することができる。
As described above, the
次に、図1(c)に基づいて、画像処理装置300の構成要素の詳細な説明を行う。図1(c)は、第1実施形態における、周辺監視装置100に含まれる画像処理装置300の構成要素をより詳細に示した図である。
Next, the components of the
画像処理装置300は、機能部として記憶部302、制御部303を有しており、補助記憶装置に格納されたプログラムを主記憶装置の作業領域にロードして実行し、プログラムの実行を通じて各機能部等が制御されることによって、各機能部における所定の目的に合致した各機能を実現することができる。ただし、一部または全部の機能はASICやFPGAのようなハードウェア回路によって実現されてもよい。
The
記憶部302は、主記憶装置と補助記憶装置を含んで構成される。主記憶装置は、制御部303によって実行されるプログラムや、当該制御プログラムが利用するデータが展開されるメモリである。補助記憶装置は、制御部303において実行されるプログラムや、当該制御プログラムが利用するデータが記憶される装置である。
The
また、記憶部302は、後述する事前学習モデルを記憶してもよい。この事前学習モデルは、後述する抽出処理に用いることができる。ここで、画像処理装置300の機能がFPGAのようなハードウェア回路によって実現される場合、事前学習モデルはFPGAに内蔵されたメモリに記憶されてもよい。
Further, the
制御部303は、画像処理装置300が行う処理を司る機能部である。制御部303は、CPUなどの演算処理装置によって実現することができる。制御部303は、更に、取得部3031と、抽出処理部3032と、測距処理部3033と、発報制御処理部3034と、の4つの機能部を有して構成される。各機能部は、記憶されたプログラムをCPUによって実行することで実現してもよい。なお、制御部303が、取得部3031、抽出処理部3032、測距処理部3033、および発報制御処理部3034の処理を実行することで、本開示に係るプロセッサとして機能する。そして、このプロセッサが、画像処理装置300を構成する集積回路に実装されることで、上記機能部の処理を実行するプロセッサが作業機械10に設置されることになる。
The
ここで、制御部303が行う処理フローについて、図2に基づいて説明する。図2は、本実施形態に係る周辺監視装置100において、作業機械10とその周囲の人物との接触を回避するために制御部303が行う処理フローを示すフローチャートである。本実施形態では、周辺監視装置100の電源が入れられると本フローの実行が開始され、周辺監視装置100の作動中に所定の演算周期で繰り返し実行される。
Here, the processing flow performed by the
本フローでは、先ず、S101において、取得部3031が、撮影装置200によって撮影された作業機械10の周囲画像を表す撮影画像データを取得する。ここで、撮影装置200および画像処理装置300は通信部を有しており、これらの通信部がネットワークを介して接続されることで、取得部3031が上記の撮影画像データを取得することが可能になる。なお、ネットワークは、無線であっても有線であっても無線と有線の組み合わせであってもよい。
In this flow, first, in S101, the
次に、S102において、抽出処理部3032が、撮影画像データから人物画像を抽出する抽出処理を実行する。この抽出処理では、作業機械10の周囲に人が存在して、その人が撮影装置200によって撮影されている場合には、撮影画像データから人物画像を抽出することができる。なお、この抽出処理の詳細については、後述する。そして、抽出処理部3032は、S103において、S102で実行した抽出処理の結果に基づいて、作業機械10の周囲に人が存在するか否かを判別する。S103において肯定判定された場合、制御部303はS104の処理へ進み、S103において否定判定された場合、本フローの実行が終了される。
Next, in S102, the
S103において肯定判定された場合、次に、S104において、測距処理部3033が、作業機械10とその周囲の人物との距離を測定する測距処理を実行する。この測距処理では、抽出処理によって抽出された人物画像と、撮影装置200の設置パラメータと、に基づいて、作業機械10とその周囲の人物との距離が測定される。なお、この測距処理の詳細については、後述する。また、S104では、上記の測距処理と併せて、S102の抽出処理によって抽出された人物画像の画像データである抽出画像データの出力が実行される。このとき、表示装置500には、後述するように、撮影装置200によって撮影された撮影画像データに加えて、抽出処理によって抽出された人物画像が矩形とともに表示される。
If an affirmative determination is made in S103, then in S104, the distance measuring
次に、S105において、発報制御処理部3034は、測距処理によって測定された上記の距離が所定値以下であるか否かを判別する。ここで、上記の所定値とは、作業機械10の作動により該作業機械10とその周囲人物との接触が懸念される距離の値であって、例えば、作業機械10の大きさや作動範囲に基づいて、予め定められる。そして、S105において肯定判定された場合、制御部303はS106の処理へ進み、S105において否定判定された場合、本フローの実行が終了される。
Next, in S105, the alarm
S105において肯定判定された場合、発報制御処理部3034は、次に、S106において、発報装置400の出力を制御する。本実施形態では、発報制御処理部3034は、発報装置400(例えば、パトライト(登録商標))から警告灯を出力させる。なお、発報装置400が、例えば、パトライト(登録商標)およびスピーカーによって構成される場合には、発報制御処理部3034は、パトライト(登録商標)から警告灯を出力させ、スピーカーから警告音を出力させてもよい。そして、S106の処理の後、本フローの実行が終了される。
If a positive determination is made in S105, the alarm
以上に述べた処理によれば、抽出処理によって抽出された人物画像に基づいて、作業機械10の周囲の人物との距離が測距され、その測距距離の結果に基づいて発報制御処理が実行される。そして、発報装置400から所定の発報が出力されることで、作業機械10の周囲の人物に対して、該作業機械10との接触を回避するための警告を行うことができる。また、作業機械10のオペレータは、発報装置400からの発報の出力を認知すると、作業機械10とその周囲の人物との接触を回避するための運転動作を行うことができる。これにより、作業機械10とその周囲の人物との接触を抑制することができる。
According to the process described above, the distance to the person around the
(抽出処理)
次に、抽出処理部3032が実行する抽出処理の詳細について説明する。本実施形態の抽出処理では、事前学習モデルに撮影画像データが入力されることで、人物画像が抽出される。そして、事前学習モデルは、人物を表す画像を含んだデータを用いて学習を行うことにより構築される。
(Extraction process)
Next, the details of the extraction process executed by the
ここで、図3は、本実施形態における事前学習モデルに対する入力から得られる識別結果と、該事前学習モデルを構成するニューラルネットワークを説明するための図である。本実施形態では、事前学習モデルとして、ディープラーニングにより生成されるニューラルネットワークモデルを用いる。本実施形態における事前学習モデル30は、所定の画像データの入力を受け付ける入力層31と、入力層31に入力された該画像データから人物を表す特徴量を抽出する中間層(隠れ層)32と、特徴量に基づく識別結果を出力する出力層33とを有する。なお、図3の例では、事前学習モデル30は、1層の中間層32を有しており、入力層31の出力が中間層32に入力され、中間層32の出力が出力層33に入力されている。ただし、中間層32の数は、1層に限られなくてもよく、事前学習モデル30は、2層以上の中間層32を有してもよい。
Here, FIG. 3 is a diagram for explaining the identification result obtained from the input to the pre-learning model in the present embodiment and the neural network constituting the pre-learning model. In this embodiment, a neural network model generated by deep learning is used as the pre-learning model. The
また、図3によると、各層31〜33は、1又は複数のニューロンを備えている。例えば、入力層31のニューロンの数は、入力される画像データに応じて設定することができる。また、出力層33のニューロンの数は、識別結果である人物画像に応じて設定することができる。
Also, according to FIG. 3, each layer 31-33 comprises one or more neurons. For example, the number of neurons in the input layer 31 can be set according to the input image data. Further, the number of neurons in the
そして、隣接する層のニューロン同士は適宜結合され、各結合には重み(結合荷重)が機械学習の結果に基づいて設定される。図3の例では、各ニューロンは、隣接する層の全てのニューロンと結合されているが、ニューロンの結合は、このような例に限定されなくてもよく、適宜設定することができる。 Then, neurons in adjacent layers are appropriately connected to each other, and a weight (connection load) is set for each connection based on the result of machine learning. In the example of FIG. 3, each neuron is connected to all neurons in the adjacent layer, but the connection of neurons does not have to be limited to such an example and can be appropriately set.
このような事前学習モデル30は、例えば、人物を表す画像を含んだ画像データと、人物を表す画像のラベルと、の組みである教師データを用いて教師あり学習を行うことで構築される。具体的には、特徴量とラベルとの組みをニューラルネットワークに与え、ニューラルネットワークの出力がラベルと同じとなるように、ニューロン同士の結合の重みがチューニングされる。このようにして、教師データの特徴を学習し、入力から結果を推定するための事前学習モデルが帰納的に獲得される。
Such a
なお、事前学習モデル30は、教師なし学習を行うことで構築されてもよい。教師なし学習には、例えば、転移学習の一種であるドメイン適応を用いることができる。これによれば、ラベルが付された教師データを大量に用意することなく、事前学習モデルを獲得することができる。
The
そして、本実施形態では、上述した表示装置500に、撮影装置200によって撮影された撮影画像データに加えて、抽出処理によって抽出された人物画像が矩形とともに表示される。ここで、図4は、表示装置500に表示される撮影画像データおよび人物画像を説明するための図である。作業機械10のオペレータは、表示装置500の画面SC1を介して、該作業機械10の周囲を視認することができる。
Then, in the present embodiment, in addition to the captured image data captured by the photographing
図4(a)は、表示装置500に表示された撮影画像データを示す図である。図4(a)に示すように、表示装置500の画面SC1には、撮影画像データSC11が表示される。そして、図4(b)は、表示装置500に、撮影画像データとともに、抽出処理によって抽出された人物画像が表示される例を示す図である。図4(b)に示すように、表示装置500の画面SC1には、撮影画像データSC11、および人物画像SC12が表示される。このように、抽出処理によって抽出された人物画像SC12は、矩形とともに表示される。これによれば、作業機械10のオペレータは、表示装置500の画面SC1に表示された人物画像SC12を視認し易くなる。なお、上述した事前学習モデルを用いて人物画像が抽出されることで、撮影画像データからの人物画像の抽出精度、具体的には、撮影画像データSC11に含んで表示される人物画像SC12を表す矩形の位置精度が向上する。
FIG. 4A is a diagram showing captured image data displayed on the display device 500. As shown in FIG. 4A, the captured image data SC11 is displayed on the screen SC1 of the display device 500. FIG. 4B is a diagram showing an example in which a person image extracted by the extraction process is displayed on the display device 500 together with the captured image data. As shown in FIG. 4B, the captured image data SC11 and the person image SC12 are displayed on the screen SC1 of the display device 500. In this way, the person image SC12 extracted by the extraction process is displayed together with the rectangle. According to this, the operator of the
ここで、本実施形態の画像処理装置300では、単眼カメラ210のレンズの歪み補正値を用いて、撮影画像データの歪み補正が行われる。そして、表示装置500の画面SC1には、歪み補正が行われた撮影画像データSC11が表示される。また、歪み補正が行われた撮影画像データから人物画像が抽出される。そのため、事前学習モデルを構成するにあたっては、学習に用いられる人物を表す画像を含んだ画像データとして、歪み補正が行われた画像が使用される。ただし、本開示をこれに限定する意図はなく、本開示の周辺監視装置では、上記の歪み補正が実行されなくてもよい。この場合、表示装置500には、歪みを含んだ撮影画像データが表示されることになるが、この歪みを含んだ撮影画像データからも精度よく人物画像を抽出することができれば、作業機械10のオペレータは、矩形とともに表示された人物画像を視認することができる。そこで、このような場合には、事前学習モデルを構成するにあたって、学習に用いられる人物を表す画像を含んだ画像データとして、歪みを含んだ画像が使用される。そうすると、歪みを含んだ撮影画像データからも精度よく人物画像を抽出することができる。これによれば、画像処理装置300は、撮影装置200から取得した撮影画像データを歪み補正する必要がなく、以て、周辺監視装置における画像処理の処理負担が軽減されるため、より迅速に作業機械10の周辺を監視することができる。
Here, in the
また、図4(c)は、人物画像SC12を表す矩形のバリエーションを示す図である。図4(c)に示すように、人物画像SC12を表す矩形は、人の全身を囲う矩形SC121であってもよいし、人の上半身を囲う矩形SC122であってもよいし、人の首上を囲う矩形SC123であってもよい。作業機械10のオペレータは、いずれの矩形であっても人物画像を認知することができるが、例えば、人の全身を囲う矩形SC121の場合は、その人の大きさを認知し易くなる。また、例えば、撮影画像データに複数の人物画像が含まれる場合には、人の首上を囲う矩形SC123が用いられることで、人の数が認知され易くなる。つまり、撮影画像データに複数の人物画像が含まれる場合に、好ましくは人の首上を囲う矩形SC123が用いられ得る。
Further, FIG. 4C is a diagram showing variations of a rectangle representing the person image SC12. As shown in FIG. 4C, the rectangle representing the person image SC12 may be a rectangle SC121 that surrounds the whole body of a person, a rectangle SC122 that surrounds the upper body of a person, or a rectangle SC122 that surrounds the upper body of a person. It may be a rectangle SC123 that surrounds. The operator of the
なお、本実施形態では、上述したように、画像処理装置300の機能をFPGAのようなハードウェア回路によって実現することができる。この場合、事前学習モデルはFPGAに内蔵されたメモリに記憶され得る。これによれば、事前学習モデルを用いた抽出処理を可及的速やかに実行することができ、以て、より迅速に作業機械10の周辺を監視することができる。
In the present embodiment, as described above, the function of the
このように、本実施形態の抽出処理によれば、事前学習モデルを用いることで、撮影画像データから人物画像を精度よく抽出することができるとともに、抽出した人物画像を作業機械10のオペレータに好適に視認させることができる。
As described above, according to the extraction process of the present embodiment, by using the pre-learning model, a person image can be accurately extracted from the captured image data, and the extracted person image is suitable for the operator of the
(測距処理)
次に、測距処理部3033が実行する測距処理の詳細について説明する。本実施形態の測距処理では、抽出処理によって抽出された人物画像と、撮影装置200の設置パラメータと、に基づいて、作業機械10とその周囲の人物との距離が測定される。そして、このような測距処理について、本実施形態では、人物画像の足元の画像に基づいて測距する足元測距と、人物画像の頭の画像に基づいて測距する頭測距と、が用いられる。本実施形態では、これら測距方法のうちのいずれかの方法が用いられてもよいし、これら測距方法の両方が用いられてもよい。足元測距および頭測距について、以下に詳しく説明する。
(Distance measurement processing)
Next, the details of the distance measuring process executed by the distance measuring
先ず、足元測距について説明する。足元測距では、測距処理部3033は、撮影画像データにおける人物画像の足元の二次元座標である足元座標を取得する。そして、足元座標に基づいて、作業機械10の周囲の人物の足元と撮影装置200との間の所定の角度である足元角度を算出する。そうすると、測距処理部3033は、算出された足元角度と、撮影装置200の設置高さと、に基づいて、作業機械10とその周囲の人物との距離を測定することができる。
First, foot distance measurement will be described. In foot distance measurement, the distance
図5は、足元角度と、撮影装置200の設置高さと、周囲人物との距離と、の関係を説明するための図である。ここで、周囲人物とは、作業機械10の周囲の人物であって、この周囲人物と作業機械10との距離である周囲人物との距離が、図5における距離Dとして表される。そして、地面からの撮影装置200の設置高さが、図5における高さhとして表される。また、上述した、周囲人物の足元と撮影装置200との間の足元角度が、図5における角度θとして表される。そうすると、周囲人物との距離Dを下記式1で算出することができる。
h:撮影装置200の設置高さ(mm)
θ:足元角度(degree)
FIG. 5 is a diagram for explaining the relationship between the foot angle, the installation height of the photographing
h: Installation height (mm) of the photographing
θ: Foot angle (degree)
そして、測距処理部3033は、上記式1に基づく周囲人物との距離Dを算出するために、図6に示す処理フローを実行する。図6は、本実施形態に係る測距処理の一つである足元測距において、測距処理部3033が行う処理フローを示すフローチャートである。本フローは、上記の図2に示したS104における測距処理の内部処理として実行される。
Then, the distance measuring
本フローでは、先ず、S1041において、足元座標(撮影画像データにおける人物画像の足元の二次元座標)が取得される。これについて、図7に基づいて説明する。図7は、カメラの内部パラメータとともに、該カメラのセンサ上に投影される被写体を説明するための図である。図7に示す例では、周囲人物が、カメラの光軸L2からY軸方向にずれた位置に存在している。この場合、測距処理部3033は、センサ上に投影された周囲人物の足元の座標yを足元座標として取得する。なお、上述した抽出処理の説明で述べたように、人物画像は矩形とともに表示され得る。そこで、例えば、人の全身を囲う矩形の下端を足元座標として取得してもよい。また、足元座標が取得される撮影画像データが歪み補正されていない場合には、取得した足元座標に対して歪み補正処理を行うことができる。
In this flow, first, in S1041, the foot coordinates (two-dimensional coordinates of the foot of the person image in the captured image data) are acquired. This will be described with reference to FIG. FIG. 7 is a diagram for explaining a subject projected on the sensor of the camera together with the internal parameters of the camera. In the example shown in FIG. 7, a surrounding person exists at a position deviated from the optical axis L2 of the camera in the Y-axis direction. In this case, the distance measuring
そして、図6に戻って、次に、S1042において、足元角度(作業機械10の周囲の人物の足元と撮影装置200との間の角度)が算出される。ここで、上記の図5によると、足元角度θは、下記式2で表される。
θ1:カメラ中心からの角度(degree)
θ2:撮影装置200の設置角度(degree)
なお、カメラ中心からの角度θ1は後述する。また、撮影装置200の設置角度θ2は、図5に示すように、地面との平行線L1とカメラの光軸L2との間の角度であって、周辺監視装置100が設置される作業機械10に応じて予め定められる。
Then, returning to FIG. 6, next, in S1042, the foot angle (the angle between the foot of a person around the
θ1: Angle from the center of the camera (degree)
θ2: Installation angle of the imaging device 200 (degree)
The angle θ1 from the center of the camera will be described later. Further, as shown in FIG. 5, the installation angle θ2 of the photographing
ここで、カメラ中心からの角度θ1は、上記の図7に基づいて、下記式3で算出することができる。
f:レンズの焦点距離(mm)
y:足元座標(pixel)
N:カメラの画素サイズ(mm/pixel)
Here, the angle θ1 from the center of the camera can be calculated by the following equation 3 based on FIG. 7 above.
f: Focal length of the lens (mm)
y: Foot coordinates (pixel)
N: Camera pixel size (mm / pixel)
そして、図6に戻って、次に、S1043において、撮影装置200の設置高さが取得される。撮影装置200の設置高さは、周辺監視装置100が設置される作業機械10に応じて予め定められる。なお、測距処理部3033は、S1043の処理をS1041の処理の前に行ってもよい。
Then, returning to FIG. 6, next, in S1043, the installation height of the photographing
次に、S1044において、S1042の処理で算出された足元角度と、S1043の処理で取得された撮影装置200の設置高さと、に基づいて、作業機械10とその周囲の人物との距離が測定される。詳しくは、測距処理部3033は、上記式1に基づいて、作業機械10とその周囲の人物との距離を算出する。そして、S1044の処理の後、制御部303はS105の処理へ進む。なお、上述したように、S104では、このような測距処理と併せて抽出画像データの出力が実行される。
Next, in S1044, the distance between the
以上によれば、単眼カメラ210によって、低コストながら精度よく測距処理を行うことができる。なお、このような足元測距によれば、足元座標を比較的正確に取得することができるため、上述した距離の算出精度を可及的に高くすることができる。
Based on the above, the
次に、頭測距について説明する。頭測距では、測距処理部3033は、撮影画像データにおける人物画像の頭の画像を取得するとともに、該頭の画像の大きさに基づいて、作業機械10とその周囲の人物との距離を測定する。
Next, head distance measurement will be described. In the head distance measurement, the distance
詳しくは、測距処理部3033は、撮影画像データにおける人物画像の頭の画像の縦画素数を取得する。ここで、頭の画像の縦画素数は、例えば、人の首上を囲う矩形の縦方向の画素数から取得することができる。そして、本開示人は、人の頭の大きさは個人差が少ないことを利用して、頭の大きさを表す上記の縦画素数に基づいて測距できることを見出した。そこで、測距処理部3033は、下記式4に基づいて、作業機械10とその周囲の人物との距離を算出する。
Dref:基準距離(mm)
Nref:基準距離での縦画素数(pixel)
Nhead:頭の画像の縦画素数(pixel)
なお、基準距離Drefおよび該基準距離での縦画素数Nrefは、予め定められる。そして、このように予め定められた基準と、撮影画像データから取得したの頭の画像の縦画素数Nheadと、を比較することで、周囲人物との距離D´が算出される。
Specifically, the distance measuring
Dref: Reference distance (mm)
Nref: Number of vertical pixels at reference distance (pixel)
Nhead: Number of vertical pixels (pixel) of the head image
The reference distance Dref and the number of vertical pixels Nref at the reference distance are predetermined. Then, the distance D'with the surrounding person is calculated by comparing the predetermined standard with the number of vertical pixels Nhead of the head image acquired from the captured image data.
以上によれば、単眼カメラ210によって、低コストながら精度よく測距処理を行うことができる。なお、このような頭測距によれば、仮に、撮影画像データに周囲人物の足元が含まれていない場合であったり、高所に人が登っているなどして人物が地上にいない場合であっても、作業機械10とその周囲の人物との距離を算出することができる。
Based on the above, the
そして、以上に述べた足元測距と頭測距の両方が用いられて、作業機械10とその周囲の人物との距離が算出されてもよい。例えば、上記式1に基づく周囲人物との距離Dが足元測距により算出され、上記式4に基づく周囲人物との距離D´が頭測距により算出された場合には、測距処理部3033は、下記式5に基づいて算出される周囲人物との距離Doutを、作業機械10とその周囲の人物との距離として出力する。
D:足元測距により算出される周囲人物との距離(mm)
D´:頭測距により算出される周囲人物との距離(mm)
w:ブレンド係数
ここで、ブレンド係数wは、下記式6および下記式7に基づいて算出される。
D: Distance to surrounding people calculated by foot distance measurement (mm)
D': Distance to surrounding people calculated by head distance measurement (mm)
w: Blend coefficient Here, the blend coefficient w is calculated based on the following formula 6 and the following formula 7.
これによれば、例えば、距離Dと距離D´とが500mmずれている場合には、ブレンド係数wが0.5となり、足元測距により算出される周囲人物との距離Dと頭測距により算出される周囲人物との距離D´の平均値が、作業機械10とその周囲の人物との距離Doutとして出力される。また、例えば、距離Dと距離D´とが1000mm以上ずれている場合には、ブレンド係数wが1.0となり、頭測距により算出される周囲人物との距離D´が、作業機械10とその周囲の人物との距離Doutとして出力される。なお、距離Dと距離D´とが等しい場合には、ブレンド係数wが0となり、足元測距により算出される周囲人物との距離Dが、作業機械10とその周囲の人物との距離Doutとして出力される。
According to this, for example, when the distance D and the distance D'are deviated by 500 mm, the blend coefficient w becomes 0.5, and the distance D to the surrounding person calculated by the foot distance measurement and the head distance measurement are used. The calculated average value of the distance D'with the surrounding person is output as the distance Dout between the
以上に述べたように、本実施形態では、抽出処理によって撮影画像データから人物画像を精度よく抽出することができ、測距処理によって低コストながら精度よく周囲人物との距離を測定することができる。そして、本実施形態によれば、低コストで簡単に作業機械に設置できるとともに、作業機械とその周囲の人物との接触を抑制可能な周辺監視装置を提供することができる。 As described above, in the present embodiment, the person image can be accurately extracted from the captured image data by the extraction process, and the distance to the surrounding person can be accurately measured at low cost by the distance measurement process. .. According to the present embodiment, it is possible to provide a peripheral monitoring device that can be easily installed on a work machine at low cost and can suppress contact between the work machine and a person around it.
なお、本実施形態の周辺監視装置100は、上述した撮影装置200の設置パラメータ等を記憶した記憶装置を備えていてもよい。この場合、記憶装置には、作業機械10の機種毎の撮影装置200の設置パラメータが記憶され得る。そして、記憶装置に記憶された上記の設置パラメータは、作業機械10の機種とともに表示装置500に表示され得る。そうすると、ユーザは、作業機械10の機種に応じて簡単に周辺監視装置100を設置することができる。
The
また、上記の実施形態では、周辺監視装置100が表示装置500を備える構成を例にして説明したが、本開示の周辺監視装置をこれに限定する意図はない。本開示の周辺監視装置は、上述した表示装置を備えていなくてもよく、この場合でも、抽出処理によって抽出された人物画像と、撮影装置の設置パラメータと、に基づいて測距処理が実行され、該測距処理の結果に基づいて発報制御処理が実行されることで、作業機械とその周囲の人物との接触を抑制することができる。
Further, in the above embodiment, the configuration in which the
<第1実施形態の変形例1>
上記第1実施形態の変形例1について説明する。上述した第1実施形態では、作業機械10とその周囲の人物との距離が所定値以下となった場合に、発報装置400から警告灯や警告音が出力される。これにより、作業機械10の周囲の人物に対して、該作業機械10との接触を回避するための警告を行うことができる。また、作業機械10のオペレータは、発報装置400からの発報の出力を認知すると、作業機械10とその周囲の人物との接触を回避するための運転動作を行うことができる。ここで、オペレータによる運転動作によらずに作業機械10の回避動作を行うことができれば、作業機械10とその周囲の人物との接触をより好適に回避することができる。
<Modification 1 of the first embodiment>
A modification 1 of the first embodiment will be described. In the first embodiment described above, when the distance between the
そこで、本変形例では、上記第1実施形態の説明で述べた発報制御処理部3034が、作業機械10とその周囲の人物との距離が所定値以下となった場合に、発報装置400から、該作業機械10とその周囲の人物との接触を回避するための所定の回避動作を指令する信号を出力させる。
Therefore, in the present modification, when the alarm
ここで、本変形例の発報装置400は、所定の警報信号を出力可能に構成される。そして、所定の警報信号とは、例えば、上記の回避動作を指令する信号であって、該信号は、Controller Area Network(CAN)等によって作業機械10の制御コントローラに送信される。そうすると、作業機械10は、オペレータの操作によらず自動で回避動作を行うことになる。ここで、回避動作とは、作業機械10の作動が減速する動作や、作業機械10の作動が停止する動作などである。これによれば、オペレータによる運転動作によらずに作業機械10の回避動作を行うことができ、作業機械10とその周囲の人物との接触をより好適に回避することができる。なお、発報装置400は、電気的もしくは機械的な接点または入出力信号を出力可能に構成されてもよい。
Here, the
また、発報装置400は、このような回避動作を指令する信号を出力する機能のみを有していてもよいし、当該機能に加えて上記第1実施形態の説明で述べた警告灯や警告音を出力する機能を有していてもよい。また、警報信号として、作業機械10とその周囲の人物との距離が所定値以下となった旨の情報が、所定の通信手段(例えば、イーサネット)を介して所定の端末に通知されてもよい。
Further, the
<第1実施形態の変形例2>
上記第1実施形態の変形例2について説明する。上述した第1実施形態では、周辺監視装置100の電源が入れられると、上記図2に示したフローが実行される。これに対して、本変形例では、周辺監視装置100の電源が入れられると、以下に説明する図8に示すフローが実行される。
<Modification 2 of the first embodiment>
The second modification of the first embodiment will be described. In the first embodiment described above, when the power of the
本変形例において、制御部303が行う処理フローについて、図8に基づいて説明する。図8は、本変形例に係る周辺監視装置100において、作業機械10とその周囲の人物との接触を回避するために制御部303が行う処理フローを示す第1のフローチャートである。なお、本変形例において、上述した第1実施形態の図2に示した処理と実質的に同一の処理については、同一の符号を付してその詳細な説明を省略する。
In this modification, the processing flow performed by the
図8に示すフローでは、S101の処理の後に、S201において、周辺監視装置100の電源が入れられてから所定時間が経過したか否かが判別される。ここで、所定時間とは、例えば、抽出処理に用いられる事前学習モデルやプログラムが画像処理装置300の作業領域にロードされるまでの時間であって、モデルの規模に応じて予め定められる。そして、S201において肯定判定された場合、この場合はすぐに抽出処理が実行され得る場合であって、制御部303はS102の処理へ進む。一方、S201において否定判定された場合、制御部303はS202の処理へ進む。
In the flow shown in FIG. 8, after the processing of S101, it is determined in S201 whether or not a predetermined time has elapsed since the power of the
S201において否定判定された場合、次に、S202において、S101の処理で取得された撮影画像データのみが表示装置500に出力される。そして、S202の処理の後、本フローの実行が終了される。 If a negative determination is made in S201, then in S202, only the captured image data acquired in the process of S101 is output to the display device 500. Then, after the processing of S202, the execution of this flow is completed.
ここで、周辺監視装置100の電源が入れられてから所定時間が経過するまでは、制御部303は抽出処理をすぐに実行することができない。このような場合、仮に、抽出処理が実行可能になるまで制御部303の処理が待機され、作業機械10のオペレータが表示装置500を介して周囲を視認することができないとすると、この間に作業機械10とその周囲の人物との接触が生じ得る虞がある。これに対して、本フローによれば、周辺監視装置100の電源が入れられてから所定時間が経過するまでは、抽出処理および測距処理により取得され得るデータは表示装置500に出力されずに撮影画像データのみが表示装置500に出力される。つまり、周辺監視装置100の電源が入れられてから可及的速やかに作業機械10の周囲画像が表示装置500に出力されることになる。そのため、作業機械10のオペレータは、周辺監視装置100の電源が入れられてから可及的速やかに、表示装置500を介して周囲を視認することができる。これによれば、作業機械10とその周囲の人物との接触をより好適に回避することができる。
Here, the
なお、このように撮影画像データのみが表示装置500に出力される場合には、撮影画像データに含まれる人物には矩形が表示されない。そうすると、作業機械10のオペレータは、抽出処理および測距処理が未だ実行されていないことを認識できる。
When only the captured image data is output to the display device 500 in this way, the rectangle is not displayed on the person included in the captured image data. Then, the operator of the
また、本変形例では、周辺監視装置100の電源が入れられると、以下に説明する図9に示すフローが実行されてもよい。図9は、本変形例に係る周辺監視装置100において、作業機械10とその周囲の人物との接触を回避するために制御部303が行う処理フローを示す第2のフローチャートである。なお、上述した第1実施形態の図2に示した処理と実質的に同一の処理については、同一の符号を付してその詳細な説明を省略する。
Further, in this modification, when the power of the
図9に示すフローでは、S102の処理の後に、S203において、S102の処理における抽出処理の結果を取得可能か否かが判別される。ここで、抽出処理の結果を取得できない場合とは、例えば、抽出処理に用いられる事前学習モデルやプログラムが画像処理装置300の作業領域に未だロードされていない(作業領域へのロードが完了していない)場合である。この場合、図9に示すフローでは、上記のロードの完了の有無にかかわらずS102の処理が実行されている。なお、S102において、上記のロードが完了していないために周囲人物の抽出を行うことができない場合には、制御部303は、抽出処理を実行できないとして即座にS102の処理を終了させる。このとき、制御部303は、抽出処理を実行したか否かを判別するフラグを立ててもよい。そうすると、S203では、このフラグに基づいて上記を判定することができる。そして、S203において肯定判定された場合、制御部303はS103の処理へ進み、S203において否定判定された場合、制御部303はS204の処理へ進む。
In the flow shown in FIG. 9, after the processing of S102, it is determined in S203 whether or not the result of the extraction processing in the processing of S102 can be acquired. Here, when the result of the extraction process cannot be obtained, for example, the pre-learning model or program used for the extraction process has not yet been loaded into the work area of the image processing device 300 (loading to the work area has been completed). Not) if. In this case, in the flow shown in FIG. 9, the process of S102 is executed regardless of whether or not the above loading is completed. If the extraction of surrounding people cannot be performed because the above loading is not completed in S102, the
S203において否定判定された場合、次に、S204において、S101の処理で取得された撮影画像データのみが表示装置500に出力される。そして、S204の処理の後、本フローの実行が終了される。 If a negative determination is made in S203, then in S204, only the captured image data acquired in the process of S101 is output to the display device 500. Then, after the processing of S204, the execution of this flow is completed.
以上に述べた処理によっても、作業機械10のオペレータは、周辺監視装置100の電源が入れられてから可及的速やかに、表示装置500を介して周囲を視認することができ、以て、作業機械10とその周囲の人物との接触をより好適に回避することができる。
Even with the above-described processing, the operator of the
<第2実施形態>
第2実施形態について説明する。本実施形態では、制御部303が画像鮮明化処理を更に実行する。詳しくは、制御部303は、撮影画像データに含まれる画素値の頻度を示す撮影画像ヒストグラムを生成する。そして、撮影画像ヒストグラムを平滑化した平滑化ヒストグラムに基づいて取得される平滑化画像データと、撮影画像データと、を所定の比率で合成することで撮影画像データの鮮明化を行う。これについて、図10に基づいて説明する。
<Second Embodiment>
The second embodiment will be described. In the present embodiment, the
本実施形態の制御部303は、画像鮮明化処理を実行するために、図10に示す処理フローを実行する。図10は、本実施形態に係る画像鮮明化処理において、制御部303が行う処理フローを示すフローチャートである。本フローは、上記図2に示したフローのS101の処理の後に実行される。
The
本フローでは、S101の処理の後に、S301において、撮影画像ヒストグラムが生成される。上述したように、撮影画像ヒストグラムは、撮影画像データに含まれる画素値の頻度を示すヒストグラムであって、周知の技術に基づいて生成される。 In this flow, after the processing of S101, a captured image histogram is generated in S301. As described above, the captured image histogram is a histogram showing the frequency of pixel values included in the captured image data, and is generated based on a well-known technique.
次に、S302において、平滑化画像データが生成される。S302の処理において、制御部303は、先ず、撮影画像ヒストグラムを平滑化した平滑化ヒストグラムを生成し、該平滑化ヒストグラムに基づいて平滑化画像データを取得する。ここで、平滑化ヒストグラムは、撮影画像ヒストグラムを画素値の範囲全体(256階調)に亘って引き伸ばすことによって生成され、例えば、或る画素値の範囲に頻度が集中しているヒストグラムを画素値の範囲全体(256階調)に亘って引き伸ばすことによって、コントラストの高い画像を取得することができる。つまり、平滑化画像データは、撮影画像データのコントラストが高められた画像データである。
Next, in S302, smoothed image data is generated. In the process of S302, the
このような平滑化画像データによれば、夜間や霧天時であっても画像のコントラストを確保することができる。しかしながら、作業機械10は様々な環境下で使用されるため、その環境に応じてコントラストが調整される必要がある。
According to such smoothed image data, it is possible to secure the contrast of the image even at night or in foggy weather. However, since the
そこで、本実施形態では、S303の処理において、鮮明化強度が取得される。そして、S304の処理において、撮影画像データに平滑化画像データが所定の比率で合成される。この比率が鮮明化強度に基づく比率であって、該強度の区分が、例えば、弱・中・強の3段階で設定され得る。例えば、鮮明化強度の区分が弱の場合に、平滑化画像データと撮影画像データとが1:3の比率で合成され、鮮明化強度の区分が中の場合に、平滑化画像データと撮影画像データとが1:1の比率で合成され、鮮明化強度の区分が強の場合に、平滑化画像データと撮影画像データとが3:1の比率で合成される。なお、S303の処理では、このような区分に応じた強度の値、例えば、強度区分が弱の場合は、強度の値が0.25として取得されてもよいし(この場合、鮮明化された撮影画像データの25%が平滑化画像データによるもので、75%が元の撮影画像データによるものとなる。)、区分によらない任意の値(0よりも大きくて1よりも小さい値)が取得されてもよい。また、鮮明化強度は、作業機械10のオペレータによって手動で設定されてもよいし、環境に応じて自動で設定されてもよい。そして、S304の処理の後、制御部303はS102の処理へ進む。
Therefore, in the present embodiment, the sharpening intensity is acquired in the processing of S303. Then, in the process of S304, the smoothed image data is combined with the captured image data at a predetermined ratio. This ratio is a ratio based on the sharpening intensity, and the intensity classification can be set in, for example, three stages of weak, medium, and strong. For example, when the sharpening intensity classification is weak, the smoothed image data and the captured image data are combined at a ratio of 1: 3, and when the sharpening intensity classification is medium, the smoothed image data and the captured image data are combined. When the data and the data are combined at a ratio of 1: 1 and the sharpening intensity classification is strong, the smoothed image data and the captured image data are combined at a ratio of 3: 1. In the processing of S303, the strength value corresponding to such a classification, for example, when the strength classification is weak, the strength value may be acquired as 0.25 (in this case, it is clarified). Twenty-five percent of the captured image data is from the smoothed image data, 75% is from the original captured image data), and any value regardless of classification (value greater than 0 and less than 1) May be obtained. Further, the sharpening intensity may be manually set by the operator of the
このように、S301〜S304の処理によって撮影画像データの鮮明化が行われ、次のS102の処理によって抽出処理が実行される場合には、環境に応じて鮮明化された撮影画像データに基づいて人物画像が抽出されることになる。これによれば、撮影画像データからの人物画像の抽出精度を可及的に高くすることができる。また、作業機械10のオペレータは、該作業機械10の車体の周辺に存在する障害物を、表示装置500を介して視認し易くなる。
In this way, when the captured image data is sharpened by the processes of S301 to S304 and the extraction process is executed by the next process of S102, it is based on the captured image data that has been sharpened according to the environment. A person image will be extracted. According to this, the accuracy of extracting a person image from the captured image data can be made as high as possible. Further, the operator of the
そして、以上に述べた周辺監視装置によっても、作業機械とその周囲の人物との接触を好適に抑制することができる。 Further, the peripheral monitoring device described above can also suitably suppress the contact between the work machine and the person around it.
<その他の変形例>
上記の実施形態はあくまでも一例であって、本開示はその要旨を逸脱しない範囲内で適宜変更して実施しうる。例えば、本開示において説明した処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
<Other variants>
The above embodiment is merely an example, and the present disclosure may be appropriately modified and implemented without departing from the gist thereof. For example, the processes and means described in the present disclosure can be freely combined and carried out as long as there is no technical contradiction.
上記の実施形態では、撮影装置200が4つの単眼カメラ210を含んで構成される例を説明したが、本開示の撮影装置はこれに限定されない。図11は、本開示における作業機械の周辺監視装置の概略構成の変形例を示す図である。本開示の撮影装置は、図11に示すように、3つの単眼カメラ210と1つの半天球カメラ220とを含んで構成されてもよい。この場合、半天球カメラ220は、作業機械10の所定の装備により死角が生じ易い領域を撮影可能な位置(例えば、作業機械10の運転室の上面)に配置され得る。
In the above embodiment, an example in which the photographing
また、1つの装置が行うものとして説明した処理が、複数の装置によって分担して実行されてもよい。例えば、抽出処理部3032を画像処理装置300とは別の集積回路に形成してもよい。このとき当該別の集積回路は画像処理装置300と好適に協働可能に構成される。また、異なる装置が行うものとして説明した処理が、1つの装置によって実行されても構わない。集積回路において、各機能をどのようなハードウェア構成によって実現するかは柔軟に変更可能である。
Further, the processing described as being performed by one device may be shared and executed by a plurality of devices. For example, the
本開示は、上記の実施形態で説明した機能を実装したコンピュータプログラムをコンピュータに供給し、当該コンピュータが有する1つ以上のプロセッサがプログラムを読み出して実行することによっても実現可能である。このようなコンピュータプログラムは、コンピュータのシステムバスに接続可能な非一時的なコンピュータ可読記憶媒体によってコンピュータに提供されてもよい。非一時的なコンピュータ可読記憶媒体は、例えば、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスクドライブ(HDD)等)、光ディスク(CD−ROM、DVDディスク・ブルーレイディスク等)など任意のタイプのディスク、読み込み専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気カード、フラッシュメモリ、光学式カード、電子的命令を格納するために適した任意のタイプの媒体を含む。 The present disclosure can also be realized by supplying a computer program having the functions described in the above-described embodiment to a computer, and having one or more processors of the computer read and execute the program. Such computer programs may be provided to the computer by a non-temporary computer-readable storage medium that can be connected to the computer's system bus. Non-temporary computer-readable storage media include, for example, any type of disc such as a magnetic disc (floppy (registered trademark) disc, hard disk drive (HDD), etc.), an optical disc (CD-ROM, DVD disc, Blu-ray disc, etc.). Includes read-only memory (ROM), random access memory (RAM), EPROM, EEPROM, magnetic cards, flash memory, optical cards, and any type of medium suitable for storing electronic instructions.
10・・・・作業機械
100・・・周辺監視装置
200・・・撮影装置
210・・・単眼カメラ
300・・・画像処理装置
303・・・制御部
400・・・発報装置
10 ...
Claims (8)
前記撮影装置によって撮影された前記作業機械の周囲画像を表す撮影画像データを取得し、該撮影画像データに基づいて所定の処理を実行するプロセッサと、
所定の警報信号又は/及び所定の発報を出力する発報装置と、
を備え、
前記撮影装置は、1以上の単眼カメラを含み、該単眼カメラの光軸が地面に対して所定の角度で配置されるように構成され、
前記プロセッサは、
前記撮影画像データから人物画像を抽出する抽出処理と、
抽出された前記人物画像と、前記撮影装置の設置パラメータと、に基づいて、前記作業機械とその周囲の人物との距離を測定する測距処理と、
前記測距処理によって測定された前記作業機械とその周囲の人物との距離に基づいて、前記発報装置による前記警報信号又は/及び前記発報の出力を制御する発報制御処理と、を実行し、
前記測距処理において、前記プロセッサは、
前記撮影画像データにおける前記人物画像の足元の二次元座標である足元座標を取得するとともに、該足元座標と、前記作業機械の周囲の人物の足元と前記単眼カメラの光軸との間の角度と、前記撮影装置の設置角度と、に基づいて、前記作業機械の周囲の人物の足元と前記撮影装置との間の所定の角度である足元角度を算出し、
算出された前記足元角度と、前記撮影装置の設置高さと、に基づいて、前記作業機械とその周囲の人物との距離を測定する、
作業機械の周辺監視装置。 An imaging device installed on a work machine that photographs the surroundings of the work machine,
A processor that acquires photographed image data representing the surrounding image of the work machine photographed by the photographing apparatus and executes a predetermined process based on the photographed image data.
An alarm device that outputs a predetermined alarm signal and / and a predetermined alarm, and
With
The imaging device includes one or more monocular cameras, and is configured such that the optical axis of the monocular camera is arranged at a predetermined angle with respect to the ground.
The processor
An extraction process for extracting a person image from the captured image data, and
A distance measuring process for measuring the distance between the work machine and a person around it based on the extracted person image and the installation parameters of the photographing device.
Based on the distance between the work machine and a person around it measured by the distance measuring process, the alarm signal and / and the alarm control process for controlling the output of the alarm by the alarm device are executed. death,
In the distance measuring process, the processor
The foot coordinates, which are the two-dimensional coordinates of the feet of the person image in the captured image data, are acquired, and the foot coordinates and the angle between the feet of the person around the work machine and the optical axis of the monocular camera are used. Based on the installation angle of the photographing device, the foot angle, which is a predetermined angle between the feet of a person around the work machine and the photographing device, is calculated.
The distance between the work machine and a person around it is measured based on the calculated foot angle and the installation height of the photographing device.
Peripheral monitoring device for work machines.
前記撮影装置によって撮影された前記作業機械の周囲画像を表す撮影画像データを取得し、該撮影画像データに基づいて所定の処理を実行するプロセッサと、
所定の警報信号又は/及び所定の発報を出力する発報装置と、
を備え、
前記撮影装置は、1以上の単眼カメラを含み、該単眼カメラの光軸が地面に対して所定の角度で配置されるように構成され、
前記プロセッサは、
前記撮影画像データから人物画像を抽出する抽出処理と、
抽出された前記人物画像と、前記撮影装置の設置パラメータと、に基づいて、前記作業機械とその周囲の人物との距離を測定する測距処理と、
前記測距処理によって測定された前記作業機械とその周囲の人物との距離に基づいて、前記発報装置による前記警報信号又は/及び前記発報の出力を制御する発報制御処理と、を実行し、
前記測距処理において、前記プロセッサは、
前記撮影画像データにおける前記人物画像の頭の画像を取得するとともに、該頭の画像の画素数に基づいて、前記作業機械とその周囲の人物との距離を測定する、
作業機械の周辺監視装置。 An imaging device installed on a work machine that photographs the surroundings of the work machine,
A processor that acquires photographed image data representing the surrounding image of the work machine photographed by the photographing apparatus and executes a predetermined process based on the photographed image data.
An alarm device that outputs a predetermined alarm signal and / and a predetermined alarm, and
With
The imaging device includes one or more monocular cameras, and is configured such that the optical axis of the monocular camera is arranged at a predetermined angle with respect to the ground.
The processor
An extraction process for extracting a person image from the captured image data, and
A distance measuring process for measuring the distance between the work machine and a person around it based on the extracted person image and the installation parameters of the photographing device.
Based on the distance between the work machine and a person around it measured by the distance measuring process, the alarm signal and / and the alarm control process for controlling the output of the alarm by the alarm device are executed. death,
In the distance measuring process, the processor
The head image of the person image in the captured image data is acquired, and the distance between the work machine and the surrounding person is measured based on the number of pixels of the head image.
Peripheral monitoring device for work machines.
前記作業機械とその周囲の人物との距離が所定値以下となった場合に、前記発報装置から、該作業機械とその周囲の人物との接触を回避するための所定の回避動作を指令する信号を出力させる、
請求項1又は請求項2に記載の作業機械の周辺監視装置。 In the alarm control process, the processor
When the distance between the work machine and a person around it becomes equal to or less than a predetermined value, the alarm device commands a predetermined avoidance operation for avoiding contact between the work machine and a person around it. Output a signal,
The peripheral monitoring device for a work machine according to claim 1 or 2.
所定の画像データの入力を受け付ける入力層と、入力された該画像データから人物を表す特徴量を抽出する中間層と、該特徴量に基づく識別結果を出力する出力層と、を有するニューラルネットワークモデルであって、人物を表す画像を含んだデータを用いて学習を行うことにより構築された事前学習モデルに、前記撮影画像データを入力することで、前記人物画像を抽出する、
請求項1から請求項3の何れか1項に記載の作業機械の周辺監視装置。 In the extraction process, the processor
A neural network model having an input layer that accepts input of predetermined image data, an intermediate layer that extracts a feature amount representing a person from the input image data, and an output layer that outputs an identification result based on the feature amount. The person image is extracted by inputting the photographed image data into the pre-learning model constructed by performing the training using the data including the image representing the person.
The peripheral monitoring device for a work machine according to any one of claims 1 to 3.
請求項1から請求項4の何れか1項に記載の作業機械の周辺監視装置。 A display device configured to be able to display the captured image data and / or predetermined data acquired by processing based on the captured image data taken by the photographing device is further provided.
The peripheral monitoring device for a work machine according to any one of claims 1 to 4.
前記周辺監視装置の電源が入れられてから所定時間経過するまでは、前記抽出処理及び前記測距処理により取得され得るデータを前記表示装置に出力せず、前記撮影画像データのみを前記表示装置に出力する処理を実行する、
請求項5に記載の作業機械の周辺監視装置。 The processor
Until a predetermined time elapses after the power of the peripheral monitoring device is turned on, the data that can be acquired by the extraction process and the distance measurement process is not output to the display device, and only the captured image data is displayed on the display device. Execute the output process,
The peripheral monitoring device for a work machine according to claim 5.
前記撮影画像データに含まれる画素値の頻度を示す撮影画像ヒストグラムを生成し、
前記撮影画像ヒストグラムを平滑化した平滑化ヒストグラムに基づいて取得される平滑化画像データと、前記撮影画像データと、を所定の比率で合成することで前記撮影画像データの鮮明化を行う、画像鮮明化処理を更に実行する、
請求項1から請求項6の何れか1項に記載の作業機械の周辺監視装置。 The processor
A captured image histogram showing the frequency of pixel values included in the captured image data is generated.
Image sharpening that sharpens the captured image data by synthesizing the smoothed image data acquired based on the smoothed smoothed histogram of the captured image histogram and the captured image data at a predetermined ratio. Further execute the conversion process,
The peripheral monitoring device for a work machine according to any one of claims 1 to 6.
請求項1から請求項7の何れか1項に記載の作業機械の周辺監視装置。 The processor is mounted on an integrated circuit installed in the working machine.
The peripheral monitoring device for a work machine according to any one of claims 1 to 7.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021055104A JP6940906B1 (en) | 2021-03-29 | 2021-03-29 | Peripheral monitoring device for work machines |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021055104A JP6940906B1 (en) | 2021-03-29 | 2021-03-29 | Peripheral monitoring device for work machines |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6940906B1 true JP6940906B1 (en) | 2021-09-29 |
JP2022152362A JP2022152362A (en) | 2022-10-12 |
Family
ID=77846982
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021055104A Active JP6940906B1 (en) | 2021-03-29 | 2021-03-29 | Peripheral monitoring device for work machines |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6940906B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7437835B1 (en) | 2023-10-17 | 2024-02-26 | 株式会社レグラス | Work machine safety equipment |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012164712A1 (en) * | 2011-06-02 | 2012-12-06 | 日立建機株式会社 | Device for monitoring area around working machine |
WO2016159012A1 (en) * | 2015-03-31 | 2016-10-06 | 株式会社小松製作所 | Work-machine periphery monitoring device |
WO2016158255A1 (en) * | 2015-03-31 | 2016-10-06 | 株式会社小松製作所 | Work-machine periphery monitoring device |
WO2018151280A1 (en) * | 2017-02-17 | 2018-08-23 | 住友重機械工業株式会社 | Work machine surroundings monitoring system |
-
2021
- 2021-03-29 JP JP2021055104A patent/JP6940906B1/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012164712A1 (en) * | 2011-06-02 | 2012-12-06 | 日立建機株式会社 | Device for monitoring area around working machine |
WO2016159012A1 (en) * | 2015-03-31 | 2016-10-06 | 株式会社小松製作所 | Work-machine periphery monitoring device |
WO2016158255A1 (en) * | 2015-03-31 | 2016-10-06 | 株式会社小松製作所 | Work-machine periphery monitoring device |
WO2018151280A1 (en) * | 2017-02-17 | 2018-08-23 | 住友重機械工業株式会社 | Work machine surroundings monitoring system |
Also Published As
Publication number | Publication date |
---|---|
JP2022152362A (en) | 2022-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8373751B2 (en) | Apparatus and method for measuring location and distance of object by using camera | |
JP6062122B2 (en) | Driving support device, driving support method and program | |
JP2009187135A (en) | Vehicle periphery monitoring device, vehicle, program for monitoring vehicle periphery, and vehicle periphery monitoring method | |
JP5809751B2 (en) | Object recognition device | |
US10949946B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2007235485A (en) | Device and method for monitoring image | |
JP6940906B1 (en) | Peripheral monitoring device for work machines | |
JP7104452B1 (en) | Peripheral monitoring device for work machines | |
JP2019052889A (en) | Image processor | |
JP6991045B2 (en) | Image processing device, control method of image processing device | |
JP2007139564A (en) | Obstacle detection system, obstacle detection method and computer program | |
JP2014142832A (en) | Image processing apparatus, control method of image processing apparatus, and program | |
JP2006041939A (en) | Monitor device and monitor program | |
JP2008026999A (en) | Obstacle detection system and obstacle detection method | |
JP6940907B1 (en) | Peripheral monitoring device for work machines | |
JP4765113B2 (en) | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
CN115526897A (en) | Flame positioning method and system for fire-fighting robot of extra-high voltage converter station | |
JP5946125B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
KR20230015429A (en) | Obstacle detection device and obstacle detection method | |
KR101531313B1 (en) | Apparatus and method for object detection of vehicle floor | |
JP2020088688A (en) | Monitoring device, monitoring system, monitoring method, and monitoring program | |
WO2023002776A1 (en) | Image processing device, image processing system, image processing method, and image processing program | |
JP2011131740A (en) | Driving support device of vehicle | |
JP6587253B2 (en) | Image processing apparatus and image processing method | |
WO2023042604A1 (en) | Dimension measurement device, dimension measurement method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210406 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210406 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210707 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210825 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210827 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6940906 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |