JP2018123646A - Periphery monitoring system for work machine - Google Patents

Periphery monitoring system for work machine Download PDF

Info

Publication number
JP2018123646A
JP2018123646A JP2017018962A JP2017018962A JP2018123646A JP 2018123646 A JP2018123646 A JP 2018123646A JP 2017018962 A JP2017018962 A JP 2017018962A JP 2017018962 A JP2017018962 A JP 2017018962A JP 2018123646 A JP2018123646 A JP 2018123646A
Authority
JP
Japan
Prior art keywords
sensitivity
image
detection unit
work machine
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017018962A
Other languages
Japanese (ja)
Other versions
JP6878025B2 (en
Inventor
晋 相澤
Susumu Aizawa
晋 相澤
俊介 大槻
Shunsuke Otsuki
俊介 大槻
芳永 清田
Yoshinaga Kiyota
芳永 清田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Heavy Industries Ltd
Original Assignee
Sumitomo Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Heavy Industries Ltd filed Critical Sumitomo Heavy Industries Ltd
Priority to JP2017018962A priority Critical patent/JP6878025B2/en
Publication of JP2018123646A publication Critical patent/JP2018123646A/en
Application granted granted Critical
Publication of JP6878025B2 publication Critical patent/JP6878025B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Component Parts Of Construction Machinery (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a periphery monitoring system for work machine capable of adjusting object detection performance by object detection means by an operator or the like, as needed.SOLUTION: A periphery monitoring system for work machine includes: an object detection section which detects a predetermined object in the periphery of a work machine; a notification section which notifies a user that an object is detected when the object is detected by the object detection section; and an operation section provided in the periphery of an operation seat of the work machine, where the object detection section changes sensitivity that detects the object according to a predetermined operation to the operation section.SELECTED DRAWING: Figure 4

Description

本発明は、作業機械用周辺監視システムに関する。   The present invention relates to a work machine periphery monitoring system.

作業機械の周辺の所定の物体(例えば、人)を検知する物体検知手段と、物体検知手段により所定の物体が検知されると、その旨を通知する通知手段とを備える作業機械用周辺監視システムが知られている(例えば、特許文献1参照)。   Peripheral monitoring system for a work machine comprising: an object detection unit that detects a predetermined object (for example, a person) around the work machine; and a notification unit that notifies when a predetermined object is detected by the object detection unit Is known (see, for example, Patent Document 1).

特開2014−181508号公報JP 2014-181508 A

しかしながら、作業機械のように周辺環境が多種多様な場合、その物体検知性能が周辺環境に左右され、誤検知や検知漏れ等が生じ、結果として、誤った通知が行われたり、通知漏れが生じたりする可能性がある。   However, when there are a wide variety of surrounding environments, such as work machines, the object detection performance depends on the surrounding environment, resulting in false detections, omissions, etc., resulting in incorrect notifications or omissions. There is a possibility.

そこで、上記課題に鑑み、必要に応じて、オペレータ等が物体検知手段による物体検知性能を調整可能な作業機械用周辺監視システムを提供することを目的とする。   In view of the above problems, an object of the present invention is to provide a work machine periphery monitoring system in which an operator or the like can adjust the object detection performance of the object detection means as necessary.

上記目的を達成するため、本発明の一実施形態では、
作業機械の周辺の所定の物体を検知する物体検知部と、
前記物体検知部により前記物体が検知された場合、前記物体が検知された旨を通知する通知部と、
前記作業機械の操縦席の周辺に設けられる第1操作部と、を備え、
前記物体検知部は、前記第1操作部に対する所定の操作に応じて、前記物体を検知する感度を変更する、
作業機械用周辺監視システムが提供される。
In order to achieve the above object, in one embodiment of the present invention,
An object detection unit for detecting a predetermined object around the work machine;
A notification unit for notifying that the object has been detected when the object is detected by the object detection unit;
A first operating portion provided around a cockpit of the work machine,
The object detection unit changes sensitivity of detecting the object in accordance with a predetermined operation on the first operation unit.
A work machine peripheral monitoring system is provided.

上述の実施形態によれば、必要に応じて、オペレータ等が物体検知手段による物体検知性能を調整可能な作業機械用周辺監視システムを提供することができる。   According to the above-described embodiment, it is possible to provide a work machine periphery monitoring system in which an operator or the like can adjust the object detection performance of the object detection unit as necessary.

本実施形態に係る周辺監視システムが搭載される作業機械の一例を示す図である。It is a figure which shows an example of the working machine with which the periphery monitoring system which concerns on this embodiment is mounted. 本実施形態に係る周辺監視システムの構成の一例を示す図である。It is a figure which shows an example of a structure of the periphery monitoring system which concerns on this embodiment. 表示装置に表示される監視用画像の一例を示す図である。It is a figure which shows an example of the image for monitoring displayed on a display apparatus. 表示装置に表示されるスルー画像及び周辺画像の中の検知対象が含まれる領域(検知対象領域)が強調される表示態様の一例を示す図である。It is a figure which shows an example of the display mode in which the area | region (detection object area | region) in which the detection target in the through image displayed on a display apparatus and a peripheral image is included is emphasized. 周辺監視システム(人検知部)による処理の第1例を概略的に示すフローチャートである。It is a flowchart which shows roughly the 1st example of the process by a periphery monitoring system (person detection part). 検知対象の検知見逃し時及び誤検知時において、表示装置に表示されるスルー画像の一例を示す図である。It is a figure which shows an example of the through image displayed on a display apparatus at the time of the detection miss of a detection target, and the time of an erroneous detection. 検知対象の検知見逃し時及び誤検知時において、表示装置に表示される周辺画像の一例を示す図である。It is a figure which shows an example of the peripheral image displayed on a display apparatus at the time of the detection miss of a detection target, and the time of an erroneous detection. 周辺監視システム(人検知部)による処理の第2例を概略的に示すフローチャートである。It is a flowchart which shows roughly the 2nd example of the process by a periphery monitoring system (person detection part). 周辺監視システム(人検知部)による処理の第3例を概略的に示すフローチャートである。It is a flowchart which shows roughly the 3rd example of the process by a periphery monitoring system (person detection part). 周辺監視システム(人検知部)による処理の第4例を概略的に示すフローチャートである。It is a flowchart which shows roughly the 4th example of the process by a periphery monitoring system (person detection part). 本実施形態に係る周辺監視システムの構成の他の例を示す図である。It is a figure which shows the other example of a structure of the periphery monitoring system which concerns on this embodiment. 図10の処理に応じて、表示装置に表示されるスルー画像の一例を示す図である。It is a figure which shows an example of the through image displayed on a display apparatus according to the process of FIG. 図10の処理に応じて、表示装置に表示されるスルー画像の他の例を示す図である。It is a figure which shows the other example of the through image displayed on a display apparatus according to the process of FIG.

以下、図面を参照して発明を実施するための形態について説明する。   Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings.

まず、図1を参照して、本実施形態に係る周辺監視システム100(図2参照)が搭載される作業機械について説明をする。   First, with reference to FIG. 1, the working machine in which the periphery monitoring system 100 (refer FIG. 2) which concerns on this embodiment is mounted is demonstrated.

図1は、本実施形態に係る周辺監視システム100が搭載される作業機械の一例を示す図であり、具体的には、ショベルの側面図である。   FIG. 1 is a diagram illustrating an example of a work machine on which the periphery monitoring system 100 according to the present embodiment is mounted, and is specifically a side view of an excavator.

尚、本実施形態に係る周辺監視システム100は、ショベル以外の作業機械、例えば、ホイールローダ、アスファルトフィニッシャ等に搭載されてもよい。   Note that the periphery monitoring system 100 according to the present embodiment may be mounted on a work machine other than an excavator, for example, a wheel loader, an asphalt finisher, or the like.

本実施形態に係るショベルは、下部走行体1と、旋回機構2を介して旋回可能に下部走行体1に搭載される上部旋回体3と、作業装置としてのブーム4、アーム5、及びバケット6と、オペレータが搭乗するキャビン10を備える。   The shovel according to the present embodiment includes a lower traveling body 1, an upper revolving body 3 that is mounted on the lower traveling body 1 so as to be able to swivel via a turning mechanism 2, a boom 4, an arm 5, and a bucket 6 as working devices. And a cabin 10 on which the operator is boarded.

下部走行体1は、例えば、左右1対のクローラを含み、それぞれのクローラが走行油圧モータ(不図示)で油圧駆動されることにより、自走する。   The lower traveling body 1 includes, for example, a pair of left and right crawlers, and each crawler is self-propelled by being hydraulically driven by a traveling hydraulic motor (not shown).

上部旋回体3は、旋回油圧モータ、或いは、電動機(共に不図示)等で駆動されることにより、下部走行体1に対して旋回する。   The upper swing body 3 rotates with respect to the lower traveling body 1 by being driven by a swing hydraulic motor, an electric motor (both not shown) or the like.

ブーム4は、上部旋回体3の前部中央に俯仰可能に枢着され、ブーム4の先端には、アーム5が上下回動可能に枢着され、アーム5の先端には、バケット6が上下回動可能に枢着される。ブーム4、アーム5、及びバケット6は、ブームシリンダ7、アームシリンダ8、及びバケットシリンダ9によりそれぞれ油圧駆動される。   The boom 4 is pivotally attached to the center of the front part of the upper swing body 3 so that the boom 4 can be raised and lowered. An arm 5 is pivotally attached to the tip of the boom 4 and a bucket 6 is vertically attached to the tip of the arm 5. It is pivotally attached so that it can rotate. The boom 4, the arm 5, and the bucket 6 are hydraulically driven by a boom cylinder 7, an arm cylinder 8, and a bucket cylinder 9, respectively.

キャビン10は、オペレータが搭乗する操縦室であり、上部旋回体3の前部左側に搭載される。   The cabin 10 is a cockpit where an operator is boarded, and is mounted on the front left side of the upper swing body 3.

また、本実施形態に係るショベルは、周辺監視システム100に関連する構成要素として、コントローラ30、撮像装置40、画面操作部44、表示装置50、音声出力装置52を備える。   The excavator according to the present embodiment includes a controller 30, an imaging device 40, a screen operation unit 44, a display device 50, and an audio output device 52 as components related to the periphery monitoring system 100.

コントローラ30は、ショベルの駆動制御を行う制御装置である。コントローラ30は、キャビン10内に搭載される。   The controller 30 is a control device that performs drive control of the shovel. The controller 30 is mounted in the cabin 10.

撮像装置40は、上部旋回体3の上部に取り付けられ、ショベルの周辺を撮像する。撮像装置40は、後方カメラ40B、左側方カメラ40L、右側方カメラ40Rを含む。   The imaging device 40 is attached to the upper part of the upper swing body 3 and images the periphery of the excavator. The imaging device 40 includes a rear camera 40B, a left side camera 40L, and a right side camera 40R.

後方カメラ40Bは、上部旋回体3の後端上部に取り付けられ、上部旋回体3の後方を撮像する。   The rear camera 40 </ b> B is attached to the upper part of the rear end of the upper swing body 3 and images the rear of the upper swing body 3.

左側方カメラ40Lは、上部旋回体3の左端上部に取り付けられ、上部旋回体3の左側方を撮像する。   The left side camera 40L is attached to the upper left end of the upper swing body 3 and images the left side of the upper swing body 3.

右側方カメラ40Rは、上部旋回体3の右端上部に取り付けられ、上部旋回体3の右側方を撮像する。   The right side camera 40R is attached to the upper right end of the upper swing body 3 and images the right side of the upper swing body 3.

画面操作部44(第1操作部、第2操作部の一例)は、キャビン10内の操縦席の周辺、具体的には、操縦席に着座するオペレータから操作し易い位置に設けられ、オペレータにより表示装置50に表示される画面上における各種操作が行われる。画面操作部44は、表示装置50に表示される画面上の各種操作が可能であれば、任意の構成であってよい。例えば、画面操作部44は、表示装置50としての液晶ディスプレイの表示領域に一体として実装されるタッチパネルであってもよいし、表示装置50とは別体に設けられるタッチパッド、クリックホイール、ジョイスティック等の操作デバイスであってもよい。以下、画面操作部44は、表示装置50と一体に実装されるタッチパネルである前提で説明を行う。   The screen operation unit 44 (an example of the first operation unit and the second operation unit) is provided around the cockpit in the cabin 10, specifically, at a position that can be easily operated by an operator seated in the cockpit. Various operations on the screen displayed on the display device 50 are performed. The screen operation unit 44 may have any configuration as long as various operations on the screen displayed on the display device 50 are possible. For example, the screen operation unit 44 may be a touch panel that is integrally mounted on a display area of a liquid crystal display as the display device 50, or a touch pad, a click wheel, a joystick, etc. provided separately from the display device 50. The operation device may be used. Hereinafter, the screen operation unit 44 will be described on the assumption that it is a touch panel that is integrated with the display device 50.

表示装置50(通知部の一例)は、キャビン10内の操縦席の周辺、具体的には、操縦席に着座するオペレータから視認し易い位置に設けられ、コントローラ30(具体的には、後述する表示制御部302)による制御の下、オペレータに通知する各種画像情報を表示する。表示装置50は、例えば、液晶ディスプレイである。   The display device 50 (an example of a notification unit) is provided in the vicinity of the cockpit in the cabin 10, specifically, at a position that can be easily seen by an operator sitting on the cockpit, and the controller 30 (specifically, will be described later). Various image information to be notified to the operator is displayed under the control of the display control unit 302). The display device 50 is, for example, a liquid crystal display.

音声出力装置52は、キャビン10内の操縦席の周辺に設けられ、コントローラ30による制御の下、オペレータに通知する各種音声情報を出力する。音声出力装置52は、例えば、スピーカやブザー等である。   The audio output device 52 is provided around the cockpit in the cabin 10 and outputs various types of audio information notified to the operator under the control of the controller 30. The audio output device 52 is, for example, a speaker or a buzzer.

次に、図2を参照して、本実施形態に係る周辺監視システム100の具体的な構成について説明をする。   Next, a specific configuration of the periphery monitoring system 100 according to the present embodiment will be described with reference to FIG.

図2は、本実施形態に係る周辺監視システム100の構成の一例を示すブロック図である。   FIG. 2 is a block diagram illustrating an example of the configuration of the periphery monitoring system 100 according to the present embodiment.

周辺監視システム100は、ショベルの周辺の所定範囲内への所定の物体(本実施形態では、人)の侵入を監視し、所定の物体を検知した場合、警報を出力する。周辺監視システム100は、コントローラ30、撮像装置40、表示装置50、音声出力装置52を含む。   The periphery monitoring system 100 monitors the entry of a predetermined object (in this embodiment, a person) into a predetermined range around the excavator, and outputs a warning when a predetermined object is detected. The periphery monitoring system 100 includes a controller 30, an imaging device 40, a display device 50, and an audio output device 52.

コントローラ30は、周辺監視システム100における各種制御処理を行う。コントローラ30は、その機能が任意のハードウェア、ソフトウェア、或いはその組み合わせにより実現されてよく、例えば、CPU,RAM,ROM,I/O等を含むマイクロコンピュータを中心に構成される。コントローラ30は、例えば、ROMに格納される各種プログラムをCPU上で実行することにより実現される機能部として、人検知部301、表示制御部302、警報出力部303を含む。   The controller 30 performs various control processes in the periphery monitoring system 100. The controller 30 may be realized by arbitrary hardware, software, or a combination thereof. The controller 30 is mainly configured by a microcomputer including a CPU, RAM, ROM, I / O, and the like. The controller 30 includes, for example, a human detection unit 301, a display control unit 302, and an alarm output unit 303 as functional units realized by executing various programs stored in the ROM on the CPU.

撮像装置40は、上述の如く、後方カメラ40B、左側方カメラ40L、右側方カメラ40Rを含む。後方カメラ40B、左側方カメラ40L、右側方カメラ40Rは、上部旋回体3の上部において、光軸が斜め下方に向くように取り付けられ、ショベル近傍の地面からショベルの遠方までを含む上下方向の撮像範囲(画角)を有する。後方カメラ40B、左側方カメラ40L、右側方カメラ40Rは、ショベルの運転中、所定周期(例えば、1/30秒)毎に、撮像画像を出力し、コントローラ30に送信する。   As described above, the imaging device 40 includes the rear camera 40B, the left camera 40L, and the right camera 40R. The rear camera 40B, the left side camera 40L, and the right side camera 40R are mounted on the upper part of the upper revolving unit 3 so that the optical axis is obliquely downward, and includes an image in the vertical direction including the ground in the vicinity of the shovel to the far side of the shovel. It has a range (angle of view). The rear camera 40B, the left side camera 40L, and the right side camera 40R output a captured image and transmit it to the controller 30 every predetermined period (for example, 1/30 second) during operation of the excavator.

画面操作部44は、オペレータによる表示装置50の画面の操作状態に関する信号をコントローラ30に送信する。   The screen operation unit 44 transmits a signal related to the operation state of the screen of the display device 50 by the operator to the controller 30.

表示装置50は、撮像装置40の撮像画像(スルー画像)や、コントローラ30(表示制御部302)が撮像装置40の撮像画像に基づき生成する周辺画像(例えば、後述する視点変換画像)等を表示する。また、表示装置50は、後述する表示制御部302の制御の下、後述する人検知部301により検知された人が含まれる撮像装置40の撮像画像或いは該撮像画像に基づき生成される周辺画像を表示することにより、人検知部301により人が検知された旨をオペレータ等に通知することができる。   The display device 50 displays a captured image (through image) of the imaging device 40, a peripheral image (for example, a viewpoint conversion image described later) generated by the controller 30 (display control unit 302) based on the captured image of the imaging device 40, and the like. To do. In addition, the display device 50 displays a captured image of the imaging device 40 including a person detected by a human detection unit 301 described later or a peripheral image generated based on the captured image under the control of the display control unit 302 described later. By displaying, it is possible to notify an operator or the like that a person has been detected by the person detection unit 301.

音声出力装置52は、コントローラ30(警報出力部303)による制御の下、警報音を出力する。   The audio output device 52 outputs an alarm sound under the control of the controller 30 (alarm output unit 303).

人検知部301(物体検知部の一例)は、撮像装置40により撮像された撮像画像に基づき、ショベルの周辺の所定領域内、例えば、ショベルから所定距離D1(例えば、5メートル)以内の人を検知する。人検知部301は、既知の各種画像処理手法や機械学習ベースの識別器等を任意に適用することにより、撮像画像内の人を認識すると共に、認識した人の実在位置(ショベルから認識した人までの距離D等)を特定することができる。例えば、人検知部301は、撮像装置40の撮像画像から識別処理の対象画像を抽出する抽出機能、抽出された対象画像に含まれる候補画像が検知対象の物体(本実施形態の場合、人)に対応する検知対象画像であるかを識別する識別機能、及び識別結果を時系列的に追跡して最終的な検知結果を出力する追跡機能を利用して、検知対象である人を検知してよい。   The human detection unit 301 (an example of an object detection unit) is configured to search for a person within a predetermined area around the excavator, for example, a predetermined distance D1 (for example, 5 meters) from the excavator, based on the captured image captured by the imaging device 40. Detect. The human detection unit 301 recognizes a person in the captured image by arbitrarily applying various known image processing methods, machine learning-based classifiers, and the like, and recognizes the actual position of the recognized person (person recognized from the excavator). Distance D, etc.) can be specified. For example, the human detection unit 301 has an extraction function for extracting a target image for identification processing from a captured image of the imaging device 40, and a candidate image included in the extracted target image is an object to be detected (in the case of the present embodiment, a person). Detecting the person who is the detection target using the identification function that identifies whether the image is a detection target image corresponding to, and the tracking function that tracks the identification result in time series and outputs the final detection result Good.

具体的には、人検知部301は、抽出機能を利用して、局所的な輝度勾配或いはエッジに基づく簡易な特徴、ハフ変換等による幾何学的特徴、輝度に基づいて分割された領域の面積或いはアスペクト比に関する特徴等を抽出する比較的演算量の少ない画像処理によって識別処理の対象画像を抽出してよい。対象画像は、後段の画像処理の対象となる画像部分(撮像画像の一部)であり、検知対象の候補画像を含む。候補画像は、検知対象画像である可能性が高いと判断される画像部分(撮像画像の一部)である。   Specifically, the human detection unit 301 uses the extraction function to provide a simple feature based on a local luminance gradient or edge, a geometric feature based on Hough transform, and the area of a region divided based on the luminance. Alternatively, the target image for identification processing may be extracted by image processing with a relatively small amount of calculation for extracting features and the like regarding the aspect ratio. The target image is an image portion (a part of the captured image) that is a target of subsequent image processing, and includes a detection target candidate image. A candidate image is an image portion (part of a captured image) that is determined to be highly likely to be a detection target image.

また、人検知部301は、識別機能を利用して、HOG(Histograms of Oriented Gradients)特徴量に代表される画像特徴量と機械学習により生成される既知の識別器とを用いた画像認識処理等の比較的演算量の多い画像処理によって、候補画像が検知対象画像であるかを識別する。   Further, the human detection unit 301 uses an identification function to perform image recognition processing using an image feature quantity typified by HOG (Histograms of Oriented Gradients) feature quantity and a known classifier generated by machine learning, etc. Whether the candidate image is the detection target image is identified by the image processing with a relatively large calculation amount.

そして、人検知部301は、追跡機能により、連続する所定回数分の同一検知対象に関する識別結果が所定条件を満たす場合(例えば、連続する6回の識別結果のうちの4回で同一人の人画像であると識別された場合等)に、対応する候補画像が検知対象画像であると判定する(即ち、対応する三次元位置に検知対象の物体としての人を検知する)。   When the identification result regarding the same detection target for a predetermined number of consecutive times satisfies the predetermined condition by the tracking function (for example, the person of the same person in four of the six consecutive identification results) When the image is identified as an image), it is determined that the corresponding candidate image is the detection target image (that is, a person as a detection target object is detected at the corresponding three-dimensional position).

人検知部301は、検知対象(人)を検知する感度が異なる複数(本実施形態では、3つ)の感度別人検知部3011〜3013(感度別物体検知部の一例)を含む。検知対象(人)を検知する感度は、感度別人検知部3011〜3013のうち、感度別人検知部3013が最も高く、感度別人検知部3012がその次に高く、感度別人検知部3011が最も低い。換言すれば、検知対象(人)を見逃す確率は、感度別人検知部3013が最も低く、感度別人検知部3012がその次に低く、感度別人検知部3011が最も高い。一方、検知対象(人)を検知する感度が高くなると、検知対象(人)でない物体を検知対象であると誤検知してしまう可能性も高くなるため、検知対象(人)でない物体を誤検知してしまう確率は、感度別人検知部3011が最も低く、感度別人検知部3012がその次に低く、感度別人検知部3013が最も高い。人検知部301は、検知対象を検知する感度が相互に異なる複数の感度別人検知部3011〜3013のうちの何れか一つにより、検知対象としての人を検知する。   The human detection unit 301 includes a plurality of (three in the present embodiment) sensitivity-specific person detection units 3011 to 3013 (an example of a sensitivity-specific object detection unit) having different sensitivities for detecting a detection target (person). The sensitivity for detecting the detection target (person) is the highest in the sensitivity-specific person detection unit 3013 among the sensitivity-specific person detection units 3011 to 3013, the sensitivity-specific person detection unit 3012 is the next highest, and the sensitivity-specific person detection unit 3011 is the lowest. In other words, the probability that the detection target (person) is missed is the lowest in the sensitivity-specific person detection unit 3013, the sensitivity-specific person detection unit 3012 is the next lowest, and the sensitivity-specific person detection unit 3011 is the highest. On the other hand, if the sensitivity to detect the detection target (person) increases, there is a high possibility that an object that is not the detection target (person) will be erroneously detected as the detection target. The probability of the person-by-sensitivity detection unit 3011 is the lowest, the person-by-sensitivity detection unit 3012 is the next lowest, and the person-by-sensitivity detection unit 3013 is the highest. The human detection unit 301 detects a person as a detection target by any one of a plurality of sensitivity-specific human detection units 3011 to 3013 having different sensitivity for detecting the detection target.

感度別人検知部3011〜3013の検知対象を検知する感度の相互間の相違は、例えば、相互に異なる機械学習の方法によって、上述した識別機能で利用される識別器を生成することにより実現されうる。具体的には、感度別人検知部3011で利用される識別器が機械学習により生成される際、教師画像に含まれる検知対象である物体を検知できなかった場合のペナルティよりも、教師画像に含まれる検知対象でない物体を検知対象であると誤検知した場合のペナルティが大きい値に設定された前提で、全体の教師画像に対するペナルティの合計が最小になるように最適化されてよい。一方、感度別人検知部3013で利用される識別器が機械学習により生成される際、教師画像に含まれる検知対象でない物体を検知対象であると誤検知した場合のペナルティよりも、検知対象である物体を検知できなかった場合のペナルティが大きい値に設定された前提で、全体の教師データに対する合計ペナルティが最小になるように最適化されてよい。そして、感度別人検知部3012で利用される識別器を機械学習させる際、教師画像に含まれる検知対象でない物体を検知対象であると誤検知した場合のペナルティと、検知対象である物体を検知できなかった場合のペナルティとが同じ値に設定される前提で、全体の教師データに対する合計ペナルティが最小になるように最適化されてよい。これにより、検知対象を検知する感度が相互に異なる感度別人検知部3011〜3013が生成される。   The difference between the sensitivities of detecting the detection targets of the sensitivity-specific human detection units 3011 to 3013 can be realized, for example, by generating a discriminator used in the above-described discrimination function by a different machine learning method. . Specifically, when the discriminator used by the sensitivity-specific person detection unit 3011 is generated by machine learning, it is included in the teacher image rather than the penalty when the object to be detected included in the teacher image cannot be detected. On the premise that the penalty when the object that is not the detection target is erroneously detected as the detection target is set to a large value, the total penalty for the entire teacher image may be optimized. On the other hand, when the discriminator used in the sensitivity-specific person detection unit 3013 is generated by machine learning, it is a detection target rather than a penalty when an object that is not a detection target included in the teacher image is erroneously detected as a detection target. On the assumption that the penalty when the object cannot be detected is set to a large value, the total penalty for the entire teacher data may be optimized. When the classifier used by the sensitivity-specific person detection unit 3012 is machine-learned, a penalty when an object that is not a detection target included in the teacher image is erroneously detected as a detection target and an object that is the detection target can be detected. On the premise that the penalty is set to the same value, the total penalty for the entire teacher data may be optimized so as to be minimized. As a result, sensitivity-specific person detection units 3011 to 3013 having different sensitivities for detecting the detection target are generated.

尚、人検知部301は、相互に検知対象を検知する感度が異なる複数の感度別人検知部3011〜3013を有する代わりに、感度に影響するパラメータを連続的、或いは、段階的に変化させることにより、感度を変更させる態様であってもよい。また、人検知部301は、監視対象である所定の物体として人を検知するが、他の所定の物体、例えば、車両等を検知してもよい。   In addition, the human detection unit 301 has a plurality of sensitivity-specific human detection units 3011 to 3013 having different sensitivities for detecting a detection target, but by changing parameters that affect the sensitivity continuously or stepwise. The mode of changing the sensitivity may be used. The human detection unit 301 detects a person as a predetermined object to be monitored, but may detect other predetermined objects, such as a vehicle.

表示制御部302は、オペレータによる各種操作に応じて、表示装置50に各種情報画像を表示させる。例えば、表示制御部302は、オペレータによる所定操作に応じて、撮像装置40(後方カメラ40B、左側方カメラ40L、右側方カメラ40R)の撮像画像(スルー画像)を表示装置50に表示させる。また、例えば、表示制御部302は、オペレータによる所定操作に応じて、撮像装置40の撮像画像に基づき周辺画像を生成し、表示装置50に表示させる。具体的には、表示制御部302は、周辺画像として、後方カメラ40B、左側方カメラ40L、右側方カメラ40Rの撮像画像に基づき、既知の視点変換処理を行うことにより、視点変換画像(仮想視点から見た画像)を生成し、表示装置50に表示させる。また、表示制御部302は、周辺画像を表示装置50に表示させる際、周辺画像に写る撮像装置40の撮像範囲のショベルに対する相対位置関係を明示するため、ショベルを模式的に表すショベル画像を併せて表示装置50に表示させる。即ち、表示制御部302は、ショベル画像と、ショベルと撮像装置40の撮像範囲との相対位置関係に合わせて、ショベル画像の周囲に配置される周辺画像とを含む監視用画像を生成し、表示装置50に表示させる。以下、図3を参照して、表示装置50に表示される監視用画像について説明をする。   The display control unit 302 displays various information images on the display device 50 according to various operations by the operator. For example, the display control unit 302 causes the display device 50 to display a captured image (through image) of the imaging device 40 (rear camera 40B, left camera 40L, right camera 40R) in accordance with a predetermined operation by the operator. Further, for example, the display control unit 302 generates a peripheral image based on the captured image of the imaging device 40 in accordance with a predetermined operation by the operator, and causes the display device 50 to display the peripheral image. Specifically, the display control unit 302 performs a known viewpoint conversion process based on the captured images of the rear camera 40B, the left camera 40L, and the right camera 40R as the peripheral images, thereby generating a viewpoint converted image (virtual viewpoint). The image viewed from the above is generated and displayed on the display device 50. Further, when displaying the peripheral image on the display device 50, the display control unit 302 also shows the shovel image schematically representing the shovel in order to clearly indicate the relative positional relationship with respect to the shovel of the imaging range of the imaging device 40 that appears in the peripheral image. Display on the display device 50. That is, the display control unit 302 generates and displays a monitoring image including a shovel image and a peripheral image arranged around the shovel image in accordance with the relative positional relationship between the shovel and the imaging range of the imaging device 40. It is displayed on the device 50. Hereinafter, the monitoring image displayed on the display device 50 will be described with reference to FIG.

図3は、表示装置50に表示される監視用画像の一例を示す図である。図3に示すように、表示装置50における横長の長方形の画面(例えば、アスペクト比4:3の画面)には、上述の如く、ショベル画像CGと、ショベル画像CGの周囲に配置される周辺画像EPとを含む監視用画像が表示されている。これにより、オペレータは、周辺画像EPに写っている人を含む物体と、ショベルとの位置関係を適切に把握することができる。   FIG. 3 is a diagram illustrating an example of a monitoring image displayed on the display device 50. As shown in FIG. 3, on the horizontally long rectangular screen (for example, a screen having an aspect ratio of 4: 3) in the display device 50, as described above, the excavator image CG and the peripheral image arranged around the excavator image CG are provided. A monitoring image including the EP is displayed. Accordingly, the operator can appropriately grasp the positional relationship between the object including the person shown in the peripheral image EP and the excavator.

本例における周辺画像EPは、ショベル周辺を真上から見た路面画像と、その路面画像の周りに配置される、ショベル周辺を水平方向に見た水平画像とを組み合わせた視点変換画像である。周辺画像(視点変換画像)は、後方カメラ40B、左側方カメラ40L、及び右側方カメラ40Rのそれぞれの撮像画像を空間モデルに投影した上で、その空間モデルに投影された投影画像を別の二次元平面に再投影することによって得られる。空間モデルは、仮想空間における撮像画像の投影対象であり、撮像画像が位置する平面以外の平面若しくは曲面を含む一又は複数の平面若しくは曲面で構成される。以下、本実施形態における周辺画像は、上記路面画像と上記水平画像とを組み合わせた視点変換画像である前提で説明を続ける。   The peripheral image EP in this example is a viewpoint conversion image that is a combination of a road surface image of the excavator periphery viewed from directly above and a horizontal image that is disposed around the road surface image and viewed in the horizontal direction of the excavator periphery. Peripheral images (viewpoint conversion images) are obtained by projecting captured images of the rear camera 40B, the left camera 40L, and the right camera 40R onto a spatial model, and then projecting the projection image projected onto the spatial model into another two images. It is obtained by reprojecting on a dimensional plane. The space model is a projection target of the captured image in the virtual space, and is configured by one or a plurality of planes or curved surfaces including a plane or curved surface other than the plane on which the captured image is located. Hereinafter, the description will be continued on the assumption that the peripheral image in the present embodiment is a viewpoint conversion image obtained by combining the road surface image and the horizontal image.

また、監視用画像には、ガイドラインLN1が重畳表示される。ガイドラインLN1は、ショベルからの距離が所定距離D2(<D1)の位置を表す。これにより、周辺画像に人を含む物体が写っている場合、オペレータは、ショベルからどの程度離れた位置にいるかを把握することができる。   Further, the guideline LN1 is superimposed and displayed on the monitoring image. The guideline LN1 represents a position where the distance from the shovel is a predetermined distance D2 (<D1). Thereby, when the object containing a person is reflected in the surrounding image, the operator can grasp how far the excavator is located.

図2に戻り、また、表示制御部302は、人検知部301により検知対象である人が検知された場合、表示装置50に表示されるスルー画像或いは周辺画像の中の当該検知対象(人)が含まれる領域(検知対象領域)を強調させる。以下、図4を参照して、スルー画像及び周辺画像の中の検知対象領域が強調される表示態様について説明をする。   Returning to FIG. 2, the display control unit 302 detects the detection target (person) in the through image or the peripheral image displayed on the display device 50 when the human detection unit 301 detects the detection target person. The region (detection target region) including is emphasized. Hereinafter, with reference to FIG. 4, a display mode in which the detection target region in the through image and the peripheral image is emphasized will be described.

尚、表示制御部302の上述した機能は、表示装置50に内蔵されてもよい。この場合、撮像装置40(後方カメラ40B、左側方カメラ40L、右側方カメラ40R)の撮像画像、及び人検知部301の検知結果等の情報は、それぞれ、撮像装置40及びコントローラ30から表示装置50に入力される。   Note that the above-described functions of the display control unit 302 may be built in the display device 50. In this case, information such as a captured image of the imaging device 40 (rear camera 40B, left side camera 40L, right side camera 40R) and a detection result of the human detection unit 301 is displayed from the imaging device 40 and the controller 30 to the display device 50, respectively. Is input.

図4は、表示装置50に表示されるスルー画像及び周辺画像の中の検知対象領域が強調される表示態様の一例を示す図である。具体的には、図4(a)は、スルー画像の中の検知対象領域が強調される表示態様の一例であり、図4(b)は、監視用画像に含まれる周辺画像の中の検知対象領域が強調される表示態様の一例である。本例では、図4(a),(b)に示すように、スルー画像TP及び周辺画像EPの中の検知対象(人)が含まれる検知対象領域は、太線枠FRで囲まれることにより、強調されている。これにより、オペレータ等は、人検知部301により検知された人がショベルの周辺のどこに存在するのかを容易に把握することができる。   FIG. 4 is a diagram illustrating an example of a display mode in which a detection target region in the through image and the peripheral image displayed on the display device 50 is emphasized. Specifically, FIG. 4A is an example of a display mode in which a detection target region in the through image is emphasized, and FIG. 4B is a detection in a peripheral image included in the monitoring image. It is an example of the display mode in which the target region is emphasized. In this example, as shown in FIGS. 4A and 4B, the detection target region including the detection target (person) in the through image TP and the peripheral image EP is surrounded by a thick frame FR. It is emphasized. Thereby, the operator or the like can easily grasp where the person detected by the person detection unit 301 exists around the excavator.

尚、表示制御部302は、スルー画像及び周辺画像の中の検知対象領域を強調させる表示態様として、検知対象領域を太線枠で囲む以外の任意の方法を用いてよく、例えば、検知対象領域の輝度を他の領域より高くしたり、検知対象領域の色を他の領域と異ならせたりしてもよい。   The display control unit 302 may use any method other than surrounding the detection target region with a thick line frame as a display mode for emphasizing the detection target region in the through image and the peripheral image. The luminance may be made higher than that in other areas, or the color of the detection target area may be different from that in other areas.

図2に戻り、警報出力部303は、人検知部301によりショベルから所定距離D1以内で人を検知した場合、オペレータ等への警報を行う。例えば、警報出力部303は、音による警報を出力する。具体的には、警報出力部303は、音声出力装置52を通じて警告音を出力させる。また、例えば、警報出力部303は、ショベル周辺の所定範囲内(ショベルから所定距離D1以内)で距離が近いほど、危険度を表す警報レベルが高い警報を行ってもよい。具体的には、警報出力部303は、人検知部301により検知された人のショベルからの距離Dが、所定距離D1より小さい所定距離D2(例えば、2.5メートル)以下であるか否かにより警報レベル(警報の仕様)を変更してもよい。より具体的には、警報出力部303は、検知された人のショベルからの距離Dが所定距離D1以下且つ所定距離D2より大きい場合、比較的危険度が低い注意状態(警報レベル1)であるとして、予備的な警報(例えば、比較的小音量の警告音をスピーカに出力させる)を出力する。また、警報出力部303は、検知された人のショベルからの距離が所定距離D2以下である場合、比較的危険度が高い警戒状態(警報レベル2)であるとして、正式な警報(例えば、比較的大音量の警告音をスピーカ等に出力させる)を出力する。   Returning to FIG. 2, when the person detection unit 301 detects a person within a predetermined distance D <b> 1 from the shovel, the alarm output unit 303 issues an alarm to an operator or the like. For example, the alarm output unit 303 outputs an alarm by sound. Specifically, the warning output unit 303 outputs a warning sound through the voice output device 52. Further, for example, the alarm output unit 303 may perform an alarm with a higher alarm level indicating a danger level as the distance is shorter within a predetermined range around the excavator (within a predetermined distance D1 from the excavator). Specifically, the alarm output unit 303 determines whether or not the distance D from the person's excavator detected by the human detection unit 301 is equal to or smaller than a predetermined distance D2 (for example, 2.5 meters) smaller than the predetermined distance D1. May change the alarm level (alarm specifications). More specifically, the alarm output unit 303 is in a caution state (alarm level 1) with a relatively low risk level when the detected distance D from the excavator of the person is less than the predetermined distance D1 and greater than the predetermined distance D2. A preliminary alarm (for example, a warning sound with a relatively low volume is output to the speaker) is output. In addition, when the detected distance from the excavator of the person is equal to or less than the predetermined distance D2, the alarm output unit 303 determines that the alarm state (alarm level 2) is a relatively high risk level, for example, a formal alarm (for example, comparison) Output a loud warning sound to a speaker or the like.

尚、警報出力部303は、表示制御部302に表示要求を送ることにより、表示装置50にショベル周辺に人が存在する旨の警報表示を行ってもよい。   The alarm output unit 303 may display an alarm indicating that there is a person around the shovel on the display device 50 by sending a display request to the display control unit 302.

次に、図5〜図13を参照して、本実施形態に係る周辺監視システム100(人検知部301)による特徴的な処理について説明をする。   Next, characteristic processing by the periphery monitoring system 100 (human detection unit 301) according to the present embodiment will be described with reference to FIGS.

まず、図5は、周辺監視システム100(人検知部301)による処理の第1例を概略的に示すフローチャートである。本フローチャートによる処理は、例えば、ショベルの運転中、表示装置50にスルー画像或いは監視用画像が表示されている状態で、繰り返し実行されてよい。   First, FIG. 5 is a flowchart schematically showing a first example of processing by the periphery monitoring system 100 (human detection unit 301). The processing according to this flowchart may be repeatedly executed in a state where a through image or a monitoring image is displayed on the display device 50 during operation of the excavator, for example.

尚、人検知部301は、初期状態として、感度別人検知部3011〜3013のうちの予め規定される何れか一つにより検知対象である人を検知するように設定されている。以下、人検知部301は、初期状態として、感度別人検知部3012により人を検知する前提で説明を行う。後述する図8、図9においても同様である。   In addition, the person detection part 301 is set so that the person who is a detection target may be detected by any one of the sensitivity-specific person detection parts 3011 to 3013 as an initial state. Hereinafter, the human detection unit 301 will be described on the premise that the person is detected by the sensitivity-specific human detection unit 3012 as an initial state. The same applies to FIGS. 8 and 9 described later.

ステップS102にて、人検知部301は、画面操作部44に対して、検知対象を検知する感度を変更する(即ち、上げる或いは下げる)操作(感度変更操作)が行われたか否かを判定する。感度変更操作は、本実施形態の場合、感度別人検知部3011〜3013の中で、人検知部301により人の検知に利用される感度別人検知部を変更する操作であり、例えば、後述の如く、スルー画像或いは監視用画像に重畳して表示される、感度別人検知部3011〜3013の各々に対応するアイコンがタッチパネル上でタッチされることにより実現される操作であってよい。人検知部301は、画面操作部44に対して、感度変更操作が行われた場合、ステップS104に進み、感度変更操作が行われていない場合、ステップS110に進む。   In step S102, the human detection unit 301 determines whether or not an operation (sensitivity change operation) for changing (that is, increasing or decreasing) the sensitivity for detecting the detection target has been performed on the screen operation unit 44. . In the case of this embodiment, the sensitivity change operation is an operation of changing the sensitivity-specific person detection unit used for human detection by the human detection unit 301 in the sensitivity-specific person detection units 3011 to 3013. The operation may be realized by touching on the touch panel an icon corresponding to each of the sensitivity-specific person detection units 3011 to 3013 displayed superimposed on the through image or the monitoring image. When the sensitivity change operation is performed on the screen operation unit 44, the human detection unit 301 proceeds to step S104, and when the sensitivity change operation is not performed, the human detection unit 301 proceeds to step S110.

ステップS104にて、人検知部301は、感度変更操作の前に、画面操作部44に対して、スルー画像或いは周辺画像の全体の中で検知対象を検知する感度を変更する領域を選択する操作(領域選択操作)が行われているか否かを判定する。領域選択操作は、例えば、予めスルー画像及び周辺画像の全体が複数の小領域に区分されている前提で、タッチパネル上で所望の位置がタッチされることにより、複数の小領域のうちのタッチされた位置が含まれる小領域が選択される態様であってもよいし、タッチパネル上の所望の領域をなぞるように囲む動作が行われることにより、任意の領域が選択される態様であってもよい。人検知部301は、画面操作部44に対して、領域選択操作が行われていない場合、ステップS106に進み、領域選択操作が行われた場合、ステップS108に進む。   In step S104, the human detection unit 301 selects an area for changing the sensitivity for detecting the detection target in the through image or the entire peripheral image with respect to the screen operation unit 44 before the sensitivity change operation. It is determined whether (area selection operation) is performed. For example, the region selection operation is performed by touching a desired position on the touch panel on the premise that the through image and the entire peripheral image are previously divided into a plurality of small regions. A mode in which a small region including the position is selected may be selected, or a mode in which an arbitrary region is selected by performing an operation of tracing a desired region on the touch panel may be performed. . When the region selection operation is not performed on the screen operation unit 44, the human detection unit 301 proceeds to step S106. When the region selection operation is performed, the human detection unit 301 proceeds to step S108.

ステップS106にて、人検知部301は、感度変更操作の内容に応じて、スルー画像或いは周辺画像の全体に対応するショベルの周辺領域における検知対象を検知する感度を変更し、今回の処理を終了する。即ち、人検知部301は、スルー画像或いは周辺画像の全体に対応するショベルの周辺領域における検知対象の検知に利用する感度別人検知部を変更し、今回の処理を終了する。   In step S106, the human detection unit 301 changes the sensitivity for detecting the detection target in the peripheral region of the shovel corresponding to the through image or the entire peripheral image in accordance with the content of the sensitivity change operation, and ends the current process. To do. That is, the human detection unit 301 changes the sensitivity-specific human detection unit used for detection of the detection target in the peripheral region of the shovel corresponding to the entire through image or the peripheral image, and ends the current process.

一方、ステップS108にて、人検知部301は、感度変更操作の内容に応じて、スルー画像或いは周辺画像の一部領域(領域選択操作により選択された領域)に対応するショベルの周辺領域における検知対象を検知する感度を変更し、今回の処理を終了する。即ち、人検知部301は、スルー画像或いは周辺画像の一部領域に対応するショベルの周辺領域における検知対象の検知に利用する感度別人検知部を変更し、今回の処理を終了する。   On the other hand, in step S108, the human detection unit 301 detects in the peripheral region of the shovel corresponding to the partial region of the through image or the peripheral image (region selected by the region selection operation) according to the content of the sensitivity change operation. The sensitivity for detecting the target is changed, and the current process ends. That is, the human detection unit 301 changes the sensitivity-specific human detection unit used for detection of the detection target in the peripheral region of the shovel corresponding to the through image or a partial region of the peripheral image, and ends the current process.

尚、下部走行体1による走行によるショベルの移動や、上部旋回体3の旋回に応じて、撮像装置40により撮像される範囲が変化するため、例えば、人検知部301は、ショベルの起動時に対する移動量及び旋回量を算出し、バッファリングしておくことにより、スルー画像或いは周辺画像の全体或いは領域選択操作により選択された一部領域の絶対位置を判断することができる。   In addition, since the range imaged by the imaging device 40 changes according to the movement of the excavator due to traveling by the lower traveling body 1 or the turning of the upper revolving body 3, for example, the human detection unit 301 may By calculating the movement amount and the turning amount and buffering, it is possible to determine the absolute position of the through image or the entire peripheral image or the partial region selected by the region selection operation.

他方、ステップS110にて、人検知部301は、検知対象を検知する感度を初期状態に戻す操作(リセット操作)が行われたか否かを判定する。リセット操作は、例えば、スルー画像或いは監視用画像に重畳して表示される所定のアイコンをタッチする操作であってもよいし、画面操作部44に対する所定の動作(例えば、タッチパネルをダブルタップする動作)により一義的に実現される操作であってもよい。人検知部301は、画面操作部44に対して、リセット操作が行われた場合、ステップS112に進み、リセット操作が行われていない場合、今回の処理を終了する。   On the other hand, in step S110, the human detection unit 301 determines whether or not an operation (reset operation) for returning the sensitivity for detecting the detection target to the initial state has been performed. The reset operation may be, for example, an operation of touching a predetermined icon displayed superimposed on the through image or the monitoring image, or a predetermined operation on the screen operation unit 44 (for example, an operation of double-tapping the touch panel) The operation that is uniquely realized by () may be used. When the reset operation is performed on the screen operation unit 44, the human detection unit 301 proceeds to step S112. When the reset operation is not performed, the human detection unit 301 ends the current process.

ステップS112にて、人検知部301は、検知対象を検知する感度を初期状態に戻す、即ち、感度別人検知部3011〜3013のうちの感度別人検知部3012を利用して、検知対象(人)を検知する状態に戻して、今回の処理を終了する。   In step S112, the human detection unit 301 returns the sensitivity for detecting the detection target to the initial state, that is, the detection target (person) using the sensitivity-specific human detection unit 3012 among the sensitivity-specific human detection units 3011 to 3013. Is returned to the state of detecting, and the current process is terminated.

このように、本実施例では、ショベルの周辺の所定領域(画面操作部44に対する感度変更操作に応じて、人検知部301による検知対象を検知する感度が変更される。これにより、オペレータ等は、必要に応じて、人検知部301の検知性能を調整することが可能となり、結果として、人検知部301による検知対象(人)の誤検知や検知漏れやによる警報出力部303の誤警報の出力や警報漏れの発生を抑制できる。   As described above, in this embodiment, the sensitivity for detecting the detection target by the human detection unit 301 is changed according to a predetermined area around the excavator (in accordance with the sensitivity change operation for the screen operation unit 44. As a result, the operator or the like If necessary, the detection performance of the human detection unit 301 can be adjusted. As a result, the false alarm of the alarm output unit 303 due to the false detection of the detection target (person) by the human detection unit 301 or the detection omission is detected. Output and alarm leakage can be suppressed.

例えば、図6は、検知対象の検知見逃し時(図6(a))及び誤検知時(図6(b))において、表示装置50に表示されるスルー画像TPの一例を示す図である。図7は、検知対象の検知見逃し時及び誤検知時において、表示装置50に表示される監視用画像の一例を示す図である。本例では、スルー画像TP及び監視用画像の下端部に、感度別人検知部3011〜3013の各々を選択するためのアイコンBT1〜BT3が設けられており、人検知部301により現在利用されている感度別人検知部3012が太枠で強調されている。   For example, FIG. 6 is a diagram illustrating an example of the through image TP displayed on the display device 50 when the detection target of the detection target is missed (FIG. 6A) and erroneous detection (FIG. 6B). FIG. 7 is a diagram illustrating an example of a monitoring image displayed on the display device 50 when a detection target is missed or erroneously detected. In this example, icons BT1 to BT3 for selecting each of the sensitivity detection person detection units 3011 to 3013 are provided at the lower ends of the through image TP and the monitoring image, and are currently used by the person detection unit 301. The sensitivity-specific person detection unit 3012 is highlighted with a thick frame.

図6(a)に示す一例では、スルー画像に人が写っているにも関われず、スルー画像の人を含む領域AR1が太線枠FRで囲まれる等により強調されていないため、人検知部301は、当該人を検知できていないことが分かる。これに対して、オペレータ等は、タッチパネル上で、現在設定されている感度別人検知部3012よりも検知対象を検知する感度が高い感度別人検知部3011に対応するBT1をタッチする感度変更操作を行うとよい。また、この際、オペレータ等は、領域選択操作により、検知対象を検知する感度を変更する領域として、領域AR1を選択してもよい。これにより、スルー画像の全体或いは人が存在する領域AR1に対応するショベルの周辺領域における人検知部301の検知対象を検知する感度が上がるため、検知漏れを抑制することができる。   In the example shown in FIG. 6A, the person detection unit 301 is not emphasized because the area AR1 including the person in the through image is not surrounded by a thick line frame FR even though a person is shown in the through image. Shows that the person is not detected. On the other hand, the operator or the like performs a sensitivity changing operation on the touch panel by touching the BT1 corresponding to the sensitivity-specific person detection unit 3011 having a higher sensitivity for detecting the detection target than the currently set sensitivity-specific person detection unit 3012. Good. At this time, the operator or the like may select the area AR1 as an area for changing the sensitivity for detecting the detection target by an area selection operation. Thereby, since the sensitivity which detects the detection target of the person detection part 301 in the peripheral area | region of the shovel corresponding to the area | region AR1 in which the whole through-image or a person exists exists, a detection omission can be suppressed.

また、図6(b)に示す一例では、スルー画像に検知対象(人)が写っていないにも関わらず、スルー画像に含まれる検知対象以外の物体(茂みの植物)が太線枠FRで囲まれているため、人検知部301は、検知対象以外の物体を誤検知していることが分かる。これに対して、オペレータ等は、タッチパネル上で、現在設定されている感度別人検知部3012よりも検知対象を検知する感度が低い感度別人検知部3013に対応するBT3をタッチする感度変更操作を行うとよい。また、この際、オペレータ等は、領域選択操作により、検知対象を検知する感度を変更する領域として、太線枠FRで囲まれる領域AR2を選択してもよい。これにより、スルー画像の全体或いは誤検知された物体が存在する領域AR2に対応するショベルの周辺領域における人検知部301の検知対象を検知する感度が下がるため、誤検知を抑制することができる。   In the example shown in FIG. 6B, the object (the bush plant) other than the detection target included in the through image is surrounded by the thick frame FR although the detection target (person) is not shown in the through image. Therefore, it can be seen that the human detection unit 301 erroneously detects an object other than the detection target. On the other hand, an operator or the like performs a sensitivity change operation on the touch panel by touching the BT 3 corresponding to the sensitivity-specific person detection unit 3013 having a lower sensitivity than the currently set sensitivity-specific person detection unit 3012. Good. At this time, the operator or the like may select the area AR2 surrounded by the thick frame FR as the area for changing the sensitivity for detecting the detection target by the area selection operation. Thereby, since the sensitivity which detects the detection target of the human detection part 301 in the peripheral area | region of the shovel corresponding to the area | region AR2 in which the whole through-image or the misdetected object exists exists, a false detection can be suppressed.

また、図7に示す一例では、周辺画像EPに写っている人を含む領域AR3が太線枠FRで囲まれる等により強調されていないため、人検知部301は、当該人を検知できていないことが分かる。また、周辺画像EPに写っている検知対象以外の物体(茂みの植物)が太線枠FRで囲まれているため、人検知部301は、検知対象以外の物体を誤検知していることが分かる。これに対して、オペレータ等は、領域選択操作により、周辺画像EPの人が含まれる領域AR3を選択した上で、タッチパネル上で、現在設定されている感度別人検知部3012よりも検知対象を検知する感度が高い感度別人検知部3011に対応するBT1をタッチする感度変更操作を行うとよい。これにより、周辺画像の人が存在する領域AR3に対応するショベルの周辺領域における人検知部301の検知対象を検知する感度が上がるため、検知漏れを抑制することができる。併せて、オペレータ等は、領域選択操作により、周辺画像EPの検知対象以外の物体が含まれる領域AR4(太線枠FRで囲まれる領域)を選択した上で、タッチパネル上で、現在設定されている感度別人検知部3012よりも検知対象を検知する感度が低い感度別人検知部3013に対応するBT3をタッチする感度変更操作を行うとよい。これにより、スルー画像の全体或いは誤検知された物体が存在する領域AR2に対応するショベルの周辺領域における人検知部301の検知対象を検知する感度が下がるため、誤検知を抑制することができる。   Further, in the example shown in FIG. 7, the area AR3 including the person shown in the peripheral image EP is not emphasized by being surrounded by the thick line frame FR, and therefore the person detection unit 301 cannot detect the person. I understand. In addition, since an object (bush plant) other than the detection target shown in the peripheral image EP is surrounded by a thick line frame FR, it can be seen that the human detection unit 301 erroneously detects an object other than the detection target. . On the other hand, the operator or the like selects the area AR3 including the person in the peripheral image EP by the area selection operation, and detects the detection target on the touch panel from the currently set sensitivity detection unit 3012. It is preferable to perform a sensitivity changing operation of touching BT1 corresponding to the sensitivity-specific person detection unit 3011 having high sensitivity. Thereby, since the sensitivity which detects the detection target of the person detection part 301 in the peripheral area | region of the shovel corresponding to area | region AR3 in which the person of a peripheral image exists exists, a detection omission can be suppressed. At the same time, the operator or the like selects the area AR4 (area surrounded by the thick frame FR) including the object other than the detection target of the peripheral image EP by the area selection operation, and is currently set on the touch panel. A sensitivity change operation may be performed by touching the BT 3 corresponding to the sensitivity-specific person detection unit 3013 having a lower sensitivity for detecting the detection target than the sensitivity-specific person detection unit 3012. Thereby, since the sensitivity which detects the detection target of the human detection part 301 in the peripheral area | region of the shovel corresponding to the area | region AR2 in which the whole through-image or the misdetected object exists exists, a false detection can be suppressed.

尚、本実施例(図5)において、人検知部301により人が検知された旨をオペレータ等に通知可能な表示装置50に代えて、他の通知手段(例えば、インジケータランプや人が検知された旨を通知する音声を出力する音声出力装置52)等が設けられてもよい。この場合、画面操作部44に代えて、他の操作部(例えば、押しボタンスイッチ等)が設けられ、人検知部301は、当該他の操作部に対する操作内容(感度を上げる操作或いは下げる操作)に応じて、検知対象である人を検知する感度を変更する。これにより、例えば、オペレータ等は、ショベルの周辺領域に人が侵入しているにも関わらず、他の通知手段による通知がされない場合、当該他の操作部を操作し、人検知部301による人を検知する感度を上げることにより、ショベルの周辺の人の検知漏れ等を抑制することができる。また、例えば、オペレータ等は、ショベルの周辺に人が侵入していないにも関わらず、他の通知手段による人が検知された旨の通知が行われている場合、当該他の操作部を操作し、人を検知する感度を下げることにより、ショベルの周辺の人の誤検知等を抑制することができる。   In this embodiment (FIG. 5), instead of the display device 50 capable of notifying an operator or the like that a person has been detected by the person detection unit 301, other notification means (for example, an indicator lamp or a person is detected). A voice output device 52) that outputs a voice to notify the user may be provided. In this case, instead of the screen operation unit 44, another operation unit (for example, a push button switch or the like) is provided, and the human detection unit 301 performs an operation content for the other operation unit (operation to increase or decrease sensitivity). Accordingly, the sensitivity for detecting the person who is the detection target is changed. Thus, for example, when a person has entered the peripheral area of the excavator and no notification is made by another notification means, the operator or the like operates the other operation unit, and the person by the human detection unit 301 By increasing the sensitivity for detecting the detection error, it is possible to suppress the detection omission of people around the excavator. In addition, for example, an operator or the like operates the other operation unit when a notification that a person has been detected by another notification means has been made even though no person has entered the vicinity of the excavator. In addition, by reducing the sensitivity for detecting a person, it is possible to suppress false detection of a person around the excavator.

続いて、図8は、周辺監視システム100(人検知部301)による処理の第2例を概略的に示すフローチャートである。本フローチャートによる処理は、図5の場合と同様、例えば、ショベルの運転中、表示装置50にスルー画像或いは監視用画像が表示されている状態で、繰り返し実行されてよい。   Next, FIG. 8 is a flowchart schematically showing a second example of processing by the periphery monitoring system 100 (human detection unit 301). As in the case of FIG. 5, for example, during the operation of the excavator, the processing according to this flowchart may be repeatedly performed in a state where a through image or a monitoring image is displayed on the display device 50.

ステップS202にて、人検知部301は、検知対象(人)を検知しているか否か、即ち、表示装置50のスルー画像或いは周辺画像上において、太線枠等により強調されている領域(強調領域)があるか否かを判定する。人検知部301は、検知対象(人)を検知している状態である場合、ステップS204に進み、それ以外の場合、ステップS208に進む。   In step S202, the human detection unit 301 determines whether or not a detection target (person) is detected, that is, a region (emphasized region) emphasized by a thick line frame or the like on the through image or the peripheral image of the display device 50. ) Is determined. The human detection unit 301 proceeds to step S204 if the detection target (person) is being detected, and proceeds to step S208 otherwise.

ステップS204にて、人検知部301は、画面操作部44に対して、スルー画像或いは周辺画像の強調領域を選択する操作(強調領域選択操作)が行われたか否かを判定する。強調領域選択操作は、例えば、タッチパネル上で、強調領域がタッチされる操作であってもよいし、タッチパネル上で強調領域をなぞるように囲む動作が行われることにより実現される操作であってもよい。人検知部301は、画面操作部44に対して、強調領域選択操作が行われた場合、ステップS206に進み、強調領域選択操作が行われていない場合、ステップS208に進む。   In step S <b> 204, the human detection unit 301 determines whether or not an operation (enhancement region selection operation) for selecting an enhancement region of a through image or a peripheral image has been performed on the screen operation unit 44. The highlight region selection operation may be, for example, an operation in which the highlight region is touched on the touch panel, or an operation realized by performing an operation of enclosing the highlight region on the touch panel. Good. The human detection unit 301 proceeds to step S206 when the highlight region selection operation is performed on the screen operation unit 44, and proceeds to step S208 when the highlight region selection operation is not performed.

ステップS206にて、人検知部301は、強調領域選択操作により選択された、スルー画像或いは周辺画像の強調領域に対応するショベルの周辺領域における検知対象を検知する感度を下げて、今回の処理を終了する。即ち、人検知部301は、スルー画像或いは周辺画像の強調領域に対応するショベルの周辺領域における検知対象の検知に利用する感度別人検知部を、現在設定されているものよりも感度が低いものに変更し、今回の処理を終了する。   In step S206, the human detection unit 301 lowers the sensitivity of detecting the detection target in the peripheral region of the shovel corresponding to the through region or the enhancement region of the peripheral image selected by the enhancement region selection operation, and performs this processing. finish. That is, the human detection unit 301 uses a sensitivity-specific human detection unit used for detection of a detection target in the peripheral region of the excavator corresponding to the through image or the enhancement region of the peripheral image, and has a lower sensitivity than that currently set. Change this and end the current process.

尚、本ステップにて、人検知部301は、スルー画像或いは周辺画像の全体に対応するショベルの周辺領域における検知対象を検知する感度を下げてもよい。   In this step, the human detection unit 301 may reduce the sensitivity for detecting the detection target in the peripheral region of the shovel corresponding to the through image or the entire peripheral image.

一方、ステップS208にて、人検知部301は、検知対象を検知する感度を初期状態に戻す操作(リセット操作)が行われたか否かを判定する。人検知部301は、画面操作部44に対して、リセット操作が行われた場合、ステップS210に進み、リセット操作が行われていない場合、今回の処理を終了する。   On the other hand, in step S208, the human detection unit 301 determines whether or not an operation (reset operation) for returning the sensitivity for detecting the detection target to the initial state has been performed. When the reset operation is performed on the screen operation unit 44, the human detection unit 301 proceeds to step S210. When the reset operation is not performed, the human detection unit 301 ends the current process.

ステップS210にて、人検知部301は、検知対象を検知する感度を初期状態に戻す、即ち、感度別人検知部3011〜3013のうちの感度別人検知部3012を利用して、検知対象(人)を検知する状態に戻して、今回の処理を終了する。   In step S210, the human detection unit 301 returns the sensitivity for detecting the detection target to the initial state, that is, the detection target (person) using the sensitivity-specific human detection unit 3012 among the sensitivity-specific human detection units 3011 to 3013. Is returned to the state of detecting, and the current process is terminated.

このように、本実施例では、画面操作部44に対する強調領域選択操作により、スルー画像或いは周辺画像の強調領域が選択されると、自動的に、人検知部301による検知対象を検知する感度が下がる。例えば、上述した図6(b)、図7に示す一例では、オペレータ等は、スルー画像、周辺画像に含まれる誤検知の対象である物体(茂みの植物)が含まれる領域AR2、AR4を選択する強調領域選択操作を行うことにより、自動的に、人検知部301による検知対象を検知する感度が下がる(具体的には、人検知部301により利用される感度別人検知部が、感度別人検知部3012から感度別人検知部3013に変更される)。これにより、オペレータ等は、検知対象以外の物体が検知される誤検知が発生している場合に、誤検知の対象である物体が含まれるスルー画像或いは周辺画像の強調領域を選択するだけで、当該強調領域における人検知部301による検知対象を検知する感度を下げることができる。そのため、より簡便な操作によって、人検知部301による検知対象(人)の誤検知による警報出力部303の誤警報の出力を抑制できる。   As described above, in this embodiment, when a through region or an emphasis region of a peripheral image is selected by an emphasis region selection operation on the screen operation unit 44, the sensitivity of automatically detecting a detection target by the human detection unit 301 is increased. Go down. For example, in the example shown in FIG. 6B and FIG. 7 described above, the operator or the like selects the areas AR2 and AR4 including the object (the bush plant) that is the object of false detection included in the through image and the surrounding image. The sensitivity for detecting the detection target by the human detection unit 301 is automatically reduced by performing the highlight region selection operation to be performed (specifically, the sensitivity-specific human detection unit used by the human detection unit 301 detects the sensitivity-specific human detection). The unit 3012 is changed to a sensitivity-specific person detection unit 3013). Thereby, when an erroneous detection in which an object other than the detection target is detected has occurred, the operator or the like simply selects a through image or a surrounding image enhancement region that includes the object that is the target of the erroneous detection, Sensitivity for detecting the detection target by the human detection unit 301 in the enhancement region can be lowered. Therefore, the output of the false alarm of the warning output part 303 by the false detection of the detection target (person) by the human detection part 301 can be suppressed by simpler operation.

尚、本実施例(図8)に係る処理は、図5に示す実施例の処理と組み合わせて実行されてもよい。また、本実施例(図8)において、人検知部301により人が検知された旨をオペレータ等に通知可能な表示装置50に代えて、他の通知手段(例えば、インジケータランプや人が検知された旨を通知する音声を出力する音声出力装置52)等が設けられてもよい。この場合、画面操作部44に代えて、他の操作部(例えば、押しボタンスイッチ等)が設けられ、人検知部301は、当該他の通知手段により人が検知された旨が通知されている場合、当該他の操作部に対する操作が行われたときに、自動的に、検知対象である人を検知する感度を下げる。これにより、例えば、オペレータ等は、ショベルの周辺に人が侵入していないにも関わらず、他の通知手段による人が検知された旨の通知が行われている場合、当該他の操作部を操作するだけで、人を検知する感度を下げることができるため、より簡便な操作で、ショベルの周辺の人の誤検知等を抑制することができる。   The process according to the present embodiment (FIG. 8) may be executed in combination with the process of the embodiment shown in FIG. In this embodiment (FIG. 8), instead of the display device 50 capable of notifying an operator or the like that a person has been detected by the person detection unit 301, other notification means (for example, an indicator lamp or a person is detected). A voice output device 52) that outputs a voice to notify the user may be provided. In this case, instead of the screen operation unit 44, another operation unit (for example, a push button switch) is provided, and the person detection unit 301 is notified that the person has been detected by the other notification means. In this case, when an operation is performed on the other operation unit, the sensitivity for automatically detecting a person who is a detection target is lowered. Thereby, for example, when a notification that a person has been detected by another notification means has been made even though no person has entered the vicinity of the excavator, the operator or the like Since the sensitivity for detecting a person can be lowered only by operating, it is possible to suppress erroneous detection of a person around the excavator with a simpler operation.

続いて、図9は、周辺監視システム100(人検知部301)による処理の第3例を概略的に示すフローチャートである。本フローチャートによる処理は、図5、図8の場合と同様、例えば、ショベルの運転中、表示装置50にスルー画像或いは監視用画像が表示されている状態で、繰り返し実行されてよい。   Next, FIG. 9 is a flowchart schematically showing a third example of processing by the periphery monitoring system 100 (person detection unit 301). Similar to the case of FIGS. 5 and 8, for example, the processing according to the flowchart may be repeatedly executed while the through image or the monitoring image is displayed on the display device 50 during the operation of the shovel.

ステップS302にて、人検知部301は、画面操作部44に対して、スルー画像或いは周辺画像の強調領域以外の他の領域を選択する操作(強調領域外選択操作)が行われたか否かを判定する。「強調領域以外の他の領域」には、人検知部301により検知対象(人)が検知されているか否か、即ち、スルー画像或いは周辺画像上に強調領域があるか否かに依らず、スルー画像或いは周辺画像の中の強調領域ではない領域全般が含まれる。強調領域外選択操作は、例えば、予めスルー画像及び周辺画像の全体が複数の小領域に区分されている前提で、タッチパネル上で強調領域以外の位置がタッチされることにより、複数の小領域のうちのタッチされた位置が含まれる小領域が選択される態様であってもよいし、タッチパネル上の強調領域以外の所望の領域をなぞるように囲む動作が行われることにより、任意の領域が選択される態様であってもよい。人検知部301は、画面操作部44に対して、強調領域外選択操作が行われた場合、ステップS304に進み、強調領域選択操作が行われていない場合、ステップS306に進む。   In step S302, the human detection unit 301 determines whether or not an operation (selection operation outside the enhancement region) for selecting a region other than the enhancement region of the through image or the peripheral image is performed on the screen operation unit 44. judge. Regardless of whether or not the detection target (person) is detected by the human detection unit 301 in “an area other than the enhancement area”, that is, whether or not there is an enhancement area on the through image or the peripheral image, The entire region that is not the enhancement region in the through image or the peripheral image is included. For example, the selection operation outside the enhancement region is performed on the premise that the whole of the through image and the peripheral image are divided into a plurality of small regions in advance, and a position other than the enhancement region is touched on the touch panel. A mode in which a small area including the touched position may be selected, or an arbitrary area is selected by performing an operation of tracing a desired area other than the emphasized area on the touch panel. It may be an embodiment. The human detection unit 301 proceeds to step S304 when the highlight region selection operation is performed on the screen operation unit 44, and proceeds to step S306 when the highlight region selection operation is not performed.

ステップS304にて、人検知部301は、人検知部301は、強調領域外選択操作により選択された、スルー画像或いは周辺画像の一部領域に対応するショベルの周辺領域における検知対象を検知する感度を上げて、今回の処理を終了する。即ち、人検知部301は、スルー画像或いは周辺画像の強調領域に対応するショベルの周辺領域における検知対象の検知に利用する感度別人検知部を、現在設定されているものよりも感度が低いものに変更し、今回の処理を終了する。   In step S304, the human detection unit 301 detects the detection target in the peripheral region of the shovel corresponding to the through image or a partial region of the peripheral image, which is selected by the selection operation outside the enhancement region. To end the current process. That is, the human detection unit 301 uses a sensitivity-specific human detection unit used for detection of a detection target in the peripheral region of the excavator corresponding to the through image or the enhancement region of the peripheral image, and has a lower sensitivity than that currently set. Change this and end the current process.

尚、本ステップにて、人検知部301は、スルー画像或いは周辺画像の全体に対応するショベルの周辺領域における検知対象を検知する感度を上げてもよい。   In this step, the human detection unit 301 may increase the sensitivity of detecting the detection target in the peripheral region of the shovel corresponding to the through image or the entire peripheral image.

一方、ステップS306にて、人検知部301は、検知対象を検知する感度を初期状態に戻す操作(リセット操作)が行われたか否かを判定する。人検知部301は、画面操作部44に対して、リセット操作が行われた場合、ステップS308に進み、リセット操作が行われていない場合、今回の処理を終了する。   On the other hand, in step S306, the human detection unit 301 determines whether or not an operation (reset operation) for returning the sensitivity for detecting the detection target to the initial state has been performed. When the reset operation is performed on the screen operation unit 44, the human detection unit 301 proceeds to step S308. When the reset operation is not performed, the human detection unit 301 ends the current process.

ステップS308にて、人検知部301は、検知対象を検知する感度を初期状態に戻す、即ち、感度別人検知部3011〜3013のうちの感度別人検知部3012を利用して、検知対象(人)を検知する状態に戻して、今回の処理を終了する。   In step S308, the human detection unit 301 returns the sensitivity for detecting the detection target to the initial state, that is, the detection target (person) using the sensitivity-specific human detection unit 3012 among the sensitivity-specific human detection units 3011 to 3013. Is returned to the state of detecting, and the current process is terminated.

このように、本実施例では、画面操作部44に対する強調領域外選択操作により、スルー画像或いは周辺画像の強調領域以外の他の領域が選択されると、自動的に、人検知部301による検知対象を検知する感度が上がる。例えば、上述した図6(a)、図7に示す一例では、オペレータ等は、スルー画像、周辺画像において、検知対象であるにも関わらず人検知部301により検知されていない人が含まれる領域AR1、AR3を選択する強調領域外選択操作を行うことにより、自動的に、人検知部301による検知対象を検知する感度が上がる(具体的には、人検知部301により利用される感度別人検知部が、感度別人検知部3012から感度別人検知部3011に変更される)。これにより、オペレータ等は、検知対象が検知されていない検知漏れが発生している場合に、人検知部301により検知されていない検知対象である物体が含まれるスルー画像或いは周辺画像の強調領域以外の他の領域を選択するだけで、当該他の領域における人検知部301による検知対象を検知する感度を下げることができる。そのため、より簡便な操作によって、人検知部301による検知対象(人)の検知漏れによる警報出力部303の警報漏れを抑制できる。   As described above, in this embodiment, when a region other than the enhancement region of the through image or the peripheral image is selected by the selection operation outside the enhancement region on the screen operation unit 44, the detection by the human detection unit 301 is automatically performed. Increases sensitivity to detect objects. For example, in the example shown in FIG. 6A and FIG. 7 described above, the operator or the like includes an area in which a person that is a detection target but is not detected by the human detection unit 301 is included in the through image and the peripheral image. By performing an out-of-emphasis region selection operation for selecting AR1 and AR3, the sensitivity for detecting the detection target by the human detection unit 301 automatically increases (specifically, the human detection by sensitivity used by the human detection unit 301). Is changed from the person-by-sensitivity detection unit 3012 to the person-by-sensitivity detection unit 3011). As a result, the operator or the like, when a detection omission in which the detection target is not detected has occurred, other than the through image including the object that is the detection target that has not been detected by the human detection unit 301 or the enhancement region of the peripheral image The sensitivity of detecting the detection target by the human detection unit 301 in the other region can be lowered simply by selecting another region. Therefore, the alarm leakage of the alarm output unit 303 due to the detection failure of the detection target (person) by the human detection unit 301 can be suppressed by a simpler operation.

尚、本実施例(図9)に係る処理は、図5、図8に示す実施例の処理の少なくとも1つと組み合わせて実行されてもよい。また、本実施例(図9)において、人検知部301により人が検知された旨をオペレータ等に通知可能な表示装置50に代えて、他の通知手段(例えば、インジケータランプや人が検知された旨を通知する音声を出力する音声出力装置52)等が設けられてもよい。この場合、画面操作部44に代えて、他の操作部(例えば、押しボタンスイッチ等)が設けられ、人検知部301は、当該他の通知手段により人が検知された旨が通知されていない場合、当該他の操作部が操作されたときに、検知対象である人を検知する感度を上げる。これにより、例えば、オペレータ等は、ショベルの周辺領域に人が侵入しているにも関わらず、他の通知手段による通知がされない場合、当該他の操作部を操作することにより、人検知部301による人を検知する感度を上げることができるため、より簡便な操作で、ショベルの周辺の人の検知漏れ等を抑制することができる。   The process according to the present embodiment (FIG. 9) may be executed in combination with at least one of the processes according to the embodiment shown in FIGS. Further, in this embodiment (FIG. 9), instead of the display device 50 capable of notifying an operator or the like that a person has been detected by the person detection unit 301, other notification means (for example, an indicator lamp or a person is detected). A voice output device 52) that outputs a voice to notify the user may be provided. In this case, instead of the screen operation unit 44, another operation unit (for example, a push button switch) is provided, and the human detection unit 301 is not notified that the person has been detected by the other notification unit. In this case, when the other operation unit is operated, the sensitivity of detecting a person who is a detection target is increased. Thereby, for example, when the operator or the like does not receive a notification by other notification means even though a person has entered the peripheral area of the excavator, the operator or the like operates the other operation unit to thereby detect the person detection unit 301. Since the sensitivity for detecting a person can be increased, it is possible to suppress detection omission of a person around the excavator with a simpler operation.

また、上述した図5、図8、図9に示す実施例において、人検知部301は、撮像装置40の撮像画像に代えて、或いは、加えて、他のセンサ、例えば、ミリ波レーダ、LIDAR(LIght Detection And Ranging)、ステレオカメラ等の検出結果(距離画像等)に基づきショベルの周辺の検知対象となる所定の物体を検知してもよい。   Further, in the above-described embodiments shown in FIGS. 5, 8, and 9, the human detection unit 301 replaces or in addition to the captured image of the imaging device 40 with other sensors such as a millimeter wave radar and a LIDAR. (LIght Detection And Ranging), a predetermined object to be detected around the excavator may be detected based on a detection result (distance image or the like) of a stereo camera or the like.

続いて、図10は、周辺監視システム100(人検知部301)による処理の第4例を概略的に示すフローチャートである。図11は、周辺監視システム100の構成の他の例を示す図であり、図10の処理の前提となる構成を示す。本フローチャートによる処理は、図5、図8、図9の場合と同様、例えば、ショベルの運転中、表示装置50にスルー画像或いは監視用画像が表示されている状態で、繰り返し実行されてよい。   Next, FIG. 10 is a flowchart schematically showing a fourth example of processing by the periphery monitoring system 100 (human detection unit 301). FIG. 11 is a diagram illustrating another example of the configuration of the periphery monitoring system 100, and illustrates a configuration that is a premise of the processing in FIG. The processing according to this flowchart may be repeatedly executed in a state where a through image or a monitoring image is displayed on the display device 50 during the operation of the excavator, for example, as in the case of FIGS.

尚、人検知部301は、初期状態として、背景別人検知部301A〜301Cのうちの予め規定される一つが選択された状態にされると共に、選択された背景別人検知部301A〜301Cの何れか一つに含まれる感度別人検知部3011〜3013のうちの予め規定される何れか一つにより検知対象である人を検知するように設定されている。以下、人検知部301は、初期状態として、背景別人検知部301Aが選択された状態にされると共に、感度別人検知部3011A〜3013Aのうちの感度別人検知部3012Aにより人を検知する前提で説明を行う。   Note that the human detection unit 301 is in a state where one of the background-specific person detection units 301A to 301C is selected as an initial state, and any one of the selected background-specific person detection units 301A to 301C. It is set to detect a person who is a detection target by any one of the sensitivity-specific person detection units 3011 to 3013 included in one. Hereinafter, the human detection unit 301 is assumed to be in a state where the background-specific human detection unit 301A is selected as an initial state, and the sensitivity-specific human detection units 3011A to 3013A detect persons by sensitivity. I do.

ここで、図11に示すように、本実施例では、人検知部301は、複数(本実施形態では3つ)の背景別人検知部301A〜301C(背景別物体検知部の一例)を含む。背景別人検知部301A〜301Cは、それぞれ、予め規定される複数の種類の背景(例えば、土の背景、コンクリートの背景、森林の背景、市街の背景等)のうち、1つの固有の背景を含む撮像装置40の撮像画像の中から検知対象を検知する能力が最も高くなるように設定されている。即ち、人検知部301は、撮像装置40の撮像画像から検知対象を検知する際に、撮像画像に含まれうる複数の種類の背景(即ち、対応可能な複数の種類の背景)の中から対応する背景(対応背景)を設定可能に構成される。以下、背景別人検知部301A〜301Cのうち、背景別人検知部301Aは、土の背景を含む撮像画像の中から検知対象を検知する能力が最も高く設定され、背景別人検知部301Bは、コンクリートの背景を含む撮像画像の中から検知対象を検知する能力が最も高く設定され、背景別人検知部301Cは、森林の背景を含む撮像画像の中から検知対象を検知する能力が最も高く設定されている前提で、説明を行う。また、背景別人検知部301A〜301Cは、それぞれ、上述した感度別人検知部3011〜3013(感度別人検知部3011A〜3013A,3011B〜3013B,3011C〜3013C)を含む。人検知部301は、対応背景及び検知対象を検知する感度の双方が相互に異なる複数の感度別人検知部3011A〜3013A,3011B〜3013B,3011C〜3013Cのうちの何れか一つにより、検知対象としての人を検知する。   Here, as shown in FIG. 11, in the present example, the human detection unit 301 includes a plurality (three in the present embodiment) of background-specific person detection units 301 </ b> A to 301 </ b> C (an example of a background-specific object detection unit). Each of the background-specific person detection units 301A to 301C includes one unique background among a plurality of types of backgrounds (for example, a soil background, a concrete background, a forest background, and a city background) that are defined in advance. It is set so that the ability to detect the detection target from the captured image of the imaging device 40 is the highest. That is, when detecting the detection target from the captured image of the image capturing apparatus 40, the human detection unit 301 responds from a plurality of types of backgrounds (that is, a plurality of types of backgrounds that can be supported) that can be included in the captured image. The background (corresponding background) to be set can be set. Hereinafter, among the person-by-background detection units 301A to 301C, the person-by-background detection unit 301A is set to have the highest ability to detect a detection target from captured images including a soil background, and the person-by-background detection unit 301B is made of concrete. The ability to detect the detection target from the captured image including the background is set to be the highest, and the background-specific person detection unit 301C is set to have the highest ability to detect the detection target from the captured image including the background of the forest. The explanation is based on the premise. The background-specific person detection units 301A to 301C include the above-described sensitivity-specific person detection units 3011 to 3013 (sensitivity-specific person detection units 3011A to 3013A, 3011B to 3013B, and 3011C to 3013C), respectively. The human detection unit 301 is set as a detection target by any one of a plurality of sensitivity-specific human detection units 3011A to 3013A, 3011B to 3013B, and 3011C to 3013C, which are different in sensitivity for detecting the corresponding background and the detection target. Detect people.

背景別人検知部301A〜301Cの対応背景の相互間の相違は、例えば、相互に異なる教師画像を利用した機械学習によって、上述した識別機能で利用される識別器を生成することにより実現されうる。具体的には、背景別人検知部301A(感度別人検知部3011A〜3013A)で利用される識別器は、土の背景を含む教師画像が大部分を示るデータセットを用いて、機械学習を行うことにより生成されてよい。また、背景別人検知部301B(感度別人検知部3011B〜3013B)で利用される識別器は、コンクリートの背景を含む教師画像が大部分を占めるデータセットを用いて、機械学習が行われることにより生成されてよい。また、背景別人検知部301C(感度別人検知部3011C〜3013C)は、森林の背景を含む教師画像が大部分を占めるデータセットを用いて、機械学習が行われることにより生成されてよい。これにより、撮像装置40の撮像画像から検知対象(人)を検知する際の対応する背景が相互に異なる背景別人検知部301A〜301Cが生成される。   The difference between the corresponding backgrounds of the background-specific person detection units 301A to 301C can be realized, for example, by generating a discriminator used in the above-described discrimination function by machine learning using different teacher images. Specifically, the discriminator used in the background-specific person detection unit 301A (sensitivity-specific person detection units 3011A to 3013A) performs machine learning using a data set in which most of the teacher images including the soil background indicate. May be generated. Further, the classifier used in the background-specific person detection unit 301B (sensitivity-specific person detection units 3011B to 3013B) is generated by performing machine learning using a data set in which a teacher image including a concrete background occupies most. May be. The background-specific person detection unit 301C (sensitivity-specific person detection units 3011C to 3013C) may be generated by performing machine learning using a data set in which a teacher image including a forest background is mostly occupied. As a result, background-specific person detection units 301 </ b> A to 301 </ b> C that have different backgrounds when detecting a detection target (person) from the captured image of the imaging device 40 are generated.

図10に戻り、ステップS402にて、人検知部301は、画面操作部44に対して、対応背景を変更する操作(対応背景変更操作)が行われたか否かを判定する。対応背景変更操作は、例えば、後述の如く、スルー画像或いは監視用画像に重畳して表示される所定のアイコンがタッチパネル上でタッチされることにより実現される操作であってよい。ステップS402にて、人検知部301は、画面操作部44に対して対応背景変更操作が行われた場合、ステップS404に進み、対応背景変更操作が行われていない場合、ステップS408に進む。   Returning to FIG. 10, in step S <b> 402, the human detection unit 301 determines whether an operation for changing the corresponding background (corresponding background changing operation) has been performed on the screen operation unit 44. For example, as described later, the corresponding background change operation may be an operation realized by touching a predetermined icon displayed superimposed on the through image or the monitoring image on the touch panel. In step S402, the human detection unit 301 proceeds to step S404 when the corresponding background change operation is performed on the screen operation unit 44, and proceeds to step S408 when the corresponding background change operation is not performed.

ステップS404にて、人検知部301は、対応背景変更操作の前に、画面操作部44に対して、スルー画像或いは周辺画像の全体の中で対応する背景を変更する領域を選択する操作(領域選択操作)が行われたているか否かを判定する。人検知部301は、画面操作部44に対して、領域選択操作が行われていない場合、ステップS406に進み、領域選択操作が行われた場合、ステップS408に進む。   In step S <b> 404, the human detection unit 301 selects an area for changing the corresponding background in the through image or the entire peripheral image with respect to the screen operation unit 44 before the corresponding background change operation. It is determined whether or not a selection operation has been performed. When the region selection operation is not performed on the screen operation unit 44, the human detection unit 301 proceeds to step S406, and when the region selection operation is performed, the human detection unit 301 proceeds to step S408.

ステップS406にて、人検知部301は、対応背景変更操作の内容に応じて、スルー画像或いは周辺画像の全体に対応するショベルの周辺領域における対応背景を変更し、ステップS410に進む。即ち、人検知部301は、スルー画像或いは周辺画像の全体に対応するショベルの周辺領域において、検知対象の検知に利用する背景別人検知部(301A〜301Cの何れか)を変更し、ステップS410に進む。   In step S406, the human detection unit 301 changes the corresponding background in the peripheral area of the shovel corresponding to the through image or the entire peripheral image according to the content of the corresponding background change operation, and the process proceeds to step S410. That is, the human detection unit 301 changes the background-specific human detection unit (any of 301A to 301C) used for detection of the detection target in the peripheral region of the excavator corresponding to the through image or the entire peripheral image, and proceeds to step S410. move on.

一方、ステップS408にて、人検知部301は、対応背景変更操作の内容に応じて、スルー画像或いは周辺画像の一部領域(領域選択操作により選択された領域)に対応するショベルの周辺領域における対応背景を変更し、ステップS410に進む。即ち、人検知部301は、スルー画像或いは周辺画像の一部領域に対応するショベルの周辺領域において、検知対象の検知に利用する背景別人検知部(301A〜301Cの何れか)を変更し、ステップS410に進む。   On the other hand, in step S <b> 408, the human detection unit 301 determines whether or not in the peripheral region of the excavator corresponding to a partial region of the through image or the peripheral image (region selected by the region selection operation) according to the content of the corresponding background change operation. The corresponding background is changed, and the process proceeds to step S410. That is, the human detection unit 301 changes the background-specific human detection unit (any of 301A to 301C) used for detection of the detection target in the peripheral region of the shovel corresponding to the through image or a partial region of the peripheral image, and step The process proceeds to S410.

ステップS410にて、人検知部301は、図5のステップS102と同様、画面操作部44に対して、検知対象を検知する感度を変更する(即ち、上げる或いは下げる)操作(感度変更操作)が行われたか否かを判定する。人検知部301は、画面操作部44に対して、感度変更操作が行われた場合、ステップS412に進み、感度変更操作が行われていない場合、ステップS418に進む。   In step S410, as in step S102 of FIG. 5, the human detection unit 301 performs an operation (sensitivity change operation) to change (that is, increase or decrease) the sensitivity for detecting the detection target with respect to the screen operation unit 44. Determine whether it was done. When the sensitivity change operation is performed on the screen operation unit 44, the human detection unit 301 proceeds to step S412. When the sensitivity change operation is not performed, the human detection unit 301 proceeds to step S418.

ステップS412にて、人検知部301は、図5のステップS104と同様、感度変更操作の前に、画面操作部44に対して、スルー画像或いは周辺画像の全体の中で検知対象を検知する感度を変更する領域を選択する操作(領域選択操作)が行われているか否かを判定する。人検知部301は、画面操作部44に対して、領域選択操作が行われていない場合、ステップS414に進み、領域選択操作が行われた場合、ステップS416に進む。   In step S412, the human detection unit 301 detects the detection target in the through image or the entire surrounding image with respect to the screen operation unit 44 before the sensitivity change operation, similarly to step S104 in FIG. It is determined whether or not an operation for selecting a region to be changed (region selection operation) is performed. When the region selection operation is not performed on the screen operation unit 44, the human detection unit 301 proceeds to step S414. When the region selection operation is performed, the human detection unit 301 proceeds to step S416.

ステップS414にて、人検知部301は、感度変更操作の内容に応じて、スルー画像或いは周辺画像の全体に対応するショベルの周辺領域における検知対象を検知する感度を変更し、今回の処理を終了する。即ち、人検知部301は、スルー画像或いは周辺画像の全体に対応するショベルの周辺領域において、検知対象の検知に利用する感度別人検知部を変更し、今回の処理を終了する。この際、人検知部301は、現在設定されている対応背景、即ち、現に検知対象の検知に利用されている背景別人検知部301A〜301Cの何れかの中で、検知対象を検知する感度を変更する。例えば、人検知部301は、スルー画像或いは周辺画像の全体に対応するショベルの周辺領域において、検知対象の検知に背景別人検知部301Aを利用している場合、感度別人検知部3011A〜3013Aの中で変更を行う。また、人検知部301は、スルー画像或いは周辺画像の部分領域毎に、設定されている対応背景、即ち、現に検知対象の検知に現に利用されている背景別人検知部(301A〜301C)が異なる場合、部分領域毎の対応シーンに合わせて、部分領域毎に異なる態様で検知対象を検知する感度を変更する。後述するステップS416の場合も同様である。   In step S414, the human detection unit 301 changes the sensitivity for detecting the detection target in the peripheral region of the excavator corresponding to the through image or the entire peripheral image according to the content of the sensitivity change operation, and ends the current process. To do. That is, the human detection unit 301 changes the sensitivity-specific human detection unit used for detection of the detection target in the peripheral region of the shovel corresponding to the entire through image or the peripheral image, and ends the current process. At this time, the human detection unit 301 sets the sensitivity for detecting the detection target in any of the currently set corresponding backgrounds, that is, the background-specific human detection units 301A to 301C currently used for detection of the detection target. change. For example, if the human detection unit 301 uses the background-specific human detection unit 301A for detection of a detection target in the peripheral region of the shovel corresponding to the entire through image or the peripheral image, the human detection unit 3011A to 3013A has a sensitivity. Make your changes. Further, the human detection unit 301 has different corresponding backgrounds that are set for each partial region of the through image or the peripheral image, that is, the background-specific human detection units (301A to 301C) that are actually used for detection of the detection target. In this case, in accordance with the corresponding scene for each partial area, the sensitivity for detecting the detection target is changed in a different manner for each partial area. The same applies to step S416, which will be described later.

一方、ステップS416にて、人検知部301は、感度変更操作の内容に応じて、スルー画像或いは周辺画像の一部領域(領域選択操作により選択された領域)に対応するショベルの周辺領域における検知対象を検知する感度を変更し、今回の処理を終了する。即ち、人検知部301は、スルー画像或いは周辺画像の一部領域に対応するショベルの周辺領域における検知対象の検知に利用する感度別人検知部を変更し、今回の処理を終了する。   On the other hand, in step S416, the human detection unit 301 detects in the peripheral region of the shovel corresponding to a partial region of the through image or the peripheral image (region selected by the region selection operation) according to the content of the sensitivity change operation. The sensitivity for detecting the target is changed, and the current process ends. That is, the human detection unit 301 changes the sensitivity-specific human detection unit used for detection of the detection target in the peripheral region of the shovel corresponding to the through image or a partial region of the peripheral image, and ends the current process.

他方、ステップS418にて、人検知部301は、対応背景及び検知対象を検知する感度を初期状態に戻す操作(リセット操作)が行われたか否かを判定する。人検知部301は、画面操作部44に対して、リセット操作が行われた場合、ステップS420に進み、リセット操作が行われていない場合、今回の処理を終了する。   On the other hand, in step S418, the human detection unit 301 determines whether or not an operation (reset operation) for returning the sensitivity for detecting the corresponding background and the detection target to the initial state has been performed. When the reset operation is performed on the screen operation unit 44, the human detection unit 301 proceeds to step S420, and when the reset operation is not performed, the human detection unit 301 ends the current process.

ステップS420にて、人検知部301は、検知対象を検知する感度を初期状態に戻す、即ち、背景別人検知部301Aが選択された状態にされると共に、感度別人検知部3011A〜3013Aのうちの感度別人検知部3012Aを利用して、検知対象(人)を検知する状態に戻して、今回の処理を終了する。   In step S420, the human detection unit 301 returns the sensitivity for detecting the detection target to the initial state, that is, the background-specific human detection unit 301A is selected, and among the sensitivity-specific human detection units 3011A to 3013A. Using the sensitivity-specific person detection unit 3012A, the process returns to the state in which the detection target (person) is detected, and the current process ends.

このように、本実施例では、画面操作部44に対する対応背景変更操作に応じて、人検知部301の対応背景を変更される。これにより、オペレータ等は、検知対象を検知する感度に加えて、スルー画像或いは周辺画像に含まれる背景の種類に合わせて、人検知部301の対応背景を変更することができるため、人検知部301の検知性能の調整自由度が更に向上する。そのため、結果として、人検知部301による検知対象(人)の誤検知や検知漏れやによる警報出力部303の誤警報の出力や警報漏れの発生を更に抑制できる。   As described above, in this embodiment, the corresponding background of the human detection unit 301 is changed in accordance with the corresponding background change operation for the screen operation unit 44. Thereby, the operator or the like can change the corresponding background of the human detection unit 301 according to the type of background included in the through image or the peripheral image in addition to the sensitivity for detecting the detection target. The degree of freedom in adjusting the detection performance 301 is further improved. Therefore, as a result, it is possible to further suppress the output of the false alarm of the alarm output unit 303 and the occurrence of the alarm leak due to the false detection or detection omission of the detection target (person) by the human detection unit 301.

例えば、図12は、本実施例(図10)の処理に応じて、表示装置50に表示されるスルー画像TPの一例を示す図である。具体的には、図12(a)は、検知対象の検知見逃し時において、表示装置50に表示されるスルー画像TPの一例であり、図12(b)は、図12(a)に示す検知対象の検知見逃し時に実行される本実施例の処理に応じて、表示装置50に表示されるスルー画像TPである。図13は、本実施例の処理に応じて、表示装置50に表示されるスルー画像TPの他の例を示す図である。具体的には、図13(a)は、検知対象以外の物体の誤検知時において、表示装置50に表示されるスルー画像TPの一例であり、図13(b)は、図13(a)に示す検知対象以外の物体の誤検知時に実行される本実施例の処理に応じて、表示装置50に表示されるスルー画像TPである。本例では、図6の場合と同様、スルー画像TPの下端部に、感度別人検知部3011〜3013の各々を選択するためのアイコンBT1〜BT3が、スルー画像に重畳する態様で表示されており、人検知部301により現在利用されている感度別人検知部3012が太枠で強調されている。また、アイコンBT1〜BT3に表記される"A1"〜"A3"は、それぞれ、背景別人検知部301A(感度別人検知部3011A〜3013A)に対応し、"B1"〜"B3"は、それぞれ、背景別人検知部301B(感度別人検知部3011B〜3013B)に対応し、"C1"〜"C3"は、背景別人検知部301C(感度別人検知部3011C〜3013C)に対応する。また、スルー画像TPの左上端部に、対応背景を変更するためのアイコンBT0が、スルー画像に重畳される態様で表示されている。   For example, FIG. 12 is a diagram illustrating an example of the through image TP displayed on the display device 50 in accordance with the processing of the present embodiment (FIG. 10). Specifically, FIG. 12A is an example of the through image TP displayed on the display device 50 when the detection target is missed, and FIG. 12B is the detection shown in FIG. It is the through image TP displayed on the display device 50 in accordance with the process of the present embodiment that is executed when the target detection is missed. FIG. 13 is a diagram illustrating another example of the through image TP displayed on the display device 50 in accordance with the processing of the present embodiment. Specifically, FIG. 13A is an example of a through image TP displayed on the display device 50 when an object other than the detection target is erroneously detected. FIG. 13B is an example of FIG. The through image TP displayed on the display device 50 according to the processing of the present embodiment that is executed when an object other than the detection target shown in FIG. In this example, as in the case of FIG. 6, icons BT <b> 1 to BT <b> 3 for selecting each of the sensitivity-specific person detection units 3011 to 3013 are displayed at the lower end portion of the through image TP so as to be superimposed on the through image. The human detection unit 3012 classified by sensitivity currently used by the human detection unit 301 is highlighted with a thick frame. Further, “A1” to “A3” written on the icons BT1 to BT3 correspond to the background-specific person detection units 301A (sensitivity-specific person detection units 3011A to 3013A), respectively, and “B1” to “B3” “C1” to “C3” correspond to the background-specific person detection unit 301C (sensitivity-specific person detection units 3011C to 3013C), corresponding to the background-specific person detection unit 301B (sensitivity-specific person detection units 3011B to 3013B). In addition, an icon BT0 for changing the corresponding background is displayed on the upper left corner of the through image TP in a manner superimposed on the through image.

図12に示す一例では、図12(a)に示すように、スルー画像TPに人が写っているにも関わらず、スルー画像TPの人を含む領域AR1太線枠FRで囲まれる等により強調されていないため、人検知部301は、当該人を検知できていないことが分かる。これに対して、オペレータ等は、タッチパネル上で、アイコンBT0をタッチ操作する対応背景変更操作を行い、現在設定される対応背景である背景別人検知部301Aに対応する土の背景を、スルー画像TPの実際の背景に合わせて、背景別人検知部301Bに対応するコンクリートの背景に変更するとよい。これにより、図12(b)に示すように、人検知部301は、コンクリートの背景を含むスルー画像TPに映っている人を検知できるようになるため、スルー画像TPの人が含まれる領域AR1は、太線枠FRで囲まれて強調されるようになり、検知対象の検知漏れを抑制することができる。   In the example shown in FIG. 12, as shown in FIG. 12A, although a person is shown in the through image TP, it is emphasized by being surrounded by a region AR <b> 1 thick line frame FR including the person in the through image TP. Therefore, it can be seen that the person detection unit 301 cannot detect the person. On the other hand, the operator or the like performs a corresponding background change operation by touching the icon BT0 on the touch panel, and displays the background of the soil corresponding to the background-specific person detection unit 301A, which is the currently set corresponding background, as a through image TP. According to the actual background, it is preferable to change to a concrete background corresponding to the background-specific person detection unit 301B. As a result, as shown in FIG. 12B, the human detection unit 301 can detect a person appearing in the through image TP including the concrete background, and thus the area AR1 including the person of the through image TP. Is highlighted by being surrounded by a thick line frame FR, and the detection omission of the detection target can be suppressed.

また、図13に示す一例では、図13(a)に示すように、スルー画像に検知対象(人)が写っていないにも関わらず、スルー画像に含まれる検知対象以外の物体(茂みの植物)が太線枠FRで囲まれているため、人検知部301は、検知対象以外の物体を誤検知していることが分かる。これに対して、オペレータ等は、タッチパネル上で、アイコンBT0をタッチ操作する対応背景変更操作を行い、現在設定される対応背景である背景別人検知部301Aに対応する土の背景を、スルー画像TPの実際の背景に合わせて、背景別人検知部301Cに対応する森林の背景に変更するとよい。これにより、図13(b)に示すように、人検知部301は、森林と類似する背景を含むスルー画像TPに映っている茂みの植物を検知対象でないと判断できるようになるため、スルー画像TPの植物が含まれる領域AR2を囲む太線枠FRは表示されなくなり、検知対象の誤検知を抑制することができる。   In the example shown in FIG. 13, as shown in FIG. 13A, an object other than the detection target (the bush plant) included in the through image, even though the detection target (person) is not shown in the through image. ) Is surrounded by a thick line frame FR, it can be seen that the human detection unit 301 erroneously detects an object other than the detection target. On the other hand, the operator or the like performs a corresponding background change operation by touching the icon BT0 on the touch panel, and displays the background of the soil corresponding to the background-specific person detection unit 301A, which is the currently set corresponding background, as a through image TP. In accordance with the actual background, it may be changed to a forest background corresponding to the background-specific person detection unit 301C. Accordingly, as illustrated in FIG. 13B, the human detection unit 301 can determine that a bush plant reflected in a through image TP including a background similar to a forest is not a detection target. The thick line frame FR surrounding the area AR2 including the plant of TP is not displayed, and detection errors of the detection target can be suppressed.

尚、本実施例(図10)に係る処理は、図8、図9に示す実施例の処理の少なくとも1つと組み合わせて実行されてもよい。   The process according to the present embodiment (FIG. 10) may be executed in combination with at least one of the processes according to the embodiments shown in FIGS.

また、本実施例では、検知対象を検知する感度を変更する前提で、更に、対応背景を変更可能に構成したが、対応背景だけを変更することにより、人検知部301の検知機能を調整する態様であってもよい。即ち、図10の人検知部301の処理において、ステップS410〜S416を省略すると共に、ステップS402のNoの場合、ステップS418に進む構成を採用し、図11の人検知部301の構成において、背景別人検知部301A〜301Cの各々に含まれる感度別人検知部3011A〜3013A,3011B〜3013B,3011C〜3013Cを省略する構成を採用してもよい。この場合についても、オペレータ等は、必要に応じて、対応背景を変更し、人検知部301の検知性能を調整することができるため、結果として、人検知部301による検知対象(人)の誤検知や検知漏れやによる警報出力部303の誤警報の出力や警報漏れの発生を抑制できる。   Further, in this embodiment, on the premise that the sensitivity for detecting the detection target is changed, the corresponding background can be changed. However, the detection function of the human detection unit 301 is adjusted by changing only the corresponding background. An aspect may be sufficient. That is, in the process of the human detection unit 301 in FIG. 10, steps S410 to S416 are omitted, and in the case of No in step S402, a configuration in which the process proceeds to step S418 is adopted. A configuration in which the sensitivity-specific person detection units 3011A to 3013A, 3011B to 3013B, and 3011C to 3013C included in each of the different person detection units 301A to 301C may be employed. Also in this case, the operator or the like can change the corresponding background and adjust the detection performance of the human detection unit 301 as necessary. As a result, an error in the detection target (person) by the human detection unit 301 results. The output of a false alarm of the alarm output unit 303 due to detection or detection omission or the occurrence of alarm omission can be suppressed.

以上、本発明を実施するための形態について詳述したが、本発明はかかる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   As mentioned above, although the form for implementing this invention was explained in full detail, this invention is not limited to this specific embodiment, In the range of the summary of this invention described in the claim, various Can be modified or changed.

30 コントローラ
40 撮像装置
44 画面操作部(第1操作部、第2操作部)
40B 後方カメラ
40L 左側方カメラ
40R 右側方カメラ
50 表示装置(通知部)
100 周辺監視システム(作業機械用周辺監視システム)
301 人検知部(物体検知部)
301A〜301C 背景別人検知部(背景別物体検知部)
3011〜3013 感度別人検知部(感度別物体検知部)
302 表示制御部
303 警報出力部
30 controller 40 imaging device 44 screen operation unit (first operation unit, second operation unit)
40B Rear camera 40L Left side camera 40R Right side camera 50 Display device (notification unit)
100 Perimeter monitoring system (work machine peripheral monitoring system)
301 Human detection unit (object detection unit)
301A to 301C Background-specific person detection unit (background-specific object detection unit)
3011-3013 Sensitivity-specific human detection unit (sensitivity-specific object detection unit)
302 Display control unit 303 Alarm output unit

Claims (10)

作業機械の周辺の所定の物体を検知する物体検知部と、
前記物体検知部により前記物体が検知された場合、前記物体が検知された旨を通知する通知部と、
前記作業機械の操縦席の周辺に設けられる第1操作部と、を備え、
前記物体検知部は、前記第1操作部に対する所定の操作に応じて、前記物体を検知する感度を変更する、
作業機械用周辺監視システム。
An object detection unit for detecting a predetermined object around the work machine;
A notification unit for notifying that the object has been detected when the object is detected by the object detection unit;
A first operating portion provided around a cockpit of the work machine,
The object detection unit changes sensitivity of detecting the object in accordance with a predetermined operation on the first operation unit.
Perimeter monitoring system for work machines.
前記物体検知部は、前記第1操作部に対する前記感度を上げる操作及び下げる操作に応じて、前記物体を検知する感度を変更する、
請求項1に記載の作業機械用周辺監視システム。
The object detection unit changes the sensitivity of detecting the object in response to an operation to increase and decrease the sensitivity to the first operation unit.
The work machine periphery monitoring system according to claim 1.
前記物体検知部は、前記通知部により前記物体が検知された旨が通知されている場合、前記第1操作部が操作されたときに、前記物体を検知する感度を下げる、
請求項1又は2に記載の作業機械用周辺監視システム。
The object detection unit reduces the sensitivity of detecting the object when the first operation unit is operated when the notification unit notifies that the object has been detected;
The work machine periphery monitoring system according to claim 1 or 2.
前記物体検知部は、前記通知部により前記物体が検知された旨が通知されていない場合、前記第1操作部が操作されたときに、前記物体を検知する感度を上げる、
請求項1乃至3の何れか一項に記載の作業機械用周辺監視システム。
The object detection unit increases the sensitivity of detecting the object when the first operation unit is operated when the notification unit has not been notified that the object has been detected.
The work machine periphery monitoring system according to any one of claims 1 to 3.
前記作業機械の周辺を撮像する撮像装置を更に備え、
前記通知部は、前記作業機械の操縦席の周辺に設けられ、前記撮像装置の撮像画像、又は、前記撮像画像に基づき生成される周辺画像を表示する表示装置を含み、
前記物体検知部は、前記第1操作部に対する所定の操作に応じて、前記撮像画像又は前記周辺画像の一部領域又は全体領域に対応する前記作業機械の周辺領域における前記感度を変更する、
請求項1乃至4の何れか一項に記載の作業機械用周辺監視システム。
Further comprising an imaging device for imaging the periphery of the work machine;
The notification unit includes a display device that is provided around a cockpit of the work machine and displays a captured image of the imaging device or a peripheral image generated based on the captured image,
The object detection unit changes the sensitivity in a peripheral region of the work machine corresponding to a partial region or an entire region of the captured image or the peripheral image in response to a predetermined operation on the first operation unit.
The work machine periphery monitoring system according to any one of claims 1 to 4.
前記第1操作部は、前記表示装置に表示される前記撮像画像又は前記周辺画像の一部領域を選択する操作が可能に構成され、
前記物体検知部は、前記第1操作部により選択された前記撮像画像又は前記周辺画像の一部領域に対応する前記作業機械の周辺領域における前記感度を変更する、
請求項5に記載の作業機械用周辺監視システム。
The first operation unit is configured to be able to perform an operation of selecting a part of the captured image or the peripheral image displayed on the display device,
The object detection unit changes the sensitivity in a peripheral region of the work machine corresponding to a partial region of the captured image or the peripheral image selected by the first operation unit;
The work machine periphery monitoring system according to claim 5.
前記作業機械の周辺を撮像する撮像装置を更に備え、
前記通知部は、前記作業機械の操縦席の周辺に設けられ、前記撮像装置の撮像画像、又は、前記撮像画像に基づき生成される周辺画像を表示する表示装置を含み、
前記表示装置は、前記物体検知部により前記物体が検知されている場合、前記撮像画像又は前記周辺画像の中の当該物体が含まれる領域を強調して表示し、
前記第1操作部は、前記表示装置に表示される前記撮像画像又は前記周辺画像の一部領域を選択する操作が可能に構成され、
前記物体検知部は、前記第1操作部により前記表示装置の前記撮像画像又は前記周辺画像の中の強調して表示される強調領域が選択された場合、前記撮像画像若しくは前記周辺画像の全体領域、又は、当該強調領域に対応する前記作業機械の周辺領域における前記物体を検知する感度を下げる、
請求項3に記載の作業機械用周辺監視システム。
Further comprising an imaging device for imaging the periphery of the work machine;
The notification unit includes a display device that is provided around a cockpit of the work machine and displays a captured image of the imaging device or a peripheral image generated based on the captured image,
When the object is detected by the object detection unit, the display device highlights and displays a region including the object in the captured image or the peripheral image,
The first operation unit is configured to be able to perform an operation of selecting a part of the captured image or the peripheral image displayed on the display device,
The object detection unit is configured to select the highlighted region to be displayed in an emphasized manner in the captured image or the peripheral image of the display device by the first operation unit. Or lower the sensitivity of detecting the object in the peripheral area of the work machine corresponding to the emphasized area,
The work machine periphery monitoring system according to claim 3.
前記作業機械の周辺を撮像する撮像装置を更に備え、
前記通知部は、前記作業機械の操縦席の周辺に設けられ、前記撮像装置の撮像画像、又は、前記撮像画像に基づき生成される周辺画像を表示する表示装置を含み、
前記表示装置は、前記物体検知部により前記物体が検知されている場合、前記撮像画像又は前記周辺画像の中の当該物体が存在する領域を強調して表示し、
前記第1操作部は、前記表示装置に表示される前記撮像装置又は前記周辺画像の一部領域を選択可能に構成され、
前記物体検知部は、前記第1操作部により前記表示装置の前記撮像画像又は前記周辺画像の中の強調して表示される強調領域以外の他の領域が選択された場合、前記撮像画像若しくは前記周辺画像の全体領域、又は、当該他の領域に対応する前記作業機械の周辺領域における前記物体を検知する感度を上げる、
請求項4の何れか一項に記載の作業機械用周辺監視システム。
Further comprising an imaging device for imaging the periphery of the work machine;
The notification unit includes a display device that is provided around a cockpit of the work machine and displays a captured image of the imaging device or a peripheral image generated based on the captured image,
When the object is detected by the object detection unit, the display device highlights and displays a region where the object exists in the captured image or the peripheral image,
The first operation unit is configured to be able to select a part of the imaging device or the peripheral image displayed on the display device,
The object detection unit, when a region other than the highlighted region displayed in an emphasized manner in the captured image or the peripheral image of the display device is selected by the first operation unit, the captured image or the Increase the sensitivity of detecting the object in the entire area of the peripheral image or the peripheral area of the work machine corresponding to the other area,
The work machine periphery monitoring system according to claim 4.
前記物体検知部は、前記物体を検知する感度が相互に異なる複数の感度別物体検知部を含み、前記複数の感度別物体検知部の何れか一つにより前記物体を検知すると共に、前記複数の感度別物体検知部の中から前記物体の検知に利用する前記感度別物体検知部を変更することにより、前記物体を検知する感度を変更する、
請求項1乃至8の何れか一項に記載の作業機械用周辺監視システム。
The object detection unit includes a plurality of sensitivity-specific object detection units having different sensitivity to detect the object, detects the object by any one of the plurality of sensitivity-specific object detection units, and By changing the sensitivity-specific object detection unit used for detection of the object from among the sensitivity-specific object detection units, the sensitivity for detecting the object is changed,
The work machine periphery monitoring system according to any one of claims 1 to 8.
前記物体検知部は、前記撮像画像に基づき、前記物体を検知すると共に、各々が、予め規定される複数の種類の背景のうちの1つの固有の背景を含む前記撮像画像の中から前記物体を検知する能力が最も高くなるように設定される複数の背景別物体検知部を含み、
前記複数の背景別物体検知部の中から何れか1つを選択する操作が行われる第2操作部を更に備え、
前記物体検知部は、前記複数の背景別物体検知部のうちの前記第2操作部により選択された前記背景別物体検知部により、前記作業機械の周辺の前記物体を検知する、
請求項5乃至8の何れか一項に記載の作業機械用周辺監視システム。
The object detection unit detects the object based on the captured image, and detects the object from the captured image, each of which includes one specific background among a plurality of types of backgrounds defined in advance. Including a plurality of background-specific object detection units set to have the highest detection capability,
A second operation unit that performs an operation of selecting any one of the plurality of background-specific object detection units;
The object detection unit detects the object around the work machine by the background object detection unit selected by the second operation unit among the plurality of background object detection units.
The work machine periphery monitoring system according to any one of claims 5 to 8.
JP2017018962A 2017-02-03 2017-02-03 Peripheral monitoring system for work machines Active JP6878025B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017018962A JP6878025B2 (en) 2017-02-03 2017-02-03 Peripheral monitoring system for work machines

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017018962A JP6878025B2 (en) 2017-02-03 2017-02-03 Peripheral monitoring system for work machines

Publications (2)

Publication Number Publication Date
JP2018123646A true JP2018123646A (en) 2018-08-09
JP6878025B2 JP6878025B2 (en) 2021-05-26

Family

ID=63111133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017018962A Active JP6878025B2 (en) 2017-02-03 2017-02-03 Peripheral monitoring system for work machines

Country Status (1)

Country Link
JP (1) JP6878025B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021025223A (en) * 2019-07-31 2021-02-22 日立建機株式会社 Work machine
JP2021121710A (en) * 2020-01-31 2021-08-26 株式会社小松製作所 Monitoring device of work machine and monitoring method thereof
WO2021200458A1 (en) * 2020-03-31 2021-10-07 コベルコ建機株式会社 Surroundings sensing device for work machine
KR102578690B1 (en) * 2022-07-05 2023-09-18 에이치디현대건설기계 주식회사 Blind Spot Display Device for Construction Equipment

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2610428A (en) * 2021-09-06 2023-03-08 Bamford Excavators Ltd A working machine

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1013822A (en) * 1996-06-21 1998-01-16 Matsushita Electric Ind Co Ltd Interphone system
JPH11177973A (en) * 1997-12-12 1999-07-02 Hitachi Denshi Ltd Image processing system for detecting moving object
JP2010199720A (en) * 2009-02-23 2010-09-09 Nikon Corp Digital camera
JP2012068965A (en) * 2010-09-24 2012-04-05 Denso Corp Image recognition device
JP2012165295A (en) * 2011-02-09 2012-08-30 Honda Motor Co Ltd Periphery monitoring device for vehicle
JP2014181508A (en) * 2013-03-19 2014-09-29 Sumitomo Heavy Ind Ltd Periphery monitoring apparatus for working machine

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1013822A (en) * 1996-06-21 1998-01-16 Matsushita Electric Ind Co Ltd Interphone system
JPH11177973A (en) * 1997-12-12 1999-07-02 Hitachi Denshi Ltd Image processing system for detecting moving object
JP2010199720A (en) * 2009-02-23 2010-09-09 Nikon Corp Digital camera
JP2012068965A (en) * 2010-09-24 2012-04-05 Denso Corp Image recognition device
JP2012165295A (en) * 2011-02-09 2012-08-30 Honda Motor Co Ltd Periphery monitoring device for vehicle
JP2014181508A (en) * 2013-03-19 2014-09-29 Sumitomo Heavy Ind Ltd Periphery monitoring apparatus for working machine

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021025223A (en) * 2019-07-31 2021-02-22 日立建機株式会社 Work machine
JP7175245B2 (en) 2019-07-31 2022-11-18 日立建機株式会社 working machine
JP2021121710A (en) * 2020-01-31 2021-08-26 株式会社小松製作所 Monitoring device of work machine and monitoring method thereof
JP7465664B2 (en) 2020-01-31 2024-04-11 株式会社小松製作所 Work machine monitoring device and work machine monitoring method
WO2021200458A1 (en) * 2020-03-31 2021-10-07 コベルコ建機株式会社 Surroundings sensing device for work machine
JP2021163188A (en) * 2020-03-31 2021-10-11 コベルコ建機株式会社 Device for detecting periphery of work machine
CN115362297A (en) * 2020-03-31 2022-11-18 神钢建机株式会社 Periphery detection device for construction machine
JP7322791B2 (en) 2020-03-31 2023-08-08 コベルコ建機株式会社 Surrounding detection device for working machine
KR102578690B1 (en) * 2022-07-05 2023-09-18 에이치디현대건설기계 주식회사 Blind Spot Display Device for Construction Equipment
WO2024010375A1 (en) * 2022-07-05 2024-01-11 에이치디현대건설기계 주식회사 Blind spot display device for construction equipment

Also Published As

Publication number Publication date
JP6878025B2 (en) 2021-05-26

Similar Documents

Publication Publication Date Title
JP6878025B2 (en) Peripheral monitoring system for work machines
JP7252137B2 (en) Perimeter monitoring device
KR102449834B1 (en) Perimeter monitoring system for working machines
US20140118533A1 (en) Operational stability enhancing device for construction machinery
JP2016144110A (en) System for detecting mobile object outside vehicle body
JP7058582B2 (en) Work machine
JP2011175485A (en) Vehicle surroundings monitor
BR102020015111A2 (en) Method for controlling a mobile working machine in a workplace, and, mobile working machine.
US20220298756A1 (en) Display system for work vehicle, and method for displaying work vehicle
US11091100B2 (en) Work vehicle multi-camera vision systems
JP6980391B2 (en) Peripheral monitoring system for work machines
JP2018111981A (en) Periphery monitoring system for work machine
JP6925837B2 (en) Peripheral monitoring system for work machines
BR102020015120A2 (en) Method for controlling a mobile working machine in a workplace, and, mobile working machine.
CN111147738A (en) Police vehicle-mounted panoramic and coma system, device, electronic equipment and medium
WO2021215198A1 (en) Work machine obstacle notification system and work machine obstacle notification method
US20220389682A1 (en) Overturning-risk presentation device and overturning-risk presentation method
KR20230035397A (en) Obstacle notification system of working machine and obstacle notification method of working machine
JP5604011B2 (en) Vehicle periphery monitoring device
JP2021120515A (en) Work machine, and information processor
JP2017102606A (en) Periphery monitoring system for work machine
WO2022038923A1 (en) Obstacle reporting system for work machine, and obstacle reporting method for work machine
JP7329928B2 (en) working machine
WO2021100702A1 (en) Toppling-risk presentation device and toppling-risk presentation method
JP7264795B2 (en) Operating area presentation device and operating area presentation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210428

R150 Certificate of patent or registration of utility model

Ref document number: 6878025

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150