JP2021095839A - Shovel - Google Patents

Shovel Download PDF

Info

Publication number
JP2021095839A
JP2021095839A JP2021039348A JP2021039348A JP2021095839A JP 2021095839 A JP2021095839 A JP 2021095839A JP 2021039348 A JP2021039348 A JP 2021039348A JP 2021039348 A JP2021039348 A JP 2021039348A JP 2021095839 A JP2021095839 A JP 2021095839A
Authority
JP
Japan
Prior art keywords
image
state
excavator
person
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021039348A
Other languages
Japanese (ja)
Other versions
JP7084521B2 (en
Inventor
芳永 清田
Yoshinaga Kiyota
芳永 清田
俊介 大槻
Shunsuke Otsuki
俊介 大槻
晋 相澤
Susumu Aizawa
晋 相澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Heavy Industries Ltd
Original Assignee
Sumitomo Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Heavy Industries Ltd filed Critical Sumitomo Heavy Industries Ltd
Priority to JP2021039348A priority Critical patent/JP7084521B2/en
Publication of JP2021095839A publication Critical patent/JP2021095839A/en
Application granted granted Critical
Publication of JP7084521B2 publication Critical patent/JP7084521B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Component Parts Of Construction Machinery (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide a shovel capable of appropriately changing a state according to detection of a monitoring object.SOLUTION: A shovel includes: a person detection part 34 for detecting a monitoring object present in a peripheral prescribed range; and a controller 30 having a control part 35 for switching a state of the shovel to a first state or a second state based on a detection result of the person detection part 34. The first state includes a state where restriction of movement of the shovel is released, and the second state includes a state where the movement of the shovel is restricted. When the state of the shovel is switched from the first state to the second state and then a prescribed condition is satisfied, the controller 30 returns the state of the shovel to the first state. The predetermined condition includes non-detection of the monitoring object in the prescribed range, and securing of a state where the shovel is not moved.SELECTED DRAWING: Figure 1

Description

本発明は、ショベルに関する。 The present invention relates to excavators.

ショベル周辺に存在する物体(人)を検知するセンサを備えたショベルが知られている(特許文献1参照。)。このショベルは、ショベルの右側で物体(人)を検知した場合に運転室内の右壁に設置されたスピーカから警報を出力させ、且つ、ショベルの右側を撮像するカメラのスルー画像をディスプレイに表示させる。また、ショベルの左側で物体(人)を検知した場合に運転室内の左壁に設置されたスピーカから警報を出力させ、且つ、ショベルの左側を撮像するカメラのスルー画像をディスプレイに表示させる。 A shovel equipped with a sensor for detecting an object (person) existing around the shovel is known (see Patent Document 1). This excavator outputs an alarm from a speaker installed on the right wall of the driver's cab when an object (person) is detected on the right side of the excavator, and displays a through image of the camera that captures the right side of the excavator on the display. .. Further, when an object (person) is detected on the left side of the excavator, an alarm is output from a speaker installed on the left wall of the driver's cab, and a through image of a camera that captures the left side of the excavator is displayed on the display.

特開2014−183500号公報Japanese Unexamined Patent Publication No. 2014-183500

しかしながら、特許文献1は、センサが物体(人)等の監視対象を検知したときのショベルの状態の変化については言及していない。 However, Patent Document 1 does not mention a change in the state of the excavator when the sensor detects a monitored object such as an object (person).

上述に鑑み、監視対象の検知に応じて状態を適切に変化させることができるショベルの提供が望まれる。 In view of the above, it is desired to provide a shovel that can appropriately change the state according to the detection of the monitored object.

本発明の実施例に係るショベルは、走行体と、前記走行体に旋回可能に搭載された旋回体と、前記旋回体に設けられた作業アタッチメントと、を備えるショベルであって、前記旋回体に設けられ、前記ショベルの周辺の所定範囲に存在する監視対象を検知する検知部と、前記検知部の検知結果に基づき、前記ショベルの状態を、第1状態又は第2状態に切り換える制御部と、を備え、前記第1状態は、前記ショベルの動きの制限が解除されている状態を含み、前記第2状態は、前記ショベルの動きが制限されている状態を含み、前記制御部は、前記ショベルの状態を前記第1状態から前記第2状態に切り換えた後で所定の条件が満たされた場合に前記ショベルの状態を前記第1状態に戻し、前記所定の条件は、前記所定範囲での前記監視対象の非検知と、前記ショベルが動き出さない状態が確保されていることと、を含む。 The excavator according to the embodiment of the present invention is an excavator including a traveling body, a swivel body rotatably mounted on the traveling body, and a work attachment provided on the swivel body, and the swivel body includes the traveling body. A detection unit that is provided and detects a monitoring target existing in a predetermined range around the excavator, and a control unit that switches the state of the excavator to a first state or a second state based on the detection result of the detection unit. The first state includes a state in which the movement of the excavator is restricted, the second state includes a state in which the movement of the excavator is restricted, and the control unit controls the excavator. When a predetermined condition is satisfied after switching the state of the above from the first state to the second state, the state of the excavator is returned to the first state, and the predetermined condition is the said within the predetermined range. This includes non-detection of the monitoring target and ensuring that the excavator does not start moving.

上述の手段により、監視対象の検知に応じて状態を適切に変化させることができるショベルが提供される。 By the above-mentioned means, a shovel capable of appropriately changing the state according to the detection of the monitored object is provided.

本発明の実施例に係る周辺監視システムが搭載されるショベルの側面図である。It is a side view of the excavator which mounts the peripheral monitoring system which concerns on embodiment of this invention. 周辺監視システムの構成例を示す機能ブロック図である。It is a functional block diagram which shows the configuration example of the peripheral monitoring system. 後方カメラの撮像画像の例である。This is an example of an image captured by a rear camera. 撮像画像から識別処理対象画像を切り出す際に用いられる幾何学的関係の一例を示す概略図である。It is a schematic diagram which shows an example of the geometric relation used when cutting out the identification processing target image from the captured image. ショベル後方の実空間の上面視である。It is a top view of the real space behind the excavator. 撮像画像から正規化画像を生成する処理の流れを示す図である。It is a figure which shows the flow of the process which generates the normalized image from the captured image. 撮像画像と識別処理対象画像領域と正規化画像との関係を示す図である。It is a figure which shows the relationship between the captured image, the image area subject to identification processing, and a normalized image. 識別処理対象画像領域と識別処理不適領域との関係を示す図である。It is a figure which shows the relationship between the image area which is the object of identification processing, and the area which is unsuitable for identification processing. 正規化画像の例を示す図である。It is a figure which shows the example of the normalized image. 撮像画像から識別処理対象画像を切り出す際に用いられる幾何学的関係の別の一例を示す概略図である。It is a schematic diagram which shows another example of the geometric relation used when cutting out the identification processing target image from the captured image. 撮像画像における特徴画像の一例を示す図である。It is a figure which shows an example of the feature image in the captured image. 画像抽出処理の一例の流れを示すフローチャートである。It is a flowchart which shows the flow of an example of an image extraction process. 周辺監視処理の一例の流れを示すフローチャートである。It is a flowchart which shows the flow of an example of peripheral monitoring processing. 制限解除処理の一例の流れを示すフローチャートである。It is a flowchart which shows the flow of an example of the restriction release process. 出力画像の例を示す図である。It is a figure which shows the example of the output image. 検知状態と枠及び領域の表示色との対応関係を示す対応テーブルである。It is a correspondence table which shows the correspondence relation between the detection state and the display color of a frame and an area. 出力画像としての視点変換画像の例である。This is an example of a viewpoint conversion image as an output image. 視点変換画像を含む出力画像の例である。This is an example of an output image including a viewpoint conversion image.

図1は、本発明の実施例に係る周辺監視システム100が搭載される建設機械としてのショベルの側面図である。ショベルの下部走行体1には、旋回機構2を介して上部旋回体3が搭載される。上部旋回体3には、ブーム4が取り付けられる。ブーム4の先端にはアーム5が取り付けられ、アーム5の先端にはバケット6が取り付けられる。ブーム4、アーム5、及びバケット6は掘削アタッチメントを構成し、ブームシリンダ7、アームシリンダ8、及びバケットシリンダ9によりそれぞれ油圧駆動される。また、上部旋回体3には、キャビン10が設けられ、且つエンジン等の動力源が搭載される。また、上部旋回体3の上部には撮像装置40が取り付けられる。具体的には、上部旋回体3の後端上部、左端上部、右端上部に後方カメラ40B、左側方カメラ40L、右側方カメラ40Rが取り付けられる。また、キャビン10内にはコントローラ30及び出力装置50が設置される。 FIG. 1 is a side view of an excavator as a construction machine on which the peripheral monitoring system 100 according to the embodiment of the present invention is mounted. The upper swivel body 3 is mounted on the lower traveling body 1 of the excavator via the swivel mechanism 2. A boom 4 is attached to the upper swing body 3. An arm 5 is attached to the tip of the boom 4, and a bucket 6 is attached to the tip of the arm 5. The boom 4, arm 5, and bucket 6 form an excavation attachment, and are hydraulically driven by the boom cylinder 7, arm cylinder 8, and bucket cylinder 9, respectively. Further, the upper swing body 3 is provided with a cabin 10 and is equipped with a power source such as an engine. Further, an image pickup device 40 is attached to the upper part of the upper swing body 3. Specifically, the rear camera 40B, the left side camera 40L, and the right side camera 40R are attached to the upper rear end, the upper left end, and the upper right end of the upper swing body 3. Further, a controller 30 and an output device 50 are installed in the cabin 10.

図2は、周辺監視システム100の構成例を示す機能ブロック図である。周辺監視システム100は、主に、コントローラ30、撮像装置40、及び出力装置50を含む。 FIG. 2 is a functional block diagram showing a configuration example of the peripheral monitoring system 100. The peripheral monitoring system 100 mainly includes a controller 30, an image pickup device 40, and an output device 50.

コントローラ30は、ショベルの駆動制御を行う制御装置である。本実施例では、コントローラ30は、CPU及び内部メモリを含む演算処理装置で構成され、内部メモリに格納された駆動制御用のプログラムをCPUに実行させて各種機能を実現する。 The controller 30 is a control device that controls the drive of the excavator. In this embodiment, the controller 30 is composed of a CPU and an arithmetic processing device including an internal memory, and causes the CPU to execute a drive control program stored in the internal memory to realize various functions.

また、コントローラ30は、各種装置の出力に基づいてショベルの周辺に人が存在するかを判定し、その判定結果に応じて各種装置を制御する。具体的には、コントローラ30は、撮像装置40及び入力装置41の出力を受け、抽出部31、識別部32、追跡部33、及び制御部35のそれぞれに対応するソフトウェアプログラムを実行する。そして、その実行結果に応じて機械制御装置51に制御指令を出力してショベルの駆動制御を実行し、或いは、出力装置50から各種情報を出力させる。なお、コントローラ30は、画像処理専用の制御装置であってもよい。 Further, the controller 30 determines whether or not a person exists in the vicinity of the excavator based on the outputs of the various devices, and controls the various devices according to the determination result. Specifically, the controller 30 receives the outputs of the image pickup device 40 and the input device 41, and executes software programs corresponding to each of the extraction unit 31, the identification unit 32, the tracking unit 33, and the control unit 35. Then, a control command is output to the machine control device 51 to execute the excavator drive control according to the execution result, or various information is output from the output device 50. The controller 30 may be a control device dedicated to image processing.

撮像装置40は、ショベルの周囲の画像を撮像する装置であり、撮像した画像をコントローラ30に対して出力する。本実施例では、撮像装置40は、CCD等の撮像素子を採用するワイドカメラであり、上部旋回体3の上部において光軸が斜め下方を向くように取り付けられる。 The image pickup device 40 is a device that captures an image of the surroundings of the excavator, and outputs the captured image to the controller 30. In this embodiment, the image pickup device 40 is a wide camera that employs an image pickup device such as a CCD, and is attached so that the optical axis faces diagonally downward at the upper part of the upper swing body 3.

入力装置41は操作者の入力を受ける装置である。本実施例では、入力装置41は、操作装置(操作レバー、操作ペダル等)、ゲートロックレバー、操作装置の先端に設置されたボタン、車載ディスプレイに付属のボタン、タッチパネル等を含む。 The input device 41 is a device that receives input from the operator. In this embodiment, the input device 41 includes an operation device (operation lever, operation pedal, etc.), a gate lock lever, a button installed at the tip of the operation device, a button attached to an in-vehicle display, a touch panel, and the like.

出力装置50は、各種情報を出力する装置であり、例えば、各種画像情報を表示する車載ディスプレイ、各種音声情報を音声出力する車載スピーカ、警報ブザー、警報ランプ等を含む。本実施例では、出力装置50は、コントローラ30からの制御指令に応じて各種情報を出力する。 The output device 50 is a device that outputs various information, and includes, for example, an in-vehicle display that displays various image information, an in-vehicle speaker that outputs various audio information by voice, an alarm buzzer, an alarm lamp, and the like. In this embodiment, the output device 50 outputs various information in response to a control command from the controller 30.

機械制御装置51は、ショベルの動きを制御する装置であり、例えば、油圧システムにおける作動油の流れを制御する制御弁、ゲートロック弁、エンジン制御装置等を含む。 The mechanical control device 51 is a device that controls the movement of the excavator, and includes, for example, a control valve, a gate lock valve, an engine control device, and the like that control the flow of hydraulic oil in a hydraulic system.

抽出部31は、撮像装置40が撮像した撮像画像から識別処理対象画像を抽出する機能要素である。具体的には、抽出部31は、局所的な輝度勾配又はエッジに基づく簡易な特徴、Hough変換等による幾何学的特徴、輝度に基づいて分割された領域の面積又はアスペクト比に関する特徴等を抽出する比較的演算量の少ない画像処理(以下、「前段画像認識処理」とする。)によって識別処理対象画像を抽出する。識別処理対象画像は、後続の画像処理の対象となる画像部分(撮像画像の一部)であり、人候補画像を含む。人候補画像は、人画像である可能性が高いとされる画像部分(撮像画像の一部)である。 The extraction unit 31 is a functional element that extracts an image to be identified for identification processing from an image captured by the image pickup device 40. Specifically, the extraction unit 31 extracts simple features based on a local luminance gradient or edge, geometric features by Hough transform, etc., features related to the area or aspect ratio of a region divided based on luminance, and the like. The image to be identified is extracted by image processing with a relatively small amount of calculation (hereinafter referred to as "pre-stage image recognition processing"). The identification processing target image is an image portion (a part of the captured image) that is the target of subsequent image processing, and includes a person candidate image. The human candidate image is an image portion (a part of the captured image) that is likely to be a human image.

識別部32は、抽出部31が抽出した識別処理対象画像に含まれる人候補画像が人画像であるかを識別する機能要素である。具体的には、識別部32は、HOG(Histograms of Oriented Gradients)特徴量に代表される画像特徴量記述と機械学習により生成した識別器とを用いた画像認識処理等の比較的演算量の多い画像処理(以下、「後段画像認識処理」とする。)によって人候補画像が人画像であるかを識別する。識別部32が人候補画像を人画像として識別する割合は、抽出部31による識別処理対象画像の抽出が高精度であるほど高くなる。なお、識別部32は、夜間、悪天候時等の撮像に適さない環境下で所望の品質の撮像画像を得られない場合等においては、人候補画像の全てが人画像であると識別し、抽出部31が抽出した識別処理対象画像における人候補画像の全てを人であると識別してもよい。人の検知漏れを防止するためである。 The identification unit 32 is a functional element that identifies whether the person candidate image included in the identification processing target image extracted by the extraction unit 31 is a human image. Specifically, the identification unit 32 has a relatively large amount of calculation such as an image recognition process using an image feature description represented by a HOG (Histograms of Oriented Gradients) feature and a classifier generated by machine learning. It is identified whether the person candidate image is a person image by image processing (hereinafter, referred to as "post-stage image recognition processing"). The rate at which the identification unit 32 identifies the human candidate image as a human image increases as the extraction unit 31 extracts the identification processing target image with higher accuracy. The identification unit 32 identifies and extracts all of the human candidate images as human images when an image of desired quality cannot be obtained in an environment unsuitable for imaging such as at night or in bad weather. All of the person candidate images in the identification processing target image extracted by the unit 31 may be identified as a person. This is to prevent human detection omission.

次に、図3を参照し、後方カメラ40Bが撮像したショベル後方の撮像画像における人画像の見え方について説明する。なお、図3の2つの撮像画像は、後方カメラ40Bの撮像画像の例である。また、図3の点線円は人画像の存在を表し、実際の撮像画像には表示されない。 Next, with reference to FIG. 3, how the human image looks in the captured image behind the excavator captured by the rear camera 40B will be described. The two captured images in FIG. 3 are examples of captured images of the rear camera 40B. Further, the dotted line circle in FIG. 3 represents the existence of a human image and is not displayed in the actual captured image.

後方カメラ40Bは、ワイドカメラであり、且つ、人を斜め上から見下ろす高さに取り付けられる。そのため、撮像画像における人画像の見え方は、後方カメラ40Bから見た人の存在方向によって大きく異なる。例えば、撮像画像中の人画像は、撮像画像の左右の端部に近いほど傾いて表示される。これは、ワイドカメラの広角レンズに起因する像倒れによる。また、後方カメラ40Bに近いほど頭部が大きく表示される。また、脚部がショベルの車体の死角に入って見えなくなってしまう。これらは、後方カメラ40Bの設置位置に起因する。そのため、撮像画像に何らの加工を施すことなく画像処理によってその撮像画像に含まれる人画像を識別するのは困難である。 The rear camera 40B is a wide camera and is mounted at a height at which a person is viewed from diagonally above. Therefore, the appearance of the human image in the captured image greatly differs depending on the direction in which the person exists as seen from the rear camera 40B. For example, a human image in a captured image is displayed so as to be closer to the left and right edges of the captured image. This is due to image collapse caused by the wide-angle lens of the wide-angle camera. Further, the closer to the rear camera 40B, the larger the head is displayed. In addition, the legs enter the blind spot of the excavator's body and become invisible. These are due to the installation position of the rear camera 40B. Therefore, it is difficult to identify the human image included in the captured image by image processing without performing any processing on the captured image.

そこで、本発明の実施例に係る周辺監視システム100は、識別処理対象画像を正規化することで、識別処理対象画像に含まれる人画像の識別を促進する。なお、「正規化」は、識別処理対象画像を所定サイズ及び所定形状の画像に変換することを意味する。本実施例では、撮像画像において様々な形状を取り得る識別処理対象画像は射影変換によって所定サイズの長方形画像に変換される。なお、射影変換としては例えば8変数の射影変換行列が用いられる。 Therefore, the peripheral monitoring system 100 according to the embodiment of the present invention promotes the identification of the human image included in the identification processing target image by normalizing the identification processing target image. In addition, "normalization" means converting the image to be identified for identification processing into an image having a predetermined size and a predetermined shape. In this embodiment, the identification processing target image that can take various shapes in the captured image is converted into a rectangular image of a predetermined size by the projective transformation. As the projective transformation, for example, an 8-variable projective transformation matrix is used.

ここで、図4〜図6を参照し、周辺監視システム100が識別処理対象画像を正規化する処理(以下、「正規化処理」とする。)の一例について説明する。なお、図4は、抽出部31が撮像画像から識別処理対象画像を切り出す際に用いる幾何学的関係の一例を示す概略図である。 Here, with reference to FIGS. 4 to 6, an example of a process in which the peripheral monitoring system 100 normalizes the image to be identified (hereinafter referred to as “normalization process”) will be described. Note that FIG. 4 is a schematic view showing an example of the geometric relationship used when the extraction unit 31 cuts out the identification processing target image from the captured image.

図4のボックスBXは、実空間における仮想立体物であり、本実施例では、8つの頂点A〜Hで定められる仮想直方体である。また、点Prは、識別処理対象画像を参照するために予め設定される参照点である。本実施例では、参照点Prは、人の想定立ち位置として予め設定される点であり、4つの頂点A〜Dで定められる四角形ABCDの中心に位置する。また、ボックスBXのサイズは、人の向き、歩幅、身長等に基づいて設定される。本実施例では、四角形ABCD及び四角形EFGHは正方形であり、一辺の長さは例えば800mmである。また、直方体の高さは例えば1800mmである。すなわち、ボックスBXは、幅800mm×奥行800mm×高さ1800mmの直方体である。 The box BX in FIG. 4 is a virtual three-dimensional object in real space, and in this embodiment, it is a virtual rectangular parallelepiped defined by eight vertices A to H. Further, the point Pr is a reference point set in advance for referring to the image to be identified for identification processing. In this embodiment, the reference point Pr is a point preset as an assumed standing position of a person, and is located at the center of the quadrangle ABCD defined by the four vertices A to D. The size of the box BX is set based on the direction of the person, the stride length, the height, and the like. In this embodiment, the quadrangle ABCD and the quadrangle EFGH are square, and the length of one side is, for example, 800 mm. The height of the rectangular parallelepiped is, for example, 1800 mm. That is, the box BX is a rectangular parallelepiped having a width of 800 mm, a depth of 800 mm, and a height of 1800 mm.

4つの頂点A、B、G、Hで定められる四角形ABGHは、撮像画像における識別処理対象画像の領域に対応する仮想平面領域TRを形成する。また、仮想平面領域TRとしての四角形ABGHは、水平面である仮想地面に対して傾斜する。 The quadrangle ABGH defined by the four vertices A, B, G, and H forms a virtual plane region TR corresponding to the region of the identification processing target image in the captured image. Further, the quadrangle ABGH as the virtual plane region TR is inclined with respect to the virtual ground which is a horizontal plane.

なお、本実施例では、参照点Prと仮想平面領域TRとの関係を定めるために仮想直方体としてのボックスBXが採用される。しかしながら、撮像装置40の方向を向き且つ仮想地面に対して傾斜する仮想平面領域TRを任意の参照点Prに関連付けて定めることができるのであれば、他の仮想立体物を用いた関係等の他の幾何学的関係が採用されてもよく、関数、変換テーブル等の他の数学的関係が採用されてもよい。 In this embodiment, the box BX as a virtual rectangular parallelepiped is adopted to determine the relationship between the reference point Pr and the virtual plane region TR. However, if the virtual plane region TR that faces the direction of the image pickup apparatus 40 and is inclined with respect to the virtual ground can be defined in association with an arbitrary reference point Pr, other relationships such as using other virtual three-dimensional objects, etc. Geometric relations may be adopted, and other mathematical relations such as functions and conversion tables may be adopted.

図5は、ショベル後方の実空間の上面視であり、参照点Pr1、Pr2を用いて仮想平面領域TR1、TR2が参照された場合における後方カメラ40Bと仮想平面領域TR1、TR2との位置関係を示す。なお、本実施例では、参照点Prは、仮想地面上の仮想グリッドの格子点のそれぞれに配置可能である。但し、参照点Prは、仮想地面上に不規則に配置されてもよく、後方カメラ40Bの仮想地面への投影点から放射状に伸びる線分上に等間隔に配置されてもよい。例えば、各線分は1度刻みで放射状に伸び、参照点Prは各線分上に100mm間隔に配置される。 FIG. 5 is a top view of the real space behind the excavator, and shows the positional relationship between the rear camera 40B and the virtual plane regions TR1 and TR2 when the virtual plane regions TR1 and TR2 are referred to using the reference points Pr1 and Pr2. Shown. In this embodiment, the reference point Pr can be arranged at each of the grid points of the virtual grid on the virtual ground. However, the reference points Pr may be irregularly arranged on the virtual ground, or may be arranged at equal intervals on a line segment extending radially from the projection point of the rear camera 40B on the virtual ground. For example, each line segment extends radially in 1 degree increments, and reference points Pr are arranged on each line segment at 100 mm intervals.

図4及び図5に示すように、四角形ABFE(図4参照。)で定められるボックスBXの第1面は、参照点Pr1を用いて仮想平面領域TR1が参照される場合、後方カメラ40Bに正対するように配置される。すなわち、後方カメラ40Bと参照点Pr1とを結ぶ線分は、参照点Pr1に関連して配置されるボックスBXの第1面と上面視で直交する。同様に、ボックスBXの第1面は、参照点Pr2を用いて仮想平面領域TR2が参照される場合にも、後方カメラ40Bに正対するように配置される。すなわち、後方カメラ40Bと参照点Pr2とを結ぶ線分は、参照点Pr2に関連して配置されるボックスBXの第1面と上面視で直交する。この関係は、参照点Prが何れの格子点上に配置された場合であっても成立する。すなわち、ボックスBXは、その第1面が常に後方カメラ40Bに正対するように配置される。 As shown in FIGS. 4 and 5, the first surface of the box BX defined by the quadrangle ABFE (see FIG. 4) is positive to the rear camera 40B when the virtual plane region TR1 is referenced using the reference point Pr1. Arranged to face each other. That is, the line segment connecting the rear camera 40B and the reference point Pr1 is orthogonal to the first surface of the box BX arranged in relation to the reference point Pr1 in the top view. Similarly, the first surface of the box BX is arranged so as to face the rear camera 40B even when the virtual plane region TR2 is referred to by using the reference point Pr2. That is, the line segment connecting the rear camera 40B and the reference point Pr2 is orthogonal to the first surface of the box BX arranged in relation to the reference point Pr2 in the top view. This relationship holds regardless of which grid point the reference point Pr is placed on. That is, the box BX is arranged so that its first surface always faces the rear camera 40B.

図6は、撮像画像から正規化画像を生成する処理の流れを示す図である。具体的には、図6(A)は、後方カメラ40Bの撮像画像の一例であり、実空間における参照点Prに関連して配置されるボックスBXを映し出す。また、図6(B)は、撮像画像における識別処理対象画像の領域(以下、「識別処理対象画像領域TRg」とする。)を切り出した図であり、図6(A)の撮像画像に映し出された仮想平面領域TRに対応する。また、図6(C)は、識別処理対象画像領域TRgを有する識別処理対象画像を正規化した正規化画像TRgtを示す。 FIG. 6 is a diagram showing a flow of processing for generating a normalized image from a captured image. Specifically, FIG. 6A is an example of the captured image of the rear camera 40B, and projects the box BX arranged in relation to the reference point Pr in the real space. Further, FIG. 6B is a diagram obtained by cutting out a region of the identification processing target image in the captured image (hereinafter, referred to as “identification processing target image region TRg”), and is projected on the captured image of FIG. 6A. Corresponds to the virtual plane area TR. Further, FIG. 6C shows a normalized image TRgt in which the identification processing target image having the identification processing target image region TRg is normalized.

図6(A)に示すように、実空間上で参照点Pr1に関連して配置されるボックスBXは、実空間における仮想平面領域TRの位置を定め、そして、仮想平面領域TRに対応する撮像画像上の識別処理対象画像領域TRgを定める。 As shown in FIG. 6 (A), the box BX arranged in relation to the reference point Pr1 in the real space determines the position of the virtual plane region TR in the real space, and the imaging corresponding to the virtual plane region TR is performed. The image area TRg to be identified on the image is determined.

このように、実空間における参照点Prの位置が決まれば、実空間における仮想平面領域TRの位置が一意に決まり、撮像画像における識別処理対象画像領域TRgも一意に決まる。そして、抽出部31は、識別処理対象画像領域TRgを有する識別処理対象画像を正規化して所定サイズの正規化画像TRgtを生成できる。本実施例では、正規化画像TRgtのサイズは、例えば縦64ピクセル×横32ピクセルである。 In this way, if the position of the reference point Pr in the real space is determined, the position of the virtual plane region TR in the real space is uniquely determined, and the identification processing target image region TRg in the captured image is also uniquely determined. Then, the extraction unit 31 can normalize the identification processing target image having the identification processing target image region TRg to generate a normalized image TRgt of a predetermined size. In this embodiment, the size of the normalized image TRgt is, for example, 64 pixels in length × 32 pixels in width.

図7は、撮像画像と識別処理対象画像領域と正規化画像との関係を示す図である。具体的には、図7(A1)は、撮像画像における識別処理対象画像領域TRg3を示し、図7(A2)は、識別処理対象画像領域TRg3を有する識別処理対象画像の正規化画像TRgt3を示す。また、図7(B1)は、撮像画像における識別処理対象画像領域TRg4を示し、図7(B2)は、識別処理対象画像領域TRg4を有する識別処理対象画像の正規化画像TRgt4を示す。同様に、図7(C1)は、撮像画像における識別処理対象画像領域TRg5を示し、図7(C2)は、識別処理対象画像領域TRg5を有する識別処理対象画像の正規化画像TRgt5を示す。 FIG. 7 is a diagram showing the relationship between the captured image, the image area subject to identification processing, and the normalized image. Specifically, FIG. 7 (A1) shows the identification processing target image region TRg3 in the captured image, and FIG. 7 (A2) shows the normalized image TRgt3 of the identification processing target image having the identification processing target image region TRg3. .. Further, FIG. 7 (B1) shows the identification processing target image region TRg4 in the captured image, and FIG. 7 (B2) shows the normalized image TRgt4 of the identification processing target image having the identification processing target image region TRg4. Similarly, FIG. 7 (C1) shows the identification processing target image region TRg5 in the captured image, and FIG. 7 (C2) shows the normalized image TRgt5 of the identification processing target image having the identification processing target image region TRg5.

図7に示すように、撮像画像における識別処理対象画像領域TRg5は、撮像画像における識別処理対象画像領域TRg4より大きい。識別処理対象画像領域TRg5に対応する仮想平面領域と後方カメラ40Bとの間の距離が、識別処理対象画像領域TRg4に対応する仮想平面領域と後方カメラ40Bとの間の距離より小さいためである。同様に、撮像画像における識別処理対象画像領域TRg4は、撮像画像における識別処理対象画像領域TRg3より大きい。識別処理対象画像領域TRg4に対応する仮想平面領域と後方カメラ40Bとの間の距離が、識別処理対象画像領域TRg3に対応する仮想平面領域と後方カメラ40Bとの間の距離より小さいためである。すなわち、撮像画像における識別処理対象画像領域は、対応する仮想平面領域と後方カメラ40Bとの間の距離が大きいほど小さい。その一方で、正規化画像TRgt3、TRgt4、TRgt5は何れも同じサイズの長方形画像である。 As shown in FIG. 7, the identification processing target image region TRg5 in the captured image is larger than the identification processing target image region TRg4 in the captured image. This is because the distance between the virtual plane area corresponding to the identification processing target image area TRg5 and the rear camera 40B is smaller than the distance between the virtual plane area corresponding to the identification processing target image area TRg4 and the rear camera 40B. Similarly, the identification processing target image region TRg4 in the captured image is larger than the identification processing target image region TRg3 in the captured image. This is because the distance between the virtual plane area corresponding to the identification processing target image area TRg4 and the rear camera 40B is smaller than the distance between the virtual plane area corresponding to the identification processing target image area TRg3 and the rear camera 40B. That is, the identification processing target image area in the captured image is smaller as the distance between the corresponding virtual plane area and the rear camera 40B is larger. On the other hand, the normalized images TRgt3, TRgt4, and TRgt5 are all rectangular images of the same size.

このように、抽出部31は、撮像画像において様々な形状及びサイズを取り得る識別処理対象画像を所定サイズの長方形画像に正規化し、人画像を含む人候補画像を正規化できる。具体的には、抽出部31は、正規化画像の所定領域に人候補画像の頭部であると推定される画像部分(以下、「頭部画像部分」とする。)を配置する。また、正規化画像の別の所定領域に人候補画像の胴体部であると推定される画像部分(以下、「胴体部画像部分」とする。)を配置し、正規化画像のさらに別の所定領域に人候補画像の脚部であると推定される画像部分(以下、「脚部画像部分」とする。)を配置する。また、抽出部31は、正規化画像の形状に対する人候補画像の傾斜(像倒れ)を抑えた状態で正規化画像を取得できる。 In this way, the extraction unit 31 can normalize the identification processing target image that can take various shapes and sizes in the captured image to a rectangular image of a predetermined size, and normalize the human candidate image including the human image. Specifically, the extraction unit 31 arranges an image portion (hereinafter, referred to as “head image portion”) presumed to be the head of the human candidate image in a predetermined region of the normalized image. Further, an image portion presumed to be the body portion of the human candidate image (hereinafter referred to as “body portion image portion”) is arranged in another predetermined region of the normalized image, and another predetermined region of the normalized image is provided. An image portion (hereinafter, referred to as “leg image portion”) that is presumed to be the leg portion of the person candidate image is arranged in the region. Further, the extraction unit 31 can acquire the normalized image in a state where the inclination (image collapse) of the person candidate image with respect to the shape of the normalized image is suppressed.

次に、図8を参照し、識別処理対象画像領域が、人画像の識別に悪影響を与える識別に適さない画像領域(以下、「識別処理不適領域」とする。)を含む場合の正規化処理について説明する。識別処理不適領域は、人画像が存在し得ない既知の領域であり、例えば、ショベルの車体が映り込んだ領域(以下、「車体映り込み領域」とする。)、撮像画像からはみ出た領域(以下、「はみ出し領域」とする。)等を含む。なお、図8は、識別処理対象画像領域と識別処理不適領域との関係を示す図であり、図7(C1)及び図7(C2)に対応する。また、図8左図の右下がりの斜線ハッチング領域は、はみ出し領域R1に対応し、左下がりの斜線ハッチング領域は、車体映り込み領域R2に対応する。 Next, with reference to FIG. 8, normalization processing is performed when the image area to be identified includes an image area unsuitable for identification that adversely affects the identification of human images (hereinafter, referred to as “identification processing unsuitable area”). Will be described. The area unsuitable for the identification process is a known area in which a human image cannot exist. For example, an area in which the vehicle body of the excavator is reflected (hereinafter, referred to as a “vehicle body reflection area”) and an area protruding from the captured image (the area beyond the captured image). Hereinafter, it is referred to as a “protruding area”) and the like. Note that FIG. 8 is a diagram showing the relationship between the image region subject to identification processing and the region unsuitable for identification processing, and corresponds to FIGS. 7 (C1) and 7 (C2). Further, the downward-sloping diagonal hatching area in FIG. 8 left corresponds to the protruding area R1, and the downward-sloping diagonal hatching area corresponds to the vehicle body reflection area R2.

本実施例では、抽出部31は、識別処理対象画像領域TRg5がはみ出し領域R1及び車体映り込み領域R2の一部を含む場合、それらの識別処理不適領域をマスク処理した後で、識別処理対象画像領域TRg5を有する識別処理対象画像の正規化画像TRgt5を生成する。なお、抽出部31は、正規化画像TRgt5を生成した後で、正規化画像TRgt5における識別処理不適領域に対応する部分をマスク処理してもよい。 In this embodiment, when the identification processing target image area TRg5 includes a part of the protruding area R1 and the vehicle body reflection area R2, the extraction unit 31 masks the areas unsuitable for the identification processing and then the identification processing target image. A normalized image TRgt5 of the identification processing target image having the region TRg5 is generated. After generating the normalized image TRgt5, the extraction unit 31 may mask the portion corresponding to the region unsuitable for the identification process in the normalized image TRgt5.

図8右図は、正規化画像TRgt5を示す。また、図8右図において、右下がりの斜線ハッチング領域は、はみ出し領域R1に対応するマスク領域M1を表し、左下がりの斜線ハッチング領域は、車体映り込み領域R2の一部に対応するマスク領域M2を表す。 The right figure of FIG. 8 shows the normalized image TRgt5. Further, in the right figure of FIG. 8, the downward-sloping diagonal hatching area represents the mask area M1 corresponding to the protruding area R1, and the downward-sloping diagonal hatching area is the mask area M2 corresponding to a part of the vehicle body reflection area R2. Represents.

このようにして、抽出部31は、識別処理不適領域の画像をマスク処理することで、識別処理不適領域の画像が識別部32による識別処理に影響を及ぼすのを防止する。このマスク処理により、識別部32は、識別処理不適領域の画像の影響を受けることなく、正規化画像におけるマスク領域以外の領域の画像を用いて人画像であるかを識別できる。なお、抽出部31は、マスク処理以外の他の任意の公知方法で、識別処理不適領域の画像が識別部32による識別処理に影響を及ぼさないようにしてもよい。 In this way, the extraction unit 31 masks the image of the region unsuitable for the identification process to prevent the image of the region unsuitable for the identification process from affecting the identification process by the identification unit 32. By this mask processing, the identification unit 32 can identify whether the image is a human image by using the image of the region other than the mask region in the normalized image without being affected by the image of the region unsuitable for the identification processing. The extraction unit 31 may use any known method other than the mask processing so that the image of the region unsuitable for the identification process does not affect the identification process by the identification unit 32.

次に、図9を参照し、抽出部31が生成する正規化画像の特徴について説明する。なお、図9は、正規化画像の例を示す図である。また、図9に示す14枚の正規化画像は、図の左端に近い正規化画像ほど、後方カメラ40Bから近い位置に存在する人候補の画像を含み、図の右端に近い正規化画像ほど、後方カメラ40Bから遠い位置に存在する人候補の画像を含む。 Next, with reference to FIG. 9, the features of the normalized image generated by the extraction unit 31 will be described. Note that FIG. 9 is a diagram showing an example of a normalized image. Further, in the 14 normalized images shown in FIG. 9, the normalized image closer to the left end of the figure includes the image of the person candidate existing at a position closer to the rear camera 40B, and the normalized image closer to the right end of the figure. Includes an image of a candidate person existing at a position far from the rear camera 40B.

図9に示すように、抽出部31は、実空間における仮想平面領域TRと後方カメラ40Bとの間の後方水平距離(図5に示すY軸方向の水平距離)に関係なく、何れの正規化画像内においてもほぼ同じ割合で頭部画像部分、胴体部画像部分、脚部画像部分等を配置できる。そのため、抽出部31は、識別部32が識別処理を実行する際の演算負荷を低減でき、且つ、その識別結果の信頼性を向上できる。なお、上述の後方水平距離は、実空間における仮想平面領域TRと後方カメラ40Bとの間の位置関係に関する情報の一例であり、抽出部31は、抽出した識別処理対象画像にその情報を付加する。また、上述の位置関係に関する情報は、仮想平面領域TRに対応する参照点Prと後方カメラ40Bとを結ぶ線分の後方カメラ40Bの光軸に対する上面視角度等を含む。 As shown in FIG. 9, the extraction unit 31 performs any normalization regardless of the rear horizontal distance (horizontal distance in the Y-axis direction shown in FIG. 5) between the virtual plane region TR and the rear camera 40B in the real space. In the image, the head image portion, the body portion image portion, the leg portion image portion, and the like can be arranged at almost the same ratio. Therefore, the extraction unit 31 can reduce the calculation load when the identification unit 32 executes the identification process, and can improve the reliability of the identification result. The above-mentioned rear horizontal distance is an example of information regarding the positional relationship between the virtual plane region TR and the rear camera 40B in the real space, and the extraction unit 31 adds the information to the extracted identification processing target image. .. Further, the above-mentioned information on the positional relationship includes a top view angle with respect to the optical axis of the rear camera 40B of the line segment connecting the reference point Pr corresponding to the virtual plane region TR and the rear camera 40B.

以上の構成により、周辺監視システム100は、撮像装置40の方向を向き且つ水平面である仮想地面に対して傾斜する仮想平面領域TRに対応する識別処理対象画像領域TRgから正規化画像TRgtを生成する。そのため、人の高さ方向及び奥行き方向の見え方を考慮した正規化を実現できる。その結果、人を斜め上から撮像するように建設機械に取り付けられる撮像装置40の撮像画像を用いた場合であっても建設機械の周囲に存在する人をより確実に検知できる。特に、人が撮像装置40に接近した場合であっても、撮像画像上の十分な大きさの領域を占める識別処理対象画像から正規化画像を生成できるため、その人を確実に検知できる。 With the above configuration, the peripheral monitoring system 100 generates a normalized image TRgt from the identification processing target image region TRg corresponding to the virtual plane region TR that faces the direction of the image pickup apparatus 40 and is inclined with respect to the virtual ground that is a horizontal plane. .. Therefore, it is possible to realize normalization in consideration of how a person looks in the height direction and the depth direction. As a result, even when the captured image of the image pickup device 40 attached to the construction machine so as to image the person from diagonally above is used, the person existing around the construction machine can be detected more reliably. In particular, even when a person approaches the image pickup device 40, the normalized image can be generated from the identification processing target image that occupies a sufficiently large area on the captured image, so that the person can be reliably detected.

また、周辺監視システム100は、実空間における仮想直方体であるボックスBXの4つの頂点A、B、G、Hで形成される矩形領域として仮想平面領域TRを定義する。そのため、実空間における参照点Prと仮想平面領域TRとを幾何学的に対応付けることができ、さらには、実空間における仮想平面領域TRと撮像画像における識別処理対象画像領域TRgとを幾何学的に対応付けることができる。 Further, the peripheral monitoring system 100 defines the virtual plane area TR as a rectangular area formed by the four vertices A, B, G, and H of the box BX, which is a virtual rectangular parallelepiped in the real space. Therefore, the reference point Pr in the real space and the virtual plane region TR can be geometrically associated with each other, and further, the virtual plane region TR in the real space and the identification processing target image region TRg in the captured image can be geometrically associated with each other. Can be associated.

また、抽出部31は、識別処理対象画像領域TRgに含まれる識別処理不適領域の画像をマスク処理する。そのため、識別部32は、車体映り込み領域R2を含む識別処理不適領域の画像の影響を受けることなく、正規化画像におけるマスク領域以外の領域の画像を用いて人画像であるかを識別できる。 In addition, the extraction unit 31 masks the image of the identification processing unsuitable region included in the identification processing target image region TRg. Therefore, the identification unit 32 can identify whether the image is a human image by using an image of a region other than the mask region in the normalized image without being affected by the image of the region unsuitable for the identification process including the vehicle body reflection region R2.

また、抽出部31は、参照点Pr毎に識別処理対象画像を抽出可能である。また、識別処理対象画像領域TRgのそれぞれは、対応する仮想平面領域TRを介して、人の想定立ち位置として予め設定される参照点Prの1つに関連付けられる。そのため、周辺監視システム100は、人が存在する可能性が高い参照点Prを任意の方法で抽出することで、人候補画像を含む可能性が高い識別処理対象画像を抽出できる。この場合、人候補画像を含む可能性が低い識別処理対象画像に対して、比較的演算量の多い画像処理による識別処理が施されてしまうのを防止でき、人検知処理の高速化を実現できる。 In addition, the extraction unit 31 can extract the identification processing target image for each reference point Pr. Further, each of the identification processing target image regions TRg is associated with one of the reference points Pr preset as the assumed standing position of the person via the corresponding virtual plane region TR. Therefore, the peripheral monitoring system 100 can extract the identification processing target image that is likely to include the person candidate image by extracting the reference point Pr that is likely to have a person by an arbitrary method. In this case, it is possible to prevent the identification processing target image, which is unlikely to include the person candidate image, from being subjected to the identification processing by the image processing having a relatively large amount of calculation, and it is possible to realize the speeding up of the person detection processing. ..

次に、図10及び図11を参照し、人候補画像を含む可能性が高い識別処理対象画像を抽出部31が抽出する処理の一例について説明する。なお、図10は、抽出部31が撮像画像から識別処理対象画像を切り出す際に用いる幾何学的関係の一例を示す概略図であり、図4に対応する。また、図11は、撮像画像における特徴画像の一例を示す図である。なお、特徴画像は、人の特徴的な部分を表す画像であり、望ましくは、実空間における地面からの高さが変化し難い部分を表す画像である。そのため、特徴画像は、例えば、ヘルメットの画像、肩の画像、頭の画像、人に取り付けられる反射板若しくはマーカの画像等を含む。 Next, with reference to FIGS. 10 and 11, an example of a process in which the extraction unit 31 extracts an image to be identified, which is likely to include a human candidate image, will be described. Note that FIG. 10 is a schematic view showing an example of the geometric relationship used when the extraction unit 31 cuts out the identification processing target image from the captured image, and corresponds to FIG. 4. Further, FIG. 11 is a diagram showing an example of a feature image in the captured image. The feature image is an image showing a characteristic part of a person, and preferably an image showing a part where the height from the ground in the real space is hard to change. Therefore, the feature image includes, for example, an image of a helmet, an image of a shoulder, an image of a head, an image of a reflector or a marker attached to a person, and the like.

特に、ヘルメットは、その形状がおよそ球体であり、その投影像が撮像画像上に投影されたときに撮像方向によらず常に円形に近いという特徴を有する。また、ヘルメットは、表面が硬質で光沢又は半光沢を有し、その投影像が撮像画像上に投影されたときに局所的な高輝度領域とその領域を中心とする放射状の輝度勾配を生じさせ易いという特徴を有する。そのため、ヘルメットの画像は、特徴画像として特に相応しい。なお、その投影像が円形に近いという特徴、局所的な高輝度領域を中心とする放射状の輝度勾配を生じさせ易いという特徴等は、撮像画像からヘルメットの画像を見つけ出す画像処理のために利用されてもよい。また、撮像画像からヘルメットの画像を見つけ出す画像処理は、例えば、輝度平滑化処理、ガウス平滑化処理、輝度極大点探索処理、輝度極小点探索処理等を含む。 In particular, the helmet has a characteristic that its shape is approximately spherical, and when the projected image is projected on the captured image, it is always close to a circle regardless of the imaging direction. In addition, the helmet has a hard surface and is glossy or semi-glossy, and when the projected image is projected on the captured image, a local high-luminance region and a radial brightness gradient centered on the region are generated. It has the feature of being easy. Therefore, the helmet image is particularly suitable as a feature image. The feature that the projected image is close to a circle, the feature that a radial luminance gradient centered on a local high-luminance region is likely to be generated, and the like are used for image processing to find an image of a helmet from an captured image. You may. Further, the image processing for finding the image of the helmet from the captured image includes, for example, a luminance smoothing process, a Gaussian smoothing process, a luminance maximum point search process, a luminance minimum point search process, and the like.

本実施例では、抽出部31は、前段画像認識処理によって、撮像画像におけるヘルメット画像(厳密にはヘルメットであると推定できる画像)を見つけ出す。ショベルの周囲で作業する人はヘルメットを着用していると考えられるためである。そして、抽出部31は、見つけ出したヘルメット画像の位置から最も関連性の高い参照点Prを導き出す。その上で、抽出部31は、その参照点Prに対応する識別処理対象画像を抽出する。 In this embodiment, the extraction unit 31 finds a helmet image (strictly speaking, an image that can be presumed to be a helmet) in the captured image by the pre-stage image recognition process. This is because people working around the excavator are considered to be wearing helmets. Then, the extraction unit 31 derives the most relevant reference point Pr from the position of the found helmet image. Then, the extraction unit 31 extracts the identification processing target image corresponding to the reference point Pr.

具体的には、抽出部31は、図10に示す幾何学的関係を利用し、撮像画像におけるヘルメット画像の位置から関連性の高い参照点Prを導き出す。なお、図10の幾何学的関係は、実空間における仮想頭部位置HPを定める点で図4の幾何学的関係と相違するが、その他の点で共通する。 Specifically, the extraction unit 31 uses the geometric relationship shown in FIG. 10 to derive a highly relevant reference point Pr from the position of the helmet image in the captured image. The geometrical relationship of FIG. 10 is different from the geometrical relationship of FIG. 4 in that it determines the virtual head position HP in the real space, but is common in other respects.

仮想頭部位置HPは、参照点Pr上に存在すると想定される人の頭部位置を表し、参照点Prの真上に配置される。本実施例では、参照点Pr上の高さ1700mmのところに配置される。そのため、実空間における仮想頭部位置HPが決まれば、実空間における参照点Prの位置が一意に決まり、実空間における仮想平面領域TRの位置も一意に決まる。また、撮像画像における識別処理対象画像領域TRgも一意に決まる。そして、抽出部31は、識別処理対象画像領域TRgを有する識別処理対象画像を正規化して所定サイズの正規化画像TRgtを生成できる。 The virtual head position HP represents the head position of a person who is assumed to exist on the reference point Pr, and is arranged directly above the reference point Pr. In this embodiment, it is arranged at a height of 1700 mm on the reference point Pr. Therefore, if the virtual head position HP in the real space is determined, the position of the reference point Pr in the real space is uniquely determined, and the position of the virtual plane region TR in the real space is also uniquely determined. Further, the identification processing target image area TRg in the captured image is also uniquely determined. Then, the extraction unit 31 can normalize the identification processing target image having the identification processing target image region TRg to generate a normalized image TRgt of a predetermined size.

逆に、実空間における参照点Prの位置が決まれば、実空間における仮想頭部位置HPが一意に決まり、実空間における仮想頭部位置HPに対応する撮像画像上の頭部画像位置APも一意に決まる。そのため、頭部画像位置APは、予め設定されている参照点Prのそれぞれに対応付けて予め設定され得る。なお、頭部画像位置APは、参照点Prからリアルタイムに導き出されてもよい。 On the contrary, if the position of the reference point Pr in the real space is determined, the virtual head position HP in the real space is uniquely determined, and the head image position AP on the captured image corresponding to the virtual head position HP in the real space is also unique. It is decided to. Therefore, the head image position AP can be preset in association with each of the preset reference points Pr. The head image position AP may be derived in real time from the reference point Pr.

そこで、抽出部31は、前段画像認識処理により後方カメラ40Bの撮像画像内でヘルメット画像を探索する。図11上図は、抽出部31がヘルメット画像HRgを見つけ出した状態を示す。そして、抽出部31は、ヘルメット画像HRgを見つけ出した場合、その代表位置RPを決定する。なお、代表位置RPは、ヘルメット画像HRgの大きさ、形状等から導き出される位置である。本実施例では、代表位置RPは、ヘルメット画像HRgを含むヘルメット画像領域の中心画素の位置である。図11下図は、図11上図における白線で区切られた矩形画像領域であるヘルメット画像領域の拡大図であり、そのヘルメット画像領域の中心画素の位置が代表位置RPであることを示す。 Therefore, the extraction unit 31 searches for a helmet image in the captured image of the rear camera 40B by the pre-stage image recognition process. The upper figure of FIG. 11 shows a state in which the extraction unit 31 has found the helmet image HRg. Then, when the extraction unit 31 finds the helmet image HRg, the extraction unit 31 determines the representative position RP. The representative position RP is a position derived from the size, shape, etc. of the helmet image HRg. In this embodiment, the representative position RP is the position of the central pixel of the helmet image region including the helmet image HRg. The lower figure of FIG. 11 is an enlarged view of the helmet image area which is a rectangular image area separated by a white line in the upper figure of FIG. 11, and shows that the position of the center pixel of the helmet image area is the representative position RP.

その後、抽出部31は、例えば最近傍探索アルゴリズムを用いて代表位置RPの最も近傍にある頭部画像位置APを導き出す。図11下図は、代表位置RPの近くに6つの頭部画像位置AP1〜AP6が予め設定されており、そのうちの頭部画像位置AP5が代表位置RPの最も近傍にある頭部画像位置APであることを示す。 After that, the extraction unit 31 derives the head image position AP closest to the representative position RP by using, for example, the nearest neighbor search algorithm. In the lower figure of FIG. 11, six head image positions AP1 to AP6 are preset near the representative position RP, and the head image position AP5 is the head image position AP closest to the representative position RP. Show that.

そして、抽出部31は、図10に示す幾何学的関係を利用し、導き出した最近傍の頭部画像位置APから、仮想頭部位置HP、参照点Pr、仮想平面領域TRを辿って、対応する識別処理対象画像領域TRgを抽出する。その後、抽出部31は、抽出した識別処理対象画像領域TRgを有する識別処理対象画像を正規化して正規化画像TRgtを生成する。 Then, the extraction unit 31 traces the virtual head position HP, the reference point Pr, and the virtual plane region TR from the derived nearest head image position AP by using the geometric relationship shown in FIG. The image area TRg to be identified for identification processing is extracted. After that, the extraction unit 31 normalizes the identification processing target image having the extracted identification processing target image region TRg to generate a normalized image TRgt.

このようにして、抽出部31は、撮像画像における人の特徴画像の位置であるヘルメット画像HRgの代表位置RPと、予め設定された頭部画像位置APの1つ(頭部画像位置AP5)とを対応付けることで識別処理対象画像を抽出する。 In this way, the extraction unit 31 includes the representative position RP of the helmet image HRg, which is the position of the characteristic image of the person in the captured image, and one of the preset head image position APs (head image position AP5). The image to be identified is extracted by associating with.

なお、抽出部31は、図10に示す幾何学的関係を利用する代わりに、頭部画像位置APと参照点Pr、仮想平面領域TR、又は識別処理対象画像領域TRgとを直接的に対応付ける参照テーブルを利用し、頭部画像位置APに対応する識別処理対象画像を抽出してもよい。 Instead of using the geometric relationship shown in FIG. 10, the extraction unit 31 directly associates the head image position AP with the reference point Pr, the virtual plane region TR, or the identification processing target image region TRg. The identification processing target image corresponding to the head image position AP may be extracted by using the table.

また、抽出部31は、山登り法、Mean-shift法等の最近傍探索アルゴリズム以外の他の公知のアルゴリズムを用いて代表位置RPから参照点Prを導き出してもよい。例えば、山登り法を用いる場合、抽出部31は、代表位置RPの近傍にある複数の頭部画像位置APを導き出し、代表位置RPとそれら複数の頭部画像位置APのそれぞれに対応する参照点Prとを紐付ける。このとき、抽出部31は、代表位置RPと頭部画像位置APが近いほど重みが大きくなるように参照点Prに重みを付ける。そして、複数の参照点Prの重みの分布を山登りし、重みの極大点に最も近い重みを有する参照点Prから識別処理対象画像領域TRgを抽出する。 Further, the extraction unit 31 may derive the reference point Pr from the representative position RP by using a known algorithm other than the nearest neighbor search algorithm such as the mountain climbing method and the Mean-shift method. For example, when the mountain climbing method is used, the extraction unit 31 derives a plurality of head image position APs in the vicinity of the representative position RP, and the reference point Pr corresponding to each of the representative position RP and the plurality of head image position APs. And link. At this time, the extraction unit 31 weights the reference point Pr so that the closer the representative position RP and the head image position AP are, the larger the weight is. Then, the weight distribution of the plurality of reference points Pr is climbed, and the identification processing target image region TRg is extracted from the reference points Pr having the weight closest to the maximum weight point.

次に、図12を参照し、コントローラ30の抽出部31が識別処理対象画像を抽出する処理(以下、「画像抽出処理」とする。)の一例について説明する。なお、図12は、画像抽出処理の一例の流れを示すフローチャートである。 Next, with reference to FIG. 12, an example of a process in which the extraction unit 31 of the controller 30 extracts the image to be identified (hereinafter referred to as “image extraction process”) will be described. Note that FIG. 12 is a flowchart showing a flow of an example of the image extraction process.

最初に、抽出部31は、撮像画像内でヘルメット画像を探索する(ステップST1)。本実施例では、抽出部31は、前段画像認識処理により後方カメラ40Bの撮像画像をラスタスキャンしてヘルメット画像を見つけ出す。 First, the extraction unit 31 searches for a helmet image in the captured image (step ST1). In this embodiment, the extraction unit 31 raster-scans the captured image of the rear camera 40B by the pre-stage image recognition process to find the helmet image.

撮像画像でヘルメット画像HRgを見つけ出した場合(ステップST1のYES)、抽出部31は、ヘルメット画像HRgの代表位置RPを取得する(ステップST2)。 When the helmet image HRg is found in the captured image (YES in step ST1), the extraction unit 31 acquires the representative position RP of the helmet image HRg (step ST2).

その後、抽出部31は、取得した代表位置RPの最近傍にある頭部画像位置APを取得する(ステップST3)。 After that, the extraction unit 31 acquires the head image position AP closest to the acquired representative position RP (step ST3).

その後、抽出部31は、取得した頭部画像位置APに対応する識別処理対象画像を抽出する(ステップST4)。本実施例では、抽出部31は、図10に示す幾何学的関係を利用し、撮像画像における頭部画像位置AP、実空間における仮想頭部位置HP、実空間における人の想定立ち位置としての参照点Pr、及び、実空間における仮想平面領域TRの対応関係を辿って識別処理対象画像を抽出する。 After that, the extraction unit 31 extracts the identification processing target image corresponding to the acquired head image position AP (step ST4). In this embodiment, the extraction unit 31 utilizes the geometric relationship shown in FIG. 10 as a head image position AP in the captured image, a virtual head position HP in the real space, and an assumed standing position of a person in the real space. The identification processing target image is extracted by tracing the correspondence between the reference point Pr and the virtual plane region TR in the real space.

なお、抽出部31は、撮像画像でヘルメット画像HRgを見つけ出さなかった場合には(ステップST1のNO)、識別処理対象画像を抽出することなく、処理をステップST5に移行させる。 If the extraction unit 31 does not find the helmet image HRg in the captured image (NO in step ST1), the extraction unit 31 shifts the processing to step ST5 without extracting the identification processing target image.

その後、抽出部31は、撮像画像の全体にわたってヘルメット画像を探索したかを判定する(ステップST5)。 After that, the extraction unit 31 determines whether the helmet image has been searched for the entire captured image (step ST5).

撮像画像の全体を未だ探索していないと判定した場合(ステップST5のNO)、抽出部31は、撮像画像の別の領域に対し、ステップST1〜ステップST4の処理を実行する。 When it is determined that the entire captured image has not been searched yet (NO in step ST5), the extraction unit 31 executes the processes of steps ST1 to ST4 for another region of the captured image.

一方、撮像画像の全体にわたるヘルメット画像の探索を完了したと判定した場合(ステップST5のYES)、抽出部31は今回の画像抽出処理を終了させる。 On the other hand, when it is determined that the search for the helmet image over the entire captured image is completed (YES in step ST5), the extraction unit 31 ends the image extraction process this time.

このように、抽出部31は、最初にヘルメット画像HRgを見つけ出し、見つけ出したヘルメット画像HRgの代表位置RPから、頭部画像位置AP、仮想頭部位置HP、参照点(想定立ち位置)Pr、仮想平面領域TRを経て識別処理対象画像領域TRgを特定する。そして、特定した識別処理対象画像領域TRgを有する識別処理対象画像を抽出して正規化することで、所定サイズの正規化画像TRgtを生成できる。 In this way, the extraction unit 31 first finds the helmet image HRg, and from the representative position RP of the found helmet image HRg, the head image position AP, the virtual head position HP, the reference point (assumed standing position) Pr, and the virtual The image region TRg to be identified is specified via the plane region TR. Then, by extracting and normalizing the identification processing target image having the specified identification processing target image region TRg, a normalized image TRgt of a predetermined size can be generated.

以上の構成により、周辺監視システム100の抽出部31は、撮像画像における特徴画像としてのヘルメット画像を見つけ出し、そのヘルメット画像の代表位置RPと所定画像位置としての頭部画像位置APの1つとを対応付けることで識別処理対象画像を抽出する。そのため、簡易なシステム構成で後段画像認識処理の対象となる画像部分を絞り込むことができる。 With the above configuration, the extraction unit 31 of the peripheral monitoring system 100 finds a helmet image as a feature image in the captured image, and associates the representative position RP of the helmet image with one of the head image position APs as a predetermined image position. By doing so, the image to be identified is extracted. Therefore, it is possible to narrow down the image portion to be the target of the subsequent image recognition processing with a simple system configuration.

なお、抽出部31は、最初に撮像画像からヘルメット画像HRgを見つけ出し、そのヘルメット画像HRgの代表位置RPに対応する頭部画像位置APの1つを導き出し、その頭部画像位置APの1つに対応する識別処理対象画像を抽出してもよい。或いは、抽出部31は、最初に頭部画像位置APの1つを取得し、その頭部画像位置APの1つに対応する特徴画像の位置を含む所定領域であるヘルメット画像領域内にヘルメット画像が存在する場合に、その頭部画像位置APの1つに対応する識別処理対象画像を抽出してもよい。 The extraction unit 31 first finds the helmet image HRg from the captured image, derives one of the head image position APs corresponding to the representative position RP of the helmet image HRg, and sets it as one of the head image position APs. The corresponding identification processing target image may be extracted. Alternatively, the extraction unit 31 first acquires one of the head image position APs, and the helmet image is within the helmet image area which is a predetermined area including the position of the feature image corresponding to one of the head image position APs. If is present, the identification processing target image corresponding to one of the head image position APs may be extracted.

また、抽出部31は、図10に示すような所定の幾何学的関係を利用し、撮像画像におけるヘルメット画像の代表位置RPから識別処理対象画像を抽出してもよい。この場合、所定の幾何学的関係は、撮像画像における識別処理対象画像領域TRgと、識別処理対象画像領域TRgに対応する実空間における仮想平面領域TRと、仮想平面領域TRに対応する実空間における参照点Pr(人の想定立ち位置)と、参照点Prに対応する仮想頭部位置HP(人の想定立ち位置に対応する人の特徴的な部分の実空間における位置である仮想特徴位置)と、仮想頭部位置HPに対応する撮像画像における頭部画像位置AP(仮想特徴位置に対応する撮像画像における所定画像位置)との幾何学的関係を表す。 Further, the extraction unit 31 may extract the identification processing target image from the representative position RP of the helmet image in the captured image by utilizing a predetermined geometric relationship as shown in FIG. In this case, the predetermined geometric relationship is the identification processing target image region TRg in the captured image, the virtual plane region TR in the real space corresponding to the identification processing target image region TRg, and the real space corresponding to the virtual plane region TR. Reference point Pr (assumed standing position of a person) and virtual head position HP corresponding to reference point Pr (virtual feature position which is a position in real space of a characteristic part of a person corresponding to a person's assumed standing position) , Represents the geometric relationship with the head image position AP (predetermined image position in the captured image corresponding to the virtual feature position) in the captured image corresponding to the virtual head position HP.

ここで再び図2を参照し、コントローラ30の他の機能要素についての説明を継続する。 Here, with reference to FIG. 2 again, the description of the other functional elements of the controller 30 will be continued.

追跡部33は、識別部32が所定時間毎に出力する識別結果を追跡して最終的な人検知結果を出力する機能要素である。本実施例では、追跡部33は、連続する所定回数分の同一人に関する識別結果が所定条件を満たす場合に、対応する人候補画像が人画像であると判定する。すなわち、対応する三次元位置(実在位置)に人が存在すると判定する。同一人であるか否かはその実在位置に基づいて判定される。具体的には、追跡部33は、識別部32による1回目の識別処理において人画像であると識別された画像に写る人の実在位置(参照点PrI)に基づいて所定時間内にその人が到達可能な範囲を導き出す。到達可能な範囲は、ショベルの最大旋回速度、ショベルの最大走行速度、人の最大移動速度等に基づいて設定される。そして、2回目の識別処理において人画像であると識別された画像に写る人の実在位置(参照点PrII)がその範囲内であれば同一人であると判定する。3回目以降の識別処理についても同様である。そして、追跡部33は、例えば、連続する6回の識別結果のうちの4回で同一人の人画像であると識別された場合に、対応する三次元位置に人が存在すると判定する。また、1回目の識別処理において人画像であると識別された場合であっても、その後の連続する3回の識別処理において同一人の人画像が識別されなかった場合には、対応する三次元位置には人が存在しないと判定する。 The tracking unit 33 is a functional element that tracks the identification result output by the identification unit 32 at predetermined time intervals and outputs the final human detection result. In this embodiment, the tracking unit 33 determines that the corresponding person candidate image is a person image when the identification result for the same person for a predetermined number of consecutive times satisfies the predetermined condition. That is, it is determined that a person exists at the corresponding three-dimensional position (existing position). Whether or not they are the same person is determined based on their actual position. Specifically, the tracking unit 33 allows the person to appear within a predetermined time based on the actual position (reference point PrI) of the person appearing in the image identified as a human image in the first identification process by the identification unit 32. Derive the reachable range. The reachable range is set based on the maximum turning speed of the excavator, the maximum traveling speed of the excavator, the maximum moving speed of a person, and the like. Then, if the actual position (reference point PrII) of the person appearing in the image identified as the human image in the second identification process is within that range, it is determined that the person is the same person. The same applies to the third and subsequent identification processes. Then, the tracking unit 33 determines that a person exists at the corresponding three-dimensional position when, for example, it is identified as a human image of the same person four times out of the six consecutive identification results. Further, even if a human image is identified in the first identification process, if the same person's image is not identified in the subsequent three consecutive identification processes, the corresponding three-dimensional image is used. It is determined that there is no person at the position.

このように、抽出部31、識別部32、及び追跡部33の組み合わせは、撮像装置40の撮像画像に基づいてショベルの周辺に人が存在するか否かを検知する人検知部34を構成する。 In this way, the combination of the extraction unit 31, the identification unit 32, and the tracking unit 33 constitutes a person detection unit 34 that detects whether or not a person exists in the vicinity of the excavator based on the image captured by the image pickup device 40. ..

この構成により、人検知部34は、誤報(人が存在しないにもかかわらず人が存在すると判定すること)、失報(人が存在するにもかかわらず人が存在しないと判定すること)等の発生を抑制できる。 With this configuration, the person detection unit 34 misreports (determines that a person exists even though there is no person), misinformation (determines that a person does not exist even though there is a person), and the like. Can be suppressed.

また、人検知部34は、人画像であると識別された画像に写る人の実在位置の推移に基づき、人がショベルに近づいているのかショベルから遠ざかっているのかを判断できる。そして、人検知部34は、その人の実在位置のショベルからの距離が所定値を下回った場合に制御部35に制御指令を出力して警報を出力させてもよい。この場合、人検知部34は、ショベルの動作情報(例えば旋回速度、旋回方向、走行速度、走行方向等)に応じて所定値を調整してもよい。 In addition, the human detection unit 34 can determine whether the person is approaching the shovel or away from the shovel based on the transition of the actual position of the person appearing in the image identified as the human image. Then, the person detection unit 34 may output a control command to the control unit 35 to output an alarm when the distance from the shovel at the actual position of the person is less than a predetermined value. In this case, the person detection unit 34 may adjust a predetermined value according to the operation information of the excavator (for example, turning speed, turning direction, running speed, running direction, etc.).

また、人検知部34は少なくとも2段階の人検知状態と人非検知状態とを判別して認識してもよい。例えば、距離に関する条件、及び、信頼性に関する条件のうちの少なくとも一方が満たされた状態を第1人検知状態(警戒状態)と判断し、双方が満たされた状態を第2人検知状態(警報状態)と判断してもよい。距離に関する条件は、例えば、人画像であると識別された画像に写る人の実在位置のショベルからの距離が所定値未満であることを含む。信頼性に関する条件は、例えば、連続する6回の識別結果のうちの4回で同一人の人画像であると識別されることを含む。第1人検知状態(警戒状態)では、確度は低いがレスポンスが早い予備的な警報としての第1警報が出力される。第1警報は、例えば小音量のビープ音であり、2つの条件が何れも満たされなくなった場合に自動的に停止される。第2人検知状態(警報状態)では、確度は高いがレスポンスが遅い正式な警報としての第2警報が出力される。第2警報は、例えば大音量のメロディ音であり、少なくとも一方の条件が満たされなくなったとしても自動的に停止されず、その停止には操作者の操作が必要とされる。 Further, the human detection unit 34 may discriminate and recognize at least two stages of the human detection state and the non-human detection state. For example, a state in which at least one of the conditions related to distance and the condition related to reliability is satisfied is determined as a first person detection state (warning state), and a state in which both are satisfied is a second person detection state (alarm). State) may be judged. The condition regarding the distance includes, for example, that the distance from the excavator of the actual position of the person appearing in the image identified as the human image is less than a predetermined value. The reliability condition includes, for example, being identified as a human image of the same person in 4 out of 6 consecutive identification results. In the first person detection state (warning state), the first alarm is output as a preliminary alarm with low accuracy but quick response. The first alarm is, for example, a low-volume beep, which is automatically stopped when neither of the two conditions is satisfied. In the second person detection state (alarm state), the second alarm is output as a formal alarm with high accuracy but slow response. The second alarm is, for example, a loud melody sound, and is not automatically stopped even if at least one of the conditions is not satisfied, and an operator's operation is required to stop the second alarm.

制御部35は、各種装置を制御する機能要素である。本実施例では、制御部35は入力装置41を介した操作者の入力に応じて各種装置を制御する。例えば、タッチパネルを通じて入力された画像切換指令に応じて車載ディスプレイの画面に表示される表示画像を切り換える。表示画像は、後方カメラ40Bのスルー画像、右側方カメラ40Rのスルー画像、左側方カメラ40Lのスルー画像、視点変換画像等を含む。視点変換画像は、例えば、複数のカメラの撮像画像から合成される鳥瞰画像(ショベルの真上にある仮想視点から見た画像)である。 The control unit 35 is a functional element that controls various devices. In this embodiment, the control unit 35 controls various devices according to the input of the operator via the input device 41. For example, the display image displayed on the screen of the in-vehicle display is switched according to the image switching command input through the touch panel. The display image includes a through image of the rear camera 40B, a through image of the right side camera 40R, a through image of the left side camera 40L, a viewpoint conversion image, and the like. The viewpoint conversion image is, for example, a bird's-eye view image (an image viewed from a virtual viewpoint directly above the excavator) synthesized from images captured by a plurality of cameras.

また、制御部35は、人検知部34を構成する追跡部33の最終的な人検知結果に応じて各種装置を制御する。例えば、追跡部33の最終的な人検知結果に応じて機械制御装置51に制御指令を出力してショベルの状態を第1状態と第2状態との間で切り換える。第1状態は、ショベルの動きの制限が解除されている状態、警報の出力が停止されている状態等を含む。第2状態はショベルの動きを制限し或いは停止させている状態、警報を出力させている状態等を含む。本実施例では、制御部35は、追跡部33の最終的な人検知結果に基づいてショベルの周辺の所定範囲内に人が存在すると判定した場合、機械制御装置51に制御指令を出力してショベルの状態を第1状態から第2状態に切り換える。例えば、ショベルの動きを停止させる。この場合、操作者による操作は無効にされる。操作者による操作の無効化は、例えば、操作装置を反応しない状態にすることで実現される。具体的には、ゲートロック弁に制御指令を出力して操作装置を油圧システムから切り離すことで無操作状態を強制的に創出してショベルの動きを停止させる。或いは、エンジン制御装置に制御指令を出力してエンジンを停止させてもよい。或いは、油圧アクチュエータに流入する作動油の流量を制御する制御弁に制御指令を出力して制御弁の開口面積、開口面積変化速度等を変化させることで油圧アクチュエータの動きを制限してもよい。この場合、最大旋回速度、最大走行速度等が低減される。また、制御弁を閉じることで油圧アクチュエータの動きを停止させてもよい。 Further, the control unit 35 controls various devices according to the final human detection result of the tracking unit 33 constituting the human detection unit 34. For example, a control command is output to the machine control device 51 according to the final human detection result of the tracking unit 33, and the state of the excavator is switched between the first state and the second state. The first state includes a state in which the restriction on the movement of the excavator is released, a state in which the alarm output is stopped, and the like. The second state includes a state in which the movement of the excavator is restricted or stopped, a state in which an alarm is output, and the like. In this embodiment, the control unit 35 outputs a control command to the machine control device 51 when it is determined that a person exists within a predetermined range around the excavator based on the final human detection result of the tracking unit 33. The state of the excavator is switched from the first state to the second state. For example, stop the movement of the excavator. In this case, the operation by the operator is invalidated. The invalidation of the operation by the operator is realized, for example, by making the operating device unresponsive. Specifically, a control command is output to the gate lock valve to disconnect the operating device from the hydraulic system to forcibly create a non-operating state and stop the movement of the excavator. Alternatively, a control command may be output to the engine control device to stop the engine. Alternatively, the movement of the hydraulic actuator may be restricted by outputting a control command to the control valve that controls the flow rate of the hydraulic oil flowing into the hydraulic actuator to change the opening area of the control valve, the opening area change speed, and the like. In this case, the maximum turning speed, the maximum traveling speed, and the like are reduced. Further, the movement of the hydraulic actuator may be stopped by closing the control valve.

また、制御部35は、ショベルの状態を第2状態とした後で所定の解除条件が満たされた場合にショベルの状態を第1状態に戻す。すなわち、ショベルの動きを制限し或いは停止させた後で所定の解除条件が満たされた場合にその制限又は停止を解除する。所定の解除条件は、例えば、「ショベル周辺の所定範囲内に人が存在しないと判定すること」(以下、「第1解除条件」とする。)を含む。また、所定の解除条件は、例えば、「ショベルが動き出さない状態が確保されていること」(以下、「第2解除条件」とする。)を追加的に含む。また、所定の解除条件は、「ショベル周辺に人がいないことが操作者によって確認されたこと」(以下、「第3解除条件」とする。)を含んでいてもよい。なお、本実施例では、ショベルの動きが制限或いは停止されているか否か、第1解除条件、第2解除条件、第3解除条件のそれぞれが満たされているか否かはフラグを用いて管理される。 Further, the control unit 35 returns the shovel state to the first state when a predetermined release condition is satisfied after the shovel state is set to the second state. That is, when the predetermined release condition is satisfied after restricting or stopping the movement of the excavator, the restriction or stop is released. The predetermined release condition includes, for example, "determining that no person exists within a predetermined range around the excavator" (hereinafter, referred to as "first release condition"). In addition, the predetermined release condition additionally includes, for example, "a state in which the excavator does not start moving is secured" (hereinafter, referred to as "second release condition"). Further, the predetermined release condition may include "the operator has confirmed that there is no person around the excavator" (hereinafter, referred to as "third release condition"). In this embodiment, whether or not the movement of the excavator is restricted or stopped, and whether or not each of the first release condition, the second release condition, and the third release condition are satisfied are managed by using a flag. To.

第1解除条件は、例えば、「人検知部34を構成する追跡部33の最終的な人検知結果に基づいて制御部35がショベル周辺の所定範囲内に人が存在しないと判定すること」を含む。 The first release condition is, for example, "determining that the control unit 35 determines that no person exists within a predetermined range around the excavator based on the final person detection result of the tracking unit 33 constituting the person detection unit 34". Including.

第2解除条件は、例えば、「全ての操作装置が所定時間以上にわたって中立位置になっていること」、「ゲートロックレバーが下ろされていること(操作装置が無効となっていること)」、「全ての操作装置から操作者の手足が離されていること」、「所定の解除操作が行われたこと」等を含む。「全ての操作装置が中立位置になっていること」は、例えば、各操作装置からの指令の有無、各操作装置の操作量を検出するセンサの出力値等に基づいて制御部35が検知する。「所定時間以上にわたって」という条件は瞬間的に中立位置になっただけで第2解除条件が満たされてしまうのを防止する効果がある。「操作装置から操作者の手足が離されていること」は、例えば、運転室内を撮像するカメラの撮像画像、操作装置(例えば操作レバーのグリップ)に取り付けられた静電センサの出力等に基づいて制御部35が検知する。「所定の解除操作が行われたこと」は、例えば、車載ディスプレイの画面に「ショベルが動き出さない状態が確保されていますか?」といったメッセージが表示された状態で確認ボタン(例えばホーンボタン又は同じ画面上に表示されたソフトウェアボタン)が押下された場合に制御部35が検知する。制御部35は、例えば、運転席にあるレバー、ボタン、パネル等に対する操作入力といった操作者による解除操作が行われた場合に「ショベルが動き出さない状態が確保されている」と判断してもよい。 The second release condition is, for example, "all the operating devices are in the neutral position for a predetermined time or longer", "the gate lock lever is lowered (the operating devices are invalid)", and so on. This includes "the operator's limbs are separated from all the operating devices", "a predetermined release operation has been performed", and the like. "All operating devices are in the neutral position" is detected by the control unit 35 based on, for example, the presence / absence of a command from each operating device, the output value of the sensor that detects the operating amount of each operating device, and the like. .. The condition "over a predetermined time" has an effect of preventing the second release condition from being satisfied only by momentarily entering the neutral position. "The operator's limbs are separated from the operating device" is based on, for example, an image captured by a camera that images the driver's cab, an output of an electrostatic sensor attached to the operating device (for example, a grip of an operating lever), and the like. The control unit 35 detects it. "The predetermined release operation has been performed" is confirmed by a confirmation button (for example, a horn button or the same) with a message such as "Is the state where the excavator does not start moving?" Is displayed on the screen of the in-vehicle display. The control unit 35 detects when the software button (software button displayed on the screen) is pressed. The control unit 35 may determine that "a state in which the excavator does not start is secured" when a release operation such as an operation input for a lever, a button, a panel, etc. in the driver's seat is performed by the operator. ..

第3解除条件は、例えば、車載ディスプレイの画面に「ショベル周辺に人がいないことを確認しましたか?」といったメッセージが表示された状態で確認ボタンが押下された場合に満たされる。なお、第3解除条件は省略されてもよい。 The third release condition is satisfied, for example, when the confirmation button is pressed while a message such as "Did you confirm that there are no people around the excavator?" Is displayed on the screen of the vehicle-mounted display. The third release condition may be omitted.

所定の解除条件に第3解除条件が含まれる場合、第1解除条件と第2解除条件が満たされると、ショベルは制限解除可能状態となる。制限解除可能状態は、ショベル周辺に人がいないことを操作者が確認しさえすれば制限を解除できる状態を意味する。 When the predetermined release condition includes the third release condition, the excavator is in the restricted release state when the first release condition and the second release condition are satisfied. The state in which the restriction can be released means a state in which the restriction can be released as long as the operator confirms that there are no people around the excavator.

第1解除条件、第2解除条件、及び第3解除条件のそれぞれが満たされる順番に制限はない。例えば、第3解除条件、第2解除条件、第1解除条件の順で条件が満たされた場合であっても、制御部35はショベルの動きの制限又は停止を解除する。 There is no limit to the order in which each of the first cancellation condition, the second cancellation condition, and the third cancellation condition is satisfied. For example, even when the conditions are satisfied in the order of the third release condition, the second release condition, and the first release condition, the control unit 35 releases the restriction or stop of the movement of the excavator.

また、制御部35は、所定の解除条件が満たされた後で所定の待ち時間が経過したときにその制限又は停止を解除してもよい。急な解除によって操作者を慌てさせることがないようにするためである。 Further, the control unit 35 may release the restriction or stop when a predetermined waiting time elapses after the predetermined release condition is satisfied. This is to prevent the operator from being confused by a sudden release.

また、制御部35は、ショベルの動きを制限し或いは停止させた場合、出力装置50としての車載ディスプレイに制御指令を出力し、その原因となった人画像が含まれる撮像画像を表示させてもよい。例えば、左側方カメラ40Lの撮像画像のみに人画像が含まれる場合、左側方カメラ40Lのスルー画像を単独で表示させてもよい。或いは、左側方カメラ40Lの撮像画像と後方カメラ40Bの撮像画像のそれぞれに人画像が含まれる場合、2つのカメラのそれぞれのスルー画像を並べて同時に表示させてもよく、2つのカメラの撮像画像を含む1つの合成画像(例えば視点変換画像)を表示させてもよい。また、制限中又は停止中であることを表す画像、解除方法のガイダンス等を表示させてもよい。また、人画像であると識別された人候補画像に対応する画像部分を強調表示してもよい。例えば、識別処理対象画像領域TRgの輪郭線を所定色で表示してもよい。また、所定の解除条件が満たされた後の待ち時間を設定している場合には、所定の解除条件が満たされたときに待ち時間が存在することを操作者に知らせてもよい。例えば、待ち時間が存在する旨を表示した上で、待ち時間のカウントダウンを表示してもよい。また、待ち時間中に警報を出力している場合には待ち時間の経過と共にその警報の音量を徐々に小さくしてもよい。 Further, when the movement of the excavator is restricted or stopped, the control unit 35 may output a control command to the in-vehicle display as the output device 50 and display an captured image including the human image that caused the control command. Good. For example, when a human image is included only in the captured image of the left side camera 40L, the through image of the left side camera 40L may be displayed independently. Alternatively, when the captured image of the left side camera 40L and the captured image of the rear camera 40B each include a human image, the through images of the two cameras may be displayed side by side at the same time. One composite image including the image (for example, a viewpoint conversion image) may be displayed. In addition, an image indicating that the restriction or stoppage is in progress, guidance on how to release the image, or the like may be displayed. Further, the image portion corresponding to the person candidate image identified as the person image may be highlighted. For example, the outline of the image area TRg to be identified may be displayed in a predetermined color. Further, when the waiting time after the predetermined cancellation condition is satisfied is set, the operator may be notified that the waiting time exists when the predetermined cancellation condition is satisfied. For example, after displaying that there is a waiting time, the waiting time countdown may be displayed. If an alarm is output during the waiting time, the volume of the alarm may be gradually reduced as the waiting time elapses.

また、制御部35は、ショベルの動きを制限し或いは停止させた場合、出力装置50としての車載スピーカに制御指令を出力し、その原因となった人が存在する側で警報を出力させてもよい。この場合、車載スピーカは、例えば、運転室内の右壁に設置された右側方スピーカ、左壁に設置された左側方スピーカ、及び後壁に設置された後方スピーカで構成される。そして、制御部35は、左側方カメラ40Lの撮像画像のみに人画像が含まれる場合、左側方スピーカのみから警報を出力させる。或いは、制御部35は複数のスピーカを含むサラウンドシステムを用いて音を定位させてもよい。 Further, when the movement of the excavator is restricted or stopped, the control unit 35 may output a control command to the vehicle-mounted speaker as the output device 50 and output an alarm on the side where the person who caused the excavator exists. Good. In this case, the vehicle-mounted speaker is composed of, for example, a right-side speaker installed on the right wall of the driver's cab, a left-side speaker installed on the left wall, and a rear speaker installed on the rear wall. Then, when the human image is included only in the captured image of the left side camera 40L, the control unit 35 outputs an alarm only from the left side speaker. Alternatively, the control unit 35 may localize the sound using a surround system including a plurality of speakers.

また、制御部35は、人検知部34が人候補画像を人画像であると識別した場合に、ショベルの動きを制限し或いは停止させることなく警報のみを出力させてもよい。この場合も制御部35は上述のように距離に関する条件及び信頼性に関する条件のうちの少なくとも一方が満たされた状態を第1人検知状態(警戒状態)と判断し、双方が満たされた状態を第2人検知状態(警報状態)と判断してもよい。そして、制御部35は、ショベルの動きを制限し或いは停止させた場合と同様に、所定の解除条件が満たされた場合に第2人検知状態(警報状態)での警報を停止させてもよい。自動的に停止され得る第1人検知状態(警戒状態)での警報とは異なり、第2人検知状態(警報状態)での警報の停止には操作者の操作が必要とされるためである。 Further, when the person detection unit 34 identifies the person candidate image as a person image, the control unit 35 may output only an alarm without limiting or stopping the movement of the excavator. In this case as well, the control unit 35 determines that at least one of the distance-related conditions and the reliability-related conditions is satisfied as the first person detection state (warning state), and determines that both are satisfied. It may be determined that the second person is in the detection state (alarm state). Then, the control unit 35 may stop the alarm in the second person detection state (alarm state) when the predetermined release condition is satisfied, as in the case where the movement of the excavator is restricted or stopped. .. This is because, unlike the alarm in the first person detection state (alert state) that can be automatically stopped, the operation of the operator is required to stop the alarm in the second person detection state (alarm state). ..

次に、図13を参照し、コントローラ30の制御部35がショベルの周辺を監視する処理(以下、「周辺監視処理」とする。)の一例について説明する。図13は、周辺監視処理の一例の流れを示すフローチャートであり、コントローラ30は所定の制御周期で繰り返しこの周辺監視処理を実行する。 Next, with reference to FIG. 13, an example of a process in which the control unit 35 of the controller 30 monitors the periphery of the excavator (hereinafter, referred to as “peripheral monitoring process”) will be described. FIG. 13 is a flowchart showing an example flow of the peripheral monitoring process, and the controller 30 repeatedly executes the peripheral monitoring process at a predetermined control cycle.

最初に、制御部35は、ショベル周辺に人が存在するか否かを判定する(ステップST11)。本実施例では、制御部35は、追跡部33の最終的な人検知結果に基づいてショベル周辺に人が存在するか否かを判定する。 First, the control unit 35 determines whether or not there is a person around the excavator (step ST11). In this embodiment, the control unit 35 determines whether or not a person exists in the vicinity of the excavator based on the final human detection result of the tracking unit 33.

その後、ショベル周辺に人が存在すると判定した場合(ステップST11のYES)、制御部35はショベルの動きを制限し或いは停止させる(ステップST12)。本実施例では、制御部35は、例えば、現在の人検知状態が第2人検知状態(警報状態)であると判断した場合にショベル周辺に人が存在すると判定してショベルの動きを停止させる。 After that, when it is determined that a person exists around the excavator (YES in step ST11), the control unit 35 limits or stops the movement of the excavator (step ST12). In this embodiment, for example, when the control unit 35 determines that the current person detection state is the second person detection state (alarm state), the control unit 35 determines that there is a person around the excavator and stops the movement of the excavator. ..

このとき、制御部35は出力装置50としての車載スピーカに制御指令を出力して第2警報を出力させる。また、出力装置50としての車載ディスプレイに制御指令を出力して制限又は停止の原因となった人画像が含まれる撮像画像を表示させる。 At this time, the control unit 35 outputs a control command to the vehicle-mounted speaker as the output device 50 to output the second alarm. Further, a control command is output to the in-vehicle display as the output device 50 to display an captured image including a human image that has caused the restriction or stop.

ショベル周辺に人が存在しないと判定した場合(ステップST11のNO)、制御部35はショベルの動きが既に制限或いは停止されているか否かを判定する(ステップS13)。本実施例では、制御部35は、対応するフラグの値を参照してショベルの動きが既に制限或いは停止されているか否かを判定する。 When it is determined that there is no person around the excavator (NO in step ST11), the control unit 35 determines whether or not the movement of the excavator has already been restricted or stopped (step S13). In this embodiment, the control unit 35 determines whether or not the movement of the excavator has already been restricted or stopped by referring to the value of the corresponding flag.

ショベルの動きが既に制限或いは停止されていると判定した場合(ステップST13のYES)、制御部35は、その制限又は停止を解除するための処理(以下、「制限解除処理」とする。)を実行する(ステップST14)。 When it is determined that the movement of the excavator has already been restricted or stopped (YES in step ST13), the control unit 35 performs a process for releasing the restriction or stop (hereinafter, referred to as "restriction release process"). Execute (step ST14).

ショベルの動きが未だ制限或いは停止されていないと判定した場合(ステップST13のNO)、制御部35は、制限解除処理を実行することなく、今回のショベル周辺監視処理を終了させる。 When it is determined that the movement of the excavator has not been restricted or stopped (NO in step ST13), the control unit 35 ends the excavator peripheral monitoring process this time without executing the restriction release process.

次に、図14を参照し、コントローラ30の制御部35がショベルの動きの制限又は停止を解除する処理について説明する。図14は制限解除処理の一例の流れを示すフローチャートである。 Next, with reference to FIG. 14, a process in which the control unit 35 of the controller 30 releases the restriction or stop of the movement of the excavator will be described. FIG. 14 is a flowchart showing a flow of an example of the restriction release process.

最初に、制御部35は第1解除条件が満たされたか否かを判定する(ステップST21)。本実施例では、制御部35は、ショベル周辺の所定範囲内に人が存在しないか否かを判定する。具体的には、現在の人検知状態が第2人検知状態(警報状態)を脱したか否かを判定する。第1人検知状態(警戒状態)及び第2人検知状態(警報状態)を脱したか否かを判定してもよい。 First, the control unit 35 determines whether or not the first release condition is satisfied (step ST21). In this embodiment, the control unit 35 determines whether or not a person exists within a predetermined range around the excavator. Specifically, it is determined whether or not the current person detection state has exited the second person detection state (alarm state). It may be determined whether or not the first person detection state (warning state) and the second person detection state (alarm state) have been exited.

第1解除条件が満たされたと判定した場合(ステップST21のYES)、制御部35は第2解除条件が満たされたか否かを判定する(ステップST22)。本実施例では、制御部35は、ショベルが動き出さない状態が確保されているか否かを判定する。具体的には、ゲートロックレバーが下ろされているか否か(操作装置が無効となっているかいなか)を判定する。 When it is determined that the first release condition is satisfied (YES in step ST21), the control unit 35 determines whether or not the second release condition is satisfied (step ST22). In this embodiment, the control unit 35 determines whether or not the state in which the excavator does not start is secured. Specifically, it is determined whether or not the gate lock lever is lowered (whether or not the operating device is disabled).

第2解除条件が満たされたと判定した場合(ステップST22のYES)、制御部35は第3解除条件が満たされたか否かを判定する(ステップST23)。本実施例では、制御部35は、ショベル周辺に人がいないことが操作者によって確認されたか否かを判定する。具体的には、車載ディスプレイの画面に「ショベル周辺に人がいないことを確認しましたか?」といったメッセージが表示された状態で確認ボタンが押下されたか否かを判定する。 When it is determined that the second release condition is satisfied (YES in step ST22), the control unit 35 determines whether or not the third release condition is satisfied (step ST23). In this embodiment, the control unit 35 determines whether or not the operator has confirmed that there is no person around the excavator. Specifically, it is determined whether or not the confirmation button is pressed while a message such as "Did you confirm that there are no people around the excavator?" Is displayed on the screen of the in-vehicle display.

第3解除条件が満たされたと判定した場合(ステップST23のYES)、制御部35はショベルの動きの制限又は停止を解除する(ステップST24)。 When it is determined that the third release condition is satisfied (YES in step ST23), the control unit 35 releases the restriction or stop of the movement of the excavator (step ST24).

このとき、制御部35は、出力装置50としての車載スピーカに制御指令を出力して第2警報の出力を停止させる。また、出力装置50としての車載ディスプレイに制御指令を出力して制限又は停止の原因となった人画像が含まれる撮像画像の表示を停止させる。例えば、第2警報が出力される前に表示されていたスルー画像を再表示させる。また、制御部35は、ショベルの動きの制限又は停止が解除されたことを伝えるメッセージを表示させてもよい。 At this time, the control unit 35 outputs a control command to the vehicle-mounted speaker as the output device 50 to stop the output of the second alarm. Further, a control command is output to the in-vehicle display as the output device 50 to stop the display of the captured image including the human image that caused the limitation or stop. For example, the through image that was displayed before the second alarm was output is redisplayed. Further, the control unit 35 may display a message informing that the restriction or stop of the movement of the excavator has been released.

なお、制御部35は、第1解除条件が満たされていないと判定した場合(ステップST21のNO)、第2解除条件が満たされていないと判定した場合(ステップST22のNO)、
第3解除条件が満たされていないと判定した場合には(ステップST23のNO)、ショベルの動きの制限又は停止を解除することなく、今回の制限解除処理を終了させる。
When the control unit 35 determines that the first release condition is not satisfied (NO in step ST21) and determines that the second release condition is not satisfied (NO in step ST22),
If it is determined that the third release condition is not satisfied (NO in step ST23), the current restriction release process is terminated without releasing the restriction or stop of the excavator movement.

以上の構成により、コントローラ30は、ショベル周辺に人が存在すると判定した場合にショベルの動きを制限し或いは停止させることができる。 With the above configuration, the controller 30 can limit or stop the movement of the excavator when it is determined that a person exists around the excavator.

また、コントローラ30は、ショベルの動きを制限し或いは停止させた後でショベル周辺に人が存在しないと判定した場合には、ショベルが動き出さない状態が確保されていると判定したときに限り、その制限又は停止を解除できる。また、コントローラ30は、ショベルが動き出さない状態が確保されていると判定し、且つ、ショベル周辺に人がいないことが操作者によって確認されたと判定したときに限り、その制限又は停止を解除できる。そのため、コントローラ30は、その制限又は停止を解除した際にショベルが意図せず動き出してしまうのを防止できる。 Further, when the controller 30 determines that there is no person around the excavator after limiting or stopping the movement of the excavator, the controller 30 determines that the state in which the excavator does not start is secured. The restriction or suspension can be lifted. Further, the controller 30 can release the restriction or stop only when it is determined that the state in which the excavator does not start moving is secured and it is determined by the operator that there is no person around the excavator. Therefore, the controller 30 can prevent the excavator from unintentionally starting to move when the restriction or the stop is released.

次に、図15を参照し、周辺監視処理の実行中に車載ディスプレイに表示される出力画像の1例について説明する。図15は後方カメラ40Bの撮像画像に基づいて生成される出力画像の例である。図15(A)はショベル周辺の所定範囲内に人がいないときの出力画像の例を示し、図15(B)は第1人検知状態での出力画像の例を示し、図15(C)は第2人検知状態での出力画像の例を示す。 Next, with reference to FIG. 15, an example of an output image displayed on the vehicle-mounted display during execution of the peripheral monitoring process will be described. FIG. 15 is an example of an output image generated based on the captured image of the rear camera 40B. FIG. 15 (A) shows an example of an output image when there is no person within a predetermined range around the excavator, and FIG. 15 (B) shows an example of an output image in the first person detection state, FIG. 15 (C). Shows an example of an output image in the second person detection state.

具体的には、図15の出力画像はカメラ画像部分G1及びインジケータ部分G2を含む。カメラ画像部分G1は1又は複数のカメラの撮像画像に基づいて生成される画像を表示する部分である。インジケータ部分G2はショベル周辺における複数の領域のそれぞれの人検知状態/人非検知状態を表示する部分である。カメラ画像部分G1において、カメラ画像上に重畳表示される線分L1はショベルからの距離が所定の第1距離(例えば5メートル)であることを示す。また、カメラ画像上に重畳表示される線分L2はショベルからの距離が所定の第2距離(例えば2.5メートル)であることを示す。インジケータ部分G2において、ショベルアイコンCG1の周囲に描かれる部分円の外周線L1gはショベルからの距離が所定の第1距離(例えば5メートル)であることを示し、カメラ画像部分G1の線分L1に対応する。また、ショベルアイコンCG1の周囲に描かれる部分矩形の外周線L2gはショベルからの距離が所定の第2距離(例えば2.5メートル)であることを示し、カメラ画像部分G1の線分L2に対応する。 Specifically, the output image of FIG. 15 includes a camera image portion G1 and an indicator portion G2. The camera image portion G1 is a portion that displays an image generated based on images captured by one or a plurality of cameras. The indicator portion G2 is a portion that displays the person detection state / person non-detection state of each of the plurality of areas around the excavator. In the camera image portion G1, the line segment L1 superimposed and displayed on the camera image indicates that the distance from the shovel is a predetermined first distance (for example, 5 meters). Further, the line segment L2 superimposed and displayed on the camera image indicates that the distance from the shovel is a predetermined second distance (for example, 2.5 meters). In the indicator portion G2, the outer peripheral line L1g of the partial circle drawn around the excavator icon CG1 indicates that the distance from the excavator is a predetermined first distance (for example, 5 meters), and the line segment L1 of the camera image portion G1 Correspond. Further, the outer peripheral line L2g of the partial rectangle drawn around the excavator icon CG1 indicates that the distance from the excavator is a predetermined second distance (for example, 2.5 meters), and corresponds to the line segment L2 of the camera image portion G1. To do.

部分円は6つの領域A1〜A6に分割され、部分矩形は3つの領域B1〜B3に分割されている。 The partial circle is divided into six regions A1 to A6, and the partial rectangle is divided into three regions B1 to B3.

図15(A)に示す状態では、コントローラ30はショベルの右後方に存在する人を検知している。しかしながら、コントローラ30は、その人の実在位置が第1距離以遠であるため、その人の画像を強調表示しておらず、第1警報も出力していない。但し、コントローラ30は、対応する識別処理対象画像領域TRgの輪郭線を白色枠として表示する等、その人の画像を強調表示してもよく、第1警報を出力してもよい。また、既に人を検知しているか否かにかかわらず、「周辺監視処理実行中」等のメッセージを表示してもよい。周辺監視処理が実行中であることを操作者が認識できるようにするためである。 In the state shown in FIG. 15 (A), the controller 30 detects a person existing on the right rear side of the excavator. However, since the actual position of the person is beyond the first distance, the controller 30 does not highlight the image of the person and does not output the first alarm. However, the controller 30 may highlight the image of the person, such as displaying the outline of the corresponding identification processing target image area TRg as a white frame, or may output the first alarm. Further, a message such as "peripheral monitoring process is being executed" may be displayed regardless of whether or not a person has already been detected. This is so that the operator can recognize that the peripheral monitoring process is being executed.

図15(B)に示す第1人検知状態では、コントローラ30はショベルの右後方の第1距離以内で且つ第2距離以遠に存在する人を検知している。そのため、コントローラ30は、その人の画像を強調表示し且つ第1警報を出力している。具体的には、コントローラ30は、カメラ画像部分G1において、対応する識別処理対象画像領域TRgの輪郭線を黄色枠F1として表示する。また、インジケータ部分G2において、その人の実在位置に対応する領域A4を黄色で表示する。但し、黄色枠の表示は省略されてもよい。また、第1人検知状態(警戒状態)であることを伝えるメッセージを表示させてもよい。 In the first person detection state shown in FIG. 15B, the controller 30 detects a person who exists within the first distance to the right rear of the excavator and beyond the second distance. Therefore, the controller 30 highlights the image of the person and outputs the first alarm. Specifically, the controller 30 displays the contour line of the corresponding identification processing target image region TRg as a yellow frame F1 in the camera image portion G1. Further, in the indicator portion G2, the area A4 corresponding to the actual position of the person is displayed in yellow. However, the display of the yellow frame may be omitted. In addition, a message indicating that the first person is in the detection state (warning state) may be displayed.

図15(C)に示す第2人検知状態では、コントローラ30はショベルの右後方の第2距離以内に存在する人を検知している。そのため、コントローラ30は、その人の画像を強調表示し且つ第2警報を出力している。具体的には、コントローラ30は、カメラ画像部分G1において、対応する識別処理対象画像領域TRgの輪郭線を赤色枠F2として表示する。また、インジケータ部分G2において、その人の実在位置に対応する領域B2を赤色で表示する。また、コントローラ30は、ショベルの動きを制限した上で、第2人検知状態(警報状態)であることを伝えるメッセージ「ショベル動作制限中」を点滅表示させている。但し、第2人検知状態(警報状態)であることを伝えるメッセージの表示は省略されてもよい。 In the second person detection state shown in FIG. 15C, the controller 30 detects a person who exists within the second distance to the right rear of the excavator. Therefore, the controller 30 highlights the image of the person and outputs the second alarm. Specifically, the controller 30 displays the contour line of the corresponding identification processing target image region TRg as the red frame F2 in the camera image portion G1. Further, in the indicator portion G2, the area B2 corresponding to the actual position of the person is displayed in red. In addition, the controller 30 limits the movement of the excavator, and then blinks and displays the message "excavator operation restricted" informing that the second person is in the detection state (alarm state). However, the display of the message indicating that the second person is in the detection state (alarm state) may be omitted.

また、図15(A)〜図15(C)では、画面の左側にカメラ画像部分G1が表示され、画面の右側にインジケータ部分G2が表示されるが、画面の右側にカメラ画像部分G1が表示され、画面の左側にインジケータ部分G2が表示されてもよい。また、上下に分割された画面の一方にカメラ画像部分G1が表示され、他方にインジケータ部分G2が表示されてもよい。また、インジケータ部分G2の表示は省略されてもよい。 Further, in FIGS. 15A to 15C, the camera image portion G1 is displayed on the left side of the screen, the indicator portion G2 is displayed on the right side of the screen, but the camera image portion G1 is displayed on the right side of the screen. The indicator portion G2 may be displayed on the left side of the screen. Further, the camera image portion G1 may be displayed on one of the vertically divided screens, and the indicator portion G2 may be displayed on the other side. Further, the display of the indicator portion G2 may be omitted.

また、領域A1〜A6のそれぞれの拡がり角度は45度であり、領域B1〜B3のそれぞれの拡がり角度は90度である。この拡がり角度の違いは、第1人検知状態(警戒状態)と第2人検知状態(警報状態)の性質の違いに基づく。具体的には、第1人検知状態(警戒状態)は、確度は低いがレスポンスが早い予備的な警報が出力される状態であり、ショベルから比較的離れたところの比較的広い空間範囲が監視範囲となっている。そのため、領域A1〜A6の拡がり角度を大きくすると、それぞれの領域に対応する監視範囲がその表示範囲と共に大きくなり、第1警報の原因となった人の実在位置が分かり難くなってしまう。広い監視範囲のどこにいても同じ表示結果となってしまうためである。一方で、第2人検知状態(警報状態)は、確度は高いがレスポンスが遅い正式な警報が出力される状態であり、ショベルから比較的近いところの比較的狭い空間範囲が監視範囲となっている。そのため、領域B1〜B3の拡がり角度を小さくすると、それぞれの領域に対応する監視範囲がその表示範囲と共に小さくなり、第2警報の原因となった人が何れの方向にいるのかが分かり難くなってしまう。表示範囲が小さくて見え難くなってしまうためである。そのため、望ましくは、図15(A)〜図15(C)に示すように、領域A1〜A6のそれぞれの拡がり角度は領域B1〜B3のそれぞれの拡がり角度よりも小さくなるように設定される。 Further, each of the regions A1 to A6 has an expansion angle of 45 degrees, and each of the regions B1 to B3 has an expansion angle of 90 degrees. This difference in the spread angle is based on the difference in the properties of the first person detection state (warning state) and the second person detection state (alarm state). Specifically, the first person detection state (warning state) is a state in which a preliminary alarm with low accuracy but quick response is output, and a relatively wide space range relatively far from the excavator is monitored. It is in the range. Therefore, if the expansion angle of the areas A1 to A6 is increased, the monitoring range corresponding to each area increases together with the display range, and it becomes difficult to understand the actual position of the person who caused the first alarm. This is because the same display result will be obtained anywhere in a wide monitoring range. On the other hand, the second person detection state (alarm state) is a state in which a formal alarm with high accuracy but slow response is output, and a relatively narrow space range relatively close to the excavator becomes the monitoring range. There is. Therefore, if the expansion angle of the areas B1 to B3 is reduced, the monitoring range corresponding to each area becomes smaller together with the display range, and it becomes difficult to know in which direction the person who caused the second alarm is. It ends up. This is because the display range is small and difficult to see. Therefore, preferably, as shown in FIGS. 15A to 15C, the expansion angle of each of the regions A1 to A6 is set to be smaller than the expansion angle of each of the regions B1 to B3.

また、図15(A)〜図15(C)では、後方カメラ40Bのスルー画像が表示されているときに後方カメラ40Bの撮像画像で人画像が検知された場合について説明する。しかしながら、上述の説明は、後方カメラ40Bのスルー画像が表示されているときに左側方カメラ40L及び右側方カメラ40Rの少なくとも一方の撮像画像で人画像が検知された場合にも同様に適用される。その場合、カメラ画像部分G1に表示される出力画像は、後方カメラ40Bのスルー画像から別のカメラのスルー画像又は複数のカメラの撮像画像から合成される視点変換画像に自動的に切り換えられてもよい。例えば、コントローラ30は、後方カメラ40Bのスルー画像が表示されているときに左側方カメラ40Lの撮像画像で人画像が検知された場合、カメラ画像部分G1に表示される出力画像を左側方カメラ40Lのスルー画像に切り換えてもよい。 Further, in FIGS. 15A to 15C, a case where a human image is detected in the captured image of the rear camera 40B while the through image of the rear camera 40B is displayed will be described. However, the above description is similarly applied when a human image is detected in at least one captured image of the left side camera 40L and the right side camera 40R when the through image of the rear camera 40B is displayed. .. In that case, even if the output image displayed on the camera image portion G1 is automatically switched from the through image of the rear camera 40B to the through image of another camera or the viewpoint conversion image synthesized from the images captured by a plurality of cameras. Good. For example, when a human image is detected in the captured image of the left camera 40L while the through image of the rear camera 40B is displayed, the controller 30 uses the output image displayed in the camera image portion G1 as the left camera 40L. You may switch to the through image of.

次に、図16を参照し、検知状態と枠及び領域の表示色との関係について説明する。図16は、検知状態と枠及び領域の表示色との対応関係を示す対応テーブルである。 Next, with reference to FIG. 16, the relationship between the detection state and the display colors of the frame and the area will be described. FIG. 16 is a correspondence table showing the correspondence between the detection state and the display colors of the frame and the area.

対応テーブルの1行目は、検知状態が第1人検知状態(警戒状態)でも第2人検知状態(警報状態)でもない場合には、識別処理対象画像領域の輪郭線を表示せず、インジケータ部分G2の何れの領域をも着色しないことを表す。 The first row of the correspondence table does not display the outline of the image area to be identified and is an indicator when the detection state is neither the first person detection state (warning state) nor the second person detection state (alarm state). Indicates that none of the regions of the portion G2 is colored.

2行目は、検知状態が警戒状態である場合には、警戒状態をもたらす原因となった人画像に対応する識別処理対象画像領域の輪郭線が黄色枠として表示され、且つ、領域A1〜A6の何れかが黄色で表示されることを表す。 In the second line, when the detection state is the alert state, the outline of the identification processing target image area corresponding to the human image that caused the alert state is displayed as a yellow frame, and the areas A1 to A6 Indicates that any of the above is displayed in yellow.

3行目は、検知状態が警報状態である場合には、警報状態をもたらす原因となった人画像に対応する識別処理対象画像領域の輪郭線が赤色枠として表示され、且つ、領域B1〜B3の何れかが赤色で表示されることを表す。 In the third line, when the detection state is the alarm state, the outline of the identification processing target image area corresponding to the human image that caused the alarm state is displayed as a red frame, and the areas B1 to B3. Indicates that any of the above is displayed in red.

4行目は、検知状態が警戒状態で且つ警報状態である場合には、警戒状態をもたらす原因となった人画像に対応する輪郭線が黄色枠で表示され、且つ、警報状態をもたらす原因となった人画像に対応する輪郭線が赤色枠で表示されることを表す。また、領域A1〜A6のうち警戒状態をもたらす原因となった人画像に対応する領域が黄色で表示され、領域B1〜B3のうち警報状態をもたらす原因となった人画像に対応する領域が赤色で表示されることを表す。 In the fourth line, when the detection state is the alert state and the alarm state, the outline corresponding to the human image that caused the alert state is displayed in a yellow frame, and the cause that causes the alarm state. Indicates that the contour line corresponding to the human image is displayed in a red frame. Further, the areas A1 to A6 corresponding to the human image causing the alert state are displayed in yellow, and the areas B1 to B3 corresponding to the human image causing the alarm state are displayed in red. Indicates that it is displayed with.

以上の構成により、コントローラ30は、ショベル周辺に人が存在すると判定した場合に警報を出力し且つその人の画像部分を強調表示する。そのため、操作者は警報の原因となった人を画面で確認できる。また、操作者は誤報が発生した場合にもその誤報の原因となったものが何であるかを画面で確認できる。 With the above configuration, the controller 30 outputs an alarm when it is determined that a person exists around the excavator, and highlights the image portion of the person. Therefore, the operator can confirm the person who caused the alarm on the screen. In addition, even if a false alarm occurs, the operator can confirm on the screen what caused the false alarm.

また、コントローラ30は、第1人検知状態(警戒状態)となった場合に初めてカメラ画像部分G1に人検知マーカとしての枠画像を表示し、且つ、インジケータ部分G2の対応する領域の色を変化させる。そのため、人画像として識別されたがその信頼性が未だ低い人候補画像に対応する枠画像までもが表示されてしまい、表示画像が複雑化してしまうのを防止できる。なお、上述の実施例では、人検知マーカとして枠画像を表示するが、反転表示画像等の他の強調画像が人検知マーカとして採用されてもよい。 Further, the controller 30 displays a frame image as a person detection marker on the camera image portion G1 for the first time when the first person detection state (warning state) is reached, and changes the color of the corresponding area of the indicator portion G2. Let me. Therefore, even a frame image corresponding to a person candidate image that has been identified as a human image but whose reliability is still low is displayed, and it is possible to prevent the displayed image from becoming complicated. In the above embodiment, the frame image is displayed as the person detection marker, but another emphasized image such as the inverted display image may be adopted as the person detection marker.

また、第1人検知状態(警戒状態)をもたらす原因となった人の画像と、第2人検知状態(警報状態)をもたらす原因となった人の画像とを区別可能に強調表示する。また、カメラ画像部分G1における枠画像の色とインジケータ部分G2における領域の色とを対応させる。そのため、操作者は第2警報の原因となった人を画面で確認できる。また、上述の実施例では、コントローラ30は、カメラ画像部分G1における枠画像の色、及び、インジケータ部分G2における領域の色を検知状態に応じて異ならせる。但し、コントローラ30は、点滅・点灯状態、透過率等の色以外の属性を検知状態に応じて異ならせてもよい。 In addition, the image of the person who caused the first person detection state (warning state) and the image of the person who caused the second person detection state (alarm state) are highlighted so as to be distinguishable. Further, the color of the frame image in the camera image portion G1 and the color of the region in the indicator portion G2 are made to correspond to each other. Therefore, the operator can confirm the person who caused the second alarm on the screen. Further, in the above-described embodiment, the controller 30 makes the color of the frame image in the camera image portion G1 and the color of the region in the indicator portion G2 different depending on the detection state. However, the controller 30 may have different attributes other than color, such as blinking / lighting state and transmittance, depending on the detection state.

次に、図17を参照し、周辺監視処理の実行中に車載ディスプレイに表示される出力画像の別の1例について説明する。図17は後方カメラ40B、左側方カメラ40L、及び右側方カメラ40Rのそれぞれの撮像画像に基づいて生成される出力画像としての視点変換画像の例である。図17は、第1人検知状態と第2人検知状態とが併存する場合の出力画像の例を示す。図17の出力画像は図15のカメラ画像部分G1に対応する視点変換画像部分G3を含む。図15のインジケータ部分G2に対応する部分は視点変換画像部分G3に統合されている。具体的には、図15のショベルアイコンCG1は図17のショベルアイコンCG2に対応し、図15の領域A1〜A6は図17の領域C1〜C6に対応する。また、図15の領域B1は図17の領域C1及びC2の組み合わせに対応し、図15の領域B2は図17の領域C3及びC4の組み合わせに対応し、図15の領域B3は図17の領域C5及びC6の組み合わせに対応する。視点変換画像上に重畳表示される線分L3はショベルからの距離が所定の第3距離(例えば2.5メートル)であることを示す。 Next, another example of the output image displayed on the in-vehicle display during the execution of the peripheral monitoring process will be described with reference to FIG. FIG. 17 is an example of a viewpoint conversion image as an output image generated based on each captured image of the rear camera 40B, the left side camera 40L, and the right side camera 40R. FIG. 17 shows an example of an output image when the first person detection state and the second person detection state coexist. The output image of FIG. 17 includes a viewpoint conversion image portion G3 corresponding to the camera image portion G1 of FIG. The portion corresponding to the indicator portion G2 in FIG. 15 is integrated with the viewpoint conversion image portion G3. Specifically, the excavator icon CG1 of FIG. 15 corresponds to the excavator icon CG2 of FIG. 17, and the regions A1 to A6 of FIG. 15 correspond to the regions C1 to C6 of FIG. Further, the area B1 of FIG. 15 corresponds to the combination of the areas C1 and C2 of FIG. 17, the area B2 of FIG. 15 corresponds to the combination of the areas C3 and C4 of FIG. 17, and the area B3 of FIG. 15 corresponds to the area of FIG. Corresponds to the combination of C5 and C6. The line segment L3 superimposed and displayed on the viewpoint conversion image indicates that the distance from the shovel is a predetermined third distance (for example, 2.5 meters).

図17に示す検知状態では、コントローラ30はショベルの左側方の第1距離(例えば5メートル)以内で且つ第3距離以遠に存在する人(第1人検知状態をもたらす原因となった人)を検知している。また、ショベルの後方の第3距離以内に存在する人(第2人検知状態をもたらす原因となった人)を検知している。そのため、コントローラ30は、それらの人の画像を強調表示し、第2警報を出力し、且つ、ショベルの動きを制限している。具体的には、コントローラ30は、第1人検知状態をもたらす原因となった人に対応する参照点Prの位置に人検知マーカとしての黄色円MA1を表示し、且つ、その位置に対応する領域C2を黄色で表示する。また、第2人検知状態をもたらす原因となった人に対応する参照点Prの位置に人検知マーカとしての赤色円MA2を表示し、且つ、その位置に対応する領域C3及びC4の組み合わせを赤色で表示する。また、コントローラ30は、ショベルの動きを制限した上で、第2人検知状態(警報状態)であることを伝えるメッセージ「ショベル動作制限中」を点滅表示させてもよい。また、黄色円MA1の表示は省略されてもよい。画面を見易くするためである。 In the detection state shown in FIG. 17, the controller 30 detects a person who is within the first distance (for example, 5 meters) on the left side of the excavator and beyond the third distance (the person who caused the first person detection state). It is being detected. In addition, a person who exists within a third distance behind the excavator (a person who caused the second person detection state) is detected. Therefore, the controller 30 highlights the images of those people, outputs a second alarm, and limits the movement of the excavator. Specifically, the controller 30 displays the yellow circle MA1 as a person detection marker at the position of the reference point Pr corresponding to the person who caused the first person detection state, and the area corresponding to that position. C2 is displayed in yellow. Further, a red circle MA2 as a person detection marker is displayed at the position of the reference point Pr corresponding to the person who caused the second person detection state, and the combination of the areas C3 and C4 corresponding to the position is red. Display with. Further, the controller 30 may limit the movement of the excavator and then blink the message "excavator operation restriction in progress" indicating that the second person is in the detection state (alarm state). Further, the display of the yellow circle MA1 may be omitted. This is to make the screen easier to see.

次に、図18を参照し、周辺監視処理の実行中に車載ディスプレイに表示される出力画像の更に別の1例について説明する。図18は、後方カメラ40B、左側方カメラ40L、及び右側方カメラ40Rのそれぞれの撮像画像に基づいて生成される視点変換画像を含む出力画像の例である。図18は、図17の場合と同様、第1人検知状態と第2人検知状態とが併存する場合の出力画像の例を示す。図18の出力画像はインジケータ部分G2と視点変換画像部分G3を含む。ショベルアイコンCG1の周囲に描かれる部分矩形の外周線L2gはショベルからの距離が所定の第3距離(例えば2.5メートル)であることを示し、視点変換画像部分G3の線分L3に対応する。 Next, with reference to FIG. 18, another example of the output image displayed on the in-vehicle display during the execution of the peripheral monitoring process will be described. FIG. 18 is an example of an output image including a viewpoint conversion image generated based on each captured image of the rear camera 40B, the left side camera 40L, and the right side camera 40R. FIG. 18 shows an example of an output image when the first person detection state and the second person detection state coexist as in the case of FIG. The output image of FIG. 18 includes an indicator portion G2 and a viewpoint conversion image portion G3. The outer peripheral line L2g of the partial rectangle drawn around the excavator icon CG1 indicates that the distance from the excavator is a predetermined third distance (for example, 2.5 meters), and corresponds to the line segment L3 of the viewpoint conversion image portion G3. ..

図18に示す検知状態では、コントローラ30はショベルの左側方の第1距離(例えば5メートル)以内で且つ第3距離以遠に存在する人(第1人検知状態をもたらす原因となった人)を検知している。また、ショベルの後方の第3距離以内に存在する人(第2人検知状態をもたらす原因となった人)を検知している。そのため、コントローラ30は、それらの人の画像を強調表示し、第2警報を出力し、且つ、ショベルの動きを制限している。具体的には、コントローラ30は、第1人検知状態をもたらす原因となった人に対応する参照点Prの位置に人検知マーカとしての黄色円MA1を表示し、且つ、その位置に対応するインジケータ部分G2の領域A2を黄色で表示する。また、第2人検知状態をもたらす原因となった人に対応する参照点Prの位置に人検知マーカとしての赤色円MA2を表示し、且つ、その位置に対応するインジケータ部分G2の領域B2を赤色で表示する。また、コントローラ30は、ショベルの動きを制限した上で、第2人検知状態(警報状態)であることを伝えるメッセージ「ショベル動作制限中」を点滅表示させている。なお、黄色円MA1の表示は省略されてもよい。画面を見易くするためである。 In the detection state shown in FIG. 18, the controller 30 detects a person who is within the first distance (for example, 5 meters) on the left side of the excavator and beyond the third distance (the person who caused the first person detection state). It is being detected. In addition, a person who exists within a third distance behind the excavator (a person who caused the second person detection state) is detected. Therefore, the controller 30 highlights the images of those people, outputs a second alarm, and limits the movement of the excavator. Specifically, the controller 30 displays a yellow circle MA1 as a person detection marker at the position of the reference point Pr corresponding to the person who caused the first person detection state, and an indicator corresponding to that position. The area A2 of the portion G2 is displayed in yellow. Further, a red circle MA2 as a person detection marker is displayed at the position of the reference point Pr corresponding to the person who caused the second person detection state, and the area B2 of the indicator portion G2 corresponding to the position is red. Display with. In addition, the controller 30 limits the movement of the excavator, and then blinks and displays the message "excavator operation restricted" informing that the second person is in the detection state (alarm state). The display of the yellow circle MA1 may be omitted. This is to make the screen easier to see.

以上の構成により、コントローラ30は、図15の出力画像を表示した場合と同様の効果を実現できる。 With the above configuration, the controller 30 can realize the same effect as when the output image of FIG. 15 is displayed.

このように、コントローラ30は、ショベル周辺に人が存在すると判定した場合にショベルの動きを制限し或いは停止させ且つその人の画像を表示する。そして、ショベルの動きを制限し或いは停止させた後でショベル周辺に人が存在しないと判定した場合には、ショベルが動き出さない状態が確保されていると判定したときに限り、その制限又は停止を解除できると判定する。そして、所定の待ち時間が経過したときにその制限又は停止を実際に解除する。そのため、人の検知に応じて実行されたショベルの動作制限をより適切に解除できる。 In this way, when the controller 30 determines that a person exists in the vicinity of the excavator, the controller 30 limits or stops the movement of the excavator and displays an image of the person. Then, when it is determined that there is no person around the excavator after restricting or stopping the movement of the excavator, the restriction or stop is performed only when it is determined that the state in which the excavator does not start is secured. Judge that it can be released. Then, when the predetermined waiting time elapses, the restriction or suspension is actually released. Therefore, it is possible to more appropriately release the operation restriction of the excavator executed in response to the detection of a person.

また、コントローラ30は、ショベルの動きを制限し或いは停止させた場合、その原因となった人が存在する側から操作者に向けて警報を出力させることができる。そのため、操作者が車載ディスプレイの画面を見る前に、人が存在する方向を操作者に認識させることができる。操作者は、警報が聞こえてきた方向によって人が存在する方向を聴覚的に認識した後で車載ディスプレイの画面を見ることで、認識した通りの方向に人が存在することを視覚的に確認できる。このように、コントローラ30は、警報と表示の連携で人が存在する方向を操作者に知らせるため、短時間でショベル周辺の状況を操作者に認識させることができる。 Further, when the movement of the excavator is restricted or stopped, the controller 30 can output an alarm to the operator from the side where the person who caused the excavator exists. Therefore, the operator can recognize the direction in which the person exists before the operator looks at the screen of the in-vehicle display. The operator can visually confirm that the person exists in the recognized direction by audibly recognizing the direction in which the person is present according to the direction in which the alarm is heard and then looking at the screen of the in-vehicle display. .. In this way, the controller 30 informs the operator of the direction in which the person exists by coordinating the alarm and the display, so that the operator can recognize the situation around the excavator in a short time.

警報により人が検知されたことを認識した場合であってもその人の存在方向が分からないときには操作者は先ず画面全体を見てその人が何れの方向に存在するのかを見つけ出す必要があるためである。一方で、画面を見る前にその人の存在方向が分かっているときには操作者は画面の一部(その存在方向に対応する部分)を見るだけでその人の存在を視覚的に確認できるためである。 Even if it recognizes that a person has been detected by an alarm, when the direction of the person's existence is unknown, the operator must first look at the entire screen to find out in which direction the person is present. Is. On the other hand, when the direction of existence of the person is known before looking at the screen, the operator can visually confirm the existence of the person only by looking at a part of the screen (the part corresponding to the direction of existence). is there.

以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなしに上述した実施例に種々の変形及び置換を加えることができる。 Although the preferred examples of the present invention have been described in detail above, the present invention is not limited to the above-mentioned examples, and various modifications and substitutions are made to the above-mentioned examples without departing from the scope of the present invention. Can be added.

例えば、上述の実施例では、ショベルの上部旋回体3の上に取り付けられる撮像装置40の撮像画像を用いて人を検知する場合を想定するが、本発明はこの構成に限定されるものではない。移動式クレーン、固定式クレーン、リフマグ機、フォークリフト等の他の作業機械の本体部に取り付けられる撮像装置の撮像画像を用いる構成にも適用され得る。 For example, in the above-described embodiment, it is assumed that a person is detected by using an image captured by an image pickup device 40 mounted on the upper swing body 3 of the shovel, but the present invention is not limited to this configuration. .. It can also be applied to a configuration using an image taken by an image pickup device attached to the main body of another work machine such as a mobile crane, a fixed crane, a riff mag machine, and a forklift.

また、上述の実施例では、3つのカメラを用いてショベルの死角領域を撮像するが、1つ、2つ、又は4つ以上のカメラを用いてショベルの死角領域を撮像してもよい。 Further, in the above-described embodiment, the blind spot area of the excavator is imaged by using three cameras, but the blind spot area of the excavator may be imaged by using one, two, or four or more cameras.

また、上述の実施例では、撮像装置40の撮像画像を用いて人検知が行われるが、超音波センサ、レーザレーダ、焦電センサ、ミリ波レーダ等の出力を用いて人検知が行われてもよい。 Further, in the above-described embodiment, the person detection is performed using the image captured by the image pickup device 40, but the person detection is performed using the output of an ultrasonic sensor, a laser radar, a pyroelectric sensor, a millimeter wave radar, or the like. May be good.

また、上述の実施例では、複数の撮像画像のそれぞれに対して個別に人検知処理が適用されるが、複数の撮像画像から生成される1つの合成画像に対して人検知処理が適用されてもよい。 Further, in the above-described embodiment, the human detection process is individually applied to each of the plurality of captured images, but the human detection process is applied to one composite image generated from the plurality of captured images. May be good.

1・・・下部走行体 2・・・旋回機構 3・・・上部旋回体 4・・・ブーム 5・・・アーム 6・・・バケット 7・・・ブームシリンダ 8・・・アームシリンダ 9・・・バケットシリンダ 10・・・キャビン 30・・・コントローラ 31・・・抽出部 32・・・識別部 33・・・追跡部 34・・・人検知部 35・・・制御部 40・・・撮像装置 40B・・・後方カメラ 40L・・・左側方カメラ 40R・・・右側方カメラ 41・・・入力装置 50・・・出力装置 51・・・機械制御装置 100・・・周辺監視システム AP、AP1〜AP6・・・頭部画像位置 BX・・・ボックス G1・・・カメラ画像部分 G2・・・インジケータ部分 G3・・・視点変換画像部分 HD・・・頭部 HP・・・仮想頭部位置 HRg・・・ヘルメット画像 M1、M2・・・マスク領域 Pr、Pr1、Pr2、Pr10〜Pr12・・・参照点 R1・・・はみ出し領域 R2・・・車体映り込み領域 RP・・・代表位置 TR、TR1、TR2、TR10〜TR12・・・仮想平面領域 TRg、TRg3、TRg4、TRg5・・・識別処理対象画像領域 TRgt、TRgt3、TRgt4、TRgt5・・・正規化画像 1 ... Lower traveling body 2 ... Swivel mechanism 3 ... Upper swivel body 4 ... Boom 5 ... Arm 6 ... Bucket 7 ... Boom cylinder 8 ... Arm cylinder 9 ...・ Bucket cylinder 10 ・ ・ ・ Cabin 30 ・ ・ ・ Controller 31 ・ ・ ・ Extraction unit 32 ・ ・ ・ Identification unit 33 ・ ・ ・ Tracking unit 34 ・ ・ ・ Human detection unit 35 ・ ・ ・ Control unit 40 ・ ・ ・ Imaging device 40B ・ ・ ・ Rear camera 40L ・ ・ ・ Left side camera 40R ・ ・ ・ Right side camera 41 ・ ・ ・ Input device 50 ・ ・ ・ Output device 51 ・ ・ ・ Machine control device 100 ・ ・ ・ Peripheral monitoring system AP, AP1 AP6 ・ ・ ・ Head image position BX ・ ・ ・ Box G1 ・ ・ ・ Camera image part G2 ・ ・ ・ Indicator part G3 ・ ・ ・ Viewpoint conversion image part HD ・ ・ ・ Head HP ・ ・ ・ Virtual head position HRg ・・ ・ Helmet image M1, M2 ・ ・ ・ Mask area Pr, Pr1, Pr2, Pr10 ・ Pr12 ・ ・ ・ Reference point R1 ・ ・ ・ Overhang area R2 ・ ・ ・ Vehicle body reflection area RP ・ ・ ・ Representative position TR, TR1, TR2, TR10 to TR12 ... Virtual plane area TRg, TRg3, TRg4, TRg5 ... Identification processing target image area TRgt, TRgt3, TRgt4, TRgt5 ... Normalized image

Claims (8)

走行体と、
前記走行体に旋回可能に搭載された旋回体と、
前記旋回体に設けられた作業アタッチメントと、
を備えるショベルであって、
前記旋回体に設けられ、前記ショベルの周辺の所定範囲に存在する監視対象を検知する検知部と、
前記検知部の検知結果に基づき、前記ショベルの状態を、第1状態又は第2状態に切り換える制御部と、を備え、
前記第1状態は、前記ショベルの動きの制限が解除されている状態を含み、
前記第2状態は、前記ショベルの動きが制限されている状態を含み、
前記制御部は、前記ショベルの状態を前記第1状態から前記第2状態に切り換えた後で所定の条件が満たされた場合に前記ショベルの状態を前記第1状態に戻し、
前記所定の条件は、前記所定範囲での前記監視対象の非検知と、前記ショベルが動き出さない状態が確保されていることと、を含む、
ショベル。
With the running body
A swivel body mounted on the traveling body so as to be swivel
The work attachment provided on the swivel body and
It is a shovel equipped with
A detection unit provided on the swivel body and detecting a monitoring target existing in a predetermined range around the excavator, and a detection unit.
A control unit that switches the state of the excavator to the first state or the second state based on the detection result of the detection unit is provided.
The first state includes a state in which the restriction on the movement of the excavator is released.
The second state includes a state in which the movement of the excavator is restricted.
After switching the state of the excavator from the first state to the second state, the control unit returns the state of the excavator to the first state when a predetermined condition is satisfied.
The predetermined condition includes non-detection of the monitoring target within the predetermined range and ensuring that the excavator does not start moving.
Excavator.
前記ショベルの動きが制限されている状態は、前記ショベルの動作速度を低減させている状態である、
請求項1に記載のショベル。
The state in which the movement of the excavator is restricted is a state in which the operating speed of the excavator is reduced.
The excavator according to claim 1.
前記ショベルの動きが制限されている状態は、最大旋回速度を低減させている状態、最大走行速度を低減させている状態、及び、アクチュエータの動作速度を低減させている状態、のうちの少なくとも一つの状態である、
請求項2に記載のショベル。
The state in which the movement of the excavator is restricted is at least one of a state in which the maximum turning speed is reduced, a state in which the maximum traveling speed is reduced, and a state in which the operating speed of the actuator is reduced. There are two states,
The excavator according to claim 2.
前記ショベルが動き出さない状態が確保されていることは、操作装置が所定時間以上にわたって中立位置にあることを含み、
「所定時間以上にわたって」という条件は、前記操作装置が瞬間的に中立位置になっただけで、「前記ショベルが動き出さない状態が確保されていること」という条件が満たされてしまうのを防止する、
請求項1乃至3の何れかに記載のショベル。
Ensuring that the excavator does not start moving includes that the operating device is in the neutral position for a predetermined time or longer.
The condition "for a predetermined time or longer" prevents the condition that "the state in which the excavator does not start is ensured" is satisfied only when the operating device is momentarily in the neutral position. ,
The excavator according to any one of claims 1 to 3.
前記ショベルが動き出さない状態が確保されていることは、操作装置から操作者の手足が離されていることを含み、
前記操作装置から操作者の手足が離されていることは、運転室内を撮像する撮像装置の撮像画像、又は、前記撮像装置に取り付けられた静電センサの出力に基づいて検知される、
請求項1乃至3の何れかに記載のショベル。
The fact that the excavator does not start moving includes the fact that the operator's limbs are separated from the operating device.
The fact that the operator's limbs are separated from the operating device is detected based on the captured image of the imaging device that images the driver's cab or the output of the electrostatic sensor attached to the imaging device.
The excavator according to any one of claims 1 to 3.
前記ショベルが動き出さない状態が確保されていることは、ゲートロックレバーによって操作装置が無効にされていることを含み、
前記操作装置の無効化は、前記操作装置を反応しない状態にすることで実現される、
請求項1乃至3の何れかに記載のショベル。
The fact that the excavator does not start moving includes the fact that the operating device is disabled by the gate lock lever.
The invalidation of the operating device is realized by making the operating device unresponsive.
The excavator according to any one of claims 1 to 3.
前記ショベルが動き出さない状態が確保されていることは、前記ショベルの状態を前記第1状態に戻した際に前記ショベルが動き出さない状態が確保されていることを含み、
前記ショベルが動き出さない状態が確保されているか否かは、前記第1状態に移行するときに判定される、
請求項1乃至6の何れかに記載のショベル。
The state in which the excavator does not start is ensured includes the state in which the excavator does not start when the state of the excavator is returned to the first state.
Whether or not the state in which the excavator does not start is secured is determined when the state shifts to the first state.
The excavator according to any one of claims 1 to 6.
前記ショベルの動きが制限されているときに、前記ショベルの動きの制限の解除方法を案内する、
請求項1乃至7の何れかに記載のショベル。
When the movement of the excavator is restricted, the method of releasing the restriction on the movement of the excavator is guided.
The excavator according to any one of claims 1 to 7.
JP2021039348A 2020-02-13 2021-03-11 Excavator Active JP7084521B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021039348A JP7084521B2 (en) 2020-02-13 2021-03-11 Excavator

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020022887A JP6934077B2 (en) 2015-11-30 2020-02-13 Excavator
JP2021039348A JP7084521B2 (en) 2020-02-13 2021-03-11 Excavator

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020022887A Division JP6934077B2 (en) 2015-11-30 2020-02-13 Excavator

Publications (2)

Publication Number Publication Date
JP2021095839A true JP2021095839A (en) 2021-06-24
JP7084521B2 JP7084521B2 (en) 2022-06-14

Family

ID=71013201

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020022887A Active JP6934077B2 (en) 2015-11-30 2020-02-13 Excavator
JP2021039348A Active JP7084521B2 (en) 2020-02-13 2021-03-11 Excavator

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020022887A Active JP6934077B2 (en) 2015-11-30 2020-02-13 Excavator

Country Status (1)

Country Link
JP (2) JP6934077B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023281826A1 (en) * 2021-07-05 2023-01-12 コベルコ建機株式会社 Work site monitoring system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112023005307A2 (en) 2020-09-29 2023-04-25 Sony Semiconductor Solutions Corp INFORMATION PROCESSING SYSTEM AND INFORMATION PROCESSING METHOD
US20230272599A1 (en) * 2022-02-28 2023-08-31 Caterpillar Inc. Work machine safety zone control

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0559752A (en) * 1991-08-30 1993-03-09 Komatsu Ltd Collision-preventing device
JP2014047607A (en) * 2012-09-04 2014-03-17 Aktio Corp Safety device of work machine
JP2014181510A (en) * 2013-03-19 2014-09-29 Sumitomo Heavy Ind Ltd Periphery monitoring apparatus for working machine
JP2015168973A (en) * 2014-03-06 2015-09-28 住友建機株式会社 Monitoring device for construction machine

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0559752A (en) * 1991-08-30 1993-03-09 Komatsu Ltd Collision-preventing device
JP2014047607A (en) * 2012-09-04 2014-03-17 Aktio Corp Safety device of work machine
JP2014181510A (en) * 2013-03-19 2014-09-29 Sumitomo Heavy Ind Ltd Periphery monitoring apparatus for working machine
JP2015168973A (en) * 2014-03-06 2015-09-28 住友建機株式会社 Monitoring device for construction machine

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023281826A1 (en) * 2021-07-05 2023-01-12 コベルコ建機株式会社 Work site monitoring system

Also Published As

Publication number Publication date
JP7084521B2 (en) 2022-06-14
JP6934077B2 (en) 2021-09-08
JP2020092447A (en) 2020-06-11

Similar Documents

Publication Publication Date Title
JP6363805B2 (en) Perimeter monitoring system for work machines
WO2017094626A1 (en) Periphery monitoring system for work machine
JP7084521B2 (en) Excavator
JP6419677B2 (en) Perimeter monitoring system for work machines
JP6997066B2 (en) Human detection system
JP6662622B2 (en) Perimeter monitoring system for work machine and construction machine equipped with perimeter monitoring system for work machine
JP2017102604A (en) Periphery monitoring system for work machine
JP6474396B2 (en) Human detection system and excavator
JP6755672B2 (en) Peripheral monitoring system for work machines
WO2014148202A1 (en) Periphery monitoring device for work machine
JP2017158033A (en) Periphery monitoring system for work machine
JP6515021B2 (en) Peripheral monitoring system for work machine
JP7077356B2 (en) Peripheral monitoring system for work machines
JP7125454B2 (en) Excavator
JP6515020B2 (en) Peripheral monitoring system for work machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220602

R150 Certificate of patent or registration of utility model

Ref document number: 7084521

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150