JP6755672B2 - Peripheral monitoring system for work machines - Google Patents

Peripheral monitoring system for work machines Download PDF

Info

Publication number
JP6755672B2
JP6755672B2 JP2016034779A JP2016034779A JP6755672B2 JP 6755672 B2 JP6755672 B2 JP 6755672B2 JP 2016034779 A JP2016034779 A JP 2016034779A JP 2016034779 A JP2016034779 A JP 2016034779A JP 6755672 B2 JP6755672 B2 JP 6755672B2
Authority
JP
Japan
Prior art keywords
image
region
extraction unit
processing target
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016034779A
Other languages
Japanese (ja)
Other versions
JP2017151815A (en
Inventor
晋 相澤
晋 相澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Heavy Industries Ltd
Original Assignee
Sumitomo Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Heavy Industries Ltd filed Critical Sumitomo Heavy Industries Ltd
Priority to JP2016034779A priority Critical patent/JP6755672B2/en
Publication of JP2017151815A publication Critical patent/JP2017151815A/en
Application granted granted Critical
Publication of JP6755672B2 publication Critical patent/JP6755672B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Component Parts Of Construction Machinery (AREA)

Description

本発明は、作業機械の周辺を監視する作業機械用周辺監視システムに関する。 The present invention relates to a peripheral monitoring system for a working machine that monitors the periphery of the working machine.

イメージ・センサと熱を感知するサーモパイル・アレイを持ち、撮像範囲と熱検出範囲を重複させ、サーモパイル・アレイの出力が示す人体らしき範囲のみを顔抽出範囲と限定して画像識別処理の際の不要な演算処理量を減らす人体検出装置が知られている(特許文献1参照。)。 It has an image sensor and a thermopile array that senses heat, overlaps the imaging range and heat detection range, and limits only the human body-like range indicated by the output of the thermopile array to the face extraction range, which is unnecessary for image identification processing. A human body detection device that reduces the amount of arithmetic processing is known (see Patent Document 1).

特開2006−059015号公報Japanese Unexamined Patent Publication No. 2006-059015

一方で、作業機械の周辺の人を早期に検知できる作業機械用周辺監視システムの提供が望まれる。 On the other hand, it is desired to provide a peripheral monitoring system for work machines that can detect people around the work machine at an early stage.

本発明の実施例に係る作業機械用周辺監視システムは、作業機械に取り付けられる撮像装置の撮像画像を用いて前記作業機械の周辺に存在する人を検知する作業機械用周辺監視システムであって、識別処理対象画像を抽出する抽出部と、前記抽出部が抽出した前記識別処理対象画像に含まれる画像が人の画像であるかを画像認識処理によって識別する識別部と、を有し、前記撮像画像は、複数の領域に分割され、前記抽出部は、前記複数の領域から所定の順番で領域を選択し、選択した領域における複数の画像部分のうち、人の特徴的な部分を表す特徴画像を含む画像部分を前記識別処理対象画像として抽出し、前記所定の順番は、前記作業機械の車両状態に応じて動的に設定される
The peripheral monitoring system for a work machine according to an embodiment of the present invention is a peripheral monitoring system for a work machine that detects a person existing in the vicinity of the work machine by using an image captured by an image pickup device attached to the work machine. It has an extraction unit that extracts an image to be identified and an identification unit that identifies whether the image included in the identification processing target image extracted by the extraction unit is a human image by image recognition processing. The image is divided into a plurality of regions, and the extraction unit selects regions from the plurality of regions in a predetermined order, and among the plurality of image portions in the selected region, a feature image representing a characteristic portion of a person. The image portion including the above is extracted as the identification processing target image, and the predetermined order is dynamically set according to the vehicle state of the work machine .

上述の手段により、作業機械の周辺の人を早期に検知できる作業機械用周辺監視システムが提供される。 By the above-mentioned means, a peripheral monitoring system for a work machine that can detect a person around the work machine at an early stage is provided.

本発明の実施例に係る周辺監視システムが搭載されるショベルの側面図である。It is a side view of the excavator equipped with the peripheral monitoring system which concerns on embodiment of this invention. 周辺監視システムの構成例を示す機能ブロック図である。It is a functional block diagram which shows the configuration example of the peripheral monitoring system. 後方カメラの撮像画像の例である。This is an example of an image captured by a rear camera. 撮像画像から識別処理対象画像を切り出す際に用いられる幾何学的関係の一例を示す概略図である。It is the schematic which shows an example of the geometric relation used when cutting out the identification processing target image from the captured image. ショベル後方の実空間の上面図である。It is a top view of the real space behind the excavator. 撮像画像から正規化画像を生成する処理の流れを示す図である。It is a figure which shows the flow of the process which generates the normalized image from the captured image. 撮像画像と識別処理対象画像領域と正規化画像との関係を示す図である。It is a figure which shows the relationship between the captured image, the image area subject to identification processing, and a normalized image. 識別処理対象画像領域と識別処理不適領域との関係を示す図である。It is a figure which shows the relationship between the image area which is the object of identification processing, and the area which is unsuitable for identification processing. 正規化画像の例を示す図である。It is a figure which shows the example of the normalized image. 実空間における仮想平面領域と後方カメラとの間の後方水平距離と、正規化画像における頭部画像部分の大きさとの関係を説明する図である。It is a figure explaining the relationship between the rear horizontal distance between a virtual plane area and a rear camera in a real space, and the size of the head image part in a normalized image. 撮像画像から識別処理対象画像を切り出す際に用いられる幾何学的関係の別の一例を示す概略図である。It is a schematic diagram which shows another example of the geometric relation used when cutting out the identification processing target image from the captured image. 撮像画像における特徴画像の一例を示す図である。It is a figure which shows an example of the feature image in the captured image. 画像抽出処理の一例の流れを示すフローチャートである。It is a flowchart which shows the flow of an example of an image extraction process. 画像抽出処理の別の一例の流れを示すフローチャートである。It is a flowchart which shows the flow of another example of an image extraction process. 画像抽出処理の更に別の一例の流れを示すフローチャートである。It is a flowchart which shows the flow of still another example of an image extraction process. 画像抽出処理の更に別の一例の流れを示すフローチャートである。It is a flowchart which shows the flow of still another example of an image extraction process. 選択型画像抽出処理の一例の流れを示すフローチャートである。It is a flowchart which shows the flow of an example of a selective image extraction process. 複数の領域に分割された撮像画像の一例を示す図である。It is a figure which shows an example of the captured image divided into a plurality of regions. 複数の領域に分割された撮像画像の別の一例を示す図である。It is a figure which shows another example of the captured image divided into a plurality of regions. 複数の領域に分割された撮像画像の更に別の一例を示す図である。It is a figure which shows still another example of the captured image divided into a plurality of regions.

図1は、本発明の実施例に係る周辺監視システム100が搭載される作業機械(建設機械)としてのショベル(掘削機)の側面図である。ショベルの下部走行体1には、旋回機構2を介して上部旋回体3が搭載される。上部旋回体3には、ブーム4が取り付けられる。ブーム4の先端にはアーム5が取り付けられ、アーム5の先端にはバケット6が取り付けられる。ブーム4、アーム5、及びバケット6は掘削アタッチメントを構成し、ブームシリンダ7、アームシリンダ8、及びバケットシリンダ9によりそれぞれ油圧駆動される。また、上部旋回体3には、キャビン10が設けられ、且つエンジン等の動力源が搭載される。また、上部旋回体3の上部には撮像装置40が取り付けられる。具体的には、上部旋回体3の後端上部、左端上部、右端上部に後方カメラ40B、左側方カメラ40L、右側方カメラ40Rが取り付けられる。また、キャビン10内にはコントローラ30及び出力装置50が設置される。 FIG. 1 is a side view of an excavator (excavator) as a work machine (construction machine) on which the peripheral monitoring system 100 according to the embodiment of the present invention is mounted. The upper swivel body 3 is mounted on the lower traveling body 1 of the excavator via the swivel mechanism 2. A boom 4 is attached to the upper swing body 3. An arm 5 is attached to the tip of the boom 4, and a bucket 6 is attached to the tip of the arm 5. The boom 4, arm 5, and bucket 6 form an excavation attachment, and are hydraulically driven by the boom cylinder 7, arm cylinder 8, and bucket cylinder 9, respectively. Further, the upper swing body 3 is provided with a cabin 10 and is equipped with a power source such as an engine. Further, an image pickup device 40 is attached to the upper part of the upper swing body 3. Specifically, the rear camera 40B, the left side camera 40L, and the right side camera 40R are attached to the upper rear end, the upper left end, and the upper right end of the upper swing body 3. Further, a controller 30 and an output device 50 are installed in the cabin 10.

図2は、周辺監視システム100の構成例を示す機能ブロック図である。周辺監視システム100は、主に、コントローラ30、撮像装置40、入力装置42、車両状態検出装置44、出力装置50、及び機械制御装置51を含む。本実施例では、撮像装置40、入力装置42、車両状態検出装置44、出力装置50、及び機械制御装置51は、CANを介してコントローラ30に接続されている。 FIG. 2 is a functional block diagram showing a configuration example of the peripheral monitoring system 100. The peripheral monitoring system 100 mainly includes a controller 30, an image pickup device 40, an input device 42, a vehicle state detection device 44, an output device 50, and a machine control device 51. In this embodiment, the image pickup device 40, the input device 42, the vehicle state detection device 44, the output device 50, and the machine control device 51 are connected to the controller 30 via CAN.

コントローラ30は、ショベルの駆動制御を行う制御装置である。本実施例では、コントローラ30は、CPU及び内部メモリを含む演算処理装置で構成され、内部メモリに格納された駆動制御用のプログラムをCPUに実行させて各種機能を実現する。 The controller 30 is a control device that controls the drive of the excavator. In this embodiment, the controller 30 is composed of a CPU and an arithmetic processing device including an internal memory, and causes the CPU to execute a drive control program stored in the internal memory to realize various functions.

また、コントローラ30は、各種装置の出力に基づいてショベルの周辺に人が存在するかを判定し、その判定結果に応じて各種装置を制御する。具体的には、コントローラ30は、撮像装置40及び入力装置42の出力を受け、抽出部31、識別部32、追跡部33、及び制御部35のそれぞれに対応するソフトウェアプログラムを実行する。そして、その実行結果に応じて機械制御装置51に制御指令を出力してショベルの駆動制御を実行し、或いは、出力装置50から各種情報を出力させる。なお、コントローラ30は、画像処理専用の制御装置であってもよい。 Further, the controller 30 determines whether or not a person exists in the vicinity of the excavator based on the outputs of the various devices, and controls the various devices according to the determination result. Specifically, the controller 30 receives the outputs of the image pickup device 40 and the input device 42, and executes software programs corresponding to each of the extraction unit 31, the identification unit 32, the tracking unit 33, and the control unit 35. Then, a control command is output to the machine control device 51 to execute the excavator drive control according to the execution result, or various information is output from the output device 50. The controller 30 may be a control device dedicated to image processing.

撮像装置40は、ショベルの周囲の画像を撮像する装置であり、撮像した画像をコントローラ30に対して出力する。本実施例では、撮像装置40は、CCD等の撮像素子を採用するワイドカメラであり、上部旋回体3の上部において光軸が斜め下方を向くように取り付けられる。 The image pickup device 40 is a device for capturing an image around the excavator, and outputs the captured image to the controller 30. In this embodiment, the image pickup device 40 is a wide camera that employs an image pickup device such as a CCD, and is attached so that the optical axis faces diagonally downward at the upper part of the upper swing body 3.

入力装置42は操作者の入力を受ける装置である。本実施例では、入力装置42は、操作装置(操作レバー、操作ペダル等)、ゲートロックレバー、操作装置の先端に設置されたボタン、車載ディスプレイに付属のボタン、タッチパネル等を含む。 The input device 42 is a device that receives input from the operator. In this embodiment, the input device 42 includes an operation device (operation lever, operation pedal, etc.), a gate lock lever, a button installed at the tip of the operation device, a button attached to an in-vehicle display, a touch panel, and the like.

車両状態検出装置44は、ショベルの車両状態を検出する装置であり、例えば、ブーム角度センサ、アーム角度センサ、バケット角度センサ、レゾルバ、ロータリエンコーダ、パイロット圧センサ等を含む。車両状態は、例えば、掘削アタッチメントの姿勢、旋回方向、旋回速度、走行方向、走行速度、操作装置の操作内容等を含む。掘削アタッチメントの姿勢は、例えば、ブーム角度センサ、アーム角度センサ、及びバケット角度センサの出力に基づいて検出される。旋回方向及び旋回速度は、例えば、上部旋回体3の旋回軸に取り付けられたレゾルバ、ロータリエンコーダ等の出力に基づいて検出される。旋回方向及び旋回速度は、旋回操作レバーの操作内容に基づいて検出されてもよい。旋回操作レバーの操作内容は、例えば、パイロット圧センサの出力に基づいて検出される。走行方向及び走行速度は、例えば、下部走行体1を駆動する走行用油圧モータの回転軸に取り付けられたロータリエンコーダ等の出力に基づいて検出される。走行方向及び走行速度は、走行レバー又は走行ペダルの操作内容に基づいて検出されてもよい。走行レバー又は走行ペダルの操作内容は、例えば、パイロット圧センサの出力に基づいて検出される。 The vehicle state detection device 44 is a device that detects the vehicle state of the excavator, and includes, for example, a boom angle sensor, an arm angle sensor, a bucket angle sensor, a resolver, a rotary encoder, a pilot pressure sensor, and the like. The vehicle state includes, for example, the posture of the excavation attachment, the turning direction, the turning speed, the traveling direction, the traveling speed, the operation content of the operating device, and the like. The posture of the drilling attachment is detected, for example, based on the outputs of the boom angle sensor, arm angle sensor, and bucket angle sensor. The turning direction and turning speed are detected based on, for example, the output of a resolver, a rotary encoder, or the like attached to the turning shaft of the upper turning body 3. The turning direction and turning speed may be detected based on the operation content of the turning operation lever. The operation content of the swivel operation lever is detected based on, for example, the output of the pilot pressure sensor. The traveling direction and traveling speed are detected based on, for example, the output of a rotary encoder or the like attached to the rotation shaft of the traveling hydraulic motor that drives the lower traveling body 1. The traveling direction and traveling speed may be detected based on the operation contents of the traveling lever or the traveling pedal. The operation content of the travel lever or the travel pedal is detected based on, for example, the output of the pilot pressure sensor.

出力装置50は、各種情報を出力する装置であり、例えば、各種画像情報を表示する車載ディスプレイ、各種音声情報を音声出力する車載スピーカ、警報ブザー、警報ランプ等を含む。本実施例では、出力装置50は、コントローラ30からの制御指令に応じて各種情報を出力する。 The output device 50 is a device that outputs various information, and includes, for example, an in-vehicle display that displays various image information, an in-vehicle speaker that outputs various audio information, an alarm buzzer, an alarm lamp, and the like. In this embodiment, the output device 50 outputs various information in response to a control command from the controller 30.

機械制御装置51は、ショベルの動きを制御する装置であり、例えば、油圧システムにおける作動油の流れを制御する制御弁、ゲートロック弁、エンジン制御装置等を含む。 The mechanical control device 51 is a device that controls the movement of the excavator, and includes, for example, a control valve, a gate lock valve, an engine control device, and the like that control the flow of hydraulic oil in the hydraulic system.

抽出部31は、撮像装置40が撮像した撮像画像から識別処理対象画像を抽出する機能要素である。具体的には、抽出部31は、局所的な輝度勾配又はエッジに基づく簡易な特徴、Hough変換等による幾何学的特徴、輝度に基づいて分割された領域の面積又はアスペクト比に関する特徴等を抽出する比較的演算量の少ない画像処理(以下、「前段画像認識処理」とする。)によって識別処理対象画像を抽出する。識別処理対象画像は、後続の画像処理の対象となる画像部分(撮像画像の一部)であり、人候補画像を含む。人候補画像は、人画像である可能性が高いとされる画像部分(撮像画像の一部)である。撮像画像はカラー画像であってもよく、グレースケール画像であってもよい。抽出部31は、カラー画像をグレースケール化する複数種類の機能を備えていてもよい。 The extraction unit 31 is a functional element that extracts an image to be identified for identification processing from the image captured by the image pickup device 40. Specifically, the extraction unit 31 extracts simple features based on a local luminance gradient or edge, geometric features by Hough transform, etc., features related to the area or aspect ratio of a region divided based on luminance, and the like. The image to be identified is extracted by image processing with a relatively small amount of calculation (hereinafter, referred to as "pre-stage image recognition processing"). The identification processing target image is an image portion (a part of the captured image) that is the target of subsequent image processing, and includes a person candidate image. The human candidate image is an image portion (a part of the captured image) that is highly likely to be a human image. The captured image may be a color image or a grayscale image. The extraction unit 31 may have a plurality of types of functions for grayscale a color image.

識別部32は、抽出部31が抽出した識別処理対象画像に含まれる人候補画像が人画像であるかを識別する機能要素である。具体的には、識別部32は、HOG(Histograms of Oriented Gradients)特徴量に代表される画像特徴量記述と機械学習により生成した識別器とを用いた画像認識処理等の比較的演算量の多い画像処理(以下、「後段画像認識処理」とする。)によって人候補画像が人画像であるかを識別する。識別部32が人候補画像を人画像として識別する割合は、抽出部31による識別処理対象画像の抽出が高精度であるほど高くなる。 The identification unit 32 is a functional element that identifies whether the person candidate image included in the identification processing target image extracted by the extraction unit 31 is a human image. Specifically, the identification unit 32 has a relatively large amount of calculation such as image recognition processing using an image feature amount description represented by a HOG (Histograms of Oriented Gradients) feature amount and a classifier generated by machine learning. It is identified whether the person candidate image is a person image by image processing (hereinafter, referred to as "post-stage image recognition processing"). The rate at which the identification unit 32 identifies the human candidate image as a human image increases as the extraction unit 31 extracts the identification processing target image with higher accuracy.

次に、図3を参照し、後方カメラ40Bが撮像したショベル後方の撮像画像における人画像の見え方について説明する。なお、図3の2つの撮像画像は、後方カメラ40Bの撮像画像の例である。また、図3の点線円は人画像の存在を表し、実際の撮像画像には表示されない。 Next, with reference to FIG. 3, how the human image looks in the captured image behind the excavator captured by the rear camera 40B will be described. The two captured images in FIG. 3 are examples of captured images of the rear camera 40B. Further, the dotted line circle in FIG. 3 represents the existence of a human image and is not displayed in the actual captured image.

後方カメラ40Bは、ワイドカメラであり、且つ、人を斜め上から見下ろす高さに取り付けられる。そのため、撮像画像における人画像の見え方は、後方カメラ40Bから見た人の存在方向によって大きく異なる。例えば、撮像画像中の人画像は、撮像画像の左右の端部に近いほど傾いて表示される。これは、ワイドカメラの広角レンズに起因する像倒れによる。また、後方カメラ40Bに近いほど頭部が大きく表示される。また、脚部がショベルの車体の死角に入って見えなくなってしまう。これらは、後方カメラ40Bの設置位置に起因する。そのため、撮像画像に何らの加工を施すことなく画像処理によってその撮像画像に含まれる人画像を識別するのは困難である。 The rear camera 40B is a wide camera and is mounted at a height at which a person is viewed from diagonally above. Therefore, the appearance of the human image in the captured image greatly differs depending on the direction in which the person exists as seen from the rear camera 40B. For example, a human image in a captured image is displayed so as to be closer to the left and right edges of the captured image. This is due to image collapse caused by the wide-angle lens of the wide-angle camera. Further, the closer to the rear camera 40B, the larger the head is displayed. In addition, the legs enter the blind spot of the excavator's body and disappear. These are due to the installation position of the rear camera 40B. Therefore, it is difficult to identify the human image included in the captured image by image processing without performing any processing on the captured image.

そこで、本発明の実施例に係る周辺監視システム100は、識別処理対象画像を正規化することで、識別処理対象画像に含まれる人画像の識別を促進する。なお、「正規化」は、識別処理対象画像を所定サイズ及び所定形状の画像に変換することを意味する。本実施例では、撮像画像において様々な形状を取り得る識別処理対象画像は射影変換によって所定サイズの長方形画像に変換される。なお、射影変換としては例えば8変数の射影変換行列が用いられる。 Therefore, the peripheral monitoring system 100 according to the embodiment of the present invention promotes the identification of the human image included in the identification processing target image by normalizing the identification processing target image. In addition, "normalization" means converting the image to be identified for identification processing into an image having a predetermined size and a predetermined shape. In this embodiment, the identification processing target image that can take various shapes in the captured image is converted into a rectangular image of a predetermined size by projective transformation. As the projective transformation, for example, an 8-variable projective transformation matrix is used.

ここで、図4〜図6を参照し、周辺監視システム100が識別処理対象画像を正規化する処理(以下、「正規化処理」とする。)の一例について説明する。なお、図4は、抽出部31が撮像画像から識別処理対象画像を切り出す際に用いる幾何学的関係の一例を示す概略図である。 Here, with reference to FIGS. 4 to 6, an example of a process in which the peripheral monitoring system 100 normalizes the image to be identified (hereinafter, referred to as “normalization process”) will be described. Note that FIG. 4 is a schematic view showing an example of the geometric relationship used when the extraction unit 31 cuts out the identification processing target image from the captured image.

図4のボックスBXは、実空間における仮想立体物であり、本実施例では、8つの頂点A〜Hで定められる仮想直方体である。また、点Prは、識別処理対象画像を参照するために予め設定される参照点である。本実施例では、参照点Prは、人の想定立ち位置として予め設定される点であり、4つの頂点A〜Dで定められる四角形ABCDの中心に位置する。また、ボックスBXのサイズは、人の向き、歩幅、身長等に基づいて設定される。本実施例では、四角形ABCD及び四角形EFGHは正方形であり、一辺の長さは例えば800mmである。また、直方体の高さは例えば1800mmである。すなわち、ボックスBXは、幅800mm×奥行800mm×高さ1800mmの直方体である。 The box BX in FIG. 4 is a virtual three-dimensional object in real space, and in this embodiment, it is a virtual rectangular parallelepiped defined by eight vertices A to H. Further, the point Pr is a reference point set in advance for referring to the image to be identified. In this embodiment, the reference point Pr is a point preset as an assumed standing position of a person, and is located at the center of the quadrangle ABCD defined by the four vertices A to D. The size of the box BX is set based on the orientation of the person, the stride length, the height, and the like. In this embodiment, the quadrangle ABCD and the quadrangle EFGH are square, and the length of one side is, for example, 800 mm. The height of the rectangular parallelepiped is, for example, 1800 mm. That is, the box BX is a rectangular parallelepiped having a width of 800 mm, a depth of 800 mm, and a height of 1800 mm.

4つの頂点A、B、G、Hで定められる四角形ABGHは、撮像画像における識別処理対象画像の領域に対応する仮想平面領域TRを形成する。また、仮想平面領域TRとしての四角形ABGHは、水平面である仮想地面に対して傾斜する。 The quadrangle ABGH defined by the four vertices A, B, G, and H forms a virtual plane region TR corresponding to the region of the identification processing target image in the captured image. Further, the quadrangle ABGH as the virtual plane region TR is inclined with respect to the virtual ground which is a horizontal plane.

なお、本実施例では、参照点Prと仮想平面領域TRとの関係を定めるために仮想直方体としてのボックスBXが採用される。しかしながら、撮像装置40の方向を向き且つ仮想地面に対して傾斜する仮想平面領域TRを任意の参照点Prに関連付けて定めることができるのであれば、他の仮想立体物を用いた関係等の他の幾何学的関係が採用されてもよく、関数、変換テーブル等の他の数学的関係が採用されてもよい。 In this embodiment, the box BX as a virtual rectangular parallelepiped is adopted to determine the relationship between the reference point Pr and the virtual plane area TR. However, if the virtual plane region TR that faces the direction of the imaging device 40 and is inclined with respect to the virtual ground can be defined in association with an arbitrary reference point Pr, other relationships such as using other virtual three-dimensional objects, etc. Geometric relations may be adopted, and other mathematical relations such as functions and conversion tables may be adopted.

図5は、ショベル後方の実空間の上面視であり、参照点Pr1、Pr2を用いて仮想平面領域TR1、TR2が参照された場合における後方カメラ40Bと仮想平面領域TR1、TR2との位置関係を示す。なお、本実施例では、参照点Prは、仮想地面上の仮想グリッドの格子点のそれぞれに配置可能である。但し、参照点Prは、仮想地面上に不規則に配置されてもよく、後方カメラ40Bの仮想地面への投影点から放射状に伸びる線分上に等間隔に配置されてもよい。例えば、各線分は1度刻みで放射状に伸び、参照点Prは各線分上に100mm間隔に配置される。 FIG. 5 is a top view of the real space behind the excavator, and shows the positional relationship between the rear camera 40B and the virtual plane regions TR1 and TR2 when the virtual plane regions TR1 and TR2 are referred to using the reference points Pr1 and Pr2. Shown. In this embodiment, the reference point Pr can be arranged at each of the grid points of the virtual grid on the virtual ground. However, the reference points Pr may be arranged irregularly on the virtual ground, or may be arranged at equal intervals on a line segment extending radially from the projection point of the rear camera 40B on the virtual ground. For example, each line segment extends radially in 1 degree increments, and reference points Pr are arranged on each line segment at 100 mm intervals.

図4及び図5に示すように、四角形ABFE(図4参照。)で定められるボックスBXの第1面は、参照点Pr1を用いて仮想平面領域TR1が参照される場合、後方カメラ40Bに正対するように配置される。すなわち、後方カメラ40Bと参照点Pr1とを結ぶ線分は、参照点Pr1に関連して配置されるボックスBXの第1面と上面視で直交する。同様に、ボックスBXの第1面は、参照点Pr2を用いて仮想平面領域TR2が参照される場合にも、後方カメラ40Bに正対するように配置される。すなわち、後方カメラ40Bと参照点Pr2とを結ぶ線分は、参照点Pr2に関連して配置されるボックスBXの第1面と上面視で直交する。この関係は、参照点Prが何れの格子点上に配置された場合であっても成立する。すなわち、ボックスBXは、その第1面が常に後方カメラ40Bに正対するように配置される。 As shown in FIGS. 4 and 5, the first surface of the box BX defined by the quadrangle ABFE (see FIG. 4) is positive to the rear camera 40B when the virtual plane region TR1 is referenced using the reference point Pr1. Arranged to face each other. That is, the line segment connecting the rear camera 40B and the reference point Pr1 is orthogonal to the first surface of the box BX arranged in relation to the reference point Pr1 in the top view. Similarly, the first surface of the box BX is arranged so as to face the rear camera 40B even when the virtual plane region TR2 is referred to by using the reference point Pr2. That is, the line segment connecting the rear camera 40B and the reference point Pr2 is orthogonal to the first surface of the box BX arranged in relation to the reference point Pr2 in the top view. This relationship holds regardless of which grid point the reference point Pr is placed on. That is, the box BX is arranged so that its first surface always faces the rear camera 40B.

図6は、撮像画像から正規化画像を生成する処理の流れを示す図である。具体的には、図6(A)は、後方カメラ40Bの撮像画像の一例であり、実空間における参照点Prに関連して配置されるボックスBXを映し出す。また、図6(B)は、撮像画像における識別処理対象画像の領域(以下、「識別処理対象画像領域TRg」とする。)を切り出した図であり、図6(A)の撮像画像に映し出された仮想平面領域TRに対応する。また、図6(C)は、識別処理対象画像領域TRgを有する識別処理対象画像を正規化した正規化画像TRgtを示す。 FIG. 6 is a diagram showing a flow of processing for generating a normalized image from a captured image. Specifically, FIG. 6A is an example of the captured image of the rear camera 40B, and projects the box BX arranged in relation to the reference point Pr in the real space. Further, FIG. 6B is a diagram obtained by cutting out a region of the identification processing target image in the captured image (hereinafter, referred to as “identification processing target image region TRg”), and is projected on the captured image of FIG. 6A. Corresponds to the virtual plane area TR. Further, FIG. 6C shows a normalized image TRgt in which the identification processing target image having the identification processing target image region TRg is normalized.

図6(A)に示すように、実空間上で参照点Pr1に関連して配置されるボックスBXは、実空間における仮想平面領域TRの位置を定め、そして、仮想平面領域TRに対応する撮像画像上の識別処理対象画像領域TRgを定める。 As shown in FIG. 6 (A), the box BX arranged in relation to the reference point Pr1 in the real space determines the position of the virtual plane region TR in the real space, and the imaging corresponding to the virtual plane region TR is performed. The image area TRg to be identified on the image is determined.

このように、実空間における参照点Prの位置が決まれば、実空間における仮想平面領域TRの位置が一意に決まり、撮像画像における識別処理対象画像領域TRgも一意に決まる。そして、抽出部31は、識別処理対象画像領域TRgを有する識別処理対象画像を正規化して所定サイズの正規化画像TRgtを生成できる。本実施例では、正規化画像TRgtのサイズは、例えば縦64ピクセル×横32ピクセルである。 In this way, if the position of the reference point Pr in the real space is determined, the position of the virtual plane region TR in the real space is uniquely determined, and the identification processing target image region TRg in the captured image is also uniquely determined. Then, the extraction unit 31 can normalize the identification processing target image having the identification processing target image region TRg to generate a normalized image TRgt of a predetermined size. In this embodiment, the size of the normalized image TRgt is, for example, 64 pixels in length × 32 pixels in width.

図7は、撮像画像と識別処理対象画像領域と正規化画像との関係を示す図である。具体的には、図7(A1)は、撮像画像における識別処理対象画像領域TRg3を示し、図7(A2)は、識別処理対象画像領域TRg3を有する識別処理対象画像の正規化画像TRgt3を示す。また、図7(B1)は、撮像画像における識別処理対象画像領域TRg4を示し、図7(B2)は、識別処理対象画像領域TRg4を有する識別処理対象画像の正規化画像TRgt4を示す。同様に、図7(C1)は、撮像画像における識別処理対象画像領域TRg5を示し、図7(C2)は、識別処理対象画像領域TRg5を有する識別処理対象画像の正規化画像TRgt5を示す。 FIG. 7 is a diagram showing the relationship between the captured image, the image area subject to identification processing, and the normalized image. Specifically, FIG. 7 (A1) shows the identification processing target image region TRg3 in the captured image, and FIG. 7 (A2) shows the normalized image TRgt3 of the identification processing target image having the identification processing target image region TRg3. .. Further, FIG. 7 (B1) shows the identification processing target image region TRg4 in the captured image, and FIG. 7 (B2) shows the normalized image TRgt4 of the identification processing target image having the identification processing target image region TRg4. Similarly, FIG. 7 (C1) shows the identification processing target image region TRg5 in the captured image, and FIG. 7 (C2) shows the normalized image TRgt5 of the identification processing target image having the identification processing target image region TRg5.

図7に示すように、撮像画像における識別処理対象画像領域TRg5は、撮像画像における識別処理対象画像領域TRg4より大きい。識別処理対象画像領域TRg5に対応する仮想平面領域と後方カメラ40Bとの間の距離が、識別処理対象画像領域TRg4に対応する仮想平面領域と後方カメラ40Bとの間の距離より小さいためである。同様に、撮像画像における識別処理対象画像領域TRg4は、撮像画像における識別処理対象画像領域TRg3より大きい。識別処理対象画像領域TRg4に対応する仮想平面領域と後方カメラ40Bとの間の距離が、識別処理対象画像領域TRg3に対応する仮想平面領域と後方カメラ40Bとの間の距離より小さいためである。すなわち、撮像画像における識別処理対象画像領域は、対応する仮想平面領域と後方カメラ40Bとの間の距離が大きいほど小さい。その一方で、正規化画像TRgt3、TRgt4、TRgt5は何れも同じサイズの長方形画像である。 As shown in FIG. 7, the identification processing target image region TRg5 in the captured image is larger than the identification processing target image region TRg4 in the captured image. This is because the distance between the virtual plane area corresponding to the identification processing target image area TRg5 and the rear camera 40B is smaller than the distance between the virtual plane area corresponding to the identification processing target image area TRg4 and the rear camera 40B. Similarly, the identification processing target image region TRg4 in the captured image is larger than the identification processing target image region TRg3 in the captured image. This is because the distance between the virtual plane area corresponding to the identification processing target image area TRg4 and the rear camera 40B is smaller than the distance between the virtual plane area corresponding to the identification processing target image area TRg3 and the rear camera 40B. That is, the identification processing target image area in the captured image is smaller as the distance between the corresponding virtual plane area and the rear camera 40B is larger. On the other hand, the normalized images TRgt3, TRgt4, and TRgt5 are all rectangular images of the same size.

このように、抽出部31は、撮像画像において様々な形状及びサイズを取り得る識別処理対象画像を所定サイズの長方形画像に正規化し、人画像を含む人候補画像を正規化できる。具体的には、抽出部31は、正規化画像の所定領域に人候補画像の頭部であると推定される画像部分(以下、「頭部画像部分」とする。)を配置する。また、正規化画像の別の所定領域に人候補画像の胴体部であると推定される画像部分(以下、「胴体部画像部分」とする。)を配置し、正規化画像のさらに別の所定領域に人候補画像の脚部であると推定される画像部分(以下、「脚部画像部分」とする。)を配置する。また、抽出部31は、正規化画像の形状に対する人候補画像の傾斜(像倒れ)を抑えた状態で正規化画像を取得できる。 In this way, the extraction unit 31 can normalize the identification processing target image that can take various shapes and sizes in the captured image to a rectangular image of a predetermined size, and normalize the human candidate image including the human image. Specifically, the extraction unit 31 arranges an image portion (hereinafter, referred to as “head image portion”) presumed to be the head of the human candidate image in a predetermined region of the normalized image. Further, an image portion presumed to be the body portion of the human candidate image (hereinafter referred to as “body portion image portion”) is arranged in another predetermined region of the normalized image, and another predetermined region of the normalized image is provided. An image portion (hereinafter, referred to as “leg image portion”) that is presumed to be the leg portion of the person candidate image is arranged in the region. Further, the extraction unit 31 can acquire the normalized image in a state where the inclination (image collapse) of the person candidate image with respect to the shape of the normalized image is suppressed.

次に、図8を参照し、識別処理対象画像領域が、人画像の識別に悪影響を与える識別に適さない画像領域(以下、「識別処理不適領域」とする。)を含む場合の正規化処理について説明する。識別処理不適領域は、人画像が存在し得ない既知の領域であり、例えば、ショベルの車体が映り込んだ領域(以下、「車体映り込み領域」とする。)、撮像画像からはみ出た領域(以下、「はみ出し領域」とする。)等を含む。なお、図8は、識別処理対象画像領域と識別処理不適領域との関係を示す図であり、図7(C1)及び図7(C2)に対応する。また、図8左図の右下がりの斜線ハッチング領域は、はみ出し領域R1に対応し、左下がりの斜線ハッチング領域は、車体映り込み領域R2に対応する。 Next, referring to FIG. 8, normalization processing is performed when the image area to be identified includes an image area unsuitable for identification that adversely affects the identification of human images (hereinafter, referred to as “identification processing unsuitable area”). Will be described. The region unsuitable for the identification process is a known region in which a human image cannot exist. For example, an region in which the vehicle body of the excavator is reflected (hereinafter, referred to as a “vehicle body reflection region”) and a region protruding from the captured image (the region in which the vehicle body is reflected). Hereinafter, it is referred to as a “protruding area”) and the like. Note that FIG. 8 is a diagram showing the relationship between the image region subject to identification processing and the region unsuitable for identification processing, and corresponds to FIGS. 7 (C1) and 7 (C2). Further, the downward-sloping diagonal hatching area in FIG. 8 left corresponds to the protruding area R1, and the downward-sloping diagonal hatching area corresponds to the vehicle body reflection area R2.

本実施例では、抽出部31は、識別処理対象画像領域TRg5がはみ出し領域R1及び車体映り込み領域R2の一部を含む場合、それらの識別処理不適領域をマスク処理した後で、識別処理対象画像領域TRg5を有する識別処理対象画像の正規化画像TRgt5を生成する。なお、抽出部31は、正規化画像TRgt5を生成した後で、正規化画像TRgt5における識別処理不適領域に対応する部分をマスク処理してもよい。 In this embodiment, when the identification processing target image area TRg5 includes a part of the protruding area R1 and the vehicle body reflection area R2, the extraction unit 31 masks the areas unsuitable for the identification processing and then the identification processing target image. A normalized image TRgt5 of the identification processing target image having the region TRg5 is generated. After generating the normalized image TRgt5, the extraction unit 31 may mask the portion corresponding to the region unsuitable for the identification process in the normalized image TRgt5.

図8右図は、正規化画像TRgt5を示す。また、図8右図において、右下がりの斜線ハッチング領域は、はみ出し領域R1に対応するマスク領域M1を表し、左下がりの斜線ハッチング領域は、車体映り込み領域R2の一部に対応するマスク領域M2を表す。 The right figure of FIG. 8 shows the normalized image TRgt5. Further, in the right figure of FIG. 8, the downward-sloping diagonal hatching area represents the mask area M1 corresponding to the protruding area R1, and the downward-sloping diagonal hatching area is the mask area M2 corresponding to a part of the vehicle body reflection area R2. Represents.

このようにして、抽出部31は、識別処理不適領域の画像をマスク処理することで、識別処理不適領域の画像が識別部32による識別処理に影響を及ぼすのを防止する。このマスク処理により、識別部32は、識別処理不適領域の画像の影響を受けることなく、正規化画像におけるマスク領域以外の領域の画像を用いて人画像であるかを識別できる。なお、抽出部31は、マスク処理以外の他の任意の公知方法で、識別処理不適領域の画像が識別部32による識別処理に影響を及ぼさないようにしてもよい。 In this way, the extraction unit 31 masks the image of the region unsuitable for the identification process to prevent the image of the region unsuitable for the identification process from affecting the identification process by the identification unit 32. By this mask processing, the identification unit 32 can identify whether the image is a human image by using the image of the region other than the mask region in the normalized image without being affected by the image of the region unsuitable for the identification processing. The extraction unit 31 may use any known method other than the mask processing so that the image of the region unsuitable for the identification process does not affect the identification process by the identification unit 32.

次に、図9を参照し、抽出部31が生成する正規化画像の特徴について説明する。なお、図9は、正規化画像の例を示す図である。また、図9に示す14枚の正規化画像は、図の左端に近い正規化画像ほど、後方カメラ40Bから近い位置に存在する人候補の画像を含み、図の右端に近い正規化画像ほど、後方カメラ40Bから遠い位置に存在する人候補の画像を含む。 Next, with reference to FIG. 9, the features of the normalized image generated by the extraction unit 31 will be described. Note that FIG. 9 is a diagram showing an example of a normalized image. Further, in the 14 normalized images shown in FIG. 9, the normalized image closer to the left end of the figure includes the image of the person candidate existing at a position closer to the rear camera 40B, and the normalized image closer to the right end of the figure. Includes an image of a candidate person existing at a position far from the rear camera 40B.

図9に示すように、抽出部31は、実空間における仮想平面領域TRと後方カメラ40Bとの間の後方水平距離(図5に示すY軸方向の水平距離)に関係なく、何れの正規化画像内においてもほぼ同じ割合で頭部画像部分、胴体部画像部分、脚部画像部分等を配置できる。そのため、抽出部31は、識別部32が識別処理を実行する際の演算負荷を低減でき、且つ、その識別結果の信頼性を向上できる。なお、上述の後方水平距離は、実空間における仮想平面領域TRと後方カメラ40Bとの間の位置関係に関する情報の一例であり、抽出部31は、抽出した識別処理対象画像にその情報を付加する。また、上述の位置関係に関する情報は、仮想平面領域TRに対応する参照点Prと後方カメラ40Bとを結ぶ線分の後方カメラ40Bの光軸に対する上面視角度等を含む。 As shown in FIG. 9, the extraction unit 31 performs any normalization regardless of the rear horizontal distance (horizontal distance in the Y-axis direction shown in FIG. 5) between the virtual plane region TR and the rear camera 40B in the real space. The head image portion, the body portion image portion, the leg portion image portion, and the like can be arranged at almost the same ratio in the image. Therefore, the extraction unit 31 can reduce the calculation load when the identification unit 32 executes the identification process, and can improve the reliability of the identification result. The above-mentioned rear horizontal distance is an example of information regarding the positional relationship between the virtual plane region TR and the rear camera 40B in the real space, and the extraction unit 31 adds the information to the extracted identification processing target image. .. Further, the above-mentioned information on the positional relationship includes a top view angle with respect to the optical axis of the rear camera 40B of the line segment connecting the reference point Pr corresponding to the virtual plane region TR and the rear camera 40B.

次に、図10を参照し、実空間における仮想平面領域TRと後方カメラ40Bとの間の後方水平距離と、正規化画像における頭部画像部分の大きさとの関係について説明する。なお、図10上図は、後方カメラ40Bからの後方水平距離がそれぞれ異なる3つの参照点Pr10、Pr11、P12のところに人が存在する場合の頭部画像部分の大きさL10、L11、L12を示す図であり、横軸が後方水平距離に対応する。また、図10下図は、後方水平距離と頭部画像部分の大きさの関係を示すグラフであり、縦軸が頭部画像部分の大きさに対応し、横軸が後方水平距離に対応する。なお、図10上図及び図10下図の横軸は共通である。また、本実施例は、カメラ高さを2100mmとし、頭部HDの中心の地面からの高さを1600mmとし、頭部の直径を250mmとする。 Next, with reference to FIG. 10, the relationship between the rear horizontal distance between the virtual plane region TR and the rear camera 40B in the real space and the size of the head image portion in the normalized image will be described. In addition, the upper figure of FIG. 10 shows the sizes L10, L11, and L12 of the head image portion when a person exists at three reference points Pr10, Pr11, and P12 having different rear horizontal distances from the rear camera 40B. In the figure shown, the horizontal axis corresponds to the rear horizontal distance. Further, the lower figure of FIG. 10 is a graph showing the relationship between the rear horizontal distance and the size of the head image portion, the vertical axis corresponds to the size of the head image portion, and the horizontal axis corresponds to the rear horizontal distance. The horizontal axes of the upper figure of FIG. 10 and the lower figure of FIG. 10 are common. Further, in this embodiment, the height of the camera is 2100 mm, the height of the center of the head HD from the ground is 1600 mm, and the diameter of the head is 250 mm.

図10上図に示すように、参照点Pr10で示す位置に人が存在する場合、頭部画像部分の大きさL10は、後方カメラ40Bから見た頭部HDの仮想平面領域TR10への投影像の大きさに相当する。同様に、参照点Pr11、Pr12で示す位置に人が存在する場合、頭部画像部分の大きさL11、L12は、後方カメラ40Bから見た頭部HDの仮想平面領域TR11、TR12への投影像の大きさに相当する。なお、正規化画像における頭部画像部分の大きさは投影像の大きさに伴って変化する。 As shown in the upper figure of FIG. 10, when a person is present at the position indicated by the reference point Pr10, the size L10 of the head image portion is the projected image of the head HD seen from the rear camera 40B onto the virtual plane region TR10. Corresponds to the size of. Similarly, when a person exists at the position indicated by the reference points Pr11 and Pr12, the sizes L11 and L12 of the head image portion are the projected images of the head HD seen from the rear camera 40B onto the virtual plane regions TR11 and TR12. Corresponds to the size of. The size of the head image portion in the normalized image changes with the size of the projected image.

そして、図10下図に示すように、正規化画像における頭部画像部分の大きさは、後方水平距離がD1(例えば700mm)以上ではほぼ同じ大きさを維持するが、後方水平距離がD1を下回ったところで急激に増大する。 Then, as shown in the lower figure of FIG. 10, the size of the head image portion in the normalized image is maintained substantially the same when the rear horizontal distance is D1 (for example, 700 mm) or more, but the rear horizontal distance is smaller than D1. It increases rapidly at the point.

そこで、識別部32は、後方水平距離に応じて識別処理の内容を変更する。例えば、識別部32は、教師あり学習(機械学習)の手法を用いる場合、所定の後方水平距離(例えば650mm)を境に、識別処理で用いる学習サンプルをグループ分けする。具体的には、近距離用グループと遠距離用グループに学習サンプルを分けるようにする。この構成により、識別部32は、より高精度に人画像を識別できる。 以上の構成により、周辺監視システム100は、撮像装置40の方向を向き且つ水平面である仮想地面に対して傾斜する仮想平面領域TRに対応する識別処理対象画像領域TRgから正規化画像TRgtを生成する。そのため、人の高さ方向及び奥行き方向の見え方を考慮した正規化を実現できる。その結果、人を斜め上から撮像するように建設機械に取り付けられる撮像装置40の撮像画像を用いた場合であっても建設機械の周囲に存在する人をより確実に検知できる。特に、人が撮像装置40に接近した場合であっても、撮像画像上の十分な大きさの領域を占める識別処理対象画像から正規化画像を生成できるため、その人を確実に検知できる。 Therefore, the identification unit 32 changes the content of the identification process according to the rear horizontal distance. For example, when the method of supervised learning (machine learning) is used, the identification unit 32 groups learning samples used in the identification process at a predetermined rear horizontal distance (for example, 650 mm). Specifically, the learning sample is divided into a short-distance group and a long-distance group. With this configuration, the identification unit 32 can identify a human image with higher accuracy. With the above configuration, the peripheral monitoring system 100 generates a normalized image TRgt from the identification processing target image region TRg corresponding to the virtual plane region TR that faces the direction of the image pickup apparatus 40 and is inclined with respect to the virtual ground that is a horizontal plane. .. Therefore, normalization can be realized in consideration of how a person looks in the height direction and the depth direction. As a result, even when the captured image of the image pickup device 40 attached to the construction machine so as to image the person from diagonally above is used, the person existing around the construction machine can be detected more reliably. In particular, even when a person approaches the image pickup device 40, the normalized image can be generated from the identification processing target image that occupies a sufficiently large area on the captured image, so that the person can be reliably detected.

また、周辺監視システム100は、実空間における仮想直方体であるボックスBXの4つの頂点A、B、G、Hで形成される矩形領域として仮想平面領域TRを定義する。そのため、実空間における参照点Prと仮想平面領域TRとを幾何学的に対応付けることができ、さらには、実空間における仮想平面領域TRと撮像画像における識別処理対象画像領域TRgとを幾何学的に対応付けることができる。 Further, the peripheral monitoring system 100 defines a virtual plane area TR as a rectangular area formed by four vertices A, B, G, and H of a box BX which is a virtual rectangular parallelepiped in a real space. Therefore, the reference point Pr in the real space and the virtual plane region TR can be geometrically associated with each other, and further, the virtual plane region TR in the real space and the identification processing target image region TRg in the captured image can be geometrically associated with each other. Can be associated.

また、抽出部31は、識別処理対象画像領域TRgに含まれる識別処理不適領域の画像をマスク処理する。そのため、識別部32は、車体映り込み領域R2を含む識別処理不適領域の画像の影響を受けることなく、正規化画像におけるマスク領域以外の領域の画像を用いて人画像であるかを識別できる。 In addition, the extraction unit 31 masks the image of the identification processing unsuitable region included in the identification processing target image region TRg. Therefore, the identification unit 32 can identify whether the image is a human image by using an image of a region other than the mask region in the normalized image without being affected by the image of the region unsuitable for the identification process including the vehicle body reflection region R2.

また、抽出部31は、識別処理対象画像を抽出した場合、仮想平面領域TRと撮像装置40との位置関係に関する情報として両者間の後方水平距離をその識別処理対象画像に付加する。そして、識別部32は、その後方水平距離に応じて識別処理の内容を変更する。具体的には、識別部32は、所定の後方水平距離(例えば650mm)を境に、識別処理で用いる学習サンプルをグループ分けする。この構成により、識別部32は、より高精度に人画像を識別できる。 Further, when the identification processing target image is extracted, the extraction unit 31 adds a rear horizontal distance between the virtual plane region TR and the imaging device 40 to the identification processing target image as information regarding the positional relationship between the two. Then, the identification unit 32 changes the content of the identification process according to the rear horizontal distance thereof. Specifically, the identification unit 32 groups the learning samples used in the identification process at a predetermined rear horizontal distance (for example, 650 mm). With this configuration, the identification unit 32 can identify a human image with higher accuracy.

また、抽出部31は、参照点Pr毎に識別処理対象画像を抽出可能である。また、識別処理対象画像領域TRgのそれぞれは、対応する仮想平面領域TRを介して、人の想定立ち位置として予め設定される参照点Prの1つに関連付けられる。そのため、周辺監視システム100は、人が存在する可能性が高い参照点Prを任意の方法で抽出することで、人候補画像を含む可能性が高い識別処理対象画像を抽出できる。この場合、人候補画像を含む可能性が低い識別処理対象画像に対して、比較的演算量の多い画像処理による識別処理が施されてしまうのを防止でき、人検知処理の高速化を実現できる。 In addition, the extraction unit 31 can extract the identification processing target image for each reference point Pr. Further, each of the identification processing target image regions TRg is associated with one of the reference points Pr preset as the assumed standing position of the person via the corresponding virtual plane region TR. Therefore, the peripheral monitoring system 100 can extract the identification processing target image that is likely to include the person candidate image by extracting the reference point Pr that is likely to have a person by an arbitrary method. In this case, it is possible to prevent the identification processing target image, which is unlikely to include the person candidate image, from being subjected to the identification processing by the image processing having a relatively large amount of calculation, and to realize the speeding up of the person detection processing. ..

次に、図11及び図12を参照し、人候補画像を含む可能性が高い識別処理対象画像を抽出部31が抽出する処理の一例について説明する。なお、図11は、抽出部31が撮像画像から識別処理対象画像を切り出す際に用いる幾何学的関係の一例を示す概略図であり、図4に対応する。また、図12は、撮像画像における特徴画像の一例を示す図である。なお、特徴画像は、人の特徴的な部分を表す画像であり、望ましくは、実空間における地面からの高さが変化し難い部分を表す画像である。そのため、特徴画像は、例えば、ヘルメットの画像、肩の画像、頭の画像、人に取り付けられる反射板若しくはマーカの画像等を含む。 Next, with reference to FIGS. 11 and 12, an example of processing in which the extraction unit 31 extracts the identification processing target image that is likely to include the person candidate image will be described. Note that FIG. 11 is a schematic view showing an example of the geometric relationship used when the extraction unit 31 cuts out the identification processing target image from the captured image, and corresponds to FIG. 4. Further, FIG. 12 is a diagram showing an example of a feature image in the captured image. The feature image is an image showing a characteristic part of a person, and preferably an image showing a part where the height from the ground in the real space is hard to change. Therefore, the feature image includes, for example, an image of a helmet, an image of a shoulder, an image of a head, an image of a reflector or a marker attached to a person, and the like.

本実施例では、抽出部31は、前段画像認識処理によって、撮像画像におけるヘルメット画像(厳密にはヘルメットであると推定できる画像)を見つけ出す。ショベルの周囲で作業する人はヘルメットを着用していると考えられるためである。そして、抽出部31は、見つけ出したヘルメット画像の位置から最も関連性の高い参照点Prを導き出す。その上で、抽出部31は、その参照点Prに対応する識別処理対象画像を抽出する。 In this embodiment, the extraction unit 31 finds a helmet image (strictly speaking, an image that can be presumed to be a helmet) in the captured image by the pre-stage image recognition process. This is because people working around the excavator are considered to be wearing helmets. Then, the extraction unit 31 derives the most relevant reference point Pr from the position of the found helmet image. Then, the extraction unit 31 extracts the identification processing target image corresponding to the reference point Pr.

具体的には、抽出部31は、図11に示す幾何学的関係を利用し、撮像画像におけるヘルメット画像の位置から関連性の高い参照点Prを導き出す。なお、図11の幾何学的関係は、実空間における仮想頭部位置HPを定める点で図4の幾何学的関係と相違するが、その他の点で共通する。 Specifically, the extraction unit 31 uses the geometric relationship shown in FIG. 11 to derive a highly relevant reference point Pr from the position of the helmet image in the captured image. The geometric relationship of FIG. 11 is different from the geometric relationship of FIG. 4 in that it determines the virtual head position HP in the real space, but is common in other respects.

仮想頭部位置HPは、参照点Pr上に存在すると想定される人の頭部位置を表し、参照点Prの真上に配置される。本実施例では、参照点Pr上の高さ1700mmのところに配置される。そのため、実空間における仮想頭部位置HPが決まれば、実空間における参照点Prの位置が一意に決まり、実空間における仮想平面領域TRの位置も一意に決まる。また、撮像画像における識別処理対象画像領域TRgも一意に決まる。そして、抽出部31は、識別処理対象画像領域TRgを有する識別処理対象画像を正規化して所定サイズの正規化画像TRgtを生成できる。 The virtual head position HP represents the head position of a person who is assumed to exist on the reference point Pr, and is arranged directly above the reference point Pr. In this embodiment, it is arranged at a height of 1700 mm on the reference point Pr. Therefore, if the virtual head position HP in the real space is determined, the position of the reference point Pr in the real space is uniquely determined, and the position of the virtual plane region TR in the real space is also uniquely determined. Further, the identification processing target image area TRg in the captured image is also uniquely determined. Then, the extraction unit 31 can normalize the identification processing target image having the identification processing target image region TRg to generate a normalized image TRgt of a predetermined size.

逆に、実空間における参照点Prの位置が決まれば、実空間における仮想頭部位置HPが一意に決まり、実空間における仮想頭部位置HPに対応する撮像画像上の頭部画像位置APも一意に決まる。そのため、頭部画像位置APは、予め設定されている参照点Prのそれぞれに対応付けて予め設定され得る。なお、頭部画像位置APは、参照点Prからリアルタイムに導き出されてもよい。 On the contrary, if the position of the reference point Pr in the real space is determined, the virtual head position HP in the real space is uniquely determined, and the head image position AP on the captured image corresponding to the virtual head position HP in the real space is also unique. It is decided to. Therefore, the head image position AP can be preset in association with each of the preset reference points Pr. The head image position AP may be derived in real time from the reference point Pr.

そこで、抽出部31は、前段画像認識処理により後方カメラ40Bの撮像画像内でヘルメット画像を探索する。図12上図は、抽出部31がヘルメット画像HRgを見つけ出した状態を示す。そして、抽出部31は、ヘルメット画像HRgを見つけ出した場合、その代表位置RPを決定する。なお、代表位置RPは、ヘルメット画像HRgの大きさ、形状等から導き出される位置である。本実施例では、代表位置RPは、ヘルメット画像HRgを含むヘルメット画像領域の中心画素の位置である。図12下図は、図12上図における白線で区切られた矩形画像領域であるヘルメット画像領域の拡大図であり、そのヘルメット画像領域の中心画素の位置が代表位置RPであることを示す。 Therefore, the extraction unit 31 searches for a helmet image in the captured image of the rear camera 40B by the pre-stage image recognition process. FIG. 12 upper figure shows a state in which the extraction unit 31 has found the helmet image HRg. Then, when the extraction unit 31 finds the helmet image HRg, the extraction unit 31 determines the representative position RP. The representative position RP is a position derived from the size, shape, etc. of the helmet image HRg. In this embodiment, the representative position RP is the position of the central pixel of the helmet image region including the helmet image HRg. The lower figure of FIG. 12 is an enlarged view of a helmet image area which is a rectangular image area separated by a white line in the upper figure of FIG. 12, and shows that the position of the central pixel of the helmet image area is the representative position RP.

その後、抽出部31は、例えば最近傍探索アルゴリズムを用いて代表位置RPの最も近傍にある頭部画像位置APを導き出す。図12下図は、代表位置RPの近くに6つの頭部画像位置AP1〜AP6が予め設定されており、そのうちの頭部画像位置AP5が代表位置RPの最も近傍にある頭部画像位置APであることを示す。 After that, the extraction unit 31 derives the head image position AP closest to the representative position RP by using, for example, the nearest neighbor search algorithm. In the lower figure of FIG. 12, six head image positions AP1 to AP6 are preset near the representative position RP, and the head image position AP5 is the head image position AP closest to the representative position RP. Show that.

そして、抽出部31は、図11に示す幾何学的関係を利用し、導き出した最近傍の頭部画像位置APから、仮想頭部位置HP、参照点Pr、仮想平面領域TRを辿って、対応する識別処理対象画像領域TRgを抽出する。その後、抽出部31は、抽出した識別処理対象画像領域TRgを有する識別処理対象画像を正規化して正規化画像TRgtを生成する。 Then, the extraction unit 31 traces the virtual head position HP, the reference point Pr, and the virtual plane region TR from the derived nearest head image position AP by using the geometric relationship shown in FIG. The image area TRg to be identified for identification processing is extracted. After that, the extraction unit 31 normalizes the identification processing target image having the extracted identification processing target image region TRg to generate a normalized image TRgt.

このようにして、抽出部31は、撮像画像における人の特徴画像の位置であるヘルメット画像HRgの代表位置RPと、予め設定された頭部画像位置APの1つ(頭部画像位置AP5)とを対応付けることで識別処理対象画像を抽出する。 In this way, the extraction unit 31 includes the representative position RP of the helmet image HRg, which is the position of the characteristic image of the person in the captured image, and one of the preset head image position APs (head image position AP5). The image to be identified is extracted by associating with.

なお、抽出部31は、図11に示す幾何学的関係を利用する代わりに、頭部画像位置APと参照点Pr、仮想平面領域TR、又は識別処理対象画像領域TRgとを直接的に対応付ける参照テーブルを利用し、頭部画像位置APに対応する識別処理対象画像を抽出してもよい。 Instead of using the geometric relationship shown in FIG. 11, the extraction unit 31 directly associates the head image position AP with the reference point Pr, the virtual plane region TR, or the identification processing target image region TRg. The identification processing target image corresponding to the head image position AP may be extracted by using the table.

また、抽出部31は、山登り法、Mean-shift法等の最近傍探索アルゴリズム以外の他の公知のアルゴリズムを用いて代表位置RPから参照点Prを導き出してもよい。例えば、山登り法を用いる場合、抽出部31は、代表位置RPの近傍にある複数の頭部画像位置APを導き出し、代表位置RPとそれら複数の頭部画像位置APのそれぞれに対応する参照点Prとを紐付ける。このとき、抽出部31は、代表位置RPと頭部画像位置APが近いほど重みが大きくなるように参照点Prに重みを付ける。そして、複数の参照点Prの重みの分布を山登りし、重みの極大点に最も近い重みを有する参照点Prから識別処理対象画像領域TRgを抽出する。 Further, the extraction unit 31 may derive the reference point Pr from the representative position RP by using a known algorithm other than the nearest neighbor search algorithm such as the mountain climbing method and the Mean-shift method. For example, when the mountain climbing method is used, the extraction unit 31 derives a plurality of head image position APs in the vicinity of the representative position RP, and the reference point Pr corresponding to each of the representative position RP and the plurality of head image position APs. And link. At this time, the extraction unit 31 weights the reference point Pr so that the closer the representative position RP and the head image position AP are, the larger the weight is. Then, the weight distribution of the plurality of reference points Pr is climbed, and the identification processing target image region TRg is extracted from the reference points Pr having the weight closest to the maximum weight point.

次に、図13を参照し、コントローラ30の抽出部31が識別処理対象画像を抽出する処理(以下、「画像抽出処理」とする。)の一例について説明する。なお、図13は、画像抽出処理の一例の流れを示すフローチャートである。抽出部31は、例えば、撮像画像を取得する度にこの画像抽出処理を実行する。 Next, with reference to FIG. 13, an example of a process in which the extraction unit 31 of the controller 30 extracts the image to be identified (hereinafter referred to as “image extraction process”) will be described. Note that FIG. 13 is a flowchart showing a flow of an example of the image extraction process. The extraction unit 31 executes this image extraction process every time a captured image is acquired, for example.

最初に、抽出部31は、撮像画像内でヘルメット画像を探索する(ステップST1)。本実施例では、抽出部31は、前段画像認識処理により後方カメラ40Bの撮像画像をラスタスキャンしてヘルメット画像を見つけ出す。 First, the extraction unit 31 searches for a helmet image in the captured image (step ST1). In this embodiment, the extraction unit 31 raster-scans the captured image of the rear camera 40B by the pre-stage image recognition process to find the helmet image.

撮像画像でヘルメット画像HRgを見つけ出した場合(ステップST1のYES)、抽出部31は、ヘルメット画像HRgの代表位置RPを取得する(ステップST2)。 When the helmet image HRg is found in the captured image (YES in step ST1), the extraction unit 31 acquires the representative position RP of the helmet image HRg (step ST2).

その後、抽出部31は、取得した代表位置RPの最近傍にある頭部画像位置APを取得する(ステップST3)。 After that, the extraction unit 31 acquires the head image position AP closest to the acquired representative position RP (step ST3).

その後、抽出部31は、取得した頭部画像位置APに対応する識別処理対象画像を抽出する(ステップST4)。本実施例では、抽出部31は、図11に示す幾何学的関係を利用し、撮像画像における頭部画像位置AP、実空間における仮想頭部位置HP、実空間における人の想定立ち位置としての参照点Pr、及び、実空間における仮想平面領域TRの対応関係を辿って識別処理対象画像を抽出する。 After that, the extraction unit 31 extracts the identification processing target image corresponding to the acquired head image position AP (step ST4). In this embodiment, the extraction unit 31 utilizes the geometric relationship shown in FIG. 11 as a head image position AP in the captured image, a virtual head position HP in the real space, and an assumed standing position of a person in the real space. The identification processing target image is extracted by tracing the correspondence between the reference point Pr and the virtual plane region TR in the real space.

なお、抽出部31は、撮像画像でヘルメット画像HRgを見つけ出さなかった場合には(ステップST1のNO)、識別処理対象画像を抽出することなく、処理をステップST5に移行させる。 If the extraction unit 31 does not find the helmet image HRg in the captured image (NO in step ST1), the extraction unit 31 shifts the processing to step ST5 without extracting the identification processing target image.

その後、抽出部31は、撮像画像の全体にわたってヘルメット画像を探索したかを判定する(ステップST5)。 After that, the extraction unit 31 determines whether the helmet image has been searched for the entire captured image (step ST5).

撮像画像の全体を未だ探索していないと判定した場合(ステップST5のNO)、抽出部31は、撮像画像の別の領域に対し、ステップST1〜ステップST4の処理を実行する。 When it is determined that the entire captured image has not been searched yet (NO in step ST5), the extraction unit 31 executes the processes of steps ST1 to ST4 for another region of the captured image.

一方、撮像画像の全体にわたるヘルメット画像の探索を完了したと判定した場合(ステップST5のYES)、抽出部31は今回の画像抽出処理を終了させる。 On the other hand, when it is determined that the search for the helmet image over the entire captured image is completed (YES in step ST5), the extraction unit 31 ends the image extraction process this time.

このように、抽出部31は、最初にヘルメット画像HRgを見つけ出し、見つけ出したヘルメット画像HRgの代表位置RPから、頭部画像位置AP、仮想頭部位置HP、参照点(想定立ち位置)Pr、仮想平面領域TRを経て識別処理対象画像領域TRgを特定する。そして、特定した識別処理対象画像領域TRgを有する識別処理対象画像を抽出して正規化することで、所定サイズの正規化画像TRgtを生成できる。 In this way, the extraction unit 31 first finds the helmet image HRg, and from the representative position RP of the found helmet image HRg, the head image position AP, the virtual head position HP, the reference point (assumed standing position) Pr, and the virtual The image region TRg to be identified is specified via the plane region TR. Then, by extracting and normalizing the identification processing target image having the specified identification processing target image region TRg, a normalized image TRgt of a predetermined size can be generated.

次に、図14を参照し、画像抽出処理の別の一例について説明する。なお、図14は、画像抽出処理の別の一例の流れを示すフローチャートである。 Next, another example of the image extraction process will be described with reference to FIG. Note that FIG. 14 is a flowchart showing a flow of another example of the image extraction process.

最初に、抽出部31は、頭部画像位置APの1つを取得する(ステップST11)。その後、抽出部31は、その頭部画像位置APに対応するヘルメット画像領域を取得する(ステップST12)。本実施例では、ヘルメット画像領域は、頭部画像位置APのそれぞれについて予め設定された所定サイズの画像領域である。 First, the extraction unit 31 acquires one of the head image position APs (step ST11). After that, the extraction unit 31 acquires the helmet image area corresponding to the head image position AP (step ST12). In this embodiment, the helmet image area is an image area of a predetermined size set in advance for each of the head image position APs.

その後、抽出部31は、ヘルメット画像領域内でヘルメット画像を探索する(ステップST13)。本実施例では、抽出部31は、前段画像認識処理によりヘルメット画像領域内をラスタスキャンしてヘルメット画像を見つけ出す。 After that, the extraction unit 31 searches for a helmet image in the helmet image area (step ST13). In this embodiment, the extraction unit 31 finds the helmet image by raster scanning the inside of the helmet image area by the pre-stage image recognition process.

ヘルメット画像領域内でヘルメット画像HRgを見つけ出した場合(ステップST13のYES)、抽出部31は、そのときの頭部画像位置APに対応する識別処理対象画像を抽出する(ステップST14)。本実施例では、抽出部31は、図11に示す幾何学的関係を利用し、撮像画像における頭部画像位置AP、実空間における仮想頭部位置HP、実空間における人の想定立ち位置としての参照点Pr、及び、実空間における仮想平面領域TRの対応関係を辿って識別処理対象画像を抽出する。 When the helmet image HRg is found in the helmet image area (YES in step ST13), the extraction unit 31 extracts the identification processing target image corresponding to the head image position AP at that time (step ST14). In this embodiment, the extraction unit 31 utilizes the geometric relationship shown in FIG. 11 as a head image position AP in the captured image, a virtual head position HP in the real space, and an assumed standing position of a person in the real space. The identification processing target image is extracted by tracing the correspondence between the reference point Pr and the virtual plane region TR in the real space.

なお、抽出部31は、ヘルメット画像領域内でヘルメット画像HRgを見つけ出さなかった場合には(ステップST13のNO)、識別処理対象画像を抽出することなく、処理をステップST15に移行させる。 If the extraction unit 31 does not find the helmet image HRg in the helmet image area (NO in step ST13), the extraction unit 31 shifts the processing to step ST15 without extracting the identification processing target image.

その後、抽出部31は、撮像画像における全ての頭部画像位置APを取得したかを判定する(ステップST15)。そして、撮像画像における全ての頭部画像位置APを未だ取得していないと判定した場合(ステップST15のNO)、抽出部31は、未取得の別の頭部画像位置APを取得し、ステップST11〜ステップST14の処理を実行する。一方、撮像画像における全ての頭部画像位置APを取得し終わったと判定した場合(ステップST15のYES)、抽出部31は今回の画像抽出処理を終了させる。 After that, the extraction unit 31 determines whether or not all the head image position APs in the captured image have been acquired (step ST15). Then, when it is determined that all the head image position APs in the captured image have not been acquired yet (NO in step ST15), the extraction unit 31 acquires another head image position AP that has not been acquired, and steps ST11. ~ The process of step ST14 is executed. On the other hand, when it is determined that all the head image position APs in the captured image have been acquired (YES in step ST15), the extraction unit 31 ends the image extraction process this time.

このように、抽出部31は、最初に頭部画像位置APの1つを取得し、取得した頭部画像位置APに対応するヘルメット画像領域でヘルメット画像HRgを見つけ出した場合に、そのときの頭部画像位置APから、仮想頭部位置HP、参照点(想定立ち位置)Pr、仮想平面領域TRを経て、識別処理対象画像領域TRgを特定する。そして、特定した識別処理対象画像領域TRgを有する識別処理対象画像を抽出して正規化することで、所定サイズの正規化画像TRgtを生成できる。 In this way, when the extraction unit 31 first acquires one of the head image position APs and finds the helmet image HRg in the helmet image area corresponding to the acquired head image position AP, the head at that time. The identification processing target image area TRg is specified from the part image position AP via the virtual head position HP, the reference point (assumed standing position) Pr, and the virtual plane area TR. Then, by extracting and normalizing the identification processing target image having the specified identification processing target image region TRg, a normalized image TRgt of a predetermined size can be generated.

以上の構成により、周辺監視システム100の抽出部31は、撮像画像における特徴画像としてのヘルメット画像を見つけ出し、そのヘルメット画像の代表位置RPと所定画像位置としての頭部画像位置APの1つとを対応付けることで識別処理対象画像を抽出する。そのため、簡易なシステム構成で後段画像認識処理の対象となる画像部分を絞り込むことができる。 With the above configuration, the extraction unit 31 of the peripheral monitoring system 100 finds a helmet image as a feature image in the captured image, and associates the representative position RP of the helmet image with one of the head image position APs as a predetermined image position. By doing so, the image to be identified is extracted. Therefore, it is possible to narrow down the image portion to be the target of the subsequent image recognition processing with a simple system configuration.

なお、抽出部31は、最初に撮像画像からヘルメット画像HRgを見つけ出し、そのヘルメット画像HRgの代表位置RPに対応する頭部画像位置APの1つを導き出し、その頭部画像位置APの1つに対応する識別処理対象画像を抽出してもよい。或いは、抽出部31は、最初に頭部画像位置APの1つを取得し、その頭部画像位置APの1つに対応する特徴画像の位置を含む所定領域であるヘルメット画像領域内にヘルメット画像が存在する場合に、その頭部画像位置APの1つに対応する識別処理対象画像を抽出してもよい。 The extraction unit 31 first finds the helmet image HRg from the captured image, derives one of the head image position APs corresponding to the representative position RP of the helmet image HRg, and sets it as one of the head image position APs. The corresponding identification processing target image may be extracted. Alternatively, the extraction unit 31 first acquires one of the head image position APs, and the helmet image is within the helmet image area which is a predetermined area including the position of the feature image corresponding to one of the head image position APs. If is present, the identification processing target image corresponding to one of the head image position APs may be extracted.

また、抽出部31は、図11に示すような所定の幾何学的関係を利用し、撮像画像におけるヘルメット画像の代表位置RPから識別処理対象画像を抽出してもよい。この場合、所定の幾何学的関係は、撮像画像における識別処理対象画像領域TRgと、識別処理対象画像領域TRgに対応する実空間における仮想平面領域TRと、仮想平面領域TRに対応する実空間における参照点Pr(人の想定立ち位置)と、参照点Prに対応する仮想頭部位置HP(人の想定立ち位置に対応する人の特徴的な部分の実空間における位置である仮想特徴位置)と、仮想頭部位置HPに対応する撮像画像における頭部画像位置AP(仮想特徴位置に対応する撮像画像における所定画像位置)との幾何学的関係を表す。 Further, the extraction unit 31 may extract the identification processing target image from the representative position RP of the helmet image in the captured image by utilizing a predetermined geometric relationship as shown in FIG. In this case, the predetermined geometric relationship is the identification processing target image region TRg in the captured image, the virtual plane region TR in the real space corresponding to the identification processing target image region TRg, and the real space corresponding to the virtual plane region TR. The reference point Pr (the assumed standing position of the person) and the virtual head position HP corresponding to the reference point Pr (the virtual feature position which is the position in the real space of the characteristic part of the person corresponding to the assumed standing position of the person). , Represents the geometric relationship with the head image position AP (predetermined image position in the captured image corresponding to the virtual feature position) in the captured image corresponding to the virtual head position HP.

次に、図15を参照し、画像抽出処理の更に別の一例について説明する。なお、図15は、画像抽出処理の更に別の一例の流れを示すフローチャートである。図15の画像抽出処理は、正規化画像を生成した後でその正規化画像に特徴画像としてのヘルメット画像が含まれるか否かを判定する点で図13及び図14のそれぞれにおける画像抽出処理と異なる。図13及び図14のそれぞれにおける画像抽出処理はヘルメット画像を見つけた後でそのヘルメット画像を含む画像部分を正規化するためである。 Next, still another example of the image extraction process will be described with reference to FIG. Note that FIG. 15 is a flowchart showing a flow of still another example of the image extraction process. The image extraction process of FIG. 15 is different from the image extraction process of FIGS. 13 and 14 in that after the normalized image is generated, it is determined whether or not the normalized image includes a helmet image as a feature image. different. The image extraction process in each of FIGS. 13 and 14 is for normalizing the image portion including the helmet image after finding the helmet image.

本実施例では、抽出部31は、撮像画像における複数の所定画像部分のそれぞれを正規化して複数の正規化画像を生成し、それら正規化画像のうちヘルメット画像を含む正規化画像を識別処理対象画像として抽出する。複数の所定画像部分は、例えば、撮像画像上に予め定められた複数の識別処理対象画像領域TRgである。識別処理対象画像領域TRg(図6参照。)は、実空間における仮想平面領域TRに対応し、仮想平面領域TRは実空間における参照点Prに対応する。そして、識別部32は、抽出部31が抽出した識別処理対象画像に含まれる人候補画像が人画像であるかを識別する。 In this embodiment, the extraction unit 31 normalizes each of a plurality of predetermined image portions in the captured image to generate a plurality of normalized images, and among the normalized images, the normalized image including the helmet image is identified. Extract as an image. The plurality of predetermined image portions are, for example, a plurality of identification processing target image regions TRg predetermined on the captured image. The identification processing target image region TRg (see FIG. 6) corresponds to the virtual plane region TR in the real space, and the virtual plane region TR corresponds to the reference point Pr in the real space. Then, the identification unit 32 identifies whether the person candidate image included in the identification processing target image extracted by the extraction unit 31 is a human image.

最初に、抽出部31は所定画像部分の1つから正規化画像を生成する(ステップST21)。本実施例では、後方カメラ40Bの撮像画像における予め設定された参照点Prの1つに対応する識別処理対象画像領域TRgの1つを所定画像部分とし、その所定画像部分を射影変換によって所定サイズの長方形画像に変換する。 First, the extraction unit 31 generates a normalized image from one of the predetermined image portions (step ST21). In this embodiment, one of the identification processing target image regions TRg corresponding to one of the preset reference points Pr in the captured image of the rear camera 40B is set as a predetermined image portion, and the predetermined image portion is set to a predetermined size by projective conversion. Convert to a rectangular image of.

その後、抽出部31は、生成した正規化画像にヘルメット画像が含まれるか否かを判定する(ステップST22)。本実施例では、抽出部31は、前段画像認識処理によりその正規化画像をラスタスキャンしてヘルメット画像を見つけ出す。 After that, the extraction unit 31 determines whether or not the generated normalized image includes the helmet image (step ST22). In this embodiment, the extraction unit 31 raster-scans the normalized image by the pre-stage image recognition process to find the helmet image.

正規化画像にヘルメット画像が含まれると判定した場合(ステップST22のYES)、抽出部31は、その正規化画像を識別処理対象画像として抽出する(ステップST23)。このとき、識別部32は、抽出部31が抽出した識別処理対象画像に含まれる人候補画像が人画像であるかを識別する。すなわち、識別部32は、抽出部31による次の正規化が行われる前に、ヘルメット画像を含むと判定された正規化画像に対し、その正規化画像に含まれる画像が人画像であるかを識別する。そのため、周辺監視システム100は、1つの正規化画像を記憶できるメモリ容量を有していれば撮像画像の全体に対する画像抽出処理及び識別処理を実行できる。但し、識別部32は、抽出部31が複数の正規化画像を識別処理対象画像として抽出した後で、それら複数の識別処理対象画像のそれぞれに含まれる人候補画像が人画像であるかを識別してもよい。 When it is determined that the normalized image includes the helmet image (YES in step ST22), the extraction unit 31 extracts the normalized image as the identification processing target image (step ST23). At this time, the identification unit 32 identifies whether the person candidate image included in the identification processing target image extracted by the extraction unit 31 is a person image. That is, the identification unit 32 determines whether the image included in the normalized image is a human image with respect to the normalized image determined to include the helmet image before the next normalization by the extraction unit 31 is performed. Identify. Therefore, the peripheral monitoring system 100 can execute the image extraction process and the identification process for the entire captured image as long as it has a memory capacity capable of storing one normalized image. However, the identification unit 32 identifies whether the person candidate image included in each of the plurality of identification processing target images is a human image after the extraction unit 31 extracts the plurality of normalized images as the identification processing target images. You may.

正規化画像にヘルメット画像が含まれないと判定した場合(ステップST22のNO)、抽出部31は、その正規化画像を識別処理対象画像として抽出することなく処理を進める。 When it is determined that the normalized image does not include the helmet image (NO in step ST22), the extraction unit 31 proceeds with the process without extracting the normalized image as the identification processing target image.

その後、抽出部31は、撮像画像における全ての所定画像部分から正規化画像を生成したか否かを判定する(ステップST24)。本実施例では、後方カメラ40Bの撮像画像における参照点Prのそれぞれに対応する識別処理対象画像領域TRgである所定画像部分の全てから正規化画像を生成したか否かを判定する。 After that, the extraction unit 31 determines whether or not the normalized image is generated from all the predetermined image portions in the captured image (step ST24). In this embodiment, it is determined whether or not the normalized image is generated from all the predetermined image portions which are the identification processing target image regions TRg corresponding to each of the reference points Pr in the captured image of the rear camera 40B.

撮像画像における全ての所定画像部分から正規化画像を生成していないと判定した場合(ステップST24のNO)、抽出部31は、別の所定画像部分に対し、ステップST21〜ステップST23の処理を実行する。 When it is determined that the normalized image is not generated from all the predetermined image portions in the captured image (NO in step ST24), the extraction unit 31 executes the processes of steps ST21 to ST23 for another predetermined image portion. To do.

一方、撮像画像における全ての所定画像部分から正規化画像を生成したと判定した場合(ステップST24のYES)、抽出部31は今回の画像抽出処理を終了させる。 On the other hand, when it is determined that the normalized image is generated from all the predetermined image portions in the captured image (YES in step ST24), the extraction unit 31 ends the image extraction process this time.

図15の例では、周辺監視システム100は、1つの正規化画像を生成した段階でその正規化画像にヘルメット画像が含まれるか否かを判定する。但し、複数の正規化画像を生成した段階でそれら複数の正規化画像のそれぞれにヘルメット画像が含まれるか否かを纏めて判定してもよい。また、全ての正規化画像を生成した段階でそれら全ての正規化画像のそれぞれにヘルメット画像が含まれるか否かを纏めて判定してもよい。 In the example of FIG. 15, the peripheral monitoring system 100 determines whether or not the helmet image is included in the normalized image at the stage when one normalized image is generated. However, at the stage when a plurality of normalized images are generated, it may be collectively determined whether or not each of the plurality of normalized images includes a helmet image. Further, at the stage when all the normalized images are generated, it may be collectively determined whether or not the helmet image is included in each of all the normalized images.

このような画像抽出処理により、周辺監視システム100は、人検知処理の際のメモリアクセス回数を低減させることができる。ヘルメット画像を見つけ出す処理と識別処理対象画像を抽出する処理を同時に実行できるためである。 By such an image extraction process, the peripheral monitoring system 100 can reduce the number of memory accesses during the person detection process. This is because the process of finding the helmet image and the process of extracting the identification processing target image can be executed at the same time.

また、図15の画像抽出処理を採用する周辺監視システム100は、図13又は図14の画像抽出処理を採用する場合に比べ、メモリ容量を低減させることができる。図13又は図14の画像抽出処理は、少なくとも、正規化される前の画像部分(正規化画像より大きい画像)を記憶できるだけのメモリ容量が必要であるが、図15の画像抽出処理は正規化画像を最初に生成するため正規化画像を記憶できるだけのメモリ容量があれば実行可能なためである。 Further, the peripheral monitoring system 100 that employs the image extraction process of FIG. 15 can reduce the memory capacity as compared with the case of adopting the image extraction process of FIG. 13 or 14. The image extraction process of FIG. 13 or FIG. 14 requires at least a memory capacity capable of storing an image portion before normalization (an image larger than the normalized image), but the image extraction process of FIG. 15 is normalized. This is because it can be executed if there is enough memory capacity to store the normalized image because the image is generated first.

また、図15の画像抽出処理を採用する周辺監視システム100は、正規化画像にヘルメット画像が含まれるか否かを判定する。そのため、図13又は図14の画像抽出処理のように正規化される前の画像にヘルメット画像が含まれるか否かを判定する構成に比べ、ヘルメット画像が含まれるか否かの判定に要する処理時間を短縮できる。探索対象となるヘルメット画像のサイズ及び歪みのばらつきを小さくできるためである。その結果、識別処理対象画像の抽出に要する時間を短縮できる。また、探索対象となるヘルメット画像のサイズ及び歪みのばらつきを小さくできるため、ヘルメット画像が含まれるか否かの判定の精度を高めることができる。 Further, the peripheral monitoring system 100 that employs the image extraction process of FIG. 15 determines whether or not the normalized image includes the helmet image. Therefore, the process required for determining whether or not the helmet image is included, as compared with the configuration for determining whether or not the helmet image is included in the image before normalization as in the image extraction process of FIG. 13 or FIG. You can save time. This is because the variation in the size and distortion of the helmet image to be searched can be reduced. As a result, the time required for extracting the image to be identified can be shortened. Further, since the variation in the size and distortion of the helmet image to be searched can be reduced, the accuracy of determining whether or not the helmet image is included can be improved.

また、図15の画像抽出処理を採用する周辺監視システム100は、人の足位置に対する頭部位置のバラツキが大きい場合(例えば屈んでいる人の画像が撮像画像に含まれる場合)であっても、より確実な人検知を実現できる。正規化画像にヘルメット画像が含まれるか否かを判定する構成を採用しているためである。すなわち、図13又は図14の画像抽出処理のようにヘルメット画像の位置に関連する頭部画像位置を用いて識別処理対象画像領域を特定する構成ではなく、正規化の対象となる所定画像部分としての識別処理対象画像領域が頭部画像位置とは無関係に設定されるためである。 Further, the peripheral monitoring system 100 that employs the image extraction process of FIG. 15 has a large variation in the head position with respect to the foot position of the person (for example, when the image of the crouched person is included in the captured image). , More reliable person detection can be realized. This is because it employs a configuration for determining whether or not the normalized image includes a helmet image. That is, it is not a configuration for specifying the identification processing target image area by using the head image position related to the position of the helmet image as in the image extraction processing of FIG. 13 or FIG. 14, but as a predetermined image portion to be normalized. This is because the identification processing target image area of is set regardless of the head image position.

次に、図16を参照し、画像抽出処理の更に別の一例について説明する。なお、図16は画像抽出処理の更に別の一例の流れを示すフローチャートである。図16の画像抽出処理は、所定画像部分の一部を正規化した段階でその部分的に正規化された画像(以下、「部分正規化画像」とする。)に特徴画像としてのヘルメット画像が含まれるか否かを判定する点で図15の画像抽出処理と異なる。図15の画像抽出処理は、1つの所定画像部分の全部を正規化した段階でその正規化画像にヘルメット画像が含まれるか否かを判定するためである。 Next, still another example of the image extraction process will be described with reference to FIG. Note that FIG. 16 is a flowchart showing a flow of still another example of the image extraction process. In the image extraction process of FIG. 16, a helmet image as a feature image is added to the partially normalized image (hereinafter referred to as “partially normalized image”) at the stage where a part of the predetermined image portion is normalized. It differs from the image extraction process of FIG. 15 in that it determines whether or not it is included. The image extraction process of FIG. 15 is for determining whether or not the helmet image is included in the normalized image at the stage where all of one predetermined image portion is normalized.

最初に、抽出部31は、所定画像部分の一部から部分正規化画像を生成する(ステップST31)。そして、抽出部31は、部分正規化画像を生成した段階でその部分正規化画像にヘルメット画像が含まれるか否かを判定する(ステップST32)。本実施例では、抽出部31は、正規化画像の上半分に対応する所定画像部分の一部を正規化して部分正規化画像を生成した段階で前段画像認識処理によりその部分正規化画像をラスタスキャンしてヘルメット画像を見つけ出す。 First, the extraction unit 31 generates a partially normalized image from a part of a predetermined image portion (step ST31). Then, the extraction unit 31 determines whether or not the helmet image is included in the partially normalized image at the stage of generating the partially normalized image (step ST32). In this embodiment, the extraction unit 31 rasterizes the partially normalized image by the pre-stage image recognition process at the stage where a part of the predetermined image portion corresponding to the upper half of the normalized image is normalized to generate the partially normalized image. Scan to find the helmet image.

部分正規化画像にヘルメット画像が含まれると判定した場合(ステップST32のYES)、抽出部31は、所定画像部分の残りの部分を正規化して正規化画像を生成する(ステップST33)。本実施例では、抽出部31は、正規化画像の下半分に対応する所定画像部分の残りの部分を正規化して正規化画像を生成する。そして、抽出部31は、その正規化画像を識別処理対象画像として抽出する(ステップST34)。このとき、識別部32は、抽出部31が抽出した識別処理対象画像に含まれる人候補画像が人画像であるかを識別する。但し、識別部32は、抽出部31が複数の正規化画像を識別処理対象画像として抽出した後で、それら複数の識別処理対象画像のそれぞれに含まれる人候補画像が人画像であるかを識別してもよい。 When it is determined that the partially normalized image includes the helmet image (YES in step ST32), the extraction unit 31 normalizes the remaining portion of the predetermined image portion to generate a normalized image (step ST33). In this embodiment, the extraction unit 31 normalizes the remaining portion of the predetermined image portion corresponding to the lower half of the normalized image to generate a normalized image. Then, the extraction unit 31 extracts the normalized image as an image to be identified (step ST34). At this time, the identification unit 32 identifies whether the person candidate image included in the identification processing target image extracted by the extraction unit 31 is a person image. However, the identification unit 32 identifies whether the person candidate image included in each of the plurality of identification processing target images is a human image after the extraction unit 31 extracts the plurality of normalized images as the identification processing target images. You may.

部分正規化画像にヘルメット画像が含まれないと判定した場合(ステップST32のNO)、抽出部31は、所定画像部分の残りの部分を正規化して正規化画像を生成することなく処理を進める。 When it is determined that the helmet image is not included in the partially normalized image (NO in step ST32), the extraction unit 31 normalizes the remaining portion of the predetermined image portion and proceeds with the process without generating the normalized image.

その後、抽出部31は、撮像画像における全ての所定画像部分から部分正規化画像を生成したか否かを判定する(ステップST35)。本実施例では、後方カメラ40Bの撮像画像における参照点Prのそれぞれに対応する識別処理対象画像領域TRgである所定画像部分の全てから部分正規化画像を生成したか否かを判定する。 After that, the extraction unit 31 determines whether or not a partially normalized image is generated from all the predetermined image portions in the captured image (step ST35). In this embodiment, it is determined whether or not a partially normalized image is generated from all of a predetermined image portion which is an identification processing target image region TRg corresponding to each of the reference points Pr in the captured image of the rear camera 40B.

撮像画像における全ての所定画像部分から部分正規化画像を生成していないと判定した場合(ステップST35のNO)、抽出部31は、別の所定画像部分に対し、ステップST31〜ステップST34の処理を実行する。 When it is determined that the partially normalized image is not generated from all the predetermined image portions in the captured image (NO in step ST35), the extraction unit 31 performs the processing of steps ST31 to ST34 for another predetermined image portion. Execute.

一方、撮像画像における全ての所定画像部分から部分正規化画像を生成したと判定した場合(ステップST35のYES)、抽出部31は今回の画像抽出処理を終了させる。 On the other hand, when it is determined that the partially normalized image is generated from all the predetermined image portions in the captured image (YES in step ST35), the extraction unit 31 ends the current image extraction process.

図16の例では、周辺監視システム100は、正規化画像の上半分に対応する所定画像部分の一部を正規化して部分正規化画像を生成する。ヘルメット画像は正規化画像の上半分(人の上半身に対応する部分)に含まれる蓋然性が高いためである。但し、正規化画像の上半分より小さい部分に対応する所定画像部分の一部を正規化して部分正規化画像を生成してもよい。例えば、正規化画像の上の1/3にあたる部分に対応する所定画像部分の一部を正規化して部分正規化画像を生成してもよい。或いは、周辺監視システム100は、正規化画像の別の一部を正規化して部分正規化画像を生成してもよい。例えば、特徴画像としての肩の画像を探索する場合、正規化画像の右半分に対応する所定画像部分の一部を正規化して部分正規化画像を生成してもよく、特徴画像としてのマーカの画像を探索する場合、正規化画像の中央半分に対応する所定画像部分の一部を正規化して部分正規化画像を生成してもよい。 In the example of FIG. 16, the peripheral monitoring system 100 normalizes a part of a predetermined image portion corresponding to the upper half of the normalized image to generate a partially normalized image. This is because the helmet image is highly likely to be included in the upper half of the normalized image (the part corresponding to the upper body of a person). However, a partially normalized image may be generated by normalizing a part of a predetermined image portion corresponding to a portion smaller than the upper half of the normalized image. For example, a partially normalized image may be generated by normalizing a part of a predetermined image portion corresponding to a portion corresponding to the upper 1/3 of the normalized image. Alternatively, the peripheral monitoring system 100 may normalize another part of the normalized image to generate a partially normalized image. For example, when searching for a shoulder image as a feature image, a part of a predetermined image portion corresponding to the right half of the normalized image may be normalized to generate a partially normalized image, and a marker as a feature image may be generated. When searching for an image, a part of a predetermined image portion corresponding to the central half of the normalized image may be normalized to generate a partially normalized image.

このような画像抽出処理により、図16の画像抽出処理を採用する周辺監視システム100は、図15の画像抽出処理を採用する場合と同様の効果を実現できる。 By such an image extraction process, the peripheral monitoring system 100 that employs the image extraction process of FIG. 16 can realize the same effect as that of the case of adopting the image extraction process of FIG.

また、図16の画像抽出処理を採用する周辺監視システム100は、図15の画像抽出処理を採用する場合に比べ、人検知処理に要する処理時間を更に短縮できる。部分正規化画像にヘルメット画像が含まれないと判定した場合、その所定画像部分の残りの部分を正規化することなく、次の所定画像部分の正規化を開始できるためである。 Further, the peripheral monitoring system 100 that employs the image extraction process of FIG. 16 can further shorten the processing time required for the human detection process as compared with the case of adopting the image extraction process of FIG. This is because when it is determined that the helmet image is not included in the partially normalized image, the normalization of the next predetermined image portion can be started without normalizing the remaining portion of the predetermined image portion.

また、図13〜図16のそれぞれにおける画像抽出処理において、抽出部31は、撮像画像の全域を対象として識別処理対象画像を抽出する。しかしながら、撮像画像の左上の領域から右下の領域に向かって一律に抽出が行われた場合、人画像が存在しそうにない領域での抽出に時間が掛かり過ぎてしまい、人画像が存在しそうな領域での抽出に遅れを生じさせてしまうおそれがある。特に、背景画像が複雑な場合等、人候補画像の数が多くなる場合にその傾向が顕著になる。 Further, in the image extraction processing in each of FIGS. 13 to 16, the extraction unit 31 extracts the identification processing target image for the entire area of the captured image. However, if the extraction is performed uniformly from the upper left region to the lower right region of the captured image, it takes too much time to extract in the region where the human image is unlikely to exist, and the human image is likely to exist. There is a risk of delaying extraction in the region. In particular, this tendency becomes remarkable when the number of candidate images is large, such as when the background image is complicated.

そこで、抽出部31は、撮像画像を複数の領域に分割し、それら複数の領域から所定の順番で選択される各領域を対象として識別処理対象画像を抽出してもよい。例えば、それら複数の領域のそれぞれに優先順位を付し、優先順位の高い領域から順番に各領域を対象として画像抽出処理を適用してもよい。人画像が存在しそうな領域等の優先順位の高い領域での抽出を早期に完了させるためである。なお、撮像画像は、上下に分割されてもよく、左右に分割されてもよく、上下左右に分割されてもよい。また、複数の領域は、ショベルの車両状態等に応じて動的に設定されてもよく、ショベルの車両状態等にかかわらず静的に設定されてもよい。優先順位も同様にショベルの車両状態等に応じて動的に設定されてもよく、ショベルの車両状態等にかかわらず静的に設定されてもよい。例えば、複数の領域の分割の仕方及び優先順位は何れも、旋回方向、旋回速度、走行方向、及び走行速度の少なくとも一つに応じて動的に設定されてもよい。また、各領域を対象とする画像抽出処理は図13〜図16の画像抽出処理のうちの何れが採用されてもよい。但し、その場合には図13〜図16の説明における「撮像画像の全体」、「撮像画像における全て」は「選択された領域の全体」、「選択された領域における全て」で読み替えられる。 Therefore, the extraction unit 31 may divide the captured image into a plurality of regions and extract the identification processing target image for each region selected in a predetermined order from the plurality of regions. For example, a priority may be given to each of the plurality of regions, and the image extraction process may be applied to each region in order from the region having the highest priority. This is to complete the extraction in a high-priority area such as an area where a human image is likely to exist at an early stage. The captured image may be divided into upper and lower parts, left and right, and upper, lower, left and right. Further, the plurality of areas may be dynamically set according to the vehicle state of the excavator or the like, or may be set statically regardless of the vehicle state of the excavator or the like. Similarly, the priority order may be dynamically set according to the vehicle state of the excavator or the like, or may be set statically regardless of the vehicle state of the excavator or the like. For example, the method and priority of dividing the plurality of regions may be dynamically set according to at least one of the turning direction, the turning speed, the traveling direction, and the traveling speed. Further, any of the image extraction processes of FIGS. 13 to 16 may be adopted as the image extraction process for each region. However, in that case, "whole captured image" and "all in the captured image" in the description of FIGS. 13 to 16 are read as "whole selected region" and "all in the selected region".

図17は、撮像画像における複数の領域のそれぞれを対象として順番に画像抽出処理を適用する処理(以下、「選択型画像抽出処理」とする。)の一例の流れを示すフローチャートである。コントローラ30は、例えば、撮像画像を取得する度にこの選択型画像抽出処理を実行する。コントローラ30は、図13〜図16の何れかの画像抽出処理(以下、「一律型画像抽出処理」とする。)と図17の選択型画像抽出処理とを択一的に実行してもよい。例えば、コントローラ30は、現に取得した撮像画像に関する識別処理対象画像の抽出数が所定数を超えた場合に次の撮像画像を取得したときに選択型画像抽出処理を実行し、識別処理対象画像の抽出数が所定数以下の場合に次の撮像画像を取得したときに一律型画像抽出処理を実行してもよい。或いは、コントローラ30は、識別処理対象画像の抽出数にかかわらず、常に選択型画像抽出処理を実行してもよい。 FIG. 17 is a flowchart showing an example flow of a process (hereinafter, referred to as “selective image extraction process”) in which an image extraction process is sequentially applied to each of a plurality of regions in a captured image. The controller 30 executes this selective image extraction process every time the captured image is acquired, for example. The controller 30 may selectively execute any of the image extraction processes of FIGS. 13 to 16 (hereinafter, referred to as “uniform image extraction process”) and the selective image extraction process of FIG. .. For example, the controller 30 executes the selective image extraction process when the next captured image is acquired when the number of extracted images to be identified for the actually acquired image exceeds a predetermined number, and the controller 30 executes the selective image extraction process for the identification process target image. When the number of extractions is equal to or less than a predetermined number, the uniform image extraction process may be executed when the next captured image is acquired. Alternatively, the controller 30 may always execute the selective image extraction process regardless of the number of extracted images to be identified.

図18は、複数の領域に分割された撮像画像の一例を示す。図18の撮像画像は後方カメラ40Bが撮像した撮像画像(スルー画像)である。図18では、撮像画像は6つの領域A1〜A6に分割されている。台形形状の領域A1の上辺は、例えば、ショベルの現在の旋回半径に対応し、領域A1の左右の辺は、例えば、下部走行体1の外縁の延長線に対応する。逆台形形状の領域A4の下辺は、例えば、ショベルの最大旋回半径に対応し、領域A4の上辺は、例えば、地面より所定高さだけ高い位置にある線に対応する。所定高さは、例えば、人の身長の高さ(2メートル)である。図18の例では領域A1〜A6の分割の仕方は静的に設定されている。例えば、領域A1〜A6のそれぞれの範囲、大きさ等に関する情報は、コントローラ30の内部メモリに予め記憶されている。但し、複数の領域の分割の仕方はショベルの車両状態等に応じて動的に設定されてもよい。分割の仕方の変更は、分割対象となる範囲の変更、分割数の変更等を含む。 FIG. 18 shows an example of a captured image divided into a plurality of regions. The captured image of FIG. 18 is a captured image (through image) captured by the rear camera 40B. In FIG. 18, the captured image is divided into six regions A1 to A6. The upper side of the trapezoidal region A1 corresponds to, for example, the current turning radius of the excavator, and the left and right sides of the region A1 correspond to, for example, the extension line of the outer edge of the lower traveling body 1. The lower side of the inverted trapezoidal region A4 corresponds, for example, to the maximum turning radius of the shovel, and the upper side of the region A4 corresponds, for example, to a line located at a predetermined height above the ground. The predetermined height is, for example, the height of a person (2 meters). In the example of FIG. 18, the method of dividing the areas A1 to A6 is statically set. For example, information regarding the range, size, and the like of each of the areas A1 to A6 is stored in advance in the internal memory of the controller 30. However, the method of dividing the plurality of areas may be dynamically set according to the vehicle state of the excavator and the like. The change of the division method includes the change of the range to be divided, the change of the number of divisions, and the like.

撮像画像を取得すると、コントローラ30の抽出部31は、ショベルの車両状態を取得する(ステップST41)。例えば、抽出部31は、車両状態検出装置44の出力に基づいてショベルの車両状態を取得する。車両状態は、例えば、掘削アタッチメントの姿勢、旋回方向、旋回速度、走行方向、走行速度、操作装置の操作内容等を含む。抽出部31は、連続する撮像画像の時間差分、オプティカルフロー等を用いて撮像画像からショベルの車両状態を導き出してもよい。 When the captured image is acquired, the extraction unit 31 of the controller 30 acquires the vehicle state of the excavator (step ST41). For example, the extraction unit 31 acquires the vehicle state of the excavator based on the output of the vehicle state detection device 44. The vehicle state includes, for example, the posture of the excavation attachment, the turning direction, the turning speed, the traveling direction, the traveling speed, the operation content of the operating device, and the like. The extraction unit 31 may derive the vehicle state of the excavator from the captured images by using the time difference of the continuous captured images, the optical flow, and the like.

その後、抽出部31は、ショベルの車両状態に基づいて各領域の優先順位を設定する(ステップST42)。例えば、抽出部31は、ショベルが静止している場合、領域A1、領域A2、領域A3、領域A4、領域A5、領域A6の順で優先順位を設定する。ショベルに真後ろの空間に対応する領域A1を最優先とするのは、ショベルの真後ろに存在する人を早期に検知することでショベル発進時におけるショベルと人との接触を防止するためである。 After that, the extraction unit 31 sets the priority of each region based on the vehicle state of the excavator (step ST42). For example, when the excavator is stationary, the extraction unit 31 sets the priority order in the order of region A1, region A2, region A3, region A4, region A5, and region A6. The reason why the region A1 corresponding to the space directly behind the excavator is given the highest priority is to prevent the excavator from coming into contact with the person when the excavator is started by detecting the person who is directly behind the excavator at an early stage.

また、抽出部31は、ショベルが後進している場合、領域A4、領域A2、領域A3、領域A1、領域A5、領域A6の順で優先順位を設定する。予想進路内の比較的遠い空間に対応する領域A4を最優先とするのは、ショベルの進行に伴ってショベルとの距離が縮まる人を早期に検知するためである。予想進路の左右に位置する空間に対応する領域A2及び領域A3を次優先とするのは、予想進路内に進入しようとしている人を早期に検知するためである。 Further, when the excavator is moving backward, the extraction unit 31 sets the priority order in the order of region A4, region A2, region A3, region A1, region A5, and region A6. The reason why the region A4 corresponding to the relatively distant space in the predicted course is given the highest priority is to detect a person whose distance from the excavator decreases as the excavator progresses at an early stage. The reason why the regions A2 and A3 corresponding to the spaces located on the left and right of the predicted course are given the next priority is to detect a person who is about to enter the predicted course at an early stage.

また、抽出部31は、ショベルが前進している場合、領域A2、領域A3、領域A1、領域A4、領域A5、領域A6の順で優先順位を設定する。ショベルが通った経路の左右に位置する空間に対応する領域A2及び領域A3を最優先とし、その経路内の最も近い空間に対応する領域A1を次優先とするのは、ショベルに接近しようとしている人を早期に検知するためである。 Further, when the excavator is advancing, the extraction unit 31 sets the priority in the order of area A2, area A3, area A1, area A4, area A5, and area A6. The area A2 and area A3 corresponding to the spaces located on the left and right of the path taken by the excavator are given the highest priority, and the area A1 corresponding to the nearest space in the path is given the next priority when approaching the excavator. This is to detect a person at an early stage.

また、抽出部31は、ショベルが右旋回している場合、領域A3、領域A1、領域A4、領域A5、領域A2、領域A6の順で優先順位を設定する。ショベルの左後方の空間に対応する領域A3を最優先とするのは、ショベルの右旋回に伴って掘削アタッチメントとの距離が縮まる人を早期に検知するためである。 Further, when the excavator is turning to the right, the extraction unit 31 sets the priority order in the order of region A3, region A1, region A4, region A5, region A2, and region A6. The reason why the area A3 corresponding to the space on the left rear side of the excavator is given the highest priority is to detect a person whose distance from the excavation attachment is shortened as the excavator turns to the right at an early stage.

また、抽出部31は、ショベルが左旋回している場合、領域A2、領域A1、領域A4、領域A5、領域A3、領域A6の順で優先順位を設定する。ショベルの右後方の空間に対応する領域A2を最優先とするのは、ショベルの左旋回に伴って掘削アタッチメントとの距離が縮まる人を早期に検知するためである。 Further, when the excavator is turning to the left, the extraction unit 31 sets the priority order in the order of area A2, area A1, area A4, area A5, area A3, and area A6. The reason why the area A2 corresponding to the space on the right rear side of the excavator is given the highest priority is to detect a person whose distance from the excavation attachment is shortened as the excavator turns to the left at an early stage.

また、抽出部31は、上述の何れの場合においても、撮像画像の中心領域である領域A5の優先順位を低めに設定している。領域A5に対応する空間に存在する人の人候補画像は、前回以前の画像抽出処理において周辺の他の領域で既に抽出されているためである。 Further, in any of the above cases, the extraction unit 31 sets the priority of the region A5, which is the central region of the captured image, to be low. This is because the person candidate image of the person existing in the space corresponding to the area A5 has already been extracted in another surrounding area in the image extraction process before the previous time.

また、抽出部31は、上述の何れの場合においても、地面より所定高さだけ高い位置にある遠方の空間に対応する領域A6の優先順位を最下位に設定している。領域A6に対応する空間内に人が存在する可能性が他の領域に比べて低いためである。 Further, in any of the above cases, the extraction unit 31 sets the priority of the region A6 corresponding to the distant space at a position higher than the ground by a predetermined height to the lowest priority. This is because the possibility that a person exists in the space corresponding to the area A6 is lower than in other areas.

その後、抽出部31は、複数の領域における未探索領域のうち優先順位が最も高い領域を画像抽出処理の対象として選択する(ステップST43)。未探索領域は、画像抽出処理が未だ適用されていない領域を意味する。例えば、抽出部31は、ショベルが前進している場合、最優先の領域A2が未探索領域であれば領域A2を選択し、領域A2が未探索領域ではなく且つ次優先の領域A3が未探索領域であれば領域A3を選択する。優先順位がより下位の領域についても同様である。 After that, the extraction unit 31 selects the region having the highest priority among the unsearched regions in the plurality of regions as the target of the image extraction process (step ST43). The unsearched area means an area to which the image extraction process has not yet been applied. For example, when the excavator is moving forward, the extraction unit 31 selects the area A2 if the highest priority area A2 is an unsearched area, and the area A2 is not an unsearched area and the next priority area A3 is unsearched. If it is an area, the area A3 is selected. The same applies to areas with lower priorities.

その後、抽出部31は、選択した領域に対して画像抽出処理を適用する(ステップST44)。抽出部31は、例えば、図13〜図16の画像抽出処理のうちの何れかを採用する。 After that, the extraction unit 31 applies the image extraction process to the selected area (step ST44). The extraction unit 31 employs, for example, any of the image extraction processes of FIGS. 13 to 16.

その後、抽出部31は、選択した領域の全域に対して画像抽出処理を適用したか否かを判定する(ステップST45)。 After that, the extraction unit 31 determines whether or not the image extraction process has been applied to the entire area of the selected region (step ST45).

選択した領域の全域に対して未だ画像抽出処理を適用していないと判定した場合(ステップST45のNO)、抽出部31は、ステップST44及びステップST45を再び実行する。 When it is determined that the image extraction process has not yet been applied to the entire area of the selected region (NO in step ST45), the extraction unit 31 executes step ST44 and step ST45 again.

選択した領域の全域に対して画像抽出処理を適用したと判定した場合(ステップST45のYES)、コントローラ30の識別部32は後段画像認識処理を開始する(ステップST46)。識別部32は、例えば、抽出部31が最優先の領域A1から識別処理対象画像を抽出した後で次優先の領域A2から識別処理対象画像を抽出する前に、抽出部31が領域A1から抽出した識別処理対象画像に含まれる画像が人の画像であるか否かを画像認識処理によって識別する処理を開始する。 When it is determined that the image extraction process has been applied to the entire area of the selected area (YES in step ST45), the identification unit 32 of the controller 30 starts the subsequent image recognition process (step ST46). In the identification unit 32, for example, after the extraction unit 31 extracts the identification processing target image from the highest priority area A1 and before the identification processing target image is extracted from the next priority area A2, the extraction unit 31 extracts from the area A1. Identification processing The processing for identifying whether or not the image included in the target image is a human image is started by the image recognition processing.

その後、抽出部31は、撮像画像の全域に対して画像抽出処理を適用したか否かを判定する(ステップST47)。 After that, the extraction unit 31 determines whether or not the image extraction process has been applied to the entire area of the captured image (step ST47).

そして、撮像画像の全域に対して未だ画像抽出処理を適用していないと判定した場合(ステップST47のNO)、抽出部31は、ステップST43以降の処理を再び実行する。この場合、コントローラ30は、識別部32による後段画像認識処理と抽出部31によるステップST43以降の処理とを並列的に実行してもよい。或いは、コントローラ30は、識別部32による後段画像認識処理が完了した後で、抽出部31によるステップST43以降の処理を実行してもよい。 Then, when it is determined that the image extraction process has not yet been applied to the entire area of the captured image (NO in step ST47), the extraction unit 31 re-executes the processes after step ST43. In this case, the controller 30 may execute the subsequent image recognition process by the identification unit 32 and the process after step ST43 by the extraction unit 31 in parallel. Alternatively, the controller 30 may execute the processing after step ST43 by the extraction unit 31 after the subsequent image recognition processing by the identification unit 32 is completed.

撮像画像の全域に対して画像抽出処理を適用したと判定した場合(ステップST47のYES)、抽出部31は、今回の選択型画像抽出処理を終了させる。 When it is determined that the image extraction process has been applied to the entire area of the captured image (YES in step ST47), the extraction unit 31 ends the selective image extraction process this time.

なお、コントローラ30は、選択した領域の全域に対する画像抽出処理が完了する毎に後段画像認識処理を開始させる代わりに、識別処理対象画像の抽出数が所定数に達する毎に後段画像認識処理を開始させてもよい。 The controller 30 starts the latter-stage image recognition processing every time the number of extracted images to be identified reaches a predetermined number, instead of starting the latter-stage image recognition processing every time the image extraction processing for the entire area of the selected area is completed. You may let me.

以上の構成により、コントローラ30は、撮像画像を複数の領域に分割し、画像抽出処理を適用する順番を設定することで、特定の領域での識別処理対象画像の抽出を早期に完了させることができる。 With the above configuration, the controller 30 divides the captured image into a plurality of regions and sets the order in which the image extraction processing is applied, so that the extraction of the identification processing target image in the specific region can be completed at an early stage. it can.

また、コントローラ30は、ショベルの車両状態に応じて撮像画像の分割の仕方を変更できる。そのため、現在のショベルの車両状態に適した分割の仕方で複数の領域を設定できる。 Further, the controller 30 can change the method of dividing the captured image according to the vehicle state of the excavator. Therefore, a plurality of areas can be set by a division method suitable for the current vehicle condition of the excavator.

また、コントローラ30は、ショベルの車両状態に応じて各領域の優先順位を変更できる。そのため、現在のショベルの車両状態に適した優先順位を設定できる。 Further, the controller 30 can change the priority of each area according to the vehicle state of the excavator. Therefore, it is possible to set a priority suitable for the current vehicle condition of the excavator.

なお、コントローラ30は、CANに接続されたブーム角度センサ、アーム角度センサ、バケット角度センサ、レゾルバ、ロータリエンコーダ、パイロット圧センサ等の既存の装置の出力に基づいてショベルの車両状態を取得できる。すなわち、コントローラ30は、操作装置の操作内容、又は、ショベルの動作状態に基づいてショベルの車両状態を取得できる。或いは、コントローラ30は、撮像装置40の撮像画像に基づいてショベルの車両状態を取得できる。そのため、追加の装置等の取り付けを必要とせずに上述の効果を実現できる。 The controller 30 can acquire the vehicle state of the excavator based on the output of existing devices such as a boom angle sensor, an arm angle sensor, a bucket angle sensor, a resolver, a rotary encoder, and a pilot pressure sensor connected to the CAN. That is, the controller 30 can acquire the vehicle state of the excavator based on the operation content of the operating device or the operating state of the excavator. Alternatively, the controller 30 can acquire the vehicle state of the excavator based on the captured image of the imaging device 40. Therefore, the above-mentioned effect can be realized without the need to attach an additional device or the like.

次に図19を参照し、複数の領域に分割された撮像画像の別の一例について説明する。図19の撮像画像は後方カメラ40Bが撮像した撮像画像(スルー画像)である。図19では、撮像画像は4つの領域B1〜B4に分割されている。領域B1、領域B2、及び領域B3のそれぞれの上縁並びに領域B4の下縁は、例えば、ショベルの現在の旋回半径に対応する。それらはショベルの最大旋回半径に対応するものであってもよい。領域B1の左右の縁並びに領域B2の右縁及び領域B3の左縁は、例えば、下部走行体1の外縁の延長線に対応する。領域B4の上縁は、例えば、地面より所定高さだけ高い位置にある線に対応する。図19の例では、コントローラ30は、上部旋回体3の後端部が映り込んだ領域(領域B1の下の領域)と、地面より所定高さだけ高い遠方の空間に対応する領域(領域B4の上の領域)とに対しては画像認識処理を適用しない。 Next, with reference to FIG. 19, another example of the captured image divided into a plurality of regions will be described. The captured image of FIG. 19 is a captured image (through image) captured by the rear camera 40B. In FIG. 19, the captured image is divided into four regions B1 to B4. The upper edges of each of the areas B1, B2, and B3 and the lower edges of the area B4 correspond, for example, to the current turning radius of the excavator. They may correspond to the maximum turning radius of the excavator. The left and right edges of the area B1, the right edge of the area B2, and the left edge of the area B3 correspond to, for example, an extension of the outer edge of the lower traveling body 1. The upper edge of the area B4 corresponds, for example, to a line located at a predetermined height above the ground. In the example of FIG. 19, the controller 30 has a region in which the rear end portion of the upper swing body 3 is reflected (a region below the region B1) and a region corresponding to a distant space higher than the ground by a predetermined height (region B4). Image recognition processing is not applied to the area above).

そして、抽出部31は、ショベルが静止している場合、領域B1、領域B2、領域B3、領域B4の順で優先順位を設定する。また、抽出部31は、ショベルが後進している場合、領域B4、領域B2、領域B3、領域B1の順で優先順位を設定し、ショベルが前進している場合、領域B2、領域B3、領域B1、領域B4の順で優先順位を設定する。また、抽出部31は、ショベルが右旋回している場合、領域B3、領域B1、領域B4、領域B2の順で優先順位を設定し、ショベルが左旋回している場合、領域B2、領域B1、領域B4、領域B3の順で優先順位を設定する。 Then, when the excavator is stationary, the extraction unit 31 sets the priority in the order of area B1, area B2, area B3, and area B4. Further, the extraction unit 31 sets the priority in the order of the area B4, the area B2, the area B3, and the area B1 when the excavator is moving backward, and when the excavator is moving forward, the area B2, the area B3, and the area B1. Priority is set in the order of B1 and area B4. Further, the extraction unit 31 sets the priority in the order of the area B3, the area B1, the area B4, and the area B2 when the excavator is turning to the right, and when the excavator is turning to the left, the area B2, the area B1, Priority is set in the order of area B4 and area B3.

この構成により、図19における複数の領域を用いて選択型画像抽出処理を実行するコントローラ30は、図18における複数の領域を用いて選択型画像抽出処理を実行する場合と同様の効果を実現できる。 With this configuration, the controller 30 that executes the selective image extraction process using the plurality of regions in FIG. 19 can realize the same effect as the case where the selective image extraction process is executed using the plurality of regions in FIG. ..

次に図20を参照し、複数の領域に分割された撮像画像の更に別の一例について説明する。図20(A)〜図20(C)の撮像画像は何れも右旋回中に後方カメラ40Bが撮像した撮像画像(スルー画像)である。図20(A)〜図20(C)では、撮像画像は3つの領域C1〜C3に分割されている。領域C1の上縁及び領域C2の下縁は、例えば、ショベルの現在の旋回半径に対応する。それらはショベルの最大旋回半径に対応するものであってもよい。また、図20(A)は右旋回速度が小さい場合の領域C1〜C3の配置を示し、図20(B)は右旋回速度が中程度の場合の領域C1〜C3の配置を示し、図20(C)は右旋回速度が大きい場合の領域C1〜C3の配置を示す。図20(A)〜図20(C)のそれぞれにおける湾曲矢印は旋回方向を示し、矢印が太いほど旋回速度が大きいことを表す。なお、図20の例では、コントローラ30は、上部旋回体3の後端部が映り込んだ領域(領域C1及び領域C3のそれぞれの下の領域)と、地面より所定高さだけ高い遠方の空間に対応する領域(領域C2及び領域C3のそれぞれの上の領域)とに対しては画像認識処理を適用しない。 Next, with reference to FIG. 20, another example of the captured image divided into a plurality of regions will be described. The captured images of FIGS. 20 (A) to 20 (C) are captured images (through images) captured by the rear camera 40B while turning to the right. In FIGS. 20 (A) to 20 (C), the captured image is divided into three regions C1 to C3. The upper edge of area C1 and the lower edge of area C2 correspond to, for example, the current turning radius of the excavator. They may correspond to the maximum turning radius of the excavator. Further, FIG. 20A shows the arrangement of regions C1 to C3 when the right turning speed is low, and FIG. 20B shows the arrangement of regions C1 to C3 when the right turning speed is medium. FIG. 20C shows the arrangement of regions C1 to C3 when the right turning speed is high. The curved arrows in each of FIGS. 20 (A) to 20 (C) indicate the turning direction, and the thicker the arrow, the higher the turning speed. In the example of FIG. 20, the controller 30 has a region in which the rear end portion of the upper swing body 3 is reflected (a region below each of the regions C1 and C3) and a distant space higher than the ground by a predetermined height. The image recognition process is not applied to the region corresponding to (the region above each of the region C2 and the region C3).

図20の例は、旋回速度の大きさに応じて領域C1〜C3のそれぞれの大きさを動的に変化させる点で、旋回速度によっては領域A1〜A6のそれぞれの大きさを変化させない図18の例と相違する。 In the example of FIG. 20, the sizes of the regions C1 to C3 are dynamically changed according to the magnitude of the turning speed, and the sizes of the regions A1 to A6 are not changed depending on the turning speed. It is different from the example of.

具体的には、コントローラ30は、車両状態検出装置44の出力に基づいて右旋回が行われていると判定した場合、領域C1〜C3を含む複数の領域に撮像画像を分割する。そして、旋回速度に応じて領域C1〜C3のそれぞれの大きさを変更する。図20の例では、右旋回速度が大きくなるにしたがって領域C1及び領域C2のそれぞれの大きさを撮像画像内で左方向に拡大する一方で領域C3の大きさをその拡大分だけ縮小する。 Specifically, when the controller 30 determines that the right turn is being performed based on the output of the vehicle state detection device 44, the controller 30 divides the captured image into a plurality of regions including the regions C1 to C3. Then, the sizes of the regions C1 to C3 are changed according to the turning speed. In the example of FIG. 20, as the right turning speed increases, the sizes of the regions C1 and C2 are enlarged to the left in the captured image, while the size of the region C3 is reduced by the enlargement.

この構成により、コントローラ30は、ショベルの右旋回に伴い撮像画像の右端から現れて撮像画像内を左方向に移動する人候補画像を識別処理対象画像として早期に抽出することができる。 With this configuration, the controller 30 can quickly extract a person candidate image that appears from the right end of the captured image and moves to the left in the captured image as the excavator turns to the right as an identification processing target image.

また、右旋回速度が大きくなるほど撮像画像内における人候補画像の右から左への移動の速度も大きくなるが、コントローラ30は、右旋回速度が大きくなるにしたがって領域C1を左方向に拡大する。そのため、所定時間毎に取得される撮像画像の領域C1内にその人候補画像を確実に捉えることができる。その結果、右旋回速度が大きい場合であっても撮像画像内を左方向に移動する人候補画像を識別処理対象画像として早期に抽出することができる。 Further, as the right turning speed increases, the speed of movement of the person candidate image in the captured image from right to left also increases, but the controller 30 expands the region C1 to the left as the right turning speed increases. To do. Therefore, the person candidate image can be reliably captured in the region C1 of the captured image acquired at predetermined time intervals. As a result, even when the right turning speed is high, the person candidate image moving to the left in the captured image can be extracted at an early stage as the identification processing target image.

左旋回の場合には、コントローラ30は、右旋回の場合に対して左右を反転させた領域C1〜C3の配置を採用し、左旋回速度が大きくなるにしたがって領域C1及び領域C2のそれぞれの大きさを撮像画像内で右方向に拡大する一方で領域C3の大きさをその拡大分だけ縮小する。 In the case of turning left, the controller 30 adopts the arrangement of the regions C1 to C3 that are reversed left and right with respect to the case of turning right, and as the left turning speed increases, each of the regions C1 and C2 While the size is enlarged to the right in the captured image, the size of the region C3 is reduced by the enlargement.

このように、コントローラ30は、図18及び図19に示すような静的に設定された複数の領域を用いる代わりに、複数の領域を動的に設定してもよい。その場合、複数の領域は、例えば、旋回速度、旋回方向、走行速度、走行方向等のショベルの車両状態に応じて動的に設定されてもよい。 As described above, the controller 30 may dynamically set a plurality of regions instead of using the plurality of statically set regions as shown in FIGS. 18 and 19. In that case, the plurality of regions may be dynamically set according to the vehicle state of the excavator such as the turning speed, the turning direction, the traveling speed, and the traveling direction.

以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなしに上述した実施例に種々の変形及び置換を加えることができる。 Although the preferred examples of the present invention have been described in detail above, the present invention is not limited to the above-mentioned examples, and various modifications and substitutions are made to the above-mentioned examples without departing from the scope of the present invention. Can be added.

例えば、上述の実施例では、ショベルの上部旋回体3の上に取り付けられる撮像装置40の撮像画像を用いて人を検知する場合を想定するが、本発明はこの構成に限定されるものではない。移動式クレーン、固定式クレーン、リフマグ機、フォークリフト等の他の作業機械の本体部に取り付けられる撮像装置の撮像画像を用いる構成にも適用され得る。 For example, in the above-described embodiment, it is assumed that a person is detected by using an image captured by an image pickup device 40 mounted on the upper swing body 3 of the shovel, but the present invention is not limited to this configuration. .. It can also be applied to a configuration using an image taken by an image pickup device attached to the main body of another work machine such as a mobile crane, a fixed crane, a riff mag machine, and a forklift.

また、上述の実施例では、3つのカメラを用いてショベルの死角領域を撮像するが、1つ、2つ、又は4つ以上のカメラを用いてショベルの死角領域を撮像してもよい。 Further, in the above-described embodiment, three cameras are used to image the blind spot area of the excavator, but one, two, or four or more cameras may be used to image the blind spot area of the excavator.

また、上述の実施例では、複数の撮像画像のそれぞれに対して個別に人検知処理が適用されるが、複数の撮像画像から生成される1つの合成画像に対して人検知処理が適用されてもよい。 Further, in the above-described embodiment, the human detection process is individually applied to each of the plurality of captured images, but the human detection process is applied to one composite image generated from the plurality of captured images. May be good.

1・・・下部走行体 2・・・旋回機構 3・・・上部旋回体 4・・・ブーム 5・・・アーム 6・・・バケット 7・・・ブームシリンダ 8・・・アームシリンダ 9・・・バケットシリンダ 10・・・キャビン 30・・・コントローラ 31・・・抽出部 32・・・識別部 33・・・追跡部 34・・・人検知部 35・・・制御部 40・・・撮像装置 40B・・・後方カメラ 40L・・・左側方カメラ 40R・・・右側方カメラ 42・・・入力装置 44・・・車両状態検出装置 50・・・出力装置 51・・・機械制御装置 100・・・周辺監視システム AP、AP1〜AP6・・・頭部画像位置 BX・・・ボックス HD・・・頭部 HP・・・仮想頭部位置 HRg・・・ヘルメット画像 M1、M2・・・マスク領域 Pr、Pr1、Pr2、Pr10〜Pr12・・・参照点 R1・・・はみ出し領域 R2・・・車体映り込み領域 RP・・・代表位置 TR、TR1、TR2、TR10〜TR12・・・仮想平面領域 TRg、TRg3、TRg4、TRg5・・・識別処理対象画像領域 TRgt、TRgt3、TRgt4、TRgt5・・・正規化画像 1 ... Lower traveling body 2 ... Swivel mechanism 3 ... Upper swivel body 4 ... Boom 5 ... Arm 6 ... Bucket 7 ... Boom cylinder 8 ... Arm cylinder 9 ...・ Bucket cylinder 10 ・ ・ ・ Cabin 30 ・ ・ ・ Controller 31 ・ ・ ・ Extraction unit 32 ・ ・ ・ Identification unit 33 ・ ・ ・ Tracking unit 34 ・ ・ ・ Human detection unit 35 ・ ・ ・ Control unit 40 ・ ・ ・ Imaging device 40B ・ ・ ・ Rear camera 40L ・ ・ ・ Left side camera 40R ・ ・ ・ Right side camera 42 ・ ・ ・ Input device 44 ・ ・ ・ Vehicle condition detection device 50 ・ ・ ・ Output device 51 ・ ・ ・ Machine control device 100 ・ ・ ・・ Peripheral monitoring system AP, AP1 to AP6 ・ ・ ・ Head image position BX ・ ・ ・ Box HD ・ ・ ・ Head HP ・ ・ ・ Virtual head position HRg ・ ・ ・ Helmet image M1, M2 ・ ・ ・ Mask area Pr , Pr1, Pr2, Pr10-Pr12 ... Reference point R1 ... Overhang area R2 ... Vehicle body reflection area RP ... Representative position TR, TR1, TR2, TR10-TR12 ... Virtual plane area TRg, TRg3, TRg4, TRg5 ... Identification processing target image area TRgt, TRgt3, TRgt4, TRgt5 ... Normalized image

Claims (7)

作業機械に取り付けられる撮像装置の撮像画像を用いて前記作業機械の周辺に存在する人を検知する作業機械用周辺監視システムであって、
識別処理対象画像を抽出する抽出部と、
前記抽出部が抽出した前記識別処理対象画像に含まれる画像が人の画像であるかを画像認識処理によって識別する識別部と、を有し、
前記撮像画像は、複数の領域に分割され、
前記抽出部は、前記複数の領域から所定の順番で領域を選択し、選択した領域における複数の画像部分のうち、人の特徴的な部分を表す特徴画像を含む画像部分を前記識別処理対象画像として抽出し、
前記所定の順番は、前記作業機械の車両状態に応じて動的に設定される
作業機械用周辺監視システム。
A peripheral monitoring system for a work machine that detects a person existing in the vicinity of the work machine by using an image captured by an image pickup device attached to the work machine.
An extraction unit that extracts the image to be identified and
It has an identification unit that identifies whether the image included in the identification processing target image extracted by the extraction unit is a human image by image recognition processing.
The captured image is divided into a plurality of regions.
The extraction unit selects regions from the plurality of regions in a predetermined order, and among the plurality of image portions in the selected region, an image portion including a feature image representing a characteristic portion of a person is identified as an image to be identified. Extracted as
The predetermined order is dynamically set according to the vehicle state of the work machine .
Peripheral monitoring system for work machines.
前記複数の領域は静的に設定され、或いは、前記作業機械の車両状態に応じて動的に設定される、
請求項1に記載の作業機械用周辺監視システム。
The plurality of areas are statically set or dynamically set according to the vehicle state of the work machine.
The peripheral monitoring system for work machines according to claim 1.
前記複数の領域は、旋回方向、旋回速度、走行方向、及び走行速度の少なくとも一つに応じて動的に設定される、
請求項2に記載の作業機械用周辺監視システム。
The plurality of regions are dynamically set according to at least one of a turning direction, a turning speed, a traveling direction, and a traveling speed.
The peripheral monitoring system for work machines according to claim 2.
前記所定の順番は、旋回方向、旋回速度、走行方向、及び走行速度の少なくとも一つに応じて動的に設定される、
請求項に記載の作業機械用周辺監視システム。
The predetermined order is dynamically set according to at least one of a turning direction, a turning speed, a traveling direction, and a traveling speed.
The peripheral monitoring system for work machines according to claim 1 .
前記作業機械の車両状態は、操作装置の操作内容、前記作業機械の動作状態、又は、前記撮像画像に基づいて検出される、
請求項2乃至の何れか一項に記載の作業機械用周辺監視システム。
The vehicle state of the work machine is detected based on the operation content of the operating device, the operating state of the work machine, or the captured image.
The peripheral monitoring system for work machines according to any one of claims 2 to 4 .
前記複数の領域は、第1領域及び第2領域を含み、
前記識別部は、前記抽出部が前記第1領域から前記識別処理対象画像を抽出した後で前記第2領域から前記識別処理対象画像を抽出する前に、前記抽出部が前記第1領域から抽出した前記識別処理対象画像に含まれる画像が人の画像であるかを画像認識処理によって識別する処理を開始する、
請求項1乃至の何れか一項に記載の作業機械用周辺監視システム。
The plurality of regions include a first region and a second region.
The identification unit extracts the identification processing target image from the first region after the extraction unit extracts the identification processing target image from the first region and before the identification processing target image is extracted from the second region. The process of identifying whether the image included in the identification processing target image is a human image is started by the image recognition processing.
The peripheral monitoring system for a work machine according to any one of claims 1 to 5 .
前記撮像画像は、上下に分割され、或いは、左右に分割され、或いは、上下左右に分割される、
請求項1乃至の何れか一項に記載の作業機械用周辺監視システム。
The captured image is divided into upper and lower parts, left and right, or upper, lower, left and right.
The peripheral monitoring system for work machines according to any one of claims 1 to 6 .
JP2016034779A 2016-02-25 2016-02-25 Peripheral monitoring system for work machines Active JP6755672B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016034779A JP6755672B2 (en) 2016-02-25 2016-02-25 Peripheral monitoring system for work machines

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016034779A JP6755672B2 (en) 2016-02-25 2016-02-25 Peripheral monitoring system for work machines

Publications (2)

Publication Number Publication Date
JP2017151815A JP2017151815A (en) 2017-08-31
JP6755672B2 true JP6755672B2 (en) 2020-09-16

Family

ID=59739098

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016034779A Active JP6755672B2 (en) 2016-02-25 2016-02-25 Peripheral monitoring system for work machines

Country Status (1)

Country Link
JP (1) JP6755672B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102439750B1 (en) * 2018-02-13 2022-09-01 현대건설기계 주식회사 Construction equipment including safety system
JP2020160914A (en) 2019-03-27 2020-10-01 株式会社豊田自動織機 Object detection device
WO2021010467A1 (en) 2019-07-18 2021-01-21 株式会社小松製作所 Display system for work vehicle and display method for work vehicle
JP7298426B2 (en) 2019-10-04 2023-06-27 株式会社豊田自動織機 object detector
JP7465664B2 (en) * 2020-01-31 2024-04-11 株式会社小松製作所 Work machine monitoring device and work machine monitoring method
JP7322791B2 (en) * 2020-03-31 2023-08-08 コベルコ建機株式会社 Surrounding detection device for working machine

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09249083A (en) * 1996-03-15 1997-09-22 Toshiba Corp Moving object identifying device and method thereof
JP2005284797A (en) * 2004-03-30 2005-10-13 Honda Motor Co Ltd Drive safety device
JP4530827B2 (en) * 2004-12-08 2010-08-25 ダイハツ工業株式会社 Image processing method and image processing apparatus
JP2008234169A (en) * 2007-03-19 2008-10-02 Mitsubishi Electric Corp Object detector, and object detecting program
JP6267972B2 (en) * 2014-01-23 2018-01-24 日立建機株式会社 Work machine ambient monitoring device
EP3154025B1 (en) * 2014-06-03 2021-10-13 Sumitomo Heavy Industries, Ltd. Human detection system for construction machine

Also Published As

Publication number Publication date
JP2017151815A (en) 2017-08-31

Similar Documents

Publication Publication Date Title
JP6755672B2 (en) Peripheral monitoring system for work machines
JP6997066B2 (en) Human detection system
JP6474396B2 (en) Human detection system and excavator
WO2017094627A1 (en) Periphery monitoring system for work machine
US11697920B2 (en) Surroundings monitoring system for work machine
JP6419677B2 (en) Perimeter monitoring system for work machines
JP2017158033A (en) Periphery monitoring system for work machine
JP2017102604A (en) Periphery monitoring system for work machine
JP7084521B2 (en) Excavator
JP6662622B2 (en) Perimeter monitoring system for work machine and construction machine equipped with perimeter monitoring system for work machine
WO2023025262A1 (en) Excavator operation mode switching control method and apparatus and excavator
JP7077356B2 (en) Peripheral monitoring system for work machines
JP7426611B2 (en) Calibration method and calibration device
JP2014142832A (en) Image processing apparatus, control method of image processing apparatus, and program
WO2019142523A1 (en) Tip attachment discrimination device
JP6515021B2 (en) Peripheral monitoring system for work machine
JP6515020B2 (en) Peripheral monitoring system for work machine
CN114219801A (en) Intelligent stone identification method and device for unmanned crushing of excavator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200114

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200813

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200826

R150 Certificate of patent or registration of utility model

Ref document number: 6755672

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150