JP2017102606A - 作業機械用周辺監視システム - Google Patents

作業機械用周辺監視システム Download PDF

Info

Publication number
JP2017102606A
JP2017102606A JP2015233979A JP2015233979A JP2017102606A JP 2017102606 A JP2017102606 A JP 2017102606A JP 2015233979 A JP2015233979 A JP 2015233979A JP 2015233979 A JP2015233979 A JP 2015233979A JP 2017102606 A JP2017102606 A JP 2017102606A
Authority
JP
Japan
Prior art keywords
image
identification
unit
human
processing target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015233979A
Other languages
English (en)
Other versions
JP6515021B2 (ja
Inventor
芳永 清田
Yoshinaga Kiyota
芳永 清田
俊介 大槻
Shunsuke Otsuki
俊介 大槻
晋 相澤
Susumu Aizawa
晋 相澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Heavy Industries Ltd
Original Assignee
Sumitomo Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Heavy Industries Ltd filed Critical Sumitomo Heavy Industries Ltd
Priority to JP2015233979A priority Critical patent/JP6515021B2/ja
Priority to CN201680053174.1A priority patent/CN108026714A/zh
Priority to EP16870563.0A priority patent/EP3385457A4/en
Priority to PCT/JP2016/085043 priority patent/WO2017094626A1/ja
Publication of JP2017102606A publication Critical patent/JP2017102606A/ja
Priority to US15/976,146 priority patent/US11697920B2/en
Application granted granted Critical
Publication of JP6515021B2 publication Critical patent/JP6515021B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】より簡易なシステム構成でショベル周辺の人を検知できる周辺監視システムを提供すること。【解決手段】ショベルに取り付けられた撮像装置40の撮像画像を用いてショベル周辺に存在する人を検知する作業機械用周辺監視システム100は、撮像画像の一部を識別処理対象画像として抽出する抽出部31と、抽出部31が抽出した識別処理対象画像に含まれる画像が人の画像であるかを画像認識処理によって識別する複数の識別器で構成される識別部32と、調整パラメータを変更して複数の識別器の特性を調整する調整部32fと、を有する。調整パラメータは、複数の識別器の接続方法に関する情報、又は、複数の識別器のそれぞれの特性に関する情報を含む。【選択図】図12

Description

本発明は、作業機械の周辺を監視する作業機械用周辺監視システムに関する。
イメージ・センサと熱を感知するサーモパイル・アレイを持ち、撮像範囲と熱検出範囲を重複させ、サーモパイル・アレイの出力が示す人体らしき範囲のみを顔抽出範囲と限定して画像識別処理の際の不要な演算処理量を減らす人体検出装置が知られている(特許文献1参照。)。
特開2006−059015号公報
しかしながら、上述の装置は、イメージ・センサとサーモパイル・アレイを併設し、且つ、撮像範囲と熱検出範囲とを正確に重複させる必要があるため、システム構成が複雑になってしまう。
上述に鑑み、より簡易なシステム構成で作業機械の周辺の人を検知できる作業機械用周辺監視システムの提供が望まれる。
本発明の実施例に係る作業機械用周辺監視システムは、作業機械に取り付けられる撮像装置の撮像画像を用いて前記作業機械の周辺に存在する人を検知する作業機械用周辺監視システムであって、前記撮像画像の一部を識別処理対象画像として抽出する抽出部と、
前記抽出部が抽出した識別処理対象画像に含まれる画像が人の画像であるかを画像認識処理によって識別する複数の識別器で構成される識別部と、調整パラメータを変更して前記複数の識別器の特性を調整する調整部と、を有し、前記調整パラメータは、前記複数の識別器の接続方法に関する情報、又は、前記複数の識別器のそれぞれの特性に関する情報を含む。
上述の手段により、より簡易なシステム構成で作業機械の周辺の人を検知できる作業機械用周辺監視システムが提供される。
本発明の実施例に係る周辺監視システムが搭載されるショベルの側面図である。 周辺監視システムの構成例を示す機能ブロック図である。 後方カメラの撮像画像の例である。 撮像画像から識別処理対象画像を切り出す際に用いられる幾何学的関係の一例を示す概略図である。 ショベル後方の実空間の上面視である。 撮像画像から正規化画像を生成する処理の流れを示す図である。 撮像画像と識別処理対象画像領域と正規化画像との関係を示す図である。 識別処理対象画像領域と識別処理不適領域との関係を示す図である。 正規化画像の例を示す図である。 撮像画像から識別処理対象画像を切り出す際に用いられる幾何学的関係の別の一例を示す概略図である。 撮像画像における特徴画像の一例を示す図である。 識別部の構成例を示す機能ブロック図である。 輝度フィルタ部による識別処理を説明する図である。 識別部の人識別能力を表す概念図である。 正規化画像と弱識別器との関係を表す概念図である。 識別処理の流れを示すフローチャートである。 識別処理の流れを示すフローチャートである。
図1は、本発明の実施例に係る周辺監視システム100が搭載される建設機械としてのショベルの側面図である。ショベルの下部走行体1には、旋回機構2を介して上部旋回体3が搭載される。上部旋回体3には、ブーム4が取り付けられる。ブーム4の先端にはアーム5が取り付けられ、アーム5の先端にはバケット6が取り付けられる。ブーム4、アーム5、及びバケット6は掘削アタッチメントを構成し、ブームシリンダ7、アームシリンダ8、及びバケットシリンダ9によりそれぞれ油圧駆動される。また、上部旋回体3には、キャビン10が設けられ、且つエンジン等の動力源が搭載される。また、上部旋回体3の上部には撮像装置40が取り付けられる。具体的には、上部旋回体3の後端上部、左端上部、右端上部に後方カメラ40B、左側方カメラ40L、右側方カメラ40Rが取り付けられる。また、キャビン10内にはコントローラ30及び出力装置50が設置される。
図2は、周辺監視システム100の構成例を示す機能ブロック図である。周辺監視システム100は、主に、コントローラ30、撮像装置40、及び出力装置50を含む。
コントローラ30は、ショベルの駆動制御を行う制御装置である。本実施例では、コントローラ30は、CPU及び内部メモリを含む演算処理装置で構成され、内部メモリに格納された駆動制御用のプログラムをCPUに実行させて各種機能を実現する。
また、コントローラ30は、各種装置の出力に基づいてショベルの周辺に人が存在するかを判定し、その判定結果に応じて各種装置を制御する。具体的には、コントローラ30は、撮像装置40及び入力装置41の出力を受け、抽出部31、識別部32、追跡部33、及び制御部35のそれぞれに対応するソフトウェアプログラムを実行する。そして、その実行結果に応じて機械制御装置51に制御指令を出力してショベルの駆動制御を実行し、或いは、出力装置50から各種情報を出力させる。なお、コントローラ30は、画像処理専用の制御装置であってもよい。
撮像装置40は、ショベルの周囲の画像を撮像する装置であり、撮像した画像をコントローラ30に対して出力する。本実施例では、撮像装置40は、CCD等の撮像素子を採用するワイドカメラであり、上部旋回体3の上部において光軸が斜め下方を向くように取り付けられる。
入力装置41は操作者の入力を受ける装置である。本実施例では、入力装置41は、操作装置(操作レバー、操作ペダル等)、ゲートロックレバー、操作装置の先端に設置されたボタン、車載ディスプレイに付属のボタン、タッチパネル等を含む。
出力装置50は、各種情報を出力する装置であり、例えば、各種画像情報を表示する車載ディスプレイ、各種音声情報を音声出力する車載スピーカ、警報ブザー、警報ランプ等を含む。本実施例では、出力装置50は、コントローラ30からの制御指令に応じて各種情報を出力する。
機械制御装置51は、ショベルの動きを制御する装置であり、例えば、油圧システムにおける作動油の流れを制御する制御弁、ゲートロック弁、エンジン制御装置等を含む。
抽出部31は、撮像装置40が撮像した撮像画像から識別処理対象画像を抽出する機能要素である。具体的には、抽出部31は、局所的な輝度勾配又はエッジに基づく簡易な特徴、Hough変換等による幾何学的特徴、輝度に基づいて分割された領域の面積又はアスペクト比に関する特徴等を抽出する比較的演算量の少ない画像処理(以下、「前段画像認識処理」とする。)によって識別処理対象画像を抽出する。識別処理対象画像は、後続の画像処理の対象となる画像部分(撮像画像の一部)であり、人候補画像を含む。人候補画像は、人画像である可能性が高いとされる画像部分(撮像画像の一部)である。
識別部32は、抽出部31が抽出した識別処理対象画像に含まれる人候補画像が人画像であるかを識別する機能要素である。具体的には、識別部32は、HOG(Histograms of Oriented Gradients)特徴量に代表される画像特徴量記述と機械学習により生成した識別器とを用いた画像認識処理等の比較的演算量の多い画像処理(以下、「後段画像認識処理」とする。)によって人候補画像が人画像であるかを識別する。識別部32が人候補画像を人画像として識別する割合は、抽出部31による識別処理対象画像の抽出が高精度であるほど高くなる。なお、識別部32は、夜間、悪天候時等の撮像に適さない環境下で所望の品質の撮像画像を得られない場合等においては、人候補画像の全てが人画像であると識別し、抽出部31が抽出した識別処理対象画像における人候補画像の全てを人であると識別してもよい。人の検知漏れを防止するためである。
次に、図3を参照し、後方カメラ40Bが撮像したショベル後方の撮像画像における人画像の見え方について説明する。なお、図3の2つの撮像画像は、後方カメラ40Bの撮像画像の例である。また、図3の点線円は人画像の存在を表し、実際の撮像画像には表示されない。
後方カメラ40Bは、ワイドカメラであり、且つ、人を斜め上から見下ろす高さに取り付けられる。そのため、撮像画像における人画像の見え方は、後方カメラ40Bから見た人の存在方向によって大きく異なる。例えば、撮像画像中の人画像は、撮像画像の左右の端部に近いほど傾いて表示される。これは、ワイドカメラの広角レンズに起因する像倒れによる。また、後方カメラ40Bに近いほど頭部が大きく表示される。また、脚部がショベルの車体の死角に入って見えなくなってしまう。これらは、後方カメラ40Bの設置位置に起因する。そのため、撮像画像に何らの加工を施すことなく画像処理によってその撮像画像に含まれる人画像を識別するのは困難である。
そこで、本発明の実施例に係る周辺監視システム100は、識別処理対象画像を正規化することで、識別処理対象画像に含まれる人画像の識別を促進する。なお、「正規化」は、識別処理対象画像を所定サイズ及び所定形状の画像に変換することを意味する。本実施例では、撮像画像において様々な形状を取り得る識別処理対象画像は射影変換によって所定サイズの長方形画像に変換される。なお、射影変換としては例えば8変数の射影変換行列が用いられる。
ここで、図4〜図6を参照し、周辺監視システム100が識別処理対象画像を正規化する処理(以下、「正規化処理」とする。)の一例について説明する。なお、図4は、抽出部31が撮像画像から識別処理対象画像を切り出す際に用いる幾何学的関係の一例を示す概略図である。
図4のボックスBXは、実空間における仮想立体物であり、本実施例では、8つの頂点A〜Hで定められる仮想直方体である。また、点Prは、識別処理対象画像を参照するために予め設定される参照点である。本実施例では、参照点Prは、人の想定立ち位置として予め設定される点であり、4つの頂点A〜Dで定められる四角形ABCDの中心に位置する。また、ボックスBXのサイズは、人の向き、歩幅、身長等に基づいて設定される。本実施例では、四角形ABCD及び四角形EFGHは正方形であり、一辺の長さは例えば800mmである。また、直方体の高さは例えば1800mmである。すなわち、ボックスBXは、幅800mm×奥行800mm×高さ1800mmの直方体である。
4つの頂点A、B、G、Hで定められる四角形ABGHは、撮像画像における識別処理対象画像の領域に対応する仮想平面領域TRを形成する。また、仮想平面領域TRとしての四角形ABGHは、水平面である仮想地面に対して傾斜する。
なお、本実施例では、参照点Prと仮想平面領域TRとの関係を定めるために仮想直方体としてのボックスBXが採用される。しかしながら、撮像装置40の方向を向き且つ仮想地面に対して傾斜する仮想平面領域TRを任意の参照点Prに関連付けて定めることができるのであれば、他の仮想立体物を用いた関係等の他の幾何学的関係が採用されてもよく、関数、変換テーブル等の他の数学的関係が採用されてもよい。
図5は、ショベル後方の実空間の上面視であり、参照点Pr1、Pr2を用いて仮想平面領域TR1、TR2が参照された場合における後方カメラ40Bと仮想平面領域TR1、TR2との位置関係を示す。なお、本実施例では、参照点Prは、仮想地面上の仮想グリッドの格子点のそれぞれに配置可能である。但し、参照点Prは、仮想地面上に不規則に配置されてもよく、後方カメラ40Bの仮想地面への投影点から放射状に伸びる線分上に等間隔に配置されてもよい。例えば、各線分は1度刻みで放射状に伸び、参照点Prは各線分上に100mm間隔に配置される。
図4及び図5に示すように、四角形ABFE(図4参照。)で定められるボックスBXの第1面は、参照点Pr1を用いて仮想平面領域TR1が参照される場合、後方カメラ40Bに正対するように配置される。すなわち、後方カメラ40Bと参照点Pr1とを結ぶ線分は、参照点Pr1に関連して配置されるボックスBXの第1面と上面視で直交する。同様に、ボックスBXの第1面は、参照点Pr2を用いて仮想平面領域TR2が参照される場合にも、後方カメラ40Bに正対するように配置される。すなわち、後方カメラ40Bと参照点Pr2とを結ぶ線分は、参照点Pr2に関連して配置されるボックスBXの第1面と上面視で直交する。この関係は、参照点Prが何れの格子点上に配置された場合であっても成立する。すなわち、ボックスBXは、その第1面が常に後方カメラ40Bに正対するように配置される。
図6は、撮像画像から正規化画像を生成する処理の流れを示す図である。具体的には、図6(A)は、後方カメラ40Bの撮像画像の一例であり、実空間における参照点Prに関連して配置されるボックスBXを映し出す。また、図6(B)は、撮像画像における識別処理対象画像の領域(以下、「識別処理対象画像領域TRg」とする。)を切り出した図であり、図6(A)の撮像画像に映し出された仮想平面領域TRに対応する。また、図6(C)は、識別処理対象画像領域TRgを有する識別処理対象画像を正規化した正規化画像TRgtを示す。
図6(A)に示すように、実空間上で参照点Pr1に関連して配置されるボックスBXは、実空間における仮想平面領域TRの位置を定め、そして、仮想平面領域TRに対応する撮像画像上の識別処理対象画像領域TRgを定める。
このように、実空間における参照点Prの位置が決まれば、実空間における仮想平面領域TRの位置が一意に決まり、撮像画像における識別処理対象画像領域TRgも一意に決まる。そして、抽出部31は、識別処理対象画像領域TRgを有する識別処理対象画像を正規化して所定サイズの正規化画像TRgtを生成できる。本実施例では、正規化画像TRgtのサイズは、例えば縦64ピクセル×横32ピクセルである。
図7は、撮像画像と識別処理対象画像領域と正規化画像との関係を示す図である。具体的には、図7(A1)は、撮像画像における識別処理対象画像領域TRg3を示し、図7(A2)は、識別処理対象画像領域TRg3を有する識別処理対象画像の正規化画像TRgt3を示す。また、図7(B1)は、撮像画像における識別処理対象画像領域TRg4を示し、図7(B2)は、識別処理対象画像領域TRg4を有する識別処理対象画像の正規化画像TRgt4を示す。同様に、図7(C1)は、撮像画像における識別処理対象画像領域TRg5を示し、図7(C2)は、識別処理対象画像領域TRg5を有する識別処理対象画像の正規化画像TRgt5を示す。
図7に示すように、撮像画像における識別処理対象画像領域TRg5は、撮像画像における識別処理対象画像領域TRg4より大きい。識別処理対象画像領域TRg5に対応する仮想平面領域と後方カメラ40Bとの間の距離が、識別処理対象画像領域TRg4に対応する仮想平面領域と後方カメラ40Bとの間の距離より小さいためである。同様に、撮像画像における識別処理対象画像領域TRg4は、撮像画像における識別処理対象画像領域TRg3より大きい。識別処理対象画像領域TRg4に対応する仮想平面領域と後方カメラ40Bとの間の距離が、識別処理対象画像領域TRg3に対応する仮想平面領域と後方カメラ40Bとの間の距離より小さいためである。すなわち、撮像画像における識別処理対象画像領域は、対応する仮想平面領域と後方カメラ40Bとの間の距離が大きいほど小さい。その一方で、正規化画像TRgt3、TRgt4、TRgt5は何れも同じサイズの長方形画像である。
このように、抽出部31は、撮像画像において様々な形状及びサイズを取り得る識別処理対象画像を所定サイズの長方形画像に正規化し、人画像を含む人候補画像を正規化できる。具体的には、抽出部31は、正規化画像の所定領域に人候補画像の頭部であると推定される画像部分(以下、「頭部画像部分」とする。)を配置する。また、正規化画像の別の所定領域に人候補画像の胴体部であると推定される画像部分(以下、「胴体部画像部分」とする。)を配置し、正規化画像のさらに別の所定領域に人候補画像の脚部であると推定される画像部分(以下、「脚部画像部分」とする。)を配置する。また、抽出部31は、正規化画像の形状に対する人候補画像の傾斜(像倒れ)を抑えた状態で正規化画像を取得できる。
次に、図8を参照し、識別処理対象画像領域が、人画像の識別に悪影響を与える識別に適さない画像領域(以下、「識別処理不適領域」とする。)を含む場合の正規化処理について説明する。識別処理不適領域は、人画像が存在し得ない既知の領域であり、例えば、ショベルの車体が映り込んだ領域(以下、「車体映り込み領域」とする。)、撮像画像からはみ出た領域(以下、「はみ出し領域」とする。)等を含む。なお、図8は、識別処理対象画像領域と識別処理不適領域との関係を示す図であり、図7(C1)及び図7(C2)に対応する。また、図8左図の右下がりの斜線ハッチング領域は、はみ出し領域R1に対応し、左下がりの斜線ハッチング領域は、車体映り込み領域R2に対応する。
本実施例では、抽出部31は、識別処理対象画像領域TRg5がはみ出し領域R1及び車体映り込み領域R2の一部を含む場合、それらの識別処理不適領域をマスク処理した後で、識別処理対象画像領域TRg5を有する識別処理対象画像の正規化画像TRgt5を生成する。なお、抽出部31は、正規化画像TRgt5を生成した後で、正規化画像TRgt5における識別処理不適領域に対応する部分をマスク処理してもよい。
図8右図は、正規化画像TRgt5を示す。また、図8右図において、右下がりの斜線ハッチング領域は、はみ出し領域R1に対応するマスク領域M1を表し、左下がりの斜線ハッチング領域は、車体映り込み領域R2の一部に対応するマスク領域M2を表す。
このようにして、抽出部31は、識別処理不適領域の画像をマスク処理することで、識別処理不適領域の画像が識別部32による識別処理に影響を及ぼすのを防止する。このマスク処理により、識別部32は、識別処理不適領域の画像の影響を受けることなく、正規化画像におけるマスク領域以外の領域の画像を用いて人画像であるかを識別できる。なお、抽出部31は、マスク処理以外の他の任意の公知方法で、識別処理不適領域の画像が識別部32による識別処理に影響を及ぼさないようにしてもよい。
次に、図9を参照し、抽出部31が生成する正規化画像の特徴について説明する。なお、図9は、正規化画像の例を示す図である。また、図9に示す14枚の正規化画像は、図の左端に近い正規化画像ほど、後方カメラ40Bから近い位置に存在する人候補の画像を含み、図の右端に近い正規化画像ほど、後方カメラ40Bから遠い位置に存在する人候補の画像を含む。
図9に示すように、抽出部31は、実空間における仮想平面領域TRと後方カメラ40Bとの間の後方水平距離(図5に示すY軸方向の水平距離)に関係なく、何れの正規化画像内においてもほぼ同じ割合で頭部画像部分、胴体部画像部分、脚部画像部分等を配置できる。そのため、抽出部31は、識別部32が識別処理を実行する際の演算負荷を低減でき、且つ、その識別結果の信頼性を向上できる。なお、上述の後方水平距離は、実空間における仮想平面領域TRと後方カメラ40Bとの間の位置関係に関する情報の一例であり、抽出部31は、抽出した識別処理対象画像にその情報を付加する。また、上述の位置関係に関する情報は、仮想平面領域TRに対応する参照点Prと後方カメラ40Bとを結ぶ線分の後方カメラ40Bの光軸に対する上面視角度等を含む。
以上の構成により、周辺監視システム100は、撮像装置40の方向を向き且つ水平面である仮想地面に対して傾斜する仮想平面領域TRに対応する識別処理対象画像領域TRgから正規化画像TRgtを生成する。そのため、人の高さ方向及び奥行き方向の見え方を考慮した正規化を実現できる。その結果、人を斜め上から撮像するように建設機械に取り付けられる撮像装置40の撮像画像を用いた場合であっても建設機械の周囲に存在する人をより確実に検知できる。特に、人が撮像装置40に接近した場合であっても、撮像画像上の十分な大きさの領域を占める識別処理対象画像から正規化画像を生成できるため、その人を確実に検知できる。
また、周辺監視システム100は、実空間における仮想直方体であるボックスBXの4つの頂点A、B、G、Hで形成される矩形領域として仮想平面領域TRを定義する。そのため、実空間における参照点Prと仮想平面領域TRとを幾何学的に対応付けることができ、さらには、実空間における仮想平面領域TRと撮像画像における識別処理対象画像領域TRgとを幾何学的に対応付けることができる。
また、抽出部31は、識別処理対象画像領域TRgに含まれる識別処理不適領域の画像をマスク処理する。そのため、識別部32は、車体映り込み領域R2を含む識別処理不適領域の画像の影響を受けることなく、正規化画像におけるマスク領域以外の領域の画像を用いて人画像であるかを識別できる。
また、抽出部31は、参照点Pr毎に識別処理対象画像を抽出可能である。また、識別処理対象画像領域TRgのそれぞれは、対応する仮想平面領域TRを介して、人の想定立ち位置として予め設定される参照点Prの1つに関連付けられる。そのため、周辺監視システム100は、人が存在する可能性が高い参照点Prを任意の方法で抽出することで、人候補画像を含む可能性が高い識別処理対象画像を抽出できる。この場合、人候補画像を含む可能性が低い識別処理対象画像に対して、比較的演算量の多い画像処理による識別処理が施されてしまうのを防止でき、人検知処理の高速化を実現できる。
次に、図10及び図11を参照し、人候補画像を含む可能性が高い識別処理対象画像を抽出部31が抽出する処理の一例について説明する。なお、図10は、抽出部31が撮像画像から識別処理対象画像を切り出す際に用いる幾何学的関係の一例を示す概略図であり、図4に対応する。また、図11は、撮像画像における特徴画像の一例を示す図である。なお、特徴画像は、人の特徴的な部分を表す画像であり、望ましくは、実空間における地面からの高さが変化し難い部分を表す画像である。そのため、特徴画像は、例えば、ヘルメットの画像、肩の画像、頭の画像、人に取り付けられる反射板若しくはマーカの画像等を含む。
特に、ヘルメットは、その形状がおよそ球体であり、その投影像が撮像画像上に投影されたときに撮像方向によらず常に円形に近いという特徴を有する。また、ヘルメットは、表面が硬質で光沢又は半光沢を有し、その投影像が撮像画像上に投影されたときに局所的な高輝度領域とその領域を中心とする放射状の輝度勾配を生じさせ易いという特徴を有する。そのため、ヘルメットの画像は、特徴画像として特に相応しい。なお、その投影像が円形に近いという特徴、局所的な高輝度領域を中心とする放射状の輝度勾配を生じさせ易いという特徴等は、撮像画像からヘルメットの画像を見つけ出す画像処理のために利用されてもよい。また、撮像画像からヘルメットの画像を見つけ出す画像処理は、例えば、輝度平滑化処理、ガウス平滑化処理、輝度極大点探索処理、輝度極小点探索処理等を含む。
本実施例では、抽出部31は、前段画像認識処理によって、撮像画像におけるヘルメット画像(厳密にはヘルメットであると推定できる画像)を見つけ出す。ショベルの周囲で作業する人はヘルメットを着用していると考えられるためである。そして、抽出部31は、見つけ出したヘルメット画像の位置から最も関連性の高い参照点Prを導き出す。その上で、抽出部31は、その参照点Prに対応する識別処理対象画像を抽出する。
具体的には、抽出部31は、図10に示す幾何学的関係を利用し、撮像画像におけるヘルメット画像の位置から関連性の高い参照点Prを導き出す。なお、図10の幾何学的関係は、実空間における仮想頭部位置HPを定める点で図4の幾何学的関係と相違するが、その他の点で共通する。
仮想頭部位置HPは、参照点Pr上に存在すると想定される人の頭部位置を表し、参照点Prの真上に配置される。本実施例では、参照点Pr上の高さ1700mmのところに配置される。そのため、実空間における仮想頭部位置HPが決まれば、実空間における参照点Prの位置が一意に決まり、実空間における仮想平面領域TRの位置も一意に決まる。また、撮像画像における識別処理対象画像領域TRgも一意に決まる。そして、抽出部31は、識別処理対象画像領域TRgを有する識別処理対象画像を正規化して所定サイズの正規化画像TRgtを生成できる。
逆に、実空間における参照点Prの位置が決まれば、実空間における仮想頭部位置HPが一意に決まり、実空間における仮想頭部位置HPに対応する撮像画像上の頭部画像位置APも一意に決まる。そのため、頭部画像位置APは、予め設定されている参照点Prのそれぞれに対応付けて予め設定され得る。なお、頭部画像位置APは、参照点Prからリアルタイムに導き出されてもよい。
そこで、抽出部31は、前段画像認識処理により後方カメラ40Bの撮像画像内でヘルメット画像を探索する。図11上図は、抽出部31がヘルメット画像HRgを見つけ出した状態を示す。そして、抽出部31は、ヘルメット画像HRgを見つけ出した場合、その代表位置RPを決定する。なお、代表位置RPは、ヘルメット画像HRgの大きさ、形状等から導き出される位置である。本実施例では、代表位置RPは、ヘルメット画像HRgを含むヘルメット画像領域の中心画素の位置である。図11下図は、図11上図における白線で区切られた矩形画像領域であるヘルメット画像領域の拡大図であり、そのヘルメット画像領域の中心画素の位置が代表位置RPであることを示す。
その後、抽出部31は、例えば最近傍探索アルゴリズムを用いて代表位置RPの最も近傍にある頭部画像位置APを導き出す。図11下図は、代表位置RPの近くに6つの頭部画像位置AP1〜AP6が予め設定されており、そのうちの頭部画像位置AP5が代表位置RPの最も近傍にある頭部画像位置APであることを示す。
そして、抽出部31は、図10に示す幾何学的関係を利用し、導き出した最近傍の頭部画像位置APから、仮想頭部位置HP、参照点Pr、仮想平面領域TRを辿って、対応する識別処理対象画像領域TRgを抽出する。その後、抽出部31は、抽出した識別処理対象画像領域TRgを有する識別処理対象画像を正規化して正規化画像TRgtを生成する。
このようにして、抽出部31は、撮像画像における人の特徴画像の位置であるヘルメット画像HRgの代表位置RPと、予め設定された頭部画像位置APの1つ(頭部画像位置AP5)とを対応付けることで識別処理対象画像を抽出する。
なお、抽出部31は、図10に示す幾何学的関係を利用する代わりに、頭部画像位置APと参照点Pr、仮想平面領域TR、又は識別処理対象画像領域TRgとを直接的に対応付ける参照テーブルを利用し、頭部画像位置APに対応する識別処理対象画像を抽出してもよい。
また、抽出部31は、山登り法、Mean-shift法等の最近傍探索アルゴリズム以外の他の公知のアルゴリズムを用いて代表位置RPから参照点Prを導き出してもよい。例えば、山登り法を用いる場合、抽出部31は、代表位置RPの近傍にある複数の頭部画像位置APを導き出し、代表位置RPとそれら複数の頭部画像位置APのそれぞれに対応する参照点Prとを紐付ける。このとき、抽出部31は、代表位置RPと頭部画像位置APが近いほど重みが大きくなるように参照点Prに重みを付ける。そして、複数の参照点Prの重みの分布を山登りし、重みの極大点に最も近い重みを有する参照点Prから識別処理対象画像領域TRgを抽出する。
抽出部31は、最初にヘルメット画像HRgを見つけ出し、見つけ出したヘルメット画像HRgの代表位置RPから、頭部画像位置AP、仮想頭部位置HP、参照点(想定立ち位置)Pr、仮想平面領域TRを経て識別処理対象画像領域TRgを特定する。そして、特定した識別処理対象画像領域TRgを有する識別処理対象画像を抽出して正規化することで、所定サイズの正規化画像TRgtを生成できる。
或いは、抽出部31は、最初に頭部画像位置APの1つを取得し、取得した頭部画像位置APに対応するヘルメット画像領域でヘルメット画像HRgを見つけ出した場合に、そのときの頭部画像位置APから、仮想頭部位置HP、参照点(想定立ち位置)Pr、仮想平面領域TRを経て、識別処理対象画像領域TRgを特定する。そして、特定した識別処理対象画像領域TRgを有する識別処理対象画像を抽出して正規化することで、所定サイズの正規化画像TRgtを生成できる。
以上の構成により、周辺監視システム100の抽出部31は、撮像画像における特徴画像としてのヘルメット画像を見つけ出し、そのヘルメット画像の代表位置RPと所定画像位置としての頭部画像位置APの1つとを対応付けることで識別処理対象画像を抽出する。そのため、簡易なシステム構成で後段画像認識処理の対象となる画像部分を絞り込むことができる。
なお、抽出部31は、最初に撮像画像からヘルメット画像HRgを見つけ出し、そのヘルメット画像HRgの代表位置RPに対応する頭部画像位置APの1つを導き出し、その頭部画像位置APの1つに対応する識別処理対象画像を抽出してもよい。或いは、抽出部31は、最初に頭部画像位置APの1つを取得し、その頭部画像位置APの1つに対応する特徴画像の位置を含む所定領域であるヘルメット画像領域内にヘルメット画像が存在する場合に、その頭部画像位置APの1つに対応する識別処理対象画像を抽出してもよい。
また、抽出部31は、図10に示すような所定の幾何学的関係を利用し、撮像画像におけるヘルメット画像の代表位置RPから識別処理対象画像を抽出してもよい。この場合、所定の幾何学的関係は、撮像画像における識別処理対象画像領域TRgと、識別処理対象画像領域TRgに対応する実空間における仮想平面領域TRと、仮想平面領域TRに対応する実空間における参照点Pr(人の想定立ち位置)と、参照点Prに対応する仮想頭部位置HP(人の想定立ち位置に対応する人の特徴的な部分の実空間における位置である仮想特徴位置)と、仮想頭部位置HPに対応する撮像画像における頭部画像位置AP(仮想特徴位置に対応する撮像画像における所定画像位置)との幾何学的関係を表す。
或いは、抽出部31は、撮像画像における複数の所定画像部分のそれぞれを正規化して複数の正規化画像を生成し、それら正規化画像のうちヘルメット画像を含む正規化画像を識別処理対象画像として抽出してもよい。複数の所定画像部分は、例えば、撮像画像上に予め定められた複数の識別処理対象画像領域TRgである。識別処理対象画像領域TRg(図6参照。)は、実空間における仮想平面領域TRに対応し、仮想平面領域TRは実空間における参照点Prに対応する。そして、識別部32は、抽出部31が抽出した識別処理対象画像が人画像であるかを識別する。この場合、抽出部31は、1つの正規化画像を生成した段階でその正規化画像にヘルメット画像が含まれるか否かを判定する。但し、複数の正規化画像を生成した段階でそれら複数の正規化画像のそれぞれにヘルメット画像が含まれるか否かを纏めて判定してもよい。また、全ての正規化画像を生成した段階でそれら全ての正規化画像のそれぞれにヘルメット画像が含まれるか否かを纏めて判定してもよい。また、抽出部31は、所定画像部分の一部を正規化した段階でその部分的に正規化された画像にヘルメット画像が含まれるか否かを判定してもよい。
次に図12を参照し、識別部32の詳細について説明する。図12は識別部32の構成例を示す機能ブロック図である。
識別部32は、主に、輝度フィルタ部32a、画像特徴量算出部32b、汎用識別部32c、特殊識別部32d、パタンフィルタ部32e、及び調整部32fを含む。
輝度フィルタ部32aは、識別処理対象画像における画像特徴の偏りに基づいて人の画像であるか否かを識別する補助識別部の一例である。補助識別部は、画像特徴量算出部32bが算出する画像特徴量に基づく識別を補助する。但し、輝度フィルタ部32aは省略されてもよい。
本実施例では、輝度フィルタ部32aによる識別は、汎用識別部32cの識別結果が出る前に実行される。そのため、輝度フィルタ部32aで人の画像でないと識別された識別処理対象画像が汎用識別部32cによる識別処理の対象となるのを防止し、無駄な識別処理が行われるのを防止できる。具体的には、輝度フィルタ部32aは、抽出部31が抽出した識別処理対象画像の輝度の偏りが所定値以上の場合にその識別処理対象画像は人画像でないと識別する。汎用識別部32c及び特殊識別部32dによる画像特徴量に基づく識別での誤報を防止するためである。「誤報」は、誤った識別結果を出力することを意味し、例えば、人画像でないにもかかわらず人画像であると識別することを含む。一方で、その識別処理対象画像の輝度の偏りが所定値より小さい場合にはその識別処理対象画像は人画像であると暫定的に識別する。特に、HOG特徴量に基づく識別が行われる場合には輝度勾配ヒストグラムが正規化される。そのため、識別処理対象画像における路面画像の僅かな明暗差による輝度勾配パタンが人の存在に基づく輝度勾配パタンに似ているときには、その路面画像が人画像であると識別されてしまう場合がある。輝度フィルタ部32aは、そのような路面画像が人画像であると識別されてしまうのを防止できる。例えば、輝度の偏りは、夏の日差しによる強い陰影、路面上の白線、縁石等の原因によって大きくなる傾向を有する。輝度フィルタ部32aは、そのような原因を含む画像が人画像であると識別されてしまうのを防止できる。
図13は輝度フィルタ部32aによる識別処理を説明する図である。図13(A)は抽出部31によって抽出された識別処理対象画像としての正規化画像TRgtの一例である。図13(B)は図13(A)の識別処理対象画像に対して設定される7つの領域RG1〜RG7を示す。領域RG1は正規化画像TRgtの全体に相当する領域である。領域RG2及び領域RG3は正規化画像TRgtの右上の頂点と左下の頂点とを結ぶ対角線で区分けされた2つの領域である。領域RG4及び領域RG5は正規化画像TRgtの左上の頂点と右下の頂点とを結ぶ対角線で区分けされた2つの領域である。領域RG6は正規化画像TRgtの上半分の領域であり、領域RG7は正規化画像TRgtの下半分の領域である。
図13(C)は図13(B)の領域RG1の各画素の輝度のヒストグラムを示す。図13(D)は図13(C)のヒストグラムにおける隣接するビンの値を合計する調整を行った後の調整後ヒストグラムを示す。
図13(A)の識別処理対象画像は路面上の白線の画像を含む。図13(A)に示すように識別処理対象画像が局所的には比較的強い明暗差を有するが全体的には比較的弱い明暗差を有する場合、輝度フィルタ部32aはその識別処理対象画像が人画像でないと識別する。
具体的には、輝度フィルタ部32aは、図13(B)に示すように、識別処理対象画像に対して7つの領域RG1〜RG7を設定する。そして、7つの領域RG1〜RG7のそれぞれについて以下の処理を実行する。以下では、領域RG1に対する処理を一例として説明するが、領域RG2〜RG7に対しても同様の処理が適用される。
最初に輝度フィルタ部32aは領域RG1の有効画素割合を算出する。「有効画素割合」は、領域RG1内の全画素数に占める有効画素数の割合を意味する。「有効画素数」はマスク領域以外の領域にある画素の数(非マスク画素数)を意味する。
有効画素割合が所定値(例えば50%)以下の場合、輝度フィルタ部32aは識別処理対象画像が人画像であると識別する。有効画素数が少なく適切な識別ができないと推定されるためである。すなわち、輝度フィルタ部32aは、適切な識別ができない場合には、人画像が非人画像であると誤って識別してしまうのを防止するため暫定的に人画像であると識別し、後続の識別処理に最終的な識別を委ねるようにする。
有効画素割合が所定値より大きい場合、輝度フィルタ部32aは、領域RG1の各画素の輝度を16階調に分類して輝度のヒストグラムを生成する。
例えば、輝度フィルタ部32aは、図13(C)に示すように、領域RG1の各画素の256階調の輝度値をビットシフト演算によって16階調に変換して分類する。
そして、輝度フィルタ部32aは、図13(C)のヒストグラムにおける隣接する2つのビンの値を合計してそのヒストグラムを調整する。図13(D)はその調整後のヒストグラムを示す。
そして、輝度フィルタ部32aは、その調整後のヒストグラムの何れかのビンの値が所定値TH1以上の場合、その識別処理対象画像は人画像でないと識別する。一方で、その調整後のヒストグラムの各ビンの値が何れも所定値TH1未満の場合、その識別処理対象画像は人画像であると暫定的に識別する。路面画像等では全体的に弱い明暗差のため輝度が特定の範囲に集中する傾向があるのに対し、人画像では比較的強い明暗差のため輝度が広い範囲に分散する傾向があるためである。図13(D)の例では、輝度フィルタ部32aは、第4階調のビンの値が所定値TH1以上のため、その識別処理対象画像は人画像でないと識別する。また、本実施例では、輝度フィルタ部32aは、隣接する2つのビンの値の合計が所定値TH1以上となった時点で人画像でないと識別し、その他の隣接する2つのビンの合計処理を中止する。図13(D)の例では、輝度フィルタ部32aは、第5階調以降のビンの値の算出を中止する。
このようにして、輝度フィルタ部32aは、領域RG1〜RG7のそれぞれに基づいて識別処理対象画像が人画像であるか否かを個別に識別する。例えば、有効画素割合が十分に高く、且つ、輝度のヒストグラムに強い偏りがある場合に識別処理対象画像が人画像でないと識別する。
そして、輝度フィルタ部32aは、7つの識別結果に基づき、輝度フィルタ部32aによる最終的な識別結果を出力する。例えば、輝度フィルタ部32aは、7つの識別結果の全てが「人画像でない」の場合に識別処理対象画像が人画像でないと識別する。
また、輝度フィルタ部32aは、識別処理対象画像の輝度の偏りが大きいため識別処理対象画像が人画像でないと識別した場合には、出力装置50を通じてその旨を操作者に通知してもよい。
上述の例では、輝度フィルタ部32aは、実質的に、256階調の輝度を16階調に変換して分類した後でさらに8階調に変換して分類している。すなわち、2段階の変換を行っている。これは、256階調の輝度を直接的に8階調に変換する場合(1段階の変換の場合)に比べ、識別処理対象画像の輝度に関する画像特徴を正確に承継できるためである。但し、輝度フィルタ部32aは、256階調の輝度を直接的に8階調に変換して分類した上で所定値TH1を用いた識別を行ってもよい。また、3段階以上の変換を行ってもよく、最終的な階調が8階調以外であってもよい。
また、上述の例では、領域内の全画素数(欠落画素の数を除く。)の77%の画素数を所定値TH1として採用する。但し、他の画素数が所定値TH1として採用されてもよい。欠落画素の数は、例えば、マスク領域の画素数を意味する。
画像特徴量算出部32bは、識別処理対象画像の画像特徴量を算出する。本実施例では、画像特徴量算出部32bは、縦64ピクセル×横32ピクセルの識別処理対象画像を縦4ピクセル×横4ピクセルの128個のHOGブロックに分割し、HOGブロック毎に画像特徴量(HOG特徴量)としての輝度勾配ヒストグラムを算出する。
汎用識別部32cは、多数の教師画像を用いた機械学習によって生成される汎用識別器である。本実施例では、汎用識別部32cは、例えば、識別結果が真陽性(True Positive)であった教師画像の数の全教師画像数に対する比率である真陽性率が95%、且つ、識別結果が真陰性(True Negative)であった教師画像の数の全教師画像数に対する比率である真陰性率が95%となるように設定される。「真陽性」は、人画像が正しく人画像として識別されたことを意味し、「真陰性」は、非人画像が正しく非人画像と識別されたことを意味する。
特殊識別部32dは、前段の識別器の識別結果が偽陽性(False Positive)であった多数の教師画像を用いた機械学習によって生成される識別器である。「偽陽性」は、非人画像が誤って人画像として識別されたことを意味する。「偽陰性(False Negative)」は、人画像が誤って非人画像として識別されたことを意味する。本実施例では、特殊識別部32dは、汎用識別器の識別結果が偽陽性であった教師画像を用いた機械学習によって生成される第1特殊識別器〜第4特殊識別器を含む。汎用識別器の識別結果が偽陽性であった教師画像は、例えばk−means法等によって所定数(例えば特殊識別器の数と同じ数であり本実施例では4)のクラスタにクラスタリング(分類)される。そして、各クラスタに含まれる教師画像を用いた機械学習によって対応する特殊識別器が生成される。
汎用識別部32cと特殊識別部32dとでカスケード型識別器が構成される。具体的には、第4特殊識別器による識別は、第3特殊識別器による識別で人画像であると識別された識別処理対象画像のみに対して行われる。同様に、第3特殊識別器による識別は、第2特殊識別器による識別で人画像であると識別された識別処理対象画像のみに対して行われ、第2特殊識別器による識別は、第1特殊識別器による識別で人画像であると識別された識別処理対象画像のみに対して行われる。また、第1特殊識別器による識別は、汎用識別部32cによる識別で人画像であると識別された識別処理対象画像のみに対して行われる。但し、特殊識別部32dは、1つ、2つ、若しくは3つの特殊識別器で構成されてもよく、5つ以上の特殊識別器で構成されてもよい。
図14は識別部32の人識別能力を表す概念図である。具体的には、図14(A)〜図14(C)は、汎用識別部32cによって人画像であると識別される識別処理対象画像が属する範囲、汎用識別部32cによって非人画像であると識別される識別処理対象画像が属する範囲、特殊識別部32dによって人画像であると識別される識別処理対象画像が属する範囲、及び特殊識別部32dによって非人画像であると識別される識別処理対象画像が属する範囲の組み合わせの3つの例を示す。
図14(A)〜図14(C)のそれぞれにおいて、実線で囲まれた略矩形の範囲Dは非人画像が属する範囲を表す。範囲Dの外側は人画像が属する範囲を表す。また、点線円で囲まれた範囲Gは汎用識別部32cによって非人画像であると識別される識別処理対象画像が属する範囲を表す。範囲Gの外側は汎用識別部32cによって人画像であると識別される識別処理対象画像が属する範囲を表す。また、一点鎖線円で囲まれた範囲S1は第1特殊識別器によって非人画像であると識別される識別処理対象画像が属する範囲を表す。範囲S1の外側は第1特殊識別器によって人画像であると識別される識別処理対象画像が属する範囲を表す。同様に、一点鎖線円で囲まれた範囲S2、S3、S4は第2、第3、第4特殊識別器によって非人画像であると識別される識別処理対象画像が属する範囲を表す。範囲S2、S3、S4の外側は第2、第3、第4特殊識別器によって人画像であると識別される識別処理対象画像が属する範囲を表す。
以上の関係から、図14(A)〜図14(C)のそれぞれにおいて、黒色で塗りつぶされた領域RG1は、識別部32による識別結果が偽陽性となる識別処理対象画像が属する範囲を表す。すなわち、非人画像であるにもかかわらず、汎用識別部32c及び特殊識別部32dの何れによっても人画像であると識別されてしまう識別処理対象画像が属する範囲を表す。ドットハッチングで表される領域RG2は、識別部32による識別結果が偽陰性となる識別処理対象画像が属する範囲を表す。すなわち、人画像であるにもかかわらず、特殊識別部32dにより非人画像であると識別されてしまう識別処理対象画像が属する範囲を表す。したがって、領域RG1が大きいほど誤報が多くなり、領域RG2が大きいほど失報が多くなる。
なお、図14(A)〜図14(C)の3つの例では識別部32の人識別能力は略同等である。すなわち、それぞれの例における領域RG1の総面積及び領域RG2の総面積が略等しく、真陽性率、真陰性率、偽陽性率、及び偽陰性率も略等しい。
一方、図14(A)の範囲Gは図14(B)の範囲Gより小さく、図14(B)の範囲Gは図14(C)の範囲Gより小さい。また、図14(A)の範囲Gは範囲D内に完全に含まれている。これは、汎用識別部32cによる識別の真陰性率が100%であること(誤報がないこと)を表す。また、図14(C)の範囲Gは範囲Dから大きくはみ出ている。これは、汎用識別部32cによる識別の偽陰性率が比較的高いこと(失報が比較的多いこと)を表す。
図14(A)の範囲S1〜S4は図14(B)の範囲S1〜S4より大きく、図14(B)の範囲S1〜S4は図14(C)の範囲S1〜S4より大きい。また、図14(C)の範囲S1〜S4は範囲D内に完全に含まれている。これは、特殊識別部32dによる識別の真陰性率が100%であること(誤報がないこと)を表す。また、図14(A)の範囲S1〜S4は範囲Dから大きくはみ出ている。これは、特殊識別部32dによる識別の偽陰性率が比較的高いこと(失報が比較的多いこと)を表す。
したがって、図14(B)で表される特性を有する識別部32は、人識別能力を変化させずに、図14(A)で表される特性を有する識別部32に比べ、汎用識別部32cによる識別での誤報を減らすことができる。また、図14(B)で表される特性を有する識別部32は、人識別能力を変化させずに、図14(C)で表される特性を有する識別部32に比べ、特殊識別部32dによる識別での誤報を減らすことができる。
パタンフィルタ部32eは、補助識別部の別の一例である。本実施例では、パタンフィルタ部32eによる識別は、汎用識別部32cの識別結果が出た後に実行される。そのため、汎用識別部32cの誤った識別結果を覆すことができる。具体的には、パタンフィルタ部32eは、汎用識別部32cとしての汎用識別器を構成する複数の弱識別器のそれぞれの識別結果の偏りが人画像として不適切と判断した場合にその識別処理対象画像は人画像でないと識別する。この場合、汎用識別部32cが人画像であると識別していた場合であってもパタンフィルタ部32eは人画像でないと識別する。汎用識別部32c及び特殊識別部32dによる画像特徴量に基づく識別での誤報を防止するためである。一方で、その識別結果の偏りが人画像として適切と判断した場合にはその識別処理対象画像は人画像であると識別する。すなわち、汎用識別部32cによる識別結果を覆すことはない。但し、パタンフィルタ部32eは省略されてもよい。
「弱識別器」は、多数の教師画像を用いた機械学習によって生成される強識別器の構成要素である。強識別器は、例えば、汎用識別器、第1〜第4特殊識別器等である。強識別器の識別結果は、構成要素である複数の弱識別器のそれぞれの識別結果の重み付き多数決に基づく。
「識別結果」は、例えば、人らしさを表す値である「人度」で表される。「人度」は人らしさが高いほど絶対値が大きい正値となり、人らしさが低いほど絶対値が大きい負値となる。「人度」の値ゼロは、人画像と非人画像との間の識別境界を表す値(以下、「識別境界値」とする。)として利用され得る。この場合、「人度」の値がゼロ以上であれば人画像であると識別され、「人度」の値がゼロ未満であれば非人画像であると識別される。但し、識別境界値は正値であってもよく負値であってもよい。識別境界値は、汎用識別部32c及び特殊識別部32dのそれぞれによる識別の誤報の発生傾向を調整するための調整パラメータとして利用される。
弱識別器は、強識別器と同様、多数の教師画像を用いた機械学習によって生成される。本実施例では、弱識別器は1つの識別処理対象画像における128個のHOGブロックのそれぞれに対応付けて生成され、HOGブロック毎に識別結果を出力する。
図15は、識別処理対象画像としての正規化画像TRgtと弱識別器との関係を表す概念図である。図15(A)は縦64ピクセル×横32ピクセルの正規化画像TRgtが縦16ブロック×横8ブロックの128個のHOGブロックに分割された状態を示す。図15(B)は正規化画像TRgtの中央の84個のHOGブロックが4つのセクションSC1〜SC4に分割された状態を示す。正規化画像TRgtは2つの対角線で4つのセクションSC1〜SC4に分割されている。図15(C)は4つのセクションSC1〜SC4の別の構成例を示す。
基本的に、強識別器としての汎用識別部32c及び特殊識別部32dのそれぞれの識別結果は、図15(A)に示すような128個の弱識別器のそれぞれの識別結果の重み付き多数決に基づく。強識別器は、例えば、重み付き多数決によって導出された人度がゼロ以上であれば人画像であるとの識別結果を出力し、ゼロ未満であれば非人画像であるとの識別結果を出力する。
本実施例の識別部32は強識別器とは別に4つの複合型弱識別器を有する。4つの複合型弱識別器は第1〜第4複合型弱識別器である。第1複合型弱識別器の識別結果は、図15(B)に示すセクションSC1に属する22個のHOGブロックのそれぞれに対応する22個の弱識別器のそれぞれの識別結果の重み付き多数決に基づく。22個の弱識別器は、汎用識別器を構成する弱識別器でもある。第2〜第4複合型弱識別器の識別結果についても同様である。
パタンフィルタ部32eは、複合型弱識別器のそれぞれの識別結果の組み合わせ(識別結果パタン)に基づき、汎用識別部32cとしての汎用識別器を構成する複数の弱識別器のそれぞれの識別結果の偏りが人画像として適切か否かを判断する。そして、識別結果の偏りが人画像として不適切と判断した場合には、汎用識別部32cによる識別結果が人画像であったとしても、その識別処理対象画像は人画像でないと識別する。
本実施例では、第1〜第4複合型弱識別器のそれぞれの識別結果の組み合わせから16通りの識別結果パタンが生成される。そして、16通りの識別結果パタンのうちの少なくとも1つが正常パタンとして予め設定され、それ以外の識別結果パタンが異常パタンとして予め設定される。正常パタンは、例えば、第1〜第4複合型弱識別器の全ての識別結果が「人画像」である場合を含む。異常パタンは、例えば、第1〜第4複合型弱識別器のうちの2つ以上の識別結果が「非人画像」である場合を含む。
パタンフィルタ部32eは、第1〜第4複合型弱識別器のそれぞれの識別結果の組み合わせが正常パタンに属する場合、汎用識別器を構成する複数の弱識別器のそれぞれの識別結果の偏りが人画像として適切であると判断する。そして、関連する識別処理対象画像は人画像であると識別する。すなわち、汎用識別部32cによる識別結果を覆すことはない。一方、第1〜第4複合型弱識別器のそれぞれの識別結果の組み合わせが異常パタンに属する場合、汎用識別器を構成する複数の弱識別器のそれぞれの識別結果の偏りが人画像として不適切であると判断する。そして、汎用識別部32cによる識別結果が人画像であったとしても、関連する識別処理対象画像は人画像でないと識別する。
4つの複合型弱識別器のうちの1つに属する弱識別器は、4つの複合型弱識別器のうちの別の1又は複数の複合型弱識別器に属していてもよい。例えば、図15(C)に示すように、二点鎖線で囲まれたセクションSC1の一部は、一点鎖線で囲まれたセクションSC2の一部と重複し、セクションSC1の他の一部は、破線で囲まれたセクションSC3の一部と重複してもよい。また、実線で囲まれたセクションSC4の一部は、セクションSC2の一部と重複し、セクションSC4の他の一部は、セクションSC3の一部と重複してもよい。また、各セクションは互いに離れて配置されてもよい。例えば、2つのセクションの間に、何れのセクションにも属さない弱識別器が存在してもよい。
また、複合型弱識別器の数は、1つ、2つ、3つの何れであってもよく、5つ以上であってもよい。
また、上述の例では、パタンフィルタ部32eは、汎用識別器を構成する複数の弱識別器のそれぞれの識別結果の偏りが人画像として不適切であると判断した場合、汎用識別器による識別結果が人画像であったとしても識別処理対象画像は人画像でないと識別する。但し、パタンフィルタ部32eは、特殊識別器を構成する複数の弱識別器のそれぞれの識別結果の偏りが人画像として不適切であると判断した場合、特殊識別器による識別結果が人画像であったとしても、識別処理対象画像は人画像でないと識別してもよい。
また、パタンフィルタ部32eは、複数の弱識別器のそれぞれの識別結果の偏りが人画像として不適切であるため識別処理対象画像は人画像でないと識別した場合には、出力装置50を通じてその旨を操作者に通知してもよい。
調整部32fは、識別部32の特性を調整する機能要素である。本実施例では、調整部32fは、入力装置41を介して入力された操作者の指令に応じて汎用識別部32c及び特殊識別部32dの少なくとも一方に関する調整パラメータを変更する。調整パラメータは識別部32の特性を調整するためのパラメータであり、識別部32を構成する複数の識別器のそれぞれの特性に関する情報を含む。本実施例では、調整パラメータは誤報の発生傾向を調整するためのパラメータであり、例えば識別境界値である。
調整部32fは、例えば、識別境界値を変更することで汎用識別部32c及び特殊識別部32dの少なくとも一方による識別の真陽性率及び偽陽性率の少なくとも一方を変化させる。具体的には、調整部32fは人識別能力が略同等である予め登録された複数の特性設定(プリセットデータ)から1つの特性設定を操作者の指令に応じて選択する。人識別能力が略同等である複数の特性設定は、例えば、図14(A)〜図14(C)に示す識別部32の3つの異なる特性設定である。調整部32fは、例えば、タッチパネル等を通じた操作者の入力に応じ、図14(B)に示すような現在の特性設定を図14(A)に示すような特性設定に切り換える。但し、調整部32fは、予め登録された複数の特性設定から1つの特性設定を選択する代わりに、識別境界値を直接変更してもよい。
複数の特性設定のそれぞれは、例えば、1又は複数の使用環境に対応付けられている。例えば、ショベルの使用環境としてのスクラップヤードは図14(A)に示す特性設定に対応付けられ、ショベルの使用環境としての道路工事現場は図14(C)に示す特性設定に対応付けられる。各特性設定は、汎用識別部32cに関する調整パラメータの値と特殊識別部32dに関する調整パラメータの値の組み合わせ(以下、「調整パラメータセット」とする。)で構成される。したがって、複数の特性設定から1つの特性設定を選択することは、複数の調整パラメータセットから1つの調整パラメータセットを選択することを意味する。調整パラメータセットの選択はどのような方法で行われてもよい。調整部32fは、例えば、スクラップヤード、道路工事現場、浚渫工事現場等のショベルの使用環境のカテゴリを画面上で操作者に選択させることで、複数の調整パラメータセットから1つの調整パラメータセットを選び出してもよい。
また、操作者は、誤報の発生に気付いた場合には、入力装置41を用い、誤報が発生したこと及び誤報の原因となった識別処理対象画像を識別部32に通知してもよい。この場合、調整部32fは、通知された内容に基づき、予め登録された複数の特性設定の中からより適切な特性設定を自動的に選択してもよい。より適切な特性設定は、例えば、その識別処理対象画像に関して誤報を発生させ難い特性設定である。
この構成により、調整部32fは、例えば図14(A)の特性設定を図14(B)の特性設定に切り換えることで、人識別能力を維持しながら、汎用識別部32cによる誤報(背景全体にばらつくような誤報)を減らすことができる。この切り換えは、汎用識別部32cによる識別の偽陽性率を低下させ、且つ、特殊識別部32dによる識別の真陽性率を増大させることを意味する。その結果、スクラップヤード等の特定の使用環境を映し出す撮像画像の全体で満遍なく誤報を発生させてしまうといった状況を緩和できる。
また、調整部32fは、例えば図14(C)の特性設定を図14(B)の特性設定に切り換えることで、人識別能力を維持しながら、特殊識別部32dによる誤報(特定部位に集中する誤報)を減らすことができる。この切り換えは、特殊識別部32dによる識別の偽陽性率を低下させ、且つ、汎用識別部32cによる識別の真陽性率を増大させることを意味する。その結果、特定の看板等の画像を繰り返し人画像として識別してしまうといった状況を緩和できる。
また、調整部32fは、使用環境毎に異なる学習サンプルを用いて識別器を生成し直すといった煩雑な作業を必要とすることなく、簡易且つ迅速に識別部32による誤報の発生傾向を調整できる。その結果、使用環境毎に異なる誤報の発生傾向に柔軟に対応できる。
また、上述の例では、調整部32fは、調整パラメータとして識別境界値を採用するが、他の値を採用してもよい。例えば、抽出部31、追跡部33等の特性に応じて値が変化する別の調整パラメータを採用してもよい。或いは、識別処理対象画像のグレースケール化に関する値を調整パラメータとして採用してもよい。
また、調整部32fは、ショベルの使用環境に応じて識別器の接続方法を切り換えてもよい。例えば、調整部32fは、カスケード接続される汎用識別器及び第1〜第4特殊識別器のそれぞれによる識別の順番を変更してもよい。識別の順番等の接続方法に関する情報は特性設定に含まれる。このようにして、調整部32fは、予め登録された複数の特性設定から1つの特性設定を選択してカスケード型識別器を生成し且つ調整することができる。
また、調整部32fは、調整パラメータセットの切り換えによっても識別部32による誤報の発生傾向を変えることができないと判断した場合にその旨を操作者に通知してもよい。新たな教師画像に基づく機械学習の必要性を操作者に伝えるためである。
以上の構成により、様々な使用環境で使用されるショベルに搭載される周辺監視システム100は、使用環境に適した調整パラメータセットを用いることで人識別能力の特性を調整できる。その結果、周辺監視システム100は、特定の使用環境で発生する特定の誤報を抑制できる。
次に図16を参照し、識別部32による識別処理の流れについて説明する。図16は識別処理の流れを示すフローチャートであり、識別部32は識別処理対象画像を取得する度に繰り返しこの識別処理を実行する。
最初に、識別部32の輝度フィルタ部32aは、識別処理対象画像の輝度の偏りが小さいか否かを判定する(ステップST1)。本実施例では、輝度フィルタ部32aは、識別処理対象画像の各画素の輝度のヒストグラムのビンの値が何れも所定値未満である場合に識別処理対象画像の輝度の偏りが小さいと判定する。
識別処理対象画像の輝度の偏りが小さいと判定した場合(ステップST1のYES)、識別部32の画像特徴量算出部32bは、識別処理対象画像の画像特徴量を算出する(ステップST2)。本実施例では、画像特徴量算出部32bは、縦64ピクセル×横32ピクセルの識別処理対象画像を縦4ピクセル×横4ピクセルの128個のHOGブロックに分割し、HOGブロック毎に画像特徴量(HOG特徴量)としての輝度勾配ヒストグラムを算出する。そして、識別部32の汎用識別部32c及び特殊識別部32dのそれぞれは、画像特徴量算出部32bが算出したHOG特徴量に基づいて識別処理対象画像が人画像であるか非人画像であるかを識別する。
その後、識別部32のパタンフィルタ部32eは、汎用識別部32cが識別処理対象画像を人画像であると識別したか否かを判定する(ステップST3)。
そして、汎用識別部32cによる識別結果が人画像であったと判定した場合(ステップST3のYES)、パタンフィルタ部32eは、汎用識別部32cを構成する複数の複合型弱識別器のそれぞれの識別結果の組み合わせである識別結果パタンが適切であるか否かを判定する(ステップST4)。
そして、識別結果パタンが適切であると判定した場合(ステップST4のYES)、識別部32は、識別処理対象画像を人画像として識別する(ステップST5)。
一方、識別処理対象画像の輝度の偏りが大きいと判定した場合(ステップST1のNO)、又は、汎用識別部32cによる識別結果が非人画像であったと判定した場合(ステップST3のNO)、又は、識別結果パタンが適切でないと判定した場合(ステップST4のNO)、識別部32は、識別処理対象画像を非人画像として識別する(ステップST6)。
このように、周辺監視システム100は、識別器による識別とは別に、輝度の偏り、汎用識別器を構成する複数の弱識別器のそれぞれの識別結果の偏り等の画像特徴の偏りに基づいて補助的に人画像であるか否かを識別する。そのため、特定の背景画像等が人画像として識別されてしまうのを抑制して人識別能力を高めることができる。
次に図17を参照し、識別部32による識別処理の流れについて説明する。図17は識別処理の別の一例の流れを示すフローチャートであり、識別部32は識別処理対象画像を取得する度に繰り返しこの識別処理を実行する。図17の識別処理は、ステップST3Aを有する点で図16の識別処理と相違するがその他の点で共通する。そのため、共通部分の説明を省略し、相違部分を詳細に説明する。
汎用識別部32cによる識別結果が人画像であったと判定した場合(ステップST3のYES)、識別部32は、汎用識別部32cが識別結果として出力する人度が所定値以下であるか否かを判定する(ステップST3A)。この所定値は、例えば、識別境界値より十分に大きな値である。
そして、人度が所定値以下であると判定した場合(ステップST3AのYES)、識別部32のパタンフィルタ部32eは、汎用識別部32cを構成する複数の複合型弱識別器のそれぞれの識別結果の組み合わせである識別結果パタンが適切であるか否かを判定する(ステップST4)。以降の処理は図16の識別処理と同じである。
一方、人度が所定値より大きいと判定した場合(ステップST3AのNO)、識別部32は、識別結果パタンが適切であるか否かを判定することなく、識別処理対象画像を人画像として識別する(ステップST5)。
このように、図17の識別処理では、汎用識別部32cにより識別処理対象画像が明らかに人画像であると判定された場合には、パタンフィルタ部32eによる補助的な識別が省略される。
その結果、図17の識別処理は、図16の識別処理による効果と同じ効果を実現しながら処理負荷を低減させることができる。
ここで再び図2を参照し、コントローラ30の他の機能要素についての説明を継続する。
追跡部33は、識別部32が所定時間毎に出力する識別結果を追跡して最終的な人検知結果を出力する機能要素である。本実施例では、追跡部33は、連続する所定回数分の同一人に関する識別結果が所定条件を満たす場合に、対応する人候補画像が人画像であると判定する。すなわち、対応する三次元位置(実在位置)に人が存在すると判定する。同一人であるか否かはその実在位置に基づいて判定される。具体的には、追跡部33は、識別部32による1回目の識別処理において人画像であると識別された画像に写る人の実在位置(参照点PrI)に基づいて所定時間内にその人が到達可能な範囲を導き出す。到達可能な範囲は、ショベルの最大旋回速度、ショベルの最大走行速度、人の最大移動速度等に基づいて設定される。そして、2回目の識別処理において人画像であると識別された画像に写る人の実在位置(参照点PrII)がその範囲内であれば同一人であると判定する。3回目以降の識別処理についても同様である。そして、追跡部33は、例えば、連続する6回の識別結果のうちの4回で同一人の人画像であると識別された場合に、対応する三次元位置に人が存在すると判定する。また、1回目の識別処理において人画像であると識別された場合であっても、その後の連続する3回の識別処理において同一人の人画像が識別されなかった場合には、対応する三次元位置には人が存在しないと判定する。
このように、抽出部31、識別部32、及び追跡部33の組み合わせは、撮像装置40の撮像画像に基づいてショベルの周辺に人が存在するか否かを検知する人検知部34を構成する。
この構成により、人検知部34は、誤報(人が存在しないにもかかわらず人が存在すると判定すること)、失報(人が存在するにもかかわらず人が存在しないと判定すること)等の発生を抑制できる。
また、人検知部34は、人画像であると識別された画像に写る人の実在位置の推移に基づき、人がショベルに近づいているのかショベルから遠ざかっているのかを判断できる。そして、人検知部34は、その人の実在位置のショベルからの距離が所定値を下回った場合に制御部35に制御指令を出力して警報を出力させてもよい。この場合、人検知部34は、ショベルの動作情報(例えば旋回速度、旋回方向、走行速度、走行方向等)に応じて所定値を調整してもよい。
また、人検知部34は少なくとも2段階の人検知状態と人非検知状態とを判別して認識してもよい。例えば、距離に関する条件、及び、信頼性に関する条件のうちの少なくとも一方が満たされた状態を第1人検知状態(警戒状態)と判断し、双方が満たされた状態を第2人検知状態(警報状態)と判断してもよい。距離に関する条件は、例えば、人画像であると識別された画像に写る人の実在位置のショベルからの距離が所定値未満であることを含む。信頼性に関する条件は、例えば、連続する6回の識別結果のうちの4回で同一人の人画像であると識別されることを含む。第1人検知状態(警戒状態)では、確度は低いがレスポンスが早い予備的な警報としての第1警報が出力される。第1警報は、例えば小音量のビープ音であり、2つの条件が何れも満たされなくなった場合に自動的に停止される。第2人検知状態(警報状態)では、確度は高いがレスポンスが遅い正式な警報としての第2警報が出力される。第2警報は、例えば大音量のメロディ音であり、少なくとも一方の条件が満たされなくなったとしても自動的に停止されず、その停止には操作者の操作が必要とされる。
制御部35は、各種装置を制御する機能要素である。本実施例では、制御部35は入力装置41を介した操作者の入力に応じて各種装置を制御する。例えば、タッチパネルを通じて入力された画像切換指令に応じて車載ディスプレイの画面に表示される表示画像を切り換える。表示画像は、後方カメラ40Bのスルー画像、右側方カメラ40Rのスルー画像、左側方カメラ40Lのスルー画像、視点変換画像等を含む。視点変換画像は、例えば、複数のカメラの撮像画像から合成される鳥瞰画像(ショベルの真上にある仮想視点から見た画像)である。
また、制御部35は、人検知部34を構成する追跡部33の最終的な人検知結果に応じて各種装置を制御する。例えば、追跡部33の最終的な人検知結果に応じて機械制御装置51に制御指令を出力してショベルの状態を第1状態と第2状態との間で切り換える。第1状態は、ショベルの動きの制限が解除されている状態、警報の出力が停止されている状態等を含む。第2状態はショベルの動きを制限し或いは停止させている状態、警報を出力させている状態等を含む。本実施例では、制御部35は、追跡部33の最終的な人検知結果に基づいてショベルの周辺の所定範囲内に人が存在すると判定した場合、機械制御装置51に制御指令を出力してショベルの状態を第1状態から第2状態に切り換える。例えば、ショベルの動きを停止させる。この場合、操作者による操作は無効にされる。具体的には、ゲートロック弁に制御指令を出力して操作装置を油圧システムから切り離すことで無操作状態を強制的に創出してショベルの動きを停止させる。或いは、エンジン制御装置に制御指令を出力してエンジンを停止させてもよい。或いは、油圧アクチュエータに流入する作動油の流量を制御する制御弁に制御指令を出力して制御弁の開口面積、開口面積変化速度等を変化させることで油圧アクチュエータの動きを制限してもよい。この場合、最大旋回速度、最大走行速度等が低減される。
また、制御部35は、ショベルの状態を第2状態とした後で所定の解除条件が満たされた場合にショベルの状態を第1状態に戻す。すなわち、ショベルの動きを制限し或いは停止させた後で所定の解除条件が満たされた場合にその制限又は停止を解除する。所定の解除条件は、例えば、「ショベル周辺の所定範囲内に人が存在しないと判定すること」(以下、「第1解除条件」とする。)を含む。また、所定の解除条件は、例えば、「ショベルが動き出さない状態が確保されていること」(以下、「第2解除条件」とする。)を追加的に含む。また、所定の解除条件は、「ショベル周辺に人がいないことが操作者によって確認されたこと」(以下、「第3解除条件」とする。)を含んでいてもよい。なお、本実施例では、ショベルの動きが制限或いは停止されているか否か、第1解除条件、第2解除条件、第3解除条件のそれぞれが満たされているか否かはフラグを用いて管理される。
第1解除条件は、例えば、「人検知部34を構成する追跡部33の最終的な人検知結果に基づいて制御部35がショベル周辺の所定範囲内に人が存在しないと判定すること」を含む。
第2解除条件は、例えば、「全ての操作装置が所定時間以上にわたって中立位置になっていること」、「ゲートロックレバーが下ろされていること(操作装置が無効となっていること)」、「全ての操作装置から操作者の手足が離されていること」、「所定のボタン操作が行われたこと」等を含む。「全ての操作装置が中立位置になっていること」は、例えば、各操作装置からの指令の有無、各操作装置の操作量を検出するセンサの出力値等に基づいて制御部35が検知する。「所定時間以上にわたって」という条件は瞬間的に中立位置になっただけで第2解除条件が満たされてしまうのを防止する効果がある。「操作装置から操作者の手足が離されていること」は、例えば、運転室内を撮像するカメラの撮像画像、操作装置(例えば操作レバーのグリップ)に取り付けられた静電センサの出力等に基づいて制御部35が検知する。「所定のボタン操作が行われたこと」は、例えば、車載ディスプレイの画面に「ショベルが動き出さない状態が確保されていますか?」といったメッセージが表示された状態で確認ボタン(例えばホーンボタン又は同じ画面上に表示されたソフトウェアボタン)が押下された場合に制御部35が検知する。
第3解除条件は、例えば、車載ディスプレイの画面に「ショベル周辺に人がいないことを確認しましたか?」といったメッセージが表示された状態で確認ボタンが押下された場合に満たされる。なお、第3解除条件は省略されてもよい。
所定の解除条件に第3解除条件が含まれる場合、第1解除条件と第2解除条件が満たされると、ショベルは制限解除可能状態となる。制限解除可能状態は、ショベル周辺に人がいないことを操作者が確認しさえすれば制限を解除できる状態を意味する。
第1解除条件、第2解除条件、及び第3解除条件のそれぞれが満たされる順番に制限はない。例えば、第3解除条件、第2解除条件、第1解除条件の順で条件が満たされた場合であっても、制御部35はショベルの動きの制限又は停止を解除する。
また、制御部35は、所定の解除条件が満たされた後で所定の待ち時間が経過したときにその制限又は停止を解除してもよい。急な解除によって操作者を慌てさせることがないようにするためである。
また、制御部35は、ショベルの動きを制限し或いは停止させた場合、出力装置50としての車載ディスプレイに制御指令を出力し、その原因となった人画像が含まれる撮像画像を表示させてもよい。例えば、左側方カメラ40Lの撮像画像のみに人画像が含まれる場合、左側方カメラ40Lのスルー画像を単独で表示させてもよい。或いは、左側方カメラ40Lの撮像画像と後方カメラ40Bの撮像画像のそれぞれに人画像が含まれる場合、2つのカメラのそれぞれのスルー画像を並べて同時に表示させてもよく、2つのカメラの撮像画像を含む1つの合成画像(例えば視点変換画像)を表示させてもよい。また、制限中又は停止中であることを表す画像、解除方法のガイダンス等を表示させてもよい。また、人画像であると識別された人候補画像に対応する画像部分を強調表示してもよい。例えば、識別処理対象画像領域TRgの輪郭線を所定色で表示してもよい。また、所定の解除条件が満たされた後の待ち時間を設定している場合には、所定の解除条件が満たされたときにその旨を表示した上で、待ち時間のカウントダウンを表示してもよい。また、待ち時間中に警報を出力している場合には待ち時間の経過と共にその警報の音量を徐々に小さくしてもよい。
また、制御部35は、ショベルの動きを制限し或いは停止させた場合、出力装置50としての車載スピーカに制御指令を出力し、その原因となった人が存在する側で警報を出力させてもよい。この場合、車載スピーカは、例えば、運転室内の右壁に設置された右側方スピーカ、左壁に設置された左側方スピーカ、及び後壁に設置された後方スピーカで構成される。そして、制御部35は、左側方カメラ40Lの撮像画像のみに人画像が含まれる場合、左側方スピーカのみから警報を出力させる。或いは、制御部35は複数のスピーカを含むサラウンドシステムを用いて音を定位させてもよい。
また、制御部35は、人検知部34が人候補画像を人画像であると識別した場合に、ショベルの動きを制限し或いは停止させることなく警報のみを出力させてもよい。この場合も制御部35は上述のように距離に関する条件及び信頼性に関する条件のうちの少なくとも一方が満たされた状態を第1人検知状態(警戒状態)と判断し、双方が満たされた状態を第2人検知状態(警報状態)と判断してもよい。そして、制御部35は、ショベルの動きを制限し或いは停止させた場合と同様に、所定の解除条件が満たされた場合に第2人検知状態(警報状態)での警報を停止させてもよい。自動的に停止され得る第1人検知状態(警戒状態)での警報とは異なり、第2人検知状態(警報状態)での警報の停止には操作者の操作が必要とされるためである。
以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなしに上述した実施例に種々の変形及び置換を加えることができる。
例えば、上述の実施例では、周辺監視システム100は、画像特徴量に基づく識別を補助する補助識別部として輝度フィルタ部32a及びパタンフィルタ部32eの双方を備える。しかしながら、本発明はこの構成に限定されない。例えば、周辺監視システム100は、補助識別部として輝度フィルタ部32aのみを備えていてもよく、補助識別部としてパタンフィルタ部32eのみを備えていてもよい。何れか一方のみを補助識別部として備える場合であっても、周辺監視システム100は、補助識別部を備えない構成に比べて人識別能力を高めることができる。
また、上述の実施例では、ショベルの上部旋回体3の上に取り付けられる撮像装置40の撮像画像を用いて人を検知する場合を想定するが、本発明はこの構成に限定されるものではない。移動式クレーン、固定式クレーン、リフマグ機、フォークリフト等の他の作業機械の本体部に取り付けられる撮像装置の撮像画像を用いる構成にも適用され得る。
また、上述の実施例では、3つのカメラを用いてショベルの死角領域を撮像するが、1つ、2つ、又は4つ以上のカメラを用いてショベルの死角領域を撮像してもよい。
また、上述の実施例では、複数の撮像画像のそれぞれに対して個別に人検知処理が適用されるが、複数の撮像画像から生成される1つの合成画像に対して人検知処理が適用されてもよい。
1・・・下部走行体 2・・・旋回機構 3・・・上部旋回体 4・・・ブーム 5・・・アーム 6・・・バケット 7・・・ブームシリンダ 8・・・アームシリンダ 9・・・バケットシリンダ 10・・・キャビン 30・・・コントローラ 31・・・抽出部 32・・・識別部 33・・・追跡部 34・・・人検知部 35・・・制御部 40・・・撮像装置 40B・・・後方カメラ 40L・・・左側方カメラ 40R・・・右側方カメラ 41・・・入力装置 50・・・出力装置 51・・・機械制御装置 100・・・周辺監視システム AP、AP1〜AP6・・・頭部画像位置 BX・・・ボックス HD・・・頭部 HP・・・仮想頭部位置 HRg・・・ヘルメット画像 M1、M2・・・マスク領域 Pr、Pr1、Pr2、Pr10〜Pr12・・・参照点 R1・・・はみ出し領域 R2・・・車体映り込み領域 RP・・・代表位置 TR、TR1、TR2、TR10〜TR12・・・仮想平面領域 TRg、TRg3、TRg4、TRg5・・・識別処理対象画像領域 TRgt、TRgt3、TRgt4、TRgt5・・・正規化画像

Claims (9)

  1. 作業機械に取り付けられる撮像装置の撮像画像を用いて前記作業機械の周辺に存在する人を検知する作業機械用周辺監視システムであって、
    前記撮像画像の一部を識別処理対象画像として抽出する抽出部と、
    前記抽出部が抽出した識別処理対象画像に含まれる画像が人の画像であるかを画像認識処理によって識別する複数の識別器で構成される識別部と、
    調整パラメータを変更して前記複数の識別器の特性を調整する調整部と、を有し、
    前記調整パラメータは、前記複数の識別器の接続方法に関する情報、又は、前記複数の識別器のそれぞれの特性に関する情報を含む、
    作業機械用周辺監視システム。
  2. 前記調整パラメータは人度に関する識別境界値を含む、
    請求項1に記載の作業機械用周辺監視システム。
  3. 前記調整部は、前記識別境界値を変更することにより、前記識別部の人識別能力を維持しながら前記識別部による誤報の発生傾向を調整する、
    請求項2に記載の作業機械用周辺監視システム。
  4. 前記識別部は、機械学習によって生成される汎用識別部と、前記汎用識別部の識別結果が偽陽性であった画像を用いた機械学習によって生成される特殊識別部とを有し、
    前記調整部は、前記汎用識別部及び前記特殊識別部の少なくとも一方による識別の真陽性率及び偽陽性率の少なくとも一方を変化させる、
    請求項1乃至3の何れか一項に記載の作業機械用周辺監視システム。
  5. 前記調整部は、前記汎用識別部による識別の偽陽性率を低下させ、且つ、前記特殊識別部による識別の真陽性率を増大させる、
    請求項4に記載の作業機械用周辺監視システム。
  6. 前記調整部は、前記特殊識別部による識別の偽陽性率を低下させ、且つ、前記汎用識別部による識別の真陽性率を増大させる、
    請求項4に記載の作業機械用周辺監視システム。
  7. 前記識別部は汎用識別器と特性の異なる複数の特殊識別器とを含み、
    前記汎用識別器と前記複数の特殊識別器はカスケード型識別器を構成し、
    前記調整部は、予め登録された複数のプリセットデータから1つのプリセットデータを選択してカスケード型識別器を生成し且つ調整する、
    請求項1乃至6の何れか一項に記載の作業機械用周辺監視システム。
  8. 前記調整部は、入力装置を介して入力された操作者の指令に応じて前記複数のプリセットデータから1つのプリセットデータを選択する、
    請求項7に記載の作業機械用周辺監視システム。
  9. 前記調整部は、前記複数のプリセットデータから1つのプリセットデータを自動的に選択する、
    請求項7に記載の作業機械用周辺監視システム。
JP2015233979A 2015-11-30 2015-11-30 作業機械用周辺監視システム Active JP6515021B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015233979A JP6515021B2 (ja) 2015-11-30 2015-11-30 作業機械用周辺監視システム
CN201680053174.1A CN108026714A (zh) 2015-11-30 2016-11-25 施工机械用周边监视系统
EP16870563.0A EP3385457A4 (en) 2015-11-30 2016-11-25 PERIPHERAL MONITORING SYSTEM FOR A WORK MACHINE
PCT/JP2016/085043 WO2017094626A1 (ja) 2015-11-30 2016-11-25 作業機械用周辺監視システム
US15/976,146 US11697920B2 (en) 2015-11-30 2018-05-10 Surroundings monitoring system for work machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015233979A JP6515021B2 (ja) 2015-11-30 2015-11-30 作業機械用周辺監視システム

Publications (2)

Publication Number Publication Date
JP2017102606A true JP2017102606A (ja) 2017-06-08
JP6515021B2 JP6515021B2 (ja) 2019-05-15

Family

ID=59017417

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015233979A Active JP6515021B2 (ja) 2015-11-30 2015-11-30 作業機械用周辺監視システム

Country Status (1)

Country Link
JP (1) JP6515021B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110874544A (zh) * 2018-08-29 2020-03-10 宝钢工程技术集团有限公司 冶金行车安全监控识别方法
JP2020097866A (ja) * 2018-12-19 2020-06-25 コベルコ建機株式会社 作業機械用周辺監視装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008179940A (ja) * 2005-03-31 2008-08-07 Hitachi Constr Mach Co Ltd 作業機械の周囲監視装置
JP2013034142A (ja) * 2011-08-03 2013-02-14 Nippon Seiki Co Ltd 周辺画像表示装置
WO2015125979A1 (ja) * 2015-04-28 2015-08-27 株式会社小松製作所 作業機械の周辺監視装置及び作業機械の周辺監視方法
JP2015184839A (ja) * 2014-03-21 2015-10-22 富士通テン株式会社 画像生成装置、画像表示システム及び画像生成方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008179940A (ja) * 2005-03-31 2008-08-07 Hitachi Constr Mach Co Ltd 作業機械の周囲監視装置
JP2013034142A (ja) * 2011-08-03 2013-02-14 Nippon Seiki Co Ltd 周辺画像表示装置
JP2015184839A (ja) * 2014-03-21 2015-10-22 富士通テン株式会社 画像生成装置、画像表示システム及び画像生成方法
WO2015125979A1 (ja) * 2015-04-28 2015-08-27 株式会社小松製作所 作業機械の周辺監視装置及び作業機械の周辺監視方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110874544A (zh) * 2018-08-29 2020-03-10 宝钢工程技术集团有限公司 冶金行车安全监控识别方法
CN110874544B (zh) * 2018-08-29 2023-11-21 宝钢工程技术集团有限公司 冶金行车安全监控识别方法
JP2020097866A (ja) * 2018-12-19 2020-06-25 コベルコ建機株式会社 作業機械用周辺監視装置
JP7283070B2 (ja) 2018-12-19 2023-05-30 コベルコ建機株式会社 作業機械用周辺監視装置

Also Published As

Publication number Publication date
JP6515021B2 (ja) 2019-05-15

Similar Documents

Publication Publication Date Title
WO2017094626A1 (ja) 作業機械用周辺監視システム
JP6363805B2 (ja) 作業機械用周辺監視システム
JP6997066B2 (ja) 人検知システム
KR101935399B1 (ko) 심층 신경망 알고리즘 기반 광역 다중 객체 감시 시스템
JP7084521B2 (ja) ショベル
JP6474396B2 (ja) 人検知システム及びショベル
JP2017102604A (ja) 作業機械用周辺監視システム
JP2017101420A (ja) 作業機械用周辺監視システム
JP2017158033A (ja) 作業機械用周辺監視システム
WO2014113656A1 (en) Object recognition system implementing image data transformation
JP6662622B2 (ja) 作業機械用周辺監視システム及び作業機械用周辺監視システムを備えた建設機械
JP6755672B2 (ja) 作業機械用周辺監視システム
JP6878025B2 (ja) 作業機械用周辺監視システム
JP6515021B2 (ja) 作業機械用周辺監視システム
JP6515020B2 (ja) 作業機械用周辺監視システム
JP7077356B2 (ja) 作業機械用周辺監視システム
JP2020095683A (ja) 車両検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190415

R150 Certificate of patent or registration of utility model

Ref document number: 6515021

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150