JP2019053753A - 人検知システム及び作業機械 - Google Patents

人検知システム及び作業機械 Download PDF

Info

Publication number
JP2019053753A
JP2019053753A JP2018210856A JP2018210856A JP2019053753A JP 2019053753 A JP2019053753 A JP 2019053753A JP 2018210856 A JP2018210856 A JP 2018210856A JP 2018210856 A JP2018210856 A JP 2018210856A JP 2019053753 A JP2019053753 A JP 2019053753A
Authority
JP
Japan
Prior art keywords
image
detection system
human detection
target image
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018210856A
Other languages
English (en)
Other versions
JP6997066B2 (ja
Inventor
芳永 清田
Yoshinaga Kiyota
芳永 清田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Heavy Industries Ltd
Original Assignee
Sumitomo Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Heavy Industries Ltd filed Critical Sumitomo Heavy Industries Ltd
Publication of JP2019053753A publication Critical patent/JP2019053753A/ja
Application granted granted Critical
Publication of JP6997066B2 publication Critical patent/JP6997066B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/261Surveying the work-site to be treated
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F3/00Dredgers; Soil-shifting machines
    • E02F3/04Dredgers; Soil-shifting machines mechanically-driven
    • E02F3/28Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets
    • E02F3/30Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets with a dipper-arm pivoted on a cantilever beam, i.e. boom
    • E02F3/32Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets with a dipper-arm pivoted on a cantilever beam, i.e. boom working downwardly and towards the machine, e.g. with backhoes
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/24Safety devices, e.g. for preventing overload
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F3/00Dredgers; Soil-shifting machines
    • E02F3/04Dredgers; Soil-shifting machines mechanically-driven
    • E02F3/28Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets
    • E02F3/36Component parts
    • E02F3/40Dippers; Buckets ; Grab devices, e.g. manufacturing processes for buckets, form, geometry or material of buckets

Landscapes

  • Engineering & Computer Science (AREA)
  • Mining & Mineral Resources (AREA)
  • Civil Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Structural Engineering (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Component Parts Of Construction Machinery (AREA)

Abstract

【課題】人を斜め上から撮像する撮像装置の撮像画像を用いて人をより確実に検知できる人検知システムを提供すること。【解決手段】対象に取り付けられる撮像装置40の撮像画像を用いて該対象の周辺に存在する人を検知する人検知システム100は、撮像画像の一部を対象画像として抽出する抽出部31と、対象画像に含まれる画像が人の画像であるかを識別する識別部32と、を有し、対象画像は、撮像装置40の方向を向き、且つ、水平面に対して傾斜している平面領域によって、撮像画像の他の部分とは区別して抽出される。【選択図】図2

Description

本発明は、人を検知する人検知システム及び作業機械に関する。
3次元空間における水平面上の円柱領域を人の存在する領域として定義し、その円柱の中心軸を通る切断面のうちカメラに正対する切断面をそのカメラのSmart Window(SW)とする人検出システムが知られている(非特許文献1参照。)。また、このシステムは、カメラ画像上のSWを特徴抽出及び識別器に適した矩形に透視変換する。
李媛、伊藤誠也、三好雅則、藤吉弘亘、金子俊一、"Smart Window Transformとエッジベース識別器に基づく人検出"、2011年度精密工学会秋季大会学術講演会講演論文集、p.920-921
しかしながら、上述のシステムは、円柱の中心軸を通る切断面(三次元空間における鉛直面)をSWとする。そのため、人を斜め上から見下ろす位置に取り付けられたカメラに人が接近するにつれてカメラ画像上のSWの面積が小さくなり、カメラ近くに存在する人を検知できないおそれがある。
上述に鑑み、人を斜め上から撮像する撮像装置の撮像画像を用いて人をより確実に検知できる人検知システムの提供が望まれる。
本発明の一実施例に係る人検知システムは、対象に取り付けられる撮像装置の撮像画像を用いて該対象の周辺に存在する人を検知する人検知システムであって、前記撮像画像の一部を対象画像として抽出する抽出部と、前記対象画像に含まれる画像が人の画像であるかを識別する識別部と、を有し、前記対象画像は、前記撮像装置の方向を向き、且つ、水平面に対して傾斜している平面領域によって、前記撮像画像の他の部分とは区別して抽出される。
上述の手段により、人を斜め上から撮像する撮像装置の撮像画像を用いて人をより確実に検知できる人検知システムが提供される。
本発明の実施例に係る人検知システムが搭載されるショベルの側面図である。 人検知システムの構成例を示す機能ブロック図である。 後方カメラの撮像画像の例である。 後方カメラの撮像画像の例である。 撮像画像から識別処理対象画像を切り出す際に用いられる幾何学的関係の一例を示す概略図である。 ショベル後方の実空間の上面視である。 後方カメラの撮像画像の一例である。 撮像画像における識別処理対象画像領域を切り出した図である。 識別処理対象画像領域を有する識別処理対象画像を正規化した正規化画像の一例である。 撮像画像における識別処理対象画像領域を示す図である。 識別処理対象画像領域を有する識別処理対象画像の正規化画像を示す図である。 撮像画像における識別処理対象画像領域を示す図である。 識別処理対象画像領域を有する識別処理対象画像の正規化画像を示す図である。 撮像画像における識別処理対象画像領域を示す図である。 識別処理対象画像領域を有する識別処理対象画像の正規化画像を示す図である。 識別処理対象画像領域と識別処理不適領域との関係を示す図である。 はみ出し領域に対応するマスク領域と車体映り込み領域の一部に対応するマスク領域とを含む正規化画像を示す図である。 正規化画像の例を示す図である。 実空間における仮想平面領域と後方カメラとの間の後方水平距離と、正規化画像における頭部画像部分の大きさとの関係を説明する図である。 撮像画像から識別処理対象画像を切り出す際に用いられる幾何学的関係の別の一例を示す概略図である。 撮像画像における特徴画像の一例を示す図である。 特徴画像としてのヘルメット画像の拡大図である。 照明装置が搭載されたショベルの側面図である。 画像抽出処理の一例の流れを示すフローチャートである。 画像抽出処理の別の一例の流れを示すフローチャートである。
図1は、本発明の実施例に係る人検知システム100が搭載される建設機械としてのショベルの側面図である。ショベルの下部走行体1には、旋回機構2を介して上部旋回体3が搭載される。上部旋回体3には、ブーム4が取り付けられる。ブーム4の先端にはアーム5が取り付けられ、アーム5の先端にはバケット6が取り付けられる。ブーム4、アーム5、及びバケット6は掘削アタッチメントを構成し、ブームシリンダ7、アームシリンダ8、及びバケットシリンダ9によりそれぞれ油圧駆動される。また、上部旋回体3には、キャビン10が設けられ、且つエンジン等の動力源が搭載される。また、上部旋回体3の上部には撮像装置40が取り付けられる。具体的には、上部旋回体3の後端上部、左端上部、右端上部に後方カメラ40B、左側方カメラ40L、右側方カメラ40Rが取り付けられる。また、キャビン10内にはコントローラ30及び出力装置50が設置される。
図2は、人検知システム100の構成例を示す機能ブロック図である。人検知システム100は、主に、コントローラ30、撮像装置40、及び出力装置50を含む。
コントローラ30は、ショベルの駆動制御を行う制御装置である。本実施例では、コントローラ30は、CPU及び内部メモリを含む演算処理装置で構成され、内部メモリに格納された駆動制御用のプログラムをCPUに実行させて各種機能を実現する。
また、コントローラ30は、各種装置の出力に基づいてショベルの周辺に人が存在するかを判定し、その判定結果に応じて各種装置を制御する。具体的には、コントローラ30は、撮像装置40の出力を受け、抽出部31及び識別部32のそれぞれに対応するソフトウェアプログラムを実行する。そして、その実行結果に応じてショベルの駆動制御を実行し、或いは、出力装置50から各種情報を出力させる。なお、コントローラ30は、画像処理専用の制御装置であってもよい。
撮像装置40は、ショベルの周囲の画像を撮像する装置であり、撮像した画像をコントローラ30に対して出力する。本実施例では、撮像装置40は、CCD等の撮像素子を採用するワイドカメラであり、上部旋回体3の上部において光軸が斜め下方を向くように取り付けられる。
出力装置50は、各種情報を出力する装置であり、例えば、各種画像情報を表示する車載ディスプレイ、各種音声情報を音声出力する車載スピーカ等を含む。本実施例では、出力装置50は、コントローラ30からの制御指令に応じて各種情報を出力する。
抽出部31は、撮像装置40が撮像した撮像画像から識別処理対象画像を抽出する機能要素である。具体的には、抽出部31は、比較的演算量の少ない画像処理(以下、「前段画像認識処理」とする。)によって識別処理対象画像を抽出する。前段画像認識処理は、局所的な輝度勾配又はエッジに基づく簡易な特徴、Hough変換等による幾何学的特徴、輝度に基づいて分割された領域の面積又はアスペクト比に関する特徴等を抽出する画像処理を含む。識別処理対象画像は、後続の画像処理の対象となる画像部分(撮像画像の一部)であり、人候補画像を含む。人候補画像は、人画像である可能性が高いとされる画像部分(撮像画像の一部)である。
識別部32は、抽出部31が抽出した識別処理対象画像に含まれる人候補画像が人画像であるかを識別する機能要素である。具体的には、識別部32は、比較的演算量の多い画像処理(以下、「後段画像認識処理」とする。)によって人候補画像が人画像であるかを識別する。後段画像認識処理は、HOG(Histograms of Oriented Gradients)特徴量に代表される画像特徴量記述と機械学習により生成した識別器とを用いた画像認識処理等を含む。識別部32が人候補画像を人画像として識別する割合は、抽出部31による識別処理対象画像の抽出が高精度であるほど高くなる。なお、識別部32は、夜間、悪天候時等の撮像に適さない環境下で所望の品質の撮像画像を得られない場合等においては、人候補画像の全てが人画像であると識別してもよい。すなわち、抽出部31が抽出した識別処理対象画像における人候補画像の全てを人であると識別してもよい。人の検知漏れを防止するためである。
次に、図3A及び図3Bを参照し、後方カメラ40Bが撮像したショベル後方の撮像画像における人画像の見え方について説明する。なお、図3A及び図3Bの2つの撮像画像は、後方カメラ40Bの撮像画像の例である。また、図3A及び図3Bの点線円は人画像の存在を表し、実際の撮像画像には表示されない。
後方カメラ40Bは、ワイドカメラであり、且つ、人を斜め上から見下ろす高さに取り付けられる。そのため、撮像画像における人画像の見え方は、後方カメラ40Bから見た人の存在方向によって大きく異なる。例えば、撮像画像中の人画像は、撮像画像の左右の端部に近いほど傾いて表示される。これは、ワイドカメラの広角レンズに起因する像倒れによる。また、後方カメラ40Bに近いほど頭部が大きく表示される。また、脚部がショベルの車体の死角に入って見えなくなってしまう。これらは、後方カメラ40Bの設置位置に起因する。そのため、撮像画像に何らの加工を施すことなく画像処理によってその撮像画像に含まれる人画像を識別するのは困難である。
そこで、本発明の実施例に係る人検知システム100は、識別処理対象画像を正規化することで、識別処理対象画像に含まれる人画像の識別を促進する。なお、「正規化」は、識別処理対象画像を所定サイズ及び所定形状の画像に変換することを意味する。本実施例では、撮像画像において様々な形状を取り得る識別処理対象画像は射影変換によって所定サイズの長方形画像に変換される。なお、射影変換としては例えば8変数の射影変換行列が用いられる。
ここで、図4〜図6Cを参照し、人検知システム100が識別処理対象画像を正規化する処理(以下、「正規化処理」とする。)の一例について説明する。なお、図4は、抽出部31が撮像画像から識別処理対象画像を切り出す際に用いる幾何学的関係の一例を示す概略図である。
図4のボックスBXは、実空間における仮想立体物であり、本実施例では、8つの頂点A〜Hで定められる仮想直方体である。また、点Prは、識別処理対象画像を参照するために予め設定される参照点である。本実施例では、参照点Prは、人の想定立ち位置として予め設定される点であり、4つの頂点A〜Dで定められる四角形ABCDの中心に位置する。また、ボックスBXのサイズは、人の向き、歩幅、身長等に基づいて設定される。本実施例では、四角形ABCD及び四角形EFGHは正方形であり、一辺の長さは例えば800mmである。また、直方体の高さは例えば1800mmである。すなわち、ボックスBXは、幅800mm×奥行800mm×高さ1800mmの直方体である。
4つの頂点A、B、G、Hで定められる四角形ABGHは、撮像画像における識別処理対象画像の領域に対応する仮想平面領域TRを形成する。また、仮想平面領域TRとしての四角形ABGHは、水平面である仮想地面に対して傾斜する。
なお、本実施例では、参照点Prと仮想平面領域TRとの関係を定めるために仮想直方体としてのボックスBXが採用される。しかしながら、撮像装置40の方向を向き且つ仮想地面に対して傾斜する仮想平面領域TRを任意の参照点Prに関連付けて定めることができるのであればこの限りではない。例えば、他の仮想立体物を用いた関係等の他の幾何学的関係が採用されてもよく、関数、変換テーブル等の他の数学的関係が採用されてもよい。
図5は、ショベル後方の実空間の上面視であり、参照点Pr1、Pr2を用いて仮想平面領域TR1、TR2が参照された場合における後方カメラ40Bと仮想平面領域TR1、TR2との位置関係を示す。なお、本実施例では、参照点Prは、仮想地面上の仮想グリッドの格子点のそれぞれに配置可能である。但し、参照点Prは、仮想地面上に不規則に配置されてもよく、後方カメラ40Bの仮想地面への投影点から放射状に伸びる線分上に等間隔に配置されてもよい。例えば、各線分は1度刻みで放射状に伸び、参照点Prは各線分上に100mm間隔に配置されてもよい。
図4及び図5に示すように、四角形ABFE(図4参照。)で定められるボックスBXの第1面は、参照点Pr1を用いて仮想平面領域TR1が参照される場合、後方カメラ40Bに正対するように配置される。すなわち、後方カメラ40Bと参照点Pr1とを結ぶ線分は、参照点Pr1に関連して配置されるボックスBXの第1面と上面視で直交する。同様に、ボックスBXの第1面は、参照点Pr2を用いて仮想平面領域TR2が参照される場合にも、後方カメラ40Bに正対するように配置される。すなわち、後方カメラ40Bと参照点Pr2とを結ぶ線分は、参照点Pr2に関連して配置されるボックスBXの第1面と上面視で直交する。この関係は、参照点Prが何れの格子点上に配置された場合であっても成立する。すなわち、ボックスBXは、その第1面が常に後方カメラ40Bに正対するように配置される。
図6A〜図6Cは、撮像画像から正規化画像を生成する処理の流れを示す図である。具体的には、図6Aは、後方カメラ40Bの撮像画像の一例であり、実空間における参照点Prに関連して配置されるボックスBXを示す。また、図6Bは、撮像画像における識別処理対象画像の領域TRg(以下、「識別処理対象画像領域TRg」とする。)を切り出した図であり、図6Aの撮像画像に映し出された仮想平面領域TRに対応する。また、図6Cは、識別処理対象画像領域TRgを有する識別処理対象画像を正規化した正規化画像TRgtを示す。
図6Aに示すように、実空間上で参照点Pr1に関連して配置されるボックスBXは、実空間における仮想平面領域TRの位置を定め、そして、仮想平面領域TRに対応する撮像画像上の識別処理対象画像領域TRgを定める。
このように、実空間における参照点Prの位置が決まれば、実空間における仮想平面領域TRの位置が一意に決まり、撮像画像における識別処理対象画像領域TRgも一意に決まる。そして、抽出部31は、識別処理対象画像領域TRgを有する識別処理対象画像を正規化して所定サイズの正規化画像TRgtを生成できる。本実施例では、正規化画像TRgtのサイズは、例えば縦64ピクセル×横32ピクセルである。
図7(A1)〜図7(C2)は、撮像画像と識別処理対象画像領域と正規化画像との関係を示す図である。具体的には、図7A1は、撮像画像における識別処理対象画像領域TRg3を示し、図7A2は、識別処理対象画像領域TRg3を有する識別処理対象画像の正規化画像TRgt3を示す。また、図7B1は、撮像画像における識別処理対象画像領域TRg4を示し、図7B2は、識別処理対象画像領域TRg4を有する識別処理対象画像の正規化画像TRgt4を示す。同様に、図7C1は、撮像画像における識別処理対象画像領域TRg5を示し、図7C2は、識別処理対象画像領域TRg5を有する識別処理対象画像の正規化画像TRgt5を示す。
図7(A1)〜図7(C2)に示すように、撮像画像における識別処理対象画像領域TRg5は、撮像画像における識別処理対象画像領域TRg4より大きい。識別処理対象画像領域TRg5に対応する仮想平面領域と後方カメラ40Bとの間の距離が、識別処理対象画像領域TRg4に対応する仮想平面領域と後方カメラ40Bとの間の距離より小さいためである。同様に、撮像画像における識別処理対象画像領域TRg4は、撮像画像における識別処理対象画像領域TRg3より大きい。識別処理対象画像領域TRg4に対応する仮想平面領域と後方カメラ40Bとの間の距離が、識別処理対象画像領域TRg3に対応する仮想平面領域と後方カメラ40Bとの間の距離より小さいためである。すなわち、撮像画像における識別処理対象画像領域は、対応する仮想平面領域と後方カメラ40Bとの間の距離が大きいほど小さい。その一方で、正規化画像TRgt3、TRgt4、TRgt5は何れも同じサイズの長方形画像である。
このように、抽出部31は、撮像画像において様々な形状及びサイズを取り得る識別処理対象画像を所定サイズの長方形画像に正規化し、人画像を含む人候補画像を正規化できる。具体的には、抽出部31は、正規化画像の所定領域に人候補画像の頭部であると推定される画像部分(以下、「頭部画像部分」とする。)を配置する。また、正規化画像の別の所定領域に人候補画像の胴体部であると推定される画像部分(以下、「胴体部画像部分」とする。)を配置し、正規化画像のさらに別の所定領域に人候補画像の脚部であると推定される画像部分(以下、「脚部画像部分」とする。)を配置する。また、抽出部31は、正規化画像の形状に対する人候補画像の傾斜(像倒れ)を抑えた状態で正規化画像を取得できる。
次に、図8A及び図8Bを参照し、識別処理対象画像領域が、人画像の識別に悪影響を与える識別に適さない画像領域(以下、「識別処理不適領域」とする。)を含む場合の正規化処理について説明する。識別処理不適領域は、人画像が存在し得ない既知の領域であり、例えば、ショベルの車体が映り込んだ領域(以下、「車体映り込み領域」とする。)、撮像画像からはみ出た領域(以下、「はみ出し領域」とする。)等を含む。なお、図8A及び図8Bは、識別処理対象画像領域と識別処理不適領域との関係を示す図であり、図7C1及び図7C2に対応する。また、図8Aの右下がりの斜線ハッチング領域は、はみ出し領域R1に対応し、左下がりの斜線ハッチング領域は、車体映り込み領域R2に対応する。
本実施例では、抽出部31は、識別処理対象画像領域TRg5がはみ出し領域R1及び車体映り込み領域R2の一部を含む場合、それらの識別処理不適領域をマスク処理する。そして、マスク処理した後で、識別処理対象画像領域TRg5を有する識別処理対象画像の正規化画像TRgt5を生成する。なお、抽出部31は、正規化画像TRgt5を生成した後で、正規化画像TRgt5における識別処理不適領域に対応する部分をマスク処理してもよい。
図8Bは、正規化画像TRgt5を示す。また、図8Bにおいて、右下がりの斜線ハッチング領域は、はみ出し領域R1に対応するマスク領域M1を表し、左下がりの斜線ハッチング領域は、車体映り込み領域R2の一部に対応するマスク領域M2を表す。
このようにして、抽出部31は、識別処理不適領域の画像をマスク処理することで、識別処理不適領域の画像が識別部32による識別処理に影響を及ぼすのを防止する。このマスク処理により、識別部32は、識別処理不適領域の画像の影響を受けることなく、正規化画像におけるマスク領域以外の領域の画像を用いて人画像であるかを識別できる。なお、抽出部31は、マスク処理以外の他の任意の公知方法で、識別処理不適領域の画像が識別部32による識別処理に影響を及ぼさないようにしてもよい。
次に、図9を参照し、抽出部31が生成する正規化画像の特徴について説明する。なお、図9は、正規化画像の例を示す図である。また、図9に示す14枚の正規化画像は、図の左端に近い正規化画像ほど、後方カメラ40Bから近い位置に存在する人候補の画像を含み、図の右端に近い正規化画像ほど、後方カメラ40Bから遠い位置に存在する人候補の画像を含む。
図9に示すように、抽出部31は、実空間における仮想平面領域TRと後方カメラ40Bとの間の後方水平距離(図5に示すY軸方向の水平距離)に関係なく、何れの正規化画像内においてもほぼ同じ割合で頭部画像部分、胴体部画像部分、脚部画像部分等を配置できる。そのため、抽出部31は、識別部32が識別処理を実行する際の演算負荷を低減でき、且つ、その識別結果の信頼性を向上できる。なお、上述の後方水平距離は、実空間における仮想平面領域TRと後方カメラ40Bとの間の位置関係に関する情報の一例であり、抽出部31は、抽出した識別処理対象画像にその情報を付加する。また、上述の位置関係に関する情報は、仮想平面領域TRに対応する参照点Prと後方カメラ40Bとを結ぶ線分の後方カメラ40Bの光軸に対する上面視角度等を含む。
次に、図10を参照し、実空間における仮想平面領域TRと後方カメラ40Bとの間の後方水平距離と、正規化画像における頭部画像部分の大きさとの関係について説明する。なお、図10上図は、後方カメラ40Bからの後方水平距離がそれぞれ異なる3つの参照点Pr10、Pr11、P12のところに人が存在する場合の頭部画像部分の大きさL10、L11、L12を示す図であり、横軸が後方水平距離に対応する。また、図10下図は、後方水平距離と頭部画像部分の大きさの関係を示すグラフであり、縦軸が頭部画像部分の大きさに対応し、横軸が後方水平距離に対応する。なお、図10上図及び図10下図の横軸は共通である。また、本実施例は、カメラ高さを2100mmとし、頭部HDの中心の地面からの高さを1600mmとし、頭部の直径を250mmとする。
図10上図に示すように、参照点Pr10で示す位置に人が存在する場合、頭部画像部分の大きさL10は、後方カメラ40Bから見た頭部HDの仮想平面領域TR10への投影像の大きさに相当する。同様に、参照点Pr11、Pr12で示す位置に人が存在する場合、頭部画像部分の大きさL11、L12は、後方カメラ40Bから見た頭部HDの仮想平面領域TR11、TR12への投影像の大きさに相当する。なお、正規化画像における頭部画像部分の大きさは投影像の大きさに伴って変化する。
そして、図10下図に示すように、正規化画像における頭部画像部分の大きさは、後方水平距離がD1(例えば700mm)以上ではほぼ同じ大きさを維持するが、後方水平距離がD1を下回ったところで急激に増大する。
そこで、識別部32は、後方水平距離に応じて識別処理の内容を変更する。例えば、識別部32は、教師あり学習(機械学習)の手法を用いる場合、所定の後方水平距離(例えば650mm)を境に、識別処理で用いる学習サンプルをグループ分けする。具体的には、近距離用グループと遠距離用グループに学習サンプルを分けるようにする。この構成により、識別部32は、より高精度に人画像を識別できる。
以上の構成により、人検知システム100は、撮像装置40の方向を向き且つ水平面である仮想地面に対して傾斜する仮想平面領域TRに対応する識別処理対象画像領域TRgから正規化画像TRgtを生成する。そのため、人の高さ方向及び奥行き方向の見え方を考慮した正規化を実現できる。その結果、人を斜め上から撮像するように建設機械に取り付けられる撮像装置40の撮像画像を用いた場合であっても建設機械の周囲に存在する人をより確実に検知できる。特に、人が撮像装置40に接近した場合であっても、撮像画像上の十分な大きさの領域を占める識別処理対象画像から正規化画像を生成できるため、その人を確実に検知できる。
また、人検知システム100は、実空間における仮想直方体であるボックスBXの4つの頂点A、B、G、Hで形成される矩形領域として仮想平面領域TRを定義する。そのため、実空間における参照点Prと仮想平面領域TRとを幾何学的に対応付けることができ、さらには、実空間における仮想平面領域TRと撮像画像における識別処理対象画像領域TRgとを幾何学的に対応付けることができる。
また、抽出部31は、識別処理対象画像領域TRgに含まれる識別処理不適領域の画像をマスク処理する。そのため、識別部32は、車体映り込み領域R2を含む識別処理不適領域の画像の影響を受けることなく、正規化画像におけるマスク領域以外の領域の画像を用いて人画像であるかを識別できる。
また、抽出部31は、識別処理対象画像を抽出した場合、仮想平面領域TRと撮像装置40との位置関係に関する情報として両者間の後方水平距離をその識別処理対象画像に付加する。そして、識別部32は、その後方水平距離に応じて識別処理の内容を変更する。具体的には、識別部32は、所定の後方水平距離(例えば650mm)を境に、識別処理で用いる学習サンプルをグループ分けする。この構成により、識別部32は、より高精度に人画像を識別できる。
また、抽出部31は、参照点Pr毎に識別処理対象画像を抽出可能である。また、識別処理対象画像領域TRgのそれぞれは、対応する仮想平面領域TRを介して、人の想定立ち位置として予め設定される参照点Prの1つに関連付けられる。そのため、人検知システム100は、人が存在する可能性が高い参照点Prを任意の方法で抽出することで、人候補画像を含む可能性が高い識別処理対象画像を抽出できる。この場合、人候補画像を含む可能性が低い識別処理対象画像に対して、比較的演算量の多い画像処理による識別処理が施されてしまうのを防止でき、人検出処理の高速化を実現できる。
次に、図11、図12A、及び図12Bを参照し、人候補画像を含む可能性が高い識別処理対象画像を抽出部31が抽出する処理の一例について説明する。なお、図11は、抽出部31が撮像画像から識別処理対象画像を切り出す際に用いる幾何学的関係の一例を示す概略図であり、図4に対応する。また、図12A及び図12Bは、撮像画像における特徴画像の一例を示す図である。なお、特徴画像は、人の特徴的な部分を表す画像であり、望ましくは、実空間における地面からの高さが変化し難い部分を表す画像である。そのため、特徴画像は、例えば、ヘルメットの画像、肩の画像、頭の画像、人に取り付けられる反射板若しくはマーカの画像等を含む。
特に、ヘルメットは、その形状がおよそ球体であり、その投影像が撮像画像上に投影されたときに撮像方向によらず常に円形に近いという特徴を有する。また、ヘルメットは、表面が硬質で光沢又は半光沢を有し、その投影像が撮像画像上に投影されたときに局所的な高輝度領域とその領域を中心とする放射状の輝度勾配を生じさせ易いという特徴を有する。そのため、ヘルメットの画像は、特徴画像として特に相応しい。なお、その投影像が円形に近いという特徴、局所的な高輝度領域を中心とする放射状の輝度勾配を生じさせ易いという特徴等は、撮像画像からヘルメットの画像を見つけ出す画像処理のために利用されてもよい。また、撮像画像からヘルメットの画像を見つけ出す画像処理は、例えば、輝度平滑化処理、ガウス平滑化処理、輝度極大点探索処理、輝度極小点探索処理等を含む。
また、撮像画像において局所的な高輝度領域を中心とする放射状のグラデーション(輝度勾配)を生じさせ易いという特徴を安定的に引き出すために、撮像装置40の近くには照明装置が設置されてもよい。この場合、照明装置は、例えば、撮像装置40の撮像領域を照らすように照明装置41の上に取り付けられる。
図13は、照明装置41が搭載されたショベルの側面図である。具体的には、後方カメラ40B、左側方カメラ40L、右側方カメラ40Rの上に後方ライト41B、左側方ライト41L、右側方ライト41Rが取り付けられる。
この構成により、照明装置は、ヘルメットからの反射光によって形成される撮像画像における局所的な高輝度領域を中心とする放射状の輝度勾配を強調できる。また、照明装置は、背景色と見分けがつきにくい色のヘルメットを目立たせることができ、また、屋内、夜間等、環境光が少ない場所でもヘルメットを目立たせることができる。
本実施例では、抽出部31は、前段画像認識処理によって、撮像画像におけるヘルメット画像(厳密にはヘルメットであると推定できる画像)を見つけ出す。ショベルの周囲で作業する人はヘルメットを着用していると考えられるためである。そして、抽出部31は、見つけ出したヘルメット画像の位置から最も関連性の高い参照点Prを導き出す。その上で、抽出部31は、その参照点Prに対応する識別処理対象画像を抽出する。
具体的には、抽出部31は、図11に示す幾何学的関係を利用し、撮像画像におけるヘルメット画像の位置から関連性の高い参照点Prを導き出す。なお、図11の幾何学的関係は、実空間における仮想頭部位置HPを定める点で図4の幾何学的関係と相違するが、その他の点で共通する。
仮想頭部位置HPは、参照点Pr上に存在すると想定される人の頭部位置を表し、参照点Prの真上に配置される。本実施例では、参照点Pr上の高さ1700mmのところに配置される。そのため、実空間における仮想頭部位置HPが決まれば、実空間における参照点Prの位置が一意に決まり、実空間における仮想平面領域TRの位置も一意に決まる。また、撮像画像における識別処理対象画像領域TRgも一意に決まる。そして、抽出部31は、識別処理対象画像領域TRgを有する識別処理対象画像を正規化して所定サイズの正規化画像TRgtを生成できる。
逆に、実空間における参照点Prの位置が決まれば、実空間における仮想頭部位置HPが一意に決まり、実空間における仮想頭部位置HPに対応する撮像画像上の頭部画像位置APも一意に決まる。そのため、頭部画像位置APは、予め設定されている参照点Prのそれぞれに対応付けて予め設定され得る。なお、頭部画像位置APは、参照点Prからリアルタイムに導き出されてもよい。
そこで、抽出部31は、前段画像認識処理により後方カメラ40Bの撮像画像内でヘルメット画像を探索する。図12Aは、抽出部31がヘルメット画像HRgを見つけ出した状態を示す。そして、抽出部31は、ヘルメット画像HRgを見つけ出した場合、その代表位置RPを決定する。なお、代表位置RPは、ヘルメット画像HRgの大きさ、形状等から導き出される位置である。本実施例では、代表位置RPは、ヘルメット画像HRgを含むヘルメット画像領域の中心画素の位置である。図12Bは、図12Aにおける白線で区切られた矩形画像領域であるヘルメット画像領域の拡大図であり、そのヘルメット画像領域の中心画素の位置が代表位置RPであることを示す。
その後、抽出部31は、例えば最近傍探索アルゴリズムを用いて代表位置RPの最も近傍にある頭部画像位置APを導き出す。図12Bは、代表位置RPの近くに6つの頭部画像位置AP1〜AP6が予め設定されており、そのうちの頭部画像位置AP5が代表位置RPの最も近傍にある頭部画像位置APであることを示す。
そして、抽出部31は、図11に示す幾何学的関係を利用し、導き出した最近傍の頭部画像位置APから、仮想頭部位置HP、参照点Pr、仮想平面領域TRを辿って、対応する識別処理対象画像領域TRgを抽出する。その後、抽出部31は、抽出した識別処理対象画像領域TRgを有する識別処理対象画像を正規化して正規化画像TRgtを生成する。
このようにして、抽出部31は、撮像画像における人の特徴画像の位置であるヘルメット画像HRgの代表位置RPと、予め設定された頭部画像位置APの1つ(頭部画像位置AP5)とを対応付けることで識別処理対象画像を抽出する。
なお、抽出部31は、図11に示す幾何学的関係を利用する代わりに、頭部画像位置APと参照点Pr、仮想平面領域TR、又は識別処理対象画像領域TRgとを直接的に対応付ける参照テーブルを利用し、頭部画像位置APに対応する識別処理対象画像を抽出してもよい。
また、抽出部31は、山登り法、Mean-shift法等の最近傍探索アルゴリズム以外の他の公知のアルゴリズムを用いて代表位置RPから参照点Prを導き出してもよい。例えば、山登り法を用いる場合、抽出部31は、代表位置RPの近傍にある複数の頭部画像位置APを導き出し、代表位置RPとそれら複数の頭部画像位置APのそれぞれに対応する参照点Prとを紐付ける。このとき、抽出部31は、代表位置RPと頭部画像位置APが近いほど重みが大きくなるように参照点Prに重みを付ける。そして、複数の参照点Prの重みの分布に基づき、重みの極大点に最も近い重みを有する参照点Prから識別処理対象画像領域TRgを抽出する。
次に、図14を参照し、コントローラ30の抽出部31が識別処理対象画像を抽出する処理(以下、「画像抽出処理」とする。)の一例について説明する。なお、図14は、画像抽出処理の一例の流れを示すフローチャートである。
最初に、抽出部31は、撮像画像内でヘルメット画像を探索する(ステップST1)。本実施例では、抽出部31は、前段画像認識処理により後方カメラ40Bの撮像画像をラスタスキャンしてヘルメット画像を見つけ出す。
撮像画像でヘルメット画像HRgを見つけ出した場合(ステップST1のYES)、抽出部31は、ヘルメット画像HRgの代表位置RPを取得する(ステップST2)。
その後、抽出部31は、取得した代表位置RPの最近傍にある頭部画像位置APを取得する(ステップST3)。
その後、抽出部31は、取得した頭部画像位置APに対応する識別処理対象画像を抽出する(ステップST4)。本実施例では、抽出部31は、図11に示す幾何学的関係を利用し、撮像画像における頭部画像位置AP、実空間における仮想頭部位置HP、実空間における人の想定立ち位置としての参照点Pr、及び、実空間における仮想平面領域TRの対応関係を辿って識別処理対象画像を抽出する。
なお、抽出部31は、撮像画像でヘルメット画像HRgを見つけ出さなかった場合には(ステップST1のNO)、識別処理対象画像を抽出することなく、処理をステップST5に移行させる。
その後、抽出部31は、撮像画像の全体にわたってヘルメット画像を探索したかを判定する(ステップST5)。
撮像画像の全体を未だ探索していないと判定した場合(ステップST5のNO)、抽出部31は、撮像画像の別の領域に対し、ステップST1〜ステップST4の処理を実行する。
一方、撮像画像の全体にわたるヘルメット画像の探索を完了したと判定した場合(ステップST5のYES)、抽出部31は今回の画像抽出処理を終了させる。
このように、抽出部31は、最初にヘルメット画像HRgを見つけ出し、見つけ出したヘルメット画像HRgの代表位置RPから、頭部画像位置AP、仮想頭部位置HP、参照点(想定立ち位置)Pr、仮想平面領域TRを経て識別処理対象画像領域TRgを特定する。そして、特定した識別処理対象画像領域TRgを有する識別処理対象画像を抽出して正規化することで、所定サイズの正規化画像TRgtを生成できる。
次に、図15を参照し、画像抽出処理の別の一例について説明する。なお、図15は、画像抽出処理の別の一例の流れを示すフローチャートである。
最初に、抽出部31は、頭部画像位置APの1つを取得する(ステップST11)。その後、抽出部31は、その頭部画像位置APに対応するヘルメット画像領域を取得する(ステップST12)。本実施例では、ヘルメット画像領域は、頭部画像位置APのそれぞれについて予め設定された所定サイズの画像領域である。
その後、抽出部31は、ヘルメット画像領域内でヘルメット画像を探索する(ステップST13)。本実施例では、抽出部31は、前段画像認識処理によりヘルメット画像領域内をラスタスキャンしてヘルメット画像を見つけ出す。
ヘルメット画像領域内でヘルメット画像HRgを見つけ出した場合(ステップST13のYES)、抽出部31は、そのときの頭部画像位置APに対応する識別処理対象画像を抽出する(ステップST14)。本実施例では、抽出部31は、図11に示す幾何学的関係を利用し、撮像画像における頭部画像位置AP、実空間における仮想頭部位置HP、実空間における人の想定立ち位置としての参照点Pr、及び、実空間における仮想平面領域TRの対応関係を辿って識別処理対象画像を抽出する。
なお、抽出部31は、ヘルメット画像領域内でヘルメット画像HRgを見つけ出さなかった場合には(ステップST13のNO)、識別処理対象画像を抽出することなく、処理をステップST15に移行させる。
その後、抽出部31は、全ての頭部画像位置APを取得したかを判定する(ステップST15)。そして、全ての頭部画像位置APを未だ取得していないと判定した場合(ステップST15のNO)、抽出部31は、未取得の別の頭部画像位置APを取得し、ステップST11〜ステップST14の処理を実行する。一方、全ての頭部画像位置APを取得したと判定した場合(ステップST15のYES)、抽出部31は今回の画像抽出処理を終了させる。
このように、抽出部31は、最初に頭部画像位置APの1つを取得する。そして、取得した頭部画像位置APに対応するヘルメット画像領域でヘルメット画像HRgを見つけ出した場合に、そのときの頭部画像位置APから、仮想頭部位置HP、参照点(想定立ち位置)Pr、仮想平面領域TRを経て、識別処理対象画像領域TRgを特定する。そして、特定した識別処理対象画像領域TRgを有する識別処理対象画像を抽出して正規化することで、所定サイズの正規化画像TRgtを生成できる。
以上の構成により、人検知システム100の抽出部31は、撮像画像における特徴画像としてのヘルメット画像を見つけ出し、そのヘルメット画像の代表位置RPと所定画像位置としての頭部画像位置APの1つとを対応付けることで識別処理対象画像を抽出する。そのため、簡易なシステム構成で後段画像認識処理の対象となる画像部分を絞り込むことができる。
なお、抽出部31は、最初に撮像画像からヘルメット画像HRgを見つけ出し、そのヘルメット画像HRgの代表位置RPに対応する頭部画像位置APの1つを導き出し、その頭部画像位置APの1つに対応する識別処理対象画像を抽出してもよい。或いは、抽出部31は、最初に頭部画像位置APの1つを取得し、その頭部画像位置APの1つに対応する特徴画像の位置を含む所定領域であるヘルメット画像領域内にヘルメット画像が存在する場合に、その頭部画像位置APの1つに対応する識別処理対象画像を抽出してもよい。
また、抽出部31は、図11に示すような所定の幾何学的関係を利用し、撮像画像におけるヘルメット画像の代表位置RPから識別処理対象画像を抽出してもよい。この場合、所定の幾何学的関係は、撮像画像における識別処理対象画像領域TRgと、識別処理対象画像領域TRgに対応する実空間における仮想平面領域TRと、仮想平面領域TRに対応する実空間における参照点Pr(人の想定立ち位置)と、参照点Prに対応する仮想頭部位置HP(人の想定立ち位置に対応する人の特徴的な部分の実空間における位置である仮想特徴位置)と、仮想頭部位置HPに対応する撮像画像における頭部画像位置AP(仮想特徴位置に対応する撮像画像における所定画像位置)との幾何学的関係を表す。
以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなしに上述した実施例に種々の変形及び置換を加えることができる。
例えば、上述の実施例では、ショベルの上部旋回体3の上に取り付けられる撮像装置40の撮像画像を用いて人を検知する場合を想定するが、本発明はこの構成に限定されるものではない。例えば、クレーン、リフマグ機等の本体部に取り付けられる撮像装置の撮像画像を用いる構成にも適用され得る。
また、上述の実施例では、3つのカメラを用いてショベルの死角領域を撮像するが、1つ、2つ、又は4つ以上のカメラを用いてショベルの死角領域を撮像してもよい。
また、本願は、2014年6月3日に出願した日本国特許出願2014−115226号に基づく優先権を主張するものであり、この日本国特許出願の全内容を本願に参照により援用する。
1・・・下部走行体 2・・・旋回機構 3・・・上部旋回体 4・・・ブーム 5・・・アーム 6・・・バケット 7・・・ブームシリンダ 8・・・アームシリンダ 9・・・バケットシリンダ 10・・・キャビン 30・・・コントローラ 31・・・抽出部 32・・・識別部 40・・・撮像装置 40B・・・後方カメラ 40L・・・左側方カメラ 40R・・・右側方カメラ 41・・・照明装置 41B・・・後方ライト 41L・・・左側方ライト 41R・・・右側方ライト 50・・・出力装置 100・・・人検知システム AP、AP1〜AP6・・・頭部画像位置 BX・・・ボックス HD・・・頭部 HP・・・仮想頭部位置 HRg・・・ヘルメット画像 M1、M2・・・マスク領域 Pr、Pr1、Pr2、Pr10〜Pr12・・・参照点 R1・・・はみ出し領域 R2・・・車体映り込み領域 RP・・・代表位置 TR、TR1、TR2、TR10〜TR12・・・仮想平面領域 TRg、TRg3、TRg4、TRg5・・・識別処理対象画像領域 TRgt、TRgt3、TRgt4、TRgt5・・・正規化画像

Claims (17)

  1. 対象に取り付けられる撮像装置の撮像画像を用いて該対象の周辺に存在する人を検知する人検知システムであって、
    前記撮像画像の一部を対象画像として抽出する抽出部と、
    前記対象画像に含まれる画像が人の画像であるかを識別する識別部と、を有し、
    前記対象画像は、前記撮像装置の方向を向き、且つ、水平面に対して傾斜している平面領域によって、前記撮像画像の他の部分とは区別して抽出される、
    人検知システム。
  2. 対象に取り付けられる撮像装置の撮像画像を用いて該対象の周辺に存在する人を検知する人検知システムであって、
    前記撮像画像の一部を対象画像として抽出する抽出部と、
    前記対象画像に含まれる画像が人の画像であるかを識別する識別部と、を有し、
    前記対象画像に含まれる人の画像は、抽出のための平面領域と前記撮像装置との間の位置関係が変化することにより、サイズ又は傾きが変化する、
    人検知システム。
  3. 前記対象画像は、前記撮像装置と前記平面領域との間の位置関係が変化することにより、サイズ又は傾きが変化する、
    請求項1又は2に記載の人検知システム。
  4. 前記平面領域に対応する枠を前記撮像画像に重畳する、
    請求項1乃至3の何れかに記載の人検知システム。
  5. 前記平面領域は、実空間における所定サイズの仮想直方体の4つの頂点で形成される矩形領域である、
    請求項1乃至4の何れかに記載の人検知システム。
  6. 前記識別部は、前記対象画像に含まれる不要領域の画像をマスク処理し、
    前記不要領域は、前記対象が映り込んだ領域を含む、
    請求項1乃至5の何れかに記載の人検知システム。
  7. 前記識別部は、前記平面領域と前記撮像装置との距離に応じて識別処理の内容を変更する、
    請求項1乃至6の何れかに記載の人検知システム。
  8. 前記対象画像のそれぞれは、予め設定される参照点の1つに関連付けられ、
    前記抽出部は、前記参照点毎に前記対象画像を抽出可能である、
    請求項1乃至7の何れかに記載の人検知システム。
  9. 前記平面領域は、水平面に配置された仮想グリッドの格子点に関連して配置されている、
    請求項1乃至8の何れかに記載の人検知システム。
  10. 前記撮像装置は、前記対象の一部が映り込む程度に傾斜して前記対象に取り付けられている、
    請求項1乃至6の何れかに記載の人検知システム。
  11. 前記仮想直方体は、縦長である、
    請求項5に記載の人検知システム。
  12. 前記矩形領域は、水平面に配置された仮想グリッドの格子点に関連して配置されている、
    請求項5に記載の人検知システム。
  13. 前記仮想直方体の第1面は、前記撮像装置と正対するように配置されている、
    請求項5に記載の人検知システム。
  14. 前記対象画像は、前記撮像画像の左右の端部に近いほど、前記撮像画像の縦軸に対して傾いている、
    請求項1乃至13の何れかに記載の人検知システム。
  15. 前記撮像装置は、斜め下方を向くように前記対象に取り付けられている、
    請求項1乃至14の何れかに記載の人検知システム。
  16. 前記撮像装置は、人を斜め上から見下ろす高さに取り付けられている、
    請求項1乃至15の何れかに記載の人検知システム。
  17. 撮像装置の撮像画像を用いて周辺に存在する人を検知する作業機械であって、
    前記撮像画像の一部を対象画像として抽出し、且つ、前記対象画像に含まれる画像が人の画像であるかを識別する制御装置、を有し、
    前記対象画像は、前記撮像装置の方向を向き、且つ、水平面に対して傾斜している平面領域によって、前記撮像画像の他の部分とは区別して抽出される、
    作業機械。
JP2018210856A 2014-06-03 2018-11-08 人検知システム Active JP6997066B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014115226 2014-06-03
JP2014115226 2014-06-03

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016525125A Division JP6434507B2 (ja) 2014-06-03 2015-05-27 建設機械用人検知システム及びショベル

Publications (2)

Publication Number Publication Date
JP2019053753A true JP2019053753A (ja) 2019-04-04
JP6997066B2 JP6997066B2 (ja) 2022-01-17

Family

ID=54766661

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016525125A Active JP6434507B2 (ja) 2014-06-03 2015-05-27 建設機械用人検知システム及びショベル
JP2018210856A Active JP6997066B2 (ja) 2014-06-03 2018-11-08 人検知システム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016525125A Active JP6434507B2 (ja) 2014-06-03 2015-05-27 建設機械用人検知システム及びショベル

Country Status (5)

Country Link
US (1) US10824853B2 (ja)
EP (1) EP3154025B1 (ja)
JP (2) JP6434507B2 (ja)
CN (1) CN106462961B (ja)
WO (1) WO2015186588A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9928447B2 (en) * 2013-12-20 2018-03-27 Intel Corporation Social circle and relationship identification
EP3154024B1 (en) * 2014-06-03 2023-08-09 Sumitomo Heavy Industries, Ltd. Human detection system for construction machine
WO2017115837A1 (ja) * 2015-12-28 2017-07-06 住友建機株式会社 ショベル
JP6755672B2 (ja) * 2016-02-25 2020-09-16 住友重機械工業株式会社 作業機械用周辺監視システム
KR102386846B1 (ko) * 2016-07-05 2022-04-13 스미토모 겐키 가부시키가이샤 쇼벨
JP1577338S (ja) * 2016-08-30 2017-05-29
JP6360583B1 (ja) * 2017-03-29 2018-07-18 大成建設株式会社 建設機械用機械学習装置、建設機械および建設機械用機械学習方法
JP6840645B2 (ja) 2017-09-08 2021-03-10 株式会社小松製作所 施工管理装置および施工管理方法
US20190102902A1 (en) * 2017-10-03 2019-04-04 Caterpillar Inc. System and method for object detection
DE102017011147A1 (de) * 2017-12-01 2019-06-06 Bomag Gmbh Verfahren zum von außerhalb einer sich, insbesondere autonom, über den Bodenuntergrund fortbewegenden Baumaschine wahrnehmbaren Anzeigen, dass die Baumaschine mit einer Personendetektionseinrichtung eine Person erkannt hat, Baumaschine sowie System zum Betrieb einer oder mehrerer, insbesondere autonom, fahrender Baumaschinen
US10380440B1 (en) * 2018-10-23 2019-08-13 Capital One Services, Llc Method for determining correct scanning distance using augmented reality and machine learning models
DE112020002887T5 (de) * 2019-07-18 2022-04-07 Komatsu Ltd. Anzeigesystem für ein Arbeitsfahrzeug und Anzeigeverfahren für ein Arbeitsfahrzeug
USD969878S1 (en) 2019-09-30 2022-11-15 Kubota Corporation Backhoe loader
JP7077356B2 (ja) * 2020-04-21 2022-05-30 住友重機械工業株式会社 作業機械用周辺監視システム
TWI808490B (zh) * 2021-09-16 2023-07-11 中華電信股份有限公司 施工區域的監視裝置和監視方法
TWI836618B (zh) * 2022-09-21 2024-03-21 中華電信股份有限公司 工安雲系統、工安事件偵測方法與電腦可讀媒體

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11328364A (ja) * 1998-05-13 1999-11-30 Nissan Motor Co Ltd 領域推定装置及び表示処理装置
JP2003009140A (ja) * 2001-06-26 2003-01-10 Mitsubishi Motors Corp 歩行者検出装置
JP2012221437A (ja) * 2011-04-14 2012-11-12 Hitachi Ltd 物体認識装置および物体認識方法
WO2014073571A1 (ja) * 2012-11-08 2014-05-15 日立建機株式会社 自走式産業機械の画像処理装置および自走式産業機械の画像処理方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101739686B (zh) * 2009-02-11 2012-05-30 北京智安邦科技有限公司 运动目标跟踪方法及其系统
US9113047B2 (en) * 2010-10-22 2015-08-18 Hitachi Construction Machinery Co., Ltd. Peripheral monitoring device for working machine
US8675090B2 (en) * 2010-12-15 2014-03-18 Panasonic Corporation Image generating apparatus, image generating method, and recording medium
CN103609100B (zh) * 2011-06-09 2017-09-29 爱信精机株式会社 图像生成装置
JP5935118B2 (ja) * 2012-05-30 2016-06-15 株式会社日立製作所 物体検出装置および物体検出方法
JP5961472B2 (ja) * 2012-07-27 2016-08-02 日立建機株式会社 作業機械の周囲監視装置
WO2014190081A1 (en) * 2013-05-21 2014-11-27 Transocean Sedco Forex Ventures Limited Computer vision collision avoidance in drilling operations
US10527413B2 (en) * 2014-06-25 2020-01-07 Hitachi, Ltd. Outside recognition device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11328364A (ja) * 1998-05-13 1999-11-30 Nissan Motor Co Ltd 領域推定装置及び表示処理装置
JP2003009140A (ja) * 2001-06-26 2003-01-10 Mitsubishi Motors Corp 歩行者検出装置
JP2012221437A (ja) * 2011-04-14 2012-11-12 Hitachi Ltd 物体認識装置および物体認識方法
WO2014073571A1 (ja) * 2012-11-08 2014-05-15 日立建機株式会社 自走式産業機械の画像処理装置および自走式産業機械の画像処理方法

Also Published As

Publication number Publication date
US10824853B2 (en) 2020-11-03
EP3154025A1 (en) 2017-04-12
WO2015186588A1 (ja) 2015-12-10
JP6434507B2 (ja) 2018-12-05
US20170083760A1 (en) 2017-03-23
JPWO2015186588A1 (ja) 2017-05-25
CN106462961B (zh) 2021-04-09
EP3154025B1 (en) 2021-10-13
JP6997066B2 (ja) 2022-01-17
CN106462961A (zh) 2017-02-22
EP3154025A4 (en) 2017-07-12

Similar Documents

Publication Publication Date Title
JP6997066B2 (ja) 人検知システム
JP6474396B2 (ja) 人検知システム及びショベル
WO2017094627A1 (ja) 作業機械用周辺監視システム
WO2017094626A1 (ja) 作業機械用周辺監視システム
JP6755672B2 (ja) 作業機械用周辺監視システム
JP2017102604A (ja) 作業機械用周辺監視システム
JP2017158033A (ja) 作業機械用周辺監視システム
JP6419677B2 (ja) 作業機械用周辺監視システム
JP6934077B2 (ja) ショベル
JP2018063680A (ja) 交通信号認識方法および交通信号認識装置
JP6662622B2 (ja) 作業機械用周辺監視システム及び作業機械用周辺監視システムを備えた建設機械
JP7077356B2 (ja) 作業機械用周辺監視システム
JPWO2020153264A1 (ja) 校正方法および校正装置
JP6515021B2 (ja) 作業機械用周辺監視システム
Mori et al. Classification of pole-like objects using point clouds and images captured by mobile mapping systems
JP6515020B2 (ja) 作業機械用周辺監視システム
JP5614100B2 (ja) 画像処理装置及び移動体位置推定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200728

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200728

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200806

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200811

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20200911

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20200915

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210330

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20211116

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20211214

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20211214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211216

R150 Certificate of patent or registration of utility model

Ref document number: 6997066

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150