JP2013250604A - 物体検出装置および物体検出方法 - Google Patents

物体検出装置および物体検出方法 Download PDF

Info

Publication number
JP2013250604A
JP2013250604A JP2012122856A JP2012122856A JP2013250604A JP 2013250604 A JP2013250604 A JP 2013250604A JP 2012122856 A JP2012122856 A JP 2012122856A JP 2012122856 A JP2012122856 A JP 2012122856A JP 2013250604 A JP2013250604 A JP 2013250604A
Authority
JP
Japan
Prior art keywords
detection
scanning
image
interval
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012122856A
Other languages
English (en)
Other versions
JP5935118B2 (ja
Inventor
En Ri
媛 李
Masanori Miyoshi
雅則 三好
Seiya Ito
誠也 伊藤
Tatsu Yumiba
竜 弓場
Shunichi Kaneko
俊一 金子
Hironobu Fujiyoshi
弘亘 藤吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2012122856A priority Critical patent/JP5935118B2/ja
Priority to EP13169559.5A priority patent/EP2669849B1/en
Priority to US13/904,064 priority patent/US9465998B2/en
Publication of JP2013250604A publication Critical patent/JP2013250604A/ja
Application granted granted Critical
Publication of JP5935118B2 publication Critical patent/JP5935118B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】演算量と検出物体の検出漏れを考慮しつつ、高速かつ高精度な物体検出装置および物体検出方法を提供する。
【解決手段】カメラから画像を取得する画像取得部11と、画像において検出窓を走査する際の走査間隔を、検出窓で検出される検出物体の画像上での大きさに基づき算出する走査間隔算出部15と、走査間隔算出部15が算出した走査間隔を用いて画像上を走査する走査部12と、走査した検出窓の内部に検出物体が存在するか否かを判別する検出部13と、を備える。
【選択図】図1

Description

本発明は、画像から特定の物体を検出する物体検出装置および物体検出方法に関する。
カメラが撮影した画像上で検出窓を走査させながら、検出窓の領域に特定の物体(検出物体)が含まれているか否かをテンプレートマッチング等により検出する物体検出装置が知られている。このような物体検出装置において、画像上で物体を検出する際、検出窓を1画素ずつずらして走査すると、演算量が増大する。そのため、演算量を低減させる物体の検出技術が多く提案されている。
例えば、特許文献1には、カメラが撮影した入力画像から判定対象領域を抽出する抽出手段と、前記判定対象領域の画像と基準画像とを比較して特定の物体の存在を認識する認識手段と、前記入力画像内における位置に基づいて、前記抽出手段による判定対象領域の抽出位置の間隔を制御する間隔制御手段と、を備えたことを特徴とする画像認識装置が記載されている。そして、前記認識手段による認識処理によって前記基準画像との一致度が比較的高いと判定された位置近傍に対して、抽出間隔を小さくした抽出を再度行なわせることが記載されている。
また、特許文献2には、画像から検出対象物を検出する物体検出装置であって、前記画像を取得する画像取得部と、前記画像取得部から入力された前記画像から検出窓が設定されている検出窓領域画像を取り込み、前記検出窓領域画像に前記検出対象物が存在しているか否かの判定と、その判定における前記検出対象物の存在の確からしさの度合いを示す信頼度と、を出力する識別器と、前記信頼度が高くなるほどその後の検出窓の走査間隔を短く設定する検出窓制御手段と、前記識別器からの出力に基づき前記検出対象物が存在するか否かを判定する判定手段と、を有することを特徴とする物体検出装置が記載されている。
特開2008−015771号公報 特開2010−140315号公報
ところが、従来の物体の検出技術では、検出窓の走査間隔が疎な場合には、検出窓から検出物体が外れてしまい、検出漏れが生じるという課題がある。
例えば、特許文献1では、入力画像内の下方と上方の位置に対して走査間隔を変更しても、変更された走査間隔が不適切な場合には、物体の存在度が高い領域を見逃すことが発生し、物体検出装置の検出精度が低下する。同様に、特許文献2では、信頼度に基づいて走査間隔を短く設定しても、設定された走査間隔が不適切な場合には、物体の存在度が高い領域を見逃すことが発生し、物体検出装置の検出精度が低下する。
そこで、本発明は、演算量と検出物体の検出漏れを考慮しつつ、高速かつ高精度な物体検出装置および物体検出方法を提供することを課題とする。
このような課題を解決するために、本発明は、カメラから画像を取得する画像取得部と、前記画像において検出窓を走査する際の走査間隔を、前記検出窓で検出される検出物体の前記画像上での大きさに基づき算出する走査間隔算出部と、前記走査間隔算出部が算出した前記走査間隔を用いて前記画像上を走査する走査部と、前記走査した検出窓の内部に前記検出物体が存在するか否かを判別する検出部と、を備えることを特徴とする物体検出装置である。
また、本発明は、画像において検出窓を走査する際の走査間隔を、前記検出窓で検出される検出物体の画像上での大きさに基づき算出するステップと、前記算出した走査間隔を用いて、前記検出窓が前記画像上を走査するステップと、前記走査した検出窓の内部に前記検出物体が存在するか否かを判別するステップと、を備えることを特徴とする物体検出方法である。
本発明によれば、演算量と検出物体の検出漏れを考慮しつつ、高速かつ高精度な物体検出装置および物体検出方法を提供することができる。
第1実施形態に係る物体検出装置の機能ブロック図である。 第1実施形態に係る物体検出装置が備える走査間隔算出部の機能ブロック図である。 第1実施形態に係る物体検出装置が備える走査部の機能ブロック図である。 (a)は2D地図情報の行動領域の例であり、(b)は2D地図情報における行動領域、可視領域、走査領域の例であり、(c)は画像と検出領域の例である。 走査間隔の算出を説明する図である。 画像上に走査間隔算出部が算出した走査間隔を用いた例である。 第1実施形態に係る物体検出装置の物体検出処理を示すフローチャートである。 第2実施形態に係る物体検出装置の機能ブロック図である。 第2実施形態に係る物体検出装置が備える走査間隔算出部の機能ブロック図である。 第2実施形態に係る物体検出装置の物体検出処理を示すフローチャートである。
以下、本発明を実施するための形態(以下「実施形態」という)について、適宜図面を参照しながら詳細に説明する。なお、各図において、共通する部分には同一の符号を付し重複した説明を省略する。
≪第1実施形態≫
<物体検出装置10>
第1実施形態に係る物体検出装置10について、図1を用いて説明する。図1は、第1実施形態に係る物体検出装置10の機能ブロック図である。
物体検出装置10は、画像取得部11と、走査部12と、検出部13と、出力部14と、走査間隔16を算出して走査部12に出力する走査間隔算出部15と、を備え、取得した画像から特定の物体(検出物体)を検出することができるようになっている。
ここで、物体検出装置10の検出物体は、人や動物、物体などに適用することができるが、以下の説明において、検出物体が人であるものとして説明する。また、以下の説明において、物体検出装置10は、店舗に設置された監視カメラの画像から人(検出物体)を検出するものとして説明する。
なお、物体検出装置10は、例えば、図示しないコンピュータ装置であり、電源投入時等のイニシャルブートプログラムが格納されているROM(Read Only Memory)と、ワーキングメモリとして使用されるRAM(Random Access Memory)と、OS(Operations System)や各種アプリケーションプログラムや各種パラメータ等が格納されているHDD(Hard Disc Drive)と、演算部としてのCPU(Central Processing Unit)と、I/O(Input/Output)と、を備え、各部はバスラインで接続されている。
CPUは、HDDに格納されている各種アプリケーションプログラムを実行することにより、後述する走査部12、検出部13、出力部14、および、走査間隔算出部15として機能するようになっている。また、I/Oは、後述する画像取得部11、および、出力部14として機能するようになっている。
画像取得部11は、監視カメラ(図示せず)などの撮像デバイスから撮影された画像を取り込み、取り込んだ画像を検出部13に出力することができるようになっている。
走査部12は、後述する走査間隔算出部15から入力された走査間隔16を用いて、検出窓を走査させ、検出領域(後述する図3の符号38参照)を切り出すことができるようになっている。また、走査部12は、切り出した検出領域を検出部13に出力することができるようになっている。なお、走査部12の構成については、図3を用いて後述する。
検出部13は、走査部12から入力された検出領域、および、画像取得部11から入力された画像を用いて、画像上での対応する検出領域内は検出物体であるか否かを識別することができるようになっている。また、検出部13は、画像上での対応する検出領域内は検出物体であると識別した場合には、その検出領域を出力部14に出力することができるようになっている。
なお、検出部13における検出物体の識別方法は、様々な方法を用いることができ、限定されるものではない。
例えば、特許文献1に記載のテンプレートマッチングや、特許文献2に記載の識別器により判断する方法を用いることができる。また、識別器により判断する方法としては、例えば、「N. Dalal and B. Triggs, "Histograms of oriented gradients for human detection," in CVPR (1), pp. 886-893, 2005」や、「三井相和, 山内悠嗣, 藤吉弘亘, "Joint特徴量を用いた2段階Boostingによる物体検出", 電子情報通信学会論文誌, Vol. J92-D, No. 9, pp. 1591-1601, 2009」に記載された方法を用いることができる。
出力部14は、検出部13から入力された検出領域に基づいて、検出結果を生成し、出力装置(図示せず)に検出結果を出力することができるようになっている。
なお、出力部14から出力される検出結果は、画像、信号、警報など様々な形態を選択することができ、それに応じて出力装置も選択することができ、限定されるものではない。
例えば、画像取得部11で取り込んだ画像に検出物体であると識別した検出領域の枠を重ねて表示した画像を検出結果として、モニタ(表示装置)に出力してもよい。また、検出物体を検知したことを示すメッセージをモニタ(表示装置)に出力してもよい。また、検出物体を検知したことを示すメッセージを携帯端末にメールを送信してもよい。
走査間隔算出部15は、入力された画像の位置によって、適切な走査間隔16を算出することができるようになっている。また、走査間隔算出部15は、算出した走査間隔16を走査部12に出力することができるようになっている。なお、走査間隔算出部15の構成については、図2を用いて後述する。
<走査間隔算出部15>
次に、走査間隔算出部15について、図2を用いて更に説明する。図2は、第1実施形態に係る物体検出装置10が備える走査間隔算出部15の機能ブロック図である。
走査間隔算出部15は、幅設定部21と、カメラ設定部22と、位置推定部23と、走査間隔推定部24と、を備えている。
幅設定部21は、三次元空間上で検出する検出物体の幅の情報を設定することができるようになっている。ここで、本実施形態では、検出物体が人であるものとして説明するため、人の幅の情報が設定される。なお、検出物体の幅の情報(人の幅の情報)は、物体検出装置10のI/Oに接続された入力装置(例えば、キーボード)等により入力され、物体検出装置10のHDDに記憶されるようになっている。
カメラ設定部22は、カメラパラメータを設定することができるようになっている。なお、カメラパラメータは、物体検出装置10のI/Oに接続された入力装置(例えば、キーボード)等により入力され、物体検出装置10のHDDに記憶されるようになっている。
ここで、カメラパラメータは、監視カメラの外部および内部のパラメータである。カメラ内部パラメータは、カメラの焦点距離、画像座標の中心、レンズ歪み係数、画像座標の縦横比である。カメラ外部パラメータは、世界座標系の原点を基準とした平行移動ベクトル、3行3列の回転ベクトルである。
これらカメラパラメータの定義および求め方は、例えば、「R.Y.Tsai, "A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV camera and lenses" IEEE Journal of Robotics and Automation, Vol.RA-3, No.4, pp. 323-344, 1987」に記載された方法を用いることができる。
位置推定部23は、走査する位置の三次元情報(三次元空間上での位置情報)を推定し、三次元空間上での監視カメラと走査する位置との距離を求めることができるようになっている。
走査間隔推定部24は、位置推定部23で推定した走査する位置に対して、幅設定部21で設定した検出物体の幅(人の幅)、カメラ設定部22で設置したカメラパラメータ、および、位置推定部23で推定した距離を用いて、画像上での走査間隔16を算出することができるようになっている。また、走査間隔推定部24は、算出した走査間隔16を走査部12(図1参照)に出力することができるようになっている。
走査間隔推定部24における走査間隔16の算出方法について説明する。
まず、走査間隔推定部24は、位置推定部23で推定した走査する位置に対して、カメラ設定部22で設置したカメラパラメータおよび位置推定部23で推定した距離を用いて、幅設定部21で設定した検出物体の幅(人の幅)を三次元空間上から画像上へと変換する。なお、この変換は、例えば、前記したR.Y.Tsaiの論文に記載された三次元空間上と画像上の変換方法(以下、「Tsaiの手法」を称する。)を用いることができる。
そして、走査間隔推定部24は、変換された画像上の検出物体の幅(人の幅)以下の長さをこの走査位置での走査間隔16として出力する。
ここで、事前の調査により、走査間隔16が検出物体の幅(人の幅)の半分であれば、検出物体を見逃すことの発生を十分に低減させることができ、効率的な走査をすることができる。
このように、走査間隔算出部15は、検出物体の幅(人の幅)、カメラパラメータ、走査位置によって、走査間隔16を自動的に算出することができるようになっている。
<走査部12>
次に、走査部12について、図3を用いて更に説明する。図3は、第1実施形態に係る物体検出装置10が備える走査部12の機能ブロック図である。
走査部12は、行動領域算出部31と、可視領域算出部32と、走査領域算出部33と、検出領域抽出部34と、を備え、2D地図情報35、カメラパラメータ36、検出窓情報37および走査間隔16に基づいて、検出領域38を抽出することができるようになっている。
行動領域算出部31は、2D地図情報35から、人(検出物体)が存在する領域である行動領域を算出することができるようになっている。
ここで、2D地図情報35が、図4(a)の場合を例に説明する。例えば、店舗の場合、2D地図情報35は、通路(図4(a)において白塗で示す)、棚(図4(a)において、左下がり斜線のハッチングで示す)、レジ(図4(a)において、右下がり斜線のハッチングで示す)などのレイアウトである。なお、2D地図情報35は、物体検出装置10のI/Oを介して、物体検出装置10のHDDにあらかじめ記憶されるようになっている。
図4(a)に示す2D地図上において、人(検出物体)が存在する場所は通路である。そのため、行動領域算出部31は、2D地図情報35から棚およびレジの領域を削除し、通路のみを取り出して、行動領域41とする。そして、2D地図情報35の行動領域41を三次元空間上から画像上へと変換する。
なお、行動領域算出部31における画像上への変換方法は、様々な方法を用いることができ、限定されるものではない。
例えば、行動領域算出部31は、2D地図情報35を画像化する。そして、画像取得部11から入力された画像との差分を取り、通路(行動領域)のみの領域を算出することができる。また、2D地図情報35が通路の実際位置などを示す場合には、カメラパラメータを用いて、三次元空間位置から画像上へ変換することができる。なお、この変換には、前記したTsaiの手法を用いることができる。
可視領域算出部32は、カメラパラメータ36から、監視カメラの可視領域を算出することができるようになっている。図4(b)に、2D地図情報35における監視カメラ42aの可視領域42を2本の破線で挟まれた領域で示す。ちなみに、カメラパラメータ36は、カメラ設定部22(図2参照)で設定されたカメラパラメータを用いることができる。
なお、可視領域算出部32における可視領域の算出方法は、様々な方法を用いることができ、限定されるものではない。
例えば、カメラの画角を用いて三次元空間上の可視領域を算出することができる。また、CGよりカメラのパラメータから可視範囲を推定することもできる。
走査領域算出部33は、行動領域算出部31が算出した行動領域41および可視領域算出部32が算出した可視領域42に基づいて走査領域43を算出することができるようになっている。図4(b)に、2D地図情報35における走査領域43を一点鎖線で囲まれた網掛けで示す。
走査領域43の算出方法は、行動領域算出部31において算出された行動領域41のうち、可視領域算出部32において算出された可視領域42を走査領域43として算出する。または、行動領域41および可視領域42の重複部分を走査領域43として算出してもよい。
検出領域抽出部34は、検出窓情報37、走査領域算出部33が算出した走査領域43、および、走査間隔算出部15(図1、図2参照)の走査間隔16に基づいて検出領域38を抽出することができるようになっている。ここで、検出窓情報37は、少なくとも検出窓の大きさおよび形状の情報を含むものであり、物体検出装置10のI/Oに接続された入力装置(例えば、キーボード)等により入力され、物体検出装置10のHDDに記憶されるようになっている。
検出領域抽出部34は、走査領域算出部33が算出した走査領域43について、検出窓情報37で設定された検出窓を走査間隔算出部15(図1、図2参照)の走査間隔16で走査して、検出領域38を抽出し、検出領域38を検出部13(図1参照)に出力するようになっている。そして、検出部13は、図4(c)に示すように、画像上の検出領域44を切り出して検出物体であるか否かを識別する。
このように、走査部12は、検出窓を走査する領域を走査領域43に限定することにより、後段の検出部13における演算回数を低減させることができる。
<走査間隔>
次に、図5および図6を用いて、第1実施形態に係る物体検出装置10における走査間隔について説明する。
図5は、走査間隔の算出を説明する図である。
図5において、三次元空間51には、検出物体である人53が示されている。そして、カメラ50にて撮像された画像52には、人56が示されている。
まず、物体検出装置10の走査間隔算出部15(図1および図2参照)は、三次元空間51における検出領域54の走査間隔55を算出する。そして、走査間隔算出部15は、三次元空間51における走査間隔55を、画像52上に変換して、画像52における検出領域57の走査間隔58を求める。なお、変換方法は、例えば、前記した「Tsaiの手法」を用いることができる。
ここで、三次元空間51における走査間隔55は、検出物体等によって異なるが、例えば、見逃すことを防止するため、検出物体の走査方向(図5では、紙面の左右方向)における大きさよりも小さくなるように設定する。
即ち、画像52における走査間隔58の長さは、検出窓の走査方向における画像52上での検出物体の大きさよりも、小さいことを特徴とする。例えば、検出物体が人である場合には、人の幅以下と設定する。これにより、検出物体を見逃すことを低減させることができる。
このように、走査間隔算出部15は、すべての三次元空間位置に対して、検出物体の幅(人の幅)に基づいて、走査間隔16を自動的に算出することができるようになっている。
図6は、画像上に走査間隔算出部が算出した走査間隔を用いた例である。
画像52には、行動領域(走査領域)として通路60が示されている。前記したように、走査部12は、走査領域である道路60を走査するようになっている。
図6に示すように、カメラから遠い場所にいる人61に対しては、検出領域63を走査間隔65で走査する。一方、カメラから近い場所にいる人62に対しては、検出領域64を走査間隔66で走査する。即ち、図6に示すように、カメラの位置と走査する位置との距離に応じて走査間隔を変化させる、即ち、カメラから遠い場所における画面上での走査間隔が、カメラから近い場所における画面上での走査間隔と比較して小さくなるようになっている。
このようにすることにより、カメラから遠い場所における三次元空間上の走査間隔が大きくなることを低減して、検出物体を見逃すことを低減させることができる。
また、第1実施形態に係る物体検出装置10は、図5の三次元空間51に破線で示すように、左右方向に走査しながら、カメラから遠いところから近いところまで(または、近いところから遠いところまで)1回の走査で物体を検出することができるようになっている。換言すれば、画像上の同じ領域を複数回走査しなくても物体を検出することができるようになっている。
このような構成により、例えば、特許文献1のような認識手段による認識処理によって基準画像との一致度が比較的高いと判定された位置近傍に対して、抽出間隔を小さくした抽出を再度行なわせる画像認識装置と比較して、演算量を低減させることができる。
<物体検出処理>
次に、図7を用いて第1実施形態に係る物体検出装置10の物体検出処理について説明する。図7は、第1実施形態に係る物体検出装置10の物体検出処理を示すフローチャートである。
ステップS71において、初期化処理を行う。例えば、幅設定部21で検出物体の幅(人の幅)、カメラ設定部22でカメラパラメータ(36)、2D地図情報35、検出窓情報37を設定(入力)する。
ステップS72において、走査部12は、走査領域を算出する。なお、走査領域の算出は、行動領域算出部31の算出した行動領域と、可視領域算出部32が算出した可視領域に基づいて行われる。
ステップS73において、走査部12は、全ての走査領域の走査が完了したか否かを判定する。全ての走査領域の走査が完了していない場合には(S73・No)、ステップS74に進む。
ステップS74において、走査間隔算出部15は、画像上での走査間隔16を算出する。
ステップS75において、走査部12は、ステップS74で算出した走査間隔16を用いて、検出領域を切り出す。
ステップS76において、検出部13は、ステップS75の検出領域で画像を切り出して、検出物体(人)であるか否かを識別する。
ステップS77において、検出部13は、ステップS76の結果が検出物体(人)と識別したか否かを判定する。検出物体でない場合(S77・No)、ステップS73に戻る。
一方、検出物体である場合(S77・Yes)、ステップS78に進み、出力部14はその結果を出力し(ステップS78)、ステップS73に戻る。
そして、走査間隔算出部15で算出された走査間隔16に基づいて検出領域を走査して、全ての走査領域の走査が完了するまで、ステップS73からS78を繰り返す。全ての走査領域の走査が完了した場合には(S73・Yes)、処理を終了する。
以上のように、第1実施形態に係る物体検出装置10によれば、検出物体の検出漏れを低減するとともに、演算量を低減させることができる。これにより、従来よりもCPUの演算処理能力が低い安価なコンピュータ装置にも適用することができる。また、CPUの演算処理能力が同等であれば、従来よりも1画像あたりの物体検出処理(図7参照)の処理時間を短縮することができるので、画像を取り込んでから、物体検出処理が完了するまでの時間を短縮することができる。換言すれば、単位時間当たりの画像の処理枚数を向上させることができるので、検出結果を画像等により出力部14から出力する構成においては、出力画像のフレームレートを向上させることができる。
≪第2実施形態≫
次に第2実施形態に係る物体検出装置10Aについて、図8から図10を用いて説明すえる。図8は、第2実施形態に係る物体検出装置10Aの機能ブロック図である。
物体検出装置10Aは、画像取得部11と、走査部12と、検出部13と、出力部14と、走査間隔算出部15Aと、を備えている。ここで、第1実施形態に係る物体検出装置10(図1参照)と、第2実施形態に係る物体検出装置10Aとの差異は、画像取得部11で取得した画像を走査間隔算出部15Aにも出力する点で異なっている。その他の構成は、同様であり、説明を省略する。
図9は、第2実施形態に係る物体検出装置10Aが備える走査間隔算出部15Aの機能ブロック図である。
走査間隔算出部15Aは、幅設定部21Aと、カメラ設定部22と、位置推定部23Aと、走査間隔推定部24Aと、を備えている。ここで、第1実施形態に係る走査間隔算出部15(図2参照)と、第2実施形態に係る走査間隔算出部15Aとの差異は、幅設定部21A、位置推定部23Aおよび走査間隔推定部24Aが異なっている。その他の構成は、同様であり、説明を省略する。
幅設定部21Aは、画像取得部11で取得した画像91を用いて検出物体の幅(人の幅)を設定することができるようになっている。例えば、画像91を表示したGUI(Graphical User Interface)により、画像91上での検出物体の幅(人の幅)を直接設定する。また、画像91を動き検知や人検出などの画像処理で検出物体(人)を計測し、計測された検出物体の幅(人の幅)を取得する構成であってもよい。
位置推定部23Aは、画像91上でカメラとの距離(遠いや近い)を反映する相対距離を計測し、走査位置を推定することができるようになっている。
走査間隔推定部24Aは、位置推定部23Aで推定した走査する位置に対して、幅設定部21Aで設定された画像91上の検出物体の幅(人の幅)、カメラ設定部22で設置したカメラパラメータ、および、位置推定部23Aで推定した距離を用いて、画像上での走査間隔16を算出する。
例えば、位置推定部23Aで推定した走査する位置における走査間隔16は、カメラから幅設定部21Aで設定した検出物体(人)の位置までと、カメラから位置推定部23Aで推定した走査する位置までとの相対距離の比率を算出し、その比率と幅設定部21Aで設定した検出物体(人)の幅とに基づいて算出する。
<物体検出処理>
次に、図10を用いて第2実施形態に係る物体検出装置10Aの物体検出処理について説明する。図10は、第2実施形態に係る物体検出装置10Aの物体検出処理を示すフローチャートである。なお、以下の説明において、カメラパラメータ36、2D地図情報35、検出窓情報37は、あらかじめ設定(入力)されているものとする。
ステップS100において、走査間隔算出部15Aは、画像取得部11が取得した画像91を入力する。
ステップS101において、走査間隔算出部15Aは、基準位置における検出物体の幅を算出する。即ち、幅設定部21Aで設定された画像91上での検出物体の幅と、カメラから幅設定部21Aで設定した検出物体(人)の位置までの距離と、カメラから基準位置までの距離と、に基づいて、基準位置における検出物体の幅を算出する。
以後の処理は、図7を用いて説明した第1実施形態の物体検出処理のステップS72からステップS78までと同様であり、説明を省略する。
このように、第2実施形態に係る物体検出装置10Aによれば、画像上の検出物体の幅に基づいて走査間隔を算出することができるので、第1実施形態に係る物体検出装置10よりも好適に走査間隔を算出することができる。
≪変形例≫
なお、本実施形態に係る物体検出装置は、上記実施形態の構成に限定されるものではなく、発明の趣旨を逸脱しない範囲内で種々の変更が可能である。
本実施形態に係る物体検出装置10は、小売店舗に設置された監視カメラの画像から人(検出物体)を検出するものとして説明したが、これに限られるものではない。
例えば、検出物体は人に限られるものではなく、物(例えば、車両)であってもよい。また、物体検出装置10が処理する画像は、店舗に設置された監視カメラの画像としたが、移動体(例えば、車両)に設置されたカメラからの画像であってもよい。
また、走査部12は、2D地図情報33およびカメラパラメータ34から走査領域42を算出するものとして説明したが、これに限られるものではない。例えば、画像取得部11で取得した監視カメラの画像を用いて、セグメンテーションなど画像処理技術によって、通路、棚、レジなどに分類し、分類された通路(検出物体が存在する領域)の部分を走査領域として算出するものであってもよい。そして、走査部12は、このように算出した走査領域と、走査間隔算出部15(図1参照)が算出した走査間隔16と、検出窓情報37とに基づいて、検出領域を抽出するものであってもよい。
このように構成することにより、2D地図情報やカメラパラメータの入力を省くことができる。
また、本実施形態に係る物体検出装置10は、走査方向(画像における左右方向)の走査間隔について説明したが、これに限られるものではなく、走査線同士の間隔(画像における上下方向)についても適用してもよい。
即ち、三次元空間51(図5参照)における走査線の奥行き方向の間隔を設定する。そして、三次元空間51における所定の走査線の間隔を、画像52上に変換して、画像52における走査線同士の上下方向の間隔を求める。なお、変換方法は、例えば、前記した「Tsaiの手法」を用いることができる。
このように求めた走査線の間隔に基づいて検出窓を走査することにより、奥行き方向における検出漏れを低減させることができる。
10 物体検出装置
11 画像取得部
12 走査部
13 検出部
14 出力部
15 走査間隔算出部
16 走査間隔
21 幅設定部
22 カメラ設定部
23 位置推定部
24 走査間隔推定部
31 行動領域算出部
32 可視領域算出部
33 走査領域算出部
34 検出領域抽出部
52 画像
61,62 人(検出物体)
57,63,64 検出領域(検出窓)
58,65,66 走査間隔

Claims (17)

  1. カメラから画像を取得する画像取得部と、
    前記画像において検出窓を走査する際の走査間隔を、前記検出窓で検出される検出物体の前記画像上での大きさに基づき算出する走査間隔算出部と、
    前記走査間隔算出部が算出した前記走査間隔を用いて前記画像上を走査する走査部と、
    前記走査した検出窓の内部に前記検出物体が存在するか否かを判別する検出部と、を備える
    ことを特徴とする物体検出装置。
  2. 前記走査間隔は、
    前記検出窓の走査方向における前記画像上での前記検出物体の大きさよりも小さい
    ことを特徴とする請求項1に記載の物体検出装置。
  3. 前記走査間隔算出部は、
    前記検出物体の前記画像上での位置情報を推定する位置推定部を有し、
    前記カメラのカメラパラメータ、前記検出物体の大きさおよび前記位置情報に基づいて前記検出物体の前記画像上での大きさを算出し、算出した前記画像上での大きさに基づき前記走査間隔を算出する
    ことを特徴とする請求項1に記載の物体検出装置。
  4. 前記走査間隔算出部は、
    前記検出物体の前記画像上での位置情報を推定する位置推定部を有し、
    前記カメラのカメラパラメータ、前記検出物体の大きさおよび前記位置情報に基づいて前記検出物体の前記画像上での大きさを算出し、算出した前記画像上での大きさに基づき前記走査間隔を算出する
    ことを特徴とする請求項2に記載の物体検出装置。
  5. 前記走査間隔は、
    前記カメラから前記検出物体までの距離に応じて変化する
    ことを特徴とする請求項3に記載の物体検出装置。
  6. 前記走査間隔は、
    前記カメラから前記検出物体までの距離に応じて変化する
    ことを特徴とする請求項4に記載の物体検出装置。
  7. 前記カメラから前記検出物体までの距離が大きい場合の走査間隔は、
    前記カメラから前記検出物体までの距離が小さい場合の走査間隔と比較して小さい
    ことを特徴とする請求項5に記載の物体検出装置。
  8. 前記カメラから前記検出物体までの距離が大きい場合の走査間隔は、
    前記カメラから前記検出物体までの距離が小さい場合の走査間隔と比較して小さい
    ことを特徴とする請求項6に記載の物体検出装置。
  9. 前記検出物体が人の場合、
    前記検出窓の走査方向における前記画像上での前記検出物体の大きさは、前記画像上での人の幅である
    ことを特徴とする請求項2に記載の物体検出装置。
  10. 前記検出物体が人の場合、
    前記検出物体の大きさは、人の幅である
    ことを特徴とする請求項3に記載の物体検出装置。
  11. 前記検出物体が人の場合、
    前記検出物体の大きさは、人の幅である
    ことを特徴とする請求項4に記載の物体検出装置。
  12. 前記走査部は、
    前記検出窓の走査方向に延びる走査線と、隣接する走査線との走査線間隔は、
    三次元空間における所定の走査線の間隔を前記画像上での間隔に変換して算出する
    ことを特徴とする請求項1に記載の物体検出装置。
  13. 前記走査部は、
    前記検出物体の可動範囲を示す行動領域および前記カメラの可視領域から前記検出窓を走査する走査領域を算出し、
    該走査領域のうち、前記走査間隔を用いて走査された前記検出窓の情報に基づいて切り出した領域を検出領域として抽出する
    ことを特徴とする請求項1乃至請求項12のいずれか1項に記載の物体検出装置。
  14. 前記検出窓の情報は、
    前記検出窓の大きさおよび形状の情報を含む
    ことを特徴とする請求項13に記載の物体検出装置。
  15. 前記検出窓は、
    前記検出領域を1回のみ走査する
    ことを特徴とする請求項13に記載の物体検出装置。
  16. 前記検出窓は、
    前記検出領域を1回のみ走査する
    ことを特徴とする請求項14に記載の物体検出装置。
  17. 画像において検出窓を走査する際の走査間隔を、前記検出窓で検出される検出物体の画像上での大きさに基づき算出するステップと、
    前記算出した走査間隔を用いて、前記検出窓が前記画像上を走査するステップと、
    前記走査した検出窓の内部に前記検出物体が存在するか否かを判別するステップと、
    を備えることを特徴とする物体検出方法。
JP2012122856A 2012-05-30 2012-05-30 物体検出装置および物体検出方法 Active JP5935118B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012122856A JP5935118B2 (ja) 2012-05-30 2012-05-30 物体検出装置および物体検出方法
EP13169559.5A EP2669849B1 (en) 2012-05-30 2013-05-28 Object detecting device and object detecting method
US13/904,064 US9465998B2 (en) 2012-05-30 2013-05-29 Object detecting device and object detecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012122856A JP5935118B2 (ja) 2012-05-30 2012-05-30 物体検出装置および物体検出方法

Publications (2)

Publication Number Publication Date
JP2013250604A true JP2013250604A (ja) 2013-12-12
JP5935118B2 JP5935118B2 (ja) 2016-06-15

Family

ID=48655948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012122856A Active JP5935118B2 (ja) 2012-05-30 2012-05-30 物体検出装置および物体検出方法

Country Status (3)

Country Link
US (1) US9465998B2 (ja)
EP (1) EP2669849B1 (ja)
JP (1) JP5935118B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017170875A1 (ja) * 2016-03-30 2017-10-05 株式会社エクォス・リサーチ 画像認識装置、及び画像認識プログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015186588A1 (ja) * 2014-06-03 2015-12-10 住友重機械工業株式会社 建設機械用人物検知システム
WO2017057043A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09322155A (ja) * 1996-05-31 1997-12-12 Hitachi Denshi Ltd 映像監視方法及び装置
JP2002029421A (ja) * 2000-07-13 2002-01-29 Matsushita Electric Ind Co Ltd 列車有無判定方法および装置と監視システム
JP2008015771A (ja) * 2006-07-05 2008-01-24 Fujitsu Ten Ltd 画像認識装置、画像認識方法および車両制御装置
JP2009087253A (ja) * 2007-10-02 2009-04-23 Canon Inc 物体検出装置、物体検出方法及びプログラム
JP2009223540A (ja) * 2008-03-14 2009-10-01 Seiko Epson Corp 対象画像からの顔領域の検出

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4517633B2 (ja) * 2003-11-25 2010-08-04 ソニー株式会社 対象物検出装置及び方法
JP4359710B2 (ja) * 2008-02-04 2009-11-04 本田技研工業株式会社 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
JP5264457B2 (ja) 2008-12-12 2013-08-14 セコム株式会社 物体検出装置
JP5594672B2 (ja) 2011-04-14 2014-09-24 株式会社 日立産業制御ソリューションズ 物体認識装置および物体認識方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09322155A (ja) * 1996-05-31 1997-12-12 Hitachi Denshi Ltd 映像監視方法及び装置
US6108033A (en) * 1996-05-31 2000-08-22 Hitachi Denshi Kabushiki Kaisha Method and system monitoring video image by updating template image
JP2002029421A (ja) * 2000-07-13 2002-01-29 Matsushita Electric Ind Co Ltd 列車有無判定方法および装置と監視システム
JP2008015771A (ja) * 2006-07-05 2008-01-24 Fujitsu Ten Ltd 画像認識装置、画像認識方法および車両制御装置
JP2009087253A (ja) * 2007-10-02 2009-04-23 Canon Inc 物体検出装置、物体検出方法及びプログラム
JP2009223540A (ja) * 2008-03-14 2009-10-01 Seiko Epson Corp 対象画像からの顔領域の検出

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017170875A1 (ja) * 2016-03-30 2017-10-05 株式会社エクォス・リサーチ 画像認識装置、及び画像認識プログラム
US10832044B2 (en) 2016-03-30 2020-11-10 Equos Research Co., Ltd. Image recognition device and image recognition program

Also Published As

Publication number Publication date
US9465998B2 (en) 2016-10-11
JP5935118B2 (ja) 2016-06-15
EP2669849A2 (en) 2013-12-04
US20130321624A1 (en) 2013-12-05
EP2669849A3 (en) 2014-10-08
EP2669849B1 (en) 2018-01-03

Similar Documents

Publication Publication Date Title
JP6554169B2 (ja) 物体認識装置及び物体認識システム
JP4203512B2 (ja) 車両周辺監視装置
JP6125188B2 (ja) 映像処理方法及び装置
KR102399017B1 (ko) 이미지 생성 방법 및 장치
US20130163883A1 (en) Apparatus for measuring three-dimensional position, method thereof, and program
JP2008286725A (ja) 人物検出装置および方法
US20120062749A1 (en) Human body identification method using range image camera and human body identification apparatus
WO2018147059A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP6617150B2 (ja) 物体検出方法及び物体検出装置
CN112507767B (zh) 脸部辨识方法及其相关电脑系统
JP5935118B2 (ja) 物体検出装置および物体検出方法
Luna et al. Fast heuristic method to detect people in frontal depth images
JP2012068948A (ja) 顔属性推定装置およびその方法
CN109074646B (zh) 图像识别装置以及图像识别程序
JP6221283B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6811244B2 (ja) 画像処理装置、ステレオカメラ装置及び画像処理方法
JP2008026999A (ja) 障害物検出システム、及び障害物検出方法
JP5217917B2 (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
CN111368883A (zh) 基于单目摄像头的避障方法、计算装置及存储装置
US20180268228A1 (en) Obstacle detection device
JP5891751B2 (ja) 画像間差分装置および画像間差分方法
JP6780639B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
JP2015215235A (ja) 物体検出装置及び物体検出方法
JP6121768B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
US20220230342A1 (en) Information processing apparatus that estimates object depth, method therefor, and storage medium holding program therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160415

R150 Certificate of patent or registration of utility model

Ref document number: 5935118

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150