WO2017094140A1 - 物体検出装置及び物体検出方法 - Google Patents

物体検出装置及び物体検出方法 Download PDF

Info

Publication number
WO2017094140A1
WO2017094140A1 PCT/JP2015/083880 JP2015083880W WO2017094140A1 WO 2017094140 A1 WO2017094140 A1 WO 2017094140A1 JP 2015083880 W JP2015083880 W JP 2015083880W WO 2017094140 A1 WO2017094140 A1 WO 2017094140A1
Authority
WO
WIPO (PCT)
Prior art keywords
optical flow
unit
evaluation value
region
video
Prior art date
Application number
PCT/JP2015/083880
Other languages
English (en)
French (fr)
Inventor
一之 宮澤
関口 俊一
秀明 前原
守屋 芳美
彰 峯澤
亮史 服部
百代 長瀬
友哉 澤田
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to CN201580085019.3A priority Critical patent/CN108369739B/zh
Priority to PCT/JP2015/083880 priority patent/WO2017094140A1/ja
Priority to US15/744,026 priority patent/US10643338B2/en
Priority to JP2016552354A priority patent/JP6116765B1/ja
Priority to EP15909770.8A priority patent/EP3376468B1/en
Publication of WO2017094140A1 publication Critical patent/WO2017094140A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

映像撮像部(1)により異なる時刻に撮像された映像間のオプティカルフローを算出するオプティカルフロー算出部(2)と、映像撮像部(1)により撮像された映像を複数の領域に分割し、その分割した領域毎に、当該分割領域に属する複数の画素についてのオプティカルフローを用いて、当該分割領域が検出対象の物体の一部又は全部を表している物体領域である可能性の尺度を示す評価値を算出する評価値算出部(4)と、評価値算出部(4)により算出された各分割領域の評価値と閾値を比較することで、検出対象の物体が存在している映像内の領域を特定する領域特定部(5)とを備える。

Description

物体検出装置及び物体検出方法
 この発明は、検出対象の物体が存在している映像内の領域を検出する物体検出装置及び物体検出方法に関するものである。
 カメラによって撮影された映像から人や車などの物体を検出する処理は、例えば、ロボットや車載向けのビジョンセンサや、映像監視システムなどに搭載される重要な技術である。
 所望の物体の検出する際には、機械学習に基づくパターン認識処理などの判別処理が用いられることが多い。
 具体的には、カメラによって繰り返し撮像される映像の各フレームから、適当な大きさの局所領域であるウィンドウを切り出し、そのウィンドウ内の映像に対するパターン認識処理などの判別処理を実行して、そのウィンドウ内に物体が存在するか否かを判別することで、検出対象の物体が存在している映像内の領域を検出する。
 パターン認識処理などの判別処理は演算量が多いことが知られている。また、一般的には、映像の各フレームのどの位置にどの程度の大きさの物体が存在しているかは未知であるため、ウィンドウのサイズや位置を少しずつ変えながら、パターン認識処理などの判別処理が繰り返し実行される。
 したがって、一枚のフレームに対して膨大な回数の判別処理を実行しなければならず、演算量が膨大になることがある。
 以下の特許文献1には、判別処理の回数を減らして演算量を削減する目的で、時間方向に輝度変化が大きい画素などを予め物体領域として検出し、その検出した物体領域だけを判別処理の対象としている物体検出装置が開示されている。
特開2007-18324号公報(段落[0008]、図1)
 従来の物体検出装置は以上のように構成されているので、演算量を削減して物体を検出するまでの処理時間を短縮することができるが、映像の撮影時にカメラが静止していることを前提としている。このため、ロボットや自動車などの移動体に搭載されたカメラや、ハンディカメラのように、撮影時に移動しているカメラにより撮像された映像には適用することができない。したがって、移動しながら撮影された映像からは、検出対象の物体が存在している映像内の領域を正確に検出することができないという課題があった。
 この発明は上記のような課題を解決するためになされたもので、移動しながら撮影された映像からでも、検出対象の物体が存在している領域を正確に検出することができる物体検出装置及び物体検出方法を得ることを目的とする。
 この発明に係る物体検出装置は、映像を繰り返し撮像する映像撮像部と、映像撮像部により異なる時刻に撮像された映像間のオプティカルフローを算出するオプティカルフロー算出部とを設け、物体検出部が、オプティカルフロー算出部により算出されたオプティカルフローを用いて、検出対象の物体が存在している映像内の領域を検出するようにしたものである。
 この発明によれば、映像撮像部により異なる時刻に撮像された映像間のオプティカルフローを算出するオプティカルフロー算出部を設け、物体検出部が、オプティカルフロー算出部により算出されたオプティカルフローを用いて、検出対象の物体が存在している映像内の領域を検出するように構成したので、移動しながら映像撮像部によって撮影された映像からでも、検出対象の物体が存在している領域を正確に検出することができる効果がある。
この発明の実施の形態1による物体検出装置を示す構成図である。 この発明の実施の形態1による物体検出装置を示すハードウェア構成図である。 オプティカルフロー算出部2及び物体検出部3がコンピュータで構成される場合のハードウェア構成図である。 オプティカルフロー算出部2及び物体検出部3の処理内容を示すフローチャートである。 オプティカルフローの算出例及びオプティカルフローの空間方向の集約例を示す説明図である。 オプティカルフローの空間的な集合を時間方向に集約している例を示す説明図である。 この発明の実施の形態2による物体検出装置を示す構成図である。 この発明の実施の形態2による物体検出装置を示すハードウェア構成図である。 物体検出部3における領域特定部6の処理内容を示すフローチャートである。 領域補正部7の処理内容を示すフローチャートである。 領域特定部6による探索ウィンドウの設定例を示す説明図である。 探索ウィンドウと検出対象の物体との関係を示す説明図である。 領域特定部6が探索ウィンドウの位置をずらしながら、探索ウィンドウ内に物体が存在しているか否かを判定する処理を示す説明図である。 領域特定部6から出力された矩形の縦・横サイズや位置座標を参照しても、検出対象の物体の大きさや位置を正確に把握できない場合の一例を示す説明図である。 領域補正部7による探索ウィンドウの設定例を示す説明図である。 エッジ画像の一例を示す説明図である。 探索ウィンドウとエッジ密度の関係を示す説明図である。 この発明の実施の形態3による物体検出装置を示す構成図である。 この発明の実施の形態3による物体検出装置を示すハードウェア構成図である。 オプティカルフロー予測部36の処理内容を示すフローチャートである。 物体検出部3における評価値算出部37及び領域特定部38の処理内容を示すフローチャートである。 オプティカルフロー予測部36により求められたカメラ11の運動とカメラ11が写している空間形状に依存するオプティカルフローの一例を示す説明図である。 オプティカルフロー算出部2により算出されたオプティカルフローの一例を示す説明図である。 オプティカルフロー算出部2から出力されたオプティカルフローとオプティカルフロー予測部36から出力されたオプティカルフローとの差分を示す説明図である。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面にしたがって説明する。
実施の形態1.
 図1はこの発明の実施の形態1による物体検出装置を示す構成図であり、図2はこの発明の実施の形態1による物体検出装置を示すハードウェア構成図である。
 図1及び図2において、映像撮像部1は例えば車両やロボットに搭載されているカメラあるいはハンディカメラのように、撮影時に移動可能なカメラ11から構成されており、映像を繰り返し撮像する。映像撮像部1により繰り返し撮像された映像である各フレームの映像データは、後段のオプティカルフロー算出部2に出力される。
 オプティカルフロー算出部2は例えばCPU(Central Processing Unit)を搭載している半導体集積回路あるいはワンチップマイコンなどから構成されているオプティカルフロー算出処理回路12で実現されるものであり、映像撮像部1から出力された映像データを用いて、撮像時刻が異なる映像間、即ち、2つのフレーム間のオプティカルフローを算出する処理を実施する。
 ここで、オプティカルフローは、時間的に連続している映像の中での物体の動きをベクトルで表しているものである。したがって、2つのフレーム間のオプティカルフローを算出するには、2つのフレームに存在している物体、即ち、移動物体や背景を含む静止物などの各物体の対応点が探索されたのち、2つのフレーム間の対応点の移動がベクトルで表現される。
 物体検出部3は評価値算出部4及び領域特定部5から構成されており、オプティカルフロー算出部2により算出されたオプティカルフローを用いて、検出対象の物体が存在している映像内の領域を検出する処理を実施する。
 評価値算出部4は例えばCPUを搭載している半導体集積回路あるいはワンチップマイコンなどから構成されている評価値算出処理回路13で実現されるものであり、映像撮像部1により撮像された映像であるフレームを複数の領域に分割し、その分割した領域毎に、当該分割領域に属する複数の画素についてのオプティカルフローを用いて、当該分割領域が検出対象の物体の一部又は全部を表している物体領域である可能性の尺度を示す評価値を算出する処理を実施する。
 領域特定部5は例えばCPUを搭載している半導体集積回路あるいはワンチップマイコンなどから構成されている領域特定処理回路14で実現されるものであり、評価値算出部4により算出された各分割領域の評価値と閾値を比較することで、検出対象の物体が存在している映像内の領域を特定する処理を実施する。
 図1では、物体検出装置の構成要素である映像撮像部1、オプティカルフロー算出部2及び物体検出部3のそれぞれが専用のハードウェアで構成されているものを想定しているが、オプティカルフロー算出部2及び物体検出部3がコンピュータで構成されているものであってもよい。
 図3はオプティカルフロー算出部2及び物体検出部3がコンピュータで構成される場合のハードウェア構成図である。
 オプティカルフロー算出部2及び物体検出部3がコンピュータで構成される場合、オプティカルフロー算出部2及び物体検出部3の処理内容を記述しているプログラムをコンピュータのプログラムメモリ21に格納し、コンピュータのプロセッサ22がプログラムメモリ21に格納されているプログラムを実行するようにすればよい。なお、プログラムの実行結果や中間処理結果などは適宜RAM(Random Access Memory)23に格納される。
 図4はオプティカルフロー算出部2及び物体検出部3の処理内容を示すフローチャートである。
 次に動作について説明する。
 撮影時に移動可能なカメラ11から構成されている映像撮像部1は、時間的に連続している映像を繰り返し撮像する。
 即ち、映像撮像部1は、例えば、映像のサンプリング間隔がtであれば、時間tを経過する毎に、当該時刻でのフレーム映像を撮像し、そのフレームの映像データをオプティカルフロー算出部2に出力する。
 オプティカルフロー算出部2は、映像撮像部1からフレームの映像データを受ける毎に、当該フレームの映像データを記憶するとともに、任意の2つのフレームの映像データを用いて、任意の2つのフレーム間のオプティカルフローを算出する(図4のステップST1)。例えば、最新のフレームと、1つ前のフレームとの間のオプティカルフローを算出する。
 オプティカルフロー算出部2がコンピュータで構成されている場合、プロセッサ22がプログラムメモリ21に格納されているプログラムを実行することで、映像撮像部1から出力されたフレームの映像データをRAM23に格納するとともに、例えば、最新のフレームの映像データと1つ前のフレームの映像データとを用いて、最新のフレームと1つ前のフレームとの間のオプティカルフローを算出する。
 ここで、図5はオプティカルフローの算出例及びオプティカルフローの空間方向の集約例を示す説明図である。
 図5の例では、フレームを構成している画素毎に、最新のフレームと1つ前のフレームとの間のオプティカルフローを算出しており、12×8個の画素についてのオプティカルフローを算出している。
 図5では、各画素についてのオプティカルフローをベクトルで表しており、ベクトルの基端の位置が1つ前のフレームの画素位置、ベクトルの先端の位置が最新のフレームの画素位置を示している。ベクトルの基端の位置とベクトルの先端の位置とが、物体の同一部分の対応点となっている。
 なお、オプティカルフローを算出する処理自体は公知の技術であり、例えば、以下の非特許文献1に、オプティカルフローの算出方法が開示されているため、オプティカルフローの算出処理の詳細は省略する。
[非特許文献1]
C. Zach, T. Pock and H. Bischof. “A Duality Based Approach for Realtime TV-L1 Optical Flow”, In Proceedings of Pattern Recognition (DAGM), Germany, pp. 214-223, 2007
 物体検出部3は、オプティカルフロー算出部2が2つのフレーム間のオプティカルフローを算出すると、そのオプティカルフローを用いて、検出対象の物体が存在している映像内の領域を検出する。
 以下、物体検出部3による領域検出処理を具体的に説明する。
 物体検出部3の評価値算出部4は、オプティカルフロー算出部2が2つのフレーム間のオプティカルフローを算出すると、図5に示すように、フレームを複数の領域に分割して、分割した領域であるブロック単位にオプティカルフローを空間方向に集約する(図4のステップST2)。即ち、評価値算出部4は、各々のブロック内に属する各画素についてのオプティカルフローの集合をそれぞれ生成する。
 図5では、フレームを6×4個の領域に分割し、各分割領域であるブロックが、それぞれ4個のオプティカルフローを含んでいる例を示している。
 ここでは、ブロックの大きさが2×2の一定サイズである例を示しているが、ブロックの大きさは一定サイズである必要はなく、任意のサイズであってもよい。また、ブロックの形状は矩形である必要はない。
 評価値算出部4は、ブロック単位にオプティカルフローを空間方向に集約すると、各ブロックに属する複数の画素についてのオプティカルフローを用いて、各ブロックが、検出対象の物体の一部又は全部を表している物体領域である可能性の尺度を示す評価値を算出する。
 ただし、オプティカルフロー算出部2により算出されたオプティカルフローにはある程度の誤差が含まれている可能性がある。
 そこで、評価値算出部4は、上記のように評価値を算出する前に、オプティカルフローに誤差が含まれていても、高精度な評価値を算出することができるようにする目的で、オプティカルフロー算出部2による算出時刻が異なる複数のオプティカルフローの中で、空間位置が同じブロックに属する複数の画素についてのオプティカルフローの空間的な集合を時間方向に集約して更に大きな集合を生成する(図4のステップST3)。
 1つの算出時刻でのオプティカルフローだけでは、評価値を算出する上で誤差の影響を受ける可能性があるが、異なる算出時刻でのオプティカルフローの誤差の方向は様々な方向であることが考えられるため、時間方向にオプティカルフローの集合を生成することで、異なる算出時刻での複数のオプティカルフローの誤差を相殺して、誤差の影響を軽減することができる。
 ここで、図6はオプティカルフローの空間的な集合を時間方向に集約している例を示す説明図である。
 図6では、4つの連続するオプティカルフローの中で、同じ空間位置にあるオプティカルフローの空間的な集合を時間方向に集約している例を示している。これにより、同じ空間位置にある1つのブロック内に4×4個(=16個)のオプティカルフローの集合が生成される。
 集約するオプティカルフローの数は、例えば、映像のフレームレートやカメラ11及び検出対象の物体の移動速度に応じて決めることなどが考えられる。
 評価値算出部4は、各ブロックに属する複数の画素についてのオプティカルフローの空間的な集合を時間方向に集約すると、ブロック毎に、時間方向に集約した当該ブロックでのオプティカルフローを用いて、当該ブロックが検出対象の物体の一部又は全部を表している物体領域である可能性の尺度を示す評価値を算出する(図4のステップST4)。
 物体領域である可能性の尺度を示す評価値として、様々な尺度が考えられるが、効果的な尺度として、例えば、オプティカルフローのばらつきが挙げられる。一般的に、映像中の物体領域では、ばらつきが小さい安定したオプティカルフローの集合が得られるのに対し、物体領域以外の領域では、ばらつきが大きい不安定なオプティカルフローの集合が得られることが多いからである。
 したがって、集合に含まれるオプティカルフローのばらつきを評価し、ばらつきが小さければ、その集合は物体領域に属し、ばらつきが大きければ、物体領域以外の領域に属すると判断することができる。ばらつきの評価尺度としては分散が知られている。
 そこで、物体領域である可能性の尺度を示す評価値として、下記の式(1)に示すように、評価値算出部4が、集合に含まれるオプティカルフローから特徴量として、そのオプティカルフローの角度の分散と、そのオプティカルフローの長さの分散とを算出し、その特徴量である角度の分散と長さの分散とから算出することが考えられる。
Figure JPOXMLDOC01-appb-I000001
 式(1)において、Oは時間方向に集約されているオプティカルフローの集合、Noはオプティカルフローの集合の要素数である。
 また、θはi番目のオプティカルフローの角度、nはi番目のオプティカルフローの長さである。
 さらに、mθは時間方向に集約されているオプティカルフローの角度の平均値、mは時間方向に集約されているオプティカルフローの長さの平均値である。
 式(1)の第一項はオプティカルフローの角度の分散を示し、第二項はオプティカルフローの長さの分散を示している。
 なお、集合に含まれるオプティカルフローのばらつきが小さければ、大きな値の評価値が算出され、集合に含まれるオプティカルフローのばらつきが大きければ、小さな値の評価値が算出される。
 式(1)において、第一項と第二項のそれぞれに、補正のための係数を乗ずるようにしてもよい。
 ここでは、評価値算出部4が、集合に含まれるオプティカルフローの角度の分散と長さの分散とから評価値を算出する例を示したが、オプティカルフローの角度の分散と長さの分散とから評価値を算出するものに限るものではなく、例えば、下記の式(2)に示すように、集合Oに属する任意の2つのオプティカルフローの角度と長さの差分絶対値の総和とから評価値を算出するようにしてもよい。
Figure JPOXMLDOC01-appb-I000002
 式(2)において、θはj番目のオプティカルフローの角度、nはj番目のオプティカルフローの長さである。
 なお、2つのオプティカルフローの角度と長さの差分絶対値の総和が小さければ、大きな値の評価値が算出され、2つのオプティカルフローの角度と長さの差分絶対値の総和が大きければ、小さな値の評価値が算出される。
 差分絶対値の総和が小さければ、集合が物体領域に属し、差分絶対値の総和が大きければ、集合が物体領域以外の領域に属すると判断することができるため、オプティカルフローの分散と同様に、効果的な尺度として用いることができる。
 差分絶対値の総和を算出する場合、分散のように平均値の計算や二乗計算を含まないため、分散を算出する場合よりも演算量が小さくなり、高速に算出することが可能となる。
 なお、第一項と第二項のそれぞれに、補正のための係数を乗ずるようにしてもよい。
 物体検出部3の領域特定部5は、評価値算出部4が、あるブロックについての評価値を算出すると、その評価値と事前に設定されている閾値を比較し、その評価値が閾値以上であれば(図4のステップST5:YESの場合)、当該ブロックが検出対象の物体の一部又は全部を表している物体領域であると判断する(ステップST6)。
 一方、その評価値が閾値未満であれば(ステップST5:NOの場合)、当該ブロックが検出対象の物体の一部又は全部を表している物体領域ではないと判断する(ステップST7)。
 閾値としては、例えば、検出対象の物体が存在しない背景だけの映像の各ブロックの評価値をそれぞれ算出し、全てのブロックの評価値の中で、最も大きい評価値より少し大きい値となる当該評価値の1.2倍程度の値などが考えられる。
 ここでは、閾値が事前に設定されている例を示しているが、例えば、映像に応じて適応的に計算するようにしてもよい。背景の映像が複雑であるほど、評価値が小さくなるため、閾値も小さくなることが想定される。
 評価値算出部4が全てのブロックについて評価値を算出し、領域特定部5が全てのブロックについて当該評価値から物体領域であるか否かを判定するまで、ステップST4~ST7の処理を繰り返し実行する(ステップST8)。
 領域特定部5は、全てのブロックについて、物体領域であるか否かを判定すると、その判定結果から検出対象の物体が存在している映像内の領域を特定し、その特定した領域に属する1つ以上のブロックの空間上の位置を示す位置情報を出力する。
 以上で明らかなように、この実施の形態1によれば、映像撮像部1により異なる時刻に撮像された映像間のオプティカルフローを算出するオプティカルフロー算出部2を設け、物体検出部3が、オプティカルフロー算出部2により算出されたオプティカルフローを用いて、検出対象の物体が存在している映像内の領域を検出するように構成したので、移動しながら映像撮像部1によって撮影された映像からでも、検出対象の物体が存在している領域を正確に検出することができる効果を奏する。
 また、物体検出部3の評価値算出部4がブロックの評価値を算出して、領域特定部5が当該評価値から当該ブロックが物体領域であるか否かを判定する際、ブロックのサイズを変えながら評価値の算出処理と判定処理を繰り返す必要がないため、少ない演算量で検出対象の物体が存在している領域を検出することができる効果を奏する。
 なお、ここでの判定処理は、評価値に対する閾値処理であって、演算量が多いパターン認識処理などの判別処理とは異なるため、少ない演算量でブロックが物体領域であるか否かを判定することができる。
 この実施の形態1によれば、評価値算出部4が、空間位置が同じブロックに属する複数の画素についてのオプティカルフローの空間的な集合を時間方向に集約して更に大きな集合を生成するように構成したので、異なる時刻のフレームにおける誤差方向が異なる複数のオプティカルフローの誤差を相殺して、オプティカルフローの誤差の影響が小さな評価値を算出することができる効果を奏する。
 なお、この実施の形態1では、評価値算出部4が、オプティカルフローに誤差が含まれていても、高精度な評価値を算出することができるようにする目的で、オプティカルフロー算出部2による算出時刻が異なる複数のオプティカルフローの中で、空間位置が同じブロックに属する複数の画素についてのオプティカルフローの空間的な集合を時間方向に集約して更に大きな集合を生成するものを示している。これにより、高精度な評価値が得られるが、評価値を算出する際の演算量の増大を防止するために、時間方向に集約した各ブロックにおけるオプティカルフローの集合の中から、評価値の算出に用いるオプティカルフローとして、P(%)のオプティカルフローを選択するようにしてもよい。
 P(%)の値は、例えば、プロセッサ22の性能やRAM23のサイズに応じて決めればよく、任意の値に設定することができる。
実施の形態2.
 上記実施の形態1では、分割領域であるブロックが物体領域であるか否かを判定するものを示したが、1つ以上のブロックからなる探索ウィンドウを設定し、その探索ウィンドウ内に物体が存在しているか否かを判定するようにしてもよい。
 図7はこの発明の実施の形態2による物体検出装置を示す構成図であり、図8はこの発明の実施の形態2による物体検出装置を示すハードウェア構成図である。
 図7及び図8において、図1及び図2と同一符号は同一または相当部分を示すので説明を省略する。
 領域特定部6は例えばCPUを搭載している半導体集積回路あるいはワンチップマイコンなどから構成されている領域特定処理回路15で実現されるものであり、複数のブロックからなる探索ウィンドウを設定する処理を実施する。
 また、領域特定部6は評価値算出部4により算出された各ブロックの評価値の中から、その探索ウィンドウに含まれるブロックの評価値を読み出し、その読み出した評価値から、その探索ウィンドウ内に物体が存在している可能性の尺度を示すスコアを算出し、そのスコアと閾値を比較することで、検出対象の物体が存在している映像内の領域を特定する処理を実施する。
 領域補正部7は例えばCPUを搭載している半導体集積回路あるいはワンチップマイコンなどから構成されている領域補正処理回路16で実現されるものであり、領域特定部6により特定された領域を補正する処理を実施する。
 即ち、領域補正部7は領域特定部6により特定された領域内の映像特徴量、領域特定部6により特定された領域のサイズを拡大した領域内の映像特徴量及び領域特定部6により特定された領域を縮小した領域内の映像特徴量を算出して、算出した複数の映像特徴量を比較し、領域特定部6により特定された領域の補正後の領域として、領域特定部6により特定された領域、そのサイズを拡大した領域及び縮小した領域の中から、複数の映像特徴量の比較結果にしたがっていずれか1つの領域を選択する処理を実施する。
 図7では、物体検出装置の構成要素である映像撮像部1、オプティカルフロー算出部2、物体検出部3及び領域補正部7のそれぞれが専用のハードウェアで構成されているものを想定しているが、オプティカルフロー算出部2、物体検出部3及び領域補正部7がコンピュータで構成されているものであってもよい。
 オプティカルフロー算出部2、物体検出部3及び領域補正部7が図3に示すようなコンピュータで構成される場合、オプティカルフロー算出部2、物体検出部3及び領域補正部7の処理内容を記述しているプログラムがコンピュータのプログラムメモリ21に格納し、コンピュータのプロセッサ22がプログラムメモリ21に格納されているプログラムを実行するようにすればよい。
 図9は物体検出部3における領域特定部6の処理内容を示すフローチャートであり、図10は領域補正部7の処理内容を示すフローチャートである。
 次に動作について説明する。
 ただし、領域特定部6及び領域補正部7以外は、上記実施の形態1と同様であるため、ここでは、領域特定部6及び領域補正部7の処理内容を説明する。
 領域特定部6は、評価値算出部4が、空間位置が同じブロックに属する複数の画素についてのオプティカルフローの空間的な集合を時間方向に集約して更に大きな集合を生成すると、複数のブロックからなる探索ウィンドウを設定する(図9のステップST11)。
 図11は領域特定部6による探索ウィンドウの設定例を示す説明図である。
 図11では、評価値算出部4により算出された各ブロックの評価値が、映像の各フレームと対応する形で平面上に分布しているものとして、各ブロックの評価値が分布している面を評価値面と表しており、その評価値面上に探索ウィンドウを設定している。図11の例では、2つのブロックからなる探索ウィンドウを設定している。
 図11のように、探索ウィンドウが矩形の形状である場合、その探索ウィンドウを特定するパラメータとして、矩形の縦・横サイズと、矩形の左上隅等の位置を示す座標とが用いられる。
 ただし、探索ウィンドウの形状は矩形であるものに限るものではなく、任意の形状でよい。
 領域特定部6は、探索ウィンドウを設定すると、評価値算出部4により算出された各ブロックの評価値の中から、その探索ウィンドウに含まれるブロックの評価値を読み出し、その読み出した評価値から、その探索ウィンドウ内に物体が存在している可能性の尺度を示すスコアを算出する(図9のステップST12)。
 領域特定部6により算出されるスコアとして、例えば、探索ウィンドウに含まれるブロックの評価値の総和などが考えられる。
 ただし、探索ウィンドウのスコアとして、探索ウィンドウに含まれるブロックの評価値の総和を算出する場合、探索ウィンドウのサイズが大きい程、スコアが大きくなる。探索ウィンドウのサイズに比例してスコアが大きくならないようにするため、評価値面内に分布している評価値の平均値などをオフセットとして計算して、探索ウィンドウに含まれる各ブロックの評価値から当該オフセットをそれぞれ減算し、オフセット減算後の各ブロックの評価値の総和などを算出するようにしてもよい。
 探索ウィンドウが検出対象の物体を過不足なく含んでいる場合、探索ウィンドウのスコアが大きな値になる。一方、探索ウィンドウが検出対象の物体を含んでいない場合や、検出対象の物体を含んでいても、その物体の大きさが、探索ウィンドウのサイズと比べて小さい場合、探索ウィンドウのスコアが小さな値になる。
 図12は探索ウィンドウと検出対象の物体との関係を示す説明図である。
 図12において、探索ウィンドウ(1)は検出対象の物体を過不足なく含んでいる場合を示し、探索ウィンドウ(2)は検出対象の物体を含んでいない場合を示している。
 また、探索ウィンドウ(3)は検出対象の物体を含んでいても、その物体の大きさが、探索ウィンドウのサイズと比べて小さい場合を示している。
 領域特定部6は、探索ウィンドウのスコアを算出すると、そのスコアと事前に設定されている閾値を比較し、そのスコアが閾値以上であれば(図9のステップST13:YESの場合)、その探索ウィンドウ内に物体が存在していると判断し(ステップST14)、その探索ウィンドウを特定するパラメータである矩形の縦・横サイズ及び位置座標をRAM23に格納する。
 そのスコアが閾値未満であれば(ステップST13:NOの場合)、その探索ウィンドウ内に物体が存在していないと判断する(ステップST15)。
 閾値としては、例えば、検出対象の物体が存在しない背景だけの映像の各探索ウィンドウのスコアをそれぞれ算出し、全ての探索ウィンドウのスコアの中で、最も大きいスコアより少し大きい値となる当該スコアの1.2倍程度の値などが考えられる。
 ここでは、閾値が事前に設定されている例を示しているが、例えば、映像に応じて適応的に計算するようにしてもよい。背景の映像が複雑であるほど、スコアが小さくなるため、閾値も小さくなることが想定される。
 図13は領域特定部6が探索ウィンドウの位置をずらしながら、探索ウィンドウ内に物体が存在しているか否かを判定する処理を示す説明図である。
 領域特定部6は、図13に示すように、評価値面で探索ウィンドウの位置をずらしながら、評価値面の全ての位置で判定処理が終了するまで、ステップST12~ST15の処理を繰り返し実行する(ステップST16,ST17)。探索ウィンドウの位置のずらしは、例えば、1画素ずつずらすことなどが考えられる。
 領域特定部6は、評価値面の全ての位置で判定処理が終了すると、その判定結果から検出対象の物体が存在している映像内の領域を特定し、即ち、検出対象の物体が存在している探索ウィンドウの位置を特定し、その探索ウィンドウを特定するパラメータである矩形の縦・横サイズ及び位置座標を出力する。
 ここでは、サイズが一定の探索ウィンドウの位置をずらしながら、評価値面の全ての位置で判定処理を実施するものを示したが、異なるサイズの探索ウィンドウを複数用意し、複数の探索ウィンドウの位置をずらしながら、評価値面の全ての位置で判定処理を実施するようにしてもよい。
 この場合、サイズが異なる複数の探索ウィンドウの中で、評価値が最も高くなる探索ウィンドウは、そのサイズが検出対象の物体の大きさとほぼ一致していることが考えられるため、評価値が最も高くなる探索ウィンドウを特定するようにすれば、検出対象の物体の大きさが未知であっても、検出対象の物体が存在している映像内の領域を特定することができる。即ち、検出対象の物体の大きさを特定することができる。
 ただし、サイズが異なる複数の探索ウィンドウを用いる場合、判定処理の演算量が増加して、処理に要する時間が長くなるため、用意する探索ウィンドウの個数は、領域特定部6を実現する領域特定処理回路15、あるいは、領域特定部6を構成するコンピュータにおけるプロセッサ22の処理能力に応じて適宜決定される。
 領域特定部6から出力される位置座標を参照すれば、検出対象の物体の位置を把握することができる。また、サイズが異なる複数の探索ウィンドウを用いる場合、領域特定部6から出力される矩形の縦・横サイズを参照すれば、検出対象の物体の大きさを把握することができる。
 しかし、時間方向にオプティカルフローの集合を生成することで、異なる算出時刻での複数のオプティカルフローの誤差を相殺しても、オプティカルフローの誤差が残存する場合がある。
 オプティカルフローの誤差が残存する場合、サイズが異なる複数の探索ウィンドウの中で、評価値が最も高くなる探索ウィンドウを特定しても、評価値が最も高くなる探索ウィンドウのサイズ及び位置と、検出対象の物体の大きさ及び位置との一致度が小さくなることがある。
 これにより、領域特定部6から出力された矩形の縦・横サイズや位置座標を参照しても、検出対象の物体の大きさや位置を正確に把握できないことがある。
 図14は領域特定部6から出力された矩形の縦・横サイズや位置座標を参照しても、検出対象の物体の大きさや位置を正確に把握できない場合の一例を示す説明図である。
 図14では、評価値が最も高くなる探索ウィンドウのサイズより、検出対象の物体の大きさが小さくなっている例を示している。
 そこで、この実施の形態2では、領域特定部6により特定された領域を補正する領域補正部7を設けている。
 以下、図10を参照しながら、領域補正部7の処理内容を具体的に説明する。
 領域補正部7は、領域特定部6から出力された矩形の縦・横サイズや位置座標を参照して、探索ウィンドウを評価値面に設定する(図10のステップST21)。
 図15は領域補正部7による探索ウィンドウの設定例を示す説明図である。
 この探索ウィンドウの形状は矩形に限るものではないが、領域特定部6により検出対象の物体が存在していると判断された探索ウィンドウよりも十分に小さなウィンドウを探索ウィンドウとして設定する。例えば、領域特定部6により検出対象の物体が存在していると判断された探索ウィンドウのサイズの0.5倍程度のサイズの探索ウィンドウを設定する。
 ただし、設定する探索ウィンドウの中心座標が、領域特定部6により検出対象の物体が存在していると判断された探索ウィンドウの中心座標と一致するように設定する。
 領域補正部7は、探索ウィンドウを評価値面に設定すると、その探索ウィンドウ内の映像特徴量を算出する(図10のステップST22)。
 映像特徴量は、処理対象の映像フレームの画素値から計算される特徴量であり、映像の色、エッジ、勾配などに基づく特徴量が考えられる。
 色に基づく特徴量としては、探索ウィンドウ内の映像における各色の出現頻度を表す色ヒストグラムが考えられる。
 エッジに基づく特徴量としては、探索ウィンドウの周上に存在するエッジの密度を表すエッジ密度が考えられる。
 勾配に基づく特徴量としては、探索ウィンドウ内の映像における画素値の勾配方向の出現頻度を表すHOG(Histogram of Oriented Gradients)などが考えられる。
 この実施の形態2では、映像特徴量がエッジ密度である例を説明する。
 領域補正部7は、探索ウィンドウ内の映像特徴量として、エッジ密度を算出する場合、探索ウィンドウ内の映像に対して、例えば、Canny(Canny Edge Detection)フィルタや微分フィルタを適用することで、エッジ画像を取得する。
 エッジ画像は、例えば、画像のエッジに位置する画素(以下、「エッジ画素」と称する)が“1”、画像のエッジに位置しない画素(以下、「非エッジ画素」と称する)が“0”となるような画像のことである。
 領域補正部7は、エッジ画像を取得すると、その探索ウィンドウの周上において、エッジ画素の総数を計数し、そのエッジ画素の総数を探索ウィンドウの周囲長で除算することで、エッジ密度を算出する。
 図16はエッジ画像の一例を示す説明図である。
 図16では、10×10の画素からなるエッジ画像の例を示しており、グレーで表す画素が非エッジ画素、白で表す画素がエッジ画素である。
 このエッジ画像において、領域補正部7により設定された探索ウィンドウが、8×8の画素からなる場合、探索ウィンドウの周囲の画素は、図16に示すように、太い実線で囲まれている28個の画素である。
 したがって、図16の例では、エッジ画素の総数が7で、ウィンドウの周囲長が28であるため、エッジ密度は、7÷28=0.25となる。
 領域補正部7は、探索ウィンドウ内の映像特徴量として、エッジ密度を算出すると、そのエッジ密度とRAM23に格納されている過去の最大エッジ密度を比較し、その算出したエッジ密度が過去の最大エッジ密度より大きければ(図10のステップST23:YESの場合)、その算出したエッジ密度を過去の最大エッジ密度として、RAM23に上書き保存する(ステップST24)。また、その探索ウィンドウを特定するパラメータである矩形の縦・横サイズと位置座標をRAM23に格納する。
 過去の最大エッジ密度は、領域補正部7により過去に算出されたエッジ密度の中で、最も大きなエッジ密度を意味する。ただし、領域補正部7により最初にエッジ密度が算出される時点では、過去の最大エッジ密度として、0の初期値がRAM23に格納されているものとする。
 領域補正部7は、現在設定中の探索ウィンドウのサイズが、想定している最大のサイズでなければ(ステップST25:NOの場合)、現在設定中の探索ウィンドウのサイズを拡大する(ステップST26)。例えば、現在設定中の探索ウィンドウのサイズの1.1倍のサイズに拡大する。
 図17は探索ウィンドウとエッジ密度の関係を示す説明図である。
 図17の例では、想定している最大のサイズが探索ウィンドウ(4)のサイズであるため、現在設定中の探索ウィンドウのサイズが探索ウィンドウ(4)のサイズより小さければ、現在設定中の探索ウィンドウのサイズを拡大する。
 図17において、探索ウィンドウ(1)は最初に設定されたウィンドウであり、探索ウィンドウ(2)は探索ウィンドウ(1)が拡大されたウィンドウである。
 また、探索ウィンドウ(3)は探索ウィンドウ(2)が拡大されたウィンドウであり、探索ウィンドウ(4)は探索ウィンドウ(3)が拡大されたウィンドウである。
 図17では、説明の簡単化のため、領域補正部7により設定される探索ウィンドウが4個である例を示しているが、領域補正部7の補正精度を高めるため、実際には、4個以上の探索ウィンドウが設定されることが想定される。
 このとき、領域特定部6により検出対象の物体が存在していると判断された探索ウィンドウと同じサイズのウィンドウのほかに、その探索ウィンドウよりも小さなサイズのウィンドウと大きなサイズのウィンドウとを含んでいれば、領域補正部7により設定される探索ウィンドウの個数は問わないが、領域補正部7により設定される探索ウィンドウの個数が増えると、領域補正部7の演算量が増加して、処理に要する時間が長くなるため、領域補正部7により設定される探索ウィンドウの個数は、領域補正部7を実現する領域補正処理回路16、あるいは、領域補正部7を構成するコンピュータにおけるプロセッサ22の処理能力に応じて適宜決定される。
 領域補正部7は、現在設定中の探索ウィンドウのサイズを拡大すると、その探索ウィンドウ内の映像特徴量を算出する(図10のステップST22)。この実施の形態2では、探索ウィンドウ内の映像特徴量として、上記と同様に、エッジ密度を算出する。
 領域補正部7は、探索ウィンドウ内の映像特徴量として、エッジ密度を算出すると、そのエッジ密度とRAM23に格納されている過去の最大エッジ密度を比較し、その算出したエッジ密度が過去の最大エッジ密度より大きければ(ステップST23:YESの場合)、その算出したエッジ密度を過去の最大エッジ密度として、RAM23に上書き保存する。また、その探索ウィンドウを特定するパラメータである矩形の縦・横サイズと位置座標をRAM23に格納する(ステップST24)。
 領域補正部7は、現在設定中の探索ウィンドウのサイズが、想定している最大のサイズになるまで、ステップST22~ST26を繰り返し実行することで、探索ウィンドウ(1)~(4)の映像特徴量としてエッジ密度を算出すると、探索ウィンドウ(1)~(4)のエッジ密度の中で最大のエッジ密度、即ち、RAM23に格納されている最大エッジ密度に対応する探索ウィンドウを特定する(ステップST27)。
 図17の例では、探索ウィンドウ(1)~(4)のエッジ密度の中で、最大のエッジ密度が、探索ウィンドウ(3)のエッジ密度であるため、探索ウィンドウ(3)が特定される。
 探索ウィンドウの境界と物体領域の境界とが正確に一致したときにエッジ密度が非常に大きくなる。探索ウィンドウ(3)は、探索ウィンドウ(1)(2)(4)よりも、物体領域の境界に対して、ウィンドウ境界がより一致しているため、最大のエッジ密度となっている。
 領域補正部7は、RAM23に格納されている最大エッジ密度に対応する探索ウィンドウを特定すると、領域特定部6により特定された領域の補正後の領域を示す情報として、最大エッジ密度に対応する探索ウィンドウを特定するパラメータである矩形の縦・横サイズと位置座標を出力する(ステップST28)。
 また、この他にも領域補正部7は、領域特定部6により特定された領域に含まれる色やオプティカルフローなどに基づいて領域を補正するようにしてもよい。この場合は、色やオプティカルフローが領域特定部6により特定された領域に含まれる色やオプティカルフローと類似している領域を映像内から探索することで領域補正を行う。
 以上で明らかなように、この実施の形態2によれば、領域特定部6により特定された領域内の映像特徴量、領域特定部6により特定された領域のサイズを拡大した領域内の映像特徴量及び領域特定部6により特定された領域を縮小した領域内の映像特徴量を算出して、算出した複数の映像特徴量を比較し、領域特定部6により特定された領域の補正後の領域として、領域特定部6により特定された領域、サイズを拡大した領域及び縮小した領域の中から、複数の映像特徴量の比較結果にしたがっていずれか1つの領域を選択するように構成したので、例えば、時間方向にオプティカルフローの集合を生成するだけでは、オプティカルフローの誤差が残存する場合でも、検出対象の物体が存在している領域を正確に検出することができる効果を奏する。
 この実施の形態2では、最初に、領域特定部6により検出対象の物体が存在していると判断された探索ウィンドウよりも十分に小さなウィンドウを探索ウィンドウとして設定してから、その探索ウィンドウのサイズを徐々に拡大する例を説明したが、最初に、領域特定部6により検出対象の物体が存在していると判断された探索ウィンドウよりも十分に大きなウィンドウを探索ウィンドウとして設定してから、その探索ウィンドウのサイズを徐々に縮小するものであってもよい。
実施の形態3.
 上記実施の形態1,2では、オプティカルフロー算出部2により算出されたオプティカルフローを用いて、検出対象の物体が存在している映像内の領域を検出するものを示したが、オプティカルフロー算出部2により算出されたオプティカルフローのほかに、カメラ11の運動とカメラ11が写している空間形状に依存するオプティカルフローを予測し、その予測したオプティカルフローを用いて、検出対象の物体が存在している映像内の領域を検出するようにしてもよい。
 図18はこの発明の実施の形態3による物体検出装置を示す構成図であり、図19はこの発明の実施の形態3による物体検出装置を示すハードウェア構成図である。
 図18及び図19において、図7及び図8と同一符号は同一または相当部分を示すので説明を省略する。
 カメラパラメータ取得部31は例えばCPUを搭載している半導体集積回路あるいはワンチップマイコンなどから構成されているカメラパラメータ取得処理回路41で実現されるものであり、映像撮像部1を構成しているカメラ11の焦点距離や撮像素子の大きさなどのカメラパラメータを取得する。
 なお、カメラパラメータ取得部31は、カメラ11から直接カメラパラメータを読み出すものであってもよいが、例えば、ハードディスク45からカメラパラメータを読み出すものであってもよい。
 カメラ運動取得部32は運動センサ42によって構成されており、カメラ11の傾きや移動速度などの運動パラメータを取得する。運動センサ42としては、例えば、ジャイロセンサや加速度センサなどが考えられる。
 カメラ位置取得部33は位置センサ43によって構成されており、カメラ11の空間中の位置座標を取得する。位置センサ43としては、例えば、GPS(Global Positioning System)、磁気センサや超音波センサなどが考えられる。
 3次元地図取得部34は例えばCPUを搭載している半導体集積回路あるいはワンチップマイコンなどから構成されている3次元地図取得処理回路44で実現されるものであり、カメラ位置取得部33により取得された位置座標を参照して、3次元地図記憶部35からカメラ11が存在している空間の3次元地図を読み出す処理を実施する。
 3次元地図は、レーザースキャナやステレオカメラなどを用いて計測されることで、事前に3次元地図記憶部35に格納されているものとする。なお、屋内施設であれば、その屋内施設の設計図などから3次元地図が生成されて、3次元地図記憶部35に格納されていることも考えられる。
 3次元地図記憶部35はハードディスク45から構成されており、3次元地図を記憶している。
 オプティカルフロー予測部36は例えばCPUを搭載している半導体集積回路あるいはワンチップマイコンなどから構成されているオプティカルフロー予測処理回路46で実現されるものであり、カメラ運動取得部32により取得された運動パラメータと、カメラ位置取得部33により取得されたカメラ11の空間中の位置座標と、3次元地図取得部34により取得されたカメラ11が存在する空間の3次元地図とを用いて、その空間の3次元形状に依存するオプティカルフローを予測する処理を実施する。
 また、オプティカルフロー予測部36はカメラパラメータ取得部31により取得されたカメラパラメータを用いて、その予測した3次元形状に依存するオプティカルフローを2次元画像平面に投影することで、カメラ11の運動とカメラ11が写している空間形状に依存するオプティカルフローを求め、そのオプティカルフローを評価値算出部37に出力する処理を実施する。
 物体検出部3は評価値算出部37及び領域特定部38から構成されており、オプティカルフロー算出部2から出力されたオプティカルフローとオプティカルフロー予測部36から出力されたオプティカルフローとを用いて、検出対象の物体が存在している映像内の領域を検出する処理を実施する。
 評価値算出部37は例えばCPUを搭載している半導体集積回路あるいはワンチップマイコンなどから構成されている評価値算出処理回路47で実現されるものであり、オプティカルフロー算出部2から出力されたオプティカルフローとオプティカルフロー予測部36から出力されたオプティカルフローとから、映像を構成している画素毎に、当該画素が検出対象の物体の一部を表している画素である可能性の尺度を示す評価値を算出する処理を実施する。
 領域特定部38は例えばCPUを搭載している半導体集積回路あるいはワンチップマイコンなどから構成されている領域特定処理回路48で実現されるものであり、評価値算出部37により算出された各画素の評価値と閾値を比較することで、検出対象の物体が存在している映像内の領域を特定する処理を実施する。
 図18では、物体検出装置の構成要素である映像撮像部1、オプティカルフロー算出部2、カメラパラメータ取得部31、カメラ運動取得部32、カメラ位置取得部33、3次元地図取得部34、3次元地図記憶部35、オプティカルフロー予測部36、物体検出部3及び領域補正部7のそれぞれが専用のハードウェアで構成されているものを想定しているが、オプティカルフロー算出部2、オプティカルフロー予測部36、物体検出部3及び領域補正部7がコンピュータで構成されているものであってもよい。
 オプティカルフロー算出部2、オプティカルフロー予測部36、物体検出部3及び領域補正部7が図3に示すようなコンピュータで構成される場合、オプティカルフロー算出部2、オプティカルフロー予測部36、物体検出部3及び領域補正部7の処理内容を記述しているプログラムをコンピュータのプログラムメモリ21に格納し、コンピュータのプロセッサ22がプログラムメモリ21に格納されているプログラムを実行するようにすればよい。
 図20はオプティカルフロー予測部36の処理内容を示すフローチャートであり、図21は物体検出部3における評価値算出部37及び領域特定部38の処理内容を示すフローチャートである。
 次に動作について説明する。
 撮影時に移動可能なカメラ11から構成されている映像撮像部1は、上記実施の形態1と同様に、時間的に連続している映像を繰り返し撮像する。
 即ち、映像撮像部1は、例えば、映像のサンプリング間隔がtであれば、時間tを経過する毎に、当該時刻でのフレーム映像を撮像し、そのフレームの映像データをオプティカルフロー算出部2に出力する。
 オプティカルフロー算出部2は、上記実施の形態1と同様に、映像撮像部1からフレームの映像データを受ける毎に、当該フレームの映像データを記憶するとともに、任意の2つのフレームの映像データを用いて、任意の2つのフレーム間のオプティカルフローを算出する。例えば、最新のフレームと、1つ前のフレームとの間のオプティカルフローを算出する。
 カメラパラメータ取得部31は、映像撮像部1を構成しているカメラ11の焦点距離や撮像素子の大きさなどのカメラパラメータを取得し、そのカメラパラメータをオプティカルフロー予測部36に出力する。
 カメラ運動取得部32は、カメラ11の傾きや移動速度などの運動パラメータを取得し、その運動パラメータをオプティカルフロー予測部36に出力する。
 カメラ位置取得部33は、カメラ11の空間中の位置座標を取得し、その位置座標をオプティカルフロー予測部36及び3次元地図取得部34に出力する。
 3次元地図取得部34は、カメラ位置取得部33から位置座標を受けると、その位置座標を参照して、3次元地図記憶部35からカメラ11が存在している空間の3次元地図を読み出し、カメラ11が存在している空間の3次元地図をオプティカルフロー予測部36に出力する。
 検出対象の物体が存在していない空間でのオプティカルフローは、カメラ11の運動と、カメラ11が写している空間の背景などの3次元形状とに依存して決まる。
 一方、検出対象の物体が存在している映像から算出されるオプティカルフローは、カメラ11の運動と、カメラ11が写している空間の背景などの3次元形状と、空間中の検出対象の物体の形状及び運動とに依存して決まる。
 また、カメラ11が写している3次元空間が、どのように2次元の画像平面に投影されるかは、カメラパラメータに依存して決まる。
 そのため、オプティカルフロー予測部36は、カメラ運動取得部32から出力された運動パラメータと、カメラ位置取得部33から出力されたカメラ11の空間中の位置座標と、3次元地図取得部34から出力されたカメラ11が存在する空間の3次元地図とを用いて、その空間の3次元形状に依存するオプティカルフローを予測する(図20のステップST31)。
 この実施の形態3では、オプティカルフロー予測部36により予測されるオプティカルフローは、カメラ11が写している空間中に検出対象の物体が存在していない状態で予測されているものとする。
 なお、カメラ11の運動パラメータと、カメラ11の空間中の位置座標と、カメラ11が存在する空間の3次元地図とを用いて、その空間の3次元形状に依存するオプティカルフローを予測する処理自体は公知の技術であるため詳細な説明を省略する。
 オプティカルフロー予測部36は、カメラ11が存在する空間の3次元形状に依存するオプティカルフローを予測すると、カメラパラメータ取得部31から出力されたカメラパラメータを用いて、その予測したオプティカルフローを2次元画像平面に投影することで、カメラ11の運動とカメラ11が写している空間形状に依存するオプティカルフローを求め、そのオプティカルフローを物体検出部3の評価値算出部37に出力する(ステップST32)。
 予測したオプティカルフローを2次元画像平面に投影する処理自体は公知の技術であるため詳細な説明を省略する。
 ここで、図22はオプティカルフロー予測部36により求められたカメラ11の運動とカメラ11が写している空間形状に依存するオプティカルフローの一例を示す説明図である。
 また、図23はオプティカルフロー算出部2により算出されたオプティカルフローの一例を示す説明図である。
 この実施の形態3では、オプティカルフロー算出部2により算出されたオプティカルフローは、カメラ11が写している空間中に検出対象の物体が存在している状態で算出されているものとする。このため、図23に示すオプティカルフローは、カメラ11の運動とカメラ11が写している空間形状に依存するオプティカルフローと、空間に存在する検出対象の物体の形状及び運動に依存するオプティカルフローとが合成された状態となる。
 物体検出部3の評価値算出部37は、映像フレームを構成している画素単位で、オプティカルフロー算出部2から出力されたオプティカルフローとオプティカルフロー予測部36から出力されたオプティカルフローとを比較することで、映像フレームを構成している画素が、検出対象の物体の一部を表している画素である可能性の尺度を示す評価値を算出する(図21のステップST41)。
 フレーム中の座標iにおける評価値として、例えば、下記の式(3)に示すように、双方のオプティカルフローの差分ノルムを用いることができる。
Figure JPOXMLDOC01-appb-I000003
 式(3)において、fはオプティカルフロー算出部2から出力された座標iのオプティカルフロー、gはオプティカルフロー予測部36から出力された座標iのオプティカルフロー、||・||はノルムを表す記号である。
 図24はオプティカルフロー算出部2から出力されたオプティカルフローとオプティカルフロー予測部36から出力されたオプティカルフローとの差分を示す説明図である。
 図24において、物体領域は、双方のオプティカルフローの差分に相当している。
 物体検出部3の領域特定部38は、評価値算出部37が映像フレームを構成している画素の評価値を算出すると、その画素の評価値と事前に設定されている閾値を比較し、その評価値が閾値以上であれば(図21のステップST42:YESの場合)、当該画素が検出対象の物体の一部を表している画素であると判断する(ステップST43)。
 一方、当該画素の評価値が閾値未満であれば(ステップST42:NOの場合)、当該画素が検出対象の物体の一部を表している画素ではないと判断する(ステップST44)。
 閾値としては、例えば、検出対象の物体が存在しない背景だけの映像の各画素の評価値をそれぞれ算出し、全ての画素の評価値の中で、最も大きい評価値より少し大きい値となる当該評価値の1.2倍程度の値などが考えられる。
 ここでは、閾値が事前に設定されている例を示しているが、例えば、映像に応じて適応的に計算するようにしてもよい。背景の映像が複雑であるほど、評価値が小さくなるため、閾値も小さくなることが想定される。
 評価値算出部37が全ての画素について評価値を算出し、領域特定部38が全ての画素について当該評価値から検出対象の物体の一部を表している画素であるか否かを判定するまで、ステップST41~ST44の処理を繰り返し実行する(ステップST45)。
 領域特定部38は、全ての画素について、検出対象の物体の一部を表している画素であるか否かを判定すると、その判定結果から検出対象の物体が存在している映像内の領域を特定し、その特定した領域に属する1つ以上の画素の空間上の位置を示す位置情報を出力する。
 この実施の形態3では、映像フレームを構成している画素毎に、当該画素が検出対象の物体の一部を表している画素であるか否かを判定するものを示したが、複数の画素からなる探索ウィンドウを設定し、その探索ウィンドウ内に物体が存在しているか否かを判定するようにしてもよい。
 具体的には、以下の通りである。
 この実施の形態3では、評価値算出部37により算出された各画素の評価値が、映像の各フレームと対応する形で平面上に分布しているものとし、各画素の評価値が分布している面を評価値面と称する。因みに、上記実施の形態2では、図11に示すように、複数の画素からなるブロック単位の評価値が分布している面を評価値面としており、評価値の算出単位が実施の形態3と相違している。
 領域特定部38は、評価値算出部37が映像フレームを構成している各画素の評価値を算出すると、複数の画素からなる探索ウィンドウを設定する。
 探索ウィンドウの形状は特に問わないが、探索ウィンドウの形状を矩形とする場合、その探索ウィンドウを特定するパラメータとして、矩形の縦・横サイズと、矩形の左上隅等の位置を示す座標とが用いられる。
 領域特定部38は、探索ウィンドウを設定すると、評価値算出部37により算出された各画素の評価値の中から、その探索ウィンドウに含まれる画素の評価値を読み出し、その読み出した評価値から、その探索ウィンドウ内に物体が存在している可能性の尺度を示すスコアを算出する。
 領域特定部38により算出されるスコアとして、例えば、探索ウィンドウに含まれる画素の評価値の総和などが考えられる。
 ただし、探索ウィンドウのスコアとして、探索ウィンドウに含まれる画素の評価値の総和を算出する場合、探索ウィンドウのサイズが大きい程、スコアが大きくなる。探索ウィンドウのサイズに比例してスコアが大きくならないようにするため、評価値面内に分布している評価値の平均値などをオフセットとして計算して、探索ウィンドウに含まれる各画素の評価値から当該オフセットをそれぞれ減算し、オフセット減算後の各画素の評価値の総和などを算出するようにしてもよい。
 探索ウィンドウが検出対象の物体を過不足なく含んでいる場合、探索ウィンドウのスコアが大きな値になる。一方、探索ウィンドウが検出対象の物体を含んでいない場合や、検出対象の物体を含んでいても、その物体の大きさが、探索ウィンドウのサイズと比べて小さい場合、探索ウィンドウのスコアが小さな値になる。
 このことは、上記実施の形態2と同様であり、図12には探索ウィンドウと検出対象の物体との関係を示している。
 図12において、探索ウィンドウ(1)は検出対象の物体を過不足なく含んでいる場合を示し、探索ウィンドウ(2)は検出対象の物体を含んでいない場合を示している。
 また、探索ウィンドウ(3)は検出対象の物体を含んでいても、その物体の大きさが、探索ウィンドウのサイズと比べて小さい場合を示している。
 領域特定部38は、探索ウィンドウのスコアを算出すると、上記実施の形態2における領域特定部6と同様に、そのスコアと事前に設定されている閾値を比較し、そのスコアが閾値以上であれば、その探索ウィンドウ内に物体が存在していると判断し、その探索ウィンドウを特定するパラメータである矩形の縦・横サイズ及び位置座標をRAM23に格納する。
 そのスコアが閾値未満であれば、その探索ウィンドウ内に物体が存在していないと判断する。
 閾値としては、例えば、検出対象の物体が存在しない背景だけの映像の各探索ウィンドウのスコアをそれぞれ算出し、全ての探索ウィンドウのスコアの中で、最も大きいスコアより少し大きい値となる当該スコアの1.2倍程度の値などが考えられる。
 ここでは、閾値が事前に設定されている例を示しているが、例えば、映像に応じて適応的に計算するようにしてもよい。背景の映像が複雑であるほど、スコアが小さくなるため、閾値も小さくなることが想定される。
 領域特定部38は、上記実施の形態2における領域特定部6と同様に、評価値面で探索ウィンドウの位置をずらしながら、評価値面の全ての位置で判定処理を実施する。
 領域特定部38は、評価値面の全ての位置で判定処理が終了すると、その判定結果から検出対象の物体が存在している映像内の領域を特定し、即ち、検出対象の物体が存在している探索ウィンドウの位置を特定し、その探索ウィンドウを特定するパラメータである矩形の縦・横サイズ及び位置座標を出力する。
 ここでは、サイズが一定の探索ウィンドウの位置をずらしながら、評価値面の全ての位置で判定処理を実施するものを示したが、異なるサイズの探索ウィンドウを複数用意し、複数の探索ウィンドウの位置をずらしながら、評価値面の全ての位置で判定処理を実施するようにしてもよい。
 この場合、検出対象の物体の大きさが未知であっても、検出対象の物体が存在している映像内の領域を特定することができる。即ち、検出対象の物体の大きさを特定することができる。
 ただし、サイズが異なる複数の探索ウィンドウを用いる場合、判定処理の演算量が増加して、処理に要する時間が長くなるため、用意する探索ウィンドウの個数は、領域特定部38を実現する領域特定処理回路48、あるいは、領域特定部38を構成するコンピュータにおけるプロセッサ22の処理能力に応じて適宜決定される。
 領域特定部38から出力される位置座標を参照すれば、検出対象の物体の位置を把握することができる。また、サイズが異なる複数の探索ウィンドウを用いる場合、領域特定部38から出力される矩形の縦・横サイズを参照すれば、検出対象の物体の大きさを把握することができる。
 しかし、オプティカルフロー算出部2により算出されたオプティカルフローに誤差がある場合、サイズが異なる複数の探索ウィンドウの中で、評価値が最も高くなる探索ウィンドウを特定しても、評価値が最も高くなる探索ウィンドウのサイズ及び位置と、検出対象の物体の大きさ及び位置との一致度が小さくなることがある。
 これにより、領域特定部38から出力された矩形の縦・横サイズや位置座標を参照しても、検出対象の物体の大きさや位置を正確に把握できないことがある。
 そこで、この実施の形態3でも、領域特定部38により特定された領域を補正する領域補正部7を設けている。
 領域補正部7の処理内容は、上記実施の形態2と同様であるため詳細な説明を省略する。
 以上で明らかなように、この実施の形態3によれば、カメラパラメータ取得部31により取得されたカメラパラメータと、カメラ運動取得部32により取得された運動パラメータと、カメラ位置取得部33により取得されたカメラ11の空間中の位置座標と、3次元地図取得部34により取得されたカメラ11が存在する空間の3次元地図とを用いて、カメラ11の運動とカメラ11が写している空間形状に依存するオプティカルフローを予測するオプティカルフロー予測部36を設け、評価値算出部37が、オプティカルフロー算出部2から出力されたオプティカルフローとオプティカルフロー予測部36から出力されたカメラ11の運動とカメラ11が写している空間形状に依存するオプティカルフローとから、映像を構成している画素毎に、当該画素が検出対象の物体の一部を表している画素である可能性の尺度を示す評価値を算出し、領域特定部38が、評価値算出部37により算出された各画素の評価値と閾値を比較することで、検出対象の物体が存在している映像内の領域を特定するように構成したので、上記実施の形態1と同様に、移動しながら映像撮像部1によって撮影された映像からでも、検出対象の物体が存在している領域を正確に検出することができる効果を奏する。
 なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 この発明は、移動しながら撮影された映像からでも、検出対象の物体が存在している領域を正確に検出する必要があるものに適している。
 1 映像撮像部、2 オプティカルフロー算出部、3 物体検出部、4 評価値算出部、5,6 領域特定部、7 領域補正部、11 カメラ、12 オプティカルフロー算出処理回路、13 評価値算出処理回路、14,15 領域特定処理回路、16 領域補正処理回路、21 プログラムメモリ、22 プロセッサ、23 RAM、31 カメラパラメータ取得部、32 カメラ運動取得部、33 カメラ位置取得部、34 3次元地図取得部、35 3次元地図記憶部、36 オプティカルフロー予測部、37 評価値算出部、38 領域特定部、41 カメラパラメータ取得処理回路、42 運動センサ、43 位置センサ、44 3次元地図取得処理回路、45 ハードディスク、46 オプティカルフロー予測処理回路、47 評価値算出処理回路、48 領域特定処理回路。

Claims (11)

  1.  映像を繰り返し撮像する映像撮像部と、
     前記映像撮像部により異なる時刻に撮像された映像間のオプティカルフローを算出するオプティカルフロー算出部と、
     前記オプティカルフロー算出部により算出されたオプティカルフローを用いて、検出対象の物体が存在している映像内の領域を検出する物体検出部と
     を備えた物体検出装置。
  2.  前記物体検出部により検出された領域を補正する領域補正部を備え、
     前記領域補正部は、前記物体検出部により検出された領域内の映像特徴量、前記検出された領域の位置及びサイズを変更した領域内の映像特徴量を算出して、算出した複数の映像特徴量を比較し、
     前記物体検出部により検出された領域の補正後の領域として、前記物体検出部により検出された領域、前記変更した領域の中から、前記複数の映像特徴量の比較結果にしたがっていずれか1つの領域を選択することを特徴とする請求項1記載の物体検出装置。
  3.  前記オプティカルフロー算出部は、前記映像を構成している画素毎に、異なる時刻に撮像された映像間のオプティカルフローを算出し、
     前記物体検出部は、
     前記映像撮像部により撮像された映像を一つあるいは複数の領域に分割し、その分割した領域毎に、当該分割領域に属する複数の画素についての前記オプティカルフローを用いて、当該分割領域が検出対象の物体の一部又は全部を表している物体領域である可能性の尺度を示す評価値を算出する評価値算出部と、
     前記評価値算出部により算出された各分割領域の評価値と閾値を比較することで、検出対象の物体が存在している映像内の領域を特定する領域特定部とから構成されていることを特徴とする請求項1記載の物体検出装置。
  4.  前記オプティカルフロー算出部は、前記映像を構成している画素毎に、異なる時刻に撮像された映像間のオプティカルフローを算出し、
     前記物体検出部は、
     前記映像撮像部により撮像された映像を一つあるいは複数の領域に分割し、その分割した領域毎に、当該分割領域に属する複数の画素についての前記オプティカルフローを用いて、当該分割領域が検出対象の物体の一部又は全部を表している物体領域である可能性の尺度を示す評価値を算出する評価値算出部と、
     前記評価値算出部により算出された各分割領域の評価値が映像内で最大となる領域を探索することで、検出対象の物体が存在している映像内の領域を特定する領域特定部とから構成されていることを特徴とする請求項1記載の物体検出装置。
  5.  前記評価値算出部は、前記分割領域に属する複数の画素についての前記オプティカルフローから特徴量を算出して、前記特徴量から前記評価値を算出することを特徴とする請求項3記載の物体検出装置。
  6.  前記評価値算出部は、前記分割領域に属する複数の画素についての前記オプティカルフローの角度の分散と、前記オプティカルフローの長さの分散とを算出して、前記角度の分散と前記長さの分散から前記評価値を算出することを特徴とする請求項3記載の物体検出装置。
  7.  前記評価値算出部は、前記分割領域に属する複数の画素についての前記オプティカルフローの角度の差分絶対値の総和と、前記オプティカルフローの長さの差分絶対値の総和とを算出して、前記角度の差分絶対値の総和と前記長さの差分絶対値の総和から前記評価値を算出することを特徴とする請求項3記載の物体検出装置。
  8.  前記評価値算出部は、前記オプティカルフロー算出部により異なる時刻に撮像された映像間のオプティカルフローが算出される毎に、その算出時刻が異なる複数のオプティカルフローの中で、空間位置が同じ分割領域に属する複数の画素についてのオプティカルフローを時間方向に集約し、その集約したオプティカルフローを用いて、当該分割領域が検出対象の物体の一部又は全部を表している物体領域である可能性の尺度を示す評価値を算出することを特徴とする請求項3記載の物体検出装置。
  9.  前記映像撮像部の撮像に用いられるカメラのカメラパラメータ、位置及び運動パラメータと、前記カメラが存在する空間の3次元地図とを用いて、前記カメラの運動と前記カメラが写している空間形状に依存するオプティカルフローを予測するオプティカルフロー予測部を備え、
     前記物体検出部は、
     前記オプティカルフロー算出部により算出されたオプティカルフローと前記オプティカルフロー予測部により予測されたオプティカルフローとから、前記映像を構成している画素毎に、当該画素が検出対象の物体の一部を表している画素である可能性の尺度を示す評価値を算出する評価値算出部と、
     前記評価値算出部により算出された各画素の評価値と閾値を比較することで、検出対象の物体が存在している映像内の領域を特定する領域特定部とから構成されていることを特徴とする請求項1記載の物体検出装置。
  10.  前記映像撮像部の撮像に用いられるカメラのカメラパラメータ、位置及び運動パラメータと、前記カメラが存在する空間の3次元地図とを用いて、前記カメラの運動と前記カメラが写している空間形状に依存するオプティカルフローを予測するオプティカルフロー予測部を備え、
     前記物体検出部は、
     前記オプティカルフロー算出部により算出されたオプティカルフローと前記オプティカルフロー予測部により予測されたオプティカルフローとから、前記映像を構成している画素毎に、当該画素が検出対象の物体の一部を表している画素である可能性の尺度を示す評価値を算出する評価値算出部と、
     前記評価値算出部により算出された各分割領域の評価値が映像内で最大となる領域を探索することで、検出対象の物体が存在している映像内の領域を特定する領域特定部とから構成されていることを特徴とする請求項1記載の物体検出装置。
  11.  映像撮像部が、映像を繰り返し撮像し、
     オプティカルフロー算出部が、前記映像撮像部により異なる時刻に撮像された映像間のオプティカルフローを算出し、
     物体検出部が、前記オプティカルフロー算出部により算出されたオプティカルフローを用いて、検出対象の物体が存在している映像内の領域を検出する
     物体検出方法。
PCT/JP2015/083880 2015-12-02 2015-12-02 物体検出装置及び物体検出方法 WO2017094140A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201580085019.3A CN108369739B (zh) 2015-12-02 2015-12-02 物体检测装置和物体检测方法
PCT/JP2015/083880 WO2017094140A1 (ja) 2015-12-02 2015-12-02 物体検出装置及び物体検出方法
US15/744,026 US10643338B2 (en) 2015-12-02 2015-12-02 Object detection device and object detection method
JP2016552354A JP6116765B1 (ja) 2015-12-02 2015-12-02 物体検出装置及び物体検出方法
EP15909770.8A EP3376468B1 (en) 2015-12-02 2015-12-02 Object detection device and object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/083880 WO2017094140A1 (ja) 2015-12-02 2015-12-02 物体検出装置及び物体検出方法

Publications (1)

Publication Number Publication Date
WO2017094140A1 true WO2017094140A1 (ja) 2017-06-08

Family

ID=58666882

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/083880 WO2017094140A1 (ja) 2015-12-02 2015-12-02 物体検出装置及び物体検出方法

Country Status (5)

Country Link
US (1) US10643338B2 (ja)
EP (1) EP3376468B1 (ja)
JP (1) JP6116765B1 (ja)
CN (1) CN108369739B (ja)
WO (1) WO2017094140A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019177130A1 (ja) * 2018-03-16 2019-09-19 日本電信電話株式会社 情報処理装置および情報処理方法
JP2019219838A (ja) * 2018-06-19 2019-12-26 日産自動車株式会社 物体検出方法及び物体検出装置
WO2022215409A1 (ja) * 2021-04-05 2022-10-13 日立Astemo株式会社 物体追跡装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111105428B (zh) * 2019-11-08 2023-11-14 上海航天控制技术研究所 一种星敏感器前向滤波硬件图像处理方法
US11317137B2 (en) * 2020-06-18 2022-04-26 Disney Enterprises, Inc. Supplementing entertainment content with ambient lighting

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006215655A (ja) * 2005-02-01 2006-08-17 Sharp Corp 動きベクトル検出方法、動きベクトル検出装置、動きベクトル検出プログラム及びプログラム記録媒体
JP2009157581A (ja) * 2007-12-26 2009-07-16 Toyota Central R&D Labs Inc 歩行者検出装置
JP2010128947A (ja) * 2008-11-28 2010-06-10 Nippon Telegr & Teleph Corp <Ntt> 非定常度推定装置、非定常度推定方法、非定常度推定プログラム
JP2010160743A (ja) * 2009-01-09 2010-07-22 Canon Inc 物体検知装置及び物体検知方法
WO2010084739A1 (ja) * 2009-01-23 2010-07-29 日本電気株式会社 映像識別子抽出装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07262375A (ja) * 1994-03-25 1995-10-13 Toshiba Corp 移動体検出装置
JPH1011585A (ja) * 1996-06-20 1998-01-16 Toyota Motor Corp 物体検出装置
JP3885999B2 (ja) * 2001-12-28 2007-02-28 本田技研工業株式会社 物体検出装置
US7266220B2 (en) * 2002-05-09 2007-09-04 Matsushita Electric Industrial Co., Ltd. Monitoring device, monitoring method and program for monitoring
JP2007266652A (ja) 2004-05-31 2007-10-11 Matsushita Electric Ind Co Ltd 移動物体検出装置、移動物体検出方法、移動物体検出プログラム、映像復号化装置、映像符号化装置、撮像装置及び映像管理システム
US20060050953A1 (en) * 2004-06-18 2006-03-09 Farmer Michael E Pattern recognition method and apparatus for feature selection and object classification
JP4610005B2 (ja) 2005-07-08 2011-01-12 財団法人電力中央研究所 画像処理による侵入物体検出装置および方法およびプログラム
JP4817384B2 (ja) 2006-12-06 2011-11-16 学校法人早稲田大学 移動物体検出装置及び移動物体検出装置用プログラム
JP4845715B2 (ja) 2006-12-22 2011-12-28 キヤノン株式会社 画像処理方法、画像処理装置、プログラム、及び記憶媒体
JP4453775B2 (ja) * 2008-06-27 2010-04-21 トヨタ自動車株式会社 物体検出装置
JP5421072B2 (ja) * 2008-11-19 2014-02-19 クラリオン株式会社 接近物体検知システム
JP5400718B2 (ja) * 2010-07-12 2014-01-29 株式会社日立国際電気 監視システムおよび監視方法
CN104395156B (zh) * 2012-07-03 2017-02-22 歌乐株式会社 车辆周围监视装置
JP6120395B2 (ja) * 2012-07-03 2017-04-26 クラリオン株式会社 車載装置
US9445057B2 (en) * 2013-02-20 2016-09-13 Magna Electronics Inc. Vehicle vision system with dirt detection
US9213901B2 (en) * 2013-09-04 2015-12-15 Xerox Corporation Robust and computationally efficient video-based object tracking in regularized motion environments
CN103871076B (zh) * 2014-02-27 2017-07-28 西安电子科技大学 基于光流法和超像素分割的运动目标提取方法
EP3149656B1 (en) * 2014-05-27 2020-01-15 Robert Bosch GmbH Detection, identification, and mitigation of lens contamination for vehicle mounted camera systems
CN104091351B (zh) * 2014-06-27 2017-03-15 江苏慧眼数据科技股份有限公司 基于聚类法的人数计数方法
CN104881645B (zh) * 2015-05-26 2018-09-14 南京通用电器有限公司 基于特征点互信息量和光流法的车辆前方目标的检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006215655A (ja) * 2005-02-01 2006-08-17 Sharp Corp 動きベクトル検出方法、動きベクトル検出装置、動きベクトル検出プログラム及びプログラム記録媒体
JP2009157581A (ja) * 2007-12-26 2009-07-16 Toyota Central R&D Labs Inc 歩行者検出装置
JP2010128947A (ja) * 2008-11-28 2010-06-10 Nippon Telegr & Teleph Corp <Ntt> 非定常度推定装置、非定常度推定方法、非定常度推定プログラム
JP2010160743A (ja) * 2009-01-09 2010-07-22 Canon Inc 物体検知装置及び物体検知方法
WO2010084739A1 (ja) * 2009-01-23 2010-07-29 日本電気株式会社 映像識別子抽出装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KENSUKE TAIRA ET AL.: "A novel method for generating optical flow based on fusing visual information and camera motion", THE JOURNAL OF THE FACULTY OF SCIENCE AND TECHNOLOGY, vol. 43, no. 2, 2006, pages 87 - 93, XP055387339, Retrieved from the Internet <URL:http://www.seikei.ac.jp/university/library/st/journal/V043/JFST430215.pdf> [retrieved on 20160223] *
See also references of EP3376468A4 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019177130A1 (ja) * 2018-03-16 2019-09-19 日本電信電話株式会社 情報処理装置および情報処理方法
JP2019160240A (ja) * 2018-03-16 2019-09-19 日本電信電話株式会社 情報処理装置および情報処理方法
JP2019219838A (ja) * 2018-06-19 2019-12-26 日産自動車株式会社 物体検出方法及び物体検出装置
JP7117169B2 (ja) 2018-06-19 2022-08-12 日産自動車株式会社 物体検出方法及び物体検出装置
WO2022215409A1 (ja) * 2021-04-05 2022-10-13 日立Astemo株式会社 物体追跡装置

Also Published As

Publication number Publication date
EP3376468A4 (en) 2018-10-03
CN108369739B (zh) 2021-07-27
EP3376468A1 (en) 2018-09-19
JPWO2017094140A1 (ja) 2017-11-30
EP3376468B1 (en) 2020-01-29
JP6116765B1 (ja) 2017-04-19
CN108369739A (zh) 2018-08-03
US10643338B2 (en) 2020-05-05
US20180204333A1 (en) 2018-07-19

Similar Documents

Publication Publication Date Title
US10762643B2 (en) Method for evaluating image data of a vehicle camera
US9330471B2 (en) Camera aided motion direction and speed estimation
JP6116765B1 (ja) 物体検出装置及び物体検出方法
US11037325B2 (en) Information processing apparatus and method of controlling the same
JP2017526082A (ja) 動作推定方法、移動体、およびプロセッサに動作推定方法を実行させるコンピュータプログラムコードでコード化された非一時的コンピュータ可読媒体
CN108229475B (zh) 车辆跟踪方法、系统、计算机设备及可读存储介质
JP4702569B2 (ja) 車両用画像処理装置
JP6021689B2 (ja) 車両諸元計測処理装置、車両諸元計測方法及びプログラム
JP6061770B2 (ja) カメラ姿勢推定装置及びそのプログラム
CN107578424B (zh) 一种基于时空分类的动态背景差分检测方法、系统及装置
JP2014134856A (ja) 被写体識別装置、被写体識別方法および被写体識別プログラム
JP6905390B2 (ja) 自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラム
JP6429466B2 (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
WO2021230157A1 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
KR101806453B1 (ko) 무인 비행체 충돌 회피를 위한 이동 객체 검출 장치 및 방법
KR101741501B1 (ko) 카메라와 객체 간 거리 추정 장치 및 그 방법
JP2019176261A (ja) 画像処理装置
US20180268228A1 (en) Obstacle detection device
US10855918B2 (en) Image processing device, image processing method, image pickup apparatus, and program storage medium that calculates a matching degree between an estimated target of interest and tracked feature points, then selects a feature point to which tracking is continued according to the matching degree
KR102389295B1 (ko) 인스턴스 분할 기반 단일 실내 영상으로부터의 물체 크기 추정 방법 및 장치
WO2016207934A1 (ja) 特徴点選出装置、移動状態計測装置、移動状態計測システム、作業機械、車両
US20210350548A1 (en) Method for determining a relative movement using a digital image sequence
JP5614100B2 (ja) 画像処理装置及び移動体位置推定方法
KR20130043970A (ko) 영상 내 추적 물체의 크기 측정을 위한 이중 Spatiogram 사용 방법

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2016552354

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15909770

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15744026

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2015909770

Country of ref document: EP