JP5964108B2 - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP5964108B2
JP5964108B2 JP2012078759A JP2012078759A JP5964108B2 JP 5964108 B2 JP5964108 B2 JP 5964108B2 JP 2012078759 A JP2012078759 A JP 2012078759A JP 2012078759 A JP2012078759 A JP 2012078759A JP 5964108 B2 JP5964108 B2 JP 5964108B2
Authority
JP
Japan
Prior art keywords
frame image
detected
past
recognition target
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012078759A
Other languages
English (en)
Other versions
JP2013210705A (ja
Inventor
梅崎 太造
太造 梅崎
雄基 原口
雄基 原口
長谷川 弘
弘 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2012078759A priority Critical patent/JP5964108B2/ja
Priority to PCT/JP2013/054136 priority patent/WO2013145948A1/ja
Priority to US14/388,017 priority patent/US9652677B2/en
Publication of JP2013210705A publication Critical patent/JP2013210705A/ja
Application granted granted Critical
Publication of JP5964108B2 publication Critical patent/JP5964108B2/ja
Priority to US15/486,807 priority patent/US9977967B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Description

本発明は、入力されたフレーム画像から認識対象を検出する物体検出装置に関する。
カメラにより撮影された画像から、人物などの認識対象を検出する物体検出装置が存在する。物体検出装置は、たとえば、カメラとともに車両に搭載される。物体検出装置は、カメラにより撮影された画像から歩行者を検出した場合、運転手に歩行者の存在を知らせることができる。
特許文献1に係る画像認識装置は、入力画像から切り出された探索窓に対してパターンマッチングを行い、パターンマッチングの度合いを検出する。探索窓が、他の探索窓の一部の領域と重なるように設定されるため、複数回のパターンマッチングが実行される領域が発生する。複数回のパターンマッチングが実行された領域では、1回ごとのパターンマッチングで計算される度合いが積分されるため、認識対象の位置を高精度で検出できる。
特許文献2に係る対象物体検出・追跡装置は、画像データから対象物体の候補領域を抽出して、候補領域を追跡する。特許文献2に係る対象物体検出・追跡装置は、追跡を開始してから所定数の画像データに対して、候補領域から対象物体を検出する処理を行う。所定数の画像データの検出結果の総和が、所定数の画像データよりも後に入力される後続の画像データの検出結果として使用される。
特開2009−70344号公報 特開2005−354578号公報
特許文献1に係る画像認識装置は、入力画像の画素データのみを使用して認識対象を検出する。しかし、ノイズの混入、対象物の変化(向き、姿勢)などによって撮影条件が変化した場合、認識対象の特徴を入力画像から十分に抽出できないことがある。この場合、入力画像に認識対象が含まれているにも関わらず、認識対象が入力画像から検出されないことがある。あるいは、認識対象とは別の物が認識対象として誤って検出されることがある。
特許文献2に係る対象物体検出・追跡装置は、所定数の画像データにおける検出結果を、後続の画像データにおける検出結果に反映させる。所定数の画像データにおける検出結果は、修正されない。したがって、所定数の画像データにおいて誤検出が発生した場合、誤った検出結果が後続の画像データとともに表示され続けるという問題が生じる。
そこで、本発明は、上記問題点に鑑み、認識対象の検出率を向上することができる物体検出装置を提供することを目的とする。
上記課題を解決するため、請求項1記載の発明は、物体検出装置であって、入力フレーム画像から認識対象を検出し、前記入力フレーム画像から前記認識対象として検出された検出物体の位置を特定する画像認識部と、前記入力フレーム画像よりも前に入力された第1の過去フレーム画像から認識対象として検出された第1の過去検出物体が前記第1の過去フレームよりも前に入力された第2の過去フレーム画像から検出された第2の過去検出物体と同じであるか否かを示す追跡情報と、前記第1の過去検出物体の位置が前記画像認識部により特定されたか否かを示す情報と前記第1の過去フレーム画像における前記第1の過去検出物体の位置を示す情報とを含む特定情報と、を記憶する記憶部と、前記認識対象が前記入力フレーム画像から検出された場合、前記第1の過去検出物体の位置から、前記入力フレーム画像から検出された検出物体の位置までの第1の距離を算出する距離算出部と、前記第1の距離が予め設定された第1の基準距離よりも小さい場合、前記入力フレーム画像から検出された検出物体は、前記第1の過去検出物体と同じであると判定する第1の判定部と、前記認識対象が前記入力フレーム画像から検出されなかった場合、前記追跡情報及び前記特定情報を参照し、前記第1の過去検出物体が前記第2の過去検出物体と同じであることが前記追跡情報で示され、かつ、前記第1の過去検出物体の位置が前記画像認識部により特定されたことが前記特定情報で示されている場合、前記認識対象が前記入力フレーム画像に存在すると判定し、前記第1の過去検出物体の位置が前記画像認識部により特定されていないことが前記特定情報で示されている場合、前記認識対象が前記入力フレーム画像に存在しないと判定する第2の判定部と、を備える。
請求項記載の発明は、請求項に記載の物体検出装置であって、さらに、前記認識対象が前記入力フレーム画像に存在すると前記第2の判定部により判定された場合、前記第2の過去検出物体の位置を基準にしたときの前記第1の過去検出物体の相対位置を用いて、前記入力フレーム画像における前記認識対象の位置を予測する位置予測部、を備える。
請求項記載の発明は、請求項に記載の物体検出装置であって、前記距離算出部は、前記認識対象が前記入力フレーム画像に存在すると前記第2の判定部により判定された場合、前記第1の過去検出物体の位置から、前記画像認識部により前記入力フレーム画像から前記認識対象の候補として抽出された物体の位置までの暫定距離を算出し、前記物体検出装置は、前記暫定距離が前記第1の基準距離よりも小さい場合、前記抽出された物体の位置を前記認識対象の位置と予測する位置予測部、を備える。
請求項記載の発明は、請求項または請求項に記載の物体検出装置であって、前記画像認識部は、前記入力フレーム画像の後に入力される後続フレーム画像から前記認識対象を検出し、前記後続フレーム画像から前記認識対象として検出された後続検出物体の位置を特定し、前記距離算出部は、前記位置予測部により予測された位置から前記後続検出物体の位置までの第2の距離を算出し、前記第1の判定部は、前記第2の距離が前記第1の基準距離よりも小さい場合、前記後続検出物体が前記第1の過去検出物体と同じであると判定する。
請求項5記載の発明は、物体検出装置であって、入力フレーム画像から認識対象を検出し、前記入力フレーム画像から前記認識対象として検出された検出物体の位置を特定する画像認識部と、前記入力フレーム画像よりも前に入力された第1の過去フレーム画像から前記認識対象として検出された第1の過去検出物体の位置を示す位置情報を記憶する記憶部と、前記入力フレーム画像から前記認識対象が検出された場合、前記第1の過去検出物体の位置から、前記入力フレーム画像から検出された検出物体の位置までの第1の距離を算出する距離算出部と、前記第1の距離が予め設定された第1の基準距離よりも小さい場合、前記入力フレーム画像から検出された検出物体は、前記第1の過去検出物体と同じであると判定する第1の判定部と、前記入力フレーム画像から前記認識対象が検出されなかった場合、前記入力フレーム画像よりも前に入力された第1の所定数の過去フレーム画像のうち、前記認識対象が検出されたフレーム画像の数が基準フレーム数以上であるか否かを確認するフレーム数確認部と、前記認識対象が検出されたフレーム画像の数が基準フレーム数以上である場合、前記認識対象が前記入力フレーム画像に存在すると判定する第2の判定部と、を備える。
請求項6記載の発明は、請求項に記載の物体検出装置であって、さらに、前記第1の過去フレーム画像から前記第1の過去検出物体が検出されなかった場合、前記入力フレーム画像よりも前に入力された第の所定数の過去フレーム画像のうち、前記認識対象が検出されたフレーム画像を特定するフレーム特定部と、前記距離算出部は、前記入力フレーム画像から検出された検出物体の位置から前記フレーム特定部により特定されたフレーム画像から検出された検出物体の位置までの第2の距離を算出し、前記第1の判定部は、前記第2の距離が第2の基準距離よりも小さい場合、前記入力フレーム画像から検出された検出物体が前記特定されたフレーム画像から検出された検出物体と同じであると判定する。
請求項7記載の発明は、請求項6に記載の物体検出装置であって、前記第2の基準距離は、前記入力フレーム画像から前記特定されたフレーム画像までのフレーム数に応じて前記第1の基準距離を変更することにより算出される。
請求項8記載の発明は、請求項6または請求項7に記載の物体検出装置であって、さらに、前記フレーム数確認部は、前記第1の過去フレーム画像から前記第1の過去検出物体が検出されなかった場合、前記第1の所定数の過去フレーム画像のうち、前記認識対象が検出されたフレーム画像の数が基準フレーム数以上であるか否かを確認し、前記第1の判定部は、前記認識対象が検出されたフレーム画像の数が前記基準フレーム数よりも少ない場合、前記入力フレーム画像から検出された検出物体が前記認識対象として誤って検出されたと判定する。
請求項記載の発明は、請求項に記載の物体検出装置であって、さらに、前記第2の判定部により前記認識対象が前記入力フレーム画像に存在すると判定された場合、前記第1の所定数の過去フレーム画像に含まれるとともに、前記認識対象が検出された第1及び第2の参照フレーム画像を特定する参照フレーム特定部、を備え、前記第1の参照フレーム画像は、前記第2の参照フレーム画像よりも前に入力され、前記物体検出装置は、さらに、前記第1の参照フレーム画像から検出された第1の参照検出物体の位置と前記第2の参照フレーム画像から検出された第2の参照検出物体の位置とから、前記第1の参照検出物体の位置を基準にしたときの前記第2の参照検出物体の相対位置を特定し、前記相対位置と前記第2の参照検出物体の位置とを用いて、前記入力フレーム画像における前記認識対象の位置を予測する位置予測部、を備える。
請求項1記載の発明は、請求項に記載の物体検出装置であって、前記位置予測部は、前記第1の参照フレーム画像から前記第2の参照フレーム画像までのフレーム数と、前記第2の参照フレーム画像から前記入力フレーム画像までのフレーム数とに応じて前記相対位置を調整し、調整された前記相対位置を用いて前記認識対象の位置を予測する。
本発明に係る物体検出装置は、入力フレーム画像の直前に入力された第1の過去フレーム画像から検出された第1の過去検出物体の位置から、入力フレーム画像から検出された検出物体の位置までの距離を算出する。算出した距離が第1の距離以下である場合、入力フレーム画像から検出された検出物体は、第1の過去検出物体と同じであると判定される。これにより、入力フレーム画像における認識対象の検出結果を、第1の過去フレーム画像の検出結果に応じて変更できるため、認識対象の検出率を向上することができる。
本発明に係る物体検出装置は、入力フレーム画像から認識対象を検出できない場合、第1の過去検出物体が、第1の過去フレーム画像の直前に入力された第2過去フレーム画像から検出された第2の過去検出物体と同じであるか否かを判定する。第1の過去検出物体が第2の過去検出物体と同じである場合、第1の過去検出物体と同じ物体が入力フレーム画像に存在すると判定される。これにより、入力フレーム画像が認識対象を含むにもかかわらず、認識対象が入力フレーム画像から検出されない場合であっても、認識対象が入力フレーム画像に存在すると判定できるため、検出率をさらに向上させることができる。
本発明に係る画像検出装置は、第1の過去検出物体が第1の過去フレーム画像から検出されなかった場合、第1の所定数の過去フレーム画像の中から、認識対象が検出されたフレーム画像を特定する。本発明に係る画像検出装置は、特定されたフレーム画像から検出された検出物体の位置から、入力フレーム画像から検出された検出物体の位置までの距離に基づいて、入力フレーム画像から検出された検出物体が、特定されたフレーム画像から検出された検出物体と同じであるか否かを判定する。これにより、入力フレーム画像から検出された検出物体を、過去フレーム画像から継続して検出しているか否かを確認できるため、検出率をさらに向上させることができる。
本発明の第1の実施の形態に係る物体検出装置の構成を示す機能ブロック図である。 図1に示す物体検出装置に入力されるフレーム画像を示す図である。 図1に示す物体検出装置の動作を示すフローチャートである。 図1に示す物体検出装置に入力されるフレーム画像を示す図である。 図1に示す検出履歴情報を示すテーブルである。 図1に示す位置予測部の動作を説明する図である。 図1に示す物体検出装置に入力されるフレーム画像を示す図である。 本発明の第2の実施の形態に係る物体検出装置の動作を示すフローチャートである。 本発明の第2の実施の形態に係る検出履歴情報を示すテーブルである。 本発明の第2の実施の形態に係る位置予測部の動作を説明する図である。
以下、図面を参照しつつ、本発明の実施の形態について説明する。
[第1の実施の形態]
{1.物体検出装置1の構成}
図1は、物体検出装置1の構成を示す機能ブロック図である。図1に示すように、物体検出装置1は、自動車などの車両に搭載され、車両前方の景色を撮影するカメラ(図示省略)からフレーム画像4を入力し、入力したフレーム画像4から歩行者を検出する。
物体検出装置1は、検出結果をフレーム画像4に反映させた表示データ5を作成する。具体的には、物体検出装置1は、フレーム画像4内の歩行者を検出した領域に四角い枠を配置することにより、歩行者の位置が強調された表示データ5を作成する。表示データ5は、図示しないモニタに表示される。
物体検出装置1は、画像認識部11と、記憶部12と、距離算出部13と、位置予測部14と、判定部15と、出力部16とを備える。
画像認識部11は、予め設定された認識対象(歩行者)のパターンデータを用いて、フレーム画像4から認識対象を検出する。検出に用いられるアルゴリズムは、ニューラルネットワーク、サポートベクターマシンなどである。画像認識部11は、各フレーム画像4から認識対象を検出した場合、各フレーム画像4から検出された検出物体の位置を検出結果として記憶部12に出力する。
記憶部12は、RAM(Random Access Memory)などであり、検出履歴情報2を格納する。フレーム画像4の検出結果が、検出履歴情報2に登録される。
距離算出部13は、過去に入力されたフレーム画像4(過去フレーム画像)における検出物体の位置から、最後に入力されたフレーム画像4(入力フレーム画像)における検出物体の位置までの距離を計算する。
位置予測部14は、入力フレーム画像から認識対象が検出されなかった場合、過去フレーム画像において検出された検出物体の位置に基づいて、入力フレーム画像における検出物体の位置を予測する。
判定部15は、距離算出部13により計算された距離を用いて、入力フレーム画像の検出物体が過去フレーム画像の検出物体と同一であるか否かを判定する。判定部15は、入力フレーム画像の検出物体が過去フレーム画像の検出物体と同一である場合、過去フレーム画像の検出物体が入力フレーム画像で追跡されていると判定する。
出力部16は、過去フレーム画像の検出物体を入力フレーム画像で追跡できていると判定した場合、検出物体の位置を示す四角い枠を入力フレーム画像に合成して表示データ5を作成する。表示データ5は、出力部16からモニタへ出力される。
{2,物体検出装置1の動作の概略}
物体検出装置1は、過去フレーム画像の検出物体を入力フレーム画像で追跡しているか否かを判定する追跡処理を実行する。以下、図2を参照しながら、追跡処理の概略を説明する。
図2は、物体検出装置1に入力されるフレーム画像31,32を示す図である。まず、物体検出装置1は、フレーム画像31を入力する。物体検出装置1は、パターンマッチングにより、歩行者の存在する領域31aを特定する。物体検出装置1は、領域31aが特定された時点で、領域31aが強調された表示データ5を作成しない。つまり、物体検出装置1は、フレーム画像31をそのまま表示データ5として出力する。
次に、物体検出装置1は、フレーム画像32を入力する。物体検出装置1は、歩行者の存在する領域32aを特定する。物体検出装置1は、領域31aの中心座標31bから領域32aの中心座標32bまでの距離があらかじめ設定された基準距離よりも小さい場合、領域31a内の歩行者と領域32a内の歩行者とが同一であると判定する。つまり、物体検出装置1は、フレーム画像31で検出された歩行者を、フレーム画像32で追跡できていると判定する。物体検出装置1は、フレーム画像32の領域32aを太い実線で囲むことにより表示データ5を作成する。
このように、物体検出装置1は、直前の過去フレーム画像から検出された検出物体を入力フレーム画像で追跡できた場合、入力フレーム画像の検出物体が正当な認識対象であると判定する。物体検出装置1は、過去フレーム画像の検出結果を考慮することにより、入力フレーム画像から認識対象を検出する精度を向上させることができる。
{3.追跡処理の詳細}
以下、図3〜図5を参照しながら、追跡処理について詳しく説明する。図3は、物体検出装置1が実行する追跡処理のフローチャートである。図4は、物体検出装置1に入力されるフレーム画像を示す図である。図5は、検出履歴情報2の内容を示すテーブルである。
(歩行者を追跡できる場合)
画像認識部11は、フレーム画像42,43,45から歩行者を検出するが、フレーム画像41,44から歩行者を検出しない。以下、各フレーム画像が入力されたときにおける物体検出装置1の動作を説明する。
まず、物体検出装置1は、カメラからフレーム画像41を入力する(ステップS101においてYes)。フレーム画像41は、歩行者の一部を含む。画像認識部11は、パターンデータを用いて、フレーム画像41から歩行者を検出する画像認識処理を行う(ステップS102)。パターンデータは、歩行者の特徴を示すデータであり、画像認識部11に予め設定されている。
ステップS102の結果、画像認識部11は、フレーム画像41から領域41aを抽出し、領域41a内の画像が歩行者に一致する度合い(識別値)として「157」を算出する。識別値の最小値は1であり、最大値は512である。識別値は、その値が大きいほど、抽出された領域内の画像が歩行者である可能性が高いことを示す。図4において、領域41aの中心座標41bをピクセル単位で示す。
画像認識部11は、領域41aの識別値をあらかじめ設定された検出しきい値と比較することにより、フレーム画像41から歩行者を検出したか否かを判定する(ステップS103)。検出しきい値は、300である。画像認識部11は、領域41aの識別値が300よりも小さいため、歩行者がフレーム画像41から検出されないと判定し(ステップS103においてNo)、ステップS111に進む。
物体検出装置1は、歩行者の追跡が直前に過去フレーム画像で成立しているか否かを確認する(ステップS111)。フレーム画像41の前に入力されたフレーム画像が存在しないため、物体検出装置1は、過去フレーム画像で追跡が成立していないと判定し(ステップS111においてNo)、ステップS101に戻る。この場合、フレーム画像41が、そのまま表示データ5としてモニタに表示される。
次に、物体検出装置1は、フレーム画像42を入力する(ステップS101においてYes)。フレーム画像42は、歩行者を含む。画像認識処理(ステップS102)の結果、領域42aが抽出され、領域42aの識別値「357」が算出される。
領域42aの識別値が検出しきい値よりも大きいため、画像認識部11は、フレーム画像42から歩行者を検出したと判定する(ステップS103においてYes)。領域42aの中心座標42b及び識別値が、検出履歴情報2に登録される(ステップS104)。図5では、各フレームの参照符号を、フレームを一意に識別する番号として便宜的に使用している。図5に示す距離及び追跡フラグについては、後述する。
物体検出装置1は、歩行者が直前の過去フレーム画像(フレーム画像41)から検出されているか否かを確認する(ステップS105)。歩行者がフレーム画像41から検出されていないため(ステップS105においてNo)、物体検出装置1は、追跡がフレーム画像42で成立しないと判断し、ステップS101に戻る。フレーム画像42は、領域42aが太い実線で囲まれることなく、そのまま表示データ5としてモニタに表示される。
次に、物体検出装置1は、フレーム画像43を入力する(ステップS101においてYes)。フレーム画像43は、歩行者を含む。画像認識処理(ステップS102)の結果、領域43aが抽出され、領域43aの識別値「364」が算出される。
領域43aの識別値が検出しきい値よりも大きいため、画像認識部11は、フレーム画像43から歩行者を検出したと判定する(ステップS103においてYes)。領域43aの中心座標43b及び識別値が、検出履歴情報2に登録される(ステップS104)。
直前の過去フレーム画像(フレーム画像42)で歩行者が検出されているため(ステップS105においてYes)、距離算出部13は、フレーム画像42の歩行者の検出位置からフレーム画像43の歩行者の検出位置までの距離を計算する(ステップS106)。具体的には、中心座標42bから中心座標43bまでの距離(以下、移動距離と呼ぶ)が、ユークリッド距離として計算される。検出履歴情報2には、フレーム画像43の移動距離として「5.1」が登録される。
判定部15は、計算された移動距離が予め設定された基準距離(10ピクセル)以下であるかを確認する(ステップS107)。基準距離は、歩行者の標準的な速度を考慮して決定される。なお、物体検出装置1は、カメラ及び物体検出装置1を搭載している車両の移動速度を取得し、取得した移動速度に基づいて、決定された基準距離を修正してもよい。この理由は、カメラから見た歩行者の見かけ上の速度が、車両の移動速度によって変化するためである。
図5に示すように、移動距離は5.1であり、基準距離よりも小さい(ステップS107においてYes)。判定部15は、領域42aの歩行者と領域43aの歩行者とが同じであり、フレーム画像42で検出された歩行者をフレーム画像43で追跡できていると判定する(ステップS108)。検出履歴情報2には、フレーム画像43の追跡フラグとして「1」が登録される。追跡フラグ「1」は、フレーム画像43で追跡が成立していることを示す。フレーム画像42は、追跡フラグが空欄である。これは、歩行者がフレーム画像42で検出されているが、追跡がフレーム画像42で成立していないことを示す。
出力部16は、フレーム画像43で歩行者を追跡できたため、フレーム画像43の領域43aを太い実線で囲むことにより、表示データ5を作成する(ステップS109)。歩行者の位置が強調された表示データ5が、モニタに表示される。物体検出装置1は、追跡処理を継続する場合(ステップS110においてNo)、ステップS101に戻る。
一方、ステップS107において、移動距離が基準距離よりも大きい場合(ステップS107においてNo)、判定部15は、領域42aの歩行者と領域43aの歩行者とは同一でないため、フレーム画像42で検出された歩行者をフレーム画像43で追跡していないと判定する。この場合、フレーム画像43が、領域43aが太い実線で囲まれることなく、そのまま表示データ5としてモニタに表示される。
次に、物体検出装置1は、フレーム画像44を入力する(ステップS101においてYes)。フレーム画像44は、歩行者を含む。画像認識処理(ステップS102)の結果、領域44aが抽出され、領域44aの識別値「253」が算出される。
フレーム画像44が歩行者を含むにもかかわらず、領域44aの識別値は、検出しきい値以下である。このため、物体検出装置1は、フレーム画像44から歩行者を検出していないと判定する(ステップS103においてNo)。物体検出装置1は、ステップS105〜S108を実行することができない。
しかし、フレーム画像44の撮影時の条件が変化したために、物体検出装置1が、偶発的に、領域44aの画像を歩行者と判定しなかった可能性がある。物体検出装置1は、直前のフレーム画像43の追跡フラグを参照して、フレーム画像43で追跡が成立していたか否かを確認する(ステップS111)。フレーム画像43で追跡が成立しているため(ステップS111においてYes)、物体検出装置1は、フレーム画像43に続いて、フレーム画像44でも歩行者の追跡が成立すると予測する。
物体検出装置1は、直前のフレーム画像43における歩行者の位置(中心座標43b)がステップS102により検出されているか否かを確認する(ステップS112)。中心座標43bが画像認識部11により検出されているため(ステップS112においてYes)、位置予測部14は、中心座標42b,43bに基づいて、フレーム画像44における歩行者の位置を予測する。(ステップS113)。
図6は、歩行者の位置を予測する方法を説明する図である。図6において、領域42a〜44a及び中心座標42b〜44bを同一平面上に配置している。位置予測部14は、中心座標42bを基準とした中心座標43bの相対位置Rを算出する。中心座標43bの相対位置Rは、(−5,−1)である。位置予測部14は、中心座標43bを基準にしたときの相対位置Rを、フレーム画像44内の予測領域44eの中心座標44fとして決定する。予測領域44eは、フレーム画像44で歩行者が存在すると予想される領域である。予測領域44eは、領域44aと一致しない場合がある。
物体検出装置1は、フレーム画像44において歩行者が検出された領域を示すパラメータとして、中心座標44fを検出履歴情報2に登録する(ステップS114)。物体検出装置1は、フレーム画像44でも追跡が継続されていると判定したため、フレーム画像44の追跡フラグの欄に「1」を登録する。出力部16は、予測領域44eを強調したフレーム画像44を表示データ5としてモニタに出力する(ステップS109)。出力部16は、予測領域44eのサイズとして、直前のフレーム画像43の領域43aのサイズを使用すればよい。
一方、ステップS112において、直前のフレーム画像(フレーム画像43)における歩行者の位置が、位置予測部14に予測されていた場合(ステップS112においてNo)、物体検出装置1は、フレーム画像44における歩行者の位置を予測することなく、ステップS101に戻る。これは、歩行者の予測位置に基づいて、さらに歩行者の位置を予測した場合、検出率が却って低下するおそれがあるためである。具体的には、歩行者を含まないフレーム画像が、フレーム画像44の後に継続的に入力された場合、位置予測部14が、過去フレーム画像における歩行者の予測位置を用いて、後続フレーム画像における歩行者の位置を予測する処理(ステップS113)を繰り返す。この結果、歩行者を含まないフレーム画像が入力されているにもかかわらず、物体検出装置1は、歩行者を追跡していると判定し続けることになる。しかし、直前の過去フレーム画像における歩行者の位置が予測されていた場合、入力フレーム画像における歩行者の位置の予測を禁止することにより、検出率を向上させることができる。
次に、物体検出装置1は、フレーム画像45を入力する(ステップS101においてYes)。フレーム画像45は、歩行者を含む。画像認識処理(ステップS102)の結果、領域45aが抽出され、領域45aの識別値「341」が算出される。
領域45aの識別値が検出しきい値よりも大きいため、画像認識部11は、フレーム画像45から歩行者を検出したと判定する(ステップS103においてYes)。領域45aの中心座標45b及び識別値が、検出履歴情報2に登録される(ステップS104)。
上述のように、物体検出装置1は、領域44aの識別値に基づいて、フレーム画像44から歩行者を検出したと判定していない。しかし、上述のように、物体検出装置1は、フレーム画像43の検出結果に基づいて、フレーム画像44で追跡が成立すると判定している。この場合、画像認識部11が、認識対象が直前のフレーム画像44で検出されていると判断し(ステップS105においてYes)。距離算出部13は、中心座標44fから中心座標45bまでの移動距離を計算する(ステップS106)。検出履歴情報2には、移動距離として「3.2」が登録される。
移動距離「3.2」が基準距離よりも小さいため(ステップS107においてYes)、判定部15は、フレーム画像45でも追跡が継続していると判定する(ステップS108)。出力部16は、領域45aが強調された表示データ5を作成する(ステップS109)。追跡フラグ「1」が、フレーム画像45の欄に登録される。以下、追跡処理を終了するまで、上述した処理が繰り返される。
このように、物体検出装置1は、画像認識部11が入力フレーム画像から歩行者を検出しない場合、直前の過去フレーム画像で追跡が成立したか否かを確認する。直前の過去フレーム画像で追跡が成立していた場合、物体検出装置1は、画像認識部11の検出結果に関わらず、入力フレーム画像で歩行者が検出されたと判定する。これにより、歩行者を継続的に検出している期間中に、歩行者を検出しないフレーム画像が偶発的に発生した場合でも、物体検出装置1は、フレーム画像に歩行者が存在すると判定することができる。
(認識対象でない物体を誤って検出した場合)
図7は、物体検出装置2に入力されるフレーム画像51〜54を示す図である。フレーム画像51〜54は、歩行者を含まない。画像認識部11は、フレーム画像51,52,54から歩行者を検出しないが、フレーム画像53において、ポスト53fを誤って歩行者として検出すると仮定する。
以下、図3及び図7を参照しながら、ポスト53fが歩行者として検出されたときにおける追跡処理を詳しく説明する。
まず、物体検出装置1は、フレーム画像51を入力する(ステップS101においてYes)。画像認識処理(ステップS102)の結果、領域51aが抽出され、領域51aの識別値「102」が算出される。領域51aの識別値が検出しきい値よりも小さいため、画像認識部11は、歩行者がフレーム画像51から検出されないと判定する(ステップS103においてNo)。物体検出装置1は、過去フレーム画像が存在しないため(ステップS111においてNo)、ステップS101に戻る。
物体検出装置1は、フレーム画像52を入力する(ステップS101においてYes)。画像認識処理(ステップS102)の結果、領域52aが抽出され、領域52aの識別値「80」が算出される。領域52aの識別値が検出しきい値よりも小さいため、画像認識部11は、歩行者がフレーム画像52から検出されないと判定する(ステップS103においてNo)。物体検出装置1は、直前のフレーム画像51で追跡が成立していないため(ステップS111においてNo)、ステップS101に戻る。
物体検出装置1は、フレーム画像53を入力する(ステップS101においてYes)。画像認識処理(ステップS102)の結果、領域53aが抽出され、領域53aの識別値「309」が算出される。領域53aの識別値が検出しきい値以上であるため、画像認識部11は、歩行者がフレーム画像53から検出されたと判定する(ステップS103においてYes)。しかし、歩行者が直前のフレーム画像52から検出されていないため(ステップS105においてNo)、物体検出装置1は、フレーム画像53で追跡が成立しないと判断して、ステップS101に戻る。
物体検出装置1は、フレーム画像54を入力する(ステップS101においてYes)。画像認識処理(ステップS102)の結果、領域54aが抽出され、領域54aの識別値「272」が算出される。領域54aの識別値が検出しきい値よりも小さいため、画像認識部11は、歩行者がフレーム画像54から検出されないと判定する(ステップS103においてNo)。物体検出装置1は、直前のフレーム画像53で追跡が成立していないため(ステップS111においてNo)、ステップS101に戻る。
このように、物体検出装置1は、過去フレーム画像の検出結果を参照して、検出された物体が歩行者であるか否かを最終的に判定する。歩行者でない物体が歩行者として誤って検出されたとしても、歩行者が存在すると判定された領域が強調して表示されることはない。したがって、歩行者の検出率を向上させることができる。
なお、ステップS113では、位置予測部14が、中心座標42b,43bを用いて、フレーム画像44における歩行者の位置を予測したが、これに限られない。位置予測部14は、領域44aの中心座標44bが所定の条件を満たす場合、領域44aを歩行者の位置と判定してもよい。具体的には、位置予測部14は、中心座標43bから中心座標44bまでの距離が基準距離よりも小さい場合、領域44aを歩行者の位置と判定する。
ステップS111において、直前の過去フレーム画像で追跡が成立しているか否かを判定する例を説明したが、これに限られない。物体検出装置1は、直前の2つ以上の過去フレーム画像で追跡が成立しているか否かを判定してもよい。たとえば、歩行者がフレーム画像44で検出されなかった場合、物体検出装置1は、ステップS111において、フレーム画像43及び44の両者で追跡が成立しているか否かを判定してもよい。
[第2の実施の形態]
以下、本発明の第2の実施の形態について説明する。本実施の形態に係る物体検出装置1の構成は、上記第1の実施の形態と同様である。以下、上記第1の実施の形態と異なる点を中心に説明する。
第1の実施の形態の追跡処理と異なる点は、主に下記の2点である。第1に、物体検出装置1は、直前の過去フレーム画像から認識対象が検出されていない場合、さらに前の過去フレーム画像を使用して移動距離を計算する。第2に、物体検出装置1は、入力フレーム画像から数えて参照フレーム数の過去フレーム画像を特定する。物体検出装置1は、入力フレーム画像と特定した過去フレーム画像とのうち、同一物体を検出したフレーム画像が基準フレーム数以上であるとき、入力フレーム画像で追跡が成立していると判定する。参照フレーム数及び基準フレーム数は、物体検出装置1に予め設定されているパラメータである。参照フレーム数及び基準フレーム数は、両者とも2に設定されていると仮定する。なお、参照フレーム数と基準フレーム数とは、異なる値であってもよい。
(歩行者を追跡できる場合)
図4に示すフレーム画像41〜45が物体検出装置1に入力される場合を例にして、第2の実施の形態における追跡処理を詳しく説明する。
図8は、第2の実施の形態に係る物体検出装置1が実行する追跡処理のフローチャートである。図9は、第2の実施の形態に係る検出履歴情報2の内容を示すテーブルである。図8において、ステップS201〜S204は、ステップS101〜S104(図3参照)とそれぞれ同じ処理である。
物体検出装置1は、フレーム画像41を入力する(ステップS201においてYes)。画像認識処理(ステップS202)の結果、領域41aが抽出され、領域41aの識別値が「157」と算出される。画像認識部11は、フレーム画像41から歩行者を検出しなかったと判定し(ステップS203おいてNo)、ステップS213に進む。
歩行者が検出された過去フレーム画像がフレーム画像41の前に存在しないため(ステップS213においてNo)、物体検出装置1は、ステップS201に戻る。ステップS213の詳細は、後述する。フレーム画像41は、領域41aが太い実線で囲まれることなく、そのまま表示データ5として出力される。
次に、物体検出装置1は、フレーム画像42を入力する(ステップS201においてYes)。画像認識処理(ステップS202)の結果、領域42aが抽出され、領域42aの識別値「357」が算出される。
物体検出装置1は、フレーム画像42から歩行者を検出したと判定し(ステップS203においてYes)、領域42aの中心座標42b及び識別値を検出履歴情報2に登録する(ステップS204)。距離算出部13は、移動距離の計算の基準となる基準フレーム画像を指定する(ステップS205)。直前のフレーム画像から歩行者が検出されている場合、直前のフレーム画像が、基準フレーム画像に指定される。一方、直前のフレーム画像から歩行者が検出されていない場合、距離算出部13は、参照フレーム数が2であることから、直前の2つの過去フレーム画像の中から基準フレーム画像を指定する。具体的には、距離算出部13は、直前の2つの過去フレーム画像のうち、歩行者が検出された過去フレーム画像を特定する。特定された過去フレーム画像のうち、物体検出装置1に最後に入力された過去フレーム画像が、基準フレーム画像として指定される。
歩行者が検出された過去フレーム画像がフレーム画像42の前に存在しないため、物体検出装置1は、基準フレーム画像を指定できない(ステップS206においてNo)。物体検出装置1は、領域42aを太い実線で囲むことなくフレーム画像42をそのまま表示データ5として出力し、ステップS201に戻る。
次に、物体検出装置1は、フレーム画像43を入力する(ステップS201においてYes)。画像認識処理(ステップS202)の結果、領域43aが抽出され、領域43aの識別値「364」が算出される。
物体検出装置1は、フレーム画像43から歩行者を検出したと判定する(ステップS203においてYes)。領域43aの中心座標43b及び識別値が、検出履歴情報2に登録される(ステップS204)。直前のフレーム画像42から歩行者が検出されているため、フレーム画像42が、基準フレーム画像として指定される(ステップS205)。距離算出部13は、基準フレーム画像が指定されたため(ステップS206においてYes)、中心座標42bから中心座標43bまでの移動距離を計算する(ステップS207)。図9に示すように、フレーム画像43における移動距離は、5.1である。ステップS207は、ステップS106(図3参照)と同じ処理である。
判定部15は、計算された移動距離が基準距離(10ピクセル)以下であるか否かを確認する(ステップS208)。なお、基準距離は、基準フレーム画像の時間方向の位置に応じて変化する。基準距離が変化する場合については、後述する。
移動距離が基準距離以下であるため(ステップS208においてYes)、判定部15は、ステップS209に示す条件を満たせば、フレーム画像42の歩行者をフレーム画像43で追跡していると判定する(ステップS210)。
具体的には、判定部15は、参照フレーム数が2であるため、直前の2つの過去フレーム画像(フレーム画像41,42)を特定し、フレーム画像41〜43のうち、歩行者が検出されたフレーム画像の数を確認する。歩行者が検出されたフレーム画像(フレーム画像42,43)の数が2つ(基準フレーム数)以上である(ステップS209においてYes)。このため、物体検出装置1は、フレーム画像42で検出された歩行者をフレーム画像43で追跡できていると最終的に判定する(ステップS210)。
出力部16は、フレーム画像43で追跡が成立しているため、フレーム画像43の領域43aを太い実線で囲むことにより、領域43aが強調された表示データ5を作成する(ステップS211)。物体検出装置1は、追跡処理を継続する場合(ステップS212においてNo)、ステップS201に戻る。
次に、物体検出装置1は、フレーム画像44を入力する(ステップS201においてYes)。画像認識処理(ステップS202)の結果、領域44aが抽出され、領域44aの識別値「253」が算出される。
物体検出装置1は、フレーム画像44から歩行者を検出していないと判定する(ステップS203においてNo)。物体検出装置1は、フレーム画像44に関して、ステップS205〜S210を実行できない。この場合、物体検出装置1は、ステップS213に示す条件を満たせば、フレーム画像44で追跡が成立していると判定する。
ステップS213は、上述のステップS209と同様である。すなわち、物体検出装置1は、参照フレーム数が2であるため、直前の2つの過去フレーム画像(フレーム画像42,43)を特定する。物体検出装置1は、フレーム画像42〜44のうち、歩行者が検出されたフレーム画像の数を確認する。歩行者が検出されたフレーム画像(フレーム画像42,43)の数が、基準フレーム数以上であるため(ステップS213においてYes)、物体検出装置1は、フレーム画像44で追跡が成立していると判定する。
位置予測部14は、中心座標42b,43bを用いて、フレーム画像44における歩行者の位置(予測領域44e及び中心座標44f)を予測する(ステップS214)。ステップS214は、図1に示すステップS113と同じ処理である。上記第1の実施の形態と異なり、ステップS214の後に、フレーム画像44における歩行者の予測位置を、検出履歴情報2に保存しなくてもよい。これは、直前の過去フレーム画像から歩行者が検出されなくても、物体検出装置1は、さらに前の過去フレーム画像を用いて移動距離を計算するためである。
出力部16は、予測領域44eが強調された表示データ5を作成し(ステップS211)、モニタに出力する。
次に、物体検出装置1は、フレーム画像45を入力する(ステップS201においてYes)。画像認識処理(ステップS202)の結果、領域45aが抽出され、領域45aの識別値「341」が算出される。
物体検出装置1は、フレーム画像45から歩行者を検出した判定する(ステップS203においてYes)。距離算出部13は、検出履歴情報2を参照して、基準フレーム画像としてフレーム画像43を指定する(ステップS205)。これは、フレーム画像43が、過去2フレームのうち、歩行者が検出された最も近いフレーム画像であるためである。
基準フレーム画像が指定されたため(ステップS206においてYes)、距離算出部13は、中心座標43bから中心座標45bまでの移動距離を計算する(ステップS207)。判定部15は、移動距離が基準距離の2倍(20ピクセル)以下であるか否かを判定する(ステップS208)。基準距離は、直前のフレーム画像が基準フレームであると仮定して決定される。このため、基準フレーム画像が直前のフレーム画像でない場合、基準距離は、フレーム画像45から見た基準フレーム画像の時間方向の位置に応じて調整される。
移動距離は、8.2ピクセルであり(図9参照)、2倍の基準距離(20ピクセル)よりも小さい(ステップS208においてYes)。歩行者が、フレーム画像43〜45のうち2つのフレーム画像43,45から検出されているため(ステップS209においてYes)、判定部15は、フレーム画像43で検出された歩行者をフレーム画像45で追跡していると判定する(ステップS210)。出力部16は、領域45aを強調した表示データ5を作成して出力する(ステップS211)。
(認識対象でない物体を誤って検出した場合)
以下、図7を参照しながら、画像認識部11が歩行者でない物体を誤って歩行者として検出した場合を説明する。画像認識部11は、フレーム画像51,52,54から歩行者を検出しないが、フレーム画像53のポスト53fを誤って歩行者として検出する。
物体検出装置1は、フレーム画像51を入力するが(ステップS201においてYes)、フレーム画像51から歩行者を検出しない(ステップS203においてNo)。物体検出装置1は、歩行者が検出された過去フレーム画像が存在しないため(ステップS213においてNo)、ステップS201に戻る。物体検出装置1は、フレーム画像52を入力し(ステップS201においてYes)、フレーム画像51と同様の処理を、フレーム画像52に対して行う。この結果、出力部16は、領域51a,領域52aを太い実線で囲むことなく、フレーム画像51,52をそのまま表示データ5としてモニタに出力する。
物体検出装置1は、フレーム画像53を入力する(ステップS201においてYes)。画像認識処理(ステップS202)の結果、領域53aが抽出され、領域53aの識別値「309」が算出される。画像認識部11は、歩行者がフレーム画像53から検出されたと判定する(ステップS203においてYes)。つまり、ポスト53fが、誤って歩行者として検出される。しかし、歩行者が過去フレーム画像(フレーム画像51,52)から検出されていないため、距離算出部13は、移動距離の計算に用いる基準フレーム画像を指定することができない(ステップS206においてNo)。このため、物体検出装置1は、フレーム画像53で追跡が成立しないと判断して、ステップS201に戻る。
物体検出装置1は、フレーム画像54を入力するが(ステップS201においてYes)、フレーム画像54から歩行者を検出しない(ステップS203においてNo)。物体検出装置1は、参照フレーム数が2であるため、直前の2つの過去フレーム画像(フレーム画像52,53)を特定する。物体検出装置1は、フレーム画像52〜54のうち、歩行者が検出されたフレーム画像が1つ(フレーム画像53)のみであることを確認する(ステップS213においてNo)。物体検出装置1は、フレーム画像54で追跡が成立しないと判断して、ステップS201に戻る。
以上説明したように、第2の実施の形態において、物体検出装置1は、参照フレーム数が2である場合、入力フレーム画像を基準にして2つの過去フレーム画像を特定する。入力フレーム画像と2つの過去フレーム画像のうち、同一物体を検出したフレーム画像が基準フレーム数以上であるとき、物体検出装置1は、入力フレーム画像で追跡が成立していると判定する。このように、過去フレーム画像の検出結果を参照して、入力フレーム画像で追跡が成立するか否かを判定することにより、認識対象の検出率を向上することができる。
(参照フレーム数が3以上であるときのステップS209の処理)
これまで、参照フレーム数が2つに設定されている場合を例にして、第2の実施の形態を説明した。ここで、参照フレーム数及び基準フレーム数が3であるときのステップS209の処理について説明する。図4に示すフレーム画像41〜45において、歩行者がフレーム画像43,45で検出され、歩行者がフレーム画像41,42,44で検出されなかったと仮定する。
物体検出装置1がフレーム画像45を入力する(ステップS201においてYes)。物体検出装置1が、歩行者をフレーム画像45から検出する(ステップS203においてYes)。距離算出部13が、中心座標43bから中心座標45までの移動距離を算出する(ステップS206)。移動距離が基準距離以下である場合(ステップS208においてYes)、判定部15は、ステップS209を実行する。
判定部15は、参照フレーム数が3であるため、フレーム画像42〜44を特定し、フレーム画像42〜45のうち、フレーム画像43,45から歩行者が検出されていることを確認する。歩行者が検出されたフレーム画像の数が基準フレーム数よりも少ないため(ステップS209においてNo)、判定部15は、画像認識部11が歩行者と別の物体を、誤って歩行者として入力フレーム画像(フレーム画像45)から検出したと判定し、ステップS201に戻る。この場合、出力部16は、フレーム画像45をそのまま表示データ5として出力する。なお、フレーム画像45の後に入力されたフレーム画像を対象として、ステップS209の処理を実行する場合、判定部15は、フレーム画像45を、歩行者が検出されたフレーム画像としてカウントする。
(参照フレーム数が3以上であるときの位置予測(ステップS214))
また、参照フレーム数が3つ以上に設定される場合、位置予測部14は、相対位置をそのまま用いて、フレーム画像における歩行者の位置を予測できないことがある(ステップS214)。この場合、位置予測部14は、相対位置を調整した上で、歩行者の位置を予測する。
図10は、参照フレーム数が3つに設定されているときに、歩行者の位置を予測する方法を説明する図である。図10において、領域43a,45a及び予測領域46eを同一平面上に配置している。予測領域46eは、フレーム画像45の後に続けて入力される後続フレーム画像において、歩行者が存在すると予測される範囲である。
以下、後続フレーム画像で歩行者が検出されない場合において、位置予測部14が、中心座標43b,45bを用いて、予測領域46eの中心座標46fを決定する処理(ステップS214)を説明する。
参照フレーム数が3であるため、位置予測部14は、後続フレーム画像から過去3つ分のフレーム画像43〜45を特定する。位置予測部14は、フレーム画像43〜45のうち、歩行者が検出されたフレーム画像43,45を選択し、中心座標43bを基準にしたときの中心座標45bの相対位置Raを求める。相対位置Raは、2つのフレーム画像分にわたる中心座標の移動を示す。
位置予測部14は、相対位置Raと中心座標45bとを用いて、中心座標46fを決定する。中心座標45aから中心座標46fまでの移動は、1フレーム分に相当する。このため、位置予測部14は、相対位置R2のX座標、Y座標をそれぞれ2分の1とした相対位置Rbを算出する。位置予測部14は、中心座標45bを基準としたときに相対位置Rbにより示される座標を、中心座標46fと決定する。
なお、図4に示す場合と異なり、歩行者がフレーム画像44から検出され、フレーム画像45から検出されないと仮定した場合、位置予測部14は、フレーム画像43,44を選択して相対位置Raを決定する。この場合、相対位置Raは、1フレーム分の中心座標の移動を示す。一方、相対位置Rbは、2フレーム分の中心座標の移動を示す。この場合、相対位置Rbは、相対位置R1のX座標及びY座標をそれぞれ2倍にすることで算出される。
上記第2の実施の形態のステップS209,S213において、歩行者が検出されたフレーム画像が、基準フレーム数以上であるか否かを判定する例を説明したが、これに限られない。例えば、ステップS209では、参照フレーム数が2である場合、判定部15は、入力フレーム画像及び直前の2つの過去フレーム画像の各識別値から求められる代表値が、所定のしきい値を超えるか否かを判定してもよい。代表値が所定のしきい値を超えた場合、判定部15は、入力フレーム画像において追跡が成立すると判定する(ステップS210)。代表値として、各識別値の総和、各識別値の平均値などを用いることができる。同様に、ステップS213において、物体検出装置1は、代表値が所定のしきい値を超えた場合、入力フレーム画像における歩行者の位置を予測してもよい(ステップS214)。
[他の実施の形態]
物体検出装置1は、図3に示す追跡処理と、図8に示す追跡処理とを並行して実行してもよい。この場合、物体検出装置1は、図3に示す追跡処理の結果と、図4に示す追跡処理の結果とに基づいて、入力フレーム画像で追跡が成立しているか否かを判断する。たとえば、物体検出装置1は、図3に示す追跡処理及び図8に示す追跡処理の両者において、追跡が入力フレーム画像で成立すると判定した場合、入力フレーム画像内の検出物体の領域を強調してもよい。あるいは、物体検出装置1は、図3に示す追跡処理及び図8に示す追跡処理のいずれか一方において、追跡が入力フレーム画像で成立すると判定した場合、入力フレーム画像内の検出物体の領域を強調してもよい。
1 物体検出装置
2 検出履歴情報
11 画像認識部
12 記憶部
13 距離算出部
14 位置予測部
15 判定部
16 出力部
41〜45,51〜54 フレーム画像
41a〜46a,53a 領域
41b〜46b,53b 中心座標

Claims (10)

  1. 入力フレーム画像から認識対象を検出し、前記入力フレーム画像から前記認識対象として検出された検出物体の位置を特定する画像認識部と、
    前記入力フレーム画像よりも前に入力された第1の過去フレーム画像から認識対象として検出された第1の過去検出物体が前記第1の過去フレームよりも前に入力された第2の過去フレーム画像から検出された第2の過去検出物体と同じであるか否かを示す追跡情報と、前記第1の過去検出物体の位置が前記画像認識部により特定されたか否かを示す情報と前記第1の過去フレーム画像における前記第1の過去検出物体の位置を示す情報とを含む特定情報と、を記憶する記憶部と、
    前記認識対象が前記入力フレーム画像から検出された場合、前記第1の過去検出物体の位置から、前記入力フレーム画像から検出された検出物体の位置までの第1の距離を算出する距離算出部と、
    前記第1の距離が予め設定された第1の基準距離よりも小さい場合、前記入力フレーム画像から検出された検出物体は、前記第1の過去検出物体と同じであると判定する第1の判定部と、
    前記認識対象が前記入力フレーム画像から検出されなかった場合、前記追跡情報及び前記特定情報を参照し、前記第1の過去検出物体が前記第2の過去検出物体と同じであることが前記追跡情報で示され、かつ、前記第1の過去検出物体の位置が前記画像認識部により特定されたことが前記特定情報で示されている場合、前記認識対象が前記入力フレーム画像に存在すると判定し、前記第1の過去検出物体の位置が前記画像認識部により特定されていないことが前記特定情報で示されている場合、前記認識対象が前記入力フレーム画像に存在しないと判定する第2の判定部と、
    を備える物体検出装置。
  2. 請求項に記載の物体検出装置であって、さらに、
    前記認識対象が前記入力フレーム画像に存在すると前記第2の判定部により判定された場合、前記第2の過去検出物体の位置を基準にしたときの前記第1の過去検出物体の相対位置を用いて、前記入力フレーム画像における前記認識対象の位置を予測する位置予測部、
    を備える物体検出装置。
  3. 請求項に記載の物体検出装置であって、
    前記距離算出部は、前記認識対象が前記入力フレーム画像に存在すると前記第2の判定部により判定された場合、前記第1の過去検出物体の位置から、前記画像認識部により前記入力フレーム画像から前記認識対象の候補として抽出された物体の位置までの暫定距離を算出し、
    前記物体検出装置は、
    前記暫定距離が前記第1の基準距離よりも小さい場合、前記抽出された物体の位置を前記認識対象の位置と予測する位置予測部、
    を備える物体検出装置。
  4. 請求項または請求項に記載の物体検出装置であって、
    前記画像認識部は、前記入力フレーム画像の後に入力される後続フレーム画像から前記認識対象を検出し、前記後続フレーム画像から前記認識対象として検出された後続検出物体の位置を特定し、
    前記距離算出部は、前記位置予測部により予測された位置から前記後続検出物体の位置までの第2の距離を算出し、
    前記第1の判定部は、前記第2の距離が前記第1の基準距離よりも小さい場合、前記後続検出物体が前記第1の過去検出物体と同じであると判定する物体検出装置。
  5. 入力フレーム画像から認識対象を検出し、前記入力フレーム画像から前記認識対象として検出された検出物体の位置を特定する画像認識部と、
    前記入力フレーム画像よりも前に入力された第1の過去フレーム画像から前記認識対象として検出された第1の過去検出物体の位置を示す位置情報を記憶する記憶部と、
    前記入力フレーム画像から前記認識対象が検出された場合、前記第1の過去検出物体の位置から、前記入力フレーム画像から検出された検出物体の位置までの第1の距離を算出する距離算出部と、
    前記第1の距離が予め設定された第1の基準距離よりも小さい場合、前記入力フレーム画像から検出された検出物体は、前記第1の過去検出物体と同じであると判定する第1の判定部と、
    前記入力フレーム画像から前記認識対象が検出されなかった場合、前記入力フレーム画像よりも前に入力された第1の所定数の過去フレーム画像のうち、前記認識対象が検出されたフレーム画像の数が基準フレーム数以上であるか否かを確認するフレーム数確認部と、
    前記認識対象が検出されたフレーム画像の数が基準フレーム数以上である場合、前記認識対象が前記入力フレーム画像に存在すると判定する第2の判定部と、
    を備える物体検出装置。
  6. 請求項に記載の物体検出装置であって、さらに、
    前記第1の過去フレーム画像から前記第1の過去検出物体が検出されなかった場合、前記入力フレーム画像よりも前に入力された第の所定数の過去フレーム画像のうち、前記認識対象が検出されたフレーム画像を特定するフレーム特定部と、
    前記距離算出部は、前記入力フレーム画像から検出された検出物体の位置から前記フレーム特定部により特定されたフレーム画像から検出された検出物体の位置までの第2の距離を算出し、
    前記第1の判定部は、前記第2の距離が第2の基準距離よりも小さい場合、前記入力フレーム画像から検出された検出物体が前記特定されたフレーム画像から検出された検出物体と同じであると判定する物体検出装置。
  7. 請求項6に記載の物体検出装置であって、
    前記第2の基準距離は、前記入力フレーム画像から前記特定されたフレーム画像までのフレーム数に応じて前記第1の基準距離を変更することにより算出される物体検出装置。
  8. 請求項6または請求項7に記載の物体検出装置であって、さらに、
    前記フレーム数確認部は、前記第1の過去フレーム画像から前記第1の過去検出物体が検出されなかった場合、前記第1の所定数の過去フレーム画像のうち、前記認識対象が検出されたフレーム画像の数が基準フレーム数以上であるか否かを確認し、
    前記第1の判定部は、前記認識対象が検出されたフレーム画像の数が前記基準フレーム数よりも少ない場合、前記入力フレーム画像から検出された検出物体が前記認識対象として誤って検出されたと判定する物体検出装置。
  9. 請求項に記載の物体検出装置であって、さらに、
    前記第2の判定部により前記認識対象が前記入力フレーム画像に存在すると判定された場合、前記第1の所定数の過去フレーム画像に含まれるとともに、前記認識対象が検出された第1及び第2の参照フレーム画像を特定する参照フレーム特定部、
    を備え、
    前記第1の参照フレーム画像は、前記第2の参照フレーム画像よりも前に入力され、
    前記物体検出装置は、さらに、
    前記第1の参照フレーム画像から検出された第1の参照検出物体の位置と前記第2の参照フレーム画像から検出された第2の参照検出物体の位置とから、前記第1の参照検出物体の位置を基準にしたときの前記第2の参照検出物体の相対位置を特定し、前記相対位置と前記第2の参照検出物体の位置とを用いて、前記入力フレーム画像における前記認識対象の位置を予測する位置予測部、
    を備える物体検出装置。
  10. 請求項に記載の物体検出装置であって、
    前記位置予測部は、前記第1の参照フレーム画像から前記第2の参照フレーム画像までのフレーム数と、前記第2の参照フレーム画像から前記入力フレーム画像までのフレーム数とに応じて前記相対位置を調整し、調整された前記相対位置を用いて前記認識対象の位置を予測する物体検出装置。
JP2012078759A 2012-03-30 2012-03-30 物体検出装置 Expired - Fee Related JP5964108B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012078759A JP5964108B2 (ja) 2012-03-30 2012-03-30 物体検出装置
PCT/JP2013/054136 WO2013145948A1 (ja) 2012-03-30 2013-02-20 物体検出装置
US14/388,017 US9652677B2 (en) 2012-03-30 2013-02-20 Object detection device for recognizing an object in an input frame image using past frame image information
US15/486,807 US9977967B2 (en) 2012-03-30 2017-04-13 Object detection device for recognizing an object in an input frame image using detection history information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012078759A JP5964108B2 (ja) 2012-03-30 2012-03-30 物体検出装置

Publications (2)

Publication Number Publication Date
JP2013210705A JP2013210705A (ja) 2013-10-10
JP5964108B2 true JP5964108B2 (ja) 2016-08-03

Family

ID=49259230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012078759A Expired - Fee Related JP5964108B2 (ja) 2012-03-30 2012-03-30 物体検出装置

Country Status (3)

Country Link
US (2) US9652677B2 (ja)
JP (1) JP5964108B2 (ja)
WO (1) WO2013145948A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10095935B2 (en) * 2013-12-20 2018-10-09 Magna Electronics Inc. Vehicle vision system with enhanced pedestrian detection
JP2015143946A (ja) * 2014-01-31 2015-08-06 富士通株式会社 移動物体検知・追跡装置、移動物体検知・追跡システム、移動物体検知・追跡方法、及び、プログラム
JP6337545B2 (ja) * 2014-03-19 2018-06-06 オムロン株式会社 画像処理装置、追跡方法、および追跡プログラム
JP6295122B2 (ja) * 2014-03-27 2018-03-14 株式会社メガチップス 状態推定装置、プログラムおよび集積回路
JP6413530B2 (ja) * 2014-09-12 2018-10-31 沖電気工業株式会社 監視システム、映像解析装置、映像解析方法およびプログラム
JP6570302B2 (ja) * 2015-04-23 2019-09-04 ダイハツ工業株式会社 運転支援装置
JP6618767B2 (ja) * 2015-10-27 2019-12-11 株式会社デンソーテン 画像処理装置および画像処理方法
JP6976270B2 (ja) * 2016-04-08 2021-12-08 オービタル インサイト インコーポレイテッド 地理的領域におけるコンテナ内に格納された量の遠隔決定
CN106504266B (zh) * 2016-09-29 2019-06-14 北京市商汤科技开发有限公司 行走行为的预测方法和装置、数据处理装置和电子设备
KR101967305B1 (ko) 2016-10-14 2019-05-15 주식회사 만도 차량의 보행자 인식 방법 및 차량의 보행자 인식 시스템
US10255490B2 (en) * 2016-12-01 2019-04-09 Sasken Communication Technologies Ltd Method and apparatus for human detection in images
US10922551B2 (en) * 2017-10-06 2021-02-16 The Nielsen Company (Us), Llc Scene frame matching for automatic content recognition
US20210397187A1 (en) * 2018-10-15 2021-12-23 Starship Technologies Oü Method and system for operating a mobile robot
JP7258564B2 (ja) * 2019-01-16 2023-04-17 スタンレー電気株式会社 車両用灯具の制御装置、車両用灯具の制御方法、車両用灯具システム
JP7430088B2 (ja) 2020-03-24 2024-02-09 株式会社フジタ 発話制御装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0878965A3 (en) * 1997-05-14 2000-01-12 Hitachi Denshi Kabushiki Kaisha Method for tracking entering object and apparatus for tracking and monitoring entering object
US6445409B1 (en) * 1997-05-14 2002-09-03 Hitachi Denshi Kabushiki Kaisha Method of distinguishing a moving object and apparatus of tracking and monitoring a moving object
JP2000105835A (ja) * 1998-07-28 2000-04-11 Hitachi Denshi Ltd 物体認識方法及び物体追跡監視装置
EP1704509A4 (en) * 2003-11-13 2010-08-25 Honda Motor Co Ltd ADAPTIVE PROBABILISTIC VISUAL TRACKING WITH INCREMENTAL SUB-ROOM UPDATE
JP2005354578A (ja) 2004-06-14 2005-12-22 Denso Corp 対象物体検出・追跡装置
JP2006323437A (ja) * 2005-05-17 2006-11-30 Sony Corp 物体追跡方法、物体追跡方法のプログラム、物体追跡方法のプログラムを記録した記録媒体及び物体追跡装置
JP4830650B2 (ja) * 2005-07-05 2011-12-07 オムロン株式会社 追跡装置
JP4692371B2 (ja) * 2006-04-26 2011-06-01 オムロン株式会社 画像処理装置、画像処理方法、画像処理プログラム、および画像処理プログラムを記録した記録媒体、ならびに移動物体検出システム
JP2009070344A (ja) 2007-09-18 2009-04-02 Fujitsu Ten Ltd 画像認識装置、画像認識方法および電子制御装置
JP5077164B2 (ja) * 2008-09-16 2012-11-21 オムロン株式会社 追跡装置及び追跡方法
US8325981B2 (en) * 2009-04-21 2012-12-04 Nec Soft, Ltd. Human tracking apparatus, human tracking method, and human tracking processing program

Also Published As

Publication number Publication date
US9652677B2 (en) 2017-05-16
JP2013210705A (ja) 2013-10-10
US20170220868A1 (en) 2017-08-03
US9977967B2 (en) 2018-05-22
WO2013145948A1 (ja) 2013-10-03
US20150302258A1 (en) 2015-10-22

Similar Documents

Publication Publication Date Title
JP5964108B2 (ja) 物体検出装置
JP4203512B2 (ja) 車両周辺監視装置
JP6141079B2 (ja) 画像処理システム、画像処理装置、それらの制御方法、及びプログラム
JP4884096B2 (ja) 物体識別システム
JP5923746B2 (ja) 物体検出枠表示装置及び物体検出枠表示方法
KR20160106514A (ko) 동화상에 있어서 물체를 검출하는 방법 및 장치, 및 그 프로그램을 기억한 기억 매체
JP5919538B2 (ja) 物体検出装置及び物体検出方法
JP2010085240A (ja) 車両用画像処理装置
JP6803525B2 (ja) 顔検出装置およびこれを備えた顔検出システムならびに顔検出方法
TW201926141A (zh) 影像目標追蹤方法及裝置
JP4853444B2 (ja) 移動物体検出装置
JP4696991B2 (ja) 動き検出方法および動き検出装置
JP6953818B2 (ja) 動作判定装置
JP5107154B2 (ja) 運動推定装置
KR20140123299A (ko) 차량 충돌 방지 장치 및 그 방법
JP6527183B2 (ja) 放置物検出装置
JP5270319B2 (ja) 画像監視装置
JP2013218476A (ja) 画像認識装置
JP2017102634A (ja) 画像処理装置および画像処理システム
JP6668740B2 (ja) 道路面推定装置
JP4151631B2 (ja) 物体検出装置
JP2008257399A (ja) 画像処理装置
JP2015215235A (ja) 物体検出装置及び物体検出方法
JP2008146132A (ja) 画像検出装置、プログラム及び画像検出方法
JP2006314060A (ja) 画像処理装置及びノイズ検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160629

R150 Certificate of patent or registration of utility model

Ref document number: 5964108

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees