JP2015069648A - 目標検出方法及び目標検出システム - Google Patents

目標検出方法及び目標検出システム Download PDF

Info

Publication number
JP2015069648A
JP2015069648A JP2014188756A JP2014188756A JP2015069648A JP 2015069648 A JP2015069648 A JP 2015069648A JP 2014188756 A JP2014188756 A JP 2014188756A JP 2014188756 A JP2014188756 A JP 2014188756A JP 2015069648 A JP2015069648 A JP 2015069648A
Authority
JP
Japan
Prior art keywords
feature
target
frame image
current frame
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014188756A
Other languages
English (en)
Other versions
JP6421510B2 (ja
Inventor
チャオ チェヌ
Chao Chen
チャオ チェヌ
ヤオジエ ル
Lu Yaojie
ヤオジエ ル
ジョォンチャオ シ
Zhongchao Shi
ジョォンチャオ シ
ガン ワン
Gang Wang
ガン ワン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2015069648A publication Critical patent/JP2015069648A/ja
Application granted granted Critical
Publication of JP6421510B2 publication Critical patent/JP6421510B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Abstract

【課題】目標検出方法及びシステムを提供する。【解決手段】目標検出方法は、現在シーンの現フレーム画像を取得し、現フレーム画像の前の連続した複数のフレーム画像の履歴シーケンスにおける履歴情報に基づいて、現フレーム画像の特徴領域を予測し、抽出された特徴に基づいて、現フレーム画像において予測された特徴領域に対し、前フレーム画像の特徴領域との特徴領域マッチングを行い、現フレーム画像においてマッチングされた特徴領域の間の変位ベクトル、空間隣接性及び追跡情報に基づいて、特徴領域の目標集合分析を行うことで目標の特徴領域の集合を取得し、取得された目標集合を検出目標として出力し、抽出された特徴及び空間隣接性に基づいてマッチングしていない点に対してクラスタリングを行い、目標集合分析の結果及びクラスタリング結果を用いて現フレーム画像の特徴領域及び領域特徴を更新する。【選択図】図3

Description

本発明は目標検出方法及び装置に関する。具体的に言えば、本発明は車両の自律運転過程中に変位ベクトル特徴、空間隣接性特徴及び追跡情報を用いて目標集合の分析を行い、自己学習によって絶え間なく特徴領域と特徴値を増強し、さらに検出性能を向上させる目標検出方法及びシステムに関する。
ビデオ検出の幅広い使用につれて、ビデオ画像中の対象検出精度への要求が高まってきている。また、人々の自動運転技術へのニーズに伴い、如何に確実に3D道路環境を取得するかは、車両の自律運転において非常に重要である。3D道路環境認識タスクは、主に、路面推定、消失点計算、目標検出等を含み、そのうち、目標対象検出はもっとも重要な一部として、自律走行車の制御に対して直接な影響を及ぼす。
各種対象の画像中に現れる各種特性に関し、各種対象検出方法が提案されている。米国特許出願公開第US005937079A号(特許文献1)は、立体図像の推定により対象を検出する、立体図対象検出方法を提案している。他の構成類別において画素のために対応する視差値を決定し、且つ所定頻度で視差ヒストグラム中にインクレメンタル集合する。該ヒストグラムの所定のグループ化点領域に属する画素組は、その後被検出の対象と見なされる。該特許出願においては、所定のグループ化点領域に複数の対象が存在するか、等距離に複数の対象が存在する時は、視差ヒストグラムにより対象を決定することができない。
米国特許第US7801330B2号(特許文献2)はビデオストリームから目標検出と追跡を行う方法を開示している。該方法はビデオを受信し、ビデオにおける運動画素を検出し、検出された運動画素に基づいてビデオにおける線分と運動ブロックを検出し、検出された線分又は運動ブロックに基づいてビデオにおける目標を認識し、認識された目標に基づいてビデオにおける目標を追跡し、及びビデオにおける被追跡目標を管理する。該特許においては、フレームごとに線分又は運動ブロックを検出してマッチングを行う。
従来の技術から見れば、現在の目標検出方法は主に、(1)フレーム内情報に基づく検出方法、(2)フレーム間情報に基づく検出方法の2種類がある。第1類方法は空間の分布特徴を利用して信頼点をクラスタリングして目標を検出する。この類の方法は単純シーン下の検出に対しては非常に有効であり、複雑シーン下の隣接目標に対する分割効果が悪く、且つ大目標を誤って複数の小目標に分けやすい。第2類方法はフレーム間のマッチングにより相対運動情報を取得して目標検出を行う。この類の方法は通常、計算量が膨大で、且つ画素点変位の決定において不安定である。
フレーム内情報に基づいて視差図に目標検出を行うことは幅広く用いられる目標検出方法である。ところが現在の該方法には、さらにいくつの問題が存在し、カメラのパラメータを正確に取得しないため、視差計算により得られる結果も正確ではない。同一目標における視差値の分散が非常に大きいため、隣接する目標の区別がしにくい。図1Aと1Bに示すように、そのうち図1Aの階調図から分かるように、2つの目標に属する歩行者と車両は視差図1Bで同一の目標として認識されている。図1Bにおける長方形枠は検出された目標領域である。まばらである視差図中に、水平双眼カメラが取得した視差図における目標の水平縁はほとんど視差値がないため、同一目標を異なる小目標に分割しやすい。図2Aと2Bに示すように、水平双眼カメラが取得した視差図に車両における中間部分は正確なマッチング結果を取得することができないため、車両テールの中間水平縁部分には視差がなく、従って該車両は2つの部分として認識される。図2Bに示すように、そのうち2つの長方形枠は検出された目標領域である。
本発明は主にこの2つの課題に対して、以下の新方法を用いて解決する。
本発明の一の態様によれば、目標検出方法を提供しており、該方法は、現在シーンの現フレーム画像を取得するステップと、現フレーム画像の前の連続した複数のフレーム画像の履歴シーケンスにおける履歴情報に基づいて、現フレーム画像の特徴領域を予測するステップと、具体的な応用の必要に応じて抽出された特徴に基づいて、現フレーム画像において予測された特徴領域に対し、前フレーム画像の特徴領域との特徴領域マッチングを行うステップと、現フレーム画像においてマッチングされた特徴領域の間の変位ベクトル、空間隣接性及び追跡情報に基づいて、現フレーム画像の特徴領域に対して目標集合分析を行うことで検出される目標の特徴領域の集合を取得し、取得された目標集合を検出目標として出力するステップと、前記抽出された特徴及び空間隣接性に基づいて、マッチングしていない点に対してクラスタリングを行うステップと、次のフレーム画像に対して前述のステップを繰り返すように、目標集合分析の結果及びクラスタリング結果を用いて現フレーム画像の特徴領域及び領域の特徴を更新するステップと、を含む。
本発明の目標検出方法では、前記目標集合分析を行うステップは、現フレーム画像においてマッチングされた特徴領域に対して、特徴領域の現フレーム画像の前の連続した複数のフレームにおける相対変位状態に基づいて、マッチングされた特徴領域の変位ベクトルを計算するステップと、現フレーム画像の前の連続した複数のフレームの履歴情報により示された追跡軌跡に基づいて、現フレーム画像において計算された特徴領域の変位ベクトルを補正するステップと、現フレーム画像に対して、特徴領域の補正後の変位ベクトル、特徴領域間の空間隣接性及び追跡情報に基づいて、特徴領域の統合を行うことで、目標集合を取得するステップと、を含む。従って、本発明の方法により運動情報とセクション分けるために空間接続情報を使用することにより有効的に隣接する対象を区分することができる。
本発明の目標検出方法では、前記目標集合分析を行うステップは、統合された目標集合の形状を分析し、統合された目標集合に属する潜在目標領域を決定するステップと、具体的な応用の必要に応じて抽出された特徴に基づいて、決定された潜在目標領域を特徴領域として前フレーム画像の特徴領域との再マッチングを行うステップと、マッチングされ、且つ統合された目標集合と同じ変位ベクトルを有する潜在目標領域を、統合された目標集合に統合することで、目標の集合領域全体を取得し、マッチングしていない潜在目標領域を新たな特徴領域として保留するステップと、をさらに含む。
本発明の目標検出方法では、前記現フレーム画像が第1フレームの画像である場合、抽出された特徴及び空間隣接性に基づいてマッチングしていない点に対してクラスタリングを直接に行うことで第1フレームの特徴領域を取得するステップをさらに含む。
本発明の目標検出方法では、前記現フレーム画像の特徴領域及び領域の特徴を更新するステップは、目標集合領域を現フレーム画像の新たな特徴領域とするステップと、マッチングしていない潜在目標領域を現フレーム画像の新たな特徴領域とするステップと、マッチングしていない点をクラスタリングして生成された領域を現フレーム画像の新たな特徴領域とするステップと、抽出された特徴に対して各新たな特徴領域の特徴値を更新するステップと、を含む。従って、本発明の方法は特徴領域と特徴値に対して自己学習を行い、特徴強度が連続的であり、且つより強い堅牢性を有する。
本発明の目標検出方法では、前記履歴シーケンスには、現フレーム画像の前の連続した複数のフレーム画像における各特徴領域の運動状態パラメータが記録されている。
本発明の目標検出方法では、前記特徴領域の予測はカルマンフィルタにより運動モデルを作成することにより行われる。
本発明の目標検出方法では、現フレーム画像において統合を行うための特徴領域は、同じ変位ベクトルを有し、且つ空間上に隣接すると共に、連続した複数のフレームにおいて同じ変位ベクトル、空間関係及び同じ運動軌跡を有する。
本発明の目標検出方法では、前記潜在目標領域を決定するステップにおいて、異なる目標の形状モデルを予め作成することにより潜在目標領域を検出する。
本発明の他の態様によれば、目標検出システムを提供しており、現在シーンの現フレーム画像を取得する画像取得手段と、現フレーム画像の前の連続した複数のフレーム画像の履歴シーケンスにおける履歴情報に基づいて、現フレーム画像の特徴領域を予測する特徴領域予測手段と、具体的な応用の必要に応じて抽出された特徴に基づいて、現フレーム画像において予測された特徴領域に対して、前フレーム画像の特徴領域との特徴領域マッチングを行う特徴領域マッチング手段と、現フレーム画像においてマッチングされた特徴領域の間の変位ベクトル、空間隣接性及び追跡情報に基づいて、現フレーム画像の特徴領域に対して目標集合分析を行うことで検出される目標の特徴領域の集合を取得し、取得された目標集合を検出目標として出力する目標集合分析手段と、前記抽出された特徴及び空間隣接性に基づいて、マッチングしていない点に対してクラスタリングを行うクラスタリング手段と、次のフレーム画像に対して前述のステップを繰り返すように、目標集合分析の結果及びクラスタリング結果を用いて現フレーム画像の特徴領域及び領域の特徴を更新する特徴更新手段と、を含む。
本発明の目標検出方法により、変位ベクトル特徴、空間隣接性特徴及び追跡情報を用いて目標集合の分析を行い、自己学習によって絶え間なく特徴領域と特徴値を増強し、さらに検出特性を向上させる。
従来の技術中に視差図における2つの隣接目標が1つの目標として認識された模式図である。 従来の技術中に視差図における2つの隣接目標が1つの目標として認識された模式図である。 従来の技術中に視差図における1つの目標が2つの目標として認識された模式図である。 従来の技術中に視差図における1つの目標が2つの目標として認識された模式図である。 本発明による目標検出方法を示す全体フローチャートである。 本発明の方法により特徴マッチングを行うことを示すフローチャートである。 前の1つのフレーム画面における特徴領域を示す模式図である。 特徴領域により現在フレーム画面(新規リアルタイム画面)における特徴領域を予測して取得する模式図である。 図5Bに予測された特徴領域に対して特徴領域マッチングを行った後の結果を示す模式図である。 本発明の方法により自己学習検出を行うフローチャートである。 本発明の方法により目標集合分析を行うフローチャートである。 図9Aは、変位ベクトルを決定する模式図である。図9Bは、図9Aに決定された変位ベクトルを示す拡大模式図である。図9Cは、図9Aと9Bに示す変位ベクトルに対して補正を行った後の変位ベクトルを示す模式図である。図9Dは、図9Aと9Bに示す変位ベクトルに対して補正を行った後の変位ベクトルを示す模式図である。 特徴領域により統合された後の目標集合を示す模式図である。 潜在の目標領域を決定することにより得られた特徴領域を示す模式図である。 非マッチング点がクラスタリングされた後の結果を示す模式図である。 潜在目標領域が統合目標集合と統合されず新規特徴領域に更新される結果模式図である。 統合目標集合と潜在目標領域を統合した後の結果が新規特徴領域に更新された結果模式図である。 非マッチング点のクラスタリング結果が新特徴領域に更新された模式図である。 現在フレームの元視差図である。 従来目標検出方法(例えばフレーム内情報に基づく方法)を用いた結果模式図である。 本発明の検出方法を用いた結果模式図である。 現在フレームの元視差図である。 従来目標検出方法(例えばフレーム内情報に基づく方法)を用いた結果模式図である。 本発明の検出方法を用いた結果模式図である。 本発明の目標検出方法を用いたシステムの機能モジュール図である。
当業者によりよく本発明を理解させるために、以下、図面と具体的な実施方式を参照しながら本発明をさらに詳しく説明する。
本発明の実施例によれば、図3に示すように、目標検出方法を提供する。まず、ステップS10に、例えば双眼カメラの画像取得ユニット10によりリアルタイム画面をキャプチャし、現在シーンの視差図又は階調図を含み、特徴領域生成ユニット11(後述する)に出力する。続いて、ステップS11に、特徴領域生成ユニット11は各特徴領域の履歴シーケンスに基づいて新規リアルタイム画面における特徴領域を予測して特徴領域マッチングを行うことで新規リアルタイム画面における特徴領域を取得する。特徴領域生成ユニット11はマッチングされた特徴領域を自己学習検出ユニット12(後述する)に送信する。ステップS12に、自己学習検出ユニット12は現フレーム画像におけるマッチングされた特徴領域を目標集合分析し、及び非マッチング点に対して抽出特徴と空間隣接性に基づいてクラスタリングを行って新規特徴領域を形成し、現フレーム画像における特徴領域とこれらの特徴領域における特徴を更新し、更新された結果を出力ユニット13(後述する)に送信する。その後、ステップS13に、出力ユニット13は新規特徴領域を新規リアルタイム画面における目標対象として出力する。
図4は本発明の方法による特徴マッチングを示すフローチャートである。図4に示すように、まず、ステップS10で取得されたリアルタイム画面の階調図と視差図に対して、ステップS110で該リアルタイム画面が本発明の検出方法を用いたシステムが受信された第1フレーム画像であるかどうかを判断する。第1フレーム画像であると、処理過程は後述するステップS122に移行する。第1フレーム画像ではないと、ステップ111に移行する。ステップS111において、取得された画像に対して、特徴領域予測111は追跡フィルタを用いて作成された運動モデルに基づいて各特徴領域の次のフレーム(新規リアルタイム画面)における位置を予測する。追跡フィルタ、例えばカルマンフィルタは、各特徴領域の運動状態パラメータを説明する運動モデルを構築してもよい。もちろん、他の従来のフィルタを使用してもよい。特徴領域の次のフレームにおける位置Pn+1と大きさSn+1は、いずれも追跡フィルタによりシステム中に保存されている履歴シーケンスT基づいて予測することができる。
本出願の1つの実例として、システム中に保存されている履歴シーケンスTは各特徴領域の運動軌跡を記録している。
ここで、O目標(特徴領域)の状態であり、その第iフレームでの位置P、速度V、寸法S等を含む。Tiはm個目標の第フレームiにある時の状態を含む。Tは第0フレームから第nフレームまでの各フレームの履歴情報を含む。
図5Aは前の1つのフレーム画面における特徴領域を示す模式図であり、図5Bは特徴領域により現在フレーム画面(新規リアルタイム画面)における特徴領域を予測して取得する模式図である。
本発明において、最初に本発明の前記目標検出方法を使用する場合があり、即ち、前記ステップS110においてリアルタイム画面が第1フレーム画像であると判断される場合である。これに対して、本発明は、初期期状態では、前記ステップを行わず、直接後述する非マッチング点クラスタリングステップS122を行ってもよい。簡単に言えば、S122において、初期画面に対して、空間隣接性に基づいてクラスタリングを行い、同一の空間に属する画素点を一類に分類して特徴領域を形成する。例えば、クラスタリング方法(例えば、連結成分分析法(CCA)、K−平均値法等)を使用し、近い視差値を有し且つX、Y方向に隣接する点に対してクラスタリングを行う。その後の第2フレームに対して、具体的な検出対象の特徴に基づいて、一定空間範囲内でマッチングを行うことで第2フレームにおける特徴領域又は対象領域を取得する。例えば、具体的な検出対象が人であると、人の通常運動速度に基づいて、人の隣接する両フレームの時間内の通常移動距離を設定し、これにより、第1フレームの特徴領域を中心とする該通常移動の距離(例えば1、2、3、4又は5個の画素点の距離)範囲内で特徴マッチング行い、これによって、マッチングされた領域を第2フレームの特徴領域とする。その後、前の両フレームの特徴領域に基づいて前記履歴シーケンスTを作成し、新規リアルタイム画面に対して前記ステップS111を実行する。それにしても、現フレームが第1フレームであるかを判断するステップは必ず必要ではない。実際に本発明の検出方法を実施する中で、システムは通常、いくつの具体応用に対応する履歴シーケンスを予め設定し、これらの予め設定された履歴シーケンスに記録する履歴情報は通常具体応用に対応する実際環境との間に類似ところがあり、通常、特徴の予測結果に多大な格差をもたらすことがない。また、特徴領域予測結果に大きな格差が存在すると、後に行う非マッチング点クラスタリングステップにより補正することができる。
現在フレーム(新規リアルタイム画面)に対して特徴領域予測を行った後、ステップS112において、後述する特徴領域マッチングユニット112は抽出された特徴に基づいて、現フレーム画像において予測された特徴領域に対し、前の1つのフレームの特徴領域との特徴領域マッチングを行う。抽出された特徴は異なる実際応用に対して、異なる特徴を有してもよい。多くの特徴、例えば模様、角点及び形状等を抽出して領域のマッチングに用いてもよい。車両検出を例として、対称性特徴を抽出してマッチングを行うことができる。人に対して、模様又は形状特徴を用いてマッチングを行うことができる。これらの特徴の抽出は従来の各種方法を用いて行うことができる。マッチング方法においては、抽出される異なる特徴を対象としてもよい。相応のマッチング方法、例えばヒストグラムマッチング、テンプレートマッチング等の方法を採用する。図6は図5Bに予測された特徴領域に対して特徴領域マッチングを行った後の結果を示す模式図である。図6に示すように、中実の長方形枠はマッチング上の特徴領域を示し、中空部の長方形枠は非マッチング特徴領域を示す。車道線が隣接フレームの対応の長方形枠内で変化したため、車両左下部に位置する特徴領域が非マッチングとなる。
前記のステップS111に対して説明したように、本発明の検出方法を使用する初期段階に、最初の第1フレームに対して、マッチングの元がないため、ステップS112は実行せず、直接後述する非マッチング点クラスタリングステップを行う。
図7は本発明の方法により自己学習検出を行うフローチャートである。例えば、図7に示すように、ステップS120において、前の段階から得られた現在フレームの特徴マッチング後のマッチングされた特徴領域及び元画像を受信すると、ステップS121において、目標集合分析ユニット121が、マッチングされた特徴領域の変位ベクトル、空間隣接性及び追跡情報に基づいて、特徴領域の目標集合分析を行うことで目標の特徴領域の集合を取得する。図8は本発明の方法により目標集合分析を行うフローチャートである。
図8に示すように、ステップS120において、前の段階から取得された現在フレームの特徴マッチング後のマッチングされた特徴領域及び元画像を受信する。その後、ステップS1211において、目標集合分析ユニット121に含まれる変位ベクトル決定ユニット1211が、現在フレーム中のマッチングされた特徴領域に対して、特徴領域の前の連続的なマルチフレームにおける相対変位状態に基づいて、マッチングされた特徴領域の変位ベクトルを算出することができる。具体的な計算方法は従来の変位ベクトル計算方法により行ってもよい。図9Aは変位ベクトルを決定する模式図である。図9Bは図9Aで決定された変位ベクトルを示す拡大模式図である。図9Aと9B図における白色矢印の指示のように、取得された特徴領域の変位ベクトルを計算する。これらの非マッチング特徴領域又は非マッチング画素点に対しては、変位ベクトルを算出することができない。
その後、ステップS1212において、目標集合分析ユニット121に含まれる変位ベクトル補正ユニット1212が、追跡軌跡に基づいて、計算された特徴領域の変位ベクトルを補正する。前述のように、本発明の目標検出方法を用いるシステムには、特徴領域の履歴追跡シーケンスが保存されており、該履歴追跡シーケンスは各特徴領域の運動軌跡情報を記録している。車両を被検出対象とすることを例にすると、車両走行過程中に、現在フレームにおける可能な車両の位置としての特徴領域の位置は急激な変化がない。従って、履歴追跡シーケンスに記録する各特徴領域の運動軌跡情報は計算された対応特徴領域の変位ベクトルを補正/平滑化することに用いられることができる。このような補正方法は従来の数学補正形態類を用いて行うことができ、従ってここで詳しく説明しない。図9C〜9Dは図9Aと9Bに示す変位ベクトルに対して補正を行った後の変位ベクトルを示す模式図である。図9Cに示すように、補正した後、検出対象としての車両の位置近傍に、同じ運動ベクトルを有する特徴領域が3つあり、図9Dに示すように、補正した後、車両の位置近傍の他の特徴領域が異なる運動ベクトルを有する。同じ変位ベクトルを有する特徴領域に対して同じマークを用いてラベルをつけることができる。
次に、ステップS1213において、目標集合分析ユニット121に含まれる特徴領域統合ユニット1213が、特徴領域の補正後の変位ベクトル、特徴領域同士の間の空間隣接性及び追跡情報に基づいて、特徴領域の統合を行い、目標集合を取得する。統合又は集合された特徴領域は同時に、下記の3つの条件、即ち、まず、現在フレーム中に、統合されようとする特徴領域が同じ変位ベクトルを有し、又は同じマークを有すること、次に、現在フレーム中に、統合されようとする特徴領域が空間上に互いに隣接し、且つ、これらの特徴領域の間にいかなる背景とする目標又は領域特徴がないこと、最後に、統合される特徴領域が安定的で且つ連続したマルチフレームにおいて同じ変位ベクトル、安定空間関係及び同じ運動軌跡を有することの、3つの条件を満たすべきである。特徴領域の間が同時に前記の3つの基準を満たすと、特徴領域統合ユニット1213が、これらの特徴領域を統合することで、1つの目標集合を新規作成する。前記3つの基準を満たすいくつの特徴領域内部のいくつの特徴領域は不安定(例えば異なる変位ベクトルを有する)である可能性があるが、このような内部不安定は最終の統合に影響を与えない。図10は特徴領域により統合された後の目標集合を示す模式図である。図10に示すように、図9Cにおける同じ変位ベクトルを有する3つの特徴領域は安定的で、且つ過去の連続的な数フレーム中(例えば、連続的な2、3、4、5、6−10フレーム中)に同じ運動軌跡を有し、同時にこれらは空間上に隣接し又は安定的な相互空間関係を有することで、統合される。図9Dに示す異なる変位ベクトル領域がこの3つの特徴領域の間に存在するが、この3つの特徴領域内部の間の小さな特徴領域は非常に不安定で、且つ背景とする目標ではないと決定されるため、これらの小特徴領域は該目標集合を分割させることがない。これらの不安定特徴領域は背景であると決定された時、即ち、統合されようとする目標集合が同一の目標に属さない可能性がある場合は、これらの不安定の特徴領域は背景目標として統合されようとする目標集合を分割することになる。
続いて、ステップS1214に、目標集合分析ユニット121に含む潜在目標領域決定ユニット1214は統合された目標集合の形状を分析し、潜在の目標領域を決定し、該潜在の目標領域を改めてマッチングする特徴領域とする。通常、異なる応用場合に、例えば、車両検出場合又は人の検出場合に用い、本発明の検出方法のシステムを用いて異なる検出対象の形状モデルを作成して潜在の目標領域を検出する。車両検出を例とし、長方形モデルを使用して車両形状を表すことができる。統合された目標集合、即ち検出された車両の一部に対して、予め定義された車両モデルに基づいて、車両の残りの一部を推算することができる。次に、潜在目標領域決定ユニット1214は推算された車両の残りの一部を潜在の目標領域として決定し、改めてマッチングする特徴領域とする。図11は潜在の目標領域を決定することにより得られた特徴領域を示す模式図である。図11に示すように、図における斜線付き多角形領域は即ち予め定義された車両モデルに基づいて決定された潜在目標領域である。
次に、ステップS1215において、目標集合分析ユニット121に含まれる潜在目標領域再マッチングユニット1215が、決定された潜在目標領域又は潜在特徴領域を新規特徴領域として再マッチングを行い、目標集合領域全体を取得する。具体的に言えば、新規特徴領域と前の1つのフレームにおける特徴領域とのマッチングを行う。現在フレームの前記潜在目標領域又は潜在特徴領域がマッチングされ、且つその変位ベクトルが目標集合全体の変位ベクトルと同じであれば、統合された目標集合と統合する。さもないと、新規特徴領域として保留し、次のフレームにおいてマッチングを行う。
最後に、ステップS1216において、最終の目標集合を検出された目標又は対象として出力する。
以上、目標検出過程を説明したが、リアルタイム対象検出過程中に、シーンが絶えず変化するため、現在フレーム中に新たな検出すべき対象が出現する恐れがあり、従って、必ず履歴シーケンスに基づいてマッチングできない対象が存在し、この非マッチング対象は、システム応用場合の検出しようとする対象である可能性がある。従って、現在フレーム中に非マッチング点に対してクラスタリングを行う必要があり、現在フレーム中に新たに出現した対象の検出漏れを防止する。従って、本発明の目標検出方法は、前に目標集合分析を行った上で、ステップS122において、クラスタリングユニット122が現在フレームにおける非マッチング点に対して抽出された特徴と空間隣接性に基づいてクラスタリングを行うことを更に含む。前のステップS111で言及した通りに、本発明の方法の開始時には、第1フレームはマッチングの基礎がないため、クラスタリングを行って特徴領域を取得する必要がある。ステップS122において、第1フレームに対しては、この前に目標集合を取得していないと見なされ、且つ第1フレームのすべての点はいずれも非マッチング点と見なされ、いずれもクラスタリング実行に用いられる。一方、後続フレームに対して、目標集合以外の非マッチング点に対してクラスタリングを行うことで新たに出現した対象に対応する可能性がある新規領域特徴を発生させる。前述のように、非マッチング点及び領域に対して、クラスタリング方法(例えば、連結成分分析法(CCA)、K−平均値法等)を使用して、近い視差値を有し且つX、Y方向に隣接する点に対してクラスタリングを行い、新規特徴領域を取得し、次フレームのマッチングに用いる。図12は非マッチング点がクラスタリングされた後の結果を示す模式図である。図12に示すように、図における中空部枠は非マッチング点に対してクラスタリングを行った後の結果である。
その後、ステップS123において、特徴更新ユニット123は現在フレームの特徴領域及び特徴値を更新する。具体的に言えば、まず前記統合結果及び非マッチング点クラスタリング結果に基づいて、特徴領域を更新する。まず、いくつの特徴領域が1つの目標集合に統合されると、又は統合された目標集合と潜在目標領域が新規目標集合に再度統合されると、最後の目標集合を新規特徴領域とし、即ち、単に新たに統合して生成された目標領域を新規特徴領域とする。図13Bは統合目標集合と潜在目標領域を統合した後の結果が新規特徴領域に更新された結果模式図である。次に、二次マッチングされていない潜在目標領域を新規特徴領域に更新する。潜在の目標領域とそれに対応する目標集合が統合されると、該潜在の目標領域は独立して1つの新規特徴領域とはならない。目標集合と統合されないと、独立して1つの新規特徴領域となる。図13Aは潜在目標領域が統合目標集合と統合されず新規特徴領域に更新される結果模式図である。図13Aに示すように、車両左下部に位置する多角形は潜在目標領域として新規特徴領域に更新され、同時に目標集合は別の新規特徴領域とし、例えば車両右上部の多角形に示す通りである。最後に、非マッチング点がクラスタリングして生成した領域を新規特徴領域とする。図13Cは非マッチング点のクラスタリング結果が新特徴領域に更新された模式図である。図13Cに示すように、車両左下部の長方形枠は非マッチング点のクラスタリング結果を新規特徴領域とすることを示す。このように、以上の3部分が更新して取得した新規特徴領域はマッチング基礎又は履歴シーケンスの一部として次のフレーム画像の目標検出に用いられる。もちろん、この3部分はかならず同時に存在するわけがなく、前のステップ中に統合された部分が存在せず、又は潜在目標領域が存在しないことがある。
次のフレームの特徴領域のマッチングのため、特徴領域を更新する以外、特徴更新ユニット123はさらに特徴値を更新する必要がある。新たに決定された特徴領域に対して、その模様、形状、角点等の特徴の特徴値を更新する。また、連続的なフレームの検出過程においては、検出された目標集合が変化し(視角が異なり、シーンが変化する等の原因によってもたらす)、同時に該目標自体も変化し(形状変化等の原因、例えば、通行中の人の姿勢の変化、目標間の遮蔽変化等によってもたらす)、これにより、各フレーム後に、特徴値の更新を行い、後続フレームにおける目標検出の正確性と信頼性を向上させる。
図14Aは現在フレームの元視差図である。図14Bは従来目標検出方法(例えばフレーム内情報に基づく方法)を用いた結果模式図である。図14Cは本発明の検出方法を用いた結果模式図である。図14A〜14Cから、視差図中に水平縁が連続しないため、図14Bに示す結果には検出された車両が誤って分割されたことに表されていることがわかる。本発明が提出した自己学習検出方法は変位ベクトル特徴、空間隣接性特徴及び追跡情報を用いて目標集合分析を行うため、図14Cに示すように、車両が正確に検出される。このため、本発明の目標検出方法は効果的に視差図中に水平縁が連続しない状況を処理し、且つ正確に隣接目標を分割することができる。
図15Aは現在フレームの元視差図である。図15Bは従来目標検出方法(例えばフレーム内情報に基づく方法)を用いた結果模式図である。図15Cは本発明の検出方法を用いた結果模式図である。図15A〜15Cから、視差値が正確でないため、従来のフレーム内情報に基づく方法は、検出された車両と歩行者が一緒に混在していることが分かる。一方、本発明が提出した方法は、変位と軌跡情報を用いているため、図15Cに示すように、車両と歩行者が正確的に分割されている。
一方、著名なフレーム間情報に基づく目標検出方法−−光ストリームアルゴリズムは、光ストリームアルゴリズム採用角点、エッジ等の固定のミクロ特徴に対して画素点又はブロックのマッチングを行う。これに対し、本発明の検出方法は、自己学習により絶えずに特徴領域と特徴値を増強させ、次にさらに増強された特徴領域をマッチングし、連続的なフレームの検出において、特徴領域と特徴値が絶えずに増強可能であるため、本方法のロバスト性はさらに強く、且つ計算量がより小さくなる。
図16は本発明の目標検出方法を用いたシステムの機能モジュール図である。図16に示すように、本発明による目標検出システムは、現在シーンの視差図又は階調図を含むリアルタイム画面をキャプチャする画像取得ユニット10、各特徴領域の履歴シーケンスに基づいて新規リアルタイム画面に対して特徴領域予測を行い、且つ特徴領域マッチングを行うことで新規リアルタイム画面における特徴領域を取得する特徴領域生成ユニット11、及びマッチングされた特徴領域に対して目標集合分析を行い、及び非マッチング点に対して空間隣接性に基づいて、クラスタリングを行って新規特徴領域を形成し、取得された特徴領域を更新する自己学習検出ユニット12を備える。特徴領域生成ユニット11は、追跡フィルタを用いて作成した運動モデルに基づいて各特徴領域の次のフレーム(新規リアルタイム画面)における位置を予測する特徴領域予測ユニット111、抽出された特徴に基づいて、予測された特徴領域内に特徴領域マッチングを行う特徴領域マッチングユニット112を備える。自己学習検出ユニット12は、マッチングされた特徴領域の変位ベクトル、空間隣接性及び追跡情報に基づいて、特徴領域の目標集合分析を行うことで目標の特徴領域の集合を取得する目標集合分析ユニット121、現在フレーム中に非マッチング点に対して空間隣接性に基づいてクラスタリングを行う非マッチング点クラスタリングユニット122、及び現在フレームの特徴領域及び特徴値を更新する特徴更新ユニット123を備える。目標集合分析ユニット121は、現在フレーム中にマッチングされた特徴領域に対して、特徴領域のその前の連続的な複数のフレームにおける相対変位状態に基づいて、マッチングした特徴領域にある変位ベクトルを計算することができる変位ベクトル決定ユニット1211、追跡軌跡に基づいて、計算された特徴領域の変位ベクトルを補正する変位ベクトル補正ユニット1212、特徴領域の補正後の変位ベクトル、特徴領域同士の間の空間隣接性及び追跡情報に基づいて、特徴領域の統合を行い、目標集合を取得する特徴領域統合ユニット1213、統合された目標集合の形状を分析し、潜在の目標領域を決定し、該潜在の目標領域を新たにマッチングしようとする特徴領域とする潜在目標領域決定ユニット1214、及び決定された潜在目標領域又は潜在特徴領域を新規特徴領域として新たにマッチングを行い、目標集合領域全体を取得する潜在目標領域再マッチングユニット1215を備える。
以上、具体的な実施例を参照しながら本発明の基本原理を説明したが、本領域の一般の当業者にとって、本発明の方法及び装置の全部又はいかなるステップ又は部材は、いかなる計算装置(プロセッサー、記憶媒体等を含む)又は計算装置のネットワーク中に、ハードウェア、ファームウエア、ソフトウェア又はこれらの組み合わせで実現することができると理解可能であり、これは本分野の一般の当業者が本発明の説明を読んだ場合、これらの基本プログラミングスキルを運用して実現することができる。
従って、本発明の目的はいかなる計算装置上で1つのプログラム又は1組のプログラムを運行して実現することができる。前記計算装置は、公知の汎用装置であってもよい。従って、本発明の目的は前記方法又は装置を実現するプログラムコードを含むプログラム製品を提供することのみにより実現することができる。つまり、このようなプログラム製品も本発明を構成し、且つこのようなプログラム製品を記憶する記憶媒体も本発明を構成する。明らかに、前記記憶媒体はいかなる公知の記憶媒体又は将来に開発するいかなる記憶媒体であってもよい。
なお、本発明の装置及び方法中に、明らかに、各部材又は各ステップは分解及び/又は再組合することができる。これらの分解及び/又は再組合は本発明の等価方案と見なすべきである。且つ、前記一連の処理を実行するステップは自然的に説明した順序すなわち時間順序により実行することができるが、かならず時間順序により実行する必要がない。いくつのステップは並行し又は互いに独立に実行することができる。
前記具体的な実施形態は、本発明保護範囲を制限するものではない。当業者は、設計要求とほかの要素に応じて、さまざまな修正、組合、サブ組合及び置換を生じることができると分かるべきである。本発明の主旨と原則の内に行ったいかなる修正、等同取替及び改良等はいずれも本発明保護範囲内に含まれるべきである。
米国特許出願公開第US005937079A号 米国特許US7801330B2号

Claims (10)

  1. 現在シーンの現フレーム画像を取得するステップと、
    現フレーム画像の前の連続した複数のフレーム画像の履歴シーケンスにおける履歴情報に基づいて、現フレーム画像の特徴領域を予測するステップと、
    具体的な応用の必要に応じて抽出された特徴に基づいて、現フレーム画像において予測された特徴領域に対し、前フレーム画像の特徴領域との特徴領域マッチングを行うステップと、
    現フレーム画像においてマッチングされた特徴領域の間の変位ベクトル、空間隣接性及び追跡情報に基づいて、現フレーム画像の特徴領域に対して目標集合分析を行うことで検出される目標の特徴領域の集合を取得し、取得された目標集合を検出目標として出力するステップと、
    前記抽出された特徴及び空間隣接性に基づいて、マッチングしていない点に対してクラスタリングを行うステップと、
    次のフレーム画像に対して前述のステップを繰り返すように、目標集合分析の結果及びクラスタリング結果を用いて現フレーム画像の特徴領域及び領域の特徴を更新するステップと、を含む目標検出方法。
  2. 前記目標集合分析を行うステップは、
    現フレーム画像においてマッチングされた特徴領域に対して、特徴領域の現フレーム画像の前の連続した複数のフレームにおける相対変位状態に基づいて、マッチングされた特徴領域の変位ベクトルを計算するステップと、
    現フレーム画像の前の連続した複数のフレームの履歴情報により示された追跡軌跡に基づいて、現フレーム画像において計算された特徴領域の変位ベクトルを補正するステップと、
    現フレーム画像に対して、特徴領域の補正後の変位ベクトル、特徴領域間の空間隣接性及び追跡情報に基づいて、特徴領域の統合を行うことで、目標集合を取得するステップと、を含む請求項1に記載の目標検出方法。
  3. 前記目標集合分析を行うステップは、
    統合された目標集合の形状を分析し、統合された目標集合に属する潜在目標領域を決定するステップと、
    具体的な応用の必要に応じて抽出された特徴に基づいて、決定された潜在目標領域を特徴領域として前フレーム画像の特徴領域との再マッチングを行うステップと、
    マッチングされ、且つ統合された目標集合と同じ変位ベクトルを有する潜在目標領域を、統合された目標集合に統合することで、目標の集合領域全体を取得し、マッチングしていない潜在目標領域を新たな特徴領域として保留するステップと、をさらに含む請求項2に記載の目標検出方法。
  4. 前記現フレーム画像が第1フレームの画像である場合、抽出された特徴及び空間隣接性に基づいてマッチングしていない点に対してクラスタリングを直接に行うことで第1フレームの特徴領域を取得するステップをさらに含む請求項1乃至3のいずれかに記載の目標検出方法。
  5. 前記現フレーム画像の特徴領域及び領域の特徴を更新するステップは、
    目標集合領域を現フレーム画像の新たな特徴領域とするステップと、
    マッチングしていない潜在目標領域を現フレーム画像の新たな特徴領域とするステップと、
    マッチングしていない点をクラスタリングして生成された領域を現フレーム画像の新たな特徴領域とするステップと、
    抽出された特徴に対して各新たな特徴領域の特徴値を更新するステップと、を含む請求項4に記載の目標検出方法。
  6. 前記履歴シーケンスには、現フレーム画像の前の連続した複数のフレーム画像における各特徴領域の運動状態パラメータが記録されている請求項5に記載の目標検出方法。
  7. 前記特徴領域の予測はカルマンフィルタにより運動モデルを作成することにより行われる請求項6に記載の目標検出方法。
  8. 現フレーム画像において統合を行うための特徴領域は、同じ変位ベクトルを有し、且つ空間上に隣接すると共に、連続した複数のフレームにおいて同じ変位ベクトル、空間関係及び同じ運動軌跡を有する請求項7に記載の目標検出方法。
  9. 前記潜在目標領域を決定するステップにおいて、異なる目標の形状モデルを予め作成することにより潜在目標領域を検出する、請求項3に記載の目標検出方法。
  10. 現在シーンの現フレーム画像を取得する画像取得手段と、
    現フレーム画像の前の連続した複数のフレーム画像の履歴シーケンスにおける履歴情報に基づいて、現フレーム画像の特徴領域を予測する特徴領域予測手段と、
    具体的な応用の必要に応じて抽出された特徴に基づいて、現フレーム画像において予測された特徴領域に対して、前フレーム画像の特徴領域との特徴領域マッチングを行う特徴領域マッチング手段と、
    現フレーム画像においてマッチングされた特徴領域の間の変位ベクトル、空間隣接性及び追跡情報に基づいて、現フレーム画像の特徴領域に対して目標集合分析を行うことで検出される目標の特徴領域の集合を取得し、取得された目標集合を検出目標として出力する目標集合分析手段と、
    前記抽出された特徴及び空間隣接性に基づいて、マッチングしていない点に対してクラスタリングを行うクラスタリング手段と、
    次のフレーム画像に対して前述のステップを繰り返すように、目標集合分析の結果及びクラスタリング結果を用いて現フレーム画像の特徴領域及び領域の特徴を更新する特徴更新手段と、を含む目標検出システム。
JP2014188756A 2013-09-27 2014-09-17 目標検出方法及び目標検出システム Expired - Fee Related JP6421510B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201310450046.9A CN104517275A (zh) 2013-09-27 2013-09-27 对象检测方法和系统
CN201310450046.9 2013-09-27

Publications (2)

Publication Number Publication Date
JP2015069648A true JP2015069648A (ja) 2015-04-13
JP6421510B2 JP6421510B2 (ja) 2018-11-14

Family

ID=51627971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014188756A Expired - Fee Related JP6421510B2 (ja) 2013-09-27 2014-09-17 目標検出方法及び目標検出システム

Country Status (3)

Country Link
EP (1) EP2858008B1 (ja)
JP (1) JP6421510B2 (ja)
CN (1) CN104517275A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107330943A (zh) * 2017-06-26 2017-11-07 乐视致新电子科技(天津)有限公司 一种定位标识匹配方法、装置及电子设备
JP2019036009A (ja) * 2017-08-10 2019-03-07 富士通株式会社 制御プログラム、制御方法、及び情報処理装置
JP2019036008A (ja) * 2017-08-10 2019-03-07 富士通株式会社 制御プログラム、制御方法、及び情報処理装置
CN109934072A (zh) * 2017-12-19 2019-06-25 浙江宇视科技有限公司 人员统计方法及装置
JP2020140708A (ja) * 2019-02-26 2020-09-03 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 交差点障害物の運動軌跡の予測方法、装置、端末、記憶媒体、及びプログラム
WO2020195965A1 (ja) * 2019-03-28 2020-10-01 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105825201A (zh) * 2016-03-31 2016-08-03 武汉理工大学 视频监控中的运动目标跟踪方法
CN107437258B (zh) * 2016-05-27 2020-11-06 株式会社理光 特征提取方法、运动状态估计方法以及运动状态估计装置
CN106778861A (zh) * 2016-12-12 2017-05-31 齐鲁工业大学 一种关键特征的筛选方法
CN108961315B (zh) * 2018-08-01 2020-02-18 腾讯科技(深圳)有限公司 目标跟踪方法、装置、计算机设备和存储介质
CN109188390B (zh) * 2018-08-14 2023-05-23 苏州大学张家港工业技术研究院 一种运动目标高精度检测与追踪方法
CN109389283B (zh) * 2018-08-22 2024-03-08 平安科技(深圳)有限公司 自动派件方法、装置、计算机设备及存储介质
WO2020082258A1 (zh) * 2018-10-24 2020-04-30 深圳鲲云信息科技有限公司 一种多目标实时跟踪方法、装置及电子设备
EP3907721A4 (en) * 2019-01-02 2022-03-09 Panasonic Intellectual Property Corporation of America INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
JP7175786B2 (ja) 2019-02-07 2022-11-21 三菱重工業株式会社 異常検出装置、シミュレータ、プラント監視システム、異常検出方法及びプログラム
CN109936703A (zh) * 2019-02-26 2019-06-25 成都第二记忆科技有限公司 对单目相机拍摄的视频进行重构的方法和装置
TWI711007B (zh) * 2019-05-02 2020-11-21 緯創資通股份有限公司 調整感興趣區域的方法與其運算裝置
CN110838133B (zh) * 2019-09-27 2020-11-24 深圳云天励飞技术有限公司 多目标跟踪方法及相关设备
CN110675432B (zh) * 2019-10-11 2022-11-08 杭州云栖智慧视通科技有限公司 一种基于多维特征融合的视频多目标跟踪方法
US11182906B2 (en) * 2019-11-24 2021-11-23 International Business Machines Corporation Stream object tracking with delayed object detection
CN111428663B (zh) * 2020-03-30 2023-08-29 阿波罗智能技术(北京)有限公司 红绿灯状态的识别方法、装置、电子设备和存储介质
CN112287794B (zh) * 2020-10-22 2022-09-16 中国电子科技集团公司第三十八研究所 一种视频图像自动识别目标的编号一致性管理方法
CN112150511A (zh) * 2020-11-02 2020-12-29 电子科技大学 一种基于图像匹配与改进核相关滤波器结合的目标跟踪算法
CN113793363A (zh) * 2021-09-27 2021-12-14 重庆紫光华山智安科技有限公司 目标跟踪方法及相关装置
CN116630341B (zh) * 2023-04-20 2023-12-01 广州方信医疗技术有限公司 病理数字化玻片的处理方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004246436A (ja) * 2003-02-12 2004-09-02 Toshiba Corp 障害物検出装置および障害物検出方法
JP2008033819A (ja) * 2006-07-31 2008-02-14 Omron Corp 物体認識装置、監視システム、物体認識方法、物体認識プログラム、および該プログラムを記録した記録媒体
JP2010102586A (ja) * 2008-10-24 2010-05-06 Hiroshima Univ 物体追跡装置および物体追跡方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19636028C1 (de) 1996-09-05 1997-11-20 Daimler Benz Ag Verfahren zur Stereobild-Objektdetektion
US7801330B2 (en) 2005-06-24 2010-09-21 Objectvideo, Inc. Target detection and tracking from video streams
TWI393074B (zh) * 2009-12-10 2013-04-11 Ind Tech Res Inst 移動物體偵測裝置與方法
CN102142147A (zh) * 2010-01-29 2011-08-03 索尼公司 场地内容分析装置和方法及目标检测与跟踪装置和方法
CN102982559B (zh) * 2012-11-28 2015-04-29 大唐移动通信设备有限公司 车辆跟踪方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004246436A (ja) * 2003-02-12 2004-09-02 Toshiba Corp 障害物検出装置および障害物検出方法
JP2008033819A (ja) * 2006-07-31 2008-02-14 Omron Corp 物体認識装置、監視システム、物体認識方法、物体認識プログラム、および該プログラムを記録した記録媒体
JP2010102586A (ja) * 2008-10-24 2010-05-06 Hiroshima Univ 物体追跡装置および物体追跡方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107330943A (zh) * 2017-06-26 2017-11-07 乐视致新电子科技(天津)有限公司 一种定位标识匹配方法、装置及电子设备
JP2019036009A (ja) * 2017-08-10 2019-03-07 富士通株式会社 制御プログラム、制御方法、及び情報処理装置
JP2019036008A (ja) * 2017-08-10 2019-03-07 富士通株式会社 制御プログラム、制御方法、及び情報処理装置
CN109934072A (zh) * 2017-12-19 2019-06-25 浙江宇视科技有限公司 人员统计方法及装置
CN109934072B (zh) * 2017-12-19 2020-11-17 浙江宇视科技有限公司 人员统计方法及装置
JP2020140708A (ja) * 2019-02-26 2020-09-03 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 交差点障害物の運動軌跡の予測方法、装置、端末、記憶媒体、及びプログラム
JP7050100B2 (ja) 2019-02-26 2022-04-07 アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド 交差点障害物の運動軌跡の予測方法、装置、端末、記憶媒体、及びプログラム
WO2020195965A1 (ja) * 2019-03-28 2020-10-01 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP7363890B2 (ja) 2019-03-28 2023-10-18 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
EP2858008A2 (en) 2015-04-08
JP6421510B2 (ja) 2018-11-14
CN104517275A (zh) 2015-04-15
EP2858008A3 (en) 2015-04-15
EP2858008B1 (en) 2018-11-07

Similar Documents

Publication Publication Date Title
JP6421510B2 (ja) 目標検出方法及び目標検出システム
US10750150B2 (en) Methods for automatic registration of 3D image data
Frossard et al. End-to-end learning of multi-sensor 3d tracking by detection
KR101856401B1 (ko) 차선 데이터의 처리 방법, 장치, 저장매체 및 기기
CN105405154B (zh) 基于颜色-结构特征的目标对象跟踪方法
Vojíř et al. The enhanced flock of trackers
JP4700477B2 (ja) 移動体監視システムおよび移動体特徴量算出装置
KR102153607B1 (ko) 영상에서의 전경 검출 장치 및 방법
CN105005992A (zh) 一种基于深度图的背景建模和前景提取的方法
CN105335955A (zh) 对象检测方法和对象检测装置
JP2008045974A (ja) 物体検出装置
KR20200060194A (ko) 차선들의 깊이값을 예측하는 방법, 3차원 차선들을 출력하는 방법 및 그 장치
JP2018036848A (ja) 物体状況推定システム、物体状況推定装置、物体状況推定方法、及び物体状況推定プログラム
CN112991389B (zh) 一种目标跟踪方法、装置及移动机器人
CN111886600A (zh) 一种用于图像的实例级别分割的设备和方法
Rao et al. Real-time speed estimation of vehicles from uncalibrated view-independent traffic cameras
Maddalena et al. Exploiting color and depth for background subtraction
JP7145770B2 (ja) 車間距離測定装置、誤差モデル生成装置および学習モデル生成装置とこれらの方法およびプログラム
KR20090093119A (ko) 움직이는 객체 추적을 위한 다중 정보의 융합 방법
Jeyabharathi Cut set-based dynamic key frame selection and adaptive layer-based background modeling for background subtraction
CN115144828A (zh) 一种智能汽车多传感器时空融合的自动在线标定方法
CN114399532A (zh) 一种相机位姿确定方法和装置
US11809997B2 (en) Action recognition apparatus, action recognition method, and computer-readable recording medium
Szlávik et al. Video camera registration using accumulated co-motion maps
Silva et al. A fast visual odometry and mapping system for rgb-d cameras

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180813

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180918

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181001

R151 Written notification of patent or utility model registration

Ref document number: 6421510

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees