JP7511540B2 - 対象物検知装置、対象物検知方法及び対象物検知プログラム - Google Patents

対象物検知装置、対象物検知方法及び対象物検知プログラム Download PDF

Info

Publication number
JP7511540B2
JP7511540B2 JP2021208634A JP2021208634A JP7511540B2 JP 7511540 B2 JP7511540 B2 JP 7511540B2 JP 2021208634 A JP2021208634 A JP 2021208634A JP 2021208634 A JP2021208634 A JP 2021208634A JP 7511540 B2 JP7511540 B2 JP 7511540B2
Authority
JP
Japan
Prior art keywords
image
unit
processing unit
extracted
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021208634A
Other languages
English (en)
Other versions
JP2023093167A (ja
Inventor
聡 飯尾
喜一 杉本
健太 中尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2021208634A priority Critical patent/JP7511540B2/ja
Priority to DE102022213773.6A priority patent/DE102022213773A1/de
Priority to US18/069,284 priority patent/US20230196773A1/en
Publication of JP2023093167A publication Critical patent/JP2023093167A/ja
Application granted granted Critical
Publication of JP7511540B2 publication Critical patent/JP7511540B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Geometry (AREA)

Description

本開示は、対象物検知装置、対象物検知方法及び対象物検知プログラムに関する。
カメラ等で取得した画像を解析して、画像に含まれる対象物を検出する対象物検知装置がある。対象物検知装置では、複数の対象物を検出し、それぞれ対象物を追跡する装置がある。
特許文献1には、撮像された画像から物体を検出し、検出結果を出力する複数の検出手段と、複数の検出手段の夫々によって出力された、複数の検出結果に基づいて、共通座標系で表現された物体の位置情報を算出する統合追跡手段と、を備え、統合追跡手段は、算出された共通座標系の物体の位置情報を出力し、検出手段は、共通座標系の物体の位置情報を、物体の検出対象となる画像を出力するカメラ固有の個別座標系で表現された位置情報に変換して、個別座標系で物体を追跡し、個別座標系で表現された位置情報に基づいて物体を検出し、個別座標系で表現された位置情報に基づいて検出された物体の位置情報を、共通座標系で表現された位置情報に変換する、物体追跡システムが記載されている。
特開2020-107349号公報
ここで、対象物を検出した場合、あるフレームで対象物の検出漏れが生じると、同一対象物を適切に判定できず、同一対象物を異なる対象物として検出する可能性がある。例えば、対象物検出装置を搭載した移動機器であり、同一対象物(検出済みの対象物)について警報の対象外と設定しても、同一対象物を異なる対象物と検出した場合、新規の対象物を検出したとして、警報が発生されることになる。このため、同一対象物の検出精度が低いと、警報の除外処理が発生したり、警告で作業が一旦中断したりするため、作業効率が低下する。
本開示の少なくとも一実施形態は、上記課題を解決するために、対象物の検出漏れを抑制し、同一の対象物の関連付けを高い精度で行うことができる対象物検知装置、対象物検知方法及び対象物検知プログラムを提供することを課題とする。
本開示は、所定の時間間隔で画像を取得する画像取得部と、取得した画像から対象物を抽出する第1画像処理部と、前記画像よりも前のフレームで取得した対象物の位置に基づいて、前記画面の前記対象物の複数の候補領域を抽出する第2画像処理部と、前記第1画像処理部で抽出した対象物、及び、前記複数の候補領域と、前記画像よりも前のフレームの画像で抽出した対象物と、を比較する比較部と、前記比較部の比較結果に基づいて、前記複数の候補領域から、前のフレームの画像で抽出した対象物と一致する、現在のフレームの候補領域を特定する特定部と、を含む対象物検知装置を提供する。
また、本開示は、所定の時間間隔で画像を取得し、取得した画像から対象物を抽出し、前記画像よりも前のフレームで取得した対象物の位置に基づいて、前記画像の前記対象物の複数の候補領域を抽出し、抽出した対象物、及び、前記複数の候補領域と、前記画像よりも前のフレームの画像で抽出した対象物と、を比較し、前記比較部の比較結果に基づいて、前記複数の候補領域から、前のフレームの画像で抽出した対象物と一致する、現在のフレームの候補領域を特定する対象物検知方法を提供する。
また、本開示は、所定の時間間隔で画像を取得し、取得した画像から対象物を抽出し、前記画像よりも前のフレームで取得した対象物の位置に基づいて、前記画像の前記対象物の複数の候補領域を抽出し、抽出した対象物、及び、前記複数の候補領域と、前記画像よりも前のフレームの画像で抽出した対象物と、を比較し、前記比較部の比較結果に基づいて、前記複数の候補領域から、前のフレームの画像で抽出した対象物と一致する、現在のフレームの候補領域を特定する処理をコンピュータに実行させる対象物検知プログラムを提供する。
上記構成とすることで、対象物の検出漏れを抑制し、同一の対象物の関連付けを高い精度で行うことができるという効果を奏する。
図1は、対象物検知装置の一例を示すブロック図である。 図2は、対象物検知装置の処理の一例を示すフローチャートである。 図3は、処理対象の画像の一例を模式的に示す説明図である。 図4は、第1画像処理部の処理の一例を説明するための説明図である。 図5は、第2画像処理部の処理の一例を説明するための説明図である。 図6は、画像補正部の処理の一例を説明するための説明図である。
以下に、本開示に係る実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。さらに、以下に記載した構成要素は適宜組み合わせることが可能であり、また、実施形態が複数ある場合には、各実施形態を組み合わせることも可能である。
<対象物検知装置>
図1は、対象物検知装置の一例を示すブロック図である。本実施形態に係る対象物検知装置10は、画像を取得し、取得した画像から対象物を検知する。対象物検知装置10は、所定時間単位で取得した画像に対して、対象物の検知を繰り返し、異なる時刻(異なるフレーム)の画像に含まれる対象物のうち、異なる時刻(異なるフレーム)の画像に含まれる対象物のうち、同一の対象物を特定する。対象物検知装置10は、例えば、車両や飛行体等の移動体や、建造物に設置される。また、対象物は、特に限定されず、人間、機械、犬、猫、車両、植物等、種々の分類の物体を対象とすることができる。
図1に示すように対象物検知装置10は、カメラ部12と、処理部14と、記憶部16と、を含む。対象物検知装置10は、さらに、入力部、出力部、通信部等を備えてもよい。ここで、出力部としては、画像の解析結果を表示させるディスプレイや、検出結果に基づいて、警告を出力するスピーカ、発光装置、ディスプレイ等である。
カメラ部12は、撮影領域に含まれる画像を取得する。カメラ部12は、所定時間の間隔で画像をする。カメラ部12は、所定のフレームレートで連続して画像を取得しても、所定の操作をトリガーとして画像を取得してもよい。
処理部14は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等の集積回路(プロセッサ)と、作業領域となるメモリとを含み、これらのハードウェア資源を用いて各種プログラムを実行することによって各種処理を実行する。具体的に、処理部14は、記憶部16に記憶されているプログラムを読み出してメモリに展開し、メモリに展開されたプログラムに含まれる命令をプロセッサに実行させることで、各種処理を実行する。処理部14は、画像取得部(画像データ取得部)26と、画像補正部28と、第1画像処理部30と、第2画像処理部31と、比較部32と、特定部34と、を含む。処理部14の各部の説明の前に記憶部16について説明する。
記憶部16は、磁気記憶装置や半導体記憶装置等の不揮発性を有する記憶装置からなり、各種のプログラムおよびデータを記憶する。記憶部16は、検知プログラム36と、画像補正プログラム37と、第1画像処理プログラム38と、第2画像処理部プログラム39と、比較プログラム40と、処理データ42と、を含む。
また、記憶部16に記憶されるデータとしては、処理データ42が含まれる。処理データ42は、カメラ部12に取得した画像データ、画像データから抽出した対象物の位置、大きさ、比較結果等が含まれる。処理データ42には、対象物の位置毎に分類して保管してもよい。また、処理データ42は、一部を加工したデータを含めてもよい。また、記憶部16には、各プログラムの処理条件等が記憶される。
記憶部16に記憶されるプログラムとしては、検知プログラム36と、画像補正プログラム37と、第1画像処理プログラム38と、第2画像処理部プログラム39と、比較プログラム40と、がある。検知プログラム36は、画像補正プログラム37、第1画像処理プログラム38、第2画像処理部プログラム39、比較プログラム40の動作を統括し、対象物の検知処理を実行する。検知プログラム36は、画像から対象物を検知し、比較し、それぞれの対象物を特定する処理を実行する。また、検知プログラム36は、検知結果に基づいて、報知処理を実行する。
画像補正プログラム37は、カメラ部12で取得した画像に対して画像処理を行う。画像処理としては、歪み処理等、対象物の抽出の精度を向上させる各種処理を行う。
第1画像処理プログラム38は、カメラ部12で取得した画像に対して画像処理を実行し、画像に含まれる対象物を抽出する。第1画像処理プログラム38としては、種々のプログラムを用いることができるが、深層学習モデルで対象物の抽出を学習した学習済みプログラムを用いることができる。深層学習モデルとしては、R-CNN(Regions with Convolutional Neural Networks)やYOLO(You Only Look Once)、SSD(Single Shot multibox Detector)等、いわゆるアンカーと言われるバウンディングボックスを画像に対して設定し、設定に基づいたアンカー内の特徴量を処理することで、画像に対象物が含まれているかを検出する深層学習モデルを用いることができる。第1画像処理プログラム38は、パターンマッチング等で、対象物を抽出してもよい。第1画像処理プログラム38は、対象物を抽出した位置を示す領域の情報と、領域内の特徴を示す情報を算出する。第1画像処理プログラム38は、抽出した情報を処理データ42に記憶させる。
第2画像処理プログラム39は、カメラ部12で取得した画像よりも前のフレーム(前の時点)で取得した画像に対する処理で抽出した対象物の位置の情報に基づいて、複数の候補領域を決定する。候補領域は、対象物がいる可能性がある領域として抽出された領域である。第2画像処理プログラム39は、前のフレームの位置情報と、対象物の移動速度と、に基づいて候補領域を決定する。また、第2画像処理プログラム39は、移動速度の変化、移動方向の変化、領域の大きさの変化、アスペクト比の変化を加味して、複数の移動速度と複数の移動方向とをそれぞれ組み合わせて算出した複数の候補領域を決定する。第2画像処理プログラム39は、前のフレームの対象物の位置情報に基づいて、カルマンフィルタで処理を行い、当該フレームでの対象物の位置を推定する。
比較プログラム40は、前のフレームで算出した対象物と、第1画像処理プログラム38の処理算出した対象物及び第2画像処理プログラム39で算出した候補領域の情報と、を比較し、フレーム間で同じ対象物を抽出しているかを特定し、それぞれの対象物の同一性を特定する。
記憶部16は、記録媒体に記録された検知プログラム36と、画像補正プログラム37と、第1画像処理プログラム38と、第2画像処理プログラム39と、比較プログラム40と、を読み込むことで、検知プログラム36と、第1画像処理プログラム38と、第2画像処理プログラム39と、比較プログラム40と、がインストールされてもよいし、ネットワーク上で提供される検知プログラム36と、第1画像処理プログラム38と、第2画像処理プログラム39と、比較プログラム40と、を読み込むことで、検知プログラム36と、第1画像処理プログラム38と、第2画像処理プログラム39と、比較プログラム40と、がインストールされてもよい。
処理部14の各部の機能について説明する。処理部14の各部は、記憶部16に記憶されるプログラムを処理することで機能を実行する。画像取得部26は、カメラ部12で取得した画像のデータを取得する。画像補正部26は、画像取得部26で取得した画像に対して、補正処理を行う。第1画像処理部30は、第1画像処理プログラム38を処理して実行される。第1画像処理部30は、画像取得部26で取得し、画像補正処理部28で補正した画像から対象物を抽出する。
第2画像処理部31は、第2画像処理プログラム39を処理して実行される。第2画像処理部31は、前のフレームで算出した対象物の位置の情報と、設定した移動方向、移動速度、領域の大きさ、アスペクト比の情報に基づいて、複数の候補領域を算出する。
比較部32は、比較プログラム40の処理を実行することで実現する。比較部32は、前のフレームの検出結果と、第1画像処理部30で処理した情報及び第2情報処理部31で設定した候補領域内の情報とを比較し、比較結果の情報を出力する。比較部32は、比較した前のフレームの対象物と、第1画像処理部30で処理した情報及び第2情報処理部31で設定した候補領域内の情報とそれぞれについて類似度を算出する。類似度は、本実施形態では0から1の値で算出され、1に近いほど類似度が高い、つまり同一の対象物である可能性が高いと算出した結果となる。なお、類似度の値の範囲は一例であり、1以上となるようにしても、マイナスとなるようにしてもよい。ここで、比較部32は、領域内の画像のパターンマッチングや、領域の変化量、フィルタ処理によって得られる特徴量等の情報に基づいて類似度を算出する。具体的には、比較するそれぞれの領域に対して、深層学習モデルの中間特徴量を計算し、その特徴量のユークリッド距離の差の逆数を類似度として使用してもよいし、Siamese Networkなどのように、深層学習モデルによって直接2つの領域の距離を計算し、その逆数を類似度としてもよい。また、領域内の画像のパターンマッチングや、領域の変化量、フィルタ処理によって得られる特徴量等の情報に基づいて算出してもよい。
特定部34は、比較プログラム40の処理を実行することで実現する。特定部34は、比較部32の比較結果に基づいて、フレーム間で同じ対象物(同一被写体)を特定する。特定部34は、比較部32の比較結果に基づいて、複数の候補領域から、前のフレームの画像で抽出した対象物と一致する、現在のフレームの候補領域を特定する。特定部34は前フレームの対象物と、第1画像処理部30で検出した現在のフレームの対象物及び第2情報処理部31で算出した現在のフレームの候補領域の対応付け、すなわち前フレームの対象物と同一の対象物が写っている、現在のフレームの領域の判定を行う。同一判定には、ハンガリアンアルゴリズムなどの対応付け手法で、組み合わせ全体を考えた時に最も類似度が高く(前述の特徴量間の距離を類似度とする場合は最も距離が短く)なるように選定してもよい。また、最適組み合わせを決定する際に、距離が閾値以上の場合は、特徴が似ていないと判断して候補から排除してもよい。
報知処理部35は、検知プログラム36の処理を実行することで実現する。報知処理部35は、特定部34の特定結果に基づいて、報知処理を実行する。報知処理部35は、特定結果を通知する処理や、特定結果が報知の基準を満たす場合、報知する等の処理を実行する。報知の基準としては、対象物が設定した範囲にある場合や、新しい対象物を検出した場合である。また、過去に特定しており、報知対象から除外している対象物が設定範囲に侵入した場合、報知しないとすることもできる。なお、本実施形態では、報知処理部35を設けたが、対象物検知装置10は、報知処理部35を備えず、検知処理を実行する装置としてもよい。
次に、図2から図6を用いて、対象物検知装置10の処理の一例を説明する。図2は、対象物検知装置の処理の一例を示すフローチャートである。図3は、処理対象の画像の一例を模式的に示す説明図である。図4は、第1画像処理部の処理の一例を説明するための説明図である。図5は、第2画像処理部の処理の一例を説明するための説明図である。図6は、画像補正部の処理の一例を説明するための説明図である。以下では、対象物を人間とした場合で説明する。
対象物検知装置10は、画像取得部26で、カメラ部12で取得した画像データを取得する(ステップS12)。本実施形態では、図3に示すように、前のフレームの画像100を取得し、処理対象のフレームで画像100aを取得した場合を説明する。前のフレームの画像100は、人物102が領域104にいる。処理対象のフレームの画像100aは、人物102が、人物102aの位置に移動している。また、画像100の人物101は、前の前のフレームの画像の人物102の位置である。
対象物検知装置10は、画像補正部28で、歪み補正処理を行う(ステップS14)。なお、本実施形態では、歪み補正を例としたが、画像処理部28で実行する処理は、歪み補正に限定されない。対象物検知装置10は、画像処理した画像を第1画像処理部30、第2画像処理部31に送る。対象物検知処置10は、第1画像処理部30の処理と、第2画像処理部31の処理を並行して実行する。
対象物検知装置10は、第1画像処理部30で対象物の抽出を行う(ステップS16)。具体的には、対象物検知装置10は、画像100aの場合、図4に示すように、画像100aに対して処理を実行し、人物102aが表示される領域110を抽出する。
対象物検知装置10は、第2画像処理部31で検出候補領域の抽出を行う(ステップS18)。具体的には、対象物検知装置10は、画像100aの場合、図5に示すように、前のフレームの画像100で対象物102に基づいて抽出した領域104を基準として、複数の候補領域120a、120b、120c、120d、120e、120fを抽出する。第2画像処理部31は、時系列で、対象物の位置が対応付けられた画像の情報をカルマンフィルタで処理して、対象物の移動速度を推定する。さらに、第2画像処理部31は、推定した移動速度を基準として、移動速度が変化した場合の移動速度を複数算出する。第2画像処理部31は、領域104を基準として、移動方向を複数算出する。第2画像処理部31は、算出した複数の移動速度と、複数の移動速度をそれぞれ組み合わせて、領域104の位置を基準に、複数の候補領域を算出する。本実施形態では、6つの候補領域を示したが候補領域の数は限定されない。第2画像処理部31は、推定した速度が閾値より大きい場合、複数の速度を設定して、候補領域を設定し、推定速度が閾値以下の場合、速度ではなく、位置に固定誤差を設定し、候補領域を設定してもよい。
対象物検知装置10は、第2画像処理部31で、第1画像処理部30の検知結果を用いて、重複除去処理を行う(ステップS20)。第2画像処理部31は、複数の候補領域のうち、第1画像処理部30が画像100aで検出した対象物102aの領域と、重なる領域があるかを検出し、第1画像処理部30が検出した対象物の領域と重なる領域を、候補領域から除去する。図5に示す画像100の場合、候補領域120fが、領域110と重なりが大きいと判定して、候補領域から除去する。なお、第2画像処理部31は、対象物102aの領域の領域が、候補領域と完全に一致している場合に加え、閾値以上の割合で領域が重なる場合、領域が一致すると判定することができる。閾値としては、同じ対象物について判定処理していると判断できる割合である。
対象物検知装置10は、比較部32で、人検知した領域と候補領域のそれぞれで特徴量を抽出する(ステップS22)。対象物検知装置10は、画像100aの領域110と、画像100aの候補領域120a、120b、120c、120d、120e、120fに相当する領域とについて、比較の基準となる特徴量の情報を抽出する。
対象物検知装置10は、比較部で過去の検出結果との比較を行う(ステップS24)。本実施形態では、画像100の領域104の特徴量と、画像100aの領域110と、画像100aの候補領域120a、120b、120c、120d、120e、120fに相当する領域とについて、それぞれの特徴量を比較する。
対象物検知装置10は、特定部34で、比較結果に基づいて、人の移動を特定し、移動に基づいた画像内の人の管理を行う(ステップS26)。特定部34は、比較部32で算出した比較結果に基づいて、画像100の対象物と、画像100aの対象物の類似度を特定し、対象物の移動を特定して、対象物、本実施形態の人の位置の移動を特定する。特定部34は、前フレームに写る人が現在のフレームに写っているか、新たな人が写っているかを判定する。具体的には、前フレームの人領域と、現在のフレームの人領域および人領域候補の類似度を比較して、もっとも類似度が高くなる組み合わせを求め、前のフレームの人が現在のフレームの人領域もしくは人領域候補のどれに対応するかを求める。特定部34は、前のフレームの人領域で対応づくものが無い場合、現在の画像フレームでは物陰に隠れたもしくは画像外に移動したと判断する。特定部34は、現在のフレームの人領域で対応づくものが無いものは新たな人が現れたものと判断する。特定部34は、現在のフレームの人領域候補で対応づくものが無いものは、人領域ではない領域であると判断して排除する。
対象物検知装置10は、特定結果に基づくデータの更新を行う(ステップS28)。具体的には、次の処理の際に前のフレーム相当する画像100aの対象物の領域の情報を更新する。また、設定に基づいて、移動速度や、移動方向の情報も更新する。
対象物検知装置10は、報知処理部35で、検出結果に基づいた報知処理を行う(ステップS30)。
対象物検知装置10は、第1画像処理部30で対象物を抽出し、かつ、第2画像処理部31で前のフレームの検出結果に基づいて対象物が移動している可能性がある複数の候補領域を抽出し、抽出結果のそれぞれについて前のフレームと同一の対象物があるかの判定処理を行う。これにより、同一の対象物の検出漏れを抑制し、同一の対象物を高い精度で検出することができる。つまり、第1画像処理部30で同一の対象物の抽出ができなかった場合も、候補領域から同一の対象物を特定することができる。また、第2画像処理部31で、複数の候補領域を抽出することで、検出漏れの可能性をより低減することができる。
また、対象物検知装置10は、画像処理で抽出した対象物と、候補領域とが重なる場合、候補領域を除去することで、特徴量計算、類似度計算を行う候補領域を減らすことができるため、計算処理を低減することができる。なお、計算量が低減できるため、図2のステップS20の重複除去処理を行うことが好ましいが、除去処理を行わなくてもよい。
また、対処物検知装置10は、同一判定結果の履歴(対象物として抽出したか、候補領域で抽出したか)を記憶し、候補領域による対応付けが、指定回数(例えば2回)以上続いた場合には、検知した領域に対象物はなく、背景の特徴を検出しているとみなし、同一対象物としての対応付けを行わない設定としてもよい。
対象物検知装置10は、画像補正処理として歪み補正処理を行うことで、検出精度を高くすることができる。具体的には、図6に示すように、移動体150と、人物152、154を含む画像140に対して歪み補正処理を行い、画像140aを作成することで、カメラ部12の特性で発生する歪みを補正することができ、移動体150a、人物150a、152aが画角の位置によりゆがむことを抑制できる。これにより、例えば、カメラ部12に魚眼レンズや広角レンズを用いて、位置による歪みの差が大きくなる画像でも、同じ対象物を高い精度で検出することができる。つまり、画像上の位置によって、対象物の形状が変化することを抑制でき、第1画像処理部30での検出精度、同一対象物の特定処理の精度を高くすることができる。
10 対象物検知装置
12 カメラ部
14 処理部
16 記憶部
26 画像取得部
28 画像補正部
30 第1画像処理部
31 第2画像処理部
32 比較部
34 特定部
36 検出プログラム
37 画像補正プログラム
38 第1画像処理プログラム
39 第2画像処置プログラム
40 比較プログラム
42 処理データ

Claims (7)

  1. 所定の時間間隔で画像を取得する画像取得部と、
    取得した画像から対象物を抽出する第1画像処理部と、
    前記画像よりも前のフレームで取得した対象物の位置に基づいて、前記画像の前記対象物の複数の候補領域を抽出する第2画像処理部と、
    前記第1画像処理部で抽出した対象物、及び、前記複数の候補領域と、前記画像よりも前のフレームの画像で抽出した対象物と、を比較する比較部と、
    前記比較部の比較結果に基づいて、前記複数の候補領域から、前のフレームの画像で抽出した対象物と一致する、現在のフレームの候補領域を特定する特定部と、を含み、
    前記第2画像処理部は、前記第1画像処理部で抽出した被写体の位置と重複する候補領域を、処理対象から除去する対象物検知装置。
  2. 前記第1画像処理部は、機械学習を行った学習済みプログラムで、対象物を抽出する請求項1に記載の対象物検知装置。
  3. 前記第2画像処理部は、前記画像よりも前のフレームで取得した対象物の位置を基準とし、過去の移動履歴の情報に基づいて作成した位置を、候補領域として抽出する請求項1または請求項2に記載の対象物検知装置。
  4. 前記第2画像処理部は、前記過去の移動履歴の情報をカルマンフィルタで処理して、移動速度を推定し、推定した移動速度に基づいて、候補領域を決定する請求項3に記載の対象物検知装置。
  5. 前記画像取得部で取得した画像に対して歪み補正を行う画像補正部をさらに備える請求項1から請求項4のいずれか一項に記載の対象物検知装置。
  6. 所定の時間間隔で画像を取得し、
    取得した画像から対象物を抽出し、
    前記画像よりも前のフレームで取得した対象物の位置に基づいて、前記画像の前記対象物の複数の候補領域を抽出し、
    抽出した被写体の位置と重複する候補領域を、処理対象から除去し、
    抽出した対象物、及び、前記複数の候補領域と、前記画像よりも前のフレームの画像で抽出した対象物と、を比較し、
    較結果に基づいて、前記複数の候補領域から、前のフレームの画像で抽出した対象物と一致する、現在のフレームの候補領域を特定する対象物検知方法。
  7. 所定の時間間隔で画像を取得し、
    取得した画像から対象物を抽出し、
    前記画像よりも前のフレームで取得した対象物の位置に基づいて、前記画像の前記対象物の複数の候補領域を抽出し、
    抽出した被写体の位置と重複する候補領域を、処理対象から除去し、
    抽出した対象物、及び、前記複数の候補領域と、前記画像よりも前のフレームの画像で抽出した対象物と、を比較し、
    較結果に基づいて、前記複数の候補領域から、前のフレームの画像で抽出した対象物と一致する、現在のフレームの候補領域を特定する処理をコンピュータに実行させる対象物検知プログラム。
JP2021208634A 2021-12-22 2021-12-22 対象物検知装置、対象物検知方法及び対象物検知プログラム Active JP7511540B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021208634A JP7511540B2 (ja) 2021-12-22 2021-12-22 対象物検知装置、対象物検知方法及び対象物検知プログラム
DE102022213773.6A DE102022213773A1 (de) 2021-12-22 2022-12-16 Objektdetektionsvorrichtung, Objektdetektionsverfahren und computerlesbares Speichermedium
US18/069,284 US20230196773A1 (en) 2021-12-22 2022-12-21 Object detection device, object detection method, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021208634A JP7511540B2 (ja) 2021-12-22 2021-12-22 対象物検知装置、対象物検知方法及び対象物検知プログラム

Publications (2)

Publication Number Publication Date
JP2023093167A JP2023093167A (ja) 2023-07-04
JP7511540B2 true JP7511540B2 (ja) 2024-07-05

Family

ID=86606126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021208634A Active JP7511540B2 (ja) 2021-12-22 2021-12-22 対象物検知装置、対象物検知方法及び対象物検知プログラム

Country Status (3)

Country Link
US (1) US20230196773A1 (ja)
JP (1) JP7511540B2 (ja)
DE (1) DE102022213773A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318064A (ja) 2005-05-10 2006-11-24 Secom Co Ltd 画像センサ
JP2014211846A (ja) 2013-04-22 2014-11-13 富士通株式会社 目標追尾装置及び目標追尾プログラム
JP2021077039A (ja) 2019-11-07 2021-05-20 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム。

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6488647B2 (ja) 2014-09-26 2019-03-27 日本電気株式会社 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318064A (ja) 2005-05-10 2006-11-24 Secom Co Ltd 画像センサ
JP2014211846A (ja) 2013-04-22 2014-11-13 富士通株式会社 目標追尾装置及び目標追尾プログラム
JP2021077039A (ja) 2019-11-07 2021-05-20 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム。

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Hong-man Wang,Target Tracking Algorithm Based on Dynamic Template and Kalman Filter,2011 IEEE 3rd International Conference on Communication Software Networks,IEEE,2011年,P.330-333,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6013726

Also Published As

Publication number Publication date
JP2023093167A (ja) 2023-07-04
DE102022213773A1 (de) 2023-06-22
US20230196773A1 (en) 2023-06-22

Similar Documents

Publication Publication Date Title
CN105938622B (zh) 检测运动图像中的物体的方法和装置
JP6630485B2 (ja) ドライブスルー用途において車両を自動的に順序付けするための映像追跡に基づく方法
KR101764845B1 (ko) 다중 이동 물체의 겹침 제거 및 추적을 위한 영상 감시 장치 및 방법
Javed et al. Tracking and object classification for automated surveillance
EP1859411B1 (en) Tracking objects in a video sequence
JP5166102B2 (ja) 画像処理装置及びその方法
US9704264B2 (en) Method for tracking a target in an image sequence, taking the dynamics of the target into consideration
JP6508041B2 (ja) 対象物監視システム、対象物監視方法および監視対象抽出プログラム
CN109035295B (zh) 多目标跟踪方法、装置、计算机设备和存储介质
US20170006215A1 (en) Methods and systems for controlling a camera to perform a task
JP2008002817A (ja) 物体識別システム
CN111145223A (zh) 多摄像头识别人员行为轨迹分析方法
CN111079621B (zh) 检测对象的方法、装置、电子设备和存储介质
US20220366570A1 (en) Object tracking device and object tracking method
WO2017064838A1 (ja) 顔検出装置およびこれを備えた顔検出システムならびに顔検出方法
JP7125843B2 (ja) 障害検知システム
WO2014112407A1 (ja) 情報処理システム、情報処理方法及びプログラム
JP7511540B2 (ja) 対象物検知装置、対象物検知方法及び対象物検知プログラム
KR101595334B1 (ko) 농장에서의 움직임 개체의 이동 궤적 트래킹 방법 및 장치
JP2007510994A (ja) ビデオ画像内でのオブジェクトトラッキング
CN110781710B (zh) 一种目标对象聚类方法及装置
RU2676028C1 (ru) Способ обнаружения оставленного предмета в видеопотоке
KR101999338B1 (ko) 실시간 객체 트래킹 방법 및 장치
JP2020102212A (ja) 煙検出方法及び装置
EP4273812B1 (en) Device and method for loitering detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240625