JP2021182288A - 移動体追跡装置及び移動体追跡方法 - Google Patents

移動体追跡装置及び移動体追跡方法 Download PDF

Info

Publication number
JP2021182288A
JP2021182288A JP2020087696A JP2020087696A JP2021182288A JP 2021182288 A JP2021182288 A JP 2021182288A JP 2020087696 A JP2020087696 A JP 2020087696A JP 2020087696 A JP2020087696 A JP 2020087696A JP 2021182288 A JP2021182288 A JP 2021182288A
Authority
JP
Japan
Prior art keywords
unit
image
tracking
moving
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020087696A
Other languages
English (en)
Other versions
JP7053057B2 (ja
Inventor
泰祐 岡部
Taisuke Okabe
覚 渋谷
Satoru Shibuya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Giken Trastem Co Ltd
Original Assignee
Giken Trastem Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Giken Trastem Co Ltd filed Critical Giken Trastem Co Ltd
Priority to JP2020087696A priority Critical patent/JP7053057B2/ja
Publication of JP2021182288A publication Critical patent/JP2021182288A/ja
Application granted granted Critical
Publication of JP7053057B2 publication Critical patent/JP7053057B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】撮像画像から所定の移動体を精度よく追跡を行うことができ、低消費電力で動作可能な移動体追跡装置及び移動体追跡方法を提供する。【解決手段】移動体追跡装置1は、撮像部10で撮像した撮像画像20を画像処理速度に応じてFIFO型で遅延させた出力と遅延させず間引く出力との2系統に分配し、前記撮像画像20を出力する画像分配部2と、人工知能又はベクトル焦点法の物体検出により、前記画像分配部2から入力された撮像画像20中から追跡対象の物体21を検出する処理を行う物体識別部3と、物体識別部3での物体の認識結果の位置と範囲をベクトル焦点法による画像処理の標準体として扱い、前記画像分配部2から入力された撮像画像中から前記標準モデルに適合する追跡対象の移動体21を追跡する処理を行う移動体追跡部5と、物体識別部3と移動体追跡部5の結果の統合を行う一致判定部6とを備える。【選択図】図1

Description

本発明は、撮像部で撮像した撮像画像中の物体像に基づいて移動体を追跡する移動体追跡装置及び移動体追跡方法に関する。
近年では、例えば、ディープニューラルネットワーク(DNN:Deep Neural Network)を用いた人物や自動車といった物体検出の手法が多く研究されている。予め自家用車やバス、トラック、人、自転車といった種別毎に識別した画像を用いて深層学習を行った人工知能を搭載した画像処理装置でカメラの撮像画像を評価することで、その画像中に含まれる各物体の種別と画像中の位置を推定することが可能である。既存の画像処理による識別では、各種別毎にアルゴリズムを作製する必要があったが、DNNを用いることでより簡易に複数種の物体検出を行うことができる。また、DNNを用いて、上述のように撮像画像中の物体の位置だけではなく、その後の物体の移動の追跡を含めて実施する技術も研究されており、例えば、パーティクルフィルタを用いた追跡装置などがある(特許文献1等)。
また、カメラの撮像画像中から所定の物体を認識する方法として、ベクトル焦点法が知られている。このベクトル焦点法は、認識すべき物体の標準モデルに基づく標準体データを作製しておき、撮像画像中から標準体データと適合する物体を認識するものである(特許文献2,3,4)。
特開2019−185210号公報 特許第3406587号公報 特許第3390426号公報 特許第3406577号公報
DNNを用いて物体検出及び追跡を実施する場合、演算量が多いため、実用上は高速に演算処理できる演算処理装置が必要となる。しかしながら、通行量の測定など小型で安価なシステム上で動作させる必要がある場合、長時間安定動作させるために低消費電力にする必要性や、経済上等の諸事情により、使用可能な演算処理装置が限られてくる。それゆえ、現実問題として撮像画像から多様な物体を高精度で認識でき且つ低消費電力で電力供給方法、放熱問題の殆ど無い移動体追跡装置の提供が望まれる。
また、追跡対象が自動車や人物等、種類が多岐にわたる場合、移動の規則性や速度がそれぞれ異なり、同一のアルゴリズムにて多岐の移動体に渡って精度よく移動体の追跡を行うためには、秒間の撮像画像の処理回数(FPS:Frames Per Second)を多くする必要がある。例えば、移動体が等速直線運動ではなく不規則な運動をしている場合、撮像画像から得られる特徴点が変化している場合、類似の特徴点が得られる物体同士が交差する場合など、画像取得の頻度が低いほど撮像画像から得られる特徴点の一致度や位置の一致度が低下し、追跡精度が低下する。その為、DNNを用いて種類毎に識別された移動体を精度よく追跡するには撮像画像のFPSを高めることが必要となるが、上述のような限られた性能の演算処理装置では限界がある。
また、前記ベクトル焦点法を用いて移動体の追跡を高精度に行うためには、経時的に多様かつ個性的に変化する物体像に対応して標準体データを設定する必要があるが、多様かつ個性的な変化に対応した標準体データを事前に想定して設定することは困難であった。
本発明は、以上の事情に鑑みてなされたものであり、低消費電力で動作可能でありながら、撮像画像から所定の移動体を精度よく追跡を行うことが可能な移動体追跡装置及び移動体追跡方法を提供することを目的とする。
本発明者らは、高速に実行できる物体識別部を例えば1/10程度の間欠動作をさせることで低消費電力に動作させて物体を認識させ、又は簡易なハードウエアで低消費電力だが低速な実行の物体識別部を使って物体を認識させ、物体の追跡は低消費電力で実行できるベクトル焦点法で機能補間することにより、高精度でありながら、低消費電力、小型で熱対策の容易な装置及び方法を完成させた。
すなわち、本発明に係る移動体追跡装置は、
撮像部で撮像した撮像画像中の物体像に基づいて移動体を追跡する移動体追跡装置であって、
前記撮像画像を画像処理速度に応じてFIFO型で遅延させる出力と前記撮像画像を遅延させず間引く出力との2系統に分配し、前記撮像画像を出力する画像分配部と、
人工知能又はベクトル焦点法による物体検出により、前記画像分配部から入力された撮像画像中から追跡対象の物体を検出する処理を行う物体識別部と、
物体識別部での物体の認識結果の位置と範囲をベクトル焦点法による画像処理の標準モデルとして扱い、前記画像分配部から入力された撮像画像中から前記標準モデルに適合する追跡対象の移動体を追跡する処理を行う移動体追跡部と、
物体識別部と移動体追跡部の結果の統合を行う一致判定部とを備え、
前記画像分配部は、前記物体識別部に対して一定フレーム数おきの間隔で定期的に撮像画像を出力し、前記移動体追跡部に対して前記物体識別部の出力と当該移動体追跡部の出力とが同タイミングになるよう毎回撮像画像を出力する構成とし、
前記物体識別部は、高速の演算処理で間欠動作を行う又は低速な演算処理を行う構成とし、
前記一致判定部は、前記物体識別部及び前記移動体追跡部からの出力より互いに同一の移動体が存在する場合、前記移動体追跡部が追跡する当該移動体を前記物体識別部で検出する物体と一致させるための処理を行う構成とする。
本発明に係る移動体追跡方法の一形態は、
撮像部で撮像した撮像画像中の物体像に基づいて移動体を追跡する移動体追跡方法であって、
画像分配部にて、前記撮像画像を画像処理速度に応じてFIFO型で遅延させる出力及び遅延させず間引く出力の2系統に分配し、各処理部へ前記撮像画像を出力する画像分配ステップと、
物体識別部にて、人工知能により、前記画像分配ステップで入力されたフレームの撮像画像中から追跡対象の物体を検出する処理を行う物体識別ステップと、
移動体追跡部にて、ベクトル焦点法による画像処理により、前記画像分配ステップで入力されたフレームの撮像画像中から追跡対象の移動体を追跡する処理を行う移動体追跡ステップと、
一致判定部にて、前記移動体追跡ステップが追跡すべき移動体を前記物体識別ステップで検出する物体と一致させるための処理を行う一致判定ステップとを備え、
前記画像分配ステップは、前記物体識別部に対して一定フレーム数おきの間隔で定期的に撮像画像を出力し、前記移動体追跡部に対して前記物体識別部の出力と当該移動体追跡部の出力とが同タイミングになるよう遅延させて毎回撮像画像を出力する処理を行い、
前記物体識別ステップは、前記人工知能において追跡対象の移動体となる実際の物体の様々な形の画像データを機械学習させた学習済みモデルが構築され、これより前記画像分配ステップにより定期的に入力されるフレームの撮像画像中における所定の物体の領域、物体の位置、物体の種別を精度よく検出する処理を行い、
前記移動体追跡ステップは、前記ベクトル焦点法による画像処理によって、追跡すべき移動体の標準モデルに基づく標準体データが設定され、撮像画像中における前記標準体データと適合する移動体に代表点が配置され、これより前記画像分配ステップにより毎回入力されるフレームの撮像画像中から同一の移動体の代表点を追跡する処理を行い、
前記一致判定ステップは、
前記物体識別ステップと前記移動体追跡ステップとに入力された同一フレームの撮像画像について、物体識別ステップで検出された物体のなかに移動体追跡ステップで追跡中の移動体と同一の移動体が存在するか否か一致判定をし、
前記一致判定で同一の移動体が存在すると判定された場合は、前記移動体追跡ステップにおいて、前記一致判定で用いた現フレームより1つ後の次フレームの撮像画像の処理では、前記物体識別ステップで検出された物体を標準モデルとして使用させる処理を行い、
前記一致判定で同一の移動体が存在しないと判定された場合は、前記移動体追跡ステップにおいて、前記次フレームの撮像画像の処理では、前記物体識別ステップのみに検出された物体を新規の移動体として登録し、当該物体を標準モデルとする処理を行う。
本発明に係る移動体追跡方法の他の形態は、
撮像部で撮像した撮像画像中の物体像に基づいて移動体を追跡する移動体追跡方法であって、
画像分配部にて、前記撮像画像を取得し出力する画像分配ステップと、
物体識別部にて、ベクトル焦点法による物体検出により、前記画像分配ステップで入力された撮像画像中から追跡対象の物体を検出する処理を行う物体識別ステップと、
移動体追跡部にて、ベクトル焦点法による画像処理により、前記画像分配ステップで入力された撮像画像中から追跡対象の移動体を追跡する処理を行う移動体追跡ステップとを備え、
前記移動体追跡ステップは、前記ベクトル焦点法による画像処理によって、追跡すべき移動体の標準モデルに基づく標準体データが設定され、撮像画像中における前記標準体データと適合する移動体に代表点が配置され、これより前記画像分配ステップで時間経過順に毎回入力される撮像画像中から同一の移動体の代表点を追跡する処理を行うステップであり、前記標準モデルとして当該撮像画像の1つ前の撮像画像で追跡中の移動体又は前記物体識別ステップが検出した物体を使用する。
以上より、本発明によれば、ベクトル焦点法を用いて移動体の追跡を行う際、経時的に多様かつ個性的に変化する物体像に対応した標準体データを作製することができ、従って、目的の移動体の追跡を高速且つ高精度に行うことができる。また、計算負荷が高い物体識別部の処理頻度を減らしながら移動体の追跡をベクトル焦点法を用いて高頻度に追跡処理することで、低消費電力、低性能な動作環境においても複数種の移動体を分類した追跡を行うことができる。
実施形態1の移動体追跡装置の構成を示すブロック図である。 画像分配部による撮像画像の分配出力方法を説明するための模式図である。 物体識別部での人工知能(AI)による画像処理を説明するための模式図である。 移動体追跡部でのベクトル焦点法による画像処理を説明するための模式図である。 ベクトル焦点法による画像処理の際、円形フーリエ変換の範囲を所定の投票範囲とする場合を説明するための模式図である。 ベクトル焦点法による画像処理の際、移動体の追跡履歴がある場合に円形フーリエ変換の範囲を所定の投票範囲とする場合を説明するための模式図である。 ベクトル焦点法における標準モデルの使用方法を説明するための模式図である。 一致判定部による移動体追跡部への標準モデルの作製指令の流れを示す模式図である。 実施形態1の移動体追跡装置による移動体追跡方法の各ステップを示す模式図である。 実施形態1における移動体追跡ステップの手順を示すフローチャートである。 実施形態2の移動体追跡装置の構成を示すブロック図である。
以下に、本発明の実施形態について添付図面を参照しながら説明する。
(実施形態1)
実施形態1の移動体追跡装置1は、カメラ10で撮像した撮像画像20中の物体像から移動体を追跡する装置である。なお、実施形態1において、撮像画像20からの画像処理や判定の対象は、物体像、移動体像という画像であるが、以下の説明では、単に「物体」、「移動体」と述べている場合がある。また、実施形態1では、物体ないし移動体は人物を想定したものであるが、本発明は、人物に限らず、人物以外の動物や、自家用車、バス、トラック、自転車等の乗り物等、その他の撮像画像から画像処理で識別可能な物体を追跡対象の物体ないし移動体とすることができる。
図1に示すように、実施形態1の移動体追跡装置1は、カメラ10と接続されており、主な構成として、画像分配部2、物体識別部3、移動体追跡部5、一致判定部6を有する。カメラ10は、追跡すべき移動体が存在する所定のエリアを撮像するための撮像部であり、例えば、CMOSカメラ等で構成される。カメラ10は、追跡対象の移動体が移動可能な所定のエリアを撮像できるように設置される。例えば、店舗前の通路の通行人の動きや店舗内の人の動き等を追跡する場合、カメラ10は、通路、店舗内の所定エリアを上方から撮像できるように天井又は壁面等に設置することができる。カメラ10は、移動体追跡装置1と有線又は無線等で通信接続されていてもよいし、LAN等のネットワークにより通信接続されていてもよい。また、カメラ10は、移動体追跡装置1とは接続されず、カメラ10で撮像した撮像データを記憶装置に記憶させ、移動体追跡装置1は、この記憶装置から撮像データを読み込むように構成されていてよい。
移動体追跡装置1は、カメラ10での撮像画像20中において、物体識別部3により人物を物体像として検出し、物体識別部3で検出した物体を移動体追跡部5により移動体としてその人物の移動を追跡する構成とするものである。移動体追跡部5は、定期的に物体識別部3により撮像画像20中から人物の物体像を検出することで、物体識別部3での物体情報に基づいて移動体追跡部5が現に追跡している移動体の追跡情報を補正する構成とするものである。
物体識別部3と移動体追跡部5とには、カメラ10での撮像画像20がフレーム単位で画像分配部2から入力される。物体識別部3と移動体追跡部5とでは、撮像画像20の秒間の処理回数(FPS:Frames Per Second)は物体識別部3の方が低く、例えば、物体識別部3のFPSに対して移動体追跡部5のFPSの方が5倍くらい大きくなるよう構築されたものである。移動体追跡装置1において、例えば、移動体追跡部5は主にCPU(Central Processing Unit)を用いて処理し、物体識別部3は主にGPU(Graphics Processing Unit)を用いて処理され、別個の演算装置に分けることでより効率的に移動体追跡システムを構成することができる。
画像分配部2は、カメラ10で撮像した撮像画像を処理部(3又は5)での画像処理速度に応じてFIFO(First-In, First-Out)型で遅延させる出力及び遅延させず間引く出力の2系統に分配し、撮像画像を出力するものである。この画像分配部2では、カメラ10での撮像データから時間経過順に撮像画像20を一時的に複数フレームにわたり記録していき、時間経過順に撮像画像20を所定の時間間隔で物体識別部3及び移動体追跡部5へと出力する構成を備える。例えば、物体識別部3と移動体追跡部5とでは、画像処理能力(FPS:Frames Per Second、1秒あたりのフレーム処理数)において物体識別部3よりも移動体追跡部5の方が速く、1つのフレームの撮像画像20に対する画像処理時間は、物体識別部3では長く、移動体追跡部5では短い。画像分配部2は、移動体追跡部5での短い画像処理時間に合わせた時間間隔でカメラ10の撮像データから撮像画像20を取得して記録し、少なくとも物体識別部3での長い画像処理時間内で取得できるフレーム数分の撮像画像20を一時的に記録する。
そして、画像分配部2は、撮像画像20の出力として、物体識別部3に対して時間経過順に一定フレーム数おきの間隔で撮像画像20を出力し、移動体追跡部5に対して時間経過順に各フレーム毎に撮像画像20を出力する。このとき、画像分配部2は、移動体追跡部5への撮像画像20の出力として、物体識別部3へ出力した撮像画像20と同じ撮像画像20について、物体識別部3と移動体追跡部5とで画像処理の終了タイミングが同じタイミングとなるように移動体追跡部5への出力を遅延させる。これにより、物体識別部3と移動体追跡部5とのそれぞれの画像処理結果が、同じ撮像画像20について同タイミングで得られることになる。計算負荷の高い物体識別部3のFPSのみを減らすことで、移動体追跡装置1としてのFPSを維持したまま、時間当たりの計算量を減らし、消費電力を低減させることができる。
図2に基づいて、一例を説明すると、物体識別部3は1FPS(1フレーム毎秒)で画像処理動作し、移動体追跡部5は5FPS(5フレーム毎秒)で画像処理動作する場合、画像分配部2ではカメラ10の撮像データから5FPSの時間間隔で撮像画像20を取得し、5フレームにわたり一時的に記録する。すなわち、画像分配部2は、カメラ10の撮像データから1/5秒間隔で1枚の撮像画像20を取得し、経時的に一時記録していく。画像分配部2において、単位時間あたりの撮像画像20の記録数が多いほど過去に遡った追跡処理が可能となるが、最低でも物体識別部3が画像処理動作する間の撮像画像分、すなわち上述の例では1秒あたり5フレーム分の撮像画像20を時間経過順に記録しておくことが好ましい。また、物体識別部3の動作速度及び移動体追跡部5の動作速度は、動作環境の性能及び追跡対象となる移動体の性質に合わせて予め調整しておくことが好ましい。
そして、画像分配部2は、カメラ10の撮像データから取得し記録したフレームNO.1の撮像画像20をフレーム記録時点で物体識別部3に対して出力する。移動体追跡部5では画像処理能力が5FPSであるが、物体識別部3は、画像処理能力が1FPSであり移動体追跡部5での画像処理時間の5倍の時間を要する。そのため、物体識別部3がフレームNO.1の撮像画像20の画像処理が終了するのに、画像分配部2がフレームNO.5の撮像画像20を取得して記録する時点まで要する。従って、画像分配部2は、フレームNO.5の撮像画像20を取得し記録した時点で、このフレームNO.5より4フレーム前のフレームの撮像画像20、すなわち物体識別部3へ出力した撮像画像20と同じフレームNO.1の撮像画像20を移動体追跡部5へ出力する。これにより、同じフレームNO.1の撮像画像20について、物体識別部3と移動体追跡部5とのそれぞれの画像処理結果の出力が同タイミングで得られる。
以後、同様に、画像分配部2は、移動体追跡部5へは、移動体追跡部5の処理能力(5FPS)に合わせて、フレームNO.1に続けてフレームNO.2、フレームNO.3、・・・のようにフレーム毎に撮像画像20を毎回出力していき、物体識別部3へは、物体識別部3の処理能力(1FPS)に合わせて、フレームNO.1の次にフレームNO.6、その次はフレームNO.11、・・・のように、5フレームおきの間隔で定期的にフレームの撮像画像20を出力していく。これにより、上記同様に、NO.6、NO.11等の同じフレームの撮像画像20について、物体識別部3と移動体追跡部5とのそれぞれの画像処理結果が同タイミングで得られる。
このように、同一フレームの撮像画像20についての物体識別部3と移動体追跡部5との画像処理結果を同じタイミングで得ることにより、このタイミングで移動体追跡部5での画像処理結果を物体識別部3での画像処理結果にて検証することで、移動体追跡部5での追跡情報を物体識別部3での検出情報によって定期的(物体識別部3での長い画像処理時間の時間間隔)に補正することができ、その結果、移動体追跡部5による追跡精度を向上することができる。
物体識別部3は、特徴抽出部31、物体検出部32を備え、特徴抽出部31及び/又は物体検出部32が人工知能で構成されている。図3を参照して、物体識別部3は、画像分配部2から入力されたフレームの撮像画像20中から、学習済みモデルで構築された人工知能により追跡対象の移動体となる物体21を検出する処理を行い、この画像処理結果を一致判定部6へ出力する構成を備えるものである。
特徴抽出部31は、撮像画像20から特徴抽出する処理を行う機能部であり、例えば、撮像画像20における各画素の輝度や色等の画像の特徴量を求める。この特徴抽出部31は、前記特徴量を求めるための画像解析処理のアルゴリズムに従ったプログラムで構成することができるが、前記特徴量を求めるためのデータを機械学習させた学習済みモデルを構築した人工知能で構成されてもよい。
物体検出部32は、特徴抽出部31で抽出された特徴量のデータから物体の種別、物体の領域、物体の位置、物体の中心点等を求める処理を行う機能部であり、撮像画像20中において追跡対象の移動体となる物体を精度よく検出する。この物体検出部32は、撮像画像20中から撮像された所定の物体像21を検出するように学習させた人工知能で構成することができるが、撮像画像20中から撮像された所定の物体像21を検出するためのアルゴリズムに従ったプログラムで構成されてもよい。
物体検出部32を構成する人工知能は、検出対象の物体(例えば、人物、犬、猫等その他の動物、自家用車、バス、トラック、自転車等その他の乗り物等)の様々な形を含む大量の画像データを機械学習させた学習済みモデルにより構成されている。この人工知能は、例えば、畳み込みニューラルネットワーク(CNN: Convolutional Neural Network)が使用される。ニューラルネットワークは、正解の物体の画像データよりなる大量の訓練画像データ(教師データ)を用いて機械学習させて正解の物体像とそれ以外の画像(背景像等)を区別する方法を学び、入力された撮像画像20から物体の種別、物体の領域、物体の位置、物体の中心点等を精度よく出力するように構築された学習済みのニューラルネットワークモデルを用いる。ここで物体の領域とは、撮像画像20内にて物体21が存在する候補領域を指し、例えば、撮像画像20上に写っている物体像21を囲む、あるいは物体像21に付す矩形状の枠線であるバウンディングボックス(Bounding Box)Bで表現することができる。物体像21の中心点mは、バウンディングボックスBの2つの対角線の交点によって現すことができる。
物体の領域、物体の位置、物体の中心点等の現し方についても、ニューラルネットワークに備えさせるなど、より高速に計算可能な手法をとるものとするのが好ましい。また、物体検出部32では、検出された物体のうち同じ物体を重複して検出したものを除外するアルゴリズム及び物体の位置座標を推定するアルゴリズムを含むものであり、1つの撮像画像20から同じ物体を重複して出力しないものである。例えば、Non-Maximum-Suppression(NMS)と呼ばれるアルゴリズムを備えさせ、このNMSにより、同じ物体への複数の枠線に対してIoU(Intersection over Union)値を求めることでIoU値が大きくて重複領域の割合が多いものを除外することで重複した出力を抑制することができる。
なお、上述したニューラルネットワークやアルゴリズムは、物体識別に用いるアルゴリズムの例であり、物体識別部3は、入力される撮像画像20から、追跡対象の移動体となる物体について、物体の種別、撮像画像20内の物体の領域、撮像画像20内の物体の位置座標、撮像画像20内の物体の中心点、評価値等が得られるよう構築されたニューラルネットワークやアルゴリズムで構成されていればよく、より高速且つ正確に算出できる手法を選択することができる。また、特徴抽出部31及び物体検出部32の両方にニューラルネットワークを用いる場合、複数のニューラルネットワークを組み合わせ、特徴抽出部31と物体検出部32が一体となった複合的なニューラルネットワークで構成してもよい。
移動体追跡部5は、ベクトル焦点法による画像処理部51、追跡部52を備え、画像分配部2から入力されたフレームの撮像画像20中における所定の移動体21を追跡する処理を行い、この画像処理結果を一致判定部6へ出力する構成を備えるものである。物体識別部3は移動体追跡部5よりも演算処理が重く演算処理に移動体追跡部5の何倍もの実行時間を要するため、本実施形態1では、移動体追跡部5は、物体識別部3における物体検出のアルゴリズムを移動体追跡として実用的に取り扱えるようにするための機能構成部でもある。
移動体追跡部5は、ベクトル焦点法による画像処理技術を利用して撮像画像20中から移動体21を高速に追跡処理できるものである。すなわち、移動体追跡部5において、ベクトル焦点法による画像処理部51は、追跡対象の移動体となる物体の標準モデルを画像上に配置し、この標準モデルにおける中心点と標準モデルの輪郭線に対する法線ベクトルの位置との間の方向(法線ベクトルの角度情報)と長さ(法線ベクトルの位置の座標情報)とによる標準体データを基に、撮像画像20中において標準体データと適合する物体像(移動体)に代表点を付す。追跡部52は、時間経過順の撮像画像20から前記代表点を経時的に追跡することで追跡対象の移動体を高速に追跡するというものである。例えば、追跡部52は、前後フレームで各々の代表点が一定範囲内に存在し最も距離が近い組み合わせを同一の移動体とみなして追跡を行う。ここで同一の移動体とみなすための前記一定範囲は、移動体の種別に応じて検証、実験等を通じて設定してもよいし、また、移動体の各フレームにおける位置座標の差から移動速度と方向で等速直線運動をしている前提で現フレームの位置を推定することで設定するようにしてもよい。
図4を参照して、前記ベクトル焦点法を利用した移動体の追跡処理手順として、まずは、撮像画像20上に追跡対象の移動体21となる物体像の標準モデルSを配置し、この撮像画像20の各画素点について処理点を中心とする円形状にフーリエ変換(円形フーリエ変換)を行うことで各画素の輝度勾配と勾配方向を算出する。輝度勾配は物体像(標準モデルS)の特徴に沿って現れ、輝度勾配が一定以上の画素を有効画素とし、この有効画素の集合体が前記物体像の標準モデルSを反映した領域となる。勾配方向は物体像の特徴境界に対する法線方向のベクトル(法線ベクトル)bとなる。この勾配方向は、例えば、360度を16方向分割した各方向を選ぶようにしてもよい。そして、各画素の輝度勾配の位置(標準モデルSの輪郭に相当する位置)につき、標準モデルSの中心点pとの間で勾配方向の角度(角度情報)と長さ(座標情報)を求め、これを前記標準モデルSによる標準体データとして記憶する。
次に、カメラ10で撮像した実際の撮像画像20に対して前記円形フーリエ変換を行って輝度勾配と勾配方向を算出し、前記標準体データに基づいて中心点pへの投票を行い、所定範囲内に一定以上の点が集まったと評価できる場合は、この撮像画像20中に標準モデルSに相当する物体像(移動体)が存在すると判断でき、前記投票結果が最も高い集計結果の点をこの撮像画像20での移動体21が存在する代表点dの位置座標とする。以上のように、画像処理部51により時間経過順に入力される撮像画像20毎に同様にして移動体21の代表点dの位置座標を求め、追跡部52により時間経過順に撮像画像20の代表点dを追跡することでその代表点dで示される移動体21の追跡を行う。このように追跡する事で、照度変化に強く、移動体の外形形状、移動体の内部模様等を特徴点として忠実にかつ高速に追跡できる。なお、前記ベクトル焦点法として、上述では各画素の輝度を基に説明したが、もちろん各画素の色の色勾配やその勾配方向を使ってもよい。
なお、移動体追跡部5において、物体識別部3で検出された物体の数が少ない場合(例えば、撮像画像20内に数個以下)、検出した物体の種類に応じた移動可能範囲を基に所定の投票範囲に対してのみ前記円形フーリエ変換を行ってもよい。前記移動可能範囲は、例えば、物体の種別毎に予め定義された最大移動速度と物体識別部3での画像処理能力(FPS)から求めることができる。また、前記円形フーリエ変換の範囲を前記投票範囲に限定するか否かは、物体識別部3で検出された物体の数に応じて決定することができる。これにより、より移動体追跡部5の処理速度を向上させることができる。
ベクトル焦点法による画像処理において、前記投票を行う際に画像全体に対して投票処理を行った場合、処理範囲が広く計算負荷が高くなってしまう。そのため、中心点pへの投票処理を行う投票範囲を定義し、投票範囲のみ前記投票処理を行うことで計算負荷を軽減し、高速に動作させることができる。また同時に、消費電力も低減される。
図5を参照して、前記投票範囲R1は、例えば、移動体21の種類に応じて設定された移動体21の1フレーム間での最大移動量jに移動体21の大きさsを加えた値を半径とした円で表現できる。代表点dの検索範囲dRは、最大移動量jを半径とする円の範囲とすることができる。なお、前記投票範囲R1は、前記円での表現に限らず、ボックス等での表現でもよい。
このとき、1フレーム間での最大移動量jとは、たとえば移動体21が人であれば、人の最大速度は25km/h程度であり、1フレームあたりの移動距離に換算したものを計測対象となる移動体毎に定義しておき、カメラ10の設置角度や設置位置から、1フレームあたりの代表点dの移動距離を撮像画像20中の座標系に換算することで得られる。
移動体21の大きさsは、例えば移動体21が人であれば、人の中心位置から頭部や足部への撮像画像20上の距離を移動体21の大きさsとして予め定義しておく。
また、図6を参照して、前記投票範囲R2は、追跡対象の移動体21に追跡履歴がある場合、その複数の過去フレームにおける位置座標から、等速直線運動をしている前提で移動体21の代表点dの次フレームでの予測点eが推定できる。予測点eの検索範囲eRは、最大移動量jの半分の距離に補正距離cを加えた値を長径、補正距離cを短径とする楕円の範囲とすることができる。前記投票範囲R2は、現フレームでの移動体21の代表点dの位置座標と前記予測点eとの中点ed、補正距離c、移動体21の大きさsから、
長径a=e−ed+c+s
短径b=c+s
とし、楕円の式
/a+y/b=1
で表現することができる。
ここで、補正距離cは予測点eからの誤差量であり、たとえば最大移動量jの半分程度としておくと、計算量の削減と精度の両立ができる。なお、補正距離cは実験などから移動体毎に定義するのが好ましい。
図7を参照して、上述のベクトル焦点法において現フレームの撮像画像20fnに配置する標準モデルは、現フレームの1つ前の前フレームの撮像画像20fn−1で追跡中の移動体21を標準モデルS−2として使用する。これにより、経時的に多様かつ個性的に変化する移動体21であっても、最新の移動体21に対応した標準モデルS−2に基づく標準モデルS−2の中心点pや標準体データを作製することができ、追跡精度を向上することができる。なお、前記標準モデルS−2は、このような実際に追跡中の移動体21を使用することに限らず、固定のカメラ10で撮像した撮像画像20中に写る物体ないし移動体の形を事前に作成した標準モデルを使用することでもよい。例えば、追跡対象の移動体21が等速に移動する場合、移動体21それ自体の形の変化に乏しい場合等、経時的に多様かつ個性的に位置や形状等の変化が少ない物体ないし移動体であれば、前記事前に作成した標準モデルであっても精度よく追跡することができる。
もっとも、物体識別部3で撮像画像20中から物体が検出された場合は、物体識別部3での画像処理結果として出力される物体像を標準モデルS−1として使用する(その詳細は、次の一致判定部6で説明する。)。例えば、物体識別部3で検出した物体21の中心点mを移動体追跡部5における標準モデルS−1の中心点pとして使用する。上述のとおり、物体識別部3は、人工知能により撮像画像20中から所定の物体を精度よく検出することができる。従って、撮像画像20中に初めて出現した物体を物体識別部3で精度よく検出してこの物体を新規の移動体として移動体追跡部5で確実に追跡することができる。また、移動体追跡部5で追跡中の移動体に対する標準モデル(標準モデルSの中心点pや標準体データ)を定期的に物体識別部3で精度よく検出した物体と対応するように補正することができ、移動体追跡部5による移動体の追跡精度をさらに向上することができる。
一致判定部6は、移動体追跡部5が追跡すべき移動体を物体識別部3で検出する物体と一致させるための処理を行う構成を備えるものであり、判定部61、補正部62、新規作成部63を有する。
図8を参照して、判定部61は、画像分配部2より物体識別部3と移動体追跡部5とに入力された同一フレームの撮像画像20について、物体識別部3と移動体追跡部5との画像処理結果を対比して、物体識別部3で検出された物体のなかに移動体追跡部5で追跡中の移動体と同一の移動体が存在するか否かの一致判定を行う。すなわち、判定部61は、物体識別部3と移動体追跡部5とから同一フレームの撮像画像20に対する画像処理結果が一致判定部6に入力されると、物体識別部3での処理結果と移動体追跡部5での処理結果とで一致する移動体21を検索する。具体的には、判定部61は、物体識別部3で検出された物体21の中心点mの位置座標と、移動体追跡部5で追跡中の移動体21の代表点dの位置座標とが、一定範囲内に存在し最も距離が近い組み合わせを「同一の移動体」とみなす(図8(A)参照)。同一の移動体とみなすための前記一定範囲は、検証、実験等により求める等し、設定するようにしてもよい。
また、撮像画像20中に初めて出現した物体について、移動体追跡部5では、未だその物体の標準データが存在しないため、当該物体の代表点dは付されないが、物体識別部3では、撮像画像20中に初めて出現した物体についても検出され、当該物体の中心点mも検出される。この場合、物体識別部3で検出する中心点mと組みとなる移動体追跡部5での代表点dが存在せず、物体識別部3での画像処理結果においてのみ物体が検出されることとなる。従って、判定部61では、物体識別部3と移動体追跡部5とで同一の移動体は存在しないと判定される(図8(B)参照)。
判定部61で同一の移動体21が存在すると判定された場合は、補正部62が、移動体追跡部5に対して、一致判定部6に入力されたフレームの次のフレーム、すなわち、判定部61の判定で用いた現フレーム20fnの1つ後の次フレーム20fn+1では、標準体データとして物体識別部3で検出された物体を標準モデルS−1とする標準体データに修正して使用させる処理を行う。一方、判定部61で同一の移動体21が存在しないと判定された場合、すなわち、物体識別部3で検出された物体において移動体追跡部5で追跡中の移動体と同一のものとはみなせず、物体識別部3での画像処理結果においてのみ存在する物体が検出された場合は、新規作成部63が、移動体追跡部5に対して、次フレーム20fn+1では、物体識別部3のみに検出された物体を新規の移動体として登録し、当該物体を標準モデルS−1とする標準体データを使用させる処理を行う。
また、移動体追跡部5で追跡中の移動体21の代表点dの位置座標に対し、「同一の移動体」とみなすことが出来る移動体を物体識別部3の処理結果から見つけることが出来ない場合は、補正部62では代表点dの位置座標に対して移動体追跡部5で追跡した移動体21の輝度勾配を基に標準モデルS−1とする標準体データに修正して使用させる処理を行う。これにより、物体識別部3の人工知能における学習済みデータの不足等による瞬間的な検出漏れや誤検出があった場合においても精度よく追跡を行うことが出来る。
なお、前記一致判定部61において、複数フレームに連続して移動体追跡部5で追跡中の移動体21の代表点dの位置座標に対し、「同一の移動体」とみなすことが出来る移動体21を物体識別部3の処理結果から見つけることが出来ない場合は、その追跡対象が誤って追跡した物体であるとみなし、追跡対象から除外しても良い。これにより、移動体追跡部5と物体識別部3の誤検出の結果を吸収し、精度よく移動体21を追跡することが出来る。ここで連続して「同一の移動体」とみなすことが出来る移動体21を見つけられない回数については、実験等を通じて設定してもよいし、人工知能の検出性能に合わせて調整するのが好ましい。
以上より、移動体追跡部5で追跡中の移動体21を定期的に物体識別部3で検証し修正することができ、移動体追跡部5による移動体21の追跡精度をさらに向上することができる。また、撮像画像20中に初めて出現した物体を物体識別部3で精度よく検出してこの物体を新規の移動体21として移動体追跡部5で精度よく追跡することができる。また、計算負荷が高い物体識別部3の処理頻度を減らしながら移動体追跡部5にて移動体21の追跡をベクトル焦点法を用いて高頻度に追跡処理することで、低消費電力、低性能な動作環境においても複数種の移動体を分類した追跡を行うことができる。
以上のようにして、移動体追跡装置1は、移動体21の追跡を行い、その移動体情報4を外部出力することができる。移動体情報4は、移動体21の位置座標や種別だけではなく、例えば、追跡開始時刻や識別番号、速度情報などその移動体21に紐づく情報を目的や用途に合わせて記録し、出力してもよい。
次に、移動体追跡装置1を用いた移動体追跡方法について説明する。
図9に示すように、移動体追跡方法は、画像分配ステップ、物体識別ステップ、移動体追跡ステップ、一致判定ステップを有している。これらのステップのそれぞれは、画像分配部2、物体識別部3、一致判定部6の機能によって実行される。なお、各ステップにおいて、上述した移動体追跡装置1の各部の説明が適宜に援用される。
画像分配ステップは、画像分配部2にて、カメラ10で撮像した撮像画像20をFIFO型で遅延させる出力及び遅延させない出力の2系統に分配し、各処理部3,5へ撮像画像20を出力する処理を行うステップである。この画像分配ステップでは、物体識別部3に対して一定フレーム数おきの間隔で定期的に撮像画像20を出力し、移動体追跡部5に対してフレーム毎に毎回撮像画像20を出力する。このとき、移動体追跡部5への撮像画像20の出力タイミングは、物体識別部3に出力した同一フレームの撮像画像20について移動体追跡部5での画像処理終了タイミングが物体識別部3での画像処理終了タイミングと一致するように遅延させて出力する。
物体識別ステップは、物体識別部3にて、人工知能により、画像分配ステップで入力されたフレームの撮像画像20中から追跡対象の物体を検出する処理を行うステップである。すなわち、追跡対象の移動体21となる実際の物体の様々な形の画像データを機械学習させた学習済みモデルが構築された人工知能により、画像分配ステップから定期的に入力されるフレームの撮像画像20中における所定の物体の領域、物体の位置、物体の種別を精度よく検出する処理が行われる。これにより、移動体追跡ステップで画像処理される毎回の撮像画像20のうち一定フレーム数おきの間隔で定期的に同一の撮像画像20について画像処理され、移動体追跡部5での移動体追跡情報を定期的に修正することで移動体21の追跡精度を向上させることができる。
移動体追跡ステップは、移動体追跡部5にて、ベクトル焦点法による画像処理により、画像分配ステップで入力されたフレームの撮像画像20中から追跡対象の移動体21を追跡する処理を行うステップである。この移動体追跡ステップでは、ベクトル焦点法による画像処理によって、追跡すべき移動体21の標準モデルに基づく標準体データが設定され、撮像画像20中における前記標準体データと適合する移動体21に代表点dが配置され、これより画像分配ステップにより毎回入力されるフレームの撮像画像20中から同一の移動体21の代表点dを追跡する処理が行われる。この移動体追跡ステップにおける手順は、後述する。
一致判定ステップは、一致判定部6にて、前記移動体追跡ステップが追跡すべき移動体21を前記物体識別ステップで検出する物体と一致させるための処理を行うステップである。この一致判定ステップでは、まず、判定部61にて、物体識別ステップと移動体追跡ステップとに入力された同一フレームの撮像画像20について、物体識別ステップで検出された物体のなかに移動体追跡ステップで追跡中の移動体21と同一の移動体21が存在するか否かの一致判定をする。そして、前記一致判定で同一の移動体21が存在すると判定された場合は、補正部62にて、移動体追跡ステップにおいて、前記一致判定で用いた現フレームより1つ後の次フレームの撮像画像20の処理では、前記物体識別ステップで検出された物体を標準モデルとする標準体データに修正して使用させる処理を行う。前記一致判定で同一の移動体21が存在しないと判定された場合は、新規作成部63にて、移動体追跡ステップにおいて、前記次フレームの撮像画像20の処理では、物体識別ステップのみに検出された物体を新規の移動体21として登録し、当該物体を標準モデルとする標準体データを使用させる処理を行う。
次に、前記移動体追跡ステップにおける処理手順を説明する。
図10に示すように、移動体追跡の動作をスタートすると、画像分配ステップにより移動体追跡部5に撮像画像20が入力され(S1)、初めて撮像画像20が入力されたか否か判断する(S2)。初めて撮像画像20が入力された場合(すなわち1番目のフレームの撮像画像20が入力された場合)、撮像画像20中から移動体21を検出し(S3)、その移動体検出結果を一致判定部6へ出力する(S4)。
手順S1で、初めて撮像画像20が入力された場合でない場合(すなわち2番目以降のフレームの撮像画像20が入力された場合)、手順S5へ処理を移行し、一致判定部6から判定結果の指令の入力があるか否か判断する。判定結果の指令が入力され、物体識別部3で検出した物体と同一の移動体21が移動体追跡部5で存在する場合(S6で「yes」)、手順S7にて、入力された撮像画像20の画像処理に際し、標準体データとして、前記一致判定で用いた物体識別部3での検出物体を標準モデルS−1に使用して標準体データを修正する(図8参照)。
一方、手順S6にて、物体識別部3で検出した物体と同一の移動体21が移動体追跡部5で存在しない場合(S6で「no」)、物体識別部3のみに検出した物体について新規に出現した移動体21として登録して追跡を開始し(S8)、また、入力された撮像画像20の画像処理に際し、標準体データとして、前記一致判定で用いた物体識別部3での検出物体を標準モデルS−1に使用して標準体データを新規に作製する(S9)。
そして、入力された撮像画像20中から移動体を検出し(S10)、検出された移動体21を追跡する(S11)。また、移動体追跡部5での移動体検出結果を一致判定部6へ出力する(S11)。なお、一致判定部6への出力は、移動体追跡部5に入力された撮像画像20毎に毎回行うのではなく、物体識別部3に入力された撮像画像20と同一の撮像画像20の処理のときだけその移動体検出結果を出力するようにしてもよい。
また、手順S5で、一致判定部6から判定結果の指令の入力が無い場合(S5で「no」)、手順S13にて、入力された撮像画像20の画像処理に際し、標準体データとして、入力された撮像画像20のフレームの1つ前の前フレームの撮像画像20で追跡中の移動体21を標準モデルS−2に使用して標準体データを作製する(図7参照)。
そして、入力された撮像画像20中から移動体21を検出し(S14)、追跡中の移動体21と同一の移動体21を追跡する(S15、S16)。また、移動体追跡部5での移動体検出結果を一致判定部6へ出力する(S18)。この場合も、一致判定部6への出力は、移動体追跡部5に入力された撮像画像20毎に毎回行うのではなく、物体識別部3に入力された撮像画像20と同一の撮像画像20の処理のときだけその移動体検出結果を出力するようにしてもよい。入力された撮像画像20で追跡中の移動体21と同一の移動体21が無かった場合(S15で「no」)、その移動体21の追跡を終了する(S17)。
以上の動作を繰り返すことで、カメラ10での撮像画像20中から所定の移動体21を精度よく追跡を行うことができる。
なお、前記手順S15で追跡中の移動体21と同一の移動体21が無かった場合は、手順S17にて直ちに追跡を終了させないようにしてもよい。すなわち、オクルージョンや光源との位置関係等により、実際には存在しているにもかかわらず、撮像画像20に映らない(見えない)場合が存在する。そのため、直ちには追跡を終了させず、移動体21の過去の経時的な各フレームにおける位置座標の差から移動速度と方向とにより等速直線運動をしている前提で現フレームでの移動体位置を推定し、この推定位置が撮像画像20の範囲内にある場合は、この推定位置を移動体21の代表点の位置座標として追跡情報を更新し、残すようにしてもよい。前記推定位置が撮像画像20の範囲外となるような場合は、移動体21がフレームアウトしたものとして追跡を終了させるようにしてもよい。
(実施形態2)
図11に示すように、実施形態2の移動体追跡装置1Xは、主要構成として、実施形態1の図1と同様に、画像分配部2X、物体識別部3X、移動体追跡部5X、一致判定部6Xを備えている。
実施形態1では、物体識別部3が人工知能を用いて物体の検出を行うことがあるものであったが、この実施形態2では、物体識別部3Xは、ベクトル焦点法による画像処理にて物体の検出を行うものである。ベクトル焦点法を用いた物体識別部3Xは、画像処理の演算処理負荷が小さく低消費電力とすることができる。なお、ベクトル焦点法による物体の検出方法は、実施形態1の移動体追跡部5での移動体検出の説明の該当箇所が参照される。
実施形態2によれば、物体識別部3Xも移動体追跡部5Xもベクトル焦点法の画像処理を用いた構成とすることにより、物体識別部3X及び移動体追跡部5Xでの演算処理負荷の低減、低消費電力とすることができる。従って、移動体追跡装置1Xは、低消費電力、小型で熱対策の容易な装置とすることができる。
実施形態2の物体識別部3Xは、ベクトル焦点法の画像処理により物体検出を行うので、人工知能を用いた実施形態1の物体識別部3と比べて画像処理を比較的高速に行うことができるから、実施形態2の物体識別部3Xは、間欠動作させるようにしてもよい。この場合は、一致判定部6Xの一致判定動作も間欠的になる。これにより、物体識別部3X、一致判定部6Xでの電力消費を低減することができ、さらに低消費電力の移動体追跡装置1Xを実現することができる。また、一致判定部6Xの一致判定動作は、定期的に行われることとなるから、移動体追跡部5Xでは、物体識別部3X及び一致判定部6Xの間欠動作に合わせて定期的に、同一の撮像画像20中から物体識別部3Xが同一移動体21として検出した物体を標準モデルS−1とし、移動体21の追跡を行うこととなる。なお、物体識別部3Xが動作停止中のとき、移動体追跡部5Xにおいてベクトル焦点法による画像処理で使用する標準モデルSは、移動体像を模して予め設定された標準モデルを使用してもよい。
実施形態2においてその他の構成及び作用効果については実施形態1での説明が援用される。
なお、本発明は、前記実施形態に限らず、本発明の範囲内で任意に変更を施すことが可能である。
1 移動体追跡装置
2 画像分配部
3 物体識別部
4 移動体情報
5 移動体追跡部
6 一致判定部
20 撮像画像
21 移動体像、物体像
31 特徴抽出部
32 物体検出部
51 画像処理部
52 追跡部
B バウンディングボックス
d 代表点
m 物体の中心点
p 標準モデルの中心点
S,S−1,S−2 標準モデル

Claims (7)

  1. 撮像部で撮像した撮像画像中の物体像に基づいて移動体を追跡する移動体追跡装置であって、
    前記撮像画像を画像処理速度に応じてFIFO型で遅延させる出力と前記撮像画像を遅延させず間引く出力との2系統に分配し、前記撮像画像を出力する画像分配部と、
    人工知能又はベクトル焦点法による物体検出により、前記画像分配部から入力された撮像画像中から追跡対象の物体を検出する処理を行う物体識別部と、
    物体識別部での物体の認識結果の位置と範囲をベクトル焦点法による画像処理の標準モデルとして扱い、前記画像分配部から入力された撮像画像中から前記標準モデルに適合する追跡対象の移動体を追跡する処理を行う移動体追跡部と、
    物体識別部と移動体追跡部の結果の統合を行う一致判定部とを備え、
    前記画像分配部は、前記物体識別部に対して一定フレーム数おきの間隔で定期的に撮像画像を出力し、前記移動体追跡部に対して前記物体識別部の出力と当該移動体追跡部の出力とが同タイミングになるよう毎回撮像画像を出力する構成とし、
    前記物体識別部は、高速の演算処理で間欠動作を行う又は低速な演算処理を行う構成とし、
    前記一致判定部は、前記物体識別部及び前記移動体追跡部からの出力より互いに同一の移動体が存在する場合、前記移動体追跡部が追跡する当該移動体を前記物体識別部で検出する物体と一致させるための処理を行う構成とする移動体追跡装置。
  2. 撮像部で撮像した撮像画像中の物体像に基づいて移動体を追跡する移動体追跡装置であって、
    前記撮像画像を画像処理速度に応じてFIFO型で遅延させる出力及び遅延させず間引く出力の2系統に分配し、各処理部へ前記撮像画像を出力する画像分配部と、
    人工知能を用いて、前記画像分配部から入力されたフレームの撮像画像中から追跡対象の物体を検出する処理を行う物体識別部と、
    ベクトル焦点法による画像処理により、前記画像分配部から入力されたフレームの撮像画像中から追跡対象の移動体を追跡する処理を行う移動体追跡部と、
    前記移動体追跡部が追跡すべき移動体を前記物体識別部で検出する物体と一致させるための処理を行う一致判定部とを備え、
    前記画像分配部は、前記物体識別部に対して一定フレーム数おきの間隔で定期的に撮像画像を出力し、前記移動体追跡部に対して前記物体識別部の出力と当該移動体追跡部の出力とが同タイミングになるよう遅延させて毎回撮像画像を出力する構成を有し、
    前記物体識別部は、前記人工知能において追跡対象の移動体となる実際の物体の様々な形の画像データを機械学習させた学習済みモデルが構築され、これより前記画像分配部から定期的に入力されるフレームの撮像画像中における所定の物体の領域、物体の位置、物体の種別を精度よく検出する構成を有し、
    前記移動体追跡部は、前記ベクトル焦点法による画像処理によって、追跡すべき移動体の標準モデルに基づく標準体データが設定され、撮像画像中における前記標準体データと適合する移動体に代表点が配置され、これより前記画像分配部から毎回入力されるフレームの撮像画像中から同一の移動体の代表点を追跡する構成を有し、
    前記一致判定部は、
    前記物体識別部と前記移動体追跡部とに入力された同一フレームの撮像画像について、物体識別部で検出された物体のなかに移動体追跡部で追跡中の移動体と同一の移動体が存在するか否か一致判定をし、
    前記一致判定で同一の移動体が存在すると判定された場合は、前記移動体追跡部に対して、前記一致判定で用いた現フレームより1つ後の次フレームの撮像画像の処理では、前記物体識別部で検出された物体を標準モデルとして使用させる処理を行い、
    前記一致判定で同一の移動体が存在しないと判定された場合は、前記移動体追跡部に対して、前記次フレームの撮像画像の処理では、前記物体識別部のみに検出された物体を新規の移動体として登録し、当該物体を標準モデルとする処理を行う構成を有する移動体追跡装置。
  3. 請求項2に記載の移動体追跡装置において、
    前記移動体追跡部は、前記フレームの撮像画像の処理で使用する前記標準モデルとして、前記一致判定部によって前記物体識別部で検出された物体を標準モデルとする場合を除き、当該フレームの1つ前のフレームの撮像画像で追跡中の移動体を標準モデルとする構成を有する移動体追跡装置。
  4. 撮像部で撮像した撮像画像中の物体像に基づいて移動体を追跡する移動体追跡装置であって、
    前記撮像画像を取得し出力する画像分配部と、
    ベクトル焦点法による物体検出により、前記画像分配部から入力された撮像画像中から追跡対象の物体を検出する処理を行う物体識別部と、
    ベクトル焦点法による画像処理により、前記画像分配部から入力された撮像画像中から追跡対象の移動体を追跡する処理を行う移動体追跡部とを備え、
    前記移動体追跡部は、前記ベクトル焦点法による画像処理によって、追跡すべき移動体の標準モデルに基づく標準体データが設定され、撮像画像中における前記標準体データと適合する移動体に代表点が配置され、これより前記画像分配部から時間経過順に毎回入力される撮像画像中から同一の移動体の代表点を追跡する構成を備えるものであり、前記標準モデルとして当該撮像画像の1つ前の撮像画像で追跡中の移動体又は前記物体識別部が検出した物体を使用する構成を有する移動体追跡装置。
  5. 撮像部で撮像した撮像画像中の物体像に基づいて移動体を追跡する移動体追跡方法であって、
    画像分配部にて、前記撮像画像を画像処理速度に応じてFIFO型で遅延させる出力及び遅延させず間引く出力の2系統に分配し、各処理部へ前記撮像画像を出力する画像分配ステップと、
    物体識別部にて、人工知能により、前記画像分配ステップで入力されたフレームの撮像画像中から追跡対象の物体を検出する処理を行う物体識別ステップと、
    移動体追跡部にて、ベクトル焦点法による画像処理により、前記画像分配ステップで入力されたフレームの撮像画像中から追跡対象の移動体を追跡する処理を行う移動体追跡ステップと、
    一致判定部にて、前記移動体追跡ステップが追跡すべき移動体を前記物体識別ステップで検出する物体と一致させるための処理を行う一致判定ステップとを備え、
    前記画像分配ステップは、前記物体識別部に対して一定フレーム数おきの間隔で定期的に撮像画像を出力し、前記移動体追跡部に対して前記物体識別部の出力と当該移動体追跡部の出力とが同タイミングになるよう遅延させて毎回撮像画像を出力する処理を行い、
    前記物体識別ステップは、前記人工知能において追跡対象の移動体となる実際の物体の様々な形の画像データを機械学習させた学習済みモデルが構築され、これより前記画像分配ステップにより定期的に入力されるフレームの撮像画像中における所定の物体の領域、物体の位置、物体の種別を精度よく検出する処理を行い、
    前記移動体追跡ステップは、前記ベクトル焦点法による画像処理によって、追跡すべき移動体の標準モデルに基づく標準体データが設定され、撮像画像中における前記標準体データと適合する移動体に代表点が配置され、これより前記画像分配ステップにより毎回入力されるフレームの撮像画像中から同一の移動体の代表点を追跡する処理を行い、
    前記一致判定ステップは、
    前記物体識別ステップと前記移動体追跡ステップとに入力された同一フレームの撮像画像について、物体識別ステップで検出された物体のなかに移動体追跡ステップで追跡中の移動体と同一の移動体が存在するか否か一致判定をし、
    前記一致判定で同一の移動体が存在すると判定された場合は、前記移動体追跡ステップにおいて、前記一致判定で用いた現フレームより1つ後の次フレームの撮像画像の処理では、前記物体識別ステップで検出された物体を標準モデルとして使用させる処理を行い、
    前記一致判定で同一の移動体が存在しないと判定された場合は、前記移動体追跡ステップにおいて、前記次フレームの撮像画像の処理では、前記物体識別ステップのみに検出された物体を新規の移動体として登録し、当該物体を標準モデルとする処理を行う移動体追跡方法。
  6. 請求項5に記載の移動体追跡方法において、
    前記移動体追跡ステップは、前記フレームの撮像画像の処理で使用する前記標準モデルとして、前記一致判定ステップによって前記物体識別ステップで検出された物体を標準モデルとする場合を除き、当該フレームの1つ前のフレームの撮像画像で追跡中の移動体を標準モデルとする移動体追跡方法。
  7. 撮像部で撮像した撮像画像中の物体像に基づいて移動体を追跡する移動体追跡方法であって、
    画像分配部にて、前記撮像画像を取得し出力する画像分配ステップと、
    物体識別部にて、ベクトル焦点法による物体検出により、前記画像分配ステップで入力された撮像画像中から追跡対象の物体を検出する処理を行う物体識別ステップと、
    移動体追跡部にて、ベクトル焦点法による画像処理により、前記画像分配ステップで入力された撮像画像中から追跡対象の移動体を追跡する処理を行う移動体追跡ステップとを備え、
    前記移動体追跡ステップは、前記ベクトル焦点法による画像処理によって、追跡すべき移動体の標準モデルに基づく標準体データが設定され、撮像画像中における前記標準体データと適合する移動体に代表点が配置され、これより前記画像分配ステップで時間経過順に毎回入力される撮像画像中から同一の移動体の代表点を追跡する処理を行うステップであり、前記標準モデルとして当該撮像画像の1つ前の撮像画像で追跡中の移動体又は前記物体識別ステップが検出した物体を使用する移動体追跡方法。
JP2020087696A 2020-05-19 2020-05-19 移動体追跡装置及び移動体追跡方法 Active JP7053057B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020087696A JP7053057B2 (ja) 2020-05-19 2020-05-19 移動体追跡装置及び移動体追跡方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020087696A JP7053057B2 (ja) 2020-05-19 2020-05-19 移動体追跡装置及び移動体追跡方法

Publications (2)

Publication Number Publication Date
JP2021182288A true JP2021182288A (ja) 2021-11-25
JP7053057B2 JP7053057B2 (ja) 2022-04-12

Family

ID=78606654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020087696A Active JP7053057B2 (ja) 2020-05-19 2020-05-19 移動体追跡装置及び移動体追跡方法

Country Status (1)

Country Link
JP (1) JP7053057B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7505746B2 (ja) 2020-07-08 2024-06-25 Necソリューションイノベータ株式会社 画像処理装置、画像処理方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011086045A (ja) * 2009-10-14 2011-04-28 Giken Torasutemu Kk 店員顧客分離集計装置
JP2013085089A (ja) * 2011-10-07 2013-05-09 Nikon Corp 被写体追尾装置およびカメラ
WO2020080535A1 (ja) * 2018-10-18 2020-04-23 国立研究開発法人科学技術振興機構 対象追跡方法、対象追跡システムおよび対象追跡プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011086045A (ja) * 2009-10-14 2011-04-28 Giken Torasutemu Kk 店員顧客分離集計装置
JP2013085089A (ja) * 2011-10-07 2013-05-09 Nikon Corp 被写体追尾装置およびカメラ
WO2020080535A1 (ja) * 2018-10-18 2020-04-23 国立研究開発法人科学技術振興機構 対象追跡方法、対象追跡システムおよび対象追跡プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7505746B2 (ja) 2020-07-08 2024-06-25 Necソリューションイノベータ株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
JP7053057B2 (ja) 2022-04-12

Similar Documents

Publication Publication Date Title
JP7345504B2 (ja) Lidarデータと画像データの関連付け
Zhu et al. Seeing small faces from robust anchor's perspective
WO2021134296A1 (zh) 障碍物检测方法、装置、计算机设备和存储介质
JP6398347B2 (ja) 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム
JP2020052694A (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
Jeong et al. Lightweight multilayer random forests for monitoring driver emotional status
US8379981B1 (en) Segmenting spatiotemporal data based on user gaze data
Zou et al. Robust nighttime vehicle detection by tracking and grouping headlights
US11170272B2 (en) Object detection device, object detection method, and computer program for object detection
WO2004057537A1 (ja) 画像における移動物体の追跡方法及び装置
JP2016062610A (ja) 特徴モデル生成方法及び特徴モデル生成装置
JP6021689B2 (ja) 車両諸元計測処理装置、車両諸元計測方法及びプログラム
EP2468005A2 (en) Background model for complex and dynamic scenes
CN106570490B (zh) 一种基于快速聚类的行人实时跟踪方法
US20150169979A1 (en) Trajectory modeling apparatus and method based on trajectory transformation
US20160314363A1 (en) Obstacle detection apparatus and method
CN111798487A (zh) 目标跟踪方法、装置和计算机可读存储介质
JP2015064752A (ja) 車両監視装置、および車両監視方法
TW201539378A (zh) 物件偵測系統
KR20130054637A (ko) 자동 주차 시스템에서 물체 검출 장치 및 방법
Weimer et al. Gpu architecture for stationary multisensor pedestrian detection at smart intersections
KR20170137273A (ko) 변형 가능한 파트 모델을 사용한 보행자 검출 장치 및 방법
JP2020109644A (ja) 転倒検出方法、転倒検出装置及び電子機器
Qing et al. A novel particle filter implementation for a multiple-vehicle detection and tracking system using tail light segmentation
Ruhhammer et al. Automated intersection mapping from crowd trajectory data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220324

R150 Certificate of patent or registration of utility model

Ref document number: 7053057

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150