JP2023172759A - 対象物解析装置、対象物解析方法 - Google Patents

対象物解析装置、対象物解析方法 Download PDF

Info

Publication number
JP2023172759A
JP2023172759A JP2022084789A JP2022084789A JP2023172759A JP 2023172759 A JP2023172759 A JP 2023172759A JP 2022084789 A JP2022084789 A JP 2022084789A JP 2022084789 A JP2022084789 A JP 2022084789A JP 2023172759 A JP2023172759 A JP 2023172759A
Authority
JP
Japan
Prior art keywords
image
time
light image
rgb
importance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022084789A
Other languages
English (en)
Inventor
ミナ アジェイ
Minna Ajaye
全 孔
Quan Kong
智明 吉永
Tomoaki Yoshinaga
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2022084789A priority Critical patent/JP2023172759A/ja
Publication of JP2023172759A publication Critical patent/JP2023172759A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】撮影環境が時々刻々と変化する対象物の識別精度を十分に維持する。
【解決手段】対象物解析装置100において、特徴量算出部130は、RGB画像から対象物の特徴量を表す第1の特徴量を算出し、IR画像から対象物の特徴量を表す第2の特徴量を算出する。重要度算出部140は、RGB画像における対象物の重要度を表す第1の重要度と、IR画像における対象物の重要度を表す第2の重要度とを算出する。類似度算出部150は、第1の特徴量、第2の特徴量、第1の重要度および第2の重要度に基づいて、RGB映像203およびIR映像204における対象物の類似度を算出する。同一性判定部160は、類似度算出部150により算出された類似度に基づいて、RGB映像203における対象物と、IR映像204における対象物とが、同一であるか否かを判定する。
【選択図】図1

Description

本発明は、画像から対象物を追跡する装置および方法に関する。
近年、公共の安全に対する人々の関心の高まりに伴い、監視カメラを用いたビデオ監視システムの利用が進んでいる。例えば、空港、駅、学校、オフィスビル等のような安全確保の必要性が高い公共の場所では、こうしたビデオ監視システムの需要が大きい。しかしながら、ビデオ監視システムによって得られた多数の映像情報の解析を人力で行うと、多大な労力が必要となる。そこで、コンピュータを利用して映像解析を自動的に行う技術が求められている。
ビデオ監視システムの映像解析では、監視カメラで撮影された映像内において移動する人物等の対象物を時系列で追跡するために、映像内に存在する対象物をフレームごとに正確に識別することが重要である。しかしながら、撮影場所の明るさの変化や、対象物と周辺物との位置関係の変化などにより、監視カメラでは対象物の撮影環境が時々刻々と変化する場合がある。このような場合には、対象物の識別精度が低下してしまい、その結果、対象物を正しく追跡できなくなるという課題が存在する。
カメラで撮影された対象物の識別精度の向上に関して、例えば特許文献1、2および3の技術が提案されている。特許文献1には、各フレームの画像における物品の位置情報と種別情報に加えて、物品の深度、識別コード、重力、匂い等の情報を補助情報として取得し、位置情報および補助情報に対してマルチモーダル融合を行って物品を識別する物品識別方法が開示されている。特許文献2には、画像の様々な特徴をそれぞれ判別する複数の判別器を組み合わせて画像認識を行う画像認識方法が開示されている。特許文献3には、可視光カメラと赤外線カメラで同一の物体をそれぞれ撮影し、可視光カメラの撮影画像から人物を追跡するとともに、赤外線カメラの撮影画像から人物の領域を検出し、これらの結果を統合して人物の追跡を行う人物追跡方法が開示されている。
米国特許出願公開第2021/0397844号明細書 米国特許第10,956,778号明細書 米国特許第9,245,196号明細書
特許文献1~3の技術は、いずれも対象物の識別精度の向上を図るものであるが、撮影中に対象物の撮影環境が変化することを前提としたものではない。したがって、撮影環境が時々刻々と変化する対象物の識別精度を十分に維持することは困難である。
本発明の第1の態様による対象物解析装置は、可視光を撮影可能な第1のカメラにより撮影された可視光映像に含まれる対象物の画像である可視光画像を取得するとともに、不可視光を撮影可能な第2のカメラにより撮影された不可視光映像に含まれ、前記可視光画像と同時刻における前記対象物の画像である不可視光画像を取得する画像取得部と、前記可視光画像から前記対象物の特徴量を表す第1の特徴量を算出し、前記不可視光画像から前記対象物の特徴量を表す第2の特徴量を算出する特徴量算出部と、前記可視光画像における前記対象物の重要度を表す第1の重要度と、前記不可視光画像における前記対象物の特徴量を表す第2の重要度とを算出する重要度算出部と、前記第1の特徴量、前記第2の特徴量、前記第1の重要度および前記第2の重要度に基づいて、前記可視光映像および前記不可視光映像における前記対象物の類似度を算出する類似度算出部と、前記類似度に基づいて、前記可視光映像における前記対象物と、前記不可視光映像における前記対象物とが、同一であるか否かを判定する同一性判定部と、を備える。
本発明の第2の態様による対象物解析装置は、可視光を撮影可能な第1のカメラにより撮影された可視光映像に含まれる対象物の画像である可視光画像を取得するとともに、不可視光を撮影可能な第2のカメラにより撮影された不可視光映像に含まれ、前記可視光画像と同時刻における前記対象物の画像である不可視光画像を取得する画像取得部と、前記可視光画像における前記対象物の重要度を表す第1の重要度と、前記不可視光画像における前記対象物の特徴量を表す第2の重要度とを算出する重要度算出部と、前記第1の重要度および前記第2の重要度に基づいて、前記対象物について時刻ごとに前記可視光画像または前記不可視光画像のいずれかを選択する画像選択部と、前記画像選択部による各時刻での前記可視光画像または前記不可視光画像の選択結果を、時系列順に並べて表示装置に表示させる表示制御部と、を備える。
本発明による対象物解析方法は、コンピュータを用いた対象物の解析方法であって、前記コンピュータにより、可視光を撮影可能な第1のカメラにより撮影された可視光映像に含まれる前記対象物の画像である可視光画像を取得し、不可視光を撮影可能な第2のカメラにより撮影された不可視光映像に含まれ、前記可視光画像と同時刻における前記対象物の画像である不可視光画像を取得し、前記可視光画像から前記対象物の特徴量を表す第1の特徴量を算出し、前記不可視光画像から前記対象物の特徴量を表す第2の特徴量を算出し、前記可視光画像における前記対象物の重要度を表す第1の重要度を算出し、前記不可視光画像における前記対象物の特徴量を表す第2の重要度を算出し、前記第1の特徴量、前記第2の特徴量、前記第1の重要度および前記第2の重要度に基づいて、前記可視光映像および前記不可視光映像における前記対象物の類似度を算出し、前記類似度に基づいて、前記可視光画像における前記対象物と、前記不可視光画像における前記対象物とが、同一であるか否かを判定する。
本発明によれば、撮影環境が時々刻々と変化する対象物の識別精度を十分に維持することができる。
本発明の一実施形態に係る対象物解析装置の構成を示すブロック図である。 画像取得部の詳細を示す図である。 特徴量算出部の詳細を示す図である。 重要度算出部の詳細を示す図である。 類似度算出部の詳細を示す図である。 マッチングスコア算出部の詳細を示す図である。 対象物追跡の一連の処理の流れを示すフローチャートである。 MMMS算出処理の詳細を示すフローチャートである。 画像選択部の詳細を示す図である。 学習データ生成処理の流れを示すフローチャートである。 学習装置の構成の一例を示す図である。
以下、図面を参照して本発明の実施形態を説明する。説明の明確化のため、以下の記載及び図面は、適宜、省略及び簡略化がなされている。本発明が本実施形態に制限されることは無く、本発明の思想に合致するあらゆる応用例が本発明の技術的範囲に含まれる。特に限定しない限り、各構成要素は複数でも単数でも構わない。
以下の説明では、「プログラム」あるいはそのプロセスを主語として処理を説明する場合があるが、プログラムは、プロセッサ(例えば、CPU(Central Processing Unit))によって実行されることで、定められた処理を、適宜に記憶資源(例えば、メモリ)及び/又は通信インタフェース装置(例えば、通信ポート)を用いながら行うため、処理の主語がプロセッサであってもよい。プロセッサは、プログラムに従って動作することによって、所定の機能を実現する機能部として動作する。プロセッサを含む装置及びシステムは、これらの機能部を含む装置及びシステムである。
以下、本発明の一実施形態について説明する。
図1は、本発明の一実施形態に係る対象物解析装置の構成を示すブロック図である。本実施形態の対象物解析装置100は、撮影装置200により所定の監視エリアを撮影して得られた映像から、その映像に映り込んでいる人物等の対象物を検出して追跡を行うことにより、当該対象物の行動を監視する装置である。
図1に示すように、対象物解析装置100は、撮影装置200、入力装置300および表示装置400と接続されている。対象物解析装置100は、画像取得部110、追跡データベース120、特徴量算出部130、重要度算出部140、類似度算出部150、同一性判定部160、画像選択部170および表示制御部180を備えて構成される。対象物解析装置100において、画像取得部110、特徴量算出部130、重要度算出部140、類似度算出部150、同一性判定部160、画像選択部170および表示制御部180の各機能ブロックは、例えばコンピュータが所定のプログラムを実行することにより実現され、追跡データベース120は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の記憶装置を用いて実現される。なお、これらの機能ブロックの一部または全部を、GPU(Graphics Processing Unit)やFPGA(Field Programmable Gate Array)を用いて実現してもよい。
撮影装置200は、RGBカメラ201およびIRカメラ202を備えて構成される。RGBカメラ201は、所定の監視エリアを撮影範囲内に含むように設置されており、当該撮影範囲内の可視光による映像であるRGB映像203を撮影する。IRカメラ202は、RGBカメラ201と同じ監視エリアを撮影範内に含むように設置されており、当該撮影範囲内の赤外光(不可視光)による映像であるIR映像204を撮影する。RGB映像203およびIR映像204は、時系列順に並んだ複数の画像(フレーム)を組み合わせてそれぞれ構成されるものであり、これらの各画像は、RGBカメラ201またはIRカメラ202が所定のフレームレートごとに監視エリアの撮影を行うことによって取得される。RGBカメラ201とIRカメラ202によってそれぞれ撮影されたRGB映像203およびIR映像204は、撮影装置200から対象物解析装置100へ送信され、対象物解析装置100に入力される。
画像取得部110は、撮影装置200から入力されたRGB映像203およびIR映像204に基づいて、人物等の対象物に関する画像を取得する。画像取得部110は、RGBカメラ201により撮影されたRGB映像203の各フレームから対象物を含む画像部分を抽出し、その画像を対象物に関するRGB画像(可視光画像)として、特徴量算出部130、重要度算出部140へ出力するとともに、追跡データベース120に格納する。同様に、IRカメラ202により撮影されたIR映像204の各フレームから対象物を含む画像部分を抽出し、その画像を対象物に関するIR画像(不可視光画像)として、特徴量算出部130、重要度算出部140へ出力するとともに、追跡データベース120に格納する。
特徴量算出部130は、画像取得部110によってRGB映像203とIR映像204からそれぞれ取得されたRGB画像およびIR画像から、それぞれの画像において対象物がどの程度の特徴を有しているかを表す特徴量を算出する。特徴量算出部130により算出された特徴量は、その特徴量の算出に用いられた画像と関連付けて追跡データベース120に格納されるとともに、類似度算出部150へ出力される。
重要度算出部140は、画像取得部110によってRGB映像203とIR映像204からそれぞれ取得されたRGB画像およびIR画像から、それぞれの画像に含まれる対象物がどの程度重要であるかを表す重要度を算出する。重要度算出部140により算出された重要度は、その重要度の算出に用いられた画像と関連付けて追跡データベース120に格納されるとともに、類似度算出部150へ出力される。
類似度算出部150は、特徴量算出部130と重要度算出部140によりRGB画像とIR画像からそれぞれ算出された特徴量および重要度に基づいて、RGB映像203およびIR映像204における対象物の類似度合いを表す類似度を算出する。類似度算出部150は、RGB映像203とIR映像204において同時刻に撮影されたフレームからそれぞれ抽出されたRGB画像とIR画像をペアとして、時系列で連続する2つのペアの特徴量と重要度に基づいて類似度の算出を行う。なお、類似度算出部150による類似度の算出方法の詳細については後述する。
同一性判定部160は、類似度算出部150により算出された類似度に基づいて、RGB映像203における対象物と、IR映像204における対象物とが、同一であるか否かを判定する。同一性判定部160は、類似度算出部150により類似度がそれぞれ算出された時系列で連続する2つのRGB画像とIR画像のペアについて、これらの画像における対象物の同一性を表す同一性スコアを算出し、この同一性スコアの値に基づいて、RGB映像203の各対象物とIR映像204の各対象物とがそれぞれ同一であるか否かを判定する。そして、同一であると判定した対象物をRGB映像203およびIR映像204内でそれぞれ追跡することにより、対象物の行動を監視する。同一性判定部160による対象物の追跡結果は、RGB映像203およびIR映像204と関連付けて追跡データベース120に格納される。
画像選択部170は、入力装置300を介して入力されたユーザの指示に応じて、追跡データベース120に格納された各対象物のRGB画像とIR画像のうち、指定された対象物のRGB画像とIR画像を、RGB映像203およびIR映像204における当該対象物の追跡画像として取得する。そして、取得した各画像について、時刻ごとにRGB画像またはIR画像のいずれかを選択し、その選択結果を表示制御部180へ出力する。このとき画像選択部170は、重要度算出部140により算出された各画像の重要度に基づいて、RGB画像またはIR画像のどちらを選択するかを決定することができる。
表示制御部180は、画像選択部170によるRGB画像またはIR画像の選択結果を時系列順に並べて、表示装置400に表示させる。ユーザは、表示装置400に表示された画面を確認することで、RGB映像203またはIR映像204内に映っている対象物の画像を時系列順に確認し、対象物の行動を把握することができる。
入力装置300は、例えばキーボード、マウス、タッチパネル等により構成され、ユーザの操作を検出してその操作内容を対象物解析装置100に送信する。表示装置400は、例えば液晶ディスプレイ等により構成され、表示制御部180の制御に応じて様々な画面表示を行うことにより、ユーザへの情報提供を行う。なお、通信ネットワークを介して対象物解析装置100と接続されたコンピュータを、入力装置300や表示装置400として利用してもよい。
次に、画像取得部110、特徴量算出部130、重要度算出部140、類似度算出部150、同一性判定部160および画像選択部170の詳細について、図2~図9を参照して以下に説明する。
図2は、画像取得部110の詳細を示す図である。図2に示すように、画像取得部110は、対象物検出部111、対応付け部112を備える。
対象物検出部111は、撮影装置200から入力されたRGB映像203およびIR映像204を構成する各画像から人物等の対象物を検出し、その対象物の周囲の画像部分を抽出することで、前述のRGB画像およびIR画像をそれぞれ取得する。
対応付け部112は、対象物検出部111により取得されたRGB画像とIR画像において、同一の対象物を表すと想定されるものを相互に対応付ける。ここでは、例えばRGB映像203とIR映像204において同時刻の画像からそれぞれ抽出されたRGB画像とIR画像のうち、互いの位置関係から同一の位置に存在すると考えられるRGB画像とIR画像の組み合わせを、所定のホモグラフィ行列を用いた透視変換を行うことにより特定することで、RGB画像とIR画像の対応付けを行うことができる。図2の例では、RGB映像203から抽出されたRGB画像203a~203fと、IR映像204から抽出されたIR画像204a~204fとが、対応付け部112によってそれぞれ対応付けられた様子を示している。なお、図2の例において、RGB画像203gに対応するIR画像はIR映像204内に存在せず、そのためRGB画像203gにはIR画像が対応付けられていない。
対応付け部112によるRGB画像とIR画像の対応付け結果は、当該RGB画像およびIR画像とともに、画像取得部110から出力されて追跡データベース120に格納される。
図3は、特徴量算出部130の詳細を示す図である。図3に示すように、特徴量算出部130は、イントラモダリティ特徴量算出部131、クロスモダリティ特徴量算出部132を備える。なお、図3ではイントラモダリティ特徴量算出部131とクロスモダリティ特徴量算出部132の動作をRGB画像とIR画像についてそれぞれ説明するために、これらのブロックを2つずつ図示しているが、実際には特徴量算出部130がイントラモダリティ特徴量算出部131とクロスモダリティ特徴量算出部132を1つずつ有していてもよいし、RGB画像とIR画像に対してそれぞれ有していてもよい。
イントラモダリティ特徴量算出部131は、RGB画像とIR画像のそれぞれに対して、同種の画像間における類似度を求めるための特徴量を算出する。イントラモダリティ特徴量算出部131は、例えば、RGB画像に対して特徴量fRGB(DRGB)を算出し、IR画像に対して特徴量fIR(DIR)を算出する。
クロスモダリティ特徴量算出部132は、RGB画像とIR画像のそれぞれに対して、異種の画像間における類似度を求めるための特徴量を算出する。クロスモダリティ特徴量算出部132は、例えば、RGB画像に対して特徴量fCM(DRGB)を算出し、IR画像に対して特徴量fCM(DIR)を算出する。
イントラモダリティ特徴量算出部131およびクロスモダリティ特徴量算出部132によりRGB画像とIR画像についてそれぞれ算出された特徴量fRGB(DRGB)、fCM(DRGB)、fIR(DIR)およびfCM(DIR)は、当該RGB画像およびIR画像と対応付けて追跡データベース120に格納される。
なお、イントラモダリティ特徴量算出部131およびクロスモダリティ特徴量算出部132は、例えば学習済みのニューラルネットワークを用いた人工知能(AI:Artificial Intelligence)によりそれぞれ実現することができる。
図4は、重要度算出部140の詳細を示す図である。図4に示すように、重要度算出部140は、RGB画像用重要度算出部141、IR画像用重要度算出部142を備える。
RGB画像用重要度算出部141は、RGB画像に対して0から1の間のスコア値で表される重要度ISRGBRを算出する。IR画像用重要度算出部142は、IR画像に対して0から1の間のスコア値で表される重要度ISIRを算出する。重要度ISRGB、ISIRは、類似度算出部150が類似度を正確に算出するために必要な情報を、RGB画像とIR画像がそれぞれどの程度含んでいるかを表す情報である。
RGB画像用重要度算出部141およびIR画像用重要度算出部142によりRGB画像とIR画像についてそれぞれ算出された重要度ISRGBおよびISIRは、当該RGB画像およびIR画像と対応付けて追跡データベース120に格納される。
なお、RGB画像用重要度算出部141およびIR画像用重要度算出部142は、例えば学習済みのニューラルネットワークを用いた人工知能(AI)によりそれぞれ実現することができる。
図5は、類似度算出部150の詳細を示す図である。図5では、RGB映像203とIR映像204において連続する時刻t1、t2(t1<t2)にそれぞれ撮影されたフレームからそれぞれ抽出されたRGB画像とIR画像の各ペアについて、特徴量算出部130と重要度算出部140が特徴量と重要度をそれぞれ算出した場合の例を示している。
図5において、特徴量fRGB(D1 RGB)、fCM(D1 RGB)、fIR(D1 IR)およびfCM(D1 IR)は、時刻t1のフレームから抽出されたRGB画像とIR画像に対して、特徴量算出部130がイントラモダリティ特徴量算出部131とクロスモダリティ特徴量算出部132によりそれぞれ算出した特徴量を表している。同様に、特徴量fRGB(D2 RGB)、fCM(D2 RGB)、fIR(D2 IR)およびfCM(D2 IR)は、時刻t2のフレームから抽出されたRGB画像とIR画像に対して、特徴量算出部130がイントラモダリティ特徴量算出部131とクロスモダリティ特徴量算出部132によりそれぞれ算出した特徴量を表している。
また、重要度IS1 RGBおよびIS1 IRは、時刻t1のフレームから抽出されたRGB画像とIR画像に対して、重要度算出部140がRGB画像用重要度算出部141とIR画像用重要度算出部142によりそれぞれ算出した重要度を表している。同様に、重要度IS2 RGBおよびIS2 IRは、時刻t2のフレームから抽出されたRGB画像とIR画像に対して、重要度算出部140がRGB画像用重要度算出部141とIR画像用重要度算出部142によりそれぞれ算出した重要度を表している。
図5に示すように、類似度算出部150は、マッチングスコア算出部151、重み付け乗算部153a~153d、合計部154を備える。
マッチングスコア算出部151は、特徴量算出部130により算出された上記の各特徴量に基づいて、RGB-RGBマッチングスコア152a、RGB-IRマッチングスコア152b、IR-RGBマッチングスコア152cおよびIR-IRマッチングスコア152dを算出する。RGB-RGBマッチングスコア152aは、時刻t1のRGB画像と時刻t2のRGB画像の間の類似度を表すものであり、RGB-IRマッチングスコア152bは、時刻t1のRGB画像と時刻t2のIR画像の間の類似度を表すものである。また、IR-RGBマッチングスコア152cは、時刻t1のIR画像と時刻t2のRGB画像の間の類似度を表すものであり、IR-IRマッチングスコア152dは、時刻t1のIR画像と時刻t2のIR画像の間の類似度を表すものである。なお、マッチングスコア算出部151の詳細については、後で図6を参照して説明する。
重み付け乗算部153aは、RGB-RGBマッチングスコア152aに対して、時刻t1のRGB画像と時刻t2のRGB画像について重要度算出部140によりそれぞれ算出された重要度IS1 RGBおよびIS2 RGBを乗算し、これらの重要度に応じた重み付けを行う。重み付け乗算部153bは、RGB-IRマッチングスコア152bに対して、時刻t1のRGB画像と時刻t2のIR画像について重要度算出部140によりそれぞれ算出された重要度IS1 RGBおよびIS2 IRを乗算し、これらの重要度に応じた重み付けを行う。重み付け乗算部153cは、IR-RGBマッチングスコア152cに対して、時刻t1のIR画像と時刻t2のRGB画像について重要度算出部140によりそれぞれ算出された重要度IS1 IRおよびIS2 RGBを乗算し、これらの重要度に応じた重み付けを行う。重み付け乗算部153dは、IR-IRマッチングスコア152dに対して、時刻t1のIR画像と時刻t2のIR画像について重要度算出部140によりそれぞれ算出された重要度IS1 IRおよびIS2 IRを乗算し、これらの重要度に応じた重み付けを行う。
合計部154は、重み付け乗算部153a~153dによりそれぞれ重み付けされた各マッチングスコア152a~152dを合計することで、マルチモダリティマッチングスコア(以下「MMMS」と称する)155を算出する。すなわち、合計部154により算出されるMMMS155は、前述の特徴量fRGB(D1 RGB)、fCM(D1 RGB)、fIR(D1 IR)、fCM(D1 IR)、fRGB(D2 RGB)、fCM(D2 RGB)、fIR(D2 IR)およびfCM(D2 IR)と、重要度IS1 RGB、IS1 IR、IS2 RGBおよびIS2 IRとを用いて、以下の式(1)により表すことができる。
MMMS = (IS1 RGB * IS2 RGB)
* MF(fRGB(D1 RGB),fRGB(D2 RGB))
+ (IS1 RGB * IS2 IR) * MF(fCM(D1 RGB),fCM(D2 IR))
+ (IS1 IR * IS2 RGB) * MF(fCM(D1 IR),fCM(D2 RGB))
+ (IS1 IR * IS2 IR) * MF(fIR(D1 IR),fIR(D2 IR)) ・・・(1)
なお、式(1)の右辺において、MF(fRGB(D1 RGB),fRGB(D2 RGB))はRGB-RGBマッチングスコア152aを、MF(fCM(D1 RGB),fCM(D2 IR))はRGB-IRマッチングスコア152bを、MF(fCM(D1 IR),fCM(D2 RGB))はIR-RGBマッチングスコア152cを、MF(fIR(D1 IR),fIR(D2 IR))はIR-IRマッチングスコア152dをそれぞれ表している。すなわち、式(1)の右辺において、第1項は重要度IS1 RGBおよびIS2 RGBによる重み付け後のRGB-RGBマッチングスコア152aを、第2項は重要度IS1 RGBおよびIS2 IRによる重み付け後のRGB-IRマッチングスコア152bを、第3項は重要度IS1 IRおよびIS2 RGBによる重み付け後のIR-RGBマッチングスコア152cを、第4項は重要度IS1 IRおよびIS2 IRによる重み付け後のIR-IRマッチングスコア152dをそれぞれ表している。
類似度算出部150では、以上説明したようにして、時刻t1およびt2のRGB画像とIR画像の各組み合わせに対する対象物間の類似度をそれぞれ表すマッチングスコア152a~152dを算出し、これらのマッチングスコア152a~152dに基づいて、時刻t1およびt2におけるRGB画像とIR画像の間での対象物の類似度を表すMMMS155を算出することができる。
図6は、マッチングスコア算出部151の詳細を示す図である。図6に示すように、マッチングスコア算出部151は、RGB-RGBマッチングスコア算出部151a、RGB-IRマッチングスコア算出部151b、IR-RGBマッチングスコア算出部151c、IR-IRマッチングスコア算出部151dを備える。
なお、図6において、特徴量算出部130は、RGB映像203およびIR映像204の時刻t1のフレームからそれぞれ抽出されたRGB画像101とIR画像102に対して、RGB画像101における対象物の特徴量fRGB(D1 RGB)およびfCM(D1 RGB)と、IR画像102における対象物の特徴量fIR(D1 IR)およびfCM(D1 IR)とをそれぞれ算出し、時刻t2のフレームからそれぞれ抽出されたRGB画像103とIR画像104に対して、RGB画像103における対象物の特徴量fRGB(D2 RGB)およびfCM(D2 RGB)と、IR画像104における対象物の特徴量fIR(D2 IR)およびfCM(D2 IR)とをそれぞれ算出するものとする。
RGB-RGBマッチングスコア算出部151aには、上記の各特徴量のうち、RGB画像101の特徴量fRGB(D1 RGB)と、RGB画像103の特徴量fRGB(D2 RGB)とが入力される。RGB-RGBマッチングスコア算出部151aは、これらの特徴量に基づいて、RGB-RGBマッチングスコア152aを算出する。
RGB-IRマッチングスコア算出部151bには、上記の各特徴量のうち、RGB画像101の特徴量fCM(D1 RGB)と、IR画像104の特徴量fCM(D2 IR)とが入力される。RGB-IRマッチングスコア算出部151bは、これらの特徴量に基づいて、RGB-IRマッチングスコア152bを算出する。
IR-RGBマッチングスコア算出部151cには、上記の各特徴量のうち、IR画像102の特徴量fCM(D1 IR)と、RGB画像103の特徴量fCM(D2 RGB)とが入力される。IR-RGBマッチングスコア算出部151cは、これらの特徴量に基づいて、IR-RGBマッチングスコア152cを算出する。
IR-IRマッチングスコア算出部151dには、上記の各特徴量のうち、IR画像102の特徴量fIR(D1 IR)と、IR画像104の特徴量fIR(D2 IR)とが入力される。IR-IRマッチングスコア算出部151dは、これらの特徴量に基づいて、IR-IRマッチングスコア152dを算出する。
なお、上記の各マッチングスコア算出部151a~151dは、例えばカイ二乗分布、ユークリッド距離、コサイン距離メトリクス等の周知の演算手法を用いて、2つの特徴量の組み合わせ間での類似度合いを判定し、その判定結果に応じたマッチングスコアを算出することができる。
図7は、画像取得部110、特徴量算出部130、重要度算出部140、類似度算出部150および同一性判定部160による対象物追跡の一連の処理の流れを示すフローチャートである。本実施形態の対象物解析装置100では、図7のフローチャートに示す処理が所定時間ごとに実行されることで、撮影装置200により取得された映像内で対象物が追跡され、対象物の行動監視が行われる。
ステップS101では、画像取得部110により、撮影装置200のRGBカメラ201とIRカメラ202から、時系列順に並んだ複数の画像により構成されるRGB映像203とIR映像204をそれぞれ取得する。そして、取得したRGB映像203およびIR映像204において、対象物をそれぞれ検出する。
ステップS102では、画像取得部110により、ステップS101でRGB映像203およびIR映像204からそれぞれ検出した対象物のうち、同一の対象物同士を互いに対応付ける。
ステップS103では、ステップS101においてRGB映像203とIR映像204の両方から対象物を検出できたか否かを判定する。これら両方の映像から対象物を検出できた場合はステップS104へ進み、いずれか一方のみから対象物を検出できた場合はステップS105へ進む。なお、RGB映像203とIR映像204の両方から対象物を検出できなかった場合は、ステップS104以降の処理を実施せず、図7のフローチャートに示す処理を終了してもよい。
ステップS104では、画像取得部110により、ステップS101で検出した対象物に対して、RGB映像203とIR映像204から当該対象物に対応するRGB画像とIR画像のペアをそれぞれ抽出する。
ステップS105では、画像取得部110により、ステップS101で検出した対象物に対して、RGB映像203またはIR映像204の一方から当該対象物に対応するRGB画像またはIR画像を抽出する。
ステップS106では、ステップS104またはS105で画像取得部110により抽出されたRGB画像とIR画像のペア、またはこれらの画像のいずれか一方を、追跡データベース120に格納する。
ステップS107では、特徴量算出部130と重要度算出部140により、ステップS104またはS105で画像取得部110により抽出されたRGB画像とIR画像のペア、またはこれらの画像のいずれか一方に対して、特徴量と重要度をそれぞれ算出する。
ステップS108では、ステップS107で特徴量算出部130と重要度算出部140によりそれぞれ算出された特徴量と重要度を、これらが算出されたRGB画像またはIR画像とそれぞれ関連付けて、追跡データベース120に格納する。
ステップS109では、類似度算出部150によるMMMS算出処理を実施し、前述のMMMS155を算出する。ここでは、時系列で連続する2つのRGB画像とIR画像のペア、すなわち前述の時刻t1におけるRGB画像とIR画像のペアと、次の時刻t2におけるRGB画像とIR画像のペアとを追跡データベース120においてそれぞれ特定し、これらの各ペアに対する特徴量と重要度を追跡データベース120からそれぞれ読み込む。そして、これらの組み合わせに基づいてMMMS155を算出する。なお、ステップS109で実施されるMMMS算出処理の詳細については、図8のフローチャートを参照して後述する。
ステップS110では、ステップS109のMMMS算出処理によって算出されたMMMS155の値を、その算出に用いられた時刻t1、t2のRGB画像とIR画像の各ペアと関連付けて、追跡データベース120に格納する。
ステップS111では、同一性判定部160により、ステップS109のMMMS算出処理により算出されたMMMS155の値に基づく対象物の追跡を実施する。ここでは、例えばMMMS155の値に基づいて、時刻t1のRGB画像およびIR画像における対象物と、時刻t2のRGB画像およびIR画像における対象物とが、互いに同一のものであるか否かを判定する。その結果、同一の対象物であると判定した場合は、時刻t1から時刻t2までの期間において、RGB映像203およびIR映像204内で当該対象物を追跡する。
ステップS112では、ステップS111において対象物を追跡できたか否かを判定する。時刻t1、t2で対象物が同一と判定され、当該対象物をRGB映像203およびIR映像204内で追跡できた場合はステップS113へ進み、追跡できなかった場合はステップS114へ進む。
ステップS113では、同一性判定部160により、ステップS111の追跡結果をこれまでに得られた対象物の追跡結果に加えることで、対象物の追跡結果を最新の内容に更新する。
ステップS114では、同一性判定部160により、ステップS111で追跡した対象物を新規の対象物として、その追跡を開始する。
ステップS115では、ステップS113またはS114の処理内容を追跡データベース120に反映し、追跡データベース120を更新する。ステップS115の処理を実施したら、図7のフローチャートに示す処理を終了する。
図8は、MMMS算出処理の詳細を示すフローチャートである。
ステップS201では、類似度算出部150により、別時刻でのRGB画像とIR画像のペア、すなわち時刻t1におけるRGB画像とIR画像のペアと、次の時刻t2におけるRGB画像とIR画像のペアとを、追跡データベース120においてそれぞれ特定し、これらの各ペアに対する特徴量と重要度を追跡データベース120から取得する。
ステップS202では、類似度算出部150により、ステップS201で取得したRGB画像とIR画像のそれぞれについて、特徴量算出部130により算出された対象物の特徴量を取得する。具体的には、時刻t1のRGB画像に対する特徴量fRGB(D1 RGB)およびfCM(D1 RGB)と、時刻t1のIR画像に対する特徴量fIR(D1 IR)およびfCM(D1 IR)と、時刻t2のRGB画像に対する特徴量fRGB(D2 RGB)およびfCM(D2 RGB)と、時刻t2のIR画像に対する特徴量fIR(D2 IR)およびfCM(D2 IR)とを取得する。
ステップS203では、類似度算出部150により、ステップS202で取得した8種類の特徴量に基づいて、各画像間での対象物の類似度を表す4種類のマッチングスコアを算出する。具体的には、上記の各特徴量に基づき、類似度算出部150のマッチングスコア算出部151を用いて、図6で説明した特徴量の組み合わせにより、RGB-RGBマッチングスコア152a、RGB-IRマッチングスコア152b、IR-RGBマッチングスコア152cおよびIR-IRマッチングスコア152dを算出する。
ステップS204では、ステップS202,S203と並行して、類似度算出部150により、ステップS201で取得したRGB画像とIR画像のそれぞれについて、重要度算出部140により算出された対象物の重要度を取得する。具体的には、時刻t1のRGB画像に対する重要度IS1 RGBと、時刻t1のIR画像に対する重要度IS1 IRと、時刻t2のRGB画像に対する重要度IS2 RGBと、時刻t2のIR画像に対する重要度IS2 IRとを取得する。
ステップS205では、類似度算出部150により、ステップS203で算出した各マッチングスコアを、ステップS204で取得した重要度に応じて重み付けし、MMMSを算出する。具体的には、類似度算出部150の重み付け乗算部153a~153dおよび合計部154を用いて、前述の式(1)により、時刻t1およびt2におけるRGB画像とIR画像の間での対象物の類似度を表すMMMS155を算出する。
ステップS205でMMMSを算出できたら、図8のフローチャートに示す処理を終了し、図7のステップS109からステップS110へ進む。
図9は、画像選択部170の詳細を示す図である。図9では、画像選択部170がユーザの指示に応じて追跡データベース120に格納された画像を選択し、表示制御部180を介して表示装置400に表示するときのユーザインタフェースの一例を示している。このとき表示装置400には、例えば図9に示すように、表示対象指定ウィンドウ401、画像表示ウィンドウ402、条件設定ウィンドウ403を含む画面が表示される。
ユーザは、予め人物ごとに設定されたID番号のいずれかを表示対象指定ウィンドウ401において選択することで、RGB映像203およびIR映像204の少なくとも一方に映っている人物(対象物)のいずれかを表示対象に指定することができる。こうして表示対象とする人物(対象物)がユーザに指定されると、画像選択部170は、当該人物の追跡画像として、当該人物の追跡に使用されたRGB画像とIR画像を追跡データベース120から取得する。図9の例では、RGB画像902a~902eを含む一連のRGB画像群902と、IR画像903a~903eを含む一連のIR画像群903とが、追跡画像901として取得された例を示している。
追跡データベース120から追跡画像901を取得すると、画像選択部170は、条件設定ウィンドウ403においてユーザに設定された条件に従って、追跡画像901からRGB画像またはIR画像のいずれかを時刻ごとに選択する。例えば図9の例では、条件設定ウィンドウ403において「重要度が高い画像」のチェックボックスが選択されることにより、RGB画像とIR画像のペアのうち、重要度が高い方の画像を選択するように条件が設定されている。そのため、画像選択部170は、各時刻のRGB画像とIR画像のペアのうち、重要度がより高い方の画像を選択する。
ここで、RGB画像902a~902eのうち、RGB画像902b、902cは全体的に暗く、そのためこれらの画像に対して重要度算出部140により算出された重要度の値が、ペアとなるIR画像903b、903cよりも低いとする。この場合、RGB画像902a、902dおよび902eと、IR画像903b、903cとがそれぞれ選択される。
上記のようにしてRGB画像またはIR画像のいずれかを時刻ごとに選択したら、画像選択部170は、選択した各画像を表示制御部180を介して表示装置400に送信する。表示装置400では、送信された各画像が画像表示ウィンドウ402内に表示されてユーザに提示される。
なお、上記ではRGB画像とIR画像のペアのうち、重要度が高い方の画像を画像選択部170が選択する場合の例を説明したが、他の条件に応じた画像を選択することもできる。例えば、RGB画像とIR画像の両方を時刻ごとに選択してもよいし、RGB画像とIR画像のうち指定された一方を時刻ごとに選択してもよい。これ以外にも、画像選択部170は、ユーザに指定された任意の条件に従って、追跡画像に含まれるRGB画像とIR画像の各ペアのうち少なくとも一方を時刻ごとに選択し、表示装置400に表示させることができる。
次に、特徴量算出部130および重要度算出部140におけるニューラルネットワークの学習について、図10および図11を参照して以下に説明する。
図10は、学習データ生成処理の流れを示すフローチャートである。図10のフローチャートに示す処理は、例えば不図示の学習データ生成装置において、ユーザに指示されたタイミングで、または一定時間ごとに実施される。
ステップS301では、撮影装置200のRGBカメラ201とIRカメラ202から、時系列順に並んだ複数の画像により構成されるRGB映像203とIR映像204をそれぞれ取得する。なお、RGBカメラ201およびIRカメラ202ではなく、これらと同等の機能を有するカメラにより撮影された映像を、RGB映像203およびIR映像204として取得してもよい。
ステップS302では、ステップS301で取得したRGB映像203およびIR映像204において、対象物をそれぞれ検出する。
ステップS303では、ステップS302においてRGB映像203とIR映像204の両方から対象物を検出できたか否かを判定する。これら両方の映像から対象物を検出できた場合はステップS304へ進み、少なくともいずれか一方から対象物を検出できなかった場合は図10のフローチャートに示す学習データ生成処理を終了する。
ステップS304では、ステップS302で検出した対象物に対して、RGB映像203とIR映像204から当該対象物に対応するRGB画像とIR画像のペアを時刻ごとにそれぞれ抽出する。
ステップS305では、ステップS304で抽出したRGB画像とIR画像の各ペアに対して、ステップS02で検出した対象物のラベル付けを行う。ここでは、例えば対象物が人物である場合に、当該人物のID番号をRGB画像とIR画像の各ペアに対してそれぞれラベル付けする。なお、このラベル付けの処理は人間の判断により行ってもよいし、学習用データ生成装置が所定のアルゴリズムで自動的に行ってもよい。
ステップS306では、ステップS305でラベル付けを行ったRGB画像とIR画像の各ペアの情報を、学習データとして学習データベース500に格納する。学習データベース500は、学習データ生成装置または他の装置が有する学習データのデータベースであり、例えばHDDやSSD等の記憶装置を用いて実現される。ステップS306の処理を実施したら、図10のフローチャートに示す処理を終了する。
本実施形態では、以上説明した処理により学習データが生成され、学習データベース500に格納される。図10では、学習データベース500に格納される学習データの例として、RGB画像とIR画像のペア501a~501fを示している。これらの画像ペア501a~501fには、ステップS305で行われたラベル付けの例として、#1~#5のID番号のいずれかがそれぞれ付されている。
図11は、図10の処理によって学習データベース500に格納された学習データを用いて、重要度算出部140の学習を行う学習装置の構成の一例を示す図である。
図11に示す学習装置600は、学習データ取得部601、重み付けマッチングスコア算出部603、損失算出部605、ネットワークパラメータ算出部606を備える。
学習データ取得部601は、学習データベース500から、基準ペア602a、正解ペア602bおよび不正解ペア602cの3種類の学習データを取得する。基準ペア602aと正解ペア602bは、学習データベース500に格納された学習データのうち、同一の対象物を示すラベルが付されたRGB画像とIR画像のペアであり、不正解ペア602cは、学習データベース500に格納された学習データのうち、同一の対象物ではないことを示すラベルが付されたRGB画像とIR画像のペアである。これらの学習データは、重要度算出部140と重み付けマッチングスコア算出部603にそれぞれ入力される。なお、図11では基準ペア602a、正解ペア602bおよび不正解ペア602cのそれぞれについて重要度算出部140と重み付けマッチングスコア算出部603の動作を説明するために、重要度算出部140を3つ、重み付けマッチングスコア算出部603を2つ図示しているが、実際にはこれらはそれぞれ同一のものである。
重要度算出部140は、図4で説明したように、RGB画像用重要度算出部141、IR画像用重要度算出部142としてそれぞれ機能するである2つのニューラルネットワークを有しており、これらのニューラルネットワークを用いて、基準ペア602a、正解ペア602bおよび不正解ペア602cに対する重要度をそれぞれ算出する。
重み付けマッチングスコア算出部603は、基準ペア602aと正解ペア602bの組み合わせに対して、重要度算出部140により算出された重要度に基づき、これらの学習データ間の類似度合いを重要度に応じて重み付けした基準-正解マッチングスコア604aを算出する。同様に、重み付けマッチングスコア算出部603は、基準ペア602aと不正解ペア602cの組み合わせに対して、重要度算出部140により算出された重要度に基づき、これらの学習データ間の類似度合いを重要度に応じて重み付けした基準-不正解マッチングスコア604bを算出する。
損失算出部605は、重み付けマッチングスコア算出部603により算出された基準-正解マッチングスコア604aおよび基準-不正解マッチングスコア604bに基づいて、重要度算出部140の各ニューラルネットワークにおける損失を算出する。具体的には、例えば以下の式(2)により、ニューラルネットワークの損失値Lossを算出することができる。
Figure 2023172759000002
式(2)において、Ai、Pi、Niはそれぞれi番目の学習データにおける基準ペア602a、正解ペア602bおよび不正解ペア602cを表す。また、MMMMS(Ai, Pi)はAiとPiの組み合わせに対する基準-正解マッチングスコア604aを表し、MMMMS(Ai, Ni)はAiとNiの組み合わせに対する基準-不正解マッチングスコア604bを表す。
ネットワークパラメータ算出部606は、損失算出部605により算出された損失に基づいて、重要度算出部140の各ニューラルネットワークのパラメータを算出する。そして、算出したパラメータを各ニューラルネットワークに反映し、重要度算出部140の学習を実施する。
なお、図11では重要度算出部140の学習を行う学習装置の例を説明したが、特徴量算出部130についても、同様の手法による学習を行うことができる。
以上説明した本発明の一実施形態によれば、以下の作用効果を奏する。
(1)対象物解析装置100は、画像取得部110と、特徴量算出部130と、重要度算出部140と、類似度算出部150と、同一性判定部160とを備える。画像取得部110は、可視光を撮影可能なRGBカメラ201により撮影されたRGB映像203に含まれる対象物の画像であるRGB画像(可視光画像)を取得するとともに、不可視光を撮影可能なIRカメラ202により撮影されたIR映像204に含まれ、RGB画像と同時刻における対象物の画像であるIR画像(不可視光画像)を取得する。特徴量算出部130は、RGB画像から対象物の特徴量を表す第1の特徴量を算出し、IR画像から対象物の特徴量を表す第2の特徴量を算出する。重要度算出部140は、RGB画像における対象物の重要度を表す第1の重要度と、IR画像における対象物の重要度を表す第2の重要度とを算出する。類似度算出部150は、第1の特徴量、第2の特徴量、第1の重要度および第2の重要度に基づいて、RGB映像203およびIR映像204における対象物の類似度を算出する。同一性判定部160は、類似度算出部150により算出された類似度に基づいて、RGB映像203における対象物と、IR映像204における対象物とが、同一であるか否かを判定する。このようにしたので、RGB映像203とIR映像204からそれぞれ取得された対象物の画像であるRGB画像およびIR画像の画質に応じて、第1の重要度および第2の重要度を算出し、これらを用いて第1の特徴量および第2の特徴量を重み付けして、対象物の類似度を算出することができる。そして、算出された類似度に基づいて、RGB映像203における対象物とIR映像204における対象物とが同一であるか否かを判定することができる。したがって、撮影環境が時々刻々と変化する対象物の識別精度を十分に維持することができる。
(2)画像取得部110は、時刻t1におけるRGB画像およびIR画像と、時刻t1とは異なる時刻t2におけるRGB画像およびIR画像とを取得する。特徴量算出部130は、時刻t1におけるRGB画像およびIR画像での対象物の特徴量fRGB(D1 RGB)、fCM(D1 RGB)、fIR(D1 IR)およびfCM(D1 IR)と、時刻t2におけるRGB画像およびIR画像での対象物の特徴量fRGB(D2 RGB)、fCM(D2 RGB)、fIR(D2 IR)およびfCM(D2 IR)とを算出する。重要度算出部140は、時刻t1におけるRGB画像およびIR画像での対象物の重要度IS1 RGBおよびIS1 IRと、時刻t2におけるRGB画像およびIR画像での対象物の重要度IS2 RGBおよびIS2 IRとを算出する。類似度算出部150は、(a)時刻t1における特徴量fRGB(D1 RGB)と、時刻t2における特徴量fRGB(D2 RGB)と、時刻t1における重要度IS1 RGBと、時刻t2における重要度IS2 RGBとに基づいて、時刻t1のRGB画像における対象物と、時刻t2のRBG画像における対象物との類似度を表す第1の類似度(重み付け後のRGB-RGBマッチングスコア152a)を算出し、(b)時刻t1における特徴量fCM(D1 RGB)と、時刻t2における特徴量fCM(D2 IR)と、時刻t1における重要度IS1 RGBと、時刻t2における重要度IS2 IRとに基づいて、時刻t1のRGB画像における対象物と、時刻t2のIR画像における対象物との類似度を表す第2の類似度(重み付け後のRGB-IRマッチングスコア152b)を算出し、(c)時刻t1における特徴量fCM(D1 IR)と、時刻t2における特徴量fCM(D2 RGB)と、時刻t1における重要度IS1 IRと、時刻t2における重要度IS2 RGBとに基づいて、時刻t1のIR画像における対象物と、時刻t2のRGB画像における対象物との類似度を表す第3の類似度(重み付け後のIR-RGBマッチングスコア152c)を算出し、(d)時刻t1における特徴量fIR(D1 IR)と、時刻t2における特徴量fIR(D2 IR)と、時刻t1における重要度IS1 IRと、時刻t2における重要度IS2 IRとに基づいて、時刻t1のIR画像における対象物と、時刻t2のIR画像における対象物との類似度を表す第4の類似度(重み付け後のIR-IRマッチングスコア152d)を算出し、(d)これらの類似度に基づいて、時刻t1および時刻t2でのRGB映像203とIR映像204における対象物の類似度を表すMMMS155を算出する。このようにしたので、撮影環境が時々刻々と変化する場合でも、別々の時間におけるRGB映像203とIR映像204の間での対象物の類似度を正確に算出することができる。
(3)対象物解析装置100は、第1の重要度および第2の重要度に基づいて、対象物について時刻ごとにRGB画像またはIR画像のいずれかを選択する画像選択部170と、画像選択部170による各時刻でのRGB画像またはIR画像の選択結果を、時系列順に並べて表示装置400に表示させる表示制御部180とを備える。このようにしたので、RGB画像またはIR画像の一方が暗くて見づらい場合でも、対象物の追跡結果をユーザに分かりやすく提示することができる。
なお、本発明は上記実施形態に限定されるものではなく、その要旨を逸脱しない範囲内で、任意の構成要素を用いて実施可能である。以上説明した実施形態や変形例はあくまで一例であり、発明の特徴が損なわれない限り、本発明はこれらの内容に限定されるものではない。また、上記では種々の実施形態や変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
100…対象物解析装置、110…画像取得部、120…追跡データベース、130…特徴量算出部、140…重要度算出部、150…類似度算出部、160…同一性判定部、170…画像選択部、180…表示制御部、200…撮影装置、201…RGBカメラ、202…IRカメラ、203…RGB映像、204…IR映像、300…入力装置、400…表示装置

Claims (5)

  1. 可視光を撮影可能な第1のカメラにより撮影された可視光映像に含まれる対象物の画像である可視光画像を取得するとともに、不可視光を撮影可能な第2のカメラにより撮影された不可視光映像に含まれ、前記可視光画像と同時刻における前記対象物の画像である不可視光画像を取得する画像取得部と、
    前記可視光画像から前記対象物の特徴量を表す第1の特徴量を算出し、前記不可視光画像から前記対象物の特徴量を表す第2の特徴量を算出する特徴量算出部と、
    前記可視光画像における前記対象物の重要度を表す第1の重要度と、前記不可視光画像における前記対象物の重要度を表す第2の重要度とを算出する重要度算出部と、
    前記第1の特徴量、前記第2の特徴量、前記第1の重要度および前記第2の重要度に基づいて、前記可視光映像および前記不可視光映像における前記対象物の類似度を算出する類似度算出部と、
    前記類似度に基づいて、前記可視光映像における前記対象物と、前記不可視光映像における前記対象物とが、同一であるか否かを判定する同一性判定部と、
    を備える対象物解析装置。
  2. 請求項1に記載の対象物解析装置において、
    前記画像取得部は、第1の時刻における前記可視光画像および前記不可視光画像と、前記第1の時刻とは異なる第2の時刻における前記可視光画像および前記不可視光画像とを取得し、
    前記特徴量算出部は、前記第1の時刻における前記第1の特徴量および前記第2の特徴量と、前記第2の時刻における前記第1の特徴量および前記第2の特徴量とを算出し、
    前記重要度算出部は、前記第1の時刻における前記第1の重要度および前記第2の重要度と、前記第2の時刻における前記第1の重要度および前記第2の重要度とを算出し、
    前記類似度算出部は、
    前記第1の時刻における前記第1の特徴量と、前記第2の時刻における前記第1の特徴量と、前記第1の時刻における前記第1の重要度と、前記第2の時刻における前記第1の重要度とに基づいて、前記第1の時刻の前記可視光画像における前記対象物と、前記第2の時刻の前記可視光画像における前記対象物との類似度を表す第1の類似度を算出し、
    前記第1の時刻における前記第1の特徴量と、前記第2の時刻における前記第2の特徴量と、前記第1の時刻における前記第1の重要度と、前記第2の時刻における前記第2の重要度とに基づいて、前記第1の時刻の前記可視光画像における前記対象物と、前記第2の時刻の前記不可視光画像における前記対象物との類似度を表す第2の類似度を算出し、
    前記第1の時刻における前記第2の特徴量と、前記第2の時刻における前記第1の特徴量と、前記第1の時刻における前記第2の重要度と、前記第2の時刻における前記第1の重要度とに基づいて、前記第1の時刻の前記不可視光画像における前記対象物と、前記第2の時刻の前記可視光画像における前記対象物との類似度を表す第3の類似度を算出し、
    前記第1の時刻における前記第2の特徴量と、前記第2の時刻における前記第2の特徴量と、前記第1の時刻における前記第2の重要度と、前記第2の時刻における前記第2の重要度とに基づいて、前記第1の時刻の前記不可視光画像における前記対象物と、前記第2の時刻の前記不可視光画像における前記対象物との類似度を表す第4の類似度を算出し、
    前記第1の類似度、前記第2の類似度、前記第3の類似度および前記第4の類似度に基づいて、前記第1の時刻および前記第2の時刻での前記可視光映像と前記不可視光映像における前記対象物の類似度を算出する、
    対象物解析装置。
  3. 請求項1または2に記載の対象物解析装置において、
    前記第1の重要度および前記第2の重要度に基づいて、前記対象物について時刻ごとに前記可視光画像または前記不可視光画像のいずれかを選択する画像選択部と、
    前記画像選択部による各時刻での前記可視光画像または前記不可視光画像の選択結果を、時系列順に並べて表示装置に表示させる表示制御部と、
    を備える対象物解析装置。
  4. 可視光を撮影可能な第1のカメラにより撮影された可視光映像に含まれる対象物の画像である可視光画像を取得するとともに、不可視光を撮影可能な第2のカメラにより撮影された不可視光映像に含まれ、前記可視光画像と同時刻における前記対象物の画像である不可視光画像を取得する画像取得部と、
    前記可視光画像における前記対象物の重要度を表す第1の重要度と、前記不可視光画像における前記対象物の重要度を表す第2の重要度とを算出する重要度算出部と、
    前記第1の重要度および前記第2の重要度に基づいて、前記対象物について時刻ごとに前記可視光画像または前記不可視光画像のいずれかを選択する画像選択部と、
    前記画像選択部による各時刻での前記可視光画像または前記不可視光画像の選択結果を、時系列順に並べて表示装置に表示させる表示制御部と、
    を備える対象物解析装置。
  5. コンピュータを用いた対象物の解析方法であって、
    前記コンピュータにより、
    可視光を撮影可能な第1のカメラにより撮影された可視光映像に含まれる前記対象物の画像である可視光画像を取得し、
    不可視光を撮影可能な第2のカメラにより撮影された不可視光映像に含まれ、前記可視光画像と同時刻における前記対象物の画像である不可視光画像を取得し、
    前記可視光画像から前記対象物の特徴量を表す第1の特徴量を算出し、
    前記不可視光画像から前記対象物の特徴量を表す第2の特徴量を算出し、
    前記可視光画像における前記対象物の重要度を表す第1の重要度を算出し、
    前記不可視光画像における前記対象物の重要度を表す第2の重要度を算出し、
    前記第1の特徴量、前記第2の特徴量、前記第1の重要度および前記第2の重要度に基づいて、前記可視光映像および前記不可視光映像における前記対象物の類似度を算出し、
    前記類似度に基づいて、前記可視光画像における前記対象物と、前記不可視光画像における前記対象物とが、同一であるか否かを判定する、
    対象物解析方法。
JP2022084789A 2022-05-24 2022-05-24 対象物解析装置、対象物解析方法 Pending JP2023172759A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022084789A JP2023172759A (ja) 2022-05-24 2022-05-24 対象物解析装置、対象物解析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022084789A JP2023172759A (ja) 2022-05-24 2022-05-24 対象物解析装置、対象物解析方法

Publications (1)

Publication Number Publication Date
JP2023172759A true JP2023172759A (ja) 2023-12-06

Family

ID=89029236

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022084789A Pending JP2023172759A (ja) 2022-05-24 2022-05-24 対象物解析装置、対象物解析方法

Country Status (1)

Country Link
JP (1) JP2023172759A (ja)

Similar Documents

Publication Publication Date Title
CN111709409B (zh) 人脸活体检测方法、装置、设备及介质
US10540772B2 (en) Feature trackability ranking, systems and methods
US9846845B2 (en) Hierarchical model for human activity recognition
WO2021155679A1 (zh) 一种目标定位方法、装置及系统
CN111222500B (zh) 一种标签提取方法及装置
CN108197618B (zh) 用于生成人脸检测模型的方法和装置
US20170161591A1 (en) System and method for deep-learning based object tracking
US11605221B2 (en) Multi-angle object recognition
US9183431B2 (en) Apparatus and method for providing activity recognition based application service
US20200387718A1 (en) System and method for counting objects
CN108416902A (zh) 基于差异识别的实时物体识别方法和装置
CN110853033A (zh) 基于帧间相似度的视频检测方法和装置
JP7292492B2 (ja) オブジェクト追跡方法及び装置、記憶媒体並びにコンピュータプログラム
CN108229375B (zh) 用于检测人脸图像的方法和装置
US20220245805A1 (en) Multi weed detection
JP6787831B2 (ja) 検索結果による学習が可能な対象検出装置、検出モデル生成装置、プログラム及び方法
US20230060211A1 (en) System and Method for Tracking Moving Objects by Video Data
KR102187741B1 (ko) 메타데이터 크라우드 소싱 시스템 및 방법
WO2021169642A1 (zh) 基于视频的眼球转向确定方法与系统
CN112215831B (zh) 一种用于人脸图像质量的评价方法和系统
US20200074149A1 (en) Method and apparatus for obtaining painting
Guo et al. Monocular 3D multi-person pose estimation via predicting factorized correction factors
JP2023172759A (ja) 対象物解析装置、対象物解析方法
US20180307910A1 (en) Evaluation of models generated from objects in video
CN115116136A (zh) 一种异常行为检测方法、装置、介质