JP6600288B2 - 統合装置及びプログラム - Google Patents
統合装置及びプログラム Download PDFInfo
- Publication number
- JP6600288B2 JP6600288B2 JP2016188846A JP2016188846A JP6600288B2 JP 6600288 B2 JP6600288 B2 JP 6600288B2 JP 2016188846 A JP2016188846 A JP 2016188846A JP 2016188846 A JP2016188846 A JP 2016188846A JP 6600288 B2 JP6600288 B2 JP 6600288B2
- Authority
- JP
- Japan
- Prior art keywords
- time series
- act
- likelihood
- signal
- tsi
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Description
ここで、RGB画像の時系列V1及びフロー画像の時系列V2をそれぞれの深層畳み込みニューラルネットワークに入力し、各フレームで行動毎に時系列スコアとしての尤度FS1,FS2を出力してから、統合(算出処理12-1P,12-2P)を行う。
上記第1ステップで出力したRGB画像時系列の平均スコアTS1とフロー画像時系列の平均スコアTS2とを行動種別1,2,…,N毎に重み付け平均し、前記行動毎の平均スコアを総合スコアINT_SC(統合された尤度ベクトル)として出力している。ここで、本発明者は、重みづけ平均するための重みに事前知識による固定的なものが採用されてしまっていることを課題として見出した。例えば非特許文献3に関連する非特許文献4においては、RGB画像時系列とフロー画像時系列の重み設定に関して、(均一な1/2及び1/2の重みよりも、)1/3及び2/3の重みの方が、精度が高いと報告している。しかしながら、これらは固定的な重みである。
出力部11では、統合装置10における解析対象となる映像信号Vから抽出された(又は映像信号Vに関連した)複数の(互いに異種類の)時系列信号V1,V2,…,VM(インデクスi(i=1,2,…,M)でViとして識別する)に対してそれぞれ深層畳み込みニューラルネットワーク等の識別器を適用し、インデクスact=1,2,…,Nで識別される各行動の尤度の時系列信号を求めて算出部12へと出力する。
FSi=(fs(i,1), fs(i,2), …, fs(i,N))
すなわち、各行動actの尤度の時系列信号fs(i,act)の長さ(時間軸上のデータ個数)がLであり、信号fs(i,act)をサイズL×1の縦ベクトルで表現したとすると、時系列信号FSiはサイズL×Nの行列として表現することができる。
Y = 0.299 × R + 0.587 × G + 0.114 × B (式1)
ここで、R、G、Bは入力フレームのあるピクセルのR、G、B値であり、Yは前記ピクセルの輝度値である。
非特許文献5の基本前提は、画像の小さい領域の中に任意のピクセルのY成分が(式2)のようにquadratic polynomial basis(2次形式)で表現できるというものである。
f1(x)=xTA1x+b1 Tx+c1 (式2)
同様に、第2フレームの対応領域は(式3)になる。
f2(x)= f1(x-d)=(x-d)TA1(x-d)+b1 T(x-d)+c1
= xTA1x+(b1-2A1d)Tx+dTA1d-b1 Td+c1
= xTA2x+b2 Tx+c2 (式3)
よって、オプティカルフローdは(式4)で算出することができる。
d=(-1/2)A1 -1(b2-b1) (式4)
dz=|dx2+dy2| (式5)
算出部12では、以上の出力部11で得られた各時系列信号Viの行動act毎の尤度スコア時系列FSiに対し、信号ViのフレームVi(t)(ここで、t(=1,2,…)は当該信号Viにおける時刻t、すなわち、フレーム番号tを表すものとする)毎の適応的な重みw(t)を算出し、当該フレーム毎の適応的な重みw(t)に基づいて時系列FSiの平均を求めることで、時系列平均された高度act毎の尤度スコアTSiを求め、統合部13へと出力する。(なお、重みw(t)は各信号Viについてそれぞれ求まるので、正確にはw(t)[i]等と表記すべきものであってi依存性を有するが、表記が煩雑となるため、Viは固定的に与えられており文脈上明らかなものとして、算出部12の説明の際などはw(t)と略記する。)
FSi(t)=(fsi[1](t), fsi [2](t), …, fsi [N](t)) (5A)
{var(FSi(t))| max{fsi[a](t)|a=1,2, …, N}= fsi[act](t)である} (5B)
同様に、図6において行動actの誤ったフレームの分散平均値m_var_incorrect(act)とは以下の式(5C)を満たす一連の分散値var(FSi(t))において求めた平均値である。すなわち、行動種別actが「正しい」と判定されない(「誤った」と判定される)一連のフレームVi(t)における尤度ベクトルFSi(t)の分散の平均値である。
{var(FSi(t))| max{fsi[a](t)|a=1,2, …, N}= fsi[act](t)ではない} (5C)
ここで、上記(5B),(5C)の尤度ベクトルFSi(t)を求めるフレームVi(t)は、所定のテスト映像における一連のフレームである。なお、当該所定のテスト映像に関しては、特にどの行動種別actに該当するかの正解ラベルを付与しておく必要はない。
S(act,t)=「尤度ベクトルFSi(t)のact成分」
=fsi[act](t)
また、分散の代わりに、(式7)でエントロピーH(t)を「乱雑さ」として算出してもよい。
w(t)←w(t)×(t/T1) (式8A)
w(t)←w(t)×{1-(t-T2)/(T-T2)} (式8B)
統合部13では、以上の算出部12が適応的な重みw(t)[i](ここではi依存性を明記した)によって各時系列信号Viにおいて算出した時系列上での平均スコア(尤度ベクトル)TSiを統合したものとして、統合スコアINT_SCを求め、評価部14へと出力する。
最大スコアによる正規化の重みとして、以下の一連の(式10)のようにして信号V1の重みwV1及び信号V2の重みwV2を求めることができる。ここで、TSi(act)(i=1,2)は、算出部12において適応的に時系列平均されたスコアTSi(尤度ベクトル)における行動種別act成分の値である。
一方、上記「1」とは別手法として、平均スコアによる正規化の重みとして、以下の一連の(式11)のようにして信号V1の重みwV1及び信号V2の重みwV2を求めることもできる。Nは前述のように行動種別actの総数である。
さらに、上記「1.最大値」及び「2.平均値」のいずれによって信号V1の重みwV1及び信号V2の重みwV2を求めた場合であっても、以下の(式12)の条件に該当する場合、当該(式12)にて与えられているように重みwV1(及びwV2)を事前に設定した合理的範囲[THL,THH]内に制限することが好ましい。
以上「1又は2」及び「3」の処理にて求まった信号V1の重みwV1及び信号V2の重みwV2により、統合スコアINT_SC(当該尤度ベクトルにおける行動種別actの要素値をINT_SC(act)とする)を以下の(式13)のように算出することできる。
INT_SC(act)=wV1TS1(act)+wV2TS2(act) (式13)
評価部14では、以上のように統合部13にて得られた統合スコアINT_SC(各成分がINT_SC(act)である尤度ベクトル)を用いて、時系列信号V1,V2,…VMを抽出した(又は関連するものとして与えられた)当初の映像信号Vにおける行動種別がいずれ(act=1,2,…,Nのいずれ)に該当するかを評価する。具体的には、以下の(式15)のように統合スコアINT_SCにおける尤度値としての成分の値INT_SC(act)が最も大きなものを評価結果act=act[評価結果]として与えることができる。
Claims (11)
- 映像信号(V)より抽出される又は当該映像信号(V)に関連する複数の時系列信号(Vi;i=1,2,…,M)のそれぞれに識別器を適用して得られる、当該時系列信号(Vi)ごとの前記映像信号(V)における各動作種別(act=1,2,…,N)の尤度時系列(FSi)を当該尤度時系列上で重み付け平均することで、当該時系列信号(Vi)ごとの各動作種別(act)の尤度ベクトル(TSi)を算出する算出部と、
前記時系列信号(Vi)ごとの各動作種別(act)の尤度ベクトル(TSi)を当該対応する時系列信号(Vi)ごとに重み付け平均することで、前記映像信号(V)における統合された各動作種別(act)の尤度ベクトル(INT_SC)を求める統合部と、を備える統合装置であって、
前記算出部では、前記尤度時系列(FSi)の各時刻(t)における前記各動作種別(act)の要素の分布の乱雑さ(v(t),H(t))に基づく重み付け平均によって、前記尤度ベクトル(TSi)を算出し、
前記統合部では、前記時系列信号(Vi)ごとの尤度ベクトル(TSi)がそれぞれ取る範囲に基づく正規化係数(wVi)に基づく重み付け平均によって、前記統合された各動作種別の尤度ベクトル(INT_SC)を求めることを特徴とする統合装置。 - 映像信号(V)より抽出される又は当該映像信号に関連する複数の時系列信号(Vi;i=1,2,…,M)のそれぞれに識別器を適用して得られる、当該時系列信号(Vi)ごとの前記映像信号(V)における各動作種別(act=1,2,…,N)の尤度時系列(FSi)を当該尤度時系列上で重み付け平均することで、当該時系列信号(Vi)ごとの各動作種別(act)の尤度ベクトル(TSi)を算出する算出部と、
前記時系列信号(Vi)ごとの各動作種別(act)の尤度ベクトル(TSi)を当該対応する時系列信号(Vi)ごとに重み付け平均することで、前記映像信号(V)における統合された各動作種別(act)の尤度ベクトル(INT_SC)を求める統合部と、を備える統合装置であって、
前記算出部では、前記尤度時系列(FSi)の各時刻(t)における前記各動作種別(act)の要素の分布の乱雑さ(v(t),H(t))に基づく重み付け平均によって、前記尤度ベクトル(TSi)を算出することを特徴とする統合装置。 - 前記算出部では、前記乱雑さ(v(t),H(t))を分散(v(t))として評価することを特徴とする請求項1または2に記載の統合装置。
- 前記算出部では、前記乱雑さ(v(t),H(t))をエントロピー(H(t))として評価することを特徴とする請求項1または2に記載の統合装置。
- 映像信号(V)より抽出される又は当該映像信号(V)に関連する複数の時系列信号(Vi;i=1,2,…,M)のそれぞれに識別器を適用して得られる、当該時系列信号(Vi)ごとの前記映像信号(V)における各動作種別(act=1,2,…,N)の尤度時系列(FSi)を当該尤度時系列上で重み付け平均することで、当該時系列信号(Vi)ごとの各動作種別(act)の尤度ベクトル(TSi)を算出する算出部と、
前記時系列信号(Vi)ごとの各動作種別(act)の尤度ベクトル(TSi)を当該対応する時系列信号(Vi)ごとに重み付け平均することで、前記映像信号(V)における統合された各動作種別(act)の尤度ベクトル(INT_SC)を求める統合部と、を備える統合装置であって、
前記統合部では、前記時系列信号(Vi)ごとの尤度ベクトル(TSi)がそれぞれ取る範囲に基づく正規化係数(wVi)に基づく重み付け平均によって、前記統合された各動作種別の尤度ベクトル(INT_SC)を求めることを特徴とする統合装置。 - 前記統合部では、前記正規化係数(wVi)を、前記時系列信号(Vi)ごとの尤度ベクトル(TSi)の要素としての動作種別(act)ごとの要素値(TSi(act))の中の最大値に基づいて定めることを特徴とする請求項1または5に記載の統合装置。
- 前記統合部では、前記正規化係数(wVi)を、前記時系列信号(Vi)ごとの尤度ベクトル(TSi)の要素としての動作種別(act)ごとの要素値(TSi(act))の平均値に基づいて定めることを特徴とする請求項1または5に記載の統合装置。
- 前記統合部では、前記正規化係数(wVi)を定めるに際して、所定の上下限範囲[THL,THH]内に収まらない係数がある場合は、当該範囲内に収まるように係数を修正することを特徴とする請求項1,5,6,7のいずれかに記載の統合装置。
- 前記統合部にて求まった各動作種別(act)の尤度ベクトル(INT_SC)の要素のうち最大値に対応する動作種別を、前記映像信号(V)の該当結果として出力する評価部をさらに備えることを特徴とする請求項1ないし8のいずれかに記載の統合装置。
- 前記適用する識別器が深層畳み込みニューラルネットワークであることを特徴とする請求項1ないし9のいずれかに記載の統合装置。
- コンピュータを請求項1ないし10のいずれかに記載の統合装置として機能させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016188846A JP6600288B2 (ja) | 2016-09-27 | 2016-09-27 | 統合装置及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016188846A JP6600288B2 (ja) | 2016-09-27 | 2016-09-27 | 統合装置及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018055287A JP2018055287A (ja) | 2018-04-05 |
JP6600288B2 true JP6600288B2 (ja) | 2019-10-30 |
Family
ID=61835765
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016188846A Active JP6600288B2 (ja) | 2016-09-27 | 2016-09-27 | 統合装置及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6600288B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110622169A (zh) * | 2017-05-15 | 2019-12-27 | 渊慧科技有限公司 | 用于视频中的动作识别的神经网络系统 |
EP3881161A1 (en) | 2018-11-14 | 2021-09-22 | Cape Analytics, Inc. | Systems, methods, and computer readable media for predictive analytics and change detection from remotely sensed imagery |
CN111062401A (zh) * | 2019-09-27 | 2020-04-24 | 商汤国际私人有限公司 | 堆叠物体的识别方法及装置、电子设备和存储介质 |
-
2016
- 2016-09-27 JP JP2016188846A patent/JP6600288B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018055287A (ja) | 2018-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107529650B (zh) | 闭环检测方法、装置及计算机设备 | |
US11055854B2 (en) | Method and system for real-time target tracking based on deep learning | |
CN113688723B (zh) | 一种基于改进YOLOv5的红外图像行人目标检测方法 | |
WO2023082882A1 (zh) | 一种基于姿态估计的行人摔倒动作识别方法及设备 | |
CN109598735A (zh) | 使用马尔科夫链跟踪和分割图像中的目标对象的方法以及使用该方法的设备 | |
WO2018207334A1 (ja) | 画像認識装置、画像認識方法および画像認識プログラム | |
JP6620882B2 (ja) | ドメイン適応を用いたパターン認識装置、方法およびプログラム | |
CN110827265B (zh) | 基于深度学习的图片异常检测方法 | |
CN111047543A (zh) | 图像增强方法、装置和存储介质 | |
CN112085055A (zh) | 一种基于迁移模型雅克比阵特征向量扰动的黑盒攻击方法 | |
JP6600288B2 (ja) | 統合装置及びプログラム | |
CN110147768B (zh) | 一种目标跟踪方法及装置 | |
Wang et al. | Gradient-based no-reference image blur assessment using extreme learning machine | |
WO2020092276A1 (en) | Video recognition using multiple modalities | |
CN114693983B (zh) | 基于图像-实例对齐网络的训练方法和跨域目标检测方法 | |
CN107945210A (zh) | 基于深度学习和环境自适应的目标跟踪算法 | |
CN112329784A (zh) | 一种基于时空感知及多峰响应的相关滤波跟踪方法 | |
CN112418032A (zh) | 一种人体行为识别方法、装置、电子设备及存储介质 | |
CN110245620A (zh) | 一种基于注意力的非最大化抑制方法 | |
CN114708615A (zh) | 基于图像增强的低照度环境下人体检测方法、电子设备及储存介质 | |
CN117372928A (zh) | 一种视频目标检测方法、装置及相关设备 | |
CN102592125A (zh) | 基于标准差特征的运动目标检测方法 | |
CN116310356B (zh) | 深度学习模型的训练方法、目标检测方法、装置及设备 | |
TWI781000B (zh) | 機器學習裝置以及方法 | |
KR100621883B1 (ko) | 학습에 기반을 둔 적응형 실시간 얼굴검출방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181106 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190906 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190925 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191004 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6600288 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |