JP2021135619A - 状況識別装置、状況学習装置及びプログラム - Google Patents

状況識別装置、状況学習装置及びプログラム Download PDF

Info

Publication number
JP2021135619A
JP2021135619A JP2020029869A JP2020029869A JP2021135619A JP 2021135619 A JP2021135619 A JP 2021135619A JP 2020029869 A JP2020029869 A JP 2020029869A JP 2020029869 A JP2020029869 A JP 2020029869A JP 2021135619 A JP2021135619 A JP 2021135619A
Authority
JP
Japan
Prior art keywords
situation
unit
neural network
map
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020029869A
Other languages
English (en)
Inventor
俊枝 三須
Toshie Misu
俊枝 三須
秀樹 三ツ峰
Hideki Mitsumine
秀樹 三ツ峰
淳 洗井
Jun Arai
淳 洗井
敦志 荒井
Atsushi Arai
敦志 荒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2020029869A priority Critical patent/JP2021135619A/ja
Publication of JP2021135619A publication Critical patent/JP2021135619A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】識別対象に含まれる移動物体の位置情報を用いることで、識別対象の状況を精度高く判定する。【解決手段】状況識別装置1のマップ生成部11は、識別対象に含まれる移動物体iの位置情報Xiに基づいて、識別対象における移動物体iの分布を画像化したマップMを生成する。ニューラルネットワーク部12は、マップMを入力データとして、所定の結合重み係数に応じたニューラルネットワークの演算を行い、状況毎の生起の度合いpjを出力データとして生成する。判定部13は、状況毎の生起の度合いpjに基づいて、識別結果p^を判定して出力する。【選択図】図1

Description

本発明は、移動物体の位置関係に基づいて、移動物体を含む識別対象の状況を判定する装置及びプログラムに関する。
複数人数の選手からなるチーム同士で競うサッカー等の球技においては、得点または攻守の移り変わり、特別な競技状態(例えば、サッカーにおけるセットプレイ等)、負傷者の発生等のように、時々刻々と試合の状況が変化する。
このような状況は選手またはボールの配置に反映されることがあるため、逆に選手またはボールの配置から試合の状況を推定する手法が提案されている(例えば非特許文献1を参照)。
非特許文献1の手法は、まず、サッカーコートを25の領域に分割して各領域に含まれる選手人数をチーム別に数え、各チームの選手の平均の速さ(速度の絶対値)を求めて、これらを52次元の特徴ベクトルとしてまとめる。
学習時において、学習装置は、各種プレイ(コーナーキック、フリーキック等の計12クラス)のそれぞれに対して、前記特徴ベクトルの平均ベクトル及び共分散行列を求め、クラス間共分散行列にクラス内共分散行列の逆行列を乗じた行列の固有値及び固有ベクトルを算出する。そして、学習装置は、固有値の大きい順に、対応する固有ベクトルを整順した第1〜52のFisher(フィッシャー)重みマップを得る。
学習装置は、第n(nは1以上52以下の整数)のフィッシャー重みマップを前記各特徴ベクトルに乗じることで、各正準変量を求める。そして、学習装置は、正準空間における各正準変量の分布を、それぞれ混合ガウス分布による確率密度関数として近似し、学習済みモデル(条件付き確率)を生成する。また、学習装置は、学習データにおける各プレイの発生頻度を数え、その結果である各プレイの生起確率を学習済みモデル(事前確率)として生成する。
実行時において、実行装置は、観測された選手の配置情報に基づいて、52次元の特徴ベクトルを算出し、これに各フィッシャー重みマップを乗算することで、各正準変量を求める。そして、実行装置は、各正準変量を前記学習済みモデル(条件付き確率)であるプレイ毎の混合ガウス分布に代入することで、当該状況が各プレイである尤度を算出する。
実行装置は、この尤度に当該プレイの前記学習モデル(事前確率)を乗じた評価値(事後確率に定数たる周辺尤度を乗じた値)を求めることで、現在の状況がいずれのプレイとして確からしいかを推定する。
また、試合の状況を定量化する手法として、選手の配置情報から得点の可能性を算出する技術が提案されている(例えば特許文献1,2を参照)。
特許第5155841号公報 特許第5155830号公報
T. Misu, et al.,"Soccer Formation Classification Based on Fisher Weight Map and Gaussian Mixture Models",Lecture Notes in Artificial Intelligence,vol.4938[The 3rd International Conference on Large-scale Knowledge Resources (LKR 2008)],Tokunaga,T. and Ortega, A. ed.,Berlin,Springer,pp.194-209,2008
従来、検索用のインデックス付与(アノテーション)を自動化する目的等において、前述の非特許文献1の手法のように、選手及びボールの配置情報から試合の状況を判定する技術が必要とされている。
しかしながら、非特許文献1の手法は、フィッシャー判別分析という線形変換、及び混合ガウスモデルを用いた有限のガウス分布の加重合成による確率密度関数のモデリングで構成される。このため、例えば異なるクラス(状況)の特徴ベクトルの分布が線形分離不可能な場合には、特徴ベクトルから正準変量への変換も適切に行われず、功奏しない。
また、非特許文献1の手法では、サッカーコートを25分割した各領域においてサッカー選手を数えるため、特徴ベクトルにおいて分割後の各部分領域より細かな選手位置の差異は区別不能となり、試合の状況の識別精度が低下するおそれがある。
特許文献1,2の手法は、得点の可能性の定量化に特化したものであり、例えば、スポーツにおけるルール上の意味的な状況(例えば、サッカーにおけるキックオフ、コーナーキック等のセットプレイの種別)を識別することはできない。
そこで、本発明は前記課題を解決するためになされたものであり、その目的は、識別対象に含まれる移動物体の位置情報を用いることで、識別対象の状況を精度高く判定可能な状況識別装置、状況学習装置及びプログラムを提供することにある。
前記課題を解決するために、請求項1の状況識別装置は、1以上の所定数の移動物体を含む識別対象の状況を判定する状況識別装置において、前記識別対象内の前記移動物体の位置に関する情報を位置情報として、前記所定数の移動物体におけるそれぞれの前記位置情報に基づいて、前記識別対象内の前記所定数の移動物体の分布を画像化したマップを生成するマップ生成部と、前記マップ生成部により生成された前記マップを入力し、所定の結合重み係数に応じたニューラルネットワークの演算を行い、前記状況の発生の有無を出力するニューラルネットワーク部と、を備えたことを特徴とする。
請求項1の発明によれば、例えばスポーツ選手の位置情報のように、状況によって選手人数が変動する場合、またはセンシングの誤差等により選手の検出漏れまたは過検出が生じる場合においても、選手人数の変動を考慮することなくニューラルネットワーク部を動作させることができる。また、一般に、各選手(の背番号等を)を識別することなく、位置(例えばx座標及びy座標)をそのままベクトルとしてまとめた場合には、ある選手の位置情報の成分と別の選手の位置情報の成分とを入れ替えたものも同一の分布として表してしまうため、ニューラルネットワーク部への入力の表現が冗長となり、動作が首尾一貫しなくなる恐れがある。請求項1の発明では、各選手の分布を画像化したマップを生成し、ニューラルネットワーク部がマップである画像データを入力するようにしたから、当該入力の表現が冗長となることはなく、ニューラルネットワーク部を一貫して動作させることができるため、このような問題は生じることがない。
また、請求項2の状況識別装置は、請求項1に記載の状況識別装置において、前記状況を複数種類の状況とし、前記ニューラルネットワーク部により前記状況の発生の有無が出力される出力層のノード数を、前記状況の種類と同じ数とする、ことを特徴とする。
請求項2の発明によれば、ニューラルネットワーク部により出力されるデータ、すなわち複数種類の状況のデータを用いて状況を判定することができる。このため、ニューラルネットワーク部により出力されるデータから複数種類の状況を生成する処理が不要となり、処理負荷が小さくなる。
また、請求項3の状況識別装置は、請求項2に記載の状況識別装置において、さらに、判定部を備え、前記ニューラルネットワーク部が、前記複数種類の状況のそれぞれについての生起の度合いを出力し、前記判定部が、前記ニューラルネットワーク部により出力された前記複数種類の状況のそれぞれについての前記生起の度合いから、最も高い前記生起の度合いの前記状況を判定して出力する、ことを特徴とする。
請求項3の発明によれば、判定部が、ニューラルネットワーク部により出力された複数種類の状況の生起の度合いを用いて状況を判定することができるから、処理負荷が小さくなる。
また、請求項4の状況識別装置は、請求項3に記載の状況識別装置において、前記判定部が、判定した前記状況に対し時間方向のフィルタ処理を施すことで平滑化し、平滑化した前記状況を出力する、ことを特徴とする。
請求項4の発明によれば、識別対象の位置の誤差、過検出または未検出に起因するニューラルネットワーク部の出力の瞬間的な変動を抑制することができ、識別結果を安定化することができる。
また、請求項5の状況識別装置は、請求項1から4までのいずれか一項に記載の状況識別装置において、前記ニューラルネットワーク部が、畳み込み層を含んで構成される、ことを特徴とする。
請求項5の発明によれば、ニューラルネットワーク部は、マップとして表現された入力を、位置関係を考慮しながら効率的に処理することができ、処理負荷及びメモリ帯域を減ずることができる。
また、請求項6の状況識別装置は、請求項1から5までのいずれか一項に記載の状況識別装置において、前記位置情報には、前記移動物体の位置がどの程度信頼できるかを定量化した信頼度が含まれており、前記マップ生成部が、前記信頼度を含む前記位置情報に基づいて、前記信頼度が反映された前記マップを生成する、ことを特徴とする。
請求項6の発明によれば、位置情報の信頼度を反映した識別対象の状況の判定が可能となり、識別結果の信頼性を向上することができる。
さらに、請求項7の状況学習装置は、1以上の所定数の移動物体を含む識別対象内の前記移動物体の位置に関する情報を位置情報として、前記識別対象内の前記所定数の移動物体におけるそれぞれの前記位置情報に基づいて生成したマップと、前記識別対象の状況を表すアノテーションデータとの対からなる学習データに基づいて、ニューラルネットワークを学習し、前記ニューラルネットワークに用いる結合重み係数を出力する状況学習装置であって、前記所定数の移動物体におけるそれぞれの前記位置情報に基づいて、前記識別対象内の前記所定数の移動物体の分布を画像化した前記マップを生成するマップ生成部と、前記マップ生成部により生成された前記マップを入力し、前記結合重み係数に応じた前記ニューラルネットワークの演算を行い、前記識別対象の状況の発生の有無を表す推定ベクトルを出力するニューラルネットワーク部と、前記アノテーションデータに基づいて、前記ニューラルネットワーク部により出力される前記推定ベクトルと同じ次元を有し、各成分が前記アノテーションデータの前記状況に対応するか否かを示す値により構成される正解ベクトルを生成し、当該正解ベクトルを出力する正解ベクトル生成部と、前記ニューラルネットワーク部により出力された前記推定ベクトルと、前記正解ベクトル生成部により出力された前記正解ベクトルとを比較し、比較結果を評価値として生成する評価部と、前記評価部により生成された前記評価値に基づいて、前記ニューラルネットワーク部が用いる前記結合重み係数を更新する結合重み係数更新部と、を備えたことを特徴とする。
請求項7の発明によれば、状況識別装置が使用する結合重み係数を、機械学習により数学的規範に基づいて自動的に決定することができる。
また、請求項8の状況学習装置は、請求項7に記載の状況学習装置において、さらに、前記位置情報に対して摂動を与えるか、または鏡像変換若しくは回転変換を施すことで、水増し位置情報を生成すると共に、前記位置情報に対応する前記アノテーションデータに基づいて、水増しアノテーションデータを生成するデータ拡張部を備え、前記マップ生成部が、さらに、前記データ拡張部により生成された前記水増し位置情報に基づいて、前記マップを生成し、前記正解ベクトル生成部が、さらに、前記データ拡張部により生成された前記水増しアノテーションデータに基づいて、前記正解ベクトルを生成して出力する、ことを特徴とする。
請求項8の発明によれば、学習データを仮想的に増加することができ、より高精度な識別を可能とする結合重み係数を得ることができる。
さらに、請求項9のプログラムは、コンピュータを、請求項1から6までのいずれか一項に記載の状況識別装置として機能させることを特徴とする。
また、請求項10のプログラムは、コンピュータを、請求項7または8に記載の状況学習装置として機能させることを特徴とする。
以上のように、本発明によれば、識別対象に含まれる移動物体の位置情報を用いることで、識別対象の状況を精度高く判定することができる。
本発明の実施形態による状況識別装置の構成の一例を示すブロック図である。 状況識別装置の処理の一例を示すフローチャートである。 選手及びボールの位置並びにマップMの一例を示す図である。 選手及びボールの速度並びにマップMの一例を示す図である。 ニューラルネットワーク部の構成の一例を示す図である。 本発明の実施形態による状況学習装置の構成の一例を示すブロック図である。 状況学習装置の処理の一例を示すフローチャートである。 学習処理(ステップS704)の詳細を示すフローチャートである。 アノテーションデータqが式(20)に示した形式のスカラーの場合における水増しアノテーションデータQ(H),Q(V),Q(R)の一例を示す図である。
以下、本発明を実施するための形態について図面を用いて詳細に説明する。
〔状況識別装置〕
まず、本発明の実施形態による状況識別装置について説明する。図1は、本発明の実施形態による状況識別装置の構成の一例を示すブロック図であり、図2は、状況識別装置の処理の一例を示すフローチャートである。
この状況識別装置1は、状況を識別すべき対象(以下、「識別対象」という。)に含まれる移動物体の位置情報を入力し、予め設定された結合重み係数に応じたニューラルネットワークの演算等により識別対象の状況を判定し、識別結果を出力する装置である。
識別対象に含まれる移動物体は、単一のものであっても複数のものであってもよいし、その数が変化するものであってもよい。具体的には、人物、動物、その他の物体であって、その位置が変化する可能性のあるものとする。
識別対象に含まれる移動物体は、例えば、サッカー、ラグビー、アメリカンフットボール、ホッケー、アイスホッケー、バレーボール、バスケットボール、野球、カーリング、カーレースに代表されるスポーツにおける選手、審判、遊具(ボール、パック、ストーン、バット、スティック、ブラシ、ネット、フラッグ、自動車等)等である。
識別結果は、識別対象における1以上の種類の状況(例えば、スポーツのプレイの種類:サッカーのセットプレイ(キックオフ、コーナーキック、間接フリーキック、直接フリーキック、ペナルティキック、ゴールキック、スローイン)等)に対する生起の有無、または度合いである。また、識別結果は、識別対象の最も確からしい(または最も尤もらしい)状況であってもよい。
図1の例では、状況識別装置1は対象位置計測部2に接続される。対象位置計測部2は、識別対象に含まれる移動物体の位置情報を計測するものであればいかなるものでも構わない。
対象位置計測部2は、例えば移動物体に装着したRFID(Radio Frequency IDentification)タグまたはビーコンの情報を受信機で受信する方法、GNSS(Global Navigation Satellite System)等による測位情報を蓄積または送受信する方法、カメラ映像の画像解析により位置情報を得る方法、距離センサ(LIDAR(Light Detection and Ranging,Laser Imaging Detection and Ranging)またはレーザーレンジファインダ等)またはレーダーにより位置情報を得る方法、デッドレコニングまたは内界センサ(ジャイロスコープ、加速度センサ等)による位置推定手法、これらを組み合わせたフィルタ処理(例えばKalman(カルマン)フィルタ処理)により位置情報を推定する手法等を用いることで、物体の位置情報を計測する。
尚、状況識別装置1は、時々刻々得られる位置情報に基づいて実時間処理するものであってもよいし、一旦蓄積媒体に位置情報を記録してからオフライン処理するものであっても構わない。
状況識別装置1は、マップ生成部11、ニューラルネットワーク部12及び判定部13を備えている。
(マップ生成部11)
マップ生成部11は、対象位置計測部2から、識別対象に含まれる移動物体iの位置情報Xi(i=1〜N)、すなわち位置情報(Xii∈{1,2,...,N}(Nは自然数)を入力する(ステップS201)。iは移動物体の番号を示す。
マップ生成部11は、位置情報Xiに基づいて、識別対象における移動物体iの分布を画像化したマップMを生成する(ステップS202)。マップ生成部11は、マップMをニューラルネットワーク部12に出力する。
マップMは、水平、垂直及び種別からなる3次元の数値列(3階テンソル)として例示するが、3階以外のテンソル(例えば水平及び垂直方向からなる2階テンソル、水平、垂直、時間及び種別からなる4階テンソル)であっても構わない。
以下、マップMの成分をx,y,cとし、M(x,y,c)と記述する。(x,y)は、2次元的な位置情報(例えば、サッカー場のセンターマーク中心を原点とし、タッチラインと平行にx軸、ハーフウェイライン上にy軸、鉛直上向きにz軸をそれぞれとって右手系を構成し、そのうちx成分及びy成分を採用したもの)とする。また、種別cは例えばc∈{0,1,2}とし、各種別cには、異なる種類の位置情報(例えば左側チームの選手、右側チームの選手及びボール)を対応させる。
マップMは、例えば、識別対象における移動物体の2次元的な配置を可視化した画像、または当該可視化した画像に画像処理を施した画像とすることができる。
位置情報Xiは、以下の式のとおり、例えば移動物体iのx座標xi、y座標yi及び種別ciから構成される。種別cは、例えばci=0が左チームの選手を示し、ci=1が右チームの選手を示し、ci=2がボールを示す。
Figure 2021135619
このときのマップMは、例えば以下の式のとおり、種別c毎に各位置に存在する選手数をカウントすることで生成される。
Figure 2021135619
また、マップMは、例えば以下の式のとおり、種別c毎に各選手の位置を中心として設定したガウシアン状の分布を重畳することで生成される。
Figure 2021135619
ここで、σはガウシアンの広がりを指定するための距離の次元を有する数値であり、正の実数とする。例えば、σは、0.1〜10メートルの値とする。
これにより、前記式(3)に示した選手の位置を中心としたガウシアン状の分布を用いることで、マップMにおける選手の位置が点ではなく、選手の位置を中心とした面(後述する図3に示すように、円の中心が最も大きい値をとり、周縁ほど小さい値をとる)で与えられる。この場合、当該マップMを入力するニューラルネットワーク部12に用いる結合重み係数は、後述する状況学習装置3にて少ない学習データを用いて求められる。つまり、後述する状況学習装置3は、選手の位置が少しでも違っている場合であっても、その位置に応じた異なる学習データを複数用意することはなく、同一の学習データを用いることで、精度の高い結合重み係数を得ることができる。
また、マップMは、例えば以下の式のとおり、種別c毎に各選手の位置を中心として所定の半径ρ以内(ρは非負の実数)に限って設定したガウシアン状の分布を重畳することで生成される。
Figure 2021135619
例えば、ρは、σの1〜10倍の値とする。
これにより、前記式(4)に示した選手の位置を中心とした半径ρ以内のガウシアン状の分布を用いることで、マップMにおける選手の位置が点ではなく所定範囲内の面で与えられる。このため、後述する状況学習装置3は、前述と同様に、少ない学習データを用いて学習処理を行うことができる。また、マップ生成部11の計算量を減らすことができ、処理負荷を低減することができる。
図3は、選手及びボールの位置並びにマップMの一例を示す図である。(a)は、識別対象に含まれる移動物体iの位置を示す図であり、白塗りの丸印は左チームの選手を示し、バツ印は右チームの選手を示し、黒塗りの丸印はボールを示す。(b)〜(d)は、種別c毎に分けた位置のマップMを示す。
(b)は、種別c=0である左チームの選手のマップM(x,y,0)を示す図であり、前記式(3)に示した選手の位置を中心としたガウシアン状の分布を用いて生成されたものである。(c)は、種別c=1である右チームの選手のマップM(x,y,1)を示す図であり、(b)と同様に前記式(3)を用いて生成されたものである。(d)は、種別c=2であるボールのマップM(x,y,2)を示す図であり、(b)及び(c)と同様に前記式(3)を用いて生成されたものである。
尚、前述のとおり、マップ生成部11は、例えば前記式(1)に示したx座標xi、y座標yi及び種別ciから構成される位置情報Xiを入力し、前記式(2)〜(4)に示したマップMを生成する。
これに対し、マップ生成部11は、以下の式のとおり、x座標xi、y座標yi及び種別ciに加え、当該x座標xi及びy座標yi(または種別ci)がどの程度信頼できるかを定量化した信頼度riを含んで構成される位置情報Xiを入力し、信頼度riに応じて重み付けしたマップMを生成するようにしてもよい。信頼度riは、例えばその値が大きいほど信頼できるものとする。信頼度riの範囲は、所定の実数の範囲(例えば0以上1以下の実数の範囲)として定義してもよい。
Figure 2021135619
このときのマップMは、前記式(2)〜(4)の代わりに、それぞれ以下の式(6)〜(8)を用いて生成される。
Figure 2021135619
Figure 2021135619
Figure 2021135619
これにより、位置情報Xiの信頼度riを反映した識別対象の状況の判定が可能となり、識別結果の信頼性を向上することができる。
また、マップ生成部11は、以下の式のとおり、移動物体iの速度のx成分ui、y成分vi及び種別ciを含む位置情報Xiを入力し、マップMを生成するようにしてもよい。速度のx成分ui及びy成分viは、例えば対象位置計測部2によって直接的に計測されるものであってもよいし、異なる時刻の位置情報の差分から求めるようにしてもよい。
Figure 2021135619
このときのマップMは、前記式(2)〜(4)及び前記式(6)〜(8)の代わりに、それぞれ以下の式(10)〜(12)を用いて生成される。
Figure 2021135619
Figure 2021135619
Figure 2021135619
図4は、選手及びボールの速度並びにマップMの一例を示す図である。(a)は、識別対象に含まれる移動物体iの速度を示す図である。白塗りの丸印は左チームの選手を示し、バツ印は右チームの選手を示し、黒塗りの丸印はボールを示す。(u,v)は、各選手またはボールが当該印の位置にあるときの速度ベクトルを示し、uは速度のx成分、vは速度のy成分を示す。(b)〜(d)は、種別c毎に分けた速度のマップMを示す。
(b)は、種別c=0である左チームの選手のマップM(x,y,0)を示す図であり、左チームの選手が(x,y)にあるときの速度(u,v)=(1,1),(1,0.5)を示している。(c)は、種別c=1である右チームの選手のマップM(x,y,1)を示す図であり、右チームの選手が(x,y)にあるときの速度(u,v)=(2,0),(0,1)を示している。
(d)は、種別c=2であるボールのマップM(x,y,2)を示す図であり、ボールが(x,y)にあるときの速度(u,v)=(2,0)を示している。
また、マップ生成部11は、移動物体iの位置のx座標xi、y座標yi及び種別ciに加え、移動物体iの速度のx成分ui及びy成分viを含む位置情報Xiを入力し、マップM(x,y,c)を生成するようにしてもよい。
例えば種別c=0の場合、左チームの選手の位置を表すマップM(x,y,0)を示し、種別c=1の場合、右チームの選手の位置を表すマップM(x,y,1)を示し、種別c=2の場合、ボールの位置を表すマップM(x,y,2)を示す。また、種別c=3の場合、左チームの選手の速度を表すマップM(x,y,3)を示し、種別c=4の場合、右チームの選手の速度を表すマップM(x,y,4)を示し、種別c=5の場合、ボールの速度を表すマップM(x,y,5)を示す。
また、マップ生成部11は、移動物体iの位置のx座標xi、y座標yi及び種別ci(並びに速度の各成分)に加え、移動物体iの加速度の各成分を含む位置情報Xiを入力し、マップM(x,y,c)を生成するようにしてもよい。また、マップ生成部11は、移動物体iの見ている方向(例えば顔または目の方向)も含む位置情報Xiを入力し、マップM(x,y,c)を生成するようにしてもよい。
また、マップ生成部11は、移動物体iの位置に基づいた前記式(2)〜(4)、位置及び信頼度に基づいた前記式(6)〜(8)、または速度に基づいた前記式(10)〜(12)により生成したマップMに対し、適宜、大きさを拡大若しくは縮小したり、または水平方向、垂直方向若しくは両方向に平行移動したり、回転したり、振幅を変換(コントラスト変換、トーンカーブ適用等)したりしてもよい。
また、マップ生成部11は、生成したそれぞれのマップMを水平、垂直または種別方向にタイル化(多重)するようにしてもよい。また、マップ生成部11は、移動物体iの速度に基づいた前記式(10)〜(12)により生成したマップMに対し、さらに信頼度riに応じて重み付けしたマップMを生成するようにしてもよい。
このように、マップ生成部11により、識別対象における移動物体iの分布を画像化したマップMが生成される。このマップMは、移動物体iの数の変動の影響を受けることのない固定サイズの画像データである。このため、マップMを入力してニューラルネットワークの演算を行う後段のニューラルネットワーク部12において、処理負荷の低い効率的な演算を行うことができる。
(ニューラルネットワーク部12)
図1及び図2に戻って、ニューラルネットワーク部12は、マップ生成部11からマップMを入力し、マップMを入力データとして、所定の結合重み係数に応じたニューラルネットワークの演算を行う。そして、ニューラルネットワーク部12は、状況毎の発生の有無、例えば状況毎の生起の度合い(生起しているか否かを定量化した値)pj(j=1〜M)からなるベクトルpを出力データとして生成する(ステップS203)。jは状況の種類を示す番号であり、状況は1または複数種類ある。ニューラルネットワーク部12は、ベクトルpを判定部13に出力する。
具体的には、ニューラルネットワーク部12は、種別c毎のマップM(x,y,c)をニューラルネットワークの入力層のノードに入力する。そして、ニューラルネットワーク部12は、所定の結合重み係数に応じたニューラルネットワークの演算を行うことで状況毎の生起の度合いpj(j=1〜M)を求め、ベクトルpを出力層のノードから出力する。
ニューラルネットワーク部12は、例えば畳み込み層を有するネットワーク(畳み込みニューラルネットワーク)により構成されるようにしてもよいし、全結合層のみからなるネットワーク(多層パーセプトロン)により構成されるようにしてもよい。好ましくは、ニューラルネットワーク部12は、畳み込み層(及び必要に応じてプーリング層)の連鎖の後に、全結合層を1以上有する畳み込みニューラルネットワークにより構成される。
これにより、ニューラルネットワーク部12が畳み込み層を有することで、画像化したマップMとして表現された入力を、位置関係を考慮しながら効率的に処理することができ、処理負荷及びメモリ帯域を減ずることができる。
特に、マップ生成部11が、前記式(3)または(4)等を用いてガウシアン状の分布が反映されたマップMを生成し、ニューラルネットワーク部12が当該マップMを入力する場合に効果的である。つまり、ニューラルネットワーク部12は、マップ生成部11によりガウシアン状の分布が反映されたマップMを入力データとして、畳み込み層を有するニューラルネットワークの演算を行う場合、一層効率的な処理が行われる。
また、ニューラルネットワーク部12の各層には活性化関数を適用するものがあってもよいし、活性化関数を適用しないものがあっても構わない。活性化関数は、全て同一の種類(ReLU(Rectified Linear Unit)、シグモイド関数、ソフトマックス関数等)であってもよいし、複数の異なる種類の活性化関数を混在させても構わない。例えば、ニューラルネットワーク部12は、最終の層のみ活性化関数としてソフトマックス関数を用い、他の層にはReLUを用いる。ニューラルネットワーク部12の層数は任意である。
図5は、ニューラルネットワーク部12の構成の一例を示す図である。このニューラルネットワーク部12は、種別c毎のマップM(x,y,c)をニューラルネットワークの入力層のノードに入力し、状況毎の生起の度合いpj(j=1〜M)からなるベクトルpを出力層のノードから出力する。
図5に示すニューラルネットワーク部12は、畳み込み層を7層とし、全結合層を2層として構成される。各層におけるパディング、カーネル、ストライド及び活性化関数は、図5に示すとおりである。
ニューラルネットワーク部12には、例えばj番目の出力値であるpjが、j番目の種類の状況が発生しているときほど大きな値をとり、発生していないときほど小さな値をとるように、学習済みの結合重み係数が予め設定されているものとする。
このように、ニューラルネットワーク部12により出力される出力データの数(出力層のノード数)を、状況毎の生起の度合いpjの数(状況の種類と同じ数)とした。これにより、ニューラルネットワーク部12により出力されるベクトルpを構成する状況毎の生起の度合いpjをそのまま用いて判定部13にて状況が判定できるから、処理負荷は小さくなる。
(判定部13)
図1及び図2に戻って、判定部13は、ニューラルネットワーク部12から状況毎の生起の度合いpjから構成されるベクトルpを入力し、状況毎の生起の度合いpjに基づいて識別結果p^を判定する(ステップS204)。そして、判定部13は、識別結果p^を出力する(ステップS205)。
判定部13は、例えば以下の式のとおり、状況毎の生起の度合いp1〜pMのうち最も値が大きい度合いpJを判定し、識別結果p^としてその状況の種類(添え字の値J)を出力する。
Figure 2021135619
また、判定部13は、例えば、状況毎の生起の度合いp1〜pMのうち最も値が大きい度合いpJを判定する。そして、判定部13は、以下の式のとおり、度合いpJが閾値θ以上(θは実数)であると判定した場合、識別結果p^としてその状況の種類(添え字の値J)を出力する。一方、判定部13は、度合いpJが閾値θ未満であると判定した場合、いずれの状況も生起していないものと判断し、識別結果p^として特定の値(例えば0)を出力する。
Figure 2021135619
また、判定部13は、例えば、複数の状況の同時生起があり得る場合には、状況毎の生起の度合いp1,p2,...,pMと閾値列θ1,θ2,...,θMとを項毎に比較する。そして、判定部13は、j番目の種類の状況が生起している場合には、ベクトルの識別結果p^の第j成分に1を設定し、生起していない場合には第j成分に0を設定し、ベクトルの識別結果p^を出力する。
Figure 2021135619
また、判定部13が時々刻々と識別結果p^を出力する場合、判定部13は、判定した識別結果p^に対し、時間方向のフィルタ処理(例えばIIR(Infinite Impulse Response)フィルタ処理、FIR(Finite Impulse Response)フィルタ処理(平均平滑化を含む)、またはローパスフィルタ処理)を施すことで平滑化し、平滑化した識別結果p^を出力するようにしてもよい。
このフィルタ処理により、識別対象の位置の誤差、過検出または未検出に起因して、ニューラルネットワーク部12から出力されるベクトルpを構成する状況毎の生起の度合いpjの瞬間的な変動を抑制することができ、識別結果p^を安定化することができる。
このように、判定部13により、ニューラルネットワーク部12にて出力されたベクトルpを構成する状況毎の生起の度合いpjを用いて識別対象の状況が判定されるため、処理負荷が小さくなる。
以上のように、本発明の実施形態の状況識別装置1によれば、マップ生成部11は、識別対象に含まれる移動物体iの位置情報Xiに基づいて、識別対象における移動物体iの分布を画像化したマップMを生成する。
ニューラルネットワーク部12は、マップMを入力データとして、所定の結合重み係数に応じたニューラルネットワークの演算を行い、状況毎の生起の度合いpjを出力データとして生成する。そして、判定部13は、状況毎の生起の度合いpjに基づいて、識別結果p^を判定して出力する。
これにより、識別対象における移動物体iの分布を画像化したマップMをニューラルネットワーク部12に入力するようにしたから、識別対象の状況によって移動物体iの数が変動する場合、またはセンシングの誤差等により移動物体の検出漏れまたは過検出が生じる場合においても、移動物体iの数の変動を考慮することなく、ニューラルネットワーク部12を動作させることができる。
例えば、状況識別装置1がサッカーの試合の状況を判定する場合、サッカーの試合においては、ボールがサッカーコートから出てしまうことで識別対象から消えたり、選手が重なったりすることがある。この場合、ニューラルネットワーク部12の入力データを、画像化したマップMではなく選手及びボールの位置(x座標及びy座標)とすると、ニューラルネットワーク部12の入力データの数が変動し、データを入力する順番の判断が困難となり、ニューラルネットワーク部12の処理負荷が増大してしまう。また、選手を識別する処理、選手が交代したときの処理等も必要となるため、全体として処理負荷が増大し、演算精度が低下する。
また、ニューラルネットワーク部12の入力データを、画像化したマップMではなく試合の画像そのものとすると、ニューラルネットワーク部12の学習のために、多くの学習データが必要となる。なぜならば、最適な学習を行うために、試合が行われる時間帯の違い(昼または夜)、試合会場の違い、サッカーコートに使用されている芝生の色の違い等に応じて、それぞれの学習データが必要となるからである。十分な学習データを用いることができない場合には、ニューラルネットワーク部12の演算精度が低下してしまう。
本発明の実施形態では、識別対象における移動物体iの分布を画像化したマップMをニューラルネットワーク部12に入力するようにしたから、入力データの数が変動することがなく、データを入力する順番の判断も不要となるため、処理負荷は増大しない。また、試合が行われる時間帯の違い等を考慮する必要がないため、学習データが少なくて済む。
したがって、識別対象に含まれる移動物体iの位置情報Xiを用いることで、識別対象の状況を精度高く判定することができる。
〔状況学習装置〕
次に、本発明の実施形態による状況学習装置について説明する。図6は、本発明の実施形態による状況学習装置の構成の一例を示すブロック図であり、図7は、状況学習装置の処理の一例を示すフローチャートである。
この状況学習装置3は、対象位置計測部2及びアノテーション入力部4からの入力に対し、ニューラルネットワークに与えるべき最適な結合重み係数を演算して、当該結合重み係数を出力する装置である。状況学習装置3により出力された結合重み係数は、図1に示した状況識別装置1のニューラルネットワーク部12に設定される。
対象位置計測部2は、図1に示した同名の構成部と同様であるため、ここでは説明を省略する。
(アノテーション入力部4)
アノテーション入力部4は、対象位置計測部2により位置情報Xが計測された時点において、識別対象の状況を教示するための手段である。アノテーション入力部4は、キーボードまたはタッチパネルの押下(タッチ)操作、マウスまたはトラックボールのクリック操作、ホイール等の回転操作等の任意のヒューマンマシンインターフェースを用いることができる。
アノテーション入力部4は、各種状況の生起の有無を状況の種類毎に指定する(例えば、発生している状況にチェックを入れる)方式、または複数の状況の選択肢の中から生起している状況の識別子を指定する方式にて、アノテーションデータqを生成する。尚、アノテーション入力部4は、当該状況の生起の他、その信頼度に関する情報を付属的に入力する方式を用いるようにしてもよい。
アノテーション入力部4は、対象位置計測部2により計測された識別対象に含まれる移動物体の位置情報Xと同じ時点における、位置情報Xに対応する、識別対象の状況を表すアノテーションデータqを状況学習装置3へ出力する。
アノテーション入力部4は、例えば、各種状況の生起の有無を状況の種類毎に指定する方式を用いる場合、以下の式のとおり、j番目の状況が生起している場合にはqj=1を設定し、生起していない場合にはqj=0を設定することで、アノテーションデータqを生成する。
Figure 2021135619
また、アノテーション入力部4は、例えば、状況の生起の他、その信頼度(j番目の状況が生起している信頼度(または度合い))riに関する情報を付属的に入力する方式を用いる場合、以下の式のとおり、j番目の状況についてqj=f(ri)を設定することで、アノテーションデータqを生成する。
Figure 2021135619
関数fは、好ましくは広義単調増加関数(または広義単調減少関数)とする。例えば関数fとして、恒等関数を用いることができる。
また、アノテーション入力部4は、例えば、複数の状況の選択肢の中から生起している状況の識別子Q(Qは1以上M以下の整数)を指定する方式を用いる場合、以下の式のとおり、j=Qの場合にはqj=1を設定し、j≠Qの場合にはqj=0を設定することで、アノテーションデータqを生成する。
Figure 2021135619
また、アノテーション入力部4は、例えば、複数の状況の選択肢の中から生起している状況の識別子Qを指定し、かつ状況の生起の他、その信頼度riに関する情報を付属的に入力する方式を用いる場合、以下の式のとおり、j=Qの場合にはqj=riを設定し、j≠Qの場合にはqj=0を設定することで、アノテーションデータqを生成する。
Figure 2021135619
また、アノテーション入力部4は、複数の状況の選択肢の中から生起している状況の識別子Qを指定する方式を用いる場合、以下の式のとおり、生起している状況の識別子Qをアノテーションデータqに直接設定することで、アノテーションデータqを生成するようにしてもよい。
Figure 2021135619
図6を参照して、状況学習装置3は、データ拡張部21、学習データ蓄積部22、マップ生成部11、ニューラルネットワーク部12、結合重み係数記憶部23、正解ベクトル生成部24、評価部25及び結合重み係数更新部26を備えている。
(データ拡張部21)
データ拡張部21は、対象位置計測部2から、識別対象に含まれる移動物体の位置情報Xを入力すると共に、当該位置情報Xの時点における識別対象の状況を表すアノテーションデータqを入力する(ステップS701)。
データ拡張部21は、位置情報X及びアノテーションデータqの対に基づいてデータ拡張し、水増し位置情報X(A)及び水増しアノテーションデータq(A)の対を生成する(ステップS702)。
データ拡張部21は、位置情報X及びアノテーションデータqの対(X,q)、並びに水増し位置情報X(A)及び水増しアノテーションデータq(A)の対(X(A),q(A))を、学習データとして学習データ蓄積部22に格納する(ステップS703)。これにより、学習データを見かけ上増やすことができる。
データ拡張部21は、以下の式のとおり、例えば位置情報Xのみに予め設定された摂動ΔXを加えることで、水増し位置情報X(A)を求める。また、データ拡張部21は、アノテーションデータqをそのまま水増しアノテーションデータq(A)に設定する。
Figure 2021135619
位置情報Xが、例えば以下の式で表される場合、
Figure 2021135619
摂動ΔXは、例えば以下の式のとおり、移動物体のx座標及びy座標のみに与えられる摂動である。右上付きのTは、ベクトルまたは行列の転置を示す。
Figure 2021135619
ただし、xは移動物体のx座標、yは移動物体のy座標、cは移動物体の種別である。
Δx及びΔyは、例えば以下の式のとおり、平均が0、分散がσx及びσyのガウス雑音とすることができる。
Figure 2021135619
演算子「〜」は、確率密度関数からの標本化を示す。
また、データ拡張部21は、前述の水増し法の他、識別対象独自の方法によってデータ拡張を行うようにしてもよい。
例えば、前記式(22)の位置情報Xにおいて、各成分をサッカーにおける選手またはボールの位置(x,y)及び種別c(左チームの選手をc=0、右チームの選手をc=1、ボールをc=2)とし、アノテーションデータqである状況の種類を以下の8つとする。
Figure 2021135619
この場合、データ拡張部21は、位置情報Xに対し、左右(x座標)を入れ替えることで(左右の鏡像変換を行うことで)水増し位置情報X(H)を生成し、奥手前(y座標)を入れ替えることで(奥手前の鏡像変換を行うことで)水増し位置情報X(V)を生成する。また、データ拡張部21は、位置情報Xに対し、xy平面内において180度回転させることで(回転変換を行うことで)水増し位置情報X(R)を生成する。
このときの位置情報X及び水増し位置情報X(H),X(V),X(R)は、以下の式で表される。
Figure 2021135619
データ拡張部21は、位置情報Xに基づいた水増し位置情報X(H),X(V),X(R)の生成に伴い、アノテーションデータqに基づいて水増しアノテーションデータq(H),q(V),q(R)を生成する。
アノテーションデータqが前記式(16)に示した形式のベクトルの場合、水増しアノテーションデータq(H),q(V),q(R)は、以下の式で表される。
Figure 2021135619
具体的には、アノテーションデータqが前記式(25)で表される場合、水増しアノテーションデータq(H),q(V),q(R)は、以下の式で表される。
Figure 2021135619
図9は、アノテーションデータqが前記式(20)に示した形式のスカラーの場合における水増しアノテーションデータQ(H),Q(V),Q(R)の一例を示す図である。
前記式(25)と同様に、アノテーションデータQ=1の場合、左チームの選手が右奥コーナーでコーナーキックの状況を示し、アノテーションデータQ=2の場合、左チームの選手が右手前コーナーでコーナーキックの状況を示すものとする。また、アノテーションデータQ=3〜8の場合、前記式(25)の状況を示すものとする。
この場合、データ拡張部21は、位置情報Xに基づいた水増し位置情報X(H),X(V),X(R)の生成に伴い、アノテーションデータQに基づいて水増しアノテーションデータQ(H),Q(V),Q(R)を生成する。具体的には、図9に示す水増しアノテーションデータQ(H),Q(V),Q(R)が生成される。
例えば、元の位置情報Xから左右反転データである水増し位置情報X(H)が生成される際に、元のアノテーションデータQ=1の場合、水増しアノテーションデータQ(H)=3が生成される。同様に、元のアノテーションデータQ=2の場合、水増しアノテーションデータQ(H)=4が生成される。
また、元の位置情報Xから180度回転データである水増し位置情報X(R)が生成される際に、元のアノテーションデータQ=1の場合、水増しアノテーションデータQ(R)=4が生成される。同様に、元のアノテーションデータQ=2の場合、水増しアノテーションデータQ(R)=3が生成される。
前述したサッカーの例においては、データ拡張部21は、元の位置情報X及び元のアノテーションデータqの対(X,q)を、学習データとして学習データ蓄積部22に格納する。また、データ拡張部21は、水増し位置情報X(H),X(V),X(R)及び水増しアノテーションデータq(H),q(V),q(R)の対(X(H),q(H)),(X(V),q(V)),(X(R),q(R))も、学習データとして学習データ蓄積部22に格納する。
このように、データ拡張部21により、学習データを仮想的に増加することができ、より高精度な識別対象の判定を可能とする結合重み係数を得ることができる。
(学習データ蓄積部22)
図6及び図7に戻って、学習データ蓄積部22は、位置情報X及びアノテーションデータqの対(X,q)、並びに水増し位置情報X(A)及び水増しアノテーションデータq(A)の対(X(A),q(A))を学習データとして蓄積する。
前述したサッカーの例においては、学習データ蓄積部22は、位置情報X及びアノテーションデータqの対(X,q)、並びに水増し位置情報X(H),X(V),X(R)及び水増しアノテーションデータq(H),q(V),q(R)の対(X(H),q(H)),(X(V),q(V)),(X(R),q(R))を学習データとして蓄積する。
学習データ蓄積部22に蓄積された位置情報X及びアノテーションデータqの対(X,q)、並びに水増し位置情報X(A)及び水増しアノテーションデータq(A)の対(X(A),q(A))は、ランダムに読み出される。位置情報X及び水増し位置情報X(A)は、マップ生成部11により読み出され、対応するアノテーションデータq及び水増しアノテーションデータq(A)は、正解ベクトル生成部24により読み出される。前述したサッカーの例についても同様である。
以下、学習データ蓄積部22から読み出された位置情報X及び水増し位置情報X(A)を位置情報X”とし、アノテーションデータq及び水増しアノテーションデータq(A)をアノテーションデータq”とする。前述したサッカーの例についても同様である。
(学習処理)
状況学習装置3は、学習データ蓄積部22に蓄積された学習データを対毎に読み出し、ニューラルネットワーク部12を学習することで、結合重み係数を求めて出力する(ステップS704)。
図8は、学習処理(ステップS704)の詳細を示すフローチャートである。図7のステップS704の学習処理は、学習データ蓄積部22の後段に設けられたマップ生成部11、ニューラルネットワーク部12、結合重み係数記憶部23、正解ベクトル生成部24、評価部25及び結合重み係数更新部26により行われる。
(マップ生成部11)
マップ生成部11は、学習データ蓄積部22から学習データである位置情報X”を読み出す(ステップS801)。そして、マップ生成部11は、位置情報X”に基づいて、識別対象における移動物体の分布を画像化したマップM”を生成する(ステップS802)。マップ生成部11は、マップM”をニューラルネットワーク部12に出力する。尚、マップ生成部11は、図1に示した同名の構成部と同様であるため、ここでは詳細な説明を省略する。
(結合重み係数記憶部23)
結合重み係数記憶部23は、ニューラルネットワーク部12に設定する結合重み係数を一時的に記憶する手段である。結合重み係数記憶部23は、初期値として乱数系列(または疑似乱数系列)に基づく値を記憶しているか、または予め設定された定数値の系列を記憶しているものとする。
結合重み係数記憶部23に記憶される結合重み係数は、結合重み係数更新部26により更新される。結合重み係数記憶部23は、結合重み係数の初期値または予め設定された結合重み係数をニューラルネットワーク部12に設定し、その後、更新された結合重み係数をニューラルネットワーク部12に設定する。
(ニューラルネットワーク部12)
ニューラルネットワーク部12は、図1に示したニューラルネットワーク部12と同じ構成をなす。ニューラルネットワーク部12は、マップ生成部11からマップM”を入力する。
ニューラルネットワーク部12は、マップM”を入力データとして、結合重み係数の初期値等、または結合重み係数更新部26により更新され結合重み係数記憶部23により設定された結合重み係数に応じたニューラルネットワークの演算を行い、以下の式のとおり、状況毎の生起の度合いpj”(j=1〜M)からなる推定ベクトルp”を出力データとして生成する(ステップS803)。そして、 ニューラルネットワーク部12は、推定ベクトルp”を評価部25に出力する。
Figure 2021135619
推定ベクトルp”は、M種類の状況について順にまとめたベクトルを示し、pj”は、j番目の状況に関する成分を示す。
尚、ニューラルネットワーク部12は、図1に示した同名の構成部と同様であるため、ここでは詳細な説明を省略する。
(正解ベクトル生成部24)
正解ベクトル生成部24は、学習データ蓄積部22から、ステップS801にて読み出された位置情報X”に対応するアノテーションデータq”を読み出す(ステップS804)。そして、正解ベクトル生成部24は、アノテーションデータq”に基づいて、ニューラルネットワーク部12から出力されることが期待される状況毎の生起の度合いpj (truth)(j=1〜M)からなる正解ベクトルp(truth)を生成し(ステップS805)、正解ベクトルp(truth)を評価部25に出力する。
正解ベクトル生成部24は、例えばアノテーションデータq”が前記式(16)に示した形式のベクトルの場合、アノテーションデータq”をそのまま正解ベクトルp(truth)に設定する(p(truth)=q”)。
また、正解ベクトル生成部24は、例えばアノテーションデータq”が前記式(20)に示した形式のスカラーの場合、以下の式のとおり、j=Q”の場合にはpj (truth)=1を設定し、j≠Q”の場合にはpj (truth)=0を設定することで、アノテーションデータq”であるスカラーQ”を正解ベクトルp(truth)に変換する。
Figure 2021135619
このように、正解ベクトルp(truth)は、ニューラルネットワーク部12から出力される推定ベクトルp”と同じ次元を有し、その各成分は、アノテーションデータq”の状況に対応するか否かを示す値により構成される。
(評価部25)
評価部25は、ニューラルネットワーク部12から推定ベクトルp”を入力すると共に、正解ベクトル生成部24から正解ベクトルp(truth)を入力する。そして、評価部25は、推定ベクトルp”と正解ベクトルp(truth)とを比較し、比較結果を評価し、比較結果の評価値を誤差ベクトルΔpとして生成する(ステップS806)。評価部25は、誤差ベクトルΔpを結合重み係数更新部26に出力する。
評価部25は、例えば以下の式のとおり、正解ベクトルp(truth)から推定ベクトルp”を減算し、減算結果のベクトル値を誤差ベクトルΔpとして生成する。
Figure 2021135619
(結合重み係数更新部26)
結合重み係数更新部26は、評価部25から誤差ベクトルΔpを入力し、例えば誤差ベクトルΔpのノルムを評価し、誤差ベクトルΔpのノルムが予め設定された閾値よりも小さいか否かを判定する(ステップS807)。
結合重み係数更新部26は、ステップS807において、誤差ベクトルΔpのノルムが閾値よりも小さくないと判定した場合(ステップS807:N)、誤差ベクトルΔpに基づいて、例えば誤差逆伝播法により、結合重み係数を更新し(ステップS808)、ステップS801へ移行し、次の学習データの処理を行う。
結合重み係数更新部26は、更新した結合重み係数を結合重み係数記憶部23に格納し、更新された結合重み係数は、結合重み係数記憶部23によりニューラルネットワーク部12に設定される。
一方、結合重み係数更新部26は、ステップS807において、誤差ベクトルΔpのノルムが閾値よりも小さいと判定した場合(ステップS807:Y)、最適な結合重み係数を既に更新済みであると判断する。そして、結合重み係数更新部26は、繰り返し行われる学習処理を停止し、結合重み係数の更新を行うことなく、このときの結合重み係数を最適な結合重み係数として出力する(ステップS809)。結合重み係数更新部26により出力された結合重み係数は、図1に示した状況識別装置1のニューラルネットワーク部12に設定される。
尚、結合重み係数更新部26は、ステップS807において、学習データ蓄積部22から読み出された学習データに基づく結合重み係数の更新回数を評価し、更新回数が予め設定された回数に達しているか否かを判定するようにしてもよい。
この場合、結合重み係数更新部26は、ステップS807において、更新回数が予め設定された回数に達していないと判定した場合(ステップS807:N)、ステップS808へ移行し、誤差ベクトルΔpに基づいて結合重み係数を更新する。
一方、結合重み係数更新部26は、ステップS807において、更新回数が予め設定された回数に達していると判定した場合(ステップS807:Y)、ステップS809へ移行し、繰り返し行われる学習処理を停止して結合重み係数を出力する。
また、学習データ蓄積部22に蓄積されている位置情報X”及びアノテーションデータq”の対(X”,q”)である学習データを、学習用データ及び検証用データの2群に分けるようにしてもよい。この場合、学習用データは、結合重み係数更新部26による結合重み係数の更新処理に用いられ、検証用データは、結合重み係数更新部26による学習処理の停止判定処理に用いられる。
具体的には、学習データ蓄積部22に蓄積された学習用データを用いて、図8に示したステップS801〜S806の処理が行われ、学習用データから生成された誤差ベクトルΔpが得られる。
一方、学習データ蓄積部22に蓄積された検証用データを用いて、図8に示したステップS801〜S806の処理が行われ、検査用データから生成された誤差ベクトルΔpが得られる。そして、ステップS807において、検査用データから生成された誤差ベクトルΔpを用いて判定処理が行われる。
前述のステップS807の判定処理の結果を受けて、ステップS808において、学習用データから生成された誤差ベクトルΔpに基づいて結合重み係数が更新され、ステップS809において、更新済みの結合重み係数が出力される。
また、結合重み係数更新部26は、ステップS807において、学習用データに基づく誤差ベクトルΔpのノルムの評価、学習用データに基づく更新回数の評価、及び検証用データに基づく誤差ベクトルΔpのノルムの評価のうちの2つ以上の評価を組み合わせるようにしてもよい。
具体的には、結合重み係数更新部26は、ステップS807において、前述の組み合わせの評価の条件のうち1つ以上の条件を満たしていない場合、ステップS808へ移行して結合重み係数を更新する。一方、結合重み係数更新部26は、ステップS807において、前述の組み合わせた評価の条件を満たしている場合、ステップS809へ移行し、繰り返し行われる学習処理を停止して結合重み係数を出力する。
以上のように、本発明の実施形態の状況学習装置3によれば、データ拡張部21は、位置情報X及びアノテーションデータqの対をデータ拡張し、水増し位置情報X(A)及び水増しアノテーションデータq(A)を生成する。そして、データ拡張部21は、位置情報X及びアノテーションデータqの対(X,q)、並びに水増し位置情報X(A)及び水増しアノテーションデータq(A)の対(X(A),q(A))を、学習データとして学習データ蓄積部22に格納する。
マップ生成部11は、学習データ蓄積部22から学習データである位置情報X”を読み出し、位置情報X”に基づいて、識別対象における移動物体の分布を画像化したマップM”を生成する。
ニューラルネットワーク部12は、マップM”を入力データとして結合重み係数に応じたニューラルネットワークの演算を行い、状況毎の生起の度合いpj”からなる推定ベクトルp”を出力データとして生成する。
正解ベクトル生成部24は、学習データ蓄積部22から、位置情報X”に対応する学習データであるアノテーションデータq”を読み出し、アノテーションデータq”に基づいて、状況毎の生起の度合いpj (truth)からなる正解ベクトルp(truth)を生成する。
評価部25は、正解ベクトルp(truth)から推定ベクトルp”を減算し、減算結果のベクトル値を誤差ベクトルΔpとして生成する。
結合重み係数更新部26は、誤差ベクトルΔpのノルムが予め設定された閾値よりも小さくないと判定した場合、誤差ベクトルΔpに基づいて、例えば誤差逆伝播法により結合重み係数を更新する。一方、結合重み係数更新部26は、誤差ベクトルΔpのノルムが閾値よりも小さいと判定した場合、繰り返し行われる学習処理を停止し、結合重み係数を出力する。
これにより、学習用データに基づいて最適な結合重み係数が決定され、最適な結合重み係数が状況識別装置1のニューラルネットワーク部12に設定される。つまり、状況識別装置1が使用する結合重み係数を、機械学習により数学的規範に基づいて自動的に決定することができる。
したがって、状況識別装置1のニューラルネットワーク部12にて最適な結合重み係数が用いられるから、状況識別装置1は、識別対象に含まれる移動物体iの位置情報Xiを用いて、識別対象の状況を精度高く判定することができる。
以上、実施形態を挙げて本発明を説明したが、本発明は前記実施形態に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。
前記実施形態では、状況識別装置1は判定部13を備えるようにしたが、判定部13を省略するようにしてもよい。この場合、状況識別装置1のニューラルネットワーク部12は、ニューラルネットワークの演算により生成した状況毎の生起の度合いpjを、そのまま識別結果p^のベクトルとして出力する。
また、前記実施形態では、状況学習装置3はデータ拡張部21を備えるようにしたが、データ拡張部21を省略するようにしてもよい。この場合、学習データ蓄積部22は、位置情報X及びアノテーションデータqの対(X,q)を学習データとして蓄積する。マップ生成部11は、学習データ蓄積部22から学習データである位置情報X”(=X)を読み出し、位置情報X”に基づいてマップM”を生成する。また、正解ベクトル生成部24は、学習データ蓄積部22から、位置情報X”に対応する学習データであるアノテーションデータq”(=q)を読み出し、アノテーションデータq”に基づいて正解ベクトルp(truth)を生成する。
また、前記実施形態では、状況学習装置3は、学習データ蓄積部22の後段にマップ生成部11を備えるようにしたが、学習データ蓄積部22の前段(データ拡張部21と学習データ蓄積部22との間)にマップ生成部11を備えるようにしてもよい。
この場合、マップ生成部11は、データ拡張部21から位置情報X及び水増し位置情報X(A)等である位置情報X”を入力し、マップM”を生成して学習データ蓄積部22に格納する。学習データ蓄積部22は、位置情報X及び水増し位置情報X(A)等の代わりに、マップM”を蓄積すると共に、マップM”と対をなすアノテーションデータq及び水増しアノテーションデータq(A)を蓄積する。そして、ニューラルネットワーク部12は、学習データ蓄積部22からマップM”を読み出す。
尚、本発明の実施形態による状況識別装置1及び状況学習装置3のハードウェア構成としては、通常のコンピュータを使用することができる。状況識別装置1及び状況学習装置3は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。
状況識別装置1に備えたマップ生成部11、ニューラルネットワーク部12及び判定部13の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。
また、状況学習装置3に備えたデータ拡張部21、学習データ蓄積部22、マップ生成部11、ニューラルネットワーク部12、結合重み係数記憶部23、正解ベクトル生成部24、評価部25及び結合重み係数更新部26の各機能も、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。
これらのプログラムは、前記記憶媒体に格納されており、CPUに読み出されて実行される。また、これらのプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもでき、ネットワークを介して送受信することもできる。
1 状況識別装置
2 対象位置計測部
3 状況学習装置
4 アノテーション入力部
11 マップ生成部
12 ニューラルネットワーク部
13 判定部
21 データ拡張部
22 学習データ蓄積部
23 結合重み係数記憶部
24 正解ベクトル生成部
25 評価部
26 結合重み係数更新部
i 移動物体の番号
i,X,X” 位置情報
(A),X(H),X(V),X(R) 水増し位置情報
M,M” マップ
c 種別
j 状況の種類を示す番号
j 生起の度合い
p ベクトル
i 信頼度
p^ 識別結果
q,q”,Q アノテーションデータ
(A),q(H),q(V),q(R) ,Q(H),Q(V),Q(R) 水増しアノテーションデータ
ΔX 摂動
推定ベクトル
(truth) 正解ベクトル
Δp 誤差ベクトル

Claims (10)

  1. 1以上の所定数の移動物体を含む識別対象の状況を判定する状況識別装置において、
    前記識別対象内の前記移動物体の位置に関する情報を位置情報として、前記所定数の移動物体におけるそれぞれの前記位置情報に基づいて、前記識別対象内の前記所定数の移動物体の分布を画像化したマップを生成するマップ生成部と、
    前記マップ生成部により生成された前記マップを入力し、所定の結合重み係数に応じたニューラルネットワークの演算を行い、前記状況の発生の有無を出力するニューラルネットワーク部と、
    を備えたことを特徴とする状況識別装置。
  2. 請求項1に記載の状況識別装置において、
    前記状況を複数種類の状況とし、
    前記ニューラルネットワーク部により前記状況の発生の有無が出力される出力層のノード数を、前記状況の種類と同じ数とする、ことを特徴とする状況識別装置。
  3. 請求項2に記載の状況識別装置において、
    さらに、判定部を備え、
    前記ニューラルネットワーク部は、
    前記複数種類の状況のそれぞれについての生起の度合いを出力し、
    前記判定部は、
    前記ニューラルネットワーク部により出力された前記複数種類の状況のそれぞれについての前記生起の度合いから、最も高い前記生起の度合いの前記状況を判定して出力する、ことを特徴とする状況識別装置。
  4. 請求項3に記載の状況識別装置において、
    前記判定部は、
    判定した前記状況に対し時間方向のフィルタ処理を施すことで平滑化し、平滑化した前記状況を出力する、ことを特徴とする状況識別装置。
  5. 請求項1から4までのいずれか一項に記載の状況識別装置において、
    前記ニューラルネットワーク部は、畳み込み層を含んで構成される、ことを特徴とする状況識別装置。
  6. 請求項1から5までのいずれか一項に記載の状況識別装置において、
    前記位置情報には、前記移動物体の位置がどの程度信頼できるかを定量化した信頼度が含まれており、
    前記マップ生成部は、
    前記信頼度を含む前記位置情報に基づいて、前記信頼度が反映された前記マップを生成する、ことを特徴とする状況識別装置。
  7. 1以上の所定数の移動物体を含む識別対象内の前記移動物体の位置に関する情報を位置情報として、前記識別対象内の前記所定数の移動物体におけるそれぞれの前記位置情報に基づいて生成したマップと、前記識別対象の状況を表すアノテーションデータとの対からなる学習データに基づいて、ニューラルネットワークを学習し、前記ニューラルネットワークに用いる結合重み係数を出力する状況学習装置であって、
    前記所定数の移動物体におけるそれぞれの前記位置情報に基づいて、前記識別対象内の前記所定数の移動物体の分布を画像化した前記マップを生成するマップ生成部と、
    前記マップ生成部により生成された前記マップを入力し、前記結合重み係数に応じた前記ニューラルネットワークの演算を行い、前記識別対象の状況の発生の有無を表す推定ベクトルを出力するニューラルネットワーク部と、
    前記アノテーションデータに基づいて、前記ニューラルネットワーク部により出力される前記推定ベクトルと同じ次元を有し、各成分が前記アノテーションデータの前記状況に対応するか否かを示す値により構成される正解ベクトルを生成し、当該正解ベクトルを出力する正解ベクトル生成部と、
    前記ニューラルネットワーク部により出力された前記推定ベクトルと、前記正解ベクトル生成部により出力された前記正解ベクトルとを比較し、比較結果を評価値として生成する評価部と、
    前記評価部により生成された前記評価値に基づいて、前記ニューラルネットワーク部が用いる前記結合重み係数を更新する結合重み係数更新部と、
    を備えたことを特徴とする状況学習装置。
  8. 請求項7に記載の状況学習装置において、
    さらに、前記位置情報に対して摂動を与えるか、または鏡像変換若しくは回転変換を施すことで、水増し位置情報を生成すると共に、前記位置情報に対応する前記アノテーションデータに基づいて、水増しアノテーションデータを生成するデータ拡張部を備え、
    前記マップ生成部は、
    さらに、前記データ拡張部により生成された前記水増し位置情報に基づいて、前記マップを生成し、
    前記正解ベクトル生成部は、
    さらに、前記データ拡張部により生成された前記水増しアノテーションデータに基づいて、前記正解ベクトルを生成して出力する、ことを特徴とする状況学習装置。
  9. コンピュータを、請求項1から6までのいずれか一項に記載の状況識別装置として機能させるためのプログラム。
  10. コンピュータを、請求項7または8に記載の状況学習装置として機能させるためのプログラム。
JP2020029869A 2020-02-25 2020-02-25 状況識別装置、状況学習装置及びプログラム Pending JP2021135619A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020029869A JP2021135619A (ja) 2020-02-25 2020-02-25 状況識別装置、状況学習装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020029869A JP2021135619A (ja) 2020-02-25 2020-02-25 状況識別装置、状況学習装置及びプログラム

Publications (1)

Publication Number Publication Date
JP2021135619A true JP2021135619A (ja) 2021-09-13

Family

ID=77661273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020029869A Pending JP2021135619A (ja) 2020-02-25 2020-02-25 状況識別装置、状況学習装置及びプログラム

Country Status (1)

Country Link
JP (1) JP2021135619A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115700595A (zh) * 2022-11-08 2023-02-07 佛山科学技术学院 基于射频指纹深度学习的身份识别方法及装置
WO2023170793A1 (ja) * 2022-03-08 2023-09-14 日本電信電話株式会社 スポーツプレー状況判定装置、スポーツプレー状況判定方法及びスポーツプレー状況判定プログラム
WO2024047848A1 (ja) * 2022-09-01 2024-03-07 日本電信電話株式会社 映像処理装置、映像処理方法、および映像処理プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023170793A1 (ja) * 2022-03-08 2023-09-14 日本電信電話株式会社 スポーツプレー状況判定装置、スポーツプレー状況判定方法及びスポーツプレー状況判定プログラム
WO2024047848A1 (ja) * 2022-09-01 2024-03-07 日本電信電話株式会社 映像処理装置、映像処理方法、および映像処理プログラム
CN115700595A (zh) * 2022-11-08 2023-02-07 佛山科学技术学院 基于射频指纹深度学习的身份识别方法及装置

Similar Documents

Publication Publication Date Title
JP6065427B2 (ja) オブジェクト追跡方法及びオブジェクト追跡装置
Nakai et al. Prediction of basketball free throw shooting by openpose
CN108352072A (zh) 物体跟踪方法、物体跟踪装置以及程序
JP2021135619A (ja) 状況識別装置、状況学習装置及びプログラム
Deepa et al. Comparison of yolo, ssd, faster rcnn for real time tennis ball tracking for action decision networks
JP7439004B2 (ja) 行動認識装置、学習装置、および行動認識方法
Meng et al. A video information driven football recommendation system
CN106022266A (zh) 一种目标跟踪方法及装置
Shimizu et al. Prediction of future shot direction using pose and position of tennis player
Henschel et al. Accurate long-term multiple people tracking using video and body-worn IMUs
CN109829405A (zh) 视频目标的数据关联方法、装置及存储介质
Cui et al. Deep learning based advanced spatio-temporal extraction model in medical sports rehabilitation for motion analysis and data processing
Pengyu et al. Image detection and basketball training performance simulation based on improved machine learning
Li et al. Video-based table tennis tracking and trajectory prediction using convolutional neural networks
Wang et al. Studies and simulations on the flight trajectories of spinning table tennis ball via high-speed camera vision tracking system
Maharani et al. Particle filter based single shot multibox detector for human moving prediction
Han et al. CHORUS: Learning Canonicalized 3D Human-Object Spatial Relations from Unbounded Synthesized Images
JP4533037B2 (ja) オフサイドライン検出装置及びそのプログラム
Xiong et al. A diversified generative latent variable model for wifi-slam
Faujdar et al. Human Pose Estimation using Artificial Intelligence with Virtual Gym Tracker
Ding et al. Estimation of control area in badminton doubles with pose information from top and back view drone videos
Lyu et al. Badminton Path Tracking Algorithm Based on Computer Vision and Ball Speed Analysis
CN117015802A (zh) 用于改进无标记运动分析的方法
JP7373352B2 (ja) 位置推定装置、位置学習装置及びプログラム
Chen Image recognition method for pitching fingers of basketball players based on symmetry algorithm

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240119