JP2021135619A - 状況識別装置、状況学習装置及びプログラム - Google Patents
状況識別装置、状況学習装置及びプログラム Download PDFInfo
- Publication number
- JP2021135619A JP2021135619A JP2020029869A JP2020029869A JP2021135619A JP 2021135619 A JP2021135619 A JP 2021135619A JP 2020029869 A JP2020029869 A JP 2020029869A JP 2020029869 A JP2020029869 A JP 2020029869A JP 2021135619 A JP2021135619 A JP 2021135619A
- Authority
- JP
- Japan
- Prior art keywords
- situation
- unit
- neural network
- map
- position information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 claims abstract description 116
- 230000008878 coupling Effects 0.000 claims abstract description 71
- 238000010168 coupling process Methods 0.000 claims abstract description 71
- 238000005859 coupling reaction Methods 0.000 claims abstract description 71
- 238000009826 distribution Methods 0.000 claims abstract description 24
- 239000013598 vector Substances 0.000 claims description 105
- 238000000034 method Methods 0.000 claims description 46
- 238000011156 evaluation Methods 0.000 claims description 26
- 230000006870 function Effects 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 13
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 238000012549 training Methods 0.000 claims description 8
- 238000013500 data storage Methods 0.000 description 31
- 238000012545 processing Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 15
- 238000005259 measurement Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 7
- 230000004913 activation Effects 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
〔状況識別装置〕
まず、本発明の実施形態による状況識別装置について説明する。図1は、本発明の実施形態による状況識別装置の構成の一例を示すブロック図であり、図2は、状況識別装置の処理の一例を示すフローチャートである。
マップ生成部11は、対象位置計測部2から、識別対象に含まれる移動物体iの位置情報Xi(i=1〜N)、すなわち位置情報(Xi)i∈{1,2,...,N}(Nは自然数)を入力する(ステップS201)。iは移動物体の番号を示す。
図1及び図2に戻って、ニューラルネットワーク部12は、マップ生成部11からマップMを入力し、マップMを入力データとして、所定の結合重み係数に応じたニューラルネットワークの演算を行う。そして、ニューラルネットワーク部12は、状況毎の発生の有無、例えば状況毎の生起の度合い(生起しているか否かを定量化した値)pj(j=1〜M)からなるベクトルpを出力データとして生成する(ステップS203)。jは状況の種類を示す番号であり、状況は1または複数種類ある。ニューラルネットワーク部12は、ベクトルpを判定部13に出力する。
図1及び図2に戻って、判定部13は、ニューラルネットワーク部12から状況毎の生起の度合いpjから構成されるベクトルpを入力し、状況毎の生起の度合いpjに基づいて識別結果p^を判定する(ステップS204)。そして、判定部13は、識別結果p^を出力する(ステップS205)。
次に、本発明の実施形態による状況学習装置について説明する。図6は、本発明の実施形態による状況学習装置の構成の一例を示すブロック図であり、図7は、状況学習装置の処理の一例を示すフローチャートである。
アノテーション入力部4は、対象位置計測部2により位置情報Xが計測された時点において、識別対象の状況を教示するための手段である。アノテーション入力部4は、キーボードまたはタッチパネルの押下(タッチ)操作、マウスまたはトラックボールのクリック操作、ホイール等の回転操作等の任意のヒューマンマシンインターフェースを用いることができる。
データ拡張部21は、対象位置計測部2から、識別対象に含まれる移動物体の位置情報Xを入力すると共に、当該位置情報Xの時点における識別対象の状況を表すアノテーションデータqを入力する(ステップS701)。
図6及び図7に戻って、学習データ蓄積部22は、位置情報X及びアノテーションデータqの対(X,q)、並びに水増し位置情報X(A)及び水増しアノテーションデータq(A)の対(X(A),q(A))を学習データとして蓄積する。
状況学習装置3は、学習データ蓄積部22に蓄積された学習データを対毎に読み出し、ニューラルネットワーク部12を学習することで、結合重み係数を求めて出力する(ステップS704)。
マップ生成部11は、学習データ蓄積部22から学習データである位置情報X”を読み出す(ステップS801)。そして、マップ生成部11は、位置情報X”に基づいて、識別対象における移動物体の分布を画像化したマップM”を生成する(ステップS802)。マップ生成部11は、マップM”をニューラルネットワーク部12に出力する。尚、マップ生成部11は、図1に示した同名の構成部と同様であるため、ここでは詳細な説明を省略する。
結合重み係数記憶部23は、ニューラルネットワーク部12に設定する結合重み係数を一時的に記憶する手段である。結合重み係数記憶部23は、初期値として乱数系列(または疑似乱数系列)に基づく値を記憶しているか、または予め設定された定数値の系列を記憶しているものとする。
ニューラルネットワーク部12は、図1に示したニューラルネットワーク部12と同じ構成をなす。ニューラルネットワーク部12は、マップ生成部11からマップM”を入力する。
正解ベクトル生成部24は、学習データ蓄積部22から、ステップS801にて読み出された位置情報X”に対応するアノテーションデータq”を読み出す(ステップS804)。そして、正解ベクトル生成部24は、アノテーションデータq”に基づいて、ニューラルネットワーク部12から出力されることが期待される状況毎の生起の度合いpj (truth)(j=1〜M)からなる正解ベクトルp(truth)を生成し(ステップS805)、正解ベクトルp(truth)を評価部25に出力する。
評価部25は、ニューラルネットワーク部12から推定ベクトルp”を入力すると共に、正解ベクトル生成部24から正解ベクトルp(truth)を入力する。そして、評価部25は、推定ベクトルp”と正解ベクトルp(truth)とを比較し、比較結果を評価し、比較結果の評価値を誤差ベクトルΔpとして生成する(ステップS806)。評価部25は、誤差ベクトルΔpを結合重み係数更新部26に出力する。
結合重み係数更新部26は、評価部25から誤差ベクトルΔpを入力し、例えば誤差ベクトルΔpのノルムを評価し、誤差ベクトルΔpのノルムが予め設定された閾値よりも小さいか否かを判定する(ステップS807)。
2 対象位置計測部
3 状況学習装置
4 アノテーション入力部
11 マップ生成部
12 ニューラルネットワーク部
13 判定部
21 データ拡張部
22 学習データ蓄積部
23 結合重み係数記憶部
24 正解ベクトル生成部
25 評価部
26 結合重み係数更新部
i 移動物体の番号
Xi,X,X” 位置情報
X(A),X(H),X(V),X(R) 水増し位置情報
M,M” マップ
c 種別
j 状況の種類を示す番号
pj 生起の度合い
p ベクトル
ri 信頼度
p^ 識別結果
q,q”,Q アノテーションデータ
q(A),q(H),q(V),q(R) ,Q(H),Q(V),Q(R) 水増しアノテーションデータ
ΔX 摂動
p” 推定ベクトル
p(truth) 正解ベクトル
Δp 誤差ベクトル
Claims (10)
- 1以上の所定数の移動物体を含む識別対象の状況を判定する状況識別装置において、
前記識別対象内の前記移動物体の位置に関する情報を位置情報として、前記所定数の移動物体におけるそれぞれの前記位置情報に基づいて、前記識別対象内の前記所定数の移動物体の分布を画像化したマップを生成するマップ生成部と、
前記マップ生成部により生成された前記マップを入力し、所定の結合重み係数に応じたニューラルネットワークの演算を行い、前記状況の発生の有無を出力するニューラルネットワーク部と、
を備えたことを特徴とする状況識別装置。 - 請求項1に記載の状況識別装置において、
前記状況を複数種類の状況とし、
前記ニューラルネットワーク部により前記状況の発生の有無が出力される出力層のノード数を、前記状況の種類と同じ数とする、ことを特徴とする状況識別装置。 - 請求項2に記載の状況識別装置において、
さらに、判定部を備え、
前記ニューラルネットワーク部は、
前記複数種類の状況のそれぞれについての生起の度合いを出力し、
前記判定部は、
前記ニューラルネットワーク部により出力された前記複数種類の状況のそれぞれについての前記生起の度合いから、最も高い前記生起の度合いの前記状況を判定して出力する、ことを特徴とする状況識別装置。 - 請求項3に記載の状況識別装置において、
前記判定部は、
判定した前記状況に対し時間方向のフィルタ処理を施すことで平滑化し、平滑化した前記状況を出力する、ことを特徴とする状況識別装置。 - 請求項1から4までのいずれか一項に記載の状況識別装置において、
前記ニューラルネットワーク部は、畳み込み層を含んで構成される、ことを特徴とする状況識別装置。 - 請求項1から5までのいずれか一項に記載の状況識別装置において、
前記位置情報には、前記移動物体の位置がどの程度信頼できるかを定量化した信頼度が含まれており、
前記マップ生成部は、
前記信頼度を含む前記位置情報に基づいて、前記信頼度が反映された前記マップを生成する、ことを特徴とする状況識別装置。 - 1以上の所定数の移動物体を含む識別対象内の前記移動物体の位置に関する情報を位置情報として、前記識別対象内の前記所定数の移動物体におけるそれぞれの前記位置情報に基づいて生成したマップと、前記識別対象の状況を表すアノテーションデータとの対からなる学習データに基づいて、ニューラルネットワークを学習し、前記ニューラルネットワークに用いる結合重み係数を出力する状況学習装置であって、
前記所定数の移動物体におけるそれぞれの前記位置情報に基づいて、前記識別対象内の前記所定数の移動物体の分布を画像化した前記マップを生成するマップ生成部と、
前記マップ生成部により生成された前記マップを入力し、前記結合重み係数に応じた前記ニューラルネットワークの演算を行い、前記識別対象の状況の発生の有無を表す推定ベクトルを出力するニューラルネットワーク部と、
前記アノテーションデータに基づいて、前記ニューラルネットワーク部により出力される前記推定ベクトルと同じ次元を有し、各成分が前記アノテーションデータの前記状況に対応するか否かを示す値により構成される正解ベクトルを生成し、当該正解ベクトルを出力する正解ベクトル生成部と、
前記ニューラルネットワーク部により出力された前記推定ベクトルと、前記正解ベクトル生成部により出力された前記正解ベクトルとを比較し、比較結果を評価値として生成する評価部と、
前記評価部により生成された前記評価値に基づいて、前記ニューラルネットワーク部が用いる前記結合重み係数を更新する結合重み係数更新部と、
を備えたことを特徴とする状況学習装置。 - 請求項7に記載の状況学習装置において、
さらに、前記位置情報に対して摂動を与えるか、または鏡像変換若しくは回転変換を施すことで、水増し位置情報を生成すると共に、前記位置情報に対応する前記アノテーションデータに基づいて、水増しアノテーションデータを生成するデータ拡張部を備え、
前記マップ生成部は、
さらに、前記データ拡張部により生成された前記水増し位置情報に基づいて、前記マップを生成し、
前記正解ベクトル生成部は、
さらに、前記データ拡張部により生成された前記水増しアノテーションデータに基づいて、前記正解ベクトルを生成して出力する、ことを特徴とする状況学習装置。 - コンピュータを、請求項1から6までのいずれか一項に記載の状況識別装置として機能させるためのプログラム。
- コンピュータを、請求項7または8に記載の状況学習装置として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020029869A JP2021135619A (ja) | 2020-02-25 | 2020-02-25 | 状況識別装置、状況学習装置及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020029869A JP2021135619A (ja) | 2020-02-25 | 2020-02-25 | 状況識別装置、状況学習装置及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021135619A true JP2021135619A (ja) | 2021-09-13 |
Family
ID=77661273
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020029869A Pending JP2021135619A (ja) | 2020-02-25 | 2020-02-25 | 状況識別装置、状況学習装置及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021135619A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115700595A (zh) * | 2022-11-08 | 2023-02-07 | 佛山科学技术学院 | 基于射频指纹深度学习的身份识别方法及装置 |
WO2023170793A1 (ja) * | 2022-03-08 | 2023-09-14 | 日本電信電話株式会社 | スポーツプレー状況判定装置、スポーツプレー状況判定方法及びスポーツプレー状況判定プログラム |
WO2024047848A1 (ja) * | 2022-09-01 | 2024-03-07 | 日本電信電話株式会社 | 映像処理装置、映像処理方法、および映像処理プログラム |
-
2020
- 2020-02-25 JP JP2020029869A patent/JP2021135619A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023170793A1 (ja) * | 2022-03-08 | 2023-09-14 | 日本電信電話株式会社 | スポーツプレー状況判定装置、スポーツプレー状況判定方法及びスポーツプレー状況判定プログラム |
WO2024047848A1 (ja) * | 2022-09-01 | 2024-03-07 | 日本電信電話株式会社 | 映像処理装置、映像処理方法、および映像処理プログラム |
CN115700595A (zh) * | 2022-11-08 | 2023-02-07 | 佛山科学技术学院 | 基于射频指纹深度学习的身份识别方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6065427B2 (ja) | オブジェクト追跡方法及びオブジェクト追跡装置 | |
Nakai et al. | Prediction of basketball free throw shooting by openpose | |
CN108352072A (zh) | 物体跟踪方法、物体跟踪装置以及程序 | |
JP2021135619A (ja) | 状況識別装置、状況学習装置及びプログラム | |
Deepa et al. | Comparison of yolo, ssd, faster rcnn for real time tennis ball tracking for action decision networks | |
JP7439004B2 (ja) | 行動認識装置、学習装置、および行動認識方法 | |
Meng et al. | A video information driven football recommendation system | |
CN106022266A (zh) | 一种目标跟踪方法及装置 | |
Shimizu et al. | Prediction of future shot direction using pose and position of tennis player | |
Henschel et al. | Accurate long-term multiple people tracking using video and body-worn IMUs | |
CN109829405A (zh) | 视频目标的数据关联方法、装置及存储介质 | |
Cui et al. | Deep learning based advanced spatio-temporal extraction model in medical sports rehabilitation for motion analysis and data processing | |
Pengyu et al. | Image detection and basketball training performance simulation based on improved machine learning | |
Li et al. | Video-based table tennis tracking and trajectory prediction using convolutional neural networks | |
Wang et al. | Studies and simulations on the flight trajectories of spinning table tennis ball via high-speed camera vision tracking system | |
Maharani et al. | Particle filter based single shot multibox detector for human moving prediction | |
Han et al. | CHORUS: Learning Canonicalized 3D Human-Object Spatial Relations from Unbounded Synthesized Images | |
JP4533037B2 (ja) | オフサイドライン検出装置及びそのプログラム | |
Xiong et al. | A diversified generative latent variable model for wifi-slam | |
Faujdar et al. | Human Pose Estimation using Artificial Intelligence with Virtual Gym Tracker | |
Ding et al. | Estimation of control area in badminton doubles with pose information from top and back view drone videos | |
Lyu et al. | Badminton Path Tracking Algorithm Based on Computer Vision and Ball Speed Analysis | |
CN117015802A (zh) | 用于改进无标记运动分析的方法 | |
JP7373352B2 (ja) | 位置推定装置、位置学習装置及びプログラム | |
Chen | Image recognition method for pitching fingers of basketball players based on symmetry algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230110 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231108 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240119 |