JP2018120402A - イベント検出装置、イベント検出方法、プログラム - Google Patents

イベント検出装置、イベント検出方法、プログラム Download PDF

Info

Publication number
JP2018120402A
JP2018120402A JP2017011108A JP2017011108A JP2018120402A JP 2018120402 A JP2018120402 A JP 2018120402A JP 2017011108 A JP2017011108 A JP 2017011108A JP 2017011108 A JP2017011108 A JP 2017011108A JP 2018120402 A JP2018120402 A JP 2018120402A
Authority
JP
Japan
Prior art keywords
image
event
frame
feature information
event detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017011108A
Other languages
English (en)
Other versions
JP6713422B2 (ja
Inventor
鮎美 松本
Ayumi Matsumoto
鮎美 松本
弾 三上
Dan Mikami
弾 三上
木全 英明
Hideaki Kimata
英明 木全
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017011108A priority Critical patent/JP6713422B2/ja
Publication of JP2018120402A publication Critical patent/JP2018120402A/ja
Application granted granted Critical
Publication of JP6713422B2 publication Critical patent/JP6713422B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】サブフレーム単位でイベントを検出するモデルを学習することができるイベント検出装置を提供する。
【解決手段】動画として再生可能なフレーム毎の画像からなる画像列を取得する画像列取得部と、任意フレームの画像の特徴と、前記任意フレームの画像の前あるいは後に連なる任意の数の画像の特徴とを表現する画像特徴情報を各フレームについて抽出する画像特徴情報抽出部と、学習データである画像列のフレーム間を所定の時間間隔で分割したサブフレームのうちの特定のサブフレーム、または特定のフレームを所定のイベントが発生するイベント発生時刻として指定するイベント発生時刻指定部と、学習データである画像列に対応する画像特徴情報列を低次元空間にマッピングし、マッピングされた各座標間を前記所定の時間間隔で補間してモデルを学習するモデル学習部を含む。
【選択図】図1

Description

本発明は、動画像において対象とするイベントを検出するイベント検出装置、イベント検出方法、プログラムに関する。
動画像から特定のイベントを検出する技術が知られている(例えば非特許文献1、2)。この技術は、異常検知やジェスチャー認識など実際のサービスにも多く利用されている。
Davis,J.W.and Bobick,A.F., "The Representation and Recognition of Human Movement Using Temporal Templates," In Proceedings of the 1997 Conference on Computer Vision and Pattern Recognition (CVPR'97), CVPR'97, pages 928-934, (1997) R. Urtasun, D. J. Fleet, and P. Fua. "3D People Tracking with Gaussian Process Dynamical Models." CVPR, 2006.
従来技術において検出対象とされているのは、数フレーム単位の誤差を許容するイベントである。従って、フレーム単位以下の検出精度が要求される対象には適用できない。
しかし、例えば、スポーツのピッチング映像におけるボールリリースやゴルフスイング映像におけるインパクトといったイベントを検出し、他のセンサデータとの同期を行おうとした場合にはサブフレーム単位でのイベント検出が必要となる。
そこで本発明は、サブフレーム単位でイベントを検出するモデルを学習することができるイベント検出装置を提供することを目的とする。
本発明のイベント検出装置は、画像列取得部と、画像特徴情報抽出部と、イベント発生時刻指定部と、モデル学習部を含む。
画像列取得部は、動画として再生可能なフレーム毎の画像からなる画像列を取得する。画像特徴情報抽出部は、任意フレームの画像の特徴と、任意フレームの画像の前あるいは後に連なる任意の数の画像の特徴とを表現する画像特徴情報を各フレームについて抽出する。イベント発生時刻指定部は、学習データである画像列のフレーム間を所定の時間間隔で分割したサブフレームのうちの特定のサブフレーム、または特定のフレームを所定のイベントが発生するイベント発生時刻として指定する。モデル学習部は、学習データである画像列に対応する画像特徴情報列を低次元空間にマッピングし、マッピングされた各座標間を所定の時間間隔で補間してモデルを学習する。
本発明のイベント検出装置によれば、サブフレーム単位でイベントを検出するモデルを学習することができる。
実施例1のイベント検出装置の構成を示すブロック図。 実施例1のイベント検出装置のモデル学習動作を示すフローチャート。 画像列から画像特徴情報列を抽出する動作を説明する図。 画像特徴情報列を低次元空間にマッピングして疑似高フレームレート化する動作を説明する図。 実施例1のイベント検出装置のイベント検出動作を示すフローチャート。 イベント領域検出部とイベント発生時刻推定部の構成を示すブロック図。 イベント領域検出部とイベント発生時刻推定部の動作を示すフローチャート。 テンプレートと画像特徴情報との距離計算を説明する図。 イベント領域の座標値として設定される中心座標を説明する図。 イベント検出対象とモデルの低次元空間における照合を説明する図。
以下、本発明の実施の形態について、詳細に説明する。なお、同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
以下、図1を参照して、実施例1のイベント検出装置の構成を説明する。図1に示すように、本実施例のイベント検出装置1は、学習部11と、データ記憶部12と、検出部13を含む。学習部11は、画像列取得部111と、画像特徴情報抽出部112と、テンプレート指定部113と、イベント発生時刻指定部114と、モデル学習部115を含む。検出部13は、画像列取得部131と、画像特徴情報抽出部132と、イベント領域検出部133と、イベント発生時刻推定部134を含む。画像列取得部111と画像列取得部131は同じ機能を有している。二つの構成要件の違いは取得する画像列の役割が異なることである。画像列取得部111はモデルを学習するための学習データとして画像列を取得するのに対し、画像列取得部131は、イベント検出対象として画像列を取得する。画像列取得部111と画像列取得部131は一つの構成要件に統合してもよい。同様に、画像特徴情報抽出部112と画像特徴情報抽出部132は、抽出元となる画像列が学習データであるかイベント検出対象であるかの違いがあるだけで、同じ機能を有している。従って、画像特徴情報抽出部112と画像特徴情報抽出部132もまた、一つの構成要件に統合してもよい。
<モデル学習動作>
以下、図2を参照して、学習部11内で実行されるモデル学習動作について説明する。まず、画像列取得部111は、例えばビデオカメラ91aなどからモデル学習用の動画データ(以下、学習データと呼称する)を取得する。画像列取得部111は、ビデオカメラ91aからではなく、予め用意されたモデル学習用の動画ファイル(この場合も学習データと呼称する)を別の装置などから受け取ってもよい。少なくとも、画像列取得部111は動画として再生可能なフレーム毎の画像からなる画像列を何らかの方法で取得すればよい(S111)。画像列取得部111は取得した画像列を次の処理へ振り分ける。具体的には、画像列取得部111は、取得した画像列を、画像特徴情報抽出部112へ送る。
画像特徴情報抽出部112は、任意フレームの画像の特徴と、任意フレームの画像の前あるいは後に連なる任意の数の画像の特徴とを表現する画像特徴情報を各フレームについて抽出する(S112)。画像特徴情報として、例えば、動作認識に用いられる非特許文献1のMotion Histoy Image(以下、MHIとも呼称する)を用いてもよい。各フレームについてMHIを抽出する例について、図3を参照して補足説明する。図3に示すように、xフレームに対応するMHIは、xフレームの画像の特徴、およびxフレームの画像から過去に連続するx−1フレームの画像、x−2フレームの画像、…などの特徴を表現する二次元分布として抽出される。一方、x+1フレームに対応するMHIは、x+1フレームの画像の特徴、およびx+1フレームの画像から過去に連続するxフレームの画像、x−1フレームの画像、…などの特徴を表現する二次元分布として抽出される。このように、画像特徴情報抽出部112は、画像列のフレームそれぞれに対して一つずつ、画像特徴情報を抽出する。
次に、テンプレート指定部113は、学習データである画像列に対応する画像特徴情報列のうち、検出したい所定のイベントを含む画像特徴情報の一部の画像領域をテンプレートとして指定する(S113)。例えばテンプレートは、対象イベントを含むフレームにおいて、対象イベントを含むように予め手動で設定された画像領域としてもよい。さらに、テンプレート指定部113は、テンプレートを指定したフレームの前後のNフレームの該当する画像領域をイベント領域として指定する(S113)。テンプレート、イベント領域は、画像領域の範囲を定義する座標値、該当するフレーム番号などで定義できる。テンプレート指定部113は、指定したテンプレート、イベント領域をデータ記憶部12に保存する。イベント領域指定を行うことで、データ量が格段に低下し、以降の処理コストを大きく低下させることができる。またイベント領域指定を行うことで、類似するデータが抽出されやすくなるため、モデルの精度を高めることができる。
イベント発生時刻指定部114は、学習データである画像列のフレーム間を所定の時間間隔で分割したサブフレームのうちの特定のサブフレーム、または特定のフレームを所定のイベントが発生するイベント発生時刻として指定する(S114)。例えば、オリジナルの画像列のフレームレートをFsとした場合に、イベント検出をFs×rの精度で行いたい場合、イベント発生時刻指定部114は、フレーム間をr分割してr−1個の仮想のサブフレームを挿入し、当該サブフレームあるいはフレームの何れか一つに、イベント発生時刻を割り当てる。割り当ての具体的方法として、イベント発生時刻指定部114は例えば手動で予めタグ付けされたデータを用いてもよい。手動によるタグ付けは目測で行ってもよいし、同時に測定したセンサの値などを用いてもよい。イベント発生時刻指定部114は、イベント発生時刻をデータ記憶部12に保存する。
モデル学習部115は、イベント検出を行うためのモデルの学習を行う。詳細には、モデル学習部115は、学習データである画像列に対応する画像特徴情報列を、S113で指定したイベント領域において、低次元空間にマッピングする。低次元空間へのマッピングは任意の手法で実現可能であるが、例えば、非特許文献2のように時系列に滑らかに低次元写像を行うことができる手法を用いることができる。モデル学習部115のマッピング実行例として図4Aの例を開示する。図4Aの例では、画像特徴情報列として4枚が選択され、これらがそれぞれ4つの座標からなる座標群51にマッピングされる。
モデル学習部115は、マッピングされた各座標間を所定の時間間隔で補間してモデルを学習する(S115)。例えば、前述のステップS114で、フレームレートをr倍にするサブフレーム分割が実行されている場合には、対応するステップS115において、r倍の疑似高フレームレート化が実行される。モデル学習部115の疑似高フレームレート化の実行例として図4Bの例を開示する。図4Bの例では、座標群51の間を補間する座標群61が挿入され、疑似高フレームレート化が実行される。モデル学習部115は、任意の補間方法を実行することができる。モデル学習部115は、マッピング関数、低次元空間での座標値をモデルとしてデータ記憶部12に保存する。
データ記憶部12には、ステップS113で指定されたテンプレートとイベント領域、ステップS114で指定されたイベント発生時刻、ステップS115で学習されたモデル(マッピング関数と低次元空間での座標値)が保存される。
<イベント検出動作>
以下、図5を参照して、検出部13内で実行されるイベント検出動作について説明する。画像列取得部131は、イベント検出対象である画像列を取得する(S131)。前述したとおり、画像列取得部131は画像列取得部111と統合してもよい。画像列取得部111と同様、画像列取得部131は例えばビデオカメラ91bなどからイベント検出用の動画データを取得してもよいし、ビデオカメラ91bからではなく、予め用意されたイベント検出用の動画ファイルを別の装置などから受け取ってもよい。ビデオカメラ91bは前述のビデオカメラ91aと同じ機材であってもよい。画像列取得部131は、取得した画像列を次の処理へ振り分ける。具体的には、画像列取得部131は、取得した画像列を、画像特徴情報抽出部132へ送る。
画像特徴情報抽出部132は、イベント検出対象である画像列に対応する画像特徴情報を抽出する(S132)。前述したとおり、画像特徴情報抽出部132は画像特徴情報抽出部112と統合してもよい。
イベント領域検出部133は、イベント検出対象である画像列に対応する画像特徴情報列と前述のテンプレートとを照合して、イベント検出対象におけるイベント領域を検出する(S133、詳細は後述)。イベント領域検出部133は、一般的に用いられるテンプレートマッチング(例えば参考非特許文献1)の手法を用いることができる。
(参考非特許文献1:H. D. CRANE, etc, “Translation-Tolerant Mask Matching Using Noncoherent Reflective Optics,” PR, 1968)
イベント発生時刻推定部134は、イベント検出対象である画像列に対応する画像特徴情報列を、S133で検出したイベント領域において、低次元空間にマッピングし、マッピングされた各座標間を所定の時間間隔で補間し、モデルおよびイベント発生時刻と照合して、イベント検出対象におけるイベント発生時刻を推定する(S134、詳細は後述)。
以下、図6を参照してイベント領域検出部133、イベント発生時刻推定部134内の詳細な実施形態について説明する。図6に示すように、イベント領域検出部133は、テンプレート読込部1331、フレーム毎最小距離計算部1332、中心フレーム決定部1333、前後フレーム選択部1334を含んで構成されてもよい。同図に示すように、イベント発生時刻推定部134は、低次元空間マッピング部1341、疑似高フレームレート化部1342、座標毎確率計算部1343、時刻推定部1344を含んで構成されてもよい。
<イベント領域検出部133の動作の詳細>
以下、図7を参照して、イベント領域検出部133内で実行されるイベント領域検出動作について説明する。まず、テンプレート読込部1331は、データ記憶部12に保存されているテンプレートを読み込む(S1331)。
フレーム毎最小距離計算部1332は、ステップS132で抽出した画像特徴情報列の全フレームについて、フレームごとにテンプレートとの最小距離を計算し、フレームごとに最小距離に対応する座標値を取得する(S1332)。ステップS1332をより具体的に説明するために図8を開示した。すなわち、フレーム毎最小距離計算部1332は、ステップS132で抽出したnフレーム目の幅W×高さHの画像特徴情報I(n)の全領域に対して、ステップS1331で読み込んだ幅w×高さh(ただし、W>wかつH>h)のテンプレートIをスライドさせながらテンプレートと画像特徴情報の距離を計算する処理をフレームn=1,2,…について実行する。このとき、結果Rは(W−w+1)×(H−h+1)のサイズとなる。距離の計算は、例えば、下記の式で行うことが可能である。
R(x,y)=sumx’,y’[T(x’,y’)-I(x+x’,y+y’)]2 …(1)
上記の式において、Rの最小値を求めることで、最小距離の計算が可能である。フレーム毎最小距離計算部1332は、上記計算を全フレームについて実行する。各フレームでの最小距離をRmin(n)とし、最小距離を充たす各フレームのイベント領域候補の座標値を(xmin,ymin)とする。座標値は、例えば各フレームのイベント領域候補の中心座標とすればよい。なお、上式を相関値にした場合、最大値をとれば同等の効果が得られる。
中心フレーム決定部1333は、最小距離Rmin(n)の最小値をとるフレーム番号Nのフレーム(中心フレーム)、およびこれに対応する座標値(x min,y min)を決定する(S1333)。ステップS1333をより具体的に説明するために図9を開示した。同図に示すように、中心フレーム決定部1333は、フレーム番号Nのフレーム(中心フレーム)において最小距離を充たす領域(白枠で囲んだ領域)の中心座標(x min,y min)を求める。
前後フレーム選択部1334は、Nの前後Nフレーム(N−Nフレーム〜N+Nフレーム)の画像特徴情報を選択し、ステップS1333と同様に、これらのフレームに対応する座標値(中心座標)を求め、イベント領域を決定する(S1334)。
<イベント発生時刻推定部134の動作の詳細>
図7を参照して、イベント発生時刻推定部134内で実行されるイベント発生時刻推定動作について説明する。まず、低次元空間マッピング部1341は、イベント領域に対応する画像特徴情報列を低次元空間にマッピングする(S1341)。低次元空間マッピング部1341は、マッピングを、ステップS115で事前学習したマッピング関数に基づいて実行する。例えば、3次元の低次元空間へマッピングを行う場合、時刻nでの座標値は(x(n),y(n),z(n))となる。
擬似高フレームレート化部1342は、マッピングされた各座標間を所定の時間間隔で補間し、擬似高フレームレート化する(S1342)。例えば、K倍の疑似高フレームレート化を行うのであれば、(x(n),y(n),z(n))から(x(n+1),y(n+1),z(n+1))へのベクトルをK分割して、分割点を1:KNフレームの新たな座標値とする。この例の概念図を図10に開示する。同図に示すように、擬似高フレームレート化部1342は、マッピングされた座標群71の座標間に新たな座標群81を補間して、擬似高フレームレート化を実行する。
座標毎確率計算部1343は、マッピングおよび補間された各座標について、対象イベントが起こる確率Pを計算する(S1343)。確率Pは、事前に学習済みのイベント発生時刻(図10の×印)と、1:KNの各フレームに該当する座標群71、81との距離d1を計算し、距離d1の逆数をとることで計算可能である。複数の画像列で学習を行った場合、すべての画像列の距離を累積することで同等の計算が可能である。
時刻推定部1344は、計算された確率Pに基づき、イベント発生時刻を推定する(S1344)。時刻推定部1344は、確率Pが最大となるフレーム(サブフレーム)を選択することにより、あるいは確率Pの重みつき平均に基づいて、イベント発生時刻を推定することができる。従って、イベント発生時刻は、疑似高フレームレート化されたフレームの精度で推定される。
本実施例のイベント検出装置1によれば、サブフレーム単位でイベントを検出することができるため、検出対象とするイベントが数フレーム単位の誤差を許容できない性質を持っている場合にも、これに対応することができる。
<補記>
本発明の装置は、例えば単一のハードウェアエンティティとして、キーボードなどが接続可能な入力部、液晶ディスプレイなどが接続可能な出力部、ハードウェアエンティティの外部に通信可能な通信装置(例えば通信ケーブル)が接続可能な通信部、CPU(Central Processing Unit、キャッシュメモリやレジスタなどを備えていてもよい)、メモリであるRAMやROM、ハードディスクである外部記憶装置並びにこれらの入力部、出力部、通信部、CPU、RAM、ROM、外部記憶装置の間のデータのやり取りが可能なように接続するバスを有している。また必要に応じて、ハードウェアエンティティに、CD−ROMなどの記録媒体を読み書きできる装置(ドライブ)などを設けることとしてもよい。このようなハードウェア資源を備えた物理的実体としては、汎用コンピュータなどがある。
ハードウェアエンティティの外部記憶装置には、上述の機能を実現するために必要となるプログラムおよびこのプログラムの処理において必要となるデータなどが記憶されている(外部記憶装置に限らず、例えばプログラムを読み出し専用記憶装置であるROMに記憶させておくこととしてもよい)。また、これらのプログラムの処理によって得られるデータなどは、RAMや外部記憶装置などに適宜に記憶される。
ハードウェアエンティティでは、外部記憶装置(あるいはROMなど)に記憶された各プログラムとこの各プログラムの処理に必要なデータが必要に応じてメモリに読み込まれて、適宜にCPUで解釈実行・処理される。その結果、CPUが所定の機能(上記、…部、…手段などと表した各構成要件)を実現する。
本発明は上述の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。また、上記実施形態において説明した処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されるとしてもよい。
既述のように、上記実施形態において説明したハードウェアエンティティ(本発明の装置)における処理機能をコンピュータによって実現する場合、ハードウェアエンティティが有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記ハードウェアエンティティにおける処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD−RAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto-Optical disc)等を、半導体メモリとしてEEP−ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、ハードウェアエンティティを構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。

Claims (7)

  1. 動画として再生可能なフレーム毎の画像からなる画像列を取得する画像列取得部と、
    任意フレームの画像の特徴と、前記任意フレームの画像の前あるいは後に連なる任意の数の画像の特徴とを表現する画像特徴情報を各フレームについて抽出する画像特徴情報抽出部と、
    学習データである画像列のフレーム間を所定の時間間隔で分割したサブフレームのうちの特定のサブフレーム、または特定のフレームを所定のイベントが発生するイベント発生時刻として指定するイベント発生時刻指定部と、
    学習データである画像列に対応する画像特徴情報列を低次元空間にマッピングし、マッピングされた各座標間を前記所定の時間間隔で補間してモデルを学習するモデル学習部
    を含むイベント検出装置。
  2. 請求項1に記載のイベント検出装置であって、
    イベント検出対象である画像列に対応する画像特徴情報列を低次元空間にマッピングし、マッピングされた各座標間を前記所定の時間間隔で補間し、前記モデルおよび前記イベント発生時刻と照合して、イベント検出対象におけるイベント発生時刻を推定するイベント発生時刻推定部
    を含むイベント検出装置。
  3. 請求項2に記載のイベント検出装置であって、
    学習データである画像列に対応する画像特徴情報列のうち、前記所定のイベントを含む画像特徴情報の一部の画像領域をテンプレートとして指定し、前記テンプレートを指定したフレームの前後の複数フレームの該当する画像領域を含むイベント領域を指定するテンプレート指定部と、
    イベント検出対象である画像列に対応する画像特徴情報列と前記テンプレートとを照合して、イベント検出対象におけるイベント領域を検出するイベント領域検出部をさらに含み、
    前記モデル学習部は、
    学習データである画像列に対応する画像特徴情報列のうち、指定された前記イベント領域に対応する一部の画像領域についてのみ、低次元空間へのマッピングを行い、
    前記イベント発生時刻推定部は、
    イベント検出対象である画像列に対応する画像特徴情報列のうち、検出された前記イベント領域に対応する一部の画像領域についてのみ、低次元空間へのマッピングを行う
    イベント検出装置。
  4. イベント検出装置が実行するイベント検出方法であって、
    動画として再生可能なフレーム毎の画像からなる画像列を取得するステップと、
    任意フレームの画像の特徴と、前記任意フレームの画像の前あるいは後に連なる任意の数の画像の特徴とを表現する画像特徴情報を各フレームについて抽出するステップと、
    学習データである画像列のフレーム間を所定の時間間隔で分割したサブフレームのうちの特定のサブフレーム、または特定のフレームを所定のイベントが発生するイベント発生時刻として指定するステップと、
    学習データである画像列に対応する画像特徴情報列を低次元空間にマッピングし、マッピングされた各座標間を前記所定の時間間隔で補間してモデルを学習するステップ
    を含むイベント検出方法。
  5. 請求項4に記載のイベント検出方法であって、
    イベント検出対象である画像列に対応する画像特徴情報列を低次元空間にマッピングし、マッピングされた各座標間を前記所定の時間間隔で補間し、前記モデルおよび前記イベント発生時刻と照合して、イベント検出対象におけるイベント発生時刻を推定するステップ
    を含むイベント検出方法。
  6. 請求項5に記載のイベント検出方法であって、
    学習データである画像列に対応する画像特徴情報列のうち、前記所定のイベントを含む画像特徴情報の一部の画像領域をテンプレートとして指定し、前記テンプレートを指定したフレームの前後の複数フレームの該当する画像領域を含むイベント領域を指定するステップと、
    イベント検出対象である画像列に対応する画像特徴情報列と前記テンプレートとを照合して、イベント検出対象におけるイベント領域を検出するステップをさらに含み、
    学習データである画像列に対応する画像特徴情報列のうち、指定された前記イベント領域に対応する一部の画像領域についてのみ、低次元空間へのマッピングを行い、
    イベント検出対象である画像列に対応する画像特徴情報列のうち、検出された前記イベント領域に対応する一部の画像領域についてのみ、低次元空間へのマッピングを行う
    イベント検出方法。
  7. コンピュータを、請求項1から3の何れかに記載のイベント検出装置として機能させるプログラム。
JP2017011108A 2017-01-25 2017-01-25 学習装置、イベント検出装置、学習方法、イベント検出方法、プログラム Active JP6713422B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017011108A JP6713422B2 (ja) 2017-01-25 2017-01-25 学習装置、イベント検出装置、学習方法、イベント検出方法、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017011108A JP6713422B2 (ja) 2017-01-25 2017-01-25 学習装置、イベント検出装置、学習方法、イベント検出方法、プログラム

Publications (2)

Publication Number Publication Date
JP2018120402A true JP2018120402A (ja) 2018-08-02
JP6713422B2 JP6713422B2 (ja) 2020-06-24

Family

ID=63043125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017011108A Active JP6713422B2 (ja) 2017-01-25 2017-01-25 学習装置、イベント検出装置、学習方法、イベント検出方法、プログラム

Country Status (1)

Country Link
JP (1) JP6713422B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020066695A1 (ja) * 2018-09-28 2020-04-02 日本電信電話株式会社 情報同期装置、情報同期方法及び情報同期プログラム
JPWO2021229693A1 (ja) * 2020-05-12 2021-11-18
US11640669B2 (en) 2019-11-05 2023-05-02 Tensor Consulting Co. Ltd. Motion analysis system, motion analysis method, and computer-readable storage medium

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020066695A1 (ja) * 2018-09-28 2020-04-02 日本電信電話株式会社 情報同期装置、情報同期方法及び情報同期プログラム
JP2020057847A (ja) * 2018-09-28 2020-04-09 日本電信電話株式会社 情報同期装置、情報同期方法及び情報同期プログラム
US11418684B2 (en) 2018-09-28 2022-08-16 Nippon Telegraph And Telephone Corporation Information synchronization device, information synchronization method, and information synchronization program
JP7121277B2 (ja) 2018-09-28 2022-08-18 日本電信電話株式会社 情報同期装置、情報同期方法及び情報同期プログラム
US11640669B2 (en) 2019-11-05 2023-05-02 Tensor Consulting Co. Ltd. Motion analysis system, motion analysis method, and computer-readable storage medium
JPWO2021229693A1 (ja) * 2020-05-12 2021-11-18
WO2021229693A1 (ja) * 2020-05-12 2021-11-18 日本電信電話株式会社 学習装置、学習方法及び学習プログラム
JP7364061B2 (ja) 2020-05-12 2023-10-18 日本電信電話株式会社 学習装置、学習方法及び学習プログラム

Also Published As

Publication number Publication date
JP6713422B2 (ja) 2020-06-24

Similar Documents

Publication Publication Date Title
JP6972757B2 (ja) 制御プログラム、制御方法、及び情報処理装置
JP6972756B2 (ja) 制御プログラム、制御方法、及び情報処理装置
JP7147078B2 (ja) ビデオフレームの情報ラベリング方法、装置、機器及びコンピュータプログラム
EP3373248A1 (en) Method, control device, and system for tracking and photographing target
CN105938622A (zh) 检测运动图像中的物体的方法和装置
US20100109998A1 (en) System and method for sensing facial gesture
KR20130121202A (ko) 영상에서의 객체 추적 방법, 장치 및 이를 컴퓨터 상에서 수행하는 프로그램이 기록된 기록 매체
CN108198172B (zh) 图像显著性检测方法和装置
CN109934873B (zh) 标注图像获取方法、装置及设备
CN112927279A (zh) 一种图像深度信息生成方法、设备及存储介质
KR102362470B1 (ko) 족부 정보 처리 방법 및 장치
CN105095853A (zh) 图像处理装置及图像处理方法
CN111914878A (zh) 特征点跟踪训练及跟踪方法、装置、电子设备及存储介质
JP6713422B2 (ja) 学習装置、イベント検出装置、学習方法、イベント検出方法、プログラム
JP7230345B2 (ja) 情報処理装置及び情報処理プログラム
CN104463240A (zh) 一种控制列表界面的方法及装置
CN110060278A (zh) 基于背景减法的运动目标的检测方法及装置
CN110288629A (zh) 基于移动物体检测的目标检测自动标注方法及装置
Mori et al. Good keyframes to inpaint
CN110610184B (zh) 图像的显著目标的检测方法、装置及设备
Nugroho et al. Comparison of deep learning-based object classification methods for detecting tomato ripeness
KR20200137129A (ko) 관계형 질의를 이용한 객체 검출방법 및 그 장치
JP2023168081A (ja) 訓練データ生成プログラム、訓練データ生成方法及び訓練データ生成装置
CN111008294A (zh) 交通图像处理、图像检索方法及装置
CN111860261B (zh) 一种客流值的统计方法、装置、设备及介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200603

R150 Certificate of patent or registration of utility model

Ref document number: 6713422

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150