JP2020135177A - 動画を解析するためのプログラム、装置、及び方法 - Google Patents

動画を解析するためのプログラム、装置、及び方法 Download PDF

Info

Publication number
JP2020135177A
JP2020135177A JP2019025303A JP2019025303A JP2020135177A JP 2020135177 A JP2020135177 A JP 2020135177A JP 2019025303 A JP2019025303 A JP 2019025303A JP 2019025303 A JP2019025303 A JP 2019025303A JP 2020135177 A JP2020135177 A JP 2020135177A
Authority
JP
Japan
Prior art keywords
frame
frames
moving image
motion information
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019025303A
Other languages
English (en)
Inventor
剛平 西野
Kohei Nishino
剛平 西野
克典 大西
Katsunori Onishi
克典 大西
雄亮 加茂
Yusuke Kamo
雄亮 加茂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DeNA Co Ltd
Original Assignee
DeNA Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DeNA Co Ltd filed Critical DeNA Co Ltd
Priority to JP2019025303A priority Critical patent/JP2020135177A/ja
Publication of JP2020135177A publication Critical patent/JP2020135177A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 所定の動作を行う人物が撮影されている動画における当該動作の特定の段階の位置の判定を支援する。【解決手段】本発明の一実施形態に係る動画解析装置10は、ストレージ15等に記憶されているプログラムに含まれる命令をコンピュータプロセッサ11が実行することによって、動き情報生成部111、フレーム解析部112、及び動画再生制御部113として機能するように構成されている。当該装置10は、所定の動作を行う人物が撮影されている動画を構成するフレームの動き情報を生成し、生成した動き情報に基づいて、所定の動作の静止段階に対応するフレームを判定することができる。【選択図】 図1

Description

本発明は、動画を解析するためのプログラム、装置、及び方法に関するものである。
従来、所定の動作を行う人物が撮影されている動画を解析するための技術が提案されている。例えば、下記特許文献1は、運動動作を行う運動者の動作又は姿勢を検証するためのシステムを開示している。このシステムは、運動者を包囲するように配置された複数の撮影手段によって撮影された複数の動画を、単一の画面上に時間的に同期させて再生できるように構成されており、例えば、ゴルフスイング等の運動動作の検証に用いられる。例えば、ゴルフスイングのアドレスの姿勢を検証しようとするユーザは、スイング動作におけるアドレスの段階となるように、動画の再生位置を合わせることになる。
特開2016−54972号公報
しかしながら、従来のシステムでは、運動動作の特定の段階(例えば、上述したようなゴルフスイングのアドレスの段階等)に動画の再生位置を手動で合わせる必要がある。例えば、多量の動画を再生してそれぞれの運動動作を検証しようとするユーザにとって、こうした再生位置の調整作業は負担となる。したがって、所定の動作が撮影されている動画における当該動作の特定の段階の位置を自動的に判定するような仕組みの実現が望まれる。
本発明の実施形態は、所定の動作を行う人物が撮影されている動画における当該動作の特定の段階の位置の判定を支援することを目的の一つとする。本発明の実施形態の他の目的は、本明細書全体を参照することにより明らかとなる。
本発明の一実施形態に係るプログラムは、動画を解析するためのプログラムであって、コンピュータ上での実行に応じて、前記コンピュータに、人物が静止する静止段階を少なくとも有する所定の動作を行う人物が撮影されている対象の動画を構成する複数のフレームの各々について、隣接するフレームとの間の動きに関する動き情報を生成する処理と、生成した前記複数のフレームの各々の動き情報に少なくとも基づいて、前記複数のフレームに含まれる前記所定の動作の前記静止段階に対応するフレームを判定する処理と、を実行させる。
本発明の一実施形態に係る装置は、動画を解析するための装置であって、人物が静止する静止段階を少なくとも有する所定の動作を行う人物が撮影されている対象の動画を構成する複数のフレームの各々について、隣接するフレームとの間の動きに関する動き情報を生成するように構成された動き情報生成部と、生成した前記複数のフレームの各々の動き情報に少なくとも基づいて、前記複数のフレームに含まれる前記所定の動作の前記静止段階に対応するフレームを判定するように構成されたフレーム解析部と、を備える。
本発明の一実施形態に係る方法は、動画を解析するための方法であって、人物が静止する静止段階を少なくとも有する所定の動作を行う人物が撮影されている対象の動画を構成する複数のフレームの各々について、隣接するフレームとの間の動きに関する動き情報を生成する工程と、生成した前記複数のフレームの各々の動き情報に少なくとも基づいて、前記複数のフレームに含まれる前記所定の動作の前記静止段階に対応するフレームを判定する工程と、を備える。
本発明の様々な実施形態は、所定の動作を行う人物が撮影されている動画における当該動作の特定の段階の位置の判定を支援する。
本発明の一実施形態に係る動画解析装置10の構成を概略的に示す構成図。 個別の動画を解析する際に動画解析装置10が実行する処理を例示するフロー図。 注目フレームと補助フレームとの関係を説明するための図。 動画を構成する複数のフレームのフレーム番号とセットポジションスコアとの対応関係を示すグラフを例示する図。 図4に例示したグラフにおける折れ線Lの形状に基づいてセットポジションの期間が特定される様子を説明するための図。 動画再生画面50を例示する図。 セットポジションの期間のフレームにおいて投手が打者のバットに隠れていない場合を例示する図。 セットポジションの期間のフレームにおいて投手が打者のバットに隠れている場合を例示する図。
以下、図面を参照しながら、本発明の実施形態について説明する。
図1は、本発明の一実施形態に係る動画解析装置10の構成を概略的に示す構成図である。装置10は、一般的なコンピュータとして構成されており、図1に示すように、コンピュータプロセッサ11と、メインメモリ12と、入出力I/F13と、通信I/F14と、ストレージ(記憶装置)15とを備え、これらの各構成要素が図示しないバス等を介して電気的に接続されている。
コンピュータプロセッサ11は、CPU又はGPU等として構成され、ストレージ15等に記憶されている様々なプログラムをメインメモリ12に読み込んで、当該プログラムに含まれる各種の命令を実行する。メインメモリ12は、例えば、DRAM等によって構成される。
入出力I/F13は、ユーザ等との間で情報をやり取りするための各種の入出力装置を含む。入出力I/F13は、例えば、キーボード、ポインティングデバイス(例えば、マウス、タッチパネル等)等の情報入力装置、マイクロフォン等の音声入力装置、カメラ等の画像入力装置を含む。また、入出力I/F13は、ディスプレイ等の画像出力装置(表示装置)、スピーカー等の音声出力装置を含む。
通信I/F14は、ネットワークアダプタ等のハードウェア、各種の通信用ソフトウェア、及びこれらの組み合わせとして実装され、有線又は無線の通信を実現できるように構成されている。
ストレージ15は、例えば、磁気ディスク、及びフラッシュメモリ等によって構成される。ストレージ15は、オペレーティングシステムを含む様々なプログラム、及び各種データ等を記憶する。本実施形態において、ストレージ15は、図1に示すように、一般的なコンピュータとしての装置10を動画解析装置として機能させるための動画解析用プログラム151を記憶する。
このようなハードウェア構成を有する動画解析装置10は、ストレージ15等に記憶されているプログラムに含まれる命令をコンピュータプロセッサ11が実行することによって、図1に示すように、動き情報生成部111、フレーム解析部112、及び動画再生制御部113として機能するように構成されている。
動き情報生成部111は、解析の対象の動画を構成する複数のフレームの各々の動き情報の生成に関する様々な処理を実行する。動き情報は、隣接するフレームとの間の動きに関する情報であり、例えば、これらに限定されないが、オプティカルフロー、及び、動きベクトル等が含まれる。例えば、オプティカルフローは、フレーム(静止画像)中の画素の移動量をベクトルで表したものである。例えば、動き情報生成部111は、N番目のフレームとN+1番目のフレームとの間の画像(画素)情報の比較(差分データ)に少なくとも基づいて、N番目(又は、N+1番目)のフレームの動き情報を生成するように構成される。
本実施形態において、解析の対象となる動画は、人物が静止する静止段階を有する所定の動作を行う人物が撮影されている動画である。こうした所定の動作は、典型的には、静止段階の前後において人物が運動する運動段階を有しており、例えば、様々なスポーツにおける動作が含まれる。所定の動作は、例えば、野球における投手の投球動作及び打者の打球動作、ゴルフにおけるスイング動作、並びに、テニス及び卓球等におけるサーブ動作等が含まれる。
フレーム解析部112は、動画を構成するフレームの解析に関する様々な処理を実行する。本実施形態において、フレーム解析部112は、動き情報生成部111によって生成された複数のフレームの各々の動き情報に少なくとも基づいて、複数のフレームに含まれる所定の動作の静止段階に対応するフレームを判定するように構成されている。
動画再生制御部113は、対象の動画の再生の制御に関する様々な処理を実行する。例えば、動画再生制御部113は、ユーザによる指示に応答して、動画の再生、停止、一時停止、及び再生位置の変更(調整)等を行うように構成される。
このように、本実施形態における動画解析装置10は、所定の動作を行う人物が撮影されている動画を構成するフレームの動き情報を生成し、生成した動き情報に基づいて、所定の動作の静止段階に対応するフレームを判定することができる。つまり、動画解析装置10は、所定の動作を行う人物が撮影されている動画における当該動作の特定の段階の位置の自動的な判定を支援する。
本実施形態において、フレーム解析部112は、複数のフレームの各々の動き情報に少なくとも基づいて、これらの複数のフレームの各々について、静止段階に対応するフレームである可能性に関する所定のスコア(例えば、確率)を算出し、算出した所定のスコアに少なくとも基づいて、静止段階に対応するフレームを判定するように構成され得る。こうした構成は、上記所定のスコアを用いた静止段階に対応するフレームの判定を可能とする。
また、フレーム解析部112は、複数のフレームに含まれる注目フレーム及び1又は複数の補助フレームの各々の動き情報に少なくとも基づいて、当該注目フレームの上記所定のスコアを算出するように構成され得る。補助フレームは、動画を構成する複数のフレームにおける注目フレームの位置に少なくとも基づいて特定され、例えば、注目フレームの位置から時間的に前方向及び/又は後方向に所定の間隔を空けた(所定数のフレームを飛ばした)位置のフレームとして特定される。こうした構成は、注目フレームの動き情報のみに基づいて当該注目フレームの所定のスコアを算出する場合と比較して、当該スコアの算出精度を向上させつつ処理負荷の抑制を図ることができる。
また、フレーム解析部112は、注目フレーム及び補助フレームの各々の動き情報の入力に応じて当該注目フレームの所定のスコアを出力するように構成された所定の学習済みモデルを用いて、当該注目フレームの所定のスコアを算出するように構成され得る。所定の学習済みモデルは、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)として構成され、多量の訓練データを用いた機械学習を介して生成されてストレージ15等に格納される。こうした構成は、学習済みモデルを用いた所定のスコアの算出(取得)を可能とする。
また、フレーム解析部112は、静止段階に対応するフレームの判定結果に少なくとも基づくフレームにおいて所定のオブジェクトが他のオブジェクトに隠れていることを検出するように構成され得る。例えば、フレーム解析部112は、静止段階に対応する複数のフレーム(又は、静止段階の後の運動段階に対応する複数のフレーム)の一部又は全部において、第1のオブジェクト(例えば、検証対象である人物)及び第2のオブジェクト(例えば、検証対象でない人物)を検出し、第1のオブジェクトの検出領域と第2のオブジェクトの検出領域とが重なる場合に、第1のオブジェクトが第2のオブジェクトに隠れていると判定するように構成される。こうした構成は、例えば、所定の動作の静止段階の期間(又は、その後の運動段階の期間)等において所定のオブジェクトが隠れてしまっており、動作の検証に適していない動画等の選別を可能とする。
また、フレーム解析部112は、静止段階に対応するフレームの判定結果に少なくとも基づいて基準フレームを設定するように構成され、動画再生制御部113は、対象の動画の再生位置を(ユーザによる指示に応じて、又は、ユーザによる指示なしで自動的に)基準フレームの位置に合わせるように構成され得る。例えば、フレーム解析部112は、静止段階に対応する複数のフレームの先頭付近のフレーム(静止段階の期間の始点に対応するフレーム)、或いは、静止段階に対応する複数のフレームの最後付近のフレーム(静止段階の期間の終点(その後の運動段階の期間の始点)に対応するフレーム)を基準フレームとして設定するように構成される。こうした構成は、静止段階に対応するフレームの判定結果に基づく基準フレームの位置に動画の再生位置を自動的に合わせることを可能とする。
また、動画再生制御部113は、2つの対象の動画を同時に再生し、所定の指示に応じて、これらの2つの動画の各々の再生位置を、各動画の基準フレームの位置に合わせるように構成され得る。例えば、動画再生制御部113は、第1の対象の動画を再生するための第1の再生領域と第2の対象の動画を再生するための第2の再生領域とを有する所定の画面を介して第1及び第2の対象の動画を同時に再生し、これらの第1及び第2の対象の動画の各々の再生位置を、第1及び第2の対象の動画の各々の基準フレームの位置に合わせるように構成される。こうした構成は、2つの動画の再生位置を、それぞれの動画の基準フレームの位置に同時に合わせることを可能とする。
次に、このような機能を有する本実施形態の動画解析装置10の具体例について説明する。この具体例における装置10は、野球の投球動作を行う人物(投手)が撮影されている動画を解析の対象とするように構成されている。こうした動画は、例えば、動画解析装置10のストレージ15、又は、クラウドストレージ等の他のシステム/サービスにおいて格納される。
図2は、個別の動画を解析する際に動画解析装置10が実行する処理を例示するフロー図である。これらの処理は、例えば、多量の動画を対象に繰り返し実行される(バッチ処理)。装置10は、まず、図示するように、解析の対象の動画を構成する複数のフレームの抽出(フレームの切り出し)を行う(ステップS100)。
続いて、装置10は、抽出した各フレームのオプティカルフローを取得する(ステップS110)。オプティカルフローは、例えば、ブロックマッチング法又は勾配法等の手法を用いて算出(抽出)される。この例において、オプティカルフローは、オープンソースのコンピュータビジョン向けライブラリである「OpenCV」によって提供される関数を用いて取得される。
こうして各フレームのオプティカルフローが取得されると、次に、装置10は、取得したオプティカルフローに基づいて各フレームのセットポジションスコアを取得する(ステップS120)。セットポジションスコアは、各フレームが、投手の投球動作におけるセットポジションに対応するフレームである確率を示すスコアである。セットポジションは、ランナーがいる場合に投げる直前に投手がとらなければいけない姿勢であり、当該セットポジションの期間において、投手は、両手を体の前で合わせて、約1秒間、首から下の動作を完全に静止させる。つまり、セットポジションは、投手の投球動作における静止段階であると言える。
セットポジションスコアは、具体的には、当該スコアを出力するように構成された畳み込みニューラルネットワークを用いて取得される。当該畳み込みニューラルネットワークは、注目フレーム及び補助フレームの各々のオプティカルフローが入力されると、当該注目フレームのセットポジションスコアを出力するように構成されている。図3は、注目フレームと補助フレームとの関係を説明するための図である。この例では、図示するように、注目フレーム(N番目のフレーム)から時間的に後方向に1フレームずつの間隔を空けた5つのフレーム(N+2、N+4、N+6、N+8、N+10番目のフレーム)が補助フレームとなる。ステップS120では、こうした畳み込みニューラルネットワークを用いて、対象の動画を構成する複数のフレームの各々のセットポジションスコアが取得される。
図2のフロー図に戻り、こうして各フレームのセットポジションスコアが取得されると、続いて、装置10は、各フレームの当該スコアに基づいてセットポジションの期間を判定する(ステップS130)。具体的には、フレームの位置(フレーム番号)に応じた当該スコアの変化に基づいてセットポジションの期間の始点及び終点が判定される。
図4は、動画を構成する複数のフレームのフレーム番号とセットポジションスコアとの対応関係を示すグラフを例示する。当該グラフにおいて、横軸はフレーム番号に対応し、縦軸はセットポジションスコアに対応している。図示するように、当該グラフにおける折れ線Lは、上方向に突出する台形を形成し、具体的には、フレーム番号が0から約90までの範囲においてセットポジションスコアは0となっており、フレーム番号が約90から約190までの範囲において当該スコアは1.0となっており、フレーム番号が約190以降の範囲において当該スコアは0となっている。
図5は、図4に例示したグラフにおける折れ線Lの形状(つまり、セットポジションスコアの変化)に基づいてセットポジションの期間が判定される様子を説明するための図である。この例では、図5に示すように、セットポジションスコアが0から1.0へと立ち上がる前の第1のエッジED1から、同じくセットポジションスコアが1.0から0へと立ち下がった後の第2のエッジED2までの期間が、セットポジションの期間(b)として判定される。なお、セットポジションの期間(b)よりも前の期間(a)は、投手がセットポジションに至るまでの準備動作の期間に対応しており、セットポジションの期間(b)よりも後の期間(c)は、セットポジションの後の投球動作の期間に対応している。
続いて、装置10は、判定されたセットポジションの期間の始点及び終点をそれぞれ基準フレームとして設定する(ステップS140)。例えば、図5における第1のエッジED1に対応するフレームが第1の基準フレームとして設定され、同じく第2のエッジED2に対応するフレームが第2の基準フレームとして設定される。設定された基準フレームに関する情報は、例えば、ストレージ15等において、対象の動画と関連付けて記憶される。
図6は、この例において、解析後の動画を再生するための動画再生画面50を例示する。当該画面50は、動画解析装置10において表示され、図示するように、左右方向に並べて配置された第1及び第2の再生領域52A、52Bと、第1の再生領域52Aの下側に位置する第1の操作領域54Aと、第2の再生領域52Bの下側に位置する第2の操作領域54Bと、画面下端部に配置された第3の操作領域54Cとを有する。第1及び第2の再生領域52A、52Bは、それぞれ別々の動画を同時に再生できるように構成されている。
第1〜第3の操作領域54A、54B、54Cの各々は、ストップウォッチの図柄が表示された位置合わせオブジェクト541と、動画の再生及び停止を指示するための再生/停止オブジェクト542と、再生中の動画の一時停止を指示するための一時停止オブジェクト543とを有する。第1の操作領域54Aは、第1の再生領域52Aにおいて再生される動画に対する操作を行うための領域であり、第2の操作領域54Bは、第2の再生領域52Bにおいて再生される動画に対する操作を行うための領域である。また、第3の操作領域54Cは、第1及び第2の再生領域52A、52Bの各々において再生される動画に対する操作を同時に行うための領域である。
ユーザが、位置合わせオブジェクト541を選択すると、対応する再生領域52(第1の再生領域52A及び/又は第2の再生領域52B)における動画の再生位置が、基準フレームの位置に合わせられる。具体的には、この例では、当該オブジェクト541が1回選択されると、動画の再生位置が、第1の基準フレームの位置(セットポジションの期間の始点の位置)に合わせられ、この状態で、当該オブジェクト541が再度選択されると、動画の再生位置が、第2の基準フレームの位置(セットポジションの期間の終点(つまり、投球動作の始点)の位置)に合わせられる。ユーザは、位置合わせオブジェクト541を選択する操作によって、セットポジションの開始時点又は投球動作の開始時点に動画の再生位置を容易に合わせることができる。また、ユーザは、第3の操作領域54Cの位置合わせオブジェクト541を選択することにより、第1及び第2の再生領域52A、52Bの各々において再生される動画の再生位置の調整を同時に行うこともでき、これらの動画の比較が容易になる。なお、本実施形態の他の例では、セットポジションの期間の終点(上述した例における第2の基準フレーム)のみが基準フレームとして設定され、位置合わせオブジェクト541が選択されると、対応する再生領域52における動画の再生位置が、当該基準フレームの位置であるセットポジション期間の終点(投球動作の始点)に合わせられる。
上述した例において、セットポジションの期間と判定された複数のフレームの一部又は全部を対象に、投手(所定のオブジェクト)が打者のバット(他のオブジェクト)に隠れている(重複している)ことを検出するようにしても良い。こうした重複の検出は、対象のフレームにおいて、投手及びバットの各々の領域を検出することによって実現される。
例えば、図7の上側に例示するように、審判UMの奥に位置する打者BPが持っているバットBTが、投手PPと重なっていないフレームにおいて、バットBT及び投手PPの領域をそれぞれ検出すると、図7の下側に例示するように、投手PPを囲う矩形の検出領域A1、及び、バットBTを囲う矩形の検出領域A2は重ならない。このように、検出領域A1、A2が重ならない場合、投手が打者のバットに隠れていないと判定される。
一方、図8の上側に例示するように、打者BPが持っているバットBTが、投手PPと重なっているフレームにおいて、バットBT及び投手PPの領域をそれぞれ検出すると、図8の下側に例示するように、投手PPを囲う検出領域A1、及び、バットBTを囲う検出領域A2は重なる(検出領域A1、A2が1つの領域として認識され、2つの別々の領域として認識されない。)。このように、検出領域A1、A2が重なる場合、投手が打者のバットに隠れていると判定される。なお、本実施形態の他の例では、画像中のピクセル毎にクラス(バット又は投手)を検出するセグメンテーションの手法を用いて、投手が打者のバットに隠れていることを判定するように構成され、具体的には、バットのセグメントと投手のセグメントとが重なる場合に、投手が打者のバットに隠れていると判定される。こうしたセグメンテーションは、例えば、「Mask R−CNN」と呼ばれる手法を用いて実現される。投手が打者のバットに隠れていると判定された動画は、例えば、投手の投球動作の検証に適してない検証不適切動画として管理され、検証(例えば、動画再生画面50を介した再生、及び、セットポジションを代表するフレーム(静止画像)の抽出処理等)から除外される。
以上説明した本実施形態の動画解析装置10は、所定の動作(例えば、投手の投球動作)を行う人物が撮影されている動画を構成するフレームの動き情報(例えば、オプティカルフロー)を生成し、生成した動き情報に基づいて、所定の動作の静止段階(例えば、セットポジション)に対応するフレームを判定することができる。つまり、動画解析装置10は、所定の動作を行う人物が撮影されている動画における当該動作の特定の段階の位置の自動的な判定を支援する。
本発明の他の実施形態において、動画再生制御部113の機能の一部又は全部は、動画解析装置10以外の装置において実装され得る。例えば、当該他の実施形態において、動画解析装置10による動画の解析(例えば、基準フレームの設定、及び、検証不適合動画の判定等)が行われた動画の再生は、当該装置10とインターネット等の通信ネットワークを介して通信可能に接続されたユーザ端末等において行われ得る。
本明細書で説明された処理及び手順は、明示的に説明されたもの以外にも、ソフトウェア、ハードウェアまたはこれらの任意の組み合わせによって実現される。例えば、本明細書で説明される処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク等の媒体に、当該処理及び手順に相当するロジックを実装することによって実現される。また、本明細書で説明された処理及び手順は、当該処理・手順に相当するコンピュータプログラムとして実装し、各種のコンピュータに実行させることが可能である。
本明細書中で説明された処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理または手順は複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は複数のモジュールによって実行され得る。また、本明細書において説明されたソフトウェアおよびハードウェアの要素は、それらをより少ない構成要素に統合して、またはより多い構成要素に分解することによって実現することも可能である。
本明細書において、発明の構成要素が単数もしくは複数のいずれか一方として説明された場合、又は、単数もしくは複数のいずれとも限定せずに説明された場合であっても、文脈上別に解すべき場合を除き、当該構成要素は単数又は複数のいずれであってもよい。
10 動画解析装置
11 コンピュータプロセッサ
111 動き情報生成部
112 フレーム解析部
113 動画再生制御部
15 ストレージ(記憶装置)
151 動画解析用プログラム
50 動画再生画面(所定の画面)
52A 第1の再生領域
52B 第2の再生領域
PP 投手(所定のオブジェクト)
BT バット(他のオブジェクト)

Claims (11)

  1. 動画を解析するためのプログラムであって、
    コンピュータ上での実行に応じて、前記コンピュータに、
    人物が静止する静止段階を少なくとも有する所定の動作を行う人物が撮影されている対象の動画を構成する複数のフレームの各々について、隣接するフレームとの間の動きに関する動き情報を生成する処理と、
    生成した前記複数のフレームの各々の動き情報に少なくとも基づいて、前記複数のフレームに含まれる前記所定の動作の前記静止段階に対応するフレームを判定する処理と、を実行させる、
    プログラム。
  2. 前記動き情報を生成する処理は、前記複数のフレームの各々のオプティカルフローを動き情報として算出することを含む、
    請求項1のプログラム。
  3. 前記静止段階に対応するフレームを判定する処理は、前記複数のフレームの各々の動き情報に少なくとも基づいて、前記複数のフレームの各々について、前記静止段階に対応するフレームである可能性に関する所定のスコアを算出し、算出した前記複数のフレームの各々の前記所定のスコアに少なくとも基づいて、前記静止段階に対応するフレームを判定することを含む、
    請求項1又は2のプログラム。
  4. 前記静止段階に対応するフレームを判定する処理は、前記複数のフレームに含まれる注目フレームの動き情報、及び、前記複数のフレームにおける前記注目フレームの位置に少なくとも基づいて特定される1又は複数の補助フレームの動き情報に少なくとも基づいて、前記注目フレームの前記所定のスコアを算出することを含む、
    請求項3のプログラム。
  5. 前記静止段階に対応するフレームを判定する処理は、前記複数のフレームにおける前記注目フレームの位置から前方向及び/又は後方向に所定の間隔を空けた位置のフレームを前記1又は複数の補助フレームとして特定することを含む、
    請求項4のプログラム。
  6. 前記静止段階に対応するフレームを判定する処理は、前記注目フレーム及び前記1又は複数の補助フレームの各々の動き情報の入力に応じて前記注目フレームの前記所定のスコアを出力するように構成された所定の学習済みモデルを用いて前記注目フレームの前記所定のスコアを算出することを含む、
    請求項4又は5のプログラム。
  7. 前記コンピュータに、さらに、前記静止段階に対応するフレームの判定結果に少なくとも基づくフレームにおいて所定のオブジェクトが他のオブジェクトに隠れていることを検出する処理を実行させる、
    請求項1ないし6何れかのプログラム。
  8. 前記コンピュータに、さらに、前記静止段階に対応するフレームの判定結果に少なくとも基づいて基準フレームを設定する処理と、前記対象の動画を再生する処理と、を実行させ、
    前記対象の動画を再生する処理は、前記対象の動画の再生位置を前記基準フレームの位置に合わせることを含む、
    請求項1ないし7何れかのプログラム。
  9. 前記対象の動画を再生する処理は、
    第1の対象の動画を再生するための第1の再生領域と第2の対象の動画を再生するための第2の再生領域とを有する所定の画面を介して前記第1及び第2の対象の動画を同時に再生すること、及び、
    所定の指示に応じて、前記第1及び第2の対象の動画の各々の再生位置を、前記第1及び第2の対象の動画の各々の前記基準フレームの位置に合わせることを含む、
    請求項8のプログラム。
  10. 動画を解析するための装置であって、
    人物が静止する静止段階を少なくとも有する所定の動作を行う人物が撮影されている対象の動画を構成する複数のフレームの各々について、隣接するフレームとの間の動きに関する動き情報を生成するように構成された動き情報生成部と、
    生成した前記複数のフレームの各々の動き情報に少なくとも基づいて、前記複数のフレームに含まれる前記所定の動作の前記静止段階に対応するフレームを判定するように構成されたフレーム解析部と、を備える、
    装置。
  11. 動画を解析するための方法であって、
    人物が静止する静止段階を少なくとも有する所定の動作を行う人物が撮影されている対象の動画を構成する複数のフレームの各々について、隣接するフレームとの間の動きに関する動き情報を生成する工程と、
    生成した前記複数のフレームの各々の動き情報に少なくとも基づいて、前記複数のフレームに含まれる前記所定の動作の前記静止段階に対応するフレームを判定する工程と、を備える、
    方法。
JP2019025303A 2019-02-15 2019-02-15 動画を解析するためのプログラム、装置、及び方法 Pending JP2020135177A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019025303A JP2020135177A (ja) 2019-02-15 2019-02-15 動画を解析するためのプログラム、装置、及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019025303A JP2020135177A (ja) 2019-02-15 2019-02-15 動画を解析するためのプログラム、装置、及び方法

Publications (1)

Publication Number Publication Date
JP2020135177A true JP2020135177A (ja) 2020-08-31

Family

ID=72278610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019025303A Pending JP2020135177A (ja) 2019-02-15 2019-02-15 動画を解析するためのプログラム、装置、及び方法

Country Status (1)

Country Link
JP (1) JP2020135177A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220089861A (ko) * 2020-12-22 2022-06-29 건국대학교 산학협력단 동작 인식 방법 및 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250989A (ja) * 2004-03-05 2005-09-15 Sony Corp 移動物体追跡方法及び画像処理装置
JP2014186167A (ja) * 2013-03-22 2014-10-02 Casio Comput Co Ltd 表示制御装置、表示制御方法及びプログラム
JP2015146642A (ja) * 2015-04-15 2015-08-13 カシオ計算機株式会社 表示制御装置、表示制御方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005250989A (ja) * 2004-03-05 2005-09-15 Sony Corp 移動物体追跡方法及び画像処理装置
JP2014186167A (ja) * 2013-03-22 2014-10-02 Casio Comput Co Ltd 表示制御装置、表示制御方法及びプログラム
JP2015146642A (ja) * 2015-04-15 2015-08-13 カシオ計算機株式会社 表示制御装置、表示制御方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220089861A (ko) * 2020-12-22 2022-06-29 건국대학교 산학협력단 동작 인식 방법 및 장치
KR102547998B1 (ko) * 2020-12-22 2023-06-27 건국대학교 산학협력단 동작 인식 방법 및 장치

Similar Documents

Publication Publication Date Title
US10486050B2 (en) Virtual reality sports training systems and methods
CN103888643B (zh) 信息报知装置、信息报知方法以及记录介质
TWI441669B (zh) 虛擬高爾夫模擬裝置及方法
AU2013215813B2 (en) Virtual golf simulation apparatus and method for supporting generation of virtual green
JP4784538B2 (ja) ダイジェスト画像表示装置、ダイジェスト画像表示方法及びプログラム
US11826628B2 (en) Virtual reality sports training systems and methods
WO2013002653A1 (en) Method of analysing a video of sports motion
US10382704B2 (en) Image processing device that generates a composite image
US9324158B2 (en) Image processing device for performing image processing on moving image
US20180369678A1 (en) System and Apparatus for Sports Training
KR101565472B1 (ko) 골프 스윙에 대한 정보제공을 위한 골프 연습 시스템 및 이를 이용한 골프 스윙에 대한 정보 처리방법
KR20100033205A (ko) 골프연습 보조 시스템 및 그 방법
KR101962916B1 (ko) 골프 스윙 자세 확인 및 교정 시스템
JP2020135177A (ja) 動画を解析するためのプログラム、装置、及び方法
JP2018061729A (ja) 画像処理システムおよびその制御方法
JP6679951B2 (ja) 指導アシストシステム、および指導アシストプログラム
US10946242B2 (en) Swing analysis device, swing analysis method, and swing analysis system
JP2008167867A (ja) ダンスロボット、ダンスロボットの制御方法及び制御プログラム
JP5240317B2 (ja) ダイジェスト画像表示装置、ダイジェスト画像表示方法及びプログラム
KR102055146B1 (ko) 이벤트 기반 비전 센서를 이용한 운동 자세 점검 방법 및 운동 자세 점검 장치
JP2022007548A (ja) 評価システム、および評価方法
KR102619364B1 (ko) 골프 스윙 클리닉 서비스 방법 및 장치
US11615580B2 (en) Method, apparatus and computer program product for generating a path of an object through a virtual environment
JP6679952B2 (ja) 指導アシストシステム、および指導アシストプログラム
JP7258603B2 (ja) 人物による所定の動作を検証するためのシステム、方法、プログラム、及び装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231212