JP2018523868A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2018523868A5 JP2018523868A5 JP2018502090A JP2018502090A JP2018523868A5 JP 2018523868 A5 JP2018523868 A5 JP 2018523868A5 JP 2018502090 A JP2018502090 A JP 2018502090A JP 2018502090 A JP2018502090 A JP 2018502090A JP 2018523868 A5 JP2018523868 A5 JP 2018523868A5
- Authority
- JP
- Japan
- Prior art keywords
- frames
- event
- video
- motion
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004458 analytical method Methods 0.000 claims description 36
- 230000000875 corresponding Effects 0.000 claims description 13
- 230000001133 acceleration Effects 0.000 claims description 6
- 238000000034 method Methods 0.000 claims description 5
- 238000005259 measurement Methods 0.000 claims 20
- 230000000007 visual effect Effects 0.000 claims 18
- 230000000694 effects Effects 0.000 claims 14
- 239000003550 marker Substances 0.000 claims 6
- 230000001360 synchronised Effects 0.000 claims 5
- 238000007781 pre-processing Methods 0.000 claims 4
- 238000006243 chemical reaction Methods 0.000 claims 2
- 230000004927 fusion Effects 0.000 claims 2
- 238000009499 grossing Methods 0.000 claims 2
- 230000001131 transforming Effects 0.000 claims 2
- 238000010191 image analysis Methods 0.000 claims 1
- 238000007906 compression Methods 0.000 description 4
Description
少なくとも1つのモーションキャプチャ要素の複数の実施形態は、マイクロコントローラと結合された、位置を決定するよう構成された位置決定要素を含んでもよく、この場合、マイクロコントローラは、モバイル装置上のコンピュータに位置を送信するよう構成されている。1以上の実施形態において、本システムは、サーバを更に含み、マイクロコントローラは、直接またはモバイル装置を介してサーバに位置を送信するよう構成されており、コンピュータまたはサーバは、位置、並びに事象開始時間および事象停止時間に基づいて、ビデオの部分から事象ビデオを構成するよう構成されている。例えば、1以上の実施形態において、事象ビデオは、特定の長さの事象に合わせてトリミングされてもよく、任意の品質またはビデオ品質にコード変換され、任意の方法で、モーション解析データまたは事象データ(例えば、速度または加速データ)にオーバーレイされるかまたは別様で統合される。ビデオは、モバイル装置、少なくとも1つのモーションキャプチャセンサ、および/またはサーバ間の通信リンクが開いているか否かに関わらず、ビデオを格納するための任意の解像度、深さ、画質、もしくは圧縮タイプで、または記憶能力を最大にするための他の任意の技術もしくはフレームレートで、または記憶量を最小限にするための任意の圧縮タイプを用いて、ローカルに格納され得る。1以上の実施形態において、速度または他のモーション解析データは、例えば、ビデオの下の部分にオーバーレイされてもよく、または別様で組み合わされてもよく、これは、事象開始および停止時間を含み、例えば、ボールを打った事象の前のスイングのビデオを提供するために、実際の事象の前および/または後の任意の秒数を含んでもよい。1以上の実施形態において、少なくとも1つのモーションキャプチャセンサおよび/またはモバイル装置は、事象およびビデオをサーバに送信してもよく、サーバは、特定のビデオおよびセンサデータが特定の位置において特定の時間に生じたと判断して、幾つかのビデオおよび幾つかのセンサ事象から事象ビデオを構築してもよい。センサ事象は、例えば、ユーザおよび/または用具と結合された1または複数のセンサからのものであり得る。このように、本システムは、事象に対応する短いビデオを構築してもよく、これにより、例えば、必要なビデオ記憶容量が大きく低減される。
少なくとも1つのモーションキャプチャ要素の複数の実施形態は、マイクロコントローラと結合された、位置を決定するよう構成された位置決定要素を含んでもよく、この場合、マイクロコントローラは、モバイル装置上のコンピュータに位置を送信するよう構成されている。1以上の実施形態において、本システムは、サーバを更に含み、マイクロコントローラは、直接またはモバイル装置を介してサーバに位置を送信するよう構成されており、コンピュータまたはサーバは、位置、並びに事象開始時間および事象停止時間に基づいて、ビデオの部分から事象ビデオを構成するよう構成されている。例えば、1以上の実施形態において、事象ビデオは、例えばモバイル装置101、サーバ172、コンピュータ105、または本システムと結合された他の任意のコンピュータ上で、特定の長さの事象に合わせてトリミングされてもよく、任意の品質またはビデオ品質にコード変換され、任意の方法で、モーション解析データまたは事象データ(例えば、速度または加速データ)にオーバーレイされるかまたは別様で統合される。ビデオは、モバイル装置、少なくとも1つのモーションキャプチャセンサ、および/またはサーバ間の通信リンクが開いているか否かに関わらず、ビデオを格納するための任意の解像度、深さ、画質、もしくは圧縮タイプで、または記憶能力を最大にするための他の任意の技術もしくはフレームレートで、または記憶量を最小限にするための任意の圧縮タイプを用いて、ローカルに格納され得る。1以上の実施形態において、速度または他のモーション解析データは、例えば、ビデオの下の部分にオーバーレイされてもよく、または別様で組み合わされてもよく、これは、事象開始および停止時間を含み、例えば、ボールを打った事象の前のスイングのビデオを提供するために、実際の事象の前および/または後の任意の秒数を含んでもよい。1以上の実施形態において、少なくとも1つのモーションキャプチャセンサおよび/またはモバイル装置は、事象およびビデオをサーバに送信してもよく、サーバは、特定のビデオおよびセンサデータが特定の位置において特定の時間に生じたと判断して、幾つかのビデオおよび幾つかのセンサ事象から事象ビデオを構築してもよい。センサ事象は、例えば、ユーザおよび/または用具と結合された1または複数のセンサからのものであり得る。このように、本システムは、事象に対応する短いビデオを構築してもよく、これにより、例えば、必要なビデオ記憶容量が大きく低減される。
Claims (30)
- 統合されたセンサおよびビデオモーション解析方法において、
カメラからキャプチャされたビデオを取得する工程と、
コンピュータを用いて、1以上の対象のオブジェクトと、該1以上の対象のオブジェクトのうちの各オブジェクトについての1以上の区別可能な視覚的特徴とを取得する工程と、
解析のために前記ビデオから複数のフレームを選択する工程と、
前記1以上の対象のオブジェクトについて前記複数のフレームを探索して、1以上の識別されたオブジェクトと、前記複数のフレーム内における、前記1以上の識別されたオブジェクトのうちの1つのオブジェクトと各領域が関連づけられた1以上の領域とを生じる工程であって、前記1以上の領域のうちの各領域の画素が、前記1以上の領域と関連づけられた前記1以上の識別されたオブジェクトのうちの1つのオブジェクトについての前記1以上の区別可能な視覚的特徴とマッチする、工程と、
前記複数のフレームのうちの各フレームについて、前記カメラのカメラ姿勢を推定する工程と、
前記1以上の領域の位置および画素内容から、前記複数のフレームのうちの1以上のフレーム内における前記1以上の識別されたオブジェクトのうちの1以上のオブジェクトについての、前記カメラ姿勢に対して相対的なオブジェクト姿勢を推定する工程と、
前記複数のフレームのうちの各フレームについての前記カメラ姿勢を用いて、前記複数のフレームのうちの各フレーム内における前記オブジェクト姿勢を共通座標系に変換する工程と、
1以上のモーションキャプチャ要素から、前記1以上の対象のオブジェクトのうちの1以上のオブジェクトについてのモーションキャプチャデータを取得する工程と、
前記モーションキャプチャデータを前記複数のフレームと同期させる工程と、
前記複数のフレームにわたる前記オブジェクト姿勢の変化を前記モーションキャプチャデータと組み合わせるためのセンサ融合を用いて、前記1以上の識別されたオブジェクトについての1以上のモーション測定指標を生成する工程と
を含み、
前記モーションキャプチャデータおよび前記1以上のモーション測定指標が、線形位置、線形速度、線形加速度、軌道、向き、角速度、角加速度、モーションの時間、複数の位置間で経過した時間、モーションの開始から或る位置に到着するまでに経過した時間、および衝撃の時間のうちの1以上を含み、
前記1以上の区別可能な視覚的特徴が、形状、曲率、サイズ、色、輝度、色相、飽和、テクスチャ、および画素パターンのうちの1以上を含み、
前記1以上の対象のオブジェクトが、用具および人のうちの1以上を含む
ことを特徴とする方法。 - 前記前記モーションキャプチャデータを前記複数のフレームと同期させる前記工程が、
事象タイプ、該事象タイプと関連づけられたセンサデータシグネチャー、および前記事象タイプと関連づけられたビデオシグネチャーを各事象シグネチャーが含む1以上の事象シグネチャーを取得する工程と、
前記モーションキャプチャデータ内における、および前記複数のフレーム内における、前記1以上の事象シグネチャーのうちの1つにマッチする事象の位置を特定する工程と、
前記事象についての前記センサデータシグネチャーに対応するモーションキャプチャデータタイムスタンプを、前記複数のフレームのうちの、前記事象についての前記ビデオシグネチャーが前記ビデオ内において生じているフレームと位置合わせする工程と
を含む、請求項1記載の統合されたセンサおよびビデオモーション解析方法。 - 前記モーションキャプチャデータがセンサクロックを含み、
前記ビデオがフレームクロックを含み、
前記センサクロックと前記フレームクロックとが最大クロック差の範囲内で緩く同期され、
前記事象の位置を特定する前記工程が、
前記モーションキャプチャデータ内における、前記1以上の事象シグネチャーのうちの前記センサデータシグネチャーの位置を特定し、位置を特定された前記センサデータシグネチャーについてのモーションキャプチャデータタイムスタンプと、検出された事象タイプとを生じる工程と、
前記検出された事象タイプに対応する前記ビデオシグネチャーについて、前記モーションキャプチャデータタイムスタンプから前記最大クロック差を減算した値と前記モーションキャプチャデータタイムスタンプに前記最大クロック差を加算した値との間の前記フレームクロックの値を有する前記複数のフレームを探索する工程と
を含む、請求項2記載の統合されたセンサおよびビデオモーション解析方法。 - 前記モーションキャプチャデータを前記複数のフレームと同期させる前記工程が、
前記1以上の識別されたオブジェクトから基準オブジェクトを選択する工程と、
前記基準オブジェクトのビデオモーション測定指標を、前記複数のフレームから算出する工程と、
前記基準オブジェクトについての対応するセンサモーション測定指標を、前記基準オブジェクトについての前記モーションキャプチャデータから算出する工程と、
前記ビデオモーション測定指標と前記センサモーション測定指標との間の差分が最小化されるように、前記モーションキャプチャデータを前記複数のフレームと位置合わせする工程と
を含む、請求項1記載の統合されたセンサおよびビデオモーション解析方法。 - 前記モーションキャプチャデータがセンサクロックを含み、
前記ビデオがフレームクロックを含み、
前記センサクロックと前記フレームクロックとが最大クロック差の範囲内で緩く同期され、
前記モーションキャプチャデータを前記複数のフレームと位置合わせする前記工程が、前記最大クロック差の範囲内における、前記ビデオモーション測定指標と前記センサモーション測定指標との間の前記差が最小化される正または負のクロックシフトを探索する、
請求項4記載の統合されたセンサおよびビデオモーション解析方法。 - 事象タイプ、該事象タイプと関連づけられたセンサデータシグネチャー、および前記事象タイプと関連づけられたビデオシグネチャーを各事象シグネチャーが含む1以上の事象シグネチャーを取得する工程と、
前記モーションキャプチャデータ内における、前記1以上の事象シグネチャーのうちの前記センサデータシグネチャーのうちの1つにマッチする、見込みのある事象、または、前記複数のフレーム内における、前記1以上の事象シグネチャーのうちの前記ビデオシグネチャーのうちの1つにマッチする、見込みのある事象の位置を特定する工程と、
前記見込みのある事象に見込みのある事象タイプを割り当てる工程と、
前記見込みのある事象が、前記見込みのある事象タイプについての前記センサデータシグネチャーおよび前記見込みのある事象タイプについての前記ビデオシグネチャーの両方にマッチしない場合に、前記見込みのある事象を誤検出として消去する工程と
を更に含む、請求項1記載の統合されたセンサおよびビデオモーション解析方法。 - 前記1以上の対象のオブジェクトのうちの少なくとも1つのオブジェクトが視覚的マーカーを含み、
前記視覚的マーカーが回転対称ではないパターンを含み、
前記1以上の対象のオブジェクトのうちの前記少なくとも1つのオブジェクトの前記1以上の区別可能な視覚的特徴が、前記視覚的マーカーの前記パターンを含む、
請求項1記載の統合されたセンサおよびビデオモーション解析方法。 - 前記1以上の対象のオブジェクトについて前記複数のフレームを探索する前記工程を容易にするために、前記複数のフレームを前処理する工程を更に含み、前記複数のフレームに対する前記前処理が、ノイズ除去、フリッカー除去、平滑化、色空間変換、色または輝度のバランス調整、および陰影除去のうちの1以上を含む、請求項1記載の統合されたセンサおよびビデオモーション解析方法。
- 前記複数のフレームのうちの各フレームについて、前記カメラの前記カメラ姿勢を推定する前記工程が、前記カメラの位置、向き、または位置および向きの両方のうちの1以上の様子を測定するセンサを用いる、請求項1記載の統合されたセンサおよびビデオモーション解析方法。
- 前記カメラ姿勢に対して相対的な前記オブジェクト姿勢を推定する前記工程が、
前記1以上の識別されたオブジェクトについての前記複数のフレーム内における前記1以上の領域の前記位置から、前記1以上の識別されたオブジェクトが位置する光線を推定する工程と、
前記1以上の識別されたオブジェクトについての前記複数のフレーム内における前記1以上の領域の相対的なサイズから、前記カメラからの前記1以上の識別されたオブジェクトの相対的な距離を推定する工程と、
前記1以上の識別されたオブジェクトについての基準画素パターンと前記1以上の識別されたオブジェクトについての前記1以上の領域の前記画素内容との間の差分が最小化される回転を算出することにより、前記カメラに対して相対的な前記1以上の識別されたオブジェクトの向きを推定する工程と
を含み、
前記基準画素パターンが、前記1以上の識別されたオブジェクトについての前記1以上の区別可能な視覚的特徴のうちの1つに対応し、または、前記基準画素パターンが、指定されている基準フレームについての前記1以上の領域の前記画素内容から取得される
請求項1記載の統合されたセンサおよびビデオモーション解析方法。 - 前記1以上の識別されたオブジェクトのうちの1以上のオブジェクトの確からしい軌道の物理的モデルを生成または取得する工程と、
前記物理的モデルを用いて、前記1以上の識別されたオブジェクトの位置について、前記複数のフレームのうちの各フレーム内における高確率領域を推定する工程と
を更に含み、
前記1以上の対象のオブジェクトについて前記複数のフレームを探索する前記工程が、前記高確率領域内において探索することを含む、
請求項1記載の統合されたセンサおよびビデオモーション解析方法。 - 前記複数のフレームのうちの第1のフレームを除く各フレームを、前記第1のフレームを除く前記複数のフレームのうちの前のフレームについての前記カメラ姿勢からの、前記第1のフレームを除く前記複数のフレームのビューを推定する位置合わせされたフレームに変換する工程と、
各前記位置合わせされたフレームと前記前のフレームとの間のフレーム差分を算出する工程と、
前記フレーム差分から高モーション領域を算出する工程と
を更に含み、
前記1以上の対象のオブジェクトについて前記複数のフレームを探索する前記工程が、前記高モーション領域内において探索することを含む、
請求項1記載の統合されたセンサおよびビデオモーション解析方法。 - 前記第1のフレームを除く前記複数のフレームのうちの各フレームを前記位置合わせされたフレームに変換する前記工程が、
フレーム平行移動を適用後の前記複数のフレームのうちの1つのフレームの中心領域と前記前のフレームの中心領域との間の画素差分が最小化されるフレーム平行移動を算出する工程と、
前記複数のフレームのうちの各フレームを複数のタイルに分割する工程と、
前記フレーム平行移動およびローカルなタイル平行移動を適用後の前記複数のタイルのうちの或るタイルとそれに対応する前記前のフレームのタイルとの間の画素差分が最小化される、各前記タイルについてのローカルなタイル平行移動を算出する工程と
を含む、請求項12記載の統合されたセンサおよびビデオモーション解析方法。 - 前記1以上のモーション測定指標が、前記1以上の対象のオブジェクトのうちの1つのオブジェクトについての衝撃の時間を含み、
前記衝撃の時間が、連続するフレーム間においてモーション測定指標の不連続性を検出することによって算出される、
請求項1記載の統合されたセンサおよびビデオモーション解析方法。 - 前記1以上の対象のオブジェクトのうちの前記1つのオブジェクトの軌道を、前記複数のフレームのうちの衝撃前のフレームから順方向に補外して、順方向の軌道を生じ、
前記1以上の対象のオブジェクトのうちの前記1つのオブジェクトの前記軌道を、前記複数のフレームのうちの衝撃後のフレームから逆方向に補外して、逆方向の軌道を生じ、
前記順方向の軌道と前記逆方向の軌道との交点の時間を算出する
ことによって、前記複数のフレーム間において算出される前記衝撃の時間が算出される、請求項14記載の統合されたセンサおよびビデオモーション解析方法。 - 前記1以上の対象のオブジェクトのうちの1つのオブジェクトの観察された軌道を、望ましい軌道と比較する工程と、
前記1以上のモーション測定指標のうちの1つとして、前記観察された軌道の初期条件の、前記望ましい軌道を生じる変更を算出する工程と
を更に含む、請求項1記載の統合されたセンサおよびビデオモーション解析方法。 - 前記初期条件が、初期速度および初期方向のうちの1以上を含む、請求項16記載の統合されたセンサおよびビデオモーション解析方法。
- 前記1以上の対象のオブジェクトがボールを含み、前記初期条件が、前記ボールとの前記衝撃の時間における用具の速度および狙いのうちの1以上を含む、請求項17記載の統合されたセンサおよびビデオモーション解析方法。
- 対象のアクティビティの1以上のシグネチャーであって、前記1以上のモーション測定指標のうちの1以上のモーション測定指標に各シグネチャーが対応する1以上のシグネチャーを取得する工程と、
前記対象のアクティビティの前記1以上のシグネチャーについて前記複数のフレームを探索する工程と、
前記複数のフレームからの、前記対象のアクティビティの前記1以上のシグネチャーが生じたフレームを含み、必要に応じて、前記複数のフレームからの、前記対象のアクティビティの前記1以上のシグネチャーが生じた前記フレームに近接したフレームを含む、1以上のハイライトフレームまたは失敗フレームを選択する工程と、
前記1以上のハイライトフレームまたは失敗フレームを、リポジトリ、ビューア、サーバ、コンピュータ、ソーシャルメディアサイト、モバイル装置、ネットワーク、および救急サービスのうちの1以上に送信する工程と
を更に含む、請求項1記載の統合されたセンサおよびビデオモーション解析方法。 - 前記1以上のハイライトフレームまたは失敗フレームに、各前記1以上のハイライトフレームまたは失敗フレームにおける前記1以上のモーション測定指標のうちの1以上のモーション測定指標の値を表すデータまたはグラフィックをオーバーレイする工程を更に含む、請求項19記載の統合されたセンサおよびビデオモーション解析方法。
- 前記1以上のハイライトフレームまたは失敗フレーム以外の前記ビデオの部分を捨てるよう前記カメラにコマンドする工程を更に含む、請求項19記載の統合されたセンサおよびビデオモーション解析方法。
- 前記対象のアクティビティの前記1以上のシグネチャーが、前記1以上のモーション測定指標のうちの前記1以上のモーション測定指標の対応する範囲内にある1以上のモーション測定指標を含む、請求項19記載の統合されたセンサおよびビデオモーション解析方法。
- 前記1以上のモーション測定指標が、アクティビティについての経過時間を含み、
前記方法が、前記経過時間を算出する工程をさらに含み、
前記経過時間を算出する工程が、
前記アクティビティの開始に対応するシグネチャーを検出するために、前記モーションキャプチャデータを用いて、前記アクティビティについてのスタート時間を算出する工程と、
前記アクティビティの完了に対応するシグネチャーを検出するために、前記ビデオを用いて、前記アクティビティについてのフィニッシュ時間を算出する工程と、
前記フィニッシュ時間と前記スタート時間との間の差分として前記経過時間を算出する工程と
を含む、請求項1記載の統合されたセンサおよびビデオモーション解析方法。 - 前記1以上のモーションキャプチャ要素から事象データを算出するまたは事象データを受信する工程と、
前記事象データから事象開始時間および事象停止時間を取得する工程と、
前記ビデオと関連づけられたビデオ開始時間およびビデオ停止時間を取得する工程と、
前記1以上のモーションキャプチャ要素から取得された前記事象データと関連づけられた第1の時間と、前記ビデオと関連づけられた少なくとも1つの時間とに基づいて、前記事象データを前記ビデオと同期させることに基づいて、同期された事象ビデオを生成する工程と
を更に含む、請求項1記載の統合されたセンサおよびビデオモーション解析方法。 - 前記事象開始時間から前記事象停止時間までの期間外に生じた前記ビデオの少なくとも一部分を別のコンピュータに転送せずに、少なくとも前記事象開始時間から前記事象停止時間までの期間中にキャプチャされた前記同期された事象ビデオを前記別のコンピュータに転送するよう前記カメラにコマンドする工程を更に含む、請求項24記載の統合されたセンサおよびビデオモーション解析方法。
- 前記事象開始時間から前記事象停止時間までの期間外の前記ビデオの少なくとも一部分を捨てるよう前記カメラにコマンドする工程を更に含む、請求項24記載の統合されたセンサおよびビデオモーション解析方法。
- 前記事象開始時間から前記事象停止時間までの期間中に生じた前記事象データと、前記事象開始時間から前記事象停止時間までの前記期間中にキャプチャされた前記ビデオとの両方を含む、オーバーレイされた同期された事象ビデオを生成する工程を更に含む、請求項24記載の統合されたセンサおよびビデオモーション解析方法。
- 前記ビデオを取得する前記工程が、前記1以上のモーションキャプチャ要素からの前記モーションキャプチャデータを同時に取得しつつ、視認性が高い色を有するよう構成された視覚的マーカーの前記ビデオを取得することを含み、前記視覚的マーカーが前記1以上のモーションキャプチャ要素のうちの1つと結合された、請求項1記載の統合されたセンサおよびビデオモーション解析方法。
- 第1の閾値を有する前記モーションキャプチャデータから第1の値を検出する工程と、
時間窓内における第2の閾値を有する前記モーションキャプチャデータから第2の値を検出する工程と、
見込みのある事象を見込みのある事象であるとして示す工程と、
前記見込みのある事象を、典型的な事象と関連づけられた特徴的な信号と比較する、もしくは、前記見込みのある事象の最中の前記ビデオを、前記典型的な事象と関連づけられた特徴的な画像と比較する、または、それらの両方を行う工程と、
前記見込みのある事象を前記特徴的な信号と比較する前記工程、または、前記見込みのある事象の最中の前記ビデオを前記特徴的な画像と比較する前記工程のいずれかまたは両方が、所定の許容誤差の範囲外となった場合に、誤検出の事象を消去する工程と、
前記見込みのある事象が誤検出の事象ではない場合に、有効な事象を有効な事象であるとして示す工程と、
前記有効な事象を、前記コンピュータと結合されたメモリに保存する工程と
を更に含む、請求項1記載の統合されたセンサおよびビデオモーション解析方法。 - 統合されたセンサおよびビデオモーション解析方法において、
カメラからキャプチャされたビデオを取得する工程と、
コンピュータを用いて、1以上の対象のオブジェクトと、該1以上の対象のオブジェクトのうちの各オブジェクトについての1以上の区別可能な視覚的特徴とを取得する工程であって、前記1以上の対象のオブジェクトのうちの少なくとも1つのオブジェクトが視覚的マーカーを含み、該視覚的マーカーが回転対称ではないパターンを有し、前記1以上の対象のオブジェクトのうちの前記少なくとも1つのオブジェクトの前記1以上の区別可能な視覚的特徴が、前記視覚的マーカーの前記パターンを含む、工程と、
解析のために前記ビデオから複数のフレームを選択する工程と、
前記複数のフレームの画像解析を容易にするために、前記複数のフレームを前処理する工程であって、前記複数のフレームに対する前記前処理が、ノイズ除去、フリッカー除去、平滑化、色空間変換、色または輝度のバランス調整、および陰影除去のうちの1以上を含む、工程と、
前記複数のフレームのうちの第1のフレームを除く各フレームを、前記複数のフレームのうちの前のフレームについてのカメラ姿勢からの、前記第1のフレームを除く前記複数のフレームのビューを推定する位置合わせされたフレームに変換する工程であって、フレーム平行移動を適用後の前記複数のフレームのうちの1つのフレームの中心領域と前記前のフレームの中心領域との間の画素差分が最小化されるフレーム平行移動を算出し、前記複数のフレームのうちの各フレームを複数のタイルに分割し、前記フレーム平行移動およびローカルなタイル平行移動を適用後の或るタイルとそれに対応する前記前のフレームのタイルとの間の画素差分が最小化される、各前記タイルについてのローカルなタイル平行移動を算出することにより、変換する工程と、
各前記位置合わせされたフレームと前記前のフレームとの間のフレーム差分を算出する工程と、
前記フレーム差分から高モーション領域を算出する工程と、
前記1以上の対象のオブジェクトについて前記複数のフレームの前記高モーション領域を探索して、1以上の識別されたオブジェクトと、前記複数のフレーム内における、前記1以上の識別されたオブジェクトのうちの1つのオブジェクトと各領域が関連づけられた1以上の領域とを生じる工程であって、前記1以上の領域のうちの各領域の画素が、前記1以上の領域と関連づけられた前記1以上の識別されたオブジェクトのうちの1つのオブジェクトについての前記1以上の区別可能な視覚的特徴とマッチする、工程と、
前記複数のフレームのうちの各フレームについて、前記カメラの前記カメラ姿勢を推定する工程と、
前記1以上の領域の位置および画素内容から、前記複数のフレームのうちの1以上のフレーム内における前記1以上の識別されたオブジェクトのうちの1以上のオブジェクトについての、前記カメラ姿勢に対して相対的なオブジェクト姿勢を推定する工程であって、該オブジェクト姿勢が、
前記1以上の識別されたオブジェクトについての前記複数のフレーム内における前記1以上の領域の前記位置から、前記1以上の識別されたオブジェクトが位置する光線を推定し、
前記1以上の識別されたオブジェクトについての前記複数のフレーム内における前記1以上の領域の相対的なサイズから、前記カメラからの前記1以上の識別されたオブジェクトの相対的な距離を推定し、
前記1以上の識別されたオブジェクトについての基準画素パターンと前記1以上の識別されたオブジェクトについての前記1以上の領域の前記画素内容との間の差分が最小化される回転を算出することにより、前記カメラに対して相対的な前記1以上の識別されたオブジェクトの向きを推定する
ことによって推定され、
記基準画素パターンが、前記1以上の識別されたオブジェクトについての前記1以上の区別可能な視覚的特徴のうちの1つに対応し、または、前記基準画素パターンが、指定されている基準フレームについての前記1以上の領域の前記画素内容から取得される、工程と、
前記複数のフレームのうちの各フレームについての前記カメラ姿勢を用いて、前記複数のフレームのうちの各フレーム内における前記オブジェクト姿勢を共通座標系に変換する工程と、
前記1以上の対象のオブジェクトのうちの1以上のオブジェクトについてのモーションキャプチャデータを取得する工程と、
事象タイプ、該事象タイプと関連づけられたセンサデータシグネチャー、および前記事象タイプと関連づけられたビデオシグネチャーを各事象シグネチャーが含む1以上の事象シグネチャーを取得する工程と、
前記モーションキャプチャデータ内における、前記1以上の事象シグネチャーのうちの前記センサデータシグネチャーのうちの1つにマッチする、見込みのある事象、または、前記複数のフレーム内における、前記1以上の事象シグネチャーのうちの前記ビデオシグネチャーのうちの1つにマッチする、見込みのある事象の位置を特定する工程と、
前記見込みのある事象に見込みのある事象タイプを割り当てる工程と、
前記見込みのある事象が、前記見込みのある事象タイプについての前記センサデータシグネチャーおよび前記見込みのある事象タイプについての前記ビデオシグネチャーの両方にマッチしない場合に、前記見込みのある事象を誤検出として消去する工程と、
前記見込みのある事象が誤検出として消去されない場合に、前記見込みのある事象についての前記センサデータシグネチャーに対応するモーションキャプチャデータタイムスタンプを、前記複数のフレームのうちの、前記見込みのある事象についての前記ビデオシグネチャーが前記ビデオ内において生じているフレームと位置合わせすることにより、前記モーションキャプチャデータを前記複数のフレームと同期させる工程と、
前記複数のフレームにわたる前記オブジェクト姿勢の変化を前記モーションキャプチャデータと組み合わせるためのセンサ融合を用いて、前記1以上の識別されたオブジェクトについての1以上のモーション測定指標を生成する工程と、
対象のアクティビティの1以上のシグネチャーであって、前記1以上のモーション測定指標のうちの1以上のモーション測定指標に各シグネチャーが対応する1以上のシグネチャーを取得する工程と、
前記対象のアクティビティの前記1以上のシグネチャーについて前記複数のフレームを探索する工程と、
前記対象のアクティビティの前記1以上のシグネチャーが生じたフレームを含み、必要に応じて、前記対象のアクティビティの前記1以上のシグネチャーが生じた前記フレームに近接したフレームを含む、1以上のハイライトフレームまたは失敗フレームを選択する工程と、
前記1以上のハイライトフレームまたは失敗フレームに、各前記1以上のハイライトフレームまたは失敗フレームにおける前記1以上のモーション測定指標のうちの1以上のモーション測定指標の値を表すデータまたはグラフィックをオーバーレイする工程と、
前記1以上のハイライトフレームまたは失敗フレームを、リポジトリ、ビューア、サーバ、コンピュータ、ソーシャルメディアサイト、モバイル装置、ネットワーク、および救急サービスのうちの1以上に送信する工程と
を含み、
前記モーションキャプチャデータおよび前記1以上のモーション測定指標が、線形位置、線形速度、線形加速度、軌道、向き、角速度、角加速度、モーションの時間、複数の位置間で経過した時間、モーションの開始から或る位置に到着するまでに経過した時間、および衝撃の時間のうちの1以上を含み、
前記1以上の区別可能な視覚的特徴が、形状、曲率、サイズ、色、輝度、色相、飽和、テクスチャ、および画素パターンのうちの1以上を含み、
前記1以上の対象のオブジェクトが、用具および人のうちの1以上を含む
ことを特徴とする方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/801,568 US9396385B2 (en) | 2010-08-26 | 2015-07-16 | Integrated sensor and video motion analysis method |
US14/801,568 | 2015-07-16 | ||
PCT/US2016/042674 WO2017011817A1 (en) | 2015-07-16 | 2016-07-15 | Integrated sensor and video motion analysis method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018523868A JP2018523868A (ja) | 2018-08-23 |
JP2018523868A5 true JP2018523868A5 (ja) | 2019-03-07 |
JP6814196B2 JP6814196B2 (ja) | 2021-01-13 |
Family
ID=57757658
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018502090A Active JP6814196B2 (ja) | 2015-07-16 | 2016-07-15 | 統合されたセンサおよびビデオモーション解析方法 |
Country Status (6)
Country | Link |
---|---|
EP (1) | EP3323240B1 (ja) |
JP (1) | JP6814196B2 (ja) |
CN (1) | CN108028902B (ja) |
AU (1) | AU2016293616B2 (ja) |
CA (1) | CA3030958C (ja) |
WO (1) | WO2017011817A1 (ja) |
Families Citing this family (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10216694B2 (en) | 2015-08-24 | 2019-02-26 | Google Llc | Generic scheduling |
CN108805109B (zh) * | 2018-08-07 | 2024-04-23 | 深圳市天玖隆科技有限公司 | 一种运动数据捕获显示系统 |
CN109259748B (zh) * | 2018-08-17 | 2020-04-07 | 西安电子科技大学 | 手机处理人脸视频提取心率信号的系统及其方法 |
CN109452943B (zh) * | 2018-09-17 | 2021-03-23 | 周建菊 | 一种用于重症偏瘫患者的多功能康复衣 |
US11496723B1 (en) * | 2018-09-28 | 2022-11-08 | Apple Inc. | Automatically capturing a moment |
WO2020097875A1 (zh) * | 2018-11-15 | 2020-05-22 | 高驰运动科技(深圳)有限公司 | 摔倒检测方法、装置、设备以及存储介质 |
DE102019100314A1 (de) * | 2019-01-08 | 2020-07-09 | AI Golf UG (haftungsbeschränkt) | Verfahren und System zum Golftraining |
CN113766313B (zh) * | 2019-02-26 | 2024-03-05 | 深圳市商汤科技有限公司 | 视频数据处理方法及装置、电子设备和存储介质 |
US11205273B2 (en) * | 2019-03-11 | 2021-12-21 | Velo Software, Llc | Methods and systems of tracking velocity |
JP2020174845A (ja) * | 2019-04-17 | 2020-10-29 | セイコーエプソン株式会社 | 運動解析方法、運動解析システム及び運動解析装置 |
TWI723383B (zh) * | 2019-04-22 | 2021-04-01 | 鴻齡科技股份有限公司 | 圖像識別裝置及方法 |
JP7418981B2 (ja) * | 2019-06-25 | 2024-01-22 | キヤノン株式会社 | 画像処理装置、制御方法、およびプログラム |
US11789843B1 (en) | 2019-07-05 | 2023-10-17 | Cornerstone Research Group, Inc. | Event detection sensor and recording system |
US11583729B2 (en) | 2019-09-06 | 2023-02-21 | Taylor Made Golf Company, Inc. | Systems and methods for integrating measurements captured during a golf swing |
US11320667B2 (en) * | 2019-09-27 | 2022-05-03 | Snap Inc. | Automated video capture and composition system |
KR102198851B1 (ko) | 2019-11-12 | 2021-01-05 | 네이버랩스 주식회사 | 물체의 3차원 모델 데이터 생성 방법 |
US11288509B2 (en) * | 2019-11-12 | 2022-03-29 | Toyota Research Institute, Inc. | Fall detection and assistance |
KR102100675B1 (ko) * | 2019-12-06 | 2020-05-15 | 주식회사 대산테크디자인 | 골프화용 깔창 제조 방법 |
CN111243250B (zh) * | 2019-12-25 | 2022-05-27 | 东软集团股份有限公司 | 一种基于报警数据的维保预警方法、装置及设备 |
CN111179679B (zh) * | 2019-12-31 | 2022-01-28 | 广东虚拟现实科技有限公司 | 射击训练方法、装置、终端设备及存储介质 |
CN111150566B (zh) * | 2020-01-17 | 2022-05-10 | 南京邮电大学 | 一种自主导航与多模人机交互共享的轮椅控制系统及方法 |
EP3883235A1 (en) | 2020-03-17 | 2021-09-22 | Aptiv Technologies Limited | Camera control modules and methods |
CN111541843B (zh) * | 2020-04-21 | 2021-08-10 | 厦门钛尚人工智能科技有限公司 | 一种基于运动传感器的精彩画面实时自动抓拍方法 |
CN111598134B (zh) * | 2020-04-24 | 2022-04-15 | 山东体育学院 | 一种体操运动数据监控的测试分析方法 |
US20210383124A1 (en) * | 2020-06-04 | 2021-12-09 | Hole-In-One Media, Inc. | Autonomous activity monitoring system and method |
WO2022026916A1 (en) * | 2020-07-31 | 2022-02-03 | Qualiaos, Inc. | Detection of kinetic events and mechanical variables from uncalibrated video |
CN112000225B (zh) * | 2020-08-25 | 2021-06-25 | 唯羲科技有限公司 | 一种定位建图优化方法、装置及定位建图优化芯片 |
US20220215909A1 (en) * | 2021-01-07 | 2022-07-07 | Elliot Raj | Delta Touchless Range of Motion Analysis |
CN112973084A (zh) * | 2021-02-25 | 2021-06-18 | 因孚迈德公司 | 高尔夫挥杆分析装置以及利用其的高尔夫练习模拟系统 |
CN112954486B (zh) * | 2021-04-02 | 2022-07-12 | 成都艾体验科技有限公司 | 基于视线注意力的车载视频留痕处理方法 |
EP4341785A1 (en) * | 2021-05-19 | 2024-03-27 | Snap Inc. | Automatic media capture based on motion sensor data |
CN114494356B (zh) * | 2022-04-02 | 2022-06-24 | 中傲数据技术(深圳)有限公司 | 一种基于人工智能的羽毛球视频片段处理方法和系统 |
CN115270651B (zh) * | 2022-06-20 | 2024-03-15 | 北京科技大学 | 一种面向单目视频的非牛顿流体仿真重建方法 |
CN114913968B (zh) * | 2022-07-15 | 2022-10-25 | 深圳市三维医疗设备有限公司 | 一种基于人工智能的医疗设备状态监控系统及方法 |
EP4322534A1 (en) * | 2022-08-12 | 2024-02-14 | Rami Khatib | Methods for viewing recorded events |
WO2024110547A1 (en) * | 2022-11-22 | 2024-05-30 | Digital Surgery Limited | Video analysis dashboard for case review |
TWI821129B (zh) * | 2023-02-24 | 2023-11-01 | 國立虎尾科技大學 | 田徑鏈球項目之整合型感測分析系統 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8280682B2 (en) * | 2000-12-15 | 2012-10-02 | Tvipr, Llc | Device for monitoring movement of shipped goods |
US6266623B1 (en) * | 1994-11-21 | 2001-07-24 | Phatrat Technology, Inc. | Sport monitoring apparatus for determining loft time, speed, power absorbed and other factors such as height |
US7094164B2 (en) * | 2001-09-12 | 2006-08-22 | Pillar Vision Corporation | Trajectory detection and feedback system |
US8649933B2 (en) * | 2006-11-07 | 2014-02-11 | Smartdrive Systems Inc. | Power management systems for automotive video event recorders |
US8150101B2 (en) * | 2006-11-13 | 2012-04-03 | Cybernet Systems Corporation | Orientation invariant object identification using model-based image processing |
US7925112B2 (en) * | 2007-02-28 | 2011-04-12 | Honeywell International Inc. | Video data matching using clustering on covariance appearance |
US8622795B2 (en) * | 2008-12-04 | 2014-01-07 | Home Box Office, Inc. | System and method for gathering and analyzing objective motion data |
US9699431B2 (en) * | 2010-02-10 | 2017-07-04 | Satarii, Inc. | Automatic tracking, recording, and teleprompting device using multimedia stream with video and digital slide |
US8527228B2 (en) * | 2010-06-04 | 2013-09-03 | Apple Inc. | Calibration for three dimensional motion sensor |
US8615254B2 (en) * | 2010-08-18 | 2013-12-24 | Nearbuy Systems, Inc. | Target localization utilizing wireless and camera sensor fusion |
US9235765B2 (en) * | 2010-08-26 | 2016-01-12 | Blast Motion Inc. | Video and motion event integration system |
CN102811343B (zh) * | 2011-06-03 | 2015-04-29 | 南京理工大学 | 一种基于行为识别的智能视频监控系统 |
CN102999918B (zh) * | 2012-04-19 | 2015-04-22 | 浙江工业大学 | 全景视频序列图像的多目标对象跟踪系统 |
US8988341B2 (en) * | 2012-06-08 | 2015-03-24 | Apple Inc. | Camera-assisted motion estimation for application control |
US8929709B2 (en) * | 2012-06-11 | 2015-01-06 | Alpinereplay, Inc. | Automatic digital curation and tagging of action videos |
EP2973215B1 (en) * | 2013-03-15 | 2023-05-17 | NIKE Innovate C.V. | Feedback signals from image data of athletic performance |
JP5867432B2 (ja) * | 2013-03-22 | 2016-02-24 | ソニー株式会社 | 情報処理装置、記録媒体および情報処理システム |
-
2016
- 2016-07-15 JP JP2018502090A patent/JP6814196B2/ja active Active
- 2016-07-15 WO PCT/US2016/042674 patent/WO2017011817A1/en active Application Filing
- 2016-07-15 AU AU2016293616A patent/AU2016293616B2/en active Active
- 2016-07-15 EP EP16825298.9A patent/EP3323240B1/en active Active
- 2016-07-15 CA CA3030958A patent/CA3030958C/en active Active
- 2016-07-15 CN CN201680053840.1A patent/CN108028902B/zh active Active
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018523868A5 (ja) | ||
US11730547B2 (en) | Tracking system and tracking method using same | |
US10996062B2 (en) | Information processing device, data management device, data management system, method, and program | |
JP6448223B2 (ja) | 画像認識システム、画像認識装置、画像認識方法、およびコンピュータプログラム | |
CN103069796B (zh) | 用于计数目标的方法和使用多个传感器的装置 | |
JP5442261B2 (ja) | スポーツ競技場におけるイベントの自動検出方法とシステム | |
EP2426642B1 (en) | Method, device and system for motion detection | |
CN110009739A (zh) | 移动摄像机的数字视网膜的运动特征的提取与编码方法 | |
JP5180733B2 (ja) | 移動物体追跡装置 | |
CN107240124A (zh) | 基于时空约束的跨镜头多目标跟踪方法及装置 | |
GB2569654A (en) | Apparatusses, systems and methods for object tracking | |
CN107941212B (zh) | 一种视觉与惯性联合定位方法 | |
JP5027758B2 (ja) | 画像監視装置 | |
WO2022127181A1 (zh) | 客流的监测方法、装置、电子设备及存储介质 | |
KR101469099B1 (ko) | 사람 객체 추적을 통한 자동 카메라 보정 방법 | |
JP6922348B2 (ja) | 情報処理装置、方法、及びプログラム | |
CN110298864B (zh) | 一种高尔夫推杆设备的视觉感测方法及装置 | |
CN115019164A (zh) | 一种基于深度学习方法的图像型火灾探测器烟火识别方法 | |
CN104484888A (zh) | 运动轨迹感测系统及其运动模型建立方法 | |
CN111862146B (zh) | 一种目标对象的定位方法及装置 | |
CN117036462A (zh) | 基于事件相机的视觉定位方法、装置、电子设备及介质 | |
CN109460077B (zh) | 一种自动跟踪方法、自动跟踪设备及自动跟踪系统 | |
JP2009301242A (ja) | 頭部候補抽出方法、頭部候補抽出装置、頭部候補抽出プログラムおよびそのプログラムを記録した記録媒体 | |
KR100631082B1 (ko) | 단일 카메라를 사용한 3차원 영상정보 획득방법 및 이를이용한 영상검지방법 | |
JP6504711B2 (ja) | 画像処理装置 |