JP2015052904A - 動画選択装置、動画選択方法とプログラム - Google Patents

動画選択装置、動画選択方法とプログラム Download PDF

Info

Publication number
JP2015052904A
JP2015052904A JP2013185254A JP2013185254A JP2015052904A JP 2015052904 A JP2015052904 A JP 2015052904A JP 2013185254 A JP2013185254 A JP 2013185254A JP 2013185254 A JP2013185254 A JP 2013185254A JP 2015052904 A JP2015052904 A JP 2015052904A
Authority
JP
Japan
Prior art keywords
moving image
person
moving images
feature information
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013185254A
Other languages
English (en)
Other versions
JP6256738B2 (ja
Inventor
昇平 坂本
Shohei Sakamoto
昇平 坂本
山本 一人
Kazuto Yamamoto
一人 山本
加奈子 中野
Kanako Nakano
加奈子 中野
村木 淳
Atsushi Muraki
淳 村木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2013185254A priority Critical patent/JP6256738B2/ja
Publication of JP2015052904A publication Critical patent/JP2015052904A/ja
Application granted granted Critical
Publication of JP6256738B2 publication Critical patent/JP6256738B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】人物の同じ特定動作が撮影された複数の動画像を対象とした特定動作の確認を容易に行う。【解決手段】人物の一連の動きからなる特定動作が撮影された複数の動画像の各々から、前記特定動作における所定チェックタイミングでの画像内における人物のチェック部位の位置を含む特徴情報を取得する(SA3〜SA4)。複数の動画像の各々から取得された特徴情報を比較し、比較結果に基づいて前記複数の動画像の中から一部の動画像を選択して出力する(SA6)。【選択図】図2

Description

本発明は、複数の動画像から、その一部を選択する動画選択装置、動画選択方法とプログラムに関するものである。
従来、スポーツ等のトレーニング中に練習者を動画撮影し、撮影した動画像から練習者の種々の動作フォームを確認することによって、トレーニングの成果を確認したり、その後のトレーニングの課題を把握したりすることが行われている。
また、スポーツ等の動作フォームの確認作業を支援する技術として、例えば下記特許文献1には、トレーニング中の人物を撮影した動画データから、動画像内に繰り返し表れるゴルフスイング等の特定動作に該当する部分を自動的に抽出し、抽出した部分のみからなる新たな動画データを生成する技術が記載されている。係る技術によれば、撮影した動画像から特定動作以外の無駄な部分を省くことができ、ゴルフスイング等における個々の動作フォームの確認作業を効率的に行うことができる。
特開2004−173202号公報
しかしながら、上記の技術を用いて生成される動画像はゴルフスイング等の特定動作のみの動画像であるものの、個々の動画像における特定動作の動作フォーム、つまり具体的な動作内容には自ずとバラツキがある。したがって、例えば個々の動画像からトレーニングの成果や今後のトレーニングの課題を判断する場合の確認作業には、手間が掛かるという問題があった。なお、これについては、動作フォームの確認対象となる動画像が、当初から個別に撮影されたものである場合につても同様である。
本発明は、かかる従来の課題に鑑みてなされたものであり、人物の同じ特定動作が撮影された複数の動画像を対象とした特定動作の確認を容易に行うことができる動画選択装置、動画選択方法とプログラムを提供することを目的とする。
前記課題を解決するため、本発明にあっては、人物の一連の動きからなる特定動作が撮影された複数の動画像の各々から、前記特定動作の特徴を示す特徴情報であって、前記特定動作における所定タイミングでの人物の状態を含む特徴情報を取得する取得手段と、前記取得手段によって前記複数の動画像の各々から取得された特徴情報に基づいて前記複数の動画像の中から一部の動画像を選択する選択手段と、前記選択手段による選択結果に応じて前記複数の動画像に対する所定処理を実行する処理手段とを備えたことを特徴とする。
本発明によれば、人物の同じ特定動作が撮影された複数の動画像を対象とした特定動作の確認を容易に行うことが可能となる。
本発明に係る動画再生装置を示すブロック図である。 第1の実施形態における動画抽出処理を示すフローチャートである。 人物の重心の座標位置を取得する手順を示した図である。 チェックタイミング管理テーブルを示す概念図である。 チェック部位管理テーブルを示す概念図である。 第2の実施形態における動画抽出処理を示すフローチャートである。 複数種類の特徴データの例を便宜的に示した図である。
(実施形態1)
以下、本発明の実施形態について説明する。図1は、本発明の動画選択装置としての機能を備えた動画再生装置1の電気的構成の要部を示すブロック図である。なお、この動画再生装置1は、具体的には、例えばデジタルカメラや、携帯電話機であるスマートフォン(Smart Phone)、パーソナルコンピュータによって実現される。
動画再生装置1は、装置全体を制御するCPU(Central Processing Unit)11と、プログラムメモリ12、メインメモリ13、メディアコントローラ14、表示部15、キー入力部16を備えている。
プログラムメモリ12は、例えば内蔵フラッシュメモリから構成される不揮発性の記録媒体である。プログラムメモリ12には、CPU11が動画再生装置1の制御に要する各種プログラム、及び各種データが記憶されている。各種プログラムには、CPU11に、記録メディア50に記録された動画データを対象として後述する動画抽出処理を行わせるためのプログラムが含まれる。
上記プログラムには、後述する動画抽出処理において使用される種別特定データが含まれている。種別特定データは、人物の動作が撮影されている動画データから、画像認識処理技術によって人物の動作種別を特定する際に使用されるデータや、動画像において主たる被写体である人物の1又は複数の特定部位を認識するためのデータ、及びその特定部位の動画像における位置の一般的な変化特性を示すデータ等である。
また、前記各種データには、後述する動画抽出処理において使用されるデータであって、画像データから公知の顔認識技術を用いて特定の人物の顔部分を検出する際に使用される各人物の顔部分の画像データ(以下、顔画像データという。)が記憶されている。なお、係る顔画像データは、動画再生装置1に予め設けられている人物登録機能を用いることにより、既存の動画データ等から抽出され適宜プログラムメモリ12に記憶されるデータである。
メインメモリ13は、例えばDRAM(dynamic random-access memory)から構成されるランダムアクセス可能な揮発性の記録媒体であり、CPU11がプログラムを実行する際のワークメモリとして使用される。すなわちメインメモリ13には、CPU11がプログラムメモリ12から読み出したプログラムや、動画像の表示用データ等の各種データが適宜記憶される。
メディアコントローラ14は、動画再生装置1の図示しない本体に設けられているメモリカードスロットに着脱自在に装着された記録メディア50と、CPU11との間におけるデータの入出力を制御する入出力インターフェースである。
記録メディア50は、例えばフラッシュメモリからなる不揮発性のカード型の記憶媒体であり、記録メディア50には、例えばデジタルカメラにおいて撮影され記録された動画データ、例えばMPEG(Motion Picture Experts Group)方式で圧縮された動画データが記録されている。
表示部15は、例えばバックライト付きのカラー液晶表示パネル、及びその駆動回路により構成され、画像情報や文字情報等の各種情報を表示する。
キー入力部16は、電源キーや、その他の操作ボタン等によって構成され、ユーザによる操作ボタン等の操作情報をCPU11に供給する。
そして、動画再生装置1においては、ユーザーによる所定の操作に応じてCPU11が、前記プログラムメモリ12に格納されているプログラムに従い記録メディア50に記録された動画データを対象として後述する動画抽出処理を実行する。
なお、以下の説明においては、記録メディア50に、人物の一連の動きからなる特定動作、例えばゴルフスイングやランニングが撮影された複数の動画データが記憶されているものとする。また、各動画データは、上記一連の動きが1回分記憶されているものとする。ここで一連の動きは、例えばゴルフスイングであれば、スイング開始(アドレス)から終了(フィニッシュ)までの一連の動きであり、ランニングであれば、右足(左足)が接地した状態から上昇した後、再び接地するまでの一連の動きである。
以下、CPU11がユーザーによる所定の操作に応じて実行する動画抽出処理の内容を図2のフローチャートに従い説明する。
CPU11は、動画抽出処理を開始すると、まず、予め決められている複数の動作種別の中から、検索対象とする動作種別をユーザーに選択させる(ステップSA1)。選択可能な動作種別は、前述した種別特定データに基づき特定可能な動作種別であり、例えばゴルフスイングやランニングである。
さらに、CPU11は、検索対象とする人物をユーザーに指定させる(ステップSA2)。ここで、検索対象として指定可能な人物は、プログラムメモリ12に顔画像データが記憶されているユーザー本人を含む複数の人物である。
次に、CPU11は、記録メディア50に記録されている複数の動画データから、ユーザーによって指定された特定の人物における特定の動作を撮影した動画データを抽出する(ステップSA3)。
係る処理に際してCPU11は、まずユーザーによって指定された人物の顔画像データを用い、複数の動画データから公知の顔認識技術によってユーザーに指定された人物が撮影された動画データを抽出する。
次に、CPU11は、抽出した複数の動画データから、ユーザーによって指定された種別の動作が撮影された動画データのみを抽出する。その際、CPU11は、前述した種別特定データに基づく所定の画像認識処理により、各動画データについて、ユーザーによって指定された種別の動作の判定に際して注目すべき人物の特定部位を認識し、係る特定部位をフレーム間で追跡し、動画像における位置の変化特性を取得する。しかる後、CPU11は、取得した変化特性が、ユーザーによって指定された種別の動作における一般的な変化特性と近似すると判断できる動画データを抽出する。
なお、係るステップSA3の処理は、例えば記録メディア50に、被写体となっている人物を示す人物名等の人物情報と人物の動作の種類を示す動作種別情報との一方又は双方が、各々の動画データに一体的に記憶されるか、又は別データとして付随して記憶される構成であれば、各々の動画データについて上記人物情報や動作種別情報を確認することによって迅速かつより正確に行うことができる。
次に、CPU11は、抽出した各動画データから、動作種別に応じたチェック部位の位置データを抽出する(ステップSA4)。動作種別に応じたチェック部位は、予め決められている画像内における被写体の特定部位であり、例えば動作種別がゴルフスイングであれば、ゴルフスイングを行っている人物の重心に相当する部位や、人物の頭、手、足、肩である。なお、動作種別に応じたチェック部位は、前述した動作種別の判定に際して注目すべき人物の特定部位と同一の場合もある。
また、抽出する具体的な位置データは、予め決められている動作中における特定タイミングでの上記チェック部位の画像内における座標位置であり、上記人物の重心や、人物の頭、手、足の中心等の該当する座標位置である。
例えば動作種別がゴルフスイングであり、特定タイミングがインパクト、チェック部位が人物の重心である場合には、図3に示したように、抽出した動画データから、所定の画像解析処理によってボールにクラブヘッドが密着した状態のフレームの画像であるインパクト画像Fを特定する。次に、インパクト画像Fから輪郭抽出等によって人物部分の輪郭Aを抽出する。しかる後、係る輪郭Aで囲まれた人物領域を示す2値化画像に基づいて人物領域の重心モーメントを算出することにより、人物領域の重心Cの座標位置を取得する。
次に、CPU11は、抽出したチェック部位の位置の分散状態を解析して代表点を決定し、その位置である代表位置を取得する(ステップSA5)。係る処理は、動画データ間でバラツキが存在する複数の位置の平均的な位置を取得する処理である。また、代表位置は、例えばチェック部位の平均的な位置、すなわちx座標の平均値とy座標の平均値や、チェック部位の位置を座標内にプロットしたとき各ポイントが点在する領域の重心座標の位置である。
次に、CPU11は、ステップSA3の処理で抽出した各動画データから、チェック部位の位置が代表位置から所定距離内である動画データをさらに抽出するとともに、抽出した動画データの画像を表示部15に一覧表示する(ステップSA6)。
つまりCPU11は、ユーザーによって指定された特定の人物の特定種別の動作が撮影された複数の動画データのうちで、チェック部位の位置が代表位置から所定距離内である動画データであって、具体的な動作内容が平均的な特徴を有すると判断できる動画データだけを一覧表示する。
なお、一覧表示する動画データの画像は、例えば各動画データの先頭のフレームの縮小画像である。
そして、CPU11は、動画データを一覧表示している間に、ユーザーによっていずれかの動画データが選択された場合には(ステップSA7:YES)、選択された動画データを記録メディア50から読み出し表示部15において再生する(ステップSA8)。以後、CPU11は、新たな動画データが選択される毎に(ステップSA7:YES)、選択された動画データを再生する(ステップSA8)。
一方、CPU11は、動画データを一覧表示している間に、動画データが選択されることなく(ステップSA7:NO)、ユーザーによって画像の整理指示があった場合には(ステップSA9:YES)、記録メディア50に記憶されている動画データの中で、チェック部位の位置が代表位置から所定距離を超える動画データを全て削除して(ステップSA10)、処理を終了する。
また、CPU11は、画像の整理指示がなく(ステップSA9:NO)、ユーザーから終了指示があったときには(ステップSA9:YES)、その時点で直ちに処理を終了する。
以上のように本実施形態の動画再生装置1においては、ユーザーに指定された人物のゴルフスイング等の特定動作が撮影された複数の動画データの中から、具体的な動作内容が平均的な特徴を有する特定動作が撮影されている1又は複数の動画データだけを自動的に抽出し、それを表示させることができる。つまりトレーニングの成果等の判断に適した動作フォームが撮影された1又は複数の動画データだけを自動的に抽出し、それを表示させることができる。
したがって、ユーザーにおいては、トレーニング中の人物を撮影した動画像からゴルフスイング等における動作フォームを確認する際には、それらを撮影した複数の動画データに、ゴルフスイング等の具体的な動作内容にバラツキが存在している場合であっても、トレーニングの成果等の判断に適した動作フォームだけを容易、かつ効率的に確認することができる。
また、ユーザーにおいては、複数の動画データの中で前述した平均的な特徴を有する特定動作が撮影されている動画データ以外の動画データ、つまり不要な動画データを簡単に削除することができる。
(実施形態2)
次に、本発明の第2の実施形態について説明する。本実施形態は、第1の実施形態とは異なり、平均的な特徴を有する動作フォームとしてトレーニングの成果等の判断に最適な1つの動作フォームを抽出可能とする動画再生装置に関するものである。
本実施形態の動画再生装置は、第1の実施形態と同様の基本構成(図1参照)を備えるものであって、プログラムメモリ12には、CPU11に第1の実施形態とは異なる後述する動画抽出処理を実行させるためのプログラムが記憶されている。
また、本実施形態のプログラムには、図4に例示したチェックタイミング管理テーブルT1、及び図5に例示したチェック部位管理テーブルT2を構成するデータが含まれている。
チェックタイミング管理テーブルT1は、動作種別毎に予め決められている複数のチェックタイミング、及びチェックタイミング別の重要度を示すテーブルである。動作種別は、第1の実施形態と同様にゴルフスイングやランニング等である。
ここで、各々のチェックタイミングは各種別の動作中における特定タイミングであって、複数回撮影された同一人物の特定動作を客観的に比較する際に一連の動作の中で重要視すべきタイミングである。具体的なタイミングは、図4に「説明」として便宜的に示したように、例えば動作種別がゴルフスイングに対応するチェックタイミングのうち、「バックスイング開始」は、(ゴルフクラブ)のヘッドがボールの横で静止した状態から動き出すタイミングである。
また、重要度は、上記比較に際して各々のチェックタイミングを、他のチェックタイミングと比較してどの程度重要視すべきか、その度合を相対的に示した数値である。
一方、チェック部位管理テーブルT2は、動作種別毎に予め決められている複数のチェック部位と、チェック部位別の重要度を示すテーブルである。動作種別は、チェックタイミング管理テーブルT1と同一である。
ここで、各々のチェック部位は人物の特定部位であって、複数回撮影された同一人物の特定動作を客観的に比較する際に重要視すべき部位であり、例えば頭、手、右肩、右足、左足である。但し、チェック部位には(人物の)重心の位置も含まれる。
なお、後述する処理において各々のチェック部位は画像内における位置として扱われるものである。具体的な位置は、図5に「説明」として便宜的に示したように、例えば「頭」については、頭の特徴情報と一致する部分の位置(中心位置等)であり、「重心」であれば、(人物の)輪郭を抽出して求めた重心である。
また、重要度は、上記比較に際して各々のチェック部位を、他のチェック部位と比較してどの程度重要視すべきか、その度合を相対的に示した数値である。
さらに、本実施形態においては、チェック部位管理テーブルT2に示されている複数のチェック部位を認識するために必要なデータが前述した種別特定データに含まれている。
そして、本実施形態の動画再生装置においては、ユーザーによる所定の操作に応じ、CPU11がプログラムメモリ12に記憶されたプログラムに従い第1の実施形態とは異なる内容の動画抽出処理を実行する。
以下、本実施形態においてCPU11が実行する動画抽出処理の内容を図6のフローチャートに従い説明する。
本実施形態においてもCPU11は、動画抽出処理を開始すると、まず、予め決められている複数の動作種別の中から、検索対象とする動作種別をユーザーに選択させる(ステップSB1)。さらに、CPU11は、検索対象とする人物をユーザーに指定させる(ステップSB2)。そして、CPU11は、記録メディア50に記録されている複数の動画データから、ユーザーによって指定された特定の人物における特定の動作を撮影した動画データを抽出する(ステップSB3)。
なお、本実施形態においても選択可能な動作種別は、前述した種別特定データに基づき特定可能な動作種別であり、例えばゴルフスイングやランニングである。また、ステップSB3の具体的な処理内容は第1の実施形態におけるステップSA3の処理と同様である。
その後、CPU11は、第1の実施形態と異なり、抽出した全ての動画データ(以下、処理対象の全動画データという。)の各々を所定の順で処理対象に設定しながら(ステップSB4)、各動画データについて以下の処理を行う。
まず、CPU11は、動作種別に応じた複数のチェックタイミングを所定の順で各々設定し(ステップSB5)、設定したチェックタイミングが該当する動画像内での時間位置(フレーム位置)を検出する(ステップSB6)。
次に、CPU11は、動作種別に応じた複数のチェック部位について、検出したチェックタイミングにおけるフレームの画像内での位置(x座標、y座標)をそれぞれ検出する(ステップSB7)。
そして、複数のチェック部位についての検出結果を、チェックタイミングの画像内での時間位置と共にメインメモリ13に記憶する(ステップSB8)。
以後、CPU11は、未設定のチェックタイミングがある間は(ステップSB9:YES)、チェックタイミングとして新たなチェックタイミングを設定し(ステップSB5)、ステップSB6〜SB8の処理を繰り返す。これにより処理対象として設定した動画データについて、各チェックタイミングの動画像内での時間位置と、各チェックタイミングにおける各チェック部位の位置とが取得される。
引き続き、CPU11は、全てのチェックタイミングを対象としてステップSB8の処理を実行した後(ステップSB9:NO)、各チェックタイミングについて、基準となる所定のチェックタイミングの時間との時差を取得し、メインメモリ13に記憶する(ステップSB10)。
これにより、処理対象として設定した動画データについて、各チェックタイミングにおける各チェック部位の位置と、各チェックタイミングにおける基準となる所定のチェックタイミングに対する相対的な時間位置とからなる複数種類の特徴データが取得される。
図7は、上記複数種類の特徴データの例を便宜的に示した図であり、ユーザーに選択された動作種別がゴルフスイングであり、基準となる所定のチェックタイミングがインパクトである場合の例である。また、この例では、各チェック部位が、重心、頭、手首、右肩、・・・であり、A1〜A4・・・、B1〜B4・・・、C1〜C4・・・、D1〜D4・・・、・・・・が各チェック部位の位置である。
さらに、CPU11は、処理対象として未設定の動画データがある間は(ステップSB11:YES)、新な動画データを処理対象として設定し(ステップSB4)、ステップSB5〜SB10の処理を繰り返す。これにより、処理対象の全動画データの各々について、前述した複数種類の特徴データが取得される。
そして、CPU11は、最後の動画データを対象としてステップSB5〜SB10の処理を実行した後(ステップSB11:NO)、処理対象の全動画データの各々について取得した複数種類の特徴データを対象として以下の処理を行う。
すなわち、CPU11は、動作種別に応じた複数のチェックタイミングの各々を所定の順で設定し(ステップSB12)、さらに動作種別に応じた複数のチェック部位の各々を所定の順で設定する(ステップSB13)。
そして、CPU11は、ステップSB3の処理で抽出した全動画データ(以下、処理対象の全動画データという。)の各々について、設定中のチェックタイミングにおける今回設定したチェック部位に関する位置データをメインメモリ13から読み出し、チェック部位の位置の分散状態を解析して代表点を決定し、その位置である代表位置を取得する(ステップSB14)。
ここで取得する代表位置も、第1の実施形態で説明したものと同様、例えばチェック部位の平均的な位置、すなわちx座標の平均値とy座標の平均値や、チェック部位の位置を座標内にプロットしたとき各ポイントが点在する領域の重心座標の位置である。
次に、CPU11は、処理対象の全動画データの各々について、設定中のチェックタイミングにおける今回設定したチェック部位に関し、位置データにより示される位置の上記代表位置からのずれ率(以下、第1のずれ率という。)Aを動画データ毎に取得し、メインメモリ13に記憶する(ステップSB15)。
以後、CPU11は、未設定のチェック部位がある間は(ステップSB16:YES)、処理対象として新たなチェック部位を設定し(ステップSB13)、ステップSB14,SB14の処理を繰り返す。つまりCPU11は、処理対象の全動画データの各々について、設定中のチェックタイミングでの全てのチェック部位について第1のずれ率Aを取得する。
また、CPU11は、全てのチェック部位について上記第1のずれ率Aを取得した後(ステップSB16:NO)、今回設定したチェックタイミングに関し、メインメモリ13からステップSB10の処理で記憶した処理対象の全動画データの時差(図7参照)を読み出し、時差を平均した平均時差を取得する(ステップSB17)。
次に、CPU11は、処理対象の全動画データの各々について、今回設定したチェックタイミングに関する時差の上記平均時差からのずれ率(以下、第2のずれ率という。)を取得し、メインメモリ13に記憶する(ステップSB18)。
以後、処理対象として未設定のチェックタイミングがある間は(ステップSB19:YES)、処理対象として新たなチェックタイミングを設定し(ステップSB12)、ステップSB13〜SB18の処理を繰り返す。
これにより、処理対象の全動画データの各々について、チェック部位毎の異なるチェックタイミングでの複数の第1のずれ率A、及び複数の第2のずれ率Bが取得される。つまり図7に便宜的に示した複数種類の特徴データと同数のデータがメインメモリ13に記憶される。
そして、処理対象として最後のチェックタイミングを設定した状態でステップSB13〜SB18の処理を実行した後(ステップSB19:NO)、CPU11は以下の処理を行う。
すなわちCPU11は、処理対象の全動画データの各々について、前述した複数の第1のずれ率Aと複数の第2のずれ率Bとの全データの加重平均値を取得する(ステップSB20)。この加重平均値の取得に際して適用される重みは、以下の通りである。
すなわち各チェックタイミングでの各チェック部位の位置のずれ率(複数の第1のずれ率A1〜An)には、チェックタイミング管理テーブルT1(図3参照)に示されるチェックタイミング別の重要度に対応する重みと、チェック部位管理テーブルT2(図4参照)に示されるチェック部位別の重要度とに対応する重みが適用される。また、チェックタイミングのずれ率(複数の第2のずれ率B1〜Bn)には規定の重みが適用される。
しかる後、CPU11は、取得した加重平均値が最小の動画データを再生する(ステップSB17)。つまりCPU11は、ユーザーによって指定された特定の人物の特定種別の動作が撮影された複数の動画データのうちで、具体的な動作内容の特徴が全体として最も平均的と判断できる動画データだけを自動的に選択して再生する。
そして、CPU11は、ユーザーから終了指示があるまでは(ステップSB20:NO)、上記動画データを繰り返し再生するとともに、ユーザーから終了指示があった時点で(ステップSB20:YES)、全ての処理を終了する。
以上のように本実施形態の動画再生装置1においては、ユーザーに指定された人物のゴルフスイング等の特定動作が撮影された複数の動画データの中から、具体的な動作内容の特徴が全体として最も平均的であると判断できる動画データだけを自動的に選択して再生することができる。つまりトレーニングの成果等の判断に最も適した動作フォームが撮影された動画データだけを自動的に抽出し、それを表示させることができる。
したがって、ユーザーにおいては、トレーニング中の人物を撮影した動画像からゴルフスイング等における動作フォームを確認する際には、それらを撮影した複数の動画データに、ゴルフスイング等の具体的な動作内容にバラツキが存在している場合であっても、トレーニングの成果等の判断に適した動作フォームだけを容易、かつ効率的に確認することができる。
なお、本実施形態では、各動画データについて取得する複数種類の特徴データに、各チェックタイミングの基準となる所定のチェックタイミングの時間との時差を含めるものについて説明したが、係る時差を複数種類の特徴データから除外してもよい。
また、例えば時差を除外する場合を含め、前述した加重平均値に代えて単なる平均値を取得し、その平均値が最小の動画像を選択して表示させてもよい。
また、前述した加重平均値の取得に際しては、各チェックタイミングでの各チェック部位の位置のずれ率には、チェックタイミング管理テーブルT1(図3参照)に示されるチェックタイミング別の重要度、又はチェック部位管理テーブルT2(図4参照)に示されるチェック部位別の重要度のいずれか一方のみに対応する重みを適用するようにしてもよい。
(他の実施形態)
ここで、以上説明した第1の実施形態においては、人物の同じ特定動作が撮影された複数の動画データの各々から、具体的な動作内容の特徴が平均的であると判断できる複数の動画データを自動的に選択して表示するものについて説明した。また、第2の実施形態においては、人物の同じ特定動作が撮影された複数の動画データの各々から、具体的な動作内容の特徴が最も平均的であると判断できる複数の動画データを自動的に選択して表示するものについて説明した。
しかし、本発明において自動的に選択して出力する動画データは、上記の様な動画データに限らず、具体的な動作内容に所定の特徴を有するものであればよく、選択して表示する動画データの用途に応じた特徴を有するものであればよい。
その場合であっても、人物の特定動作が撮影された複数の動画データの各々から、動作種別に応じたチェック部位(注目点)の位置等、特定タイミングでの人物の状態を含む特徴情報を抽出し、抽出した特徴情報に基づいて複数の動画データの中から一部の動画データを選択して表示させることにより、用途に応じた(要求される)特徴を有する動画データのみを表示させることができる。
例えば最終的に表示させる所定の特徴を有する動画データは、ユーザーに指定された動画データ等の1つ動画データに記録されている特定動作と、具体的な動作内容がある関係にある特定動作が撮影された動画データであってもよい。
その場合には、1つ動画データから抽出した特徴得情報(1又は複数のチェック部位の位置等)を基準として、それと他の複数の動画データから抽出した特徴情報(1又は複数のチェック部位の位置等)とを比較し、比較結果に基づいて他の複数の動画データから一部の動画データを選択して表示させればよい。
なお、上記の具体的な動作内容がある関係にある特定動作が撮影された動画データとしては、例えばユーザーに指定された動画データ等の1つ動画データに記録されている特定動作と最も類似する特徴を有する特定動作が撮影された1つの動画データや、所定の基準以上類似する特徴を有する特定動作が撮影された1又は複数の動画データがある。その場合、処理対象となる複数の動画データは、同一人物の特定動作がそれぞれ撮影されたものであってもよいし、異なる複数の人物の特定動作がそれぞれ撮影されたものであってもよい。
また、自動的に選択した動画データの具体的な出力形態については任意であり、表示(再生)に限らず、例えば所定の転送先への転送(コピー等)であっても構わない。
また、処理対象となる動画データは、通常撮影で得られたものに限らず高速撮影されたものであってもよく、撮影時に記録されたものに限らず撮影後に編集されたものであっても構わない。
以上、本発明のいくつかの実施形態、及びその変形例について説明したが、これらは本発明の作用効果が得られる範囲内であれば適宜変更が可能であり、変更後の実施形態も特許請求の範囲に記載された発明、及びその発明と均等の発明の範囲に含まれる。以下に、本出願の当初の特許請求の範囲に記載された発明を付記する。
[請求項1]
人物の一連の動きからなる特定動作が撮影された複数の動画像の各々から、前記特定動作の特徴を示す特徴情報であって、前記特定動作における所定タイミングでの人物の状態を含む特徴情報を取得する取得手段と、
前記取得手段によって前記複数の動画像の各々から取得された特徴情報に基づいて前記複数の動画像の中から一部の動画像を選択する選択手段と、
前記選択手段による選択結果に応じて前記複数の動画像に対する所定処理を実行する処理手段と
を備えたことを特徴とする動画選択装置。
[請求項2]
前記取得手段は、複数の動画像の各々について、前記特定動作における所定タイミングが該当するフレームを特定し、この特定されたフレームの画像内における人物の注目点の位置を含む特徴情報を取得することを特徴とする請求項1記載の動画選択装置。
[請求項3]
前記選択手段は、前記取得手段によって前記複数の動画像の各々から取得された特徴情報を比較し、比較結果に基づいて前記複数の動画像の中から一部の動画像を選択することを特徴とする請求項1又は2記載の動画選択装置。
[請求項4]
前記選択手段は、前記取得手段によって前記複数の動画像の各々から取得された特徴情報における前記注目点の位置の分散状態を確認し、前記注目点の位置が当該分散状態に応じて決まる所定の位置に該当する動画像を選択することを特徴とする請求項2記載の動画選択装置。
[請求項5]
前記選択手段は、前記注目点の位置が平均的な位置に該当する動画像を選択することを特徴とする請求項3又は4記載の動画選択装置。
[請求項6]
前記取得手段は、前記複数の動画像の各々から、前記特定動作における所定タイミングでの画像内における人物の異なる複数の注目点の位置を含む特徴情報を取得し、
前記選択手段は、前記複数の注目点の各々について位置の分散状態を個別に確認し、当該分散状態に応じて決まる代表点を決定し、前記複数の動画像の各々について前記複数の注目点毎に前記代表点との離間距離を取得し、取得した各注目点の離間距離を平均した値が最小の動画像を選択する
ことを特徴とする請求項4又は5に記載の動画選択装置。
[請求項7]
予め決められている複数の動作種別の中から前記特徴情報の取得対象となる動作種別を選択する動作種別選択手段を更に備え、
前記取得手段は、前記動作種別選択手段により選択された動作種別の動作を前記特定動作として前記特徴情報を取得することを特徴とする請求項1乃至6のいずれか1項に記載の動画選択装置。
[請求項8]
前記取得手段は、前記動作種別選択手段により選択された動作種別に応じて、前記特定動作における所定タイミングと前記人物の注目点とを変更することを特徴とする請求項7に記載の動画選択装置。
[請求項9]
前記取得手段は、前記特定動作における複数のチェックタイミングを前記所定タイミングとし、各チェックタイミングの時間位置および各チェックタイミングにおける前記人物の注目点の位置を含む特徴情報を取得することを特徴とする請求項2乃至8のいずれか1項に記載の動画選択装置。
[請求項10]
前記選択手段は、複数のチェックタイミングの時間位置および複数のチェックタイミングにおける前記人物の注目点の位置の両方を比較し、比較結果に基づいて前記複数の動画像の中から一部の動画像を選択することを特徴とする請求項9に記載の動画選択装置。
[請求項11]
前記人物の特定動作はゴルフスイングであり、
前記取得手段は、前記特徴情報として、インパクトのタイミングでの人物の重心の位置を含む特徴情報を取得することを特徴とする請求項6乃至10のいずれか1項に記載の動画選択装置。
[請求項12]
前記人物の特定動作はゴルフスイングであり、
前記取得手段は、前記特徴情報として、インパクトのタイミングでの人物の身体の特定部位の位置を含む特徴情報を取得することを特徴とする請求項6乃至10のいずれか1項に記載の動画選択装置。
[請求項13]
前記取得手段は、前記特徴情報として、前記特定動作中における予め決められている第1の動作タイミングと第2の動作タイミングとの間の時間を含む特徴情報を取得することを特徴とする請求項1乃至12のいずれか1項に記載の動画選択装置。
[請求項14]
前記人物の特定動作はゴルフスイングであるとともに、前記第1の動作タイミングはインパクトのタイミングであり、かつ前記第2の動作タイミングはゴルフスイングの開始から終了までの間における前記第1の動作タイミングとは異なる特定のタイミングであることを特徴とする請求項13記載の動画選択装置。
[請求項15]
前記取得手段は、予め指定された特定の人物の一連の動きからなる特定動作が撮影された複数の動画像の各々から前記特徴情報を取得し、
前記選択手段は、前記特定の人物の注目点の位置が平均的な位置に該当する動画像を選択することを特徴とする請求項1乃至12のいずれか1項に記載の動画選択装置。
[請求項16]
前記選択手段は、前記取得手段によって複数の動画像から取得された前記特徴情報のうちの1つの動画像の特徴情報を基準とし、当該動画像以外の他の複数の動画像の各々から取得された特徴情報を前記基準の特徴情報と比較し、比較結果に基づいて前記他の複数の動画像の中から一部の動画像を選択する
ことを特徴とする請求項1記載の動画選択装置。
[請求項17]
人物の一連の動きからなる特定動作が撮影された複数の動画像の各々から、前記特定動作における所定タイミングでの画像内における人物の注目点の位置を含む特徴情報を取得する取得工程と、
前記取得工程で前記複数の動画像の各々から取得された特徴情報を比較し、比較結果に基づいて前記複数の動画像の中から一部の動画像を選択する選択工程と、
前記選択工程で選択された動画像を出力する出力工程と
を含むことを特徴とする動画選択方法。
[請求項18]
コンピュータを、
人物の一連の動きからなる特定動作が撮影された複数の動画像の各々から、前記特定動作における所定タイミングでの画像内における人物の注目点の位置を含む特徴情報を取得する取得手段と、
前記取得手段によって前記複数の動画像の各々から取得された特徴情報を比較し、比較結果に基づいて前記複数の動画像の中から一部の動画像を選択する選択手段と、
前記選択手段により選択された動画像を出力する出力手段と
として機能させることを特徴とするプログラム。
1 動画再生装置
7 SB
11 CPU
12 プログラムメモリ
13 メインメモリ
14 メディアコントローラ
15 表示部
16 キー入力部
50 記録メディア
T1 チェックタイミング管理テーブル
T2 チェック部位管理テーブル

Claims (18)

  1. 人物の一連の動きからなる特定動作が撮影された複数の動画像の各々から、前記特定動作の特徴を示す特徴情報であって、前記特定動作における所定タイミングでの人物の状態を含む特徴情報を取得する取得手段と、
    前記取得手段によって前記複数の動画像の各々から取得された特徴情報に基づいて前記複数の動画像の中から一部の動画像を選択する選択手段と、
    前記選択手段による選択結果に応じて前記複数の動画像に対する所定処理を実行する処理手段と
    を備えたことを特徴とする動画選択装置。
  2. 前記取得手段は、複数の動画像の各々について、前記特定動作における所定タイミングが該当するフレームを特定し、この特定されたフレームの画像内における人物の注目点の位置を含む特徴情報を取得することを特徴とする請求項1記載の動画選択装置。
  3. 前記選択手段は、前記取得手段によって前記複数の動画像の各々から取得された特徴情報を比較し、比較結果に基づいて前記複数の動画像の中から一部の動画像を選択することを特徴とする請求項1又は2記載の動画選択装置。
  4. 前記選択手段は、前記取得手段によって前記複数の動画像の各々から取得された特徴情報における前記注目点の位置の分散状態を確認し、前記注目点の位置が当該分散状態に応じて決まる所定の位置に該当する動画像を選択することを特徴とする請求項2記載の動画選択装置。
  5. 前記選択手段は、前記注目点の位置が平均的な位置に該当する動画像を選択することを特徴とする請求項3又は4記載の動画選択装置。
  6. 前記取得手段は、前記複数の動画像の各々から、前記特定動作における所定タイミングでの画像内における人物の異なる複数の注目点の位置を含む特徴情報を取得し、
    前記選択手段は、前記複数の注目点の各々について位置の分散状態を個別に確認し、当該分散状態に応じて決まる代表点を決定し、前記複数の動画像の各々について前記複数の注目点毎に前記代表点との離間距離を取得し、取得した各注目点の離間距離を平均した値が最小の動画像を選択する
    ことを特徴とする請求項4又は5記載の動画選択装置。
  7. 予め決められている複数の動作種別の中から前記特徴情報の取得対象となる動作種別を選択する動作種別選択手段を更に備え、
    前記取得手段は、前記動作種別選択手段により選択された動作種別の動作を前記特定動作として前記特徴情報を取得することを特徴とする請求項1乃至6のいずれか1項に記載の動画選択装置。
  8. 前記取得手段は、前記動作種別選択手段により選択された動作種別に応じて、前記特定動作における所定タイミングと前記人物の注目点とを変更することを特徴とする請求項7に記載の動画選択装置。
  9. 前記取得手段は、前記特定動作における複数のチェックタイミングを前記所定タイミングとし、各チェックタイミングの時間位置および各チェックタイミングにおける前記人物の注目点の位置を含む特徴情報を取得することを特徴とする請求項2乃至8のいずれか1項に記載の動画選択装置。
  10. 前記選択手段は、複数のチェックタイミングの時間位置および複数のチェックタイミングにおける前記人物の注目点の位置の両方を比較し、比較結果に基づいて前記複数の動画像の中から一部の動画像を選択することを特徴とする請求項9記載の動画選択装置。
  11. 前記人物の特定動作はゴルフスイングであり、
    前記取得手段は、前記特徴情報として、インパクトのタイミングでの人物の重心の位置を含む特徴情報を取得することを特徴とする請求項6乃至10のいずれか1項に記載の動画選択装置。
  12. 前記人物の特定動作はゴルフスイングであり、
    前記取得手段は、前記特徴情報として、インパクトのタイミングでの人物の身体の特定部位の位置を含む特徴情報を取得することを特徴とする請求項6乃至10のいずれか1項に記載の動画選択装置。
  13. 前記取得手段は、前記特徴情報として、前記特定動作中における予め決められている第1の動作タイミングと第2の動作タイミングとの間の時間を含む特徴情報を取得することを特徴とする請求項1乃至12のいずれか1項に記載の動画選択装置。
  14. 前記人物の特定動作はゴルフスイングであるとともに、前記第1の動作タイミングはインパクトのタイミングであり、かつ前記第2の動作タイミングはゴルフスイングの開始から終了までの間における前記第1の動作タイミングとは異なる特定のタイミングであることを特徴とする請求項13記載の動画選択装置。
  15. 前記取得手段は、予め指定された特定の人物の一連の動きからなる特定動作が撮影された複数の動画像の各々から前記特徴情報を取得し、
    前記選択手段は、前記特定の人物の注目点の位置が平均的な位置に該当する動画像を選択することを特徴とする請求項1乃至12のいずれか1項に記載の動画選択装置。
  16. 前記選択手段は、前記取得手段によって複数の動画像から取得された前記特徴情報のうちの1つの動画像の特徴情報を基準とし、当該動画像以外の他の複数の動画像の各々から取得された特徴情報を前記基準の特徴情報と比較し、比較結果に基づいて前記他の複数の動画像の中から一部の動画像を選択する
    ことを特徴とする請求項1記載の動画選択装置。
  17. 人物の一連の動きからなる特定動作が撮影された複数の動画像の各々から、前記特定動作における所定タイミングでの画像内における人物の注目点の位置を含む特徴情報を取得する取得工程と、
    前記取得工程で前記複数の動画像の各々から取得された特徴情報を比較し、比較結果に基づいて前記複数の動画像の中から一部の動画像を選択する選択工程と、
    前記選択工程で選択された動画像を出力する出力工程と
    を含むことを特徴とする動画選択方法。
  18. コンピュータを、
    人物の一連の動きからなる特定動作が撮影された複数の動画像の各々から、前記特定動作における所定タイミングでの画像内における人物の注目点の位置を含む特徴情報を取得する取得手段と、
    前記取得手段によって前記複数の動画像の各々から取得された特徴情報を比較し、比較結果に基づいて前記複数の動画像の中から一部の動画像を選択する選択手段と、
    前記選択手段により選択された動画像を出力する出力手段と
    として機能させることを特徴とするプログラム。
JP2013185254A 2013-09-06 2013-09-06 動画選択装置、動画選択方法とプログラム Active JP6256738B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013185254A JP6256738B2 (ja) 2013-09-06 2013-09-06 動画選択装置、動画選択方法とプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013185254A JP6256738B2 (ja) 2013-09-06 2013-09-06 動画選択装置、動画選択方法とプログラム

Publications (2)

Publication Number Publication Date
JP2015052904A true JP2015052904A (ja) 2015-03-19
JP6256738B2 JP6256738B2 (ja) 2018-01-10

Family

ID=52701894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013185254A Active JP6256738B2 (ja) 2013-09-06 2013-09-06 動画選択装置、動画選択方法とプログラム

Country Status (1)

Country Link
JP (1) JP6256738B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185752A (ja) * 2018-03-30 2019-10-24 株式会社日立製作所 画像抽出装置
JP2021029738A (ja) * 2019-08-27 2021-03-01 株式会社プロギア ショット管理システム、ショット管理方法及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011205657A (ja) * 2011-04-28 2011-10-13 Casio Computer Co Ltd ダイジェスト画像表示装置、ダイジェスト画像表示方法及びプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011205657A (ja) * 2011-04-28 2011-10-13 Casio Computer Co Ltd ダイジェスト画像表示装置、ダイジェスト画像表示方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
樫川直紀 外2名: "モーションキャプチャを用いたゴルフスイングコーチシステム", FIT2004 第3回情報科学技術フォーラム 一般講演論文集 第3分冊, JPN6017016421, 20 August 2004 (2004-08-20), pages 第475−476頁 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185752A (ja) * 2018-03-30 2019-10-24 株式会社日立製作所 画像抽出装置
JP2021029738A (ja) * 2019-08-27 2021-03-01 株式会社プロギア ショット管理システム、ショット管理方法及びプログラム

Also Published As

Publication number Publication date
JP6256738B2 (ja) 2018-01-10

Similar Documents

Publication Publication Date Title
KR102091848B1 (ko) 전자 장치에서 사용자의 감정 정보를 제공하기 위한 장치 및 방법
JP4504322B2 (ja) 画像抽出装置、画像抽出方法、及び画像抽出プログラム
KR101804848B1 (ko) 비디오 객체 탐색 장치, 비디오 객체 변형 장치 및 그 방법
JP6430914B2 (ja) 画像処理装置および画像処理方法
TW201337815A (zh) 電子試衣方法和電子試衣裝置
CN105450911B (zh) 图像处理装置、图像处理方法
CN105989361A (zh) 信息处理装置以及面部识别方法
JP6362085B2 (ja) 画像認識システム、画像認識方法およびプログラム
JP6165815B2 (ja) 学習システム、学習方法、プログラム、記録媒体
JP2013157984A (ja) Ui提供方法およびそれを適用した映像受信装置
CN109348277A (zh) 运动像素视频特效添加方法、装置、终端设备及存储介质
CN106650217B (zh) 信息处理装置以及信息处理方法
JP6256738B2 (ja) 動画選択装置、動画選択方法とプログラム
JP2017080197A (ja) 情報処理装置、情報処理方法、プログラム
JP6410427B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2019093152A (ja) 情報処理装置、情報処理方法、プログラム
US20140007118A1 (en) Comparison device, comparison method, non-transitory recording medium, and system
JP2017080199A (ja) 情報処理装置、情報処理方法、プログラム
US20220207585A1 (en) System and method for providing three-dimensional, visual search
JP2019185188A (ja) 情報処理方法、情報処理装置及び情報処理システム
US11176360B2 (en) Work skill supporting device and work skill supporting system
JP2017080203A (ja) 情報処理装置、情報処理方法、プログラム
JP2017080200A (ja) 情報処理装置、情報処理方法、プログラム
WO2023170744A1 (ja) 画像処理装置、画像処理方法、および記録媒体
US20230386049A1 (en) Tracking apparatus, tracking system, tracking method, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171122

R150 Certificate of patent or registration of utility model

Ref document number: 6256738

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150