JP7262937B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP7262937B2
JP7262937B2 JP2018125011A JP2018125011A JP7262937B2 JP 7262937 B2 JP7262937 B2 JP 7262937B2 JP 2018125011 A JP2018125011 A JP 2018125011A JP 2018125011 A JP2018125011 A JP 2018125011A JP 7262937 B2 JP7262937 B2 JP 7262937B2
Authority
JP
Japan
Prior art keywords
subject
timing
information representing
data
skeleton
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018125011A
Other languages
English (en)
Other versions
JP2020005192A5 (ja
JP2020005192A (ja
Inventor
知頼 岩尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018125011A priority Critical patent/JP7262937B2/ja
Priority to US16/447,244 priority patent/US11854420B2/en
Publication of JP2020005192A publication Critical patent/JP2020005192A/ja
Publication of JP2020005192A5 publication Critical patent/JP2020005192A5/ja
Priority to JP2023064772A priority patent/JP2023086791A/ja
Application granted granted Critical
Publication of JP7262937B2 publication Critical patent/JP7262937B2/ja
Priority to US18/510,428 priority patent/US20240087471A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • G09B19/0038Sports
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、オブジェクトの体格と動きに関する情報を処理する技術に関する。
スポーツ競技等の練習を行う学習者が、その競技に習熟した模範者のフォームを参考にして、自らのフォームを修正することがある。例えばゴルフの練習を行う学習者は、カメラにより自分のフォームを撮影した画像と、模範者のフォームを撮影した画像とを比較することで、自分のフォームをどのように修正すればよいか考えることができる。
特許文献1には、学習者のフォームを撮影した動画像に対して、内側が半透明又は透明のワイヤーフレームからなる模範フォームを表すスケルトン画像を重畳させて表示することで、学習者のフォームと模範フォームとを比較しやすくすることが記載されている。また、特許文献1には、スケルトン画像の位置、向き、サイズ等をユーザ操作により調整することで、学習者の撮影画像にスケルトン画像をより正確に重ねられることが記載されている。
特許第4646209号公報
しかしながら、特許文献1に記載の技術では、学習者がどのような姿勢をとれば模範フォームが表す習熟した動きを実現できるのかを知ることができない場合がある。例えば、学習者の体格と模範フォームの体格とが異なる場合、学習者は模範フォームと一致する姿勢をとることはできず、無理に模範フォームに近い姿勢を取ろうとしても習熟した動きを実現できない。
本発明は上記の課題に鑑みてなされたものであり、ある人物(例えば学習者)に他の人物(例えば模範者)の動きを実現させるために有用な情報を提供することを目的とする。
上記の課題を解決するため、本発明に係る情報処理装置は、例えば以下の構成を有する。すなわち、第1のタイミングにおける第1被写体の部位の位置を表す位置情報を取得する第1取得手段と、
前記第1被写体の部位に対応し、前記第1のタイミングに対応する第2のタイミングにおける第2被写体の部位の位置を表す位置情報と、前記第1被写体の部位に対応し、前記第2のタイミングとは異なる第3のタイミングにおける前記第2被写体の部位の位置を表す位置情報とを取得する第2取得手段と、
前記第1のタイミングにおける前記第1被写体の部位の位置を表す位置情報と前記第2のタイミングにおける前記第2被写体の部位の位置を表す位置情報と前記第3のタイミングにおける前記第2被写体の部位の位置を表す位置情報とに基づいて、前記第3のタイミングに対応する第4のタイミングにおける前記第1被写体の部位の位置を決定する決定手段とを有し、
前記第1取得手段は、前記第1被写体の3次元形状データと前記第1被写体の骨格を表す情報とを取得し、当該第1被写体の骨格を表す情報に基づいて前記第1被写体の部位の位置を取得し、
前記第2取得手段は、前記第2被写体の骨格を表す情報を取得し、当該第2被写体の骨格を表す情報に基づいて前記第2被写体の部位の位置を取得し、
前記第1被写体の骨格を表す情報と前記第1被写体の3次元形状データとを関連付ける制御を行う制御手段さらに有する。
本発明によれば、ある人物に他の人物の動きを実現させるために有用な情報を提供することができる。
実施形態における分析システムの構成の一例を示す図である。 実施形態におけるカメラ群による撮影について説明するための図である。 実施形態におけるデータ推定GUIの一例を示す図である。 実施形態におけるフォーム修正GUIの一例を示す図である。 実施形態におけるデータ表示設定GUIの一例を示す図である。 実施形態における情報処理装置の動作について説明するためのフローチャートである。 実施形態における情報処理装置による動作データ推定の処理について説明するためのフローチャートである。 実施形態における情報処理装置による推定データ修正の処理について説明するためのフローチャートである。 実施形態におけるデータ表示設定の処理について説明するためのフローチャートである。 実施形態における情報処理装置の機能構成の一例を示すブロック図である。 実施形態における回転の転写について説明するための図である。
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。
[分析システムの構成]
図1は、本実施形態における、分析システム10の構成の一例を示す図である。図1に示す分析システム10は、情報処理装置100と複数の撮像装置(カメラ群)109とで構成される。そして、情報処理装置100は、CPU101、メインメモリ102、記憶部103、入力部104、表示部105、外部I/F部106を備え、各機能部がバス107を介して接続されている。
まず、CPU101は、情報処理装置100を統括的に制御する演算処理装置であり、記憶部103等に格納された各種プログラムを実行して様々な処理を行う。なお、情報処理装置100がCPU101とは異なる1又は複数の専用のハードウェアを有し、CPU101による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。メインメモリ102は、各種処理で用いるデータやパラメータなどを一時的に格納するほか、CPU101に作業領域を提供する。記憶部103は、各種プログラムやGUI(グラフィカル・ユーザ・インターフェイス)表示に必要な各種データを記憶する大容量記憶装置で、例えばハードディスクやシリコンディスク等の不揮発性メモリが用いられる。
入力部104は、キーボードやマウス、電子ペン、タッチパネル等の装置であり、ユーザからの操作入力を受け付ける。表示部105は、液晶パネルなどで構成され、分析結果のGUI表示などを行う。外部I/F部106は、カメラ群109を構成する各カメラなどの外部装置とLAN108を介して接続され、映像データや制御信号データの送受信を行う。バス107は上述の各部を接続し、データ転送を行う。カメラ群109は、LAN108経由で情報処理装置100と接続されており、情報処理装置100からの制御信号をもとに、撮影の開始や停止、カメラ設定(シャッタースピード、絞りなど)の変更、撮影した画像データの転送を行う。カメラ群109は1以上のカメラを含んでいればよく、カメラの数は限定されない。
なお、分析システム10の構成は、上記に限定されるものではない。例えば、情報処理装置100は、カメラ群109と接続されていなくてもよく、カメラ群109による撮影に基づくデータを記憶する記憶装置(不図示)とLAN108を介して接続され、記憶装置から撮影に基づくデータを取得してもよい。また例えば、情報処理装置100は、入力部104と表示部105との少なくとも一方を備えていなくてもよい。また、入力部104と表示部105との少なくとも一方が情報処理装置100の外部に別の装置として存在していて、CPU101が、入力部104を制御する入力制御部、及び表示部105を制御する表示制御部として動作してもよい。
図10は、本実施形態に係る情報処理装置100の機能構成の一例を示す図である。情報処理装置100は、撮影決定部1001、データ重畳部1005、データ比較部1009、データ編集部1010、表示方法設定部1011、ユーザ入力部1012、推定部1013、及び補正部1014を有する。また、推定部1013は、動作推定部1003、及びスキニング部1004を有する。補正部1014は、位置補正部1006、時刻同期部1007、及び欠損補間部1008を有する。情報処理装置100が有するこれらの機能部は、CPU101が記憶部103等に格納された各種プログラムを実行することで実現される。なお、これらの機能部の少なくとも何れかが専用のハードウェアによって実現されてもよい。情報処理装置100が有する各機能部の詳細については、フローチャートを用いながら後述する。
図2は、カメラ群109を構成する各カメラの配置例を示した図である。分析を行う対象はスポーツ、演技等、数多く考えられるが、本実施形態では、ゴルフのスイングを分析する場合を中心に説明する。図2において、空間201内に被写体(オブジェクト)202としての学習者が存在し、6台のカメラ203が被写体202を複数の方向から撮影できるように配置されている。カメラ群109を構成する個々のカメラ203においては、空間201全体、或いは空間201内の被写体202を含む注目領域が画角内に収まるように、カメラの向き、焦点距離、露出制御パラメータ等の撮影パラメータが設定されている。
[GUIの説明]
図3、図4、図5は本実施形態に係る、分析システム10により表示されるGUIの一例を示した図である。これらの画面は、情報処理装置100の表示部105に表示される。ただし、これらの画面が情報処理装置100に接続された別の表示装置(不図示)に表示されてもよい。図3は当該GUIの基本画面であり、データ推定を行う際に表示される画面の一例を示す。データ推定GUI300は、画像表示領域301、分析データ表示領域302、撮影ボタン303、データ推定ボタン304、及びデータ重畳ボタン305を有する。さらにデータ推定GUI300は、位置合わせボタン306、時刻同期ボタン307、欠損補間ボタン308、フォーム修正遷移ボタン309、表示設定遷移ボタン310、シークバー311を有する。
図4は学習者がフォームを修正するために表示させる画面の一例を示す。フォーム修正GUI400は、画像表示領域401、フォーム修正用の別視点表示領域402、シークバー403、データ推定遷移ボタン404、表示設定遷移ボタン405を有する。図5はデータの表示設定を行うために表示される画面の一例を示す。データ表示設定GUI500は、画像表示領域501、編集データ表示領域502、模範者データ用の表示設定領域503、学習者データ用の表示設定領域504、編集データ用の表示設定領域505を有する。さらにデータ表示設定GUI500は、シークバー506、データ推定遷移ボタン507、フォーム修正遷移ボタン508を有する。
以下では、GUIに対する操作とそれに応じた情報処理装置100の動作について説明する。GUIに対する操作は、例えばマウスやタッチパネルを用いてユーザにより行われる。まず、データ推定GUI300において、撮影ボタン303が押下されると、カメラ群109によって学習者のスイングが多視点から動画で撮影が開始されるように、情報処理装置100がカメラ群109へ指示を出力する。さらに、撮影中にもう一度撮影ボタン303が押されると、撮影を終了するための指示がカメラ群109へ出力される。
撮影終了後にデータ推定ボタン304が押下されると、撮影された画像に基づいて情報処理装置100が学習者の3次元形状のデータ(以下では形状データと記載)とスケルトンデータを推定し、推定結果に基づく学習者の画像が画像表示領域301に表示される。本実施形態において、学習者や模範者などの被写体(オブジェクト)の形状データはその被写体の外形を表し、被写体のスケルトンデータはその被写体の骨格を表す。被写体の骨格を表すスケルトンデータは、例えば、被写体が有する複数の関節の位置を示すマーカーと、マーカー同士を接続する線分などにより表現される。画像表示領域301に表示される画像は、例えばカメラ群109に含まれる何れかのカメラの視点に対応する画像である。本実施形態では、学習者の正面から撮影するカメラ(仮にCam7とする)の視点に対応する画像が表示されるものとする。
次にデータ重畳ボタン305が押下されると、情報処理装置100は、模範者の動きを表す画像を、画像表示領域301に表示された学習者の画像に重畳して表示させる。このとき、情報処理装置100は、模範者の形状データ及びスケルトンデータを示す画像を表示させてもよいし、模範者の動き情報を学習者のスケルトンデータに適用した結果を示す画像を表示してもよい。模範者の動き情報を学習者のスケルトンデータに適用することで、模範者の動きを学習者の体格で再現した様子を示す画像を生成することができる。また、情報処理装置100は、画像を重畳して表示させる際、学習者の画像と模範者の動きを表す画像の少なくともいずれかを透明又は半透明にして表示してもよい。
また、情報処理装置100は、分析データ表示領域302に、学習者の動きに関する情報と模範者の動きに関する情報とを比較可能なように表示する。ここで表示される内容としては、例えば時間経過に伴う各被写体における特定の関節の角度の変化や、角度の変化の変曲点などである。何れの関節の角度情報を表示させるかについては、ユーザ操作に応じて選択されてもよいし、情報処理装置100が、学習者と模範者とで動きが大きく異なる関節などを自動で選択してもよい。
次に、位置合わせボタン306、時刻同期ボタン307、及び欠損補間ボタン308の何れかが押されると、情報処理装置100は、学習者が模範者とのフォーム比較を行いやすいように、模範者のデータと学習者のデータの少なくとも何れかを補正する。この時、各ボタンの横に表示されている自動チェックボックスにチェックが入っていれば、自動で補正が行われ、チェックが入っていなければ、手動で補正するためのユーザ操作に応じて補正が行われる。データの補正結果は画像表示領域301及び分析データ表示領域302の画像に反映される。
また、シークバー311を動かす操作が行われると、情報処理装置100は、シークバー311の位置に応じた時点に対応する画像を画像表示領域301に表示させる。シークバー311には、学習者と模範者との動きの差が大きい時刻などの特定の時点に対応する位置が表示されていてもよい。例えば図3では、シークバー311上の○印が、情報処理装置100により特定された、学習者と模範者の動きの差が大きい時刻を示している。フォーム修正遷移ボタン309が押下されると、情報処理装置100は、表示させる画像をフォーム修正GUI400に遷移させる。また、表示設定遷移ボタン310が押下されると、情報処理装置100は、表示させる画像をデータ表示設定GUI500に遷移させる。
フォーム修正GUI400に画面が遷移した際、画像表示領域401には、画像表示領域301と同様の画面が表示されている。一方、別視点表示領域402には、学習者と模範者の動きの差が最も大きく表れる視点からの映像が表示される。学習者はこの領域に表示されたデータを見ながらフォームを修正していくことができる。シークバー403、および表示設定遷移ボタン405の機能については、データ推定GUI300の説明において記述したものと同様である。データ推定遷移ボタン404が押下されると、情報処理装置100は、表示画面をデータ推定GUI300に遷移させる。
データ表示設定GUI500に画面が遷移すると、画像表示領域501には、模範者および学習者の形状データ及びスケルトンデータが表示される。また、情報処理装置100は、データ表示設定GUI500におけるユーザ操作に応じて学習者の形状データ及びスケルトンデータの編集を行い、編集後の形状データ及びスケルトンデータを画像表示領域501に表示できる。なお、形状データとスケルトンデータの一方のみが表示されてもよいし、形状データとスケルトンデータの一方のみが編集可能であってもよい。また、画像表示領域501におけるオブジェクト(模範者又は学習者)の関節がユーザ操作により指定されると、画像表示領域501には関節の曲がり具合などが定量的に表示される。編集データ表示領域502には、画像表示領域501において指定された関節の曲がり具合がグラフ化して表示される。ユーザは、編集データ表示領域502を見ながら、学習者と模範者の関節の状態が近づくように学習者の形状データ及びスケルトンデータの編集を行うことで、学習者が模範者と同様の動きをした場合の様子を画像表示領域501に表示させることができる。なお、情報処理装置100は、ユーザ操作により指定された関節の状態が模範者に近い状態になるように学習者の形状データ及びスケルトンのデータを自動で編集してもよいし、指定されていない関節についても自動で編集してもよい。
模範データ用の表示設定領域503、推定データ用の表示設定領域504、及び編集データ用の表示設定領域505には、各種のデータを表示するか否か、また表示する場合にどのような表示形式で表示するかを、ユーザに選択させるための画像が表示される。例えば、図5の推定データ用の表示設定領域504のように、表示対象としてオブジェクトの形状が選択され、表示形式としてテクスチャが選択され、透明度が中間値(50%)に設定されると、半透明な色付き(テクスチャ付き)の形状データが表示される。シークバー506、データ推定遷移ボタン507、及びフォーム修正遷移ボタン508の機能については、データ推定GUI300、及びフォーム修正GUI400の説明において記述したものと同様である。
[情報処理装置の処理フロー]
次に、情報処理装置100で行われる処理について、図6、図7、図8、及び図9に示すフローチャートと図10に示すブロック図を参照して説明する。これらのフローチャートにより示される処理は、CPU101が所定のプログラムを記憶部103から読み込んでメインメモリ102に展開し、これをCPU101が実行することで実現される。図10は、情報処理装置100の機能構成を示しており、各機能部はCPU101が上記のプログラムを実行することで実現される。なお、フローチャート内の処理や情報処理装置100の機能部の少なくとも一部を、CPU101とは異なる1又は複数の専用のハードウェアにより実現してもよい。
初めに、図6に示すフローチャート及び図10に示すブロック図を参照して、情報処理装置100で行われる処理の概要を示す。図6に示す処理は、カメラ群109を含む分析システム10の初期設定が完了したタイミングで開始可能である。ただし図6に示す処理の開始タイミングはこれに限定されない。例えば、学習者などの被写体(オブジェクト)を複数の方向から撮影することで得られるデータが情報処理装置100に入力された後、フォーム比較用の画像を表示させるための操作がユーザにより行われたタイミングで、図6に示す処理が実行されてもよい。
S601では動作推定部1003が、画像入力部1002に入力された動画像に基づいて被写体の動作データ(形状とスケルトンの動きのデータ)の生成を行い、スキニング部1004が形状データとスケルトンデータの関連付けを行う。S601の詳細については、図7を用いて後述する。S602では、データ重畳部1005が学習者の動作データと比較するための模範者の動作データを読み込んで取得する。模範者の動作データには、模範者の体格を表す情報(形状データ及びスケルトンデータ)と、模範者の動きを表す情報とが含まれる。本実施形態では、模範者や学習者などのオブジェクトの動きを表す情報は、複数の関節とその接続部からなるスケルトンの動きを表す情報、すなわちオブジェクトの複数の関節の動きを表す動き情報として表現される。なお、動き情報の内容はこれに限定されず、例えば関節同士の中間部など、関節とは異なる部位の動きを表す情報であってもよい。また本実施形態では、情報処理装置100がオブジェクトの体格を表す情報としてオブジェクトの形状データとスケルトンデータの両方を取得して処理する場合を中心に説明する。ただしこれに限定されず、情報処理装置100は形状データとスケルトンデータの何れか一方を取得して同様の処理を行ってもよい。
ここで、データ重畳部1005により読み込まれる模範者のデータは、ユーザにより入力された属性情報(年齢や性別、身長、及び体重等)を参考に自動的に選択されてもよい。また、データベースに記憶された複数のデータの中から対象のデータを指定するユーザにより選択されてもよい。また、読み込まれるデータが、撮影画像に基づいて判定された学習者の属性を用いて選択されてもよい。なお、模範者のデータは、模範者を複数のカメラにより複数の方向から撮影することで得られる画像に基づいて予め生成されたものであってもよいし、その他のコンピュータグラフィックス処理で生成されたものであってもよい。
S603では、位置補正部1006及び時刻同期部1007が、学習者の動作データと模範者の動作データに対して、位置合わせ及び時刻同期を行う。また、欠損補間部1008が、データに欠損が存在する場合の欠損補間を行う。S603の詳細については、図8を用いて後述する。なお、これらの処理は選択的に行うことができ、すべてを実行することは必須ではない。時刻同期については、学習者のデータを模範者のデータに合わせる処理とは逆に、模範者のデータを学習者のデータに合わせてもよいが、本実施形態では学習者のデータを模範者のデータに合わせる場合を中心に説明する。
S604では、データ比較部1009が、データの比較を行いその結果をGUIの表示領域に表示させる。この時、データ編集部1010及び表示方法設定部1011はデータの編集及び表示方法の設定を行ってもよく、その結果が表示領域に表示される画像に反映される。S604の詳細については、図9を用いて後述する。S605では、撮影決定部1001がユーザ入力部1012への入力に応じて、カメラ群109による再撮影を行うかを決定する。再撮影を行わない場合は、処理を終了する。再撮影を行う場合、撮影決定部1001がLAN108経由でカメラ群109に撮影指示を送り、撮影が開始される。以上が情報処理装置100で行われる処理の概要である。
続いて、各ステップの詳細について、図7、図8、及び図9に示すフローチャート、並びに図10に示すブロック図を参照して述べる。この時、各機能部の処理は、前述したようなGUIに対するユーザ入力をユーザ入力部1012が受けつけ、入力に応じた指示が各ブロックに出力されることで実行される。
まずは、S601の動作データ生成について図7及び図10を参照して具体的に述べる。図7は、S601における処理の詳細のフローを示す。S701では、撮影ボタン303が押下されたことに応じて、撮影決定部1001がLAN108経由でカメラ群109に撮影指示を送る。この指示に応じて、カメラ群109に含まれる複数のカメラは、学習者を複数の方向から撮影する。この撮影により得られる動画像は、LAN108、外部I/F部106、及びバス107を介してメインメモリ102に読み込まれる。再度撮影ボタン303が押下されると、動画像の撮影が停止する。
S702では、データ推定ボタン304が押下されたことに応じて、動作推定部1003がメインメモリ102から上記の撮影に基づく動画像を読み込み、その画像に基づいて学習者の動作データを生成する。ここで生成される動作データには、学習者の体格を表す情報(形状データ及びスケルトンデータの推定結果)と、学習者の動きを表す情報(スケルトンの動きの推定結果)が含まれる。生成された動作データは、スキニング部1004に出力される。複数の方向から撮影された画像から被写体の形状を推定する方法としては、例えば視体積交差法がある。視体積交差法とは、複数視点から撮影された各画像から物体のシルエットを抽出し、それらのシルエットを3次元空間中に投影して交差部分を求めることで、物体の3次元形状データを得る手法である。なお、被写体の形状を推定する方法はこれに限らず、種々の手法を用いることができる。
また、動画像からスケルトンデータの推定する方法として、本実施形態では、上記の推定された形状データを用いてスケルトンデータを推定する方法について述べる。人間の形状の大まかな凹凸は、体の各部位によって決まっている。例えば、首が頭部よりも細く、首から下は左右の肩及び胸部の三又に分岐するという人間の構造は、基本的に共通している。このような大まかな凹凸の情報をスケルトンデータ推定に利用できる。人間が起立している場合を考え、頭から足方向に断面形状を走査していくと、断面形状が徐々に伸縮したり、分岐したりする構造を確認することができる。このような構造から、頭部、首、肩、肘、手首、骨盤付近、太もも、膝、及び足首の関節を算出し、その関節を接続するようにスケルトンデータを生成する。ただし、スケルトンデータの推定方法は上記の方法に限定されない。
S703では、動作推定部1003から出力された動作データに基づいて、スキニング部1004が形状データとスケルトンデータの関連付けを行い、データ重畳部1005に出力する。スキニング部1004が行う処理であるスキニングとは、スケルトンの動きと、そのスケルトンに対応する物体の表面形状の頂点がどのように変形するかを関連付ける処理である。スキニングの方法の一つとして、スケルトンの根元にある関節から表面形状の頂点までの距離に合わせて形状の変形度を決定する方法がある。例えば、関節に対して三次元的に近い位置にある頂点は小さく移動させ、遠い位置にある頂点は大きく移動させる処理である。しかし、三次元的な距離だけによって頂点の移動量を決定した場合、腕の関節を動かした際に腹部の頂点が移動する等の不具合が起こることがあるため、形状データ上の測地線距離と三次元距離を用いて最適にスキニングを行う方法なども用いられる。なお、これらはスキニング処理の一例であり、スキニング部1004による処理の具体的な内容はこれに限定されない。
S704では、撮影決定部1001が、カメラ群109に再撮影を行わせるかを決定する。例えば、S702において推定された形状データ及びスケルトンデータの少なくとも何れかの破綻の程度が所定の閾値より大きい場合、撮影決定部1001がカメラ群109に撮影指示を送り、再撮影が行われてもよい。また例えば、情報処理装置100は再撮影を行うか否かを選択するための画面を表示し、ユーザ操作に応じて再撮影の指示を行ってもよい。再撮影を行う場合、S701へ戻り、動画像の撮影と、形状データ及びスケルトンデータの推定が再度行われる。本実施形態では一例として、S704で再撮影を行うか判定しているが、情報処理装置100は任意のタイミングで撮影ボタン303が押下されたことを検出して再撮影の指示を出力してもよい。以上がS601における具体的な処理の内容である。
S601の処理が終了すると、S602において模範者のデータが読み込まれ、学習者のデータと模範者のデータの表示が行われるが、その表示の方法は、複数考えられる。例えば、模範者の形状及びスケルトンの動きを表す画像を、学習者の画像にそのまま重畳する方法がある。また例えば、模範者のスケルトンの動きを学習者のスケルトンデータに適用して、模範者の動きを伴った学習者の画像を表示する方法がある。その他にも、種々の表示方法が考えられるが、本実施形態では、学習者の動きを表す画像と、模範者の動きを伴った学習者の形状を表す画像とを、重ねて表示する場合を中心に述べる。上述したように、S703において形状データとスケルトンデータの関連付けが行われている。そのため、模範者のスケルトンの動きを示すデータを学習者のスケルトンデータに転写すると、その動きに合わせて学習者の形状データが変形し、模範者の動きを伴った学習者の形状を表す画像が得られる。
なお、表示される画像の一方である学習者の動きを表す画像は、学習者をカメラにより撮影することで得られる撮影画像であってもよいし、S601の処理により生成される学習者の動き情報に基づく画像(例えばスケルトンの動きを表す画像)であってもよい。また、表示される画像のもう一方である模範者の動きに応じた画像として、本実施形態では模範者の動きをする学習者の3次元形状を表す画像を表示する場合を中心に説明するが、これに限らず、模範者の動きをする学習者のスケルトン画像が表示されてもよい。また、情報処理装置100は、上記の種々の内容を表示する複数の表示モードのうち、選択された表示モードに応じた画像を表示部に表示させてもよい。それにより、ユーザにとって見やすい画像を提供できる。
ここで、スケルトンの動きの転写について図11を用いて説明する。模範者の初期関節位置をHEPとし、模範者の動作後の関節位置をHE、学習者の初期関節位置をHLP、学習者の動作後の関節位置をHLとする。また、関節の回転を表す回転行列Rθを定義する。まず、模範者の関節に対する回転行列は以下のような式(1)~(3)で定義される。
Figure 0007262937000001
なお、各関節間のスケルトンを表すベクトルは正規化されているものとする。これを学習者の関節に転写すると、式(4)、(5)のような式で関節の回転は表される。
Figure 0007262937000002
なお、ここでは簡単のため二次元的な関節の回転について示しているが、三次元の回転でも同様の方法で転写を行うことができる。このように、関節の回転のみを転写すると、基準の関節の位置を変えずに関節の曲がり具合のみを変更することが可能である。
以上のように、模範者のスケルトンの動きを学習者のスケルトンデータに転写することで、学習者のスケルトンデータに模範者の動きをさせることができる。すなわち、情報処理装置100は、模範者の体格を表すスケルトンデータと模範者の複数の関節の動きを表す動き情報とに基づいて、学習者の体格を表すスケルトンデータに関連付けられる動き情報を生成することができる。そして情報処理装置100は、学習者のスケルトンデータに関連付けられる動き情報に基づく画像と、カメラによる学習者の撮影に基づく学習者の動きを表す画像(S601の処理により取得されるデータに基づく画像)とを表示部に表示させることができる。これらの画像は何れも学習者の体格に応じた画像であるが、一方は学習者の動きを表す画像であり、他方は模範者の動きを表す画像である。
ここで、模範者の動きを表す画像と学習者の動きを表す画像とを重畳表示する場合、その比較がしやすいように、情報処理装置100はスケルトンデータの位置合わせ及び時刻同期を行う。また、撮影に基づくデータを用いて形状データ及びスケルトンデータの推定を行った結果、データに欠損が発生する場合には、その欠損を補間する処理が行われる。このようなスケルトンデータの位置合わせ、時刻同期、及び欠損補間を行うS603の処理について、図8及び図10を参照して具体的に述べる。図8は、S603における処理の詳細のフローを示す。
S801では、位置補正部1006が、模範者の動きを表すスケルトンデータと学習者のスケルトンデータとの位置合わせを行い、時刻同期部1007に出力する。スケルトンデータの位置合わせの基準とする点としては、例えばスケルトンの分岐が多い人間の骨盤付近の基準関節Hを基準とすることで、大まかな位置合わせを行える。すなわち、学習者の基準関節HLの回転軸及び位置と、模範者の基準関節HEの回転軸及び位置とが重なるように、表示のための位置合わせが行わればよい。ただし、位置合わせの基準となる特定の関節は、必ずしも骨盤付近の関節にしなくてもよい。例えば、野球の投手の手首の動きを比較する場合には、手首の関節の位置を合わせてもよい。また、関節に限らず、例えば学習者と模範者の重心などを基準に位置合わせが行われてもよい。位置合わせボタン306が押下されたとき、自動チェックボックスにチェックが入っている場合は、位置補正部1006は、基準関節を基準に自動で位置合わせを行う。自動チェックボックスにチェックが入っておらず、特定の関節が指定されている場合には、位置補正部1006は、その関節を基準に位置合わせを行う。
S802では、時刻同期部1007が、模範者の動きと学習者の動きの時刻同期を行い、同期された動作データを欠損補間部1008に出力する。例えば、模範者のゴルフのスイングの動きを表す動画像と学習者のスイングの動きを表す動画像とが表示される場合、両画像におけるインパクトの瞬間などの特定時点が同期するように、時刻同期処理が行われる。具体的には、分析データ表示領域302に示されるようなスケルトンの動きの変曲点を基準に同期処理が行われる。なお、撮影データに基づく学習者のスケルトンの動きにノイズが含まれる場合には、動きの変曲点を求める前にノイズを除くための平滑化処理を行う。時間方向の平滑化の方法として、例えば平均値フィルタ、中間値フィルタ、及びガウシアンフィルタなどを用いることができる。時刻同期部1007は、平滑化された動作データS(f(t))に対して式(6)を満たすtを複数算出することで、変曲点を求める。これらの処理はすべての関節について行われてもよいし、1以上の所定の関節について行われてもよい。
Figure 0007262937000003
時刻同期部1007は、これらの処理を模範者の動作データに対しても行うことで、模範者の動きの変曲点も算出する。時刻同期部1007は、これらの結果に基づいて変曲点を合わせる前に、まず、動きの開始時点と終了時点を一致させる。時刻同期部1007は、模範者の動作データにあって学習者の動作データにない時系列、もしくは模範者の動作データになく、学習者の動作データにのみある時系列など、不要なデータについては比較対象とせず、除外してもよい。これらの処理が適宜行われた後、時刻同期部1007は模範者の動きの変曲点と学習者の動きの変曲点を対応付ける。変曲点を対応付ける方法として、例えば、関節の動きを表すグラフにおける変曲点周辺の傾きの変化を用いる方法がある。変曲点周辺の傾きは微分式から算出でき、各変曲点の時刻tに対して傾きの変化cが記録される(式(7))。ここで、各tと対応する傾きの変化を記録した行列をTとする。例えば、模範者の変曲点及び傾きの変化を記録した行列TE(m,n)について、開始からm番目の変曲点について、m=tm,n=ctmとなる。
Figure 0007262937000004
これらの変曲点の時刻と、変曲点前後の傾きの変化を用いて、変曲点の対応がとられる。一例として、動作データの開始時点からの対応をとる場合について説明する。開始時点から変曲点を探索する場合、まず模範者の動作データの開始直後の変曲点tE1が探索される。また学習者の動作データについて、tE1の周囲に変曲点があるかが判定される。対応する変曲点が一つしかない場合、その変曲点が対応点として扱われる。対応する変曲点が複数存在する場合、複数の変曲点候補の中で、変曲点前後の傾きが一致する変曲点が対応点として扱われる。傾きが一致する変曲点が複数存在する場合は、よりtE1に近い変曲点が対応点として扱われる。対応点が見つかった後、時間方向の伸縮が行われる。まず、区間0~tL1の区間のデータがtE1/tL1倍され、そのあとの区間のデータがなめらかになるように接続される(式(8))。
Figure 0007262937000005
対応点がない場合、この処理を行わず次の変曲点について処理が行われる。この後、模範者の動きの最後の変曲点まで、区間ごとに処理を繰り返すことで時刻の同期が行われる。また、変曲点の対応は必ずしも動きの開始時点からとる必要はない。動きの終了時点から逆順に対応をとっていってもよいし、ゴルフのインパクトの瞬間など、動きの特徴のある1以上の時点を基準として時刻同期を行ってもよい。
S803では、欠損補間部1008が、学習者のスケルトンの動きの欠損補間を行い、補間された動作データをデータ比較部1009とデータ編集部1010に出力する。スケルトンの動きの時刻同期はスケルトンの動きの変曲点を基準に行うため、変曲点間の時点における学習者のデータに欠損がある場合には、同時点の模範者データを用いて補間を行う。ここで、欠損の開始時刻をtLr1、終了時刻をtLr2、その時点での模範者及び学習者の関節の変位をθLr1、θLr2、θEr1、θEr2とすると、欠損区間の補間は式(9)で行われる。
Figure 0007262937000006
このようにして欠損区間毎に補間が行われる。以上がS603における具体的な処理の内容である。
続いて、S604におけるデータ表示に関わる処理について、図9及び図10を参照して具体的に述べる。図9は、S604における処理の詳細なフローを示す。S901では、データ比較部1009が模範者と学習者の動作データを比較し、その比較結果を出力する。出力される比較結果には、図5の編集データ表示領域502に示されるような数値的な情報と、画像表示領域501に示されるような画像情報が含まれる。なお、これらの情報の何れか一方のみが出力されてもよい。画像情報の出力においては、学習者にとって違いが分かりやすいようにデータ表示が行われる。データ比較の例として、任意の視点からみた人物の輪郭の違いを計算する方法がある。学習者のデータ(学習者の形状とその動きを表すデータ)と模範者のデータ(学習者が模範者の動きをした場合の形状を表すデータ)はそれぞれ3次元形状を持っている。そのため、3次元空間上の任意の視点に置かれた仮想的なカメラによってうつされる形状がどのようになるかを算出することができる。例えば、仮想カメラの各画素から出る光線と被写体の形状データとの衝突判定を行い、衝突した画素にだけラベル付を行うことで、被写体の輪郭を算出できる。ここで、ある仮想視点Hから見た、学習者のデータの輪郭画像をMLHとし、模範者のデータの輪郭画像をMEHとすると、データ比較部1009は、式(10)を満たす仮想視点Hを算出して、その視点から見た画像を表示させる。
Figure 0007262937000007
ここでは、学習者の動き情報と模範者の動き情報とに基づいて決まる視点として、模範者と学習者の動きの差が最も大きく表れる視点の画像が表示されるものとしているが、表示画像に対応する視点はこれに限定されない。例えば、動きの差が最も小さく見える視点の画像が表示されてもよいし、側面図、上面図、及び前面図など、複数の視点からの画像が表示されてもよい。また、学習者と模範者のデータを直接比較する画像だけでなく、S902におけるデータ編集後に、編集後データと学習者、または模範者との動きの比較を表す画像が表示されてもよい。
次にS902では、データ編集部1010が、S803で出力された動作データの編集を行い、編集された動作データをデータ比較部1009と表示方法設定部1011に出力する。動作データの編集は、画像表示領域501に対するユーザ操作に基づいて行われてもよいし、編集データ表示領域502のグラフに対するユーザ操作に基づいて行われてもよい。ユーザは、画像表示領域501で操作する場合、選択した関節を三次元的に操作することで、学習者の動作データを編集できる。一方、ユーザは、編集データ表示領域502のグラフを編集する場合、二次元的な関節の角度変位グラフを操作することで、学習者のデータを編集できる。本実施形態では、動作データが編集された場合には、元の動作データは保持したまま、編集後の動作データが別に作成されるものとする。なお、データ編集部1010は、学習者のデータ及び模範者のデータの少なくとも何れかに基づいて、動作データを自動で編集してもよい。
S903では、表示方法設定部1011が、S902において出力されたデータの表示方法を設定する。データの表示方法は、模範データ用の表示設定領域503、推定データ用の表示設定領域504、及び編集データ用の表示設定領域505のそれぞれに対する操作に基づいて設定される。例えば、模範データ用の表示設定領域503の模範データチェックボックスによって、模範データを表示するか否かが選択される。模範データが表示される場合は、形状データ及びスケルトンデータの少なくとも一方が表示される。また、各表示データについて透明度を設定し、透過させて表示することが可能である。さらに、表示データについてテクスチャ付きで表示するか、輪郭だけ表示するかなど、表示形式を設定可能である。以上がS604の具体的な処理の内容である。
S604の処理が終了すると、S605において、ユーザ入力部1012への入力に応じて、撮影決定部1001が動画像の再撮影を行うかどうかを決定する。データ推定遷移ボタン507が押下されると、データ推定GUI300に戻り、撮影ボタン303の押下に応じて再撮影が行われる。再撮影が行わない場合は処理が終了する。
なお、学習者が本実施形態に係る分析システム10を使用してフォームの改善を行う場合には、自分のフォームを撮影した後に情報処理装置100を操作して模範者の動作データと自分の動作データの比較をしてもよいが、撮影を行いながら比較してもよい。撮影を行いながら比較する場合、情報処理装置100は撮影に基づくデータを用いてリアルタイムに形状推定及びスケルトン推定を行い、画像の表示を行う。この場合に学習者は、表示画像を見ながら自分でフォームを修正することで、模範者との差を徐々に小さくすることができる。例えば、情報処理装置100は初めに学習者と模範者の動きの差が最も大きい視点の画像を表示し、フォーム修正によってその視点に置ける差がある程度小さくなると、表示画像を次に差が大きい視点の画像に切り替えてもよい。そして情報処理装置100は、全視点において学習者と模範者の差がある程度以上小さくなると、差が小さくなったことを示す画像を表示部に表示させてもよい。
以上説明したように、本実施形態に係る情報処理装置100は、第1オブジェクト(例えば学習者)の体格を表す第1体格情報を取得する。この第1体格情報は、第1オブジェクトを複数のカメラにより複数の方向から撮影することで得られる画像に基づいて生成される情報である。また情報処理装置100は、第2オブジェクト(例えば模範者)の体格を表す第2体格情報と、第2オブジェクトの複数の部位の動きを表す動き情報とを取得する。そして情報処理装置100は、第2オブジェクトに関するこれらの第2体格情報と動き情報とに基づいて、第1体格情報に関連付けられる動き情報を生成する。上記のような構成によれば、第2オブジェクトの動きを、第2オブジェクトとは別の第1オブジェクトの体格に適用した結果を提供することができる。例えば、模範者の動きを学習者がした場合の様子を表す画像を表示部に表示させることができる。
また、情報処理装置100が、通常の学習者の画像と、模範者の動きをする学習者の画像とを表示部に表示させることで、ユーザは学習者の動きと模範者の動きとを容易に比較することができる。さらに、情報処理装置100が、学習者の動きのデータと模範者の動きのデータの位置合わせ及び時刻同期の少なくとも何れかを行って、模範者の動きの画像と学習者の動きの画像を重ねて表示させることで、よりそれらの比較が容易となる。さらに、情報処理装置100が、学習者の動きと模範者の動きの差が大きくあらわれる視点の画像を表示することで、それらの比較がさらに容易となる。このようにして表示された画像を見ることで、学習者は、自分の動きの改善を従来よりも簡単に行うことができる。また、情報処理装置100が、学習者の動きと模範者の動きを比較した結果(関節の角度の情報など)も出力することで、学習者は模範者との差を数値的に把握することもできる。
なお、本実施形態では、模範者の動きを表す画像と学習者の動きを表す画像とを重ねて表示する場合を中心に説明したが、表示形態はこれに限らない。例えば、模範者の動きを表す画像と学習者の動きを表す画像とが並べて表示されてもよい。また、模範者の動きを表す動画像と学習者の静止画像とが表示されてもよい。また、模範者の動きを学習者の体格に適用することで得られる、模範者の動きをする学習者の画像のみを表示してもよい。
また、本実施形態では、被写体の体格を表す体格情報に、被写体の3次元形状の情報及び関節の位置を表すスケルトンの情報が含まれる場合を中心に説明したが、体格情報の内容はこれに限定されない。例えば、情報処理装置100が取得する学習者及び模範者の体格情報には、3次元形状の情報とスケルトンの情報の何れか一方のみが含まれていてもよい。また例えば、情報処理装置100は、学習者の2次元形状を示すデータを体格情報として取得し、模範者の動作データを学習者の2次元形状を表すデータに適用してもよい。また例えば、体格情報は、被写体の身長に関する情報、体重に関する情報、及び体型(痩せ型か肥満型かなど)に関する情報の少なくとも何れかであってもよい。情報処理装置100は、このような学習者の体格情報の入力を受け付け、模範者の動作データをそれらの入力された情報に応じて補正して、その補正された動きを表す画像を表示させてもよい。撮影に基づいて得られる学習者のスケルトンデータなどの情報に模範者の動作データを適用すれば、実際の学習者が模範者の動きをした場合に近い画像が得られる。一方、撮影画像によらず、ユーザ操作により入力された体格情報に合わせて模範者の動作データを補正する方法によれば、システムの処理量を低減でき、且つ、撮影に係るユーザの手間を削減できる。
また、本実施形態では学習者と模範者の動きを比較する場合について説明したが、学習者と模範者の形状の比較のために上記の構成を適用してもよい。この場合にも、位置合わせ、時刻同期、欠損補間、及びGUIを用いたデータ表示について、上記と同様の方法を用いることができる。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC等)によっても実現可能である。また、そのプログラムをコンピュータにより読み取り可能な記録媒体に記録して提供してもよい。
100 情報処理装置
109 カメラ群

Claims (13)

  1. 第1のタイミングにおける第1被写体の部位の位置を表す位置情報を取得する第1取得手段と、
    前記第1被写体の部位に対応し、前記第1のタイミングに対応する第2のタイミングにおける第2被写体の部位の位置を表す位置情報と、前記第1被写体の部位に対応し、前記第2のタイミングとは異なる第3のタイミングにおける前記第2被写体の部位の位置を表す位置情報とを取得する第2取得手段と、
    前記第1のタイミングにおける前記第1被写体の部位の位置を表す位置情報と前記第2のタイミングにおける前記第2被写体の部位の位置を表す位置情報と前記第3のタイミングにおける前記第2被写体の部位の位置を表す位置情報とに基づいて、前記第3のタイミングに対応する第4のタイミングにおける前記第1被写体の部位の位置を決定する決定手段とを有し、
    前記第1取得手段は、前記第1被写体の3次元形状データと前記第1被写体の骨格を表す情報とを取得し、当該第1被写体の骨格を表す情報に基づいて前記第1被写体の部位の位置を取得し、
    前記第2取得手段は、前記第2被写体の骨格を表す情報を取得し、当該第2被写体の骨格を表す情報に基づいて前記第2被写体の部位の位置を取得し、
    前記第1被写体の骨格を表す情報と前記第1被写体の3次元形状データとを関連付ける制御を行う制御手段をさらに有することを特徴とする情報処理装置。
  2. 第1のタイミングにおける第1被写体の部位の位置を表す位置情報を取得する第1取得手段と、
    前記第1被写体の部位に対応し、前記第1のタイミングに対応する第2のタイミングにおける第2被写体の部位の位置を表す位置情報と、前記第1被写体の部位に対応し、前記第2のタイミングとは異なる第3のタイミングにおける前記第2被写体の部位の位置を表す位置情報とを取得する第2取得手段と、
    前記第1のタイミングにおける前記第1被写体の部位の位置を表す位置情報と前記第2のタイミングにおける前記第2被写体の部位の位置を表す位置情報と前記第3のタイミングにおける前記第2被写体の部位の位置を表す位置情報とに基づいて、前記第3のタイミングに対応する第4のタイミングにおける前記第1被写体の部位の位置を決定する決定手段とを有し、
    前記第1取得手段は、前記第1被写体の3次元形状データと前記第1被写体の骨格を表す情報とを取得し、当該第1被写体の3次元形状データに基づいて前記第1被写体の部位の位置を取得し、
    前記第2取得手段は、前記第2被写体の3次元形状データを取得し、当該第2被写体の3次元形状データに基づいて前記第2被写体の部位の位置を取得し、
    前記第1被写体の骨格を表す情報と前記第1被写体の3次元形状データとを関連付ける制御を行う制御手段をさらに有することを特徴とする情報処理装置。
  3. 前記第2取得手段は、前記第2のタイミングにおける前記第2被写体の部位の位置と前記第3のタイミングにおける前記第2被写体の部位の位置との変化を表す前記第2被写体の動き情報を取得し、
    前記決定手段は、前記第1のタイミングにおける前記第1被写体の部位の位置を表す位置情報と前記第2被写体の動き情報とに基づいて、前記第4のタイミングにおける前記第1被写体の部位の位置を決定することを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記第4のタイミングにおける前記第1被写体の部位の位置に基づいて、前記第1被写体を表す画像を表示させる表示制御手段をさらに有することを特徴とする請求項に記載の情報処理装置。
  5. 前記表示制御手段は、前記第1のタイミングにおける前記第1被写体の部位と前記第4のタイミングにおける前記第1被写体の部位との変化を表す第1被写体の動き情報と前記第2被写体の動き情報とを比べた結果を表示させることを特徴とする請求項に記載の情報処理装置。
  6. 前記第1被写体は学習者であり、前記第2被写体は模範者であることを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置
  7. 前記第1のタイミングは、前記第1被写体の特定の動作の開始時であり、
    前記第2のタイミングは、前記第2被写体の前記特定の動作の開始時であり、
    前記第3のタイミングは、前記第2被写体の前記特定の動作の終了時であり、
    前記第4のタイミングは、前記第1被写体の前記特定の動作の終了時であることを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。
  8. 前記特定の動作とは、ゴルフのスイングであることを特徴とする請求項7に記載の情報処理装置
  9. 前記第1被写体の部位は、前記第1被写体を複数の撮影装置により複数の方向から撮影することで取得されることを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
  10. 前記第1被写体の部位と前記第2被写体の部位とは、それぞれ前記第1被写体の関節と前記第2被写体の関節とであることを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
  11. 第1のタイミングにおける第1被写体の部位の位置を表す位置情報を取得する第1取得工程と、
    前記第1被写体の部位に対応し、前記第1のタイミングに対応する第2のタイミングにおける第2被写体の部位の位置を表す位置情報と、前記第1被写体の部位に対応し、前記第2のタイミングとは異なる第3のタイミングにおける前記第2被写体の部位の位置を表す位置情報とを取得する第2取得工程と、
    前記第1のタイミングにおける前記第1被写体の部位の位置を表す位置情報と前記第2のタイミングにおける前記第2被写体の部位の位置を表す位置情報と前記第3のタイミングにおける前記第2被写体の部位の位置を表す位置情報とに基づいて、前記第3のタイミングに対応する第4のタイミングにおける前記第1被写体の部位の位置を決定する決定工程とを有し、
    前記第1取得工程において、前記第1被写体の3次元形状データと前記第1被写体の骨格を表す情報とを取得し、当該第1被写体の骨格を表す情報に基づいて前記第1被写体の部位の位置を取得し、
    前記第2取得工程において、前記第2被写体の骨格を表す情報を取得し、当該第2被写体の骨格を表す情報に基づいて前記第2被写体の部位の位置を取得し、
    前記第1被写体の骨格を表す情報と前記第1被写体の3次元形状データとを関連付ける制御を行う制御工程をさらに有することを特徴とする情報処理方法。
  12. 第1のタイミングにおける第1被写体の部位の位置を表す位置情報を取得する第1取得工程と、
    前記第1被写体の部位に対応し、前記第1のタイミングに対応する第2のタイミングにおける第2被写体の部位の位置を表す位置情報と、前記第1被写体の部位に対応し、前記第2のタイミングとは異なる第3のタイミングにおける前記第2被写体の部位の位置を表す位置情報とを取得する第2取得工程と、
    前記第1のタイミングにおける前記第1被写体の部位の位置を表す位置情報と前記第2のタイミングにおける前記第2被写体の部位の位置を表す位置情報と前記第3のタイミングにおける前記第2被写体の部位の位置を表す位置情報とに基づいて、前記第3のタイミングに対応する第4のタイミングにおける前記第1被写体の部位の位置を決定する決定工程とを有し、
    前記第1取得工程において、前記第1被写体の3次元形状データと前記第1被写体の骨格を表す情報とを取得し、当該第1被写体の骨格を表す情報に基づいて前記第1被写体の部位の位置を取得し、
    前記第2取得工程において、前記第2被写体の骨格を表す情報を取得し、当該第2被写体の骨格を表す情報に基づいて前記第2被写体の部位の位置を取得し、
    前記第1被写体の骨格を表す情報と前記第1被写体の3次元形状データとを関連付ける制御を行う制御工程をさらに有することを特徴とする情報処理方法。
  13. コンピュータを、請求項1乃至10の何れか1項に記載の情報処理装置として動作させるためのプログラム。
JP2018125011A 2018-06-29 2018-06-29 情報処理装置、情報処理方法、及びプログラム Active JP7262937B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018125011A JP7262937B2 (ja) 2018-06-29 2018-06-29 情報処理装置、情報処理方法、及びプログラム
US16/447,244 US11854420B2 (en) 2018-06-29 2019-06-20 Information processing apparatus having position information of parts of subjects acquired at different timings, information processing method, and storage medium
JP2023064772A JP2023086791A (ja) 2018-06-29 2023-04-12 情報処理装置、情報処理方法、及びプログラム
US18/510,428 US20240087471A1 (en) 2018-06-29 2023-11-15 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018125011A JP7262937B2 (ja) 2018-06-29 2018-06-29 情報処理装置、情報処理方法、及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023064772A Division JP2023086791A (ja) 2018-06-29 2023-04-12 情報処理装置、情報処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2020005192A JP2020005192A (ja) 2020-01-09
JP2020005192A5 JP2020005192A5 (ja) 2022-01-11
JP7262937B2 true JP7262937B2 (ja) 2023-04-24

Family

ID=69008269

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018125011A Active JP7262937B2 (ja) 2018-06-29 2018-06-29 情報処理装置、情報処理方法、及びプログラム
JP2023064772A Pending JP2023086791A (ja) 2018-06-29 2023-04-12 情報処理装置、情報処理方法、及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023064772A Pending JP2023086791A (ja) 2018-06-29 2023-04-12 情報処理装置、情報処理方法、及びプログラム

Country Status (2)

Country Link
US (2) US11854420B2 (ja)
JP (2) JP7262937B2 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3573727A1 (en) * 2017-01-26 2019-12-04 Telefonaktiebolaget LM Ericsson (publ) System and method for analysing sports permormance data
JP7078577B2 (ja) * 2019-06-04 2022-05-31 Kddi株式会社 動作類似度評価装置、方法およびプログラム
EP3813023A1 (en) * 2019-10-21 2021-04-28 Dassault Systèmes Computer-implemented method for making a skeleton of a modeled body take a posture
KR102357117B1 (ko) * 2020-01-09 2022-01-27 주식회사 엘지유플러스 다중 영상 재생 방법 및 장치
JP7040549B2 (ja) * 2020-03-24 2022-03-23 カシオ計算機株式会社 アニメーション生成装置、アニメーション生成方法及びプログラム
WO2021192149A1 (ja) * 2020-03-26 2021-09-30 ソニーグループ株式会社 情報処理方法、情報処理装置およびプログラム
US20230196667A1 (en) * 2020-07-27 2023-06-22 Vrc Inc. 3d data system and 3d data generating method
JP2022039120A (ja) * 2020-08-27 2022-03-10 株式会社Jvcケンウッド 端末装置、及びフォーム改善支援方法
WO2022075116A1 (ja) * 2020-10-06 2022-04-14 国立研究開発法人産業技術総合研究所 情報表示装置及び情報表示方法
JP6899105B1 (ja) * 2020-10-13 2021-07-07 株式会社PocketRD 動作表示装置、動作表示方法及び動作表示プログラム
KR102241414B1 (ko) 2020-10-23 2021-04-19 아이디어링크 주식회사 머신 러닝 모델을 이용한 특정 움직임에 대한 피드백을 제공하는 전자 장치 및 그 동작 방법
JP2022170184A (ja) * 2021-04-28 2022-11-10 オムロン株式会社 動作改善装置、動作改善方法、動作改善プログラム及び動作改善システム
US12033435B2 (en) * 2021-05-04 2024-07-09 Tencent America LLC Vision-based motion capture system for rehabilitation training
US11620783B2 (en) * 2021-05-27 2023-04-04 Ai Thinktank Llc 3D avatar generation and robotic limbs using biomechanical analysis
US12008839B2 (en) 2021-05-28 2024-06-11 Sportsbox.ai Inc. Golf club and other object fitting using quantitative biomechanical-based analysis
US11615648B2 (en) 2021-05-28 2023-03-28 Sportsbox.ai Inc. Practice drill-related features using quantitative, biomechanical-based analysis
WO2023062757A1 (ja) * 2021-10-13 2023-04-20 富士通株式会社 情報処理プログラム、情報処理方法、および情報処理装置
WO2023145727A1 (ja) * 2022-01-28 2023-08-03 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、情報分析システム
USD1035720S1 (en) 2022-04-20 2024-07-16 Sportsbox.ai Inc. Display screen with transitional graphical user interface
USD1035721S1 (en) 2022-04-20 2024-07-16 Sportsbox.ai Inc. Display screen with transitional graphical user interface
USD1036464S1 (en) 2022-04-20 2024-07-23 Sportsbox.ai Inc. Display screen with transitional graphical user interface
JP2023160548A (ja) * 2022-04-22 2023-11-02 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
WO2024116252A1 (ja) * 2022-11-28 2024-06-06 富士通株式会社 補正方法、補正プログラムおよび情報処理装置
WO2024116253A1 (ja) * 2022-11-28 2024-06-06 富士通株式会社 情報処理方法、情報処理プログラムおよび情報処理装置
WO2024154692A1 (ja) * 2023-01-16 2024-07-25 国立大学法人東北大学 支援システム、支援方法及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005237494A (ja) 2004-02-24 2005-09-08 Nihon Knowledge Kk 実技分析システム及びプログラム
US20100145232A1 (en) 2008-12-04 2010-06-10 Samsung Digital Imaging Co., Ltd. Methods and apparatuses for correcting sport postures captured by a digital image processing apparatus
JP2012120579A (ja) 2010-12-06 2012-06-28 Seiko Epson Corp 運動解析装置
WO2014042121A1 (ja) 2012-09-12 2014-03-20 独立行政法人産業技術総合研究所 動作評価装置及びそのプログラム
JP2014164644A (ja) 2013-02-27 2014-09-08 Nikon Corp 信号処理装置、表示装置、及びプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5184295A (en) * 1986-05-30 1993-02-02 Mann Ralph V System and method for teaching physical skills
US5249967A (en) * 1991-07-12 1993-10-05 George P. O'Leary Sports technique video training device
AU2002255568B8 (en) * 2001-02-20 2014-01-09 Adidas Ag Modular personal network systems and methods
JP4290462B2 (ja) * 2003-04-16 2009-07-08 Sriスポーツ株式会社 ゴルフスウィングの診断システム
WO2005072831A1 (en) * 2004-01-26 2005-08-11 Modelgolf Llc Systems and methods of measuring and evaluating performance of a physical skill and equipment used to perform the physical skill
JP4646209B2 (ja) 2005-02-23 2011-03-09 日本ナレッジ株式会社 実技分析システム及びプログラム
US8953909B2 (en) * 2006-01-21 2015-02-10 Elizabeth T. Guckenberger System, method, and computer software code for mimic training
JP2016034481A (ja) * 2014-07-31 2016-03-17 セイコーエプソン株式会社 情報分析装置、運動解析システム、情報分析方法、分析プログラム、画像生成装置、画像生成方法、画像生成プログラム、情報表示装置、情報表示システム、情報表示プログラム及び情報表示方法
US10679396B2 (en) * 2017-07-13 2020-06-09 Visyn Inc. Holographic multi avatar training system interface and sonification associative training
US10854104B2 (en) * 2015-08-28 2020-12-01 Icuemotion Llc System for movement skill analysis and skill augmentation and cueing
US11132533B2 (en) * 2017-06-07 2021-09-28 David Scott Dreessen Systems and methods for creating target motion, capturing motion, analyzing motion, and improving motion
US10786722B2 (en) * 2017-10-09 2020-09-29 Martin Wyeth Apparatus and method for repetitive training of golf swing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005237494A (ja) 2004-02-24 2005-09-08 Nihon Knowledge Kk 実技分析システム及びプログラム
US20100145232A1 (en) 2008-12-04 2010-06-10 Samsung Digital Imaging Co., Ltd. Methods and apparatuses for correcting sport postures captured by a digital image processing apparatus
JP2012120579A (ja) 2010-12-06 2012-06-28 Seiko Epson Corp 運動解析装置
WO2014042121A1 (ja) 2012-09-12 2014-03-20 独立行政法人産業技術総合研究所 動作評価装置及びそのプログラム
JP2014164644A (ja) 2013-02-27 2014-09-08 Nikon Corp 信号処理装置、表示装置、及びプログラム

Also Published As

Publication number Publication date
US20200005670A1 (en) 2020-01-02
US20240087471A1 (en) 2024-03-14
JP2023086791A (ja) 2023-06-22
JP2020005192A (ja) 2020-01-09
US11854420B2 (en) 2023-12-26

Similar Documents

Publication Publication Date Title
JP7262937B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7427188B2 (ja) 3dポーズ取得方法及び装置
KR101183000B1 (ko) 이미지 프로세싱을 기반으로 한 3d 공간 차원용 시스템 및방법
US9159134B2 (en) Method and apparatus for estimating a pose
JP6302132B2 (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
US8659595B2 (en) Method and system for combining 2D image and 3D model and non-transitory computer readable storage medium thereof
CN107016717A (zh) 用于患者的透视视图的系统和方法
WO2021052208A1 (zh) 用于运动障碍病症分析的辅助拍摄设备、控制方法和装置
JP2006249618A (ja) 仮想試着装置
JP7318814B2 (ja) データ生成方法、データ生成プログラムおよび情報処理装置
Kirmizibayrak et al. Digital analysis and visualization of swimming motion
JP2001236505A (ja) 座標推定方法、座標推定装置および座標推定システム
JP4667900B2 (ja) 二次元画像からの三次元解析方法とそれを実行するシステム
JP6545847B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP7482471B2 (ja) 学習モデルの生成方法
TWI564841B (zh) 即時影像合成裝置、方法與電腦程式產品
JP7262763B2 (ja) リハビリ支援装置、及びプログラム
Remondino et al. Human motion reconstruction and animation from video sequences
KR101435325B1 (ko) 깊이 맵 생성 방법 및 장치
CN111860275A (zh) 手势识别数据采集系统、方法
JP2019197278A (ja) 画像処理装置、画像処理装置の制御方法およびプログラム
CN118071971A (zh) 提供动作改善信息的方法、处理控制装置以及系统
JP2023003929A (ja) 骨格認識方法、骨格認識プログラム、および体操採点支援システム
CN118155236A (zh) 一种镜面捕捉全身建模的方法及装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230412

R151 Written notification of patent or utility model registration

Ref document number: 7262937

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151