JP2013206273A - 情報処理装置、情報処理方法、および情報処理システム - Google Patents

情報処理装置、情報処理方法、および情報処理システム Download PDF

Info

Publication number
JP2013206273A
JP2013206273A JP2012076221A JP2012076221A JP2013206273A JP 2013206273 A JP2013206273 A JP 2013206273A JP 2012076221 A JP2012076221 A JP 2012076221A JP 2012076221 A JP2012076221 A JP 2012076221A JP 2013206273 A JP2013206273 A JP 2013206273A
Authority
JP
Japan
Prior art keywords
posture
model
unit
similarity
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012076221A
Other languages
English (en)
Inventor
Keisuke Yamaoka
啓介 山岡
Toshinori Ihara
利昇 井原
Go Kobayashi
剛也 小林
Takuo Kawai
拓郎 川合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012076221A priority Critical patent/JP2013206273A/ja
Priority to PCT/JP2013/001912 priority patent/WO2013145654A1/en
Priority to US14/379,923 priority patent/US9852358B2/en
Publication of JP2013206273A publication Critical patent/JP2013206273A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • G09B19/0038Sports
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】モデルとするジェスチャと動画像データの被写体のジェスチャの類似度をユーザに提示することができるようにする。
【解決手段】類似度計算部は、モデルとするジェスチャにおける時系列の姿勢を表す姿勢モデルと、動画像データの被写体の時系列の姿勢を表す姿勢データである対象姿勢データとに基づいて、姿勢モデルと対象姿勢データの類似度を計算する。表示制御部は、類似度計算部により計算された類似度に基づいて、画面を出力部に表示させる。本技術は、例えば、動画像データを処理する情報処理装置に適用することができる。
【選択図】図5

Description

本技術は、情報処理装置、情報処理方法、および情報処理システムに関し、特に、モデルとするジェスチャと動画像データの被写体のジェスチャの類似度をユーザに提示することができるようにした情報処理装置、情報処理方法、および情報処理システムに関する。
近年、各種の画像解析の技術が研究開発されている。例えば、画像内の視聴者の表情を解析し、視聴者の反応を示す反応情報を生成する技術が考案されている(特に、特許文献1参照)。
一方、近年、一般的なユーザが手軽に動画像データを作成できる環境が整ったため、大量の動画像データが作成されている。従って、ユーザに、動画像データを用いた有意義なアプリケーションを提供することが望まれている。
特開2012−9957号公報
しかしながら、モデルとするジェスチャと動画像データの被写体のジェスチャの類似度をユーザに提示することは考えられていなかった。
本技術は、このような状況に鑑みてなされたものであり、モデルとするジェスチャと動画像データの被写体のジェスチャの類似度をユーザに提示することができるようにするものである。
本技術の第1の側面の情報処理装置は、モデルとするジェスチャにおける時系列の姿勢を表す姿勢モデルと、動画像データの被写体の時系列の姿勢を表す姿勢データである対象姿勢データとに基づいて、前記姿勢モデルと前記対象姿勢データの類似度を計算する類似度計算部と、前記類似度計算部により計算された前記類似度に基づいて、画面を表示部に表示させる表示制御部とを備える情報処理装置である。
本技術の第1の側面の情報処理方法は、本技術の第1の側面の情報処理装置に対応する。
本技術の第1の側面においては、モデルとするジェスチャにおける時系列の姿勢を表す姿勢モデルと、動画像データの被写体の時系列の姿勢を表す姿勢データである対象姿勢データとに基づいて、前記姿勢モデルと前記対象姿勢データの類似度が計算され、前記類似度に基づいて、画面が表示部に表示される。
本技術の第2の側面の情報処理システムは、モデルとするジェスチャを行う被写体の動画像データから、そのジェスチャにおける時系列の姿勢を表す姿勢モデルを生成するモデル生成部と、前記姿勢モデルを送信する送信部とを有する第1の情報処理装置と、前記送信部により送信されてくる前記姿勢モデルを受信する受信部と、動画像データから被写体の時系列の姿勢を表す姿勢データを対象姿勢データとして生成する姿勢推定部と、前記受信部により受信された前記姿勢モデルと、前記姿勢推定部により生成された前記対象姿勢データとに基づいて、前記姿勢モデルと前記対象姿勢データの類似度を計算する類似度計算部と、前記類似度計算部により計算された前記類似度に基づいて、画面を表示部に表示させる表示制御部とを有する第2の情報処理装置とを備える情報処理システムである。
本技術の第2の側面においては、第1の情報処理装置が、モデルとするジェスチャを行う被写体の動画像データから、そのジェスチャにおける時系列の姿勢を表す姿勢モデルを生成し、前記姿勢モデルを送信し、第2の情報処理装置が、送信されてくる前記姿勢モデルを受信し、動画像データから被写体の時系列の姿勢を表す姿勢データを対象姿勢データとして生成し、受信された前記姿勢モデルと、生成された前記対象姿勢データとに基づいて、前記姿勢モデルと前記対象姿勢データの類似度を計算し、前記類似度に基づいて、画面を表示部に表示させる。
本技術の第3の側面の情報処理システムは、動画像データから被写体の時系列の姿勢を表す姿勢データを対象姿勢データとして生成する姿勢推定部と、前記姿勢推定部により生成された前記対象姿勢データを送信する送信部とを有する第1の情報処理装置と、前記送信部により送信されてくる前記対象姿勢データを受信する受信部と、モデルとするジェスチャを行う被写体の動画像データから、そのジェスチャにおける時系列の姿勢を表す姿勢モデルを生成するモデル生成部と、前記受信部により受信された対象姿勢データと、前記モデル生成部により生成された前記姿勢モデルとに基づいて、前記姿勢モデルと前記対象姿勢データの類似度を計算する類似度計算部と、前記類似度計算部により計算された前記類似度に基づいて、画面を表示部に表示させる表示制御部とを有する第2の情報処理装置とを備える情報処理システムである。
本技術の第3の側面においては、第1の情報処理装置が、動画像データから被写体の時系列の姿勢を表す姿勢データを対象姿勢データとして生成し、生成された前記対象姿勢データを送信し、第2の情報処理装置が、送信されてくる前記対象姿勢データを受信し、モデルとするジェスチャを行う被写体の動画像データから、そのジェスチャにおける時系列の姿勢を表す姿勢モデルを生成し、受信された対象姿勢データと、生成された前記姿勢モデルとに基づいて、前記姿勢モデルと前記対象姿勢データの類似度を計算し、前記類似度に基づいて、画面を表示部に表示させる。
なお、第1の側面の情報処理装置並びに第2および第3の側面の情報処理システムは、コンピュータにプログラムを実行させることにより実現することができる。
また、第1の側面の情報処理装置並びに第2および第3の側面の情報処理システムを実現するために、コンピュータに実行させるプログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
本技術によれば、モデルとするジェスチャと動画像データの被写体のジェスチャの類似度をユーザに提示することができる。
本技術を適用した情報処理装置の第1実施の形態のハードウエアの構成例を示すブロック図である。 モデル生成処理部の構成例を示すブロック図である。 姿勢モデルの生成を説明する図である。 図2のモデル生成処理部のモデル生成処理を説明するフローチャートである。 類似度計算処理部の構成例を示すブロック図である。 処理対象の動画像データの数が1つである場合の画面の例を示す図である。 処理対象の動画像データの数が1つである場合の画面の例を示す図である。 処理対象の動画像データの数が複数である場合の画面の例を示す図である。 処理対象の動画像データの数が複数である場合の画面の例を示す図である。 図5の類似度計算処理部の類似度計算処理を説明するフローチャートである。 本技術を適用した情報処理システムの第1実施の形態の構成例を示すブロック図である。 本技術を適用した情報処理装置の第2実施の形態のハードウエアの構成例を示すブロック図である。 検索処理部の構成例を示すブロック図である。 図13の表示制御部により表示される画面の例を示す図である。 図13の表示制御部により表示される画面の例を示す図である。 図13の表示制御部により表示される画面の例を示す図である。 図13の表示制御部により表示される画面の例を示す図である。 図13の検索処理部の検索処理を説明するフローチャートである。 本技術を適用した情報処理システムの第2実施の形態の構成例を示すブロック図である。
<第1実施の形態>
[情報処理装置の第1実施の形態の構成例]
図1は、本技術を適用した情報処理装置の第1実施の形態のハードウエアの構成例を示すブロック図である。
図1の情報処理装置10において、CPU(Central Processing Unit)11,ROM(Read Only Memory)12,RAM(Random Access Memory)13は、バス14により相互に接続されている。
バス14には、さらに、入出力インタフェース15が接続されている。入出力インタフェース15には、入力部16、出力部17、記憶部18、通信部19、およびドライブ20が接続されている。
入力部16は、キーボード、マウス、マイクロフォンなどよりなる。出力部17は、ディスプレイ、スピーカなどよりなる。記憶部18は、ハードディスクや不揮発性のメモリなどよりなる。通信部19は、ネットワークインタフェースなどよりなる。ドライブ20は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア21を駆動する。
以上のように構成される情報処理装置10では、CPU11が、例えば、記憶部18に記憶されているプログラムを、入出力インタフェース15およびバス14を介して、RAM13にロードして実行することにより、各種の処理が行われる。
例えば、情報処理装置10では、モデルとするジェスチャにおける時系列の姿勢を表す姿勢モデルを生成するモデル生成処理が行われる。また、情報処理装置10では、姿勢モデルと、処理対象の動画像データの被写体の時系列の姿勢を表す姿勢データである対象姿勢データの類似度を計算する類似度計算処理が行われる。即ち、CPU11は、モデル生成処理を行うモデル生成処理部として機能したり、類似度計算処理を行う類似度計算処理部として機能したりする。
CPU11が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア21に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
情報処理装置10では、プログラムは、リムーバブルメディア21をドライブ20に装着することにより、入出力インタフェース15を介して、記憶部18にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部19で受信し、記憶部18にインストールすることができる。その他、プログラムは、ROM12や記憶部18に、あらかじめインストールしておくことができる。
[モデル生成処理部の構成例]
図2は、モデル生成処理部の構成例を示すブロック図である。
図2のモデル生成処理部40は、取得部41、姿勢推定部42、モデル生成部43、および記憶制御部44により構成される。
なお、以下では、モデル生成処理部40が、1つの姿勢モデルを生成する場合について説明するが、複数の姿勢モデルを生成する場合には、モデルとするジェスチャごとに、1つの姿勢モデルを生成する場合と同様の処理が行われる。
モデル生成処理部40の取得部41は、モデルとするジェスチャを行う被写体の複数の動画像データ(以下、モデル動画像データという)を記憶部18から読み出したり、通信部19を介して外部のサーバ等から取得したりする。なお、モデルとするジェスチャは、予め決められていてもよいし、ユーザが入力部16を操作することにより設定されるようにしてもよい。取得部41は、複数のモデル動画像データを姿勢推定部42に供給する。
姿勢推定部42は、複数のモデル動画像データのそれぞれから、フレーム単位で被写体の姿勢の特徴量を抽出し、その特徴量を用いて姿勢データを生成する。
具体的には、姿勢推定部42は、例えば、リッジ回帰を用いてSIFT特徴量と人体関節の3次元座標との間の写像を求める手法により、フレーム単位のモデル動画像データから上半身8関節の位置を特徴量として抽出する。この手法は、Ankur Agarwal,Bill Triggs,"A Local Basis Representation for Estimating Human Pose from Cluttered Images",ACCV(Asian Conference on Computer Vision)2006などに記載されている。
なお、姿勢推定部42は、抽出された特徴量を、例えば首の座標を中心とした極座標系に変換することにより、撮影時のカメラアングルに不変な特徴量としてもよい。また、姿勢推定部42は、抽出された特徴量をベクトル正規化し、被写体のサイズに不変な特徴量としてもよい。さらに、姿勢推定部42は、抽出された特徴量を、例えば首の座標を中心とした極座標系に変換してベクトル正規化することにより、撮影時のカメラアングルと被写体のサイズに不変な特徴量としてもよい。姿勢推定部42は、フレーム単位の特徴量の時系列データを姿勢データとする。
姿勢推定部42は、複数のモデル動画像データそれぞれの姿勢データをモデル生成部43に供給する。
モデル生成部43は、姿勢推定部42から供給される複数のモデル動画像データの姿勢データを用いて、HMM(Hidden Marcov Model)などにより、モデルとするジェスチャにおける時系列の姿勢をモデル化する。HMMは、複数のステートの組み合わせとして時系列データを確率的にモデル化する技術で、姿勢データのように、同一のモデルの時系列データであっても時間的な伸縮を有する時系列データのモデル化に好適である。モデル生成部43は、モデル化により生成される姿勢モデルを記憶制御部44に供給する。
記憶制御部44は、モデル生成部43から供給される姿勢モデルを、図1の記憶部18に供給して記憶させる。
[姿勢モデルの生成の説明]
図3は、姿勢モデルの生成を説明する図である。
図3の例では、モデルとするジェスチャが所定の選手のバッティングフォームである。
図3に示すように、取得部41は、例えば、インターネット上の検索サイトのデータベースやクラウドサーバ(オンラインストレージ)から、通信部19を介して、所定の選手がバッティングする複数の動画像データを、モデル動画像データとして取得する。
姿勢推定部42は、複数のモデル動画像データのそれぞれから姿勢データを生成し、モデル生成部43は、その姿勢データを用いてHMMなどによりモデル化を行い、姿勢モデルを生成する。
[モデル生成処理部の処理の説明]
図4は、図2のモデル生成処理部40のモデル生成処理を説明するフローチャートである。
図4のステップS11において、モデル生成処理部40の取得部41は、複数のモデル動画像データを、記憶部18から取得するか、または通信部19を介して外部のサーバ等から取得する。取得部41は、複数のモデル動画像データを姿勢推定部42に供給する。
ステップS12において、姿勢推定部42は、複数のモデル動画像データのそれぞれから、フレーム単位で特徴量を抽出し、その特徴量を用いて姿勢データを生成する。姿勢推定部42は、複数のモデル動画像データそれぞれの姿勢データをモデル生成部43に供給する。
ステップS13において、モデル生成部43は、姿勢推定部42から供給される複数のモデル動画像データの姿勢データを用いて、HMMなどにより、モデルとするジェスチャにおける時系列の姿勢をモデル化する。モデル生成部43は、モデル化により生成される姿勢モデルを記憶制御部44に供給する。
ステップS14において、記憶制御部44は、モデル生成部43から供給される姿勢モデルを、記憶部18に供給して記憶させ、処理を終了する。
[類似度計算処理部の構成例]
図5は、類似度計算処理部の構成例を示すブロック図である。
図5の類似度計算処理部60は、画像取得部61、モデル取得部62、姿勢推定部63、類似度計算部64、および表示制御部65により構成される。
類似度計算処理部60の画像取得部61は、ユーザの入力部16に対する操作に応じた入力部16からの指令に基づいて、記憶部18から動画像データを読み出すか、または、通信部19を介して、カメラやサーバ等の外部装置(図示せず)から動画像データを取得する。
具体的には、ユーザは、入力部16を操作し、モデルとするジェスチャとの類似度を認識したいジェスチャを行う被写体の動画像データを、処理対象の動画像データとして指定する。入力部16は、この操作に応じて、ユーザにより指定された処理対象の動画像データを取得する指令を画像取得部61に供給する。画像取得部61は、その指令に基づいて、処理対象の動画像データを記憶部18または外部装置から取得する。画像取得部61は、取得された処理対象の動画像データを姿勢推定部63と表示制御部65に供給する。
モデル取得部62は、ユーザの入力部16に対する操作に応じた入力部16からの指令に基づいて、記憶部18から姿勢モデルを読み出す。具体的には、ユーザは、入力部16を操作し、記憶部18に記憶されている姿勢モデルのうちの、モデルとしたいジェスチャの姿勢モデルを指定する。入力部16は、この操作に応じて、ユーザにより指定された姿勢モデルを読み出す指令をモデル取得部62に供給する。モデル取得部62は、その指令に基づいて、姿勢モデルを記憶部18から読み出す。モデル取得部62は、読み出された姿勢モデルを姿勢推定部63に供給する。
姿勢推定部63は、図2の姿勢推定部42と同様に、画像取得部61から供給される動画像データから、フレーム単位で特徴量を抽出し、その特徴量を用いて姿勢データを生成する。姿勢推定部63は、生成された姿勢データを対象姿勢データとして類似度計算部64に供給する。
類似度計算部64は、姿勢推定部63から供給される対象姿勢データと、モデル取得部62から供給される姿勢モデルとに基づいて、姿勢モデルと対象姿勢データの類似度を計算する。
具体的には、類似度計算部64は、ビタビアルゴリズムによって、対象姿勢データに対して、各ステートの尤度が最大となる、姿勢モデルのステートの組み合わせを決定する。類似度計算部64は、決定された各ステートの尤度に対して、平均値演算などの所定の演算を行うことにより、類似度を計算する。類似度計算部64は、類似度を表示制御部65に供給する。
表示制御部65は、画像取得部61から供給される処理対象の動画像データや、類似度計算部64から供給される類似度などに基づいて、各種の画面を図1の出力部17に表示させる。
なお、画像取得部61により取得される処理対象の動画像データの数は、1つであっても、複数であってもよい。処理対象の動画像データの数が複数である場合には、処理対象の動画像データごとに類似度が求められる。
[画面の例]
図6および図7は、処理対象の動画像データの数が1つである場合の、表示制御部65により表示される画面の例を示す図であり、図8と図9は、処理対象の動画像データの数が複数である場合の、表示制御部65により表示される画面の例を示す図である。
図6乃至図9の例では、○×選手、○○選手、××選手、および×○選手のバッティングフォームの姿勢モデルが記憶部18に記憶されている。
処理対象の動画像データの数が1つである場合、まず、ユーザが、入力部16を操作することにより、処理対象の動画像データを指定すると、表示制御部65は、図6に示すように、その動画像データに対応する画像71と、記憶部18に記憶されている姿勢モデルを選択するための選択欄72を含む画面を出力部17に表示させる。選択欄72の右端には、姿勢モデルの選択候補を表示させるための表示ボタン72Aが設けられている。
このとき、ユーザは、まず、入力部16を操作して表示ボタン72Aを操作することにより、図7に示すように、記憶部18に記憶されている姿勢モデルの情報を、姿勢モデルの選択候補の情報として選択欄72に表示させる。これにより、選択欄72には、○×選手、○○選手、××選手、および×○選手のバッティングフォームの姿勢モデルそれぞれの情報として、「○×選手のバッティングフォーム」、「○○選手のバッティングフォーム」、「××選手のバッティングフォーム」、「×○選手のバッティングフォーム」が表示される。
次に、ユーザは、入力部16を操作して、姿勢モデルの選択候補の情報の中から所望の姿勢モデルの情報(図7の例では、○×選手のバッティングフォーム)を選択することにより、その姿勢モデルを指定する。これにより、図7に示すように、選択欄72内のユーザにより選択された姿勢モデルの情報が強調表示される。また、類似度計算部64により、姿勢モデルと対象姿勢データの類似度が計算され、その類似度に基づいて、図7に示すように、類似度(図7の例では、80%)が表示される。
これにより、ユーザは、モデルとするジェスチャと処理対象の動画像データの被写体のジェスチャとの類似度を容易に認識することができる。即ち、図6と図7の例では、ユーザは、モデルとする○×選手のバッティングフォームと、処理対象の動画像データのバッティングフォームとの類似度を容易に認識することができる。その結果、ユーザは、バッティングフォームの改善具合などを認識することができる。
一方、処理対象の動画像データの数が複数(図8および図9の例では6)である場合、まず、ユーザが、入力部16を操作することにより、複数の処理対象の動画像データを指定すると、図8に示すように、表示制御部65は、その動画像データに対応する複数の画像からなる画像群81と選択欄72を含む画面を出力部17に表示させる。
このとき、ユーザは、図6の場合と同様に、入力部16を操作して表示ボタン72Aを操作することにより、図9に示すように、選択欄72に姿勢モデルの選択候補の情報を表示させる。
次に、ユーザは、入力部16を操作して、その選択候補の情報の中から所望の姿勢モデルの情報(図9の例では、○×選手のバッティングフォーム)を選択することにより、その姿勢モデルを指定する。これにより、図9に示すように、選択欄72内のユーザにより選択された姿勢モデルの情報が強調表示される。また、類似度計算部64により、姿勢モデルと対象姿勢データの類似度が計算され、その類似度に基づいて、図9に示すように、最も高い類似度(図9の例では、80%)と、その類似度に対応する処理対象の動画像データに基づく画像82を含む画面を、出力部17に表示させる。
これにより、ユーザは、モデルとするジェスチャと最も類似する処理対象の動画像データの被写体のジェスチャを容易に認識することができる。即ち、図8と図9の例では、ユーザは、モデルとする○×選手のバッティングフォームと最も類似する処理対象の動画像データのバッティングフォームを容易に認識することができる。その結果、ユーザは、どのバッティングフォームが最適なバッティングフォームであるかなどを認識することができる。
なお、図6乃至図9の画面に表示される、動画像データに対応する画像および動画像データに基づく画像は、静止画像であっても、動画像であっても、サムネイル画像であってもよい。
[類似度計算処理部の処理の説明]
図10は、図5の類似度計算処理部60の類似度計算処理を説明するフローチャートである。この類似度計算処理は、ユーザが入力部16を操作することにより、処理対象の動画像データを指定したとき、開始される。
図10のステップS30において、類似度計算処理部60の画像取得部61は、入力部16からのユーザにより指定された処理対象の動画像データを取得する指令に基づいて、記憶部18から処理対象の動画像データを取得するか、または、通信部19を介して、カメラやサーバ等の外部装置(図示せず)から処理対象の動画像データを取得する。画像取得部61は、取得された処理対象の動画像データを姿勢推定部63と表示制御部65に供給する。
ステップS31において、表示制御部65は、画像取得部61から供給される処理対象の動画像データに基づいて、その動画像データに対応する画像71(または画像群81)と選択欄72を含む画面を、図1の出力部17に表示させる。このとき、ユーザは、入力部16を操作し、選択欄72の右端の表示ボタン72Aを操作する。これにより、入力部16は、表示ボタン72Aの操作を表す情報を表示制御部65に供給する。
ステップS32において、表示制御部65は、ユーザにより表示ボタン72Aが操作されたかどうか、即ち入力部16から表示ボタン72Aの操作を表す情報が供給されたかどうかを判定する。ステップS32で表示ボタン72Aが操作されていないと判定された場合、表示ボタン72Aが操作されるまで待機する。
一方、ステップS32で表示ボタン72Aが操作されたと判定された場合、ステップS33において、表示制御部65は、記憶部18に記憶されている姿勢モデルの情報を、姿勢モデルの選択候補の情報として選択欄72に表示させる。このとき、ユーザは、入力部16を操作し、選択欄72に表示される姿勢モデルの選択候補の情報のうちの、所望の姿勢モデルの情報を選択することにより、その姿勢モデルを指定する。これにより、入力部16は、ユーザにより指定された姿勢モデルを読み出す指令をモデル取得部62に供給する。
ステップS34において、モデル取得部62は、ユーザにより姿勢モデルが指定されたかどうか、即ち、入力部16からユーザにより指定された姿勢モデルを読み出す指令が供給されたかどうかを判定する。ステップS34で、まだユーザにより姿勢モデルが指定されていないと判定された場合、ユーザにより姿勢モデルが指定されるまで、待機する。
ステップS34で、ユーザにより姿勢モデルが指定されたと判定された場合、ステップS35において、モデル取得部62は、記憶部18から、ユーザにより指定された姿勢モデルを読み出す。モデル取得部62は、読み出された姿勢モデルを類似度計算部64に供給する。
ステップS36において、姿勢推定部63は、画像取得部61から供給される動画像データのうちのまだ姿勢データが生成されていない動画像データから、図2の姿勢推定部42と同様に、フレーム単位で特徴量を抽出し、その特徴量を用いて姿勢データを生成する。姿勢推定部63は、生成された姿勢データを対象姿勢データとして類似度計算部64に供給する。
ステップS37において、類似度計算部64は、姿勢推定部63から供給される対象姿勢データと、モデル取得部62から供給される姿勢モデルとに基づいて、姿勢モデルと対象姿勢データの類似度を計算する。姿勢推定部63は、類似度を表示制御部65に供給する。
ステップS38において、姿勢推定部63は、全ての処理対象の動画像データの類似度が計算されたかどうかを判定する。ステップS38でまだ全ての処理対象の動画像データの類似度が計算されていないと判定された場合、処理はステップS36に戻り、全ての処理対象の動画像データの類似度が計算されるまで、ステップS36乃至S38の処理が繰り返される。
ステップS39において、表示制御部65は、処理対象の動画像データの数が1つであるかどうかを判定する。ステップS39で処理対象の動画像データの数が1つであると判定された場合、ステップS40において、表示制御部65は、姿勢推定部63から供給される類似度を図1の出力部17に表示させる。これにより、出力部17には、図7の画面が表示される。
一方、ステップS39で処理対象の動画像データの数が1つではないと判定された場合、即ち処理対象の動画像データの数が複数である場合、処理はステップS41に進む。ステップS41において、表示制御部65は、画像取得部61から供給される処理対象の動画像データのうち、類似度計算部64から供給される類似度が最も大きい動画像データを選択する。
ステップS42において、表示制御部65は、ステップS41で選択された動画像データに対応する画像と、対応する類似度を、図1の出力部17に表示させる。これにより、出力部17には、図9の画面が表示される。
以上のように、情報処理装置10は、対象姿勢データと姿勢モデルの類似度を計算し、類似度に基づいて画面を表示させるので、モデルとするジェスチャと処理対象の動画像データの被写体のジェスチャの類似度をユーザに提示することができる。
これにより、例えば、各種のスポーツ、ダンス、車や飛行機等の運転機器の操作、クラフトワークなどの身体運動が、モデルとするジェスチャにどのくらい類似しているのかを認識し、その身体運動を修正することができる。
なお、第1実施の形態では、ユーザにより1つの姿勢モデルが指定されたが、複数の姿勢モデルが指定されるようにしてもよい。この場合、姿勢モデルごとに類似度が計算され、表示制御部65は、類似度が最も大きい姿勢モデルの情報を、処理対象の動画像データに対応する画像と類似度の他に含める画面を表示させる。
また、第1実施の形態では、複数のモデル動画像データを用いて姿勢モデルが学習されたが、1つのモデル動画像データの姿勢データを用いて姿勢モデルが学習されるようにしてもよい。この場合、モデル動画像データの姿勢データがベクトル化され、姿勢モデルとされる。なお、複数のモデル動画像データを用いて姿勢モデルが学習される場合であっても、モデル動画像データの姿勢データをベクトル化し、その結果得られるベクトルを最適化(平均化など)して代表ベクトルを求めることにより、姿勢モデルを生成するようにしてもよい。
<第2実施の形態>
[情報処理システムの第1実施の形態の構成例]
図11は、本技術を適用した情報処理システムの第1実施の形態の構成例を示すブロック図である。
図11に示すように、情報処理システム90は、クラウドサーバ91と情報処理装置92により構成される。情報処理システム90では、情報処理装置92ではなくクラウドサーバ91が姿勢モデルを生成し、情報処理装置92に送信する。
具体的には、クラウドサーバ91は、情報処理装置10と同様にモデル生成処理を行う。また、クラウドサーバ91は、情報処理装置92からの要求に応じて、記憶している所定の姿勢モデルを情報処理装置92に送信する。
情報処理装置92は、クラウドサーバ91に、情報処理装置10と同様にしてユーザにより指定された姿勢モデルの送信を要求する。情報処理装置92は、その要求に応じてクラウドサーバ91から送信されてくる姿勢モデルを受信する。情報処理装置92は、受信された姿勢モデルを用いて、情報処理装置10と同様に類似度計算処理を行う。
<第3実施の形態>
[情報処理装置の第2実施の形態の構成例]
図12は、本技術を適用した情報処理装置の第2実施の形態のハードウエアの構成例を示すブロック図である。
図12に示す構成のうち、図1の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図12の情報処理装置100の構成は、CPU11の代わりにCPU101が設けられている点が図1の構成と異なる。情報処理装置100は、ユーザが検索キーとして指定した動画像データの被写体のジェスチャを、モデルとするジェスチャとし、類似度が所定の範囲内である処理対象の動画像データを検索結果とする。
具体的には、情報処理装置100のCPU101は、記憶部18に記憶されているプログラムを、入出力インタフェース15およびバス14を介して、RAM13にロードして実行することにより、各種の処理を行う。例えば、CPU101は、ユーザにより検索キーとして指定された動画像データの姿勢データを用いて姿勢モデルを生成するとともに、対象姿勢データを生成し、姿勢モデルと対象姿勢データの類似度が所定の範囲内である処理対象の動画像データを検索結果とする検索処理を行う。即ち、CPU101は、検索処理を行う検索処理部として機能する。
[検索処理部の構成例]
図13は、検索処理部120の構成例を示すブロック図である。
図13に示す構成のうち、図2や図5の構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
図13の検索処理部120は、姿勢推定部42、画像取得部61、姿勢推定部63、検索キー取得部121、モデル生成部122、類似度計算部123、および表示制御部124より構成される。
検索処理部120の検索キー取得部121は、ユーザの入力部16に対する操作に応じた入力部16からの指令に基づいて、記憶部18から動画像データを読み出すか、または、通信部19を介して、カメラやサーバ等の外部装置(図示せず)から動画像データを取得する。
具体的には、ユーザは、入力部16を操作し、検索キーとするジェスチャを行う被写体の動画像データを、モデル動画像データとして指定する。入力部16は、この操作に応じて、モデル動画像データを取得する指令を検索キー取得部121に供給する。検索キー取得部121は、その指令に基づいて、モデル動画像データを記憶部18または外部装置から取得する。検索キー取得部121は、取得されたモデル動画像データを姿勢推定部42に供給する。
モデル生成部122は、姿勢推定部42から供給されるモデル動画像データの姿勢データを用いて、姿勢データをベクトル化する。モデル生成部122は、その結果得られる姿勢データのベクトルを姿勢モデルとして類似度計算部123に供給する。
類似度計算部123は、姿勢推定部63から供給される対象姿勢データをベクトル化する。類似度計算部123は、その結果得られる対象姿勢データのベクトルと、モデル取得部62から供給される姿勢モデルとの距離を算出し、その距離に基づいて姿勢モデルと対象姿勢データの類似度を計算する。類似度計算部123は、計算された類似度を表示制御部124に供給する。
表示制御部124は、画像取得部61から供給される処理対象の動画像データや、類似度計算部123から供給される類似度などに基づいて、各種の画面を図12の出力部17に表示させる。例えば、表示制御部124は、処理対象の動画像データのうち、類似度が所定の範囲内である動画像データに対応する画像を検索結果として表示する画面を出力部17に表示させる。
[画面の例]
図14乃至図17は、図13の表示制御部124により表示される画面の例を示す図である。
まず、ユーザが、入力部16を操作することにより、処理対象の動画像データを指定すると、図14に示すように、表示制御部124は、その動画像データに対応する画像142−1乃至142−3と、検索キーとするジェスチャの動画像データのファイルを入力する入力欄141を表示させる。入力欄141の右端には、検索キーとするジェスチャの動画像データのファイルの入力を支援する参照ボタン141Aが設けられている。
ユーザが、入力部16を操作することにより、参照ボタン141Aを操作すると、図15に示すように、表示制御部124は、フォルダ選択欄161、ファイル表示部162、ファイル名入力欄163、開くボタン164、およびキャンセルボタン165を含む画面を表示させる。
フォルダ選択欄161には、最初に、所定のフォルダ名(図15の例では、「写真」)が表示される。フォルダ選択欄161の右端には、選択候補のフォルダのフォルダ名を表示させるための表示ボタン161Aが設けられている。
ユーザは、フォルダ選択欄161に表示されているフォルダ名のフォルダ以外のフォルダ内のファイルの動画像データを検索キーとしたい場合、入力部16を操作して表示ボタン161Aを操作することにより、フォルダ選択欄161に選択候補のフォルダのフォルダ名を表示させる。そして、ユーザは、入力部16を操作して、そのフォルダ名の中から、検索キーとするジェスチャの動画像データのファイルを含むフォルダのフォルダ名を選択する。これにより、フォルダ選択欄161には、ユーザにより選択されたフォルダ名が表示される。
ファイル表示部162には、フォルダ選択欄161に表示されるフォルダ名のフォルダに含まれるファイルの動画像データを表す情報が表示される。図15の例では、動画像データを表す情報として、動画像データのサムネイル画像が表示されている。このとき、ユーザは、入力部16を操作して、ファイル表示部162に表示されている情報のうちの、検索キーとするジェスチャの動画像データのファイルの情報を選択する。これにより、図15に示すように、選択された情報は、例えば、強調表示される。
ファイル名入力欄163には、ファイル表示部162においてユーザにより選択された情報に対応するファイルのファイル名が表示される。
開くボタン164は、ファイル名入力欄163に表示されているファイル名のファイルを、入力欄141に入力するとき操作されるボタンである。従って、ユーザが、入力部16を操作して開くボタン164を操作すると、図16に示すように、入力欄141にファイル名入力欄163に表示されているファイル名が表示され、入力欄141の右端に、参照ボタン141Aの代わりに検索を開始するための検索ボタン181が表示される。
このとき、ユーザは入力部16を操作して検索ボタン181を操作することにより、入力欄141に表示されているファイル名のファイルの動画像データを、モデル動画像データとして指定する。これにより、モデル動画像データと処理対象の動画像データの類似度が計算され、図17に示すように、その類似度が所定の範囲内である処理対象の動画像データに対応する画像が、類似度が大きい順に検索結果として表示される。図17の例では、画像142−1乃至142−3のうちの、画像142−2と画像142−3が、画像142−3、画像142−2の順に表示されている。
以上のように、ユーザは、所望のジェスチャを行う被写体の動画像データのファイルを、検索キーとするジェスチャの動画像データのファイルとして入力することにより、そのジェスチャと類似するジェスチャを行う被写体の動画像データを検索することができる。即ち、図14乃至図17の例では、ユーザは、所望の振り付けのダンスを行う被写体の動画像データのファイルを、検索キーとするジェスチャの動画像データのファイルとして入力しているため、そのダンスと類似するダンスを行う被写体の動画像データを検索することができる。
一方、図15のキャンセルボタン165は、検索キーとするジェスチャの動画像データのファイルの入力を中断するとき操作されるボタンである。従って、ユーザが、入力部16を操作してキャンセルボタン165を操作すると、図14の画面が再度表示される。
[検索処理部の処理の説明]
図18は、図13の検索処理部120の検索処理を説明するフローチャートである。この検索処理は、ユーザが入力部16を操作することにより、処理対象の動画像データを指定したとき、開始される。
ステップS51において、検索処理部120の画像取得部61は、入力部16からのユーザにより指定された処理対象の動画像データを取得する指令に基づいて、記憶部18から処理対象の動画像データを取得するか、または、通信部19を介して、カメラやサーバ等の外部装置(図示せず)から動画像データを取得する。画像取得部61は、取得された処理対象の動画像データを姿勢推定部63と表示制御部124に供給する。
ステップS52において、表示制御部124は、画像取得部61から供給される処理対象の動画像データに基づいて、処理対象の動画像データに対応する画像142−1乃至142−3と入力欄141を含む図14の画面を表示させる。
このとき、ユーザは、入力部16を操作することにより、参照ボタン141Aを操作し、フォルダ選択欄161、ファイル表示部162、ファイル名入力欄163、開くボタン164、およびキャンセルボタン165を含む図15の画面を表示させる。そして、ユーザは、必要に応じて表示ボタン161Aを操作することによりフォルダ選択欄161に表示されるフォルダ名を変更する。
また、ユーザは、入力部16を操作することにより、ファイル表示部162に表示される動画像データを表す情報のうちの、検索キーとするジェスチャの動画像データのファイルの情報を選択する。そして、ユーザは、入力部16を操作することにより、開くボタン164を操作し、検索キーとするジェスチャの動画像データのファイルを入力欄141に入力する。
これにより、表示制御部124は、図16に示したように、ユーザにより入力された検索キーとするジェスチャの動画像データのファイルのファイル名を入力欄141に表示させるとともに、参照ボタン141Aの代わりに検索ボタン181を表示させる。このとき、ユーザは、入力部16を操作することにより、検索ボタン181を操作する。入力部16は、この操作に応じて、ユーザにより入力されたファイルの動画像データをモデル動画像データとして取得する指令を検索キー取得部121に供給する。
ステップS53において、検索キー取得部121は、検索ボタン181が操作されたかどうか、即ち入力部16からモデル動画像データを取得する指令が供給されたかどうかを判定する。ステップS53で検索ボタン181が操作されていないと判定された場合、検索ボタン181が操作されるまで待機する。
一方、ステップS53で検索ボタン181が操作されたと判定された場合、処理はステップS54に進む。ステップS54において、検索キー取得部121は、ユーザにより入力されたファイルの動画像データを、モデル動画像データとして、記憶部18から取得するか、または、通信部19を介して、カメラやサーバ等の外部装置(図示せず)から取得する。検索キー取得部121は、取得されたモデル動画像データを姿勢推定部42に供給する。
ステップS55において、姿勢推定部42は、検索キー取得部121から供給される動画像データから、フレーム単位で被写体の姿勢の特徴量を抽出し、その特徴量を用いて姿勢データを生成する。姿勢推定部42は、モデル動画像データの姿勢データをモデル生成部122に供給する。
ステップS56において、モデル生成部122は、姿勢推定部42から供給されるモデル動画像データの姿勢データを用いて姿勢データをベクトル化し、その結果得られる姿勢データのベクトルを姿勢モデルとして学習する。モデル生成部122は、姿勢モデルを類似度計算部123に供給する。
ステップS57において、姿勢推定部63は、画像取得部61から供給される処理対象の動画像データのうちの、まだ姿勢データが生成されていない動画像データから、姿勢推定部42と同様に、対象姿勢データを生成する。姿勢推定部63は、生成された対象姿勢データを類似度計算部123に供給する。
ステップS58において、類似度計算部123は、対象姿勢データと姿勢モデルの類似度を計算する。具体的には、類似度計算部123は、姿勢推定部63から供給される対象姿勢データをベクトル化し、その結果得られる対象姿勢データのベクトルと、モデル取得部62から供給される姿勢モデルとの距離を算出する。そして、類似度計算部123は、その距離に基づいて姿勢モデルと対象姿勢データの類似度を計算する。類似度計算部123は、計算された類似度を表示制御部124に供給する。
ステップS59において、類似度計算部123は、全ての処理対象の動画像データの類似度が計算されたかどうかを判定する。ステップS59でまだ全ての処理対象の動画像データの類似度が計算されていないと判定された場合、処理はステップS57に戻り、全ての処理対象の動画像データの類似度が計算されるまで、ステップS57乃至S59の処理が行われる。
ステップS59で全ての処理対象の動画像データの類似度が計算されたと判定された場合、処理はステップS60に進む。ステップS60において、表示制御部124は、図17に示すように、処理対象の動画像データのうちの、類似度が所定の範囲内である動画像データに対応する画像を、検索結果として、類似度の大きい順に表示させる。
以上のように、情報処理装置100は、対象姿勢データと、検索キーとするジェスチャの動画像データをモデル動画像データとしたときの姿勢モデルの類似度を計算し、類似度に基づいて、類似度が所定の範囲内である動画像データに対応する画像を、検索結果として、類似度が大きい順に表示する。従って、ユーザは、所望のジェスチャを検索キーとした検索を行うことができる。その結果、例えば、ダンスの振り付け、映画の特定シーンにおける俳優の動き、子どもの仕草などの文章で表現することが難しいジェスチャを検索キーとした検索を行うことができる。
なお、第3実施の形態では、ユーザにより1つのモデル動画像データが指定されたが、複数のモデル動画像データが指定されるようにしてもよい。この場合、複数のモデル動画像データの姿勢データがベクトル化され、その結果得られる姿勢データのベクトルが最適化されることにより、姿勢モデルが生成される。なお、この場合、第1および第2実施の形態と同様に、HMMにより姿勢モデルが生成されるようにしてもよい。
<第4実施の形態>
[情報処理システムの第2実施の形態の構成例]
図19は、本技術を適用した情報処理システムの第2実施の形態の構成例を示すブロック図である。
図19に示すように、情報処理システム200は、クラウドサーバ201と情報処理装置202により構成される。情報処理システム200では、情報処理装置202ではなくクラウドサーバ201が対象姿勢データを生成し、情報処理装置202に送信する。
具体的には、クラウドサーバ201は、情報処理装置202からの要求に応じて、情報処理装置100と同様にして処理対象の動画像データを取得し、対象姿勢データを生成する。そして、クラウドサーバ201は、対象姿勢データを情報処理装置202に送信する。
情報処理装置202は、情報処理装置100と同様にしてユーザにより指定された処理対象の動画像データの姿勢データである対象姿勢データの送信を、クラウドサーバ201に要求する。情報処理装置202は、その要求に応じてクラウドサーバ201から送信されてくる対象姿勢データを受信する。情報処理装置202は、情報処理装置100と同様に、姿勢モデルを生成して、受信された対象姿勢データと姿勢モデルの類似度を計算し、類似度に基づいて画面を表示する。
なお、第1乃至第4実施の形態では、対象姿勢データと姿勢モデルの類似度が計算されたが、対象姿勢データのうちの、特徴的なフレーム(例えば、関節の動きが大きいフレーム)の特徴量と姿勢モデルの類似度が計算されるようにしてもよい。
また、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、情報処理システム90において、クラウドサーバ91が、類似度を計算するようにしてもよい。この場合、情報処理装置92が、情報処理装置10と同様にしてユーザにより指定された姿勢モデルをクラウドサーバ91に通知し、情報処理装置10と同様に対象姿勢データを生成してクラウドサーバ91に送信する。クラウドサーバ91は、情報処理装置10と同様にモデル生成処理を行うことにより得られる姿勢モデルのうちの、ユーザにより指定された姿勢モデルと、情報処理装置92から送信されてくる対象姿勢データとに基づいて類似度を計算し、情報処理装置92に送信する。情報処理装置92は、クラウドサーバ91から送信されてきた類似度に基づいて、情報処理装置10と同様に画面を表示させる。
また、情報処理システム200においても、クラウドサーバ201が、類似度を計算するようにしてもよい。この場合、情報処理装置202が、情報処理装置100と同様にしてユーザにより指定された処理対象の動画像データをクラウドサーバ201に通知し、情報処理装置100と同様に姿勢モデルを生成してクラウドサーバ201に送信する。クラウドサーバ201は、情報処理装置100と同様に、ユーザにより指定された処理対象の動画像データの姿勢データである対象姿勢データを生成する。そして、クラウドサーバ201は、生成された対象姿勢データと、情報処理装置202から送信されてくる姿勢モデルとに基づいて類似度を計算し、情報処理装置202に送信する。情報処理装置202は、クラウドサーバ201から送信されてきた類似度に基づいて、情報処理装置100と同様に画面を表示させる。
さらに、本技術は、以下のような構成もとることができる。
(1)
モデルとするジェスチャにおける時系列の姿勢を表す姿勢モデルと、動画像データの被写体の時系列の姿勢を表す姿勢データである対象姿勢データとに基づいて、前記姿勢モデルと前記対象姿勢データの類似度を計算する類似度計算部と、
前記類似度計算部により計算された前記類似度に基づいて、画面を表示部に表示させる表示制御部と
を備える情報処理装置。
(2)
前記表示制御部は、前記類似度と前記動画像データに対応する画像を含む前記画面を表示部に表示させる
前記(1)に記載の情報処理装置。
(3)
前記類似度計算部は、前記姿勢モデルと、複数の前記動画像データの前記対象姿勢データとに基づいて、前記動画像データごとに前記類似度を計算し、
前記表示制御部は、前記複数の動画像データの前記類似度のうちの最も大きい類似度に対応する動画像データに基づく画像を含む前記画面を、前記表示部に表示させる
前記(1)に記載の情報処理装置。
(4)
前記類似度計算部は、前記姿勢モデルと、複数の前記動画像データの前記対象姿勢データとに基づいて、前記動画像データごとに前記類似度を計算し、
前記表示制御部は、前記類似度が所定の範囲である動画像データに対応する画像を含む前記画面を、前記表示部に表示させる
前記(1)に記載の情報処理装置。
(5)
前記モデルとするジェスチャを行う被写体の動画像データから、前記姿勢モデルを生成するモデル生成部
をさらに備え、
前記類似度計算部は、前記モデル生成部により生成された前記姿勢モデルと、前記対象姿勢データとに基づいて、前記類似度を計算する
前記(1)乃至(4)のいずれかに記載の情報処理装置。
(6)
前記モデル生成部は、前記モデルとするジェスチャを行う被写体の複数の動画像データの姿勢データを用いて、前記モデルとするジェスチャにおける時系列の姿勢をモデル化することにより、前記姿勢モデルを生成する
前記(5)に記載の情報処理装置。
(7)
前記モデル生成部は、前記モデルとするジェスチャを行う被写体の少なくとも1つの動画像データの姿勢データをベクトル化し、その結果得られる前記姿勢データのベクトルを最適化することにより、前記姿勢モデルを生成する
前記(5)に記載の情報処理装置。
(8)
前記動画像データから前記対象姿勢データを生成する姿勢推定部
をさらに備え、
前記類似度計算部は、前記姿勢モデルと、前記姿勢推定部により生成された前記対象姿勢データとに基づいて、前記類似度を計算する
前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
情報処理装置が、
モデルとするジェスチャにおける時系列の姿勢を表す姿勢モデルと、動画像データの被写体の時系列の姿勢を表す姿勢データである対象姿勢データとに基づいて、前記姿勢モデルと前記対象姿勢データの類似度を計算する類似度計算ステップと、
前記類似度計算ステップの処理により計算された前記類似度に基づいて、画面を表示部に表示させる表示制御ステップと
を含む情報処理方法。
(10)
モデルとするジェスチャを行う被写体の動画像データから、そのジェスチャにおける時系列の姿勢を表す姿勢モデルを生成するモデル生成部と、
前記姿勢モデルを送信する送信部と
を有する第1の情報処理装置と、
前記送信部により送信されてくる前記姿勢モデルを受信する受信部と、
動画像データから被写体の時系列の姿勢を表す姿勢データを対象姿勢データとして生成する姿勢推定部と、
前記受信部により受信された前記姿勢モデルと、前記姿勢推定部により生成された前記対象姿勢データとに基づいて、前記姿勢モデルと前記対象姿勢データの類似度を計算する類似度計算部と、
前記類似度計算部により計算された前記類似度に基づいて、画面を表示部に表示させる表示制御部と
を有する第2の情報処理装置と
を備える情報処理システム。
(11)
動画像データから被写体の時系列の姿勢を表す姿勢データを対象姿勢データとして生成する姿勢推定部と、
前記姿勢推定部により生成された前記対象姿勢データを送信する送信部と
を有する第1の情報処理装置と、
前記送信部により送信されてくる前記対象姿勢データを受信する受信部と、
モデルとするジェスチャを行う被写体の動画像データから、そのジェスチャにおける時系列の姿勢を表す姿勢モデルを生成するモデル生成部と、
前記受信部により受信された対象姿勢データと、前記モデル生成部により生成された前記姿勢モデルとに基づいて、前記姿勢モデルと前記対象姿勢データの類似度を計算する類似度計算部と、
前記類似度計算部により計算された前記類似度に基づいて、画面を表示部に表示させる表示制御部と
を有する第2の情報処理装置と
を備える情報処理システム。
(12)
モデルとするジェスチャを行う被写体の動画像データから、そのジェスチャにおける時系列の姿勢を表す姿勢モデルを生成するモデル生成部と、
動画像データから生成された被写体の時系列の姿勢を表す姿勢データを対象姿勢データとして受信する姿勢受信部と、
前記モデル生成部により生成された前記姿勢モデルと、前記姿勢受信部により受信された前記対象姿勢データとに基づいて、前記姿勢モデルと前記対象姿勢データの類似度を計算する類似度計算部と、
前記類似度計算部により計算された前記類似度を送信する類似度送信部と
を有する第1の情報処理装置と、
前記動画像データから前記対象姿勢データを生成する姿勢推定部と、
前記姿勢推定部により生成された前記対象姿勢データを送信する姿勢送信部と、
前記類似度送信部により送信されてくる前記類似度を受信する類似度受信部と、
前記類似度受信部により受信された前記類似度に基づいて、画面を表示部に表示させる表示制御部と
を有する第2の情報処理装置と
を備える情報処理システム。
(13)
動画像データから被写体の時系列の姿勢を表す姿勢データを対象姿勢データとして生成する姿勢推定部と、
モデルとするジェスチャを行う被写体の動画像データから生成された、そのジェスチャにおける時系列の姿勢を表す姿勢モデルを受信するモデル受信部と、
前記姿勢推定部により生成された対象姿勢データと、前記モデル受信部により生成された前記姿勢モデルとに基づいて、前記姿勢モデルと前記対象姿勢データの類似度を計算する類似度計算部と、
前記類似度計算部により計算された前記類似度を送信する類似度送信部と
を有する第1の情報処理装置と、
前記モデルとするジェスチャを行う被写体の動画像データから前記姿勢モデルを生成するモデル生成部と、
前記モデル生成部により生成された前記姿勢モデルを送信するモデル送信部と、
前記類似度送信部により送信されてくる前記類似度を受信する類似度受信部と、
前記類似度受信部により受信された前記類似度に基づいて、画面を表示部に表示させる表示制御部と
を有する第2の情報処理装置と
を備える情報処理システム。
10 情報処理装置, 11 CPU, 43 モデル生成部, 63 姿勢推定部, 64 類似度計算部, 65 表示制御部, 90 情報処理システム, 91 クラウドサーバ, 92 情報処理装置, 100 情報処理装置, 101 CPU, 122 モデル生成部, 123 類似度計算部, 124 表示制御部, 200 情報処理システム, 201 クラウドサーバ, 202 情報処理装置

Claims (13)

  1. モデルとするジェスチャにおける時系列の姿勢を表す姿勢モデルと、動画像データの被写体の時系列の姿勢を表す姿勢データである対象姿勢データとに基づいて、前記姿勢モデルと前記対象姿勢データの類似度を計算する類似度計算部と、
    前記類似度計算部により計算された前記類似度に基づいて、画面を表示部に表示させる表示制御部と
    を備える情報処理装置。
  2. 前記表示制御部は、前記類似度と前記動画像データに対応する画像を含む前記画面を表示部に表示させる
    請求項1に記載の情報処理装置。
  3. 前記類似度計算部は、前記姿勢モデルと、複数の前記動画像データの前記対象姿勢データとに基づいて、前記動画像データごとに前記類似度を計算し、
    前記表示制御部は、前記複数の動画像データの前記類似度のうちの最も大きい類似度に対応する動画像データに基づく画像を含む前記画面を、前記表示部に表示させる
    請求項1に記載の情報処理装置。
  4. 前記類似度計算部は、前記姿勢モデルと、複数の前記動画像データの前記対象姿勢データとに基づいて、前記動画像データごとに前記類似度を計算し、
    前記表示制御部は、前記類似度が所定の範囲である動画像データに対応する画像を含む前記画面を、前記表示部に表示させる
    請求項1に記載の情報処理装置。
  5. 前記モデルとするジェスチャを行う被写体の動画像データから、前記姿勢モデルを生成するモデル生成部
    をさらに備え、
    前記類似度計算部は、前記モデル生成部により生成された前記姿勢モデルと、前記対象姿勢データとに基づいて、前記類似度を計算する
    請求項1に記載の情報処理装置。
  6. 前記モデル生成部は、前記モデルとするジェスチャを行う被写体の複数の動画像データの姿勢データを用いて、前記モデルとするジェスチャにおける時系列の姿勢をモデル化することにより、前記姿勢モデルを生成する
    請求項5に記載の情報処理装置。
  7. 前記モデル生成部は、前記モデルとするジェスチャを行う被写体の少なくとも1つの動画像データの姿勢データをベクトル化し、その結果得られる前記姿勢データのベクトルを最適化することにより、前記姿勢モデルを生成する
    請求項5に記載の情報処理装置。
  8. 前記動画像データから前記対象姿勢データを生成する姿勢推定部
    をさらに備え、
    前記類似度計算部は、前記姿勢モデルと、前記姿勢推定部により生成された前記対象姿勢データとに基づいて、前記類似度を計算する
    請求項1に記載の情報処理装置。
  9. 情報処理装置が、
    モデルとするジェスチャにおける時系列の姿勢を表す姿勢モデルと、動画像データの被写体の時系列の姿勢を表す姿勢データである対象姿勢データとに基づいて、前記姿勢モデルと前記対象姿勢データの類似度を計算する類似度計算ステップと、
    前記類似度計算ステップの処理により計算された前記類似度に基づいて、画面を表示部に表示させる表示制御ステップと
    を含む情報処理方法。
  10. モデルとするジェスチャを行う被写体の動画像データから、そのジェスチャにおける時系列の姿勢を表す姿勢モデルを生成するモデル生成部と、
    前記姿勢モデルを送信する送信部と
    を有する第1の情報処理装置と、
    前記送信部により送信されてくる前記姿勢モデルを受信する受信部と、
    動画像データから被写体の時系列の姿勢を表す姿勢データを対象姿勢データとして生成する姿勢推定部と、
    前記受信部により受信された前記姿勢モデルと、前記姿勢推定部により生成された前記対象姿勢データとに基づいて、前記姿勢モデルと前記対象姿勢データの類似度を計算する類似度計算部と、
    前記類似度計算部により計算された前記類似度に基づいて、画面を表示部に表示させる表示制御部と
    を有する第2の情報処理装置と
    を備える情報処理システム。
  11. 動画像データから被写体の時系列の姿勢を表す姿勢データを対象姿勢データとして生成する姿勢推定部と、
    前記姿勢推定部により生成された前記対象姿勢データを送信する送信部と
    を有する第1の情報処理装置と、
    前記送信部により送信されてくる前記対象姿勢データを受信する受信部と、
    モデルとするジェスチャを行う被写体の動画像データから、そのジェスチャにおける時系列の姿勢を表す姿勢モデルを生成するモデル生成部と、
    前記受信部により受信された対象姿勢データと、前記モデル生成部により生成された前記姿勢モデルとに基づいて、前記姿勢モデルと前記対象姿勢データの類似度を計算する類似度計算部と、
    前記類似度計算部により計算された前記類似度に基づいて、画面を表示部に表示させる表示制御部と
    を有する第2の情報処理装置と
    を備える情報処理システム。
  12. モデルとするジェスチャを行う被写体の動画像データから、そのジェスチャにおける時系列の姿勢を表す姿勢モデルを生成するモデル生成部と、
    動画像データから生成された被写体の時系列の姿勢を表す姿勢データを対象姿勢データとして受信する姿勢受信部と、
    前記モデル生成部により生成された前記姿勢モデルと、前記姿勢受信部により受信された前記対象姿勢データとに基づいて、前記姿勢モデルと前記対象姿勢データの類似度を計算する類似度計算部と、
    前記類似度計算部により計算された前記類似度を送信する類似度送信部と
    を有する第1の情報処理装置と、
    前記動画像データから前記対象姿勢データを生成する姿勢推定部と、
    前記姿勢推定部により生成された前記対象姿勢データを送信する姿勢送信部と、
    前記類似度送信部により送信されてくる前記類似度を受信する類似度受信部と、
    前記類似度受信部により受信された前記類似度に基づいて、画面を表示部に表示させる表示制御部と
    を有する第2の情報処理装置と
    を備える情報処理システム。
  13. 動画像データから被写体の時系列の姿勢を表す姿勢データを対象姿勢データとして生成する姿勢推定部と、
    モデルとするジェスチャを行う被写体の動画像データから生成された、そのジェスチャにおける時系列の姿勢を表す姿勢モデルを受信するモデル受信部と、
    前記姿勢推定部により生成された対象姿勢データと、前記モデル受信部により生成された前記姿勢モデルとに基づいて、前記姿勢モデルと前記対象姿勢データの類似度を計算する類似度計算部と、
    前記類似度計算部により計算された前記類似度を送信する類似度送信部と
    を有する第1の情報処理装置と、
    前記モデルとするジェスチャを行う被写体の動画像データから前記姿勢モデルを生成するモデル生成部と、
    前記モデル生成部により生成された前記姿勢モデルを送信するモデル送信部と、
    前記類似度送信部により送信されてくる前記類似度を受信する類似度受信部と、
    前記類似度受信部により受信された前記類似度に基づいて、画面を表示部に表示させる表示制御部と
    を有する第2の情報処理装置と
    を備える情報処理システム。
JP2012076221A 2012-03-29 2012-03-29 情報処理装置、情報処理方法、および情報処理システム Pending JP2013206273A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012076221A JP2013206273A (ja) 2012-03-29 2012-03-29 情報処理装置、情報処理方法、および情報処理システム
PCT/JP2013/001912 WO2013145654A1 (en) 2012-03-29 2013-03-21 Information processing method to calculate a similarity between a posture model and posture data
US14/379,923 US9852358B2 (en) 2012-03-29 2013-03-21 Information processing device, information processing method, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012076221A JP2013206273A (ja) 2012-03-29 2012-03-29 情報処理装置、情報処理方法、および情報処理システム

Publications (1)

Publication Number Publication Date
JP2013206273A true JP2013206273A (ja) 2013-10-07

Family

ID=48140117

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012076221A Pending JP2013206273A (ja) 2012-03-29 2012-03-29 情報処理装置、情報処理方法、および情報処理システム

Country Status (3)

Country Link
US (1) US9852358B2 (ja)
JP (1) JP2013206273A (ja)
WO (1) WO2013145654A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020054954A1 (en) * 2018-09-11 2020-03-19 Samsung Electronics Co., Ltd. Method and system for providing real-time virtual feedback
JP2020145527A (ja) * 2019-03-05 2020-09-10 日本放送協会 番組映像制作装置、動作モデル学習装置およびカメラモデル学習装置、ならびに、それらのプログラム
WO2021192143A1 (ja) * 2020-03-26 2021-09-30 ソニーグループ株式会社 情報処理方法、情報処理装置および情報処理システム
JP6959462B1 (ja) * 2020-09-15 2021-11-02 Kddi株式会社 画像表示装置、プログラム及び画像表示システム

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11921471B2 (en) 2013-08-16 2024-03-05 Meta Platforms Technologies, Llc Systems, articles, and methods for wearable devices having secondary power sources in links of a band for providing secondary power in addition to a primary power source
US20150124566A1 (en) 2013-10-04 2015-05-07 Thalmic Labs Inc. Systems, articles and methods for wearable electronic devices employing contact sensors
US10042422B2 (en) 2013-11-12 2018-08-07 Thalmic Labs Inc. Systems, articles, and methods for capacitive electromyography sensors
WO2015081113A1 (en) 2013-11-27 2015-06-04 Cezar Morun Systems, articles, and methods for electromyography sensors
US9880632B2 (en) 2014-06-19 2018-01-30 Thalmic Labs Inc. Systems, devices, and methods for gesture identification
US20170076629A1 (en) * 2015-09-14 2017-03-16 Electronics And Telecommunications Research Institute Apparatus and method for supporting choreography
US11331045B1 (en) 2018-01-25 2022-05-17 Facebook Technologies, Llc Systems and methods for mitigating neuromuscular signal artifacts
US11000211B2 (en) 2016-07-25 2021-05-11 Facebook Technologies, Llc Adaptive system for deriving control signals from measurements of neuromuscular activity
US11216069B2 (en) 2018-05-08 2022-01-04 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
US11635736B2 (en) 2017-10-19 2023-04-25 Meta Platforms Technologies, Llc Systems and methods for identifying biological structures associated with neuromuscular source signals
WO2018022657A1 (en) 2016-07-25 2018-02-01 Ctrl-Labs Corporation System and method for measuring the movements of articulated rigid bodies
US10990174B2 (en) 2016-07-25 2021-04-27 Facebook Technologies, Llc Methods and apparatus for predicting musculo-skeletal position information using wearable autonomous sensors
US11179066B2 (en) 2018-08-13 2021-11-23 Facebook Technologies, Llc Real-time spike detection and identification
CN110337269B (zh) 2016-07-25 2021-09-21 脸谱科技有限责任公司 基于神经肌肉信号推断用户意图的方法和装置
WO2018218414A1 (zh) * 2017-05-27 2018-12-06 深圳市柔宇科技有限公司 一种数据处理方法及装置
US11907423B2 (en) 2019-11-25 2024-02-20 Meta Platforms Technologies, Llc Systems and methods for contextualized interactions with an environment
US11567573B2 (en) 2018-09-20 2023-01-31 Meta Platforms Technologies, Llc Neuromuscular text entry, writing and drawing in augmented reality systems
US11493993B2 (en) 2019-09-04 2022-11-08 Meta Platforms Technologies, Llc Systems, methods, and interfaces for performing inputs based on neuromuscular control
WO2019147958A1 (en) * 2018-01-25 2019-08-01 Ctrl-Labs Corporation User-controlled tuning of handstate representation model parameters
US11481030B2 (en) 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
WO2019147996A1 (en) 2018-01-25 2019-08-01 Ctrl-Labs Corporation Calibration techniques for handstate representation modeling using neuromuscular signals
EP3743892A4 (en) 2018-01-25 2021-03-24 Facebook Technologies, Inc. VISUALIZATION OF INFORMATION ON THE STATE OF A RECONSTRUCTED HAND
CN111902847A (zh) 2018-01-25 2020-11-06 脸谱科技有限责任公司 手部状态表示模型估计的实时处理
US10817795B2 (en) 2018-01-25 2020-10-27 Facebook Technologies, Llc Handstate reconstruction based on multiple inputs
US10937414B2 (en) 2018-05-08 2021-03-02 Facebook Technologies, Llc Systems and methods for text input using neuromuscular information
US11150730B1 (en) 2019-04-30 2021-10-19 Facebook Technologies, Llc Devices, systems, and methods for controlling computing devices via neuromuscular signals of users
US10504286B2 (en) 2018-01-25 2019-12-10 Ctrl-Labs Corporation Techniques for anonymizing neuromuscular signal data
US11961494B1 (en) 2019-03-29 2024-04-16 Meta Platforms Technologies, Llc Electromagnetic interference reduction in extended reality environments
US10592001B2 (en) 2018-05-08 2020-03-17 Facebook Technologies, Llc Systems and methods for improved speech recognition using neuromuscular information
CN112469469A (zh) 2018-05-25 2021-03-09 脸谱科技有限责任公司 用于提供肌肉下控制的方法和装置
EP3801216A4 (en) 2018-05-29 2021-04-14 Facebook Technologies, LLC. SHIELDING TECHNIQUES FOR NOISE REDUCTION IN SURFACE ELECTROMYOGRAPHY SIGNAL MEASUREMENT AND RELATED SYSTEMS AND METHODS
EP3807795A4 (en) 2018-06-14 2021-08-11 Facebook Technologies, LLC. USER IDENTIFICATION AND AUTHENTICATION BY MEANS OF NEUROMUSCULAR SIGNATURES
US11045137B2 (en) 2018-07-19 2021-06-29 Facebook Technologies, Llc Methods and apparatus for improved signal robustness for a wearable neuromuscular recording device
US10905350B2 (en) 2018-08-31 2021-02-02 Facebook Technologies, Llc Camera-guided interpretation of neuromuscular signals
WO2020069181A1 (en) 2018-09-26 2020-04-02 Ctrl-Labs Corporation Neuromuscular control of physical objects in an environment
EP3860527A4 (en) 2018-10-05 2022-06-15 Facebook Technologies, LLC. USING NEUROMUSCULAR SIGNALS TO PROVIDE ENHANCED INTERACTIONS WITH PHYSICAL OBJECTS IN AN AUGMENTED REALITY ENVIRONMENT
US11797087B2 (en) 2018-11-27 2023-10-24 Meta Platforms Technologies, Llc Methods and apparatus for autocalibration of a wearable electrode sensor system
US10905383B2 (en) 2019-02-28 2021-02-02 Facebook Technologies, Llc Methods and apparatus for unsupervised one-shot machine learning for classification of human gestures and estimation of applied forces
US11868531B1 (en) 2021-04-08 2024-01-09 Meta Platforms Technologies, Llc Wearable device providing for thumb-to-finger-based input gestures detected based on neuromuscular signals, and systems and methods of use thereof

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4074366B2 (ja) * 1998-02-24 2008-04-09 コニカミノルタビジネステクノロジーズ株式会社 画像検索装置及び方法並びに画像検索プログラムを記録した記録媒体
KR100605050B1 (ko) * 1999-09-08 2006-07-26 주식회사 팬택앤큐리텔 인간의 3차원 자세 검색방법 및 장치
JP4473754B2 (ja) * 2005-03-11 2010-06-02 株式会社東芝 仮想試着装置
KR100708130B1 (ko) * 2005-05-04 2007-04-17 삼성전자주식회사 동영상 추출장치 및 방법
US8953909B2 (en) * 2006-01-21 2015-02-10 Elizabeth T. Guckenberger System, method, and computer software code for mimic training
JP4267648B2 (ja) * 2006-08-25 2009-05-27 株式会社東芝 インターフェース装置及びその方法
US8113991B2 (en) * 2008-06-02 2012-02-14 Omek Interactive, Ltd. Method and system for interactive fitness training program
JP4806706B2 (ja) * 2008-12-18 2011-11-02 株式会社日立製作所 解析モデルの変形方法および計算機
JP2010176380A (ja) * 2009-01-29 2010-08-12 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体
JP2012009957A (ja) 2010-06-22 2012-01-12 Sharp Corp 評価情報通知装置、コンテンツ提示装置、コンテンツ評価システム、評価情報通知装置の制御方法、評価情報通知装置の制御プログラムおよびコンピュータ読み取り可能な記録媒体
CN102571624A (zh) * 2010-12-20 2012-07-11 英属维京群岛商速位互动股份有限公司 实时通信系统及相关的计算器可读介质
KR20130098770A (ko) * 2012-02-28 2013-09-05 한국전자통신연구원 입체감 확장형 가상 스포츠 체험 시스템

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020054954A1 (en) * 2018-09-11 2020-03-19 Samsung Electronics Co., Ltd. Method and system for providing real-time virtual feedback
US11726550B2 (en) 2018-09-11 2023-08-15 Samsung Electronics Co., Ltd. Method and system for providing real-time virtual feedback
JP2020145527A (ja) * 2019-03-05 2020-09-10 日本放送協会 番組映像制作装置、動作モデル学習装置およびカメラモデル学習装置、ならびに、それらのプログラム
JP7274307B2 (ja) 2019-03-05 2023-05-16 日本放送協会 番組映像制作装置およびカメラモデル学習装置、ならびに、それらのプログラム
WO2021192143A1 (ja) * 2020-03-26 2021-09-30 ソニーグループ株式会社 情報処理方法、情報処理装置および情報処理システム
JP6959462B1 (ja) * 2020-09-15 2021-11-02 Kddi株式会社 画像表示装置、プログラム及び画像表示システム
JP2022048957A (ja) * 2020-09-15 2022-03-28 Kddi株式会社 画像表示装置、プログラム及び画像表示システム

Also Published As

Publication number Publication date
US20150035827A1 (en) 2015-02-05
US9852358B2 (en) 2017-12-26
WO2013145654A1 (en) 2013-10-03

Similar Documents

Publication Publication Date Title
JP2013206273A (ja) 情報処理装置、情報処理方法、および情報処理システム
US11379287B2 (en) System and method for error detection and correction in virtual reality and augmented reality environments
US10139921B2 (en) Electrical device for hand gestures detection
US9690982B2 (en) Identifying gestures or movements using a feature matrix that was compressed/collapsed using principal joint variable analysis and thresholds
KR102640420B1 (ko) 홈 로봇 장치의 동작 운용 방법 및 이를 지원하는 홈 로봇 장치
CN107428004B (zh) 对象数据的自动收集和标记
US11030773B2 (en) Hand tracking based on articulated distance field
JP2021144679A (ja) 視覚ベースの関節動作と姿勢運動の予想のためのシステム、コンピュータ実施方法、及びプログラム
EP3874458A1 (en) Cross-domain image translation
Bleser et al. Cognitive learning, monitoring and assistance of industrial workflows using egocentric sensor networks
US11055891B1 (en) Real time styling of motion for virtual environments
CN112106042A (zh) 电子设备及其控制方法
Núnez et al. Real-time human body tracking based on data fusion from multiple RGB-D sensors
Varona et al. Toward natural interaction through visual recognition of body gestures in real-time
JP6655513B2 (ja) 姿勢推定システム、姿勢推定装置、及び距離画像カメラ
KR101515845B1 (ko) 동작 인식 방법 및 동작 인식 장치
Bakalos et al. Dance posture/steps classification using 3D joints from the kinect sensors
WO2023091131A1 (en) Methods and systems for retrieving images based on semantic plane features
Aslanyan On mobile pose estimation design and implementation
KR102563522B1 (ko) 사용자의 얼굴을 인식하는 장치, 방법 및 컴퓨터 프로그램
KR102612430B1 (ko) 전이학습을 이용한 딥러닝 기반 사용자 손 동작 인식 및 가상 현실 콘텐츠 제공 시스템
WO2022102236A1 (ja) 情報処理装置、情報処理方法およびプログラム
Xie Robot Learning from Interactions with Physics-Realistic Environment: Constructing Big Task Platform for Training AI Agents
CN108519823B (zh) 基于终端的人机交互数据的处理方法和装置
KR20220040148A (ko) 동작 흐름 데이터 생성 방법, 상기 동작 흐름 데이터를 이용한 동작 유사 판단 방법, 동작 흐름 데이터 처리 장치 및 시스템