JP2014137725A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2014137725A
JP2014137725A JP2013006308A JP2013006308A JP2014137725A JP 2014137725 A JP2014137725 A JP 2014137725A JP 2013006308 A JP2013006308 A JP 2013006308A JP 2013006308 A JP2013006308 A JP 2013006308A JP 2014137725 A JP2014137725 A JP 2014137725A
Authority
JP
Japan
Prior art keywords
posture
viewpoint
unit
visualization
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013006308A
Other languages
English (en)
Other versions
JP6143469B2 (ja
Inventor
Mahoro Anabuki
まほろ 穴吹
Yasuo Katano
康生 片野
Masakazu Matsugi
優和 真継
Masahiro Suzuki
雅博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013006308A priority Critical patent/JP6143469B2/ja
Priority to US14/156,337 priority patent/US10262199B2/en
Publication of JP2014137725A publication Critical patent/JP2014137725A/ja
Application granted granted Critical
Publication of JP6143469B2 publication Critical patent/JP6143469B2/ja
Priority to US16/360,488 priority patent/US10657366B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】姿勢を可視化するためのシステム全体の配置に関する制約を減少させる。
【解決手段】姿勢認識部102は、撮影部101により所定の視点から撮影された現実空間の画像データに基づいて、現実空間の画像データに映る被写体の姿勢を認識する。姿勢可視化視点設定部103は、上記所定の視点とは異なる視点を設定する。姿勢可視化部104は、姿勢認識部102により認識された被写体の姿勢に基づいて、姿勢可視化視点設定部103により設定された視点から見た被写体の姿勢の鏡像を可視化する。空間表示部105は、姿勢可視化部104により可視化された被写体の姿勢の鏡像と、現実空間の鏡像とをともに表示する。
【選択図】図1

Description

本発明は、姿勢を可視化するための技術に関するものである。
顔を前に向けて普通に立ったときの姿勢の傾きは、その人の健康状態を判断する指標の一つである。例えば、小脳梗塞になると、平衡機能障害が起こって、まっすぐ立てなかったりふらついたりする。パーキンソン病になると、体の筋肉が硬直して、まっすぐ立っていてもだんだん体が斜め前に傾いたりする人が多い。そういった疾患がなくとも、体のバランスを崩して、左右の肩の高さが違っていたり、背中が前に丸まっていたりすると、首や腰等の体の各部に痛みが出たり、自律神経の働きに影響が出て内臓器官の機能が低下したりする。このように、まっすぐに立っているかどうかは、その人の健康度合いを知る一つの指標となっている。
自分で自分がまっすぐに立てているかどうかを知るためには、例えば鏡の前に立って自分を見ればよい。そうすれば、自分の体が左右に傾いているかどうかは、目で見てわかる。しかし、自分の体が前後に傾いているかどうかは、鏡を見てもはっきりとは分からない。鏡に対して横向きに立ち、顔を鏡の方へ向ければ、自分の正面ではなく側面を鏡に映すことはできるが、その姿勢は「顔を前に向けて普通に立ったときの姿勢」ではないため、その姿勢から正しく健康状態を推し量ることはできない。また、体が左右に傾いているかどうかを見ることができなくなる。
これに対し、特許文献1には、前を向いたまま、正面以外から見た自分の姿勢を見るための技術が開示されている。特許文献1に開示される技術においては、利用者を正面以外の位置から撮影し、その撮影画像を利用者と正対する位置に置かれるハーフミラーの背後から提示することができる。この技術を用いて、利用者を側面の位置から撮影すれば、その撮影画像が利用者の正面に提示されるため、利用者は自分が前後にどの程度傾いて立っているかを、前を向いたまま目で確認することができる。このとき、利用者と正対する位置に置かれるハーフミラーには、利用者を正面から見た姿勢が示されるため、利用者は自分が左右にどの程度傾いて立っているかも、同時に目で確認することができる。
特許第4654905号公報
しかしながら、特許文献1に開示される技術では、利用者に見せる正面以外の姿勢を撮影できる位置に必ず撮影手段を配置しなければならない。そして、その配置は固定的であるため、利用者に見せる姿勢の向きを自由に変更することはできない。従って、利用者の立つ向きを規定しなければ、利用者の前後左右の傾きがわかるような姿勢を撮影することができない可能性がある。
そこで、本発明の目的は、姿勢を可視化するためのシステム全体の配置に関する制約を減少させることにある。
本発明の情報処理装置は、撮影手段により所定の視点から撮影された現実空間の画像データに基づいて、前記現実空間の画像データに映る被写体の姿勢を認識する認識手段と、前記所定の視点とは異なる視点を設定する設定手段と、前記認識手段により認識された前記被写体の姿勢に基づいて、前記設定手段により設定された前記視点から見た前記被写体の姿勢の像を生成する生成手段と、前記生成手段により生成された前記被写体の姿勢の像を表示手段において表示させる表示制御手段とを有することを特徴とする。
本発明によれば、姿勢を可視化するためのシステム全体の配置に関する制約を減少させることが可能となる。
本発明の第1の実施形態に係る姿勢可視化装置の構成を示す図である。 人体モデルの例を示す図である。 人体モデルの例を示す図である。 第1の視点、第2の視点及び第3の視点の位置関係の例を示す図である。 利用者が目にする空間表示部の表示内容の例を示す図である。 利用者の姿勢の鏡像と基準姿勢の鏡像とが表示された例を示す図である。 本発明の第1の実施形態に係る姿勢可視化装置の処理を示すフローチャートである。 本発明の第2の実施形態に係る姿勢可視化装置の構成を示す図である。 本発明の第2の実施形態における姿勢可視化部による可視化結果の例を示す図である。 本発明の第2の実施形態に係る姿勢可視化装置の処理を示すフローチャートである。 利用者の人体の3次元形状を正面、側面及び状面の三方向から提示した例を示す図である。 本発明の第3の実施形態に係る姿勢可視化装置の構成を示す図である。 本発明の第3の実施形態における姿勢認識部の処理を説明するための図である。 本発明の第3の実施形態に係る姿勢可視化装置の処理を示すフローチャートである。 利用者の姿勢の鏡像と後方向の傾きがより見える視点から見た姿勢の可視化結果とが表示された例を示す図である。
以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。
先ず、本発明の第1の実施形態について説明する。第1の実施形態に係る姿勢可視化装置は、病院の整形外科やリハビリテーション科の施術室又はリハビリテーション室等に配置され、そこへ来た患者(以下、利用者と称す)が理学療法士の指導のもとで利用するものである。なお、第1の実施形態に係る姿勢可視化装置は、当該姿勢可視化装置に正対してスクワットをする利用者に、姿勢の前傾度合いを目で見てわかるように可視化して、正面から見た利用者の姿勢とともに提示するものである。
図1は、第1の実施形態に係る姿勢可視化装置100の構成を示す図である。図1に示すように、姿勢可視化装置100は、撮影部101、姿勢認識部102、姿勢可視化視点設定部103、姿勢可視化部104、空間表示部105、基準姿勢保持部106、基準姿勢可視化部107及び姿勢比較部108を備える。なお、姿勢認識部102、姿勢可視化視点設定部103、姿勢可視化部104、基準姿勢可視化部107及び姿勢比較部108は、姿勢可視化装置100内のCPUがHDD等の記録媒体から必要なデータ及びプログラムを読み込んで実行することにより実現する機能的な構成である。基準姿勢保持部106は、HDD等の記録媒体における一部記憶領域に相当する構成である。なお、図1に示す姿勢可視化装置100は、情報処理装置の例となる構成である。
撮影部101は、距離計測カメラであり、その撮影視点(以下、第1の視点と称す)から撮影視野内に映る被写体までの距離を測り、その結果を距離情報として出力する。この距離情報としては、例えば、計測距離値を画素値とした距離画像データが挙げられる。
また、撮影部101は、後述する空間表示部105の前方を距離計測範囲とするような位置に配置される。例えば、撮影部101は、空間表示部105の上部に斜め下向きに配置される。すると、姿勢可視化装置100の利用者が空間表示部105の前に立つと、撮影部101は、その人体形状を計測することができる。
撮影部101による距離計測方法としては、例えば、複数の可視光カメラで撮影された画像データを用いたステレオ法、Time−Of−Flight法、パターン光投影による三角測量方式、及び、撮像光学系のデフォーカス情報に基づく方法等が挙げられる。撮影部101から出力される距離情報は、姿勢認識部102に対して出力される。
姿勢認識部102は、撮影部101から距離情報を入力し、その距離情報に含まれる利用者の人体形状から、利用者の姿勢を3次元的に認識する。即ち、姿勢認識部102は、第1の視点から見た、利用者の人体を構成する各パーツの3次元的な位置を認識する。
利用者の人体形状を含む距離情報から人物の姿勢を認識する方法は、例えば次の文献1に開示されている。
<文献1>
J.Shotton,A.Fitzgibbon,M.Cook,T.Sharp, M. Finocchio, R. Moore, A. Kipman, and A. Blake: Real−Time Human Pose Recognition in Parts from a Single Depth Image. CVPR 2011
距離情報が距離画像データである場合、次のような方法で人物の姿勢が認識される。先ず、姿勢認識部102は、撮影部101から入力される距離画像データを画素値に基づいて領域分割し、その中から撮影部101の撮影視点の位置から1m〜4m程度の距離にあって、且つ、ある基準以上の大きさを持った領域を、人体領域として切り出す。次に、姿勢認識部102は、予め用意された人体モデル(人体3次元モデル)を、そのパーツ(頭、手、足、胴等、人体を構成する部分)の位置及び姿勢を3次元的に変更しながら、切り出した人体領域に当てはめる。姿勢認識部102は、切り出した人体領域に適切に人体モデルを当てはめると、その人体モデルで表現される人物の姿勢、即ち、各パーツの第1の視点に対する位置を認識結果とする。各パーツを球で表現し、パーツ間の繋がりを線分で表現すると、人物の姿勢認識結果である各パーツの位置は、例えば、図2(a)又は図2(b)に示すように表現することができる。図2(a)は、(正面から見た)撮影部101から見た人体モデルの例を示しており、図2(b)は、側面から見た人体モデルの例を示している。
もし、利用者が背筋を伸ばしてまっすぐに立っている姿勢であれば、図3(a)に示すように、姿勢認識結果に含まれる頭、左右の腰及び左右足のパーツは、全てある同一平面上におおよそ乗るような位置関係となる。一方、利用者が腰を前に曲げていれば、図3(b)に示すように、姿勢認識結果に含まれる頭及び左右の腰の位置の3点で決定される平面上に、左右の足のパーツは含まれないような位置関係となる。
姿勢を認識する他の方法としては、予め距離情報と人物の姿勢(パーツの位置関係)との対応関係を大量に学習しておき、距離情報が入力されると、その距離情報に対応する人物の姿勢を学習結果に基づいて決定する、といった方法がある。なお、姿勢認識部102の姿勢認識結果は、姿勢可視化視点設定部103及び姿勢可視化部104に対して出力される。
姿勢可視化視点設定部103は、利用者に提示する姿勢を見る視点の位置姿勢を設定する。ここで設定される位置姿勢は、利用者に対する相対的な位置姿勢であるが、これは、利用者に対する第1の視点の位置姿勢とは異なる。また、後述する空間表示部105により表示される空間には利用者が仮想的に含まれるが、その空間表示のための視点(以下、第2の視点と称す)の、その空間内での利用者に対する位置姿勢とも異なる。
即ち、姿勢可視化視点設定部103は、第1の視点とも第2の視点とも位置姿勢が異なる第3の視点を、利用者に提示する姿勢を見る視点として設定する。図4は、第1の視点、第2の視点及び第3の視点の位置関係の例を示す図である。姿勢可視化視点設定部103によって行われる、第1の視点とも第2の視点とも異なる第3の視点の設定方法については後述する。姿勢可視化視点設定部103により設定された第3の視点の位置姿勢は、姿勢可視化部104及び基準姿勢可視化部107に対して出力される。
姿勢可視化部104は、利用者に提示する姿勢を目で見てわかるように可視化する。具体的には、姿勢可視化部104は、姿勢可視化視点設定部103から入力される第3の視点から利用者を見たときの姿勢の鏡像を、姿勢認識部102から入力される姿勢認識結果に基づいて可視化する。例えば、姿勢可視化部104は、姿勢認識結果に示される人体の各パーツの位置に球のCGを配置し、連結した人体パーツ間に細い円柱CGを配置することにより、利用者の姿勢を図2に示すような人体モデルとして可視化する。次に、姿勢可視化部104は、その人体モデルに対して、第3の視点の位置姿勢に仮想カメラを配置する。次に、姿勢可視化部104は、その仮想カメラから見える人体モデルを描画した画像データを可視化結果とする。可視化結果は、空間表示部105及び姿勢比較部108に対して出力される。
空間表示部105は、ハーフミラーの裏にディスプレイを配置したものである。ハーフミラーには、利用者視点の鏡像位置から見た現実空間の鏡像が映る。本実施形態においては、空間表示部105による空間表示のための視点を「第2の視点」としたが、利用者視点の鏡像位置がそれとなる。そして、ディスプレイには、姿勢可視化部104から入力される第3の視点から見た利用者の姿勢の鏡像を可視化したものが表示される。従って、空間表示部105の前に利用者が立つと、利用者は、正面から見た(第2の視点から見た)自身の姿を含む現実空間の鏡像と、利用者を正面以外から見た(第2の視点とは異なる第3の視点から見た)姿勢の可視化結果とを見ることができる。図5は、利用者が目にする空間表示部105の表示内容の例を示す図である。図5において、501は、第2の視点から見た利用者の姿を含む現実空間の鏡像であり、502は、第3の視点から見た姿勢の可視化結果である。
また、空間表示部105を構成するディスプレイには、後述する基準姿勢可視化部107から入力される基準姿勢の鏡像の可視化結果や、姿勢比較部108から入力される姿勢比較結果も表示される。
基準姿勢保持部106は、リハビリテーションを実施する際の基準姿勢を表す姿勢データを保持している。本実施形態に係る姿勢可視化装置100は、スクワットをする利用者に対して姿勢の鏡像を可視化して提示するため、基準姿勢保持部106は、スクワットをするときの基準姿勢を表す姿勢データを保持している。
上記基準姿勢とは、例えば正しいスクワットの姿勢である。正しいスクワットの姿勢とは、例えば膝を屈曲させたときにも上半身が地面に対して垂直に立っているような姿勢である。これに対する悪いスクワットの姿勢とは、膝を屈曲させたときに上半身が前傾しているような姿勢である。また、基準姿勢は、例えば過去の利用者の姿勢であってもよい。
姿勢データは、姿勢認識部102から出力される姿勢認識結果と同等のものである。即ち、人体を構成する各パーツの相対的な位置関係を表すものが、基準姿勢保持部106にて保持される姿勢データである。基準姿勢保持部106にて保持される姿勢データは、基準姿勢可視化部107から参照される。
基準姿勢可視化部107は、利用者に提示する基準姿勢を目で見てわかるように可視化する。具体的には、基準姿勢可視化部107は、姿勢可視化視点設定部103から入力される第3の視点の位置姿勢に基づいて、基準姿勢保持部106にて保持される姿勢データを可視化する。可視化される姿勢は、利用者が基準姿勢をとったときに第3の視点から見える姿勢の鏡像である。可視化の方法は、姿勢可視化部104によって行われる方法と同様でよい。例えば、基準姿勢可視化部107は、姿勢データに示される人体の各パーツの位置に球のCGを配置し、連結した人体パーツ間に細い円柱CGを配置することにより、基準姿勢を図2に示すような人体モデルとして可視化する。次に、基準姿勢可視化部107は、その人体モデルに対して、第3の視点の位置姿勢に仮想カメラを配置する。次に、基準姿勢可視化部107は、その仮想カメラから見える人体モデルを描画した画像データを、可視化結果とする。この可視化結果は、空間表示部105及び姿勢比較部108に対して出力される。
姿勢比較部108は、姿勢可視化部104にて可視化された利用者の姿勢の鏡像と、基準姿勢可視化部107で可視化された基準姿勢の鏡像との比較を行う。即ち、姿勢比較部108は、両者の姿勢の鏡像の差を算出する。具体的には、姿勢比較部108は、両者の股関節の角度(例えば、右肩−右腰を結ぶベクトルと右腰−右膝を結ぶベクトルとの成す角度)や、膝関節の角度(例えば、右腰−右膝を結ぶベクトルと右膝−右足首を結ぶベクトルとの成す角度)の差を算出する。算出された両者の姿勢の差は、テキスト、グラフ又は図等によって表現される。例えば、図6に示すように、利用者の姿勢の鏡像601と基準姿勢の鏡像602とが、図2に示すような人体モデルとして同時に表示され、その両者を構成する人体の各パーツの位置の差異が大きいパーツが、図6の603に示すように強調表示される。このようにして表現された結果は、姿勢比較結果として空間表示部105に対して出力される。空間表示部105では、その姿勢比較結果が表示される。
ここで、姿勢可視化視点設定部103によって行われる、第1の視点とも第2の視点とも異なる第3の視点の設定方法について説明する。第3の視点は、第2の視点からでは分かりにくい利用者の姿勢の傾きを、よりよく見えるような位置姿勢に設定される。例えば、利用者が第2の視点に対して正対している場合、姿勢の左右方向の傾きは第2の視点から見ることができるが、姿勢の前後方向の傾きはわかりにくい。従って、このような場合、姿勢の前後方向の傾きがよりよく見えるような位置姿勢に設定される。例えば、第3の視点の位置姿勢は、次のように設定される。
先ず、姿勢可視化視点設定部103は、姿勢認識部102から入力される姿勢認識結果から、利用者のあるパーツA(頭部、視点又は胸部等)に対する第1の視点(撮影部101の撮影視点)の位置Bを得る。次に、姿勢可視化視点設定部103は、位置Bの高さ成分(重力方向成分)を、利用者のパーツAの高さ成分と同じにしたものを、位置B´として得る。次に、姿勢可視化視点設定部103は、その位置B´を、利用者のパーツAを通る鉛直ベクトル(重力方向ベクトル)を中心に、90度(又は−90度)回転させる。姿勢可視化視点設定部103は、位置B´を回転させて得られる位置B´´を、第3の視点の位置として設定する。最後に、姿勢可視化視点設定部103は、位置B´´から利用者のパーツAに向けた方向ベクトルを、第3の視点の姿勢とする。これにより、第3の視点は、利用者の右側(又は左側)に位置し、利用者のパーツAを見る方向を向くこととなる。
ここで、位置B´を利用者のパーツAを通る鉛直ベクトルを中心に、90度(又は−90度)回転させるとしたが、この角度の大きさはもちろん±90度に限らなくてよく、例えば人体の見え具合によって設定してもよい。人体の見え具合は、例えばエントロピーを使って定義することができる。即ち、ある視点から見る全視野の二次元的な面積をSとし、その視野中に映る人体の部分領域の二次元的な面積をAiとすると、人体の見え具合を示すエントロピーEは、次の式のように定式化することができる。
Figure 2014137725
このとき、Eが大きければ、人体の部分領域が視野中に大きく広がっているといえ、Eが小さければ、人体の部分領域が視野中に小さくまとまっているといえる。人体の構造を考えると、正面又は真後ろからみたときのエントロピーは大きく、真横から見たときのエントロピーが小さい。
従って、人体の見え具合によって上記の位置Bを利用者のパーツAを通る鉛直ベクトルを中心に回転させる角度を設定するとは、例えば、この人体の見え具合を示すエントロピーEが小さくなる角度を見つけて設定すればよい。具体的には、見え具合を示すエントロピーEが極小値になるまで、位置B´を利用者のパーツAを通る鉛直ベクトルを中心に少しずつ回転させていけばよい。なお、姿勢認識部102から入力される姿勢認識結果には、人体を構成するパーツの位置が示されている。そのため、連結する3つのパーツの位置で規定される三角形の上記の位置B´から見たときの二次元的な面積を、視野中に映る人体の部分領域の二次元的な面積とすればよい。
エントロピーEに基づいて、上記の位置B´を利用者のパーツAを通る鉛直ベクトルを中心に回転させる角度を設定すれば、利用者が空間表示部105に対してどのような角度で立つかに関わらず、人体の見え具合が同じ姿勢が可視化されることとなる。
ここに述べた以外でも、例えば次の文献2や文献3等の手法を利用して、人体の見え具合を算出してもよい。
<文献2>
Pere−Pau Vazquez, Miquel Feixas, Mateu Sbert, Wolfgang Heidrich: Automatic View Selection Using Viewpoint Entropy and its Application to Image−Based Modelling. Computer Graphics Forum, Volume 22, Issue 4, pages 689−700, December 2003
<文献3>
Peter M. Hall, Martin Owen: Simple Canonical Views. BMVC 2005
次に、図7を参照しながら、本発明の第1の実施形態に係る姿勢可視化装置100の処理について説明する。利用者が空間表示部105に向かってその前に立ち、姿勢可視化装置100をスタートさせることにより、図7に示す処理が開始される。なお、図7に示す処理は、本実施形態に係る姿勢可視化装置に内蔵されるCPUがROM等の記録媒体から必要データ及びプログラムを読み込んで実行することにより実現する処理である。
ステップS101において、撮影部101は、第1の視点の位置から撮影視野内に映る被写体までの距離を計測する。次に、撮影部101は、その計測結果を距離情報として姿勢認識部102に対して出力する。
ステップS102において、姿勢認識部102は、撮影部101から入力される距離情報に含まれる利用者の人体形状から、利用者の姿勢を3次元的に認識する。そして、当該姿勢認識結果は、姿勢可視化視点設定部103及び姿勢可視化部104に対して出力される。
ステップS103において、姿勢可視化視点設定部103は、利用者に提示する姿勢を見る視点(第3の視点)の位置姿勢を設定する。設定された第3の視点の位置姿勢は、姿勢可視化部104及び基準姿勢可視化部107に対して出力される。
ステップS104において、姿勢可視化部104は、姿勢可視化視点設定部103から入力される第3の視点から利用者を見たときの姿勢の鏡像を、姿勢認識部102から入力される姿勢認識結果に基づいて可視化する。この可視化結果は、空間表示部105及び姿勢比較部108に対して出力される。
ステップS105において、基準姿勢可視化部107は、姿勢可視化視点設定部103から入力される第3の視点の位置姿勢に基づいて、基準姿勢保持部106にて保持される姿勢データに示される基準姿勢の鏡像を可視化する。この可視化結果は、空間表示部105及び姿勢比較部108に対して出力される。なお、ステップS104とステップS105とを実施する順番は、逆であってもよいし、同時であってもよい。
ステップS106において、姿勢比較部108は、姿勢可視化部104にて可視化された利用者の姿勢の鏡像と、基準姿勢可視化部107で可視化される基準姿勢の鏡像とを比較する。即ち、姿勢比較部108は、両者の姿勢の差を算出する。算出された両者の姿勢の差は、テキスト、グラフ又は図等によって表現され、姿勢比較結果として空間表示部105に対して出力される。
ステップS107において、空間表示部105は、利用者に対して、利用者視点の鏡像位置(第2の視点)から見た現実空間の鏡像と、姿勢可視化部104から入力される第3の視点から見た利用者の姿勢の鏡像の可視化結果とを表示する。さらに、空間表示部105は、基準姿勢可視化部107から入力される基準姿勢の可視化結果と、姿勢比較部108から入力される姿勢比較結果とを表示する。その後、処理はステップS101に戻り、姿勢可視化装置100の利用が終了するまで、処理は繰り返される。
以上の処理により、姿勢可視化装置100は、図5に示すように、利用者に対し、左右方向の姿勢の傾きが見てわかるハーフミラーに映る鏡像と、その鏡像では分かりにくい前後方向の傾きがよく見える視点から見た姿勢の鏡像の可視化結果とを同時に提示する。これにより、利用者は、自身がまっすぐ立っているのか、左右前後どちらかへ傾いて立っているのかを、一目で見て把握することができる。さらに、基準姿勢の鏡像の可視化結果や、基準姿勢と利用者のそのときの姿勢との姿勢比較結果が提示されるため、利用者は基準姿勢とそのときの姿勢との違いをより実感することができる
なお、本実施形態において、撮影部101を空間表示部105の上部に配置するようにしたが、空間表示部105の下部や側部等、どこに配置するようにしてもよい。また、本実施形態において、空間表示部105をハーフミラーの裏にディスプレイを配置するようにしたが、その変形例として、ミラーの脇等にディスプレイを配置してもよい。なお、本実施形態では、鏡像の可視化結果を提示するようにしているが、他の実施形態として、非鏡像の可視化結果を提示するようにしてもよい。
第1の実施形態における撮影部101は、距離計測カメラであって、利用者が正対する空間表示部105の上部に配置されるが、第1の実施形態に係る姿勢可視化装置100は、姿勢可視化視点設定部103及び姿勢可視化部104を備えることにより、撮影部101の撮影位置(第1の視点)とは異なる第3の視点から見た姿勢の可視化結果を利用者に提示することができる。その可視化結果は、空間表示部105を構成するハーフミラーに映る利用者の鏡像とともに表示されるため、利用者は自身がまっすぐ立っているのか、左右前後どちらかへ傾いて立っているのかを、一目で把握することができる。即ち、第1の実施形態によれば、距離計測カメラを含むシステムを利用者の正面に配置するだけで、利用者に対して、正面から見た姿勢と正面以外の任意の方向から見た姿勢とを同時に提示することができる。
次に、本発明の第2の実施形態について説明する。第2の実施形態に係る姿勢可視化装置は、ゴルフ練習場等に置かれ、そこに来たゴルファーが自分のゴルフスイングフォームを確認する際に利用するものである。第2の実施形態に係る姿勢可視化装置は、この装置に対してゴルフスイングを行う利用者の、任意の二方向から見たときの姿勢を可視化して提示する。
図8は、第2の実施形態に係る姿勢可視化装置200の構成を示す図である。図8に示すように、第2の実施形態に係る姿勢可視化装置200は、撮影部201、姿勢認識部202、姿勢可視化視点設定部203、姿勢可視化部204、空間表示部205、基準姿勢保持部206、基準姿勢可視化部207、姿勢比較部208及び可視化結果記録部209を備える。なお、姿勢認識部202、姿勢可視化視点設定部203、姿勢可視化部204、基準姿勢可視化部207及び姿勢比較部208は、姿勢可視化装置100内のCPUがHDD等の記録媒体から必要なデータ及びプログラムを読み込んで実行することにより実現する機能的な構成である。基準姿勢保持部206及び可視化結果記録部209は、HDD等の記録媒体における一部記憶領域に相当する構成である。
撮影部201は、複数のカメラで構成される。撮影部201を構成する各カメラは、一般的な可視画像データを撮影するカメラであってもよいし、その撮影視点の位置から撮影視野内に映る被写体までの距離を測り、その結果を距離情報として出力するカメラでもよい。ここでいう距離情報とは、例えば計測距離値を画素値とした距離画像データである。両方のカメラが混在していてもよいし、どちらか一方のカメラだけが複数あってもよい。撮影部201を構成するカメラの撮影視点は複数存在するが、第2の実施形態では、それらを総称して第1の視点と称す。
撮影部201を構成する各カメラは、後述する空間表示部205の前方を撮影範囲とするような位置に配置される。例えば、空間表示部205の前方の空間を四方からぐるりと取り囲むように配置される。すると、姿勢可視化装置200の利用者が空間表示部205の前に立つと、その人体が撮影部201を構成する各カメラに撮影されることとなる。なお、撮影部201を構成するカメラは、2個以上であれば何個でもよい。撮影部201を構成する各カメラによって撮影される画像データは、姿勢認識部202に対して出力される。
姿勢認識部202は、撮影部201より複数の画像データを入力し、それらの画像データから、利用者の人体形状を3次元的に取得する。なお、姿勢認識部202によって行われる、複数の画像データからそこに映る人体の3次元形状を取得する方法は、例えば次の文献4に開示されるような方法が知られている。
<文献4>
Richard A. Newcombe, Shahram Izadi, Otmar Hilliges, David Molyneaux, David Kim, Andrew J. Davison, Pushmeet Kohli, Jamie Shotton, Steve Hodges, and Andrew Fitzgibbon, KinectFusion: Real−Time Dense Surface Mapping and Tracking, in IEEE ISMAR, IEEE, October 2011
具体的には、先ず、姿勢認識部202は、背景差分法等を用いて、画像データの中から人体領域を抽出する。ここで画像データが可視画像データであれば、人体の存在し得る空間中の範囲は、カメラのレンズ中心を頂点、物体領域を切り口とした錐体の内部に制約される。一方、画像データが距離画像データであれば、物体の存在し得る空間中の範囲は、その撮影視点から見た2.5次元的な距離マップの奥側に制約される。そうした、撮影部201を構成する各カメラによって撮影された画像データから抽出された人体の存在し得る空間の積をとることにより、姿勢認識部202は人体の3次元形状を取得する。姿勢認識部202の姿勢認識結果である人体の3次元形状は、姿勢可視化視点設定部203及び姿勢可視化部204に対して出力される。
姿勢可視化視点設定部203は、利用者に提示する姿勢を見る視点の位置姿勢を、二つ設定する。ここで設定される位置姿勢は、姿勢認識部202から入力される人体の3次元形状に対する相対的な位置姿勢であるが、これは、利用者に対する撮影部201を構成するカメラの撮影視点(第1の視点)の位置姿勢とは異なる。即ち、姿勢可視化視点設定部203は、上記第1の視点と位置姿勢が異なる第2の視点及び第3の視点を、利用者に提示する姿勢を見る視点として設定する。姿勢可視化視点設定部203によって行われる、第1の視点と異なる第2の視点及び第3の視点の設定方法については、後述する。姿勢可視化視点設定部203により設定された第2の視点及び第3の視点の位置姿勢は、姿勢可視化部204及び基準姿勢可視化部207に対して出力される。
姿勢可視化部204は、利用者に提示する姿勢を目で見てわかるように可視化する。具体的には、先ず、姿勢可視化部204は、姿勢認識部202から入力される姿勢認識結果であるところの人体の3次元形状を3次元仮想空間に配置した後、姿勢可視化視点設定部203から入力される第2の視点から見たその3次元仮想空間を描画する。次に、姿勢可視化部204は、姿勢可視化視点設定部203から入力される第3の視点から見たときの、姿勢認識部202から入力される人体の3次元形状を可視化する。次に、姿勢可視化部204は、第3の視点に基づいて可視化された人体の3次元形状を、第2の視点から見た3次元仮想空間の適当な場所に適当な大きさで重畳描画する。このようにして得られる画像データが姿勢可視化部204による姿勢の可視化結果である。
図9は、第2の実施形態における姿勢可視化部204による可視化結果の例を示す図である。図9の中央に描かれているのは、第2の視点から見た人体の3次元形状901であり、その脇に小さく描かれているのが、第3の視点から見た人体の3次元形状902である。図9に示すように、同じ人体の3次元形状が二つ描かれているが、見る視点が異なっている。上記の可視化結果は、姿勢比較部208及び可視化結果記録部209に対して出力される。
基準姿勢保持部206は、ゴルフスイング時の基準姿勢を表す姿勢データを保持している。基準姿勢とは、例えばプロゴルファーのゴルフスイング時の姿勢である。又は、過去の利用者のゴルフスイング時の姿勢であってもよい。姿勢データは、姿勢認識部202から出力される姿勢認識結果と同等のものである。即ち、人体の3次元形状が基準姿勢保持部206にて保持される姿勢データである。基準姿勢保持部206にて保持される姿勢データは、基準姿勢可視化部207から参照される。
基準姿勢可視化部207は、利用者に提示する基準姿勢を目で見てわかるように可視化する。具体的には、基準姿勢可視化部207は、姿勢可視化視点設定部203から入力される第3の視点の位置姿勢に基づいて、基準姿勢保持部206にて保持される姿勢データを可視化する。可視化される姿勢は、利用者が基準姿勢をとったときに第3の視点から見える姿勢である。この可視化結果は、可視化結果記録部209及び姿勢比較部208に対して出力される。
姿勢比較部208は、姿勢可視化部204にて可視化される利用者の姿勢と、基準姿勢可視化部207で可視化される基準姿勢との比較を行う。即ち、姿勢比較部208は、両者の姿勢の差を算出する。具体的には、姿勢比較部208は、両者の股関節の角度(例えば、右肩−右腰を結ぶベクトルと右腰−右膝を結ぶベクトルとの成す角度)や膝関節の角度(例えば、右腰−右膝を結ぶベクトルと右膝−右足首を結ぶベクトルとの成す角度)の差を算出する。又は、ある姿勢から別の姿勢に至るまでの時間や、その間のある人体部位の移動軌跡の差を算出してもよい。算出された両者の姿勢の差は、テキスト、グラフ又は図等によって表現され、姿勢比較結果として可視化結果記録部209に対して出力される。
可視化結果記録部209は、姿勢可視化部204から入力される3次元仮想空間を記録する。姿勢可視化部204から入力される3次元仮想空間は、全て単体の画像データとして記録してもよいし、時系列に並べた動画データとして記録してもよい。記録された3次元仮想空間は、空間表示部205から参照される。また、基準姿勢可視化部207から入力される基準姿勢の可視化結果や、姿勢比較部208から入力される姿勢比較結果も可視化結果記録部209において記録される。
空間表示部205は、所謂ディスプレイであり、可視化結果記録部209に記録される3次元仮想空間の画像データを表示する。姿勢可視化視点設定部203にて設定される二つの視点の位置姿勢のうちの一方を「第2の視点」としたが、その第2の視点から見た3次元仮想空間が空間表示部205にて表示される。第2の視点の先には、姿勢認識部202にて取得された人体の3次元形状が見えている。また、上述したように、その3次元仮想空間には、第3の視点に基づいて可視化された人体の3次元形状が重畳表示されている。従って、空間表示部205の前に利用者が立つと、利用者は、第2の視点から見た姿勢に相当する人体の3次元形状を含む3次元仮想空間と、利用者を第3の視点から見た姿勢に相当する人体の3次元形状とを、同時に見ることができる。なお、空間表示部205は、3次元仮想空間を左右反転させ、その鏡像を表示するようにしてもよい。
可視化結果記録部209には、複数の画像データが記録されているため、空間表示部205は、それを記録された時間順に、即ち、動画データとして表示してもよいし、任意の画像データをある一定時間表示してもよい。また、可視化結果記録部209には、基準姿勢可視化部207から入力される基準姿勢の可視化結果や、姿勢比較部208から入力される姿勢比較結果も記録されている。空間表示部205は、基準姿勢の可視化結果や姿勢比較結果を、3次元仮想空間上に重畳表示してもよい。
ここで、姿勢可視化視点設定部203によって行われる、第1の視点と異なる第2の視点及び第3の視点の設定方法について説明する。先ず、第2の視点は、第1の視点と異なるという条件下で任意に設定される。本実施形態の内容に照らせば、ゴルフスイングを行う人体の3次元形状の姿勢が分かりやすく見える位置姿勢に設定すればよい。例えば、人体の3次元形状の重心位置を中心とした(予め規定された)半径Rの球面上の点にあって、人体の3次元形状の重心位置に向けた視点位置全てにおいて、第1の実施形態の説明で用いた「見え具合を示すエントロピーE」を算出し、そのEが最大となる位置姿勢を、第2の視点にすればよい。人体形状の特徴を鑑みると、その人体形状を正面(又は、背面)から見る位置姿勢に第2の視点が置かれる場合に、エントロピーEが最大となる。勿論、これ以外の方法で第2の視点を設定してもよい。
第3の視点は、第2の視点からでは分かりにくい利用者の姿勢がより見えるような位置姿勢に設定される。例えば、第2の視点と同じく人体の3次元形状の重心位置を中心とした半径Rの球面上の点にあって、人体の3次元形状の重心位置から見て、第2の視点と直交するような位置の一つにあって、人体の3次元形状の重心位置に向けた視点位置を第3の視点とすればよい。このとき、第2の視点が人体の3次元形状を正面から見る位置に置かれている場合、第2の視点と高さが同じであるという条件をつければ、第3の視点は人体の3次元形状を横から見る位置に置かれることとなる。勿論、これ以外の方法で第3の視点を設定してもよい。
なお、第2の視点及び第3の視点の設定方法は、姿勢認識部202の姿勢認識結果に応じて変更してもよい。例えば、姿勢認識部202の姿勢認識結果がゴルフスイング前の姿勢のときは、見え具合を示すエントロピーEが最大ではなく最小となる位置姿勢を第2の視点にし、姿勢認識部202の姿勢認識結果がゴルフスイング開始後の姿勢のときは、見え具合を示すエントロピーEが最大となる位置姿勢を第2の視点とするように、設定してもよい。例えば、姿勢可視化視点設定部203は、姿勢認識部202から入力される姿勢認識結果に変化がない間、見え具合を示すエントロピーEが最小となる位置姿勢を第2の視点とすればよい。そして、姿勢認識部202から入力される姿勢認識結果が、直前に入力された結果から変化した場合、見え具合を示すエントロピーEが最大となる位置姿勢を第2の視点とすればよい。
利用者の運動内容によっても、第2の視点及び第3の視点の設定方法を変えてよい。例えば、利用者がゴルフスイングを行うのであれば、見え具合を示すエントロピーEが最大となる位置姿勢を第2の視点にし、利用者がヒップホップダンスを踊るのであれば、見え具合を示すエントロピーEが最小となる位置姿勢を第2の視点とするように設定してもよい。この場合、利用者がゴルフスイングを行うのか、ヒップホップダンスを踊るのかの判定は、姿勢認識部202より入力される姿勢認識結果に基づいて行われる。この場合、基準姿勢保持部206においては、基準姿勢となる、ゴルフスイング開始前の姿勢データとヒップホップダンス開始前の姿勢データとが事前に保持されている。姿勢可視化視点設定部203は、姿勢認識部202より入力される姿勢認識結果とそれぞれの姿勢データとの差異を算出して、より差異が小さい方の姿勢データに対応した運動が行われていると判定する。
次に、図10を参照しながら、第2の実施形態に係る姿勢可視化装置200の処理について説明する。利用者が空間表示部205に向かってその前に立ち、姿勢可視化装置200をスタートさせることにより、図10に示す処理が開始される。なお、図10に示す処理は、本実施形態に係る姿勢可視化装置200に内蔵されるCPUがROM等の記録媒体から必要なデータ及びプログラムを読み込んで実行することにより実現する処理である。
ステップS201において、姿勢可視化装置200は、撮影部201を構成するカメラにより空間表示部205の前方の空間を撮影する設定であるか否かを判定する。図8において不図示の設定手段により、空間表示部205の前方の空間を撮影する設定がなされている場合、処理はステップS202に移行する。一方、空間表示部205の前方の空間を撮影する設定がなされていない場合、処理はステップS210に移行する。
ステップS202において、撮影部201を構成するカメラは、空間表示部205の前方の空間を撮影する。撮影された複数の画像データは姿勢認識部202に対して出力される。ステップS203において、姿勢認識部202は、撮影部201から入力される複数の画像データから、利用者の人体形状を3次元的に生成する。姿勢認識部202により生成された人体の3次元形状は、姿勢可視化視点設定部203及び姿勢可視化部204に対して出力される。
ステップS204において、姿勢可視化視点設定部203は、利用者に提示する姿勢を見る視点の位置姿勢を二つ設定する。その二つの視点とは、利用者に対する撮影部201を構成するカメラの撮影視点(第1の視点)とは異なる、第2の視点及び第3の視点である。姿勢可視化視点設定部203により設定された第2の視点及び第3の視点の位置姿勢は、姿勢可視化部204に対して出力される。
ステップS205において、姿勢可視化部204は、姿勢認識部202から入力される姿勢認識結果であるところの人体の3次元形状を3次元仮想空間に配置した後、姿勢可視化視点設定部203から入力される第2の視点から見たときの、当該人体の3次元形状を可視化する。
ステップS206において、姿勢可視化部204は、姿勢可視化視点設定部203から入力される第3の視点から見たときの、姿勢認識部202から入力される人体の3次元形状を可視化する。次に、姿勢可視化部204は、第3の視点に基づいて可視化された人体の3次元形状を、第2の視点から見た3次元仮想空間の適当な場所に適当な大きさで重畳描画する。例えば、姿勢可視化部204は、事前に大きさ及び形状を決めておく「第3の視点から見た姿勢」表示用の領域(例えば、縦長の長方形領域)を、3次元仮想空間上にランダムに配置する。次に、姿勢可視化部204は、「第3の視点から見た姿勢」表示用の領域と、既に3次元仮想空間上に描画されている第2の視点から見た人体の3次元形状の描画領域とに重なりがあるか否かを判定する。そこで重なりがなければ、姿勢可視化部204は、そこに定めた「第3の視点から見た姿勢」表示用の領域に第3の視点に基づいて可視化された人体の3次元形状を描画する。一方、重なりがあれば、姿勢可視化部204は、再度「第3の視点から見た姿勢」表示用の領域を3次元仮想空間上にランダムに配置し直す処理を、第2の視点から見た人体の3次元形状の描画領域と重なりがなくなるまで繰り返す。その際、一定回数繰り返しても「第3の視点から見た姿勢」表示用の領域と第2の視点から見た人体の3次元形状の描画領域とが重なり続けた場合には、姿勢可視化部204は、「第3の視点から見た姿勢」表示用の領域を小さくして、再配置する。姿勢可視化部204は、こうした処理を、「第3の視点から見た姿勢」表示用領域の位置と大きさが決まるまで繰り返した後、決定した「第3の視点から見た姿勢」表示用の領域に第3の視点に基づいて可視化された人体の3次元形状を描画する。このようにして描画された3次元仮想空間は、姿勢可視化部204から可視化結果記録部209に対して出力される。なお、ステップS205とステップS206とを実施する順番は、逆であってもよいし、同時であってもよい。
ステップS207において、基準姿勢可視化部207は、姿勢可視化視点設定部203から入力される第3の視点の位置姿勢に基づいて、基準姿勢保持部206にて保持される姿勢データに示される基準姿勢を可視化する。この可視化結果は、可視化結果記録部209及び姿勢比較部208に対して出力される。
ステップS208において、姿勢比較部208は、姿勢可視化部204にて可視化される利用者の姿勢と、基準姿勢可視化部207で可視化される基準姿勢との比較を行う。即ち、姿勢比較部208は、両者の姿勢の差を算出する。算出された両者の姿勢の差は、テキスト、グラフ又は図等によって表現され、姿勢比較結果として可視化結果記録部209に対して出力される。
ステップS209において、可視化結果記録部209は、姿勢可視化部204から入力される3次元仮想空間、基準姿勢可視化部207から入力される基準姿勢の可視化結果、及び、姿勢比較部208から入力される比較結果を記録する。
ステップS210において、姿勢可視化装置200は、空間表示部205により3次元仮想空間を表示する設定となっているか否かを判定する。図8には不図示の設定手段により、空間表示部205により3次元仮想空間を表示する設定がなされていれば、処理はステップS211に移行する。一方、空間表示部205により3次元仮想空間を表示する設定がなされていなければ、処理はステップS201に移行する。
ステップS211において、空間表示部205は、可視化結果記録部209に記録されている3次元仮想空間又はその鏡像を表示する。ここで表示される3次元仮想空間又はその鏡像は、可視化結果記録部209に記録されている最新の画像データでもよいし、過去の画像データでもよい。加えて、その画像データ上に、基準姿勢の可視化結果と姿勢比較結果とが重畳表示される。その後、処理はステップS201に戻り、姿勢可視化装置200の利用が終了されるまで、処理が繰り返される。
以上により、姿勢可視化装置200は、図9に示すように、利用者に対して、二方向から見た利用者の人体の3次元形状901、902を同時に提示する。なお、図11に示すように、利用者の人体の3次元形状を正面1101、側面1102及び上面1103の三方向から示してもよいし、四方向以上から見た利用者の人体の3次元形状を示してもよい。この場合、姿勢可視化視点設定部203は、第4の視点や第5の視点等の新たな視点を加えて設定し、姿勢可視化部204は、加えて設定される視点分の人体の3次元形状を可視化する。
例えば、上記処理において、利用者がゴルフスイングを行っている間、撮影部201を構成するカメラにより空間表示部205の前方の空間を撮影するとともに、空間表示部205により3次元仮想空間を表示しない設定とする。そして、利用者がゴルフスイングを終えた後、撮影部201を構成するカメラにより空間表示部205の前方の空間を撮影せず、空間表示部205により3次元仮想空間を表示する設定とする。これにより、利用者は、ゴルフスイングを終えた後、自身のゴルフスイング中の姿勢(人体の3次元形状)を異なる二つの視点から動画として見ることが可能となる。
また、例えば、上記処理において、利用者がゴルフスイングをしている間、撮影部201を構成するカメラにより空間表示部205の前方の空間を撮影するとともに、空間表示部205により3次元仮想空間を表示しない設定とする。これにより、利用者は、ゴルフスイングをしながら、自身のゴルフスイング中の姿勢(人体の3次元形状)を異なる二つの視点から動画として見ることが可能となる。
利用者は、姿勢可視化装置200を用いて、例えば、自身を正面から見たときの姿勢と真横から見た姿勢とを同時に見れば、前者から体の上下左右のブレや捻じれを、後者から体と腕の前後方向のブレや捻じれを一目で把握することができる。
なお、第2の実施形態に係る姿勢可視化装置200によれば、利用者は、3次元仮想空間内に表現される自身の姿を、同時に二つの視点から見ることができるが、この二つの視点は互いに独立ではない。即ち、姿勢可視化視点設定部203は、一方の視点(第2の視点)からでは分かりにくい利用者の姿勢がよく見えるような位置姿勢を、もう一方の視点(第3の視点)として設定する。この点においても、本実施形態に係る姿勢可視化装置200は、一般に知られている複数の視点から見た3次元仮想空間を同時に表示するシステムとは異なる。
第2の実施形態によれば、利用者は、仮想空間内に表現される自身の姿を、同時に二視点から見ることができる。その二視点は、利用者を直接的に撮影している撮影部201を構成するカメラの撮影視点とは異なる。これは、システム全体の物理的な配置に関わらず、任意の二視点から見た利用者の姿勢を可視化することができるという効果を生む。加えて、この二視点は互いに独立ではなく、姿勢可視化視点設定部203に存在により、一方の視点(第2の視点)からでは分かりにくい利用者の姿勢がより見えるような位置姿勢が、もう一方の視点(第3の視点)として設定される。これは、3次元的な姿勢の傾き等が目で見てわかりやすい二つの姿勢を同時に利用者に対して提示できるという効果を生む。即ち、第2の実施形態によれば、設置場所の制約に合わせて自由に構成機器を配置できるシステムにより、利用者に対して、3次元的な姿勢の傾き等が目で見てわかりやすい二つの方向から見た姿勢を提示することができる。
次に、本発明の第3の実施形態について説明する。第3の実施形態に係る姿勢可視化装置は、アパレルショップや自宅のクローゼットの傍に置かれ、ショップで売られる洋服の試着時や、自宅での洋服選びの際に利用される。第3の実施形態に係る姿勢可視化装置は、この装置に正対して自身の姿を見る利用者に、姿勢の前傾度合いを目で見てわかるように可視化して、正面から見た利用者の姿勢とともに提示するものである。
図12は、第3の実施形態に係る姿勢可視化装置300の構成を示す図である。図12に示すように、第3の実施形態に係る姿勢可視化装置300は、撮影部301、姿勢認識部302、姿勢可視化視点設定部303、姿勢可視化部304、空間表示部305、個人データ保持部306、個人識別部307及び可視化結果記録部309を備える。なお、姿勢認識部302、姿勢可視化視点設定部303、姿勢可視化部304及び個人識別部307は、姿勢可視化装置300内のCPUがHDD等の記録媒体から必要なデータ及びプログラムを読み込んで実行することにより実現する機能的な構成である。また、個人データ保持部306及び可視化結果記録部309は、HDD等の記録媒体における一部記憶領域に相当する構成である。
撮影部301は、一般的な可視画像データを撮影するカメラである。撮影部301は、後述する空間表示部305の前方を撮影する位置に配置される。例えば、撮影部301は、空間表示部305の上部に斜め下向きに配置される。すると、姿勢可視化装置300の利用者が空間表示部305の前に立つと、その姿を撮影部301は撮影することとなる。本実施形態においては、撮影部301を構成するカメラの撮影視点を第1の視点とする。撮影部301から出力される撮影画像データは、個人識別部307、姿勢認識部302及び姿勢可視化部304に入力される。
個人識別部307は、撮影部301から撮影画像データを入力し、その撮影画像データに含まれる利用者の個人を識別する。利用者の個人を識別する方法は一般的な方法でよい。例えば、撮影画像データ中から顔領域を検出し、その顔領域と、予め保持される個人に紐付けられた顔画像データとの類似度を算出し、最も類似度の高い顔画像データに紐付けられた個人を、識別結果とすればよい。顔領域の検出方法や、画像データ同士の類似度算出方法は、一般的な方法でよい。個人に紐付けられた顔画像データは、後述する個人データ保持部306において保持される。
さらに、個人識別部307は、識別した個人に紐付けられた人体データを、個人データ保持部306から参照する。人体データとは、例えばその個人の身長データであるが、胸囲データや足の長さデータ等、人体の物理的な大きさに関するデータであれば何れでもよい。個人識別部307は、その参照した人体データを姿勢認識部302に対して出力する。
個人データ保持部306は、個人識別部307より参照される個人データを保持している。個人データの一つは、個人識別部307における個人識別に用いられるデータである。例えば、個人に紐付けられた顔画像データがそれに該当するが、それ以外でも、個人に紐付けられた指紋データや声紋データであってもよい。
また、他の個人データとして、個人データ保持部306は、個人識別部307が姿勢認識部302に出力する個人に紐付けられた人体データも保持する。人体データとは、身長データ、胸囲データ及び顔の大きさデータ等、人体の物理的な大きさに関するデータである。
姿勢認識部302は、撮影部301から撮影画像データを入力するとともに、個人識別部307から人体データを入力する。そして、姿勢認識部302は、撮影画像データに含まれる利用者の姿及び人体データから、利用者の姿勢を3次元的に認識する。利用者を含む画像データ及びその利用者の人体データから人物の姿勢を認識する方法は、次のような方法でよい。
先ず、姿勢認識部302は、撮影部301のカメラパラメータを事前に把握しているものとする。ここでいうカメラパラメータとは、カメラの焦点距離や画角等のカメラ内部パラメータ、及び、カメラの現実空間における位置姿勢を示すカメラ外部パラメータである。
その上で、姿勢認識部302は、撮影部301から入力される撮影画像データから、人体の頭頂部及び足元部を検出する。例えば、姿勢認識部302は、図13(a)に示すような撮影画像データから、矢印で指示した部分を頭頂部又は足元部として検出する。その検出方法は、一般に知られた方法でよい。
次に、姿勢認識部302は、足は地面から浮いていないという前提のもとで、既知のカメラパラメータと、撮影画像データ中から検出した足元部の撮影画像データ上のスクリーン座標系における位置Fs(XF,YF)とに基づき、現実空間における足元部の位置を算出する。具体的には、撮影部301のカメラパラメータが既知であることから、世界座標系における位置を撮影部301のカメラ座標系における位置に変換する行例Mwc、及び、撮影部301のカメラ座標系における位置を撮影画像データ上のスクリーン座標系における位置に変換する行列Mcsが既知である。姿勢認識部302は、これらを用いることにより、ZFを未知の変数として、位置Fs(XF,YF,ZF)を次の式1のように世界座標系における位置Fw(xF,yF,zF)へ変換することができる。
(xF,yF,zFT=Mwc -1×Mcs -1×(XF,YF,ZFT (式1)
ここで、地面を表す平面の式がg(x,y,z)=0であるとすると、上記式1とg(xF,yF,zF)=0の連立方程式とを解くことにより、xF、yF、zFを求めることができる。このようにして得られた位置Fw(xF,yF,zF)が現実空間における足元部の位置となる。
次に、姿勢認識部302は、頭頂部が足元部から身長分だけ離れた位置にあるという前提のもとで、既知のカメラパラメータと、撮影画像データ中から検出した頭頂部の撮影画像データ上のスクリーン座標系における位置H(XH,YH)とに基づき、現実空間における頭頂部の位置を算出する。具体的には、撮影部301のカメラパラメータが既知であることから、世界座標系における位置を撮影部301のカメラ座標系における位置に変換する行例Mwc、及び、撮影部301のカメラ座標系における位置を撮影画像データ上のスクリーン座標系における位置に変換する行列Mcsが既知である。姿勢認識部302は、これらを用いることにより、ZHを未知の変数として、位置Hs(XH,YH,ZH)を次の式2のように世界座標系における位置Hw(xH,yH,zH)へ変換することができる。
(xH,yH,zHT=Mwc -1×Mcs -1×(XH,YH,ZHT (式2)
ここで、世界座標における足元部の位置Fwと頭頂部の位置Hwとの距離がその個人の身長と等しいとし、その身長が個人識別部307から受け取る人体データにhと示されているとすると、次の式3が成り立つ。
(xH−xF2+(yH−yF2+(zH−zF2=h2 (式3)
このようにして得られた(式2)及び(式3)の連立方程式を解くと、Hw(xH,yH,zH)を得ることができる。解が二つ得られるときは、世界座標系における撮影部301の視点位置により近い方を解にすればよい。以上により、利用者が体を折らずに前かがみに立っているという前提での、利用者の姿勢を3次元的に認識することができる。
図13(b)は、上記の計算で得られる利用者の3次元的な姿勢の例を模式的に示している。即ち、図13(b)には、識別された個人の身長が低いとき、中くらいのとき、及び、高いときの姿勢の例を示している。なお、図13(b)は、利用者が体を折らずに前かがみに立っているという前提における姿勢の認識例を示しているが、利用者が腰から体を前に折って立っているという前提で同様の姿勢の認識を行っても勿論よい。
姿勢認識部302の姿勢認識結果は、姿勢可視化視点設定部303及び姿勢可視化部304に対して出力される。姿勢可視化視点設定部303は、利用者に提示する姿勢を見る視点の位置姿勢を設定する。ここで設定される位置姿勢は、利用者に対する相対的な位置姿勢であるが、これは、利用者に対する撮影部301の撮影視点(第1の視点)の位置姿勢とは異なる。
姿勢可視化視点設定部303により設定される視点を第3の視点とすると、本実施形態においては、例えば次のように設定される。即ち、「第1の視点と、第1の視点が見る利用者の身体部位と、第3の視点とが同一平面上にあり」、「第1の視点が見る利用者の身体部位を見るように第3の視点の方向が定められ」、「第1の視点の姿勢と第3の視点の姿勢とが直交する」ように設定される。姿勢可視化視点設定部103により設定された第3の視点の位置姿勢は、姿勢可視化部304に対して出力される。
姿勢可視化部304は、利用者に提示する姿勢を目で見てわかるように可視化する。具体的には、姿勢可視化部304は、姿勢可視化視点設定部303から入力される第3の視点から利用者を見たときの姿勢の鏡像を、姿勢認識部302から入力される姿勢認識結果に基づいて可視化する。例えば、姿勢可視化部304は、人体の頭部パーツを球のCGで表現し、残る人体パーツを楕円球CGで表現することにより、利用者の姿勢を図13(b)に3つ示すように可視化する。次に、姿勢可視化部304は、この可視化結果を、撮影部301から入力される撮影画像データ上に重畳描画する。図15は、第3の実施形態における姿勢可視化部304による可視化結果(模式的な人物像)1501を撮影画像データ上に重畳描画した例を示す図である。図15に示すように描画された画像データは、空間表示部305及び可視化結果記録部309に対して出力される。
可視化結果記録部309は、姿勢可視化部304から入力される画像データを記録する。姿勢可視化部304から入力される画像データは、全て単体の画像データとして記録してもよいし、時系列に並べた動画データとして記録してもよい。記録された画像データは、空間表示部305から参照される。
空間表示部305は、いわゆるディスプレイである。このディスプレイには、姿勢可視化部304から入力される画像データ、又は、可視化結果記録部309から参照される画像データが左右反転され、鏡像として表示される。その際、その画像データ上には、姿勢可視化部304により可視化された姿勢の鏡像が重畳表示されている。即ち、その画像データを表示する空間表示部305の前に立つと、利用者は、撮影部301の撮影視点(第1の視点)から見える自身の姿を含む現実空間の鏡像と、利用者を正面以外(第3の視点)から見える姿勢の鏡像の可視化結果とを見ることができる。
次に、図14を参照しながら、第3の実施形態に係る姿勢可視化装置300の処理について説明する。利用者が空間表示部305に向かってその前に立ち、姿勢可視化装置300をスタートさせると、図14に示す処理が開始される。なお、図14に示す処理は、本実施形態に係る姿勢可視化装置に内蔵されるCPUがROM等の記録媒体から必要データ及びプログラムを読み込んで実行することにより実現する処理である。
ステップS301において、撮影部301は、撮影視野内に立つ利用者を含む現実空間を撮影する。そして、撮影部301は、その撮影画像データを姿勢認識部302、個人識別部307及び空間表示部305に対して出力する。
ステップS302において、個人識別部307は、撮影部301から入力される撮影画像データに含まれる利用者の個人を、個人データ保持部306に保持される個人データを参照することにより識別する。
ステップS303において、個人識別部307は、ステップS302で識別された個人に紐付けられた人体データを、個人データ保持部306より参照し、姿勢認識部302に対して出力する。
ステップS304において、姿勢認識部102は、撮影部101から入力される利用者を含む撮影画像データ、及び、個人識別部307から入力される利用者の人体データから、利用者の姿勢を3次元的に認識する。そして、その姿勢認識結果は、姿勢可視化視点設定部303及び姿勢可視化部304に対して出力される。なお、ステップS304における姿勢認識手法は、第1及び第2の実施形態においても適用可能である。
ステップS305において、姿勢可視化視点設定部303は、利用者に提示する姿勢を見る視点(第3の視点)の位置姿勢を設定する。設定された第3の視点の位置姿勢は、姿勢可視化部304に対して出力される。
ステップS306において、姿勢可視化部304は、姿勢可視化視点設定部303から入力される第3の視点から利用者を見たときの姿勢の鏡像を、姿勢認識部302から入力される姿勢認識結果に基づいて可視化する。そして、姿勢可視化部304は、この可視化結果を、撮影部301から入力される撮影画像データ上に重畳描画する。
ステップS307において、姿勢可視化装置300は、姿勢可視化部304により可視化された画像データを可視化結果記録部309に記録する設定となっているか否かを判定する。図12において不図示の設定手段により、姿勢可視化部304により可視化された画像データを可視化結果記録部309に記録される設定となっていなければ、姿勢可視化部304により可視化された画像データが可視化結果記録部309に対して出力された後、処理はステップS308に移行する。一方、そのような設定がなされていなければ、処理はステップS309に移行する。
ステップS308において、可視化結果記録部309は、姿勢可視化部304から入力される画像データを記録する。ステップS309において、姿勢可視化装置300は、空間表示部305により画像データを表示する設定となっているか否かを判定する。図12において不図示の設定手段により、空間表示部305により画像データを表示する設定となっていれば、処理はステップS310に移行する。一方、そのような設定がなされていなければ、処理はステップS301に戻る。
ステップS310において、空間表示部305は、画像データを表示する。ステップS308を経由してステップS310に至った場合、空間表示部305は、可視化結果記録部309に記録されている画像データを表示する。ステップS308を経由せずにステップS310に至った場合、姿勢可視化部304により可視化された画像データが空間表示部305に出力され、空間表示部305により表示される。その後、処理はステップS301に戻り、姿勢可視化装置300の利用が終了されるまで、処理は繰り返される。
以上の処理により、姿勢可視化装置300は、図15に示すように、利用者に対して、当該利用者の姿勢の鏡像1502と、その鏡像では分かりにくい前後方向の傾きがより見える視点から見た姿勢の可視化結果1501とを同時に提示する。これにより、利用者は、自身の前後方向の姿勢の良し悪しを確認しながら、自身の服装を眼で確認することができる。人の姿は、その姿勢によって見栄えが変わるが、本実施形態に係る姿勢可視化装置300の利用者は、どの姿勢のときにどんな見栄えになるのかの対応関係を、明示的に確認しながら、着替えや試着をすることができる。
なお、本実施形態において、姿勢可視化装置300を構成する撮影部301は、空間表示部305の上部に配置されるとしたが、空間表示部305の下部や側部等、どこに配置してもよい。
第3の実施形態における撮影部301は、可視光カメラであって、利用者が正対する空間表示部305の上部に配置されるが、第3の実施形態に係る姿勢可視化装置300は、姿勢可視化視点設定部303、姿勢可視化部304、個人識別部307及び個人データ保持部306を備えることにより、撮影部301の撮影位置(第1の視点)以外から見た姿勢の可視化結果を利用者に提示することができる。その可視化結果は、利用者を含む現実空間を撮影する撮影部301の撮影画像データの鏡像とともに表示されるため、利用者は見た目とともに、左右前後どちらかへ傾いて立っているのかを、一目で把握することができる。即ち、第3の実施形態によれば、利用者の正面に可視光カメラを含むシステムを配置するだけで、利用者に対して、正面からの見た姿勢と正面以外の任意の方向から見た姿勢とを同時に提示することができる。
また、第1〜第3の実施形態においては、撮影部により撮影された現実空間の画像データに基づいて利用者の姿勢を認識し、その認識結果から利用者に見せる正面以外から見た姿勢を可視化して、利用者に提示する。これにより、撮影部を任意の位置に配置することができるため、システム全体の配置に関する制約が減少される。従って、システム全体の設置面積を小さくしたり、設置場所に応じてシステムを配置したりすることが可能となる。さらに、利用者に提示される姿勢が、撮影部によって撮影される画像データに映る姿勢だけではなく、姿勢の認識結果から可視化される姿勢も含まれるため、利用者に見せる姿勢の向きを自由に変更することができる。
なお、上述した実施形態における撮影部は、利用者を含む現実空間を撮影するものでれば、どのようなものであってもよい。その例が、第1の実施形態で示した距離撮影カメラであり、第2の実施形態で示した複数のカメラであり、第3の実施形態で示した可視光カメラである。また、撮影部として、赤外カメラやラインカメラや紫外カメラを採用してもよい。
また、上述した実施形態における空間表示部は、空間の映像を表示できるものであれば、どのようなものであってもよい。その例が、第1の実施形態で示したハーフミラーの裏にディスプレイを配置したものであり、第2及び第3の実施形態で示したディスプレイである。また、空間表示部として、立体ディスプレイやプロジェクタ投影面を採用してもよい。
また、上述した実施形態における姿勢認識部は、映像に映る人物の姿勢を認識するものであればどのようなものであってもよい。即ち、姿勢認識部として、距離情報に含まれる利用者の人体形状から利用者の姿勢を3次元的に認識するものや、複数の画像からそこに映る人体の3次元形状を獲得するものや、画像上の人体パーツの位置と既知の人体データから人物の姿勢を3次元的に認識するものを採用することができる。それ以外の、人物にマーカを張り付けてその姿勢を認識するようなものであっても勿論よい。
また、上述した実施形態における姿勢可視化視点設定部は、撮影部の撮影視点(第1の視点)及び空間表示部が表示する空間を見る視点(第2の視点)とも異なる視点(第3の視点)を設定するものであれば、どのようなものであってもよい。即ち、姿勢可視化視点設定部として、第1の視点の高さを利用者のあるパーツAの高さにした上で利用者を中心に±90度回転させた位置に設定するものや、人体の見え具合を示すエントロピーEを用いて設定するものや、第1の視点と利用者の身体部位の位置関係に基づいて設定するものを採用することができる。
また、上述した実施形態における姿勢可視化部は、姿勢認識部の認識結果に基づき前記第3の視点から見た前記人物の姿勢を可視化するものであれば、どのようなものであってもよい。即ち、姿勢可視化部として、図2に示すような球のCGと円柱のCGとで人体パーツ間のつながりを表現するものでもよいし、図9に模擬的に示すような人体の3次元形状を直接的に表現するものを採用してもよい。又は、図13(b)に示すような球と楕円球のCGの組み合わせで頭部と胴部を表現するものを採用してもよい。
また、上述した実施形態における基準姿勢は、利用者の姿勢との比較対象になる姿勢であれば、どのようなものであってもよい。その例が、第1の実施形態に示した正しく運動するときの姿勢であり、過去の利用者の運動時の姿勢である。それ以外にも、間違って運動するときの姿勢や、予想される将来の運動時の姿勢等も、基準姿勢としてよい。
また、上述した実施形態における姿勢比較部は、利用者の姿勢と基準姿勢を比較するものであれば、どのようなものであってもよい。その例が、第1の実施形態に示した利用者の姿勢と基準姿勢との関節の角度との差を算出するものである。それ以外にも、利用者の姿勢と基準姿勢との関節の位置の違いや、関節に加わる力の差等を算出するものであってもよい。
さらに、上述した実施形態において個人データ保持部により保持されるデータは、個人を識別するためのデータ又は個人の物理的な大きさを示すデータであれば、どのようなものであってもよい。個人を識別するためのデータの例は、第3の実施形態に示した個人に紐付いた顔画像である。それ以外にも、個人に紐付いた指紋データや声紋データであってもよい。個人の形状を示すデータの例は、第3の実施形態に示した個人の身長データである。それ以外にも、胸囲データや顔の大きさデータであってもよい。
なお、本発明は、リハビリ運動時の姿勢を可視化する目的にも適用可能である。また、リハビリ運動だけでなく、スポーツ運動、ダンス運動、さらには、着衣や接遇動作時の姿勢を可視化する目的にも適用することができる。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
100、200、300:姿勢可視化装置、101、201:撮影部、102、202:姿勢認識部、103、203:姿勢可視化視点設定部、104、204:姿勢可視化部、105、205:空間表示部、106、206:基準姿勢保持部、107、207:基準姿勢可視化部、108、208:姿勢比較部、209:可視化結果記録部

Claims (16)

  1. 撮影手段により所定の視点から撮影された現実空間の画像データに基づいて、前記現実空間の画像データに映る被写体の姿勢を認識する認識手段と、
    前記所定の視点とは異なる視点を設定する設定手段と、
    前記認識手段により認識された前記被写体の姿勢に基づいて、前記設定手段により設定された前記視点から見た前記被写体の姿勢の像を生成する生成手段と、
    前記生成手段により生成された前記被写体の姿勢の像を表示手段において表示させる表示制御手段とを有することを特徴とする情報処理装置。
  2. 前記表示制御手段は、前記生成手段により生成された前記被写体の姿勢の像と、現実空間の像とを表示手段において表示させることを特徴とする請求項1に記載の情報処理装置。
  3. 前記設定手段は、前記認識手段により認識された前記被写体の姿勢に基づいて前記所定の視点を導出し、導出した前記所定の視点に基づいて、前記所定の視点とは異なる前記視点を設定することを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記表示手段は、ハーフミラー又はミラーを備えることを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。
  5. 撮影手段により第1の視点から撮影された現実空間の画像データに基づいて、前記現実空間の画像データに映る被写体の姿勢を認識する認識手段と、
    第2の視点及び第3の視点を設定する設定手段と、
    前記第2の視点から見た、前記認識手段により認識された前記被写体の姿勢が配置された空間と、前記第3の視点から見た前記被写体の姿勢とを生成する生成手段と、
    前記生成手段により生成された、前記空間と、前記第3の視点から見た前記被写体の姿勢とを、表示手段において表示させる表示制御手段とを有することを特徴とする情報処理装置。
  6. 前記設定手段は、前記第1の視点に基づいて前記第2の視点を設定し、前記第2の視点に基づいて前記第3の視点を設定することを特徴とする請求項5に記載の情報処理装置。
  7. 前記表示制御手段は、前記生成手段により生成された、前記空間と、前記第3の視点から見た前記被写体の姿勢とを左右反転して表示させることを特徴とする請求項5又は6に記載の情報処理装置。
  8. 前記生成手段は、基準姿勢を示す姿勢データに基づいて、前記第3の視点から見た前記基準姿勢を生成し、前記表示制御手段は、さらに、前記生成手段により生成された前記第3の視点から見た前記基準姿勢を表示させることを特徴とする請求項5乃至7の何れか1項に記載の情報処理装置。
  9. 前記第3の視点から見た前記被写体の姿勢と、前記第3の視点から見た基準姿勢とを比較する比較手段を更に有し、
    前記表示制御手段は、さらに、前記比較手段による比較結果を表示させることを特徴とする請求項8に記載の情報処理装置。
  10. 前記生成手段による結果を記録する記録手段を更に有し、
    前記表示制御手段は、前記記録手段において記録される前記結果を表示させることを特徴とする請求項5乃至9の何れか1項に記載の情報処理装置。
  11. 前記第1の視点、前記第2の視点及び前記第3の視点は夫々、異なる視点であることを特徴とする請求項5乃至10の何れか1項に記載の情報処理装置。
  12. 前記撮影手段により撮影された前記現実空間の画像データに基づいて、前記現実空間の画像データに映る被写体を識別する識別手段を更に有し、
    前記認識手段は、前記識別手段による識別結果に対応する前記被写体の体に係るデータに基づいて、前記被写体の姿勢を認識することを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。
  13. 情報処理装置によって実行される情報処理方法であって、
    撮影手段により所定の視点から撮影された現実空間の画像データに基づいて、前記現実空間の画像データに映る被写体の姿勢を認識する認識ステップと、
    前記所定の視点とは異なる視点を設定する設定ステップと、
    前記認識ステップにより認識された前記被写体の姿勢に基づいて、前記設定ステップにより設定された前記視点から見た前記被写体の姿勢の像を生成する生成ステップと、
    前記生成ステップにより生成された前記被写体の姿勢の像を、表示手段において表示させる表示制御ステップとを有することを特徴とする情報処理方法。
  14. 情報処理装置によって実行される情報処理方法であって、
    撮影手段により第1の視点から撮影された現実空間の画像データに基づいて、前記現実空間の画像データに映る被写体の姿勢を認識する認識ステップと、
    第2の視点及び第3の視点を設定する設定ステップと、
    前記第2の視点から見た、前記認識ステップにより認識された前記被写体の姿勢が配置された空間と、前記第3の視点から見た前記被写体の姿勢とを生成する生成ステップと、
    前記生成ステップにより生成された、前記空間と、前記第3の視点から見た前記被写体の姿勢とを、表示手段において表示させる表示制御ステップとを有することを特徴とする情報処理方法。
  15. 撮影手段により所定の視点から撮影された現実空間の画像データに基づいて、前記現実空間の画像データに映る被写体の姿勢を認識する認識ステップと、
    前記所定の視点とは異なる視点を設定する設定ステップと、
    前記認識ステップにより認識された前記被写体の姿勢に基づいて、前記設定ステップにより設定された前記視点から見た前記被写体の姿勢の像を可視化する生成ステップと、
    前記生成ステップにより生成された前記被写体の姿勢の像を表示手段において表示させる表示制御ステップとをコンピュータに実行させるためのプログラム。
  16. 撮影手段により第1の視点から撮影された現実空間の画像データに基づいて、前記現実空間の画像データに映る被写体の姿勢を認識する認識ステップと、
    第2の視点及び第3の視点を設定する設定ステップと、
    前記第2の視点から見た、前記認識ステップにより認識された前記被写体の姿勢が配置された空間と、前記第3の視点から見た前記被写体の姿勢とを生成する生成ステップと、
    前記生成ステップにより生成された、前記空間と、前記第3の視点から見た前記被写体の姿勢とを、表示手段において表示させる表示制御ステップとをコンピュータに実行させるためのプログラム。
JP2013006308A 2013-01-17 2013-01-17 情報処理装置、情報処理方法及びプログラム Active JP6143469B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013006308A JP6143469B2 (ja) 2013-01-17 2013-01-17 情報処理装置、情報処理方法及びプログラム
US14/156,337 US10262199B2 (en) 2013-01-17 2014-01-15 Information processing apparatus, information processing method, and storage medium
US16/360,488 US10657366B2 (en) 2013-01-17 2019-03-21 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013006308A JP6143469B2 (ja) 2013-01-17 2013-01-17 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2014137725A true JP2014137725A (ja) 2014-07-28
JP6143469B2 JP6143469B2 (ja) 2017-06-07

Family

ID=51165169

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013006308A Active JP6143469B2 (ja) 2013-01-17 2013-01-17 情報処理装置、情報処理方法及びプログラム

Country Status (2)

Country Link
US (2) US10262199B2 (ja)
JP (1) JP6143469B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016087226A (ja) * 2014-11-07 2016-05-23 学校法人北里研究所 運動補助装置、運動補助方法、プログラム
JP2017026786A (ja) * 2015-07-22 2017-02-02 株式会社東芝 3次元折れ線グラフ視点制御装置および3次元折れ線グラフ視点制御プログラム
JP2017038959A (ja) * 2016-11-16 2017-02-23 学校法人北里研究所 運動補助装置、運動補助方法、プログラム
WO2018087853A1 (ja) * 2016-11-09 2018-05-17 株式会社システムフレンド 立体画像生成システム、立体画像生成方法及び立体画像生成プログラム
JP2018136632A (ja) * 2017-02-20 2018-08-30 オムロン株式会社 形状推定装置

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5812599B2 (ja) * 2010-02-25 2015-11-17 キヤノン株式会社 情報処理方法及びその装置
JP6143469B2 (ja) * 2013-01-17 2017-06-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2014125831A1 (ja) * 2013-02-14 2014-08-21 パナソニック株式会社 電子ミラー装置
KR102420313B1 (ko) * 2014-06-30 2022-07-13 소니그룹주식회사 정보 처리 장치 및 정보 처리 방법, 컴퓨터 프로그램, 그리고 화상 처리 시스템
US10606242B2 (en) * 2015-03-12 2020-03-31 Canon Kabushiki Kaisha Print data division apparatus and program
WO2016154711A1 (en) 2015-03-31 2016-10-06 Cae Inc. Multifactor eye position identification in a display system
CN105956022B (zh) * 2016-04-22 2021-04-16 腾讯科技(深圳)有限公司 电子镜图像处理方法和装置、图像处理方法和装置
IL246387A (en) * 2016-06-22 2017-05-29 Pointgrab Ltd METHOD AND SYSTEM FOR DETERMINING A BODY POSITION OF PRESENT
US10565441B2 (en) * 2016-12-19 2020-02-18 Rohde & Schwarz Gmbh & Co. Kg Positioning device and method for positioning persons to be scanned
JP7439353B2 (ja) * 2019-08-29 2024-02-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 認知機能評価方法、認知機能評価装置及び認知機能評価プログラム
JP2021135337A (ja) * 2020-02-25 2021-09-13 キヤノン株式会社 電子機器およびその制御方法
CN113284240B (zh) * 2021-06-18 2022-05-31 深圳市商汤科技有限公司 地图构建方法及装置、电子设备和存储介质
CN115486815A (zh) * 2022-06-27 2022-12-20 青岛大学 一种帕金森病手颤的三维姿态实时分析系统及方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009153975A1 (ja) * 2008-06-18 2009-12-23 パナソニック株式会社 電子ミラー装置

Family Cites Families (118)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4905151A (en) * 1988-03-07 1990-02-27 Transitions Research Corporation One dimensional image visual system for a moving vehicle
US5228856A (en) * 1991-02-11 1993-07-20 Hughes Aircraft Company Optics approach to low side compliance simulation
US5495576A (en) * 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
JP3638637B2 (ja) * 1994-06-17 2005-04-13 株式会社ナムコ ポリゴンデータ変換装置及び3次元シミュレータ装置
GB2295757B (en) * 1994-06-17 1998-04-08 Namco Ltd Three-dimensional simulator and image synthesis method
JP3724117B2 (ja) * 1997-05-23 2005-12-07 ソニー株式会社 画像生成装置および画像生成方法
JP3745117B2 (ja) * 1998-05-08 2006-02-15 キヤノン株式会社 画像処理装置及び画像処理方法
JP4122573B2 (ja) * 1998-06-22 2008-07-23 株式会社セガ 画像処理方法及び画像処理プログラムを記録した記録媒体
EP1038734B1 (en) * 1998-10-08 2019-05-15 Panasonic Intellectual Property Corporation of America Driving assisting device and recording medium
JP3634677B2 (ja) * 1999-02-19 2005-03-30 キヤノン株式会社 画像の補間方法、画像処理方法、画像表示方法、画像処理装置、画像表示装置、及びコンピュータプログラム記憶媒体
JP3525896B2 (ja) * 1999-03-19 2004-05-10 松下電工株式会社 3次元物体認識方法および同方法を使用したビンピッキングシステム
US7161616B1 (en) * 1999-04-16 2007-01-09 Matsushita Electric Industrial Co., Ltd. Image processing device and monitoring system
JP3363861B2 (ja) * 2000-01-13 2003-01-08 キヤノン株式会社 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体
JP2001269482A (ja) * 2000-03-24 2001-10-02 Konami Computer Entertainment Japan Inc ゲームシステム、ゲーム用プログラムを記録したコンピュータ読み取り可能な記録媒体及び画像表示方法
WO2002073955A1 (en) * 2001-03-13 2002-09-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method, studio apparatus, storage medium, and program
JP4649050B2 (ja) * 2001-03-13 2011-03-09 キヤノン株式会社 画像処理装置、画像処理方法、及び制御プログラム
US7123263B2 (en) * 2001-08-14 2006-10-17 Pulse Entertainment, Inc. Automatic 3D modeling system and method
ATE532453T1 (de) * 2001-09-24 2011-11-15 Given Imaging Ltd System zur kontrolle einer vorrichtung in vivo
US7095424B2 (en) * 2001-10-26 2006-08-22 Canon Kabushiki Kaisha Image display apparatus and method, and storage medium
JP3943975B2 (ja) * 2002-03-29 2007-07-11 キヤノン株式会社 情報処理方法および装置
JP3992629B2 (ja) * 2003-02-17 2007-10-17 株式会社ソニー・コンピュータエンタテインメント 画像生成システム、画像生成装置、画像生成方法
EP1635138A4 (en) * 2003-05-29 2011-05-04 Olympus Corp STEREO OPTICAL MODULE AND STEREO CAMERA
WO2004107266A1 (en) * 2003-05-29 2004-12-09 Honda Motor Co., Ltd. Visual tracking using depth data
WO2005043466A1 (ja) * 2003-10-30 2005-05-12 Nec Corporation 物体の状態を推定する推定システム、推定方法および推定プログラム
JP3889394B2 (ja) * 2003-12-16 2007-03-07 株式会社スクウェア・エニックス 画像描画装置及び方法、プログラム並びに記録媒体
FR2864878B1 (fr) * 2004-01-06 2006-04-14 Thomson Licensing Sa Procede et systeme de determination du deplacement d'un pixel, et support d'enregistrement pour la mise en oeuvre du procede
JP2005295004A (ja) * 2004-03-31 2005-10-20 Sanyo Electric Co Ltd 立体画像処理方法および立体画像処理装置
JP4522129B2 (ja) * 2004-03-31 2010-08-11 キヤノン株式会社 画像処理方法および画像処理装置
JP3968356B2 (ja) * 2004-04-29 2007-08-29 株式会社コナミデジタルエンタテインメント 表示装置、表示方法、ならびに、プログラム
WO2006008790A1 (ja) * 2004-07-15 2006-01-26 C & N Inc 携帯端末装置
US8717423B2 (en) * 2005-05-09 2014-05-06 Zspace, Inc. Modifying perspective of stereoscopic images based on changes in user viewpoint
WO2006134778A1 (ja) * 2005-06-14 2006-12-21 The University Of Electro-Communications 位置検出装置、位置検出方法、位置検出プログラム及び複合現実提供システム
JP4930854B2 (ja) * 2005-07-19 2012-05-16 日本電気株式会社 関節物体位置姿勢推定装置及びその方法ならびにプログラム
US20070060798A1 (en) * 2005-09-15 2007-03-15 Hagai Krupnik System and method for presentation of data streams
JP4785662B2 (ja) * 2005-10-03 2011-10-05 キヤノン株式会社 情報処理装置、情報処理方法
US8429612B2 (en) * 2005-11-11 2013-04-23 Intel Corporation Graphical user interface (GUI) noise reduction in a cognitive control framework
US7805008B2 (en) * 2005-11-14 2010-09-28 Intel Corporation Structural content filtration of hypotheses in a cognitive control framework
JP4654905B2 (ja) 2005-12-16 2011-03-23 パナソニック電工株式会社 映像提示システム
WO2007116910A1 (ja) * 2006-04-07 2007-10-18 Nec Corporation 画像表示装置
JP2007293429A (ja) * 2006-04-21 2007-11-08 Sony Computer Entertainment Inc 画像閲覧装置、コンピュータの制御方法及びプログラム
JP4810295B2 (ja) * 2006-05-02 2011-11-09 キヤノン株式会社 情報処理装置及びその制御方法、画像処理装置、プログラム、記憶媒体
US8199970B2 (en) * 2006-06-06 2012-06-12 Nec Corporation Moving amount calculation system and obstacle detection system
WO2007146347A2 (en) * 2006-06-14 2007-12-21 Wms Gaming Inc. Wagering game with multiple viewpoint display feature
US20080013809A1 (en) * 2006-07-14 2008-01-17 Bracco Imaging, Spa Methods and apparatuses for registration in image guided surgery
US20080123910A1 (en) * 2006-09-19 2008-05-29 Bracco Imaging Spa Method and system for providing accuracy evaluation of image guided surgery
JP4793933B2 (ja) * 2007-03-12 2011-10-12 任天堂株式会社 画像処理プログラムおよび画像処理装置
WO2009011946A1 (en) * 2007-04-17 2009-01-22 University Of Southern California Rendering for an interactive 360 degree light field display
JP2009039449A (ja) * 2007-08-10 2009-02-26 Olympus Corp 画像処理装置
JP4989383B2 (ja) * 2007-09-10 2012-08-01 キヤノン株式会社 情報処理装置、情報処理方法
EP2051533B1 (en) * 2007-10-19 2014-11-12 Canon Kabushiki Kaisha 3D image rendering apparatus and method
JP4226639B1 (ja) * 2007-11-01 2009-02-18 株式会社コナミデジタルエンタテインメント 画像処理装置、画像処理方法、ならびに、プログラム
US9082213B2 (en) * 2007-11-07 2015-07-14 Canon Kabushiki Kaisha Image processing apparatus for combining real object and virtual object and processing method therefor
JP4376944B2 (ja) * 2008-04-03 2009-12-02 富士フイルム株式会社 中間画像生成方法および装置ならびにプログラム
JP4600515B2 (ja) * 2008-05-07 2010-12-15 ソニー株式会社 情報提示装置及び情報提示方法、撮像装置、並びにコンピュータ・プログラム
US9248376B2 (en) * 2008-09-30 2016-02-02 Nintendo Co., Ltd. Computer-readable storage medium having stored game program therein, and game apparatus
US8947605B2 (en) * 2008-11-07 2015-02-03 Dimension Technologies, Inc. Image data placement method for a time multiplexed autostereoscopic display
JP2012513059A (ja) * 2008-12-19 2012-06-07 サーブ エービー 場面と仮想シナリオを融合するシステムおよび方法
KR101644421B1 (ko) * 2008-12-23 2016-08-03 삼성전자주식회사 사용자의 관심 정도에 기반한 컨텐츠 제공장치 및 방법
US20100185225A1 (en) * 2009-01-19 2010-07-22 Albrecht Thomas E Gui for an implantable distension device and a data logger
US20100231581A1 (en) * 2009-03-10 2010-09-16 Jar Enterprises Inc. Presentation of Data Utilizing a Fixed Center Viewpoint
US20110032259A1 (en) * 2009-06-09 2011-02-10 Intromedic Co., Ltd. Method of displaying images obtained from an in-vivo imaging device and apparatus using same
US8594398B2 (en) * 2009-06-26 2013-11-26 International Business Machines Corporation Systems and methods for cardiac view recognition and disease recognition
JP5170904B2 (ja) * 2009-07-13 2013-03-27 古河電気工業株式会社 フラットケーブル
EP2478492B1 (en) * 2009-09-16 2019-03-20 Sydac Pty Ltd Visual presentation system
JP2011092681A (ja) * 2009-09-30 2011-05-12 Fujifilm Corp 医用画像処理装置および方法並びにプログラム
WO2011096252A1 (ja) * 2010-02-02 2011-08-11 コニカミノルタホールディングス株式会社 画像処理システム、画像処理方法、およびプログラム
CN102147851B (zh) * 2010-02-08 2014-06-04 株式会社理光 多角度特定物体判断设备及多角度特定物体判断方法
US20110225516A1 (en) * 2010-03-10 2011-09-15 Oddmobb, Inc. Instantiating browser media into a virtual social venue
JP5551957B2 (ja) * 2010-03-31 2014-07-16 富士フイルム株式会社 投影画像生成装置およびその作動方法、並びに投影画像生成プログラム
CN102906671B (zh) * 2010-07-20 2016-03-02 松下电器(美国)知识产权公司 手势输入装置及手势输入方法
JP5840386B2 (ja) * 2010-08-30 2016-01-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
JP5464279B2 (ja) * 2010-12-22 2014-04-09 コニカミノルタ株式会社 画像処理装置、そのプログラム、および画像処理方法
KR101852811B1 (ko) * 2011-01-05 2018-04-27 엘지전자 주식회사 영상표시 장치 및 그 제어방법
JP5868005B2 (ja) * 2011-02-04 2016-02-24 キヤノン株式会社 撮像装置、撮像条件設定方法、プログラム
US20120212491A1 (en) * 2011-02-22 2012-08-23 Sony Computer Entertainment Inc. Indirect lighting process for virtual environments
KR101818024B1 (ko) * 2011-03-29 2018-01-12 퀄컴 인코포레이티드 각각의 사용자의 시점에 대해 공유된 디지털 인터페이스들의 렌더링을 위한 시스템
JP6074170B2 (ja) * 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
US9325960B2 (en) * 2011-11-07 2016-04-26 Autodesk, Inc. Maintenance of three dimensional stereoscopic effect through compensation for parallax setting
JP5863423B2 (ja) * 2011-11-30 2016-02-16 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
ES2648762T3 (es) * 2011-12-30 2018-01-05 Mako Surgical Corp. Sistema para cirugía robótica basada en imágenes
US9265583B2 (en) * 2011-12-30 2016-02-23 Mako Surgical Corp. Method for image-based robotic surgery
US20130178257A1 (en) * 2012-01-06 2013-07-11 Augaroo, Inc. System and method for interacting with virtual objects in augmented realities
US9495795B2 (en) * 2012-01-16 2016-11-15 Panasonic Intellectual Property Management Co., Ltd. Image recording device, three-dimensional image reproducing device, image recording method, and three-dimensional image reproducing method
US9138165B2 (en) * 2012-02-22 2015-09-22 Veran Medical Technologies, Inc. Systems, methods and devices for forming respiratory-gated point cloud for four dimensional soft tissue navigation
US9545192B2 (en) * 2012-05-04 2017-01-17 Given Imaging Ltd. System and method for automatic navigation of a capsule based on image stream captured in-vivo
JP6088748B2 (ja) * 2012-05-22 2017-03-01 任天堂株式会社 ゲームシステム、ゲーム処理方法、ゲーム装置、及びゲームプログラム
US9747306B2 (en) * 2012-05-25 2017-08-29 Atheer, Inc. Method and apparatus for identifying input features for later recognition
BR112014018522A8 (pt) * 2012-06-28 2017-07-11 Nec Corp Dispositivo de avaliação de posição/postura de câmera, método de avaliação de posição/postura de câmera e programa de avaliação de posição/postura de câmera
JP6380881B2 (ja) * 2012-07-31 2018-08-29 Tianma Japan株式会社 立体画像表示装置、画像処理装置及び立体画像処理方法
EP2903265A4 (en) * 2012-09-27 2016-05-18 Kyocera Corp DISPLAY DEVICE, CONTROL METHOD, AND CONTROL PROGRAM
FR2997211B1 (fr) * 2012-10-18 2021-01-01 Morpho Procede d'authentification d'une capture d'image d'une entite tridimensionnelle
JP2014097219A (ja) * 2012-11-15 2014-05-29 Nintendo Co Ltd ゲームプログラム、ゲーム装置、ゲームシステム、およびゲーム処理方法
JP6143469B2 (ja) * 2013-01-17 2017-06-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US10278584B2 (en) * 2013-03-11 2019-05-07 Carestream Dental Technology Topco Limited Method and system for three-dimensional imaging
WO2014145856A1 (en) * 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
JP2014191718A (ja) * 2013-03-28 2014-10-06 Sony Corp 表示制御装置、表示制御方法および記録媒体
US9823739B2 (en) * 2013-04-04 2017-11-21 Sony Corporation Image processing device, image processing method, and program
JP6319952B2 (ja) * 2013-05-31 2018-05-09 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP5845211B2 (ja) * 2013-06-24 2016-01-20 キヤノン株式会社 画像処理装置、画像処理方法
CN105491936B (zh) * 2013-08-28 2017-08-22 奥林巴斯株式会社 胶囊型内窥镜系统
JP6253311B2 (ja) * 2013-08-28 2017-12-27 キヤノン株式会社 画像処理装置、画像処理方法
JP5900468B2 (ja) * 2013-11-21 2016-04-06 コニカミノルタ株式会社 Ar表示装置、処理内容設定装置、処理内容設定方法およびプログラム
US9747680B2 (en) * 2013-11-27 2017-08-29 Industrial Technology Research Institute Inspection apparatus, method, and computer program product for machine vision inspection
US20150237338A1 (en) * 2014-02-14 2015-08-20 Autodesk, Inc Flip-up stereo viewing glasses
US9723300B2 (en) * 2014-03-17 2017-08-01 Spatial Intelligence Llc Stereoscopic display
KR101592405B1 (ko) * 2014-05-20 2016-02-05 주식회사 메디트 3차원 영상 획득 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
JP6365153B2 (ja) * 2014-09-10 2018-08-01 株式会社ソシオネクスト 画像符号化方法および画像符号化装置
US10185463B2 (en) * 2015-02-13 2019-01-22 Nokia Technologies Oy Method and apparatus for providing model-centered rotation in a three-dimensional user interface
JP6611531B2 (ja) * 2015-09-16 2019-11-27 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、およびプログラム
JP6674247B2 (ja) * 2015-12-14 2020-04-01 キヤノン株式会社 情報処理装置、情報処理方法、およびコンピュータプログラム
US9813673B2 (en) * 2016-01-20 2017-11-07 Gerard Dirk Smits Holographic video capture and telepresence system
EP3196840B1 (en) * 2016-01-22 2022-12-14 Nokia Technologies Oy Displaying visual information of views captured at geographic locations
CN107808398B (zh) * 2016-09-08 2023-04-07 松下知识产权经营株式会社 摄像头参数算出装置以及算出方法、程序、记录介质
KR20180073327A (ko) * 2016-12-22 2018-07-02 삼성전자주식회사 영상 표시 방법, 저장 매체 및 전자 장치
KR102316327B1 (ko) * 2017-04-04 2021-10-22 엘지전자 주식회사 가상 공간의 캡쳐 방법 및 그 전자장치
US10430147B2 (en) * 2017-04-17 2019-10-01 Intel Corporation Collaborative multi-user virtual reality
JP7038346B2 (ja) * 2017-05-01 2022-03-18 パナソニックIpマネジメント株式会社 カメラパラメータ算出方法、カメラパラメータ算出プログラム、及びカメラパラメータ算出装置
US11409363B2 (en) * 2018-05-30 2022-08-09 West Texas Technology Partners, Llc Augmented reality hand gesture recognition systems

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009153975A1 (ja) * 2008-06-18 2009-12-23 パナソニック株式会社 電子ミラー装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016087226A (ja) * 2014-11-07 2016-05-23 学校法人北里研究所 運動補助装置、運動補助方法、プログラム
JP2017026786A (ja) * 2015-07-22 2017-02-02 株式会社東芝 3次元折れ線グラフ視点制御装置および3次元折れ線グラフ視点制御プログラム
WO2018087853A1 (ja) * 2016-11-09 2018-05-17 株式会社システムフレンド 立体画像生成システム、立体画像生成方法及び立体画像生成プログラム
JPWO2018087853A1 (ja) * 2016-11-09 2020-05-28 株式会社システムフレンド 立体画像生成システム、立体画像生成方法及び立体画像生成プログラム
JP2021128794A (ja) * 2016-11-09 2021-09-02 株式会社システムフレンド 立体画像生成システム、立体画像生成方法及び立体画像生成プログラム
JP2017038959A (ja) * 2016-11-16 2017-02-23 学校法人北里研究所 運動補助装置、運動補助方法、プログラム
JP2018136632A (ja) * 2017-02-20 2018-08-30 オムロン株式会社 形状推定装置
CN110291358A (zh) * 2017-02-20 2019-09-27 欧姆龙株式会社 形状估计装置
US11036965B2 (en) 2017-02-20 2021-06-15 Omron Corporation Shape estimating apparatus
CN110291358B (zh) * 2017-02-20 2022-04-05 欧姆龙株式会社 形状估计装置

Also Published As

Publication number Publication date
US20140198962A1 (en) 2014-07-17
US10657366B2 (en) 2020-05-19
US10262199B2 (en) 2019-04-16
US20190220659A1 (en) 2019-07-18
JP6143469B2 (ja) 2017-06-07

Similar Documents

Publication Publication Date Title
JP6143469B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6690041B2 (ja) 三次元物体上の注視点決定方法及び装置
WO2020189313A1 (ja) 監視装置、監視システム、及び、監視方法
US9495008B2 (en) Detecting a primary user of a device
JP5337915B2 (ja) 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
JP5936155B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP6369811B2 (ja) 歩行解析システムおよび歩行解析プログラム
CN107273846B (zh) 一种人体体型参数确定方法及装置
JP5430565B2 (ja) 電子ミラー装置
KR101118654B1 (ko) 모션캡쳐 기반의 자세분석을 통한 재활 장치 및 이에 따른 재활 방법
JP5039808B2 (ja) ゲーム装置、ゲーム装置の制御方法、及びプログラム
JP5575652B2 (ja) レンダリングされた像の表示設定を選択するための方法及びシステム
JP2015186531A (ja) 動作情報処理装置、及びプログラム
JP2005256232A (ja) 3dデータ表示方法、装置、およびプログラム
JP6796197B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20130069939A1 (en) Character image processing apparatus and method for footskate cleanup in real time animation
JP2024016153A (ja) プログラム、装置、及び方法
WO2018173205A1 (ja) 情報処理システム、その制御方法、及びプログラム
JP7482471B2 (ja) 学習モデルの生成方法
Ismail et al. The applications of Microsoft Kinect for human motion capture and analysis: A review
WO2020121500A1 (ja) 推定方法、推定プログラムおよび推定装置
WO2023067055A1 (en) Relative movement tracking with augmented reality
WO2022123752A1 (ja) 画像処理装置、画像処理方法、及びコンピュータ読み取り可能な記録媒体
JP2023048014A (ja) 表示装置、表示装置の制御方法およびプログラム
Islam 3D Motion Capture Using Wide Baseline Stereo Cameras

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161011

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170509

R151 Written notification of patent or utility model registration

Ref document number: 6143469

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151