JP2021182175A - 情報処理装置および情報処理方法、並びにプログラム - Google Patents

情報処理装置および情報処理方法、並びにプログラム Download PDF

Info

Publication number
JP2021182175A
JP2021182175A JP2018151787A JP2018151787A JP2021182175A JP 2021182175 A JP2021182175 A JP 2021182175A JP 2018151787 A JP2018151787 A JP 2018151787A JP 2018151787 A JP2018151787 A JP 2018151787A JP 2021182175 A JP2021182175 A JP 2021182175A
Authority
JP
Japan
Prior art keywords
texture
motion
user
unit
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018151787A
Other languages
English (en)
Inventor
良平 岡田
Ryohei Okada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2018151787A priority Critical patent/JP2021182175A/ja
Priority to CN201980051860.9A priority patent/CN112534478B/zh
Priority to PCT/JP2019/029364 priority patent/WO2020031741A1/ja
Priority to US17/250,577 priority patent/US11989892B2/en
Publication of JP2021182175A publication Critical patent/JP2021182175A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】より効率良く高品質なテクスチャを取得する。【解決手段】モーション生成部は、ユーザの3Dモデルを構成するテクスチャの取得状況に基づいて、テクスチャが未取得の領域を撮像するためのモーションを生成する。そして、ナビゲーション実行部は、モーション生成部により生成されたモーションに応じた動作をユーザに実行させるナビゲーションを行う。本技術は、例えば、3Dモデル生成処理を行う情報処理装置に適用できる。【選択図】図5

Description

本開示は、情報処理装置および情報処理方法、並びにプログラムに関し、特に、より効率良く高品質なテクスチャを取得することができるようにした情報処理装置および情報処理方法、並びにプログラムに関する。
近年、人物の立体的な形状をスキャンして、その人物の3Dモデルを生成するための様々な技術が提案され、実用化されている。例えば、3Dモデルは、三次元形状を三角形や四角形などの多角形の集合で表すメッシュと、三次元形状の表面の色を表す画像からなるテクスチャとにより構成される。
従来、テクスチャを取得する手法として、人物を取り囲むように100台以上の撮像装置を設置し、それらの撮像装置を同期させて人物を撮像することで、テクスチャを取得するシステムが利用されている。しかしながら、このようなシステムではコストが膨大なものとなる。
また、ターンテーブルに乗って回転する人物を、1台の撮像装置で撮像することで、テクスチャを取得するシステムが利用されている。しかしながら、このようなシステムでは、人物は数分程度、静止状態を維持する必要があった。
例えば、特許文献1には、マルチビューステレオにより高密度アバターメッシュを生成し、マルチビューテクスチャ合成を適用することで、3D顔モデルに対応付けられるテクスチャ画像を生成する技術が開示されている。
特表2014−525108号公報
ところで、従来、テクスチャを取得する際に、テクスチャを取得することができない領域(以下、オクルージョン領域と称する)が発生してしまい、人物の表面の全領域をカバーするようなテクスチャを取得することが困難であった。一方で、オクルージョン領域の発生を抑制してカバー率が高い高品質なテクスチャを取得するためには、オクルージョン領域の撮像に特化したような特別な動きを人物に行わせる必要があり、効率良くテクスチャを取得することは困難であった。
本開示は、このような状況に鑑みてなされたものであり、より効率良く高品質なテクスチャを取得することができるようにするものである。
本開示の一側面の情報処理装置は、ユーザの3Dモデルを構成するテクスチャの取得状況に基づいて、前記テクスチャが未取得の領域を撮像するためのモーションを生成するモーション生成部と、前記モーション生成部により生成されたモーションに応じた動作を前記ユーザに実行させるナビゲーションを行うナビゲーション実行部とを備える。
本開示の一側面の情報処理方法またはプログラムは、ユーザの3Dモデルを構成するテクスチャの取得状況に基づいて、前記テクスチャが未取得の領域を撮像するためのモーションを生成することと、生成されたモーションに応じた動作を前記ユーザに実行させるナビゲーションを行うこととを含む。
本開示の一側面においては、ユーザの3Dモデルを構成するテクスチャの取得状況に基づいて、テクスチャが未取得の領域を撮像するためのモーションが生成され、そのモーションに応じた動作をユーザに実行させるナビゲーションが行われる。
本開示の一側面によれば、より効率良く高品質なテクスチャを取得することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
3D画像システムの第1の構成例を示す図である。 3D画像システムの第2の構成例を示す図である。 ユーザの3Dモデルのレンダリング結果の一例を示す図である。 テクスチャに発生したオクルージョンの一例を示す図である。 情報処理装置の一実施の形態の構成例を示すブロック図である。 3Dモデル生成処理を説明するフローチャートである。 テクスチャが適切に取得されたか否かを判定する判定条件について説明する図である。 センシング装置のRGBカメラの主軸VDとポリゴンの法線SNが成す角度θについて説明する図である。 テクスチャにブラーが残るモーションの一例を示す図である。 側面のテクスチャを確実に取得することができるモーションの一例を示す図である。 足の裏などのテクスチャを確実に取得することができるモーションの一例を示す図である。 頭頂部や腋の下などのテクスチャを確実に取得することができるモーションの一例を示す図である。 頭頂部や腋の下などのテクスチャを確実に取得することができるモーションの一例を示す図である。 背面のテクスチャを確実に取得することができるモーションの一例を示す図である。 全周のテクスチャを確実に取得することができるモーションの一例を示す図である。 カバレッジが高くテクスチャを取得することができるモーションの一例を示す図である。 適切なテクスチャ取得が可能なタイミングについて説明する図である。 テクスチャ取得状況可視化マップの一例を示す図である。 初心者向けのモーションの一例を示す図である。 経験者向けのモーションの一例を示す図である。 最適な立ち位置、向き、動きの速さの提示について説明する図である。 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
<情報処理システムの構成例>
図1は、3D画像システムの第1の構成例を示す図である。
図1に示すように、3D画像システム11は、センシング装置12、表示装置13、プロジェクタ14、および情報処理装置15を備えて構成される。
センシング装置12は、カラー画像を撮像可能なRGBカメラ、および、デプス情報がマッピングされたデプス画像を取得可能なデプスカメラを有して構成される。そして、センシング装置12は、表示装置13の正面側に居るユーザをセンシングの対象としてカラー画像を撮像するとともに、ユーザに対するデプスを表すデプス画像を取得し、情報処理装置15に供給する。
表示装置13は、情報処理装置15による制御に従って、例えば、ユーザの3DモデルをレンダリングしたCG(Computer Graphics)画像を表示する。
プロジェクタ14は、情報処理装置15による制御に従って、例えば、センシング装置12がセンシングを行うことが可能な範囲にユーザを誘導するための誘導画像(例えば、後述する図21の矢印)を、床面などに投影する。なお、表示装置13を使用するのに替えて、例えば、プロジェクタ14が、ユーザの3DモデルをレンダリングしたCG画像を壁面やスクリーンなどに投影するような構成としてもよい。
情報処理装置15は、例えば、3Dグラフィック機能を備えたパーソナルコンピュータである。そして、情報処理装置15は、センシング装置12から供給されるカラー画像およびデプス画像に基づいて、ユーザの3Dモデルを生成し、その3DモデルがレンダリングされたCG画像を表示装置13に表示させる。なお、情報処理装置15の詳細な構成については、図5を参照して後述する。
このように構成される3D画像システム11では、ユーザは、表示装置13に表示されるCG画像を見ながら、そのCG画像を利用したナビゲーションに従って、3Dモデルを生成することができる。
図2は、3D画像システムの第2の構成例を示す図である。なお、図2に示す3D画像システム11Aの構成のうち、図1の3D画像システム11の構成と共通するものについては、同一の符号を付し、その詳細な説明は省略する。
例えば、3D画像システム11Aは、センシング装置12および情報処理装置15を備える点で、図1の3D画像システム11と共通の構成となっている。一方、3D画像システム11Aは、表示装置13およびプロジェクタ14に替えて、ヘッドマウントディスプレイ16を備える点で、図1の3D画像システム11と異なる構成となっている。つまり、上述したようなCG画像や誘導画像などは、ユーザが装着するヘッドマウントディスプレイ16に表示される。
従って、3D画像システム11Aでは、ユーザは、ヘッドマウントディスプレイ16に表示されるCG画像を見ながら、そのCG画像を利用したナビゲーションに従って、3Dモデルを生成することができる。
このように構成される3D画像システム11および11Aは、センシング装置12により取得されるカラー画像およびデプス画像を用いて、情報処理装置15においてユーザの3Dモデルを生成する。このとき、3D画像システム11および11Aでは、オクルージョン領域の発生を抑制して、ユーザの表面の全領域をカバーするようなカバー率が高い高品質なテクスチャを取得することができる。
ここで、図3および図4を参照して、ユーザの3Dモデル、および、テクスチャに発生するオクルージョン領域について説明する。
例えば、図3には、情報処理装置15が作成したユーザの3Dモデルをレンダリングした結果の一例として、基本的な立ち姿勢のユーザを正面、背面、および右側面からレンダリングしたCG画像が示されている。
このように、ユーザが立ち姿勢であるとき、センシング装置12のRGBカメラで、ユーザの腋の下や股の間などを撮像することは非常に困難である。そのため、図3に示すCG画像では目立たないが、センシング装置12のRGBカメラで撮像できなかった箇所にオクルージョン領域が発生している。
図4には、オクルージョン領域が発生している箇所が目立つような姿勢となるように3Dモデルをレンダリングした結果の一例が示されている。例えば、図4のAおよび図4のBにおいて丸印を付けた箇所で、テクスチャが埋められていないオクルージョン領域が発生している。
そこで、3D画像システム11および11Aでは、情報処理装置15が、オクルージョンが発生しないようにユーザをナビゲーションして、テクスチャを取得して3Dモデルを生成する3Dモデル生成処理を実行する。
<情報処理装置の構成例>
図5は、本技術を適用した情報処理装置の一実施の形態の構成例を示すブロック図である。
図5に示すように、情報処理装置15は、画像取得部21、画像情報解析部22、モーショントラッキング部23、モデリング部24、モーション提示部25、レンダリング部26、出力制御部27、およびテクスチャ取得処理部28を備えて構成される。
画像取得部21は、図1または図2のセンシング装置12から出力されるカラー画像およびデプス画像を取得する。そして、画像取得部21は、必要に応じて、カラー画像およびデプス画像を、画像情報解析部22、モーショントラッキング部23、モデリング部24、およびテクスチャ取得処理部28に供給する。
画像情報解析部22は、特徴量検出部31および属性推定部32を有しており、画像取得部21から供給されるカラー画像およびデプス画像を解析する処理を行う。
特徴量検出部31は、画像取得部21が取得したユーザのカラー画像およびデプス画像を解析し、ユーザの特徴量を検出する。
属性推定部32は、画像取得部21が取得したユーザのカラー画像およびデプス画像を解析し、例えば、ユーザの性別や年齢など、および、ユーザの習熟度(初心者、経験者、プロフェッショナルなど)を、ユーザの属性として推定する。
モーショントラッキング部23は、画像取得部21が取得したユーザのカラー画像およびデプス画像から、ユーザの動作に追従するモーショントラッキングを行う。例えば、モーショントラッキング部23は、モーショントラッキングを行うことで、ユーザに提示したモーションに従ったユーザの動作が完了したか否かを判断することができる。
モデリング部24は、メッシュ生成部41、およびテクスチャ生成部42を有しており、画像取得部21から供給されるカラー画像およびデプス画像に基づいて、ユーザの3Dモデルを生成する。
メッシュ生成部41は、例えば、デプス画像により表されるデプスに基づいて、ユーザの三次元的な形状をポリゴンの集合で表すメッシュを生成する。
テクスチャ生成部42は、例えば、カラー画像においてユーザが写されている領域を切り出して、ユーザの表面の色を表すテクスチャを生成する。
モーション提示部25は、モーション記録部51、モーション解析部52、およびモーション生成部53を有しており、よりカバー率の高いテクスチャを取得するためのモーションを提示する処理を行う。
モーション記録部51には、3Dモデルを生成するために必要となる様々なモーションが予め記録されている。
モーション解析部52は、モーション記録部51に記録されているモーションを解析する。
モーション生成部53は、テクスチャを埋めたい領域の優先度や、テクスチャが取得できていない要因、ユーザの属性および動きの習熟度などを参照し、テクスチャを埋めるための適切なモーションを生成する。
レンダリング部26は、モデリング部24により生成された3Dモデルに対し、モーション提示部25から供給されるモーションを適用してレンダリングを行い、ユーザの3DモデルのCG画像を生成する。
出力制御部27は、表示制御部61および投影制御部62を有しており、例えば、図1の表示装置13やプロジェクタ14、図2のヘッドマウントディスプレイ16に対する出力を制御する処理を行う。
表示制御部61は、表示装置13(表示装置13を使用しない場合にはプロジェクタ14)、またはヘッドマウントディスプレイ16に対する制御を行って、レンダリング部26が生成したユーザの3DモデルのCG画像を表示させる。
投影制御部62は、プロジェクタ14またはヘッドマウントディスプレイ16に対する制御を行って、ユーザを誘導するための誘導画像(例えば、後述する図21の矢印)を投影させる。
テクスチャ取得処理部28は、ナビゲーション実行部71、シミュレーション部72、テクスチャ取得条件判定部73、およびテクスチャ取得状況可視化マップ作成部74を有しており、より高品質なテクスチャを取得するのに必要な各種の処理を行う。
ナビゲーション実行部71は、テクスチャを取得するのに必要な登録作業や、適切な動作を実行するためのナビゲーションを行う。例えば、ナビゲーション実行部71は、3Dモデルを生成する際に、普段のトレーニングで行う準備運動のモーションの幾つかをモーション記録部51のデータベースに登録する。その際、ナビゲーション実行部71は、その動作のターゲットとして、種目や、年齢層、再現難易度(習熟度)なども登録する。また、ナビゲーション実行部71は、モーション生成部53が生成したテクスチャを埋めるための適切なモーションをユーザに動作してもらうために、オクルージョン領域や、最適な立ち位置(向き)、動きの速さなどのナビゲーションを行う。
シミュレーション部72は、3Dモデルを生成する際にユーザに提示すると登録されたモーションに従った解析を行う。例えば、モーション解析部52は、登録されたモーションに基づいた動作について仮想カメラによるシミュレーションを行って、メッシュを構成する各ポリゴンの法線と、センシング装置12のRGBカメラの主軸との角度(図7のθ)が最小化されるユーザの立ち位置や、ユーザの向き、ユーザが動くタイミングなどを算出する。
テクスチャ取得条件判定部73は、図7および図8を参照して後述するように、メッシュのポリゴンごとにテクスチャが適切に取得されているか否かを判定し、その判定結果に従って、予め設定されているテクスチャ取得条件(例えば、カバー率)を達成しているか否かを判定する。
テクスチャ取得状況可視化マップ作成部74は、テクスチャ取得条件判定部73による判定結果に基づいて、テクスチャ取得状況可視化マップを作成する。なお、テクスチャ取得状況可視化マップ作成部74が作成するテクスチャ取得状況可視化マップについては、図18を参照して後述する。
<3Dモデル生成処理>
図6に示すフローチャートを参照して、情報処理装置15において実行される3Dモデル生成処理について説明する。
ステップS11において、ナビゲーション実行部71は、テクスチャを取得するのに必要な登録作業を行う。例えば、ナビゲーション実行部71は、テクスチャを取得し直すための再撮像時に、ユーザに指定する動作(通常のウォーミングアップの動きなど)や、ターゲット、再現難易度、テクスチャを埋めたい領域の優先度、テクスチャ取得条件などを登録する。
ステップS12において、シミュレーション部72は、ステップS11で登録された動作から、センシング装置12のRGBカメラの主軸VDとポリゴンの法線SNとが成す角度θが最小化される立ち位置(向き)とタイミングをシミュレーションにより算出する。
ステップS13において、ナビゲーション実行部71は、ユーザに対してウォーミングアップの開始を指示するナビゲーションを行う。
ステップS14において、モデリング部24では、メッシュ生成部41がメッシュの生成を開始し、テクスチャ生成部42がテクスチャの生成を開始して、ウォーミングアップの動作をしているユーザのカラー画像およびデプス画像を用いて3Dモデリングを開始する。このとき、テクスチャ取得条件判定部73による判定も開始され、テクスチャ取得状況可視化マップ作成部74によるテクスチャ取得状況可視化マップの作成も開始される。
ステップS15において、属性推定部32は、センシング装置12が撮像したユーザのカラー画像およびデプス画像から、ユーザの属性および動きの習熟度を推定する。
その後、一定時間、ユーザに自由に動作してもらった後、ステップS16において、テクスチャ取得条件判定部73は、テクスチャ取得条件を満たしているか否かを判定する。
ステップS16において、テクスチャ取得条件判定部73が、テクスチャ取得条件を満たしていないと判定した場合、処理はステップS17に進む。
ステップS17において、テクスチャ取得状況可視化マップ作成部74は、メッシュのポリゴンごとにテクスチャが適切に取得されているか否かの判定結果に基づいて、例えば、オクルージョン領域を算出して可視化したテクスチャ取得状況可視化マップを作成する。テクスチャ取得状況可視化マップでは、図18を参照して後述するように、時間不足や角度不足などのようなテクスチャが取得できていない要因ごとに分類が行われ、それらの要因が可視化される。
ステップS18において、モーション生成部53は、ステップS11で登録済みの、テクスチャを埋めたい領域の優先度や、ユーザの属性および動きの習熟度などを参照し、テクスチャを埋めるための適切なモーションを生成する。このとき、モーション生成部53は、ステップS17で作成されたテクスチャ取得状況可視化マップにおけるテクスチャが取得できていない要因も参照する。
ステップS19において、ナビゲーション実行部71は、ステップS18で生成されたモーションをユーザに動作してもらうために、オクルージョン領域や、最適な立ち位置(向き)、動きの速さなど、適切な動作を実行するためのナビゲーションを行う。
ステップS20において、ステップS19でのナビゲーションに従って適切な動作を実行しているユーザを撮像して得られるカラー画像からテクスチャの取得が行われる。そして、ステップS18で生成されたモーションに従ったユーザの動作が完了すると、処理はステップS16に戻る。
以下、同様の処理が繰り返して行われ、ステップS16において、テクスチャ取得条件判定部73が、テクスチャ取得条件を満たしていると判定した場合、処理は終了される。
このような3Dモデル生成処理は、例えば、トレーニングジムの遠隔指導で利用することが想定される。例えば、ユーザの3Dモデルを作成し、ユーザのフォームを遠隔地の著名なトレーナーがチェックしてフィードバックすることができる。また、データベースに登録されるモーションは、担当トレーナー自身が登録してもよい。
さらに、後述するモーションのシミュレーションデータをデータベースに蓄積して公開することで、有効なテクスチャ取得のカバレッジが高いモーションや、選択される回数が多いモーションを共有することが可能となる。
<テクスチャ判定>
図7乃至図9を参照して、テクスチャが適切に取得されたか否かを判定する判定条件について説明する。
図7では、図7の下側に示すようなユーザのメッシュを構成する三角形状のポリゴンごとに、ユーザの右側面画像および正面画像からテクスチャを生成する例について説明する。
例えば、ポリゴンの色Cは、ユーザの右側面画像に写されているポリゴンの色C1と、ユーザの正面画像に写されているポリゴンの色C2とを合成すること(例えば、平均値)により求められる。
そして、あるポリゴンについてテクスチャが適切に取得されたか否かを判定する判定条件として、センシング装置12のRGBカメラからポリゴンまでの距離d、センシング装置12のRGBカメラの主軸VDとポリゴンの法線SNとが成す角度θ、ポリゴンがセンシング装置12のRGBカメラの前に露出していた時間tを用いることができる。
センシング装置12のRGBカメラからポリゴンまでの距離dの判定条件は、例えば、0.5〜2mに設定することが好適である。例えば、テクスチャ取得条件判定部73は、画像取得部21により取得されたデプス画像に基づいて、センシング装置12のRGBカメラからポリゴンまでの距離dが判定条件を満たしているか否かを判定することができる。
センシング装置12のRGBカメラの主軸VDとポリゴンの法線SNが成す角度θの判定条件は、10°以下に設定することが好適である。ここで、センシング装置12のRGBカメラの主軸VD、ポリゴンの法線SN、および、角度θは、図8に示すような関係となっている。例えば、センシング装置12のRGBカメラの主軸VDは既知であり、テクスチャ取得条件判定部73は、ポリゴンの法線SNをメッシュから求めることができる。
ポリゴンがセンシング装置12のRGBカメラの前に露出していた時間tの判定条件は、1秒を超えるように設定することが好適である。例えば、テクスチャ取得条件判定部73は、画像取得部21により取得されたカラー画像に基づいて、ポリゴンがセンシング装置12のRGBカメラの前に露出していた時間tが判定条件を満たしているか否かを判定することができる。
例えば、テクスチャ取得条件判定部73は、距離dの判定条件、角度θの判定条件、および、時間tの判定条件について、それぞれの達成率を算出する。この達成率に従って、高品質なテクスチャが取得されている領域と、高品質なテクスチャが取得されていない領域とを判断することができる。
このように、テクスチャが適切に取得されたか否かを判定するために、ポリゴンがセンシング装置12のRGBカメラの前に露出していた時間tの判定条件を用いることによって、例えば、ユーザが高速に動き、ブラーが残る可能性が高いテクスチャを排除することができる。
例えば、図9に示すようなモーションのように、ユーザが足の裏を高速に動かした場合には、足の裏のテクスチャにブラーが残る可能性が高く、テクスチャが適切に取得されていないと判定することができる。
<ナビゲートする方法>
図10乃至図16を参照して、オクルージョン領域が発生しないようにテクスチャを取得ことができるようにナビゲーションする方法について説明する。
図10には、側面のテクスチャを確実に取得することができるモーションの一例が示されている。例えば、スクワットしながら両手を上げ下げするようなモーションを行っているユーザを側面から撮像することで、側面のテクスチャが確実に取得される。このとき、テンポがゆっくりなモーションを提示することで、ブラーの発生を抑制して、より高品質なテクスチャを取得することができる。また、このモーションは、初心者および経験者に対して共通で行われ、難易度が低くなっている。
図11には、足の裏などのテクスチャを確実に取得することができるモーションの一例が示されている。例えば、一方の足でスクワットをしながら他方の足の裏を前方に向けるようなモーションを行っているユーザを正面から撮像することで、足の裏などのテクスチャが確実に取得される。また、このモーションは、経験者に対して行われ、難易度が高くなっている。
図12には、頭頂部や腋の下などのテクスチャを確実に取得することができるモーションの一例が示されている。例えば、前方に向かってうつぶせた状態から立ち上がって、両手を上げながらジャンプするようなモーションを行っているユーザを正面から撮像することで、頭頂部や腋の下などのテクスチャが確実に取得される。また、このモーションは、初心者および経験者に対して共通で行われ、難易度が低くなっている。
図13には、頭頂部や腋の下などのテクスチャを確実に取得することができるモーションの一例が示されている。例えば、両手を左右に大きく振りながら、片方の手で足の外側の床を触るようなモーションを行っているユーザを正面から撮像することで、頭頂部や腋の下などのテクスチャが確実に取得される。また、このモーションは、経験者に対して行われ、難易度が高くなっている。
図14には、背面のテクスチャを確実に取得することができるモーションの一例が示されている。例えば、クロスにステップを踏みながら、センシング装置12のRGBカメラの方向に背中を向けるようなモーションを行っているユーザを撮像することで、背面のテクスチャが確実に取得される。また、このモーションは、初心者および経験者に対して共通で行われ、難易度が低いダンスとなっている。
図15には、全周のテクスチャを確実に取得することができるモーションの一例が示されている。例えば、つま先でスピンをするようなモーションを行っているユーザを撮像することで、全周のテクスチャが確実に取得される。また、このモーションは、経験者に対して行われ、難易度が高いダンスとなっている。
図16には、カバレッジが高くテクスチャを取得することができるモーションの一例が示されている。例えば、両手と両足を大きく振りながら、くるくると全身を回すようなモーションを行っているユーザを撮像することで、カバレッジが高くテクスチャが確実に取得される。また、このモーションは、経験者に対して行われ、難易度が高いダンスとなっている。
このように、テクスチャの取得を目的とする部位(即ち、テクスチャの未取得の領域)ごとに、初心者向けや経験者向けなどに難易度が設定されたモーションが、ユーザの属性や動きの習熟度を参照して、モーション生成部53によって生成される。
<モーション別の適切なテクスチャ>
図17乃至図21を参照して、モーション別の適切なテクスチャ取得可能な位置および時間について説明する。
図17には、有効なテクスチャ取得が可能なタイミングの一例が示されている。
図17において、縦軸は、センシング装置12のRGBカメラの主軸VDとポリゴンの法線SNとが成す角度θを表しており、横軸は、ポリゴンがセンシング装置12のRGBカメラの前に露出していた時間tを表している。そして、角度θおよび時間tに基づいて、有効なテクスチャ取得が可能なタイミングが求められる。
図17では、センシング装置12のRGBカメラの主軸VDとポリゴンの法線SNとが成す角度θが+10°から−10°の範囲であって、ポリゴンがセンシング装置12のRGBカメラの前に露出していた時間tが約5秒から約8秒の範囲が、有効なテクスチャ取得が可能なタイミングとなっている。
このような有効なテクスチャ取得が可能なタイミングは、例えば、登録されたモーションから、センシング装置12のRGBカメラの主軸VDとポリゴンの法線SNとが成す角度θが最小化される立ち位置(向き)とタイミングとをシミュレーションによって算出することができる。例えば、モーションを登録する際に、ポリゴンごとに時間単位で角度θがシミュレーションされる。そして、そのモーションの中で、有効なテクスチャ取得が可能な時間を確保することができるように、または、センシング装置12のRGBカメラに正対することができるように、必要な向きの変更が算出され、モーション生成部53によりモーションが生成される。
図18には、テクスチャ取得状況可視化マップの一例が示されている。
例えば、一定時間、ユーザに自由に動作して貰った後、テクスチャ取得状況可視化マップ作成部74は、ポリゴンごとの判定結果に基づいて、テクスチャ取得状況可視化マップを作成することができる。
図18に示す例では、テクスチャ取得条件判定部73による判定結果に従って、オクルージョン領域(未撮影)、時間不足(例えば、時間tが1秒未満)である領域、角度不足(例えば、角度θが10°以上)である領域、および、テクスチャ取得済みである領域それぞれが、異なるハッチングにより分類されたテクスチャ取得状況可視化マップが作成されている。もちろん、テクスチャ取得状況可視化マップは、図18に示す例に限られることはなく、例えば、ヒートマップのように、テクスチャ取得条件判定部73による判定結果に従って、異なる色で分類されるようにしてもよい。
図19には、初心者向けのモーションの一例が示されており、図20には、経験者向けのモーションの一例が示されている。
例えば、モーション生成部53は、初心者向けのモーションおよび経験者向けのモーションを、テクスチャを埋めたい領域の優先度や、テクスチャが取得できていない場合の要因(距離d、角度θ、および時間t)、ユーザの属性および習熟度などを考慮して、モーション記録部51に記録されている様々なモーションを組み合わせて生成することができる。例えば、初心者向けのモーションでは、図19に示すように、ゆっくりと準備運動をするような動作で腋の下や股の間などが見えるような動きとなる。また、経験者向けのモーションでは、図20に示すように、例えば、空手の型のような動作を取り入れつつ腋の下や股の間などが見えるような動きとなる。
図21を参照して、最適な立ち位置、向き、動きの速さの提示について説明する。
例えば、図21に示されている矢印は、センシング装置12がセンシングを行うことが可能な範囲(図示する一点鎖線の範囲)にユーザを誘導するために、プロジェクタ14によって床面に投影される誘導画像である。このような矢印を提示することによって、センシング装置12によりカラー画像およびデプス画像を撮像するのに最適な立ち位置や向きとなるように、ユーザを誘導することができる。また、映像や音声などにより、最適な動きの速さとなるようにユーザを誘導してもよい。
これにより、例えば、お手本となるモーションの3DモデルをレンダリングしたCG画像を表示装置13に表示し、ユーザを誘導するための矢印をプロジェクタ14で投影することで、センシング装置12がセンシングを行うのに最適となる立ち位置や向きで、モーションを再現するような動きをユーザに行わせることができる。
以上のように、3D画像システム11では、品質の高いテクスチャを取得できているか、どの領域のテクスチャが埋められていないかを自動で判断することで、撮影者なしで、かつ、自然な動きの中でのテクスチャを取得することが可能となる。例えば、撮影されていないテクスチャ領域を埋める処理において、最もテクスチャを埋めやすい効率的な動作を過去の本人の動き、普段のトレーニングで実施する登録済の動きのパターンから割り出しナビゲートする。これにより、ユーザに特別な動きを強要せずにカバレッジの高いテクスチャを取得することができる。
また、本実施の形態では、簡易な撮影システム環境下における人物の3Dモデルの生成において、入力されたカラー画像およびデプス画像から、被写体となるユーザの性別や年齢などの属性を分析する。これにより、動きによる習熟度の判定や、3Dモデル用テクスチャのオクルージョン領域の判定などを実施し、高品位なテクスチャ取得およびカバレッジ向上を目的としたモーションを生成することができる。そして、実際の動きへ誘導するナビゲーション提示を行うことで、撮影者なしのセルフでの撮影環境であっても、自然な動きの中で3Dモデル(即ち、メッシュおよびテクスチャ)を生成することができる。
<コンピュータの構成例>
次に、上述した一連の処理(情報処理方法)は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
図22は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示すブロック図である。
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク105やROM103に予め記録しておくことができる。
あるいはまた、プログラムは、ドライブ109によって駆動されるリムーバブル記録媒体111に格納(記録)しておくことができる。このようなリムーバブル記録媒体111は、いわゆるパッケージソフトウェアとして提供することができる。ここで、リムーバブル記録媒体111としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
なお、プログラムは、上述したようなリムーバブル記録媒体111からコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵するハードディスク105にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
コンピュータは、CPU(Central Processing Unit)102を内蔵しており、CPU102には、バス101を介して、入出力インタフェース110が接続されている。
CPU102は、入出力インタフェース110を介して、ユーザによって、入力部107が操作等されることにより指令が入力されると、それに従って、ROM(Read Only Memory)103に格納されているプログラムを実行する。あるいは、CPU102は、ハードディスク105に格納されたプログラムを、RAM(Random Access Memory)104にロードして実行する。
これにより、CPU102は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU102は、その処理結果を、必要に応じて、例えば、入出力インタフェース110を介して、出力部106から出力、あるいは、通信部108から送信、さらには、ハードディスク105に記録等させる。
なお、入力部107は、キーボードや、マウス、マイク等で構成される。また、出力部106は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
また、例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。
また、例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、例えば、上述したプログラムは、任意の装置において実行することができる。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。
また、例えば、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。換言するに、1つのステップに含まれる複数の処理を、複数のステップの処理として実行することもできる。逆に、複数のステップとして説明した処理を1つのステップとしてまとめて実行することもできる。
なお、コンピュータが実行するプログラムは、プログラムを記述するステップの処理が、本明細書で説明する順序に沿って時系列に実行されるようにしても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで個別に実行されるようにしても良い。つまり、矛盾が生じない限り、各ステップの処理が上述した順序と異なる順序で実行されるようにしてもよい。さらに、このプログラムを記述するステップの処理が、他のプログラムの処理と並列に実行されるようにしても良いし、他のプログラムの処理と組み合わせて実行されるようにしても良い。
なお、本明細書において複数説明した本技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術の一部または全部を、他の実施の形態において説明した本技術の一部または全部と組み合わせて実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。
<構成の組み合わせ例>
なお、本技術は以下のような構成も取ることができる。
(1)
ユーザの3Dモデルを構成するテクスチャの取得状況に基づいて、前記テクスチャが未取得の領域を撮像するためのモーションを生成するモーション生成部と、
前記モーション生成部により生成されたモーションに応じた動作を前記ユーザに実行させるナビゲーションを行うナビゲーション実行部と
を備える情報処理装置。
(2)
ユーザの属性および動きの習熟度を推定する属性推定部
をさらに備え、
前記モーション生成部は、前記属性推定部により推定されたユーザの属性および動きの習熟度を参照し、前記モーションを生成する
上記(1)に記載の情報処理装置。
(3)
前記3Dモデルを構成するメッシュのポリゴンごとに、前記テクスチャが適切に取得されているか否かを判定する判定部
をさらに備え、
前記モーション生成部は、前記判定部によって前記テクスチャが適切に取得されていないと判定された領域を参照し、前記モーションを生成する
上記(1)または(2)に記載の情報処理装置。
(4)
前記判定部による判定結果に基づいて、前記テクスチャの取得状況を可視化したマップを作成するマップ作成部
をさらに備える上記(3)に記載の情報処理装置。
(5)
前記マップ作成部は、前記テクスチャが取得できない要因ごとに前記マップ上で可視化を行う
上記(4)に記載の情報処理装置。
(6)
前記判定部は、前記テクスチャが適切に取得されているか否かを判定する判定条件として、ユーザを撮像する撮像装置の主軸と、判定の対象となっている前記ポリゴンの法線との成す角度を用いる
上記(3)から(5)までのいずれかに記載の情報処理装置。
(7)
前記判定部は、前記テクスチャが適切に取得されているか否かを判定する判定条件として、ユーザを撮像する撮像装置の前に、判定の対象となっている前記ポリゴンが露出していた時間を用いる
上記(3)から(6)までのいずれかに記載の情報処理装置。
(8)
前記判定部は、前記テクスチャが適切に取得されているか否かを判定する判定条件として、ユーザを撮像する撮像装置から、判定の対象となっている前記ポリゴンまでの距離を用いる
上記(3)から(7)までのいずれかに記載の情報処理装置。
(9)
3Dモデル生成処理を行う情報処理装置が、
ユーザの3Dモデルを構成するテクスチャの取得状況に基づいて、前記テクスチャが未取得の領域を撮像するためのモーションを生成することと、
生成されたモーションに応じた動作を前記ユーザに実行させるナビゲーションを行うことと
を含む情報処理方法。
(10)
3Dモデル生成処理を行う情報処理装置のコンピュータに、
ユーザの3Dモデルを構成するテクスチャの取得状況に基づいて、前記テクスチャが未取得の領域を撮像するためのモーションを生成することと、
生成されたモーションに応じた動作を前記ユーザに実行させるナビゲーションを行うことと
を含む処理を実行させるためのプログラム。
なお、本実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
11 3D画像システム, 12 センシング装置, 13 表示装置, 14 プロジェクタ, 15 情報処理装置, 21 画像取得部, 22 画像情報解析部, 23 モーショントラッキング部, 24 モデリング部, 25 モーション提示部, 26 レンダリング部, 27 出力制御部, 28 テクスチャ取得処理部, 31 特徴量検出部, 32 属性推定部, 41 メッシュ生成部, 42 テクスチャ生成部, 51 モーション記録部, 52 モーション解析部, 53 モーション生成部, 61 表示制御部, 62 投影制御部, 71 ナビゲーション実行部, 72 シミュレーション部, 73 テクスチャ取得条件判定部, 74 テクスチャ取得状況可視化マップ作成部

Claims (10)

  1. ユーザの3Dモデルを構成するテクスチャの取得状況に基づいて、前記テクスチャが未取得の領域を撮像するためのモーションを生成するモーション生成部と、
    前記モーション生成部により生成されたモーションに応じた動作を前記ユーザに実行させるナビゲーションを行うナビゲーション実行部と
    を備える情報処理装置。
  2. ユーザの属性および動きの習熟度を推定する属性推定部
    をさらに備え、
    前記モーション生成部は、前記属性推定部により推定されたユーザの属性および動きの習熟度を参照し、前記モーションを生成する
    請求項1に記載の情報処理装置。
  3. 前記3Dモデルを構成するメッシュのポリゴンごとに、前記テクスチャが適切に取得されているか否かを判定する判定部
    をさらに備え、
    前記モーション生成部は、前記判定部によって前記テクスチャが適切に取得されていないと判定された領域を参照し、前記モーションを生成する
    請求項1に記載の情報処理装置。
  4. 前記判定部による判定結果に基づいて、前記テクスチャの取得状況を可視化したマップを作成するマップ作成部
    をさらに備える請求項3に記載の情報処理装置。
  5. 前記マップ作成部は、前記テクスチャが取得できない要因ごとに前記マップ上で可視化を行う
    請求項4に記載の情報処理装置。
  6. 前記判定部は、前記テクスチャが適切に取得されているか否かを判定する判定条件として、ユーザを撮像する撮像装置の主軸と、判定の対象となっている前記ポリゴンの法線との成す角度を用いる
    請求項3に記載の情報処理装置。
  7. 前記判定部は、前記テクスチャが適切に取得されているか否かを判定する判定条件として、ユーザを撮像する撮像装置の前に、判定の対象となっている前記ポリゴンが露出していた時間を用いる
    請求項3に記載の情報処理装置。
  8. 前記判定部は、前記テクスチャが適切に取得されているか否かを判定する判定条件として、ユーザを撮像する撮像装置から、判定の対象となっている前記ポリゴンまでの距離を用いる
    請求項3に記載の情報処理装置。
  9. 3Dモデル生成処理を行う情報処理装置が、
    ユーザの3Dモデルを構成するテクスチャの取得状況に基づいて、前記テクスチャが未取得の領域を撮像するためのモーションを生成することと、
    生成されたモーションに応じた動作を前記ユーザに実行させるナビゲーションを行うことと
    を含む情報処理方法。
  10. 3Dモデル生成処理を行う情報処理装置のコンピュータに、
    ユーザの3Dモデルを構成するテクスチャの取得状況に基づいて、前記テクスチャが未取得の領域を撮像するためのモーションを生成することと、
    生成されたモーションに応じた動作を前記ユーザに実行させるナビゲーションを行うことと
    を含む処理を実行させるためのプログラム。
JP2018151787A 2018-08-10 2018-08-10 情報処理装置および情報処理方法、並びにプログラム Pending JP2021182175A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018151787A JP2021182175A (ja) 2018-08-10 2018-08-10 情報処理装置および情報処理方法、並びにプログラム
CN201980051860.9A CN112534478B (zh) 2018-08-10 2019-07-26 信息处理装置、信息处理方法和程序
PCT/JP2019/029364 WO2020031741A1 (ja) 2018-08-10 2019-07-26 情報処理装置および情報処理方法、並びにプログラム
US17/250,577 US11989892B2 (en) 2018-08-10 2019-07-26 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018151787A JP2021182175A (ja) 2018-08-10 2018-08-10 情報処理装置および情報処理方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2021182175A true JP2021182175A (ja) 2021-11-25

Family

ID=69414123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018151787A Pending JP2021182175A (ja) 2018-08-10 2018-08-10 情報処理装置および情報処理方法、並びにプログラム

Country Status (4)

Country Link
US (1) US11989892B2 (ja)
JP (1) JP2021182175A (ja)
CN (1) CN112534478B (ja)
WO (1) WO2020031741A1 (ja)

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8437506B2 (en) * 2010-09-07 2013-05-07 Microsoft Corporation System for fast, probabilistic skeletal tracking
KR101608253B1 (ko) 2011-08-09 2016-04-01 인텔 코포레이션 이미지 기반 멀티 뷰 3d 얼굴 생성
CN103679797A (zh) * 2012-09-03 2014-03-26 潘海朗 采用可变形模型的人肢体建模方法及虚拟人模型控制平台
CN103226843A (zh) * 2013-04-23 2013-07-31 苏州华漫信息服务有限公司 无线3d照相系统及实现方法
US9886636B2 (en) * 2013-05-23 2018-02-06 GM Global Technology Operations LLC Enhanced top-down view generation in a front curb viewing system
MA41117A (fr) 2014-12-05 2017-10-10 Myfiziq Ltd Imagerie d'un corps
US10853625B2 (en) * 2015-03-21 2020-12-01 Mine One Gmbh Facial signature methods, systems and software
JP2017107503A (ja) * 2015-12-11 2017-06-15 株式会社リコー 情報処理装置、情報処理方法、プログラムおよびシステム
KR101886511B1 (ko) 2015-09-30 2018-08-07 가부시키가이샤 리코 정보 처리 장치 및 시스템
JP2017080201A (ja) * 2015-10-29 2017-05-18 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理方法、プログラム
CN106650217B (zh) 2015-10-29 2020-06-30 佳能市场营销日本株式会社 信息处理装置以及信息处理方法
JP6805422B2 (ja) 2016-03-08 2020-12-23 株式会社電通 装置、プログラム及び情報処理方法
GB201709199D0 (en) * 2017-06-09 2017-07-26 Delamont Dean Lindsay IR mixed reality and augmented reality gaming system

Also Published As

Publication number Publication date
US11989892B2 (en) 2024-05-21
CN112534478A (zh) 2021-03-19
US20210295538A1 (en) 2021-09-23
WO2020031741A1 (ja) 2020-02-13
CN112534478B (zh) 2023-12-15

Similar Documents

Publication Publication Date Title
US11599188B2 (en) System and method for generating a virtual reality scene based on individual asynchronous motion capture recordings
CN106170083B (zh) 用于头戴式显示器设备的图像处理
US20200045241A1 (en) System and method for acquiring virtual and augmented reality scenes by a user
KR101748593B1 (ko) 생성된 장면 내에서 연기하는 배우의 시야와 움직임의 캡쳐
Latoschik et al. FakeMi: A fake mirror system for avatar embodiment studies
TW202004421A (zh) 用於在hmd環境中利用傳至gpu之預測及後期更新的眼睛追蹤進行快速注視點渲染
JP2019534510A (ja) 表面モデル化システムおよび方法
WO2013059751A1 (en) Calculating metabolic equivalence with a computing device
EP4359892A1 (en) Body pose estimation using self-tracked controllers
KR102009400B1 (ko) 실감형 영상 콘텐츠 제공 방법 및 이를 이용한 서버
WO2020031741A1 (ja) 情報処理装置および情報処理方法、並びにプログラム
KR20200117685A (ko) 가상 객체 인식 방법, 상기 가상 객체를 이용한 증강 현실 콘텐츠 제공 방법 및 이를 위한 증강 방송 시스템
JP2020071718A (ja) 情報処理装置、情報処理方法及びプログラム
US20230162458A1 (en) Information processing apparatus, information processing method, and program
US20240005600A1 (en) Nformation processing apparatus, information processing method, and information processing program
US20240078767A1 (en) Information processing apparatus and information processing method
KR20210090180A (ko) 화상 처리 디바이스, 화상 처리 방법, 프로그램, 및 표시 디바이스
CN117859153A (zh) 信息处理装置、信息处理方法和程序
Akinjala et al. Animating human movement & gestures on an agent using Microsoft kinect
KR102130902B1 (ko) 360도 영상을 2d 영상으로 변환하는 방법 및 장치
Marnik et al. Using computer graphics, vision and gesture recognition tools for building interactive systems supporting therapy of children
JP2022051977A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2022182836A (ja) 映像処理装置及びその制御方法及びプログラム
CN113780141A (zh) 一种对弈模型的构建方法和装置
RU2021124165A (ru) Способ визуализации динамической анатомической структуры