JP6585866B1 - 位置データ処理装置およびプログラム - Google Patents

位置データ処理装置およびプログラム Download PDF

Info

Publication number
JP6585866B1
JP6585866B1 JP2019028181A JP2019028181A JP6585866B1 JP 6585866 B1 JP6585866 B1 JP 6585866B1 JP 2019028181 A JP2019028181 A JP 2019028181A JP 2019028181 A JP2019028181 A JP 2019028181A JP 6585866 B1 JP6585866 B1 JP 6585866B1
Authority
JP
Japan
Prior art keywords
anchor
position data
virtual space
data processing
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019028181A
Other languages
English (en)
Other versions
JP2020135428A (ja
Inventor
真宇 角
真宇 角
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Priority to JP2019028181A priority Critical patent/JP6585866B1/ja
Application granted granted Critical
Publication of JP6585866B1 publication Critical patent/JP6585866B1/ja
Publication of JP2020135428A publication Critical patent/JP2020135428A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】仮想空間内のオブジェクトに、その対応する現実空間内の対象体と同一または類似の印象を与える姿勢を取らせる。【解決手段】本発明の一態様に係る位置データ処理装置は、第1の決定部と、判定部と、第2の決定部とを含む。第1の決定部は、第1の部位を有する対象体を含む1以上の物体の表面の現実空間における複数の位置データに基づいて、第1の部位の位置と、現実空間に設定された1以上のアンカーの位置とを決定する。判定部は、第1の部位がアンカーの各々と所定の関係にあるか否かを第1の部位の位置およびアンカーの位置に基づいて判定する。第2の決定部は、第1の部位がアンカーのいずれかと所定の関係にあると判定された場合に、対象体に対応する仮想空間上の対象オブジェクトの有する第1の部位に対応する第2の部位の位置をアンカーの位置に対応する仮想空間内の位置に基づいて決定する。【選択図】 図1

Description

本発明は、現実空間における位置データを仮想空間における位置データに変換する技術に関する。
近年、例えばHMD(Head Mounted Display)を装着した演者の身体の動きから生成したMC(Motion Capture)データを利用して、演者に追従して動くオブジェクト、いわゆるアバターのアニメーションを生成し、観客の端末へインターネット経由で生配信することが知られている。このMCデータは、例えば、演者の身体に取り付けられたマーカーを複数のカメラにより撮影することで得られた複数の画像からマーカーの位置を検出することで生成されたり(光学式)、演者が装着するHMDなどに搭載されたジャイロセンサおよび/または加速度センサなどの慣性センサの計測結果に基づいて、それぞれのセンサの位置姿勢を算出することで生成されたりする(慣性センサ式)。
しかしながら、演者の体格(特に、身体のプロポーション)と、そのアバターの体格とは必ずしも一致しない。例えば、アバターは、演者に比べて腕や脚が長かったり短かったり、頭部や胴部が大きかったり小さかったりすることがあり得る。このような場合に、MCデータに忠実にアバターの姿勢を決定すると、例えば演者が手で顔を触る姿勢を取っている時に、アバターの手や前腕が頭部に埋没する、または逆に届いていない、というようにアバターの姿勢が演者の意図と異なるものとなることがある。故に、演者は従来、意図した姿勢をアバターに取らせるために、アバターをこまめに確認しながら、または感覚に頼って、自らの姿勢を調整する必要があった。
特許文献1には、「モーションキャプチャー装置によってアバターを動作させ、且つ、所定条件に該当する場合には生成動作でアバターを動作させ、より現実世界に合致した自然な動作を実現する」(要約書)と記載されている。具体例として、[0029]には、「入力姿勢から、利用者が行っているしぐさが所定条件(例えば、歩きの身ぶり、走るの身ぶり、早歩きの身ぶり、泳ぐ、登る、飛ぶ、よける、しゃがむ、振り返る等の能動的動作)に該当することを判別したとき、適切な動作を生成し、生成動作に追従制御する」および「このとき、生成動作にアバターを完全に追従させるのではなく、入力姿勢への追従制御の比率を適切に制御することで、例えば、歩きながら手を振ったり等の、生成動作と利用者の動作を同時に実行させることができる」と記載されている。
また、特許文献2には、「操作者のスケルトン情報を利用した多様な画像を生成する」([0006])ための技法が提供されている。具体的には、[0008]によれば、体格等が異なる多様な操作者に対応するために、操作者のスケルトン情報で表されるスケルトンの骨の位置情報について補正処理を行い、補正処理の結果に応じた画像を生成することが看取できる。例えば、大人のスケルトンが第1の状態(例えば、右手を上げるなどの姿勢状態)である時のオブジェクト(例えば右手オブジェクト)の表示位置と、子供が同じ姿勢状態である時のオブジェクトの表示位置とが同じ位置になるように補正処理が行われる([0074])。さらに、操作者の位置(例えば肩)と所定部位(例えば手)に対応する関節との間の角度を用いて、オブジェクトの表示位置の補正処理を行うことも看取できる([0118])。
特開2007−334443号公報 特開2011−258159号公報
特許文献1に記載の技法によれば、生成動作による追従制御を行うべき条件を逐一定義する必要があるが、演者の取り得るあらゆる姿勢について網羅的に条件を定義することは容易でない。加えて、生成動作と入力姿勢への追従制御との比率を適切に制御することは記載されているものの、入力姿勢への追従制御において演者およびアバターの体格のミスマッチは考慮されていないので、例えば歩きながら手を振る、という動作を実行させた場合に手が顔に埋没する/届かないなどの問題は依然として起こり得る。
また、特許文献2に記載の技法は、例えば手などのオブジェクトの表示位置を補正することで、操作者間の体格差によるゲームプレイの有利/不利が生まれるのを防止する([0107])という効果を奏する可能性はある。しかしながら、特許文献2においてその表示位置が補正されるのは、例えば図4(B)および図5(B)における左手オブジェクトHLおよび右手オブジェクトHRなどであって、アバターとなるキャラクタCH1、CH2とは独立している。そして、特許文献2において、これらのキャラクタCH1、CH2の姿勢の制御についての言及はない。
本発明は、仮想空間内のオブジェクトに、その対応する現実空間内の対象体と同一または類似の印象を与える姿勢を取らせることを目的とする。
本発明の一態様に係る位置データ処理装置は、データ取得部と、第1の位置決定部と、関係判定部と、第2の位置決定部とを含む。データ取得部は、第1の部位を有する対象体を含む1以上の物体の表面の現実空間における複数の位置データを取得する。第1の位置決定部は、複数の位置データに基づいて、第1の部位の位置と、現実空間に設定された1以上のアンカーの位置とを決定する。関係判定部は、第1の部位がアンカーの各々と所定の関係にあるか否かを第1の部位の位置およびアンカーの位置に基づいて判定する。第2の位置決定部は、第1の部位がアンカーのいずれかと所定の関係にあると判定された場合に、対象体に対応する仮想空間上の対象オブジェクトの有する第1の部位に対応する第2の部位の位置をアンカーの位置に対応する仮想空間内の位置に基づいて決定する。
本発明によれば、仮想空間内のオブジェクトに、その対応する現実空間内の対象体と同一または類似の印象を与える姿勢を取らせることができる。
実施形態に係る位置データ処理装置を例示するブロック図。 図1の位置データ処理装置を適用可能なコンテンツ共有システムを例示するブロック図。 図2のクライアントによって生成されるMCデータの説明図。 現実空間における対象体を例示する図。 図4の対象体の姿勢に基づいて、アンカーを利用せずに生成される対象オブジェクトを例示する図。 図4の対象体の姿勢に基づいて、アンカーを利用して生成される対象オブジェクトを例示する図。 現実空間における対象体を例示する図。 図7の対象体の姿勢に基づいて、アンカーを利用せずに生成される対象オブジェクトを例示する図。 図7の対象体の姿勢に基づいて、アンカーを利用して生成される対象オブジェクトを例示する図。 図1の位置データ処理装置の動作を例示するフローチャート。
以下、図面を参照しながら実施形態の説明を述べる。なお、以降、説明済みの要素と同一または類似の要素には同一または類似の符号を付し、重複する説明については基本的に省略する。例えば、複数の同一または類似の要素が存在する場合に、各要素を区別せずに説明するために共通の符号を用いることがあるし、各要素を区別して説明するために当該共通の符号に加えて枝番号を用いることもある。
(実施形態)
実施形態に係る位置データ処理装置は、現実空間における複数の位置データを含む第1の位置データセットを取得し、これに対してマッピング(変換)を行うことでアバター画像のレンダリングに必要とされる仮想空間における複数の位置データを含む第2の位置データセットを生成する。なお、位置データ処理装置は、姿勢制御装置、または姿勢制御支援装置、などと呼ぶこともできる。
具体的には、この位置データ処理装置は、例えば物体の表面の複数の部位(光学MCデータの場合には、動体の複数の部位に取り付けられたマーカー)の現実空間内の位置を示す3次元位置データを有する第1の位置データセットを、仮想空間における第2の位置データセットへ変換する。ここで、物体の数は、1つであってもよいし複数であってもよい。また、物体は、演者などの動体に限らず非動体を含み得る。この位置データ処理装置は、種々の位置データセットを処理可能であるが、以降の説明では便宜的にMCデータを入力することを前提とする。また、この位置データ処理装置は、2次元などの3次元以外の位置データを要素とする位置データセットにも適用可能である。
MCデータは、例えば、MCスタジオにおいて本格的に生成されてもよいし(第1の例)、例えばコンテンツ共有システムによって共有されることになるコンテンツ、例えば動画、またはVR(Virtual Reality)、AR(Augmented Reality)、MR(Mixed Reality)などの仮想的コンテンツの演者(配信者)の自宅などで簡易に生成されてもよい(第2の例)。
第1の例では、演者はマーカー付きの全身タイツなどを装着することで、その身体の複数の部位の動きをマーカーを介して補足できるようにする。そして、スタジオ内に設置された複数のカメラが、異なるアングルから演者を撮影する。クライアント(例えば、スタジオ内に設置されたコンピュータ、または複数の画像データを収集可能にネットワーク、例えばインターネットに接続された遠隔コンピュータ)が、複数の画像からマーカーの3次元位置を検出することにより、MCデータを生成する。
第2の例では、演者は、例えば慣性センサなどのセンサを内蔵したHMDを頭部に装着し、および/またはセンサを内蔵したコントローラ(操作スティックとも呼ぶ)を把持する。そして、クライアントは、これらのセンサの計測結果であるセンシングデータを収集し、これらのセンシングデータに基づいて、演者の身体の複数の部位、例えば頭部および/または手の動きを計算することで、MCデータを生成する。第2の例において、クライアントは、例えば、PC(Personal Computer)、スマートフォンであってもよいし、または複数のセンシングデータを収集可能にネットワーク、例えばインターネットに接続された遠隔コンピュータであってもよい。
MCデータを仮想空間における位置データに変換し、これに基づいてアバター画像を生成(レンダリング)することで、演者の挙動に合わせて身体を動かすアバターが登場する動画または仮想的コンテンツを作成することが可能となる。この場合に、MCデータは、動画または仮想的コンテンツの1フレーム毎に生成され得る。かかる動画または仮想的コンテンツの共有を可能とするコンテンツ共有システムが図2に例示される。
図2のシステムは、クライアント200と、サーバ300と、観客端末400−1,400−2,・・・とを含む。
クライアント200は、例えば演者の居るMCスタジオ、家庭内などにあるコンピュータであってもよいし、演者から得られた画像データ、センシングデータなどをネットワーク、例えばインターネット経由で収集する遠隔コンピュータであってもよい。クライアント200は、演者から得られた画像データ、センシングデータなどに基づいて、MCデータを生成する。MCデータは、図3に例示されるように、演者の身体の複数の部位に取り付けられたマーカー(白丸)それぞれの3次元位置データを含み得る。クライアント200は、典型的には、生の、または何らかの補正済みのMCデータをサーバ300へ送信する。なお、クライアント200および配信者端末が異なる場合には、MCデータは、配信者端末経由でサーバ300へ送信されてもよい。
なお、クライアント200は、MCデータそのものではなく、当該MCデータを変換することで生成した仮想空間における位置データセット、これに基づくアバター画像、またはこれを含む動画もしくは仮想的コンテンツを生成し、サーバ300へ送信してもよい。この場合には、実施形態に係る位置データ処理装置はクライアント200に含まれることになる。
サーバ300は、ネットワーク、例えばインターネットに接続されたコンピュータである。サーバ300は、典型的には、クライアント200からネットワーク経由でMCデータなどの現実空間における第1の位置データセットを受信する。サーバ300は、受信した第1の位置データセットを仮想空間における第2の位置データセットへと変換し得る。すなわち、実施形態に係る位置データ処理装置は、サーバ300に含まれることもあり得る。さらに、サーバ300は、自ら生成した、またはクライアント200から受信した仮想空間における位置データセットに基づいて、アバター画像、またはこれを含む動画もしくは仮想的コンテンツを生成し、観客端末400(および)配信者端末に配信し得る。
なお、サーバ300は、アバター画像、またはこれを含む動画もしくは仮想的コンテンツの代わりに、クライアント200から受信した現実空間における第1の位置データセットを観客端末400(および)配信者端末に配信してもよい。この場合には、かかるデータセットを受信した観客端末400(および配信者端末)がマッピングを行う。すなわち、実施形態に係る位置データ処理装置は観客端末400(および配信者端末)に含まれることもあり得る。或いは、サーバ300は、自ら生成した、またはクライアント200から受信した仮想空間における第2の位置データセットを観客端末400(および配信者端末)に配信してもよい。
ここでは、1つのサーバ300が位置データセットのマッピング(変換)、マッピング後のデータセットに基づくアバター画像、および/またはこれを含む動画または仮想的コンテンツの生成、ならびにアバター画像、動画または仮想的コンテンツの配信を行うこととしているが、これらは別個のサーバによって分担されてもよい。
前述のように、位置データセットのマッピングおよび/またはアバター画像の生成は、クライアント200(または配信者端末)によってなされてもよいし、サーバ300によってなされてもよいし、観客端末400(および配信者端末)によってなされてもよい。
位置データセットのマッピングおよびこれに基づくアバター画像の生成をサーバ300によって行えば、観客端末400(および配信者端末)がこれらの処理をするための十分なマシンパワーを有していなかったとしても、観客(および配信者)が同一の動画または仮想的コンテンツを楽しむことができるという利点がある。他方、アバター画像を観客端末400(およびクライアント200または配信者端末)によって生成すれば、画像データに比べてサイズの小さな位置データセットが伝送されるので通信量を抑制することができる、サーバ300の処理負荷を軽減できる、さらに観客(および配信者)が個別に好みの外観(キャラクタ、ファッション、など)のアバターを設定可能とすることで観客(および配信者)が挙動は同じだがアバターの外観は異なる動画または仮想的コンテンツを楽しむことができる、などの利点がある。
なお、配信者端末は仮想空間における位置データセットまたはこれに基づくアバター画像の宛先から除外されてもよい。また、配信者端末およびクライアント200は互いに別の装置であってもよいし、両者が同一の装置であってもよい。ここで、配信者端末は、例えば、PC、モバイル端末(例えば、タブレット、ファブレット、スマートフォン、ラップトップ、ウェアラブルデバイス、ポータブルゲーム機、など)、据え置き型ゲーム機、などのネットワーク、例えばインターネットに接続可能な電子デバイスであってよく、配信者がHMDにより動画または仮想的コンテンツを体験する場合には配信者端末はこのHMDの制御装置として機能し得る。
観客端末400は、図2のシステムによって共有されるコンテンツの受け手である観客にこのコンテンツを体験させる。観客端末400は、配信者端末と同様にネットワーク、例えばインターネットに接続可能な電子デバイスであってよい。観客端末400は、観客がHMDにより動画または仮想的コンテンツを体験する場合には観客端末400はこのHMDの制御装置として機能し得る。観客端末400は、サーバ300からネットワーク経由で、位置データセット、これに基づくアバター画像、またはこれを含む動画もしくは仮想的コンテンツを受信する。観客端末400は、受信した位置データセットに基づいてアバター画像を含む動画または仮想的コンテンツを生成、出力したり、受信したアバター画像に基づいて当該アバター画像を含む動画または仮想的コンテンツを生成、出力したり、受信した動画または仮想的コンテンツを出力したりする。動画または仮想的コンテンツは、観客端末400に内蔵、外付けまたは無線接続された表示デバイス、例えば液晶ディスプレイ、有機EL(electroluminescence)ディスプレイ、HMDなどによって出力(表示)され得る。
なお、図2のシステムでは、C/S(Client / Server)型のネットワーク経由でMCデータなどが伝送されているが、かかるデータはP2P(Peer to Peer)型のネットワーク経由で、すなわちクライアント200(または配信者端末)から観客端末400へ直接伝送されてもよい。
次に、実施形態に係る位置データ処理装置を説明する。この位置データ処理装置は、位置データセットのマッピングなどの処理を行うプロセッサを含む。ここで、プロセッサは、典型的にはCPU(Central Processing Unit)および/またはGPU(Graphics Processing Unit)であるが、マイコン、FPGA(Field Programmable Gate Array)、DSP(Digital Signal Processor)、またはその他の汎用または専用のプロセッサなどであってもよい。
また、位置データ処理装置は、かかる処理を実現するためにプロセッサによって実行されるプログラムおよび当該プロセッサによって使用されるデータ、例えば、現実空間における第1の位置データセット(例えば、MCデータ)、仮想空間における第2の位置データセット、部位/アンカー定義データ、などを一時的に格納し得るメモリを含んでいる。メモリは、かかるプログラム/データが展開されるワークエリアを有するRAM(Random Access Memory)を含み得る。
なお、位置データ処理装置は、全てのデータをオンメモリの状態で扱ってもよいし、一部のデータが補助記憶装置に退避されていてもよい。補助記憶装置は、例えば、位置データ処理装置に内蔵または外付けされたHDD(Hard Disc Drive)、SSD(Solid State Drive)、フラッシュメモリなどであってもよいし、位置データ処理装置からアクセス可能なデータベースサーバであってもよい。
図1は、実施形態に係る位置データ処理装置を例示する。この位置データ処理装置は、データ取得部101と、現実空間位置決定部102と、部位/アンカー定義記憶部103と、位置関係判定部104と、仮想空間位置決定部105と、姿勢制御部106とを含む。
データ取得部101は、例えば前述のプロセッサであり得る。データ取得部101は、現実空間における第1の位置データセット、例えばMCデータを取得する。ここで、前述のように、第1の位置データセットは、クライアント200によって生成される。位置データ処理装置100がクライアント200に含まれる場合には、データ取得部101は当該クライアント200において生成された第1の位置データセットを取得し得る。他方、位置データ処理装置100がサーバ300または観客端末400に含まれる場合には、データ取得部101は当該サーバ300または観客端末400によってクライアント200からネットワーク経由で受信された第1の位置データセットを取得し得る。
現実空間における第1の位置データセットは、典型的には光学MCデータであって、演者の身体の部位、または演者の周囲にある物体、すなわち動体または非動体の表面に取り付けられた複数のマーカーの現実空間における位置データを含み得る。動体は、演者などの人間であってもよいし、動物、または移動可能な機械であってもよい。他方、非動体は、例えば、家具(例えば、椅子、またはテーブルを含み得る)、道具(例えば、マイク、楽器、ラケット、またはボールを含み得る)、などであってもよい。データ取得部101は、取得した第1の位置データセットを現実空間位置決定部102へ送る。
現実空間位置決定部102は、例えば前述のプロセッサであり得る。現実空間位置決定部102は、データ取得部101から第1の位置データセットを受け取る。現実空間位置決定部102は、この第1の位置データセットに含まれる複数の位置データに基づいて、現実空間に存在する対象体の有する基準部位(第1の部位)の位置と、現実空間に設定された1以上のアンカーの位置とを決定する。現実空間位置決定部102は、基準部位の位置を示す基準部位データと、アンカーの位置を示すアンカーデータとを、第1の位置データセットとともに、位置関係判定部104へ送る。
対象体は、現実空間に存在する1つの物体であってもよいし、複数の物体であってもよい。対象体は、典型的には、演者などの動体であり得る。なお、現実空間に複数の演者が存在する場合には、その一部または全員が対象体として取り扱われ得る。さらに、対象体は、動体に限られず非動体も含み得る。
基準部位は、対象体に対応する仮想空間上のアバターなどのオブジェクト(以降、対象オブジェクトと呼ぶ)の姿勢を制御するための基準となり得る部位である。基準部位は、典型的には手であるが、これに限らず足、頭部、などの末梢部位であってよい。なお、各対象体が有する基準部位の数は、1つに限らず複数であってもよい。例えば、各対象体の基準部位として左手および右手が定められてもよい。
アンカーは、例えば、対象体の表面、または仮想空間上で対象オブジェクトとは異なるオブジェクト(アバターを含み得る)として表現される他の物体、すなわち動体または非動体の表面に設定され得る。アンカーは、例えば人間の頭、顔、目、鼻、口、肩、腰、などの部位、ドアノブ、ラケットやマイクのグリップ、などの基準部位が触れることが想定される部位に、演者または他の人間によって事前に手動で設定されてもよいし、画像解析の結果に基づいて自動的に設定されてもよい。
具体的には、現実空間位置決定部102は、部位/アンカー定義記憶部103に保存されている部位/アンカー定義データに基づいて、基準部位およびアンカーの現実空間内の位置を決定し得る。この部位/アンカー定義データは、基準部位およびアンカーの位置が、第1の位置データセットにおいてその位置が記述される複数のポイント、典型的にはマーカー、の位置データを用いてどのように定義されるかを示し得る。
基準部位またはアンカーの位置がいずれかのポイント(例えば、マーカー)の位置と一致するように定義されている場合には、現実空間位置決定部102は、当該ポイントの位置に基づいて当該基準部位またはアンカーの位置を決定できる。例えば、現実空間位置決定部102は、第1の位置データセットの示すポイントの位置をそのまま当該ポイントに一致するように定義された基準部位またはアンカーの位置として決定してもよい。他方、基準部位またはアンカーがいずれのポイントの位置とも一致しないように定義されている場合には、現実空間位置決定部102は、第1の位置データセットに含まれる少なくとも一部のポイントの位置データに基づいて演算を行うことで、基準部位またはアンカーの位置を決定(推定)してもよい。
部位/アンカー定義記憶部103は、例えば前述のメモリであり得る。部位/アンカー定義記憶部103は、部位/アンカー定義データを保存する。部位/アンカー定義データは、現実空間位置決定部102によって部位/アンカー定義記憶部103から読み出される。
部位/アンカー定義データは、前述のように、基準部位およびアンカーの位置が、第1の位置データセットにおいてその位置が記述される複数のポイント、典型的にはマーカー、の位置データを用いてどのように定義されるかを示し得る。例えば、基準部位およびアンカーは、第1のポイント、第2のポイントおよび第3のポイントそれぞれからの距離の比が所定値となる位置として定義されたり、第4のポイントと同じ位置にあるとして定義されたり、第5のポイントおよび第6のポイントを結ぶ線分を所定の比率で外分する位置にあるとして定義されたりし得る。なお、部位/アンカー定義データは、基準部位の定義を示す部位定義データと、アンカーの定義を示すアンカー定義データとに分離されてもよい。
位置関係判定部104は、例えば前述のプロセッサであり得る。位置関係判定部104は、現実空間位置決定部102から基準部位データおよびアンカーデータを受け取る。位置関係判定部104は、対象体の基準部位がアンカーの各々と所定の関係にあるか否かを、基準部位データおよびアンカーデータのそれぞれ示す基準部位およびアンカーの現実空間内の位置に基づいて判定する。そして、位置関係判定部104は、基準部位毎に、当該基準部位と所定の関係にあると判定されたアンカーを示すデータ(例えばアンカーID)を抽出する。位置関係判定部104は、この基準部位と所定の関係にあるアンカーを示すデータを、第1の位置データセット、基準部位データおよびアンカーデータとともに仮想空間位置決定部105へ送る。
所定の関係は、例えば、対象体の基準部位がアンカーと近接していること、であり得る。対象体の基準部位がアンカーと近接していることは、例えば、対象体の基準部位とアンカーとの距離が閾値未満であること、と定義され得る。ここで、閾値は、隣接アンカー間の間隔や、第1の位置データセットの測定誤差にも依存するが、例えば数cm程度に定められ得る。
なお、複数のアンカーが対象体の基準部位と近接している場合には、位置関係判定部104は、対象体の基準部位からの距離が小さい順に1つまたは複数のアンカーを示すデータを抽出してもよいし、またはこれら複数のアンカーのうち優先度に基づいて1つまたは複数のアンカーを示すデータを抽出してもよい。優先度は、事前に定義されていてもよいし、例えば何らかのルールにより第1の位置データセットに基づいて評価されてもよい。後者の例として、周囲の位置データからみてアンカーの位置データが大きな誤差を含んでいるおそれがある、などの理由で信頼性が低いと判定できる場合には、当該アンカーには低い優先度が割り当てられてもよい。
仮想空間位置決定部105は、例えば前述のプロセッサであり得る。仮想空間位置決定部105は、位置関係判定部104から、基準部位と所定の関係にあるアンカーを示すデータと、第1の位置データセットと、基準部位データと、アンカーデータとを受け取る。仮想空間位置決定部105は、現実空間内の位置(座標)を仮想空間内の位置(座標)にマッピング(変換)するための関数、LUT(Look Up Table)、などを利用可能である。すなわち、仮想空間位置決定部105は、基準部位データ、アンカーデータおよび第1の位置データセットの示す現実空間内の位置から、その対応する仮想空間内の位置を導出できる。
仮想空間位置決定部105は、対象体の基準部位がアンカーのいずれかと所定の関係にあると判定された場合に、対象オブジェクトの有する部位のうち対象体の基準部位(第1の部位)に対応する基準部位(第2の部位)の位置を当該アンカーの位置に対応する仮想空間内の位置、すなわちアンカーの位置のマッピング結果である仮想空間内の位置、に基づいて決定する。
具体的には、仮想空間位置決定部105は、第2の部位の位置を、第1の部位の位置に対応する仮想空間内の位置よりも、現実空間における(1つの)アンカーの位置に対応する仮想空間内の位置に近い位置に決定し得る。一例として、仮想空間位置決定部105は、仮想空間における第2の部位の位置を、現実空間におけるアンカーの位置に対応する仮想空間内の位置に一致するように決定し得る。これにより、例えば対象オブジェクトの基準部位は、当該対象オブジェクトの他の部位の表面、または他のオブジェクトの表面に接触することになる。
他方、仮想空間位置決定部105は、第1の部位がアンカーのいずれとも所定の関係にないと判定された場合には、第2の部位の位置を第1の部位の位置に基づいて決定し得る。換言すれば、仮想空間位置決定部105は、対象体の基準部位の現実空間内の位置をマッピングし、その結果を対象オブジェクトの基準部位の仮想空間内の位置として決定し得る。
或いは、仮想空間位置決定部105は、第1の部位が複数のアンカーと所定の関係にあると判定された場合には、これらのアンカーの各々から当該第1の部位までの距離の比と、これら複数のアンカーに対応する仮想空間内の位置とに基づいて、第2の部位の位置を決定してもよい。例えば、仮想空間位置決定部105は、第1の部位が第1のアンカー、第2のアンカーおよび第3のアンカーと所定の関係にあると判定された場合に、第1のアンカー、第2のアンカーおよび第3のアンカーにそれぞれ対応する仮想空間内の位置から第2の部位までの距離d1、距離d2および距離d3の比d1:d2:d3が、第1のアンカー、第2のアンカーおよび第3のアンカーから第1の部位までの距離d1’、距離d2’および距離d3’の比d1’:d2’:d3’に一致または近似するように、第2の部位の位置を決定し得る。
仮想空間位置決定部105は、決定した対象オブジェクトの基準部位の仮想空間内の位置と、第1の位置データセットにおいてその位置が記述される複数のポイントに対応する仮想空間内の複数のポイントの位置とを示す第2の位置データセットを生成する。仮想空間位置決定部105は、第2の位置データセットを姿勢制御部106へ送る。
姿勢制御部106は、例えば前述のプロセッサであり得る。姿勢制御部106は、仮想空間位置決定部105から、第2の位置データセットを受け取る。姿勢制御部106は、第2の位置データセットによって示される、対象オブジェクトの基準部位の仮想空間内の位置を基準に、例えばIK(Inverse Kinematics)処理を行って当該対象オブジェクトの姿勢を決定する。例えば、姿勢制御部106は、この対象オブジェクトの基準部位の仮想空間内の位置を、当該基準部位の目標位置としてIK処理を行うことができる。これにより、決定された対象オブジェクトの基準部位の位置を維持したまま、当該対象オブジェクトの基準部位を含む各部位の姿勢を物理的に不自然に見えないように、例えば関節の角度が対象オブジェクトにとって正常な範囲に収まるように、制御することができる。
なお、かかる姿勢制御は、位置データ処理装置100によって実行されてもよいし、されなくてもよい。後者の場合には、位置データ処理装置100は、姿勢制御部106を含まなくてもよい。そして、位置データ処理装置100を含んでいる装置、例えば、クライアント200またはサーバ300、が姿勢制御を実行してもよいし、この装置から仮想空間における位置データを受信したサーバ300または観客端末400が姿勢制御を実行してもよい。
例えば図4に示されるように、現実空間において、対象体(演者)が、基準部位としての右手を右の額に当て、基準部位としての左手を左腰に当てる姿勢を取っていたとする。なお、図4において、アンカーA1,A2,・・・,A14がそれぞれ三角形のシンボルとして描かれている。この対象体を、仮想空間において、より頭部が小さく、胴が短く、腕および脚が長い体型を有する対象オブジェクト(アバター)として表現するとする。
図5は、図4の対象体の姿勢に基づいて、アンカーを利用せずに生成した対象オブジェクトを例示する。図5の例では、対象体の左手および右手の位置にそれぞれ対応する仮想空間内の位置に、対象オブジェクトの左手および右手の位置がそれぞれ決定されている。対象オブジェクトは前述の体型を有しているので、対象オブジェクトの右手はその頭部よりも上に位置しており、その左手は腰よりも下に位置しており、対象体の現実の姿勢とは異なる印象を与える。故に、かかる姿勢制御の下で、対象オブジェクトに、図4における対象体の姿勢と同一または類似の印象を与える姿勢を取らせるためには、対象体は右手を下げて、左手を上げることが求められる。
次に、図6は、図4の対象体の姿勢に基づいて、アンカーを利用して生成した対象オブジェクトを例示する。図6において、図4のアンカーA1,A2,・・・,A14の位置に対応する仮想空間内の位置がそれぞれ符号B1,B2,・・・,B14付きの三角形のシンボルとして描かれている。図4において、対象体の右手はアンカーA1の近くに位置し、対象体の左手はアンカーA10の近くに位置しているので、位置関係判定部104は、当該右手および左手はそれぞれアンカーA1およびアンカーA10と所定の関係にあると判定し得る。そして、仮想空間位置決定部105は、対象オブジェクトの右手の位置をアンカーA1に対応する仮想空間内の位置(B1)に一致するように決定し、対象オブジェクトの左手の位置をアンカーA10に対応する仮想空間内の位置(B10)に一致するように決定し得る。これにより、対象オブジェクトに対象体の姿勢と同一または類似の印象を与える姿勢、すなわち右手を右の額に当て、左手を左腰に当てる姿勢を取らせることができる。
また、例えば図7に示されるように、現実空間において、1人目の対象体(演者)が、基準部位としての右手を挙げ、基準部位としての左手を2人目の対象体(演者)の右肩に添える姿勢を取っていて、2人目の対象体が基準部位としての両手を共に挙げる姿勢を取っていたとする。なお、図7において、アンカーA21,A22,・・・,A34,A41,A42,・・・,A54がそれぞれ三角形のシンボルとして描かれている。これらの対象体を、仮想空間において、より頭部が小さく、胴が短く、腕および脚が長い体型を有する対象オブジェクト(アバター)として表現するとする。なお、2人目の対象体のアバターは、1人目の対象体のアバターに比べて身長が低いこととする。
図8は、図7の2人の対象体の姿勢に基づいて、アンカーを利用せずに生成した2人の対象オブジェクトを例示する。図8の例では、1人目および2人目の対象体の左手および右手の位置にそれぞれ対応する仮想空間内の位置に、1人目および2人目の対象オブジェクトの左手および右手の位置がそれぞれ決定されている。対象オブジェクトは前述の体型を有しているので、1人目の対象オブジェクトの左手は2人目の対象オブジェクトの右肩よりも上、右上腕のあたりに位置しており、2人の対象体の現実の姿勢とは異なる印象を与える。故に、かかる姿勢制御の下で、2人の対象オブジェクトに、図7における2人の対象体の姿勢と同一または類似の印象を与える姿勢を取らせるためには、当該1人目の対象体は左手を下げることが求められる。
次に、図9は、図7の2人の対象体の姿勢に基づいて、アンカーを利用して生成した2人の対象オブジェクトを例示する。図9において、図7のアンカーA21,A22,・・・,A34,A41,A42,・・・,A54の位置に対応する仮想空間内の位置がそれぞれ符号B21,B22,・・・,B34,B41,B42,・・・,B54付きの三角形のシンボルとして描かれている。図7において、1人目の対象体の右手、ならびに2人目の対象体の左手および右手はいずれのアンカーからも離れており、1人目の対象体の左手はアンカーA45の近くに位置しているので、位置関係判定部104は、1人目の対象体の右手、ならびに2人目の対象体の左手および右手はいずれのアンカーとも所定の関係にないと判定し、1人目の対象体の左手はアンカーA45と所定の関係にあると判定し得る。そして、仮想空間位置決定部105は、1人目の対象オブジェクトの右手、ならびに2人目の対象オブジェクトの左手および右手の位置を図8の例と同様に決定し、1人目の対象オブジェクトの左手の位置をアンカーA45に対応する仮想空間内の位置(B45)に一致するように決定し得る。これにより、2人の対象オブジェクトに2人の対象体の姿勢と同一または類似の印象を与える姿勢、すなわちその1人目の対象オブジェクトに右手を挙げて左手を2人目の対象オブジェクトの右肩に添える姿勢、2人目の対象オブジェクトに両手を挙げる姿勢を取らせることができる。
以下、図10を用いて、位置データ処理装置100の動作を説明する。図10の動作は、アバター画像、またはこれを含む動画もしくは仮想的コンテンツの1フレーム毎に行われ得る。
まず、データ取得部101は、クライアント200、サーバ300、または観客端末400などから、現実空間における複数の位置データを含む第1の位置データセットを取得する(ステップS501)。
次に、現実空間位置決定部102は、ステップS501において取得された第1の位置データセットに基づいて、現実空間における少なくとも1つの対象体の少なくとも1つの基準部位の各々の位置と、現実空間に設定された1以上のアンカーの各々の位置とを決定する(ステップS502)。
次に、位置関係判定部104は、ステップS502において決定された基準部位およびアンカーの位置に基づいて、各基準部位がいずれかのアンカーと所定の関係にあるか否かを判定する。そして、位置関係判定部104は、基準部位毎に、当該基準部位と所定の関係にあると判定されたアンカーを示すデータ(例えばアンカーID)を抽出する(ステップS503)。ステップS503の終了後に、処理はステップS504へ進む。
ステップS504において、仮想空間位置決定部105は、少なくとも1つの対象体の少なくとも1つの基準部位のうち未選択の1つを選択する。そして、仮想空間位置決定部105は、ステップS503において抽出されたデータを参照し、ステップS504において選択された基準部位と所定の関係にあると判定されたアンカーが存在するか否かを確認する(ステップS505)。ステップS504において選択された基準部位と所定の関係にあると判定されたアンカーが存在しなければ処理はステップS506へ進み、当該基準部位と所定の関係にあると判定されたアンカーが存在すれば処理はステップS507へ進む。
ステップS506において、仮想空間位置決定部105は、ステップS504において選択された対象体の基準部位(第1の部位)の位置に対応する仮想空間内の位置(これは、ステップS502において決定済みである)を、仮想空間において当該対象体に対応する対象オブジェクトの当該基準部位に対応する基準部位(第2の部位)の位置として決定する。ステップS506の後に、処理はステップS508へ進む。
ステップS507において、仮想空間位置決定部105は、ステップS504において選択された対象体の基準部位(第1の部位)と所定の関係にあると判定されたアンカー(これは、ステップS503において抽出されたデータによって示される)の位置に対応する仮想空間内の位置(これは、ステップS502において決定済みである)に基づいて、仮想空間において当該対象体に対応する対象オブジェクトの当該基準部位に対応する基準部位(第2の部位)の位置を決定する。ステップS507の後に、処理はステップS508へ進む。
ステップS508において、仮想空間位置決定部105は、未選択の基準部位が残存するか否かを判定する。未選択の基準部位が残存すると判定されれば処理はステップS504に戻り、未選択の基準部位が残存しないと判定されれば処理はステップ509へ進む。
ステップS509において、姿勢制御部106は、ステップS504乃至ステップS508のループを通じて決定された、各対象オブジェクトの各基準部位の仮想空間内の位置を基準に例えばIK処理を行って、当該対象オブジェクトの姿勢を制御する。
以上説明したように、実施形態に係る位置データ処理装置は、現実空間に存在する対象体の基準部位(例えば演者の手)に対応する仮想空間上の対象オブジェクト(例えばアバター)の基準部位の位置を、現実空間における当該基準部位の位置と現実空間(例えば、演者自身または他の物体の表面)に設定されたアンカーの位置との関係に基づいて決定する。具体的には、この位置データ処理装置は、現実空間において対象体の基準部位の位置がアンカーの位置と近接していると判定した場合には、現実空間におけるアンカーの位置に対応する仮想空間内の位置に基づいて対象オブジェクトの基準部位の仮想空間内の位置を決定する。このように決定された対象オブジェクトの基準部位の位置は、対象オブジェクトの姿勢制御に利用することができる。例えば対象オブジェクトの基準部位の位置を基準に例えばIK処理を行って、対象オブジェクト全体の姿勢を決定することができる。これにより、例えば、演者の手が演者自身の頭部に設定されたアンカーに近接している場合にこの演者とそのアバターとの体格のミスマッチがあったとしても当該アバターに手で頭部を触る姿勢を取らせること、第1の演者の手が第2の演者の肩に設定されたアンカーに近接している場合にこれらの演者とそのアバターとの体格のミスマッチがあったとしても第1の演者のアバターに第2の演者のアバターの肩に手を添える姿勢を取らせること、などが可能となる。
上述の実施形態は、本発明の概念の理解を助けるための具体例を示しているに過ぎず、本発明の範囲を限定することを意図されていない。実施形態は、本発明の要旨を逸脱しない範囲で、様々な構成要素の付加、削除または転換をすることができる。
上述の実施形態では、いくつかの機能部を説明したが、これらは各機能部の実装の一例に過ぎない。例えば、1つの装置に実装されると説明された複数の機能部が複数の別々の装置に亘って実装されることもあり得るし、逆に複数の別々の装置に亘って実装されると説明された機能部が1つの装置に実装されることもあり得る。
上記各実施形態において説明された種々の機能部は、回路を用いることで実現されてもよい。回路は、特定の機能を実現する専用回路であってもよいし、プロセッサのような汎用回路であってもよい。
上記各実施形態の処理の少なくとも一部は、例えば汎用のコンピュータに搭載されたプロセッサを基本ハードウェアとして用いることでも実現可能である。上記処理を実現するプログラムは、コンピュータで読み取り可能な記録媒体に格納して提供されてもよい。プログラムは、インストール可能な形式のファイルまたは実行可能な形式のファイルとして記録媒体に記憶される。記録媒体としては、磁気ディスク、光ディスク(CD−ROM、CD−R、DVD等)、光磁気ディスク(MO等)、半導体メモリなどである。記録媒体は、プログラムを記憶でき、かつ、コンピュータが読み取り可能であれば、何れであってもよい。また、上記処理を実現するプログラムを、インターネットなどのネットワークに接続されたコンピュータ(サーバ)上に格納し、ネットワーク経由でコンピュータ(クライアント)にダウンロードさせてもよい。
100・・・位置データ処理装置
101・・・データ取得部
102・・・現実空間位置決定部
103・・・部位/アンカー定義記憶部
104・・・位置関係判定部
105・・・仮想空間位置決定部
106・・・姿勢制御部
200・・・クライアント
300・・・サーバ
400・・・観客端末

Claims (11)

  1. 第1の部位を有する対象体を含む1以上の物体の表面の現実空間における複数の位置データを取得するデータ取得部と、
    前記複数の位置データに基づいて、前記第1の部位の位置と、前記現実空間に設定された1以上のアンカーの位置とを決定する第1の位置決定部と、
    前記第1の部位が前記アンカーの各々と所定の関係にあるか否かを当該第1の部位の位置および当該アンカーの位置に基づいて判定する関係判定部と、
    前記第1の部位が前記アンカーのいずれかと前記所定の関係にあると判定された場合に、前記対象体に対応する仮想空間上の対象オブジェクトの有する前記第1の部位に対応する第2の部位の位置を当該アンカーの位置に対応する仮想空間内の位置に基づいて決定する第2の位置決定部と
    を具備する、位置データ処理装置。
  2. 前記関係判定部は、前記第1の部位から第1のアンカーまでの距離が閾値未満である場合に、前記第1の部位が前記第1のアンカーと所定の関係にあると判定する、請求項1に記載の位置データ処理装置。
  3. 前記関係判定部は、前記第1の部位から第1のアンカーまでの距離が閾値未満であって、かつ、前記第1の部位から前記第1のアンカーを除くいずれのアンカーまでの距離よりも大きくない場合に、前記第1の部位が前記第1のアンカーと所定の関係にあると判定する、請求項1に記載の位置データ処理装置。
  4. 前記第2の位置決定部は、前記第1の部位が第1のアンカーと前記所定の関係にあると判定された場合に、前記第2の部位の位置を前記第1の部位の位置に対応する仮想空間内の位置よりも前記第1のアンカーの位置に対応する仮想空間内の位置に近い位置に決定する、請求項1に記載の位置データ処理装置。
  5. 前記第2の位置決定部は、前記第1の部位が第1のアンカーと前記所定の関係にあると判定された場合に、前記第2の部位の位置を前記第1のアンカーの位置に対応する仮想空間内の位置に一致するように決定する、請求項1に記載の位置データ処理装置。
  6. 前記第2の位置決定部は、前記第1の部位が第1のアンカー、第2のアンカーおよび第3のアンカーと前記所定の関係にあると判定された場合に、前記第2の部位の位置を、前記第1のアンカーから前記第1の部位までの距離、前記第2のアンカーから前記第1の部位までの距離および前記第3のアンカーから前記第1の部位までの距離の比と、前記第1のアンカーの位置に対応する仮想空間内の位置と、前記第2のアンカーの位置に対応する仮想空間内の位置と、前記第3のアンカーの位置に対応する仮想空間内の位置とに基づいて決定する、請求項1に記載の位置データ処理装置。
  7. 前記アンカーの少なくとも1つは、前記対象体の表面に設定される、請求項1乃至請求項6のいずれか1項に記載の位置データ処理装置。
  8. 前記アンカーの少なくとも1つは、前記仮想空間上で前記対象オブジェクトとは異なるオブジェクトとして表現される、前記対象体と異なる物体の表面に設定される、請求項1乃至請求項7のいずれか1項に記載の位置データ処理装置。
  9. 前記第1の部位は、手である、請求項1乃至請求項8のいずれか1項に記載の位置データ処理装置。
  10. 前記第2の部位の位置を基準にIK(Inverse Kinematics)処理を行って前記対象オブジェクトの姿勢を制御する姿勢制御部をさらに具備する、請求項1乃至請求項9のいずれか1項に記載の位置データ処理装置。
  11. コンピュータを
    第1の部位を有する対象体を含む1以上の物体の表面の現実空間における複数の位置データを取得する手段、
    前記複数の位置データに基づいて、前記第1の部位の位置と、前記現実空間に設定された1以上のアンカーの位置とを決定する手段、
    前記第1の部位が前記アンカーの各々と所定の関係にあるか否かを当該第1の部位の位置および当該アンカーの位置に基づいて判定する手段、
    前記第1の部位が前記アンカーのいずれかと前記所定の関係にあると判定された場合に、前記対象体に対応する仮想空間上の対象オブジェクトの有する前記第1の部位に対応する第2の部位の位置を当該アンカーの位置に対応する仮想空間内の位置に基づいて決定する手段
    として機能させる、位置データ処理プログラム。
JP2019028181A 2019-02-20 2019-02-20 位置データ処理装置およびプログラム Active JP6585866B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019028181A JP6585866B1 (ja) 2019-02-20 2019-02-20 位置データ処理装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019028181A JP6585866B1 (ja) 2019-02-20 2019-02-20 位置データ処理装置およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019161986A Division JP2020135845A (ja) 2019-09-05 2019-09-05 位置データ処理装置およびプログラム

Publications (2)

Publication Number Publication Date
JP6585866B1 true JP6585866B1 (ja) 2019-10-02
JP2020135428A JP2020135428A (ja) 2020-08-31

Family

ID=68095383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019028181A Active JP6585866B1 (ja) 2019-02-20 2019-02-20 位置データ処理装置およびプログラム

Country Status (1)

Country Link
JP (1) JP6585866B1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111694429A (zh) * 2020-06-08 2020-09-22 北京百度网讯科技有限公司 虚拟对象驱动方法、装置、电子设备及可读存储
JP7416735B2 (ja) 2020-01-30 2024-01-17 株式会社ドワンゴ アバタ表示装置、アバタ表示システム、アバタ表示方法およびアバタ表示プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9019349B2 (en) * 2009-07-31 2015-04-28 Naturalpoint, Inc. Automated collective camera calibration for motion capture
US9245177B2 (en) * 2010-06-02 2016-01-26 Microsoft Technology Licensing, Llc Limiting avatar gesture display
WO2018139203A1 (ja) * 2017-01-26 2018-08-02 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP6470859B1 (ja) * 2018-03-08 2019-02-13 株式会社コロプラ ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7416735B2 (ja) 2020-01-30 2024-01-17 株式会社ドワンゴ アバタ表示装置、アバタ表示システム、アバタ表示方法およびアバタ表示プログラム
CN111694429A (zh) * 2020-06-08 2020-09-22 北京百度网讯科技有限公司 虚拟对象驱动方法、装置、电子设备及可读存储
JP2021103564A (ja) * 2020-06-08 2021-07-15 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. 仮想オブジェクト駆動方法、装置、電子機器及び可読記憶媒体
US11532127B2 (en) 2020-06-08 2022-12-20 Beijing Baidu Netcom Science Technology Co., Ltd. Virtual object driving method, apparatus, electronic device, and readable storage medium
JP7273880B2 (ja) 2020-06-08 2023-05-15 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 仮想オブジェクト駆動方法、装置、電子機器及び可読記憶媒体

Also Published As

Publication number Publication date
JP2020135428A (ja) 2020-08-31

Similar Documents

Publication Publication Date Title
US10574889B2 (en) Information processing device, information processing method, and program
US9947139B2 (en) Method and apparatus for providing hybrid reality environment
US20180373413A1 (en) Information processing method and apparatus, and program for executing the information processing method on computer
US20180286122A1 (en) Information processing method and apparatus, and program for executing the information processing method on computer
US20170352188A1 (en) Support Based 3D Navigation
US10546407B2 (en) Information processing method and system for executing the information processing method
JP2018512643A (ja) 周辺デバイスを伴うグローブの指先の磁気追跡
JP6087453B1 (ja) 仮想空間の提供方法、およびプログラム
JP2012528398A (ja) スケルトン・データーのゲーム・アバターへのリアル・タイム・リターゲティング
US10896322B2 (en) Information processing device, information processing system, facial image output method, and program
JP6489726B1 (ja) 3dデータシステム及び3dデータ処理方法
JP2011258159A (ja) プログラム、情報記憶媒体及び画像生成システム
US20180247453A1 (en) Information processing method and apparatus, and program for executing the information processing method on computer
WO2019087564A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6585866B1 (ja) 位置データ処理装置およびプログラム
US20180299948A1 (en) Method for communicating via virtual space and system for executing the method
CN112973110A (zh) 云游戏控制方法、装置、网络电视及计算机可读存储介质
Chow Low-cost multiple degrees-of-freedom optical tracking for 3D interaction in head-mounted display virtual reality
JP6684336B1 (ja) データ補正装置およびプログラム
JP2020135845A (ja) 位置データ処理装置およびプログラム
JP7370198B2 (ja) 処理システム、情報処理装置、プログラム及び処理方法
JP6398938B2 (ja) 投影制御装置、及びプログラム
JP2019086592A (ja) 表示装置、表示装置の制御方法
JP2018190196A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP7458731B2 (ja) 画像生成システム、画像処理装置、情報処理装置、画像生成方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190220

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190610

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190905

R150 Certificate of patent or registration of utility model

Ref document number: 6585866

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250