JP7250726B2 - コンピュータプログラム、サーバ装置及び方法 - Google Patents
コンピュータプログラム、サーバ装置及び方法 Download PDFInfo
- Publication number
- JP7250726B2 JP7250726B2 JP2020077502A JP2020077502A JP7250726B2 JP 7250726 B2 JP7250726 B2 JP 7250726B2 JP 2020077502 A JP2020077502 A JP 2020077502A JP 2020077502 A JP2020077502 A JP 2020077502A JP 7250726 B2 JP7250726 B2 JP 7250726B2
- Authority
- JP
- Japan
- Prior art keywords
- unit time
- position information
- information
- terminal device
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
本件出願において開示される通信システムでは、簡潔にいえば、以下の動作が行われる。まず、スタジオ等の物理的な空間に居る配信者(演者)は、その身体における複数の部位に複数の第1センサ(例えば慣性センサ)を装着する。さらに、配信者は、その身体におけるいずれかの部位(例えば背中)に、少なくとも1つの第2センサ(例えば光学センサ)を装着する。「配信装置」は、配信者が演技を行っている間において、例えば単位時間ごとに、複数の第1センサから出力された動作情報、及び、少なくとも1つの第2センサから出力された位置情報を取得することができる。ここで、配信装置には、例えば以下の装置を含む任意の装置が含まれる。
・配信者の端末装置
・スタジオ等に設置された端末装置及び/又はスタジオユニット
・スタジオ等に設置されたサーバ装置
次に、配信装置は、取得した動作情報に基づいて、物理的な空間における配信者の各部位の位置を算出することができる。また、配信装置は、取得した位置情報に基づいて、物理的な空間における配信者の身体の位置を算出することができる。さらに、配信装置は、取得した物理的な空間における各部位の位置を仮想的な空間における各部位の位置に変換することができる。さらにまた、配信装置は、取得した物理的な空間における身体の位置を仮想的な空間における身体の位置に変換することができる。さらに、配信装置は、取得した仮想的な空間における各部位の位置及び身体の位置に基づいて、配信者のアバターのアニメーションを含む動画を生成してサーバ装置に送信することができる。このサーバ装置は、配信者の端末装置等から受信した動画を、各視聴者の端末装置に配信することができる。これにより、各視聴者の端末装置は、サーバ装置から受信した動画を再生することができる。
これに並行して、配信装置は、取得した動作情報及び位置情報を、サーバ装置に送信することができる。このサーバ装置は、取得した動作情報に基づいて、物理的な空間における配信者の各部位の位置を算出することができる。また、このサーバ装置は、取得した位置情報に基づいて、物理的な空間における配信者の身体の位置を算出することができる。さらに、このサーバ装置は、取得した物理的な空間における各部位の位置を仮想的な空間における各部位の位置に変換することができる。さらにまた、サーバ装置は、取得した物理的な空間における身体の位置を仮想的な空間における身体の位置に変換することができる。さらに、このサーバ装置は、取得した仮想的な空間における各部位の位置及び身体の位置に基づいて、配信者のアバターのアニメーションを含む動画を生成して各視聴者の端末装置に送信することができる。これにより、各視聴者の端末装置は、サーバ装置から受信した動画を再生することができる。
或いはまた、このサーバ装置は、取得した動作情報及び位置情報を各視聴者の端末装置に送信することができる。各視聴者の端末装置は、取得した動作情報に基づいて、物理的な空間における配信者の各部位の位置を算出することができる。また、各視聴者の端末装置は、取得した位置情報に基づいて、物理的な空間における配信者の身体の位置を算出することができる。さらに、各視聴者の端末装置は、取得した物理的な空間における各部位の位置を仮想的な空間における各部位の位置に変換することができる。さらにまた、各視聴者の端末装置は、取得した物理的な空間における身体の位置を仮想的な空間における身体の位置に変換することができる。さらに、各視聴者の端末装置は、取得した仮想的な空間における各部位の位置及び身体の位置に基づいて、配信者のアバターのアニメーションを含む動画を生成して表示することができる。
次に、端末装置20、サーバ装置30及びスタジオユニット40の各々が有するハードウェア構成の一例について説明する。
各端末装置20のハードウェア構成例について図3を参照して説明する。図3は、図1に示した端末装置20(サーバ装置30)のハードウェア構成の一例を模式的に示すブロック図である。なお、図3において、括弧内の参照符号は、後述するように各サーバ装置30に関連して記載されている。
各サーバ装置30のハードウェア構成例について同じく図3を参照して説明する。各サーバ装置30のハードウェア構成は、例えば、上述した各端末装置20のハードウェア構成と同一とすることができる。したがって、各サーバ装置30が有する構成要素に対する参照符号は、図3において括弧内に示されている。
スタジオユニット40は、パーソナルコンピュータ等の情報処理装置により実装可能である。スタジオユニット40は、図示はされていないが、上述した端末装置20及びサーバ装置30と同様に、主に、中央処理装置と、主記憶装置と、入出力インタフェイス装置と、入力装置と、補助記憶装置と、出力装置と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。
次に、端末装置20、サーバ装置30及びスタジオユニット40の各々が有する機能の一例について説明する。
図4は、図1に示した端末装置20(サーバ装置30)の機能の一例を模式的に示すブロック図である。図4に示すように、端末装置20は、記憶部100と、センサ部110と、動作情報取得部120と、位置情報取得部130と、部位位置情報算出部140と、身体位置情報算出部150と、変換部160と、動画生成部170と、表示部180と、ユーザインタフェイス部190と、通信部200と、を含むことができる。
画像の配信及び/又は画像の受信等に必要とされる例えば以下に示す情報を含む様々な情報を記憶することができる。
・演者に装着された第1センサ(例えば慣性センサ)から受信した動作情報
・演者に装着された第2センサ(例えば光学センサ)から受信した位置情報
・動作情報に基づいて算出された部位位置情報
・位置情報に基づいて算出された身体位置情報
・物理的な空間における座標から仮想的な空間における座標に変換された部位位置情報
・物理的な空間における座標から仮想的な空間における座標に変換された身体位置情報
・仮想的な空間における座標に変換された部位位置情報と、仮想的な空間における座標に変換された身体位置情報と、に基づいて生成された動画等
センサ部110は、様々なタイプのカメラ及び/又はマイクロフォン等のセンサと、このようなセンサにより取得された情報を処理する少なくとも1つのプロセッサと、を含むことができる。センサ部110は、このセンサ部110に対向する演者の顔に関するデータ(画像及び/又は音声等)を取得して、さらにこのデータに対する情報処理を実行することが可能である。
(1)演者の頭蓋骨の物理的な中心位置、
(2)演者の顔を構成する何百もの頂点を含み、上記中心位置に対して定義される顔メッシュ、及び、
(3)上記(1)及び(2)に基づいて識別された、演者の顔における複数の部分(例えば、右頬、左頬、鼻の頂点)の各々の位置(座標)
スタジオ等の物理的な空間に居る演者の身体における複数の部位には、(図示しない)複数の第1センサ(例えば慣性センサ)が装着されている。なお、演者の身体における複数の部位は、例えば、頭、顎、右肩、右肘、右手首、右手の甲、右手の指、左肩、左肘、左手首、左手の甲、左手の指、右股関節、右膝、右足首、右足の甲、右足爪先、左股関節、左膝、左足首、左足の甲、左足爪先、背中及び腰等を含む複数の部位から選択され得る。これら複数の第1センサの各々は、3次元加速度計、3次元ジャイロスコープ及び3次元磁力計等のうちの少なくとも1つを含むことができる。複数の第1センサの各々は、単位時間ごとに、センサ信号(動作情報)を送信することができる。なお、複数の第1センサとしては、例えば、イクセンス社により提供される”MVN BIOMECH”(http://0c7.co.jp/products/xsens/products/mvn_biomech/)を利用することが可能である。上記ウェブサイトに開示された内容は、引用によりその全体が本明細書に組み入れられる。
スタジオ等の物理的な空間に居る演者の身体におけるいずれかの部位(例えば背中)には、(図示しない)少なくとも1つの第2センサ(例えば光学センサ)が装着されている。また、スタジオ等の物理的な空間に居る演者の近くには、図示しない2つのベースステーション(第1ベースステーション及び第2ベースステーション)が設置され得る。
変換部160は、部位位置情報算出部140により算出された、複数の第1センサの各々の位置情報を、物理的な空間における座標から仮想的な空間における座標に変換することができる。さらに、変換部160は、身体位置情報算出部150により算出された、第2センサの位置情報を、物理的な空間における座標から仮想的な空間における座標に変換することができる。なお、物理的な空間とは、演者が存在する空間(例えばスタジオ等)における座標である。また、仮想的な空間とは、演者のアバターが存在する空間における座標である。
動画生成部170は、例えば、以下の情報を用いて、演者の身体の動作に追従したアバターのアニメーションを含む動画を生成することができる。
・センサ部110により取得された演者の身体に関するデータ(測定データ)
・部位位置情報算出部140により算出された複数の第1センサ(身体における複数の部位)の各々の位置情報
・身体位置情報算出部150により算出された身体の位置情報
・アバターが真顔を維持して瞬きを行うこと
・アバターが真顔を維持して俯くこと
・アバターが口や目を動作させること
・アバターが仮想空間において移動すること
・アバターが身体における複数の部位を動作させること
・センサ部110により取得された演者の身体に関する測定データ(顔における複数の部分の各々の座標)に基づいて、アバターの顔を描画する処理
・身体位置情報算出部150により算出された身体の位置情報に基づいて定められる座標に、アバターを描画する処理
・部位位置情報算出部140により算出された各第1センサの位置情報に基づいて定められる座標に、その第1センサに対応する部位を描画する処理
また、このような動画の生成は、当業者にとって周知である様々なレンダリング技術を用いることによって実現可能である。
表示部180は、例えば、タッチパネル及び/又はディスプレイパネル等を含むことができる。このような表示部180は、動画生成部170により生成され記憶部100により記憶された動画を格納したファイルを再生して表示することができる。
ユーザインタフェイス部190は、タッチパネル、マウス及び/又はキーボード等を含むことができる。このようなユーザインタフェイス部190は、演者により行われた操作の内容を示す情報を生成することができる。
通信部200は、動画の配信及び/又は動画の受信に必要とされる様々な情報を、通信網10を介してサーバ装置30との間で通信することができる。特に、当該端末装置20が演者(配信者)の端末装置20として動作する場合には、通信部200は、記憶部100に記憶された動画を、サーバ装置30に送信することができる。当該端末装置20が視聴者の端末装置20として動作する場合には、通信部200は、配信者の端末装置20により配信された動画を、サーバ装置30を介して受信することができる。
サーバ装置30の機能の一例について同じく図4を参照して説明する。サーバ装置30の機能としては、例えば、上述した端末装置20の機能の少なくとも一部を用いることが可能である。したがって、サーバ装置30が有する構成要素に対する参照符号は、図4において括弧内に示されている。また、スタジオユニットは、図4に示した端末装置20又はサーバ装置30と同様の構成を有することにより、端末装置20又はサーバ装置30と同様の動作を行うことが可能である。
次に、上述した通信システム1により行われる動作の一例について、図5を参照して説明する。図5は、図1に示した通信システム1により行われる動作の一例を示すフロー図である。
図5に示すように、まず、ステップ(以下「ST」という。)402において、配信装置は、例えば単位時間ごとに、測定データ、動作情報及び位置情報を取得することができる。配信装置は、このように取得した測定データ、動作情報及び/又は位置情報を、記憶部100(200)に記憶させるようにしてもよい。なお、測定データは、センサ部110(210)により取得され得る。動作情報及び位置情報は、それぞれ、動作情報取得部120(220)及び位置情報取得部130(230)により取得され得る。なお、ST402において行われる動作は、図2に示した動作(A)に含まれ得る。
次に、上述したST406において身体位置情報算出部150(250)により行われる具体的な処理の一例について、図6を参照して説明する。図6は、図1に示した通信システム1において身体位置情報算出部150(250)により行われる動作の一例を示すフロー図である。
図5に示したST404において配信装置が算出する各部位の位置情報は、用いられる第1センサの性能等によっては、時間の経過とともに、生じた誤差を蓄積していくことにより、大きな誤差を含む可能性が考えられる。このような問題に対処するために、配信装置は、ST404において算出した各部位の位置情報を、所定のタイミング(例えば周期的に)において、補正することができる。
第1の態様に係るコンピュータプログラムは、「少なくとも1つのプロセッサにより実行されることにより、物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得し、前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得し、前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出し、前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。
10 通信網
20(20A~20C) 端末装置
30(30A~30C) サーバ装置
40(40A、40B) スタジオユニット
100(200) 記憶部
110(210) センサ部
120(220) 動作情報取得部
130(230) 位置情報取得部
140(240) 部位位置情報算出部
150(250) 身体位置情報算出部
160(260) 変換部
170(270) 動画生成部
180(280) 表示部
190(290) ユーザインタフェイス部
200(300) 通信部
Claims (23)
- 少なくとも1つのプロセッサにより実行されることにより、
物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得し、
前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得し、
前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出し、
前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出し、
第1の動作又は第2の動作を実行する、ように前記少なくとも1つのプロセッサを機能させ、
前記第1の動作が、
第1単位時間ごとに前記位置情報に基づいて前記身体の位置を算出し、
前記第1単位時間における前記身体の位置の変化量が閾値以下である場合に、当該第1単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用可能であると判断し、
前記第1単位時間における前記身体の位置の変化量が閾値を上回った場合に、当該第1単位時間に前記位置情報に基づいて算出された前記身体の位置を破棄し、
算出された前記複数の部位の各々の位置を、前記有効な位置として使用可能であると判定された前記身体の位置に基づいて補正する、ことを含み、
前記第2の動作が、
第1単位時間ごとに前記位置情報に基づいて前記身体の位置を算出し、
前記第1単位時間より長い第2単位時間における前記身体の位置の変化量が閾値以下である場合に、当該第2単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用可能であると判断し、
前記第2単位時間における前記身体の位置の変化量が閾値を上回った場合に、当該第2単位時間に前記位置情報に基づいて算出された前記身体の位置を破棄し、
算出された前記複数の部位の各々の位置を、前記有効な位置として使用可能であると判定された前記身体の位置に基づいて補正する、ことを含む、
ことを特徴とするコンピュータプログラム。 - 前記第1の動作及び前記第2の動作の各々は、算出された前記複数の部位の位置を、前記有効な位置として使用可能であると判断された前記身体の位置と前回有効な位置として使用可能であると判断された前記身体の位置との差に基づいてシフトすることを含む、請求項1に記載のコンピュータプログラム。
- 前記第1の動作は、前記身体の位置の変化量が閾値を上回った当該第1単位時間より後に生ずる新たな第1単位時間における前記身体の位置の変化量が閾値以下に戻った場合に、当該新たな第1単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用することを含む、請求項1又は請求項2に記載のコンピュータプログラム。
- 前記第2の動作は、前記身体の位置の変化量が閾値を上回った当該第2単位時間より後に生ずる新たな第2単位時間における前記身体の位置の変化量が閾値以下に戻った場合に、当該新たな第2単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用することを含む、請求項1から請求項3のいずれかに記載のコンピュータプログラム。
- 前記第1の動作において使用される前記第1単位時間が変更可能である、請求項1から請求項4のいずれかに記載のコンピュータプログラム。
- 前記第2の動作において使用される前記第1単位時間及び/又は前記第2単位時間が変更可能である、請求項1から請求項5のいずれかに記載のコンピュータプログラム。
- 前記位置情報に基づいて算出された前記身体の有効な位置を仮想的な空間における前記身体の位置に変換し、
前記動作情報に基づいて算出された前記複数の部位の各々の位置を仮想的な空間における該複数の部位の各々の位置に変換する、
ように前記少なくとも1つのプロセッサを機能させる、請求項1から請求項6のいずれかに記載のコンピュータプログラム。 - 前記仮想的な空間における前記身体の位置、及び、前記仮想的な空間における前記複数の部位の各々の位置に基づいて、前記配信者のアバターのアニメーションを含む動画を生成する、
ように前記少なくとも1つのプロセッサを機能させる、請求項7に記載のコンピュータプログラム。 - 前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ及び/又はグラフィックスプロセッシングユニット(GPU)を含む、請求項1から請求項8のいずれかに記載のコンピュータプログラム。
- 取得された前記動作情報及び/又は前記位置情報を記憶部に記憶する、
ように前記少なくとも1つのプロセッサを機能させる、請求項1から請求項9のいずれかに記載のコンピュータプログラム。 - 前記少なくとも1つのプロセッサが、スタジオに設置される端末装置、前記配信者の端末装置、視聴ユーザの端末装置、及び/又は、サーバ装置に搭載される、請求項1から請求項10のいずれかに記載のコンピュータプログラム。
- 少なくとも1つのプロセッサを具備し、
該少なくとも1つのプロセッサが、
物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得し、
前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得し、
前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出し、
前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出し、
第1の動作又は第2の動作を実行する、ように構成され、
前記第1の動作が、
第1単位時間ごとに前記位置情報に基づいて前記身体の位置を算出し、
前記第1単位時間における前記身体の位置の変化量が閾値以下である場合に、当該第1単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用可能であると判断し、
前記第1単位時間における前記身体の位置の変化量が閾値を上回った場合に、当該第1単位時間に前記位置情報に基づいて算出された前記身体の位置を破棄し、
算出された前記複数の部位の各々の位置を、前記有効な位置として使用可能であると判定された前記身体の位置に基づいて補正する、ことを含み、
前記第2の動作が、
第1単位時間ごとに前記位置情報に基づいて前記身体の位置を算出し、
前記第1単位時間より長い第2単位時間における前記身体の位置の変化量が閾値以下である場合に、当該第2単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用可能であると判断し、
前記第2単位時間における前記身体の位置の変化量が閾値を上回った場合に、当該第2単位時間に前記位置情報に基づいて算出された前記身体の位置を破棄し、
算出された前記複数の部位の各々の位置を、前記有効な位置として使用可能であると判定された前記身体の位置に基づいて補正する、ことを含む、ことを特徴とするサーバ装置。 - 前記第1の動作及び前記第2の動作の各々は、算出された前記複数の部位の位置を、前記有効な位置として使用可能であると判断された前記身体の位置と前回有効な位置として使用可能であると判断された前記身体の位置との差に基づいてシフトすることを含む、請求項12に記載のサーバ装置。
- 前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ及び/又はグラフィックスプロセッシングユニット(GPU)を含む、請求項12又は請求項13に記載のサーバ装置。
- 取得された前記動作情報及び/又は前記位置情報を記憶部に記憶する、
ように前記少なくとも1つのプロセッサを機能させる、請求項12から請求項14のいずれかに記載のサーバ装置。 - コンピュータにより読み取り可能な命令を実行する少なくとも1つのプロセッサにより実行される方法であって、
該少なくとも1つのプロセッサが、前記命令を実行することにより、
物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得する第1取得工程と、
前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得する第2取得工程と、
前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出する第1算出工程と、
前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する第2算出工程と、
第1の動作又は第2の動作を実行する工程と、を含み、
前記第1の動作が、
第1単位時間ごとに前記位置情報に基づいて前記身体の位置を算出し、
前記第1単位時間における前記身体の位置の変化量が閾値以下である場合に、当該第1単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用可能であると判断し、
前記第1単位時間における前記身体の位置の変化量が閾値を上回った場合に、当該第1単位時間に前記位置情報に基づいて算出された前記身体の位置を破棄し、
算出された前記複数の部位の各々の位置を、前記有効な位置として使用可能であると判定された前記身体の位置に基づいて補正する、ことを含み、
前記第2の動作が、
第1単位時間ごとに前記位置情報に基づいて前記身体の位置を算出し、
前記第1単位時間より長い第2単位時間における前記身体の位置の変化量が閾値以下である場合に、当該第2単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用可能であると判断し、
前記第2単位時間における前記身体の位置の変化量が閾値を上回った場合に、当該第2単位時間に前記位置情報に基づいて算出された前記身体の位置を破棄し、
算出された前記複数の部位の各々の位置を、前記有効な位置として使用可能であると判定された前記身体の位置に基づいて補正する、ことを含む、ことを特徴とする方法。 - 前記第1の動作及び前記第2の動作の各々は、算出された前記複数の部位の位置を、前記有効な位置として使用可能であると判断された前記身体の位置と前回有効な位置として使用可能であると判断された前記身体の位置との差に基づいてシフトすることを含む、請求項16に記載の方法。
- 各工程が、スタジオに設置された端末装置又は前記配信者の端末装置に搭載された前記少なくとも1つのプロセッサにより実行される、請求項16又は請求項17に記載の方法。
- 前記第1取得工程及び前記第2取得工程が、スタジオに設置された端末装置又は前記配信者の端末装置に搭載された前記少なくとも1つのプロセッサにより実行され、
前記第1算出工程及び前記第2算出工程が、前記スタジオに設置された端末装置又は前記配信者の端末装置に接続されるサーバ装置に搭載された、前記少なくとも1つのプロセッサにより実行される、請求項16又は請求項17に記載の方法。 - 前記第1取得工程及び前記第2取得工程が、スタジオに設置された端末装置又は前記配信者の端末装置に搭載された前記少なくとも1つのプロセッサにより実行され、
前記第1算出工程及び前記第2算出工程が、前記スタジオに設置された端末装置又は前記配信者の端末装置に対してサーバ装置を介して接続される端末装置に搭載された、前記少なくとも1つのプロセッサにより実行される、請求項16又は請求項17に記載の方法。 - 各工程が、スタジオに設置された端末装置又は前記配信者の端末装置に対してサーバ装置を介して接続される端末装置に搭載された、前記少なくとも1つのプロセッサにより実行される、請求項16又は請求項17に記載の方法。
- 前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ及び/又はグラフィックスプロセッシングユニット(GPU)を含む、請求項16から請求項21のいずれかに記載の方法。
- 前記少なくとも1つのプロセッサが、前記命令を実行することにより、取得された前記動作情報及び/又は前記位置情報を記憶部に記憶する、請求項16から請求項22のいずれかに記載の方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020077502A JP7250726B2 (ja) | 2020-04-24 | 2020-04-24 | コンピュータプログラム、サーバ装置及び方法 |
JP2022041676A JP7495694B2 (ja) | 2020-04-24 | 2022-03-16 | コンピュータプログラム、サーバ装置及び方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020077502A JP7250726B2 (ja) | 2020-04-24 | 2020-04-24 | コンピュータプログラム、サーバ装置及び方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022041676A Division JP7495694B2 (ja) | 2020-04-24 | 2022-03-16 | コンピュータプログラム、サーバ装置及び方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021174239A JP2021174239A (ja) | 2021-11-01 |
JP7250726B2 true JP7250726B2 (ja) | 2023-04-03 |
Family
ID=78279692
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020077502A Active JP7250726B2 (ja) | 2020-04-24 | 2020-04-24 | コンピュータプログラム、サーバ装置及び方法 |
JP2022041676A Active JP7495694B2 (ja) | 2020-04-24 | 2022-03-16 | コンピュータプログラム、サーバ装置及び方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022041676A Active JP7495694B2 (ja) | 2020-04-24 | 2022-03-16 | コンピュータプログラム、サーバ装置及び方法 |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7250726B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7084077B1 (ja) * | 2021-10-26 | 2022-06-14 | 株式会社大都技研 | 遊技台 |
JP7084075B1 (ja) * | 2021-10-26 | 2022-06-14 | 株式会社大都技研 | 遊技台 |
KR20240078107A (ko) * | 2022-11-25 | 2024-06-03 | 삼성전자주식회사 | 아바타를 제어하기 위한 방법 및 이를 위한 전자 장치 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010014712A (ja) | 2008-06-30 | 2010-01-21 | Samsung Electronics Co Ltd | モーションキャプチャー装置及びモーションキャプチャー方法 |
JP2010191827A (ja) | 2009-02-19 | 2010-09-02 | Sony Computer Entertainment Inc | 情報処理装置および情報処理方法 |
JP2017004372A (ja) | 2015-06-12 | 2017-01-05 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2020004284A (ja) | 2018-06-29 | 2020-01-09 | 株式会社コロプラ | システム、プログラム、方法、および情報処理装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3323084A4 (en) | 2015-07-16 | 2019-07-10 | Blast Motion Inc. | SYSTEM FOR MULTISENSOR EVENT RECOGNITION AND MARKING |
JP7073228B2 (ja) | 2018-08-23 | 2022-05-23 | 株式会社コロプラ | 情報処理方法、コンピュータ、及びプログラム |
-
2020
- 2020-04-24 JP JP2020077502A patent/JP7250726B2/ja active Active
-
2022
- 2022-03-16 JP JP2022041676A patent/JP7495694B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010014712A (ja) | 2008-06-30 | 2010-01-21 | Samsung Electronics Co Ltd | モーションキャプチャー装置及びモーションキャプチャー方法 |
JP2010191827A (ja) | 2009-02-19 | 2010-09-02 | Sony Computer Entertainment Inc | 情報処理装置および情報処理方法 |
JP2017004372A (ja) | 2015-06-12 | 2017-01-05 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2020004284A (ja) | 2018-06-29 | 2020-01-09 | 株式会社コロプラ | システム、プログラム、方法、および情報処理装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2022121419A (ja) | 2022-08-19 |
JP7495694B2 (ja) | 2024-06-05 |
JP2021174239A (ja) | 2021-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7250726B2 (ja) | コンピュータプログラム、サーバ装置及び方法 | |
JP7249390B2 (ja) | 単眼カメラを用いたリアルタイム3d捕捉およびライブフィードバックのための方法およびシステム | |
US11935167B2 (en) | Method and apparatus for virtual fitting | |
CN111294665B (zh) | 视频的生成方法、装置、电子设备及可读存储介质 | |
JP7408068B2 (ja) | コンピュータプログラム、サーバ装置及び方法 | |
JP2017513130A (ja) | ウエアラブルデバイスの着用状態の処理方法及び装置 | |
CN109074149A (zh) | 用于增强或虚拟现实环境的头戴式参考系中的对象跟踪 | |
CN104252712B (zh) | 图像生成装置、图像生成方法和记录介质 | |
CN112070906A (zh) | 一种增强现实系统及增强现实数据的生成方法、装置 | |
JP2021114295A (ja) | 3d関節点回帰モデル生成方法及び装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラム | |
CN203630822U (zh) | 虚拟影像与真实场景相结合的舞台交互集成系统 | |
JP2024040211A (ja) | 動画処理方法、サーバ装置及びコンピュータプログラム | |
JP2022100238A (ja) | 人の姿勢に基づきマルチカメラシステムを較正する方法及び機器 | |
CN112270242B (zh) | 轨迹的显示方法、装置、可读介质和电子设备 | |
JP2024028853A (ja) | 動画処理方法、サーバ装置及びコンピュータプログラム | |
KR20210073428A (ko) | 현실기반 sns를 위한 나만의 캐릭터 생성 및 사물 및 배경 복원 방법 및 시스템 | |
Delabrida et al. | Towards a wearable device for monitoring ecological environments | |
CN111311712B (zh) | 视频帧处理方法和装置 | |
CN116309005A (zh) | 虚拟换装方法、装置、电子设备及可读介质 | |
Ahmed et al. | A cost-effective 3d acquisition and visualization framework for cultural heritage | |
JP2016042661A (ja) | 情報処理装置、システム、情報処理方法及びプログラム | |
WO2023210187A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP7418709B2 (ja) | コンピュータプログラム、方法及びサーバ装置 | |
CN111107279B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
JP2018026149A (ja) | 画像生成装置、画像生成方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20200519 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210929 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220719 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220915 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230314 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230322 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7250726 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |