JP7250726B2 - コンピュータプログラム、サーバ装置及び方法 - Google Patents

コンピュータプログラム、サーバ装置及び方法 Download PDF

Info

Publication number
JP7250726B2
JP7250726B2 JP2020077502A JP2020077502A JP7250726B2 JP 7250726 B2 JP7250726 B2 JP 7250726B2 JP 2020077502 A JP2020077502 A JP 2020077502A JP 2020077502 A JP2020077502 A JP 2020077502A JP 7250726 B2 JP7250726 B2 JP 7250726B2
Authority
JP
Japan
Prior art keywords
unit time
position information
information
terminal device
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020077502A
Other languages
English (en)
Other versions
JP2021174239A (ja
Inventor
顕信 安部
悠 ▲高▼橋
匡志 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2020077502A priority Critical patent/JP7250726B2/ja
Publication of JP2021174239A publication Critical patent/JP2021174239A/ja
Priority to JP2022041676A priority patent/JP7495694B2/ja
Application granted granted Critical
Publication of JP7250726B2 publication Critical patent/JP7250726B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

特許法第30条第2項適用 (1)ウェブサイトの掲載日 2019年8月18日 ウェブサイトのアドレス https://reality-festival.wrightflyer.net/3/ 公開者 株式会社Wright Flyer Live Entertainment 公開された発明の内容 株式会社Wright Flyer Live Entertainmentが、上記アドレスにより特定されるウェブサイトにおいて、出願に係る発明に関する「REALITY FESTIVAL3」を公開した。
特許法第30条第2項適用 (2)公開の実施日 2019年8月18日 公開の場所 公開は、株式会社Wright Flyer Live Entertainmentが運営するVtuber専用のライブ配信アプリケーション「REALITY」を介して配信された「REALITY FESTIVAL3」において2回放送された歌番組(F>>VR)の2回目の放送における「ENDING SPECIAL」において行われた。上記アプリケーション「REALITY」は、下記アドレスにより特定されるウェブサイトにおいてダウンロード可能である。 https://le.wrightflyer.net/reality/ https://itunes.apple.com/us/app/reality/id1404176564?l=ja&ls=1&mt=8 https://play.google.com/store/apps/details?id=net.wrightflyer.le.reality https://apps.apple.com/jp/app/reality-vtuber%E5%B0%82%E7%94%A8%E3%83%A9%E3%82%A4%E3%83%96%E3%82%A2%E3%83%97%E3%83%AA/id1404176564 公開者 株式会社Wright Flyer Live Entertainment 公開された発明の内容 株式会社Wright Flyer Live Entertainmentが、同社が提供する上記アドレスにより特定されるウェブサイトにおいてダウンロード可能なVTuber専用ライブ視聴・配信アプリケーション「REALITY」において、出願に係る発明に関する「REALITY FESTIVAL3」を公開した。
特許法第30条第2項適用 (3)集会の掲載日 2019年9月5日 集会名、開催場所 コンピュータエンターテインメントデベロッパーズカンファレンス2019(CEDEC2019)、パシフィコ横浜 会議センター(横浜西区みなとみらい) 公開者 株式会社Wright Flyer Live Entertainment 公開された発明の内容 株式会社Wright Flyer Live Entertainmentが、上記集会において、出願に係る発明に関する公開を行った。
特許法第30条第2項適用 (4)ウェブサイトの掲載日 2019年7月5日 ウェブサイトのアドレス https://cedil.cesa.or.jp/cedil_sessions/view/2063 公開者 株式会社Wright Flyer Live Entertainment 公開された発明の内容 株式会社Wright Flyer Live Entertainmentが、上記アドレスにより特定されるウェブサイトにおいて、出願に係る発明に関する「Vtuber」に関する公開を行った。
特許法第30条第2項適用 (5)公開日 2019年7月5日 公開場所 https://cedil.cesa.or.jp/cedil_sessions/view/2063内の「講演資料」項目内においてログイン後にアクセス可能な講演資料 公開者 株式会社Wright Flyer Live Entertainment 公開された発明の内容 株式会社Wright Flyer Live Entertainmentが、上記アドレスにより特定される講演資料内において、出願に係る発明に関する「Vtuber」に関する公開を行った。
特許法第30条第2項適用 (6)ウェブサイトの掲載日 2019年9月5日 ウェブサイトのアドレス https://www.wantedly.com/companies/wrightflyer/post_articles/184950 公開者 株式会社Wright Flyer Live Entertainment 公開された発明の内容 株式会社Wright Flyer Live Entertainmentが、上記アドレスにより特定されるウェブサイトにおいて、出願に係る発明に関する「Vtuber」に関する公開を行った。
特許法第30条第2項適用 (7)ウェブサイトの掲載日 2019年8月22日 ウェブサイトのアドレス https://www.wantedly.com/companies/wrightflyer/post_articles/183061 公開者 株式会社Wright Flyer Live Entertainment 公開された発明の内容 株式会社Wright Flyer Live Entertainmentが、上記アドレスにより特定されるウェブサイトにおいて、出願に係る発明に関する「REALITY FESTIVAL3」に関する公開を行った。
本件出願に開示された技術は、配信者(演者)の動作に基づいた画像を表示する、コンピュータプログラム、サーバ装置及び方法に関する。
従来から、配信者(演者)の動作に基づいた画像を生成するために、モーションキャプチャシステムが用いられる。特開2017-511906号公報(特許文献1)は、慣性センサを用いたモーションキャプチャシステムを開示している。特許文献1に開示されたモーションキャプチャシステムは、配信者の身体における複数の部位に装着された慣性センサから受信した信号に基づいて、上記身体における各部分の位置を決定する。なお、上記特許文献1は、引用によりその全体が本明細書に組み入れられる。
特開2017-511906号公報
しかしながら、上述した慣性センサを用いたモーションキャプチャシステムでは、慣性センサを用いて物理的な空間における配信者の位置(座標)を算出する場合には、このように算出される位置は、時間の経過とともに蓄積されるノイズに起因して、実際の配信者の位置とは大きく異なる可能性がある。
したがって、本件出願において開示された幾つかの実施形態は、物理的な空間における配信者(演者)の位置を向上した精度により検出する、コンピュータプログラム、サーバ装置、端末装置及び表示方法を提供する。
一態様に係るコンピュータプログラムは、「少なくとも1つのプロセッサにより実行されることにより、物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得し、前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得し、前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出し、前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。
一態様に係るサーバ装置は、「少なくとも1つのプロセッサを具備し、該少なくとも1つのプロセッサが、物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得し、前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得し、前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出し、前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する」ことができる。
一態様に係る方法は、「コンピュータにより読み取り可能な命令を実行する少なくとも1つのプロセッサにより実行される方法であって、該少なくとも1つのプロセッサが、前記命令を実行することにより、物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得する第1取得工程と、前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得する第2取得工程と、前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出する第1算出工程と、前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する第2算出工程と、を含む」ことができる。
図1は、一実施形態に係る通信システムの構成の一例を示すブロック図である。 図2は、図1に示した通信システム1により実行される各動作がいずれの装置により実行され得るのかを例示する表である。 図3は、図1に示した端末装置20(サーバ装置30)のハードウェア構成の一例を模式的に示すブロック図である。 図4は、図1に示した端末装置20(サーバ装置30)の機能の一例を模式的に示すブロック図である。 図5は、図1に示した通信システム1により行われる動作の一例を示すフロー図である。 図6は、図1に示した通信システム1において身体位置情報算出部150(250)により行われる動作の一例を示すフロー図である。 図7は、図1に示した通信システム1において身体位置情報算出部150(250)により行われる動作の別の例を示すフロー図である。
以下、添付図面を参照して本発明の様々な実施形態を説明する。なお、図面において共通した構成要素には同一の参照符号が付されている。また、或る図面に表現された構成要素が、説明の便宜上、別の図面においては省略されていることがある点に留意されたい。さらにまた、添付した図面が必ずしも正確な縮尺で記載されている訳ではないということに注意されたい。
1.通信システムの概要
本件出願において開示される通信システムでは、簡潔にいえば、以下の動作が行われる。まず、スタジオ等の物理的な空間に居る配信者(演者)は、その身体における複数の部位に複数の第1センサ(例えば慣性センサ)を装着する。さらに、配信者は、その身体におけるいずれかの部位(例えば背中)に、少なくとも1つの第2センサ(例えば光学センサ)を装着する。「配信装置」は、配信者が演技を行っている間において、例えば単位時間ごとに、複数の第1センサから出力された動作情報、及び、少なくとも1つの第2センサから出力された位置情報を取得することができる。ここで、配信装置には、例えば以下の装置を含む任意の装置が含まれる。
・配信者の端末装置
・スタジオ等に設置された端末装置及び/又はスタジオユニット
・スタジオ等に設置されたサーバ装置
(配信装置が動画を生成する態様)
次に、配信装置は、取得した動作情報に基づいて、物理的な空間における配信者の各部位の位置を算出することができる。また、配信装置は、取得した位置情報に基づいて、物理的な空間における配信者の身体の位置を算出することができる。さらに、配信装置は、取得した物理的な空間における各部位の位置を仮想的な空間における各部位の位置に変換することができる。さらにまた、配信装置は、取得した物理的な空間における身体の位置を仮想的な空間における身体の位置に変換することができる。さらに、配信装置は、取得した仮想的な空間における各部位の位置及び身体の位置に基づいて、配信者のアバターのアニメーションを含む動画を生成してサーバ装置に送信することができる。このサーバ装置は、配信者の端末装置等から受信した動画を、各視聴者の端末装置に配信することができる。これにより、各視聴者の端末装置は、サーバ装置から受信した動画を再生することができる。
(サーバ装置が動画を生成する態様)
これに並行して、配信装置は、取得した動作情報及び位置情報を、サーバ装置に送信することができる。このサーバ装置は、取得した動作情報に基づいて、物理的な空間における配信者の各部位の位置を算出することができる。また、このサーバ装置は、取得した位置情報に基づいて、物理的な空間における配信者の身体の位置を算出することができる。さらに、このサーバ装置は、取得した物理的な空間における各部位の位置を仮想的な空間における各部位の位置に変換することができる。さらにまた、サーバ装置は、取得した物理的な空間における身体の位置を仮想的な空間における身体の位置に変換することができる。さらに、このサーバ装置は、取得した仮想的な空間における各部位の位置及び身体の位置に基づいて、配信者のアバターのアニメーションを含む動画を生成して各視聴者の端末装置に送信することができる。これにより、各視聴者の端末装置は、サーバ装置から受信した動画を再生することができる。
(各視聴者の端末装置が動画を生成する態様)
或いはまた、このサーバ装置は、取得した動作情報及び位置情報を各視聴者の端末装置に送信することができる。各視聴者の端末装置は、取得した動作情報に基づいて、物理的な空間における配信者の各部位の位置を算出することができる。また、各視聴者の端末装置は、取得した位置情報に基づいて、物理的な空間における配信者の身体の位置を算出することができる。さらに、各視聴者の端末装置は、取得した物理的な空間における各部位の位置を仮想的な空間における各部位の位置に変換することができる。さらにまた、各視聴者の端末装置は、取得した物理的な空間における身体の位置を仮想的な空間における身体の位置に変換することができる。さらに、各視聴者の端末装置は、取得した仮想的な空間における各部位の位置及び身体の位置に基づいて、配信者のアバターのアニメーションを含む動画を生成して表示することができる。
2.通信システムの例
図1は、一実施形態に係る通信システムの構成の一例を示すブロック図である。図1に示すように、通信システム1は、通信網10に接続される1又はそれ以上の端末装置20と、通信網10に接続される1又はそれ以上のサーバ装置30と、を含むことができる。なお、図1には、端末装置20の例として、3つの端末装置20A~20Cが例示され、サーバ装置30の例として、3つのサーバ装置30A~30Cが例示されている。しかし、端末装置20として、これら以外の1又はそれ以上の端末装置20が通信網10に接続され得る。また、サーバ装置30として、これら以外の1又はそれ以上のサーバ装置30が通信網10に接続され得る。
また、通信システム1は、通信網10に接続される1又はそれ以上のスタジオユニット40を含むことができる。なお、図1には、スタジオユニット40の例として、2つのスタジオユニット40A及び40Bが例示されている。しかし、スタジオユニット40として、これら以外の1又はそれ以上のスタジオユニット40が通信網10に接続され得る。
通信網10は、携帯電話網、無線LAN、固定電話網、インターネット、イントラネット及び/又はイーサネット(登録商標)等をこれらに限定することなく含むことができる。
図2は、図1に示した通信システム1により実行される各動作がいずれの装置により実行され得るのかを例示する表である。
まず、態様(1)に着目する。(A)動作情報及び位置情報の取得~(D)動画の生成までが、配信装置により実行され得る。(E)動画の表示は、配信装置及び各視聴者の端末装置により実行され得る。
次に、態様(2)に着目する。経路(2A)では、(A)動画情報及び位置情報の取得~(E)動画の表示までが、配信装置により実行され得る。
経路(2A)に並行して実行され得る経路(2B)では、(B)物理的な空間における位置の算出~(D)動画の生成までが、サーバ装置により実行され得る。(E)動画の表示が、各視聴者の端末装置により実行され得る。
次に、態様(3)に着目する。経路(3A)で行われる動作は、上述した態様(2)の経路(2A)で行われる動作と同様である。
経路(3A)に並行して実行され得る経路(3B)では、(B)物理的な空間における位置の算出及び(C)仮想的な空間における位置の算出が、サーバ装置により実行され得る。(D)動画の生成及び(E)動画の表示が、各視聴者の端末装置により実行され得る。
次に、態様(4)に着目する。経路(4A)で行われる動作は、上述した態様(2)の経路(2A)で行われる動作と同様である。
経路(4A)と並行して実行され得る経路(4B)では、(B)物理的な空間における位置の算出がサーバ装置により実行され得る。(C)仮想的な空間における位置の算出~(E)動画の表示までが、各視聴者の端末装置により実行され得る。
次に、態様(5)に着目する。経路(5A)で行われる動作は、上述した態様(2)の経路(2A)で行われる動作と同様である。
経路(5A)と並行して実行され得る経路(5B)では、(B)物理的な空間における位置の算出~(E)動画の表示までが、各視聴者の端末装置により実行され得る。
「配信装置」に含まれる、配信者の端末装置20、並びに、スタジオ等に設置された端末装置20及びスタジオユニット40は、インストールされた所定のアプリケーション(動画配信用のアプリケーション等)を実行することにより、態様(1)~態様(5)の各々の場合に割り当てられた上述した動作を実行することができる。或いはまた、「配信装置」に含まれる、配信者の端末装置20、並びに、スタジオ等に設置された端末装置20及びスタジオユニット40は、インストールされたウェブブラウザを実行することにより、サーバ装置30からウェブページを受信及び表示して、同様の動作を実行することができる。
なお、本明細書において、「所定のアプリケーション」又は「特定のアプリケーション」とは、1又はそれ以上のアプリケーションであってもよいし、1又はそれ以上のアプリケーションと1又はそれ以上のミドルウェアとの組み合わせであってもよい。
各視聴者の端末装置20もまた、インストールされた所定のアプリケーション(動画配信用のアプリケーション等)を実行することにより、態様(1)~態様(5)の各々の場合に割り当てられた上述した動作を実行することができる。或いはまた、「配信装置」に含まれる、配信者の端末装置20、並びに、スタジオ等に設置された端末装置20及びスタジオユニット40は、インストールされたウェブブラウザを実行することにより、サーバ装置30からウェブページを受信及び表示して、同様の動作を実行することができる。
配信者の端末装置20及び各視聴者の端末装置20は、スマートフォン、タブレット、携帯電話(フィーチャーフォン)、及び/又は、パーソナルコンピュータ等を、これらに限定することなく含むことができる。
スタジオ等に設置された端末装置20及びスタジオユニット40は、パーソナルコンピュータ、スーパーコンピュータ、及び/又は、量子コンピュータ等をこれらに限定することなく含むことができる。
「配信装置」に含まれるサーバ装置30は、インストールされた特定のアプリケーションを実行してアプリケーションサーバとして機能することにより、態様(1)~態様(5)の各々の場合に割り当てられた上述した動作を実行することができる。また、「配信装置」に含まれるサーバ装置30は、インストールされた特定のアプリケーションを実行してウェブサーバとして機能することにより、各端末装置20及び/又はスタジオユニット等に送信するウェブページを介して、同様の動作を実行することができる。
サーバ装置30は、パーソナルコンピュータ、スーパーコンピュータ、及び/又は、量子コンピュータ等をこれらに限定することなく含むことができる。
3.各装置のハードウェア構成
次に、端末装置20、サーバ装置30及びスタジオユニット40の各々が有するハードウェア構成の一例について説明する。
3-1.端末装置20のハードウェア構成
各端末装置20のハードウェア構成例について図3を参照して説明する。図3は、図1に示した端末装置20(サーバ装置30)のハードウェア構成の一例を模式的に示すブロック図である。なお、図3において、括弧内の参照符号は、後述するように各サーバ装置30に関連して記載されている。
各端末装置20は、主に、中央処理装置21と、主記憶装置22と、入出力インタフェイス装置23と、入力装置24と、補助記憶装置25と、出力装置26と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。
中央処理装置21は、「CPU」と称されることがあり、主記憶装置22に記憶されている命令及びデータに対して演算を行い、その演算の結果を主記憶装置22に記憶させることができる。さらに、中央処理装置21は、入出力インタフェイス装置23を介して、入力装置24、補助記憶装置25及び出力装置26等を制御することができる。端末装置20は、1又はそれ以上のこのような中央処理装置21を含むことが可能である。
主記憶装置22は、「メモリ」と称されることがあり、入力装置24、補助記憶装置25及び通信網10等(サーバ装置30等)から、入出力インタフェイス装置23を介して受信した命令及びデータ、並びに、中央処理装置21の演算結果を記憶することができる。主記憶装置22は、RAM(ランダムアクセスメモリ)、ROM(リードオンリーメモリ)及び/又はフラッシュメモリ等をこれらに限定することなく含むことができる。
補助記憶装置25は、主記憶装置22よりも大きな容量を有する記憶装置である。補助記憶装置25は、上記特定のアプリケーションやウェブブラウザ等を構成する命令及びデータ(コンピュータプログラム)を記憶しておき、中央処理装置21により制御されることにより、これらの命令及びデータ(コンピュータプログラム)を、入出力インタフェイス装置23を介して主記憶装置22に送信することができる。補助記憶装置25は、磁気ディスク装置及び/又は光ディスク装置等をこれらに限定することなく含むことができる。
入力装置24は、外部からデータを取り込む装置であり、タッチパネル、ボタン、キーボード、マウス及び/又はセンサ等をこれらに限定することなく含むことができる。センサは、後述するように、1又はそれ以上のカメラ等を含む第1種のセンサ、及び/又は、1又はそれ以上のマイク等を含む第2種のセンサをこれらに限定することなく含むことができる。
出力装置26は、ディスプレイ装置、タッチパネル及び/又はプリンタ装置等をこれらに限定することなく含むことができる。
このようなハードウェア構成にあっては、中央処理装置21が、補助記憶装置25に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次主記憶装置22にロードし、ロードした命令及びデータを演算することができる。これにより、中央処理装置21は、入出力インタフェイス装置23を介して出力装置26を制御し、或いはまた、入出力インタフェイス装置23及び通信網10を介して、他の装置(例えばサーバ装置30及び他の端末装置20等)との間で様々な情報の送受信を行うことができる。これにより、端末装置20は、インストールされた特定のアプリケーションを実行することにより、図2を参照して上述した動作を実行することができる。
なお、端末装置20は、中央処理装置21に代えて又は中央処理装置21とともに、1又はそれ以上のマイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含むことができる。
3-2.サーバ装置30のハードウェア構成
各サーバ装置30のハードウェア構成例について同じく図3を参照して説明する。各サーバ装置30のハードウェア構成は、例えば、上述した各端末装置20のハードウェア構成と同一とすることができる。したがって、各サーバ装置30が有する構成要素に対する参照符号は、図3において括弧内に示されている。
各サーバ装置30は、主に、中央処理装置31と、主記憶装置32と、入出力インタフェイス装置33と、入力装置34と、補助記憶装置35と、出力装置36と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。
中央処理装置31、主記憶装置32、入出力インタフェイス装置33、入力装置34、補助記憶装置35及び出力装置36は、それぞれ、上述した各端末装置20に含まれる、中央処理装置21、主記憶装置22、入出力インタフェイス装置23、入力装置24、補助記憶装置25及び出力装置26と略同一であり得る。
このようなハードウェア構成にあっては、中央処理装置31が、補助記憶装置35に記憶された特定のアプリケーションを構成する命令及びデータ(コンピュータプログラム)を順次主記憶装置32にロードし、ロードした命令及びデータを演算することができる。これにより、中央処理装置31は、入出力インタフェイス装置33を介して出力装置36を制御し、或いはまた、入出力インタフェイス装置33及び通信網10を介して、他の装置(例えば各端末装置20等)との間で様々な情報の送受信を行うことができる。
これにより、サーバ装置30は、インストールされた特定のアプリケーションを実行してアプリケーションサーバ及び/又はウェブサーバとして機能することができる。これにより、サーバ装置30は、図2を参照して上述した動作を実行することができる。
なお、サーバ装置30は、中央処理装置31に代えて又は中央処理装置31とともに、1又はそれ以上のマイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含むことができる。
3-3.スタジオユニット40のハードウェア構成
スタジオユニット40は、パーソナルコンピュータ等の情報処理装置により実装可能である。スタジオユニット40は、図示はされていないが、上述した端末装置20及びサーバ装置30と同様に、主に、中央処理装置と、主記憶装置と、入出力インタフェイス装置と、入力装置と、補助記憶装置と、出力装置と、を含むことができる。これら装置同士は、データバス及び/又は制御バスにより接続されている。
スタジオユニット40は、インストールされた特定のアプリケーションを実行して情報処理装置として機能することができる。これにより、スタジオユニット40は、図2を参照して上述した動作を実行することができる。
なお、スタジオユニット40は、中央処理装置に代えて又は中央処理装置とともに、1又はそれ以上のマイクロプロセッサ、及び/又は、グラフィックスプロセッシングユニット(GPU)を含むことができる。
4.各装置の機能
次に、端末装置20、サーバ装置30及びスタジオユニット40の各々が有する機能の一例について説明する。
4-1.端末装置20の機能
図4は、図1に示した端末装置20(サーバ装置30)の機能の一例を模式的に示すブロック図である。図4に示すように、端末装置20は、記憶部100と、センサ部110と、動作情報取得部120と、位置情報取得部130と、部位位置情報算出部140と、身体位置情報算出部150と、変換部160と、動画生成部170と、表示部180と、ユーザインタフェイス部190と、通信部200と、を含むことができる。
(1)記憶部100
画像の配信及び/又は画像の受信等に必要とされる例えば以下に示す情報を含む様々な情報を記憶することができる。
・演者に装着された第1センサ(例えば慣性センサ)から受信した動作情報
・演者に装着された第2センサ(例えば光学センサ)から受信した位置情報
・動作情報に基づいて算出された部位位置情報
・位置情報に基づいて算出された身体位置情報
・物理的な空間における座標から仮想的な空間における座標に変換された部位位置情報
・物理的な空間における座標から仮想的な空間における座標に変換された身体位置情報
・仮想的な空間における座標に変換された部位位置情報と、仮想的な空間における座標に変換された身体位置情報と、に基づいて生成された動画等
(2)センサ部110
センサ部110は、様々なタイプのカメラ及び/又はマイクロフォン等のセンサと、このようなセンサにより取得された情報を処理する少なくとも1つのプロセッサと、を含むことができる。センサ部110は、このセンサ部110に対向する演者の顔に関するデータ(画像及び/又は音声等)を取得して、さらにこのデータに対する情報処理を実行することが可能である。
具体的には、例えば、センサ部110は、まず、様々なタイプのカメラを用いて、単位時間ごとに演者の顔に関する画像データを取得することができる。ここで、単位時間は、ユーザ・演者等によりユーザインタフェイス部190を介して任意のタイミングにおいて任意の長さに設定・変更可能である。さらに、センサ部110は、このように取得した画像データを用いて、単位時間ごとに演者の顔における複数の部分の各々の位置を測定することができる。ここで、複数の部分とは、上記のとおり、右目、左目、右眉毛、左眉毛、鼻、口、右耳、左耳、顎、右頬、左頬、及び/又は、これらの部位のうちの何れかの部分における一部分等を、これらに限定することなく含むことができる。なお、カメラにより取得された画像データを用いて単位時間ごとに演者の顔における複数の部分の位置を測定する手法としては、当業者にとって周知である様々な手法を用いることが可能である。
例えば、1つの実施形態では、センサ部110は、センサとして、可視光線を撮像するRGBカメラと、近赤外線を撮像する近赤外線カメラと、を含むことができる。このようなカメラとしては、例えばiphone X(登録商標)のトゥルーデプス(True Depth)カメラが利用可能である。なお、トゥルーデプス(True Depth)カメラとしては、https://developer.apple.com/documentation/arkit/arfaceanchorに開示されたカメラを利用することができる。このウェブサイトに記載された事項は、引用によりその全体が本明細書に組み入れられる。
RGBカメラに関して、センサ部110は、RGBカメラにより取得された画像をタイムコード(画像を取得した時間を示すコード)に対応付けて単位時間ごとに記録したデータを生成することができる。このデータは、例えばMPEGファイルであり得る。
さらに、センサ部110は、近赤外線カメラにより取得された所定数(例えば51個)の深度を示す数値(例えば浮動小数点の数値)を上記タイムコードに対応付けて単位時間ごとに記録したデータを生成することができる。このデータは、例えばTSVファイルであり得る。ここで、TSVファイルとは、データ間をタブで区切って複数のデータを記録する形式のファイルである。
近赤外線カメラに関して、具体的には、まず、ドットプロジェクタがドット(点)パターンを含む赤外線レーザーを演者の顔に放射することができる。さらに、近赤外線カメラが、演者の顔に投影され反射した赤外線ドットを捉え、このように捉えた赤外線ドットの画像を生成することができる。センサ部110は、予め登録されているドットプロジェクタにより放射されたドットパターンの画像と、近赤外線カメラにより捉えられた画像とを比較して、両画像における各ポイント(例えば51個のポイント・51個の部分の各々)における位置のずれを用いて各ポイント(各部分)の深度を算出することができる。ここで、各ポイント(各部分)の深度は、各ポイント(各部分)と近赤外線カメラとの間の距離であり得る。センサ部110は、このように算出された深度を示す数値を上記のようにタイムコードに対応付けて単位時間ごとに記録したデータを生成することができる。
これにより、センサ部110は、タイムコードに対応付けて、単位時間ごとに、MPEGファイル等の動画と、各部位の位置(座標等)とを、演者の顔に関するデータ(測定データ)として取得することができる。
Argumented Facesを利用することにより、センサ部110は、カメラにより撮像された画像を用いて、次に示す情報を単位時間ごとに取得することができる。
(1)演者の頭蓋骨の物理的な中心位置、
(2)演者の顔を構成する何百もの頂点を含み、上記中心位置に対して定義される顔メッシュ、及び、
(3)上記(1)及び(2)に基づいて識別された、演者の顔における複数の部分(例えば、右頬、左頬、鼻の頂点)の各々の位置(座標)
この技術を用いることにより、センサ部110は、単位時間ごとに、演者の顔における複数の部分の各々の位置(座標)を取得することができる。
なお、センサ部110は、マイクロフォン等から出力された演者の発話及び/又は歌唱に関する音声データについては、このデータに対して周知の信号処理を行うことにより、音声信号を取得することができる。この音声信号は、例えばMPEGファイル等であってもよい。
(3)動作情報取得部120及び部位位置情報算出部140
スタジオ等の物理的な空間に居る演者の身体における複数の部位には、(図示しない)複数の第1センサ(例えば慣性センサ)が装着されている。なお、演者の身体における複数の部位は、例えば、頭、顎、右肩、右肘、右手首、右手の甲、右手の指、左肩、左肘、左手首、左手の甲、左手の指、右股関節、右膝、右足首、右足の甲、右足爪先、左股関節、左膝、左足首、左足の甲、左足爪先、背中及び腰等を含む複数の部位から選択され得る。これら複数の第1センサの各々は、3次元加速度計、3次元ジャイロスコープ及び3次元磁力計等のうちの少なくとも1つを含むことができる。複数の第1センサの各々は、単位時間ごとに、センサ信号(動作情報)を送信することができる。なお、複数の第1センサとしては、例えば、イクセンス社により提供される”MVN BIOMECH”(http://0c7.co.jp/products/xsens/products/mvn_biomech/)を利用することが可能である。上記ウェブサイトに開示された内容は、引用によりその全体が本明細書に組み入れられる。
動作情報取得部120は、複数の第1センサの各々により送信されたセンサ信号(動作情報)を取得することができる。
部位位置情報算出部140は、動作情報取得部120により取得された、複数の第1センサの各々のセンサ情報に基づいて、複数の第1センサ(すなわち身体における複数の部位)の各々の位置情報(及び向き等)を算出することができる。なお、各第1センサから受信したセンサ情報に基づいてそのセンサの位置情報を取得する手法としては、例えば、特開2017-511906号公報、特表2013-500812号公報及び特許第5388473号公報に記載されている周知の手法を用いることが可能である。なお、これらの文献は、引用によりそれらの全体が本明細書に組み入れられる。
(4)位置情報取得部130及び身体位置情報算出部150
スタジオ等の物理的な空間に居る演者の身体におけるいずれかの部位(例えば背中)には、(図示しない)少なくとも1つの第2センサ(例えば光学センサ)が装着されている。また、スタジオ等の物理的な空間に居る演者の近くには、図示しない2つのベースステーション(第1ベースステーション及び第2ベースステーション)が設置され得る。
第1ベースステーション及び第2ベースステーションは、例えば、多軸レーザーエミッターであり得る。第1ベースステーションは、例えば、同期用の点滅光を発した後に、鉛直軸の周りにレーザー光を走査することができる。第2ベースステーションは、例えば、同期用の点滅光を発した後に、水平軸の周りにレーザー光を走査することができる。
第2センサは、第1ベースステーション及び第2ベースステーションからの点滅光及びレーザー光の入射を検知することができる。さらに、第2センサは、点滅光の入射タイミングとレーザー光の入射タイミングとの時間差、この第2センサでの受光時間、この第2センサが検知したレーザー光の入射角度等に基づいて、この第2センサの位置情報(及び向き等)を検出することができる。さらにまた、第2センサは、単位時間ごとに、この第2センサが検出した位置情報を送信することができる。位置情報取得部130は、このように第2センサにより単位時間ごとに送信された位置情報を取得することができる。
なお、このような第2センサ、並びに、第1ベースステーション及び第2ベースステーションとしては、例えば、HTC社により提供される”HTC VIVE”を利用することができる。上記ウェブサイトに開示された内容は、引用によりその全体が本明細書に組み入れられる。
身体位置情報算出部150は、位置情報取得部130により取得された第2センサの位置情報に基づいて、身体の位置情報を算出することができる。なお、身体の位置情報の算出手法については、図6を参照して後述する。
(5)変換部160
変換部160は、部位位置情報算出部140により算出された、複数の第1センサの各々の位置情報を、物理的な空間における座標から仮想的な空間における座標に変換することができる。さらに、変換部160は、身体位置情報算出部150により算出された、第2センサの位置情報を、物理的な空間における座標から仮想的な空間における座標に変換することができる。なお、物理的な空間とは、演者が存在する空間(例えばスタジオ等)における座標である。また、仮想的な空間とは、演者のアバターが存在する空間における座標である。
(6)動画生成部170
動画生成部170は、例えば、以下の情報を用いて、演者の身体の動作に追従したアバターのアニメーションを含む動画を生成することができる。
・センサ部110により取得された演者の身体に関するデータ(測定データ)
・部位位置情報算出部140により算出された複数の第1センサ(身体における複数の部位)の各々の位置情報
・身体位置情報算出部150により算出された身体の位置情報
例えば、動画生成部170は、演者の身体の動作に追従して、例えば、アバターが以下の動作を行うような動画を生成することができる。
・アバターが真顔を維持して瞬きを行うこと
・アバターが真顔を維持して俯くこと
・アバターが口や目を動作させること
・アバターが仮想空間において移動すること
・アバターが身体における複数の部位を動作させること
このような動画の生成は、動画生成部170が、例えば以下の処理等を行うことにより実現可能である。
・センサ部110により取得された演者の身体に関する測定データ(顔における複数の部分の各々の座標)に基づいて、アバターの顔を描画する処理
・身体位置情報算出部150により算出された身体の位置情報に基づいて定められる座標に、アバターを描画する処理
・部位位置情報算出部140により算出された各第1センサの位置情報に基づいて定められる座標に、その第1センサに対応する部位を描画する処理
また、このような動画の生成は、当業者にとって周知である様々なレンダリング技術を用いることによって実現可能である。
このように動画生成部170により生成された動画を格納したファイルは、記憶部100に記憶され得る。
(7)表示部180
表示部180は、例えば、タッチパネル及び/又はディスプレイパネル等を含むことができる。このような表示部180は、動画生成部170により生成され記憶部100により記憶された動画を格納したファイルを再生して表示することができる。
(8)ユーザインタフェイス部190
ユーザインタフェイス部190は、タッチパネル、マウス及び/又はキーボード等を含むことができる。このようなユーザインタフェイス部190は、演者により行われた操作の内容を示す情報を生成することができる。
(9)通信部200
通信部200は、動画の配信及び/又は動画の受信に必要とされる様々な情報を、通信網10を介してサーバ装置30との間で通信することができる。特に、当該端末装置20が演者(配信者)の端末装置20として動作する場合には、通信部200は、記憶部100に記憶された動画を、サーバ装置30に送信することができる。当該端末装置20が視聴者の端末装置20として動作する場合には、通信部200は、配信者の端末装置20により配信された動画を、サーバ装置30を介して受信することができる。
4-2.サーバ装置30の機能及びスタジオユニット40の機能
サーバ装置30の機能の一例について同じく図4を参照して説明する。サーバ装置30の機能としては、例えば、上述した端末装置20の機能の少なくとも一部を用いることが可能である。したがって、サーバ装置30が有する構成要素に対する参照符号は、図4において括弧内に示されている。また、スタジオユニットは、図4に示した端末装置20又はサーバ装置30と同様の構成を有することにより、端末装置20又はサーバ装置30と同様の動作を行うことが可能である。
5.通信システム1により行われる動作
次に、上述した通信システム1により行われる動作の一例について、図5を参照して説明する。図5は、図1に示した通信システム1により行われる動作の一例を示すフロー図である。
5-1.全体の動作
図5に示すように、まず、ステップ(以下「ST」という。)402において、配信装置は、例えば単位時間ごとに、測定データ、動作情報及び位置情報を取得することができる。配信装置は、このように取得した測定データ、動作情報及び/又は位置情報を、記憶部100(200)に記憶させるようにしてもよい。なお、測定データは、センサ部110(210)により取得され得る。動作情報及び位置情報は、それぞれ、動作情報取得部120(220)及び位置情報取得部130(230)により取得され得る。なお、ST402において行われる動作は、図2に示した動作(A)に含まれ得る。
ST404において、配信装置(の部位位置情報算出部140(240))は、ST402において取得された動作情報に基づいて、物理的な空間における各部位の位置情報を算出することができる。なお、ST404において行われる動作は、図2に示した動作(B)に含まれ得る。
ST406において、配信装置(の身体位置情報算出部150(250))は、ST402において取得された位置情報に基づいて、物理的な空間における身体の位置情報を算出することができる。ST406において行われる具体的な処理については、図6を参照して後述する。なお、ST406において行われる動作は、図2に示した動作(B)に含まれ得る。
ST408において、配信装置(の部位位置情報算出部140(240))は、ST404において算出された各部位の位置情報を、物理的な空間における3次元座標から、仮想的な空間における3次元座標に変換することができる。演者が演技を行う物理的な空間(例えばスタジオ等)のサイズと、アバターが配置される仮想的な空間のサイズとは、同一ではないため、このような物理的な空間における3次元座標から仮想的な空間(例えばカラオケボックスの部屋等)における3次元座標に対する位置情報の変換が行われる。なお、ST408において行われる動作は、図2に示した動作(C)に含まれ得る。
ST410において、配信装置(の身体位置情報算出部150(250))は、ST406において算出された身体の位置情報を、物理的な空間における3次元座標から、仮想的な空間における3次元座標に変換することができる。演者が演技を行う物理的な空間(例えばスタジオ等)のサイズと、アバターが配置される仮想的な空間(例えばカラオケボックスの部屋等)のサイズとは、同一ではないため、このような物理的な空間における3次元座標から仮想的な空間における3次元座標に対する位置情報の変換が行われる。なお、ST410において行われる動作は、図2に示した動作(C)に含まれ得る。
ST412において、配信装置(の動画生成部170(270))は、ST402において取得された測定データと、ST408において仮想的な空間における3次元座標に変換された各部位の位置情報と、ST410において仮想的な空間における3次元座標に変換された身体の位置情報と、を含む情報等に基づいて、アバターのアニメーションを含む動画を生成することができる。さらに、配信装置(の通信部200(300))は、このように生成された動画をサーバ装置30に送信することができる。これにより、各視聴者の端末装置20は、ST414において生成された動画を、サーバ装置30を介して受信することができる。なお、ST412において行われる動作は、図2に示した動作(D)に含まれ得る。
ST414において、配信装置及び各視聴者の端末装置20は、ST414において生成された動画を再生及び表示することができる。なお、ST414において行われる動作は、図2に示した動作(E)に含まれ得る。
ST416において、配信装置は、処理を継続するか否かを判定することができる。処理の継続が判定された場合には、処理は上述したST402に戻る。一方、処理の中止が判定された場合には、処理は終了する。
なお、図5に示した各ステップにおける処理は、別のステップにおける処理と少なくとも部分的に並行して実行されるものであってもよい。例えば、ST402において、配信装置が、単位時間ごとに、測定データ、動作情報及び位置情報を取得することに並行して、配信装置は、ST404~ST414のそれぞれにおける動作を実行し、かつ、各視聴者の端末装置20はST414における動作を実行することができる。
5-2.身体位置情報算出部150(250)により実行される処理の具体例
次に、上述したST406において身体位置情報算出部150(250)により行われる具体的な処理の一例について、図6を参照して説明する。図6は、図1に示した通信システム1において身体位置情報算出部150(250)により行われる動作の一例を示すフロー図である。
図6を参照すると、ST502において、配信装置は、第1単位時間ごとにST402において取得した位置情報に対して前処理を実行することができる。前処理には、ST402において取得した位置情報を、所定の原点(所定の座標)を基準とした位置情報に変換する処理、及び/又は、ST402において取得した位置情報を、所定の桁数に収める処理等が、含まれ得る。
ST504において、配信装置は、前回の第1単位時間(以下「前第1単位時間」という)において取得した位置情報と、現在の第1単位時間(以下「現第1単位時間」という)において取得した位置情報と、の間における変化量を算出することができる。
ST506において、配信装置は、ST504において算出した変化量が閾値を上回るか否かを判定することができる。ST506において変化量が閾値以下であると判定された場合には、ST508において、配信装置は、現第1単位時間において取得した位置情報を有効な位置情報として決定することができる。かかる有効な位置情報は、上述したST410において用いられる。この後、処理は上述したST502に戻る。
一方、ST506において変化量が閾値を上回ると判定された場合には、処理はST510に移行する。なお、このように変化量が閾値を上回る現象は、第1ベースステーション及び/又は第2ベースステーションにより発せられた点滅光又は他の光が、何らかの物体に反射して、配信者に装着された第2センサに入射したこと等(これに限られない)に起因して生ずることが考えられる。
ST510において、配信装置は、現第1単位時間において取得した位置情報を破棄することができる。ST512において、配信装置は、上述したST502におけるものと同様の処理を実行することができる。ST514において、配信装置は、新たな前第1単位時間(これまでに用いた前第1単位時間とは異なる前第1単位時間)において取得した位置情報と、新たな現第1単位時間(これまでに用いた現第1単位時間とは異なる現第1単位時間)において取得した位置情報と、の間における変化量を算出することができる。
ST516において、配信装置は、ST504において算出した変化量が閾値を上回るか否かを判定することができる。ST516において変化量が閾値以下であると判定された場合には、ST518において、配信装置は、現第1単位時間(ST514における新たな現第1単位時間と同一)において取得した位置情報を有効な位置情報として決定することができる。かかる有効な位置情報は、上述したST410において用いられる。この後、処理は上述したST502に戻る。
一方、ST516において変化量が閾値を上回ると判定された場合には、処理は上述したST510に戻る。
図6に示した処理によれば、配信装置は、前第1単位時間において取得した位置情報と現第1単位時間において取得した位置情報との間における変化量が閾値以下である場合には、当該現第1単位時間において取得した位置情報を有効な位置情報として使用することができる。
一方、上記変化量が上記閾値を上回る場合には、配信装置は、当該現第1単位時間において取得した位置情報を廃棄することができる。この後、配信装置は、新たな前第1単位時間において取得した位置情報と、新たな現第1単位時間において取得した位置情報との間における変化量が閾値以下となるまで、そのような新たな現単位時間において取得した位置情報を破棄し続ける。さらに、上記変化量が上記閾値以下となった時点において、配信装置は、そのような時点における現第1単位時間において取得した位置情報を有効な位置情報として使用することができる。これにより、配信装置は、光の反射等に起因して第2センサから受信した位置情報に誤りが存在する場合には、そのような位置情報を破棄し続け、その後に第2センサから取得した適切な位置情報を、有効な位置情報として利用することができる。
なお、図6に示した例では、配信装置が第2センサから位置情報を取得する時間におけるインターバル(ST502、ST512)と、配信装置が変化量を取得するために用いる2つの位置情報の間におけるインターバル(ST504、ST514)とが、同一(第1単位時間ごと)である場合について説明した。しかし、図7に例示するように、配信装置が変化量を取得するために用いる2つの位置情報の間におけるインターバル(ST604、ST614)を、配信装置が第2センサから位置情報を取得する時間におけるインターバル(ST602、ST612)より長くすることも可能である。すなわち、図7において、第2単位時間を第1単位時間よりも長くすることが可能である。なお、図7に示した例における動作は、第1単位時間と第2単位時間とを組み合わせて用いる点を除き、図6に示した例における動作と同様である。
6.変形例
図5に示したST404において配信装置が算出する各部位の位置情報は、用いられる第1センサの性能等によっては、時間の経過とともに、生じた誤差を蓄積していくことにより、大きな誤差を含む可能性が考えられる。このような問題に対処するために、配信装置は、ST404において算出した各部位の位置情報を、所定のタイミング(例えば周期的に)において、補正することができる。
例えば、配信装置は、ST406において取得した「有効な位置情報」に基づいて、ST404において算出した各部位の位置情報を補正することができる。具体的には、第1の方法では、配信装置は、ST406において有効な位置情報として取得した身体の位置情報が、前回有効な位置情報として取得した身体の位置情報から、例えば、(Δx、Δy、Δz)だけシフトしている場合には、ST404において取得した各部位の位置情報を、相対的に、(Δx、Δy、Δz)又は(k1・Δx、k2・Δy、k3・Δz)だけシフトすることができる。ここで、k1、k2及びk3は、それぞれ、任意の係数である。
また、図6及び図7に示した例において、第1単位時間及び/又は第2単位時間は、任意のタイミングで変更可能な単位時間であり得る。
さらに、上述した様々な実施形態では、第1センサ及び第2センサとして、それぞれ、慣性センサ及び光学センサを用いる場合について説明した。しかし、相互に異なる第1センサ及び第2センサの各々は、周知である、光学(式)センサ、慣性(式)センサ、磁気(式)センサ及び機械(式)センサを含む様々なセンサから選択され得る。このような場合にも、第2センサからの位置情報を用いて算出された位置情報としては、単位時間当たりの変化量が閾値以下である位置情報のみが、有効な位置情報として用いられる。これにより、第2センサからの位置情報を用いて算出された位置情報のうち、一定の大きさを超える誤差を有する位置情報は、破棄される。したがって、配信者の身体の位置を向上した精度により検出することが可能である。さらに、このような第2センサからの位置情報を用いて算出された位置情報の単位時間当たりの変化量に基づいて、複数の第1センサ(複数の部位)の各々から受信した動作情報を用いて算出された位置情報を補正することができる。これにより、各第1センサが装着された部位の位置情報についても、向上した精度により検出することができる。
さらにまた、図6及び図7に示した例では、配信装置が、図2に示した動作(A)~動作(E)を実行し、各視聴者の端末装置20が動作(E)を実行する場合(図2における態様(1)に対応する場合)について説明した。しかし、動作(A)~動作(E)は、図2における態様(2)~態様(5)に示すように、複数の装置により分担して実行されるようにしてもよい。
この場合、隣接する2つの動作が相互に異なる装置により実行される場合には、これら2つの動作のうち先に生ずる動作を実行する装置は、その動作により得られた情報等を、後に生ずる動作を実行する装置に対して送信する必要がある。
例えば、態様(2)の経路(2B)に着目すると、配信装置は、動作(A)により得られた動作情報及び位置情報(測定データ)を、動作(B)を実行するサーバ装置に送信する必要がある。同様に、サーバ装置は、動作(D)により得られた動画を、各視聴者の端末装置に送信する必要がある。
別の例として、態様(5)の経路(5B)に着目すると、配信装置は、動作(A)により得られた動作情報及び位置情報(測定データ)を、例えばサーバ装置を介して、各視聴者の端末装置に送信する必要がある。
なお、図2に示された、態様(3)の経路(3B)、態様(4)の経路(4B)及び態様(5)の経路(5B)においては、各視聴者の端末装置は、配信装置により生成された動画を表示するのではなく、その視聴者の端末装置自体により生成(描画)された動画を表示することができる(この方式は、視聴者の端末装置(クライアント)がレンダリング(描画)を行うことから、「クライアントレンダリング」といわれることがある)。これにより、各視聴者の端末装置は、一般的に大きな容量を有する動画を受信する必要がないため、より高速に、配信者のアバターのアニメーションを含む動画を表示することができる。すなわち、配信装置により表示される動画と、各視聴者の端末装置により表示される動画との間における時間差を、大幅に抑えることが可能である。
7.様々な態様
第1の態様に係るコンピュータプログラムは、「少なくとも1つのプロセッサにより実行されることにより、物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得し、前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得し、前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出し、前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。
第2の態様に係るコンピュータプログラムは、上記第1の態様において「前記位置情報に基づいて算出された前記身体の位置が有効な位置として使用可能であるか否かを判断する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。
第3の態様に係るコンピュータプログラムは、上記第2の態様において「第1単位時間ごとに前記位置情報に基づいて前記身体の位置を算出し、前記第1単位時間における前記身体の位置の変化量が閾値以下である場合に、当該第1単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。
第4の態様に係るコンピュータプログラムは、上記第3の態様において「前記第1単位時間における前記身体の位置の変化量が閾値を上回った場合に、当該第1単位時間に前記位置情報に基づいて算出された前記身体の位置を破棄する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。
第5の態様に係るコンピュータプログラムは、上記第4の態様において「前記身体の位置の変化量が閾値を上回った当該第1単位時間より後に生ずる新たな第1単位時間における前記身体の位置の変化量が閾値以下に戻った場合に、当該新たな第1単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。
第6の態様に係るコンピュータプログラムは、上記第2の態様において「第1単位時間ごとに前記位置情報に基づいて前記身体の位置を算出し、前記第1単位時間より長い第2単位時間における前記身体の位置の変化量が閾値以下である場合に、当該第2単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。
第7の態様に係るコンピュータプログラムは、上記第6の態様において「前記第2単位時間における前記身体の位置の変化量が閾値を上回った場合に、当該第2単位時間に前記位置情報に基づいて算出された前記身体の位置を破棄する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。
第8の態様に係るコンピュータプログラムは、上記第7の態様において「前記身体の位置の変化量が閾値を上回った当該第2単位時間より後に生ずる新たな第2単位時間における前記身体の位置の変化量が閾値以下に戻った場合に、当該新たな第2単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。
第9の態様に係るコンピュータプログラムは、上記第3の態様から上記第5の態様のいずれかにおいて「前記第1単位時間が変更可能である」。
第10の態様に係るコンピュータプログラムは、上記第6の態様から上記第8の態様のいずれかにおいて「前記第1単位時間及び/又は前記第2単位時間が変更可能である」。
第11の態様に係るコンピュータプログラムは、上記第3の態様から上記第10の態様のいずれかにおいて「前記位置情報に基づいて算出された前記身体の有効な位置を仮想的な空間における前記身体の位置に変換し、前記動作情報に基づいて算出された前記複数の部位の各々の位置を仮想的な空間における該複数の部位の各々の位置に変換する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。
第12の態様に係るコンピュータプログラムは、上記第11の態様において「前記仮想的な空間における前記身体の位置、及び、前記仮想的な空間における前記複数の部位の各々の位置に基づいて、前記配信者のアバターのアニメーションを含む動画を生成する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。
第13の態様に係るコンピュータプログラムは、上記第1の態様から上記第12の態様のいずれかにおいて「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ及び/又はグラフィックスプロセッシングユニット(GPU)を含む」ことができる。
第14の態様に係るコンピュータプログラムは、上記第1の態様から上記第13の態様のいずれかにおいて「取得された前記動作情報及び/又は前記位置情報を記憶部に記憶する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。
第15の態様に係るコンピュータプログラムは、上記第1の態様から上記第14の態様のいずれかにおいて「前記少なくとも1つのプロセッサが、スタジオに設置される端末装置、前記配信者の端末装置、視聴ユーザの端末装置、及び/又は、サーバ装置に搭載される」ことができる。
第16の態様に係るサーバ装置は、「少なくとも1つのプロセッサを具備し、該少なくとも1つのプロセッサが、物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得し、前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得し、前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出し、前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する」ことができる。
第17の態様に係るサーバ装置は、上記第16の態様において「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ及び/又はグラフィックスプロセッシングユニット(GPU)を含む」ことができる。
第18の態様に係るサーバ装置は、上記第16の態様又は上記第17の態様において「取得された前記動作情報及び/又は前記位置情報を記憶部に記憶する、ように前記少なくとも1つのプロセッサを機能させる」ことができる。
第19の態様に係る方法は、「コンピュータにより読み取り可能な命令を実行する少なくとも1つのプロセッサにより実行される方法であって、該少なくとも1つのプロセッサが、前記命令を実行することにより、物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得する第1取得工程と、前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得する第2取得工程と、前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出する第1算出工程と、前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する第2算出工程と、を含む」ことができる。
第20の態様に係る方法は、上記第19の態様において「各工程が、スタジオに設置された端末装置又は前記配信者の端末装置に搭載された前記少なくとも1つのプロセッサにより実行される」ことができる。
第21の態様に係る方法は、上記第19の態様において「前記第1取得工程及び前記第2取得工程が、スタジオに設置された端末装置又は前記配信者の端末装置に搭載された前記少なくとも1つのプロセッサにより実行され、前記第1算出工程及び前記第2算出工程が、前記スタジオに設置された端末装置又は前記配信者の端末装置に接続されるサーバ装置に搭載された、前記少なくとも1つのプロセッサにより実行される」ことができる。
第22の態様に係る方法は、上記第19の態様において「前記第1取得工程及び前記第2取得工程が、スタジオに設置された端末装置又は前記配信者の端末装置に搭載された前記少なくとも1つのプロセッサにより実行され、前記第1算出工程及び前記第2算出工程が、前記スタジオに設置された端末装置又は前記配信者の端末装置に対してサーバ装置を介して接続される端末装置に搭載された、前記少なくとも1つのプロセッサにより実行される」ことができる。
第23の態様に係る方法は、上記第19の態様において「各工程が、スタジオに設置された端末装置又は前記配信者の端末装置に対してサーバ装置を介して接続される端末装置に搭載された、前記少なくとも1つのプロセッサにより実行される」ことができる。
第24の態様に係る方法は、上記第19の態様から上記第23の態様のいずれかにおいて「前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ及び/又はグラフィックスプロセッシングユニット(GPU)を含む」ことができる。
第25の態様に係る方法は、上記第19の態様から上記第24の態様のいずれかにおいて「前記少なくとも1つのプロセッサが、前記命令を実行することにより、取得された前記動作情報及び/又は前記位置情報を記憶部に記憶する」ことができる。
以上のように、様々な態様によれば、物理的な空間における配信者(演者)の位置を向上した精度により検出する、コンピュータプログラム、サーバ装置、端末装置及び表示方法を提供することができる。
1 通信システム
10 通信網
20(20A~20C) 端末装置
30(30A~30C) サーバ装置
40(40A、40B) スタジオユニット
100(200) 記憶部
110(210) センサ部
120(220) 動作情報取得部
130(230) 位置情報取得部
140(240) 部位位置情報算出部
150(250) 身体位置情報算出部
160(260) 変換部
170(270) 動画生成部
180(280) 表示部
190(290) ユーザインタフェイス部
200(300) 通信部

Claims (23)

  1. 少なくとも1つのプロセッサにより実行されることにより、
    物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得し、
    前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得し、
    前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出し、
    前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出し、
    第1の動作又は第2の動作を実行する、ように前記少なくとも1つのプロセッサを機能させ、
    前記第1の動作が、
    第1単位時間ごとに前記位置情報に基づいて前記身体の位置を算出し、
    前記第1単位時間における前記身体の位置の変化量が閾値以下である場合に、当該第1単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用可能であると判断し、
    前記第1単位時間における前記身体の位置の変化量が閾値を上回った場合に、当該第1単位時間に前記位置情報に基づいて算出された前記身体の位置を破棄し、
    算出された前記複数の部位の各々の位置を、前記有効な位置として使用可能であると判定された前記身体の位置に基づいて補正する、ことを含み、
    前記第2の動作が、
    第1単位時間ごとに前記位置情報に基づいて前記身体の位置を算出し、
    前記第1単位時間より長い第2単位時間における前記身体の位置の変化量が閾値以下である場合に、当該第2単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用可能であると判断し、
    前記第2単位時間における前記身体の位置の変化量が閾値を上回った場合に、当該第2単位時間に前記位置情報に基づいて算出された前記身体の位置を破棄し、
    算出された前記複数の部位の各々の位置を、前記有効な位置として使用可能であると判定された前記身体の位置に基づいて補正する、ことを含む、
    ことを特徴とするコンピュータプログラム。
  2. 前記第1の動作及び前記第2の動作の各々は、算出された前記複数の部位の位置を、前記有効な位置として使用可能であると判断された前記身体の位置と前回有効な位置として使用可能であると判断された前記身体の位置との差に基づいてシフトすることを含む、請求項1に記載のコンピュータプログラム。
  3. 前記第1の動作は、前記身体の位置の変化量が閾値を上回った当該第1単位時間より後に生ずる新たな第1単位時間における前記身体の位置の変化量が閾値以下に戻った場合に、当該新たな第1単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用することを含む、請求項1又は請求項2に記載のコンピュータプログラム。
  4. 前記第2の動作は、前記身体の位置の変化量が閾値を上回った当該第2単位時間より後に生ずる新たな第2単位時間における前記身体の位置の変化量が閾値以下に戻った場合に、当該新たな第2単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用することを含む、請求項1から請求項3のいずれかに記載のコンピュータプログラム。
  5. 前記第1の動作において使用される前記第1単位時間が変更可能である、請求項1から請求項4のいずれかに記載のコンピュータプログラム。
  6. 前記第2の動作において使用される前記第1単位時間及び/又は前記第2単位時間が変更可能である、請求項1から請求項5のいずれかに記載のコンピュータプログラム。
  7. 前記位置情報に基づいて算出された前記身体の有効な位置を仮想的な空間における前記身体の位置に変換し、
    前記動作情報に基づいて算出された前記複数の部位の各々の位置を仮想的な空間における該複数の部位の各々の位置に変換する、
    ように前記少なくとも1つのプロセッサを機能させる、請求項1から請求項6のいずれかに記載のコンピュータプログラム。
  8. 前記仮想的な空間における前記身体の位置、及び、前記仮想的な空間における前記複数の部位の各々の位置に基づいて、前記配信者のアバターのアニメーションを含む動画を生成する、
    ように前記少なくとも1つのプロセッサを機能させる、請求項7に記載のコンピュータプログラム。
  9. 前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ及び/又はグラフィックスプロセッシングユニット(GPU)を含む、請求項1から請求項8のいずれかに記載のコンピュータプログラム。
  10. 取得された前記動作情報及び/又は前記位置情報を記憶部に記憶する、
    ように前記少なくとも1つのプロセッサを機能させる、請求項1から請求項9のいずれかに記載のコンピュータプログラム。
  11. 前記少なくとも1つのプロセッサが、スタジオに設置される端末装置、前記配信者の端末装置、視聴ユーザの端末装置、及び/又は、サーバ装置に搭載される、請求項1から請求項10のいずれかに記載のコンピュータプログラム。
  12. 少なくとも1つのプロセッサを具備し、
    該少なくとも1つのプロセッサが、
    物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得し、
    前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得し、
    前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出し、
    前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出し、
    第1の動作又は第2の動作を実行する、ように構成され、
    前記第1の動作が、
    第1単位時間ごとに前記位置情報に基づいて前記身体の位置を算出し、
    前記第1単位時間における前記身体の位置の変化量が閾値以下である場合に、当該第1単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用可能であると判断し、
    前記第1単位時間における前記身体の位置の変化量が閾値を上回った場合に、当該第1単位時間に前記位置情報に基づいて算出された前記身体の位置を破棄し、
    算出された前記複数の部位の各々の位置を、前記有効な位置として使用可能であると判定された前記身体の位置に基づいて補正する、ことを含み、
    前記第2の動作が、
    第1単位時間ごとに前記位置情報に基づいて前記身体の位置を算出し、
    前記第1単位時間より長い第2単位時間における前記身体の位置の変化量が閾値以下である場合に、当該第2単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用可能であると判断し、
    前記第2単位時間における前記身体の位置の変化量が閾値を上回った場合に、当該第2単位時間に前記位置情報に基づいて算出された前記身体の位置を破棄し、
    算出された前記複数の部位の各々の位置を、前記有効な位置として使用可能であると判定された前記身体の位置に基づいて補正する、ことを含む、ことを特徴とするサーバ装置。
  13. 前記第1の動作及び前記第2の動作の各々は、算出された前記複数の部位の位置を、前記有効な位置として使用可能であると判断された前記身体の位置と前回有効な位置として使用可能であると判断された前記身体の位置との差に基づいてシフトすることを含む、請求項12に記載のサーバ装置。
  14. 前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ及び/又はグラフィックスプロセッシングユニット(GPU)を含む、請求項12又は請求項13に記載のサーバ装置。
  15. 取得された前記動作情報及び/又は前記位置情報を記憶部に記憶する、
    ように前記少なくとも1つのプロセッサを機能させる、請求項12から請求項14のいずれかに記載のサーバ装置。
  16. コンピュータにより読み取り可能な命令を実行する少なくとも1つのプロセッサにより実行される方法であって、
    該少なくとも1つのプロセッサが、前記命令を実行することにより、
    物理的な空間に存在する配信者の身体における複数の部位に取り付けられた複数の第1センサから出力された該複数の部位の各々の動作に関する動作情報を取得する第1取得工程と、
    前記配信者の身体に取り付けられた少なくとも1つの第2センサから出力された該身体の位置に関する位置情報を取得する第2取得工程と、
    前記動作情報に基づいて前記物理的な空間における前記複数の部位の各々の位置を算出する第1算出工程と、
    前記位置情報に基づいて前記物理的な空間における前記身体の位置を算出する第2算出工程と、
    第1の動作又は第2の動作を実行する工程と、を含み、
    前記第1の動作が、
    第1単位時間ごとに前記位置情報に基づいて前記身体の位置を算出し、
    前記第1単位時間における前記身体の位置の変化量が閾値以下である場合に、当該第1単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用可能であると判断し、
    前記第1単位時間における前記身体の位置の変化量が閾値を上回った場合に、当該第1単位時間に前記位置情報に基づいて算出された前記身体の位置を破棄し、
    算出された前記複数の部位の各々の位置を、前記有効な位置として使用可能であると判定された前記身体の位置に基づいて補正する、ことを含み、
    前記第2の動作が、
    第1単位時間ごとに前記位置情報に基づいて前記身体の位置を算出し、
    前記第1単位時間より長い第2単位時間における前記身体の位置の変化量が閾値以下である場合に、当該第2単位時間に前記位置情報に基づいて算出された前記身体の位置を有効な位置として使用可能であると判断し、
    前記第2単位時間における前記身体の位置の変化量が閾値を上回った場合に、当該第2単位時間に前記位置情報に基づいて算出された前記身体の位置を破棄し、
    算出された前記複数の部位の各々の位置を、前記有効な位置として使用可能であると判定された前記身体の位置に基づいて補正する、ことを含む、ことを特徴とする方法。
  17. 前記第1の動作及び前記第2の動作の各々は、算出された前記複数の部位の位置を、前記有効な位置として使用可能であると判断された前記身体の位置と前回有効な位置として使用可能であると判断された前記身体の位置との差に基づいてシフトすることを含む、請求項16に記載の方法。
  18. 各工程が、スタジオに設置された端末装置又は前記配信者の端末装置に搭載された前記少なくとも1つのプロセッサにより実行される、請求項16又は請求項17に記載の方法。
  19. 前記第1取得工程及び前記第2取得工程が、スタジオに設置された端末装置又は前記配信者の端末装置に搭載された前記少なくとも1つのプロセッサにより実行され、
    前記第1算出工程及び前記第2算出工程が、前記スタジオに設置された端末装置又は前記配信者の端末装置に接続されるサーバ装置に搭載された、前記少なくとも1つのプロセッサにより実行される、請求項16又は請求項17に記載の方法。
  20. 前記第1取得工程及び前記第2取得工程が、スタジオに設置された端末装置又は前記配信者の端末装置に搭載された前記少なくとも1つのプロセッサにより実行され、
    前記第1算出工程及び前記第2算出工程が、前記スタジオに設置された端末装置又は前記配信者の端末装置に対してサーバ装置を介して接続される端末装置に搭載された、前記少なくとも1つのプロセッサにより実行される、請求項16又は請求項17に記載の方法。
  21. 各工程が、スタジオに設置された端末装置又は前記配信者の端末装置に対してサーバ装置を介して接続される端末装置に搭載された、前記少なくとも1つのプロセッサにより実行される、請求項16又は請求項17に記載の方法。
  22. 前記少なくとも1つのプロセッサが、中央処理装置(CPU)、マイクロプロセッサ及び/又はグラフィックスプロセッシングユニット(GPU)を含む、請求項16から請求項21のいずれかに記載の方法。
  23. 前記少なくとも1つのプロセッサが、前記命令を実行することにより、取得された前記動作情報及び/又は前記位置情報を記憶部に記憶する、請求項16から請求項22のいずれかに記載の方法。
JP2020077502A 2020-04-24 2020-04-24 コンピュータプログラム、サーバ装置及び方法 Active JP7250726B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020077502A JP7250726B2 (ja) 2020-04-24 2020-04-24 コンピュータプログラム、サーバ装置及び方法
JP2022041676A JP7495694B2 (ja) 2020-04-24 2022-03-16 コンピュータプログラム、サーバ装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020077502A JP7250726B2 (ja) 2020-04-24 2020-04-24 コンピュータプログラム、サーバ装置及び方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022041676A Division JP7495694B2 (ja) 2020-04-24 2022-03-16 コンピュータプログラム、サーバ装置及び方法

Publications (2)

Publication Number Publication Date
JP2021174239A JP2021174239A (ja) 2021-11-01
JP7250726B2 true JP7250726B2 (ja) 2023-04-03

Family

ID=78279692

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020077502A Active JP7250726B2 (ja) 2020-04-24 2020-04-24 コンピュータプログラム、サーバ装置及び方法
JP2022041676A Active JP7495694B2 (ja) 2020-04-24 2022-03-16 コンピュータプログラム、サーバ装置及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022041676A Active JP7495694B2 (ja) 2020-04-24 2022-03-16 コンピュータプログラム、サーバ装置及び方法

Country Status (1)

Country Link
JP (2) JP7250726B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7084077B1 (ja) * 2021-10-26 2022-06-14 株式会社大都技研 遊技台
JP7084075B1 (ja) * 2021-10-26 2022-06-14 株式会社大都技研 遊技台
KR20240078107A (ko) * 2022-11-25 2024-06-03 삼성전자주식회사 아바타를 제어하기 위한 방법 및 이를 위한 전자 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010014712A (ja) 2008-06-30 2010-01-21 Samsung Electronics Co Ltd モーションキャプチャー装置及びモーションキャプチャー方法
JP2010191827A (ja) 2009-02-19 2010-09-02 Sony Computer Entertainment Inc 情報処理装置および情報処理方法
JP2017004372A (ja) 2015-06-12 2017-01-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2020004284A (ja) 2018-06-29 2020-01-09 株式会社コロプラ システム、プログラム、方法、および情報処理装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3323084A4 (en) 2015-07-16 2019-07-10 Blast Motion Inc. SYSTEM FOR MULTISENSOR EVENT RECOGNITION AND MARKING
JP7073228B2 (ja) 2018-08-23 2022-05-23 株式会社コロプラ 情報処理方法、コンピュータ、及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010014712A (ja) 2008-06-30 2010-01-21 Samsung Electronics Co Ltd モーションキャプチャー装置及びモーションキャプチャー方法
JP2010191827A (ja) 2009-02-19 2010-09-02 Sony Computer Entertainment Inc 情報処理装置および情報処理方法
JP2017004372A (ja) 2015-06-12 2017-01-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2020004284A (ja) 2018-06-29 2020-01-09 株式会社コロプラ システム、プログラム、方法、および情報処理装置

Also Published As

Publication number Publication date
JP2022121419A (ja) 2022-08-19
JP7495694B2 (ja) 2024-06-05
JP2021174239A (ja) 2021-11-01

Similar Documents

Publication Publication Date Title
JP7250726B2 (ja) コンピュータプログラム、サーバ装置及び方法
JP7249390B2 (ja) 単眼カメラを用いたリアルタイム3d捕捉およびライブフィードバックのための方法およびシステム
US11935167B2 (en) Method and apparatus for virtual fitting
CN111294665B (zh) 视频的生成方法、装置、电子设备及可读存储介质
JP7408068B2 (ja) コンピュータプログラム、サーバ装置及び方法
JP2017513130A (ja) ウエアラブルデバイスの着用状態の処理方法及び装置
CN109074149A (zh) 用于增强或虚拟现实环境的头戴式参考系中的对象跟踪
CN104252712B (zh) 图像生成装置、图像生成方法和记录介质
CN112070906A (zh) 一种增强现实系统及增强现实数据的生成方法、装置
JP2021114295A (ja) 3d関節点回帰モデル生成方法及び装置、電子機器、コンピュータ可読記憶媒体並びにコンピュータプログラム
CN203630822U (zh) 虚拟影像与真实场景相结合的舞台交互集成系统
JP2024040211A (ja) 動画処理方法、サーバ装置及びコンピュータプログラム
JP2022100238A (ja) 人の姿勢に基づきマルチカメラシステムを較正する方法及び機器
CN112270242B (zh) 轨迹的显示方法、装置、可读介质和电子设备
JP2024028853A (ja) 動画処理方法、サーバ装置及びコンピュータプログラム
KR20210073428A (ko) 현실기반 sns를 위한 나만의 캐릭터 생성 및 사물 및 배경 복원 방법 및 시스템
Delabrida et al. Towards a wearable device for monitoring ecological environments
CN111311712B (zh) 视频帧处理方法和装置
CN116309005A (zh) 虚拟换装方法、装置、电子设备及可读介质
Ahmed et al. A cost-effective 3d acquisition and visualization framework for cultural heritage
JP2016042661A (ja) 情報処理装置、システム、情報処理方法及びプログラム
WO2023210187A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP7418709B2 (ja) コンピュータプログラム、方法及びサーバ装置
CN111107279B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
JP2018026149A (ja) 画像生成装置、画像生成方法及びプログラム

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200519

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230322

R150 Certificate of patent or registration of utility model

Ref document number: 7250726

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150