JP2024079939A - 画像生成装置 - Google Patents
画像生成装置 Download PDFInfo
- Publication number
- JP2024079939A JP2024079939A JP2022192646A JP2022192646A JP2024079939A JP 2024079939 A JP2024079939 A JP 2024079939A JP 2022192646 A JP2022192646 A JP 2022192646A JP 2022192646 A JP2022192646 A JP 2022192646A JP 2024079939 A JP2024079939 A JP 2024079939A
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- unit
- user
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000009877 rendering Methods 0.000 claims abstract description 16
- 230000006835 compression Effects 0.000 claims abstract description 15
- 238000007906 compression Methods 0.000 claims abstract description 15
- 230000033001 locomotion Effects 0.000 claims description 33
- 230000006866 deterioration Effects 0.000 abstract description 3
- 238000003384 imaging method Methods 0.000 description 34
- 238000004891 communication Methods 0.000 description 28
- 238000012545 processing Methods 0.000 description 25
- 238000001514 detection method Methods 0.000 description 24
- 238000000034 method Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 230000005540 biological transmission Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 230000001133 acceleration Effects 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 230000015556 catabolic process Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 6
- 238000006731 degradation reaction Methods 0.000 description 6
- 230000011664 signaling Effects 0.000 description 6
- 210000001508 eye Anatomy 0.000 description 5
- 238000010295 mobile communication Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000006249 magnetic particle Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
【課題】ボリュメトリックビデオの品質の低下を抑えしつつ、データ量を削減できる画像生成装置を提供する。【解決手段】本開示の一態様の画像生成装置は、被写体Bを撮像することによって得られる1又は複数の撮像画像を取得する撮像画像取得部1030と、1又は複数の撮像画像に基づいて、被写体Bの3Dモデルを生成する3Dモデル生成部1032と、被写体Bにおける注目部分Kを決定する注目部分決定部1034と、3Dモデルに対し注目部分Kに対応する部分以外を圧縮する圧縮部1036と、圧縮部1036によって圧縮された3Dモデルに基づいて、ボリュメトリックビデオを構成する画像を生成するレンダリング部1038と、を備える。【選択図】図2
Description
本開示は、画像生成装置に関する。
立体映像の1つとして、視聴時の視点を任意に変更可能な映像であるボリュメトリックビデオが知られている(例えば、特許文献1参照)。近年では、スポーツ、及びコンサートなどの映像をボリュメトリックビデオによって配信するサービス、及び、仮想空間にボリュメトリックビデオを合成したVR(Virtual Reality)コンテンツを配信するサービスなどが提供されている。
また、特許文献1には、ボリュメトリックビデオのデータをトランスコードすることにより、ボリュメトリックビデオのストリーミング配信におけるビットレートを低減することが示されている。
しかしながら、特許文献1のトランスコードなどの信号処理により、ボリュメトリックビデオの全体のデータ量を削減した場合、ボリュメトリックビデオの画質が劣化する。このため、ボリュメトリックビデオの品質が低下することになる。
本開示は、ボリュメトリックビデオの品質の低下を抑えしつつ、データ量を削減できる画像生成装置を提供することを目的とする。
本開示の1つの態様に係る画像生成装置は、被写体を撮像することによって得られる1又は複数の撮像画像を取得する撮像画像取得部と、前記1又は複数の撮像画像に基づいて、前記被写体の3Dモデルを生成する3Dモデル生成部と、前記被写体における注目部分を決定する注目部分決定部と、前記3Dモデルに対し、前記注目部分に対応する部分以外を圧縮する圧縮部と、前記圧縮部によって圧縮された3Dモデルに基づいて、ボリュメトリックビデオを構成する画像を生成するレンダリング部と、を備える。
本開示の1つの態様によれば、ボリュメトリックビデオの品質の低下を抑えしつつ、データ量を削減できる。
1.実施形態
図1は、本実施形態に係る映像コンテンツ配信システム1の構成の一例を示す図である。
映像コンテンツ配信システム1は、ボリュメトリックビデオを含む映像コンテンツAを、ネットワークNWを通じて配信するシステムであり、映像コンテンツAを配信するための配信サーバシステム2と、映像コンテンツAを表示するためのユーザ装置4と、を含む。
ボリュメトリックビデオは、観察者から立体的に視える立体映像によって構成された動画の一態様であり、かつ、観察者が視点を任意に変更できる自由視点映像によって構成された動画の一態様でもある。なお、立体映像は3D(three-dimensional)映像とも呼ばれる。
図1は、本実施形態に係る映像コンテンツ配信システム1の構成の一例を示す図である。
映像コンテンツ配信システム1は、ボリュメトリックビデオを含む映像コンテンツAを、ネットワークNWを通じて配信するシステムであり、映像コンテンツAを配信するための配信サーバシステム2と、映像コンテンツAを表示するためのユーザ装置4と、を含む。
ボリュメトリックビデオは、観察者から立体的に視える立体映像によって構成された動画の一態様であり、かつ、観察者が視点を任意に変更できる自由視点映像によって構成された動画の一態様でもある。なお、立体映像は3D(three-dimensional)映像とも呼ばれる。
また、ボリュメトリックビデオの映像は、現実空間、又は、現実空間内の実在の物体の映像である。
本実施形態では、ボリュメトリックビデオの映像が、実在の一人の人物の映像であり、映像コンテンツAが、この人物のボリュメトリックビデオを仮想空間VSに合成したVRコンテンツである場合を例示する。なお、映像コンテンツAは、ボリュメトリックビデオと現実空間の像とを重ねて表示する、いわゆるAR(Augmented Reality)コンテンツ、及びMR(Mixed Reality)コンテンツでもよい。
本実施形態では、ボリュメトリックビデオの映像が、実在の一人の人物の映像であり、映像コンテンツAが、この人物のボリュメトリックビデオを仮想空間VSに合成したVRコンテンツである場合を例示する。なお、映像コンテンツAは、ボリュメトリックビデオと現実空間の像とを重ねて表示する、いわゆるAR(Augmented Reality)コンテンツ、及びMR(Mixed Reality)コンテンツでもよい。
配信サーバシステム2は、配信サーバ10と、撮像システム12と、を含む。
撮像システム12は、被写体Bの3Dモデルの生成のための複数の第1撮像画像G1を得るシステムであり、複数の第1撮像画像G1を配信サーバ10へ入力する。3Dモデルは、被写体Bの3D形状を示すデータである。本実施形態において、被写体Bは一人の人物である。なお、撮像システム12は、ネットワークNWを介して配信サーバ10へ複数の第1撮像画像G1を入力してもよい。
撮像システム12は、被写体Bの3Dモデルの生成のための複数の第1撮像画像G1を得るシステムであり、複数の第1撮像画像G1を配信サーバ10へ入力する。3Dモデルは、被写体Bの3D形状を示すデータである。本実施形態において、被写体Bは一人の人物である。なお、撮像システム12は、ネットワークNWを介して配信サーバ10へ複数の第1撮像画像G1を入力してもよい。
本実施形態の撮像システム12は、被写体Bの周囲に配置された複数の撮像装置12Aを含み、複数の撮像装置12Aがそれぞれ互いに同期して被写体Bを繰り返し撮像する。この構成により、同一のタイミングで同一の被写体Bを複数の位置から撮像装置12Aによって撮像した複数の第1撮像画像G1が順次に得られる。なお、複数の撮像装置12Aは多視点撮像装置とも呼ばれ、複数の第1撮像画像G1は多視点撮像画像とも呼ばれる。
なお、撮像システム12は、1台の撮像装置12Aと、被写体Bまでの距離を光走査により測定するLiDAR(Light Detection and Ranging)スキャナと、を含み、撮像装置12Aが、LiDARスキャナの走査周期と同期して撮像することにより、第1撮像画像G1と被写体Bまでの距離とを順次に得るシステムでもよい。
なお、撮像システム12は、1台の撮像装置12Aと、被写体Bまでの距離を光走査により測定するLiDAR(Light Detection and Ranging)スキャナと、を含み、撮像装置12Aが、LiDARスキャナの走査周期と同期して撮像することにより、第1撮像画像G1と被写体Bまでの距離とを順次に得るシステムでもよい。
図2は、配信サーバ10の電気的な構成の一例を示すブロック図である。
配信サーバ10は、被写体Bのボリュメトリックビデオを生成する機能、仮想空間VSを生成する機能、及び映像コンテンツAを生成する機能、及び、映像コンテンツAをユーザ装置4へ配信する機能を含むコンピュータである。
具体的には、配信サーバ10は、第1処理装置100と、第1記憶装置120と、第1通信装置140と、入出力インターフェース装置160と、を備え、それぞれが相互にデータ送受可能にバスに接続される。
配信サーバ10は、被写体Bのボリュメトリックビデオを生成する機能、仮想空間VSを生成する機能、及び映像コンテンツAを生成する機能、及び、映像コンテンツAをユーザ装置4へ配信する機能を含むコンピュータである。
具体的には、配信サーバ10は、第1処理装置100と、第1記憶装置120と、第1通信装置140と、入出力インターフェース装置160と、を備え、それぞれが相互にデータ送受可能にバスに接続される。
第1処理装置100は、1又は複数のCPU(Central Processing Unit)を含む。CPUは、周辺装置とのインターフェース、演算装置及びレジスタ等を含む。1又は複数のCPUは、1又は複数のプロセッサの一例である。プロセッサ、及びCPUの各々を含む装置はコンピュータの一例である。第1処理装置100は、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、及びFPGA(Field Programmable Gate Array)等の回路がCPUに代えて、又はCPUと併せて用いられてもよい。
第1記憶装置120は、第1処理装置100が読み取り可能な記録媒体である。第1記憶装置120は、不揮発性メモリと揮発性メモリとを含む。不揮発性メモリは、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable Read Only Memory)、及びEEPROM(Electrically Erasable Programmable Read Only Memory)である。揮発性メモリは、例えば、RAM(Random Access Memory)である。本実施形態の第1記憶装置120は、第1プログラムPR1と、仮想空間データEとを記憶する。第1プログラムPR1は、配信サーバ10を制御するためのプログラムであり、仮想空間データEは、仮想空間VSの画像を生成するためのデータである。具体的には、仮想空間データEは、仮想空間VSを3次元的に再現し、この仮想空間VSの中の任意の視点位置から当該仮想空間VSの任意の方向を視た画像を生成するためのデータを含む。この仮想空間VSの中の任意の位置に、被写体Bのボリュメトリックビデオの画像が配置される。ボリュメトリックビデオの画像は、ボリュメトリックビデオを構成する各フレームの画像に相当し、以下の説明では、ボリュメトリックの画像を「3D画像GV」と称する。
第1通信装置140は、ネットワークNWにアクセスし、このネットワークNWを介して他の装置と通信する、送受信デバイスとしてのハードウェアである。第1通信装置140は、例えば、ネットワークデバイス、ネットワークコントローラ、ネットワークカード、及び、通信モジュールとも呼ばれる。第1通信装置140は、有線接続用のコネクターを備え、上記コネクターに対応するインターフェース回路を備えてもよい。また、第1通信装置140は、無線通信インターフェースを備えてもよい。
入出力インターフェース装置160は、撮像システム12との間で信号を送受するためのインターフェース回路を含む装置である。入出力インターフェース装置160と、撮像システム12との間の信号の送受に用いられる規格は任意である。
本実施形態の配信サーバ10は、第1処理装置100が第1プログラムPR1を実行することによって、第1受信制御部101、位置管理部102、3D画像生成部103、仮想空間画像生成部104、コンテンツ生成部105、及び第1送信制御部106として機能する。
第1受信制御部101は、第1通信装置140を制御することによって、ユーザ装置4から送信されたデータを受信する。ユーザ装置4から送信されるデータの1つには、ユーザ装置4の位置、動き、及び視線方向の特定に用いられる検出情報データCがある。本実施形態において、この検出情報データCは、第2撮像画像C1、ユーザ装置4の動き情報C2、方位情報C3、及び視線情報C4を含む。
第2撮像画像C1は、ユーザUAにユーザ装置4が装着された状態において、ユーザ装置4がユーザUAの正面方向を撮像することによって取得された画像である。この第2撮像画像C1は、ユーザ装置4の位置情報、及び、正面方向に対応する指向方向の特定に用いられる。また、動き情報C2、方位情報C3、及び視線情報C4は、ユーザ装置4を装着したユーザUAの動きに基づく状態を示す情報である。動き情報C2、及び方位情報C3は、ユーザUAの動きに合わせて仮想空間VSの画像を変化させるために用いられる。視線情報C4は、仮想空間VSに配置された3D画像GVにおいて、ユーザUAが注目している注目部分Kの検出に用いられる。
第2撮像画像C1は、ユーザUAにユーザ装置4が装着された状態において、ユーザ装置4がユーザUAの正面方向を撮像することによって取得された画像である。この第2撮像画像C1は、ユーザ装置4の位置情報、及び、正面方向に対応する指向方向の特定に用いられる。また、動き情報C2、方位情報C3、及び視線情報C4は、ユーザ装置4を装着したユーザUAの動きに基づく状態を示す情報である。動き情報C2、及び方位情報C3は、ユーザUAの動きに合わせて仮想空間VSの画像を変化させるために用いられる。視線情報C4は、仮想空間VSに配置された3D画像GVにおいて、ユーザUAが注目している注目部分Kの検出に用いられる。
位置管理部102は、上記検出情報データCの第2撮像画像C1に基づいて、ユーザ装置4の位置情報、及び方向情報を特定する。本実施形態の位置管理部102は、現実空間における位置を規定するグローバル座標系によって複数の特徴点を表現した特徴点マップを参照することにより、ユーザ装置4の位置情報、及び方向情報を特定する。すなわち、位置管理部102は、第2撮像画像C1から複数の特徴点を抽出し、抽出した複数の特徴点を特徴点マップ内の複数の特徴点と照合することによって、第2撮像画像C1が撮像された位置と撮像の方向とを特定する。特徴点マップは、例えば、ステレオカメラを用いて撮像した画像から複数の特徴点を抽出することによって生成され、例えば、第1記憶装置120に記憶される。
また、本実施形態の位置管理部102は、上記検出情報データCの動き情報C2、及び方位情報C3に基づいて、ユーザ装置4の位置情報、及び方向情報を補正する。この補正により、ユーザUAの動きに応じた位置情報、及び方向情報が得られる。
配信サーバ10において、第1受信制御部101がユーザ装置4から検出情報データCを周期的に受信することにより、位置管理部102がユーザ装置4の位置情報及び方向情報を検出情報データCに基づいて逐次に特定する。
3D画像生成部103は、撮像システム12の撮像によって得られる第1撮像画像G1に基づいて、被写体Bのボリュメトリックビデオを構成する上記3D画像GVを順次に生成する。この3D画像生成部103の機能を有する配信サーバ10が本開示における画像生成装置の一例に相当する。なお、3D画像生成部103の詳細については後述する。
仮想空間画像生成部104は、仮想空間データEに基づいて仮想空間VSの画像を生成する。具体的には、仮想空間画像生成部104は、位置管理部102によって特定された位置情報に基づいて、仮想空間VSの中に仮想的な視点位置を設定する。仮想的な視点位置は、仮想空間VSにけるユーザUAの視点位置である。そして、仮想空間画像生成部104は、位置管理部102によって特定された方向情報が示す方向を、当該仮想的な視点位置から視た仮想空間VSの画像を生成する。
仮想空間画像生成部104は、仮想空間VSの画像を周期的に生成し、仮想空間VSの一群の画像によって、ユーザUAの動きに合わせて変化する態様の仮想空間VSが表現される。
仮想空間画像生成部104は、仮想空間VSの画像を周期的に生成し、仮想空間VSの一群の画像によって、ユーザUAの動きに合わせて変化する態様の仮想空間VSが表現される。
コンテンツ生成部105は、3D画像生成部103によって順次に生成される3D画像GVを、仮想空間画像生成部104によって順次に生成される仮想空間VSの画像に重畳することによって、仮想空間VSの中に被写体Bのボリュメトリックビデオが配置された映像コンテンツAを生成する。
第1送信制御部106は、コンテンツ生成部105によって生成される映像コンテンツAを、第1通信装置140を制御することによって、ネットワークNWを介してユーザ装置4に配信する。
なお、映像コンテンツAがARコンテンツ、又はMRコンテンツである場合、配信サーバ10は、仮想空間VSの画像を生成する必要はない。
図3は、ユーザ装置4の電気的な構成の一例を示すブロック図である。
ユーザ装置4は、映像コンテンツAを表示する機能を備える装置である。本実施形態のユーザ装置4は、ユーザUAの頭部に装着される、例えばヘッドマウントディスプレイなどの頭部装着型の装置であり、ユーザUAの眼前に映像コンテンツAを表示するとともに、ユーザUAの動きに合わせて、映像コンテンツAにおける仮想空間VSの画像、及び、被写体Bの3D画像GVを変化させる機能を更に備える。
かかるユーザ装置4は、第2処理装置400と、第2記憶装置420と、検出装置430と、撮像装置440と、第2通信装置450と、表示装置460と、を備え、それぞれが相互にデータ送受可能にバスに接続される。
ユーザ装置4は、映像コンテンツAを表示する機能を備える装置である。本実施形態のユーザ装置4は、ユーザUAの頭部に装着される、例えばヘッドマウントディスプレイなどの頭部装着型の装置であり、ユーザUAの眼前に映像コンテンツAを表示するとともに、ユーザUAの動きに合わせて、映像コンテンツAにおける仮想空間VSの画像、及び、被写体Bの3D画像GVを変化させる機能を更に備える。
かかるユーザ装置4は、第2処理装置400と、第2記憶装置420と、検出装置430と、撮像装置440と、第2通信装置450と、表示装置460と、を備え、それぞれが相互にデータ送受可能にバスに接続される。
第2処理装置400は、1、又は複数のCPUを含む。CPUは、周辺装置とのインターフェース、演算装置及びレジスタ等を含む。1又は複数のCPUは、1又は複数のプロセッサの一例である。プロセッサ、及びCPUの各々は、コンピュータの一例である。第2処理装置400は、DSP、ASIC、PLD、及びFPGA等の回路がCPUに代えて、又はCPUと併せて用いられてもよい。
第2記憶装置420は、第2処理装置400が読み取り可能な記録媒体である。第2記憶装置420は、不揮発性メモリと揮発性メモリとを含む。不揮発性メモリは、例えば、ROM、EPROM、及びEEPROMである。揮発性メモリは、例えば、RAMである。第2記憶装置420は、制御プログラムPR2を記憶する。制御プログラムPR2は、ユーザ装置4の動作を制御するプログラムである。
検出装置430は、ユーザ装置4の状態を検出する。より具体的には、検出装置430は、ユーザ装置4を装着したユーザUAの動きに基づく状態を検出する。検出装置430は、例えば、加速度を検出する加速度センサ、角加速度を検出するジャイロセンサなどの慣性センサ、及び、地磁気を検出する地磁気センサが該当する。
加速度センサは、直交するX軸、Y軸、及びZ軸の加速度を検出する。加速度センサによって、図1に示すように、X軸、Y軸、及びZ軸の各軸方向へのユーザUAの移動を含む並進運動が検出される。慣性センサは、X軸、Y軸、及びZ軸を回転の中心軸とする角加速度を検出する。慣性センサによって、図1に示すように、X軸の周りの回転Xr、Y軸の周りの回転Yr、及びZ軸の周りの回転Zrを含む回転運動が検出される。すなわち、検出装置430が備える加速度センサ、及び慣性センサによって、3軸の並進運動、及び3軸の回転運動を含む6DoF(Degree of Freedom)の動きが検出される。そして、検出装置430は、この動きの検出結果に基づいて、ユーザ装置4の動きに関する上述の動き情報C2を第2処理装置400に出力する。
また、地磁気センサは、X軸、Y軸、及びZ軸の各軸方向の地磁気を検出し、検出装置430は地磁気センサの検出結果に基づいて、ユーザ装置4の方位を示す上述の方位情報C3を第2処理装置400に出力する。本実施形態の検出装置430は、この地磁気センサを備えることにより、上記並進運動、及び回転運動と、方位とを含む9DoFを検出する。
加速度センサは、直交するX軸、Y軸、及びZ軸の加速度を検出する。加速度センサによって、図1に示すように、X軸、Y軸、及びZ軸の各軸方向へのユーザUAの移動を含む並進運動が検出される。慣性センサは、X軸、Y軸、及びZ軸を回転の中心軸とする角加速度を検出する。慣性センサによって、図1に示すように、X軸の周りの回転Xr、Y軸の周りの回転Yr、及びZ軸の周りの回転Zrを含む回転運動が検出される。すなわち、検出装置430が備える加速度センサ、及び慣性センサによって、3軸の並進運動、及び3軸の回転運動を含む6DoF(Degree of Freedom)の動きが検出される。そして、検出装置430は、この動きの検出結果に基づいて、ユーザ装置4の動きに関する上述の動き情報C2を第2処理装置400に出力する。
また、地磁気センサは、X軸、Y軸、及びZ軸の各軸方向の地磁気を検出し、検出装置430は地磁気センサの検出結果に基づいて、ユーザ装置4の方位を示す上述の方位情報C3を第2処理装置400に出力する。本実施形態の検出装置430は、この地磁気センサを備えることにより、上記並進運動、及び回転運動と、方位とを含む9DoFを検出する。
本実施形態の検出装置430は、ユーザUAの動きに基づく状態の1つとして、更に、ユーザUAの視線方向を検出する。
具体的には、検出装置430は、ユーザUAの視線に相関する物理量を検出する視線センサ432を更に備え、視線センサ432の検出結果に基づいてユーザUAの視線方向に関する上述の視線情報C4を第2処理装置400に出力する。視線センサ432は、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ、及びCCD(Charge Coupled Device)イメージセンサ等の撮像素子を有し、ユーザUAの眼球を撮像して、ユーザの視線が指す方向に相関する物理量を検出する。この物理量としては、例えば、眼の部位の不動点の一例である目頭と、眼球内の動点である虹彩との相対的な位置の変位量などが用いられる。この変位量に基づいて虹彩の移動、すなわち視線方向の移動が検出される。
具体的には、検出装置430は、ユーザUAの視線に相関する物理量を検出する視線センサ432を更に備え、視線センサ432の検出結果に基づいてユーザUAの視線方向に関する上述の視線情報C4を第2処理装置400に出力する。視線センサ432は、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ、及びCCD(Charge Coupled Device)イメージセンサ等の撮像素子を有し、ユーザUAの眼球を撮像して、ユーザの視線が指す方向に相関する物理量を検出する。この物理量としては、例えば、眼の部位の不動点の一例である目頭と、眼球内の動点である虹彩との相対的な位置の変位量などが用いられる。この変位量に基づいて虹彩の移動、すなわち視線方向の移動が検出される。
撮像装置440は、ユーザUAの装着状態において、ユーザUAの正面方向を撮像することによって取得された上述の第2撮像画像C1を第2処理装置400に出力する装置であり、撮像光学系、及び撮像素子を含む。撮像光学系は、少なくとも1つの撮像レンズを含む光学系である。撮像光学系は、プリズム等の各種の光学素子を撮像レンズの他に有してもよいし、ズームレンズ、又はフォーカスレンズ等を有してもよい。撮像素子は、CCDイメージセンサ、及びCMOSイメージセンサ等である。
第2処理装置400は、撮像装置440から出力される第2撮像画像C1と、検出装置430から出力される動き情報C2、方位情報C3、及び視線情報C4とを含む上述の検出情報データCを、第2通信装置450を制御することによって、配信サーバ10へ周期的に出力する。
第2通信装置450は、ユーザ装置4が他の装置と通信を行うための通信インターフェースを備える。ネットワークNWにアクセスし、このネットワークNWを介して他の装置と通信する、送受信デバイスとしてのハードウェアである。第2通信装置450は、例えば、ネットワークデバイス、ネットワークコントローラ、ネットワークカード、及び、通信モジュールとも呼ばれる。第2通信装置450の通信インターフェースは、無線通信インターフェース回路を備えてもよいし、有線接続用のコネクターを含み、かつ上記コネクターに対応するインターフェース回路を備えてもよい。
表示装置460は、ユーザ装置4の装着状態において、ユーザUAの眼前に配置され表示パネルを含む、当該表示パネルに映像コンテンツAを表示する装置である。なお、映像コンテンツAがARコンテンツ又はMRコンテンツである場合、表示装置460の表示パネルには、透過型の表示パネルが用いられ、映像コンテンツAを示す光と、現実空間の光とが重畳してユーザUAの眼に入ることによって、ユーザUAが現実空間の中に、ボリュメトリックビデオの3D画像GVといった映像コンテンツAの画像が位置しているように知覚する。
上述の通り、本実施形態の映像コンテンツAにおける仮想空間VSの画像、及び被写体Bの3D画像GVは、ユーザUAの並進運動、及び、回転運動によって変化する。例えば、ユーザUAが並進運動によって被写体Bの背後に移動し、また、回転運動により当該被写体Bの方向を向いた場合、ユーザUAの移動に伴って仮想空間VSの画像、及び被写体Bの3D画像GVが変化し、最終的には、被写体Bの背後から当該被写体Bの方向を視た仮想空間VSの画像、及び被写体Bの3D画像GVが表示される。したがって、ユーザUAは、仮想空間VSの中を自由に移動し、また、自由に移動した先から被写体Bを視ることができ、仮想空間VSへの没入感が高められる。
なお、ユーザ装置4において、表示装置460を別体に備えてもよい。この場合、表示装置460以外の構成部の一部、又は全部を、例えば、スマートフォン、タブレット型パーソナルコンピュータ、ラップトップ型パーソナルコンピュータ、及び据置型パーソナルコンピュータなどのコンピュータが備えてもよい。
次に、配信サーバ10が備える上記3D画像生成部103について詳述する。
3D画像生成部103は、図2に示す通り、撮像画像取得部1030と、3Dモデル生成部1032と、注目部分決定部1034と、圧縮部1036と、レンダリング部1038と、を備える。
3D画像生成部103は、図2に示す通り、撮像画像取得部1030と、3Dモデル生成部1032と、注目部分決定部1034と、圧縮部1036と、レンダリング部1038と、を備える。
撮像画像取得部1030は、撮像システム12の撮像によって得られる複数の第1撮像画像G1を取得する。上述の通り、複数の第1撮像画像G1は、それぞれ同一のタイミングで複数の位置から被写体Bを撮像することによって得られた画像である。
3Dモデル生成部1032は、複数の第1撮像画像G1に基づいて、被写体Bの3Dモデルを生成する。この3Dモデルの生成には、例えば、視体積交差法、及びステレオマッチング法などが用いられる。また、本実施形態の3Dモデルは、被写体Bの立体的な情報をボクセルによって表現するデータである。
注目部分決定部1034は、被写体Bにおける注目部分Kを決定する。注目部分Kは、被写体Bの中で品質の低下を防止する部分を指し、本実施形態では、映像コンテンツAを視聴しているユーザUAが注視している箇所に基づいて決定される。具体的には、注目部分決定部1034は、上記検出情報データCに含まれる視線情報C4に基づいて、ユーザUAの視線が向けられた頻度が相対的に大きい箇所を特定することによって、注目部分Kを決定する。このように決定された注目部分Kは、被写体Bの3Dモデルのうち、ユーザUAの位置から視える部位の範囲から決定される。
圧縮部1036は、3Dモデル生成部1032によって生成された3Dモデルに対し、注目部分決定部1034によって決定された注目部分Kに対応する部分以外を圧縮することにより、3Dモデルのデータ量を削減する。より具体的には、本実施形態の圧縮部1036は、3Dモデルの各ボクセルのうち、注目部分Kに対応する部分以外の各ボクセルを圧縮する。この圧縮には、ボクセルデータを圧縮する公知の手法が用いられる。
レンダリング部1038は、圧縮部1036によって圧縮された3Dモデルと、位置管理部102によって特定された位置情報、及び方向情報に基づいて選択された1以上の第1撮像画像G1と、に基づいて3D画像GVを生成する。
具体的には、レンダリング部1038は、圧縮後の3Dモデルに対し、1以上の第1撮像画像G1を適用することによって、色付け、及びテクスチャ貼り付けなどのレンダリングを行う。このレンダリングは、位置管理部102によって特定された位置情報、及び方向情報に基づいて行われる。この結果、仮想空間VSにおいて、位置情報によって示されるユーザUAの位置から方向情報によって示される方向を視たときの被写体Bを表す3D画像GVが得られる。
そして、3D画像GVは、圧縮後の3Dモデルのレンダリングによって生成されるため、圧縮が施されていない3Dモデルのレンダリングによって得られる3D画像GVよりもデータ量が削減されることとなる。
なお、レンダリングは、圧縮後の3Dモデルにおける360度の全ての面に対して行われてもよい。この場合、レンダリング後の3Dモデルに基づいて3D画像GVが生成される。
具体的には、レンダリング部1038は、圧縮後の3Dモデルに対し、1以上の第1撮像画像G1を適用することによって、色付け、及びテクスチャ貼り付けなどのレンダリングを行う。このレンダリングは、位置管理部102によって特定された位置情報、及び方向情報に基づいて行われる。この結果、仮想空間VSにおいて、位置情報によって示されるユーザUAの位置から方向情報によって示される方向を視たときの被写体Bを表す3D画像GVが得られる。
そして、3D画像GVは、圧縮後の3Dモデルのレンダリングによって生成されるため、圧縮が施されていない3Dモデルのレンダリングによって得られる3D画像GVよりもデータ量が削減されることとなる。
なお、レンダリングは、圧縮後の3Dモデルにおける360度の全ての面に対して行われてもよい。この場合、レンダリング後の3Dモデルに基づいて3D画像GVが生成される。
次いで、本実施形態の動作について説明する。
図4は、配信サーバ10における映像コンテンツAの配信処理の一例を示す図である。
同図に示すように、配信サーバ10において、3D画像生成部103が3D画像生成処理を実行し、被写体Bのボリュメトリックビデオを構成する3D画像GVを生成する(ステップSa1)。この3D画像GVは、上述の通り、仮想空間VSにおいて、位置情報によって示されるユーザUAの位置から方向情報によって示される方向を視たときの被写体Bを立体的に表す画像である。このステップSa1の3D画像生成処理については後に詳述する。
同図に示すように、配信サーバ10において、3D画像生成部103が3D画像生成処理を実行し、被写体Bのボリュメトリックビデオを構成する3D画像GVを生成する(ステップSa1)。この3D画像GVは、上述の通り、仮想空間VSにおいて、位置情報によって示されるユーザUAの位置から方向情報によって示される方向を視たときの被写体Bを立体的に表す画像である。このステップSa1の3D画像生成処理については後に詳述する。
次いで、仮想空間画像生成部104が、仮想空間データEと、位置管理部102によって特定された位置情報、及び方向情報とに基づいて、仮想空間VSの画像を生成する(ステップSa2)。この仮想空間VSの画像は、仮想空間VSにおいて、位置情報によって示されるユーザUAの視点位置から、方向情報によって示される方向を視た画像である。
次に、コンテンツ生成部105が、仮想空間VSの画像に、被写体Bの3D画像GVを順次に重畳することにより、仮想空間VSの中に被写体Bの3D画像GVが配置された画像を含む映像コンテンツAを生成する(ステップSa3)。
そして、第1送信制御部106が第1通信装置140を制御することにより、映像コンテンツAをユーザ装置4に配信する(ステップSa4)。
そして、第1送信制御部106が第1通信装置140を制御することにより、映像コンテンツAをユーザ装置4に配信する(ステップSa4)。
配信サーバ10の第1処理装置100が、ステップSa1からステップSa4の処理を周期的に行うことにより、ユーザUAの動き、すなわち、位置管理部102によって特定される位置情報、及び方向情報の変化に応じて、仮想空間VSの画像、及び被写体Bの3D画像GVが動的に変化する映像コンテンツAがユーザ装置4に提供される。
図5は、配信サーバ10における3D画像生成処理の一例を示す図である。
配信サーバ10において、先ず、撮像画像取得部1030が、撮像システム12の撮像によって得られる複数の第1撮像画像G1を取得し(ステップSb1)、3Dモデル生成部1032が、複数の第1撮像画像G1に基づいて、被写体Bの3Dモデルを生成する(ステップSb2)。
配信サーバ10において、先ず、撮像画像取得部1030が、撮像システム12の撮像によって得られる複数の第1撮像画像G1を取得し(ステップSb1)、3Dモデル生成部1032が、複数の第1撮像画像G1に基づいて、被写体Bの3Dモデルを生成する(ステップSb2)。
次いで、注目部分決定部1034が被写体Bにおける注目部分Kを決定する(ステップSb3)。本実施形態では、注目部分決定部1034は、検出情報データCに含まれる視線情報C4に基づいて、被写体Bの中でユーザUAが注視している箇所を注目部分Kに決定する。
次に、圧縮部1036が3Dモデルに対し、注目部分Kに対応する部分以外を圧縮する(ステップSb4)。
そして、レンダリング部1038が、圧縮後の3Dモデルと、位置管理部102によって特定された位置情報、及び方向情報に基づいて選択された1以上の第1撮像画像G1と、に基づいて3D画像GVを生成する(ステップSb5)。
次に、圧縮部1036が3Dモデルに対し、注目部分Kに対応する部分以外を圧縮する(ステップSb4)。
そして、レンダリング部1038が、圧縮後の3Dモデルと、位置管理部102によって特定された位置情報、及び方向情報に基づいて選択された1以上の第1撮像画像G1と、に基づいて3D画像GVを生成する(ステップSb5)。
本実施形態では、配信サーバ10の第1処理装置100が、ステップSb1からステップSb5の処理を周期的に行うことにより、周期的な撮像によって得られる被写体Bの第1撮像画像G1に基づいて3Dモデルが逐次に生成され、また、ユーザUAが注視している被写体Bの箇所に応じて動的に注目部分Kが決定される。
そして、逐次に生成された3Dモデルは、注目部分Kに対応する部分を除き逐次に圧縮され、圧縮後の3Dモデルに基づいて、仮想空間VSにおけるユーザUAの位置から被写体Bを視た3D画像GVが逐次に生成される。この逐次に得られる3D画像GVによって、被写体Bのボリュメトリックビデオが構成され、3D画像GVのデータ量が削減されることにより、ボリュメトリックビデオのデータ量も削減される。
そして、逐次に生成された3Dモデルは、注目部分Kに対応する部分を除き逐次に圧縮され、圧縮後の3Dモデルに基づいて、仮想空間VSにおけるユーザUAの位置から被写体Bを視た3D画像GVが逐次に生成される。この逐次に得られる3D画像GVによって、被写体Bのボリュメトリックビデオが構成され、3D画像GVのデータ量が削減されることにより、ボリュメトリックビデオのデータ量も削減される。
図6は、本実施形態の3D画像生成処理によって得られる3D画像GVの一例を示す図である。なお、図6において、被写体Bのうち圧縮される部位がハッチングによって示されている。
例えば、仮想空間VSにおいて、ユーザUAの位置から被写体Bの正面の3D画像GVが視認され、また、ユーザUAが注視している部分が被写体Bの顏である場合、図6に示すように、被写体Bの顏が注目部分決定部1034によって注目部分Kに決定され、この注目部分Kに相当する部分以外が圧縮部1036によって圧縮される。この場合、仮想空間VSにおいてユーザUAから視えない被写体Bの背面においては、顏の裏側に相当する部分である後頭部も含め、被写体Bの全ての部分が圧縮される。
したがって、ユーザUAが注視している注目部分K以外の部分が圧縮されることにより、注目部分Kについての画質等の低下を抑えつつ、ボリュメトリックビデオを構成する3D画像GVのデータ量が削減される。
例えば、仮想空間VSにおいて、ユーザUAの位置から被写体Bの正面の3D画像GVが視認され、また、ユーザUAが注視している部分が被写体Bの顏である場合、図6に示すように、被写体Bの顏が注目部分決定部1034によって注目部分Kに決定され、この注目部分Kに相当する部分以外が圧縮部1036によって圧縮される。この場合、仮想空間VSにおいてユーザUAから視えない被写体Bの背面においては、顏の裏側に相当する部分である後頭部も含め、被写体Bの全ての部分が圧縮される。
したがって、ユーザUAが注視している注目部分K以外の部分が圧縮されることにより、注目部分Kについての画質等の低下を抑えつつ、ボリュメトリックビデオを構成する3D画像GVのデータ量が削減される。
なお、本開示において、被写体Bが互いに独立して存在する複数の物体を含む場合、いずれか1以上の物体の全体が注目部分Kに決定されてもよいし、いずれか1以上の物体のそれぞれの部分が注目部分Kに決定されてもよい。「互いに独立して存在する複数の物体」とは、それぞれが非破壊的に分離可能な物体を含み、また、物体は生物、及び無生物を含む。
図7に示すように、例えば、被写体Bが互いに独立して存在する物体の一例として複数の人物を含む場合、ボリュメトリックビデオの3D画像GVにも、これらの人物が含まれる。この場合において、図8に示すように、いずれか一方の人物の全体が注目部分Kとして決定されてもよい。この場合、他方の人物の全体が圧縮されることとなる。
図7に示すように、例えば、被写体Bが互いに独立して存在する物体の一例として複数の人物を含む場合、ボリュメトリックビデオの3D画像GVにも、これらの人物が含まれる。この場合において、図8に示すように、いずれか一方の人物の全体が注目部分Kとして決定されてもよい。この場合、他方の人物の全体が圧縮されることとなる。
また、本開示において、複数のユーザUAが同じ映像コンテンツAを視聴している場合、注目部分決定部1034は、各ユーザUAの視線情報C4のそれぞれに基づいて、最も多くのユーザUAに注視されている箇所を注目部分Kに決定してもよい。この構成によれば、より多くのユーザUAが注視している箇所が注目部分Kに決定され、その部分の画質の劣化が抑えられる。
以上説明したように、本実施形態の配信サーバ10は、ボリュメトリックビデオを構成する3D画像GVを生成するための3D画像生成部103を備える。
この3D画像生成部103は、被写体Bを撮像することによって得られる1又は複数の第1撮像画像G1を取得する撮像画像取得部1030と、1又は複数の第1撮像画像G1に基づいて、被写体Bの3Dモデルを生成する3Dモデル生成部1032と、被写体Bにおける注目部分Kを決定する注目部分決定部1034と、3Dモデルに対し、注目部分Kに対応する部分以外を圧縮する圧縮部1036と、圧縮部1036によって圧縮された3Dモデルに基づいて、ボリュメトリックビデオを構成する3D画像GVを生成するレンダリング部1038と、を備える。
この構成によれば、被写体Bにおける注目部分Kに対応する部分以外が圧縮された3Dモデルに基づいて生成された3D画像GVが得られる。したがって、注目部分Kにおける画質等の劣化を抑えつつ、ボリュメトリックビデオの全体のデータ量を削減できる。
この3D画像生成部103は、被写体Bを撮像することによって得られる1又は複数の第1撮像画像G1を取得する撮像画像取得部1030と、1又は複数の第1撮像画像G1に基づいて、被写体Bの3Dモデルを生成する3Dモデル生成部1032と、被写体Bにおける注目部分Kを決定する注目部分決定部1034と、3Dモデルに対し、注目部分Kに対応する部分以外を圧縮する圧縮部1036と、圧縮部1036によって圧縮された3Dモデルに基づいて、ボリュメトリックビデオを構成する3D画像GVを生成するレンダリング部1038と、を備える。
この構成によれば、被写体Bにおける注目部分Kに対応する部分以外が圧縮された3Dモデルに基づいて生成された3D画像GVが得られる。したがって、注目部分Kにおける画質等の劣化を抑えつつ、ボリュメトリックビデオの全体のデータ量を削減できる。
本実施形態において、被写体Bは、互いに独立して存在する複数の物体を含み、注目部分決定部1034は、複数の物体の中から1以上の物体の全部、又は一部を注目部分Kに決定する。
この構成によれば、例えば、被写体Bが複数の物体を含む場合でも、画質等の低下を抑える物体、又は、物体の部分を選択的に注目部分Kとして決定できる。
この構成によれば、例えば、被写体Bが複数の物体を含む場合でも、画質等の低下を抑える物体、又は、物体の部分を選択的に注目部分Kとして決定できる。
本実施形態の注目部分決定部1034は、ボリュメトリックビデオの画像である3D画像GVを視たユーザUAの視線情報C4に基づいて注目部分を決定する。
この構成によれば、被写体Bの中でユーザUAが注視する部分の画質を維持しつつ、ボリュメトリックビデオのデータ量を削減できる。
この構成によれば、被写体Bの中でユーザUAが注視する部分の画質を維持しつつ、ボリュメトリックビデオのデータ量を削減できる。
本実施形態のレンダリング部1038は、ボリュメトリックビデオの画像である3D画像GVを視るユーザUAの動きに基づいて、当該3D画像GVを生成する。
この構成によれば、ユーザUAは、自身の動きに応じた方向から視たときの被写体Bの3D画像GVを楽しむことができる。
この構成によれば、ユーザUAは、自身の動きに応じた方向から視たときの被写体Bの3D画像GVを楽しむことができる。
本実施形態の配信サーバ10は、仮想空間VSの画像を生成する仮想空間画像生成部104と、ボリュメトリックビデオを構成する3D画像GVを、仮想空間VSの画像に重畳した画像を含む映像コンテンツAを生成するコンテンツ生成部105と、を備える。
この構成によれば、仮想空間VSの中にボリュメトリックビデオの3D画像GVを配置した映像コンテンツAをユーザUAなどに提供できる。
この構成によれば、仮想空間VSの中にボリュメトリックビデオの3D画像GVを配置した映像コンテンツAをユーザUAなどに提供できる。
2.変形例
以上に例示した各態様に付加される具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
以上に例示した各態様に付加される具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
(1)上述した実施形態において、注目部分決定部1034は、被写体Bの中の予め指定された部分を注目部分Kに決定してもよい。この場合において、注目部分Kは、例えば、映像コンテンツAのクリエイター、及び被写体Bとなった人物、映像コンテンツAのスポンサーなどによって指定さてもよい。この構成によれば、映像コンテンツAの配信者、及び配信者の関係者が所望する部分についての画質の低下を抑えつつ、ボリュメトリックビデオのデータ量を削減できる。
(2)上述した実施形態において、配信サーバ10の第1処理装置100が有する機能部のうち、映像コンテンツAを配信する機能を他のコンピュータが備えてもよい。この場合、配信サーバ10は、映像コンテンツAを生成するコンテンツ生成装置として機能する。
また、配信サーバ10の第1処理装置100が有する機能部のうち、3D画像生成部103以外の機能部を他のコンピュータが備えてもよい。この場合、配信サーバ10は、3D画像GVを生成する画像生成装置として機能する。
また、配信サーバ10の第1処理装置100が有する機能部のうち、3D画像生成部103以外の機能部を他のコンピュータが備えてもよい。この場合、配信サーバ10は、3D画像GVを生成する画像生成装置として機能する。
3:その他
(1-1)上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)または送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。
(1-1)上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)または送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。
(1-2)情報の通知は、本開示において説明した態様/実施形態に限られず、他の方法を用いて行われてもよい。例えば、情報の通知は、物理レイヤシグナリング(例えば、DCI(Downlink Control Information)、UCI(Uplink Control Information))、上位レイヤシグナリング(例えば、RRC(Radio Resource Control)シグナリング、MAC(Medium Access Control)シグナリング、報知情報(MIB(Master Information Block)、SIB(System Information Block)))、その他の信号又はこれらの組み合わせによって実施されてもよい。また、RRCシグナリングは、RRCメッセージと呼ばれてもよく、例えば、RRC接続セットアップ(RRC Connection Setup)メッセージ、RRC接続再構成(RRC Connection Reconfiguration)メッセージなどであってもよい。
(1-3)本開示において説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G(4th generation mobile communication system)、5G(5th generation mobile communication system)、6th generation mobile communication system(6G)、xth generation mobile communication system(xG)(xG(xは、例えば整数、小数))、FRA(Future Radio Access)、NR(new Radio)、New radio access(NX)、Future generation radio access(FX)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi(登録商標))、IEEE 802.16(WiMAX(登録商標))、IEEE 802.20、UWB(Ultra-Wide Band)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及びこれらに基づいて拡張、修正、作成、規定された次世代システムの少なくとも一つに適用されてもよい。また、複数のシステムが組み合わされて(例えば、LTE及びLTE-Aの少なくとも一方と5Gとの組み合わせ等)適用されてもよい。
(1-4)本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
(1-5)本開示において基地局によって行われるとした特定動作は、場合によってはその上位ノード(upper node)によって行われることもある。基地局を有する1つ又は複数のネットワークノード(network nodes)からなるネットワークにおいて、端末との通信のために行われる様々な動作は、基地局及び基地局以外の他のネットワークノード(例えば、MME又はS-GWなどが考えられるが、これらに限られない)の少なくとも1つによって行われ得ることは明らかである。上記において基地局以外の他のネットワークノードが1つである場合を例示したが、複数の他のネットワークノードの組み合わせ(例えば、MME及びS-GW)であってもよい。
(1-6)情報等(※「情報、信号」の項目参照)は、上位レイヤ(又は下位レイヤ)から下位レイヤ(又は上位レイヤ)へ出力され得る。複数のネットワークノードを介して入出力されてもよい。
(1-7)入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
(1-8)判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
(1-9)本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。
(2-1)ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
(2-2)本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。なお、本開示において説明した用語及び本開示の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。例えば、チャネル及びシンボルの少なくとも一方は信号(シグナリング)であってもよい。また、信号はメッセージであってもよい。また、コンポーネントキャリア(CC:Component Carrier)は、キャリア周波数、セル、周波数キャリアなどと呼ばれてもよい。
(2-3)本開示において使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。
(2-4)また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。例えば、無線リソースはインデックスによって指示されるものであってもよい。上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。様々なチャネル(例えば、PUCCH、PDCCHなど)及び情報要素は、あらゆる好適な名称によって識別できるので、これらの様々なチャネル及び情報要素に割り当てている様々な名称は、いかなる点においても限定的な名称ではない。
(2-5)本開示においては、「基地局(BS:Base Station)」、「無線基地局」、「固定局(fixed station)」、「NodeB」、「eNodeB(eNB)」、「gNodeB(gNB)」、「アクセスポイント(access point)」、「送信ポイント(transmission point)」、「受信ポイント(reception point)、「送受信ポイント(transmission/reception point)」、「セル」、「セクタ」、「セルグループ」、「キャリア」、「コンポーネントキャリア」などの用語は、互換的に使用され得る。基地局は、マクロセル、スモールセル、フェムトセル、ピコセルなどの用語で呼ばれる場合もある。基地局は、1つ又は複数(例えば、3つ)のセルを収容することができる。基地局が複数のセルを収容する場合、基地局のカバレッジエリア全体は複数のより小さいエリアに区分でき、各々のより小さいエリアは、基地局サブシステム(例えば、屋内用の小型基地局(RRH:Remote Radio Head)によって通信サービスを提供することもできる。「セル」又は「セクタ」という用語は、このカバレッジにおいて通信サービスを行う基地局及び基地局サブシステムの少なくとも一方のカバレッジエリアの一部又は全体を指す。本開示において、基地局が端末に情報を送信することは、基地局が端末に対して、情報に基づく制御・動作を指示することと読み替えられてもよい。
(2-6)本開示においては、「移動局(MS:Mobile Station)」、「ユーザ端末(user terminal)」、「ユーザ装置(UE:User Equipment)」、「端末」などの用語は、互換的に使用され得る。移動局は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、又はいくつかの他の適切な用語で呼ばれる場合もある。
(2-7)基地局及び移動局の少なくとも一方は、送信装置、受信装置、通信装置などと呼ばれてもよい。なお、基地局及び移動局の少なくとも一方は、移動体に搭載されたデバイス、移動体自体などであってもよい。当該移動体は、移動可能な物体をいい、移動速度は任意である。また移動体が停止している場合も当然含む。当該移動体は、例えば、車両、輸送車両、自動車、自動二輪車、自転車、コネクテッドカー、ショベルカー、ブルドーザー、ホイールローダー、ダンプトラック、フォークリフト、列車、バス、リヤカー、人力車、船舶(ship and other watercraft)、飛行機、ロケット、人工衛星、ドローン(登録商標)、マルチコプター、クアッドコプター、気球、およびこれらに搭載される物を含み、またこれらに限らない。また、当該移動体は、運行指令に基づいて自律走行する移動体であってもよい。乗り物(例えば、車、飛行機など)であってもよいし、無人で動く移動体(例えば、ドローン、自動運転車など)であってもよいし、ロボット(有人型又は無人型)であってもよい。なお、基地局及び移動局の少なくとも一方は、必ずしも通信動作時に移動しない装置も含む。例えば、基地局及び移動局の少なくとも一方は、センサなどのIoT(Internet of Things)機器であってもよい。また、本開示における基地局は、ユーザ端末で読み替えてもよい。例えば、基地局及びユーザ端末間の通信を、複数のユーザ端末間の通信(例えば、D2D(Device-to-Device)、V2X(Vehicle-to-Everything)などと呼ばれてもよい)に置き換えた構成について、本開示の各態様/実施形態を適用してもよい。この場合、上述の基地局が有する機能をユーザ端末が有する構成としてもよい。また、「上り」及び「下り」などの文言は、端末間通信に対応する文言(例えば、「サイド(side)」)で読み替えられてもよい。例えば、上りチャネル、下りチャネルなどは、サイドチャネルで読み替えられてもよい。同様に、本開示におけるユーザ端末は、基地局で読み替えてもよい。この場合、上述のユーザ端末が有する機能を基地局が有する構成としてもよい。
(3-1)本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。
(3-2)「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。
(3-3)参照信号は、RS(Reference Signal)と略称することもでき、適用される標準によってパイロット(Pilot)と呼ばれてもよい。
(3-4)本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
(3-5)本開示において使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。
(3-6)上記の各装置の構成における「手段」を、「部」、「回路」、「デバイス」等に置き換えてもよい。
(3-7)本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
(3-8)本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
(3-9)本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。
(4)本発明が本明細書中に説明した実施形態に限定されないことは当業者にとって明白である。本発明は、特許請求の範囲の記載に基づいて定まる本発明の趣旨および範囲を逸脱することなく修正および変更態様として実施できる。したがって、本明細書の記載は、例示的な説明を目的とし、本発明に対して何ら制限的な意味を有さない。また、本明細書に例示した態様から選択された複数の態様を組み合わせてもよい。
1…映像コンテンツ配信システム、2…配信サーバシステム、4…ユーザ装置、10…配信サーバ(画像生成装置)、12…撮像システム、12A…撮像装置、100…第1処理装置、102…位置管理部、103…3D画像生成部、104…仮想空間画像生成部、105…コンテンツ生成部、432…視線センサ、1030…撮像画像取得部、1032…3Dモデル生成部、1034…注目部分決定部、1036…圧縮部、1038…レンダリング部、A…映像コンテンツ、B…被写体、C4…視線情報、G1…第1撮像画像(撮像画像)、GV…3D画像(ボリュメトリックビデオを構成する画像)、K…注目部分、UA…ユーザ、VS…仮想空間。
Claims (6)
- 被写体を撮像することによって得られる1又は複数の撮像画像を取得する撮像画像取得部と、
前記1又は複数の撮像画像に基づいて、前記被写体の3Dモデルを生成する3Dモデル生成部と、
前記被写体における注目部分を決定する注目部分決定部と、
前記3Dモデルに対し、前記注目部分に対応する部分以外を圧縮する圧縮部と、
前記圧縮部によって圧縮された3Dモデルに基づいて、ボリュメトリックビデオを構成する画像を生成するレンダリング部と、
を備える、画像生成装置。 - 前記被写体が互いに独立した複数の物体を含み、
前記注目部分決定部は、
前記複数の物体の中から1以上の物体を前記注目部分に決定する
請求項1に記載の画像生成装置。 - 前記注目部分決定部は、
前記ボリュメトリックビデオの画像を視た1又は複数のユーザの視線に基づいて、前記注目部分を決定する
請求項1に記載の画像生成装置。 - 前記注目部分決定部は、
前記被写体の中の予め指定された部分を前記注目部分に決定する
請求項1に記載の画像生成装置。 - 前記レンダリング部は、
前記ボリュメトリックビデオの画像を視るユーザの動きに応じた方向に基づいて、前記ボリュメトリックビデオを構成する画像を生成する
請求項1に記載の画像生成装置。 - 仮想空間の画像を生成する仮想空間画像生成部と、
前記ボリュメトリックビデオを構成する画像を、前記仮想空間の画像に重畳した画像を含むコンテンツを生成するコンテンツ生成部と、
を備える請求項1に記載の画像生成装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022192646A JP2024079939A (ja) | 2022-12-01 | 2022-12-01 | 画像生成装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022192646A JP2024079939A (ja) | 2022-12-01 | 2022-12-01 | 画像生成装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024079939A true JP2024079939A (ja) | 2024-06-13 |
Family
ID=91431723
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022192646A Pending JP2024079939A (ja) | 2022-12-01 | 2022-12-01 | 画像生成装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024079939A (ja) |
-
2022
- 2022-12-01 JP JP2022192646A patent/JP2024079939A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10841537B2 (en) | Spatially faithful telepresence supporting varying geometries and moving users | |
CN108139803B (zh) | 用于动态显示器配置的自动校准的方法及系统 | |
US11477509B2 (en) | Immersive cognitive reality system with real time surrounding media | |
US11244584B2 (en) | Image processing method and device for projecting image of virtual reality content | |
US9081181B2 (en) | Head mounted display device and image display control method therefor | |
EP3258698A1 (en) | Server, user terminal device, and control method therefor | |
US10136056B2 (en) | Panoramic imaging apparatus and system, method of generating panoramic image using panoramic imaging system, computer-readable recording medium, and computer program stored in computer-readable recording medium | |
TW201503047A (zh) | 可變解析度之深度表示 | |
EP3412031B1 (en) | Method and apparatus for creating and rendering hdr images | |
US20170161881A1 (en) | Method and apparatus for view-dependent tone mapping of virtual reality images | |
KR20210036212A (ko) | 증강 현실 서비스를 제공하는 서버, 사용자 단말 및 방법 | |
KR20200073784A (ko) | 가상 현실 서비스를 제공하는 서버, 단말 및 방법 | |
US20220132261A1 (en) | Information processing apparatus, information processing method, and program | |
US20180012410A1 (en) | Display control method and device | |
JP2024079939A (ja) | 画像生成装置 | |
US20230091348A1 (en) | Method and device for transmitting image content using edge computing service | |
US11317082B2 (en) | Information processing apparatus and information processing method | |
US20220319102A1 (en) | Information processing apparatus, method of operating information processing apparatus, and program | |
US20220141442A1 (en) | Information processing apparatus, information processing method, and program | |
WO2024085084A1 (ja) | アバター制御装置 | |
CN108693953A (zh) | 一种增强现实ar投影方法及云端服务器 | |
CN109413409B (zh) | 一种数据处理方法、mec服务器、终端设备 | |
US10630942B2 (en) | Control method and information processing device | |
WO2023243300A1 (ja) | レンダリング制御装置 | |
JP6639205B2 (ja) | 送信装置、送信方法、およびプログラム |