JP6581742B1 - Vr生放送配信システム、配信サーバ、配信サーバの制御方法、配信サーバのプログラム、およびvr生写真データのデータ構造 - Google Patents

Vr生放送配信システム、配信サーバ、配信サーバの制御方法、配信サーバのプログラム、およびvr生写真データのデータ構造 Download PDF

Info

Publication number
JP6581742B1
JP6581742B1 JP2019059898A JP2019059898A JP6581742B1 JP 6581742 B1 JP6581742 B1 JP 6581742B1 JP 2019059898 A JP2019059898 A JP 2019059898A JP 2019059898 A JP2019059898 A JP 2019059898A JP 6581742 B1 JP6581742 B1 JP 6581742B1
Authority
JP
Japan
Prior art keywords
data
avatar
raw
unit
distribution server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019059898A
Other languages
English (en)
Other versions
JP2020162004A (ja
Inventor
進之介 岩城
進之介 岩城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Priority to JP2019059898A priority Critical patent/JP6581742B1/ja
Priority to JP2019157622A priority patent/JP7324659B2/ja
Application granted granted Critical
Publication of JP6581742B1 publication Critical patent/JP6581742B1/ja
Priority to CN201980094819.XA priority patent/CN113646752B/zh
Priority to US17/598,825 priority patent/US11995768B2/en
Priority to PCT/JP2019/041677 priority patent/WO2020194821A1/ja
Publication of JP2020162004A publication Critical patent/JP2020162004A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • A63F13/86Watching games played by other players
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Databases & Information Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】3D空間を3Dのまま残すことができ、かつ、データをコンパクトにすることができるVR生写真配信システム、配信サーバ、配信サーバの制御方法、配信サーバのプログラム、およびVR生写真データのデータ構造を提供すること。【解決手段】モーションデータにアバターのデータをレンダリングした3DCGの映像と、アバターが存在する3次元空間の3DCGの映像とを少なくとも含むVR映像を生放送で配信するVR生放送配信システムであって、配信者または視聴者からのVR生写真の撮影指示を入力する撮影指示入力部と、撮影指示に基づいて、アバターを含む3次元空間全体の外観のデータを構築する外観データ構築部と、外観データ構築部により構築したアバターを含む3次元空間全体の外観のデータを、VR生写真のデータとして配信するVR生写真データ配信部と、VR生写真を表示する表示部と、を備える。【選択図】図2

Description

本発明は、VR生放送配信システム、配信サーバ、配信サーバの制御方法、配信サーバのプログラム、およびVR生写真データのデータ構造に関する。
仮想環境を含むビデオゲームにおいては、ユーザがゲームを休止し、3次元(以下、3Dとも称する。)プリントのための3Dスナップショットを撮影することができる。例えば、特許文献1においては、3Dスナップショットが選択されると、ゲーム内ジオメトリを補足的ジオメトリで補足する技術が用いられている。この技術では、仮想ゲーム環境の構成要素を、モデルの最終プリント物理形態においてモデルを支持するように計算し、3Dプリンタジオメトリ内の構造形状を有するように修正している。
特開2016−163996号公報
ところで、従来のようにカメラで撮影した配信者等の映像を生放送する代わりに、配信者のモーションデータにアバターのデータをレンダリングさせて、3D空間にいるアバターの映像を生放送で配信するサービスが提供されている。
また、このようなサービスで用いることが可能な自作のアバターのデータなどを公開し、シェアすることができるプラットホームも提供されている。
上述のようなサービスにおいては、単に3D空間にいるアバターの映像を配信するだけではなく、生放送中に記念撮影をして、写真を視聴者に配布するということが考えられている。
この写真は、特許文献1のような3Dスナップショットではなく、3D空間を3Dのまま残して配布することが想定されている。3Dの写真を配布することにより、アバターおよびアバターがいる部屋の様子だけでなく、その部屋がある家を外側から見たり、さらにその周囲の景色等を自由な角度から見たりすることが可能となる。
しかしながら、このような3Dの写真を配布しようとすると、3D空間全体はデータ量が大きくなるので、配布するデータをコンパクトにまとめる必要があるという課題があった。
そこで、本発明は、3D空間を3Dのまま残すことができ、かつ、データをコンパクトにすることができるVR生写真配信システム、配信サーバ、配信サーバの制御方法、配信サーバのプログラム、およびVR生写真データのデータ構造を提供することを課題とする。
前記課題を解決するため、本発明に係るVR生放送配信システムの一態様は、
配信者端末と、視聴者端末と、配信サーバとを備え、モーションデータにアバターのデータをレンダリングした3次元コンピュータグラフィックスの映像と、前記アバターが存在する3次元空間の3次元コンピュータグラフィックスの映像とを少なくとも含むVR(バーチャル・リアリティ)映像を生放送で配信するVR生放送配信システムであって、
前記配信者端末および前記視聴者端末に備えられ、配信者または視聴者からのVR生写真の撮影指示を入力する撮影指示入力部と、
前記配信者端末および前記配信サーバの少なくともいずれか一方に備えられ、
前記撮影指示に基づいて、前記アバターを含む前記3次元空間全体の外観のデータを構築する外観データ構築部と、
前記配信者端末および前記配信サーバの少なくともいずれか一方に備えられ、
前記外観データ構築部により構築した前記アバターを含む前記3次元空間全体の外観のデータを、前記VR生写真のデータとして配信するVR生写真データ配信部と、
前記配信者端末および前記視聴者端末に備えられ、
前記VR生写真を表示する表示部と、を備える。
本明細書において、「アバターを含む前記3次元空間全体の外観のデータ」は、アバターとそれ以外の家具等のオブジェクトとの区別をせずに、3次元空間に存在するすべての物の表面の座標データとテクスチャ(色含む)データを含む概念である。
前記態様によれば、撮影指示入力部により、配信者または視聴者からのVR生写真の撮影指示が入力されると、外観データ構築部は、撮影指示に基づいて、アバターを含む前記3次元空間全体の外観のデータを構築する。VR生写真データ配信部は、外観データ構築部により構築したアバターを含む前記3次元空間全体の外観のデータを、VR生写真のデータとして配信する。配信者端末および視聴者端末においては、表示部によりVR生写真が表示される。このように、VR生写真の画像は、キャプチャされたVR映像の1コマを切り取ったものでなく、VR生写真データに基づいて生成したVR画像であるため、視聴者および配信者は、VR生写真画像を回転させたり、あるいは、アングルを変えたりして視聴することが可能となる。また、VR生写真画像は、3Dのまま保存されたVR生写真データに基づいているため、視聴者および配信者は、VR生写真の画角を変化させ、いわゆる引きの画像を視聴することが可能となる。さらに、VR生写真画像は、以上のようなVR生写真データに基づいているため、3D空間をキャプチャされた写真としてではなく、3Dのデータのまま残して、配布することが可能となる。3D空間全体はデータ量が大きいが、VR生写真データは、アバターを含む3次元空間に存在するすべての物の表面の座標データとテクスチャ(色含む)データを切り出して生成し、配信するので、配信サーバの負荷を減らすことが可能となる。
本発明に係るVR生放送配信システムの他の態様においては、前記VR生写真データ配信部は、前記3次元空間のうち、所定の基準位置から所定距離以上離れた遠景については、データ容量を下げたデータを前記VR生写真データに含めて配信するようにしてもよい。データ容量を下げたデータとしては、例えば、2次元の画像のデータが挙げられる。この態様によれば、配信するVR生写真データの簡略化を行うことができ、配信サーバの負荷をより一層減らすことが可能となる。
前記課題を解決するため、本発明に係る配信サーバの一態様は、
配信者端末と、視聴者端末と、配信サーバとを備え、モーションデータにアバターのデータをレンダリングした映像、および前記アバターが存在する3次元空間の映像を含むVR映像を生放送で配信するVR生放送配信システムにおける配信サーバであって、
前記配信者端末または前記視聴者端末からのVR生写真の撮影指示に基づいて、前記アバターを含む前記3次元空間全体の外観のデータを構築する外観データ構築部と、
前記外観データ構築部により構築した前記アバターを含む前記3次元空間全体の外観のデータを、前記VR生写真のデータとして配信するVR生写真データ配信部と、を備える。
この態様によれば、外観データ構築部は、撮影指示に基づいて、アバターのデータからアバターの外観のデータを構築する。VR生写真データ配信部は、外観データ構築部により構築したアバターを含む前記3次元空間全体の外観のデータを、VR生写真のデータとして配信する。このように、VR生写真の画像は、キャプチャされたVR映像の1コマを切り取ったものでなく、VR生写真データに基づいて生成したVR画像であるため、視聴者および配信者は、VR生写真画像を回転させたり、あるいは、アングルを変えたりして視聴することが可能となる。また、VR生写真画像は、3Dのまま保存されたVR生写真データに基づいているため、視聴者および配信者は、VR生写真の画角を変化させ、いわゆる引きの画像を視聴することが可能となる。さらに、VR生写真画像は、以上のようなVR生写真データに基づいているため、3D空間をキャプチャされた写真としてではなく、3Dのデータのまま残して、配布することが可能となる。3D空間全体はデータ量が大きいが、VR生写真データは、アバターを含む3次元空間に存在するすべての物の表面の座標データとテクスチャ(色含む)データを切り出して生成し、配信するので、配信サーバの負荷を減らすことが可能となる。
本発明に係る配信サーバの他の態様においては、前記VR生写真データ配信部は、前記3次元空間のうち、所定の基準位置から所定距離以上離れた遠景については、データ容量を下げたデータを前記VR生写真のデータに含めて配信するようにしてもよい。この態様によれば、配信するVR生写真データの簡略化を行うことができ、配信サーバの負荷をより一層減らすことが可能となる。
本発明に係る配信サーバの他の態様においては、前記VR映像をキャプチャしたキャプチャ映像を前記配信者端末から受信する映像受信部と、前記キャプチャ映像を前記視聴者端末に配信する映像配信部と、を備えてもよい。この態様によれば、VR映像の生放送においては、VR映像をキャプチャしたキャプチャ映像が配信されるので、配信サーバの負荷を減らすことが可能となる。
本発明に係る配信サーバの他の態様においては、前記視聴者端末から送信される視聴者のコメントを受信するコメント受信部と、前記受信したコメントを記憶するコメント記憶部と、前記受信したコメントを前記視聴者端末に配信するコメント配信部と、を備えてもよい。この態様によれば、視聴者が入力したコメントが物体化されてVR映像の生放送に配信され、さらにVR生写真として閲覧することが可能となる。
前記課題を解決するため、本発明に係る配信サーバの制御方法の一態様は、
配信者端末と、視聴者端末と、配信サーバとを備え、モーションデータにアバターのデータをレンダリングした3次元コンピュータグラフィックスの映像と、前記アバターが存在する3次元空間の3次元コンピュータグラフィックスの映像とを少なくとも含むVR(バーチャル・リアリティ)映像を生放送で配信するVR生放送配信システムにおける配信サーバの制御方法であって、
前記配信者端末または前記視聴者端末からのVR生写真の撮影指示に基づいて、外観データ構築部により、前記アバターを含む前記3次元空間全体の外観のデータを構築するステップと、
VR生写真データ配信部により、前記外観データ構築部により構築した前記アバターを含む前記3次元空間全体の外観のデータを、前記VR生写真のデータとして配信するステップと、を備える。
前記配信サーバの制御方法の一態様によれば、外観データ構築部は、撮影指示に基づいて、アバターのデータからアバターの外観のデータを構築する。VR生写真データ配信部は、外観データ構築部により構築したアバターを含む前記3次元空間全体の外観のデータを、VR生写真のデータとして配信する。このように、VR生写真の画像は、キャプチャされたVR映像の1コマを切り取ったものでなく、VR生写真データに基づいて生成したVR画像であるため、視聴者および配信者は、VR生写真画像を回転させたり、あるいは、アングルを変えたりして視聴することが可能となる。また、VR生写真画像は、3Dのまま保存されたVR生写真データに基づいているため、視聴者および配信者は、VR生写真の画角を変化させ、いわゆる引きの画像を視聴することが可能となる。さらに、VR生写真画像は、以上のようなVR生写真データに基づいているため、3D空間をキャプチャされた写真としてではなく、3Dのデータのまま残して、配布することが可能となる。3D空間全体はデータ量が大きいが、VR生写真データは、アバターを含む3次元空間に存在するすべての物の表面の座標データとテクスチャ(色含む)データを切り出して生成し、配信するので、配信サーバの負荷を減らすことが可能となる。
前記課題を解決するため、本発明に係る配信サーバのプログラムの一態様は、
配信者端末と、視聴者端末と、配信サーバとを備え、モーションデータにアバターのデータをレンダリングした3次元コンピュータグラフィックスの映像と、前記アバターが存在する3次元空間の3次元コンピュータグラフィックスの映像とを少なくとも含むVR(バーチャル・リアリティ)映像を生放送で配信するVR生放送配信システムにおける配信サーバのプログラムであって、前記プログラムは、コンピュータに、
前記配信者端末または前記視聴者端末からのVR生写真の撮影指示に基づいて、外観データ構築部により、前記アバターを含む前記3次元空間全体の外観のデータを構築するステップと、
VR生写真データ配信部により、前記外観データ構築部により構築した前記アバターを含む前記3次元空間全体の外観のデータを、前記VR生写真のデータとして配信するステップと、を実行させる。
前記配信サーバのプログラムの一態様によれば、外観データ構築部は、撮影指示に基づいて、アバターのデータからアバターの外観のデータを構築する。VR生写真データ配信部は、外観データ構築部により構築したアバターを含む前記3次元空間全体の外観のデータを、VR生写真のデータとして配信する。このように、VR生写真の画像は、キャプチャされたVR映像の1コマを切り取ったものでなく、VR生写真データに基づいて生成したVR画像であるため、視聴者および配信者は、VR生写真画像を回転させたり、あるいは、アングルを変えたりして視聴することが可能となる。また、VR生写真画像は、3Dのまま保存されたVR生写真データに基づいているため、視聴者および配信者は、VR生写真の画角を変化させ、いわゆる引きの画像を視聴することが可能となる。さらに、VR生写真画像は、以上のようなVR生写真データに基づいているため、3D空間をキャプチャされた写真としてではなく、3Dのデータのまま残して、配布することが可能となる。3D空間全体はデータ量が大きいが、VR生写真データは、アバターを含む3次元空間に存在するすべての物の表面の座標データとテクスチャ(色含む)データを切り出して生成し、配信するので、配信サーバの負荷を減らすことが可能となる。
前記課題を解決するため、本発明に係るVR生写真データのデータ構造の一態様は、
配信者端末と、視聴者端末と、配信サーバとを備え、モーションデータにアバターのデータをレンダリングした3次元コンピュータグラフィックスの映像と、前記アバターが存在する3次元空間の3次元コンピュータグラフィックスの映像とを少なくとも含むVR(バーチャル・リアリティ)映像を生放送で配信するVR生放送配信システムにおいて、前記配信者端末または前記配信サーバから配信されるVR生写真データのデータ構造であって、
前記アバターを含む前記3次元空間全体の外観のデータを少なくとも備える。
前記VR生写真データのデータ構造の一態様によれば、VR生写真の画像は、VR生写真データに基づいて生成したVR画像であるため、視聴者および配信者は、VR生写真画像を回転させたり、あるいは、アングルを変えたりして視聴することが可能となる。また、VR生写真画像は、3Dのまま保存されたVR生写真データに基づいているため、視聴者および配信者は、VR生写真の画角を変化させ、いわゆる引きの画像を視聴することが可能となる。さらに、VR生写真画像は、以上のようなVR生写真データに基づいているため、3D空間をキャプチャされた写真としてではなく、3Dのデータのまま残して、配布することが可能となる。3D空間全体はデータ量が大きいが、VR生写真データは、アバターを含む3次元空間に存在するすべての物の表面の座標データとテクスチャ(色含む)データを切り出して生成し、配信するので、配信サーバの負荷を減らすことが可能となる。
本発明によれば、VR生写真として、3D空間を3Dのまま残すことができ、かつ、データをコンパクトにすることができる。
本発明に係る第1実施形態のVR生放送配信システムを概略的に示す図である。 第1実施形態における配信サーバの構成を概略的に示すブロック図である。 第1実施形態におけるデータサーバの構成を概略的に示すブロック図である。 第1実施形態における配信者端末の構成を概略的に示すブロック図である。 第1実施形態における視聴者端末の構成を概略的に示すブロック図である。 VR生写真データのデータ構造を概略的に示す図である。 VR生写真データの生成処理を示すフローチャートである。 視聴者端末および配信者端末において表示されるVR生写真画像の一例を示す図である。 VR生写真における引きの画像の一例を示す図である。 本発明の第2実施形態における配信サーバの構成を概略的に示すブロック図である。 第2実施形態における配信者端末の構成を概略的に示すブロック図である。 本発明の第3実施形態における配信サーバの構成を概略的に示すブロック図である。 第3実施形態における配信者端末の構成を概略的に示すブロック図である。 第3実施形態における視聴者端末の構成を概略的に示すブロック図である。 第5実施形態における配信サーバの構成を概略的に示すブロック図である。 第5実施形態における配信者端末の構成を概略的に示すブロック図である。
(第1実施形態)
以下、本発明の第1実施形態について図面を参照しつつ説明する。図1は、本実施形態のVR生放送配信システムを概略的に示す図である。図2は、本実施形態における配信サーバの構成を概略的に示すブロック図である。図3は、本実施形態におけるデータサーバの構成を概略的に示すブロック図である。図4は、本実施形態における配信者端末の構成を概略的に示すブロック図である。図5は、本実施形態における視聴者端末の構成を概略的に示すブロック図である。
(VR生放送配信システム)
図1に示すように、本実施形態におけるVR生放送配信システム100は、配信サーバ1と、データサーバ2と、配信者端末3と、視聴者端末4と、インターネット等のネットワーク5とを備える。配信サーバ1は、ネットワーク5を介して、配信者端末3、および視聴者端末4と通信可能となっている。また、配信者端末3は、配信サーバ1だけでなく、データサーバ2ともネットワーク5を介して通信可能となっている。
複数台の配信者端末3および視聴者端末4をネットワーク5に接続することが可能であるが、本実施形態では、説明の簡略化のために、1台の配信者端末3をネットワーク5に接続した例について説明する。
図2に示すように、配信サーバ1は、記憶部10と、制御部11と、通信部12とを備える。記憶部10は、例えばHDD(Hard Disk Drive)等から構成される。記憶部10には、本発明の配信サーバ1のプログラムが記憶される。また、記憶部10は、VR映像データ記憶領域10A、VR生写真データ記憶領域10B、およびコメントデータ記憶領域10Cを備えている。
VR映像データ記憶領域10Aには、配信者端末3から送信されるアバターの3次元コンピュータグラフィックス(以下、3DCGとも称する。)の映像を含むVR映像をキャプチャした映像のデータが記憶される。VR生写真データ記憶領域10Bには、配信者端末3から送信されるVR生写真のデータが記憶される。コメント記憶部としてのコメントデータ記憶領域10Cには、視聴者端末4から送信されるコメントのデータが記憶される。VR映像、VR映像をキャプチャした映像、VR生写真、およびコメントの詳細については後述する。
制御部11は、CPU等から構成され、配信サーバ1の全体の動作を制御する。上述した各データを記憶部10に記憶させる動作も制御部11の制御により行われる。また、制御部11は、映像配信部としてのVR映像データ配信部11A、VR生写真データ配信部11B、およびコメント配信部としてのコメントデータ配信部11Cの機能を備えている。
VR映像データ配信部11Aは、記憶部10のVR映像データ記憶領域10Aに記憶させたVR映像をキャプチャした映像のデータを、配信者端末3および視聴者端末4に通信部12を介して配信する。
VR生写真データ配信部11Bは、記憶部10のVR生写真データ記憶領域10Bに記憶させたVR生写真のデータを、配信者端末3および視聴者端末4に通信部12を介して配信する。
コメントデータ配信部11Cは、記憶部10のコメントデータ記憶領域10Cに記憶されたコメントのデータを、配信者端末3に通信部12を介して配信する。
通信部12は、ネットワーク5を用いたデータの通信を行うインターフェースである。本実施形態では、一例として、ネットワーク5にインターネットを用いており、通信部12は、インターネットによりデータの通信を行うインターフェースである。配信サーバ1は、ネットワーク5を介して、配信者端末3、および視聴者端末4と通信可能となっている。
<データサーバ>
図3に示すように、データサーバ2は、記憶部20と、制御部21と、通信部22とを備える。記憶部20は、例えばHDD(Hard Disk Drive)等から構成される。記憶部20には、データサーバ2のプログラムが記憶される。また、記憶部20は、アバターデータ記憶領域20A、および3D空間データ記憶領域20Bを備えている。
アバターデータ記憶領域20Aには、配信者端末3または視聴者端末4、あるいは配信者端末3と視聴者端末4以外のユーザの端末(図示せず)から送信されるバーチャルキャラクターのアバターのデータが記憶される。3D空間データ記憶領域20Bには、配信者端末3または視聴者端末4、あるいは配信者端末3と視聴者端末4以外のユーザの端末から送信される3D空間データが記憶される。アバターのデータ、および3D空間データの詳細については後述する。
制御部21は、CPU等から構成され、データサーバ2の全体の動作を制御する。上述した各データを記憶部20に記憶させる動作も制御部21の制御により行われる。また、制御部21は、データ配信部21Aとしての機能を備えている。
データ配信部21Aは、記憶部20のアバターデータ記憶領域20Aに記憶されたバーチャルキャラクターのアバターのデータ、および、記憶部20の3D空間データ記憶領域20Bに記憶された3D空間データを、配信者端末3に通信部22を介して配信する。
通信部22は、ネットワーク5を用いたデータの通信を行うインターフェースである。本実施形態では、一例として、ネットワーク5にインターネットを用いており、通信部22は、インターネットによりデータの通信を行うインターフェースである。データサーバ2は、ネットワーク5を介して、配信者端末3または視聴者端末4、あるいは配信者端末3と視聴者端末4以外のユーザの端末と通信可能となっている。
<配信者端末>
図4に示すように、配信者端末3は、記憶部30と、制御部31と、キャプチャ部32と、表示部33と、入力部34と、通信部35とを備える。記憶部30は、例えばHDD(Hard Disk Drive)等から構成される。記憶部30には、配信者端末3のプログラムが記憶される。また、記憶部30は、アバターデータ記憶領域30A、3D空間データ記憶領域30B、コメントデータ記憶領域30C、およびVR生写真データ記憶領域30Dを備えている。配信者端末3の一例としては、パーソナルコンピュータ、またはヘッドマウントディスプレイ等の装置が挙げられる。
アバターデータ記憶領域30Aには、配信者端末3のユーザ(以下、配信者とも称する。)がデータサーバ2から取得したバーチャルキャラクターのアバターのデータが記憶される。3D空間データ記憶領域30Bには、配信者がデータサーバ2から取得した3D空間データが記憶される。コメントデータ記憶領域30Cには、配信サーバ1から配信されるコメントデータが記憶される。VR生写真データ記憶領域30Dには、配信サーバ1から配信されるVR生写真データが記憶される。
制御部31は、CPU等から構成され、配信者端末3の全体の動作を制御する。上述した各データを記憶部30に記憶させる動作も制御部31の制御により行われる。また、制御部31は、モーションデータ生成部31A、レンダリング部31B、VR映像表示制御部31C、配信映像表示制御部31D、およびVR生写真生成部31Eとしての機能を備えている。
モーションデータ生成部31Aは、配信者が手や指等に装着したコントローラ(図示せず。以下、同様。)、および配信者が頭部に装着したVR用ヘッドセット(図示せず。以下、同様。)を用いてモーションキャプチャを行うことにより、配信者の身体各部の座標を計測し、配信者の身体動作を3次元時系列のデータとして表すモーションデータを生成する。
レンダリング部31Bは、アバターデータ記憶領域30Aに記憶されたアバターのデータと、モーションデータ生成部31Aにおいて生成されたモーションデータとを連動させるレンダリング処理を行う。
VR映像表示制御部31Cは、3D空間データ記憶領域30Bに記憶された3D空間データと、コメントデータ記憶領域30Cに記憶されたコメントデータと、レンダリングされたアバターのデータとを用いて、3D空間内に存在するアバターの3DCGによるVR映像を表示させる制御を行う。VR映像は、表示部33および表示部33に接続されたVR用のヘッドセットに表示される。
また、VR映像表示制御部31Cは、配信サーバ1から配信され、VR生写真データ記憶領域30Dに記憶されるVR生写真データに基づいて、VR生写真の映像を表示部33、および表示部33に接続されたVR用ヘッドセットに表示させる。
配信映像表示制御部31Dは、配信サーバ1から配信され、VR映像がキャプチャされた映像を、表示部33および表示部33に接続されたVR用のヘッドセットに表示させる。
VR生写真生成部31Eは、撮影指示入力部としての入力部34または入力部34に接続されたコントローラ(図示せず)に備えられたシャッターボタンが押下またはクリックされた際に、表示されている3D空間、アバター、およびコメントのVR映像のデータに基づいて、VR生写真データを生成する。また、VR生写真生成部31Eは、視聴者端末4に備えられたシャッターボタンが押下またはクリックされた際にも、VR生写真データを生成する。
キャプチャ部32は、表示部33および表示部33に接続されたVR用ヘッドセットに表示されるVR映像を、映像データとしてキャプチャし、通信部35を介して配信サーバ1に送信する。
表示部33は、ディスプレイおよび表示回路を備え、表示部33には、VR用ヘッドセットが接続可能となっている。
入力部34は、キーボード、およびマウス等のポインティングデバイスと、データ入力用のインターフェースとを備え、入力部34には、モーションキャプチャを行うためのコントローラが接続される。
通信部35は、ネットワーク5を用いたデータの通信を行うインターフェースである。本実施形態では、一例として、ネットワーク5にインターネットを用いており、通信部35は、インターネットによりデータの通信を行うインターフェースである。配信者端末3は、ネットワーク5を介して、配信サーバ1、およびデータサーバ2と通信可能となっている。
<視聴者端末>
図5に示すように、視聴者端末4は、記憶部40と、制御部41と、表示部42と、入力部43と、通信部44とを備える。視聴者端末4の一例としては、パーソナルコンピュータ等の装置が挙げられる。
記憶部40は、例えばHDD(Hard Disk Drive)等から構成される。記憶部40には、視聴者端末4のプログラムが記憶される。また、記憶部40は、VR生写真データ記憶領域40Aを備えている。VR生写真データ記憶領域40Aには、配信サーバ1から配信されたVR生写真データが記憶される。
制御部41は、CPU等から構成され、視聴者端末4の全体の動作を制御する。上述したVR生写真データを記憶部40に記憶させる動作も制御部41の制御により行われる。また、制御部41は、VR映像表示制御部41A、配信映像表示制御部41B、およびコメントデータ制御部41Cとしての機能を備えている。
VR映像表示制御部41Aは、VR生写真データ記憶領域40Aに記憶されたVR生写真データに基づいて、VR生写真の映像を表示部33に表示させる制御を行う。
配信映像表示制御部41Bは、配信者端末3においてキャプチャされて配信サーバ1に配信され、再び配信サーバ1から配信されるコメント入りの3D空間内に存在するアバターのVR映像を、表示部42に表示させる。
コメントデータ制御部41Cは、視聴者としての視聴者端末4のユーザが、入力部43により入力したコメントのデータを、配信サーバ1に通信部44を介して送信する。
表示部42は、ディスプレイおよび表示回路を備え、3D空間およびコメントを含むアバターのVR映像、並びに、VR生写真の映像を表示する。
入力部43は、キーボード、およびマウス等のポインティングデバイスと、データ入力用のインターフェースとを備える。
通信部44は、ネットワーク5を用いたデータの通信を行うインターフェースである。本実施形態では、一例として、ネットワーク5にインターネットを用いており、通信部44は、インターネットによりデータの通信を行うインターフェースである。視聴者端末4は、ネットワーク5を介して、配信サーバ1と通信可能となっている。
<VR映像配信>
(1)データの選択
次に、本実施形態におけるVR映像配信について説明する。VR映像を配信するに当たっては、まず、配信者が、配信者端末3を用いてアバター用プラットホームにアクセスし、バーチャルキャラクターのアバターの選択とアバターのデータの取得を行う。
アバター用プラットホームは、ウェブブラウザによりアクセスすることができる。アバターの作成者は、配信者端末3および視聴者端末4と同様の端末装置を用いてウェブブラウザにアクセスし、作成したアバターのデータをデータサーバ2にアップロードする。
アバターのデータは、ポリゴンデータと、バーチャルキャラクターの外表面を形作るテクスチャデータと、ボーンデータとを含む。これらのデータは、VRM等の所定のファイル形式でデータサーバ2の記憶部20におけるアバターデータ記憶領域20Aに保存される。
アップロードされたアバターのデータは、アバター用プラットホームにおいては、アイコンまたはアイキャッチ画像で一覧表示されている。配信者端末3のユーザは、ウェブブラウザによりアバター用プラットホームにアクセスし、一覧表示されたアイコンまたはアイキャッチ画像から、所望のアバターを選択し、アバターのデータを配信者端末3にダウンロードすることができる。この場合、配信者端末3の制御部31は、ダウンロードしたアバターのデータを、記憶部30のアバターデータ記憶領域30Aに記憶させる。
アバター用プラットホームにおいては、アバターのデータだけでなく、バーチャルキャラクターのアバターが存在する部屋等を表現した3D空間のデータ、および、部屋等に置かれる花等のアクセサリのデータを選択することができる。これらのデータも、VRM等の所定のファイル形式でデータサーバ2の記憶部20におけるアバターデータ記憶領域20Aに保存される。
配信者は、ウェブブラウザによりアバター用プラットホームにアクセスし、一覧表示されたアイコンまたはアイキャッチ画像から、所望の3D空間のデータ、あるいはアクセサリのデータを選択し、これらのデータを配信者端末3にダウンロードすることができる。この場合、配信者端末3の制御部31は、ダウンロードしたデータを、記憶部30の空間データ記憶領域30Bに記憶させる。
(2)VR映像配信
配信者は、VR映像配信を行うために、VR用スタジオアプリケーションと、VR用スタジオアプリケーションにて生成したスタジオの様子をキャプチャして映すためのエンコーダアプリケーションとを、予め配信者端末3にダウンロードし、インストールしておく。
VR用スタジオアプリケーションは、VR空間にスタジオを作るアプリケーションであり、エンコーダアプリケーションは、VR用スタジオアプリケーションによって作成されたスタジオの様子をキャプチャして配信プラットホームに映すエンコーダのアプリケーションである。
配信者は、VR映像配信を行う場合には、VR用スタジオアプリケーションを起動させる。この際、配信者端末3には、VR用ヘッドセットとコントローラを接続しておく。
配信者は、予めダウンロードしておいたアバターのデータを選択し、また、3D空間のデータ、および必要な場合には、アクセサリのデータを選択する。
以上のような選択が行われると、配信者端末3のレンダリング部31Bは、アバターデータ記憶領域30Aに記憶されたアバターデータと、モーションデータ生成部31Aにおいて生成されたモーションデータとを連動させるレンダリング処理を行う。また、配信者端末3のVR映像表示制御部31Cは、空間データ記憶領域30Bに記憶された空間データと、レンダリングされたアバターデータとを用いて、3D空間内に存在するアバターのVR映像を表示させる制御を行う。VR映像は、表示部33および表示部33に接続されたVR用のヘッドセットに表示される。
アバターの動きは、配信者の頭部に装着したVR用ヘッドセットに加え、配信者における両手のコントローラの位置が反映される。また、コントローラにトラックパッドが備えられている場合には、トラックパッドを操作することにより、アバターの表情を変更することもできる。
VR用ヘッドセットおよびコントローラの動きは、配信者端末3のモーションデータ生成部31Aによりモーションデータとして生成される。モーションデータは、VR用ヘッドセットおよびコントローラを装着したユーザの様々な動作を、動作毎に記憶したデータであり、具体的には、ボーンデータを構成するジョイントの位置と、ジョイントに接続されるボーンの位置とについての時系列変化を示すデータである。
したがって、モーションデータをアバターのデータに適用することにより、配信者の動きに応じて、アバターに、歩く、走る、手を振る、ステップを踏むなどの様々な動作をさせることができる。
配信者端末3のレンダリング部31Bは、アバターのデータと、以上のようなモーションデータとを連動させるレンダリング処理を行い、配信者端末3のVR映像表示制御部31Cは、レンダリングされたアバターデータを用いて、3D空間内に存在するアバターのVR映像を表示させる。
次に、配信者が、VR用スタジオアプリケーションにおいて表示される配信ボタンを押下すると、以上のようにしてVR空間に表示されるアバター、3D空間、およびアクセサリの映像は、配信者端末3のキャプチャ部32によりキャプチャされる。キャプチャ部32は、エンコーダアプリケーションにより以上のようなキャプチャ動作を行う。キャプチャされたアバター等の映像は、配信者端末3の配信映像表示制御部31Dにより、配信者端末3から配信サーバ1に配信される。配信映像表示制御部31Dは、配信者端末3から配信プラットホームにアクセスすることにより動作する。配信プラットホームは、ウェブブラウザによりアクセス可能となっている。
配信サーバ1のVR映像配信部11Aは、配信者端末3から配信されたアバター等の映像を、視聴者端末4に配信する。視聴者端末4の配信映像表示制御部41Bは、配信サーバ1から配信されるアバター等の映像を表示部42に表示させる。このようにして、視聴者は、配信者端末3のユーザの動きに対応して動くアバター等の映像を視聴することができる。
また、視聴者は、アバター等の映像を視聴しながら、視聴者端末4の入力部43により、コメントを入力することができる。入力されたコメントは、視聴者端末4のコメントデータ制御部41Cにより、通信部44を介して配信サーバ1に送信される。
配信サーバ1のコメントデータ配信部11Cは、視聴者端末4から受信したコメントデータを記憶部10のコメントデータ記憶領域10Cに記憶させ、さらに、配信者端末3に配信する。
配信者端末3の制御部31は、配信サーバ1から受信したコメントデータを、記憶部30のコメントデータ記憶領域30Cに記憶させ、配信者端末3のVR映像表示制御部は、コメントデータに基づいて物体化させたコメントをVR空間内に例えば移動するように表示させる。
VR空間に表示されるアバター、3D空間、アクセサリ、およびコメントの映像は、配信者端末3のキャプチャ部32によりキャプチャされる。キャプチャされたコメントを含むアバター等の映像は、配信者端末3の配信映像表示制御部31Dにより、配信者端末3から配信サーバ1に配信される。
配信サーバ1のVR映像配信部11Aは、配信者端末3から配信されたコメントを含むアバター等の映像を、視聴者端末4に配信する。視聴者端末4の配信映像表示制御部41Bは、配信サーバ1から配信されるコメントを含むアバター等の映像を表示部42に表示させる。このようにして、視聴者は、配信者端末3のユーザの動きに対応して動くアバター等の映像と共に、視聴者によって入力され物体化されたコメントを視聴することができる。
<VR生写真生成>
次に、本実施形態におけるVR生写真の生成について説明する。本実施形態においては、アバター等のVR映像の配信中に、VR生写真を生成することができる。VR生写真とは、キャプチャされたVR映像の1コマを切り取るのではなく、シャッターボタンが押下された瞬間における3D空間にあるすべての物の表面の座標データとテクスチャ(色含む)データを切り出し、3Dジオラマのような感覚で3D空間全体のVR生写真が生成される。つまり、VR生写真を生成する際には、アバターとそれ以外の家具等のオブジェクトとの区別はされない。
本実施形態におけるVR生写真データ60は、図6に示すように、シャッターボタンが押下された瞬間における3D空間にあるすべての物の表面の座標データ60Aと、同瞬間におけるテクスチャ(色含む)データ60Bとを含む。このように、VR生写真データ60には、ポリゴンデータ、モーションデータおよびボーンデータは含まれていない。
次に、図7のフローチャートに基づいて、本実施形態におけるVR生写真データの生成処理と配信処理について説明する。図7は、本実施形態におけるVR生写真データの生成処理と配信処理を示すフローチャートである。
本実施形態においては、VR用スタジオアプリケーションは、配信者端末3だけでなく、視聴者端末4においてもダウンロードされ、インストールされているものとする。VR用スタジオアプリケーションを配信者端末3または視聴者端末4において起動させると、VR用スタジオアプリケーションには、シャッターボタンが表示される。このシャッターボタンを配信者端末3または視聴者端末4のユーザが押下することにより(図7:S1;YES)、VR生写真の生成が開始される。
シャッターボタンは、配信者端末3のVR用スタジオアプリケーションのみに設け、視聴者端末4のユーザからのリクエスト、あるいは、配信者端末3のユーザの声かけにより、配信者端末3のユーザがシャッターボタンを押下するようにしてもよい。
上述したシャッターボタンが押下されると、配信者端末3の外観データ構築部としてのVR生写真データ生成部31Eは、アバターを含む前記3D空間全体の外観のデータを切り出し、配信者端末3の記憶部30におけるVR生写真データ記憶領域30Dに記憶させる(図7:S2)。
配信者端末3のVR生写真データ生成部31Eは、VR生写真データ記憶領域30Dに記憶させたアバターを含む前記3D空間全体の外観のデータを、VR生写真データとして生成し、配信サーバ1に通信部35を介して送信する(図7:S3)。
配信サーバ1のVR生写真データ配信部11Bは、配信者端末3から送信されたVR生写真データを、記憶部10のVR生写真データ記憶領域10Bに記憶させ(図7:S4)、さらに、通信部12を介して、VR生写真データを視聴者端末4および配信者端末3に配信する(図7:S5,S6)。
視聴者端末4の制御部41は、配信サーバ1からVR生写真データを、視聴者端末4の記憶部40におけるVR生写真データ記憶領域40Aに記憶させる。また、視聴者端末4のVR映像表示制御部41Aは、VR生写真データ記憶領域40Aに記憶されたVR生写真データに基づいて、アバターのVR生写真画像を生成し、表示部42に表示させる。また、VR映像表示制御部41Aは、VR生写真データに基づいて、3D空間、および存在する場合にはアクセサリおよびコメントのVR生写真画像を生成し、表示部42に表示させる。
配信者端末3のVR映像表示制御部31Cは、配信者端末3の記憶部30におけるVR生写真データ記憶領域30Dに記憶させたVR生写真データに基づいて、アバターを含む3D空間全体のVR生写真画像を生成し、表示部33および表示部33に接続したVR用ヘッドセットに表示させる。
図8は、視聴者端末4および配信者端末3において表示されるVR生写真画像50の一例を示す図である。図8に示すように、VR生写真画像50は、アバター51、3D空間としての部屋52、およびアクセサリとしての花53の画像を含んでいる。図8に示す例においては、コメントの画像は省略している。
VR生写真画像50は、上述したように、キャプチャされたVR映像の1コマを切り取ったものでなく、VR生写真データに基づいて生成したVR画像であるため、視聴者および配信者は、VR生写真画像を回転させたり、あるいは、アングルを変えたりして視聴することができる。
さらに、視聴者および配信者は、VR生写真の画角を変化させ、いわゆる引きの画像を視聴することもできる。図9は、VR生写真における引きの画像の一例を示す図である。図9に示す例では、部屋52がある建物54の全体の画像をVR生写真として表示している。
また、本実施形態によれば、3D空間をキャプチャされた写真としてではなく、3Dのデータのまま残して、配布することができる。3D空間全体はデータ量が大きいが、本実施形態では、アバターのデータから、ボーンデータおよびモーションデータを用いずに、ポリゴンデータとテクスチャデータだけを切り出してVR生写真データを生成し、配信するので、配信サーバ1の負荷を減らすことができる。
(第2実施形態)
次に、本発明の第2実施形態について添付図面を参照しつつ説明する。第1実施形態においては、配信者端末3においてVR生写真データを生成する態様について説明したが、VR生写真データは、配信サーバ1において生成し、配信するようにしてもよい。
図10は、本実施形態における配信サーバの構成を概略的に示すブロック図である。図11は、本実施形態における配信者端末の構成を概略的に示すブロック図である。図10に示すように、本実施形態の配信サーバ1は、制御部11において、VR生写真生成部11Dの機能を有しているところが第1実施形態と異なる。さらに、本実施形態の配信者端末3は、図11に示すように、制御部31において、VR生写真生成部31Eの機能を有していないところが第1実施形態と異なる。
本実施形態においては、配信者端末3または視聴者端末4においてシャッターボタンが押下されると、配信者端末3の制御部31は、VR映像表示制御部31Cによって生成されたアバターのデータから、シャッターボタンが押下された瞬間におけるポリゴンデータとテクスチャデータを切り出し、配信サーバ1に送信する。
配信者端末3の制御部31は、さらに、シャッターボタンが押下された瞬間のアバターを含む3D空間全体のデータを配信サーバ1に送信する。
配信サーバ1のVR生写真生成部11Dは、配信者端末3から受信したアバターを含む3D空間全体のデータを、記憶部10のVR生写真データ記憶領域10Bに記憶させる。また、VR生写真生成部11Dは、配信者端末3から受信した空間データ、および存在する場合にはアクセサリデータを、記憶部10のVR生写真データ記憶領域10Bに記憶させる。
配信サーバ1のVR生写真生成部11Dは、VR生写真データ記憶領域10Bに記憶させたアバターを含む3D空間全体のデータからなるVR生写真データを、配信者端末3および視聴者端末4に通信部12を介して送信する。
視聴者端末4の制御部41は、配信サーバ1から送信されたVR生写真データを、視聴者端末4の記憶部40におけるVR生写真データ記憶領域40Aに記憶させる。また、視聴者端末4のVR映像表示制御部41Aは、VR生写真データ記憶領域40Aに記憶されたVR生写真データに基づいて、アバターを含む3D空間全体のVR生写真画像を生成し、表示部42に表示させる。
配信者端末3のVR映像表示制御部31Cは、配信サーバ1から送信されたVR生写真データを、配信者端末3の記憶部30におけるVR生写真データ記憶領域30Dに記憶させる。また、VR映像表示制御部31Cは、VR生写真データ記憶領域30Dに記憶させたVR生写真データに基づいて、アバターを含む3D空間全体のVR生写真画像を生成し、表示部33および表示部33に接続したVR用ヘッドセットに表示させる。
以上のように、VR生写真データを生成する主体は、配信者端末3ではなく、配信サーバ1であってもよい。この場合でも、配信サーバ1は、3D空間をキャプチャした写真としてではなく、3DのデータのままでVR生写真データとして配布することができる。3D空間全体はデータ量が大きいが、本実施形態では、アバターを含む3D空間全体のデータだけを切り出してVR生写真データを生成し、配信するので、配信サーバ1の負荷を減らすことができる。
(第3実施形態)
次に、本発明の第3実施形態について添付図面を参照しつつ説明する。上述した実施形態においては、VR映像を生放送する態様について説明したが、生放送後の任意の時間にVR映像を再生する、いわゆる3Dタイムシフト再生を行うようにしてもよい。
図12は、本実施形態における配信サーバの構成を概略的に示すブロック図である。図13は、本実施形態における配信者端末の構成を概略的に示すブロック図である。図14は、本実施形態における視聴者端末の構成を概略的に示すブロック図である。
図12に示すように、本実施形態における配信サーバ1は、記憶部10において、タイムシフトデータ記憶領域10Dを備えているところが第1実施形態と異なる。また、本実施形態における配信サーバ1は、制御部11において、タイムシフトデータ配信部11Eの機能を備えているところが第1実施形態と異なる。
図13に示すように、本実施形態における配信者端末3は、記憶部10において、タイムシフトデータ記憶領域30Eを備えているところが第1実施形態と異なる。
図14に示すように、本実施形態における視聴者端末4は、記憶部40において、タイムシフトデータ記憶領域40Bを備えているところが第1実施形態と異なる。また、本実施形態における視聴者端末4は、制御部41において、レンダリング部41D、およびVR生写真生成部41Eの機能を備えているところが第1実施形態と異なる。
本実施形態においては、視聴者は、3Dタイムシフト再生を行うために、VR用スタジオアプリケーションを、予め視聴者端末4にダウンロードしておく。
配信者は、VR映像の生放送を行う際に、予めダウンロードしておいたアバターのデータを選択し、また、3D空間のデータおよびアクセサリのデータをしておいた場合には、それらのデータを選択する。このように選択されたデータは、VR映像の生放送に用いられるだけでなく、本実施形態においては、3Dタイムシフト再生のために配信サーバ1に送信される。本実施形態における配信者端末3の制御部31は、このように選択されたアバターのデータ、並びに、必要な場合には3D空間のデータおよびアクセサリのデータを、配信サーバ1に通信部35を介して送信する。
配信サーバ1の制御部11は、配信者端末3から送信されたアバターのデータ、3D空間のデータおよびアクセサリのデータを、記憶部10のタイムシフトデータ記憶領域10Dに記憶させる。
配信者端末3のモーションデータ生成部31Aは、VR映像の生放送を行う際に、VR用ヘッドセットとコントローラの操作に応じてモーションデータを生成する。生成されたモーションデータは、VR映像の生放送に用いられるだけでなく、本実施形態においては、配信サーバ1に送信される。配信者端末3の制御部31は、モーションデータ生成部31Aにより生成されたモーションデータを、配信サーバ1に通信部35を介して送信する。
配信サーバ1の制御部11は、配信者端末3から送信されたモーションデータを、記憶部10のタイムシフトデータ記憶領域10Dに記憶させる。
以上のようにして、配信サーバ1における記憶部10のタイムシフトデータ記憶領域10Dには、VR映像の生放送に用いられたアバターのデータ、並びに、配信者が選択した場合には3D空間のデータおよびアクセサリのデータが記憶される。また、タイムシフトデータ記憶領域10Dには、VR映像の生放送に用いられたモーションデータが記憶される。
3Dタイムシフト再生は、配信者端末3および視聴者端末4にインストールされたVR用スタジオアプリケーションに設けられた3Dタイムシフト再生ボタンが押下された場合に実行される。
<配信者端末3における3Dタイムシフト再生>
配信者が、3Dタイムシフト再生を希望し、VR用スタジオアプリケーションに設けられた3Dタイムシフト再生ボタンを押下すると、配信者端末3の制御部31は、配信サーバ1に対して、3Dタイムシフト再生のリクエストを送信する。
配信サーバ1の制御部11は、配信者端末3から3Dタイムシフト再生のリクエストを受信すると、記憶部10のタイムシフトデータ記憶領域10Dに記憶させたアバターのデータ、およびモーションデータ等から成るタイムシフトデータを、配信者端末3に通信部12を介して送信する。
配信者端末3の制御部11は、配信サーバ1から送信されたアバターデータ、およびモーションデータ等から成るタイムシフトデータを、記憶部30のタイムシフトデータ記憶領域30Eに記憶させる。
配信者端末3のレンダリング部31Bは、タイムシフトデータ記憶領域30Eに記憶させたアバターデータと、モーションデータとを連動させるレンダリング処理を行う。また、配信者端末3のVR映像表示制御部31Cは、タイムシフトデータ記憶領域30Eに記憶させた3D空間データと、レンダリングされたアバターデータとを用いて、3D空間内に存在するアバターのVR映像を表示させる制御を行う。VR映像は、表示部33および表示部33に接続されたVR用のヘッドセットに表示される。
タイムシフトデータ記憶領域30Eに記憶させたモーションデータは、VR映像の生放送の際に、配信者の頭部に装着したVR用ヘッドセット、および配信者における両手のコントローラの位置が反映されたデータである。したがって、VR映像の生放送のアバターの動作等を3Dタイムシフト再生として再現することができる。
<視聴者端末4における3Dタイムシフト再生>
視聴者が、3Dタイムシフト再生を希望し、VR用スタジオアプリケーションに設けられた3Dタイムシフト再生ボタンを押下すると、視聴者端末4の制御部41は、配信サーバ1に対して、3Dタイムシフト再生のリクエストがあったことを送信する。
配信サーバ1の制御部11は、視聴者端末4から3Dタイムシフト再生のリクエストを受信すると、記憶部10のタイムシフトデータ記憶領域10Dに記憶させたアバターのデータ、およびモーションデータ等から成るタイムシフトデータを、視聴者端末4に通信部12を介して送信する。
視聴者端末4の制御部41は、配信サーバ1から送信されたアバターデータ、およびモーションデータ等から成るタイムシフトデータを、記憶部40のタイムシフトデータ記憶領域40Bに記憶させる。
視聴者端末4のレンダリング部41Dは、タイムシフトデータ記憶領域40Bに記憶させたアバターデータと、モーションデータとを連動させるレンダリング処理を行う。また、視聴者端末4のVR映像表示制御部41Aは、タイムシフトデータ記憶領域40Bに記憶させた3D空間データと、レンダリングされたアバターデータとを用いて、3D空間内に存在するアバターのVR映像を表示させる制御を行う。VR映像は、表示部42に表示される。
タイムシフトデータ記憶領域40Bに記憶させたモーションデータは、VR映像の生放送の際に、配信者の頭部に装着したVR用ヘッドセット、および配信者における両手のコントローラの位置が反映されたデータである。したがって、VR映像の生放送のアバターの動作等を3Dタイムシフト再生として再現することができる。
<3Dタイムシフト再生中のVR生写真生成>
次に、本実施形態における3Dタイムシフト再生中のVR生写真の生成について説明する。本実施形態においては、3Dタイムシフト再生中に、VR生写真を生成することができる。
配信者端末3または視聴者端末4においてVR用スタジオアプリケーションに設けられたシャッターボタンが押下されると、VR生写真の生成が開始される。
<配信者端末3における3Dタイムシフト再生中のVR生写真生成>
配信者端末3においてシャッターボタンが押下されると、配信者端末3のVR生写真生成部31Eは、シャッターボタンが押下された瞬間におけるアバターを含む3D空間全体のデータを切り出し、配信者端末3の記憶部30におけるVR生写真データ記憶領域30Dに記憶させる。
配信者端末3のVR映像表示制御部31Cは、配信者端末3の記憶部30におけるVR生写真データ記憶領域30Dに記憶させたVR生写真データに基づいて、アバターを含む3D空間全体のVR生写真画像を生成し、表示部33および表示部33に接続したVR用ヘッドセットに表示させる。また、VR映像表示制御部31Cは、VR生写真データに基づいて、3D空間、および存在する場合にはアクセサリおよびコメントのVR生写真画像を生成し、表示部33および表示部33に接続したVR用ヘッドセットに表示させる。
<視聴者端末4における3Dタイムシフト再生中のVR生写真生成>
3Dタイムシフト再生中に、視聴者端末4においてシャッターボタンが押下されると、視聴者端末4のVR生写真生成部41Eは、シャッターボタンが押下された瞬間におけるアバターを含む3D空間全体のデータを切り出し、視聴者端末4の記憶部40におけるVR生写真データ記憶領域40Aに記憶させる。
視聴者端末4のVR映像表示制御部41Aは、視聴者端末4の記憶部40におけるVR生写真データ記憶領域40Aに記憶させたVR生写真データに基づいて、アバターを含む3D空間全体のVR生写真画像を生成し、表示部42に表示させる。
3タイムシフト再生中に生成されたVR生写真画像は、上述したように、キャプチャされたVR映像の1コマを切り取ったものでなく、VR生写真データに基づいて生成したVR画像であるため、視聴者および配信者は、VR生写真画像を回転させたり、あるいは、アングルを変えたりして視聴することができる。
さらに、視聴者および配信者は、VR生写真の画角を変化させ、いわゆる引きの画像を視聴することもできる。
また、本実施形態によれば、配信者端末3および視聴者端末4のそれぞれにタイムシフトデータを保存し、タイムシフトデータに基づくアバターのデータから、ボーンデータおよびモーションデータを用いずに、ポリゴンデータとテクスチャデータだけを切り出してVR生写真データを生成し、配信するので、配信サーバ1の負荷を減らすことができる。
(第4実施形態)
次に、本発明の第4実施形態について説明する。上述した実施形態においては、VR生写真データを配信する際に、部屋や建物等の3D空間のデータを簡略化することなく配信する態様について説明した。しかし、3D空間のデータのうち、簡略化可能なデータについては簡略化して配信してもよい。
例えば、3D空間のデータには、上述したような建物だけでなく、建物の周囲の背景が含まれる場合がある。背景については、配信者の位置を所定の基準位置として、所定の基準位置からの距離が所定値以内の近景と、配信者端末3のユーザからの距離が所定値を超える遠景とに分けることができる。
配信者からの距離が所定値以内の近景については、視聴者からも比較的によく見える背景であるため、上述した実施形態のようにデータを簡略化することなく配信する。しかし、配信者からの距離が所定値を超える遠景については、視聴者からあまりよく見えない背景であるため、データを簡略化することが可能となる。
第1実施形態のように配信者端末3のVR生写真生成部31Eが、3D空間データをVR生写真データとして配信サーバ1に配信する場合は、VR生写真生成部31Eがデータの簡略化を行う。VR生写真生成部31Eは、配信者からの距離が所定値を超える遠景の3D空間データを、例えば2D平面のVR生写真データとして配信サーバ1に配信する。
第2実施形態のように配信サーバ1のVR生写真生成部11Dが、3D空間データをVR生写真データとして配信者端末3および視聴者端末4に配信する場合は、VR生写真生成部11Dがデータの簡略化を行う。VR生写真生成部11Dは、配信者からの距離が所定値を超える遠景の3D空間データを、例えば2D平面のVR生写真データとして配信サーバ1に配信する。
簡略化され得るデータとしては、上述の背景のデータ以外にも、物体化された3Dコメント、部屋内の備品等のアクセサリ、あるいは、投下されたアイテム等が挙げられる。
本実施形態によれば、VR生写真データが簡略化されたデータを含むので、配信サーバ1の負荷をより一層減らすことができる。
(第5実施形態)
次に、本発明の第5実施形態について添付図面を参照しつつ説明する。上述した実施形態では、配信者端末3においてレンダリングを行い、VR生写真データを生成する態様について説明した。しかしながら、本発明はこのような態様に限定される訳ではなく、本実施形態のように、配信サーバ1においてレンダリングを行い、VR生写真データを生成するようにしてもよい。
図15は、本実施形態における配信サーバの構成を概略的に示すブロック図である。図16は、本実施形態における配信者端末の構成を概略的に示すブロック図である。
図15に示すように、本実施形態の配信サーバ1においては、記憶部10に、アバターデータ記憶領域10Eと、3D空間データ記憶領域10Fとが設けられている。また、本実施形態の配信サーバ1においては、制御部11は、レンダリング部11F、VR映像表示制御部11G、およびVR生写真生成部11Hの機能を有している。
図16に示すように、本実施形態の配信者端末3においては、記憶部10には、アバターデータ記憶領域30Aと、3D空間データ記憶領域30Bとが設けられていない。制御部11は、レンダリング部31BとVR生写真生成部31Eの機能が備えられていない。
配信者端末3のユーザである配信者がデータサーバ2から取得したバーチャルキャラクターのアバターのデータは、配信者端末3またはデータサーバ2から配信サーバ1に送信される。また、配信者端末3の配信者がデータサーバ2から取得した3D空間データは、配信者端末3またはデータサーバ2から配信サーバ1に送信される。
配信者端末3のモーションデータ生成部31Aは、配信者が手や指等に装着したコントローラ、および配信者が頭部に装着したVR用ヘッドセットを用いてモーションキャプチャを行うことにより、配信者の身体各部の座標を計測し、配信者の身体動作を3次元時系列のデータとして表すモーションデータを生成する。また、配信者端末3のモーションデータ生成部31Aは、生成したモーションデータを配信サーバ1に送信する。
配信者端末3またはデータサーバ2から配信サーバ1に送信されるアバターデータは、配信サーバ1の記憶部10におけるアバターデータ記憶領域10Eに記憶される。また、配信者端末3またはデータサーバ2から配信サーバ1に送信される3D空間データは、配信サーバ1の記憶部10における3D空間データ記憶領域10Fに記憶される。
配信サーバ1のレンダリング部11Fは、アバターデータ記憶領域30Aに記憶されたアバターのデータと、配信者端末3から送信されたモーションデータとを連動させるレンダリング処理を行う。
配信サーバ1のVR映像表示制御部11Gは、3D空間データ記憶領域10Fに記憶された3D空間データと、コメントデータ記憶領域10Cに記憶されたコメントデータと、レンダリングされたアバターのデータとを用いて、3D空間内に存在するアバターの3DCGによるVR映像を表示させるためのデータを生成する。また、VR映像表示制御部11Gは、生成したVR映像を表示させるためのデータを、配信者端末3に送信する。
配信者端末3のVR映像表示制御部31Cは、配信サーバ1から送信されるVR映像を表示させるためのデータを表示させるための制御を行い、VR映像は、配信者端末3の表示部33および表示部33に接続されたVR用のヘッドセットに表示される。
配信サーバ1のVR生写真生成部11Hは、配信者端末3の入力部34または入力部34に接続されたコントローラ(図示せず)に備えられたシャッターボタンが押下またはクリックされた際に、表示されている3D空間、アバター、およびコメントのVR映像のデータに基づいて、VR生写真データを生成する。また、VR生写真生成部31Eは、視聴者端末4に備えられたシャッターボタンが押下またはクリックされた際にも、VR生写真データを生成する。さらに、配信サーバ1のVR生写真生成部11Hは、VR生写真データを配信者端末3および視聴者端末4に送信する。
配信者端末3のVR映像表示制御部31Cは、配信サーバ1のVR写真生成部11Jから送信され、VR生写真データ記憶領域30Dに記憶されるVR生写真データに基づいて、VR生写真の映像を表示部33、および表示部33に接続されたVR用ヘッドセットに表示させる。
同様に、視聴者端末4の制御部41は、配信サーバ1から送信されるVR生写真データを、視聴者端末4の記憶部40におけるVR生写真データ記憶領域40Aに記憶させる。また、視聴者端末4のVR映像表示制御部41Aは、VR生写真データ記憶領域40Aに記憶されたVR生写真データに基づいて、アバターのVR生写真画像を生成し、表示部42に表示させる。また、VR映像表示制御部41Aは、VR生写真データに基づいて、3D空間、および存在する場合にはアクセサリおよびコメントのVR生写真画像を生成し、表示部42に表示させる。
以上のように、配信サーバ1においてレンダリングを行い、VR生写真データを生成する場合でも、視聴者は、配信者端末3のユーザの動きに対応して動くアバター等の映像と共に、視聴者によって入力され物体化されたコメントを視聴することができる。また、視聴者および配信者は、VR生写真画像を回転させたり、あるいは、アングルを変えたりして視聴することができる。
(変形例)
以上の実施形態は例示であり、この発明の範囲から離れることなく様々な変形が可能である。
上述した実施形態においては、VR用スタジオアプリケーションによりVR生写真用のシャッターボタンを表示する態様について説明したが、VR生写真用のシャッターボタンを、VR生写真撮影開始カウントダウン用の3Dアイテムとして、3D空間内に表示するようにしてもよい。例えば、看板のような3Dアイテムを3D空間内に表示させ、この3Dアイテムに「撮影準備中」とか「撮影まで後〇秒」とか「シャッターチャンス」などといった文字を表示させてもよい。あるいは、文字以外の表現でもよい。例えば、3D空間中のランプ等のアイテムを表示させ、このアイテムを点滅させてもよい。
さらに、配信者端末3において表示されるVR用スタジオの3D空間内に、配信者用の操作パネルを表示させ、操作パネルにシャッターボタンあるいは撮影カウントダウン開始ボタンを設けてもよい。また、配信者が使用するコントローラにシャッターボタンあるいは撮影カウントダウン開始ボタンを設けてもよい。
VR用スタジオアプリケーションが、配信者の所定の動作またはポーズを入力として検知して、画面上に「撮影準備中」とか「撮影まで後〇秒」とか「シャッターチャンス」などといった文字を表示させてもよい。あるいは、アイコンなどでこれらの状況を報知してもよい。
上述した実施形態においては、VR生写真を配信者端末3または視聴者端末4において視聴する態様について説明したが、例えば、配信者が、VR生写真のデータをアバター用プラットホームにアップロードできるようにしてもよい。
上述した実施形態においては、全ての視聴者端末4にVR生写真データを配信する態様について説明したが、視聴者のうち、課金した視聴者、あるいは当選した視聴者等に対してのみ、VR生写真データを提供するようにしてもよい。また、直接にVR生写真データを配信するのではなく、VR生写真を閲覧可能なURLを教えるなどの方法でもよい。
上述した実施形態においては、VR生写真を配信者端末3および視聴者端末4においてそれぞれ独立して視聴する態様について説明したが、配信者が、VR映像の生放送中に、放送画面にVR生写真を映すようにしてもいい。
VR生写真は、多少の加工またはエフェクトを加えたり、あるいはバーチャルキャラクターに名前をつけて、その名前のサインをVR生写真に加えたりしてもよい。また、VR生写真にタイムスタンプを付加してもよい。さらに、3D空間内の備品の一部をランダムで変更してVR生写真データを生成してもよい。また、誰の番組かがわかるように、番組タイトル、またはウォーターマーク等をVR生写真データに埋め込んでもよい。
上述した実施形態では、配信サーバ1およびデータサーバ2を物理的に別々に存在するサーバとして構成した態様について説明した。しかしながら、本発明はこのような態様に限定される訳ではなく、これらのサーバを全て一つのサーバで構成してもよいし、いずれか2種類のサーバを一つのサーバで構成してもよい。
以上の態様に係る各サーバのプログラム、並びに配信者端末3および視聴者端末4のアプリケーションプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体が好例であるが、半導体記録媒体や磁気記録媒体等の公知の任意の形式の記録媒体を包含し得る。なお、通信網を介した配信の形態で前述のプログラムを提供してコンピュータにインストールすることも可能である。
以上、本発明の実施形態に係るVR生放送配信システム、配信サーバ、配信サーバの制御方法、およびVR生写真データのデータ構造について説明したが、本発明は、これに限定されるものではなく、本発明の要旨を逸脱しない範囲で、種々の変更が可能である。
1 配信サーバ
2 データサーバ
3 配信者端末
4 視聴者端末
5 ネットワーク
10 記憶部
10A VR映像データ記憶領域
10B VR生写真データ記憶領域
10C コメントデータ記憶領域
11 制御部
11A VR映像データ配信部
11B VR生写真データ配信部
11C コメントデータ配信部
12 通信部
60 VR生写真データ
61 アバターデータ
61A ポリゴンデータ
61B テクスチャデータ
62 オブジェクトデータ
62A 3D空間データ
62B アクセサリデータ
62C コメントデータ

Claims (8)

  1. 配信者端末と、視聴者端末と、配信サーバとを備え、モーションデータにアバターのデータをレンダリングした3次元コンピュータグラフィックスの映像と、前記アバターが存在する3次元空間の3次元コンピュータグラフィックスの映像とを少なくとも含むVR(バーチャル・リアリティ)映像を生放送で配信するVR生放送配信システムであって、
    前記配信者端末および前記視聴者端末に備えられ、配信者または視聴者からのVR生写真の撮影指示を入力する撮影指示入力部と、
    前記配信者端末および前記配信サーバの少なくともいずれか一方に備えられ、
    前記撮影指示に基づいて、前記アバターを含む前記3次元空間全体の外観のデータを構築する外観データ構築部と、
    前記配信者端末および前記配信サーバの少なくともいずれか一方に備えられ、
    前記外観データ構築部により構築した前記アバターを含む前記3次元空間全体の外観のデータを、前記VR生写真のデータとして配信するVR生写真データ配信部と、
    前記配信者端末および前記視聴者端末に備えられ、
    前記VR生写真を表示する表示部と、
    を備えるVR生放送配信システム。
  2. 前記VR生写真データ配信部は、前記3次元空間のうち、所定の基準位置から所定距離以上離れた遠景については、データ容量を下げたデータを前記VR生写真のデータに含めて配信する、
    請求項1に記載のVR生放送配信システム。
  3. 配信者端末と、視聴者端末と、配信サーバとを備え、モーションデータにアバターのデータをレンダリングした映像、および前記アバターが存在する3次元空間の映像を含むVR映像を生放送で配信するVR生放送配信システムにおける配信サーバであって、
    前記配信者端末または前記視聴者端末からのVR生写真の撮影指示に基づいて、前記アバターを含む前記3次元空間全体の外観のデータを構築する外観データ構築部と、
    前記外観データ構築部により構築した前記アバターを含む前記3次元空間全体の外観のデータを、前記VR生写真のデータとして配信するVR生写真データ配信部と、を備える、
    配信サーバ。
  4. 前記VR生写真データ配信部は、前記3次元空間のうち、所定の基準位置から所定距離以上離れた遠景については、データ容量を下げたデータを前記VR生写真のデータに含めて配信する、
    請求項3に記載の配信サーバ。
  5. 前記VR映像をキャプチャしたキャプチャ映像を前記配信者端末から受信する映像受信部と、
    前記キャプチャ映像を前記視聴者端末に配信する映像配信部と、を備える、
    請求項3または請求項4に記載の配信サーバ。
  6. 前記視聴者端末から送信される視聴者のコメントを受信するコメント受信部と、
    前記受信したコメントを記憶するコメント記憶部と、
    前記受信したコメントを前記視聴者端末に配信するコメント配信部と、を備える、
    請求項3ないし請求項5のいずれか1項に記載の配信サーバ。
  7. 配信者端末と、視聴者端末と、配信サーバとを備え、モーションデータにアバターのデータをレンダリングした3次元コンピュータグラフィックスの映像と、前記アバターが存在する3次元空間の3次元コンピュータグラフィックスの映像とを少なくとも含むVR(バーチャル・リアリティ)映像を生放送で配信するVR生放送配信システムにおける配信サーバの制御方法であって、
    前記配信者端末または前記視聴者端末からのVR生写真の撮影指示に基づいて、外観データ構築部により、前記アバターを含む前記3次元空間全体の外観のデータを構築するステップと、
    VR生写真データ配信部により、前記外観データ構築部により構築した前記アバターを含む前記3次元空間全体の外観のデータを、前記VR生写真のデータとして配信するステップと、を備える、
    配信サーバの制御方法。
  8. 配信者端末と、視聴者端末と、配信サーバとを備え、モーションデータにアバターのデータをレンダリングした3次元コンピュータグラフィックスの映像と、前記アバターが存在する3次元空間の3次元コンピュータグラフィックスの映像とを少なくとも含むVR(バーチャル・リアリティ)映像を生放送で配信するVR生放送配信システムにおける配信サーバのプログラムであって、前記プログラムは、コンピュータに、
    前記配信者端末または前記視聴者端末からのVR生写真の撮影指示に基づいて、外観データ構築部により、前記アバターを含む前記3次元空間全体の外観のデータを構築するステップと、
    VR生写真データ配信部により、前記外観データ構築部により構築した前記アバターを含む前記3次元空間全体の外観のデータを、前記VR生写真のデータとして配信するステップと、を実行させる、
    配信サーバのプログラム。
JP2019059898A 2019-03-27 2019-03-27 Vr生放送配信システム、配信サーバ、配信サーバの制御方法、配信サーバのプログラム、およびvr生写真データのデータ構造 Active JP6581742B1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019059898A JP6581742B1 (ja) 2019-03-27 2019-03-27 Vr生放送配信システム、配信サーバ、配信サーバの制御方法、配信サーバのプログラム、およびvr生写真データのデータ構造
JP2019157622A JP7324659B2 (ja) 2019-03-27 2019-08-30 Vr生放送配信システム、配信サーバ、配信サーバの制御方法、配信サーバのプログラム、およびvr生写真データのデータ構造
CN201980094819.XA CN113646752B (zh) 2019-03-27 2019-10-24 Vr直播发布系统、发布服务器、发布服务器的控制方法、发布服务器程序的计算机可读存储介质、以及vr原始照片数据的处理方法
US17/598,825 US11995768B2 (en) 2019-03-27 2019-10-24 VR live broadcasting distribution system, distribution server, control method for distribution server control method, program for distribution server, and data structure of VR picture data
PCT/JP2019/041677 WO2020194821A1 (ja) 2019-03-27 2019-10-24 Vr生放送配信システム、配信サーバ、配信サーバの制御方法、配信サーバのプログラム、およびvr生写真データのデータ構造

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019059898A JP6581742B1 (ja) 2019-03-27 2019-03-27 Vr生放送配信システム、配信サーバ、配信サーバの制御方法、配信サーバのプログラム、およびvr生写真データのデータ構造

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019157622A Division JP7324659B2 (ja) 2019-03-27 2019-08-30 Vr生放送配信システム、配信サーバ、配信サーバの制御方法、配信サーバのプログラム、およびvr生写真データのデータ構造

Publications (2)

Publication Number Publication Date
JP6581742B1 true JP6581742B1 (ja) 2019-09-25
JP2020162004A JP2020162004A (ja) 2020-10-01

Family

ID=68053511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019059898A Active JP6581742B1 (ja) 2019-03-27 2019-03-27 Vr生放送配信システム、配信サーバ、配信サーバの制御方法、配信サーバのプログラム、およびvr生写真データのデータ構造

Country Status (4)

Country Link
US (1) US11995768B2 (ja)
JP (1) JP6581742B1 (ja)
CN (1) CN113646752B (ja)
WO (1) WO2020194821A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111541932A (zh) * 2020-04-30 2020-08-14 广州华多网络科技有限公司 直播间的用户形象展示方法、装置、设备及存储介质
CN112423020A (zh) * 2020-05-07 2021-02-26 上海哔哩哔哩科技有限公司 动作捕捉数据分发、获取方法及系统

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6581742B1 (ja) 2019-03-27 2019-09-25 株式会社ドワンゴ Vr生放送配信システム、配信サーバ、配信サーバの制御方法、配信サーバのプログラム、およびvr生写真データのデータ構造
JP6995416B1 (ja) 2021-06-09 2022-01-14 クラスター株式会社 アバター出力装置、端末装置、アバター出力方法、およびプログラム
JP7015597B1 (ja) 2021-06-25 2022-02-03 クラスター株式会社 アバター出力装置、端末装置、アバター出力方法、およびプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222698A (ja) * 1997-02-12 1998-08-21 Matsushita Electric Ind Co Ltd 3次元仮想空間の通信装置、および通信方法
JP3633452B2 (ja) * 2000-07-14 2005-03-30 日本電気株式会社 3次元仮想空間における動きのある3次元広告システム及び方法並びに記録媒体
JP4137923B2 (ja) * 2005-07-11 2008-08-20 富士通株式会社 画像表示方法および装置
JP4637889B2 (ja) * 2007-10-10 2011-02-23 ヤフー株式会社 仮想空間放送装置
JP4755672B2 (ja) * 2008-06-17 2011-08-24 ヤフー株式会社 コンテンツ編集装置、方法及びプログラム
US20100231590A1 (en) * 2009-03-10 2010-09-16 Yogurt Bilgi Teknolojileri A.S. Creating and modifying 3d object textures
US8572177B2 (en) * 2010-03-10 2013-10-29 Xmobb, Inc. 3D social platform for sharing videos and webpages
KR20130022434A (ko) * 2011-08-22 2013-03-07 (주)아이디피쉬 통신단말장치의 감정 컨텐츠 서비스 장치 및 방법, 이를 위한 감정 인지 장치 및 방법, 이를 이용한 감정 컨텐츠를 생성하고 정합하는 장치 및 방법
GB2536061B (en) * 2015-03-06 2017-10-25 Sony Interactive Entertainment Inc System, device and method of 3D printing
US20180348531A1 (en) * 2017-05-31 2018-12-06 Colopl, Inc. Method executed on computer for controlling a display of a head mount device, program for executing the method on the computer, and information processing apparatus therefor
JP6581742B1 (ja) 2019-03-27 2019-09-25 株式会社ドワンゴ Vr生放送配信システム、配信サーバ、配信サーバの制御方法、配信サーバのプログラム、およびvr生写真データのデータ構造

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111541932A (zh) * 2020-04-30 2020-08-14 广州华多网络科技有限公司 直播间的用户形象展示方法、装置、设备及存储介质
CN112423020A (zh) * 2020-05-07 2021-02-26 上海哔哩哔哩科技有限公司 动作捕捉数据分发、获取方法及系统

Also Published As

Publication number Publication date
CN113646752B (zh) 2024-04-19
JP2020162004A (ja) 2020-10-01
WO2020194821A1 (ja) 2020-10-01
CN113646752A (zh) 2021-11-12
US11995768B2 (en) 2024-05-28
US20220180601A1 (en) 2022-06-09

Similar Documents

Publication Publication Date Title
JP6581742B1 (ja) Vr生放送配信システム、配信サーバ、配信サーバの制御方法、配信サーバのプログラム、およびvr生写真データのデータ構造
US11861059B2 (en) System and method for generating a virtual reality scene based on individual asynchronous motion capture recordings
KR102215166B1 (ko) 제공장치, 제공방법 및 컴퓨터 프로그램
US20210211632A1 (en) Three-dimensional content distribution system, three-dimensional content distribution method and computer program
US12002223B2 (en) Digital representation of multi-sensor data stream
US20190138796A1 (en) Information processing device, information processing system, facial image output method, and program
US11956408B2 (en) Information processing system, information processing method, and storage medium
JP6011567B2 (ja) 情報処理装置、その制御方法、及びプログラム
KR101752691B1 (ko) 시점 선택이 가능한 3차원 가상 콘텐츠 동영상을 제공하는 장치 및 그 방법
JP6572368B2 (ja) 生成装置および生成方法、プログラム
JP7324659B2 (ja) Vr生放送配信システム、配信サーバ、配信サーバの制御方法、配信サーバのプログラム、およびvr生写真データのデータ構造
JP2020074108A (ja) 情報処理システム、その制御方法、及びプログラム
JP7250721B2 (ja) コンピュータプログラム、サーバ装置、端末装置、及び方法
JP6638326B2 (ja) 情報処理システム、その制御方法、及びプログラム
JP6931375B2 (ja) 送信装置および送信方法、プログラム
US20210400255A1 (en) Image processing apparatus, image processing method, and program
WO2023081213A1 (en) Video processing systems and methods
JP2021189544A (ja) コンピュータプログラム、及び方法
JP2021182443A (ja) 送信装置および送信方法、プログラム
JP6209835B2 (ja) 情報処理システム、サーバ装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190327

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190327

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190830

R150 Certificate of patent or registration of utility model

Ref document number: 6581742

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250