JP2022177053A - Information processing system, information processing method, and information processing program - Google Patents

Information processing system, information processing method, and information processing program Download PDF

Info

Publication number
JP2022177053A
JP2022177053A JP2022138117A JP2022138117A JP2022177053A JP 2022177053 A JP2022177053 A JP 2022177053A JP 2022138117 A JP2022138117 A JP 2022138117A JP 2022138117 A JP2022138117 A JP 2022138117A JP 2022177053 A JP2022177053 A JP 2022177053A
Authority
JP
Japan
Prior art keywords
video data
virtual camera
information processing
video
processing system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022138117A
Other languages
Japanese (ja)
Other versions
JP7368886B2 (en
Inventor
暁彦 白井
Akihiko Shirai
久貴 鈴木
Hisataka Suzuki
裕太 山口
Yuta Yamaguchi
一造 米澤
Ichizo Yonezawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2022138117A priority Critical patent/JP7368886B2/en
Publication of JP2022177053A publication Critical patent/JP2022177053A/en
Priority to JP2023173869A priority patent/JP2023181217A/en
Application granted granted Critical
Publication of JP7368886B2 publication Critical patent/JP7368886B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology that enables real-time and asynchronous bidirectional participation of an event in a 3D space drawn by CG using a 2D video device.
SOLUTION: An information processing system includes video data generation means that generates multi-viewpoint 3D video data obtained by shooting a shooting target from multiple viewpoints, means that accepts a viewpoint setting for multi-view 3D video data, means that generates a video when the shooting target is viewed from the received viewpoint, means that provides the generated video to a viewer device, means that receives reaction to the video from the viewer device, and means that records the set viewpoint, a time in the multi-view 3D video data, and the reaction.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2023,JPO&INPIT

Description

特許法第30条第2項適用申請有り (公開1) 掲載日 平成28年6月20日 http://cedec.cesa.or.jp/2016/whatsnew/session.html#session0620 http://cedec.cesa.or.jp/2016/session/AC/8656.html (公開2) 掲載日 平成28年8月22日 https://www.youtube.com/watch?v=KwOZGsZN2A8 (公開3) 開催日 平成28年8月24日~平成28年8月26日 集会名 コンピュータエンターテインメントデベロッパーズ 開催場所 パシフィコ横浜・会議センター カンファレンス(CEDEC2016)(横浜市西区みなとみらい1-1-1) (公開4) 掲載日 平成28年9月13日 http://blog.shirai.la/blog/2016/09/tgs2016/ (公開5) 展示日 平成28年9月15日~平成28年9月18日 展示会名 東京ゲームショウ2016 開催場所 幕張メッセ(千葉市美浜区中瀬2-1) (公開6) 掲載日 平成28年9月20日 http://blog.shirai.la/blog/2016/09/dcexpo2016/ (公開7) 掲載日 平成28年10月5日 http://blog.shirai.la/blog/2016/10/virtual-cafe/Patent Law Article 30, Paragraph 2 application filed (Publication 1) Posting date June 20, 2016 http://cedec. cesa. or. jp/2016/whatsnew/session. html#session0620 http://cedec. cesa. or. jp/2016/session/AC/8656. html (Publication 2) Publication date August 22, 2016 https://www. youtube. com/watch? v=KwOZGsZN2A8 (Public 3) Date August 24, 2016 to August 26, 2016 Meeting Name Computer Entertainment Developers Venue Pacifico Yokohama Conference Center Conference (CEDEC2016) (1-1-1 Minatomirai, Nishi-ku, Yokohama) ) (Publication 4) Publication date September 13, 2016 http://blog. Shirai. la/blog/2016/09/tgs2016/ (Public 5) Exhibition date September 15, 2016 to September 18, 2016 Exhibition name Tokyo Game Show 2016 Venue Makuhari Messe (2-Nakase, Mihama-ku, Chiba-shi 1) (Publication 6) Posting date September 20, 2016 http://blog. Shirai. la/blog/2016/09/dcexpo2016/ (Publication 7) Posting date October 5, 2016 http://blog. Shirai. la/blog/2016/10/virtual-cafe/

本開示は、情報処理システム、情報処理方法、および情報処理プログラムに関する。 The present disclosure relates to an information processing system, an information processing method, and an information processing program.

近年、ICT(Information and Communication Technology:情報通信技術)の発展に伴い、CG(Computer Graphics)で描画された仮想的な3次元空間を用いた様々なコンテンツが提案されている。このようなコンテンツとして、VR(Virtual Reality)コンテンツやゲームコンテンツ、eスポーツ(electronic sports)コンテンツ等が例示される。 In recent years, with the development of ICT (Information and Communication Technology), various contents using a virtual three-dimensional space drawn by CG (Computer Graphics) have been proposed. Examples of such content include VR (Virtual Reality) content, game content, e-sports (electronic sports) content, and the like.

上記コンテンツを利用する利用者(以下、ユーザとも称す)は、例えば、HMD(Head-Mount Display)等の3次元映像を視聴可能なデバイスを装着することで、CGで描画された仮想的な3次元空間をユーザ視点で立体視することが可能になる。さらに、ユーザの頭部や腕部といった身体の動きや位置等を検知するセンサ等が装着される場合には、例えば、ユーザの動作に応じて3次元空間内の移動、3次元空間内に配置されたオブジェクトへの働きかけといった行動が可能になる。3次元空間内に配置されたオブジェクトには、例えば、上記コンテンツを利用する他のユーザが操作可能なオブジェクト(例えば、キャラクタやアバター)が含まれる。 A user (hereinafter also referred to as a user) who uses the content described above can, for example, wear a device capable of viewing 3D video such as an HMD (Head-Mount Display), thereby creating a virtual 3D image rendered by CG. It becomes possible to stereoscopically view the dimensional space from the user's viewpoint. Furthermore, when a sensor or the like that detects the movement and position of the user's body such as the head and arms is worn, for example, it can move within the three-dimensional space according to the user's motion, and can be arranged within the three-dimensional space. It is possible to perform actions such as working on the object that has been touched. Objects arranged in the three-dimensional space include, for example, objects (such as characters and avatars) that can be operated by other users who use the content.

ゲーム、eスポーツ等のコンテンツでは、例えば、他のユーザの操作するオブジェクトとの間で、自身の行動によって生じたイベントに対する応答や会話、競争や対戦等が可能になる。コンテンツに参加するユーザ間では、それぞれの視点で、上記行動によって生じたイベントによる3次元空間内の衝突や物理的な相互作用を、コンテンツの定める所定のルールに従って楽しむことができる。 In content such as games and e-sports, for example, it is possible to respond to an event caused by one's own actions, have a conversation with an object operated by another user, have a competition, have a match, and the like. Users participating in the content can enjoy collisions and physical interactions in the three-dimensional space due to events caused by the above actions from their respective viewpoints according to predetermined rules defined by the content.

なお、本明細書で説明する技術に関連する技術が記載されている先行技術文献としては、以下の特許文献が存在している。 The following patent documents exist as prior art documents that describe technology related to the technology described in this specification.

特開2011-150402号公報JP 2011-150402 A 特開2001-300131号公報Japanese Patent Application Laid-Open No. 2001-300131 特開平11-123280号公報JP-A-11-123280

コンテンツの形態として、会議場やオフィス、学校、ショッピングモールといった3次元空間をCGで描画し、上記3次元空間内に複数のユーザがリアルタイムで参加するリモート会議やVRオフィス、e-ラーニング、e-コマース等が想定される。 As a form of content, three-dimensional spaces such as conference halls, offices, schools, and shopping malls are drawn with CG, and multiple users participate in the three-dimensional space in real time. Remote meetings, VR offices, e-learning, e- Commerce, etc. are assumed.

上記の形態では、例えば、描画された3次元空間のユーザ間のやり取りを発言者等としてリアルタイムに参加するだけでなく、事後や聴者として映像で視聴する利用者向けの配信や、その視聴環境・視聴形態、メディア変換の需要は想定される。 In the above form, for example, not only can users participate in real-time interaction as speakers in the drawn three-dimensional space, but also distribution for users who watch video after the fact or as listeners, and the viewing environment / Demand for viewing formats and media conversion is expected.

配信等された3次元空間の映像を事後に視聴する場合には、例えば、HMD等の3次元映像を視聴するための専用デバイスの購入や3次元映像受信のための視聴環境整備に係る負担が想定される。 In the case of viewing distributed 3D space images after the fact, for example, there is a burden associated with purchasing a dedicated device for viewing 3D images such as an HMD and preparing a viewing environment for receiving 3D images. is assumed.

本開示は、撮影対象の多視点3次元動画データに基づいて、受け付けた視点からの動画を再現できる技術の提供を目的とする。 An object of the present disclosure is to provide technology capable of reproducing a moving image from an accepted viewpoint based on multi-viewpoint 3D moving image data to be captured.

開示の技術の一側面は、情報処理システムによって例示される。この情報処理システムは、撮影対象の多視点3次元動画データを生成する動画データ生成手段と、前記多視点3次元動画データに対して視点の設定を受け付ける手段と、前記受け付けた視点から前記撮影対象をみたときの動画を生成する動画生成手段と、前記生成された動画を視聴者装置に提供する手段と、前記設定された視点を記録する記録手段と、を備える。 One aspect of the disclosed technology is exemplified by an information processing system. This information processing system includes moving image data generating means for generating multi-viewpoint 3D moving image data of an object to be shot, means for receiving setting of viewpoints for the multi-viewpoint 3D moving image data, a moving image generating means for generating a moving image when viewing the video, means for providing the generated moving image to a viewer device, and recording means for recording the set viewpoint.

開示の技術の一側面によれば、撮影対象の多視点3次元動画データに基づいて、受け付けた視点からの動画を再現できる技術を提供できる。 According to one aspect of the disclosed technique, it is possible to provide a technique capable of reproducing a moving image from a received viewpoint based on multi-viewpoint 3D moving image data of a shooting target.

情報処理システムの一例を示す構成図である。1 is a configuration diagram showing an example of an information processing system; FIG. コンピュータのハードウェア構成の一例を示す構成図である。1 is a configuration diagram showing an example of a hardware configuration of a computer; FIG. 3DCG空間内のオブジェクトについて保存されるデータ構成の一例を示す図である。FIG. 4 is a diagram showing an example of a data structure saved for objects in a 3DCG space; シーンマネージャのイベントに係る事象の記録処理を例示するフローチャートである。FIG. 11 is a flow chart illustrating an event recording process related to an event of a scene manager; FIG. シーンマネージャのバーチャルカメラの設定処理を例示するフローチャートである。FIG. 11 is a flowchart illustrating setting processing of a virtual camera of a scene manager; FIG. バーチャルカメラのカメラ方向の設定を説明する説明図である。FIG. 4 is an explanatory diagram for explaining setting of a camera direction of a virtual camera; 実空間の会議場を撮影するカメラを備える情報処理システムの一例を示す構成図である。1 is a configuration diagram showing an example of an information processing system provided with a camera that captures images of a conference hall in real space; FIG. クロマキー合成を用いる際の、実空間における被写体の撮影を説明する図である。FIG. 10 is a diagram for explaining photographing of a subject in real space when using chromakey synthesis; クロマキー合成を用いる際の、実空間における被写体の撮影を説明する図である。FIG. 10 is a diagram for explaining photographing of a subject in real space when using chromakey synthesis; 合成映像の一例を示す図である。It is a figure which shows an example of a synthetic image. 2D映像デバイスに表示された合成映像の一例を示す図である。FIG. 10 is a diagram showing an example of a composite video displayed on a 2D video device; HMDを装着した被写体がリモート会議に参加する形態の説明図である。FIG. 4 is an explanatory diagram of a form in which a subject wearing an HMD participates in a remote conference; HMDを装着しない被写体がリモート会議に参加する形態の説明図である。FIG. 10 is an explanatory diagram of a mode in which a subject not wearing an HMD participates in a remote conference; HMDを装着しない被写体が事後に再生されるリモート会議に参加する形態の説明図である。FIG. 10 is an explanatory diagram of a form in which a subject not wearing an HMD participates in a remote conference that is played back after the fact; 実空間を撮影するカメラを備える場合の、シーンマネージャのイベントに係る事象の記録処理を例示するフローチャートである。10 is a flow chart illustrating an event recording process related to an event of a scene manager when a camera that captures a real space is provided.

以下、図面を参照して、一実施形態に係る情報処理システムについて説明する。以下の実施形態の構成は例示であり、本情報処理システムは、以下の実施形態の構成には限定されない。 An information processing system according to an embodiment will be described below with reference to the drawings. The configurations of the following embodiments are examples, and the information processing system is not limited to the configurations of the following embodiments.

<実施形態>
〔1.システム構成〕
図1は、本実施形態に係る情報処理システムの一例を示す構成図である。先ず、図1に示す情報処理システム10の概要を説明する。図1の形態においては、例えば、CGで作成された3次元空間(以下、「3DCG空間」とも称す)内に会議場が設けられ、リモート会議等のコンテンツが提供される。ここで、「リモート会議」とは、ネットワークに接続する複数の会議参加者が3DCG空間内の会議場を共有し、リアルタイムで行う会議をいう。ネットワークに接続する複数の会議参加者は、3DCG空間で操作可能なオブジェクト(アバター等)を介し、会議における発言や対話、他者への働きかけや移動等の行動を行う。会議進行の様子は、会議参加者の備えるHMD等に、それぞれのアバター視点から見た3DCGの動画映像として提供される。
但し、情報処理システム10が提供するコンテンツは、3DCG空間で仮想的に形成されたVRオフィス、ゲーム、e-ラーニング等であってもよい。コンテンツは、3DCG空間内において、ユーザの行動や移動等で生じたイベントによる衝突や物理的な相互作用を、コンテンツの定める所定のルールに従って提供可能であればよい。
以下においては、情報処理システム10の提供するコンテンツは、3DCG空間に設けられた会議場を使用するリモート会議として説明する。また、CGで作成された3次元空間の動画映像を「立体映像」とも称する。
<Embodiment>
[1. System configuration〕
FIG. 1 is a configuration diagram showing an example of an information processing system according to this embodiment. First, an outline of the information processing system 10 shown in FIG. 1 will be described. In the form of FIG. 1, for example, a conference hall is provided in a three-dimensional space created by CG (hereinafter also referred to as "3DCG space"), and contents such as remote conferences are provided. Here, "remote conference" refers to a conference held in real time by a plurality of conference participants connected to a network, sharing a conference center in a 3DCG space. A plurality of conference participants connected to the network perform actions such as speaking and interacting in the conference, reaching out to others, and moving through objects (avatars, etc.) that can be manipulated in the 3DCG space. The proceedings of the conference are provided to the HMDs and the like of the conference participants as 3DCG moving images viewed from the viewpoint of each avatar.
However, the content provided by the information processing system 10 may be VR offices, games, e-learning, etc. that are virtually created in a 3DCG space. The content only needs to be able to provide collisions and physical interactions due to events caused by user actions and movements in the 3DCG space according to predetermined rules defined by the content.
Content provided by the information processing system 10 will be described below as a remote conference using a conference hall provided in a 3DCG space. In addition, moving images in three-dimensional space created by CG are also referred to as “stereoscopic images”.

3DCG空間内には、例えば、机、椅子、白板、壁、床、窓、扉、天井といったリモート会議の会議場を構成する様々な構成物のオブジェクトが配置される。同様にして、リモート会議に参加する複数の会議参加者についてのアバターが3DCG空間内に配置される。アバターは、会議参加者が操作可能なオブジェクトである。3DCG空間内に配置されるオブジェクトは、例えば、描画要素であるポリゴン(polygon)の集合体である。オブジェクトを構成する各ポリゴンは共通の座標軸を有する。3DCG空間内のワールド座標系における、オブジェクトの形状、配置位置、向き等は、上記座標軸上の3次元座標(X,Y,Z)により表される。 In the 3DCG space, for example, objects of various configurations, such as desks, chairs, whiteboards, walls, floors, windows, doors, and ceilings, which constitute the conference hall of the remote conference, are arranged. Similarly, avatars for multiple conference participants participating in the remote conference are arranged in the 3DCG space. Avatars are objects that can be manipulated by conference participants. An object placed in the 3DCG space is, for example, a collection of polygons, which are rendering elements. Each polygon forming an object has a common coordinate axis. The shape, position, orientation, etc. of an object in the world coordinate system within the 3DCG space are represented by three-dimensional coordinates (X, Y, Z) on the coordinate axes.

会議参加者は、例えば、HMD等の立体映像を視認可能するデバイス(以下、3D映像デバイスとも称す)、身体の動きや位置を検知するセンサデバイス、マイクやヘッドフォン等の音響デバイスを備え、リモート会議に参加する。進行中のリモート会議の様子は、会議参加者に対し、それぞれのアバター視点を介した立体映像としてリアルタイムに提供される。会議参加者は、会議進行に伴うプロセスの立体映像をアバター視点で視聴すると共に、立体映像を視聴しながらアバターを操作し、会議場の移動や他の会議参加者への対話や働きかけ(行動)を行う。リモート会議内での発言は、例えば、マイクやヘッドフォン等の音響デバイスを介して行われる。会議進行に伴うプロセスで生じた各会議参加者の行動に対応したイベント(例えば、会話や提案、離席等の行動)は、視聴中の立体映像に反映される。 A conference participant is equipped with, for example, a device that can visually recognize a stereoscopic image such as an HMD (hereinafter also referred to as a 3D image device), a sensor device that detects the movement and position of the body, and an audio device such as a microphone or headphones. I will participate in. The state of the remote conference in progress is provided to the conference participants in real time as a stereoscopic image through each avatar's viewpoint. Conference participants view 3D images of the process accompanying the progress of the conference from the avatar's point of view, operate the avatars while watching the 3D images, move around the conference venue, and interact with and encourage other conference participants (behavior). I do. Speech in a remote conference is made through an audio device such as a microphone or headphones, for example. Events (for example, actions such as conversations, proposals, leaving seats, etc.) corresponding to the actions of each conference participant occurring in the process accompanying the progress of the conference are reflected in the stereoscopic video being viewed.

本実施形態に係る情報処理システム10は、リモート会議が進行する3DCG空間を、任意の視点位置から見た立体映像として中継する機能を備える。リモート会議が進行する3DCG空間内の視点位置は、例えば、仮想的なカメラであるバーチャルカメラによって指定される。バーチャルカメラは、リモート会議が進行する3DCG空間内の任意の位置に移動可能である。バーチャルカメラは、会議場内に配置されたオブジェクトやアバター、および、会議進行に伴うプロセスで発生したイベント等の事象を、任意の視点位置から見た立体映像として中継する。リモート会議が進行する3DCG空間を中継する中継者が存在する場合には、バーチャルカメラの視点位置は中継者の操作に従って設定される。 The information processing system 10 according to the present embodiment has a function of relaying a 3DCG space in which a remote conference proceeds as a stereoscopic image viewed from an arbitrary viewpoint position. A viewpoint position in the 3DCG space where the remote conference proceeds is designated by, for example, a virtual camera. The virtual camera can be moved to any position within the 3DCG space where the remote conference is proceeding. The virtual camera relays objects and avatars placed in the conference hall, and phenomena such as events occurring in the process accompanying the progress of the conference as stereoscopic images viewed from arbitrary viewpoint positions. If there is a relay relaying the 3DCG space in which the remote conference is proceeding, the viewpoint position of the virtual camera is set according to the relay operator's operation.

本実施形態に係る情報処理システム10は、バーチャルカメラの中継する立体映像を2次元映像に変換する機能を備える。変換後の2次元映像は、例えば、リモート会議の様子を視聴する視聴者にリアルタイム、あるいは、事後に配信される。視聴者は、例えば、スマートフォン、携帯電話、タブレットPC(Personal Computer)等の2次元映像が視聴可能なデバイス(以下、2D映像デバイスとも称す)を介して、リモート会議の配信映像を視聴する。 The information processing system 10 according to this embodiment has a function of converting a stereoscopic video relayed by a virtual camera into a two-dimensional video. The converted two-dimensional video is distributed to viewers watching the remote conference in real time or after the fact, for example. A viewer views a delivered video of a remote conference via a device capable of viewing two-dimensional video (hereinafter also referred to as a 2D video device) such as a smartphone, a mobile phone, a tablet PC (Personal Computer), for example.

本実施形態に係る情報処理システム10は、2次元映像を視聴する視聴者からのメッセージ(文字、音声、動作等のリアクション信号)を受け付ける機能を備える。情報処理システム10は、例えば、受け付けたメッセージに基づいて、リモート会議が進行する3DCG空間内の、バーチャルカメラの視点位置を移動させる。情報処理システム10は、例えば、受け付けたメッセージを中継者に通知し、通知を受けた中継者の操作に従ってバーチャルカメラの視点位置を移動させる。リモート会議が進行中の場合には、バーチャルカメラの中継する立体映像は視点位置の移動に従って更新され、視聴者から受け付けた視点位置が視聴中の2次元映像に反映される。 The information processing system 10 according to the present embodiment has a function of receiving messages (reaction signals such as text, voice, and actions) from viewers who view two-dimensional images. The information processing system 10, for example, moves the viewpoint position of the virtual camera in the 3DCG space where the remote conference progresses, based on the received message. For example, the information processing system 10 notifies the relayer of the received message, and moves the viewpoint position of the virtual camera according to the operation of the notified relayer. When the remote conference is in progress, the stereoscopic video relayed by the virtual camera is updated according to the movement of the viewpoint position, and the viewpoint position received from the viewer is reflected in the two-dimensional video being viewed.

本実施形態に係る情報処理システム10は、リモート会議が進行する3DCG空間の事象、バーチャルカメラ情報(視点位置、焦点距離、回転、ズームパラメータ等)を記録する機能を有する。3DCG空間の事象は、会議進行に伴うプロセスで発生した、各会議参加者の行動に伴うイベントに応じて3DCG空間内を移動する各オブジェクトの座標を含む。3DCG空間の事象には、会議参加者の音声データが含まれる。例えば、記録された音声データ等に基づいてリモート会議の議事録等が作成される。情報処理システム10は、記録された上記情報に基づいてバーチャルカメラの視点位置による立体映像を生成し、生成された立体映像に基づく2次元映像を、事後の視聴者に配信する。事後の視聴においても視聴者からのメッセージが受け付けられ、事後の視聴者による視点位置が視聴中の2次元映像に反映される。 The information processing system 10 according to this embodiment has a function of recording events in the 3DCG space in which the remote conference proceeds, and virtual camera information (viewpoint position, focal length, rotation, zoom parameters, etc.). The event in the 3DCG space includes the coordinates of each object that moves within the 3DCG space according to the event that occurs in the process of progressing the conference and that accompanies the actions of each conference participant. Events in the 3DCG space include voice data of conference participants. For example, minutes or the like of the remote conference are created based on the recorded voice data or the like. The information processing system 10 generates a 3D image based on the viewpoint position of the virtual camera based on the recorded information, and distributes a 2D image based on the generated 3D image to viewers after the event. Messages from viewers are also received in subsequent viewings, and viewpoint positions of the viewers after viewing are reflected in the two-dimensional video being viewed.

次に、図1に示す情報処理システム10の構成を説明する。
図1に示す情報処理システム10は、シーンマネージャSMと、バーチャルカメラVCと、カメラプロセッサCと、レンダラRと、配信サーバCHとを主に備える。上記の各構成は、LAN(Local Area Network)等のネットワークを介して接続する。ネットワークには、バーチャルカメラVC、カメラプロセッサC、レンダラRのそれぞれが複数に接続し得る。図1においては、バーチャルカメラVC1、VC2、VC3、カメラプロセッサC1、C2、C3、レンダラR1、R2、R3が例示される。なお、以下の説明においては、複数のバーチャルカメラVC1、VC2、VC3を総称してバーチャルカメラVCという。カメラプロセッサC、レンダラRについても同様である。
Next, the configuration of the information processing system 10 shown in FIG. 1 will be described.
The information processing system 10 shown in FIG. 1 mainly includes a scene manager SM, a virtual camera VC, a camera processor C, a renderer R, and a distribution server CH. Each of the above configurations is connected via a network such as a LAN (Local Area Network). Multiple virtual cameras VC, camera processors C, and renderers R can be connected to the network. FIG. 1 illustrates virtual cameras VC1, VC2, VC3, camera processors C1, C2, C3, and renderers R1, R2, R3. In the following description, a plurality of virtual cameras VC1, VC2, and VC3 are collectively referred to as virtual camera VC. The camera processor C and renderer R are the same.

また、シーンマネージャSMと配信サーバCHとは、外部ネットワークに接続する。外部ネットワークは、インターネットといった公衆ネットワーク、携帯電話網、有線無線LAN(Local Area Network)を含む。外部ネットワークには、2次元映像を視聴する視聴者(Viewer)の2D映像デバイスが複数に接続する。なお、情報処理システム10は、シーンマネージャSMと、配信サーバCHとを複数に備えるとしてもよい。また、情報処理システム10は、バーチャルカメラVCと、カメラプロセッサCと、レンダラRとが有する機能を一体化して備えるとしてもよい。 Also, the scene manager SM and distribution server CH are connected to an external network. External networks include public networks such as the Internet, mobile phone networks, and wired and wireless LANs (Local Area Networks). A plurality of 2D video devices of viewers who view 2D video are connected to the external network. The information processing system 10 may include a plurality of scene managers SM and distribution servers CH. Also, the information processing system 10 may have the functions of the virtual camera VC, the camera processor C, and the renderer R integrated.

図1において、A1は、バーチャルカメラVC1の視点位置を操作する配信者U1が視聴中の立体映像を表す。配信者U1が視聴中の立体映像A1には、バーチャルカメラVC1の視点位置から見たリモート会議の会議参加者(P1、P2、P3)のアバターが含まれる。なお、アバターの視点位置の立体映像には、バーチャルカメラVC1の視点位置を操作する配信者U1は描画されない。 In FIG. 1, A1 represents the stereoscopic video being viewed by the distributor U1 who operates the viewpoint position of the virtual camera VC1. The stereoscopic video A1 being viewed by the distributor U1 includes the avatars of the conference participants (P1, P2, P3) of the remote conference viewed from the viewpoint position of the virtual camera VC1. Note that the distributor U1 who operates the viewpoint position of the virtual camera VC1 is not drawn in the stereoscopic video of the avatar's viewpoint position.

立体映像A1内のバーチャルカメラVC2、VC3は、3DCG空間内にオブジェクトとして配置されたバーチャルカメラVCである。バーチャルカメラVC2は、例えば、会議参加者P2の動きを追従する。バーチャルカメラVC3は、例えば、会議参加者P3の動きを追従する。 The virtual cameras VC2 and VC3 in the stereoscopic video A1 are virtual cameras VC arranged as objects in the 3DCG space. Virtual camera VC2 follows the movement of conference participant P2, for example. Virtual camera VC3 follows the movement of conference participant P3, for example.

配信者U1は、自身が操作するバーチャルカメラVC1の立体映像を視聴するHMD1を装着する。配信者U1が装着するHMD1には、ヘッドフォン、インカムといった音響デバイスが含まれる。また、配信者U1は、例えば、3DCG空間内におけるバーチャルカメラVC1の視点位置を指定するためのコントローラCNを備える。コントローラCNは、3DCG空間を立体視するための2つの視点位置を操作するユーザ入力デバイスである。コントローラCNには、バーチャルカメラVC1の回転角度を検知するセンサ(加速度センサ、ジャイロセンサ、地磁気センサ、画像センサ等)が含まれる。なお、バーチャルカメラVC1、VC2、VC3で中継中の立体映像を切替える機能を有するとしてもよい。また、バーチャルカメラVC1の視点位置を操作する配信者は、複数に存在するとしてもよい。 A distributor U1 wears an HMD1 for viewing stereoscopic video from a virtual camera VC1 operated by himself. The HMD 1 worn by the distributor U1 includes audio devices such as headphones and an intercom. Also, the distributor U1 has a controller CN for designating the viewpoint position of the virtual camera VC1 in the 3DCG space, for example. The controller CN is a user input device that operates two viewpoint positions for stereoscopically viewing a 3DCG space. The controller CN includes a sensor (acceleration sensor, gyro sensor, geomagnetic sensor, image sensor, etc.) that detects the rotation angle of the virtual camera VC1. Note that the virtual cameras VC1, VC2, and VC3 may have a function of switching the stereoscopic video being relayed. Also, there may be a plurality of distributors who operate the viewpoint position of the virtual camera VC1.

シーンマネージャSMは、リモート会議といった3DCG空間の立体映像を作成するアプリケーションプログラムが動作するプラットフォームである。プラットフォームは、例えば、サーバ、WS(WorkStation)等の情報処理装置によって構成されたコンピュータシステムである。 The scene manager SM is a platform on which an application program that creates stereoscopic video in a 3DCG space such as a remote conference operates. The platform is, for example, a computer system configured by an information processing device such as a server and WS (WorkStation).

シーンマネージャSMは、アプリケーションプログラムの実行により、3DCG空間の映像を作成し、リモート会議参加者にアバター視点を介した立体映像をリアルタイムで提供する。同様に、シーンマネージャSMは、アプリケーションプログラムの実行により、バーチャルカメラVCの視点位置から見た3DCG空間の立体映像を作成し、レンダラRに送信する。シーンマネージャSMは、バーチャルカメラVC1の視点位置を操作する配信者U1に対して、バーチャルカメラVC1、VC2、VC3のそれぞれの視点位置から見た3DCG空間の立体映像を出力する。配信者U1は、HMD等を介してバーチャルカメラVC1、VC2、VC3の視点位置から見た3DCG空間の立体映像を視聴する。なお、HMD等に表示される立体映像は、配信者U1の操作入力を受け付けるコントローラCNを介して切替えられる。 The scene manager SM creates a 3DCG space image by executing an application program, and provides remote conference participants with a stereoscopic image in real time through the avatar's viewpoint. Similarly, the scene manager SM creates a stereoscopic image of the 3DCG space viewed from the viewpoint position of the virtual camera VC by executing the application program, and transmits it to the renderer R. FIG. The scene manager SM outputs stereoscopic video in the 3DCG space seen from the respective viewpoint positions of the virtual cameras VC1, VC2, and VC3 to the distributor U1 who operates the viewpoint position of the virtual camera VC1. The distributor U1 views stereoscopic video in the 3DCG space viewed from the viewpoint positions of the virtual cameras VC1, VC2, and VC3 via an HMD or the like. Note that the stereoscopic video displayed on the HMD or the like is switched via a controller CN that receives an operation input from the distributor U1.

シーンマネージャSMは、3DCD空間の会議室を構成する構造物やアバター等のオブジェクトのデータをタイムコードに対応付けて保存・管理する。ここで、「タイムコード」とは、3DCG空間内における絶対的な時間を表現するカウンタである。リモート会議の進行に伴うプロセスで発生したイベントに係る全ての事象は、タイムコードにより保存・管理される。 The scene manager SM stores and manages the data of objects such as structures and avatars that make up the conference room in the 3DCD space in association with time codes. Here, the "time code" is a counter that expresses absolute time in the 3DCG space. All events related to events that occur in the process of progressing remote meetings are stored and managed by timecode.

シーンマネージャSMは、外部ネットワークに接続されたスマートフォン等の2D映像デバイスから送信されたメッセージを受信する。メッセージには、事後あるいはリアルタイムに配信された2次元映像の視聴者からの、文字、音声、動作等のリアクション信号等が含まれる。シーンマネージャSMは、受け付けたメッセージに基づいて、リモート会議が進行する3DCG空間内の、バーチャルカメラVCの視点位置を移動させる。あるいは、シーンマネージャSMは、3DCG空間内の、バーチャルカメラVC1の視点位置を操作する配信者U1に対して、受け付けたメッセージに基づく視点位置を通知する。配信者は、例えば、HMDに表示された視点位置の移動の通知(文字やマーカ等)、あるいは、音声通知等を介してシーンマネージャSMからの指示を受け付け、バーチャルカメラVC1の視点位置を移動させる。なお、シーンマネージャSMが受信したメッセージは、タイムコードに対応付けられて保存される。 The scene manager SM receives messages sent from 2D video devices such as smartphones connected to an external network. The message includes reaction signals such as characters, voices, and actions from viewers of the two-dimensional video distributed after the event or in real time. The scene manager SM moves the viewpoint position of the virtual camera VC within the 3DCG space in which the remote conference proceeds based on the received message. Alternatively, the scene manager SM notifies the distributor U1, who operates the viewpoint position of the virtual camera VC1 in the 3DCG space, of the viewpoint position based on the received message. The distributor receives instructions from the scene manager SM via, for example, notification of movement of the viewpoint position displayed on the HMD (characters, markers, etc.) or voice notification, etc., and moves the viewpoint position of the virtual camera VC1. . Note that the message received by the scene manager SM is stored in association with the time code.

コンピュータプログラムの実行によってシーンマネージャSMが提供する機能は、「撮影対象を多視点で撮影した多視点3次元動画データを生成する動画データ生成手段」の一例である。同様にして、コンピュータプログラムの実行によってシーンマネージャSMが提供する機能は、「視聴者装置から動画に対する反応を受け付ける手段の」一例である。
同様にして、コンピュータプログラムの実行によってシーンマネージャSMが提供する機
能は、「設定された視点と、多視点3次元動画データ中の時刻と、反応を記録する手段」
の一例である。
The function provided by the scene manager SM by executing a computer program is an example of "moving image data generating means for generating multi-viewpoint three-dimensional moving image data obtained by photographing an object to be photographed from multiple viewpoints". Similarly, the function provided by the scene manager SM by executing a computer program is an example of "means for receiving reactions to moving images from viewer devices."
Similarly, the functions provided by the scene manager SM by executing a computer program are "means for recording set viewpoints, times in multi-viewpoint 3D video data, and reactions".
is an example.

バーチャルカメラVCは、リモート会議が進行する3DCG空間の立体映像を中継するための視点位置を指定する仮想的なデバイスである。バーチャルカメラVCは、3DCG空間を立体映像として中継するために、2つの視点位置、2つの視点位置から決定される輻輳点をカメラ情報として有する。配信者U1の操作が介在しないバーチャルカメラVCでは、3DCG空間内における配置位置はシーンマネージャSMによって決定される。バーチャルカメラVCは、例えば、3DCG空間内に会議参加者が視覚可能なオブジェクトとして描画されてもよく、会議参加者に視認されないようにしてもよい。また、バーチャルカメラVCのオブジェクトは、立体映像A1内のバーチャルカメラVC2、VC3のように、配信者U1の視聴する立体映像内に限定して描画し、視聴者には見せないようにしてもよい。バーチャルカメラVCの焦点距離やズームパラメータ、回転、視点位置等のバーチャルカメラ情報(以下、単に「カメラ情報」とも称す)はシーンマネージャSM、あるいは、バーチャルカメラVCを操作する配信者U1により制御される。バーチャルカメラVCは、「多視点3次元動画データに対して視点の設定を受け付ける手段」の一例である。 The virtual camera VC is a virtual device that designates a viewpoint position for relaying stereoscopic video in a 3DCG space in which a remote conference is proceeding. The virtual camera VC has two viewpoint positions and a convergence point determined from the two viewpoint positions as camera information in order to relay the 3DCG space as a stereoscopic image. In the virtual camera VC that is not operated by the distributor U1, the arrangement position in the 3DCG space is determined by the scene manager SM. For example, the virtual camera VC may be rendered as an object visible to the conference participants in the 3DCG space, or may be invisible to the conference participants. Also, the objects of the virtual camera VC may be drawn only within the stereoscopic video viewed by the distributor U1, such as the virtual cameras VC2 and VC3 in the stereoscopic video A1, and may not be shown to the viewers. . Virtual camera information such as the focal length, zoom parameters, rotation, and viewpoint position of the virtual camera VC (hereinafter also simply referred to as "camera information") is controlled by the scene manager SM or the distributor U1 who operates the virtual camera VC. . The virtual camera VC is an example of "means for accepting setting of viewpoints for multi-viewpoint three-dimensional video data".

カメラプロセッサCは、バーチャルカメラVCのカメラ情報をタイムコードに対応付けて記録し、保存するコンピュータである。カメラプロセッサCは、バーチャルカメラVCのカメラ情報に基づいて、シーンマネージャSMと連携し、リモート会議が進行する3DCG空間内の立体映像を生成する。カメラプロセッサCは、バーチャルカメラVCのカメラ情報、バーチャルカメラVCの視点位置から見た3DCG空間内の立体映像をレンダラRに出力する。 The camera processor C is a computer that records and saves the camera information of the virtual camera VC in association with the time code. Based on the camera information of the virtual camera VC, the camera processor C cooperates with the scene manager SM to generate stereoscopic video in the 3DCG space in which the remote conference is proceeding. The camera processor C outputs to the renderer R the camera information of the virtual camera VC and the stereoscopic video in the 3DCG space viewed from the viewpoint position of the virtual camera VC.

レンダラRは、バーチャルカメラVCによって視点位置が指定された3DCG空間の立体映像を2次元映像(ビデオ)に変換する、所謂レンダリング処理を行うコンピュータである。レンダリング処理では、3DCG空間内のオブジェクトの2次元平面へのアフィン変換等の座標変換、照明処理等の描画処理が行われ、3DCG空間に配置されたポリゴン単位のデータが、バーチャルカメラVCの視点位置から見たピクセル単位のデータに変換される。レンダラRは、変換後のピクセル単位のデータに基づいて描画されたフレーム単位の2次元画像から2次元映像を作成し、作成した2次元映像を配信サーバCHに出力する。カメラプロセッサCとレンダラRは、「受け付けた視点から撮影対象をみたときの動画を生成する手段」の一例である。 The renderer R is a computer that performs a so-called rendering process that converts a stereoscopic image in a 3DCG space, the viewpoint position of which is designated by the virtual camera VC, into a two-dimensional image (video). In rendering processing, coordinate transformation such as affine transformation of an object in 3DCG space to a two-dimensional plane, and drawing processing such as lighting processing are performed. converted to pixel-by-pixel data seen from . The renderer R creates a two-dimensional video from the frame-based two-dimensional image rendered based on the converted pixel-based data, and outputs the created two-dimensional video to the distribution server CH. The camera processor C and the renderer R are an example of ``means for generating a moving image when the subject is viewed from the received viewpoint''.

配信サーバCHは、レンダラRから出力された2次元映像(ビデオ)を、外部ネットワークに接続されたスマートフォン等の2D映像デバイスに配信するコンピュータである。配信サーバCHは、上記2D映像デバイスを介して事後、あるいは、リアルタイムで視聴中の視聴者からの要求に従って、複数のレンダラR1、R2、R3等から出力された2次元映像の配信切り替えを行う。配信サーバCHは、「生成された動画を視聴者装置に提供する手段」の一例である。 The distribution server CH is a computer that distributes a two-dimensional image (video) output from the renderer R to a 2D image device such as a smartphone connected to an external network. The distribution server CH performs distribution switching of the 2D video output from the plurality of renderers R1, R2, R3, etc. after the fact via the 2D video device or according to a request from the viewer who is watching in real time. The distribution server CH is an example of "means for providing the generated moving image to the viewer device".

〔2.装置構成〕
図2は、コンピュータのハードウェア構成の一例を示す構成図である。図1に示すシーンマネージャSM、カメラプロセッサC、レンダラR、配信サーバCHは、図2に示すコンピュータ100を用いて実現される。図2に例示のコンピュータ100は、接続バス106によって相互に接続されたCPU(Central Processing Unit)101、主記憶装置102、補助記憶装置103、通信IF(Interface)104、入出力IF105を備える。CPU101はプロセッサとも呼ばれる。ただし、CPU101は、単一のプロセッサに限定される訳ではなく、マルチプロセッサ構成であってもよい。また、単一のソケットで接続される単一のCPU101がマルチコア構成であってもよい。また、上記構成要素はそれぞれ複数に設けられてもよいし、一部の構成要素を設けないようにしてもよい。
[2. Device configuration〕
FIG. 2 is a configuration diagram showing an example of the hardware configuration of the computer. The scene manager SM, camera processor C, renderer R, and distribution server CH shown in FIG. 1 are implemented using the computer 100 shown in FIG. A computer 100 illustrated in FIG. 2 includes a CPU (Central Processing Unit) 101, a main storage device 102, an auxiliary storage device 103, a communication IF (Interface) 104, and an input/output IF 105, which are interconnected by a connection bus . CPU 101 is also called a processor. However, the CPU 101 is not limited to a single processor, and may have a multiprocessor configuration. Also, a single CPU 101 connected by a single socket may have a multi-core configuration. Moreover, each of the above components may be provided in plurality, or some components may not be provided.

CPU101は、コンピュータ100全体の制御を行う中央処理演算装置である。CPU101は、補助記憶装置103に記憶されたプログラムを主記憶装置102の作業領域に実行可能に展開し、プログラムの実行を通じて周辺機器の制御を行うことで所定の目的に合致した機能を提供する。主記憶装置102は、CPU101がプログラムやデータをキャッシュしたり、作業領域を展開したりする記憶媒体である。主記憶装置102は、例えば、フラッシュメモリ、RAM(Random Access Memory)やROM(Read Only Memory)を含む。 A CPU 101 is a central processing unit that controls the entire computer 100 . The CPU 101 expands the programs stored in the auxiliary storage device 103 in a work area of the main storage device 102 in an executable manner, and controls peripheral devices through the execution of the programs to provide functions that meet predetermined purposes. The main storage device 102 is a storage medium in which the CPU 101 caches programs and data and develops work areas. The main storage device 102 includes, for example, flash memory, RAM (Random Access Memory), and ROM (Read Only Memory).

補助記憶装置103は、OS(Operating System)、CPU101により実行される各プログラムや、動作の設定情報などを記憶する記憶媒体である。補助記憶装置103は、例えば、HDD(Hard-disk Drive)やSSD(Solid State Drive)、EPROM(Erasable Programmable ROM)、フラッシュメモリ、USB(Universal Serial Bus)メモリ等である。補助記憶装置103には、CD(Compact Disc)ドライブ装置、DVD(Digital Versatile Disc)ドライブ装置、BD(Blu-ray(登録商標) Disc)ドライブ装置等が含まれる。記録媒体としては、例えば、不揮発性半導体メモリ(フラッシュメモリ)を含むシリコンディスク、ハードディスク、CD、DVD、BD、USB(Universal Serial Bus)メモリ、SD(Secure Digital)メモリカード等がある。 The auxiliary storage device 103 is a storage medium that stores an OS (Operating System), each program executed by the CPU 101, operation setting information, and the like. The auxiliary storage device 103 is, for example, a HDD (Hard-disk Drive), SSD (Solid State Drive), EPROM (Erasable Programmable ROM), flash memory, USB (Universal Serial Bus) memory, or the like. The auxiliary storage device 103 includes a CD (Compact Disc) drive device, a DVD (Digital Versatile Disc) drive device, a BD (Blu-ray (registered trademark) Disc) drive device, and the like. Examples of recording media include silicon disks including nonvolatile semiconductor memories (flash memories), hard disks, CDs, DVDs, BDs, USB (Universal Serial Bus) memories, SD (Secure Digital) memory cards, and the like.

通信IF104は、コンピュータ100に接続するネットワーク、外部ネットワークとのインターフェースである。通信IF104には、所定の規格に基づいて通信を行う無線通信モジュールが含まれる。入出力IF105は、コンピュータ100に接続する他の装置との間でデータの入出力を行うインターフェースである。 The communication IF 104 is an interface with a network connected to the computer 100 and an external network. Communication IF 104 includes a wireless communication module that performs communication based on a predetermined standard. The input/output IF 105 is an interface for inputting/outputting data with other devices connected to the computer 100 .

CPU101のプログラムの実行により、図1に示すシーンマネージャSM、カメラプロセッサC、レンダラR、配信サーバCHの処理が提供される。但し、上記それぞれの処理の少なくとも一部が、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、GPU(Graphics Processing Unit)等によって提供されてもよい。同様にして、上記それぞれの処理の少なくとも一部が、FPGA(Field-Programmable Gate Array)、数値演算プロセッサ、ベクトルプロセッサ、画像処理プロセッサ等の専用LSI(large scale integration)、その他のデジタル回路であってもよい。また、シーンマネージャSM、カメラプロセッサC、レンダラR、配信サーバCHの少なくとも一部にアナログ回路を含むとしてもよい。 Execution of programs by the CPU 101 provides processing of the scene manager SM, camera processor C, renderer R, and distribution server CH shown in FIG. However, at least part of each of the processes described above may be provided by a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), a GPU (Graphics Processing Unit), or the like. Similarly, at least a part of each of the above processes is a dedicated LSI (large scale integration) such as an FPGA (Field-Programmable Gate Array), a numerical processor, a vector processor, an image processor, or other digital circuits. good too. At least part of the scene manager SM, camera processor C, renderer R, and distribution server CH may include analog circuits.

〔3.データ構成〕
図3は、シーンマネージャSMにおいて記録・保存される3DCG空間内のオブジェクトについてのデータ構成の一例を示す図である。図3に示すように、シーンマネージャSMにおいて記録・保存される3DCG空間内のオブジェクトについてのデータは、タイムコード毎のレコードとして記録される。上記レコードは、「TC」、「Object」、「Pos(x,y,z)」、「Rot(p,y,r)」、「FOV(f)」、「Scale(s)」、「Option{Trigger,Target,…}」といったフィールドを有する。
[3. Data structure]
FIG. 3 is a diagram showing an example of the data structure of objects in the 3DCG space recorded and saved in the scene manager SM. As shown in FIG. 3, data about objects in the 3DCG space recorded and saved in the scene manager SM are recorded as records for each time code. The above records are "TC", "Object", "Pos(x,y,z)", "Rot(p,y,r)", "FOV(f)", "Scale(s)", "Option {Trigger, Target, . . . }”.

「TC」フィールドには、3DCG空間内における絶対的な時間を表現するカウンタのカウンタ値が格納される。カウンタ値は、例えば、0.1msといった周期で計測される。なお、「TC」フィールドには、計測されたカウンタ値から算出された時刻情報が格納されるとしてもよい。図3においては、“h:mm:ss”といった時暦、分歴、秒歴の形式の時刻情報が例示される。 The "TC" field stores the counter value of a counter that expresses absolute time in the 3DCG space. The counter value is measured with a period of 0.1 ms, for example. Note that the "TC" field may store time information calculated from the measured counter value. FIG. 3 exemplifies time information in the format of hourly, minutely, and secondly, such as "h:mm:ss".

「Object」フィールドには、3DCG空間内に配置されるオブジェクトを一意に識別する識別情報が格納される。また、「Object」フィールドに格納されるデータ例としては、バーチャルカメラVCを一意に識別する識別情報が挙げられる。図3においては、リモート会議の参加者の操作可能なアバター(P1,P2)が例示される。同様に、配信者U1が操作するバーチャルカメラVC1(HID1、HID2)、アバターを追従するバーチャルカメラVC2(CAM1)が例示される。バーチャルカメラVC1は、3DCG空間を立体視するための2つの視点位置(HID1、HID2)を有する。バーチャルカメラVC1の視点位置(HID1、HID2)は、配信者U1の備えるユーザ入力デバイスを介して操作される。 The “Object” field stores identification information that uniquely identifies an object placed in the 3DCG space. An example of data stored in the "Object" field is identification information that uniquely identifies the virtual camera VC. In FIG. 3, operable avatars (P1, P2) of remote conference participants are illustrated. Similarly, a virtual camera VC1 (HID1, HID2) operated by the distributor U1 and a virtual camera VC2 (CAM1) following the avatar are exemplified. The virtual camera VC1 has two viewpoint positions (HID1, HID2) for stereoscopically viewing the 3DCG space. The viewpoint positions (HID1, HID2) of the virtual camera VC1 are operated via a user input device provided by the distributor U1.

「Pos(x,y,z)」フィールドには、「Object」フィールドに格納されたオブジェクトの3DCG空間の座標が格納される。「Object」フィールドに格納されたオブジェクトが、会議参加者のアバターの場合には、そのオブジェクトを構成する複数のポリゴンの重心座標が格納される。「Object」フィールドに格納されたオブジェクトが、バーチャルカメラVCの場合には、視点位置の座標が格納される。配信者U1が操作するバーチャルカメラVC1の場合には、HID1、HID2のそれぞれについての視点位置の座標が格納される。 The "Pos (x, y, z)" field stores the coordinates in the 3DCG space of the object stored in the "Object" field. When the object stored in the "Object" field is an avatar of a conference participant, barycentric coordinates of a plurality of polygons forming the object are stored. If the object stored in the "Object" field is the virtual camera VC, the coordinates of the viewpoint position are stored. In the case of the virtual camera VC1 operated by the broadcaster U1, coordinates of viewpoint positions are stored for each of HID1 and HID2.

「Rot(p,y,r)」フィールドには、「Object」フィールドに格納されたオブジェクトの移動に伴う、ローカル座標の回転を表すパラメータ座標が格納される。バーチャルカメラVCの場合には、視点位置のピッチ軸、ヨー軸、ロール軸についての回転方向を表すパラメータ座標が格納される。配信者U1が操作するバーチャルカメラVC1の場合には、HID1、HID2のそれぞれについての上記座標が格納される。 The "Rot (p, y, r)" field stores parameter coordinates representing the rotation of the local coordinates accompanying movement of the object stored in the "Object" field. In the case of the virtual camera VC, parameter coordinates representing the rotation direction about the pitch axis, yaw axis, and roll axis of the viewpoint position are stored. In the case of the virtual camera VC1 operated by the distributor U1, the above coordinates for each of HID1 and HID2 are stored.

「FOV(f)」フィールドには、バーチャルカメラVCのカメラ情報として画角を表すパラメータが格納される。「Scale(s)」フィールドには、「Object」フィールドに格納されたオブジェクトの3DCG空間の移動に伴う拡大/縮小のパラメータが格納される。「Option{Trigger,Target,…}」フィールドには、例えば、3DCG空間におけるオブジェクトに質感を与えるためのパラメータ、動作等を示すパラメータが格納される。バーチャルカメラVCの場合には、例えば、ズーム対象標や、配信者U1が操作するバーチャルカメラVC1の起動・停止等の情報が格納される。 The “FOV(f)” field stores a parameter representing the angle of view as camera information of the virtual camera VC. The “Scale(s)” field stores parameters for enlargement/reduction associated with the movement of the object stored in the “Object” field in the 3DCG space. The “Option {Trigger, Target, . In the case of the virtual camera VC, for example, information such as a zoom target and start/stop of the virtual camera VC1 operated by the distributor U1 is stored.

〔4.処理フロー〕
以下、図4、5に示すフローチャートを参照し、情報処理システム10におけるシーンマネージャSMの処理を主に説明する。なお、図1に示すシーンマネージャSM、カメラプロセッサC、レンダラR、配信サーバCHは、CPU101が補助記憶装置103に記憶されている各種プログラムや各種データを主記憶装置102に読み出して実行することで、図4に示す処理を行う。なお、図5で後述するバーチャルカメラVC1の設定処理についても同様である。
[4. Processing flow]
The processing of the scene manager SM in the information processing system 10 will be mainly described below with reference to the flowcharts shown in FIGS. The scene manager SM, camera processor C, renderer R, and distribution server CH shown in FIG. , the processing shown in FIG. The same applies to the setting processing of the virtual camera VC1, which will be described later with reference to FIG.

図4は、シーンマネージャSMのイベントに係る事象の記録処理を示すフローチャートである。シーンマネージャSMは、情報処理システム10を介して提供するリモート会議の進行に伴うプロセスで発生した会議参加者(アバター)間のやり取り、バーチャルカメラVCのカメラ情報をタイムコードTCに対応付けて記録する。シーンマネージャSMは、例えば、図3を用いて説明したデータ構成により、3DCG空間内に配置されるオブジェクト、バーチャルカメラVCのカメラ情報を補助記憶装置103に記録する。同様にして、シーンマネージャSMは、配信サーバCHから配信された2D映像の視聴者からのメッセージをタイムコードTCに対応付けて記録する。シーンマネージャSMでは、アプリケーションプログラムの実行により作成された、3DCG空間の映像は、リモート会議参加者にアバター視点を介した立体映像としてリアルタイムに提供される。 FIG. 4 is a flow chart showing an event recording process relating to an event of the scene manager SM. The scene manager SM records exchanges between conference participants (avatars) occurring in the process accompanying the progress of the remote conference provided via the information processing system 10 and camera information of the virtual camera VC in association with the time code TC. . The scene manager SM records, in the auxiliary storage device 103, camera information of objects and virtual cameras VC placed in the 3DCG space, for example, using the data structure described with reference to FIG. Similarly, the scene manager SM records a message from the viewer of the 2D video distributed from the distribution server CH in association with the time code TC. In the scene manager SM, the 3DCG space image created by executing the application program is provided to the remote conference participants in real time as a stereoscopic image through the avatar's viewpoint.

図4のフローチャートにおいて、処理の開始は、リモート会議といったコンテンツを提供するアプリケーションプログラムの実行のときが例示される。シーンマネージャSMは、3DCG空間内における絶対的な時間を表現するカウンタであるタイムコードTCを初期化(リセット)する(S1)。シーンマネージャSMは、例えば、会議場を構成する様々なオブジェクトを3DCG空間内のワールド座標系に配置する。そして、シーンマネージャSMは、会議参加者のログインを受け付けるまで待機する(S2)。但し、リモート会議に参加する会議参加者の人数や役職等が事前に通知されている場合には、予め会議参加者に割当てられたアバターを3DCG空間内に配置するとしてもよい。なお、上記オブジェクトは、例えば、シーンマネージャSMが参照する補助記憶装置103に予め登録される。図4の、待機状態(S2)においては、シーンマネージャSMは、S3からS7の処理で例示される複数のイベント待ちの状態にある。 In the flowchart of FIG. 4, the start of processing is exemplified by the execution of an application program that provides content such as a remote conference. The scene manager SM initializes (resets) the time code TC, which is a counter representing absolute time in the 3DCG space (S1). The scene manager SM arranges, for example, various objects that make up the conference hall on the world coordinate system in the 3DCG space. Then, the scene manager SM waits until the login of the conference participants is accepted (S2). However, if the number of conference participants participating in the remote conference, their positions, etc. are notified in advance, avatars assigned to the conference participants in advance may be arranged in the 3DCG space. Note that the above objects are registered in advance, for example, in the auxiliary storage device 103 referred to by the scene manager SM. In the standby state (S2) of FIG. 4, the scene manager SM is in a state of waiting for a plurality of events exemplified in the processes of S3 to S7.

シーンマネージャSMは、3DCG空間を用いて提供されるリモート会議の会議参加者(プレーヤー)のログイン、ログアウトを受け付ける(S3)。シーンマネージャSMは、会議参加者のログイン、ログアウトを受け付けた場合には(S3、受け付け)、受け付けた会議参加者のログイン、ログアウトをタイムコードTCに対応付けられたキー記録として記録する(S8)。キー記録には、例えば、会議参加者を一意に識別する識別情報、会議参加者に対応付けられた3D空間内のアバターの識別情報等が含まれる。 The scene manager SM receives login and logout of conference participants (players) of the remote conference provided using the 3DCG space (S3). When the scene manager SM accepts the login and logout of the conference participants (S3, acceptance), the scene manager SM records the accepted login and logout of the conference participants as a key record associated with the time code TC (S8). . The key record includes, for example, identification information that uniquely identifies the conference participant, identification information of the avatar in 3D space associated with the conference participant, and the like.

シーンマネージャSMは、ログインを受け付けた会議参加者に、アバター視点から見たリモート会議が行われる3DCG空間の立体映像を提供する。ログインした会議参加者は、例えば、HMD等を介して立体映像を視聴しながらアバターを操作し、会議場の移動や他の会議参加者への対話や働きかけを行う。3DCG空間で生じた会議参加者の行動によるイベントは、視聴中の立体映像に反映される。 The scene manager SM provides the participants who have logged in to the conference with stereoscopic images of the 3DCG space where the remote conference will be held as seen from the avatar's viewpoint. A logged-in conference participant, for example, operates an avatar while viewing a stereoscopic image via an HMD or the like, moves between conference venues, and interacts with or encourages other conference participants. Events caused by the actions of conference participants occurring in the 3DCG space are reflected in the stereoscopic video being viewed.

シーンマネージャSMは、リモート会議が進行する3DCG空間を中継する複数の配信者Unのログイン、ログアウトを受け付ける(S4)。シーンマネージャSMは、配信者Unのログイン、ログアウトを受け付けた場合には(S4、受け付け)、受け付けた配信者Unのログイン、ログアウトをタイムコードTCに対応付けられたキー記録として記録する(S8)。キー記録には、例えば、配信者Unを一意に識別する識別情報、配信者Unが操作するバーチャルカメラVCnの識別情報が含まれる。なお、3DCG空間内における、配信者Unが操作するバーチャルカメラVCnの初期の配置位置は、シーンマネージャSMにより決定される。 The scene manager SM receives logins and logouts of a plurality of distributors Un who relay the 3DCG space in which the remote conference proceeds (S4). When the scene manager SM accepts the login and logout of the distributor Un (S4, acceptance), the scene manager SM records the accepted login and logout of the distributor Un as a key record associated with the time code TC (S8). . The key record includes, for example, identification information that uniquely identifies the distributor Un and identification information of the virtual camera VCn operated by the distributor Un. Note that the initial placement position of the virtual camera VCn operated by the distributor Un in the 3DCG space is determined by the scene manager SM.

配信者Unは、バーチャルカメラVCnの視点位置(HID1、HID2)を操作し、リモート会議が進行する3DCG空間を中継する。バーチャルカメラVCnの視点位置(HID1、HID2)は、3DCG空間内の任意の位置に設定される。シーンマネージャSMは、ログインを受け付けた配信者Unに、バーチャルカメラVCnの視点位置から見た3DCG空間の立体映像を出力する。配信者Unは、HMD等に表示された立体映像を視聴しながらバーチャルカメラVCnの視点位置を操作し、リモート会議が進行する3DCG空間を中継する。バーチャルカメラVCnの操作を介して中継された立体映像には、例えば、リモート会議の進行に伴うイベントに応じた3DCG空間内の移動、特定のアバターへのズームアップ等が反映される。 The distributor Un operates the viewpoint positions (HID1, HID2) of the virtual camera VCn to relay the 3DCG space in which the remote conference proceeds. The viewpoint positions (HID1, HID2) of the virtual camera VCn are set at arbitrary positions in the 3DCG space. The scene manager SM outputs a stereoscopic image of the 3DCG space seen from the viewpoint position of the virtual camera VCn to the distributor Un who has accepted the login. The distributor Un operates the viewpoint position of the virtual camera VCn while viewing the stereoscopic video displayed on the HMD or the like, and relays the 3DCG space in which the remote conference progresses. The stereoscopic video relayed through the operation of the virtual camera VCn reflects, for example, movement in the 3DCG space according to events accompanying the progress of the remote conference, zooming in on a specific avatar, and the like.

シーンマネージャSMは、会議参加者によるアバターへの操作入力を受け付ける(S5)。シーンマネージャSMは、受け付けた操作入力により、リモート会議が進行する3DCG空間に配置されたオブジェクト移動、回転、拡大・縮小が生じた場合には(S5、Yes)、タイムコードTCに対応付けて上記オブジェクト移動、回転、拡大・縮小を表すパラメータをキー記録として記録する(S9)。シーンマネージャSMは、例えば、図3に示すデータ構成を用いて対象オブジェクトについての各種パラメータを記録する。 The scene manager SM receives an operation input to the avatar by the conference participant (S5). When the received operation input causes movement, rotation, or enlargement/reduction of an object placed in the 3DCG space in which the remote conference is progressing (S5, Yes), the scene manager SM associates it with the time code TC and performs the above Parameters representing object movement, rotation, enlargement/reduction are recorded as key records (S9). The scene manager SM uses, for example, the data configuration shown in FIG. 3 to record various parameters about the target object.

シーンマネージャSMは、配信者UnによるバーチャルカメラVCnへの操作入力を受け付ける(S6)。シーンマネージャSMは、配信者UnによるバーチャルカメラVCnへの操作入力を受け付けた場合には(S6、Yes)、バーチャルカメラVCnのカメラ情報をタイムコードTCに対応付けてキー記録として記録する(S10)。シーンマネージャSMは、例えば、図3に示すデータ構成を用いて操作対象のバーチャルカメラVCnについてのカメラ情報を記録する。 The scene manager SM receives an operation input to the virtual camera VCn by the distributor Un (S6). When the scene manager SM receives an operation input to the virtual camera VCn by the distributor Un (S6, Yes), the scene manager SM records the camera information of the virtual camera VCn as a key record in association with the time code TC (S10). . The scene manager SM uses, for example, the data configuration shown in FIG. 3 to record camera information about the virtual camera VCn to be operated.

シーンマネージャSMは、配信サーバCHから配信された2D映像の視聴者からのメッセージ(視聴者反応)を受け付ける(S7)。視聴者から受け付けたメッセージには、文字、音声、動作等のリアクション信号が含まれる。シーンマネージャSMは、配信サーバCHから配信された2D映像の視聴者からのメッセージを受け付けた場合には(S7、Yes)、受け付けたメッセージをタイムコードTCに対応付けて視聴者反応として記録する(S11)。 The scene manager SM receives messages (viewer reactions) from viewers of the 2D video distributed from the distribution server CH (S7). Messages received from viewers include reaction signals such as text, voice, and actions. When the scene manager SM receives a message from the viewer of the 2D video distributed from the distribution server CH (S7, Yes), the received message is associated with the time code TC and recorded as a viewer reaction ( S11).

コンテンツの提供者(サービス事業者)は、例えば、シーンマネージャSMに記録されたメッセージに含まれる、配信された2D映像についての評価や要望等を提供するコンテンツやサービス内容に反映する。 The content provider (service provider) reflects, for example, evaluations and requests regarding the distributed 2D video contained in the message recorded in the scene manager SM in the provided content and service details.

次に、図5に示すフローチャートを参照し、シーンマネージャSMのバーチャルカメラVC1の設定処理を説明する。図5は、シーンマネージャSMのバーチャルカメラVC1の設定処理を示すフローチャートである。なお、図5に示すフローチャートの処理の開始およびS1の処理は、図4に示す処理と同様である。 Next, setting processing of the virtual camera VC1 by the scene manager SM will be described with reference to the flowchart shown in FIG. FIG. 5 is a flow chart showing setting processing of the virtual camera VC1 of the scene manager SM. The start of the processing of the flowchart shown in FIG. 5 and the processing of S1 are the same as the processing shown in FIG.

シーンマネージャSMは、コントローラCNを介し、配信者Unの操作するバーチャルカメラVCnの操作入力を受け付ける(S21)。操作入力には、バーチャルカメラVCnのカメラ情報、例えば、3DCG空間内の視点位置(HID1、HID2の各座標)、ズームイン・ズームアウト(拡大・縮小)、カメラの向き(回転取得センサ)、画角、映像取得開始(HIDトリガーON/OFF)等を表すパラメータが含まれる。シーンマネージャSMは、受け付けたバーチャルカメラVCnのカメラ情報を取得し、主記憶装置102の所定の領域に一時的に記憶する。シーンマネージャSMの処理は、S22の処理に移行する。 The scene manager SM receives operation input of the virtual camera VCn operated by the distributor Un via the controller CN (S21). The operation input includes camera information of the virtual camera VCn, such as viewpoint position in 3DCG space (coordinates of HID1 and HID2), zoom-in/zoom-out (enlargement/reduction), camera orientation (rotation acquisition sensor), angle of view. , start of image acquisition (HID trigger ON/OFF), and the like. The scene manager SM acquires the received camera information of the virtual camera VCn and temporarily stores it in a predetermined area of the main storage device 102 . The process of the scene manager SM shifts to the process of S22.

シーンマネージャSMは、操作入力に映像取得開始を表すパラメータ(HIDトリガーON)が含まれている場合には(S22、Yes)、S23の処理に移行する。シーンマネージャSMは、操作入力に映像取得開始を表すパラメータ(HIDトリガーON)が含まれていない場合には(S22、No)、S21の処理に戻る。 If the operation input includes a parameter (HID trigger ON) indicating start of video acquisition (S22, Yes), the scene manager SM proceeds to the process of S23. If the operation input does not include a parameter (HID trigger ON) indicating start of video acquisition (S22, No), the scene manager SM returns to the process of S21.

シーンマネージャSMは、リモート会議が提供される3DCG空間内を任意の視点で中継するバーチャルカメラVCnが既に配置されているかを判定する(S23)。シーンマネージャSMは、上記のバーチャルカメラVCnが既に配置されている場合には(S23,Yes)、S26の処理に移行する。シーンマネージャSMは、上記のバーチャルカメラVCnが未だ配置されていない場合には(S23,No)、S24の処理に移行する。 The scene manager SM determines whether a virtual camera VCn relaying from an arbitrary viewpoint in the 3DCG space where the remote conference is provided has already been arranged (S23). If the virtual camera VCn is already arranged (S23, Yes), the scene manager SM proceeds to the process of S26. If the virtual camera VCn is not yet arranged (S23, No), the scene manager SM proceeds to the process of S24.

S24の処理では、シーンマネージャSMは、図6を用いて後述するカメラ方向設定アルゴリズムに従って、バーチャルカメラVCnの視点位置(HID1、HID2)を設定する。シーンマネージャSMは、S24の処理で設定された視点位置(HID1、HID2)に、3DCG空間内を任意の視点で中継するバーチャルカメラVCnを配置する(S25)。3DCG空間におけるバーチャルカメラVCnの配置位置は、2つの視点位置(HID1、HID2)の中間点により表される。シーンマネージャSMの処理は、S27の処理に移行する。 In the process of S24, the scene manager SM sets the viewpoint positions (HID1, HID2) of the virtual cameras VCn according to a camera direction setting algorithm which will be described later with reference to FIG. The scene manager SM arranges a virtual camera VCn that relays the 3DCG space from an arbitrary viewpoint at the viewpoint positions (HID1, HID2) set in the process of S24 (S25). The arrangement position of the virtual camera VCn in the 3DCG space is represented by the middle point between the two viewpoint positions (HID1, HID2). The process of the scene manager SM shifts to the process of S27.

S26の処理では、シーンマネージャSMは、バーチャルカメラVCnの位置、角度等を更新する。シーンマネージャSMは、S21の処理で受け付けたHID1、HID2の各座標からバーチャルカメラVCnの位置を更新し、カメラの向きからカメラの回転角度を更新する。シーンマネージャSMの処理は、S27の処理に移行する。 In the process of S26, the scene manager SM updates the position, angle, etc. of the virtual camera VCn. The scene manager SM updates the position of the virtual camera VCn from the HID1 and HID2 coordinates received in the process of S21, and updates the rotation angle of the camera from the orientation of the camera. The process of the scene manager SM shifts to the process of S27.

S27の処理では、シーンマネージャSMは、S25、S26の処理で設定されたバーチャルカメラVCnのカメラ情報等を補助記憶装置103に記録する。上記カメラ情報は、例えば、図3を用いて説明したデータ構成により記録される。シーンマネージャSMの処理は、S28の処理に移行する。 In the process of S27, the scene manager SM records the camera information and the like of the virtual camera VCn set in the processes of S25 and S26 in the auxiliary storage device 103. FIG. The camera information is recorded, for example, in the data structure described with reference to FIG. The process of the scene manager SM shifts to the process of S28.

S28の処理では、シーンマネージャSMは、タイムコードTCのカウント値が記録可能時間に到達したかを判定する。ここで、記録可能時間とは、予め定められた設定時間であり、例えば、補助記憶装置103等のメモリ容量等から求めることができる。シーンマネージャSMは、タイムコードTCのカウント値が記録可能時間に到達している場合には(S28,Yes)、図5に示す処理を終了する。また、シーンマネージャSMは、タイムコードTCのカウント値が記録可能時間に到達していない場合には(S28,No)、S21の処理に移行し、図5に示す処理を継続する。 In the process of S28, the scene manager SM determines whether the count value of the time code TC has reached the recordable time. Here, the recordable time is a predetermined set time, and can be obtained from the memory capacity of the auxiliary storage device 103 or the like, for example. If the count value of the time code TC has reached the recordable time (S28, Yes), the scene manager SM ends the processing shown in FIG. If the count value of the time code TC has not reached the recordable time (S28, No), the scene manager SM shifts to the processing of S21 and continues the processing shown in FIG.

次に、図6を参照し、カメラ方向設定アルゴリズムを説明する。図6は、バーチャルカメラVCnのカメラ方向の設定を説明する説明図である。図6においては、バーチャルカメラVCnの視点方向の、右方向への回転(時計回り)を上面視した上面図が例示される。図6に示すバーチャルカメラVCnの状態は、(1)→(2)→(3)の順で変化する。なお、(1)に示す状態は、初期状態を表す。 Next, referring to FIG. 6, the camera orientation algorithm will be described. FIG. 6 is an explanatory diagram for explaining the setting of the camera direction of the virtual camera VCn. FIG. 6 illustrates a top view in which the viewing direction of the virtual camera VCn is rotated to the right (clockwise). The state of the virtual camera VCn shown in FIG. 6 changes in the order of (1)→(2)→(3). Note that the state shown in (1) represents the initial state.

図6において、HID1、HID2は、3DCG空間内におけるバーチャルカメラVCnの視点位置を表し、HID1とHID2の中間点P1が、バーチャルカメラVCnの配置位置を表す。上記視点位置、配置位置は、ワールド座標系で表される。HID1、HID2の視点位置は、バーチャルカメラVCnを操作する配信者Unによって設定される。なお、HID1とHID2との間の距離は、バーチャルカメラVCnの画角(FOV)、または、焦点処理(f)に対応付けられる。バーチャルカメラVCnの画角(FOV)は、例えば、配信者Unの操作入力、或いは、シーンマネージャSMの制御によって、HID1とHID2との間の距離を広げることで、バーチャルカメラVCnの画角(FOV)の広角化が可能になる。 In FIG. 6, HID1 and HID2 represent the viewpoint positions of the virtual camera VCn in the 3DCG space, and the middle point P1 between HID1 and HID2 represents the arrangement position of the virtual camera VCn. The viewpoint position and arrangement position are expressed in the world coordinate system. The viewpoint positions of HID1 and HID2 are set by the distributor Un who operates the virtual camera VCn. Note that the distance between HID1 and HID2 is associated with the angle of view (FOV) of the virtual camera VCn or focus processing (f). The angle of view (FOV) of the virtual camera VCn is increased by widening the distance between HID1 and HID2, for example, by an operation input by the broadcaster Un or by the control of the scene manager SM. ) can be widened.

中間点P1に配置されたバーチャルカメラVCnの、3DCG空間内の注視点は「VD」で表され、中間点P1から注視点VDに向かう矢印が3DCG空間内におけるバーチャルカメラVCnの視軸方向を表す。「VD1」はHID1による視軸方向を表し、「VD2」はHID2による視軸方向を表す。なお、図6に示すP2、P3は、配信者Unの左右の視点を表す。 The gaze point in the 3DCG space of the virtual camera VCn placed at the intermediate point P1 is represented by "VD", and the arrow pointing from the intermediate point P1 to the gaze point VD represents the visual axis direction of the virtual camera VCn in the 3DCG space. . "VD1" represents the visual axis direction by HID1, and "VD2" represents the visual axis direction by HID2. Note that P2 and P3 shown in FIG. 6 represent left and right viewpoints of the distributor Un.

図6に示すカメラ方向設定アルゴリズムにおいては、HID1の視軸方向の単位ベクトルを定数倍(h)した終点座標VP1と、HID2の視軸方向の単位ベクトルを定数倍(h)した終点座標VP2との中間点を用いて、カメラ方向が移動するバーチャルカメラVCnの注視点VDを設定する。 The camera direction setting algorithm shown in FIG. is used to set the gaze point VD of the virtual camera VCn whose camera direction moves.

図6(1)に示すように、初期状態においては、終点座標VP1、VP2、注視点VD
の座標は、バーチャルカメラVCnの視軸に直交する同一平面上に存在する。図6(1)状態で、配信者Unの操作入力よってバーチャルカメラVCnの回転角度のセンサ値が入力される。シーンマネージャSMは、例えば、HID1の視軸の方向を維持した状態で、HID2の視軸を入力された回転角度に沿って右方向に回転させる(図6(2))。
As shown in FIG. 6(1), in the initial state, end point coordinates VP1 and VP2, gaze point VD
are on the same plane perpendicular to the visual axis of the virtual camera VCn. In the state (1) of FIG. 6, the sensor value of the rotation angle of the virtual camera VCn is input by the distributor Un's operation input. The scene manager SM, for example, rotates the visual axis of HID2 to the right along the input rotation angle while maintaining the direction of the visual axis of HID1 ((2) in FIG. 6).

図6(2)に示すように、シーンマネージャSMは、例えば、HID1の終点座標VP1と、回転移動したHID2の終点座標VP2との中間点にバーチャルカメラVCnの注視点VDを設定する。3DCG空間におけるバーチャルカメラVCnの視軸方向は、HID1とHID2との中間点P1と、回転移動後の上記注視点VDとを結ぶ直線方向となる。 As shown in FIG. 6(2), the scene manager SM sets the gazing point VD of the virtual camera VCn, for example, at the middle point between the end point coordinates VP1 of HID1 and the end point coordinates VP2 of the rotated HID2. The visual axis direction of the virtual camera VCn in the 3DCG space is a straight line direction connecting the middle point P1 between HID1 and HID2 and the point of gaze VD after rotational movement.

シーンマネージャSMは、図6(2)に示す状態から、HID2の視軸を入力された回転角度に沿って右方向に回転させると共に、HID1の視軸を右方向に回転させる(図6(3))。このときの、HID1の視軸の右方向への回転移動量は、図6(2)に示すHID2の視軸の回転移動量に相当する。 The scene manager SM rotates the visual axis of HID2 rightward along the input rotation angle from the state shown in FIG. 6(2), and rotates the visual axis of HID1 rightward ((3 )). At this time, the amount of rotational movement of the visual axis of HID1 in the right direction corresponds to the amount of rotational movement of the visual axis of HID2 shown in FIG. 6(2).

図6(3)に示すように、シーンマネージャSMは、回転移動後のHID1の終点座標VP1と、HID2の終点座標VP2との中間点にバーチャルカメラVCnの注視点VDを設定する。3DCG空間におけるバーチャルカメラVCnの視軸方向は、HID1とHID2との中間点P1と、回転移動によって更新された注視点VDとを結ぶ直線方向になる。 As shown in FIG. 6(3), the scene manager SM sets the gazing point VD of the virtual camera VCn at the intermediate point between the end point coordinates VP1 of HID1 after rotational movement and the end point coordinates VP2 of HID2. The visual axis direction of the virtual camera VCn in the 3DCG space is a straight line connecting the middle point P1 between HID1 and HID2 and the gaze point VD updated by the rotational movement.

シーンマネージャSMは、入力された回転角度のセンサ値が反映されるまで、上述した処理を連続して実行し、バーチャルカメラVCnの注視点VDと視軸方向を回転させる。シーンマネージャSMにおいては、図6を用いて説明したカメラ方向設定アルゴリズムを実行することで、バーチャルカメラVCnのより自然な回転操作を立体映像に反映する。 The scene manager SM continuously executes the above-described processing until the input sensor value of the rotation angle is reflected, and rotates the gaze point VD and the visual axis direction of the virtual camera VCn. The scene manager SM executes the camera direction setting algorithm described with reference to FIG. 6 to reflect a more natural rotation operation of the virtual camera VCn in the stereoscopic video.

以上、説明したように、情報処理システム10は、リモート会議が進行する3DCG空間の任意の位置にバーチャルカメラを設定できる。情報処理システム10は、バーチャルカメラを介し、リモート会議が進行するプロセスで発生した会議参加者間のやり取り等の事象を、任意の視点位置から見た立体映像として中継できる。情報処理システム10は、中継された立体映像を2次元映像に変換できる。情報処理システム10は、リモート会議の様子を視聴する視聴者の有する、スマートフォン等の2D映像デバイスにリアルタイムに配信できる。 As described above, the information processing system 10 can set a virtual camera at an arbitrary position in the 3DCG space where the remote conference proceeds. The information processing system 10 can relay, via a virtual camera, events such as exchanges between conference participants that occur in the process of progressing a remote conference, as stereoscopic images viewed from arbitrary viewpoint positions. The information processing system 10 can convert the relayed stereoscopic video into a two-dimensional video. The information processing system 10 can deliver in real time to a 2D video device, such as a smart phone, owned by a viewer who watches the remote conference.

情報処理システム10においては、3次元映像で視聴するための専用デバイスや通信回線の帯域拡張といった環境整備を視聴者に負担させることなく、3DCG空間で進行中のリモート会議の様子がリアルタイムに視聴できる。 In the information processing system 10, a remote conference in progress in a 3D CG space can be viewed in real time without burdening the viewer with environment preparation such as a dedicated device for viewing 3D video or expanding the bandwidth of a communication line. .

情報処理システム10は、2次元映像を視聴する視聴者からのメッセージ(文字、音声、動作等のリアクション信号)を受け付けることができる。情報処理システム10は、例えば、受け付けたメッセージに基づいて、リモート会議が進行する3DCG空間内のバー
チャルカメラの中継する視点位置を移動できる。視点位置が更新されたバーチャルカメラの中継する立体映像は、2次元映像に変換されて視聴者に配信される。情報処理システム10は、配信中の2次元映像に視聴者の意図を反映できる。情報処理システム10においては、視聴者の反応や視点を考慮した2次元映像が配信できる。すなわち、例えば、会議に発言者として参加するユーザ間のやり取りを、事後あるいはリアルタイムに視聴する視聴者の反応や視点を考慮した映像の配信が望まれるが、これを、情報処理システム10により実現できる。
The information processing system 10 can receive messages (reaction signals such as text, voice, and actions) from viewers who view two-dimensional video. The information processing system 10 can, for example, move the viewpoint position relayed by the virtual camera in the 3DCG space where the remote conference proceeds, based on the received message. The stereoscopic video relayed by the virtual camera whose viewpoint position has been updated is converted into a two-dimensional video and delivered to the viewer. The information processing system 10 can reflect the viewer's intention on the two-dimensional video being distributed. In the information processing system 10, two-dimensional video can be distributed in consideration of viewers' reactions and viewpoints. That is, for example, it is desirable to distribute video in consideration of the reactions and viewpoints of viewers who watch the exchanges between users participating as speakers in a conference after the event or in real time, and this can be realized by the information processing system 10. .

情報処理システム10は、リモート会議が進行する3DCG空間のオブジェクトの状態、バーチャルカメラの状態を示す情報を、タイムコードに関連付けて記録・保存することができる。情報処理システム10は、タイムコードに関連付けて記録・保存された情報に基づいて、リモート会議の立体映像を再現することができる。情報処理システム10は、再現されたリモート会議の2次元映像を、事後に視聴する視聴者の2D映像デバイスに配信できる。情報処理システム10は、事後に配信する2次元映像についても視聴者からのメッセージを受け付けることができる。情報処理システム10においては、事後においても視聴者の反応や視点を考慮した2次元映像が配信できる。 The information processing system 10 can record and save information indicating the state of the object in the 3DCG space where the remote conference is proceeding and the state of the virtual camera in association with the time code. The information processing system 10 can reproduce the stereoscopic video of the remote conference based on the information recorded and saved in association with the time code. The information processing system 10 can deliver the reproduced 2D video of the remote conference to the 2D video devices of the viewers who watch the event after the fact. The information processing system 10 can also receive messages from viewers regarding the two-dimensional video that is distributed after the fact. In the information processing system 10, it is possible to distribute two-dimensional video in consideration of viewers' reactions and viewpoints even after the fact.

本実施形態に係る情報処理システム10によれば、CGで描画された3次元空間内における事象の、2次元映像デバイスを用いたリアルタイムおよび非同期の双方向参加が可能な技術が提供できる。 According to the information processing system 10 according to the present embodiment, it is possible to provide a technology that enables real-time and asynchronous two-way participation of events in a three-dimensional space rendered by CG using a two-dimensional video device.

〔変形例〕
実施形態においては、情報処理システム10の提供するコンテンツは、3DCG空間を用いたコンテンツとして説明した。情報処理システム10は、例えば、実際の会議場をCCD(Charge-Coupled Device)、CMOS(Complementary Metal-Oxide Semiconductor)等の撮像素子を備えるカメラで撮影し、撮影された会議場にアバター等のオブジェクトを配置する形態としてもよい。実際の会議場を用いることで、リモート会議における臨場感や没入感の向上が期待できる。
[Modification]
In the embodiment, the content provided by the information processing system 10 has been described as content using the 3DCG space. The information processing system 10, for example, photographs an actual conference hall with a camera equipped with an imaging device such as a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor), and displays an object such as an avatar in the photographed conference hall. may be arranged. By using the actual conference hall, it is expected to improve the sense of presence and immersion in remote meetings.

図7は、実空間の会議場A2を撮影するカメラRCを備える情報処理システムの一例を示す構成図である。カメラRCは、外部ネットワークに接続し、リモート会議の会議場となる実空間の映像を取得する。実空間の会議場の映像を撮影するカメラRCは、複数に存在し得る。 FIG. 7 is a configuration diagram showing an example of an information processing system provided with a camera RC that captures an image of a conference hall A2 in real space. The camera RC is connected to an external network and acquires an image of the real space used as the conference hall of the remote conference. There may be a plurality of cameras RC that capture images of the conference hall in the real space.

実空間の会議場の映像を撮影するカメラRCは、会議場に対して固定されているものとする。シーンマネージャSMは、例えば、カメラRCの位置、傾き、画角等のカメラ情報を用いて撮像された映像の動画フレームを解析し、会議場を撮影するカメラの視軸を推定する。そして、シーンマネージャSMは、固定されたカメラの視軸に基づいて、3DCGで描画されたアバター等のオブジェクトを配置するワールド座標系を特定する。シーンマネージャSMは、ワールド座標系に3DCGで作成されたオブジェクトを配置するための基準となるマーカ等を設定する。そして、シーンマネージャSMは、マーカ位置に3DCGで作成されたアバター等のオブジェクトを配置し、実施形態で説明したリモート会議のコンテンツを提供するとすればよい。なお、実空間を撮影するカメラRCが固定でない場合には、実空間内に撮影位置の推定基準となるマーカ(実マーカ)を設置すればよい。 Assume that a camera RC that captures an image of the conference hall in real space is fixed with respect to the conference hall. The scene manager SM, for example, analyzes the moving image frames of the captured video using camera information such as the position, tilt, and angle of view of the camera RC, and estimates the visual axis of the camera that captures the conference hall. Then, the scene manager SM specifies a world coordinate system in which objects such as avatars rendered in 3DCG are arranged based on the fixed visual axis of the camera. The scene manager SM sets markers and the like that serve as references for arranging objects created by 3DCG in the world coordinate system. Then, the scene manager SM may arrange an object such as an avatar created by 3DCG at the marker position and provide the contents of the remote conference described in the embodiment. If the camera RC that captures the real space is not fixed, a marker (actual marker) that serves as a reference for estimating the capturing position may be placed in the real space.

リモート会議の会議参加者には、例えば、実空間で撮影中の会議場と3DCGで作成されたアバター等が合成された3次元空間が、アバター視点から見た立体映像として提供される。実空間から撮影された会議場においても、会議参加者は自身のアバターを操作し、会議における発言や対話、他者への働きかけや会議場内の移動等の行動が可能になる。
リモート会議の様子を中継する配信者Unは、実施形態と同様にしてバーチャルカメラVCnを操作し、合成された3次元空間の任意の視点位置から見た立体映像を中継することができる。
Participants in a remote conference are provided with a three-dimensional space in which, for example, a conference hall being photographed in a real space and an avatar created by 3DCG are synthesized as a stereoscopic image viewed from the avatar's viewpoint. Even in a conference room photographed from the real space, conference participants can operate their own avatars and take actions such as remarks and dialogues in the conference, reaching out to others, and moving within the conference hall.
The distributor Un, who relays the state of the remote conference, can operate the virtual camera VCn in the same manner as in the embodiment to relay stereoscopic video seen from any viewpoint position in the synthesized three-dimensional space.

なお、情報処理システム10は、会議参加者や配信者といった被写体を撮影し、撮影された被写体の実空間における映像を3DCG空間に合成するとしてもよい。実空間における被写体の映像と3DCG空間の映像との合成として、クロマキー(Chroma key)合成が例示される。図8、図9は、クロマキー合成を用いる際の、実空間における被写体の撮影を説明する図である。 Note that the information processing system 10 may photograph a subject such as a conference participant or a distributor, and synthesize an image of the photographed subject in the real space into the 3DCG space. Chroma key synthesis is an example of synthesizing an image of a subject in real space and an image in 3DCG space. 8 and 9 are diagrams for explaining photographing of a subject in real space when using chromakey synthesis.

図8、図9において、背景20はグリーンバック、あるいは、ブルーバックといった所定色の背景である。クロマキー合成においては、所定色の背景20が撮影された領域に、3DCGの映像が合成される。被写体21の映像は、背景20で指定される所定色の実空間を背景として、カメラ22によって撮影される。カメラ22は、例えば、カメラの配置位置、傾き、画角といったカメラ情報と共に被写体21の実空間における映像を撮影する。被写体21の位置は、センサ23によって特定される。なお、カメラ22は、例えば、撮影対象になる空間の奥行きを取得可能な奥行きカメラであってもよい。 In FIGS. 8 and 9, the background 20 is a background of a predetermined color such as green background or blue background. In chromakey synthesis, a 3DCG image is synthesized in an area in which the background 20 of a predetermined color has been photographed. The image of the subject 21 is captured by the camera 22 with the real space of the predetermined color specified by the background 20 as the background. The camera 22 captures an image of the subject 21 in real space together with camera information such as the camera's position, tilt, and angle of view, for example. The position of subject 21 is specified by sensor 23 . Note that the camera 22 may be, for example, a depth camera capable of acquiring the depth of the space to be photographed.

図9に示すように、被写体21は、自身の頭部の動きを検知可能なHMD25や腕部の
動きを検知するモーションセンサ24を備えるとしてもよい。被写体21が、情報処理シテム10の提供する立体映像の配信者の場合には、実施形態で説明したように、合成された3DCG空間を任意の視点位置から中継するバーチャルカメラVCの操作デバイスを備える。HMD25、モーションセンサ24を介して検知された被写体21の動きは、合成される3DCG空間内の動作や行動に反映される。
As shown in FIG. 9, the subject 21 may be provided with an HMD 25 capable of detecting movement of its own head and a motion sensor 24 detecting movement of its arm. If the subject 21 is a distributor of stereoscopic video provided by the information processing system 10, as described in the embodiment, an operation device for the virtual camera VC that relays the synthesized 3DCG space from an arbitrary viewpoint position is provided. . Movements of the subject 21 detected via the HMD 25 and motion sensor 24 are reflected in motions and actions in the synthesized 3DCG space.

図10は、合成映像の一例を示す図である。図10においては、図9に示す所定色の背景20に対する映像内の部分領域に対して、3DCG空間の映像26を合成した状態が例示される。情報処理システム10においては、被写体21が会議参加者の場合には、被写体21と3DCG空間で作成された映像26とを合成した立体映像がリモート会議の会議参加者に提供される。 FIG. 10 is a diagram showing an example of a composite video. FIG. 10 illustrates a state in which an image 26 in the 3DCG space is combined with a partial area within the image against the background 20 of a predetermined color shown in FIG. In the information processing system 10, when the subject 21 is a conference participant, a stereoscopic image obtained by synthesizing the subject 21 and the image 26 created in the 3DCG space is provided to the conference participants in the remote conference.

図11は、2D映像デバイスに表示された合成映像の一例を示す図である。図11においては、2D映像デバイス27に表示された画面内には、HMD等を装着した被写体21と3DCG空間の映像26とが合成された状態で表示される。なお、図11の2D映像デバイス27は、HMD等を装着した被写体21と3DCG空間の映像26とが合成された立体映像を、裸眼で視聴可能なデバイスであってもよい。被写体21が、情報処理システム10の提供する立体映像の配信者の場合には、例えば、合成された3DCG空間で進行中の事象を任意の視点位置から中継すると共に、事象の解説や事象に至る背景を音声にて視聴者に通知できる。 FIG. 11 is a diagram showing an example of a composite image displayed on a 2D image device. In FIG. 11, in the screen displayed on the 2D image device 27, the subject 21 wearing the HMD or the like and the image 26 in the 3DCG space are displayed in a combined state. Note that the 2D video device 27 in FIG. 11 may be a device that allows the naked eye to view a stereoscopic video obtained by synthesizing the subject 21 wearing an HMD or the like with the video 26 in the 3DCG space. In the case where the subject 21 is a distributor of stereoscopic video provided by the information processing system 10, for example, while relaying an event in progress in the synthesized 3DCG space from an arbitrary viewpoint position, explanation of the event and leading to the event The background can be notified to the viewer by voice.

次に、カメラで撮影された被写体がリモート会議に参加する形態について説明する。図12は、HMDを装着した被写体がリモート会議に参加する形態の説明図である。図12において、「C11」は、図8、図9で説明した被写体Uaを撮影するカメラを表す。また、「R11」は、被写体Uaの装着するHMDにリアルタイムに表示される映像を表し、「R12」は、外部ネットワークに接続する視聴者に配信される映像を表す。「R13」は、カメラC11で撮影された被写体Uaが合成されたリモート会議のリアルタイム映像を表す。被写体Uaは、HMDに表示される映像を視聴しながらリモートに参加する。HMDには、例えば、HMDを介して検知された被写体Uaの頭部の動きに対応する視点位置の映像が表示される。 Next, a form in which a subject photographed by a camera participates in a remote conference will be described. FIG. 12 is an explanatory diagram of a form in which a subject wearing an HMD participates in a remote conference. In FIG. 12, "C11" represents a camera that captures the subject Ua described in FIGS. Also, "R11" represents an image displayed in real time on the HMD worn by the subject Ua, and "R12" represents an image distributed to viewers connected to the external network. "R13" represents the real-time video of the remote conference combined with the subject Ua captured by the camera C11. The subject Ua participates remotely while viewing the video displayed on the HMD. The HMD displays, for example, an image of a viewpoint position corresponding to the movement of the subject Ua's head detected via the HMD.

図8、図9を用いて説明したように、被写体Uaは、グリーンバック等のクロマキー合成が可能な背景を設置し、RGB映像を撮影可能なカメラC11、あるいは、撮影された映像領域から背景の切り出しが可能な奥行きカメラC11で自身を撮影する。カメラC11は、少なくともカメラ位置(Pos(x,y,z))、回転(Rot(p,y,r))を含むカメラ情報をタイムコードTCに対応付けて記録すると共に、上記カメラ情報と被写体Uaの映像をシーンマネージャSMに出力する。 As described with reference to FIGS. 8 and 9, the subject Ua is provided with a background such as a green screen capable of chroma key synthesis, and the camera C11 capable of capturing an RGB image, or the background from the captured image area. The user himself/herself is photographed by a depth camera C11 capable of clipping. The camera C11 records camera information including at least the camera position (Pos (x, y, z)) and rotation (Rot (p, y, r)) in association with the time code TC. The video of Ua is output to the scene manager SM.

シーンマネージャSMは、カメラC11の映像と3DCGのオブジェクトとをタイムコードTCを合致させて合成する。シーンマネージャSMによって合成されたカメラC11の映像と3DCG空間のオブジェクトは、映像R13に示すように、被写体Uaを含むクロマキー合成されたリアルタイム映像が生成される。映像R13の生成処理は、例えば、グリーンバック等で撮影されたフレーム毎のRGB画像の色空間を回転し、HSB(Hue、Saturation、Brightness)空間に変換する。そして、上記生成処理においては、変換された画像に対する背景除去処理、および、カメラC11の視軸方向から視た3DCG映像との合成処理がリアルタイムで行われる。生成された映像R13は、配信サーバCHを介し、外部ネットワークに接続する視聴者の2D映像デバイスに2次元映像として配信される。 The scene manager SM synthesizes the video of the camera C11 and the 3DCG object by matching the time code TC. The video of the camera C11 synthesized by the scene manager SM and the object in the 3DCG space are combined into a real-time video including the subject Ua, which is subjected to chromakey synthesis, as shown in the video R13. In the process of generating the image R13, for example, the color space of the RGB image for each frame shot with a green screen or the like is rotated and converted into an HSB (Hue, Saturation, Brightness) space. In the generation process, the background removal process for the converted image and the synthesis process with the 3DCG image viewed from the visual axis direction of the camera C11 are performed in real time. The generated image R13 is distributed as a two-dimensional image to the viewer's 2D image device connected to the external network via the distribution server CH.

図13は、HMDを装着しない被写体がリモート会議に参加する形態の説明図である。
被写体がHMDを装着しない形態においても、図12と同様の処理が行われる。但し、被写体Uaは、リアルタイムで進行するリモート会議の立体映像を裸眼で視聴可能な表示デバイスに表示された映像、あるいは、情報処理システム10によって変換された2D映像を視聴しながら参加すればよい。シーンマネージャSMは、例えば、補助記憶装置103に、カメラC11の映像と3DCG空間のオブジェクトを合成したリモート会議のデータを、オフライン動画ファイル(SV)として保存するとしてもよい。なお、シーンマネージャSMは、図12の形態についても同様にして、上記リモート会議のデータを補助記憶装置103に保存できる。
FIG. 13 is an explanatory diagram of a form in which a subject not wearing an HMD participates in a remote conference.
Even when the subject does not wear the HMD, the same processing as in FIG. 12 is performed. However, the subject Ua may participate while viewing the video displayed on a display device capable of viewing the 3D video of the remote conference progressing in real time with the naked eye, or the 2D video converted by the information processing system 10. The scene manager SM may save, for example, remote conference data obtained by synthesizing the video of the camera C11 and the object in the 3DCG space in the auxiliary storage device 103 as an offline moving image file (SV). It should be noted that the scene manager SM can store the data of the remote conference in the auxiliary storage device 103 in the same manner as in the form of FIG.

図13に示す形態は、例えば、事後に再生されるリモート会議の映像についても適用が可能である。図14は、HMDを装着しない被写体が事後に再生されるリモート会議に参加する形態の説明図である。図14においては、補助記憶装置103等にオフライン動画ファイル(SV)として保存された映像が、被写体Uaの視聴可能な映像として再生される。但し、再生される事後の映像は、他の資料映像やシーンを記録した動画やシーケンスといった互換を有する動画映像であってもよい。 The form shown in FIG. 13 can also be applied, for example, to video of a remote conference played back after the event. FIG. 14 is an explanatory diagram of a form in which a subject not wearing an HMD participates in a remote conference that is reproduced after the fact. In FIG. 14, an image saved as an offline moving image file (SV) in the auxiliary storage device 103 or the like is reproduced as an image that can be viewed by the subject Ua. However, the post-event video to be reproduced may be a compatible moving image such as a moving image or a sequence in which other material images or scenes are recorded.

図14において、情報処理システム10のシーンマネージャSMは、補助記憶装置103に保存されたオフライン動画ファイル(SV)を読み出して再生する。再生されたオフライン動画ファイル(SV)は、被写体Uaが視聴可能な表示デバイスに映像R11として表示される。ここで、映像R11は、被写体Uaが視聴可能な形態であれば、立体映像であってもよく、2D映像であってもよい。 In FIG. 14, the scene manager SM of the information processing system 10 reads out and reproduces an offline moving image file (SV) stored in the auxiliary storage device 103 . The reproduced offline moving image file (SV) is displayed as a video R11 on a display device that can be viewed by the subject Ua. Here, the image R11 may be a stereoscopic image or a 2D image as long as the subject Ua can view it.

図14の被写体Uaは、グリーンバック等のクロマキー合成が可能な背景を設置し、RGB映像を撮影可能なカメラC11、あるいは、撮影された映像領域から背景の切り出しが可能な奥行きカメラC11で自身を撮影する。カメラC11は、少なくともカメラ位置(Pos(x,y,z))、回転(Rot(p,y,r))を含むカメラ情報をタイムコードTCに対応付けて記録すると共に、上記カメラ情報と被写体Uaの映像をシーンマネージャSMに出力する。シーンマネージャSMは、カメラC11の映像と3DCGのオブジェクトとをタイムコードTCを合致させて合成し、被写体Uaがクロマキー合成された映像R13に示す映像を生成する。なお、映像R13の生成処理については、図13を用いて説明した。 The subject Ua in FIG. 14 is set with a background such as a green screen capable of chromakey synthesis, and is captured by a camera C11 capable of capturing an RGB image or a depth camera C11 capable of extracting the background from the captured image area. to shoot. The camera C11 records camera information including at least the camera position (Pos (x, y, z)) and rotation (Rot (p, y, r)) in association with the time code TC. The video of Ua is output to the scene manager SM. The scene manager SM synthesizes the image of the camera C11 and the 3DCG object by matching the time code TC to generate an image R13 in which the subject Ua is chromakey-combined. Note that the processing for generating the image R13 has been described with reference to FIG.

オフライン動画ファイル(SV)を用いて生成された映像R13は、配信サーバCHを介し、外部ネットワークに接続する視聴者の2D映像デバイスに2次元映像として配信される。視聴者には、オフライン動画ファイル(SV)を用いて再生された立体映像内に、事後の参加者としてリモート会議に参加する被写体Uaを含む2次元映像が配信される。シーンマネージャSMは、再生されたオフライン動画ファイル(SV)に対して被写体Uaが合成された映像データを補助記憶装置103に保存できる。 The video R13 generated using the offline video file (SV) is distributed as a 2D video to the viewer's 2D video device connected to the external network via the distribution server CH. A two-dimensional image including the subject Ua participating in the remote conference as a participant after the event is delivered to the viewer in the stereoscopic image reproduced using the offline video file (SV). The scene manager SM can store in the auxiliary storage device 103 video data in which the subject Ua is combined with the reproduced offline moving image file (SV).

図14に示す形態では、例えば、被写体Uaの身振りや手振り等のアクションを含む演技が、再生されたオフライン動画ファイル(SV)に対して反映される。被写体Uaの演技によっては、例えば、過去に進行されたリモート会議内に被写体Uaが存在しているかのような映像を合成し、タイムコードTCに対応付けて記録することが可能になる。
この結果、図14に示す形態の情報処理システム10においては、リアルタイムで会議に参加できなかった人物が、HMDの装着無しに会議に参加し、発言を記録するといったデータの共有化が可能になる。
補助記憶装置103に保存されたオフライン動画ファイル(SV)は、再帰的に使用できるため、複数の会議参加者がタイムコード上において前後して参加する「時間を超えた会議」が可能になる。
In the form shown in FIG. 14, for example, performances including actions such as gestures and hand gestures of the subject Ua are reflected in the played offline video file (SV). Depending on the performance of the subject Ua, for example, it is possible to synthesize a video as if the subject Ua were present in a remote conference held in the past, and record it in association with the time code TC.
As a result, in the information processing system 10 having the form shown in FIG. 14, it becomes possible for a person who could not participate in the conference in real time to participate in the conference without wearing an HMD and to record their remarks, thereby enabling sharing of data. .
Since the offline video files (SV) stored in the auxiliary storage device 103 can be used recursively, it is possible to have a "meeting beyond time" in which a plurality of meeting participants participate in sequence on the time code.

図15は、実空間における被写体を撮影するカメラを備える場合の、イベントに係る事象の記録処理を示すフローチャートである。情報処理システム10が実空間における被写体を撮影するカメラを備える場合には、例えば、シーンマネージャSMは、図4に示すS1の処理の実行前に、図15に示すS31からS33の処理を実行するとすればよい。 FIG. 15 is a flow chart showing event-related event recording processing when a camera for photographing a subject in real space is provided. When the information processing system 10 is provided with a camera for photographing a subject in real space, for example, the scene manager SM executes the processes of S31 to S33 shown in FIG. 15 before executing the process of S1 shown in FIG. do it.

図15のS31の処理では、シーンマネージャSMは、実空間における被写体を撮影するカメラ(実カメラ)の存在を判定する。シーンマネージャSMは、実カメラが存在する場合には(S31,有)、S33の処理に移行する。一方、シーンマネージャSMは、実カメラが存在しない場合には(S31,無)、S32の処理に移行する。S32の処理では、シーンマネージャSMは、実施形態で説明した3DCG空間のコンテンツ映像を生成する。また、S33の処理では、シーンマネージャSMは、変形例で説明した実カメラで撮影された被写体の映像と3DCG空間のオブジェクトとの座標系を合致させて合成されたコンテンツ映像(合成映像)を生成する。図15に示す処理を実行するシーンマネージャSMにおいては、S32あるいはS33の処理で生成された映像コンテンツのオブジェクトを対象として、図4に示すイベントに係る事象の記録処理が行われる。 In the processing of S31 in FIG. 15, the scene manager SM determines the presence of a camera (real camera) that captures a subject in real space. If there is a real camera (S31, Yes), the scene manager SM proceeds to the process of S33. On the other hand, if the actual camera does not exist (S31, no), the scene manager SM shifts to the process of S32. In the processing of S32, the scene manager SM generates content video in the 3DCG space described in the embodiment. Further, in the process of S33, the scene manager SM generates a content video (composite video) synthesized by matching the coordinate systems of the video of the subject captured by the real camera described in the modified example and the object in the 3DCG space. do. In the scene manager SM that executes the processing shown in FIG. 15, event recording processing related to the event shown in FIG. 4 is performed for the object of the video content generated in the processing of S32 or S33.

なお、図15のS31に示す処理は、例えば、コンテンツ提供者、あるいは、配信者の操作入力であってもよい。例えば、S32の処理で生成されるコンテンツとS33の処理で生成されるコンテンツのそれぞれが提供可能な場合に、シーンマネージャSMは、操作入力に従って生成するコンテンツの選択が可能になる。 Note that the processing shown in S31 of FIG. 15 may be, for example, an operation input by a content provider or a distributor. For example, when the content generated by the process of S32 and the content generated by the process of S33 can be provided, the scene manager SM can select the content to be generated according to the operation input.

他の変形例として、情報処理システム10は、視聴者からのメッセージを収集して解析し、配信者の視点を評価するとしてもよい。評価の高い配信者には、配信希望者が相対的に集まるため、例えば、配信映像に含まれる広告等の広告効果が期待できる。また、情報処理システム10においては、視聴者からのメッセージを収集して解析することで、視聴者の興味の傾向を把握することが可能になる。また、情報処理システム10の提供する、事後における映像配信のサービス形態として、視聴者を配信者に採用することも可能である。配信映像に対する、視聴者の視点から見た演出・編集が可能になる。 As another modification, the information processing system 10 may collect and analyze messages from viewers and evaluate the distributor's viewpoint. Since distributors with high evaluations tend to have a relatively large number of distribution applicants, for example, advertising effects, such as advertisements included in distributed video, can be expected. Further, in the information processing system 10, by collecting and analyzing messages from viewers, it becomes possible to grasp the tendency of viewers' interests. In addition, it is also possible to employ viewers as distributors as a form of post-video video distribution service provided by the information processing system 10 . It is possible to direct and edit the distribution video from the viewer's point of view.

なお、以上の実施形態に関し、さらに以下の付記を開示する。 In addition, the following additional remarks are disclosed regarding the above embodiment.

[付記1]
撮影対象を多視点で撮影した多視点3次元動画データを生成する動画データ生成手段と、
前記多視点3次元動画データに対して視点の設定を受け付ける手段と、
前記受け付けた視点から前記撮影対象をみたときの動画を生成する手段と、
前記生成された動画を視聴者装置に提供する手段と、
前記視聴者装置から前記動画に対する反応を受け付ける手段と、
前記設定された視点と、前記多視点3次元動画データ中の時刻と、前記反応とを記録する手段と、
を備える情報処理システム。
[Appendix 1]
a moving image data generating means for generating multi-view three-dimensional moving image data obtained by photographing an object to be photographed from multiple viewpoints;
means for receiving viewpoint setting for the multi-viewpoint 3D video data;
means for generating a moving image when the subject is viewed from the accepted viewpoint;
means for providing the generated animation to a viewer device;
means for receiving a reaction to the moving image from the viewer device;
means for recording the set viewpoint, the time in the multi-viewpoint 3D video data, and the reaction;
An information processing system comprising

[付記2]
前記多視点3次元動画データに対して視点の設定を受け付ける手段は、
前記視聴者から受け付けた反応に基づいて、前記多視点3次元動画データに対する視点を設定する、請求項1に記載の情報処理システム。
[Appendix 2]
The means for receiving viewpoint setting for the multi-viewpoint 3D video data includes:
2. The information processing system according to claim 1, wherein a viewpoint for said multi-view three-dimensional video data is set based on a reaction received from said viewer.

[付記3]
撮像装置をさらに備え、
前記動画データ生成手段は、前記撮像装置で撮影された撮影対象を含む多視点3次元動画データを生成する、請求項1または2に記載の情報処理システム。
[Appendix 3]
further comprising an imaging device,
3. The information processing system according to claim 1, wherein said moving image data generation means generates multi-viewpoint 3D moving image data including an object photographed by said imaging device.

[付記4]
相互に接続するコンピュータが、
撮影対象を多視点で撮影した多視点3次元動画データを生成するステップと、
前記多視点3次元動画データに対して受け付けた視点から前記撮影対象を見たときの動画を生成するステップと、
前記生成された動画を視聴者装置に提供するステップと、
前記視聴者装置から前記動画に対する反応を受け付けるステップと、
前記設定された視点と、前記視点が設定された時刻と、前記反応とを記録するステップと、
を実行する情報処理方法。
[Appendix 4]
Computers that connect to each other
a step of generating multi-view three-dimensional video data obtained by photographing an object to be photographed from multiple viewpoints;
a step of generating a moving image when the shooting target is viewed from the received viewpoint with respect to the multi-viewpoint 3D moving image data;
providing the generated animation to a viewer device;
receiving a reaction to the moving image from the viewer device;
recording the set viewpoint, the time at which the viewpoint was set, and the reaction;
Information processing method that performs

[付記5]
前記設定された視点と前記視点が設定された時刻とにおいて前記生成された動画を視聴者に視聴させるステップを有し、
視聴する状態における視聴者およびその反応を記録し保存する撮影手段によって前記生成された動画と他の動画との間で、少なくとも座標系、色調、視点方向を合わせた合成処理を実行する、請求項4に記載の情報処理方法。
[Appendix 5]
having the viewer view the generated video at the set viewpoint and the time at which the viewpoint was set;
2. A synthesizing process in which at least a coordinate system, a color tone, and a viewpoint direction are matched between the moving image generated by a photographing means for recording and storing a viewer and his/her reaction in a viewing state and another moving image. 5. The information processing method according to 4.

[付記6]
前記設定された視点と、前記視点が設定された時刻と前記生成された動画を保存する手段を有し、
視聴する状態における視聴者およびその反応を記録し保存する撮影手段によって前記生成された動画と、前記保存された動画もしくは互換を有する他の動画との間で、少なくとも座標系、色調、視点方向を合わせた合成処理を実行する、請求項4に記載の情報処理方法。
[Appendix 6]
means for storing the set viewpoint, the time at which the viewpoint was set, and the generated moving image;
At least the coordinate system, color tone, and viewpoint direction are established between the moving image generated by the photographing means for recording and storing the viewer and his/her reaction in the viewing state and the stored moving image or other compatible moving image. 5. The information processing method according to claim 4, wherein a combined synthesis process is performed.

10 情報処理システム
20 背景
21 被写体
22 カメラ
23 センサ
24 モーションセンサ
25 HMD
26 映像
27 2D映像デバイス
100 コンピュータ
101 CPU
102 主記憶装置
103 補助記憶装置
104 入出力IF
105 通信IF
106 接続バス
C、C1、C2、C3 カメラプロセッサ
C11 カメラ
VC、VC1、VC2、VC3 バーチャルカメラ(仮想カメラ)
P1、P2 アバター
R、R1、R2、R3 レンダラ
RC カメラ(実カメラ)
SM シーンマネージャ
SV オフライン動画ファイル
10 information processing system 20 background 21 subject 22 camera 23 sensor 24 motion sensor 25 HMD
26 video 27 2D video device 100 computer 101 CPU
102 Main storage device 103 Auxiliary storage device 104 Input/output IF
105 communication interface
106 connection bus C, C1, C2, C3 camera processor C11 camera VC, VC1, VC2, VC3 virtual camera (virtual camera)
P1, P2 Avatar R, R1, R2, R3 Renderer RC Camera (actual camera)
SM Scene manager SV Offline movie file

Claims (11)

第1アバターを含む3次元動画データを生成する3次元動画データ生成手段と、
前記3次元動画データに基づいて、前記第1アバターに追従する第1バーチャルカメラの視点位置から見た2次元動画データを生成する2次元動画データ生成手段と、
を備える情報処理システム。
3D video data generating means for generating 3D video data including the first avatar;
2D video data generating means for generating 2D video data viewed from a viewpoint position of a first virtual camera that follows the first avatar, based on the 3D video data;
An information processing system comprising
前記3次元動画データは、前記第1アバターとは異なる第2アバターを含み、
前記2次元動画データ生成手段は、前記3次元動画データに基づいて、前記第2アバターに追従する第2バーチャルカメラの視点位置から見た2次元動画データをさらに生成する、請求項1に記載の情報処理システム。
The three-dimensional video data includes a second avatar different from the first avatar,
2. The two-dimensional video data generating means according to claim 1, further generating two-dimensional video data viewed from a viewpoint position of a second virtual camera that follows the second avatar, based on the three-dimensional video data. Information processing system.
視聴者からの要求に従って、前記視聴者の視聴者装置に、前記第1バーチャルカメラの視点位置から見た2次元動画データを提供するか、前記第2バーチャルカメラの視点位置から見た2次元動画データを提供するか、を切り替える提供手段を備える、請求項2に記載の情報処理システム。 According to a request from a viewer, the viewer device of the viewer is provided with the two-dimensional video data viewed from the viewpoint position of the first virtual camera, or the two-dimensional video data viewed from the viewpoint position of the second virtual camera is provided. 3. The information processing system according to claim 2, comprising providing means for switching between providing data. さらに、前記3次元動画データの音声データに基づいて、議事録データを生成する議事録生成手段を備える、請求項1に記載の情報処理システム。 2. The information processing system according to claim 1, further comprising minutes generating means for generating minutes data based on the audio data of said three-dimensional moving image data. 前記2次元動画データ生成手段は、前記3次元動画データに基づいて、動画の配信者が操作する第3バーチャルカメラの視点位置から見た2次元動画データをさらに生成する、請求項1に記載の情報処理システム。 2. The 2D moving image data generating means according to claim 1, wherein said 2D moving image data generating means further generates 2D moving image data viewed from a viewpoint position of a third virtual camera operated by a distributor of the moving image, based on said 3D moving image data. Information processing system. 前記第3バーチャルカメラの視点位置は、複数の前記配信者によって操作され得る、請求項5に記載の情報処理システム。 6. The information processing system according to claim 5, wherein the viewpoint position of said third virtual camera can be operated by a plurality of said distributors. 前記3次元動画データ生成手段は、前記第1バーチャルカメラの視点位置から見た3次元動画データと、前記第1アバターとは異なる第2アバターに追従する第2バーチャルカメラの視点位置から見た3次元動画データと、前記第3バーチャルカメラの視点位置から見た3次元動画データと、を前記配信者の立体映像視聴デバイスに送信する、請求項5に記載の情報処理システム。 The three-dimensional video data generating means generates three-dimensional video data viewed from the viewpoint position of the first virtual camera and three-dimensional video data viewed from the viewpoint position of a second virtual camera following a second avatar different from the first avatar. 6. The information processing system according to claim 5, wherein the 3D video data and the 3D video data viewed from the viewpoint position of the third virtual camera are transmitted to the stereoscopic video viewing device of the distributor. 前記3次元動画データ生成手段は、前記配信者の操作が介在しないバーチャルカメラの視点位置から見た2次元動画データをさらに生成する、請求項5に記載の情報処理システム。 6. The information processing system according to claim 5, wherein said three-dimensional moving image data generation means further generates two-dimensional moving image data viewed from a viewpoint position of a virtual camera in which said distributor's operation does not intervene. 前記2次元動画データを視聴者装置に提供する手段と、
前記視聴者装置から視聴者の反応を受け付ける手段と、
をさらに備え、
前記2次元動画データ生成手段は、前記反応に基づいて前記第1バーチャルカメラの視点位置を移動させる、請求項1に記載の情報処理システム。
means for providing the two-dimensional video data to a viewer device;
means for receiving a reaction of a viewer from the viewer device;
further comprising
2. The information processing system according to claim 1, wherein said two-dimensional moving image data generating means moves a viewpoint position of said first virtual camera based on said reaction.
3次元動画データ生成手段が、第1アバターを含む3次元動画データを生成するステップと、
2次元動画データ生成手段が、前記3次元動画データに基づいて、前記第1アバターに追従する第1バーチャルカメラ視点位置から見た2次元動画データを生成するステップと、
を実行する情報処理方法。
3D video data generating means generating 3D video data including the first avatar;
a step in which a two-dimensional video data generating means generates two-dimensional video data viewed from a viewpoint position of a first virtual camera that follows the first avatar, based on the three-dimensional video data;
Information processing method that performs
第1アバターを含む3次元動画データを生成し、
前記3次元動画データに基づいて、前記第1アバターに追従する第1バーチャルカメラの視点位置から見た2次元動画データを生成する、
処理をコンピュータに実行させる、情報処理プログラム。
generating three-dimensional video data including the first avatar;
Generating two-dimensional video data viewed from a viewpoint position of a first virtual camera that follows the first avatar, based on the three-dimensional video data.
An information processing program that causes a computer to execute processing.
JP2022138117A 2016-10-26 2022-08-31 Information processing system, information processing method, and information processing program Active JP7368886B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022138117A JP7368886B2 (en) 2016-10-26 2022-08-31 Information processing system, information processing method, and information processing program
JP2023173869A JP2023181217A (en) 2016-10-26 2023-10-05 Information processing system, information processing method, and information processing program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016209910A JP6853013B2 (en) 2016-10-26 2016-10-26 Information processing systems, information processing methods, and information processing programs
JP2021039030A JP7135141B2 (en) 2016-10-26 2021-03-11 Information processing system, information processing method, and information processing program
JP2022138117A JP7368886B2 (en) 2016-10-26 2022-08-31 Information processing system, information processing method, and information processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021039030A Division JP7135141B2 (en) 2016-10-26 2021-03-11 Information processing system, information processing method, and information processing program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023173869A Division JP2023181217A (en) 2016-10-26 2023-10-05 Information processing system, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JP2022177053A true JP2022177053A (en) 2022-11-30
JP7368886B2 JP7368886B2 (en) 2023-10-25

Family

ID=62111658

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2016209910A Active JP6853013B2 (en) 2016-10-26 2016-10-26 Information processing systems, information processing methods, and information processing programs
JP2021039030A Active JP7135141B2 (en) 2016-10-26 2021-03-11 Information processing system, information processing method, and information processing program
JP2022138117A Active JP7368886B2 (en) 2016-10-26 2022-08-31 Information processing system, information processing method, and information processing program
JP2023173869A Pending JP2023181217A (en) 2016-10-26 2023-10-05 Information processing system, information processing method, and information processing program

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2016209910A Active JP6853013B2 (en) 2016-10-26 2016-10-26 Information processing systems, information processing methods, and information processing programs
JP2021039030A Active JP7135141B2 (en) 2016-10-26 2021-03-11 Information processing system, information processing method, and information processing program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023173869A Pending JP2023181217A (en) 2016-10-26 2023-10-05 Information processing system, information processing method, and information processing program

Country Status (1)

Country Link
JP (4) JP6853013B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116055670A (en) * 2023-01-17 2023-05-02 深圳图为技术有限公司 Method for collaborative checking three-dimensional model based on network conference and network conference system

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6506454B1 (en) * 2018-06-14 2019-04-24 株式会社バーチャルキャスト Data replacement device, terminal, and data replacement program
JP7361468B2 (en) * 2018-12-28 2023-10-16 株式会社バンダイナムコエンターテインメント Server system, control method and program
JP7111645B2 (en) * 2019-03-28 2022-08-02 株式会社バーチャルキャスト control program
JP7360112B2 (en) 2019-09-27 2023-10-12 グリー株式会社 Computer program, server device, terminal device, and method
JP7102457B2 (en) * 2020-04-24 2022-07-19 株式会社バーチャルキャスト Content distribution systems, content distribution methods, and computer programs
JP7261207B2 (en) * 2020-10-20 2023-04-19 株式会社タカラトミー Information processing system and information processing method
JP2023033975A (en) 2021-08-30 2023-03-13 キヤノン株式会社 Image processing device, image processing method, and program
JP7167388B1 (en) * 2021-12-24 2022-11-09 正啓 榊原 Movie creation system, movie creation device, and movie creation program
JP7138317B1 (en) 2022-02-21 2022-09-16 株式会社4Colors Animation generation system, animation generation program, and animation generation method
JP7460922B2 (en) 2022-03-10 2024-04-03 株式会社カプコン Information processing system and program
WO2024084580A1 (en) * 2022-10-18 2024-04-25 日本電信電話株式会社 Somatic sense control device, method, and program
JP7312337B1 (en) 2023-03-29 2023-07-20 株式会社バーチャルキャスト CONFERENCE SYSTEM, CONTROL DEVICE, CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2534617B2 (en) * 1993-07-23 1996-09-18 株式会社エイ・ティ・アール通信システム研究所 Real-time recognition and synthesis method of human image
JP4148671B2 (en) * 2001-11-06 2008-09-10 ソニー株式会社 Display image control processing apparatus, moving image information transmission / reception system, display image control processing method, moving image information transmission / reception method, and computer program
JP2004062751A (en) 2002-07-31 2004-02-26 Daikin Ind Ltd Data transmission system, device and method for transmitting data, device and method for receiving data and program
JP4330494B2 (en) * 2004-06-28 2009-09-16 シャープ株式会社 Broadcast program participation system and method
JP2006067405A (en) 2004-08-30 2006-03-09 Sharp Corp Television broadcast transmitter, television broadcast receiver, and broadcast program participation system and method
JP6006536B2 (en) * 2012-06-01 2016-10-12 任天堂株式会社 Information processing program, information processing apparatus, information processing system, and panoramic video display method
JP2014165841A (en) * 2013-02-27 2014-09-08 Brother Ind Ltd Information processing device and information processing method
JP6319952B2 (en) 2013-05-31 2018-05-09 任天堂株式会社 Information processing program, information processing apparatus, information processing system, and information processing method
US9452354B2 (en) * 2013-06-07 2016-09-27 Sony Interactive Entertainment Inc. Sharing three-dimensional gameplay
US10009596B2 (en) * 2013-09-13 2018-06-26 Intel Corporation Video production sharing apparatus and method
JP6374754B2 (en) * 2014-10-14 2018-08-15 日本放送協会 Image composition apparatus and program thereof
JP6598109B2 (en) * 2014-12-25 2019-10-30 パナソニックIpマネジメント株式会社 Video receiving method and terminal device
US10775878B2 (en) 2015-04-10 2020-09-15 Sony Interactive Entertainment Inc. Control of personal space content presented via head mounted display

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116055670A (en) * 2023-01-17 2023-05-02 深圳图为技术有限公司 Method for collaborative checking three-dimensional model based on network conference and network conference system
CN116055670B (en) * 2023-01-17 2023-08-29 深圳图为技术有限公司 Method for collaborative checking three-dimensional model based on network conference and network conference system

Also Published As

Publication number Publication date
JP2021101557A (en) 2021-07-08
JP7135141B2 (en) 2022-09-12
JP2023181217A (en) 2023-12-21
JP2018074294A (en) 2018-05-10
JP6853013B2 (en) 2021-03-31
JP7368886B2 (en) 2023-10-25

Similar Documents

Publication Publication Date Title
JP7135141B2 (en) Information processing system, information processing method, and information processing program
US11563779B2 (en) Multiuser asymmetric immersive teleconferencing
US20120314077A1 (en) Network synchronized camera settings
JP2016537903A (en) Connecting and recognizing virtual reality content
WO2018214746A1 (en) Video conference realization method, device and system, and computer storage medium
KR20150105058A (en) Mixed reality type virtual performance system using online
KR101739220B1 (en) Special Video Generation System for Game Play Situation
WO2021095573A1 (en) Information processing system, information processing method, and program
CN110730340B (en) Virtual audience display method, system and storage medium based on lens transformation
JP2008510357A (en) Image encoding method, encoding device, image decoding method, and decoding device
JP7202935B2 (en) Attention level calculation device, attention level calculation method, and attention level calculation program
KR20190031220A (en) System and method for providing virtual reality content
KR20130067855A (en) Apparatus and method for providing virtual 3d contents animation where view selection is possible
JP4330494B2 (en) Broadcast program participation system and method
KR102261242B1 (en) System for playing three dimension image of 360 degrees
TWI836141B (en) Live broadcasting method for real time three-dimensional image display
Van Broeck et al. Real-time 3D video communication in 3D virtual worlds: Technical realization of a new communication concept
TW202213992A (en) Live broadcasting method for real time three-dimensional image display
TW202213990A (en) Live broadcasting system for real time three-dimensional image display
JP2023085912A (en) Moving image distribution system, moving image distribution device, terminal, method, data structure, and program
KR20220058096A (en) Game Replay System Using Points Cloud
JP2023085913A (en) Moving image distribution system, moving image distribution device, method, and program
KR20200010909A (en) Panorama chroma-key synthesis system and method
KR20200025083A (en) One-person media broadcasting system for production and relay of virtual reality video
CN115079826A (en) Virtual reality implementation method, electronic equipment and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220922

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231005

R150 Certificate of patent or registration of utility model

Ref document number: 7368886

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150