JP7471034B1 - Image processing system and image processing method - Google Patents
Image processing system and image processing method Download PDFInfo
- Publication number
- JP7471034B1 JP7471034B1 JP2023211494A JP2023211494A JP7471034B1 JP 7471034 B1 JP7471034 B1 JP 7471034B1 JP 2023211494 A JP2023211494 A JP 2023211494A JP 2023211494 A JP2023211494 A JP 2023211494A JP 7471034 B1 JP7471034 B1 JP 7471034B1
- Authority
- JP
- Japan
- Prior art keywords
- terminal
- virtual space
- visual data
- target
- viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims abstract description 47
- 238000003672 processing method Methods 0.000 title claims abstract description 16
- 230000000007 visual effect Effects 0.000 claims abstract description 102
- 238000004891 communication Methods 0.000 claims abstract description 55
- 230000005540 biological transmission Effects 0.000 claims description 13
- 230000004048 modification Effects 0.000 description 16
- 238000012986 modification Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 238000009877 rendering Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 7
- 238000000034 method Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】 3Dモデルを頒布することなく、3Dモデルを用いて生成される視覚データの提供を可能とする画像処理システム及び画像処理方法を提供する。【解決手段】 画像処理システムは、不特定の第三者が参加可能な仮想空間に配置され得る対象オブジェクトに関する視覚データの生成に用いる3次元モデルを格納する対象端末と、前記仮想空間において前記対象オブジェクトを仲介する仲介装置と、を備え、前記仲介装置は、前記仮想空間において前記対象オブジェクトの視聴を要求する相手端末と前記対象端末との間の端末間通信に用いるアドレス情報を前記対象端末に送信する装置側送信部を備え、前記対象端末は、前記仮想空間において前記対象オブジェクトを視認する視線方向を含む視点情報を受信する受信部と、前記視点情報に基づいて、前記仮想空間における前記対象オブジェクトに関する視覚データを生成する制御部と、前記端末間通信によって、前記視覚データを前記相手端末に送信する送信部と、を備える。【選択図】 図2[Problem] To provide an image processing system and an image processing method that enable the provision of visual data generated using a 3D model without distributing the 3D model. [Solution] The image processing system includes a target terminal that stores a 3D model used to generate visual data related to a target object that can be placed in a virtual space in which unspecified third parties can participate, and an intermediary device that mediates the target object in the virtual space, the intermediary device includes a device-side transmitting unit that transmits to the target terminal address information used in terminal-to-terminal communication between the target terminal and a partner terminal that requests viewing of the target object in the virtual space, and the target terminal includes a receiving unit that receives viewpoint information including a line-of-sight direction for viewing the target object in the virtual space, a control unit that generates visual data related to the target object in the virtual space based on the viewpoint information, and a transmitting unit that transmits the visual data to the partner terminal by the terminal-to-terminal communication. [Selected Figure] Figure 2
Description
本発明は、画像処理システム及び画像処理方法に関する。 The present invention relates to an image processing system and an image processing method.
近年、3DoF(Degree of Freedom)、6DoFなどの自由視点映像の生成において、自由視点映像をサーバ側にて生成する技術(クラウドレンダリング)について提案されている(例えば、特許文献1、2)。 In recent years, technology for generating free-viewpoint video on the server side (cloud rendering) has been proposed for generating free-viewpoint video such as 3DoF (Degree of Freedom) and 6DoF (for example, Patent Documents 1 and 2).
仮想世界の利用が進む中、3Dオブジェクトを不特定の第三者に見せたいというユーザのニーズも存在する。クラウドレンダリングは、この課題を解決しているが、コストの高さなどの理由からクラウドサーバの利用はできるだけ避けるか小規模に抑えたいというニーズがある。また、クラウドサーバのサーバ管理者による3Dオブジェクトの目的外使用や3Dオブジェクトの流出等への懸念から、そもそもクラウドサーバの利用を望まないユーザのニーズも想定する必要がある。 As the use of virtual worlds continues to grow, there is also a need among users to be able to show 3D objects to unspecified third parties. Cloud rendering solves this issue, but there is a need to avoid using cloud servers as much as possible or to keep them small-scale due to high costs and other reasons. In addition, due to concerns about the server administrators of cloud servers using 3D objects for unintended purposes or the leakage of 3D objects, it is necessary to consider the needs of users who do not want to use cloud servers in the first place.
そこで、本発明は、上述した課題を解決するためになされたものであり、3Dモデルを頒布することなく、3Dモデルを用いて生成される視覚データの提供を可能とする画像処理システム及び画像処理方法を提供することを目的とする。 The present invention has been made to solve the above-mentioned problems, and aims to provide an image processing system and an image processing method that make it possible to provide visual data generated using a 3D model without distributing the 3D model.
開示の態様は、不特定の第三者が参加可能な仮想空間に配置され得る対象オブジェクトに関する視覚データの生成に用いる3次元モデルを格納する対象端末と、前記仮想空間において前記対象オブジェクトを仲介する仲介装置と、を備え、前記仲介装置は、前記仮想空間において前記対象オブジェクトの視聴を要求する相手端末と前記対象端末との間の端末間通信に用いるアドレス情報を前記対象端末に送信する装置側送信部を備え、前記対象端末は、前記仮想空間において前記対象オブジェクトを視認する視線方向を含む視点情報を受信する受信部と、前記視点情報に基づいて、前記仮想空間における前記対象オブジェクトに関する視覚データを生成する制御部と、前記端末間通信によって、前記視覚データを前記相手端末に送信する送信部と、を備える、画像処理システムである。 The disclosed embodiment is an image processing system comprising a target terminal that stores a three-dimensional model used to generate visual data related to a target object that may be placed in a virtual space in which unspecified third parties can participate, and an intermediary device that mediates the target object in the virtual space, the intermediary device comprising a device-side transmitting unit that transmits to the target terminal address information used in inter-terminal communication between the target terminal and a partner terminal that requests viewing of the target object in the virtual space, the target terminal comprising a receiving unit that receives viewpoint information including a line of sight direction in which the target object is viewed in the virtual space, a control unit that generates visual data related to the target object in the virtual space based on the viewpoint information, and a transmitting unit that transmits the visual data to the partner terminal through the inter-terminal communication.
開示の態様は、不特定の第三者が参加可能な仮想空間に配置され得る対象オブジェクトに関する視覚データの生成に用いる3次元モデルを格納する対象端末と、前記仮想空間において前記対象オブジェクトを仲介する仲介装置と、を備える画像処理システムで用いる画像処理方法であって、前記仲介装置が、前記仮想空間において前記対象オブジェクトの視聴を要求する相手端末と前記対象端末との間の端末間通信に用いるアドレス情報を前記対象端末に送信するステップと、前記対象端末が、前記仮想空間において前記対象オブジェクトを視認する視線方向を含む視点情報を受信するステップと、前記対象端末が、前記視点情報に基づいて、前記仮想空間における前記対象オブジェクトに関する視覚データを生成するステップと、前記対象端末が、前記端末間通信によって、前記視覚データを前記相手端末に送信するステップと、を備える、画像処理方法である。 The disclosed aspect is an image processing method used in an image processing system including a target terminal that stores a three-dimensional model used to generate visual data related to a target object that may be placed in a virtual space in which unspecified third parties can participate, and an intermediary device that mediates the target object in the virtual space, the image processing method including the steps of: the intermediary device transmitting to the target terminal address information used for terminal-to-terminal communication between the target terminal and a partner terminal that requests viewing of the target object in the virtual space; the target terminal receiving viewpoint information including a line-of-sight direction for viewing the target object in the virtual space; the target terminal generating visual data related to the target object in the virtual space based on the viewpoint information; and the target terminal transmitting the visual data to the partner terminal through the terminal-to-terminal communication.
本発明によれば、3Dモデルを頒布することなく、3Dモデルを用いて生成される視覚データの提供を可能とする画像処理システム及び画像処理方法を提供することができる。 The present invention provides an image processing system and an image processing method that enable the provision of visual data generated using a 3D model without distributing the 3D model.
以下において、実施形態について図面を参照しながら説明する。なお、以下の図面の記載において、同一又は類似の部分には、同一又は類似の符号を付している。但し、図面は模式的なものである。 The following describes the embodiments with reference to the drawings. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals. However, the drawings are schematic.
[実施形態]
(画像処理システム)
以下において、実施形態に係る画像処理システムについて説明する。図1は、実施形態に係る画像処理システム100を示す図である。
[Embodiment]
(Image Processing System)
An image processing system according to an embodiment will be described below. Fig. 1 is a diagram showing an image processing system 100 according to an embodiment.
図1に示すように、画像処理システム100は、対象端末10と、相手端末20と、仲介サーバ30と、を有する。対象端末10、相手端末20及び仲介サーバ30は、ネットワーク110によって接続される。特に限定されるものではないが、ネットワーク110は、インターネットによって構成されてもよい。ネットワーク110は、ローカルエリアネットワークを含んでもよく、移動体通信網を含んでもよく、VPN(Virtual Private Network)を含んでもよい。 As shown in FIG. 1, the image processing system 100 has a target terminal 10, a counterpart terminal 20, and an intermediary server 30. The target terminal 10, the counterpart terminal 20, and the intermediary server 30 are connected by a network 110. Although not particularly limited, the network 110 may be configured by the Internet. The network 110 may include a local area network, a mobile communication network, or a VPN (Virtual Private Network).
対象端末10は、対象オブジェクト(以下、3Dオブジェクト)を見せたいユーザによって用いられる端末である。ユーザは、3Dオブジェクトの3次元モデル(以下、3Dモデル)の所有者であってもよい。対象端末10は、パーソナルコンピュータであってもよく、スマートフォンであってもよく、タブレット端末であってもよく、クラウドコンピュータであってもよい。対象端末10は、3Dオブジェクトを表示するための視覚データを出力する端末であればよい。対象端末10は、3Dオブジェクトの3Dモデルを格納する。3Dモデルは、特定サーバによって提供される仮想空間に配置され得る。特定サーバは、仲介サーバ30であってもよく、仲介サーバ30以外のサーバ(例えば、仮想空間を提供するクラウドサービスを提供するサーバなど)であってもよい。 The target terminal 10 is a terminal used by a user who wants to show a target object (hereinafter, a 3D object). The user may be the owner of a three-dimensional model of the 3D object (hereinafter, a 3D model). The target terminal 10 may be a personal computer, a smartphone, a tablet terminal, or a cloud computer. The target terminal 10 may be any terminal that outputs visual data for displaying a 3D object. The target terminal 10 stores a 3D model of the 3D object. The 3D model may be placed in a virtual space provided by a specific server. The specific server may be the intermediary server 30, or may be a server other than the intermediary server 30 (for example, a server that provides a cloud service that provides a virtual space).
ここで、視覚データは、単なる画像を表示するデータだけではなく、深度マップ付きの画像、法線マップ付きの画像、凹凸のある画像、高さマップのある画像、分割された画像、複数枚重ねられた画像などのデータを含んでもよい。従って、視覚データは、画像のデータ形式(.png, .jpg等)で表現されなくてもよい。視覚データは、圧縮や暗号化等によって変換されていてもよい。視覚データはそのまま使われてもよく、ライティング、高解像度化、画風変換等の追加の処理が施された後に使われてもよい。視覚データは、3Dモデルそのものではなく、視覚データの単体で3Dモデルを復元することができないが、3Dモデルについてある視点に対応したレンダリング結果を表示するためのデータであればよい。 The visual data here is not just data that displays an image, but may also include data such as an image with a depth map, an image with a normal map, an image with bumps and grooves, an image with a height map, a segmented image, or an image that is layered over multiple images. Thus, the visual data does not have to be expressed in an image data format (.png, .jpg, etc.). The visual data may be converted by compression, encryption, etc. The visual data may be used as is, or may be used after additional processing such as lighting, high resolution, or style conversion. The visual data is not the 3D model itself, and the visual data alone cannot restore a 3D model, but it may be data for displaying a rendering result corresponding to a certain viewpoint for a 3D model.
実施形態では、対象端末10は、不特定の第三者が参加可能な仮想空間に配置され得る3Dオブジェクトに関する視覚データの生成に用いる3次元モデルを格納する対象端末の一例である。 In the embodiment, the target terminal 10 is an example of a target terminal that stores a three-dimensional model used to generate visual data regarding a 3D object that can be placed in a virtual space in which unspecified third parties can participate.
相手端末20は、3Dオブジェクトの視聴を要求する視聴者によって用いられる端末である。相手端末20は、パーソナルコンピュータであってもよく、スマートフォンであってもよく、タブレット端末であってもよい。相手端末20は、ヘッドマウントディスプレイであってもよい。相手端末20は、視覚データに基づいて3Dオブジェクトを表示する機能を有していてもよい。 The other terminal 20 is a terminal used by a viewer who requests to view a 3D object. The other terminal 20 may be a personal computer, a smartphone, or a tablet terminal. The other terminal 20 may be a head-mounted display. The other terminal 20 may have a function of displaying a 3D object based on visual data.
実施形態では、相手端末20は、仮想空間において3Dオブジェクトの視聴を要求する相手端末の一例である。 In the embodiment, the other terminal 20 is an example of a other terminal that requests viewing of a 3D object in a virtual space.
仲介サーバ30は、相手端末20を対象端末10に仲介するサーバである。仲介サーバ30は、不特定の第三者が参加可能な仮想空間を提供してもよい。上述した3Dオブジェクトは、仮想空間に配置されてもよい。ここで、不特定の第三者は、対象端末10のユーザによって許可を得ていない第三者を意味してもよい。許可は、3Dオブジェクトの3Dモデルの利用に関する許可であってもよい。許可は、仲介サーバ30の運営者を介する間接的な許可(例えば、運営者とユーザとの間の契約及び運営者と視聴者との間の契約などによる許可)であってもよい。 The intermediary server 30 is a server that mediates between the counterpart terminal 20 and the target terminal 10. The intermediary server 30 may provide a virtual space in which unspecified third parties can participate. The above-mentioned 3D object may be placed in the virtual space. Here, the unspecified third party may mean a third party who has not been authorized by the user of the target terminal 10. The permission may be permission regarding the use of the 3D model of the 3D object. The permission may be indirect permission via the operator of the intermediary server 30 (for example, permission based on a contract between the operator and the user and a contract between the operator and the viewer, etc.).
例えば、仲介サーバ30は、仮想空間において3Dオブジェクトに関する情報を表示することによって、3Dオブジェクトに関する情報に興味を持つ視聴者(相手端末20)を募集してもよい。3Dオブジェクトに関する情報は、3Dオブジェクトのサンプルであってもよい。サンプルは、3Dオブジェクトの解像度を落としたメッシュであってもよく、3Dオブジェクトの画像であってもよい。3Dオブジェクトに関する情報は、3Dオブジェクトの3Dモデルの作成者などの説明を含んでもよい。 For example, the intermediary server 30 may solicit viewers (partner terminals 20) who are interested in information about 3D objects by displaying information about the 3D objects in a virtual space. The information about the 3D objects may be a sample of the 3D object. The sample may be a mesh with a reduced resolution of the 3D object, or an image of the 3D object. The information about the 3D object may include a description of the creator of the 3D model of the 3D object, etc.
実施形態では、仲介サーバ30は、仮想空間において3Dオブジェクトを仲介する仲介装置の一例である。 In the embodiment, the intermediary server 30 is an example of an intermediary device that mediates 3D objects in a virtual space.
(対象端末)
以下において、実施形態に係る対象端末10について説明する。図2は、実施形態に係る対象端末10を示す図である。
(Target devices)
The target terminal 10 according to the embodiment will be described below. Fig. 2 is a diagram showing the target terminal 10 according to the embodiment.
図2に示すように、対象端末10は、通信部11と、格納部12と、制御部13と、を有する。 As shown in FIG. 2, the target terminal 10 has a communication unit 11, a storage unit 12, and a control unit 13.
通信部11は、通信モジュールによって構成されてもよい。通信モジュールは、IEEE802.11a/b/g/n/ac/ax、LTE、5G、6Gなどの規格に準拠する無線通信モジュールであってもよく、IEEE802.3などの規格に準拠する有線通信モジュールであってもよい。 The communication unit 11 may be configured by a communication module. The communication module may be a wireless communication module conforming to a standard such as IEEE802.11a/b/g/n/ac/ax, LTE, 5G, or 6G, or may be a wired communication module conforming to a standard such as IEEE802.3.
通信部11は、相手端末20及び仲介サーバ30と通信を実行してもよい。対象端末10と相手端末20との間の直接的な通信は、端末間通信と称されてもよい。 The communication unit 11 may communicate with the other terminal 20 and the intermediary server 30. Direct communication between the target terminal 10 and the other terminal 20 may be referred to as inter-terminal communication.
通信部11は、端末間通信で用いるアドレス情報を仲介サーバ30から受信してもよい。アドレス情報は、3Dオブジェクトに関する視覚データの宛先(例えば、相手端末20のIPアドレスなど)であってもよい。 The communication unit 11 may receive address information used in terminal-to-terminal communication from the intermediary server 30. The address information may be the destination of visual data related to a 3D object (e.g., the IP address of the other terminal 20).
通信部11は、仮想空間において3Dオブジェクトを視認する視線方向を含む視点情報を受信してもよい。視点情報は、仮想空間において3Dオブジェクトを視認する視点位置を含んでもよい。通信部11は、相手端末20から視点情報を受信してもよい。 The communication unit 11 may receive viewpoint information including a line of sight direction in which a 3D object is viewed in a virtual space. The viewpoint information may include a viewpoint position in which a 3D object is viewed in a virtual space. The communication unit 11 may receive viewpoint information from the other terminal 20.
通信部11は、端末間通信によって、3Dオブジェクトに関する視覚データを相手端末20に送信してもよい。3Dオブジェクトに関する視覚データは、後述する制御部13によって生成されてもよい。 The communication unit 11 may transmit visual data related to the 3D object to the other terminal 20 through terminal-to-terminal communication. The visual data related to the 3D object may be generated by the control unit 13, which will be described later.
格納部12は、SSD(Solid State Drive)、HDD(Hard Disk Drive)、RAM(Random Access Memory)などの記憶媒体によって構成されており、様々な情報を格納する。 The storage unit 12 is composed of storage media such as a solid state drive (SSD), a hard disk drive (HDD), and a random access memory (RAM), and stores various information.
格納部12は、3Dオブジェクトの3Dモデルを格納する。特に限定されるものではないが、3Dモデルの種類は、ワイヤフレーム、サーフェイスモデル、ソリッドモデルなどであってもよい。3Dモデルは、外観や形状にアニメーションを持つ又は持てる3Dモデルでもよい。3Dモデルは、外観や形状を変更できる3Dモデルでもよい。3Dモデルは、外観や形状を事前に持たずとも、外観や形状を生成できるプログラムでもよい。3Dモデルは、外観や形状を明示的なデータで持たずとも、複数の視点の画像情報を補間する処理などによって、視点情報に対応した視覚データを生成できるプログラムでもよい。3Dモデルは、これらの組合せであってもよい。特に限定されるものではないが、3Dモデルのデータは、所定拡張子(例えば、“.obj”、“.ply”、“.glb”など)で管理されるデータであってもよい。 The storage unit 12 stores 3D models of 3D objects. Although not particularly limited, the type of 3D model may be a wireframe, a surface model, a solid model, etc. The 3D model may be a 3D model that has or can have animation in its appearance or shape. The 3D model may be a 3D model whose appearance or shape can be changed. The 3D model may be a program that can generate an appearance or shape without having the appearance or shape in advance. The 3D model may be a program that can generate visual data corresponding to viewpoint information by a process of interpolating image information from multiple viewpoints, even without having the appearance or shape as explicit data. The 3D model may be a combination of these. Although not particularly limited, the data of the 3D model may be data managed with a specified extension (for example, ".obj", ".ply", ".glb", etc.).
制御部13は、少なくとも1つのプロセッサを含んでもよい。少なくとも1つのプロセッサは、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、1以上のIntegrated Circuit、1以上のDiscrete Circuit、及び、これらの組合せによって構成されてもよい。 The control unit 13 may include at least one processor. The at least one processor may be configured with a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), one or more Integrated Circuits, one or more Discrete Circuits, or a combination thereof.
制御部13は、仮想空間における3Dオブジェクトに関する視覚データを生成する。具体的には、制御部13は、相手端末20 から受信する視点情報に基づいて、3Dオブジェクトに関する視覚データを生成する。 The control unit 13 generates visual data regarding the 3D object in the virtual space. Specifically, the control unit 13 generates visual data regarding the 3D object based on viewpoint information received from the other terminal 20.
例えば、制御部13は、3Dオブジェクトに関する視覚データとして、仲介サーバ30から受信する視点情報に基づいて、仮想空間において3Dオブジェクトを2次元画像として表示する視覚データを生成してもよい。このような2次元画像は、Billboardと称されてもよい。制御部13は、格納部12に格納される3Dモデルを用いてBillboardの視覚データを生成する。 For example, the control unit 13 may generate visual data for a 3D object as a two-dimensional image in a virtual space based on viewpoint information received from the intermediary server 30. Such a two-dimensional image may be called a billboard. The control unit 13 generates visual data for the billboard using the 3D model stored in the storage unit 12.
このような前提下において、制御部13は、以下に示す動作を実行してもよい。 Under these conditions, the control unit 13 may perform the following operations:
制御部13は、第1相手端末に対する視覚データの送信を省略し、第2相手端末に対する視覚データの送信を実行してもよい。第1相手端末及び第2相手端末としては、以下に示すオプションが考えられる。 The control unit 13 may omit sending visual data to the first remote terminal and send visual data to the second remote terminal. The following options are possible for the first remote terminal and the second remote terminal.
オプション1では、第1相手端末は、特定条件を満たさない相手端末であり、第2相手端末は、特定条件を満たす相手端末であってもよい。特定条件としては、以下に示すオプションが考えられる。 In option 1, the first remote terminal may be a remote terminal that does not satisfy a specific condition, and the second remote terminal may be a remote terminal that satisfies a specific condition. The following options are possible specific conditions:
オプション1-1では、特定条件は、抽選に当選することであってもよい。抽選は、相手端末20に割り当てられた乱数が所定乱数である場合に、相手端末20が当選する形式であってもよい。 In option 1-1, the specific condition may be winning a lottery. The lottery may be in a form in which the other terminal 20 wins if the random number assigned to the other terminal 20 is a predetermined random number.
オプション1-2では、特定条件は、仮想空間において3Dオブジェクトが相手端末20の視聴者の視界に入った順番が所定順番以内であることであってもよい。相手端末20の視聴者の視界に入った順番は、所定タイミング(例えば、仮想空間に3Dオブジェクトが配置されてから一定時間が経過したタイミング、対象端末10のユーザによって選択されたタイミングなど)でリセットされてもよい。 In option 1-2, the specific condition may be that the order in which the 3D objects come into view of the viewer of the other terminal 20 in the virtual space is within a predetermined order. The order in which the 3D objects come into view of the viewer of the other terminal 20 may be reset at a predetermined timing (e.g., a certain amount of time has elapsed since the 3D objects were placed in the virtual space, a timing selected by the user of the target terminal 10, etc.).
オプション1-3では、特定条件は、仲介サーバ30の運営者に対する相手端末20の視聴者の課金状況が条件を満たすことであってもよい。例えば、特定条件は、視点情報に基づいた3Dオブジェクトの視聴のための課金を行っていることであってもよい。 In options 1-3, the specific condition may be that the billing status of the viewer of the other terminal 20 with respect to the operator of the intermediary server 30 satisfies a condition. For example, the specific condition may be that billing is being performed for viewing a 3D object based on viewpoint information.
オプション2では、第1相手端末は、仮想空間において3Dオブジェクトに対する距離が閾値よりも離れた視点位置を送信する相手端末であり、第2相手端末は、仮想空間において3Dオブジェクトに対する距離が閾値よりも近い視点位置を送信する相手端末であってもよい。 In option 2, the first remote terminal may be a remote terminal that transmits a viewpoint position whose distance to a 3D object in virtual space is greater than a threshold, and the second remote terminal may be a remote terminal that transmits a viewpoint position whose distance to a 3D object in virtual space is greater than a threshold.
すなわち、3Dオブジェクトに対する距離が閾値よりも離れた視点位置を送信する第1相手端末については、3Dオブジェクトに興味を持っているか否か定かではなく、視点情報に基づいて3Dオブジェクトが変化しなくても差し支えない可能性が高い。従って、対象端末10の端末間通信の負荷軽減が優先されてもよい。 In other words, for a first partner terminal that transmits a viewpoint position whose distance from the 3D object is greater than a threshold, it is not clear whether the first partner terminal is interested in the 3D object, and it is highly likely that the 3D object does not need to change based on the viewpoint information. Therefore, reducing the load on the inter-terminal communication of the target terminal 10 may be prioritized.
実施形態では、通信部11は、仮想空間において3Dオブジェクトを視認する視線方向を含む視点情報を受信する受信部を構成する。制御部13は、視点情報に基づいて、仮想空間における3Dオブジェクトに関する視覚データを生成する制御部を構成する。通信部11は、端末間通信によって、視覚データを相手端末20に送信する送信部を構成する。 In the embodiment, the communication unit 11 constitutes a receiving unit that receives viewpoint information including the line of sight direction in which a 3D object is viewed in a virtual space. The control unit 13 constitutes a control unit that generates visual data related to the 3D object in the virtual space based on the viewpoint information. The communication unit 11 constitutes a transmitting unit that transmits the visual data to the other terminal 20 through terminal-to-terminal communication.
(仲介サーバ)
以下において、実施形態に係る仲介サーバ30について説明する。図3は、実施形態に係る仲介サーバ30を示す図である。
(Intermediary server)
The intermediation server 30 according to the embodiment will be described below. Fig. 3 is a diagram showing the intermediation server 30 according to the embodiment.
図3に示すように、仲介サーバ30は、通信部31と、格納部32と、制御部33と、を有する。 As shown in FIG. 3, the intermediary server 30 has a communication unit 31, a storage unit 32, and a control unit 33.
通信部31は、通信モジュールによって構成されてもよい。通信モジュールは、IEEE802.31a/b/g/n/ac/ax、LTE、5G、6Gなどの規格に準拠する無線通信モジュールであってもよく、IEEE802.3などの規格に準拠する有線通信モジュールであってもよい。 The communication unit 31 may be configured by a communication module. The communication module may be a wireless communication module conforming to standards such as IEEE802.31a/b/g/n/ac/ax, LTE, 5G, or 6G, or may be a wired communication module conforming to standards such as IEEE802.3.
通信部31は、対象端末10及び相手端末20と通信を実行する。通信部31は、仮想空間を表示するためのデータを対象端末10及び相手端末20に送信してもよい。通信部31は、3Dオブジェクトの視聴を要求する相手端末20から、相手端末20のアドレス情報を受信してもよい。通信部31は、端末間通信に用いるアドレス情報として、相手端末20のアドレス情報を対象端末10に送信してもよい。 The communication unit 31 communicates with the target terminal 10 and the other terminal 20. The communication unit 31 may transmit data for displaying the virtual space to the target terminal 10 and the other terminal 20. The communication unit 31 may receive address information of the other terminal 20 from the other terminal 20 requesting viewing of a 3D object. The communication unit 31 may transmit the address information of the other terminal 20 to the target terminal 10 as address information to be used for terminal-to-terminal communication.
格納部32は、SSD(Solid State Drive)、HDD(Hard Disk Drive)などの記憶媒体によって構成されており、様々な情報を格納する。 The storage unit 32 is composed of storage media such as a solid state drive (SSD) or a hard disk drive (HDD), and stores various information.
格納部32は、仮想空間を表示するためのデータを格納する。格納部32は、対象端末10のユーザの会員登録が必要とされる場合に、対象端末10のユーザの会員情報を管理してもよい。会員情報は、ユーザの氏名、ユーザのハンドル名、対象端末10のアドレス情報などを含んでもよい。同様に、格納部32は、相手端末20の視聴者の会員登録が必要とされる場合に、相手端末20の視聴者の会員情報を管理してもよい。会員情報は、視聴者の氏名、視聴者のハンドル名、相手端末20のアドレス情報などを含んでもよい。 The storage unit 32 stores data for displaying the virtual space. The storage unit 32 may manage membership information of the user of the target terminal 10 when membership registration of the user of the target terminal 10 is required. The membership information may include the user's name, the user's handle name, address information of the target terminal 10, etc. Similarly, the storage unit 32 may manage membership information of the viewer of the other terminal 20 when membership registration of the viewer of the other terminal 20 is required. The membership information may include the viewer's name, the viewer's handle name, address information of the other terminal 20, etc.
制御部33は、少なくとも1つのプロセッサを含んでもよい。少なくとも1つのプロセッサは、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、1以上のIntegrated Circuit、1以上のDiscrete Circuit、及び、これらの組合せによって構成されてもよい。 The control unit 33 may include at least one processor. The at least one processor may be configured with a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), one or more Integrated Circuits, one or more Discrete Circuits, or a combination thereof.
制御部33は、相手端末20の要求に応じて、対象端末10に対する相手端末20のアドレス情報の送信を通信部に指示してもよい。 The control unit 33 may instruct the communication unit to transmit address information of the other terminal 20 to the target terminal 10 in response to a request from the other terminal 20.
実施形態では、通信部31は、仮想空間において3Dオブジェクトの視聴を要求する相手端末20と対象端末10との間の端末間通信に用いるアドレス情報を対象端末10に送信する装置側送信部を構成する。 In the embodiment, the communication unit 31 constitutes a device-side transmission unit that transmits to the target terminal 10 address information used for terminal-to-terminal communication between the other terminal 20 that requests viewing of a 3D object in a virtual space and the target terminal 10.
(Billboard)
以下において、実施形態に係るBillboardについて説明する。図4~図8は、実施形態に係るBillboardについて説明するための図である。Billboardは、上述した視覚データの一例であると考えてもよく、上述した視覚データに基づいて生成されてもよい。
(Billboard)
The billboard according to the embodiment will be described below. Figures 4 to 8 are diagrams for explaining the billboard according to the embodiment. The billboard may be considered as an example of the above-mentioned visual data, and may be generated based on the above-mentioned visual data.
ここでは、3DオブジェクトがCG(Computer Graphics)などで作成された人間の顔であり、仮想空間において人間の胴体に人間の顔が重畳されるケースについて例示する。人間の胴体は、CG(Computer Graphics)技術によって予め生成された3Dモデルであってもよい。 Here, we will take as an example a case where the 3D object is a human face created using CG (Computer Graphics) or the like, and the human face is superimposed on a human torso in a virtual space. The human torso may be a 3D model that has been generated in advance using CG (Computer Graphics) technology.
また、説明を明確化するために、視聴者が仮想空間において3Dオブジェクトを視認する視点(以下、視聴者視点)を例に挙げて説明する。視聴者視点は、上述した視点情報によって特定される。視聴者視点は、仮想空間を定義する絶対的な座標軸において、仮想空間内において視聴者が3Dオブジェクトを視認する視点であると考えてもよい。 For the sake of clarity, the following description will be given taking as an example the viewpoint from which a viewer views a 3D object in a virtual space (hereinafter referred to as the viewer viewpoint). The viewer viewpoint is specified by the viewpoint information described above. The viewer viewpoint may be considered as the viewpoint from which a viewer views a 3D object in a virtual space on the absolute coordinate axes that define the virtual space.
このようなケースにおいて、視聴者視点においては、Billboardの傾きは、視聴者視点に対してBillboardが正対するように変更されてもよい。すなわち、視点情報に基づいてBillboardの傾きが変更される。一方で、視聴者視点とは異なる視点(以下、他の視点)においては、Billboardの傾きは、視聴者視点と他の視点との間の相対的な差異に基づいて変更されてもよい。Billboardの傾きは、垂直軸を中心とする傾きを含んでもよく、水平軸を中心とする傾きを含んでもよく、奥行軸を中心とする傾きを含んでもよい。Billboardの傾きは、視聴者視点によって変更された傾きと同期されてもよい。すなわち、Billboardの傾きは、視聴者視点と他の視点との間の相対的な差異に基づいて変更されてもよい。 In such a case, at the viewer's viewpoint, the inclination of the billboard may be changed so that the billboard faces directly toward the viewer's viewpoint. That is, the inclination of the billboard is changed based on the viewpoint information. On the other hand, at a viewpoint different from the viewer's viewpoint (hereinafter, the other viewpoint), the inclination of the billboard may be changed based on the relative difference between the viewer's viewpoint and the other viewpoint. The inclination of the billboard may include a tilt about a vertical axis, a tilt about a horizontal axis, or a tilt about a depth axis. The inclination of the billboard may be synchronized with the tilt changed by the viewer's viewpoint. That is, the inclination of the billboard may be changed based on the relative difference between the viewer's viewpoint and the other viewpoint.
このような前提下において、図4~図8に示すように、視聴者視点の画像において、仮想空間400において、3Dオブジェクト200を含むBillboard210を胴体410に重畳するケースについて例示する。 Under these assumptions, as shown in Figures 4 to 8, we will illustrate a case in which a billboard 210 including a 3D object 200 is superimposed on a torso 410 in a virtual space 400 in an image from the viewer's viewpoint.
第1に、図4に示すように、視聴者視点が胴体410を正面から視認する視点であるケースについて説明する。視聴者視点に対してBillboard210が正対するようにBillboard210の傾きが変更される。Billboard210上において、3Dオブジェクト200に関する表示画像は、視聴者視点に関するパラメータに基づいて生成される。 First, as shown in FIG. 4, a case will be described in which the viewer's viewpoint is a viewpoint in which the torso 410 is viewed from the front. The inclination of the billboard 210 is changed so that the billboard 210 faces the viewer's viewpoint directly. On the billboard 210, a display image of the 3D object 200 is generated based on parameters related to the viewer's viewpoint.
第2に、図5に示すように、視聴者視点が胴体410を略30°左側から視認する視点であってもよい。視聴者視点に対してBillboard210が正対するようにBillboard210の傾きが変更される。Billboard210上において、3Dオブジェクト200に関する表示画像は、視聴者視点に関するパラメータに基づいて生成される。 Secondly, as shown in FIG. 5, the viewer's viewpoint may be a viewpoint from which the torso 410 is viewed from approximately 30 degrees to the left. The inclination of the billboard 210 is changed so that the billboard 210 faces the viewer's viewpoint directly. On the billboard 210, a display image of the 3D object 200 is generated based on parameters related to the viewer's viewpoint.
第3に、図6に示すように、視聴者視点が胴体410を略30°右側から視認する視点であってもよい。視聴者視点に対してBillboard210が正対するようにBillboard210の傾きが変更される。Billboard210上において、3Dオブジェクト200に関する表示画像は、視聴者視点に関するパラメータに基づいて生成される。 Thirdly, as shown in FIG. 6, the viewer's viewpoint may be a viewpoint from which the torso 410 is viewed from approximately 30 degrees to the right. The inclination of the billboard 210 is changed so that the billboard 210 faces the viewer's viewpoint directly. On the billboard 210, a display image of the 3D object 200 is generated based on parameters related to the viewer's viewpoint.
第4に、Billboard210の傾きについて説明する観点から、視聴者視点と異なる他の視点で視認され得る画像について説明する。図7に示すように、視聴者視点が胴体410を正面から視認する視点である場合において、他の視点は、胴体410を略30°右側から視認する視点であってもよい。Billboard210の傾きは、視聴者視点に対してBillboard210が正対するように変更されるため、他の視点においては、Billboard210の傾きは、視聴者視点と他の視点との相対的な差異に基づいて変更される。 Fourthly, from the viewpoint of explaining the inclination of the billboard 210, an image that can be viewed from a viewpoint different from the viewer's viewpoint will be described. As shown in FIG. 7, when the viewer's viewpoint is a viewpoint from which the torso 410 is viewed from the front, the other viewpoint may be a viewpoint from which the torso 410 is viewed from approximately 30 degrees to the right. The inclination of the billboard 210 is changed so that the billboard 210 faces directly toward the viewer's viewpoint, and therefore, from the other viewpoint, the inclination of the billboard 210 is changed based on the relative difference between the viewer's viewpoint and the other viewpoint.
第5に、Billboard210の傾きについて説明する観点から、視聴者視点と異なる他の視点で視認され得る画像について説明する。図8に示すように、視聴者視点が胴体410を略30°左側から視認する視点である場合に、仮想空間視点は、胴体410を略30°右側から視認する視点であってもよい。Billboard210の傾きは、視聴者視点に対してBillboard210が正対するように変更されるため、他の視点においては、Billboard210の傾きは、視聴者視点と他の視点との相対的な差異に基づいて変更される。 Fifthly, from the viewpoint of explaining the inclination of the billboard 210, we will explain images that can be viewed from a viewpoint different from the viewer's viewpoint. As shown in FIG. 8, when the viewer's viewpoint is a viewpoint where the torso 410 is viewed from approximately 30 degrees to the left, the virtual space viewpoint may be a viewpoint where the torso 410 is viewed from approximately 30 degrees to the right. The inclination of the billboard 210 is changed so that the billboard 210 faces directly toward the viewer's viewpoint, and therefore, at the other viewpoint, the inclination of the billboard 210 is changed based on the relative difference between the viewer's viewpoint and the other viewpoint.
図4~図8では、説明の明確化のために、仮想空間400においてBillboard210を明示しているが、Billboard210において3Dオブジェクト200を除いた部分は透明であってもよい。すなわち、3Dオブジェクト200を除いた部分において、仮想空間400の画像が表示されてもよい。 In Figures 4 to 8, for clarity of explanation, the billboard 210 is shown in the virtual space 400, but the portion of the billboard 210 other than the 3D object 200 may be transparent. In other words, an image of the virtual space 400 may be displayed in the portion other than the 3D object 200.
Billboardは、ある視聴者に対して表示され、ある視聴者以外の他の視聴者に対して表示されなくてもよい。1人の視聴者に対して1つのBillboardが用意されてもよい。 A billboard may be displayed to one viewer and not to other viewers. There may be one billboard for each viewer.
(画像処理方法)
以下において、実施形態に係る画像処理方法について説明する。図9は、実施形態に係る画像処理方法を示す図である。
(Image Processing Method)
An image processing method according to an embodiment will be described below. Fig. 9 is a diagram showing the image processing method according to an embodiment.
図9に示すように、ステップS10において、相手端末20は、3Dオブジェクトの視聴要求を仲介サーバ30に送信する。 As shown in FIG. 9, in step S10, the remote terminal 20 transmits a request to view the 3D object to the intermediary server 30.
ステップS11において、仲介サーバ30は、対象端末10と相手端末20との間の直接的な端末間通信で用いるアドレス情報を対象端末10に送信する。アドレス情報は相手端末20のIPアドレスであってもよい。 In step S11, the intermediary server 30 transmits to the target terminal 10 address information to be used in direct terminal-to-terminal communication between the target terminal 10 and the counterpart terminal 20. The address information may be the IP address of the counterpart terminal 20.
ステップS20において、相手端末20は、仮想空間において3Dオブジェクトを視認する視線方向を含む視点情報を対象端末10に送信する。 In step S20, the other terminal 20 transmits viewpoint information including the line of sight direction in which the 3D object is viewed in the virtual space to the target terminal 10.
ステップS21において、対象端末10は、仮想空間における3Dオブジェクトに関する視覚データを生成する。対象端末10は、格納部12に格納される3Dモデルを用いて、視点情報に基づいて視覚データを生成する。3Dオブジェクトに関する視覚データは、3DオブジェクトをBillboardとして表示する視覚データであってもよい。 In step S21, the target terminal 10 generates visual data related to a 3D object in a virtual space. The target terminal 10 generates visual data based on viewpoint information using a 3D model stored in the storage unit 12. The visual data related to the 3D object may be visual data that displays the 3D object as a billboard.
ステップS22において、対象端末10は、端末間通信によって、視覚データを相手端末20に送信する。 In step S22, the target terminal 10 transmits the visual data to the partner terminal 20 via terminal-to-terminal communication.
(作用及び効果)
実施形態では、対象端末10は、相手端末20のアドレス情報を仲介サーバから受信するとともに、端末間通信にって視覚データを相手端末20に送信する。このような構成によれば、対象端末10に格納された3Dモデルを頒布することなく、3Dモデルを用いて生成される視覚データを提供することができる。
(Action and Effects)
In the embodiment, the target terminal 10 receives address information of the counterpart terminal 20 from the intermediary server, and transmits visual data to the counterpart terminal 20 through terminal-to-terminal communication. With this configuration, it is possible to provide visual data generated using a 3D model without distributing the 3D model stored in the target terminal 10.
実施形態では、対象端末10は、相手端末20から送信される視点情報に基づいて、仮想空間において3DオブジェクトをBillboardとして表示する視覚データを生成してもよい。このような構成によれば、3Dモデルを相手端末20に渡すことなく、3Dモデルを用いて生成される視覚データを提供することができる。 In an embodiment, the target terminal 10 may generate visual data that displays a 3D object as a billboard in a virtual space based on viewpoint information transmitted from the counterpart terminal 20. With this configuration, it is possible to provide visual data generated using a 3D model without passing the 3D model to the counterpart terminal 20.
実施形態では、対象端末10は、第1相手端末に対する視覚データの送信を省略し、第2相手端末に対する視覚データの送信を実行してもよい。このような構成によれば、全ての相手端末20に対して視覚データを送信する必要がなく、端末間通信の通信負荷を軽減することができる。 In an embodiment, the target terminal 10 may omit transmitting visual data to the first partner terminal and transmit visual data to the second partner terminal. With this configuration, there is no need to transmit visual data to all partner terminals 20, and the communication load of terminal-to-terminal communication can be reduced.
[変更例1]
以下において、実施形態の変更例1について説明する。以下においては、実施形態に対する相違点について主として説明する。
[Change Example 1]
Modification 1 of the embodiment will be described below. Differences from the embodiment will be mainly described below.
変更例1では、対象端末10の処理負荷を軽減するために、対象端末10は以下に示す動作を実行してもよい。 In modification example 1, in order to reduce the processing load on the target terminal 10, the target terminal 10 may perform the operations shown below.
第1に、対象端末10は、第1条件を満たす2以上の視点情報を送信する2以上の相手端末に対して、2以上の視点情報を代表する代表視点情報に基づいた視覚データを送信してもよい。代表視点情報は、代表視線方向を含んでもよい。代表視線方向は、2以上の視点情報の各々に含まれる2以上の視線方向の間の視線方向であればよく、2以上の視線方向のいずれか1つであってもよく、2以上の視線方向の中間地点であってもよい。代表視点情報は、代表視点位置を含んでもよい。代表視点位置は、2以上の視点情報の各々に含まれる2以上の視点位置の間の視点位置であればよく、2以上の視点位置のいずれか1つであってもよく、2以上の視点位置の中間地点であってもよい。 First, the target terminal 10 may transmit visual data based on representative viewpoint information representative of the two or more viewpoint information to two or more partner terminals transmitting two or more viewpoint information satisfying the first condition. The representative viewpoint information may include a representative gaze direction. The representative gaze direction may be any gaze direction between the two or more gaze directions included in each of the two or more viewpoint information, may be any one of the two or more gaze directions, or may be a midpoint between the two or more gaze directions. The representative viewpoint information may include a representative viewpoint position. The representative viewpoint position may be any gaze position between the two or more viewpoint positions included in each of the two or more viewpoint information, may be any one of the two or more viewpoint positions, or may be a midpoint between the two or more viewpoint positions.
例えば、第1条件は、2以上の視点情報の各々に含まれる2以上の視線方向によって形成される角度が所定角度以内である条件であってもよい。第1条件は、2以上の視点情報の各々に含まれる2以上の視点位置の距離が所定距離以下である条件であってもよい。 For example, the first condition may be a condition that the angle formed by two or more line of sight directions included in each of the two or more pieces of viewpoint information is within a predetermined angle. The first condition may be a condition that the distance between two or more viewpoint positions included in each of the two or more pieces of viewpoint information is equal to or less than a predetermined distance.
第2に、対象端末10は、特定視点情報に対して第2条件を満たす視点情報を送信する1以上の特定相手端末に対して、特定視点情報に基づいた視覚データを送信してもよい。特定視点情報は、特定視線方向を含んでもよい。特定視点情報は、特定視点位置を含んでもよい。特定視点情報は、対象端末10のユーザによって設定されてもよい。特定視点情報としては、1以上の特定視点情報が設定されてもよい。 Secondly, the target terminal 10 may transmit visual data based on the specific viewpoint information to one or more specific counterpart terminals that transmit viewpoint information satisfying a second condition for the specific viewpoint information. The specific viewpoint information may include a specific line of sight direction. The specific viewpoint information may include a specific viewpoint position. The specific viewpoint information may be set by the user of the target terminal 10. One or more specific viewpoint information may be set as the specific viewpoint information.
例えば、第2条件は、視点情報に含まれる視線方向と特定視線方向とによって形成される角度が所定角度以内である条件であってもよい。視点情報に含まれる視点位置と特定視点位置との距離が所定距離以下である条件であってもよい。 For example, the second condition may be that the angle formed by the line of sight direction included in the viewpoint information and the specific line of sight direction is within a predetermined angle. It may also be that the distance between the viewpoint position included in the viewpoint information and the specific viewpoint position is equal to or less than a predetermined distance.
(作用及び効果)
変更例1では、対象端末10は、第1条件を満たす2以上の視点情報を送信する2以上の相手端末に対して、2以上の視点情報を代表する代表視点情報に基づいた視覚データを送信してもよい。このような構成によれば、視覚データの一部を共通化することができるため、対象端末10の処理負荷を軽減することができる。
(Action and Effects)
In a first modification, the target terminal 10 may transmit visual data based on representative viewpoint information that represents the two or more viewpoint information to two or more partner terminals that transmit two or more viewpoint information that satisfy the first condition. With this configuration, a part of the visual data can be made common, thereby reducing the processing load on the target terminal 10.
変更例1では、対象端末10は、特定視点情報に対して第2条件を満たす視点情報を送信する1以上の特定相手端末に対して、特定視点情報に基づいた視覚データを送信してもよい。このような構成によれば、視点情報に基づいた視覚データの生成を簡略化することができるため、対象端末10の処理負荷を軽減することができる。 In the first modification, the target terminal 10 may transmit visual data based on the specific viewpoint information to one or more specific counterpart terminals that transmit viewpoint information that satisfies a second condition for the specific viewpoint information. With this configuration, it is possible to simplify the generation of visual data based on viewpoint information, thereby reducing the processing load on the target terminal 10.
[変更例2]
以下において、実施形態の変更例2について説明する。以下においては、実施形態に対する相違点について主として説明する。
[Change Example 2]
Modification 2 of the embodiment will be described below. Differences from the embodiment will be mainly described below.
実施形態では、相手端末20に対して対象端末10が3Dオブジェクトに関する視覚データを生成する。これに対して、変更例2では、一部の相手端末20に対して仲介サーバ30が一部の対象端末10の代わりに3Dオブジェクトに関する視覚データを生成する。すなわち、一部の対象端末10がクラウドレンダリングを利用するケースについて説明する。 In the embodiment, the target terminal 10 generates visual data related to 3D objects for the counterpart terminal 20. In contrast, in Modification Example 2, the intermediary server 30 generates visual data related to 3D objects for some of the counterpart terminals 20 on behalf of some of the target terminals 10. In other words, a case in which some of the target terminals 10 use cloud rendering will be described.
変更例2では、クラウドレンダリングを利用する対象端末10に格納された3Dモデルは、仲介サーバ30にも格納される。クラウドレンダリングを利用する対象端末10は、クラウドレンダリングの利用に関する課金を行った対象端末10であってもよい。 In the second modification, the 3D model stored in the target terminal 10 that uses cloud rendering is also stored in the intermediary server 30. The target terminal 10 that uses cloud rendering may be a target terminal 10 that has been charged for the use of cloud rendering.
以下において、対象端末10がクラウドレンダリングの利用が許可された端末であるケースについて説明する。 The following describes the case where the target terminal 10 is a terminal that is permitted to use cloud rendering.
図10に示すように、ステップS30において、対象端末10は、格納部12に格納された3Dモデルを仲介サーバ30に送信する。 As shown in FIG. 10, in step S30, the target terminal 10 transmits the 3D model stored in the storage unit 12 to the intermediary server 30.
ステップS31において、仲介サーバ30は、対象端末10から受信する3Dモデルを格納する。 In step S31, the intermediary server 30 stores the 3D model received from the target terminal 10.
ステップS40において、相手端末20は、仮想空間において3Dオブジェクトを視認する視線方向を含む視点情報を仲介サーバ30に送信する。 In step S40, the other terminal 20 transmits viewpoint information including the line of sight direction in which the 3D object is viewed in the virtual space to the intermediary server 30.
ステップS41において、仲介サーバ30は、ステップS31で格納される3Dモデルを用いて、視点情報に基づいて3Dオブジェクトに関する視覚データを生成する。仲介サーバ30で生成される視覚データは、3DオブジェクトをBillboardとして表示する視覚データであってもよい。 In step S41, the intermediary server 30 generates visual data for the 3D object based on the viewpoint information using the 3D model stored in step S31. The visual data generated by the intermediary server 30 may be visual data that displays the 3D object as a billboard.
ステップS42において、仲介サーバ30は、3Dオブジェクトに関する視覚データを相手端末20に送信する。 In step S42, the intermediary server 30 transmits visual data regarding the 3D object to the other terminal 20.
(作用及び効果)
変更例2では、クラウドレンダリングを利用する対象端末10については、仲介サーバ30に格納される3Dモデルを用いた視覚データの生成(クラウドレンダリング)が許容される。このような構成によれば、仲介サーバ30に3Dモデルを提供する必要があるものの、3Dモデルが無制限に流出することを抑制しながら、対象端末10が大きな計算資源を用意することなく、仲介サーバ30の計算資源が許す限り多くの相手端末20に対して、3Dモデルを用いて生成される視覚データを提供することができる。
(Action and Effects)
In the second modified example, for target terminals 10 using cloud rendering, generation of visual data (cloud rendering) using 3D models stored in the intermediary server 30 is permitted. With such a configuration, although it is necessary to provide 3D models to the intermediary server 30, it is possible to provide visual data generated using 3D models to as many partner terminals 20 as the intermediary server 30's computational resources permit, without the target terminal 10 having to prepare large computational resources, while preventing unlimited outflow of 3D models.
[変更例3]
以下において、実施形態の変更例3について説明する。以下においては、実施形態に対する相違点について主として説明する。
[Change Example 3]
The third modification of the embodiment will be described below. Differences from the embodiment will be mainly described below.
変更例3では、仲介サーバ30は、第1相手端末に対応するアドレス情報の対象端末に対する送信を省略し、第2相手端末に対応するアドレス情報の対象端末に対する送信を実行してもよい。すなわち、仲介サーバ30は、視覚データの送信が省略される第1相手端末については、アドレス情報の送信(仲介処理)を実行せずに、視覚データの送信が実行される第2相手端末については、アドレス情報の送信(仲介処理)を実行する。第1相手端末及び第2相手端末としては、実施形態と同様に、以下に示すオプションが考えられる。 In the third modification, the intermediary server 30 may omit sending address information corresponding to the first partner terminal to the target terminal, and send address information corresponding to the second partner terminal to the target terminal. That is, the intermediary server 30 does not send address information (intermediation process) for the first partner terminal for which the sending of visual data is omitted, and sends address information (intermediation process) for the second partner terminal for which the sending of visual data is executed. As with the embodiment, the following options are possible for the first partner terminal and the second partner terminal.
オプション1では、第1相手端末は、仲介条件を満たさない相手端末であり、第2相手端末は、仲介条件を満たす相手端末であってもよい。仲介条件は、上述した特定条件と同様であってもよい。 In option 1, the first counterpart terminal may be a counterpart terminal that does not satisfy the mediation conditions, and the second counterpart terminal may be a counterpart terminal that satisfies the mediation conditions. The mediation conditions may be similar to the specific conditions described above.
オプション2では、第1相手端末は、仮想空間において3Dオブジェクトに対する距離が閾値よりも離れた視点位置を送信する相手端末であり、第2相手端末は、仮想空間において3Dオブジェクトに対する距離が閾値よりも近い視点位置を送信する相手端末であってもよい。 In option 2, the first remote terminal may be a remote terminal that transmits a viewpoint position whose distance to a 3D object in virtual space is greater than a threshold, and the second remote terminal may be a remote terminal that transmits a viewpoint position whose distance to a 3D object in virtual space is greater than a threshold.
すなわち、3Dオブジェクトに対する距離が閾値よりも離れた視点位置を送信する第1相手端末については、3Dオブジェクトに興味を持っているか否か定かではなく、視点情報に基づいて3Dオブジェクトが変化しなくても差し支えない可能性が高い。従って、対象端末10の端末間通信の負荷軽減が優先されてもよい。 In other words, for a first partner terminal that transmits a viewpoint position whose distance from the 3D object is greater than a threshold, it is not clear whether the first partner terminal is interested in the 3D object, and it is highly likely that the 3D object does not need to change based on the viewpoint information. Therefore, reducing the load on the inter-terminal communication of the target terminal 10 may be prioritized.
[変更例4]
以下において、実施形態の変更例4について説明する。以下においては、実施形態に対する相違点について主として説明する。
[Change Example 4]
The fourth modification of the embodiment will be described below. The differences from the embodiment will be mainly described below.
実施形態では、対象端末10は、第1条件を満たす2以上の視点情報を送信する2以上の相手端末に対して、2以上の視点情報を代表する代表視点情報に基づいた視覚データを送信してもよい。変更例4では、このような動作の変更例として以下に示す動作が実行されてもよい。 In an embodiment, the target terminal 10 may transmit visual data based on representative viewpoint information that represents the two or more viewpoint information to two or more partner terminals that transmit two or more viewpoint information that satisfy the first condition. In Modification Example 4, the operation shown below may be executed as a modification of such an operation.
具体的には、2以上の相手端末に含まれる少なくとも1つの相手端末20は、代表視点情報に基づいた視覚データを対象端末10から受信する代わりに、代表視点情報に基づいた視覚データを他の相手端末20から受信してもよい。他の相手端末20は、代表視点情報に基づいた視覚データを対象端末10から受信する1次相手端末であってもよく、代表視点情報に基づいた視覚データを1次相手端末から受信する2次相手端末であってもよい。 Specifically, at least one of the two or more counterpart terminals 20 may receive visual data based on the representative viewpoint information from another counterpart terminal 20, instead of receiving visual data based on the representative viewpoint information from the target terminal 10. The other counterpart terminal 20 may be a primary counterpart terminal that receives visual data based on the representative viewpoint information from the target terminal 10, or a secondary counterpart terminal that receives visual data based on the representative viewpoint information from the primary counterpart terminal.
[変更例5]
以下において、実施形態の変更例5について説明する。以下においては、実施形態に対する相違点について主として説明する。
[Change Example 5]
The fifth modification of the embodiment will be described below. The differences from the embodiment will be mainly described below.
実施形態では、対象端末10は、特定視点情報に対して第2条件を満たす視点情報を送信する1以上の特定相手端末に対して、特定視点情報に基づいた視覚データを送信してもよい。変更例5では、このような動作の変更例として以下に示す動作が実行されてもよい。 In an embodiment, the target terminal 10 may transmit visual data based on the specific viewpoint information to one or more specific counterpart terminals that transmit viewpoint information that satisfies a second condition for the specific viewpoint information. In modification example 5, the operation shown below may be executed as a modification example of such an operation.
具体的には、1以上の特定相手端末に含まれる少なくとも1つの相手端末20は、特定視点情報に基づいた視覚データを対象端末10から受信する代わりに、特定視点情報に基づいた視覚データを他の相手端末20から受信してもよい。他の相手端末20は、特定視点情報に基づいた視覚データを対象端末10から受信する1次相手端末であってもよく、特定視点情報に基づいた視覚データを1次相手端末から受信する2次相手端末であってもよい。 Specifically, at least one of the counterpart terminals 20 included in the one or more specific counterpart terminals may receive visual data based on the specific viewpoint information from another counterpart terminal 20, instead of receiving visual data based on the specific viewpoint information from the target terminal 10. The other counterpart terminal 20 may be a primary counterpart terminal that receives visual data based on the specific viewpoint information from the target terminal 10, or a secondary counterpart terminal that receives visual data based on the specific viewpoint information from the primary counterpart terminal.
[その他の実施形態]
本発明は上述した開示によって説明したが、上述した開示の一部をなす論述及び図面は、この発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施形態、実施例及び運用技術が明らかとなろう。
[Other embodiments]
The present invention has been described by the above disclosure, but the descriptions and drawings forming a part of the above disclosure should not be understood as limiting the present invention. Various alternative embodiments, examples and operating techniques will become apparent to those skilled in the art from this disclosure.
上述した開示では、視点情報は、相手端末20から端末間通信によって対象端末10に送信される。しかしながら、上述した開示はこれに限定されるものではない。対象端末10のアドレス情報が相手端末20に提供されないケースにおいては、視点情報は、仲介サーバ30を経由して相手端末20から間接的に対象端末10に送信されてもよい。 In the above disclosure, the viewpoint information is transmitted from the other terminal 20 to the target terminal 10 by terminal-to-terminal communication. However, the above disclosure is not limited to this. In a case where the address information of the target terminal 10 is not provided to the other terminal 20, the viewpoint information may be transmitted indirectly from the other terminal 20 to the target terminal 10 via the intermediary server 30.
上述した開示では特に触れていないが、対象端末10に格納される3Dモデルは、予め定められた相手端末20に提供されてもよい。予め定められた相手端末20は、対象端末10のユーザによって3Dモデルの利用が許可された相手端末20であってもよい。例えば、対象端末10は、相手端末20から3Dオブジェクトの視聴が要求された場合に、3Dモデルのデータ(例えば、“.obj”、“.ply”、“.glb”などの拡張子によって管理されるデータ)を相手端末20に送信してもよい。このような構成によれば、相手端末20は、3Dモデルのデータの受信以降の処理において、視点情報を送信することなく、仮想空間において3Dモデル(3Dオブジェクト)を視聴することができる。3Dモデルの利用が許可された相手端末20に3Dモデルを渡すことにはなるが、3Dモデルの無制限な流出は抑制することができる。 Although not specifically mentioned in the above disclosure, the 3D model stored in the target terminal 10 may be provided to a predetermined counterpart terminal 20. The predetermined counterpart terminal 20 may be a counterpart terminal 20 that is permitted to use the 3D model by the user of the target terminal 10. For example, when the target terminal 10 is requested to view a 3D object by the counterpart terminal 20, the target terminal 10 may transmit data of the 3D model (e.g., data managed by an extension such as ".obj", ".ply", or ".glb") to the counterpart terminal 20. With this configuration, the counterpart terminal 20 can view the 3D model (3D object) in a virtual space without transmitting viewpoint information in the processing after receiving the data of the 3D model. Although the 3D model is handed over to the counterpart terminal 20 that is permitted to use the 3D model, unlimited leakage of the 3D model can be suppressed.
上述した開示では特に触れていないが、対象端末10から3Dオブジェクトを表示するための視覚データが相手端末20に送信されていない場合に、相手端末20は、3Dオブジェクトのサンプルを表示してもよい。サンプルを表示するためのデータは、対象端末10から送信されてもよく、仲介サーバ30から送信されてもよい。サンプルは、3Dオブジェクトの解像度を落としたメッシュであってもよく、3Dオブジェクトの画像であってもよい。 Although not specifically mentioned in the above disclosure, when visual data for displaying a 3D object is not transmitted from the target terminal 10 to the counterpart terminal 20, the counterpart terminal 20 may display a sample of the 3D object. The data for displaying the sample may be transmitted from the target terminal 10 or from the intermediary server 30. The sample may be a reduced-resolution mesh of the 3D object, or an image of the 3D object.
上述した開示では、3Dオブジェクトに関する情報に興味を持つ視聴者(相手端末20)を募集する際に、3Dオブジェクトに関する情報として3Dオブジェクトのサンプルを仮想空間において表示するケースについて例示した。しかしながら、上述した開示はこれに限定されるものではない。3Dオブジェクトに関する情報は仮想空間において表示されなくてもよい。 In the above disclosure, an example has been given of a case in which a sample of a 3D object is displayed in a virtual space as information relating to the 3D object when recruiting viewers (partner terminals 20) who are interested in information relating to the 3D object. However, the above disclosure is not limited to this. Information relating to the 3D object does not have to be displayed in a virtual space.
上述した開示では特に触れていないが、視聴を要求するとは、ユーザが能動的に要求するケースに加えて、仲介サーバ30(システム)が視聴者の視点位置を監視すること等によって、仲介サーバ30(システム)が自動的に要求するケースを含んでもよい。例えば、3Dオブジェクトに関する情報の表示位置と視聴者の視点位置との距離が閾値以下である場合に、自動的に視聴の要求が実行されてもよい。或いは、仮想空間において3Dオブジェクトが配置されたエリア(例えば、部屋やワールドなど)に視聴者の視点位置が入った場合に、自動的に視聴の要求が実行されてもよい。 Although not specifically mentioned in the above disclosure, a request to view may include a case where a user actively makes a request, as well as a case where the intermediary server 30 (system) automatically makes a request by monitoring the viewer's viewpoint position, etc. For example, a request to view may be automatically executed when the distance between the display position of the information about the 3D object and the viewer's viewpoint position is equal to or less than a threshold. Alternatively, a request to view may be automatically executed when the viewer's viewpoint position enters an area in the virtual space where a 3D object is placed (e.g., a room, a world, etc.).
上述した開示では特に触れていないが、視覚データの送信を省略するとは、標準のフレームレート又は解像度で3Dオブジェクトを表示する視覚データの送信が行われないことを意味していればよい。例えば、視覚データの送信が省略されるケースであっても、標準のフレームレートよりも低いフレームレート又は標準の解像度よりも低い解像度で3Dオブジェクトを表示する視覚データの送信が行われてもよい。 Although not specifically mentioned in the above disclosure, omitting the transmission of visual data may mean that visual data displaying a 3D object at a standard frame rate or resolution is not transmitted. For example, even in cases where the transmission of visual data is omitted, visual data displaying a 3D object at a frame rate lower than the standard frame rate or at a resolution lower than the standard resolution may be transmitted.
上述した開示では特に触れていないが、仲介サーバ30が行う各処理をコンピュータに実行させるプログラムが提供されてもよい。また、プログラムは、コンピュータ読取り可能媒体に記録されていてもよい。コンピュータ読取り可能媒体を用いれば、コンピュータにプログラムをインストールすることが可能である。ここで、プログラムが記録されたコンピュータ読取り可能媒体は、非一過性の記録媒体であってもよい。非一過性の記録媒体は、特に限定されるものではないが、例えば、CD-ROMやDVD-ROM等の記録媒体であってもよい。 Although not specifically mentioned in the above disclosure, a program may be provided that causes a computer to execute each process performed by the intermediary server 30. The program may also be recorded on a computer-readable medium. Using a computer-readable medium, it is possible to install the program on a computer. Here, the computer-readable medium on which the program is recorded may be a non-transient recording medium. The non-transient recording medium is not particularly limited, and may be, for example, a recording medium such as a CD-ROM or DVD-ROM.
或いは、仲介サーバ30が行う各処理を実行するためのプログラムを記憶するメモリ及びメモリに記憶されたプログラムを実行するプロセッサによって構成されるチップが提供されてもよい。 Alternatively, a chip may be provided that is configured with a memory that stores programs for executing each process performed by the intermediary server 30 and a processor that executes the programs stored in the memory.
[付記]
第1の特徴は、不特定の第三者が参加可能な仮想空間に配置され得る対象オブジェクトに関する視覚データの生成に用いる3次元モデルを格納する対象端末と、前記仮想空間において前記対象オブジェクトを仲介する仲介装置と、を備え、前記仲介装置は、前記仮想空間において前記対象オブジェクトの視聴を要求する相手端末と前記対象端末との間の端末間通信に用いるアドレス情報を前記対象端末に送信する装置側送信部を備え、前記対象端末は、前記仮想空間において前記対象オブジェクトを視認する視線方向を含む視点情報を受信する受信部と、前記視点情報に基づいて、前記仮想空間における前記対象オブジェクトに関する視覚データを生成する制御部と、前記端末間通信によって、前記視覚データを前記相手端末に送信する送信部と、を備える、画像処理システムである。
[Additional Notes]
A first feature is an image processing system comprising: a target terminal that stores a three-dimensional model used to generate visual data related to a target object that may be placed in a virtual space in which unspecified third parties can participate; and an intermediary device that mediates the target object in the virtual space, wherein the intermediary device comprises a device-side transmitting unit that transmits to the target terminal address information used for terminal-to-terminal communication between the target terminal and a partner terminal that requests to view the target object in the virtual space, and the target terminal comprises a receiving unit that receives viewpoint information including a line of sight direction in which the target object is viewed in the virtual space, a control unit that generates visual data related to the target object in the virtual space based on the viewpoint information, and a transmitting unit that transmits the visual data to the partner terminal via the terminal-to-terminal communication.
第2の特徴は、第1の特徴において、前記制御部は、前記視覚データとして、前記仮想空間において前記対象オブジェクトを2次元画像として表示する視覚データを生成する、画像処理システムである。 The second feature is an image processing system according to the first feature, in which the control unit generates, as the visual data, visual data that displays the target object in the virtual space as a two-dimensional image.
第3の特徴は、第1の特徴又は第2の特徴において、前記送信部は、第1相手端末に対する前記視覚データの送信を省略し、第2相手端末に対する前記視覚データの送信を実行する、画像処理システムである。 The third feature is an image processing system according to the first or second feature, in which the transmission unit omits transmission of the visual data to the first remote terminal and transmits the visual data to the second remote terminal.
第4の特徴は、第3の特徴において、前記第1相手端末は、特定条件を満たさない前記相手端末であり、前記第2相手端末は、前記特定条件を満たす前記相手端末である、画像処理システムである。 The fourth feature is the image processing system according to the third feature, in which the first counterpart terminal is a counterpart terminal that does not satisfy a specific condition, and the second counterpart terminal is a counterpart terminal that satisfies the specific condition.
第5の特徴は、第3の特徴又は第4の特徴において、前記視点情報は、前記仮想空間において前記対象オブジェクトを視認する視点位置を含み、前記第1相手端末は、前記仮想空間において前記対象オブジェクトに対する距離が閾値よりも離れた前記視点位置を送信する前記相手端末であり、前記第2相手端末は、前記仮想空間において前記対象オブジェクトに対する距離が前記閾値よりも近い前記視点位置を送信する前記相手端末である、画像処理システムである。 The fifth feature is an image processing system according to the third or fourth feature, wherein the viewpoint information includes a viewpoint position at which the target object is viewed in the virtual space, the first counterpart terminal is the counterpart terminal that transmits the viewpoint position at a distance from the target object in the virtual space that is greater than a threshold value, and the second counterpart terminal is the counterpart terminal that transmits the viewpoint position at a distance from the target object in the virtual space that is greater than the threshold value.
第6の特徴は、第1の特徴乃至第5の特徴の少なくともいずれか1つにおいて、前記送信部は、第1条件を満たす2以上の視点情報を送信する2以上の相手端末に対して、前記2以上の視点情報を代表する代表視点情報に基づいた前記視覚データを送信する、画像処理システムである。 The sixth feature is an image processing system in which, in at least one of the first to fifth features, the transmission unit transmits the visual data based on representative viewpoint information that represents the two or more viewpoint information to two or more partner terminals that transmit two or more viewpoint information that satisfy a first condition.
第7の特徴は、第1の特徴乃至第6の特徴の少なくともいずれか1つにおいて、前記送信部は、特定視点情報に対して第2条件を満たす視点情報を送信する1以上の特定相手端末に対して、前記特定視点情報に基づいた前記視覚データを送信する、画像処理システムである。 The seventh feature is an image processing system in which, in at least one of the first to sixth features, the transmission unit transmits the visual data based on the specific viewpoint information to one or more specific partner terminals that transmit viewpoint information that satisfies a second condition for the specific viewpoint information.
第8の特徴は、第1の特徴乃至第7の特徴の少なくともいずれか1つにおいて、前記装置側送信部は、第1相手端末に対応する前記アドレス情報の前記対象端末に対する送信を省略し、第2相手端末に対応する前記アドレス情報の前記対象端末に対する送信を実行する、画像処理システムである。 The eighth feature is an image processing system in which, in at least one of the first to seventh features, the device-side transmitting unit omits transmitting the address information corresponding to the first remote terminal to the target terminal, and transmits the address information corresponding to the second remote terminal to the target terminal.
第9の特徴は、第8の特徴において、前記第1相手端末は、仲介条件を満たさない前記相手端末であり、前記第2相手端末は、前記仲介条件を満たす前記相手端末である、画像処理システムである。 The ninth feature is the image processing system according to the eighth feature, in which the first counterpart terminal is a counterpart terminal that does not satisfy the mediation conditions, and the second counterpart terminal is a counterpart terminal that satisfies the mediation conditions.
第10の特徴は、第8の特徴又は第9の特徴において、前記視点情報は、前記仮想空間において前記対象オブジェクトを視認する視点位置を含み、前記第1相手端末は、前記仮想空間において前記対象オブジェクトに対する距離が閾値よりも離れた前記視点位置を送信する前記相手端末であり、前記第2相手端末は、前記仮想空間において前記対象オブジェクトに対する距離が前記閾値よりも近い前記視点位置を送信する前記相手端末である、画像処理システムである。 The tenth feature is an image processing system according to the eighth or ninth feature, wherein the viewpoint information includes a viewpoint position at which the target object is viewed in the virtual space, the first counterpart terminal is the counterpart terminal that transmits the viewpoint position at a distance from the target object in the virtual space that is greater than a threshold value, and the second counterpart terminal is the counterpart terminal that transmits the viewpoint position at a distance from the target object in the virtual space that is greater than the threshold value.
第11の特徴は、不特定の第三者が参加可能な仮想空間に配置され得る対象オブジェクトに関する視覚データの生成に用いる3次元モデルを格納する対象端末と、前記仮想空間において前記対象オブジェクトを仲介する仲介装置と、を備える画像処理システムで用いる画像処理方法であって、前記仲介装置が、前記仮想空間において前記対象オブジェクトの視聴を要求する相手端末と前記対象端末との間の端末間通信に用いるアドレス情報を前記対象端末に送信するステップと、前記対象端末が、前記仮想空間において前記対象オブジェクトを視認する視線方向を含む視点情報を受信するステップと、前記対象端末が、前記視点情報に基づいて、前記仮想空間における前記対象オブジェクトに関する視覚データを生成するステップと、前記対象端末が、前記端末間通信によって、前記視覚データを前記相手端末に送信するステップと、を備える、画像処理方法である。 The eleventh feature is an image processing method used in an image processing system including a target terminal that stores a three-dimensional model used to generate visual data related to a target object that may be placed in a virtual space in which an unspecified third party can participate, and an intermediary device that mediates the target object in the virtual space, the image processing method including the steps of: the intermediary device transmitting to the target terminal address information used for terminal-to-terminal communication between the target terminal and a partner terminal that requests viewing of the target object in the virtual space; the target terminal receiving viewpoint information including a line-of-sight direction for viewing the target object in the virtual space; the target terminal generating visual data related to the target object in the virtual space based on the viewpoint information; and the target terminal transmitting the visual data to the partner terminal through the terminal-to-terminal communication.
10・・・対象端末、11・・・通信部、12・・・格納部、13・・・制御部、20・・・相手端末、30・・・仲介サーバ、31・・・通信部、32・・・格納部、33・・・制御部、100・・・画像処理システム、110・・・ネットワーク、200・・・3Dオブジェクト、210・・・Billboard、400・・・仮想空間、410・・・胴体 10: Target terminal, 11: Communication unit, 12: Storage unit, 13: Control unit, 20: Partner terminal, 30: Intermediary server, 31: Communication unit, 32: Storage unit, 33: Control unit, 100: Image processing system, 110: Network, 200: 3D object, 210: Billboard, 400: Virtual space, 410: Torso
Claims (12)
前記仮想空間において前記対象オブジェクトを仲介する仲介装置と、を備え、
前記仲介装置は、相手端末によって視聴可能な前記仮想空間を提供し、
前記対象端末は、
前記仮想空間において前記対象オブジェクトを視認する視線方向を含む視点情報を受信する受信部と、
前記視点情報に基づいて、前記仮想空間における前記対象オブジェクトに関する視覚データを生成する制御部と、
前記相手端末と前記対象端末との間の端末間通信によって、前記視覚データを前記相手端末に送信する送信部と、を備える、画像処理システム。 A target terminal that stores a three-dimensional model used to generate visual data related to a target object that can be placed in a virtual space in which an unspecified third party can participate;
an intermediary device that mediates the target object in the virtual space,
The intermediary device provides the virtual space viewable by the other terminal,
The target terminal is
a receiving unit that receives viewpoint information including a line of sight direction in which the target object is viewed in the virtual space;
a control unit that generates visual data regarding the target object in the virtual space based on the viewpoint information;
a transmission unit that transmits the visual data to the other terminal by terminal-to-terminal communication between the other terminal and the target terminal .
前記第2相手端末は、前記特定条件を満たす前記相手端末である、請求項4に記載の画像処理システム。 The first counterpart terminal is the counterpart terminal that does not satisfy a specific condition,
The image processing system according to claim 4 , wherein the second counterpart terminal is the counterpart terminal that satisfies the specific condition.
前記第1相手端末は、前記仮想空間において前記対象オブジェクトに対する距離が閾値よりも離れた前記視点位置を送信する前記相手端末であり、
前記第2相手端末は、前記仮想空間において前記対象オブジェクトに対する距離が前記閾値よりも近い前記視点位置を送信する前記相手端末である、請求項4に記載の画像処理システム。 the viewpoint information includes a viewpoint position from which the target object is viewed in the virtual space,
the first counterpart terminal is a counterpart terminal that transmits the viewpoint position whose distance to the target object in the virtual space is greater than a threshold value;
The image processing system according to claim 4 , wherein the second counterpart terminal is the counterpart terminal that transmits the viewpoint position whose distance to the target object in the virtual space is closer than the threshold value.
前記第2相手端末は、前記仲介条件を満たす前記相手端末である、請求項9に記載の画像処理システム。 The first opposite terminal is the opposite terminal that does not satisfy the mediation condition,
The image processing system according to claim 9 , wherein the second counterpart terminal is the counterpart terminal that satisfies the mediation condition.
前記第1相手端末は、前記仮想空間において前記対象オブジェクトに対する距離が閾値よりも離れた前記視点位置を送信する前記相手端末であり、
前記第2相手端末は、前記仮想空間において前記対象オブジェクトに対する距離が前記閾値よりも近い前記視点位置を送信する前記相手端末である、請求項9に記載の画像処理システム。 the viewpoint information includes a viewpoint position from which the target object is viewed in the virtual space,
the first counterpart terminal is a counterpart terminal that transmits the viewpoint position whose distance to the target object in the virtual space is greater than a threshold value;
The image processing system according to claim 9 , wherein the second counterpart terminal is the counterpart terminal that transmits the viewpoint position whose distance to the target object in the virtual space is closer than the threshold value.
前記仲介装置が、相手端末によって視聴可能な前記仮想空間を提供するステップと、
前記対象端末が、前記仮想空間において前記対象オブジェクトを視認する視線方向を含む視点情報を受信するステップと、
前記対象端末が、前記視点情報に基づいて、前記仮想空間において前記対象オブジェクトに関する視覚データを生成するステップと、
前記対象端末が、前記相手端末と前記対象端末との間の端末間通信によって、前記視覚データを前記相手端末に送信するステップと、を備える、画像処理方法。 An image processing method for use in an image processing system including a target terminal that stores a three-dimensional model used to generate visual data relating to a target object that may be placed in a virtual space in which an unspecified third party can participate, and an intermediary device that mediates the target object in the virtual space, comprising:
A step in which the intermediary device provides the virtual space viewable by a counterpart terminal ;
receiving, by the target terminal, viewpoint information including a line of sight direction in which the target object is viewed in the virtual space;
generating visual data for the target object in the virtual space based on the viewpoint information by the target terminal;
The image processing method includes a step of the target terminal transmitting the visual data to the other terminal by terminal-to-terminal communication between the other terminal and the target terminal .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023211494A JP7471034B1 (en) | 2023-12-14 | 2023-12-14 | Image processing system and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023211494A JP7471034B1 (en) | 2023-12-14 | 2023-12-14 | Image processing system and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7471034B1 true JP7471034B1 (en) | 2024-04-19 |
Family
ID=90716097
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023211494A Active JP7471034B1 (en) | 2023-12-14 | 2023-12-14 | Image processing system and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7471034B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018092225A (en) | 2016-11-30 | 2018-06-14 | 株式会社カブク | Image processor |
JP2020161096A (en) | 2019-03-26 | 2020-10-01 | ミン ハ、サン | Method and system for preventing distribution of illegal content over internet |
JP2023016135A (en) | 2021-07-21 | 2023-02-02 | 生也 近藤 | Display device and display method |
-
2023
- 2023-12-14 JP JP2023211494A patent/JP7471034B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018092225A (en) | 2016-11-30 | 2018-06-14 | 株式会社カブク | Image processor |
JP2020161096A (en) | 2019-03-26 | 2020-10-01 | ミン ハ、サン | Method and system for preventing distribution of illegal content over internet |
JP2023016135A (en) | 2021-07-21 | 2023-02-02 | 生也 近藤 | Display device and display method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11838518B2 (en) | Reprojecting holographic video to enhance streaming bandwidth/quality | |
US10567449B2 (en) | Apparatuses, methods and systems for sharing virtual elements | |
CN107852573B (en) | Mixed reality social interactions | |
US8314832B2 (en) | Systems and methods for generating stereoscopic images | |
US20220375124A1 (en) | Systems and methods for video communication using a virtual camera | |
US11024083B2 (en) | Server, user terminal device, and control method therefor | |
US7884823B2 (en) | Three dimensional rendering of display information using viewer eye coordinates | |
US8194101B1 (en) | Dynamic perspective video window | |
US10493360B2 (en) | Image display device and image display system | |
Joachimczak et al. | Real-time mixed-reality telepresence via 3D reconstruction with HoloLens and commodity depth sensors | |
KR102674943B1 (en) | Hybrid streaming | |
CN110710203B (en) | Methods, systems, and media for generating and rendering immersive video content | |
US11727645B2 (en) | Device and method for sharing an immersion in a virtual environment | |
US10482671B2 (en) | System and method of providing a virtual environment | |
JP7471034B1 (en) | Image processing system and image processing method | |
KR20200072321A (en) | System and method for providing holoportation | |
EP3948790B1 (en) | Depth-compressed representation for 3d virtual scene | |
JP2023549657A (en) | 3D video conferencing system and method for displaying stereoscopic rendered image data captured from multiple viewpoints | |
KR102674102B1 (en) | Method for processing visual network service and apparatus for the same | |
US12075018B2 (en) | Distributed virtual reality | |
WO2022224964A1 (en) | Information processing device and information processing method | |
TWI628619B (en) | Method and device for generating stereoscopic images | |
CN116560511A (en) | Picture display method, device, computer equipment and storage medium | |
CN116582660A (en) | Video processing method and device for augmented reality and computer equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231218 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20231218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240215 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240402 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7471034 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |