JP2020065229A - Video communication method, video communication device, and video communication program - Google Patents

Video communication method, video communication device, and video communication program Download PDF

Info

Publication number
JP2020065229A
JP2020065229A JP2018197595A JP2018197595A JP2020065229A JP 2020065229 A JP2020065229 A JP 2020065229A JP 2018197595 A JP2018197595 A JP 2018197595A JP 2018197595 A JP2018197595 A JP 2018197595A JP 2020065229 A JP2020065229 A JP 2020065229A
Authority
JP
Japan
Prior art keywords
user
base
coordinates
real
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018197595A
Other languages
Japanese (ja)
Inventor
正俊 横井
Masatoshi Yokoi
正俊 横井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone West Corp
Original Assignee
Nippon Telegraph and Telephone West Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone West Corp filed Critical Nippon Telegraph and Telephone West Corp
Priority to JP2018197595A priority Critical patent/JP2020065229A/en
Publication of JP2020065229A publication Critical patent/JP2020065229A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

To reduce the data processing amount and the sent/received data amount when the user's figure is displayed at a remote location.SOLUTION: The skeleton position of a user detected on the basis of images taken from multiple directions at another base is received, the posture of a user's 3D real avatar is changed on the basis of the skeleton position, and the 3D real avatar is superimposed and displayed on a real landscape. The skeleton position of a user is detected from the image in which the user is photographed, and the three-dimensional coordinates of the skeleton position can be obtained from the skeleton positions detected from a plurality of images using trigonometry. 3D scan is performed on the user to obtain the 3D scan data, and a base model with a rig is deformed to generate the 3D real avatar according to the shape of the 3D scan data. The coordinates of the coordinate system at the other base of the user is received, the coordinate system at the other base is converted into a space shared coordinate system corresponding to the real landscape, and the 3D real avatar is placed at the converted coordinates.SELECTED DRAWING: Figure 12

Description

本発明は、遠隔地間の映像通信技術に関し、特に3次元映像を送受信する技術に関する。   The present invention relates to a video communication technology between remote places, and more particularly to a technology for transmitting / receiving three-dimensional video.

我が国では、後期高齢化社会の進展に伴い、伝統工芸を含むあらゆる産業において後継者不足の問題、医療や教育においては地域格差の拡大が社会問題となっている。   In Japan, with the progress of the late aging society, the problem of lack of successors in all industries including traditional crafts, and the widening regional disparities in medical care and education have become social problems.

一方、人々の遠隔コミュニケーション形態は技術革新に伴い、電話、テレビ電話、仮想世界での3Dアバタを用いた通信へと発展している。また、デバイスにおいてもパーソナルコンピュータ(PC)からスマートフォン、さらに拡張現実(Augmented Reality:AR)デバイスや仮想現実(Virtual Reality:VR)デバイスが登場している。   On the other hand, the form of people's remote communication has evolved into communication using telephones, videophones, and 3D avatars in the virtual world due to technological innovation. As for devices, smartphones, augmented reality (AR) devices, and virtual reality (VR) devices have emerged from personal computers (PCs).

従来の3Dキャラクタによる3D遠隔コミュニケーションは、デフォルメした3Dキャラクタを用い、3D仮想空間を共有する3Dキャラクタを、ユーザの手元のコントローラで操作しながら、その3Dキャラクタの視点で対話をするものが知られている(非特許文献1)。   In the conventional 3D remote communication using 3D characters, it is known that a deformed 3D character is used and a 3D character that shares a 3D virtual space is operated with a controller at the user's hand while the user interacts from the viewpoint of the 3D character. (Non-patent document 1).

また、実際の人間の姿を用いた3D遠隔コミュニケーションとして、深度センサつきカメラを用いて生成した、発信者自身の姿を表す膨大な3Dデータを毎フレーム対話者と送受信し、互いのデバイスに表示させるというものが知られている(非特許文献2)。   Also, as 3D remote communication using an actual human figure, a huge amount of 3D data representing the sender's own figure, generated using a camera with a depth sensor, is sent and received with each frame of the interlocutor and displayed on each other's device. It is known to allow it (Non-Patent Document 2).

“VRChat”、[online]、VRChat Inc.、[平成30年7月17日検索]、インターネット〈 URL:https://www.vrchat.net/ 〉"VRChat", [online], VRChat Inc., [July 17, 2018 search], Internet <URL: https://www.vrchat.net/> “Holoportation”、[online]、Microsoft、[平成30年7月11日検索]、インターネット〈 URL:https://www.microsoft.com/en-us/research/project/holoportation-3/ 〉"Holoportation", [online], Microsoft, [July 11, 2018 search], Internet <URL: https://www.microsoft.com/en-us/research/project/holoportation-3/>

遠隔技術指導や遠隔診療では、非特許文献1のようなデフォルメした3Dキャラクタを用いる方法よりも、非特許文献2のような発信者自身の姿を用いる方法のほうが、より正確に指導・診療を行う観点からよいと考えられる。   In remote technical guidance and remote medical care, the method using the figure of the sender himself as in Non-Patent Document 2 provides more accurate guidance and medical care than the method using deformed 3D characters as in Non-Patent Document 1. It is considered good from the point of view of doing.

非特許文献2では、発信者を遠隔地に出現させるために、発信者を表現するための膨大な3Dの点群データを生成後、その大量の3Dデータを毎フレーム送受信する必要があった。3Dデータの生成には高スペックなコンピュータが必要であり、さらに、大量の3Dデータを送受信する高速な回線も必要であった。   In Non-Patent Document 2, in order to make the caller appear in a remote place, it is necessary to generate enormous 3D point cloud data for expressing the caller and then transmit / receive the large amount of 3D data for each frame. Generation of 3D data required a computer with high specifications, and also required a high-speed line for transmitting / receiving a large amount of 3D data.

本発明は、上記に鑑みてなされたものであり、遠隔地において利用者の姿を表示する際のデータ処理量および送受信するデータ量を削減することを目的とする。   The present invention has been made in view of the above, and an object thereof is to reduce the amount of data processing and the amount of data to be transmitted / received when displaying the figure of a user in a remote place.

本発明に係る映像通信方法は、複数方向から撮影した映像に基づいて検出した通信相手の骨格位置情報を受信するステップと、前記骨格位置情報に基づいて前記通信相手の外見を有するリグ付き3次元モデルの姿勢を変更するステップと、前記3次元モデルを実風景に重畳させて表示するステップと、を有することを特徴とする。   A video communication method according to the present invention includes a step of receiving skeleton position information of a communication partner detected based on images shot from a plurality of directions, and a three-dimensional rigged form having an appearance of the communication partner based on the skeleton position information. It is characterized by including a step of changing the posture of the model and a step of displaying the three-dimensional model by superimposing it on a real landscape.

本発明に係る映像通信装置は、複数方向から撮影した映像に基づいて検出した通信相手の骨格位置情報を受信する受信部と、前記骨格位置情報に基づいて前記通信相手の外見を有するリグ付き3次元モデルの姿勢を変更するモデル制御部と、前記3次元モデルを実風景に重畳させて表示する表示部と、を有することを特徴とする。   A video communication device according to the present invention includes a receiving unit that receives skeleton position information of a communication partner detected based on images shot from a plurality of directions, and a rig 3 having a appearance of the communication partner based on the skeleton position information. It is characterized by comprising a model control unit for changing the posture of the three-dimensional model and a display unit for displaying the three-dimensional model by superimposing it on a real landscape.

本発明に係る映像通信プログラムは、上記の映像通信方法をコンピュータに実行させることを特徴とする。   A video communication program according to the present invention causes a computer to execute the above video communication method.

本発明によれば、遠隔地において利用者の姿を表示する際のデータ処理量および送受信するデータ量を削減することができる。   According to the present invention, it is possible to reduce the amount of data processing and the amount of data to be transmitted and received when displaying the figure of a user in a remote place.

本実施形態の映像通信システムのうち、3Dリアルアバタの生成するための構成を示す図である。It is a figure which shows the structure for producing | generating 3D real avatars among the video communication systems of this embodiment. 3Dリアルアバタを生成する処理を示すシーケンス図である。It is a sequence diagram which shows the process which produces | generates 3D real avatar. 図3(a)は3Dスキャンデータの一例を示す図であり、図3(b)はベースモデルの一例を示す図であり、図3(c)は3Dリアルアバタの一例を示す図である。3A is a diagram showing an example of 3D scan data, FIG. 3B is a diagram showing an example of a base model, and FIG. 3C is a diagram showing an example of a 3D real avatar. 本実施形態の映像通信システムを用いて3D通信を行うための構成を示す図である。It is a figure which shows the structure for performing 3D communication using the video communication system of this embodiment. 各拠点に配置されるPCの実行する機能を示す機能ブロック図である。It is a functional block diagram which shows the function which PC arrange | positioned at each base performs. 座標処理部の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of a coordinate processing part. 各拠点の座標系を示す図である。It is a figure which shows the coordinate system of each base. ある拠点の利用者を原点とした共有の座標系を示す図である。It is a figure which shows the shared coordinate system which made the user of a certain base the origin. 共有の座標系において利用者の位置を移動させた例を示す図である。It is a figure which shows the example which moved the user's position in a shared coordinate system. 3Dリアルアバタの表示位置を決める処理の流れを示すシーケンス図である。It is a sequence diagram which shows the flow of the process which determines the display position of 3D real avatar. アバタ処理部の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of an avatar process part. 骨格位置を3Dリアルアバタに反映する様子を示す図である。It is a figure which shows a mode that a skeleton position is reflected in 3D real avatar. 3Dリアルアバタを表示する処理の流れを示すシーケンス図である。It is a sequence diagram which shows the flow of the process which displays a 3D real avatar.

本発明に係る映像通信システムは、各拠点の利用者のリアルな3Dモデル(以下、「3Dリアルアバタ」と称する)を事前に作成しておき、各拠点において、他の拠点にいる利用者の3DリアルアバタをARデバイスにより実風景に重畳させて表示するシステムである。本映像通信システムでは、各拠点で撮影した利用者の映像から骨格の動きを推定し、3Dリアルアバタに動作を表現させる。本映像通信システムは、3Dリアルアバタを様々な角度で表示できるので、遠隔地から体の動きを伴う技術の遠隔指導や遠隔診療に用いることができる。   In the video communication system according to the present invention, a realistic 3D model (hereinafter, referred to as “3D real avatar”) of users at each base is created in advance, and users at other bases at each base are created. It is a system for displaying a 3D real avatar by superimposing it on a real landscape by an AR device. In this video communication system, the movement of the skeleton is estimated from the video of the user photographed at each site, and the 3D real avatar is caused to express the motion. Since this video communication system can display the 3D real avatar at various angles, it can be used for remote teaching of techniques involving remote body movements and remote medical care.

以下、本発明の実施の形態について図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[3Dリアルアバタの生成]
図1は、本実施形態の映像通信システムのうち、3Dリアルアバタの生成するための構成を示す図である。図1の映像通信システムは、パーソナルコンピュータ(PC)10、3Dスキャナ21、3Dリアルアバタ生成サーバ30、及び3Dリアルアバタ管理サーバ40を備える。
[Generation of 3D Real Avatar]
FIG. 1 is a diagram showing a configuration for generating a 3D real avatar in the video communication system of the present embodiment. The video communication system of FIG. 1 includes a personal computer (PC) 10, a 3D scanner 21, a 3D real avatar generation server 30, and a 3D real avatar management server 40.

PC10は、3Dスキャナ21でスキャンした利用者の3次元データ(以下、「3Dスキャンデータ」と称する)を3Dリアルアバタ生成サーバ30へ送信し、利用者の3Dリアルアバタを生成させるとともに、その3Dリアルアバタを3Dリアルアバタ管理サーバ40に登録させる。PC10は、3Dリアルアバタを生成する機能に加えて、後述の3Dリアルアバタの配置位置を決定する機能および3Dリアルアバタを制御する機能を備えてもよい。   The PC 10 transmits the user's three-dimensional data scanned by the 3D scanner 21 (hereinafter, referred to as “3D scan data”) to the 3D real avatar generation server 30 to generate the user's 3D real avatar, and the 3D The real avatar is registered in the 3D real avatar management server 40. In addition to the function of generating the 3D real avatar, the PC 10 may have a function of determining the arrangement position of the 3D real avatar described later and a function of controlling the 3D real avatar.

3Dスキャナ21は、利用者の3Dデータをスキャンする装置であり、深度センサ付きのカメラを用いることができる。   The 3D scanner 21 is a device that scans the 3D data of the user, and can use a camera with a depth sensor.

3Dリアルアバタ生成サーバ30は、全身のリグ付けが施されている人型のベースモデルを変形させて3Dスキャンデータの形状に合わせ、3Dリアルアバタを生成する。リグを操作することで3Dモデルを自在に変形させることができる。3Dスキャンデータは、利用者の外見をスキャンした3Dデータであるので、モデルの姿勢を変形することは難しい。3Dリアルアバタは、人体の骨格の動きに応じて3Dモデルを動かすためのリグを付けているので、利用者の骨格位置が分かれば、その骨格位置に基づいてリグを操作することで、利用者と同じ動作をさせることが可能である。   The 3D real avatar generation server 30 transforms the humanoid base model to which the whole body is rigged to match the shape of the 3D scan data and generates the 3D real avatar. The 3D model can be freely transformed by operating the rig. Since the 3D scan data is 3D data obtained by scanning the appearance of the user, it is difficult to change the posture of the model. 3D Real Avatar has a rig for moving the 3D model according to the movement of the skeleton of the human body, so if the skeleton position of the user is known, by operating the rig based on that skeleton position, the user can It is possible to make the same operation as.

3Dリアルアバタ管理サーバ40は、生成された3Dリアルアバタの登録を受け付けて管理する。遠隔地の通信相手の3Dリアルアバタを表示する際、通信相手の3Dリアルアバタを3Dリアルアバタ管理サーバ40から事前にダウンロードしておく。以下、本映像通信システムを用いた3Dリアルアバタを表示させる通信を「3D通信」と称する。   The 3D real avatar management server 40 receives and manages the registration of the generated 3D real avatar. When displaying the 3D real avatar of the communication partner at the remote location, the 3D real avatar of the communication partner is downloaded from the 3D real avatar management server 40 in advance. Hereinafter, communication for displaying a 3D real avatar using this video communication system will be referred to as “3D communication”.

図2は、3Dリアルアバタを生成する処理を示すシーケンス図である。   FIG. 2 is a sequence diagram showing a process of generating a 3D real avatar.

まず、3Dスキャナ21を用いて利用者を3Dスキャンする(ステップS11)。3Dスキャンには、例えば、RealSenseデプスカメラ(https://www.intel.co.jp/content/www/jp/ja/architecture-and-technology/realsense-overview.html)を用いることができる。あるいは、itSeez3D(https://itseez3d.com/)などの人体スキャンアプリケーションを用いることができる。3Dスキャンにより、図3(a)に示すような、利用者の外見を3次元でスキャンした3Dスキャンデータが得られる。3Dスキャナ21により利用者の全身を全周囲方向から撮影することで、利用者全身の見た目と3D形状を含む3Dスキャンデータが得られる。   First, the user is 3D-scanned using the 3D scanner 21 (step S11). For 3D scanning, for example, a RealSense depth camera (https://www.intel.co.jp/content/www/jp/ja/architecture-and-technology/realsense-overview.html) can be used. Alternatively, a human body scanning application such as itSeez3D (https://itseez3d.com/) can be used. By the 3D scan, 3D scan data obtained by three-dimensionally scanning the appearance of the user as shown in FIG. 3A is obtained. By capturing the entire body of the user from the entire circumferential direction with the 3D scanner 21, 3D scan data including the appearance and 3D shape of the entire body of the user can be obtained.

PC10は、3Dスキャナから3Dスキャンデータを受け取り、3Dリアルアバタ生成サーバ30へ送信する(ステップS12)。   The PC 10 receives the 3D scan data from the 3D scanner and transmits it to the 3D real avatar generation server 30 (step S12).

3Dリアルアバタ生成サーバ30は、3Dスキャンデータを受信し、3Dリアルアバタを生成する(ステップS13)。より具体的には、3Dリアルアバタ生成サーバ30は、全身のリグ付けが施されている人型のベースモデルを変形させて、3Dスキャンデータの形状に合わせて3Dリアルアバタを生成する。図3(b)にベースモデルの例を示す。リグ付きのベースモデルは、例えば、Blender(https://blender.jp/)やUnity(https://unity3d.com/jp/)などの3Dモデル作成ツールを用いて事前に作成しておく。ベースモデルを3Dスキャンデータの形状に合わせる際、リグも3Dスキャンデータに合わせて伸縮させる。図3(c)に3Dリアルアバタの例を示す。   The 3D real avatar generation server 30 receives the 3D scan data and generates the 3D real avatar (step S13). More specifically, the 3D real avatar generation server 30 deforms the humanoid base model to which the whole body is rigged, and generates the 3D real avatar according to the shape of the 3D scan data. FIG. 3B shows an example of the base model. The base model with a rig is created in advance by using a 3D model creation tool such as Blender (https://blender.jp/) or Unity (https://unity3d.com/jp/). When fitting the base model to the shape of the 3D scan data, the rig is also expanded / contracted according to the 3D scan data. FIG. 3C shows an example of a 3D real avatar.

3Dリアルアバタ生成サーバ30は、生成した3Dリアルアバタを3Dリアルアバタ管理サーバ40へ送信して登録する(ステップS14)。3Dリアルアバタ管理サーバ40は、利用者を特定する識別子と3Dリアルアバタとを紐付けて3Dリアルアバタを管理する。   The 3D real avatar generation server 30 transmits and registers the generated 3D real avatar to the 3D real avatar management server 40 (step S14). The 3D real avatar management server 40 manages the 3D real avatar by associating the identifier identifying the user with the 3D real avatar.

3D通信を行う各利用者は、事前に自身の3Dリアルアバタの生成を行っておく。   Each user who performs 3D communication generates his or her own 3D real avatar in advance.

なお、本実施形態では、3Dリアルアバタ生成サーバ30が3Dスキャンデータから3Dリアルアバタを生成したが、PC10が3Dリアルアバタを生成する機能を備えてもよい。また、本実施形態では、3Dリアルアバタ管理サーバ40が3Dリアルアバタを保持・管理しているが、各拠点のPC10のそれぞれで3Dリアルアバタを管理しておき、3D通信の前に、互いに3Dリアルアバタを送受信してもよい。   In the present embodiment, the 3D real avatar generation server 30 generates the 3D real avatar from the 3D scan data, but the PC 10 may have a function of generating the 3D real avatar. In addition, in the present embodiment, the 3D real avatar management server 40 holds and manages the 3D real avatar, but the PCs 10 at the respective locations manage the 3D real avatars before the 3D communication. You may send and receive real avatars.

[3D通信]
図4は、本実施形態の映像通信システムを用いて3D通信を行うための構成を示す図である。図4では、3つの拠点の間で3D通信を行う。拠点1からは利用者A,B、拠点2からは利用者C,D、拠点3からは利用者E,Fが3D通信に参加する。拠点数は2ヶ所以上であればよい。拠点内の利用者は1人以上であればよい。
[3D communication]
FIG. 4 is a diagram showing a configuration for performing 3D communication using the video communication system of the present embodiment. In FIG. 4, 3D communication is performed between the three bases. Users A and B from the base 1, users C and D from the base 2, and users E and F from the base 3 participate in the 3D communication. The number of bases may be two or more. The number of users in the base may be one or more.

各拠点は、PC10、カメラ22A,22B、及びARデバイス23A,23Bを備える。図4の拠点2,3には図示していないが拠点1と同様の装置が設置されている。各拠点には、複数台のカメラ22A,22Bが配置される。3D通信時には、利用者A−FのそれぞれがARデバイス23A,23Bを装着する。カメラ22A,22BおよびARデバイス23A,23Bは、PC10と通信可能に接続される。PC10は、3Dリアルアバタの生成に用いたものと同じものを用いてもよい。   Each base includes a PC 10, cameras 22A and 22B, and AR devices 23A and 23B. Although not shown, the same devices as those of the base 1 are installed in the bases 2 and 3 of FIG. A plurality of cameras 22A and 22B are arranged at each base. At the time of 3D communication, each of the users A to F wears the AR devices 23A and 23B. The cameras 22A and 22B and the AR devices 23A and 23B are communicably connected to the PC 10. The PC 10 may be the same as that used to generate the 3D real avatar.

複数台のカメラ22A,22Bで撮影された映像から各拠点1,2,3における利用者A−Fの座標を求めるとともに、利用者A−Fの3次元の骨格位置を推定する。利用者A−Fの座標および骨格位置が3Dリアルアバタに反映される。   The coordinates of the user AF at each of the bases 1, 2 and 3 are obtained from the images captured by the plurality of cameras 22A and 22B, and the three-dimensional skeleton position of the user AF is estimated. The coordinates and the skeleton position of the users A to F are reflected in the 3D real avatar.

ARデバイス23A,23Bは、各拠点において、各拠点の実風景に他の拠点の利用者の3Dリアルアバタを重ねて表示する。ARデバイス23A,23Bは、マイクおよびスピーカを内蔵し、マイクで集音された利用者A−Fの音声が拠点1,2,3間で送受信されて、スピーカで再生される。ARデバイス23A,23Bは、自己位置が推定可能なデバイス(例えばジャイロセンサやカメラ)を内蔵する。ARデバイス23A,23Bとして、眼鏡型ARデバイスを用いることができる。眼鏡型ARデバイスの場合、利用者が見ている実風景に3Dリアルアバタが重畳して表示される。あるいは、ARデバイス23A,23Bとして、スマートフォンを用いてもよい。スマートフォンで撮影した実風景に3Dリアルアバタを重畳させて表示する。   The AR devices 23A and 23B display the 3D real avatars of the users of the other bases on the actual scenery of the bases at each base. The AR devices 23A and 23B have a built-in microphone and speaker, and the voices of the users AF collected by the microphone are transmitted and received between the sites 1, 2, and 3 and reproduced by the speaker. The AR devices 23A and 23B have a built-in device (for example, a gyro sensor or a camera) whose self position can be estimated. Eyeglass-type AR devices can be used as the AR devices 23A and 23B. In the case of the eyeglass-type AR device, the 3D real avatar is displayed so as to be superimposed on the actual scenery viewed by the user. Alternatively, smartphones may be used as the AR devices 23A and 23B. 3D real avatars are superimposed and displayed on a real scene taken with a smartphone.

図4の映像通信システムは、各拠点に配置される装置のほかに、3Dリアルアバタ管理サーバ40、座標管理サーバ50、及び画像認識サーバ60を備える。   The video communication system in FIG. 4 includes a 3D real avatar management server 40, a coordinate management server 50, and an image recognition server 60, in addition to the devices arranged at each base.

3Dリアルアバタ管理サーバ40は、利用者A−Fの3Dリアルアバタを管理する。各拠点のPC10は、事前に他の拠点の利用者の3Dリアルアバタを取得しておく。   The 3D real avatar management server 40 manages the 3D real avatars of the users AF. The PC 10 of each base acquires in advance the 3D real avatars of the users of other bases.

座標管理サーバ50は、各拠点から利用者A−Fの座標と座標変換式を受信し、他の拠点へ座標および座標変換式を送信する。各拠点のPC10は、他の拠点の利用者の座標および座標変換式を受信し、座標変換を行って3Dリアルアバタの表示位置を決定する。   The coordinate management server 50 receives the coordinates and coordinate conversion formulas of the users AF from each base, and transmits the coordinates and coordinate conversion formulas to other bases. The PC 10 of each base receives the coordinates and the coordinate conversion formula of the user of the other base, performs the coordinate conversion, and determines the display position of the 3D real avatar.

画像認識サーバ60は、各拠点から利用者A−Fを撮影した映像を受信し、利用者A−Fの骨格位置を推定する。各拠点のPC10は、他の拠点の利用者の骨格位置を受信し、3Dリアルアバタに反映させる。   The image recognition server 60 receives a video image of the user AF from each site and estimates the skeleton position of the user AF. The PC 10 of each base receives the skeleton position of the user of the other base and reflects it on the 3D real avatar.

本実施形態では、図5に示すように、演算処理装置や記憶装置等を備えたPC10をアバタ生成部11、座標処理部12、及びアバタ処理部13として機能させる。各部の処理がプログラムによって実行されるものとしてもよい。このプログラムはPC10が備える記憶装置に記憶されており、磁気ディスク、光ディスク、半導体メモリ等の記録媒体に記録することも、ネットワークを通して提供することも可能である。   In the present embodiment, as shown in FIG. 5, the PC 10 including an arithmetic processing unit, a storage device, and the like is caused to function as an avatar generation unit 11, a coordinate processing unit 12, and an avatar processing unit 13. The processing of each unit may be executed by a program. This program is stored in a storage device included in the PC 10, and can be recorded in a recording medium such as a magnetic disk, an optical disk, a semiconductor memory, or provided via a network.

アバタ生成部11は、前述の通り、3Dスキャナ21から3Dスキャンデータを受信し、3Dスキャンデータを3Dリアルアバタ生成サーバ30へ送信し、利用者の3Dリアルアバタを生成する。アバタ生成部11自身が3Dリアルアバタを生成してもよい。   As described above, the avatar generation unit 11 receives the 3D scan data from the 3D scanner 21, transmits the 3D scan data to the 3D real avatar generation server 30, and generates the 3D real avatar of the user. The avatar generation unit 11 itself may generate the 3D real avatar.

座標処理部12は、カメラ22A,22Bで撮影された映像から、拠点内の利用者の座標を求める。また、座標処理部12は、座標管理サーバ50から他の拠点の利用者の座標を受信し、他の拠点の利用者の座標を共有の座標系に変換して、他の拠点の利用者の3Dリアルアバタの拡張現実空間内での表示位置を求める。   The coordinate processing unit 12 obtains the coordinates of the user in the base from the images captured by the cameras 22A and 22B. Further, the coordinate processing unit 12 receives the coordinates of the user of the other site from the coordinate management server 50, converts the coordinates of the user of the other site into the shared coordinate system, and converts the coordinates of the user of the other site to the user of the other site. Obtain the display position of the 3D real avatar in the augmented reality space.

アバタ処理部13は、画像認識サーバ60から他の拠点の利用者の骨格位置を受信し、骨格位置を3Dリアルアバタに反映して、3Dリアルアバタに他の拠点の利用者の動作を表現させる。   The avatar processing unit 13 receives the skeleton position of the user at another base from the image recognition server 60, reflects the skeleton position in the 3D real avatar, and causes the 3D real avatar to express the action of the user at the other base. .

[3Dリアルアバタの位置座標]
図6は、座標処理部12の構成を示す機能ブロック図である。座標処理部12は、計測部121、算出部122、送信部123、及び受信部124を備える。
[Position coordinates of 3D real avatar]
FIG. 6 is a functional block diagram showing the configuration of the coordinate processing unit 12. The coordinate processing unit 12 includes a measuring unit 121, a calculating unit 122, a transmitting unit 123, and a receiving unit 124.

計測部121は、2台のカメラ22A,22Bで撮影された映像から、三角法を用いて、拠点内の利用者の座標を求める。各拠点1,2,3で求めた利用者A−Fの座標系は、図7に示すように、拠点ごとに異なる。拠点1の利用者A,Bについて求めた座標を、拠点1座標系の利用者A,Bの座標と呼ぶ。同様に、拠点2の利用者C,Dの座標を拠点2座標系の利用者C,Dの座標、拠点3の利用者E,Fの座標を拠点3座標系の利用者E,Fの座標と呼ぶ。   The measuring unit 121 obtains the coordinates of the user in the site from the images captured by the two cameras 22A and 22B by using trigonometry. The coordinate system of the users AF obtained at each of the bases 1, 2 and 3 is different for each base as shown in FIG. The coordinates obtained for the users A and B of the base 1 are called the coordinates of the users A and B of the base 1 coordinate system. Similarly, the coordinates of the users C and D of the base 2 are the coordinates of the users C and D of the base 2 coordinate system, and the coordinates of the users E and F of the base 3 are the coordinates of the users E and F of the base 3 coordinate system. Call.

送信部123は、各拠点1,2,3で求めた各利用者の座標を座標管理サーバ50へ送信する。   The transmission unit 123 transmits the coordinates of each user obtained at each base 1, 2, 3 to the coordinate management server 50.

受信部124は、他の拠点1,2,3の利用者の座標を座標管理サーバ50から受信する。具体的には、拠点1のPC10の受信部124は、拠点2座標系の利用者C,Dの座標および拠点3座標系の利用者E,Fの座標を座標管理サーバ50から受信する。同様に、拠点2のPC10は、拠点1座標系の利用者A,Bの座標および拠点3座標系の利用者E,Fの座標を受信し、拠点3のPC10は、拠点1座標系の利用者A,Bの座標および拠点2座標系の利用者C,Dの座標を受信する。   The receiving unit 124 receives the coordinates of the users of the other bases 1, 2, 3 from the coordinate management server 50. Specifically, the reception unit 124 of the PC 10 at the location 1 receives the coordinates of the users C and D in the location 2 coordinate system and the coordinates of the users E and F in the location 3 coordinate system from the coordinate management server 50. Similarly, the PC 10 of the base 2 receives the coordinates of the users A and B of the base 1 coordinate system and the coordinates of the users E and F of the base 3 coordinate system, and the PC 10 of the base 3 uses the base 1 coordinate system. The coordinates of the persons A and B and the coordinates of the users C and D in the base 2 coordinate system are received.

算出部122は、他の拠点の利用者の座標を共有の座標系(以下、「空間共有座標系」と称する)に変換して拡張現実空間内での表示位置を求める。   The calculation unit 122 converts the coordinates of the user at another base into a shared coordinate system (hereinafter, referred to as “space shared coordinate system”) to obtain the display position in the augmented reality space.

ここで、各拠点1,2,3の各座標系から空間共有座標系への変換について説明する。例えば、図8に示すように、利用者Aの座標を原点とする座標系を空間共有座標系とする。空間共有座標系の原点(利用者Aの座標)が拠点1座標系で(Tx1a, Ty1a, Tz1a)であった場合、拠点1座標系の任意の点の座標(x1a, y1a, z1a)は、次式(1)により、空間共有座標系の座標(x'1a, y'1a, z'1a)に変換できる。   Here, the conversion from each coordinate system of each base 1, 2, 3 to the space sharing coordinate system will be described. For example, as shown in FIG. 8, the coordinate system having the coordinates of the user A as the origin is the space sharing coordinate system. If the origin of the space sharing coordinate system (coordinates of user A) is (Tx1a, Ty1a, Tz1a) in the base 1 coordinate system, the coordinates (x1a, y1a, z1a) of any point in the base 1 coordinate system are It can be converted into coordinates (x'1a, y'1a, z'1a) in the space sharing coordinate system by the following expression (1).

同じ拠点1にいる利用者Bの拠点1座標系における座標も上記の式(1)を用いて空間共有座標系の座標に変換できる。利用者Bの拠点1座標系における座標は、計測部121によって求めることができる。   Coordinates of the user B at the same base 1 in the base 1 coordinate system can also be converted into coordinates of the space sharing coordinate system by using the above equation (1). The coordinates of the point B coordinate system of the user B can be obtained by the measuring unit 121.

拠点1の利用者Aが、ARデバイス23Aの提供するコントローラを操作し、拠点2の利用者Cの3Dリアルアバタを拡張現実空間内で映し出す位置を決める。利用者Aが利用者Cの3Dリアルアバタの拡張現実空間内での位置を決めると、利用者Cの3Dリアルアバタの空間共有座標系の座標が決まる。   The user A at the site 1 operates the controller provided by the AR device 23A to determine the position where the 3D real avatar of the user C at the site 2 is displayed in the augmented reality space. When the user A determines the position of the user C's 3D real avatar in the augmented reality space, the coordinates of the space shared coordinate system of the user C's 3D real avatar are determined.

利用者Aが利用者Cの3Dリアルアバタを空間共有座標系の座標(Sx2c, Sy2c, Sz2c)に配置した時点の、拠点2座標系における利用者Cの座標が(xs2c, ys2c, yz2c)であった場合、拠点2座標系の任意の点の座標(x2c, y2c, z2c)は、次式(2)により、空間共有座標系の座標(x'2c, y'2c, z'2c)に変換できる。   When the user A arranges the 3D real avatar of the user C at the coordinates (Sx2c, Sy2c, Sz2c) of the space sharing coordinate system, the coordinates of the user C in the base 2 coordinate system are (xs2c, ys2c, yz2c). If there is, the coordinates (x2c, y2c, z2c) of any point in the base 2 coordinate system become the coordinates (x'2c, y'2c, z'2c) of the space sharing coordinate system by the following equation (2). Can be converted.

拠点2にいる利用者Dの拠点2座標系における座標も上記の式(2)を用いて空間共有座標系の座標に変換できる。   The coordinates of the user D at the base 2 in the base 2 coordinate system can also be converted into the coordinates of the space sharing coordinate system by using the above equation (2).

続いて、拠点1,2の利用者A−Dの3Dリアルアバタの空間共有座標系での座標が決まった後に、拠点3の利用者Eの空間共有座標系での位置を決めることについて考える。   Next, deciding the position of the user E of the base 3 in the space sharing coordinate system after the coordinates of the users A to D in the bases 1 and 2 in the space sharing coordinate system of the 3D real avatar are determined.

拠点3のPC10は、座標管理サーバ50から、拠点1座標系から空間共有座標系への座標変換式および拠点2座標系から空間共有座標系への座標変換式を受信する。したがって、拠点1座標系および拠点2座標系の座標が分かれば空間共有座標系の座標へ変換できる。   The PC 10 of the base 3 receives from the coordinate management server 50 a coordinate conversion formula from the base 1 coordinate system to the space shared coordinate system and a coordinate conversion formula from the base 2 coordinate system to the space shared coordinate system. Therefore, if the coordinates of the base 1 coordinate system and the coordinates of the base 2 coordinate system are known, they can be converted into the coordinates of the space sharing coordinate system.

拠点3のPC10は、拠点1,2の利用者A−Dの各座標系における座標を座標管理サーバ50から受信する。利用者Eの空間共有座標系内での位置は決まっていないので、空間共有座標系の任意の位置(例えば原点)に利用者Eが存在するものとしたうえで、ARデバイスにより利用者A−Dの3Dリアルアバタを表示する。   The PC 10 of the base 3 receives the coordinates in the coordinate systems of the users A to D of the bases 1 and 2 from the coordinate management server 50. Since the position of the user E in the space sharing coordinate system has not been determined, it is assumed that the user E exists at an arbitrary position (for example, the origin) of the space sharing coordinate system, and then the AR device allows the user A- Display the 3D real avatar of D.

利用者Eは、ARデバイスの提供するコントローラを操作し、利用者A−Dの3Dリアルアバタが見えやすい位置に移動する。例えば、図9の左側の位置では利用者Aが近すぎて見にくいので、コントローラを操作し、利用者A−Dの3Dリアルアバタが見えやすいように表示位置を決定する。例えば、図9の右側の位置のように、利用者Eは利用者Bの近くに移動する。   The user E operates the controller provided by the AR device and moves to a position where the 3D real avatars of the users A to D can be easily seen. For example, at the position on the left side of FIG. 9, since the user A is too close to see, the controller is operated to determine the display position so that the 3D real avatars of the users A to D can be easily seen. For example, as in the position on the right side of FIG. 9, the user E moves near the user B.

利用者Eの空間共有座標系の座標が決まると、拠点3座標系の座標と空間共有座標系の座標との対応関係が決まるので、上記の拠点2の場合と同様に、拠点3座標系から空間共有座標系への座標変換式が求められる。拠点3のPC10が求めた座標変換式を座標管理サーバ50に送信するとともに、拠点1,2のPCで利用者Eの座標変換式を受信することで、拠点3座標系の座標を空間共有座標系の座標へ変換できる。拠点3にいる利用者Fの拠点3座標系における座標も同じ座標変換式を用いて空間共有座標系の座標へ変換できる。   When the coordinates of the space sharing coordinate system of the user E are determined, the correspondence relationship between the coordinates of the base 3 coordinate system and the coordinates of the space sharing coordinate system is determined. Therefore, as in the case of the base 2, the base 3 coordinate system is used. A coordinate conversion formula to the space sharing coordinate system is obtained. By transmitting the coordinate conversion formula obtained by the PC 10 of the base 3 to the coordinate management server 50 and receiving the coordinate conversion formula of the user E by the PCs of the bases 1 and 2, the coordinates of the coordinate system of the base 3 are space-shared coordinates. Can be converted to system coordinates. The coordinates of the user F at the base 3 in the base 3 coordinate system can also be converted into the coordinates of the space sharing coordinate system using the same coordinate conversion formula.

送信部123と受信部124は、各拠点の座標系の座標の送受信に加えて、各拠点の座標系から空間共有座標系への座標変換式の送受信も行う。   The transmission unit 123 and the reception unit 124 perform transmission / reception of coordinate conversion formulas from the coordinate system of each base to the space sharing coordinate system in addition to transmission / reception of coordinates of the coordinate system of each base.

図10を参照して、3Dリアルアバタの表示位置を決める処理について説明する。   A process of determining the display position of the 3D real avatar will be described with reference to FIG.

各拠点1,2,3において、カメラ22A,22Bで撮影した映像から利用者A−Fの各拠点における座標を求め(ステップS21)、利用者A−Fの各拠点での座標を座標管理サーバ50へ送信する(ステップS22)。   At each of the bases 1, 2 and 3, the coordinates at each base of the user AF are obtained from the images captured by the cameras 22A and 22B (step S21), and the coordinates at each base of the user AF are coordinate management server. It transmits to 50 (step S22).

座標管理サーバ50は、各拠点1,2,3へ各利用者A−Fの各拠点における座標を送信する(ステップS23)。   The coordinate management server 50 transmits the coordinates of each user AF to each site 1, 2, 3 (step S23).

ステップS21,S22,S23の処理は、通信終了まで続けられる。   The processes of steps S21, S22, and S23 are continued until the communication ends.

拠点1では、利用者Aの位置を空間共有座標系の原点として、利用者AがARデバイス23A上での拠点2の利用者Cの3Dリアルアバタの表示位置を決め、拠点1座標系から空間共有座標系への座標変換式および拠点2座標系から空間共有座標系への座標変換式を求める(ステップS24)。以降、拠点1では、拠点2の利用者C,Dの座標を空間共有座標系へ変換する処理が継続して実行される。   At the base 1, with the position of the user A as the origin of the space sharing coordinate system, the user A determines the display position of the 3D real avatar of the user C of the base 2 on the AR device 23A, and the space is calculated from the base 1 coordinate system. A coordinate conversion formula to the shared coordinate system and a coordinate conversion formula from the base 2 coordinate system to the space shared coordinate system are obtained (step S24). After that, in the base 1, the process of converting the coordinates of the users C and D of the base 2 into the space sharing coordinate system is continuously executed.

求めた利用者A,B,C,Dの座標変換式は、拠点1から座標管理サーバ50へ送信される。その後、座標管理サーバ50から拠点2、拠点3へ送信される(ステップS25,S27)。   The obtained coordinate conversion formulas of the users A, B, C, D are transmitted from the base 1 to the coordinate management server 50. Then, it is transmitted from the coordinate management server 50 to the bases 2 and 3 (steps S25 and S27).

拠点2では、受信した座標変換式を用いて拠点1の利用者A,Bの座標を空間共有座標系へ変換する処理が開始される(ステップS26)。   At the base 2, the process of converting the coordinates of the users A and B of the base 1 into the space sharing coordinate system using the received coordinate conversion formula is started (step S26).

拠点3では、受信した座標変換式を用いて拠点1,2の利用者A−Dの座標を空間共有座標系へ変換する処理が開始される(ステップS28)。   At the site 3, the process of converting the coordinates of the users A to D at the sites 1 and 2 into the space sharing coordinate system using the received coordinate conversion formula is started (step S28).

拠点3では、利用者Eの空間共有座標系における位置を決定し、拠点3座標系から空間共有座標系への座標変換式を求める(ステップS29)。   At the base 3, the position of the user E in the space sharing coordinate system is determined, and the coordinate conversion formula from the base 3 coordinate system to the space sharing coordinate system is obtained (step S29).

拠点3から座標管理サーバ50へ求めた利用者E,Fの座標変換式が送信され、座標管理サーバ50から拠点1、拠点2へ送信される(ステップS30,S31,S33)。   The coordinate conversion formulas of the users E and F thus obtained are transmitted from the base 3 to the coordinate management server 50, and are transmitted from the coordinate management server 50 to the base 1 and the base 2 (steps S30, S31, S33).

拠点2では、受信した座標変換式を用いた拠点3の利用者E,Fの座標を空間共有座標系へ変換する処理が開始される(ステップS32)。   At the base 2, the process of converting the coordinates of the users E and F of the base 3 using the received coordinate conversion formula into the space sharing coordinate system is started (step S32).

同様に、拠点1では、受信した座標変換式を用いた拠点3の利用者E,Fの座標を空間共有座標系へ変換する処理が開始される(ステップS34)。   Similarly, in the base 1, the process of converting the coordinates of the users E and F of the base 3 using the received coordinate conversion formula into the space sharing coordinate system is started (step S34).

以降、各拠点1,2,3では、映像から各拠点1,2,3における利用者A−Fの座標を求めて送信するとともに、他の拠点1,2,3の利用者A−Fの座標を受信して空間共有座標系の座標に変換する処理が続けられる。   After that, at each of the bases 1, 2 and 3, the coordinates of the users AF at the bases 1, 2 and 3 are obtained from the video and transmitted, and at the same time, the user AF of the other bases 1, 2 and 3 is transmitted. The process of receiving the coordinates and converting them into the coordinates of the space sharing coordinate system is continued.

[3Dリアルアバタの表示]
図11は、アバタ処理部13の構成を示す機能ブロック図である。アバタ処理部13は、制御部131、表示部132、送信部133、受信部134、及び記憶部135を備える。
[Display of 3D Real Avatar]
FIG. 11 is a functional block diagram showing the configuration of the avatar processing unit 13. The avatar processing unit 13 includes a control unit 131, a display unit 132, a transmission unit 133, a reception unit 134, and a storage unit 135.

送信部133は、各拠点において複数のカメラ22A,22Bで撮影した映像を画像認識サーバ60に送信する。   The transmission unit 133 transmits the images captured by the plurality of cameras 22A and 22B at each site to the image recognition server 60.

画像認識サーバ60では、各拠点から受信した映像に基づき、各拠点の各利用者の骨格位置を推定する。具体的には、各利用者について、例えば、openpose(https://github.com/CMU-Perceptual-Computing-Lab/openpose)を用いて複数の映像のそれぞれにおいて利用者の骨格を検出する。そして、複数の映像のそれぞれで検出した骨格の3次元座標を三角法を用いて求める。   The image recognition server 60 estimates the skeleton position of each user at each base based on the video received from each base. Specifically, for each user, for example, openpose (https://github.com/CMU-Perceptual-Computing-Lab/openpose) is used to detect the skeleton of the user in each of a plurality of images. Then, the three-dimensional coordinates of the skeleton detected in each of the plurality of images are obtained using trigonometry.

受信部134は、画像認識サーバ60が映像から求めた利用者の骨格位置を受信する。ここで受信する骨格位置は、他の拠点の利用者の骨格の3次元座標である。例えば、拠点1のPC10は、画像認識サーバ60から拠点2,3の利用者C−Fの骨格位置を受信する。   The receiving unit 134 receives the skeleton position of the user obtained from the image by the image recognition server 60. The skeleton position received here is the three-dimensional coordinates of the skeleton of the user at another base. For example, the PC 10 at the site 1 receives the skeleton positions of the users C-F at the sites 2 and 3 from the image recognition server 60.

なお、画像認識サーバ60を用いずに、アバタ処理部13が映像から骨格位置を推定してもよい。具体的には、アバタ処理部13が、複数の映像に基づき自拠点の利用者の骨格位置を求め、求めた骨格位置を他の拠点に送信する。他の拠点からは、他の拠点の利用者の骨格位置を受信する。   The avatar processing unit 13 may estimate the skeleton position from the video without using the image recognition server 60. Specifically, the avatar processing unit 13 obtains the skeleton position of the user of the own site based on the plurality of videos, and transmits the obtained skeleton position to another site. The skeleton position of the user of the other base is received from the other base.

制御部131は、記憶部135から他の拠点の利用者の3Dリアルアバタを読み出し、受信した骨格位置を3Dリアルアバタに反映させる。3Dリアルアバタは、利用者の外見を持つリグ付けされた3Dモデルであるので、図12に示すように、骨格位置に合わせてリグを操作することで、3Dリアルアバタに所望の姿勢を取らせることができる。制御部131、表示部132は、
ARデバイスで行ってもよい。
The control unit 131 reads the 3D real avatars of the users at other bases from the storage unit 135 and reflects the received skeleton position on the 3D real avatars. Since the 3D real avatar is a rigged 3D model that has the appearance of the user, as shown in FIG. 12, by operating the rig according to the skeleton position, the 3D real avatar can take a desired posture. be able to. The control unit 131 and the display unit 132 are
You may do with an AR device.

記憶部135には、事前に、他の拠点の各利用者の3Dリアルアバタを記憶させておく。   The storage unit 135 stores in advance the 3D real avatars of users at other bases.

表示部132は、他の拠点の各利用者について、骨格位置を反映した3Dリアルアバタを空間共有座標系の利用者の座標に配置し、ARデバイス23A,23Bを装着した利用者の空間共有座標系の座標を視点として、ARデバイス23A,23Bの視線方向の3Dリアルアバタを描画する。各利用者の空間共有座標系の座標は、座標処理部12の算出結果を用いる。   The display unit 132 arranges a 3D real avatar reflecting the skeleton position at the user's coordinates in the space sharing coordinate system for each user at the other location, and the space sharing coordinates of the user wearing the AR devices 23A and 23B. A 3D real avatar in the line-of-sight direction of the AR devices 23A and 23B is drawn with the coordinates of the system as a viewpoint. As the coordinates of the space sharing coordinate system of each user, the calculation result of the coordinate processing unit 12 is used.

表示部132は、描画結果をARデバイス23A,23Bに送信する。ARデバイス23A,23Bは、実風景に3Dリアルアバタを重畳して表示する。表示部132が視差のある右眼用画像と左眼用画像を作成し、ARデバイス23A,23Bに表示させると、3Dリアルアバタを立体視できる。   The display unit 132 transmits the drawing result to the AR devices 23A and 23B. The AR devices 23A and 23B superimpose and display the 3D real avatar on the real landscape. When the display unit 132 creates a right-eye image and a left-eye image with parallax and displays them on the AR devices 23A and 23B, the 3D real avatar can be viewed stereoscopically.

図13を参照して、3Dリアルアバタを表示する処理について説明する。図13に示す処理は、通信の終了まで継続して行われる。   Processing for displaying a 3D real avatar will be described with reference to FIG. The process shown in FIG. 13 is continuously performed until the end of communication.

画像認識サーバ60は、各拠点1,2,3からカメラ22A,22Bで撮影した映像を受信し(ステップS41)、各利用者A−Fの骨格位置を推定し(ステップS42)、推定した骨格位置を各拠点1,2,3に送信する(ステップS43)。   The image recognition server 60 receives the images captured by the cameras 22A and 22B from the bases 1, 2, and 3 (step S41), estimates the skeleton position of each user AF (step S42), and estimates the skeleton. The position is transmitted to each of the bases 1, 2 and 3 (step S43).

拠点1では、拠点2,3の各利用者C−Fの骨格位置を3Dリアルアバタに反映するとともに(ステップS44)、各利用者C−Fの位置に基づいて3Dリアルアバタを空間共有座標系に配置する(ステップS45)。   At the base 1, the skeleton position of each user C-F of the bases 2 and 3 is reflected in the 3D real avatar (step S44), and the 3D real avatar is set in the space sharing coordinate system based on the position of each user C-F. (Step S45).

拠点1の利用者Aの位置を視点として、利用者C−Fの3Dリアルアバタを描画し、ARデバイス23Aに表示させる(ステップS46)。ARデバイス23Aを装着した利用者Aが拠点1内で移動して回り込んだ場合は、その方向から見た3Dリアルアバタが表示される。   The 3D real avatar of the user C-F is drawn with the position of the user A of the base 1 as the viewpoint, and displayed on the AR device 23A (step S46). When the user A wearing the AR device 23A moves within the base 1 and turns around, the 3D real avatar viewed from that direction is displayed.

ステップS44,S45,S46の処理は、拠点1の利用者Bおよび拠点2,3の各利用者C−Fについても同様に実施される。   The processes of steps S44, S45, and S46 are similarly performed for the user B of the base 1 and the users C-F of the bases 2 and 3.

以上説明したように、本実施の形態によれば、他の拠点の、複数方向から撮影した映像に基づいて検出した利用者の骨格位置を受信し、骨格位置に基づいて利用者の3Dリアルアバタの姿勢を変更し、3Dリアルアバタを実風景に重畳させて表示することにより、遠隔地間で利用者の姿を表示する際に、各拠点のPC10のデータ処理量および送受信するデータ量を削減できる。利用者の骨格位置は利用者を撮影した映像から検出し、複数の映像から検出した骨格位置から三角法を用いて骨格位置の3次元座標を得られる。   As described above, according to the present embodiment, the skeleton position of the user detected based on the images captured from a plurality of directions at the other base is received, and the 3D real avatar of the user is received based on the skeleton position. By changing the posture and displaying the 3D real avatar by superimposing it on the real landscape, the amount of data processing and the amount of data transmitted and received by the PC 10 at each location is reduced when displaying the user's figure between remote locations. it can. The skeleton position of the user is detected from the images captured by the user, and the three-dimensional coordinates of the skeleton position can be obtained from the skeleton positions detected from the plurality of images by using trigonometry.

本実施形態によれば、利用者を3Dスキャンして3Dスキャンデータを取得し、リグ付きベースモデルを変形させて3Dスキャンデータの形状に合わせて3Dリアルアバタを生成することにより、利用者を3Dスキャンするだけで利用者の外見を有するリグ付きの3Dリアルアバタが得られる。リグを操作すれば、3Dリアルアバタの姿勢を制御できる。   According to the present embodiment, the user is 3D-scanned to obtain the 3D scan data, and the base model with rig is deformed to generate the 3D real avatar according to the shape of the 3D scan data. Simply scan to get a 3D real avatar with a rig that has the appearance of the user. By operating the rig, you can control the posture of the 3D real avatar.

本実施形態によれば、利用者の他の拠点での座標系の座標を受信し、他の拠点での座標系を実風景に対応させた空間共有座標系に変換して、変換後の座標に3Dリアルアバタを配置することにより、実風景内に3Dリアルアバタを表示できる。   According to the present embodiment, the coordinates of the coordinate system at the other site of the user are received, the coordinate system at the other site is converted into the space sharing coordinate system corresponding to the actual landscape, and the coordinates after conversion are converted. By arranging the 3D real avatars in 3D, the 3D real avatars can be displayed in the real landscape.

10…パーソナルコンピュータ(PC) 11…アバタ生成部 12…座標処理部 121…計測部 122…算出部 123…送信部 124…受信部 13…アバタ処理部 131…制御部 132…表示部 133…送信部 134…受信部 135…記憶部 21…3Dスキャナ 22A,22B…カメラ 23A,23B…ARデバイス 30…3Dリアルアバタ生成サーバ 40…3Dリアルアバタ管理サーバ 50…座標管理サーバ 60…画像認識サーバ   10 ... Personal computer (PC) 11 ... Avatar generation unit 12 ... Coordinate processing unit 121 ... Measurement unit 122 ... Calculation unit 123 ... Transmission unit 124 ... Reception unit 13 ... Avatar processing unit 131 ... Control unit 132 ... Display unit 133 ... Transmission unit 134 ... Receiving part 135 ... Storage part 21 ... 3D scanner 22A, 22B ... Camera 23A, 23B ... AR device 30 ... 3D real avatar generation server 40 ... 3D real avatar management server 50 ... Coordinate management server 60 ... Image recognition server

本発明に係る映像通信方法は、拠点間で通信する映像通信方法であって、複数方向から撮影した映像に基づいて検出した通信相手の骨格位置情報を受信するステップと、前記骨格位置情報に基づいて前記通信相手の外見を有するリグ付き3次元モデルの姿勢を変更するステップと、前記通信相手のローカル座標を受信するステップと、前記ローカル座標を拠点間で共通の共有空間座標系に変換するステップと、変換後の座標に対応する位置に前記3次元モデルを配置し、前記3次元モデルを実風景に重畳させて表示するステップを有し、いずれかの拠点のローカル座標系に基づいて前記共有空間座標系を定めて、別拠点の通信相手の3次元モデルの前記共有空間座標系内での位置を決め、別拠点の通信相手のローカル座標を共有空間座標系に変換するための座標変換式を求めて、当該座標変換式を前記拠点間で共有することを特徴とする。 A video communication method according to the present invention is a video communication method for communicating between bases, and a step of receiving skeleton position information of a communication partner detected based on images taken from a plurality of directions, and based on the skeleton position information. Changing the posture of the three-dimensional model with a rig having the appearance of the communication partner, receiving the local coordinates of the communication partner, and transforming the local coordinates into a common space coordinate system common between the bases. And arranging the three-dimensional model at a position corresponding to the coordinates after conversion , and displaying the three-dimensional model by superimposing the three-dimensional model on the real landscape, and the sharing based on the local coordinate system of any base. By defining the spatial coordinate system, the position of the three-dimensional model of the communication partner of the other base in the shared space coordinate system is determined, and the local coordinates of the communication partner of the other base are set as the shared space coordinate system. Seeking coordinate conversion formula for conversion, characterized by sharing the coordinate conversion formula between the bases.

本発明に係る映像通信装置は、拠点間で通信する映像通信装置であって、複数方向から撮影した映像に基づいて検出した通信相手の骨格位置情報を受信する受信部と、前記骨格位置情報に基づいて前記通信相手の外見を有するリグ付き3次元モデルの姿勢を変更するモデル制御部と、前記通信相手のローカル座標を受信する座標受信部と、前記ローカル座標を拠点間で共通の共有空間座標系に変換する算出部と、変換後の座標に対応する位置に前記3次元モデルを配置し、前記3次元モデルを実風景に重畳させて表示する表示部を有し、いずれかの拠点のローカル座標系に基づいて前記共有空間座標系を定めて、別拠点の通信相手の3次元モデルの前記共有空間座標系内での位置を決め、別拠点の通信相手のローカル座標を共有空間座標系に変換するための座標変換式を求めて、当該座標変換式を前記拠点間で共有することを特徴とする。 A video communication device according to the present invention is a video communication device that communicates between bases, and includes a receiving unit that receives skeleton position information of a communication partner detected based on images shot from a plurality of directions , and the skeleton position information. A model control unit that changes the posture of the three-dimensional model with a rig that has the appearance of the communication partner based on the coordinates, a coordinate receiving unit that receives the local coordinates of the communication partner, and the shared space coordinates common to the bases between the local coordinates. A calculation unit for converting into a system and a display unit for arranging the three-dimensional model at a position corresponding to the coordinate after conversion and displaying the three-dimensional model by superimposing the three-dimensional model on a real scene are provided. The shared space coordinate system is determined on the basis of the coordinate system, the position of the three-dimensional model of the communication partner of the other base in the shared space coordinate system is determined, and the local coordinates of the communication partner of the other base are set to the shared space coordinate system. Seeking coordinate conversion formula for conversion, characterized by sharing the coordinate conversion formula between the bases.

Claims (6)

複数方向から撮影した映像に基づいて検出した通信相手の骨格位置情報を受信するステップと、
前記骨格位置情報に基づいて前記通信相手の外見を有するリグ付き3次元モデルの姿勢を変更するステップと、
前記3次元モデルを実風景に重畳させて表示するステップと、
を有することを特徴とする映像通信方法。
Receiving skeleton position information of a communication partner detected based on images shot from a plurality of directions,
Changing the posture of the 3D model with a rig having the appearance of the communication partner based on the skeleton position information;
Displaying the three-dimensional model superimposed on a real scene,
A video communication method comprising:
前記通信相手の外見を3次元スキャンして外見モデルを取得するステップと、
リグ付きベースモデルを前記外見モデルに合わせて変形させて前記リグ付き3次元モデルを生成するステップと、
を有することを特徴とする請求項1に記載の映像通信方法。
Three-dimensionally scanning the appearance of the communication partner to obtain an appearance model,
Generating a three-dimensional model with a rig by deforming a base model with a rig according to the appearance model;
The video communication method according to claim 1, further comprising:
前記骨格位置情報は、前記複数の映像上で検出した骨格位置に基づいて三角法により求めた骨格位置の3次元座標であることを特徴とする請求項1または2に記載の映像通信方法。   The video communication method according to claim 1, wherein the skeleton position information is three-dimensional coordinates of a skeleton position obtained by trigonometry based on skeleton positions detected on the plurality of videos. 前記通信相手のローカル座標を受信するステップと、
前記ローカル座標を実風景の座標系に変換するステップと、を有し、
前記表示するステップでは、変換後の座標に対応する位置に前記3次元モデルを配置すること
を特徴とする請求項1乃至3のいずれかに記載の映像通信方法。
Receiving local coordinates of the communication partner,
Transforming the local coordinates into a coordinate system of a real landscape,
The video communication method according to any one of claims 1 to 3, wherein in the displaying step, the three-dimensional model is arranged at a position corresponding to the coordinates after conversion.
複数方向から撮影した映像に基づいて検出した通信相手の骨格位置情報を受信する受信部と、
前記骨格位置情報に基づいて前記通信相手の外見を有するリグ付き3次元モデルの姿勢を変更するモデル制御部と、
前記3次元モデルを実風景に重畳させて表示する表示部と、
を有することを特徴とする映像通信装置。
A receiving unit for receiving skeleton position information of a communication partner detected based on images taken from a plurality of directions,
A model control unit that changes the posture of the three-dimensional model with a rig that has the appearance of the communication partner based on the skeleton position information;
A display unit for displaying the three-dimensional model by superimposing it on a real landscape;
A video communication device comprising:
請求項1乃至4のいずれかに記載の映像通信方法をコンピュータに実行させることを特徴とする映像通信プログラム。   A video communication program for causing a computer to execute the video communication method according to claim 1.
JP2018197595A 2018-10-19 2018-10-19 Video communication method, video communication device, and video communication program Pending JP2020065229A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018197595A JP2020065229A (en) 2018-10-19 2018-10-19 Video communication method, video communication device, and video communication program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018197595A JP2020065229A (en) 2018-10-19 2018-10-19 Video communication method, video communication device, and video communication program

Publications (1)

Publication Number Publication Date
JP2020065229A true JP2020065229A (en) 2020-04-23

Family

ID=70387633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018197595A Pending JP2020065229A (en) 2018-10-19 2018-10-19 Video communication method, video communication device, and video communication program

Country Status (1)

Country Link
JP (1) JP2020065229A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6818219B1 (en) * 2020-05-29 2021-01-20 株式会社PocketRD 3D avatar generator, 3D avatar generation method and 3D avatar generation program
WO2021220494A1 (en) * 2020-04-30 2021-11-04 塁 佐藤 Communication terminal device, communication method, and software program
WO2022054366A1 (en) * 2020-09-09 2022-03-17 高木 りか Posture evaluation program, posture evaluation device, posture evaluation method, and posture evaluation system
CN116206087A (en) * 2023-04-28 2023-06-02 深圳市其域创新科技有限公司 Beyond-the-horizon enhanced display system and method
WO2023204104A1 (en) * 2022-04-22 2023-10-26 株式会社Nttドコモ Virtual space presenting device
WO2024014197A1 (en) * 2022-07-14 2024-01-18 ソニーグループ株式会社 Image processing device, image processing method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040418A (en) * 1996-04-25 1998-02-13 Matsushita Electric Ind Co Ltd Transmitter/receiver for movement of three-dimensional skeletal structure and its method
JP2011180790A (en) * 2010-02-26 2011-09-15 Nippon Yunishisu Kk Apparatus, method, program and system for generating three-dimensional shape model
WO2012081194A1 (en) * 2010-12-17 2012-06-21 パナソニック株式会社 Medical-treatment assisting apparatus, medical-treatment assisting method, and medical-treatment assisting system
US20120314936A1 (en) * 2010-03-17 2012-12-13 Sony Corporation Information processing device, information processing method, and program
JP2017062720A (en) * 2015-09-25 2017-03-30 キヤノンマーケティングジャパン株式会社 Information processing device, information processing system, control method thereof, and program
JP2017073042A (en) * 2015-10-08 2017-04-13 富士通株式会社 Image creation system, image creation program and image creation method
JP2018106298A (en) * 2016-12-22 2018-07-05 キヤノンマーケティングジャパン株式会社 Image processing apparatus, image processing method, and computer program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040418A (en) * 1996-04-25 1998-02-13 Matsushita Electric Ind Co Ltd Transmitter/receiver for movement of three-dimensional skeletal structure and its method
JP2011180790A (en) * 2010-02-26 2011-09-15 Nippon Yunishisu Kk Apparatus, method, program and system for generating three-dimensional shape model
US20120314936A1 (en) * 2010-03-17 2012-12-13 Sony Corporation Information processing device, information processing method, and program
WO2012081194A1 (en) * 2010-12-17 2012-06-21 パナソニック株式会社 Medical-treatment assisting apparatus, medical-treatment assisting method, and medical-treatment assisting system
JP2017062720A (en) * 2015-09-25 2017-03-30 キヤノンマーケティングジャパン株式会社 Information processing device, information processing system, control method thereof, and program
JP2017073042A (en) * 2015-10-08 2017-04-13 富士通株式会社 Image creation system, image creation program and image creation method
JP2018106298A (en) * 2016-12-22 2018-07-05 キヤノンマーケティングジャパン株式会社 Image processing apparatus, image processing method, and computer program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SERGIO ORTS-ESCOLANO ET AL.: "Holoportation: Virtual 3D Teleportation in Real-time", UIST '16: PROCEEDINGS OF THE 29TH ANNUAL SYMPOSIUM ON USER INTERFACE SOFTWARE AND TECHNOLOGY, JPN7019004037, October 2016 (2016-10-01), pages 741 - 754, XP055742979, ISSN: 0004226385, DOI: 10.1145/2984511.2984517 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021220494A1 (en) * 2020-04-30 2021-11-04 塁 佐藤 Communication terminal device, communication method, and software program
JP6818219B1 (en) * 2020-05-29 2021-01-20 株式会社PocketRD 3D avatar generator, 3D avatar generation method and 3D avatar generation program
WO2021240848A1 (en) * 2020-05-29 2021-12-02 株式会社PocketRD Three-dimensional avatar generation device, three-dimensional avatar generation method, and three-dimensional avatar generation program
JP2021189725A (en) * 2020-05-29 2021-12-13 株式会社PocketRD Three-dimensional avatar generating apparatus, three-dimensional avatar generating method, and three-dimensional avatar generating program
WO2022054366A1 (en) * 2020-09-09 2022-03-17 高木 りか Posture evaluation program, posture evaluation device, posture evaluation method, and posture evaluation system
JP2022045832A (en) * 2020-09-09 2022-03-22 高木 りか Posture evaluation program, posture evaluation apparatus, posture evaluation method, and posture evaluation system
JP7379302B2 (en) 2020-09-09 2023-11-14 高木 りか A posture evaluation program, a posture evaluation device, a posture evaluation method, and a posture evaluation system.
WO2023204104A1 (en) * 2022-04-22 2023-10-26 株式会社Nttドコモ Virtual space presenting device
WO2024014197A1 (en) * 2022-07-14 2024-01-18 ソニーグループ株式会社 Image processing device, image processing method, and program
CN116206087A (en) * 2023-04-28 2023-06-02 深圳市其域创新科技有限公司 Beyond-the-horizon enhanced display system and method

Similar Documents

Publication Publication Date Title
JP2020065229A (en) Video communication method, video communication device, and video communication program
US10602121B2 (en) Method, system and apparatus for capture-based immersive telepresence in virtual environment
Beck et al. Immersive group-to-group telepresence
US11887234B2 (en) Avatar display device, avatar generating device, and program
KR101566543B1 (en) Method and system for mutual interaction using space information argumentation
US20100017728A1 (en) Apparatus and method of interworking between virtual reality services
JP5833526B2 (en) Video communication system and video communication method
JP2013061937A (en) Combined stereo camera and stereo display interaction
US8724849B2 (en) Information processing device, information processing method, program, and information storage medium
JP6348623B2 (en) 3D model creation method, 3D model creation device, 3D model creation system, and 3D model creation program
KR101579491B1 (en) Digilog space generator for tele-collaboration in an augmented reality environment and digilog space generation method using the same
JP5731462B2 (en) Video communication system and video communication method
JP2011113206A (en) System and method for video image communication
JP5759439B2 (en) Video communication system and video communication method
JP2018007180A (en) Image display device, image display method and image display program
JP2010282497A (en) Different-world state reflection device
KR20160136160A (en) Virtual Reality Performance System and Performance Method
JP5833525B2 (en) Video communication system and video communication method
JP5898036B2 (en) Video communication system and video communication method
JP2021131490A (en) Information processing device, information processing method, and program
JP2021005347A (en) Spatial reproduction method and spatial reproduction system
JP7370305B2 (en) Presentation system, server, second terminal and program
JP5485102B2 (en) COMMUNICATION DEVICE, COMMUNICATION METHOD, AND PROGRAM
JP7420585B2 (en) AR display control device, its program, and AR display system
KR102483905B1 (en) Method and System for generating virtual performance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200915