JP2021131741A - Ar display control device, program therefor, and ar display system - Google Patents

Ar display control device, program therefor, and ar display system Download PDF

Info

Publication number
JP2021131741A
JP2021131741A JP2020026834A JP2020026834A JP2021131741A JP 2021131741 A JP2021131741 A JP 2021131741A JP 2020026834 A JP2020026834 A JP 2020026834A JP 2020026834 A JP2020026834 A JP 2020026834A JP 2021131741 A JP2021131741 A JP 2021131741A
Authority
JP
Japan
Prior art keywords
person
display control
mode
display
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020026834A
Other languages
Japanese (ja)
Other versions
JP7420585B2 (en
Inventor
裕之 川喜田
Hiroyuki Kawakita
裕之 川喜田
数馬 吉野
Kazuma Yoshino
数馬 吉野
拓也 半田
Takuya Handa
拓也 半田
一宏 原
Kazuhiro Hara
一宏 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2020026834A priority Critical patent/JP7420585B2/en
Publication of JP2021131741A publication Critical patent/JP2021131741A/en
Application granted granted Critical
Publication of JP7420585B2 publication Critical patent/JP7420585B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide an AR display control device in which an uneasy feeling in space sharing can be reduced.SOLUTION: An AR display control device 5 includes a visual-line person information receiving unit 54 that receives partner's visual-line person information, a mode determination unit 55 that determines a redirection mode, a real mode, or a recovery motion mode on the basis of the visual-line person information, a redirection mode display control unit 57A that displays the partner on an AR glass 4 in the redirection mode, a real mode display control unit 57B that displays the partner on the AR glass 4 in the real mode, and a recovery motion mode display control unit 57c that displays the partner on the AR glass 4 in the recovery motion mode.SELECTED DRAWING: Figure 8

Description

本発明は、AR表示装置に相手を表示させるAR表示制御装置及びそのプログラム、並びに、AR表示システムに関する。 The present invention relates to an AR display control device for displaying a partner on an AR display device, a program thereof, and an AR display system.

近年、仮想現実(VR:Virtual Reality)や拡張現実(AR:Augmented Reality)に関する研究が行われている。例えば、3次元仮想空間内に利用者の分身(アバタ)を表示し、利用者同士で3次元仮想空間を共有する技術が提案されている(特許文献1,2)。これら特許文献1,2に記載の手法は、3次元仮想空間内での対話を促進するため、互いの分身の視線を合わせるものである。 In recent years, research on virtual reality (VR) and augmented reality (AR) has been conducted. For example, a technique has been proposed in which a user's alter ego (avatar) is displayed in a three-dimensional virtual space and the users share the three-dimensional virtual space (Patent Documents 1 and 2). The methods described in Patent Documents 1 and 2 align the lines of sight of each other's alter ego in order to promote dialogue in a three-dimensional virtual space.

特開平9−6985号公報Japanese Unexamined Patent Publication No. 9-6985 特開2003−150978号公報Japanese Unexamined Patent Publication No. 2003-150978

前記した特許文献1,2に記載の技術では、利用者の実写モデルを扱えない上、利用者同士で3次元仮想空間を共有しながらテレビ番組を視聴することも困難である。このため、テレビ番組の視聴における空間共有では、ARグラス等のAR表示装置の利用が現実的である。つまり、テレビ番組を視聴するときに利用者のAR表示装置に相手を表示すれば、テレビ番組の視聴における空間共有を実現できる。 The techniques described in Patent Documents 1 and 2 described above cannot handle a live-action model of a user, and it is also difficult for users to watch a television program while sharing a three-dimensional virtual space. For this reason, it is realistic to use an AR display device such as AR glasses for space sharing in viewing TV programs. That is, if the other party is displayed on the user's AR display device when watching the TV program, space sharing in watching the TV program can be realized.

また、本願発明者らにより、空間共有に関する研究も行われている。例えば、2人でテレビ番組を視聴している際、相手が利用者の前方にいるとき(例えば、視界に入っているとき)に「2人でテレビ番組を視聴している」という印象が強くなると考えられる。 In addition, the inventors of the present application are also conducting research on space sharing. For example, when two people are watching a TV program and the other person is in front of the user (for example, when they are in sight), the impression that "two people are watching the TV program" is strong. It is considered to be.

ここで、AR表示装置において、利用者の視界に入るように相手を前方に表示している場合を考える。この場合、現実世界で相手が自分を振り向いても、利用者のAR表示装置では、相手が利用者の前方に位置するため、相手が完全に利用者を振り向いていない状態となる。このように、AR表示装置では、相手が途中までしか振り向かない状態で表示されてしまうため、利用者に違和感を与えてしまう。 Here, consider a case where the AR display device displays the other party forward so as to be in the user's field of view. In this case, even if the other party turns around in the real world, the other party is not completely turned around because the other party is located in front of the user on the user's AR display device. In this way, in the AR display device, the display is displayed in a state where the other party turns around only halfway, which gives the user a sense of discomfort.

本発明は、空間共有での違和感を低減できるAR表示制御装置及びそのプログラム、並びに、AR表示システムを提供することを課題とする。 An object of the present invention is to provide an AR display control device and a program thereof, which can reduce a sense of discomfort in space sharing, and an AR display system.

前記課題を解決するため、本発明に係るAR表示制御装置は、映像表示装置を視聴する第1の人物が装着するAR表示装置に、他の映像表示装置を視聴する第2の人物を第1の人物が視聴する映像表示装置の側となるように表示するAR表示制御装置であって、視線情報受信部と、モード判定部と、リダイレクションモード表示制御部と、リアルモード表示制御部と、復帰モーションモード表示制御部と、を備える構成とした。 In order to solve the above problems, in the AR display control device according to the present invention, the AR display device worn by the first person who watches the video display device has a second person who watches another video display device. It is an AR display control device that displays so as to be on the side of the video display device to be viewed by the person in question. It is configured to include a motion mode display control unit.

かかる構成によれば、視線情報受信部は、第2の人物が第1の人物を見ているか、又は、第2の人物が第1の人物から目をそらしたかを示す視線情報を受信する。
モード判定部は、視線情報に基づいて、第2の人物が所定時間以上第1の人物を見続けている場合にはリダイレクションモードと判定し、第2の人物が第1の人物から目をそらした場合にはリアルモードと判定し、リダイレクションモードと判定された後、第2の人物が所定時間以上第1の人物から目をそらし続けている場合には復帰モーションモードと判定する。
According to such a configuration, the line-of-sight information receiving unit receives line-of-sight information indicating whether the second person is looking at the first person or the second person looks away from the first person. ..
Based on the line-of-sight information, the mode determination unit determines that if the second person continues to look at the first person for a predetermined time or longer, the mode determination unit determines that the direction mode is determined, and the second person looks away from the first person. If this is the case, it is determined to be the real mode, and if the second person continues to look away from the first person for a predetermined time or longer after being determined to be the redirection mode, it is determined to be the return motion mode.

リダイレクションモード表示制御部は、リダイレクションモードと判定された場合には、第2の人物が第1の人物を振り向くようにAR表示装置に表示させる。
リアルモード表示制御部は、リアルモードと判定された場合には、第2の人物を実際の姿勢でAR表示装置に表示させる。
復帰モーションモード表示制御部は、復帰モーションモードと判定された場合には、第1の人物に振り向いている第2の人物が実際の姿勢に復帰するようにAR表示装置に表示させる。
このように、AR表示装置では、第2の人物を第1の人物の前方に表示する場合であっても、第2の人物が第1の人物を振り向いた状態となる。
When the redirection mode display control unit determines that the redirection mode is determined, the AR display device displays the second person so as to turn around the first person.
When the real mode display control unit determines that the real mode is set, the real mode display control unit displays the second person in the actual posture on the AR display device.
When the return motion mode display control unit determines that the return motion mode is determined, the AR display device displays the second person who is turning to the first person so that the second person returns to the actual posture.
As described above, in the AR display device, even when the second person is displayed in front of the first person, the second person turns around the first person.

また、前記課題を解決するため、本発明に係るAR表示システムは、他の映像表示装置を視聴する第2の人物を撮影する撮影カメラと、撮影カメラの撮影映像を用いて、第2の人物の3次元モデル及び姿勢情報を生成する3次元モデル・姿勢情報生成装置と、前記したAR表示制御装置と、を備える構成とした。 Further, in order to solve the above-mentioned problems, the AR display system according to the present invention uses a photographing camera for photographing a second person viewing another image display device and a photographing image captured by the photographing camera to obtain the second person. The configuration includes a three-dimensional model / attitude information generation device for generating the three-dimensional model and attitude information, and the AR display control device described above.

かかる構成によれば、AR表示制御装置は、映像表示装置を視聴する第1の人物が装着するAR表示装置に、第2の人物を第1の人物が視聴する映像表示装置の側となるように表示する。
このように、AR表示システムでは、第2の人物を第1の人物の前方に表示する場合であっても、第2の人物が第1の人物を振り向いた状態となる。
According to such a configuration, the AR display control device is such that the AR display device worn by the first person who watches the video display device is on the side of the video display device where the first person watches the second person. Display on.
As described above, in the AR display system, even when the second person is displayed in front of the first person, the second person turns around the first person.

なお、本発明は、コンピュータを、前記したAR表示制御装置として機能させるためのプログラムで実現することもできる。 The present invention can also be realized by a program for causing the computer to function as the AR display control device described above.

本発明によれば、第2の人物を第1の人物の前方に表示する場合であっても、第2の人物が第1の人物を振り向いた状態となるので、空間共有での違和感を低減することができる。 According to the present invention, even when the second person is displayed in front of the first person, the second person turns around the first person, so that a sense of discomfort in space sharing is reduced. can do.

第1実施形態に係るAR表示システムの概略図である。It is the schematic of the AR display system which concerns on 1st Embodiment. テレビ番組の視聴における空間共有を説明する説明図であり、(a)は自分のARグラスの表示方法を示し、(b)は相手のARグラスの表示方法を示す。It is explanatory drawing explaining the space sharing in the viewing of a television program, (a) shows the display method of own AR glass, and (b) shows the display method of the AR glass of the other party. 相手が自分を振り向いた状態を説明する説明図であり、(a)は自分のARグラスの表示方法を示し、(b)は相手のARグラスの表示方法を示す。It is explanatory drawing explaining the state which the other party turned around, (a) shows the display method of own AR glass, (b) shows the display method of the AR glass of the other party. リダイレクションを説明する説明図であり、(a)は自分のARグラスの表示方法を示し、(b)は相手のARグラスの表示方法を示す。It is explanatory drawing explaining redirection, (a) shows the display method of own AR glass, and (b) shows the display method of the AR glass of the other party. (a)はテレビ番組の視聴における空間共有を説明する説明図であり、(a)は相手が自分を振り向いた状態を説明する説明図であり、(c)はリダイレクションを説明する説明図である。(A) is an explanatory diagram for explaining space sharing in watching a television program, (a) is an explanatory diagram for explaining a state in which the other party turns around, and (c) is an explanatory diagram for explaining redirection. .. 第1実施形態に係るAR表示システムの全体構成図である。It is an overall block diagram of the AR display system which concerns on 1st Embodiment. 第1実施形態に係るキャプチャ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the capture apparatus which concerns on 1st Embodiment. 第1実施形態に係るAR表示制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the AR display control apparatus which concerns on 1st Embodiment. (a)〜(c)は、人物が振り向くときの頭部の位置及び体の姿勢の変化を説明する説明図である。(A) to (c) are explanatory views explaining changes in the position of the head and the posture of the body when the person turns around. 図8のAR表示制御装置の動作を示す状態遷移図である。It is a state transition diagram which shows the operation of the AR display control device of FIG. モーションパス情報の一例を説明する説明図である。It is explanatory drawing explaining an example of motion path information. (a)及び(b)は、リダイレクションモード表示制御部及び復帰モーションモード表示制御部におけるモーションパスを説明する説明図である。(A) and (b) are explanatory views explaining the motion path in the direction mode display control unit and the return motion mode display control unit. 第2実施形態に係るAR表示システムの全体構成図である。It is an overall block diagram of the AR display system which concerns on 2nd Embodiment. 第3実施形態に係るAR表示システムの全体構成図である。It is an overall block diagram of the AR display system which concerns on 3rd Embodiment.

以下、本発明の各実施形態について図面を参照して説明する。但し、以下に説明する形態は、本発明の技術思想を具体化するためのものであって、特定的な記載がない限り、本発明を以下のものに限定しない。また、各実施形態において、同一の手段には同一の符号を付し、説明を省略することがある。 Hereinafter, each embodiment of the present invention will be described with reference to the drawings. However, the embodiments described below are for embodying the technical idea of the present invention, and the present invention is not limited to the following unless otherwise specified. Further, in each embodiment, the same means may be designated by the same reference numerals and description thereof may be omitted.

(第1実施形態)
[AR表示システムの概要]
図1〜図5を参照し、AR表示システム1の概要について説明する。
図1に示すように、AR表示システム1は、ARグラス(AR表示装置)4を用いて、テレビ番組の視聴における空間共有を実現するものである。ここで、ARグラス4(4,4)を装着した2人の人物H(H,H)が、異なる場所に配置された映像表示装置6(6,6)でテレビ番組を視聴している。
(First Embodiment)
[Overview of AR display system]
The outline of the AR display system 1 will be described with reference to FIGS. 1 to 5.
As shown in FIG. 1, the AR display system 1 realizes space sharing in viewing a television program by using an AR glass (AR display device) 4. Here, TV shows on AR-glass 4 (4 A, 4 B) equipped with two persons H (H A, H B) are arranged in different locations video display device 6 (6 A, 6 B) I'm watching.

このとき、AR表示システム1は、図2(a)に示すように、人物(第1の人物)Hが装着するARグラス4に人物(第2の人物)Hを、人物Hから見て映像表示装置6の側にCG合成して表示する。従って、図5(a)に示すように、人物Hが装着するARグラス4には、人物Hが前方に表示されている。これと同様、AR表示システム1は、図2(b)に示すように、人物Hが装着するARグラス4に人物Hを、人物Hから見て映像表示装置(他の映像表示装置)6の側にCG合成して表示する。
なお、図2〜図4では、ARグラス4を装着している人物Hを実線で図示し、CG合成で表示されている人物Hを破線で図示した。
In this case, AR display system 1, as shown in FIG. 2 (a), the person to person AR glass 4 A (the first person) H A is mounted (second person) H B, the person H A viewed from and displays the CG synthesizing the side of the image display device 6 a. Therefore, as shown in FIG. 5A, the person H B is displayed in front of the AR glass 4 A worn by the person H A. Similarly, AR display system 1, as shown in FIG. 2 (b), a person H A in AR glass 4 B the person H B is mounted, the image display device as viewed from the person H B (other video display device) 6 and CG synthesis on the side of the B display.
In FIGS. 2 to 4, the person H wearing the AR glass 4 is shown by a solid line, and the person H displayed by CG synthesis is shown by a broken line.

ここで、人物Hが人物Hに振り向いた場合を考える。図3(b)に示すように、人物HのARグラス4では人物Hが前方に表示されている。従って、人物Hが人物Hに振り向くときの動作(頭部回転量)が小さくなるが、人物Hの頭部は人物Hの方向を向いている。その一方、図3(a)に示すように、人物HのARグラス4でも人物Hが前方に表示されているため、図5(b)に示すように、人物Hが人物Hを完全に振り向いていない状態となる。つまり、人物Hが人物Hを振り向くときの頭部回転量が足らず、人物Hの頭部が人物Hの方向を向いていない。そこで、AR表示システム1では、図4(a)及び図5(c)に示すように、人物Hが人物Hを完全に振り向くようにリダイレクション処理を行う。 Here, consider the case where the person H B turns to the person H A. As shown in FIG. 3 (b), AR glass 4 B in the person H A person H B are displayed in front. Therefore, the movement (head rotation amount) when the person H B turns to the person H A becomes small, but the head of the person H B faces the direction of the person H A. Meanwhile, as shown in FIG. 3 (a), since the person H B even AR glass 4 A person H A is displayed on the front, as shown in FIG. 5 (b), the person H B is the person H A is not completely turned around. That is, the amount of head rotation when the person H B turns around the person H A is insufficient, and the head of the person H B does not face the direction of the person H A. Therefore, in the AR display system 1, as shown in FIGS. 4A and 5C, the redirection process is performed so that the person H B turns around the person H A completely.

なお、テレビ番組の視聴における空間共有では、人物Hの表示位置は、人物Hの前方であれば任意に設定できる(人物Hの表示位置も同様)。例えば、人物Hから見て人物Hを1メートル前方に表示する。このとき、テレビ番組の視聴を妨害しないように、人物Hの斜め前方に人物Hを表示してもよい。
以後、人物H,Hの一方を「自分」、人物H,Hの他方を「相手」と記載する場合がある。
In the shared space in view of the television program, the display position of the person H B (also similar display position of the person H A) which can be arbitrarily set as long as the front of the person H A. For example, the person H B is displayed 1 meter forward when viewed from the person H A. At this time, the person H B may be displayed diagonally in front of the person H A so as not to interfere with the viewing of the television program.
Thereafter, the person H A, "me" one of H B, the person H A, the other H B may be referred to as "other party".

[AR表示システムの構成]
図1及び図6を参照し、AR表示システム1の構成について説明する。
図1及び図6に示すように、AR表示システム1は、カメラ2と、キャプチャ装置3と、ARグラス4と、AR表示制御装置5とを備える。このAR表示システム1では、ケーブルを介して、カメラ2とキャプチャ装置3とが接続されている。また、AR表示システム1では、AR表示制御装置5がARグラス4に内蔵されており、インターネット等のネットワークNWを介して、キャプチャ装置3とAR表示制御装置5とが接続されている。
[AR display system configuration]
The configuration of the AR display system 1 will be described with reference to FIGS. 1 and 6.
As shown in FIGS. 1 and 6, the AR display system 1 includes a camera 2, a capture device 3, an AR glass 4, and an AR display control device 5. In this AR display system 1, the camera 2 and the capture device 3 are connected via a cable. Further, in the AR display system 1, the AR display control device 5 is built in the AR glass 4, and the capture device 3 and the AR display control device 5 are connected to each other via a network NW such as the Internet.

ここで、AR表示システム1は、2人の人物H,Hに対応するように、2台のカメラ2(2,2)と、2台のキャプチャ装置3(3,3)と、2台のARグラス4(4,4)と、2台のAR表示制御装置5(5,5)とを備える。これらのカメラ2、キャプチャ装置3、ARグラス4及びAR表示制御装置5は、2台とも同一の構成である。また、人物Hが視聴する映像表示装置6を映像表示装置6とし、人物Hが視聴する映像表示装置6を映像表示装置6とする。 Here, AR display system 1, two persons H A, so as to correspond to H B, and two cameras 2 (2 A, 2 B), the capture of the two devices 3 (3 A, 3 B ), Two AR glasses 4 (4 A , 4 B ), and two AR display control devices 5 (5 A , 5 B ). The camera 2, the capture device 3, the AR glass 4, and the AR display control device 5 all have the same configuration. Further, the video display device 6 viewed by the person HA is referred to as the video display device 6 A, and the video display device 6 viewed by the person H B is referred to as the video display device 6 B.

カメラ2は、人物Hを撮影する一般的なカメラであり、人物Hの撮影映像をキャプチャ装置3に出力する。この撮影映像は、キャプチャ装置3が人物Hの3DCGモデル及びボーン情報を生成するために必要となる。ここで、カメラ2が人物Hの撮影映像をキャプチャ装置3に出力し、カメラ2が人物Hの撮影映像をキャプチャ装置3に出力する。例えば、カメラ2は、人物Hに正対するように映像表示装置6の上部中央に配置されている。また、カメラ2は、1台の一般的なRGBカメラで構成されているが、ステレオカメラやデプスカメラ付きRGBカメラであってもよい。 The camera 2 is a general camera that captures the person H, and outputs the captured image of the person H to the capture device 3. This captured image is necessary for the capture device 3 to generate the 3DCG model and bone information of the person H. Here, the camera 2 A outputs the captured image of the person HA to the capture device 3 A , and the camera 2 B outputs the captured image of the person H B to the capture device 3 B. For example, the camera 2 is arranged in the upper center of the image display device 6 so as to face the person H. Further, although the camera 2 is composed of one general RGB camera, it may be a stereo camera or an RGB camera with a depth camera.

キャプチャ装置3は、カメラ2から入力された人物Hの撮影映像を用いて、人物Hの3DCGモデル及び人物Hのボーン情報を生成するものである。この3DCGモデルは、人物Hの3次元モデルである。また、ボーン情報は、人物Hの各関節の位置、つまり、人物Hの姿勢を表す姿勢情報である。そして、キャプチャ装置3は、ネットワークNWを介して、生成した人物Hの3DCGモデル及びボーン情報をAR表示制御装置5に送信する。 The capture device 3 uses the captured image of the person H input from the camera 2 to generate the 3DCG model of the person H and the bone information of the person H. This 3DCG model is a three-dimensional model of the person H. Further, the bone information is the position of each joint of the person H, that is, the posture information representing the posture of the person H. Then, the capture device 3 transmits the generated 3DCG model of the person H and the bone information to the AR display control device 5 via the network NW.

ここで、自分の3DCGモデル及びボーン情報は、相手のARグラス4に自分を表示するために必要となる。このため、キャプチャ装置3は、人物Hの3DCGモデル及びボーン情報を、人物HのAR表示制御装置5に送信し続ける。これと同様、キャプチャ装置3は、人物Hの3DCGモデル及びボーン情報を、人物HのAR表示制御装置5に送信し続ける。
なお、キャプチャ装置3の構成は、後記する。
Here, your 3DCG model and bone information are required to display yourself on the AR glass 4 of the other party. Therefore, the capture device 3 A continues to transmit the 3DCG model and bone information of the person HA to the AR display control device 5 B of the person H B. Similarly, capture device 3 B is a 3DCG model and bone information of the person H B, continues to transmit to the AR display control unit 5 A person H A.
The configuration of the capture device 3 will be described later.

ARグラス4は、一般的なARグラスと同様にARディスプレイ41を備える他、AR表示制御装置5を内蔵している(図8)。また、ARグラス4は、人物Hの視線を検出する視線センサ40を備え、視線センサ40による視線検出結果をAR表示制御装置5に出力する。 The AR glass 4 includes an AR display 41 like a general AR glass, and also has an AR display control device 5 (FIG. 8). Further, the AR glass 4 includes a line-of-sight sensor 40 that detects the line of sight of the person H, and outputs the line-of-sight detection result of the line-of-sight sensor 40 to the AR display control device 5.

AR表示制御装置5は、映像表示装置6で視聴する自分が装着するARグラス4に、他の映像表示装置6で視聴する相手を映像表示装置6の側に表示するものである。また、AR表示制御装置5は、キャプチャ装置3から受信した相手の3DCGモデル及びボーン情報を用いて、相手が完全に自分を振り向くようにリダイレクション処理を行う。 The AR display control device 5 displays the other party to be viewed on the other image display device 6 on the side of the image display device 6 on the AR glass 4 worn by the user who views the image on the image display device 6. Further, the AR display control device 5 uses the 3DCG model and bone information of the other party received from the capture device 3 to perform a redirection process so that the other party turns around completely.

ここで、AR表示制御装置5では、リダイレクション処理の要否を判定するために視線人物情報(視線情報)が必要となる。この視線人物情報は、相手が自分を見ているか、又は、相手が自分から目をそらしたかを示す情報である。このため、AR表示制御装置5は、ネットワークNWを介して、相手の視線人物情報を相手側のAR表示制御装置5から受信し続ける。 Here, in the AR display control device 5, the line-of-sight person information (line-of-sight information) is required to determine the necessity of the redirection process. This line-of-sight person information is information indicating whether the other party is looking at himself / herself or whether the other party has turned his / her eyes away from himself / herself. Therefore, the AR display control device 5 continues to receive the other party's line-of-sight person information from the other party's AR display control device 5 via the network NW.

以上を整理すると、人物HのAR表示制御装置5は、キャプチャ装置3から受信した人物Hの3DCGモデル及びボーン情報を用いて、人物HのARグラス4に人物Hを表示させる。このとき、AR表示制御装置5は、AR表示制御装置5から受信した人物Hの視線人物情報に基づいてリダイレクション処理の要否を判定し、人物Hが完全に人物Hを振り向くようにリダイレクション処理を行う。さらに、AR表示制御装置5は、人物Hの視線人物情報を生成してAR表示制御装置5に送信する。 To summarize the above, AR display control unit 5 A person H A, using 3DCG model and bone information of the person H B received from the capture device 3 B, a person H B to AR glass 4 A person H A Display it. At this time, the AR display control device 5 A determines the necessity of the redirection process based on the line-of-sight person information of the person H B received from the AR display control device 5 B , and the person H B completely turns around the person H A. Redirection processing is performed as described above. Further, the AR display control device 5 A generates the line-of-sight person information of the person HA and transmits it to the AR display control device 5 B.

これと同様、人物HのAR表示制御装置5は、キャプチャ装置3から受信した人物Hの3DCGモデル及びボーン情報を用いて、人物HのARグラス4に人物Hを表示させる。このとき、AR表示制御装置5は、AR表示制御装置5から受信した人物Hの視線人物情報に基づいてリダイレクション処理の要否を判定し、人物Hが完全に人物Hを振り向くようにリダイレクション処理を行う。さらに、AR表示制御装置5は、人物Hの視線人物情報を生成してAR表示制御装置5に送信する。
なお、AR表示制御装置5の構成は、後記する。
Similarly, AR display control unit 5 B of the person H B, using 3DCG model and bone information of the person H A received from the capture device 3 A, displays the person H A in AR glass 4 B of the person H B Let me. At this time, the AR display control device 5 B determines the necessity of the redirection process based on the line-of-sight person information of the person HA received from the AR display control device 5 A , and the person HA completely turns around the person H B. Redirection processing is performed as described above. Further, the AR display control device 5 B generates the line-of-sight person information of the person H B and transmits it to the AR display control device 5 A.
The configuration of the AR display control device 5 will be described later.

映像表示装置6は、例えば、テレビ番組を表示する一般的な放送受信機である。また、映像表示装置6は、テレビ番組以外の映像コンテンツ(例えば、ネットワークNWで配信される映像コンテンツ)を表示してもよい。なお、映像表示装置6は、AR表示システム1に含まれていないが、AR表示システム1に密接に関連するので図示した。 The video display device 6 is, for example, a general broadcast receiver for displaying a television program. Further, the video display device 6 may display video content other than the TV program (for example, video content distributed on the network NW). Although the image display device 6 is not included in the AR display system 1, it is shown because it is closely related to the AR display system 1.

[キャプチャ装置の構成]
図7を参照し、キャプチャ装置3の構成について説明する。なお、図7では、ネットワークNWの図示を省略した。
キャプチャ装置3は、撮影映像入力部30と、3DCGモデル生成部31と、ボーン情報生成部32と、3DCG・ボーン情報送信部33とを備える。
[Capture device configuration]
The configuration of the capture device 3 will be described with reference to FIG. 7. In FIG. 7, the network NW is not shown.
The capture device 3 includes a captured video input unit 30, a 3DCG model generation unit 31, a bone information generation unit 32, and a 3DCG / bone information transmission unit 33.

撮影映像入力部30は、カメラ2から自分の撮影映像を入力するものである。そして、撮影映像入力部30は、入力された自分の撮影映像を3DCGモデル生成部31に出力する。 The captured image input unit 30 inputs its own photographed image from the camera 2. Then, the captured image input unit 30 outputs the input own photographed image to the 3DCG model generation unit 31.

3DCGモデル生成部31は、撮影映像入力部30から入力された自分の撮影映像を用いて、自分の3DCGモデルを生成するものである。
ここで、3DCGモデル生成部31は、3DCGモデルを任意の手法で生成できる。カメラ2が1台のRGBカメラで構成されている場合、3DCGモデル生成部31は、ディープラーニングにより3DCGモデルを生成できる。例えば、3DCGモデル生成部31は、人物の写真を学習させたニューラルネットワークにより、自分の撮影映像に含まれる各フレームから3DCGモデルを生成すればよい。また、カメラ2がステレオカメラの場合、3DCGモデル生成部31は、ステレオ画像から奥行き情報を求め、この奥行き情報から3DCGモデルを生成できる。また、カメラ2がデプスカメラ付きRGBカメラの場合、3DCGモデル生成部31は、デプスカメラの映像が奥行き情報を表すので、ステレオカメラと同様に3DCGモデルを生成できる。
そして、3DCGモデル生成部31は、生成した自分の3DCGモデルをボーン情報生成部32及び3DCG・ボーン情報送信部33に出力する。
The 3DCG model generation unit 31 generates its own 3DCG model by using its own photographed image input from the photographed image input unit 30.
Here, the 3DCG model generation unit 31 can generate a 3DCG model by any method. When the camera 2 is composed of one RGB camera, the 3DCG model generation unit 31 can generate a 3DCG model by deep learning. For example, the 3DCG model generation unit 31 may generate a 3DCG model from each frame included in its own captured image by a neural network trained with a photograph of a person. When the camera 2 is a stereo camera, the 3DCG model generation unit 31 can obtain depth information from the stereo image and generate a 3DCG model from the depth information. Further, when the camera 2 is an RGB camera with a depth camera, the 3DCG model generation unit 31 can generate a 3DCG model in the same manner as the stereo camera because the image of the depth camera represents the depth information.
Then, the 3DCG model generation unit 31 outputs the generated own 3DCG model to the bone information generation unit 32 and the 3DCG / bone information transmission unit 33.

ボーン情報生成部32は、3DCGモデル生成部31から入力された自分の3DCGモデルを用いて、その自分のボーン情報を生成するものである。つまり、ボーン情報生成部32は、3DCGモデルを動作させるために、3DCGモデルに対応したボーン情報を生成する。ここで、ボーン情報生成部32は、任意の手法(例えば、参考文献1に記載のクイックリグ)でボーン情報を生成できる。そして、ボーン情報生成部32は、生成した自分のボーン情報を3DCG・ボーン情報送信部33に出力する。 The bone information generation unit 32 generates its own bone information using its own 3DCG model input from the 3DCG model generation unit 31. That is, the bone information generation unit 32 generates bone information corresponding to the 3DCG model in order to operate the 3DCG model. Here, the bone information generation unit 32 can generate bone information by an arbitrary method (for example, the quick rig described in Reference 1). Then, the bone information generation unit 32 outputs the generated own bone information to the 3DCG / bone information transmission unit 33.

参考文献1:Maya(登録商標)、[online]、オートデスク株式会社、[令和2年2月13日検索]、インターネット〈URL:https://www.autodesk.co.jp/products/maya/overview〉 Reference 1: Maya (registered trademark), [online], Autodesk Co., Ltd., [Searched on February 13, 2nd year of Reiwa], Internet <URL: https://www.autodesk.co.jp/products/maya/ overview>

3DCG・ボーン情報送信部33は、3DCGモデル生成部31から入力された自分の3DCGモデルと、ボーン情報生成部32から入力された自分のボーン情報とを相手側のAR表示制御装置5に送信するものである。
ここで、3DCG・ボーン情報送信部33は、3DCGモデル及びボーン情報を任意の頻度で送信できる。例えば、3DCG・ボーン情報送信部33は、3DCGモデルの送信頻度を低くすると、ネットワークNWの帯域を節約できる。一方、3DCG・ボーン情報送信部33は、ボーン情報の送信頻度を高くすると、3DCGモデルの姿勢変化が滑らかになる。
The 3DCG / bone information transmission unit 33 transmits its own 3DCG model input from the 3DCG model generation unit 31 and its own bone information input from the bone information generation unit 32 to the AR display control device 5 on the other side. It is a thing.
Here, the 3DCG / bone information transmission unit 33 can transmit the 3DCG model and bone information at an arbitrary frequency. For example, if the 3DCG / bone information transmission unit 33 reduces the transmission frequency of the 3DCG model, the bandwidth of the network NW can be saved. On the other hand, when the 3DCG / bone information transmission unit 33 increases the frequency of transmitting bone information, the posture change of the 3DCG model becomes smooth.

[AR表示制御装置の構成]
図8を参照し、AR表示制御装置5の構成について説明する。なお、図8では、ネットワークNWの図示を省略した。
[Configuration of AR display control device]
The configuration of the AR display control device 5 will be described with reference to FIG. In FIG. 8, the network NW is not shown.

図8に示すように、AR表示制御装置5は、視線入力部50と、視線判定処理部51と、視線人物情報送信部(視線情報送信部)52と、3DCG・ボーン情報受信部(3次元モデル姿勢情報受信部)53と、視線人物情報受信部(視線情報受信部)54と、モード判定部55と、モーションパス情報記録部56と、リダイレクションモード表示制御部57Aと、リアルモード表示制御部57Bと、復帰モーションモード表示制御部57Cと、バーチャル表示部58とを備える。 As shown in FIG. 8, the AR display control device 5 includes a line-of-sight input unit 50, a line-of-sight determination processing unit 51, a line-of-sight person information transmission unit (line-of-sight information transmission unit) 52, and a 3DCG / bone information reception unit (three-dimensional). Model posture information receiving unit) 53, line-of-sight person information receiving unit (line-of-sight information receiving unit) 54, mode determination unit 55, motion path information recording unit 56, redirection mode display control unit 57A, and real mode display control unit. It includes a 57B, a return motion mode display control unit 57C, and a virtual display unit 58.

視線入力部50は、視線センサ40から自分の視線検出結果を入力するものである。そして、視線入力部50は、入力された自分の視線検出結果を視線判定処理部51に出力する。 The line-of-sight input unit 50 inputs its own line-of-sight detection result from the line-of-sight sensor 40. Then, the line-of-sight input unit 50 outputs the input own line-of-sight detection result to the line-of-sight determination processing unit 51.

視線判定処理部51は、視線入力部50から入力された自分の視線検出結果に基づいて、自分が相手を見ているか否かを判定するものである。
ここで、視線判定処理部51は、後記するバーチャル表示部58から、ARグラス4に表示されている相手領域の情報が入力されると共に、視線入力部50から、自分の視線検出結果が入力される。この場合、視線判定処理部51は、ARグラス4を装着した自分の視線がARグラス4に表示されている相手領域に重なっているか否かにより、自分が相手を見ているか否かを判定する。つまり、視線判定処理部51は、自分の視線が相手領域に重なっている場合、自分が相手を見ていると判定する。一方、視線判定処理部51は、自分の視線が相手領域に重なっていない場合、自分が相手から目をそらしたと判定する。
その後、視線判定処理部51は、自分が相手を見ているか否かの判定結果を、視線人物情報として視線人物情報送信部52に出力する。
The line-of-sight determination processing unit 51 determines whether or not oneself is looking at the other party based on the line-of-sight detection result of oneself input from the line-of-sight input unit 50.
Here, the line-of-sight determination processing unit 51 inputs information on the partner area displayed on the AR glass 4 from the virtual display unit 58 described later, and inputs its own line-of-sight detection result from the line-of-sight input unit 50. NS. In this case, the line-of-sight determination processing unit 51 determines whether or not he / she is looking at the other party depending on whether or not his / her line of sight wearing the AR glass 4 overlaps the other party area displayed on the AR glass 4. .. That is, the line-of-sight determination processing unit 51 determines that he / she is looking at the other party when his / her line of sight overlaps the other party's area. On the other hand, when the line-of-sight determination processing unit 51 does not overlap the other party's area, the line-of-sight determination processing unit 51 determines that he / she has turned his / her eyes away from the other party.
After that, the line-of-sight determination processing unit 51 outputs the determination result of whether or not he / she is looking at the other party to the line-of-sight person information transmission unit 52 as the line-of-sight person information.

視線人物情報送信部52は、ネットワークNWを介して、視線判定処理部51から入力された自分の視線人物情報を相手側のAR表示制御装置5に送信するものである。 The line-of-sight person information transmission unit 52 transmits its own line-of-sight person information input from the line-of-sight determination processing unit 51 to the AR display control device 5 on the other side via the network NW.

3DCG・ボーン情報受信部53は、ネットワークNWを介して、相手の3DCGモデル及びボーン情報を相手側のキャプチャ装置3から受信するものである。そして、3DCG・ボーン情報受信部53は、受信した相手の3DCG・ボーン情報をモード判定部55に出力する。 The 3DCG / bone information receiving unit 53 receives the other party's 3DCG model and bone information from the other party's capture device 3 via the network NW. Then, the 3DCG / bone information receiving unit 53 outputs the received 3DCG / bone information of the other party to the mode determination unit 55.

視線人物情報受信部54は、ネットワークNWを介して、相手の視線人物情報を相手側のAR表示制御装置5から受信するものである。そして、視線人物情報受信部54は、受信した相手の視線人物情報をモード判定部55に出力する。 The line-of-sight person information receiving unit 54 receives the line-of-sight person information of the other party from the AR display control device 5 of the other party via the network NW. Then, the line-of-sight person information receiving unit 54 outputs the received line-of-sight person information of the other party to the mode determination unit 55.

モード判定部55は、視線人物情報受信部54から入力された相手の視線人物情報に基づいて、リダイレクションモード、リアルモード及び復帰モーションモードの判定を行うものである。
具体的には、モード判定部55は、相手が自分を所定時間以上見続けている場合にリダイレクションモードと判定する。この場合、モード判定部55は、後記するリダイレクションモード表示制御部57Aに対して、リダイレクションモードを指令し、3DCG・ボーン情報を出力する。
また、モード判定部55は、相手が自分から目をそらした場合にリアルモードと判定する。この場合、モード判定部55は、後記するリアルモード表示制御部57Bに対して、リアルモードを指令し、3DCG・ボーン情報を出力する。
さらに、モード判定部55は、リダイレクションモードと判定された後、相手が自分から所定時間以上目をそらし続けている場合に復帰モーションモードと判定する。この場合、モード判定部55は、後記する復帰モーションモード表示制御部57Cに対して、復帰モーションモードを指令し、3DCG・ボーン情報を出力する。
The mode determination unit 55 determines the reduction mode, the real mode, and the return motion mode based on the line-of-sight person information of the other party input from the line-of-sight person information receiving unit 54.
Specifically, the mode determination unit 55 determines that the direction is a redirection mode when the other party keeps looking at himself / herself for a predetermined time or longer. In this case, the mode determination unit 55 commands the redirection mode display control unit 57A, which will be described later, to redirection mode, and outputs 3DCG / bone information.
In addition, the mode determination unit 55 determines that the mode is real mode when the other party looks away from himself / herself. In this case, the mode determination unit 55 commands the real mode display control unit 57B, which will be described later, to perform the real mode, and outputs 3DCG / bone information.
Further, the mode determination unit 55 determines the return motion mode when the other party keeps looking away from himself / herself for a predetermined time or more after the determination of the redirection mode. In this case, the mode determination unit 55 commands the return motion mode display control unit 57C, which will be described later, to return motion mode, and outputs 3DCG / bone information.

モーションパス情報記録部56は、モーションパス情報を予め記録するメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)等の記憶装置である。このモーションパス情報は、リダイレクションモード表示制御部57A及び復帰モーションモード表示制御部57Cによって参照される。なお、モーションパスの詳細は、後記する。 The motion path information recording unit 56 is a storage device such as a memory, an HDD (Hard Disk Drive), or an SSD (Solid State Drive) that records motion path information in advance. This motion path information is referred to by the direction mode display control unit 57A and the return motion mode display control unit 57C. The details of the motion path will be described later.

リダイレクションモード表示制御部57Aは、モード判定部55でリダイレクションモードと判定された場合、相手をリダイレクションモードで表示するようにバーチャル表示部58を制御するものである。このリダイレクションモードとは、相手が完全に自分を振り向くようにARグラス4に表示させるモードのことである。このとき、リダイレクションモード表示制御部57Aは、相手の3DCGモデルが自分を自然に振り向くように所定のモーションパスで表示させる。 The redirection mode display control unit 57A controls the virtual display unit 58 so that when the mode determination unit 55 determines the redirection mode, the other party is displayed in the redirection mode. This redirection mode is a mode in which the AR glass 4 is displayed so that the other party turns around completely. At this time, the redirection mode display control unit 57A displays the 3DCG model of the other party in a predetermined motion path so as to turn around naturally.

ここで、図9(a)〜(c)に示すように、相手が振り向く場合、単純に頭部の角度が変化するのではなく、頭部の中心位置(重心位置)Pや体の姿勢も変化する。なお、図9には、頭部の方向を一点鎖線で図示した。そこで、リダイレクションモード表示制御部57Aは、相手の振り向く動作が自然となるように、3DCGモデルの体(肩、腕等の上半身)を頭部に追随させることが好ましい。例えば、リダイレクションモード表示制御部57Aでは、IK(Inverse Kinematics)を用いることで、3DCGモデルの体を頭部に追随させることができる。 Here, as shown in FIG. 9 (a) ~ (c) , if the other turn around, rather than simply the angle of the head changes, the center position of the head (gravity center position) P C and body posture Also changes. In FIG. 9, the direction of the head is shown by a chain line. Therefore, it is preferable that the redirection mode display control unit 57A follows the body (upper body of the shoulder, arm, etc.) of the 3DCG model to the head so that the opponent turns around naturally. For example, in the redirection mode display control unit 57A, the body of the 3DCG model can be made to follow the head by using IK (Inverse Kinematics).

リアルモード表示制御部57Bは、モード判定部55でリアルモードと判定された場合、相手をリアルモードで表示するようにバーチャル表示部58を制御するものである。このリアルモードとは、相手を実際の姿勢でARグラス4に表示させるモードのことである。つまり、リアルモード表示制御部57Bは、相手の3DCGモデルをボーン情報の姿勢で表示させる。 The real mode display control unit 57B controls the virtual display unit 58 so that the other party is displayed in the real mode when the mode determination unit 55 determines the real mode. This real mode is a mode in which the opponent is displayed on the AR glass 4 in the actual posture. That is, the real mode display control unit 57B displays the 3DCG model of the other party in the posture of the bone information.

復帰モーションモード表示制御部57Cは、モード判定部55で復帰モーションモードと判定された場合、相手を復帰モーションモードで表示するようにバーチャル表示部58を制御するものである。この復帰モーションモードとは、自分に振り向いている相手が実際の姿勢に復帰するようにARグラス4に表示させるモードのことである。このとき、復帰モーションモード表示制御部57Cは、リダイレクションモード表示制御部57Aのモーションパスと逆のモーションパスで、相手の3DCGモデルが実際の姿勢に復帰するように表示させる。 The return motion mode display control unit 57C controls the virtual display unit 58 so that the other party is displayed in the return motion mode when the mode determination unit 55 determines that the return motion mode is set. This return motion mode is a mode in which the AR glass 4 is displayed so that the opponent who is turning to himself / herself returns to the actual posture. At this time, the return motion mode display control unit 57C displays the 3DCG model of the other party so as to return to the actual posture with a motion path opposite to the motion path of the direction mode display control unit 57A.

バーチャル表示部58は、リダイレクションモード表示制御部57A、リアルモード表示制御部57B、及び、復帰モーションモード表示制御部57Cからの制御に従って、相手をARグラス4(ARディスプレイ41)にCG合成して表示するものである。つまり、バーチャル表示部58は、リダイレクションモード、リアルモード又は復帰モーションモードの何れかで相手をARグラス4にバーチャル表示する。さらに、バーチャル表示部58は、ARグラス4に表示されている相手領域の情報を視線判定処理部51に出力する。 The virtual display unit 58 CG-synthesizes and displays the other party on the AR glass 4 (AR display 41) according to the control from the direction mode display control unit 57A, the real mode display control unit 57B, and the return motion mode display control unit 57C. It is something to do. That is, the virtual display unit 58 virtually displays the opponent on the AR glass 4 in any of the redirection mode, the real mode, and the return motion mode. Further, the virtual display unit 58 outputs the information of the partner area displayed on the AR glass 4 to the line-of-sight determination processing unit 51.

[AR表示制御装置の動作]
図10を参照し、AR表示制御装置5の動作を説明する。
以下、人物HのARグラス4に人物Hを表示するときのAR表示制御装置5の動作を一例として説明する。また、人物Hを「自分」とし、人物Hを「相手」と記載する場合がある。
[Operation of AR display control device]
The operation of the AR display control device 5 will be described with reference to FIG.
Hereinafter, will be explained as an example the operation of AR display control unit 5 A when displaying a person H B to AR glass 4 A person H A. In addition, person H A may be described as "self" and person H B may be described as "other party".

まず、AR表示システム1の全体動作を整理する。
相手側のカメラ2が人物Hを撮影し、カメラ2の撮影映像を用いて、相手側のキャプチャ装置3が人物Hの3DCGモデル及びボーン情報を生成する。そして、相手側のキャプチャ装置3が、人物Hの3DCGモデル及びボーン情報を、自分のAR表示制御装置5に送信する。さらに、相手側のAR表示制御装置5が、人物Hの視線人物情報を自分のAR表示制御装置5に送信する。
First, the overall operation of the AR display system 1 is organized.
The camera 2 B on the other side shoots the person H B, and the capture device 3 B on the other side generates the 3DCG model and bone information of the person H B using the captured image of the camera 2 B. Then, the capture device 3 B on the other side transmits the 3DCG model and bone information of the person H B to its own AR display control device 5 A. Further, the AR display control device 5 B on the other side transmits the line-of-sight person information of the person H B to its own AR display control device 5 A.

そして、自分のAR表示制御装置5が、人物Hの3DCGモデルとボーン情報と視線人物情報とを用いて、人物HのARグラス4に人物Hを表示させる。このとき、AR表示制御装置5は、以下で説明する動作を行う。 Then, his AR display control unit 5 A, using the 3DCG model and bones information gaze person information of the person H B, displays the person H B to AR glass 4 A person H A. In this case, AR display control unit 5 A performs the operations discussed below.

図10に示すように、AR表示制御装置5のモード判定部55は、初期状態S0からリアルモード状態S1に遷移する。例えば、ARグラス4の電源投入時又はリセット時、AR表示制御装置5が初期状態になる。 As shown in FIG. 10, the mode determination unit 55 of the AR display control unit 5 A transitions from the initial state S0 to the real mode state S1. For example, or reset at power-on of the AR glasses 4 A, AR display control unit 5 A is the initial state.

リアルモード状態S1において、モード判定部55は、リアルモード表示制御部57Bにリアルモードを指令する。すると、リアルモード表示制御部57Bは、人物HのARグラス4に人物Hをリアルモードで表示させる。 In the real mode state S1, the mode determination unit 55 commands the real mode display control unit 57B to perform the real mode. Then, real-mode display control unit 57B displays the person H B in real mode AR glass 4 A person H A.

また、リアルモード状態S1において、モード判定部55は、人物Hの視線人物情報に基づいて、人物Hが自分を見たか否かを判定する。
人物Hが自分を見た場合、モード判定部55は、リアルモード(判定処理)状態S2に遷移する。
Further, in the real mode state S1, the mode determination unit 55, based on the line-of-sight personal information of the person H B, determines the person H B is whether looked at herself.
When the person H B looks at himself / herself, the mode determination unit 55 transitions to the real mode (determination process) state S2.

リアルモード(判定処理)状態S2において、モード判定部55は、人物Hの視線人物情報に基づいて、人物Hが自分を見続けている時間tが、予め設定された閾値T以上であるか否かを判定する。この閾値Tは、任意の値で設定できる(例えば、閾値T=1秒)。
時間tが閾値T以上の場合、モード判定部55は、リダイレクションモード状態S3に遷移する。
In real mode (determination processing) state S2, the mode determining unit 55, a person on the basis of the visual axis personal information of H B, the time t 1 the person H B continues watching yourself, thresholds T 1 or a preset It is determined whether or not it is. The threshold value T 1 can be set by any value (for example, the threshold value T 1 = 1 second).
When the time t 1 is equal to or greater than the threshold value T 1 , the mode determination unit 55 transitions to the redirection mode state S3.

また、リアルモード(判定処理)状態S2において、モード判定部55は、人物Hの視線人物情報に基づいて、人物Hが自分から目をそらしたか否かを判定する。
人物Hが自分から目をそらした場合、モード判定部55は、リアルモード状態S1に遷移する。
人物Hが自分から目をそらしておらず、かつ、時間tが閾値T未満の場合、モード判定部55は、リアルモード(判定処理)状態S2の状態を維持する。
Further, in the real mode (determination processing) state S2, the mode determining unit 55, based on the line-of-sight personal information of the person H B, it determines the person H B is whether looked away from him.
When the person H B looks away from himself / herself, the mode determination unit 55 transitions to the real mode state S1.
When the person H B is not looking away from himself and the time t 1 is less than the threshold value T 1 , the mode determination unit 55 maintains the state of the real mode (determination process) state S2.

リダイレクションモード状態S3において、モード判定部55は、リダイレクションモード表示制御部57Aにリダイレクションモードを指令する。すると、リダイレクションモード表示制御部57Aは、人物HのARグラス4に人物Hをリダイレクションモードで表示させる。 In the redirection mode state S3, the mode determination unit 55 commands the redirection mode display control unit 57A to perform the redirection mode. Then, the redirection mode display control unit 57A displays a person H B redirection mode AR glass 4 A person H A.

また、リダイレクションモード状態S3において、モード判定部55は、人物Hの視線人物情報に基づいて、人物Hが自分から目をそらしたか否かを判定する。
人物Hが自分から目をそらした場合、モード判定部55は、リダイレクションモード(判定処理)状態S4に遷移する。
人物Hが自分を見ている場合、モード判定部55は、リダイレクションモード状態S3の状態を維持する。
Further, in the redirection mode state S3, the mode determination unit 55, based on the line-of-sight personal information of the person H B, it determines the person H B is whether looked away from him.
When the person H B looks away from himself / herself, the mode determination unit 55 transitions to the redirection mode (determination process) state S4.
When the person H B is looking at himself / herself, the mode determination unit 55 maintains the state of the redirection mode state S3.

リダイレクションモード(判定処理)状態S4において、モード判定部55は、人物Hの視線人物情報に基づいて、人物Hが自分から目をそらし続けている時間tが、予め設定された閾値T以上であるか否かを判定する。この閾値Tは、任意の値で設定できる(例えば、閾値T=1秒)。
時間tが閾値T以上の場合、モード判定部55は、復帰モーションモード状態S5に遷移する。
In Redirection mode (determination processing) state S4, the mode determination unit 55, based on the line-of-sight personal information of the person H B, the person H B is the time t 2 which continues to look away from his, preset threshold T Determine if it is 2 or more. The threshold value T 2 can be set by any value (for example, the threshold value T 2 = 1 second).
When the time t 2 is equal to or greater than the threshold value T 2 , the mode determination unit 55 transitions to the return motion mode state S5.

また、リダイレクションモード(判定処理)状態S4において、モード判定部55は、人物Hの視線人物情報に基づいて、人物Hが自分を見たか否かを判定する。
人物Hが自分を見た場合、モード判定部55は、リダイレクションモード状態S3に遷移する。
人物Hが自分を見ておらず、かつ、時間tが閾値T未満の場合、モード判定部55は、リダイレクションモード(判定処理)状態S4の状態を維持する。
Further, in the redirection mode (determination processing) state S4, the mode determination unit 55, based on the line-of-sight personal information of the person H B, it determines the person H B is whether looked at herself.
When the person H B looks at himself / herself, the mode determination unit 55 transitions to the redirection mode state S3.
When the person H B is not looking at himself and the time t 2 is less than the threshold value T 2 , the mode determination unit 55 maintains the state of the redirection mode (determination process) state S4.

復帰モーションモード状態S5において、モード判定部55は、復帰モーションモード表示制御部57Cに復帰モーションモードを指令する。すると、復帰モーションモード表示制御部57Cは、人物HのARグラス4に人物Hを復帰モーションモードで表示させる。
復帰モーションが終了すると、モード判定部55は、リアルモード状態S1に遷移する。
In the return motion mode state S5, the mode determination unit 55 commands the return motion mode display control unit 57C to perform the return motion mode. Then, the return motion mode display control unit 57C displays the person H B in return motion mode to the AR glasses 4 A person H A.
When the return motion is completed, the mode determination unit 55 transitions to the real mode state S1.

なお、人物HのARグラス4に人物Hを表示するときのAR表示制御装置5の動作も同様のため、説明を省略する。 Since work with similar AR display control unit 5 B when displaying a person H A in AR glass 4 B of the person H B, the description thereof is omitted.

[モーションパス]
図11及び図12を参照し、リダイレクションモード表示制御部57A及び復帰モーションモード表示制御部57Cにおけるモーションパスについて説明する。
[Motion path]
The motion paths in the direction mode display control unit 57A and the return motion mode display control unit 57C will be described with reference to FIGS. 11 and 12.

リダイレクションモード表示制御部57Aは、人物Hの頭部が実際の姿勢(頭部角度θ)から人物Hを振り向く角度(頭部角度θ)まで、人物Hの3DCGモデルが人物Hを振り向くように連続的に表示させる。このとき、リダイレクションモード表示制御部57Aは、モーションパス情報記録部56のモーションパス情報を用いて、頭部角度θから頭部角度θまでのモーションパスを決定する。 Redirection mode display control unit 57A is, from the actual position the head of the person H B (head angle theta 1) to an angle (head angle theta 2) that turn around a person H A, the person H B of 3DCG model person H Display A continuously so as to turn around. At this time, the redirection mode display control unit 57A determines the motion path from the head angle θ 1 to the head angle θ 2 by using the motion path information of the motion path information recording unit 56.

図11に示すように、モーションパス情報MPは、人物Hの頭部角度θ毎に、頭部位置(xθ,yθ,zθ)及び頭部回転量(rxθ,ryθ,rzθ)を示す情報である。つまり、モーションパス情報MPは、前方(角度θ=0°)から頭部角度θまでの頭部位置(xθ,yθ,zθ)及び頭部回転量(rxθ,ryθ,rzθ)の変化量を示す。なお、図11のモーションパス情報MPでは、頭部角度θが30°間隔になっているが、頭部角度θの間隔は特に限定されない。 As shown in FIG. 11, the motion path information MP includes the head position (x θ , y θ , z θ ) and the head rotation amount (rx θ , ry θ , rs ) for each head angle θ of the person H B. This is information indicating θ). That is, the motion path information MP includes the head position (x θ , y θ , z θ ) and the head rotation amount (rx θ , ry θ , rz θ) from the front (angle θ = 0 °) to the head angle θ. ) Indicates the amount of change. In the motion path information MP of FIG. 11, the head angle θ is at intervals of 30 °, but the interval of the head angles θ is not particularly limited.

図12(a)に示すように、AR表示制御装置5では、実際の姿勢(頭部角度θ)における人物Hの頭部位置(x,y,z)及び頭部回転量(rx,ry,rz)を常に把握している。従って、リダイレクションモード表示制御部57Aは、実際の姿勢(頭部角度θ)における人物Hの頭部位置(x,y,z)及び頭部回転量(rx,ry,rz)を、人物Hを基準とする座標系に座標変換することで、図12(b)に示すように、人物Hを振り向く角度(頭部角度θ)を算出できる。この座標変換は、人物HのARグラス4Aにおいて、人物Hを表示させるときのものと同様である。なお、人物Hの頭部の方向は、Y軸を鉛直とする方向ryで表される(人物Hの正面として映像表示装置6の方向(図12(b)の上方向)を0°とする)。 As shown in FIG. 12 (a), the AR display control unit 5 A, the actual posture head position of the person H B in (head angle θ 1) (x, y, z) and head rotation amount (rx , Ry, rz) are always known. Therefore, the redirection mode display control unit 57A sets the head position (x, y, z) and the head rotation amount (rx, ry, raz) of the person H B in the actual posture (head angle θ 1) to the person. By converting the coordinates to the coordinate system based on HA , as shown in FIG. 12B, the angle at which the person HA is turned (head angle θ 2 ) can be calculated. This coordinate transformation is the same as when displaying the person H B in the AR glass 4A of the person HA. The direction of the head of the person H B is represented by the direction ry with the Y axis as the vertical (the direction of the image display device 6 B as the front of the person H B (upward in FIG. 12B) is 0. °).

そして、リダイレクションモード表示制御部57Aは、算出した頭部角度θに応じたモーションパスで、人物Hが人物Hを振り向くようにARグラス4に表示させる。以下、モーションパスの決定について、2つの具体例をあげて説明する。 Then, the redirection mode display control unit 57A displays on the AR glass 4 A so that the person H B turns around the person H A with the motion path corresponding to the calculated head angle θ 2 . Hereinafter, the determination of the motion path will be described with two specific examples.

<モーションパスの決定:第1例>
この第1例の手法では、リダイレクションモードと判定された時刻t=0とし、時刻t=Tのときの人物Hが人物Hを完全に振り向くように、各時刻tのモーションパスを決定する(但し、0≦t≦T)。
<Determination of motion path: 1st example>
In the method of this first example, the time t = 0 determined to be the redirection mode is set, and the motion path at each time t is determined so that the person H B at the time t = T 3 completely turns around the person H A. (However, 0 ≦ t ≦ T 3 ).

ここで、各時刻tの頭部角度θを算出する関数は、以下の式(1)で表される。また、人物Hの頭部をより自然にリダイレクションさせるため、以下の式(2)に示す2次補間関数としてもよい。 Here, the function for calculating the head angle θ t at each time t is expressed by the following equation (1). Further, in order to redirect the head of the person H B more naturally, the quadratic interpolation function shown in the following equation (2) may be used.

Figure 2021131741
Figure 2021131741
Figure 2021131741
Figure 2021131741

まず、リダイレクションモード表示制御部57Aは、式(1)又は式(2)の関数を用いて、頭部角度θ,θから各時刻tの頭部角度θを算出する。なお、この頭部角度θは、座標変換前の人物Hを基準とする座標系で算出される。そして、リダイレクションモード表示制御部57Aは、図11のモーションパス情報MPから、各時刻tの頭部角度θに対応した人物Hの頭部位置(x,y,z)及び頭部回転量(rx,ry,rz)を求める。その後、リダイレクションモード表示制御部57Aは、各時刻tの人物Hの頭部位置(x,y,z)及び頭部回転量(rx,ry,rz)を、人物Hを基準とする座標系に座標変換する。 First, the redirection mode display control unit 57A calculates the head angle θ t at each time t from the head angles θ 1 and θ 2 by using the function of the formula (1) or the formula (2). The head angle θ t is calculated in a coordinate system based on the person H B before the coordinate conversion. Then, the redirection mode display control unit 57A, from the motion path information MP of FIG. 11, head position (x t , y t , z t ) and head of the person H B corresponding to the head angle θ t at each time t. The amount of partial rotation (rx t , ry t , rz t ) is obtained. After that, the redirection mode display control unit 57A sets the head position (x t , y t , z t ) and head rotation amount (rx t , ry t , rz t ) of the person H B at each time t to the person H. Coordinates are converted to a coordinate system based on A.

さらに、リダイレクションモード中に人物Hが動いてしまい、人物Hを振り向く角度(頭部角度θ)が変化してしまう場合もある。この場合、リダイレクションモード表示制御部57Aは、定期的に頭部角度θ,θを再計算して頭部角度θを求め、人物Hの頭部位置(x,y,z)及び頭部回転量(rx,ry,rz)を算出すればよい。 Furthermore, in some cases will move a person H A in the redirection mode, the angle (head angle theta 2) that turn around a person H A changes. In this case, the redirection mode display control unit 57A periodically recalculates the head angles θ 1 and θ 2 to obtain the head angle θ t, and the head position (x t , y t , z) of the person H B. t ) and the amount of head rotation (rx t , ry t , rz t ) may be calculated.

<モーションパスの決定:第2例>
前記した第1例の手法では、リダイレクションモードに入った時点で即座に、人物Hの頭部位置(x,y,z)及び頭部回転量(rx,ry,rz)がモーションパス情報MPの値で設定されてしまい、急な姿勢変化となって違和感を与えてしまう可能性がある。
<Determination of motion path: 2nd example>
In the first example of the procedure described above, immediately upon entering the redirection mode, the head position of the person H B (x, y, z ) and head rotation amount (rx, ry, rz) a motion path information MP It will be set with the value of, and there is a possibility that the posture will change suddenly and give a sense of discomfort.

そこで、第2例の手法では、実際の姿勢における人物Hの頭部位置(x,y,z)及び頭部回転量(rx,ry,rz)から、徐々にモーションパス情報MPの頭部位置(xθ,yθ,zθ)及び頭部回転量(rxθ,ryθ,rzθ)に近づける。 Therefore, in the second example of the method, the head position of the person H B in the actual position (x, y, z) and head rotation amount (rx, ry, rz) from gradually the motion path information MP head Bring it closer to the position (x θ , y θ , z θ ) and the amount of head rotation (rx θ , ry θ , rz θ).

説明を簡易にするため、頭部位置のx座標に着目する。リダイレクションモード表示制御部57Aは、以下の式(3)を用いて、現フレームにおける頭部位置のx座標から、次フレームにおける頭部位置のx´座標を算出する。この式(3)は、予め設定された定数kによる漸化式である。この定数kの値を大きくするほど、モーションパス情報MPの頭部位置(xθ,yθ,zθ)及び頭部回転量(rxθ,ryθ,rzθ)にゆっくりと近づく(但し、k≧1)。また、定数k=1に設定すると、第1例と同様になる。
なお、頭部位置のy座標及びz座標と、頭部回転量(rx,ry,rz)とについても、頭部位置のx座標と同様の漸化式で算出できる。
For the sake of simplicity, we will focus on the x-coordinate of the head position. The redirection mode display control unit 57A calculates the x'coordinate of the head position in the next frame from the x coordinate of the head position in the current frame by using the following equation (3). This equation (3) is a recurrence equation with a preset constant k. As the value of this constant k is increased, the motion path information MP slowly approaches the head position (x θ , y θ , z θ ) and the head rotation amount (rx θ , ry θ , rz θ ) (however, however). k ≧ 1). Further, when the constant k = 1 is set, the same procedure as in the first example is obtained.
The y-coordinate and z-coordinate of the head position and the amount of rotation of the head (rx, ry, rz) can also be calculated by the same recurrence formula as the x-coordinate of the head position.

Figure 2021131741
Figure 2021131741

復帰モーションモード表示制御部57Cは、リダイレクションモード表示制御部57Aにおけるモーションパスと逆のモーションパスで、人物Hに振り向いている人物Hが実際の姿勢に復帰するようにARグラス4に表示させればよい。ここで、復帰モーションモード表示制御部57Cは、リダイレクションモード表示制御部57Aと同様の手法でモーションパスを決定できるため、説明を省略する。
また、人物HのARグラス4に人物Hを表示するときのモーションパスも同様のため、説明を省略する。
The return motion mode display control unit 57C displays on the AR glass 4 A so that the person H B who is turning to the person H A returns to the actual posture with a motion path opposite to the motion path in the direction mode display control unit 57A. Just let me do it. Here, since the return motion mode display control unit 57C can determine the motion path by the same method as the reduction mode display control unit 57A, the description thereof will be omitted.
Further, since the motion path of the same when displaying the person H A in AR glass 4 B of the person H B, the description thereof is omitted.

[作用・効果]
以上のように、第1実施形態に係るAR表示システム1は、自分のARグラス4において、相手を前方に表示する場合であっても、相手が完全に自分を振り向いた状態となるので、空間共有での違和感を低減することができる。
さらに、AR表示システム1は、自分側と相手側との装置構成が同一なので、システム構成を簡易にすることができる。
[Action / Effect]
As described above, in the AR display system 1 according to the first embodiment, even when the other party is displayed in front of the AR glass 4, the other party is in a state of completely turning around, so that the space is available. It is possible to reduce the sense of discomfort in sharing.
Further, since the AR display system 1 has the same device configuration on the own side and the other side, the system configuration can be simplified.

(第2実施形態)
[AR表示システムの構成]
図13を参照し、第2実施形態に係るAR表示システム1Bの構成について、第1実施形態と異なる点を説明する。
(Second Embodiment)
[AR display system configuration]
With reference to FIG. 13, the configuration of the AR display system 1B according to the second embodiment will be described as being different from the first embodiment.

図13に示すように、第2実施形態に係るAR表示システム1Bは、キャプチャ装置3Bをサーバ化した点が、第1実施形態と異なる。つまり、AR表示システム1Bは、2台のカメラ2B(2B,2B)と、1台のキャプチャ装置3Bと、2台のARグラス4(4,4)と、2台のAR表示制御装置5(5,5)とを備える。 As shown in FIG. 13, the AR display system 1B according to the second embodiment is different from the first embodiment in that the capture device 3B is used as a server. That, AR display system 1B includes two cameras 2B (2B A, 2B B) , and one of the capture device 3B, two AR-glass 4 and (4 A, 4 B), two AR display It is equipped with a control device 5 (5 A , 5 B).

カメラ2Bは、ネットワークNWを介して、人物Hの撮影映像をキャプチャ装置3Bに送信する一般的なネットワークカメラである。このとき、カメラ2Bは、撮影した人物Hの識別情報を撮影映像に付加してもよい。この識別情報を参照すれば、後記するキャプチャ装置3Bが、人物H又は人物Hの何れの撮影映像であるか特定できる。 The camera 2B is a general network camera that transmits the captured image of the person H to the capture device 3B via the network NW. At this time, the camera 2B may add the identification information of the photographed person H to the photographed image. Referring to this identification information, capture device 3B described later can be identified which of the captured image of the person H A or person H B.

キャプチャ装置3Bは、カメラ2Bから入力された人物Hの撮影映像を用いて、人物Hの3DCGモデル及び人物Hのボーン情報を生成するものである。つまり、キャプチャ装置3Bは、人物HA,の3DCGモデル及びボーン情報を生成する。例えば、キャプチャ装置3Bは、ネットワークNW上に配置された一般的なサーバやクラウドサーバで構成できる。そして、キャプチャ装置3Bは、識別情報を参照し、人物Hの3DCGモデル及びボーン情報をAR表示制御装置5に送信し、人物Hの3DCGモデル及びボーン情報をAR表示制御装置5に送信する。
他の点、キャプチャ装置3Bは、第1実施形態と同様のため、これ以上の説明を省略する。
The capture device 3B uses the captured image of the person H input from the camera 2B to generate the 3DCG model of the person H and the bone information of the person H. In other words, capture apparatus 3B, the person H A, generates a 3DCG model and bones information H B. For example, the capture device 3B can be configured by a general server or a cloud server arranged on the network NW. The capture device 3B refers to the identification information, the 3DCG model and bone information of the person H A sends to the AR display control unit 5 B, the 3DCG model and bone information of the person H B to AR display control unit 5 A Send.
Since the capture device 3B is the same as the first embodiment in other respects, further description thereof will be omitted.

[作用・効果]
以上のように、第1実施形態に係るAR表示システム1Bは、第1実施形態と同様、空間共有での違和感を低減することができる。
さらに、AR表示システム1Bは、キャプチャ装置3Bをサーバ化することで、1台のキャプチャ装置3Bで実現可能となり、システム構成をより簡易にすることができる。
[Action / Effect]
As described above, the AR display system 1B according to the first embodiment can reduce the discomfort in space sharing as in the first embodiment.
Further, the AR display system 1B can be realized by one capture device 3B by converting the capture device 3B into a server, and the system configuration can be further simplified.

(第3実施形態)
[AR表示システムの構成]
図14を参照し、第3実施形態に係るAR表示システム1Cの構成について、第1実施形態と異なる点を説明する。
(Third Embodiment)
[AR display system configuration]
With reference to FIG. 14, the configuration of the AR display system 1C according to the third embodiment will be described as being different from the first embodiment.

図14に示すように、第3実施形態に係るAR表示システム1Cは、キャプチャ装置3CをARグラス4Cに内蔵すると共に撮影映像を送受信する点が、第1実施形態と異なる。つまり、AR表示システム1Cは、2台のカメラ2C(2C,2C)と、2台のキャプチャ装置3C(3C,3C)と、2台のARグラス4C(4C,4C)と、2台のAR表示制御装置5(5,5)とを備える。 As shown in FIG. 14, the AR display system 1C according to the third embodiment is different from the first embodiment in that the capture device 3C is built in the AR glass 4C and the captured image is transmitted and received. That, AR display system 1C includes two cameras 2C (2C A, 2C B) and, two capture device 3C (3C A, 3C B) and, two AR-glass 4C (4C A, 4C B) And two AR display control devices 5 (5 A , 5 B ).

カメラ2Cは、ネットワークNWを介して、人物Hの撮影映像を相手側のARグラス4Cに内蔵されたキャプチャ装置3Cに送信する一般的なネットワークカメラである。つまり、カメラ2は、人物Hの撮影映像を人物Hが装着するARグラス4Cのキャプチャ装置3に送信する。さらに、カメラ2は、人物Hの撮影映像を人物Hが装着するARグラス4Cのキャプチャ装置3に送信する。 The camera 2C is a general network camera that transmits the captured image of the person H to the capture device 3C built in the AR glass 4C on the other side via the network NW. In other words, the camera 2 A is a photographic image of the person H A is the person H B transmits to the capture device 3 B of AR glass 4C B to be mounted. Further, the camera 2 B transmits the captured image of the person H B to capture device 3 A of AR glass 4C A the person H A is attached.

キャプチャ装置3Cは、ネットワークNWを介して、カメラ2Cから人物Hの撮影映像を受信し、受信した撮影映像を用いて、人物Hの3DCGモデル及びボーン情報を生成するものである。また、キャプチャ装置3Cは、ARグラス4Cに内蔵されている。
他の点、キャプチャ装置3C及びARグラス4Cは、第1実施形態と同様のため、これ以上の説明を省略する。
The capture device 3C receives a photographed image of the person H from the camera 2C via the network NW, and uses the received photographed image to generate a 3DCG model and bone information of the person H. Further, the capture device 3C is built in the AR glass 4C.
Since the other points, the capture device 3C and the AR glass 4C are the same as those in the first embodiment, further description thereof will be omitted.

[作用・効果]
以上のように、第3実施形態に係るAR表示システム1Cは、第1実施形態と同様、空間共有での違和感を低減することができる。
さらに、AR表示システム1Cは、3DCGモデルやボーン情報よりもデータ量が少ない撮影映像を送受信するので、ネットワークNWの通信帯域を節約することができる。
[Action / Effect]
As described above, the AR display system 1C according to the third embodiment can reduce the discomfort in space sharing as in the first embodiment.
Further, since the AR display system 1C transmits / receives a captured image having a smaller amount of data than the 3DCG model and bone information, the communication band of the network NW can be saved.

(変形例)
以上、本発明の実施形態を詳述してきたが、本発明は前記した実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した各実施形態では、AR表示装置がARグラスであることとして説明したが、これに限定されない。例えば、AR表示装置がAR表示機能を有するスマートフォンであってもよい。
前記した各実施形態では、AR表示制御装置がARグラスに内蔵されることとして説明したが、AR表示制御装置をARグラスの外部に備えてもよい。
(Modification example)
Although the embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and includes design changes and the like within a range that does not deviate from the gist of the present invention.
In each of the above-described embodiments, the AR display device has been described as being an AR glass, but the present invention is not limited thereto. For example, the AR display device may be a smartphone having an AR display function.
In each of the above-described embodiments, the AR display control device has been described as being built in the AR glass, but the AR display control device may be provided outside the AR glass.

前記した各実施形態では、AR表示装置をハードウェアとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記したAR表示装置として動作させるプログラムで実現することもできる。これらのプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。 In each of the above-described embodiments, the AR display device has been described as hardware, but the present invention is not limited thereto. For example, the present invention can also be realized by a program that operates hardware resources such as a CPU, memory, and hard disk of a computer as the AR display device described above. These programs may be distributed via a communication line, or may be written and distributed on a recording medium such as a CD-ROM or a flash memory.

1〜1C AR表示システム
2〜2C カメラ
3〜3C キャプチャ装置
4,4C ARグラス
5 AR表示制御装置
6 映像表示装置
30 撮影映像入力部
31 3DCGモデル生成部
32 ボーン情報生成部
33 3DCG・ボーン情報送信部
40 視線センサ
41 ARディスプレイ
50 視線入力部
51 視線判定処理部
52 視線人物情報送信部(視線情報送信部)
53 3DCG・ボーン情報受信部(3次元モデル姿勢情報受信部)
54 視線人物情報受信部(視線情報受信部)
55 モード判定部
56 モーションパス情報記録部
57A リダイレクションモード表示制御部
57B リアルモード表示制御部
57C 復帰モーションモード表示制御部
58 バーチャル表示部
1-1C AR display system 2-2C Camera 3-3C Capture device 4, 4C AR glass 5 AR display control device 6 Video display device 30 Captured video input unit 31 3DCG model generation unit 32 Bone information generation unit 33 3DCG / bone information transmission Unit 40 Line-of-sight sensor 41 AR display 50 Line-of-sight input unit 51 Line-of-sight determination processing unit 52 Line-of-sight person information transmission unit (line-of-sight information transmission unit)
53 3DCG / bone information receiver (3D model posture information receiver)
54 Line-of-sight person information receiving unit (line-of-sight information receiving unit)
55 Mode determination unit 56 Motion path information recording unit 57A Direction mode display control unit 57B Real mode display control unit 57C Return motion mode display control unit 58 Virtual display unit

Claims (7)

映像表示装置を視聴する第1の人物が装着するAR表示装置に、他の映像表示装置を視聴する第2の人物を前記第1の人物が視聴する映像表示装置の側となるように表示するAR表示制御装置であって、
前記第2の人物が前記第1の人物を見ているか、又は、前記第2の人物が前記第1の人物から目をそらしたかを示す視線情報を受信する視線情報受信部と、
前記視線情報に基づいて、前記第2の人物が所定時間以上前記第1の人物を見続けている場合にはリダイレクションモードと判定し、前記第2の人物が前記第1の人物から目をそらした場合にはリアルモードと判定し、前記リダイレクションモードと判定された後、前記第2の人物が所定時間以上前記第1の人物から目をそらし続けている場合には復帰モーションモードと判定するモード判定部と、
前記リダイレクションモードと判定された場合には、前記第2の人物が前記第1の人物を振り向くように前記AR表示装置に表示させるリダイレクションモード表示制御部と、
前記リアルモードと判定された場合には、前記第2の人物を実際の姿勢で前記AR表示装置に表示させるリアルモード表示制御部と、
前記復帰モーションモードと判定された場合には、前記第1の人物に振り向いている第2の人物が実際の姿勢に復帰するように前記AR表示装置に表示させる復帰モーションモード表示制御部と、
を備えることを特徴とするAR表示制御装置。
The AR display device worn by the first person viewing the video display device displays the second person viewing the other video display device so as to be on the side of the video display device viewed by the first person. AR display control device
A line-of-sight information receiving unit that receives line-of-sight information indicating whether the second person is looking at the first person or whether the second person has turned away from the first person.
When the second person continues to look at the first person for a predetermined time or longer based on the line-of-sight information, it is determined that the direction mode is set, and the second person looks away from the first person. If this is the case, it is determined to be the real mode, and if the second person continues to look away from the first person for a predetermined time or longer after being determined to be the reduction mode, the mode is determined to be the return motion mode. Judgment unit and
When the redirection mode is determined, the redirection mode display control unit that causes the AR display device to display the second person so as to turn around the first person.
When the real mode is determined, the real mode display control unit that displays the second person in the actual posture on the AR display device, and the real mode display control unit.
When the return motion mode is determined, the return motion mode display control unit that causes the AR display device to display the second person who is turning to the first person so that the second person returns to the actual posture.
An AR display control device comprising.
前記第2の人物の頭部角度毎に頭部位置及び頭部回転量を示すモーションパス情報を予め記録するモーションパス情報記録部、をさらに備え、
前記リダイレクションモード表示制御部は、実際の姿勢における前記第2の人物の頭部位置及び頭部回転量を座標変換することで、前記第1の人物を振り向いたときの第2の人物の頭部角度を算出し、算出した当該頭部角度に応じたモーションパスで、前記第2の人物が前記第1の人物を振り向くように前記AR表示装置に表示させることを特徴とする請求項1に記載のAR表示制御装置。
A motion path information recording unit for pre-recording motion path information indicating the head position and the amount of head rotation for each head angle of the second person is further provided.
The redirection mode display control unit converts the head position and the amount of rotation of the head of the second person in the actual posture into coordinates, so that the head of the second person when the first person is turned around The first aspect of claim 1, wherein the angle is calculated, and the AR display device is displayed so that the second person turns around the first person with a motion path corresponding to the calculated head angle. AR display control device.
前記復帰モーションモード表示制御部は、前記リダイレクションモード表示制御部におけるモーションパスと逆のモーションパスで、前記第1の人物に振り向いている第2の人物が実際の姿勢に復帰するように前記AR表示装置に表示させることを特徴とする請求項2に記載のAR表示制御装置。 The return motion mode display control unit is a motion path opposite to the motion path in the direction mode display control unit, and the AR display is performed so that the second person turning to the first person returns to the actual posture. The AR display control device according to claim 2, wherein the AR display control device is displayed on the device. 前記第2の人物の3次元モデル及び姿勢情報を受信する3次元モデル姿勢情報受信部、をさらに備え、
前記リダイレクションモード表示制御部、前記リアルモード表示制御部及び前記復帰モーションモード表示制御部は、前記第2の人物の3次元モデル及び姿勢情報を用いて、前記第2の人物を前記AR表示装置に表示させることを特徴とする請求項1から請求項3の何れか一項に記載のAR表示制御装置。
A three-dimensional model of the second person and a three-dimensional model posture information receiving unit for receiving posture information are further provided.
The redirection mode display control unit, the real mode display control unit, and the return motion mode display control unit use the three-dimensional model and posture information of the second person to display the second person on the AR display device. The AR display control device according to any one of claims 1 to 3, wherein the AR display control device is displayed.
前記AR表示装置から入力された前記第1の人物の視線検出結果に基づいて、前記第1の人物の視線が前記AR表示装置に表示されている第2の人物の領域に重なっているか否かにより、前記第1の人物が前記第2の人物を見ているか否かを判定する視線判定処理部と、
前記視線判定処理部の判定結果を、前記視線情報として、前記第2の人物が装着する他のAR表示装置に送信する視線情報送信部と、
をさらに備えることを特徴とする請求項1から請求項4の何れか一項に記載のAR表示制御装置。
Whether or not the line of sight of the first person overlaps the area of the second person displayed on the AR display device based on the line-of-sight detection result of the first person input from the AR display device. A line-of-sight determination processing unit that determines whether or not the first person is looking at the second person, and
A line-of-sight information transmitting unit that transmits the determination result of the line-of-sight determination processing unit as the line-of-sight information to another AR display device worn by the second person.
The AR display control device according to any one of claims 1 to 4, further comprising.
コンピュータを、請求項1から請求項5の何れか一項に記載のAR表示制御装置として機能させるためのプログラム。 A program for causing a computer to function as the AR display control device according to any one of claims 1 to 5. 他の映像表示装置を視聴する第2の人物を撮影する撮影カメラと、
前記撮影カメラの撮影映像を用いて、前記第2の人物の3次元モデル及び姿勢情報を生成する3次元モデル・姿勢情報生成装置と、
請求項1から請求項5の何れか一項に記載のAR表示制御装置と、を備え、
前記AR表示制御装置は、前記第2の人物の3次元モデル及び姿勢情報を用いて、映像表示装置を視聴する第1の人物が装着するAR表示装置に、前記第2の人物を前記第1の人物が視聴する映像表示装置の側となるように表示することを特徴とするAR表示システム。
A shooting camera that shoots a second person watching another video display device,
A three-dimensional model / posture information generator that generates a three-dimensional model and posture information of the second person using the images taken by the shooting camera.
The AR display control device according to any one of claims 1 to 5 is provided.
The AR display control device uses the three-dimensional model and posture information of the second person to attach the second person to the AR display device worn by the first person who views the video display device. An AR display system characterized in that it is displayed so as to be on the side of a video display device for viewing by a person.
JP2020026834A 2020-02-20 2020-02-20 AR display control device, its program, and AR display system Active JP7420585B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020026834A JP7420585B2 (en) 2020-02-20 2020-02-20 AR display control device, its program, and AR display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020026834A JP7420585B2 (en) 2020-02-20 2020-02-20 AR display control device, its program, and AR display system

Publications (2)

Publication Number Publication Date
JP2021131741A true JP2021131741A (en) 2021-09-09
JP7420585B2 JP7420585B2 (en) 2024-01-23

Family

ID=77551061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020026834A Active JP7420585B2 (en) 2020-02-20 2020-02-20 AR display control device, its program, and AR display system

Country Status (1)

Country Link
JP (1) JP7420585B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5500671A (en) 1994-10-25 1996-03-19 At&T Corp. Video conference system and method of providing parallax correction and a sense of presence

Also Published As

Publication number Publication date
JP7420585B2 (en) 2024-01-23

Similar Documents

Publication Publication Date Title
CN107801045B (en) Method, device and system for automatically zooming when playing augmented reality scene
US10389937B2 (en) Information processing device, information processing method, and program
US20180115748A1 (en) Remote telepresence server
TWI659335B (en) Graphic processing method and device, virtual reality system, computer storage medium
US10528129B2 (en) Immersive displays
JP6462059B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP2015095802A (en) Display control apparatus, display control method and program
JP2016522463A5 (en)
KR20190112712A (en) Improved method and system for video conferencing with head mounted display (HMD)
CN104536579A (en) Interactive three-dimensional scenery and digital image high-speed fusing processing system and method
US11868546B2 (en) Body pose estimation using self-tracked controllers
WO2018225187A1 (en) Information processing system, information processing device, server device, image presentation method, and image generation method
US20210014468A1 (en) Information processing apparatus, information processing method, and recording medium
JP2020065229A (en) Video communication method, video communication device, and video communication program
US20210278671A1 (en) Head wearable device with adjustable image sensing modules and its system
JP6969577B2 (en) Information processing equipment, information processing methods, and programs
JP5731462B2 (en) Video communication system and video communication method
US11099392B2 (en) Stabilized and tracked enhanced reality images
JP2011113206A (en) System and method for video image communication
JP5759439B2 (en) Video communication system and video communication method
CN107783639A (en) Virtual reality leisure learning system
JP2021131741A (en) Ar display control device, program therefor, and ar display system
US10223821B2 (en) Multi-user and multi-surrogate virtual encounters
JP2020071718A (en) Information processing device, information processing method, and program
JP6999538B2 (en) Information processing methods, information processing programs, information processing systems, and information processing equipment

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200313

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240111

R150 Certificate of patent or registration of utility model

Ref document number: 7420585

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150