JP2021131741A - Ar display control device, program therefor, and ar display system - Google Patents
Ar display control device, program therefor, and ar display system Download PDFInfo
- Publication number
- JP2021131741A JP2021131741A JP2020026834A JP2020026834A JP2021131741A JP 2021131741 A JP2021131741 A JP 2021131741A JP 2020026834 A JP2020026834 A JP 2020026834A JP 2020026834 A JP2020026834 A JP 2020026834A JP 2021131741 A JP2021131741 A JP 2021131741A
- Authority
- JP
- Japan
- Prior art keywords
- person
- display control
- mode
- display
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 claims abstract description 75
- 238000012545 processing Methods 0.000 claims description 20
- 238000001514 detection method Methods 0.000 claims description 6
- 230000009467 reduction Effects 0.000 claims description 3
- 239000011521 glass Substances 0.000 abstract description 62
- 238000011084 recovery Methods 0.000 abstract 3
- 210000003128 head Anatomy 0.000 description 61
- 210000000988 bone and bone Anatomy 0.000 description 52
- 238000000034 method Methods 0.000 description 25
- 230000005540 biological transmission Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 230000007704 transition Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、AR表示装置に相手を表示させるAR表示制御装置及びそのプログラム、並びに、AR表示システムに関する。 The present invention relates to an AR display control device for displaying a partner on an AR display device, a program thereof, and an AR display system.
近年、仮想現実(VR:Virtual Reality)や拡張現実(AR:Augmented Reality)に関する研究が行われている。例えば、3次元仮想空間内に利用者の分身(アバタ)を表示し、利用者同士で3次元仮想空間を共有する技術が提案されている(特許文献1,2)。これら特許文献1,2に記載の手法は、3次元仮想空間内での対話を促進するため、互いの分身の視線を合わせるものである。
In recent years, research on virtual reality (VR) and augmented reality (AR) has been conducted. For example, a technique has been proposed in which a user's alter ego (avatar) is displayed in a three-dimensional virtual space and the users share the three-dimensional virtual space (Patent Documents 1 and 2). The methods described in
前記した特許文献1,2に記載の技術では、利用者の実写モデルを扱えない上、利用者同士で3次元仮想空間を共有しながらテレビ番組を視聴することも困難である。このため、テレビ番組の視聴における空間共有では、ARグラス等のAR表示装置の利用が現実的である。つまり、テレビ番組を視聴するときに利用者のAR表示装置に相手を表示すれば、テレビ番組の視聴における空間共有を実現できる。
The techniques described in
また、本願発明者らにより、空間共有に関する研究も行われている。例えば、2人でテレビ番組を視聴している際、相手が利用者の前方にいるとき(例えば、視界に入っているとき)に「2人でテレビ番組を視聴している」という印象が強くなると考えられる。 In addition, the inventors of the present application are also conducting research on space sharing. For example, when two people are watching a TV program and the other person is in front of the user (for example, when they are in sight), the impression that "two people are watching the TV program" is strong. It is considered to be.
ここで、AR表示装置において、利用者の視界に入るように相手を前方に表示している場合を考える。この場合、現実世界で相手が自分を振り向いても、利用者のAR表示装置では、相手が利用者の前方に位置するため、相手が完全に利用者を振り向いていない状態となる。このように、AR表示装置では、相手が途中までしか振り向かない状態で表示されてしまうため、利用者に違和感を与えてしまう。 Here, consider a case where the AR display device displays the other party forward so as to be in the user's field of view. In this case, even if the other party turns around in the real world, the other party is not completely turned around because the other party is located in front of the user on the user's AR display device. In this way, in the AR display device, the display is displayed in a state where the other party turns around only halfway, which gives the user a sense of discomfort.
本発明は、空間共有での違和感を低減できるAR表示制御装置及びそのプログラム、並びに、AR表示システムを提供することを課題とする。 An object of the present invention is to provide an AR display control device and a program thereof, which can reduce a sense of discomfort in space sharing, and an AR display system.
前記課題を解決するため、本発明に係るAR表示制御装置は、映像表示装置を視聴する第1の人物が装着するAR表示装置に、他の映像表示装置を視聴する第2の人物を第1の人物が視聴する映像表示装置の側となるように表示するAR表示制御装置であって、視線情報受信部と、モード判定部と、リダイレクションモード表示制御部と、リアルモード表示制御部と、復帰モーションモード表示制御部と、を備える構成とした。 In order to solve the above problems, in the AR display control device according to the present invention, the AR display device worn by the first person who watches the video display device has a second person who watches another video display device. It is an AR display control device that displays so as to be on the side of the video display device to be viewed by the person in question. It is configured to include a motion mode display control unit.
かかる構成によれば、視線情報受信部は、第2の人物が第1の人物を見ているか、又は、第2の人物が第1の人物から目をそらしたかを示す視線情報を受信する。
モード判定部は、視線情報に基づいて、第2の人物が所定時間以上第1の人物を見続けている場合にはリダイレクションモードと判定し、第2の人物が第1の人物から目をそらした場合にはリアルモードと判定し、リダイレクションモードと判定された後、第2の人物が所定時間以上第1の人物から目をそらし続けている場合には復帰モーションモードと判定する。
According to such a configuration, the line-of-sight information receiving unit receives line-of-sight information indicating whether the second person is looking at the first person or the second person looks away from the first person. ..
Based on the line-of-sight information, the mode determination unit determines that if the second person continues to look at the first person for a predetermined time or longer, the mode determination unit determines that the direction mode is determined, and the second person looks away from the first person. If this is the case, it is determined to be the real mode, and if the second person continues to look away from the first person for a predetermined time or longer after being determined to be the redirection mode, it is determined to be the return motion mode.
リダイレクションモード表示制御部は、リダイレクションモードと判定された場合には、第2の人物が第1の人物を振り向くようにAR表示装置に表示させる。
リアルモード表示制御部は、リアルモードと判定された場合には、第2の人物を実際の姿勢でAR表示装置に表示させる。
復帰モーションモード表示制御部は、復帰モーションモードと判定された場合には、第1の人物に振り向いている第2の人物が実際の姿勢に復帰するようにAR表示装置に表示させる。
このように、AR表示装置では、第2の人物を第1の人物の前方に表示する場合であっても、第2の人物が第1の人物を振り向いた状態となる。
When the redirection mode display control unit determines that the redirection mode is determined, the AR display device displays the second person so as to turn around the first person.
When the real mode display control unit determines that the real mode is set, the real mode display control unit displays the second person in the actual posture on the AR display device.
When the return motion mode display control unit determines that the return motion mode is determined, the AR display device displays the second person who is turning to the first person so that the second person returns to the actual posture.
As described above, in the AR display device, even when the second person is displayed in front of the first person, the second person turns around the first person.
また、前記課題を解決するため、本発明に係るAR表示システムは、他の映像表示装置を視聴する第2の人物を撮影する撮影カメラと、撮影カメラの撮影映像を用いて、第2の人物の3次元モデル及び姿勢情報を生成する3次元モデル・姿勢情報生成装置と、前記したAR表示制御装置と、を備える構成とした。 Further, in order to solve the above-mentioned problems, the AR display system according to the present invention uses a photographing camera for photographing a second person viewing another image display device and a photographing image captured by the photographing camera to obtain the second person. The configuration includes a three-dimensional model / attitude information generation device for generating the three-dimensional model and attitude information, and the AR display control device described above.
かかる構成によれば、AR表示制御装置は、映像表示装置を視聴する第1の人物が装着するAR表示装置に、第2の人物を第1の人物が視聴する映像表示装置の側となるように表示する。
このように、AR表示システムでは、第2の人物を第1の人物の前方に表示する場合であっても、第2の人物が第1の人物を振り向いた状態となる。
According to such a configuration, the AR display control device is such that the AR display device worn by the first person who watches the video display device is on the side of the video display device where the first person watches the second person. Display on.
As described above, in the AR display system, even when the second person is displayed in front of the first person, the second person turns around the first person.
なお、本発明は、コンピュータを、前記したAR表示制御装置として機能させるためのプログラムで実現することもできる。 The present invention can also be realized by a program for causing the computer to function as the AR display control device described above.
本発明によれば、第2の人物を第1の人物の前方に表示する場合であっても、第2の人物が第1の人物を振り向いた状態となるので、空間共有での違和感を低減することができる。 According to the present invention, even when the second person is displayed in front of the first person, the second person turns around the first person, so that a sense of discomfort in space sharing is reduced. can do.
以下、本発明の各実施形態について図面を参照して説明する。但し、以下に説明する形態は、本発明の技術思想を具体化するためのものであって、特定的な記載がない限り、本発明を以下のものに限定しない。また、各実施形態において、同一の手段には同一の符号を付し、説明を省略することがある。 Hereinafter, each embodiment of the present invention will be described with reference to the drawings. However, the embodiments described below are for embodying the technical idea of the present invention, and the present invention is not limited to the following unless otherwise specified. Further, in each embodiment, the same means may be designated by the same reference numerals and description thereof may be omitted.
(第1実施形態)
[AR表示システムの概要]
図1〜図5を参照し、AR表示システム1の概要について説明する。
図1に示すように、AR表示システム1は、ARグラス(AR表示装置)4を用いて、テレビ番組の視聴における空間共有を実現するものである。ここで、ARグラス4(4A,4B)を装着した2人の人物H(HA,HB)が、異なる場所に配置された映像表示装置6(6A,6B)でテレビ番組を視聴している。
(First Embodiment)
[Overview of AR display system]
The outline of the AR display system 1 will be described with reference to FIGS. 1 to 5.
As shown in FIG. 1, the AR display system 1 realizes space sharing in viewing a television program by using an AR glass (AR display device) 4. Here, TV shows on AR-glass 4 (4 A, 4 B) equipped with two persons H (H A, H B) are arranged in different locations video display device 6 (6 A, 6 B) I'm watching.
このとき、AR表示システム1は、図2(a)に示すように、人物(第1の人物)HAが装着するARグラス4Aに人物(第2の人物)HBを、人物HAから見て映像表示装置6Aの側にCG合成して表示する。従って、図5(a)に示すように、人物HAが装着するARグラス4Aには、人物HBが前方に表示されている。これと同様、AR表示システム1は、図2(b)に示すように、人物HBが装着するARグラス4Bに人物HAを、人物HBから見て映像表示装置(他の映像表示装置)6Bの側にCG合成して表示する。
なお、図2〜図4では、ARグラス4を装着している人物Hを実線で図示し、CG合成で表示されている人物Hを破線で図示した。
In this case, AR display system 1, as shown in FIG. 2 (a), the person to person AR glass 4 A (the first person) H A is mounted (second person) H B, the person H A viewed from and displays the CG synthesizing the side of the image display device 6 a. Therefore, as shown in FIG. 5A, the person H B is displayed in front of the AR glass 4 A worn by the person H A. Similarly, AR display system 1, as shown in FIG. 2 (b), a person H A in AR glass 4 B the person H B is mounted, the image display device as viewed from the person H B (other video display device) 6 and CG synthesis on the side of the B display.
In FIGS. 2 to 4, the person H wearing the AR glass 4 is shown by a solid line, and the person H displayed by CG synthesis is shown by a broken line.
ここで、人物HBが人物HAに振り向いた場合を考える。図3(b)に示すように、人物HBのARグラス4Bでは人物HAが前方に表示されている。従って、人物HBが人物HAに振り向くときの動作(頭部回転量)が小さくなるが、人物HBの頭部は人物HAの方向を向いている。その一方、図3(a)に示すように、人物HAのARグラス4Aでも人物HBが前方に表示されているため、図5(b)に示すように、人物HBが人物HAを完全に振り向いていない状態となる。つまり、人物HBが人物HAを振り向くときの頭部回転量が足らず、人物HBの頭部が人物HAの方向を向いていない。そこで、AR表示システム1では、図4(a)及び図5(c)に示すように、人物HBが人物HAを完全に振り向くようにリダイレクション処理を行う。 Here, consider the case where the person H B turns to the person H A. As shown in FIG. 3 (b), AR glass 4 B in the person H A person H B are displayed in front. Therefore, the movement (head rotation amount) when the person H B turns to the person H A becomes small, but the head of the person H B faces the direction of the person H A. Meanwhile, as shown in FIG. 3 (a), since the person H B even AR glass 4 A person H A is displayed on the front, as shown in FIG. 5 (b), the person H B is the person H A is not completely turned around. That is, the amount of head rotation when the person H B turns around the person H A is insufficient, and the head of the person H B does not face the direction of the person H A. Therefore, in the AR display system 1, as shown in FIGS. 4A and 5C, the redirection process is performed so that the person H B turns around the person H A completely.
なお、テレビ番組の視聴における空間共有では、人物HBの表示位置は、人物HAの前方であれば任意に設定できる(人物HAの表示位置も同様)。例えば、人物HAから見て人物HBを1メートル前方に表示する。このとき、テレビ番組の視聴を妨害しないように、人物HAの斜め前方に人物HBを表示してもよい。
以後、人物HA,HBの一方を「自分」、人物HA,HBの他方を「相手」と記載する場合がある。
In the shared space in view of the television program, the display position of the person H B (also similar display position of the person H A) which can be arbitrarily set as long as the front of the person H A. For example, the person H B is displayed 1 meter forward when viewed from the person H A. At this time, the person H B may be displayed diagonally in front of the person H A so as not to interfere with the viewing of the television program.
Thereafter, the person H A, "me" one of H B, the person H A, the other H B may be referred to as "other party".
[AR表示システムの構成]
図1及び図6を参照し、AR表示システム1の構成について説明する。
図1及び図6に示すように、AR表示システム1は、カメラ2と、キャプチャ装置3と、ARグラス4と、AR表示制御装置5とを備える。このAR表示システム1では、ケーブルを介して、カメラ2とキャプチャ装置3とが接続されている。また、AR表示システム1では、AR表示制御装置5がARグラス4に内蔵されており、インターネット等のネットワークNWを介して、キャプチャ装置3とAR表示制御装置5とが接続されている。
[AR display system configuration]
The configuration of the AR display system 1 will be described with reference to FIGS. 1 and 6.
As shown in FIGS. 1 and 6, the AR display system 1 includes a
ここで、AR表示システム1は、2人の人物HA,HBに対応するように、2台のカメラ2(2A,2B)と、2台のキャプチャ装置3(3A,3B)と、2台のARグラス4(4A,4B)と、2台のAR表示制御装置5(5A,5B)とを備える。これらのカメラ2、キャプチャ装置3、ARグラス4及びAR表示制御装置5は、2台とも同一の構成である。また、人物HAが視聴する映像表示装置6を映像表示装置6Aとし、人物HBが視聴する映像表示装置6を映像表示装置6Bとする。
Here, AR display system 1, two persons H A, so as to correspond to H B, and two cameras 2 (2 A, 2 B), the capture of the two devices 3 (3 A, 3 B ), Two AR glasses 4 (4 A , 4 B ), and two AR display control devices 5 (5 A , 5 B ). The
カメラ2は、人物Hを撮影する一般的なカメラであり、人物Hの撮影映像をキャプチャ装置3に出力する。この撮影映像は、キャプチャ装置3が人物Hの3DCGモデル及びボーン情報を生成するために必要となる。ここで、カメラ2Aが人物HAの撮影映像をキャプチャ装置3Aに出力し、カメラ2Bが人物HBの撮影映像をキャプチャ装置3Bに出力する。例えば、カメラ2は、人物Hに正対するように映像表示装置6の上部中央に配置されている。また、カメラ2は、1台の一般的なRGBカメラで構成されているが、ステレオカメラやデプスカメラ付きRGBカメラであってもよい。
The
キャプチャ装置3は、カメラ2から入力された人物Hの撮影映像を用いて、人物Hの3DCGモデル及び人物Hのボーン情報を生成するものである。この3DCGモデルは、人物Hの3次元モデルである。また、ボーン情報は、人物Hの各関節の位置、つまり、人物Hの姿勢を表す姿勢情報である。そして、キャプチャ装置3は、ネットワークNWを介して、生成した人物Hの3DCGモデル及びボーン情報をAR表示制御装置5に送信する。
The
ここで、自分の3DCGモデル及びボーン情報は、相手のARグラス4に自分を表示するために必要となる。このため、キャプチャ装置3Aは、人物HAの3DCGモデル及びボーン情報を、人物HBのAR表示制御装置5Bに送信し続ける。これと同様、キャプチャ装置3Bは、人物HBの3DCGモデル及びボーン情報を、人物HAのAR表示制御装置5Aに送信し続ける。
なお、キャプチャ装置3の構成は、後記する。
Here, your 3DCG model and bone information are required to display yourself on the AR glass 4 of the other party. Therefore, the
The configuration of the
ARグラス4は、一般的なARグラスと同様にARディスプレイ41を備える他、AR表示制御装置5を内蔵している(図8)。また、ARグラス4は、人物Hの視線を検出する視線センサ40を備え、視線センサ40による視線検出結果をAR表示制御装置5に出力する。
The AR glass 4 includes an
AR表示制御装置5は、映像表示装置6で視聴する自分が装着するARグラス4に、他の映像表示装置6で視聴する相手を映像表示装置6の側に表示するものである。また、AR表示制御装置5は、キャプチャ装置3から受信した相手の3DCGモデル及びボーン情報を用いて、相手が完全に自分を振り向くようにリダイレクション処理を行う。
The AR display control device 5 displays the other party to be viewed on the other image display device 6 on the side of the image display device 6 on the AR glass 4 worn by the user who views the image on the image display device 6. Further, the AR display control device 5 uses the 3DCG model and bone information of the other party received from the
ここで、AR表示制御装置5では、リダイレクション処理の要否を判定するために視線人物情報(視線情報)が必要となる。この視線人物情報は、相手が自分を見ているか、又は、相手が自分から目をそらしたかを示す情報である。このため、AR表示制御装置5は、ネットワークNWを介して、相手の視線人物情報を相手側のAR表示制御装置5から受信し続ける。 Here, in the AR display control device 5, the line-of-sight person information (line-of-sight information) is required to determine the necessity of the redirection process. This line-of-sight person information is information indicating whether the other party is looking at himself / herself or whether the other party has turned his / her eyes away from himself / herself. Therefore, the AR display control device 5 continues to receive the other party's line-of-sight person information from the other party's AR display control device 5 via the network NW.
以上を整理すると、人物HAのAR表示制御装置5Aは、キャプチャ装置3Bから受信した人物HBの3DCGモデル及びボーン情報を用いて、人物HAのARグラス4Aに人物HBを表示させる。このとき、AR表示制御装置5Aは、AR表示制御装置5Bから受信した人物HBの視線人物情報に基づいてリダイレクション処理の要否を判定し、人物HBが完全に人物HAを振り向くようにリダイレクション処理を行う。さらに、AR表示制御装置5Aは、人物HAの視線人物情報を生成してAR表示制御装置5Bに送信する。 To summarize the above, AR display control unit 5 A person H A, using 3DCG model and bone information of the person H B received from the capture device 3 B, a person H B to AR glass 4 A person H A Display it. At this time, the AR display control device 5 A determines the necessity of the redirection process based on the line-of-sight person information of the person H B received from the AR display control device 5 B , and the person H B completely turns around the person H A. Redirection processing is performed as described above. Further, the AR display control device 5 A generates the line-of-sight person information of the person HA and transmits it to the AR display control device 5 B.
これと同様、人物HBのAR表示制御装置5Bは、キャプチャ装置3Aから受信した人物HAの3DCGモデル及びボーン情報を用いて、人物HBのARグラス4Bに人物HAを表示させる。このとき、AR表示制御装置5Bは、AR表示制御装置5Aから受信した人物HAの視線人物情報に基づいてリダイレクション処理の要否を判定し、人物HAが完全に人物HBを振り向くようにリダイレクション処理を行う。さらに、AR表示制御装置5Bは、人物HBの視線人物情報を生成してAR表示制御装置5Aに送信する。
なお、AR表示制御装置5の構成は、後記する。
Similarly, AR display control unit 5 B of the person H B, using 3DCG model and bone information of the person H A received from the capture device 3 A, displays the person H A in AR glass 4 B of the person H B Let me. At this time, the AR display control device 5 B determines the necessity of the redirection process based on the line-of-sight person information of the person HA received from the AR display control device 5 A , and the person HA completely turns around the person H B. Redirection processing is performed as described above. Further, the AR display control device 5 B generates the line-of-sight person information of the person H B and transmits it to the AR display control device 5 A.
The configuration of the AR display control device 5 will be described later.
映像表示装置6は、例えば、テレビ番組を表示する一般的な放送受信機である。また、映像表示装置6は、テレビ番組以外の映像コンテンツ(例えば、ネットワークNWで配信される映像コンテンツ)を表示してもよい。なお、映像表示装置6は、AR表示システム1に含まれていないが、AR表示システム1に密接に関連するので図示した。 The video display device 6 is, for example, a general broadcast receiver for displaying a television program. Further, the video display device 6 may display video content other than the TV program (for example, video content distributed on the network NW). Although the image display device 6 is not included in the AR display system 1, it is shown because it is closely related to the AR display system 1.
[キャプチャ装置の構成]
図7を参照し、キャプチャ装置3の構成について説明する。なお、図7では、ネットワークNWの図示を省略した。
キャプチャ装置3は、撮影映像入力部30と、3DCGモデル生成部31と、ボーン情報生成部32と、3DCG・ボーン情報送信部33とを備える。
[Capture device configuration]
The configuration of the
The
撮影映像入力部30は、カメラ2から自分の撮影映像を入力するものである。そして、撮影映像入力部30は、入力された自分の撮影映像を3DCGモデル生成部31に出力する。
The captured
3DCGモデル生成部31は、撮影映像入力部30から入力された自分の撮影映像を用いて、自分の3DCGモデルを生成するものである。
ここで、3DCGモデル生成部31は、3DCGモデルを任意の手法で生成できる。カメラ2が1台のRGBカメラで構成されている場合、3DCGモデル生成部31は、ディープラーニングにより3DCGモデルを生成できる。例えば、3DCGモデル生成部31は、人物の写真を学習させたニューラルネットワークにより、自分の撮影映像に含まれる各フレームから3DCGモデルを生成すればよい。また、カメラ2がステレオカメラの場合、3DCGモデル生成部31は、ステレオ画像から奥行き情報を求め、この奥行き情報から3DCGモデルを生成できる。また、カメラ2がデプスカメラ付きRGBカメラの場合、3DCGモデル生成部31は、デプスカメラの映像が奥行き情報を表すので、ステレオカメラと同様に3DCGモデルを生成できる。
そして、3DCGモデル生成部31は、生成した自分の3DCGモデルをボーン情報生成部32及び3DCG・ボーン情報送信部33に出力する。
The 3DCG
Here, the 3DCG
Then, the 3DCG
ボーン情報生成部32は、3DCGモデル生成部31から入力された自分の3DCGモデルを用いて、その自分のボーン情報を生成するものである。つまり、ボーン情報生成部32は、3DCGモデルを動作させるために、3DCGモデルに対応したボーン情報を生成する。ここで、ボーン情報生成部32は、任意の手法(例えば、参考文献1に記載のクイックリグ)でボーン情報を生成できる。そして、ボーン情報生成部32は、生成した自分のボーン情報を3DCG・ボーン情報送信部33に出力する。
The bone
参考文献1:Maya(登録商標)、[online]、オートデスク株式会社、[令和2年2月13日検索]、インターネット〈URL:https://www.autodesk.co.jp/products/maya/overview〉 Reference 1: Maya (registered trademark), [online], Autodesk Co., Ltd., [Searched on February 13, 2nd year of Reiwa], Internet <URL: https://www.autodesk.co.jp/products/maya/ overview>
3DCG・ボーン情報送信部33は、3DCGモデル生成部31から入力された自分の3DCGモデルと、ボーン情報生成部32から入力された自分のボーン情報とを相手側のAR表示制御装置5に送信するものである。
ここで、3DCG・ボーン情報送信部33は、3DCGモデル及びボーン情報を任意の頻度で送信できる。例えば、3DCG・ボーン情報送信部33は、3DCGモデルの送信頻度を低くすると、ネットワークNWの帯域を節約できる。一方、3DCG・ボーン情報送信部33は、ボーン情報の送信頻度を高くすると、3DCGモデルの姿勢変化が滑らかになる。
The 3DCG / bone
Here, the 3DCG / bone
[AR表示制御装置の構成]
図8を参照し、AR表示制御装置5の構成について説明する。なお、図8では、ネットワークNWの図示を省略した。
[Configuration of AR display control device]
The configuration of the AR display control device 5 will be described with reference to FIG. In FIG. 8, the network NW is not shown.
図8に示すように、AR表示制御装置5は、視線入力部50と、視線判定処理部51と、視線人物情報送信部(視線情報送信部)52と、3DCG・ボーン情報受信部(3次元モデル姿勢情報受信部)53と、視線人物情報受信部(視線情報受信部)54と、モード判定部55と、モーションパス情報記録部56と、リダイレクションモード表示制御部57Aと、リアルモード表示制御部57Bと、復帰モーションモード表示制御部57Cと、バーチャル表示部58とを備える。
As shown in FIG. 8, the AR display control device 5 includes a line-of-
視線入力部50は、視線センサ40から自分の視線検出結果を入力するものである。そして、視線入力部50は、入力された自分の視線検出結果を視線判定処理部51に出力する。
The line-of-
視線判定処理部51は、視線入力部50から入力された自分の視線検出結果に基づいて、自分が相手を見ているか否かを判定するものである。
ここで、視線判定処理部51は、後記するバーチャル表示部58から、ARグラス4に表示されている相手領域の情報が入力されると共に、視線入力部50から、自分の視線検出結果が入力される。この場合、視線判定処理部51は、ARグラス4を装着した自分の視線がARグラス4に表示されている相手領域に重なっているか否かにより、自分が相手を見ているか否かを判定する。つまり、視線判定処理部51は、自分の視線が相手領域に重なっている場合、自分が相手を見ていると判定する。一方、視線判定処理部51は、自分の視線が相手領域に重なっていない場合、自分が相手から目をそらしたと判定する。
その後、視線判定処理部51は、自分が相手を見ているか否かの判定結果を、視線人物情報として視線人物情報送信部52に出力する。
The line-of-sight
Here, the line-of-sight
After that, the line-of-sight
視線人物情報送信部52は、ネットワークNWを介して、視線判定処理部51から入力された自分の視線人物情報を相手側のAR表示制御装置5に送信するものである。
The line-of-sight person
3DCG・ボーン情報受信部53は、ネットワークNWを介して、相手の3DCGモデル及びボーン情報を相手側のキャプチャ装置3から受信するものである。そして、3DCG・ボーン情報受信部53は、受信した相手の3DCG・ボーン情報をモード判定部55に出力する。
The 3DCG / bone
視線人物情報受信部54は、ネットワークNWを介して、相手の視線人物情報を相手側のAR表示制御装置5から受信するものである。そして、視線人物情報受信部54は、受信した相手の視線人物情報をモード判定部55に出力する。
The line-of-sight person
モード判定部55は、視線人物情報受信部54から入力された相手の視線人物情報に基づいて、リダイレクションモード、リアルモード及び復帰モーションモードの判定を行うものである。
具体的には、モード判定部55は、相手が自分を所定時間以上見続けている場合にリダイレクションモードと判定する。この場合、モード判定部55は、後記するリダイレクションモード表示制御部57Aに対して、リダイレクションモードを指令し、3DCG・ボーン情報を出力する。
また、モード判定部55は、相手が自分から目をそらした場合にリアルモードと判定する。この場合、モード判定部55は、後記するリアルモード表示制御部57Bに対して、リアルモードを指令し、3DCG・ボーン情報を出力する。
さらに、モード判定部55は、リダイレクションモードと判定された後、相手が自分から所定時間以上目をそらし続けている場合に復帰モーションモードと判定する。この場合、モード判定部55は、後記する復帰モーションモード表示制御部57Cに対して、復帰モーションモードを指令し、3DCG・ボーン情報を出力する。
The
Specifically, the
In addition, the
Further, the
モーションパス情報記録部56は、モーションパス情報を予め記録するメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)等の記憶装置である。このモーションパス情報は、リダイレクションモード表示制御部57A及び復帰モーションモード表示制御部57Cによって参照される。なお、モーションパスの詳細は、後記する。
The motion path
リダイレクションモード表示制御部57Aは、モード判定部55でリダイレクションモードと判定された場合、相手をリダイレクションモードで表示するようにバーチャル表示部58を制御するものである。このリダイレクションモードとは、相手が完全に自分を振り向くようにARグラス4に表示させるモードのことである。このとき、リダイレクションモード表示制御部57Aは、相手の3DCGモデルが自分を自然に振り向くように所定のモーションパスで表示させる。
The redirection mode
ここで、図9(a)〜(c)に示すように、相手が振り向く場合、単純に頭部の角度が変化するのではなく、頭部の中心位置(重心位置)PCや体の姿勢も変化する。なお、図9には、頭部の方向を一点鎖線で図示した。そこで、リダイレクションモード表示制御部57Aは、相手の振り向く動作が自然となるように、3DCGモデルの体(肩、腕等の上半身)を頭部に追随させることが好ましい。例えば、リダイレクションモード表示制御部57Aでは、IK(Inverse Kinematics)を用いることで、3DCGモデルの体を頭部に追随させることができる。
Here, as shown in FIG. 9 (a) ~ (c) , if the other turn around, rather than simply the angle of the head changes, the center position of the head (gravity center position) P C and body posture Also changes. In FIG. 9, the direction of the head is shown by a chain line. Therefore, it is preferable that the redirection mode
リアルモード表示制御部57Bは、モード判定部55でリアルモードと判定された場合、相手をリアルモードで表示するようにバーチャル表示部58を制御するものである。このリアルモードとは、相手を実際の姿勢でARグラス4に表示させるモードのことである。つまり、リアルモード表示制御部57Bは、相手の3DCGモデルをボーン情報の姿勢で表示させる。
The real mode
復帰モーションモード表示制御部57Cは、モード判定部55で復帰モーションモードと判定された場合、相手を復帰モーションモードで表示するようにバーチャル表示部58を制御するものである。この復帰モーションモードとは、自分に振り向いている相手が実際の姿勢に復帰するようにARグラス4に表示させるモードのことである。このとき、復帰モーションモード表示制御部57Cは、リダイレクションモード表示制御部57Aのモーションパスと逆のモーションパスで、相手の3DCGモデルが実際の姿勢に復帰するように表示させる。
The return motion mode
バーチャル表示部58は、リダイレクションモード表示制御部57A、リアルモード表示制御部57B、及び、復帰モーションモード表示制御部57Cからの制御に従って、相手をARグラス4(ARディスプレイ41)にCG合成して表示するものである。つまり、バーチャル表示部58は、リダイレクションモード、リアルモード又は復帰モーションモードの何れかで相手をARグラス4にバーチャル表示する。さらに、バーチャル表示部58は、ARグラス4に表示されている相手領域の情報を視線判定処理部51に出力する。
The
[AR表示制御装置の動作]
図10を参照し、AR表示制御装置5の動作を説明する。
以下、人物HAのARグラス4Aに人物HBを表示するときのAR表示制御装置5Aの動作を一例として説明する。また、人物HAを「自分」とし、人物HBを「相手」と記載する場合がある。
[Operation of AR display control device]
The operation of the AR display control device 5 will be described with reference to FIG.
Hereinafter, will be explained as an example the operation of AR display control unit 5 A when displaying a person H B to AR glass 4 A person H A. In addition, person H A may be described as "self" and person H B may be described as "other party".
まず、AR表示システム1の全体動作を整理する。
相手側のカメラ2Bが人物HBを撮影し、カメラ2Bの撮影映像を用いて、相手側のキャプチャ装置3Bが人物HBの3DCGモデル及びボーン情報を生成する。そして、相手側のキャプチャ装置3Bが、人物HBの3DCGモデル及びボーン情報を、自分のAR表示制御装置5Aに送信する。さらに、相手側のAR表示制御装置5Bが、人物HBの視線人物情報を自分のAR表示制御装置5Aに送信する。
First, the overall operation of the AR display system 1 is organized.
The camera 2 B on the other side shoots the person H B, and the capture device 3 B on the other side generates the 3DCG model and bone information of the person H B using the captured image of the camera 2 B. Then, the
そして、自分のAR表示制御装置5Aが、人物HBの3DCGモデルとボーン情報と視線人物情報とを用いて、人物HAのARグラス4Aに人物HBを表示させる。このとき、AR表示制御装置5Aは、以下で説明する動作を行う。 Then, his AR display control unit 5 A, using the 3DCG model and bones information gaze person information of the person H B, displays the person H B to AR glass 4 A person H A. In this case, AR display control unit 5 A performs the operations discussed below.
図10に示すように、AR表示制御装置5Aのモード判定部55は、初期状態S0からリアルモード状態S1に遷移する。例えば、ARグラス4Aの電源投入時又はリセット時、AR表示制御装置5Aが初期状態になる。
As shown in FIG. 10, the
リアルモード状態S1において、モード判定部55は、リアルモード表示制御部57Bにリアルモードを指令する。すると、リアルモード表示制御部57Bは、人物HAのARグラス4Aに人物HBをリアルモードで表示させる。
In the real mode state S1, the
また、リアルモード状態S1において、モード判定部55は、人物HBの視線人物情報に基づいて、人物HBが自分を見たか否かを判定する。
人物HBが自分を見た場合、モード判定部55は、リアルモード(判定処理)状態S2に遷移する。
Further, in the real mode state S1, the
When the person H B looks at himself / herself, the
リアルモード(判定処理)状態S2において、モード判定部55は、人物HBの視線人物情報に基づいて、人物HBが自分を見続けている時間t1が、予め設定された閾値T1以上であるか否かを判定する。この閾値T1は、任意の値で設定できる(例えば、閾値T1=1秒)。
時間t1が閾値T1以上の場合、モード判定部55は、リダイレクションモード状態S3に遷移する。
In real mode (determination processing) state S2, the
When the time t 1 is equal to or greater than the threshold value T 1 , the
また、リアルモード(判定処理)状態S2において、モード判定部55は、人物HBの視線人物情報に基づいて、人物HBが自分から目をそらしたか否かを判定する。
人物HBが自分から目をそらした場合、モード判定部55は、リアルモード状態S1に遷移する。
人物HBが自分から目をそらしておらず、かつ、時間t1が閾値T1未満の場合、モード判定部55は、リアルモード(判定処理)状態S2の状態を維持する。
Further, in the real mode (determination processing) state S2, the
When the person H B looks away from himself / herself, the
When the person H B is not looking away from himself and the time t 1 is less than the threshold value T 1 , the
リダイレクションモード状態S3において、モード判定部55は、リダイレクションモード表示制御部57Aにリダイレクションモードを指令する。すると、リダイレクションモード表示制御部57Aは、人物HAのARグラス4Aに人物HBをリダイレクションモードで表示させる。
In the redirection mode state S3, the
また、リダイレクションモード状態S3において、モード判定部55は、人物HBの視線人物情報に基づいて、人物HBが自分から目をそらしたか否かを判定する。
人物HBが自分から目をそらした場合、モード判定部55は、リダイレクションモード(判定処理)状態S4に遷移する。
人物HBが自分を見ている場合、モード判定部55は、リダイレクションモード状態S3の状態を維持する。
Further, in the redirection mode state S3, the
When the person H B looks away from himself / herself, the
When the person H B is looking at himself / herself, the
リダイレクションモード(判定処理)状態S4において、モード判定部55は、人物HBの視線人物情報に基づいて、人物HBが自分から目をそらし続けている時間t2が、予め設定された閾値T2以上であるか否かを判定する。この閾値T2は、任意の値で設定できる(例えば、閾値T2=1秒)。
時間t2が閾値T2以上の場合、モード判定部55は、復帰モーションモード状態S5に遷移する。
In Redirection mode (determination processing) state S4, the
When the time t 2 is equal to or greater than the threshold value T 2 , the
また、リダイレクションモード(判定処理)状態S4において、モード判定部55は、人物HBの視線人物情報に基づいて、人物HBが自分を見たか否かを判定する。
人物HBが自分を見た場合、モード判定部55は、リダイレクションモード状態S3に遷移する。
人物HBが自分を見ておらず、かつ、時間t2が閾値T2未満の場合、モード判定部55は、リダイレクションモード(判定処理)状態S4の状態を維持する。
Further, in the redirection mode (determination processing) state S4, the
When the person H B looks at himself / herself, the
When the person H B is not looking at himself and the time t 2 is less than the threshold value T 2 , the
復帰モーションモード状態S5において、モード判定部55は、復帰モーションモード表示制御部57Cに復帰モーションモードを指令する。すると、復帰モーションモード表示制御部57Cは、人物HAのARグラス4Aに人物HBを復帰モーションモードで表示させる。
復帰モーションが終了すると、モード判定部55は、リアルモード状態S1に遷移する。
In the return motion mode state S5, the
When the return motion is completed, the
なお、人物HBのARグラス4Bに人物HAを表示するときのAR表示制御装置5Bの動作も同様のため、説明を省略する。 Since work with similar AR display control unit 5 B when displaying a person H A in AR glass 4 B of the person H B, the description thereof is omitted.
[モーションパス]
図11及び図12を参照し、リダイレクションモード表示制御部57A及び復帰モーションモード表示制御部57Cにおけるモーションパスについて説明する。
[Motion path]
The motion paths in the direction mode
リダイレクションモード表示制御部57Aは、人物HBの頭部が実際の姿勢(頭部角度θ1)から人物HAを振り向く角度(頭部角度θ2)まで、人物HBの3DCGモデルが人物HAを振り向くように連続的に表示させる。このとき、リダイレクションモード表示制御部57Aは、モーションパス情報記録部56のモーションパス情報を用いて、頭部角度θ1から頭部角度θ2までのモーションパスを決定する。
Redirection mode
図11に示すように、モーションパス情報MPは、人物HBの頭部角度θ毎に、頭部位置(xθ,yθ,zθ)及び頭部回転量(rxθ,ryθ,rzθ)を示す情報である。つまり、モーションパス情報MPは、前方(角度θ=0°)から頭部角度θまでの頭部位置(xθ,yθ,zθ)及び頭部回転量(rxθ,ryθ,rzθ)の変化量を示す。なお、図11のモーションパス情報MPでは、頭部角度θが30°間隔になっているが、頭部角度θの間隔は特に限定されない。 As shown in FIG. 11, the motion path information MP includes the head position (x θ , y θ , z θ ) and the head rotation amount (rx θ , ry θ , rs ) for each head angle θ of the person H B. This is information indicating θ). That is, the motion path information MP includes the head position (x θ , y θ , z θ ) and the head rotation amount (rx θ , ry θ , rz θ) from the front (angle θ = 0 °) to the head angle θ. ) Indicates the amount of change. In the motion path information MP of FIG. 11, the head angle θ is at intervals of 30 °, but the interval of the head angles θ is not particularly limited.
図12(a)に示すように、AR表示制御装置5Aでは、実際の姿勢(頭部角度θ1)における人物HBの頭部位置(x,y,z)及び頭部回転量(rx,ry,rz)を常に把握している。従って、リダイレクションモード表示制御部57Aは、実際の姿勢(頭部角度θ1)における人物HBの頭部位置(x,y,z)及び頭部回転量(rx,ry,rz)を、人物HAを基準とする座標系に座標変換することで、図12(b)に示すように、人物HAを振り向く角度(頭部角度θ2)を算出できる。この座標変換は、人物HAのARグラス4Aにおいて、人物HBを表示させるときのものと同様である。なお、人物HBの頭部の方向は、Y軸を鉛直とする方向ryで表される(人物HBの正面として映像表示装置6Bの方向(図12(b)の上方向)を0°とする)。
As shown in FIG. 12 (a), the AR display control unit 5 A, the actual posture head position of the person H B in (head angle θ 1) (x, y, z) and head rotation amount (rx , Ry, rz) are always known. Therefore, the redirection mode
そして、リダイレクションモード表示制御部57Aは、算出した頭部角度θ2に応じたモーションパスで、人物HBが人物HAを振り向くようにARグラス4Aに表示させる。以下、モーションパスの決定について、2つの具体例をあげて説明する。
Then, the redirection mode
<モーションパスの決定:第1例>
この第1例の手法では、リダイレクションモードと判定された時刻t=0とし、時刻t=T3のときの人物HBが人物HAを完全に振り向くように、各時刻tのモーションパスを決定する(但し、0≦t≦T3)。
<Determination of motion path: 1st example>
In the method of this first example, the time t = 0 determined to be the redirection mode is set, and the motion path at each time t is determined so that the person H B at the time t = T 3 completely turns around the person H A. (However, 0 ≦ t ≦ T 3 ).
ここで、各時刻tの頭部角度θtを算出する関数は、以下の式(1)で表される。また、人物HBの頭部をより自然にリダイレクションさせるため、以下の式(2)に示す2次補間関数としてもよい。 Here, the function for calculating the head angle θ t at each time t is expressed by the following equation (1). Further, in order to redirect the head of the person H B more naturally, the quadratic interpolation function shown in the following equation (2) may be used.
まず、リダイレクションモード表示制御部57Aは、式(1)又は式(2)の関数を用いて、頭部角度θ1,θ2から各時刻tの頭部角度θtを算出する。なお、この頭部角度θtは、座標変換前の人物HBを基準とする座標系で算出される。そして、リダイレクションモード表示制御部57Aは、図11のモーションパス情報MPから、各時刻tの頭部角度θtに対応した人物HBの頭部位置(xt,yt,zt)及び頭部回転量(rxt,ryt,rzt)を求める。その後、リダイレクションモード表示制御部57Aは、各時刻tの人物HBの頭部位置(xt,yt,zt)及び頭部回転量(rxt,ryt,rzt)を、人物HAを基準とする座標系に座標変換する。
First, the redirection mode
さらに、リダイレクションモード中に人物HAが動いてしまい、人物HAを振り向く角度(頭部角度θ2)が変化してしまう場合もある。この場合、リダイレクションモード表示制御部57Aは、定期的に頭部角度θ1,θ2を再計算して頭部角度θtを求め、人物HBの頭部位置(xt,yt,zt)及び頭部回転量(rxt,ryt,rzt)を算出すればよい。
Furthermore, in some cases will move a person H A in the redirection mode, the angle (head angle theta 2) that turn around a person H A changes. In this case, the redirection mode
<モーションパスの決定:第2例>
前記した第1例の手法では、リダイレクションモードに入った時点で即座に、人物HBの頭部位置(x,y,z)及び頭部回転量(rx,ry,rz)がモーションパス情報MPの値で設定されてしまい、急な姿勢変化となって違和感を与えてしまう可能性がある。
<Determination of motion path: 2nd example>
In the first example of the procedure described above, immediately upon entering the redirection mode, the head position of the person H B (x, y, z ) and head rotation amount (rx, ry, rz) a motion path information MP It will be set with the value of, and there is a possibility that the posture will change suddenly and give a sense of discomfort.
そこで、第2例の手法では、実際の姿勢における人物HBの頭部位置(x,y,z)及び頭部回転量(rx,ry,rz)から、徐々にモーションパス情報MPの頭部位置(xθ,yθ,zθ)及び頭部回転量(rxθ,ryθ,rzθ)に近づける。 Therefore, in the second example of the method, the head position of the person H B in the actual position (x, y, z) and head rotation amount (rx, ry, rz) from gradually the motion path information MP head Bring it closer to the position (x θ , y θ , z θ ) and the amount of head rotation (rx θ , ry θ , rz θ).
説明を簡易にするため、頭部位置のx座標に着目する。リダイレクションモード表示制御部57Aは、以下の式(3)を用いて、現フレームにおける頭部位置のx座標から、次フレームにおける頭部位置のx´座標を算出する。この式(3)は、予め設定された定数kによる漸化式である。この定数kの値を大きくするほど、モーションパス情報MPの頭部位置(xθ,yθ,zθ)及び頭部回転量(rxθ,ryθ,rzθ)にゆっくりと近づく(但し、k≧1)。また、定数k=1に設定すると、第1例と同様になる。
なお、頭部位置のy座標及びz座標と、頭部回転量(rx,ry,rz)とについても、頭部位置のx座標と同様の漸化式で算出できる。
For the sake of simplicity, we will focus on the x-coordinate of the head position. The redirection mode
The y-coordinate and z-coordinate of the head position and the amount of rotation of the head (rx, ry, rz) can also be calculated by the same recurrence formula as the x-coordinate of the head position.
復帰モーションモード表示制御部57Cは、リダイレクションモード表示制御部57Aにおけるモーションパスと逆のモーションパスで、人物HAに振り向いている人物HBが実際の姿勢に復帰するようにARグラス4Aに表示させればよい。ここで、復帰モーションモード表示制御部57Cは、リダイレクションモード表示制御部57Aと同様の手法でモーションパスを決定できるため、説明を省略する。
また、人物HBのARグラス4Bに人物HAを表示するときのモーションパスも同様のため、説明を省略する。
The return motion mode display control unit 57C displays on the AR glass 4 A so that the person H B who is turning to the person H A returns to the actual posture with a motion path opposite to the motion path in the direction mode
Further, since the motion path of the same when displaying the person H A in AR glass 4 B of the person H B, the description thereof is omitted.
[作用・効果]
以上のように、第1実施形態に係るAR表示システム1は、自分のARグラス4において、相手を前方に表示する場合であっても、相手が完全に自分を振り向いた状態となるので、空間共有での違和感を低減することができる。
さらに、AR表示システム1は、自分側と相手側との装置構成が同一なので、システム構成を簡易にすることができる。
[Action / Effect]
As described above, in the AR display system 1 according to the first embodiment, even when the other party is displayed in front of the AR glass 4, the other party is in a state of completely turning around, so that the space is available. It is possible to reduce the sense of discomfort in sharing.
Further, since the AR display system 1 has the same device configuration on the own side and the other side, the system configuration can be simplified.
(第2実施形態)
[AR表示システムの構成]
図13を参照し、第2実施形態に係るAR表示システム1Bの構成について、第1実施形態と異なる点を説明する。
(Second Embodiment)
[AR display system configuration]
With reference to FIG. 13, the configuration of the
図13に示すように、第2実施形態に係るAR表示システム1Bは、キャプチャ装置3Bをサーバ化した点が、第1実施形態と異なる。つまり、AR表示システム1Bは、2台のカメラ2B(2BA,2BB)と、1台のキャプチャ装置3Bと、2台のARグラス4(4A,4B)と、2台のAR表示制御装置5(5A,5B)とを備える。
As shown in FIG. 13, the
カメラ2Bは、ネットワークNWを介して、人物Hの撮影映像をキャプチャ装置3Bに送信する一般的なネットワークカメラである。このとき、カメラ2Bは、撮影した人物Hの識別情報を撮影映像に付加してもよい。この識別情報を参照すれば、後記するキャプチャ装置3Bが、人物HA又は人物HBの何れの撮影映像であるか特定できる。
The
キャプチャ装置3Bは、カメラ2Bから入力された人物Hの撮影映像を用いて、人物Hの3DCGモデル及び人物Hのボーン情報を生成するものである。つまり、キャプチャ装置3Bは、人物HA,HBの3DCGモデル及びボーン情報を生成する。例えば、キャプチャ装置3Bは、ネットワークNW上に配置された一般的なサーバやクラウドサーバで構成できる。そして、キャプチャ装置3Bは、識別情報を参照し、人物HAの3DCGモデル及びボーン情報をAR表示制御装置5Bに送信し、人物HBの3DCGモデル及びボーン情報をAR表示制御装置5Aに送信する。
他の点、キャプチャ装置3Bは、第1実施形態と同様のため、これ以上の説明を省略する。
The
Since the
[作用・効果]
以上のように、第1実施形態に係るAR表示システム1Bは、第1実施形態と同様、空間共有での違和感を低減することができる。
さらに、AR表示システム1Bは、キャプチャ装置3Bをサーバ化することで、1台のキャプチャ装置3Bで実現可能となり、システム構成をより簡易にすることができる。
[Action / Effect]
As described above, the
Further, the
(第3実施形態)
[AR表示システムの構成]
図14を参照し、第3実施形態に係るAR表示システム1Cの構成について、第1実施形態と異なる点を説明する。
(Third Embodiment)
[AR display system configuration]
With reference to FIG. 14, the configuration of the
図14に示すように、第3実施形態に係るAR表示システム1Cは、キャプチャ装置3CをARグラス4Cに内蔵すると共に撮影映像を送受信する点が、第1実施形態と異なる。つまり、AR表示システム1Cは、2台のカメラ2C(2CA,2CB)と、2台のキャプチャ装置3C(3CA,3CB)と、2台のARグラス4C(4CA,4CB)と、2台のAR表示制御装置5(5A,5B)とを備える。
As shown in FIG. 14, the
カメラ2Cは、ネットワークNWを介して、人物Hの撮影映像を相手側のARグラス4Cに内蔵されたキャプチャ装置3Cに送信する一般的なネットワークカメラである。つまり、カメラ2Aは、人物HAの撮影映像を人物HBが装着するARグラス4CBのキャプチャ装置3Bに送信する。さらに、カメラ2Bは、人物HBの撮影映像を人物HAが装着するARグラス4CAのキャプチャ装置3Aに送信する。
The
キャプチャ装置3Cは、ネットワークNWを介して、カメラ2Cから人物Hの撮影映像を受信し、受信した撮影映像を用いて、人物Hの3DCGモデル及びボーン情報を生成するものである。また、キャプチャ装置3Cは、ARグラス4Cに内蔵されている。
他の点、キャプチャ装置3C及びARグラス4Cは、第1実施形態と同様のため、これ以上の説明を省略する。
The
Since the other points, the
[作用・効果]
以上のように、第3実施形態に係るAR表示システム1Cは、第1実施形態と同様、空間共有での違和感を低減することができる。
さらに、AR表示システム1Cは、3DCGモデルやボーン情報よりもデータ量が少ない撮影映像を送受信するので、ネットワークNWの通信帯域を節約することができる。
[Action / Effect]
As described above, the
Further, since the
(変形例)
以上、本発明の実施形態を詳述してきたが、本発明は前記した実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
前記した各実施形態では、AR表示装置がARグラスであることとして説明したが、これに限定されない。例えば、AR表示装置がAR表示機能を有するスマートフォンであってもよい。
前記した各実施形態では、AR表示制御装置がARグラスに内蔵されることとして説明したが、AR表示制御装置をARグラスの外部に備えてもよい。
(Modification example)
Although the embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and includes design changes and the like within a range that does not deviate from the gist of the present invention.
In each of the above-described embodiments, the AR display device has been described as being an AR glass, but the present invention is not limited thereto. For example, the AR display device may be a smartphone having an AR display function.
In each of the above-described embodiments, the AR display control device has been described as being built in the AR glass, but the AR display control device may be provided outside the AR glass.
前記した各実施形態では、AR表示装置をハードウェアとして説明したが、本発明は、これに限定されない。例えば、本発明は、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、前記したAR表示装置として動作させるプログラムで実現することもできる。これらのプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。 In each of the above-described embodiments, the AR display device has been described as hardware, but the present invention is not limited thereto. For example, the present invention can also be realized by a program that operates hardware resources such as a CPU, memory, and hard disk of a computer as the AR display device described above. These programs may be distributed via a communication line, or may be written and distributed on a recording medium such as a CD-ROM or a flash memory.
1〜1C AR表示システム
2〜2C カメラ
3〜3C キャプチャ装置
4,4C ARグラス
5 AR表示制御装置
6 映像表示装置
30 撮影映像入力部
31 3DCGモデル生成部
32 ボーン情報生成部
33 3DCG・ボーン情報送信部
40 視線センサ
41 ARディスプレイ
50 視線入力部
51 視線判定処理部
52 視線人物情報送信部(視線情報送信部)
53 3DCG・ボーン情報受信部(3次元モデル姿勢情報受信部)
54 視線人物情報受信部(視線情報受信部)
55 モード判定部
56 モーションパス情報記録部
57A リダイレクションモード表示制御部
57B リアルモード表示制御部
57C 復帰モーションモード表示制御部
58 バーチャル表示部
1-1C AR display system 2-2C Camera 3-
53 3DCG / bone information receiver (3D model posture information receiver)
54 Line-of-sight person information receiving unit (line-of-sight information receiving unit)
55
Claims (7)
前記第2の人物が前記第1の人物を見ているか、又は、前記第2の人物が前記第1の人物から目をそらしたかを示す視線情報を受信する視線情報受信部と、
前記視線情報に基づいて、前記第2の人物が所定時間以上前記第1の人物を見続けている場合にはリダイレクションモードと判定し、前記第2の人物が前記第1の人物から目をそらした場合にはリアルモードと判定し、前記リダイレクションモードと判定された後、前記第2の人物が所定時間以上前記第1の人物から目をそらし続けている場合には復帰モーションモードと判定するモード判定部と、
前記リダイレクションモードと判定された場合には、前記第2の人物が前記第1の人物を振り向くように前記AR表示装置に表示させるリダイレクションモード表示制御部と、
前記リアルモードと判定された場合には、前記第2の人物を実際の姿勢で前記AR表示装置に表示させるリアルモード表示制御部と、
前記復帰モーションモードと判定された場合には、前記第1の人物に振り向いている第2の人物が実際の姿勢に復帰するように前記AR表示装置に表示させる復帰モーションモード表示制御部と、
を備えることを特徴とするAR表示制御装置。 The AR display device worn by the first person viewing the video display device displays the second person viewing the other video display device so as to be on the side of the video display device viewed by the first person. AR display control device
A line-of-sight information receiving unit that receives line-of-sight information indicating whether the second person is looking at the first person or whether the second person has turned away from the first person.
When the second person continues to look at the first person for a predetermined time or longer based on the line-of-sight information, it is determined that the direction mode is set, and the second person looks away from the first person. If this is the case, it is determined to be the real mode, and if the second person continues to look away from the first person for a predetermined time or longer after being determined to be the reduction mode, the mode is determined to be the return motion mode. Judgment unit and
When the redirection mode is determined, the redirection mode display control unit that causes the AR display device to display the second person so as to turn around the first person.
When the real mode is determined, the real mode display control unit that displays the second person in the actual posture on the AR display device, and the real mode display control unit.
When the return motion mode is determined, the return motion mode display control unit that causes the AR display device to display the second person who is turning to the first person so that the second person returns to the actual posture.
An AR display control device comprising.
前記リダイレクションモード表示制御部は、実際の姿勢における前記第2の人物の頭部位置及び頭部回転量を座標変換することで、前記第1の人物を振り向いたときの第2の人物の頭部角度を算出し、算出した当該頭部角度に応じたモーションパスで、前記第2の人物が前記第1の人物を振り向くように前記AR表示装置に表示させることを特徴とする請求項1に記載のAR表示制御装置。 A motion path information recording unit for pre-recording motion path information indicating the head position and the amount of head rotation for each head angle of the second person is further provided.
The redirection mode display control unit converts the head position and the amount of rotation of the head of the second person in the actual posture into coordinates, so that the head of the second person when the first person is turned around The first aspect of claim 1, wherein the angle is calculated, and the AR display device is displayed so that the second person turns around the first person with a motion path corresponding to the calculated head angle. AR display control device.
前記リダイレクションモード表示制御部、前記リアルモード表示制御部及び前記復帰モーションモード表示制御部は、前記第2の人物の3次元モデル及び姿勢情報を用いて、前記第2の人物を前記AR表示装置に表示させることを特徴とする請求項1から請求項3の何れか一項に記載のAR表示制御装置。 A three-dimensional model of the second person and a three-dimensional model posture information receiving unit for receiving posture information are further provided.
The redirection mode display control unit, the real mode display control unit, and the return motion mode display control unit use the three-dimensional model and posture information of the second person to display the second person on the AR display device. The AR display control device according to any one of claims 1 to 3, wherein the AR display control device is displayed.
前記視線判定処理部の判定結果を、前記視線情報として、前記第2の人物が装着する他のAR表示装置に送信する視線情報送信部と、
をさらに備えることを特徴とする請求項1から請求項4の何れか一項に記載のAR表示制御装置。 Whether or not the line of sight of the first person overlaps the area of the second person displayed on the AR display device based on the line-of-sight detection result of the first person input from the AR display device. A line-of-sight determination processing unit that determines whether or not the first person is looking at the second person, and
A line-of-sight information transmitting unit that transmits the determination result of the line-of-sight determination processing unit as the line-of-sight information to another AR display device worn by the second person.
The AR display control device according to any one of claims 1 to 4, further comprising.
前記撮影カメラの撮影映像を用いて、前記第2の人物の3次元モデル及び姿勢情報を生成する3次元モデル・姿勢情報生成装置と、
請求項1から請求項5の何れか一項に記載のAR表示制御装置と、を備え、
前記AR表示制御装置は、前記第2の人物の3次元モデル及び姿勢情報を用いて、映像表示装置を視聴する第1の人物が装着するAR表示装置に、前記第2の人物を前記第1の人物が視聴する映像表示装置の側となるように表示することを特徴とするAR表示システム。 A shooting camera that shoots a second person watching another video display device,
A three-dimensional model / posture information generator that generates a three-dimensional model and posture information of the second person using the images taken by the shooting camera.
The AR display control device according to any one of claims 1 to 5 is provided.
The AR display control device uses the three-dimensional model and posture information of the second person to attach the second person to the AR display device worn by the first person who views the video display device. An AR display system characterized in that it is displayed so as to be on the side of a video display device for viewing by a person.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020026834A JP7420585B2 (en) | 2020-02-20 | 2020-02-20 | AR display control device, its program, and AR display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020026834A JP7420585B2 (en) | 2020-02-20 | 2020-02-20 | AR display control device, its program, and AR display system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021131741A true JP2021131741A (en) | 2021-09-09 |
JP7420585B2 JP7420585B2 (en) | 2024-01-23 |
Family
ID=77551061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020026834A Active JP7420585B2 (en) | 2020-02-20 | 2020-02-20 | AR display control device, its program, and AR display system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7420585B2 (en) |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5500671A (en) | 1994-10-25 | 1996-03-19 | At&T Corp. | Video conference system and method of providing parallax correction and a sense of presence |
-
2020
- 2020-02-20 JP JP2020026834A patent/JP7420585B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7420585B2 (en) | 2024-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107801045B (en) | Method, device and system for automatically zooming when playing augmented reality scene | |
US10389937B2 (en) | Information processing device, information processing method, and program | |
US20180115748A1 (en) | Remote telepresence server | |
TWI659335B (en) | Graphic processing method and device, virtual reality system, computer storage medium | |
US10528129B2 (en) | Immersive displays | |
JP6462059B1 (en) | Information processing method, information processing program, information processing system, and information processing apparatus | |
JP2015095802A (en) | Display control apparatus, display control method and program | |
JP2016522463A5 (en) | ||
KR20190112712A (en) | Improved method and system for video conferencing with head mounted display (HMD) | |
CN104536579A (en) | Interactive three-dimensional scenery and digital image high-speed fusing processing system and method | |
US11868546B2 (en) | Body pose estimation using self-tracked controllers | |
WO2018225187A1 (en) | Information processing system, information processing device, server device, image presentation method, and image generation method | |
US20210014468A1 (en) | Information processing apparatus, information processing method, and recording medium | |
JP2020065229A (en) | Video communication method, video communication device, and video communication program | |
US20210278671A1 (en) | Head wearable device with adjustable image sensing modules and its system | |
JP6969577B2 (en) | Information processing equipment, information processing methods, and programs | |
JP5731462B2 (en) | Video communication system and video communication method | |
US11099392B2 (en) | Stabilized and tracked enhanced reality images | |
JP2011113206A (en) | System and method for video image communication | |
JP5759439B2 (en) | Video communication system and video communication method | |
CN107783639A (en) | Virtual reality leisure learning system | |
JP2021131741A (en) | Ar display control device, program therefor, and ar display system | |
US10223821B2 (en) | Multi-user and multi-surrogate virtual encounters | |
JP2020071718A (en) | Information processing device, information processing method, and program | |
JP6999538B2 (en) | Information processing methods, information processing programs, information processing systems, and information processing equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20200313 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240111 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7420585 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |